아래 내용을 영어 원문으로 읽어보시기를 희망하시는 경우 여기를 클릭해주십시오.

From Feet-Off and Eyes-Off Driving — to Brain-Off Driving

Feet-Off 및 Eyes-Off Driving에서 Brain-Off Driving으로

 

어시스트 드라이빙은 어댑티브 크루즈 컨트롤, 긴급 제동을 위한 첨단 운전자 지원 시스템(ADAS)과 같은 발을 떼는 기술에서 시작되었습니다. 이후 차선 중심 기능을 갖춘 핸즈오프(hands-off) 주행과 도로와 주행 상황을 차량이 감지하고 자동으로 반응하는 아이오프(eye-off) 주행으로 진화했습니다. 그리고 지금은 완전 자율주행차로 두뇌를 벗어난 운전이 테스트되고 있습니다.

Society of Automotive Engineers(SAE)는 완전 수동(레벨 0)에서 완전 자율(레벨 5)까지 6단계의 운전 자동화를 정의했습니다. 발을 떼고 손을 떼는 기술은 보조 운전(레벨 1-3)으로 분류됩니다. Eyes-off 및 brain-off 기술(레벨 4 및 5)은 보조 차량과 자율 차량을 구분하는 중요한 단계를 나타냅니다.

오늘날 대부분의 차량은 레벨 2에 있으며, 이 레벨에서는 차량이 긴급 제동 또는 주차 지원과 같은 일부 기능을 처리할 수 있습니다. 고속도로나 교통 체증에 대한 자동 조종 장치가 있는 레벨 3 차량이 출시되기 시작했습니다. 오늘날의 레벨 4 차량은 Waymo 자동차와 같은 프로토타입일 뿐입니다. 2030년까지 미국에는 1억 1,000만 대의 자율주행차 중 1,600만~1,700만 대의 자율주행차가 있을 것으로 추정되며, 이는 전체 자동차 판매의 일부에 불과합니다.

자율주행차의 느린 성장에는 여러 가지 근본 원인이 있습니다. 인프라, 법률 및 승인 문제 외에도 eyes-off 및 brain-off 운전으로 이동하려면 자동차 제조업체가 많은 문제를 극복해야 합니다. 여기에는 올바른 센서 선택, 차량의 올바른 위치에 센서 통합, 가장 예측할 수 없는 시나리오를 포함하여 모든 시나리오를 파악하기 위한 테스트 및 결정 대기 시간 최적화가 포함됩니다. 궁극적으로 자율주행차는 모든 도로와 모든 기상 조건에서 인간보다 뛰어난 성능을 발휘해야 하며 이러한 결과를 달성하는 데 광학 센서가 매우 중요합니다.

이 블로그 게시물에서는 광학 센서용 디지털 트윈 기술이 현장 테스트의 필요성을 줄임으로써 자율 주행 차량의 채택을 가속화하는 방법을 살펴보겠습니다.

Why Optical Sensors Are the Critical Building Blocks of Autonomous Vehicles

광학 센서가 자율 주행 차량의 핵심 빌딩 블록인 이유

 

오늘날의 차량에는 주행 조건을 감지하고 환경 및 운전자와 상호 작용하며 의사 결정을 내리는 데 매우 중요한 수많은 광학 구성 요소가 있습니다. 여기에는 환경의 2D 사진을 찍는 카메라, 3D 포인트 맵을 얻는 LiDAR, 저조도 환경을 자동으로 보정하는 헤드램프, 안개, 아지랑이 및 비를 뚫고 볼 수 있는 레이더가 포함됩니다. 수동 운전에서 자동 운전으로의 진화에는 훨씬 더 많은 센서, 컴퓨팅 성능 및 새로운 전기/전자(E/E) 아키텍처가 필요합니다. 시장 관점에서 2025년 총 센서 시장 수익은 224억 달러에 달할 것이며, 레이더 수익은 91억 달러, 카메라 모듈 수익은 81억 달러, 컴퓨팅 하드웨어는 35억 달러, LiDAR는 17억 달러에 달할 것으로 예상됩니다. 궁극적으로 완전 자율 주행 차량은 4~6개의 레이더 시스템, 1~5개의 LiDAR 시스템, 6~12개의 카메라에 의존하게 됩니다.

오늘날 자율주행 시장은 아직 미숙하며 현재 많은 기술과 시스템 설계가 테스트되고 있습니다. 만능 솔루션은 없습니다. 예를 들어 Tesla는 2014년에 도입된 자동 조종 장치 시스템에서 단일 전방 카메라를 사용하기 시작했습니다. 최신 모델에는 이제 자동차 주변에 8개 이상의 카메라가 포함되며 LiDAR 또는 레이더 시스템은 없습니다. 이와는 대조적으로 최신 Waymo 자율 주행 차량에는 5개의 LiDAR 시스템, 29개의 카메라 및 주변 환경을 스캔하는 6개의 레이더가 있습니다. 두 시스템 모두 현장에서 여전히 많은 테스트를 거쳤으며 Waymo는 자체 자율 차량으로 총 500만 마일 이상을 주행하며 선두를 달리고 있습니다. Waymo는 또한 운전 시뮬레이터를 구축하고 방대한 양의 합성 운전 데이터를 축적했습니다. 그러나 이 현장 데이터가 얼마나 신뢰할 수 있고 포괄적인지, 시뮬레이션된 상황이 얼마나 현실에 근접했는지에 대한 의문은 여전히 남아 있습니다.

광학 센서는 자율 주행 차량의 중요한 구성 요소입니다. 센서의 정확한 디지털 트윈은 설계 및 테스트에서 통합 및 자율 주행 시스템 공동 최적화에 이르는 작업에 운전 시뮬레이터를 사용할 수 있는 가능성을 열어줄 수 있습니다. 이를 통해 자율 주행 차량의 현장 테스트를 크게 줄이고 채택을 가속화할 수 있습니다. 이것이 어떻게 작동하는지 살펴보겠습니다.

Fostering Co-Design and Enabling Virtual Testing with Accurate Sensor Models

정확한 센서 모델로 공동 설계 촉진 및 가상 테스트 지원

 

자율 주행 아키텍처 구축은 올바른 센서를 선택하고 필요한 것을 감지하는지 확인하는 것부터 시작됩니다. 현재 감지 플랫폼 및 인식 시스템 개발에는 차량의 센서 하드웨어 통합 및 보정은 물론 기존 지상 실측 데이터 수집 및 주석이 필요합니다. 이러한 프로세스는 비용이 많이 들고 시간이 많이 소요됩니다. 일반적으로 전체 설계-테스트 루프는 최종 시스템 검증에 도달하기 전에 여러 번 완료됩니다. 가상 테스트를 통해 이 개발 주기를 단축하고 그렇게 함으로써 자율 주행 차량을 안전하게 만드는 데 필요한 도달할 수 없는 100억 마일의 현장 테스트를 피하는 것이 매우 중요합니다.

가상 테스트에 무엇이 필요합니까? 차량 모델과 가상 환경 사이에는 컴퓨터에서 동작을 평가하기 위해 센서의 정확한 디지털 표현이 필요합니다. 물론 자율주행에는 안전성과 신뢰성이 중요하기 때문에 이러한 모델은 최대한 정확해야 합니다. 센서가 다양한 조건에서 환경과 상호 작용하는 방식과 이 상호 작용이 센서의 원시 데이터 품질에 미치는 영향을 정확하게 반영해야 합니다. 모든 조건에서 센서의 동작을 이해하고 물리적으로 현실적인 센서 모델을 얻는 것은 광학 외삽 모델을 통해 달성할 수 있습니다. 광선 추적 기술 또는 전자기 솔버는 전파, 상호 작용 및 수신 기능뿐만 아니라 방출 기능(예: 광 출력, 파장 및 파면)을 포함하는 모델을 구축하는 데 중요한 자산입니다. 기업들은 이미 LiDAR 파라메트릭 모델을 지원하기 위해 협력하고 있습니다. dSPACE와 제휴한 LeddarTech가 한 예입니다.

센서 모델은 다양한 센서 개념과 조합의 시뮬레이션을 가능하게 하고 전체 시스템을 조립하지 않고도 센서 설계 요구 사항을 검증합니다. 완전히 신뢰할 수 있으려면 아직 갈 길이 멀고 이러한 모델에 추가할 보완 기능이 있습니다. 예를 들어 인위적인 오류(누락점, 불균일한 밀도) 또는 "설계된" 센서가 아닌 "제조된" 센서를 재현하는 체계적인 오류가 있습니다.

Optimizing Integration

통합 최적화

 

LiDAR와 카메라를 차량에 통합하기 위한 최적의 위치는 어디입니까? 디지털 트윈 시뮬레이션은 이 질문에 답하는 데 도움이 될 수 있습니다. 레이더 시스템은 이미 차체에 잘 통합되어 있지만 LiDAR와 카메라 시스템을 통합하는 것은 어려운 일입니다. 시스템은 미관, 먼지, 오물, 엔진 열과 같은 요소를 고려하면서 제대로 작동해야 합니다. 예를 들어 차량 그릴이나 범퍼에 LiDAR 또는 카메라를 배치할 수 있지만 엔진 열이나 도로 잔해가 광학 성능을 방해할 위험이 있습니다. 이러한 시스템을 차량 헤드램프에 통합하는 것이 최선의 절충안인 것 같습니다. 일부 회사는 이러한 통합을 가능하게 하기 위해 힘을 합쳤습니다.

물리적으로 현실적인 가상 환경 외에도 센서를 차량에 최적화하려면 각 센서에 대한 다중 물리 모델이 필요합니다. 이를 통해 근처 헤드램프의 열 또는 기생광과 같은 즉각적인 환경 요소와 함께 센서 기능의 시뮬레이션 요소를 보장합니다.

Avoiding Data Deluge

데이터 폭주 방지

 

마지막으로 자율주행차가 빠르게 움직이고 중요한 시나리오에 신속하게 대응해야 하는 경우 센서 처리 시간은 특히 중요한 문제입니다. 자율 주행 차량에 사용되는 기계 학습 알고리즘은 원시 데이터에서 통찰력을 추출하여 도로 상태를 파악하고 결정을 내립니다. 여기에는 보행자 위치, 도로 조건, 조도, 주행 상태 및 차량 주변의 물체가 포함될 수 있습니다.

더 나은 이미지 센서와 비전 프로세서의 개발로 전방 카메라의 성능 수준을 높이는 것이 가능해졌습니다. LiDAR 시스템은 점점 더 정확한 3D 지도를 제공하고 있습니다. 이러한 요소는 에지에서 처리해야 하는 엄청난 양의 데이터를 생성합니다. 평균적인 인터넷 사용자가 하루에 약 1.5GB의 데이터를 처리하는 데 비해 자율주행차 한 대가 하루에 최대 4TB의 데이터를 처리할 수 있습니다.

Going Beyond

자율 주행차의 미래

 

이 블로그 게시물에서는 물리적으로 사실적인 센서 모델이 자율 주행의 핵심 구성 요소인 이유를 설명했습니다. 이를 통해 가상 테스트, 통합 최적화 및 하드웨어-소프트웨어 시스템 수준 설계가 가능합니다. Mobileye의 CEO이자 설립자인 Shashua 교수의 말을 인용하자면, “자율주행차는 모든 기술 요소가 단일 통합 시스템으로 구축되어 모든 요소 간의 시너지 효과를 가능하게 할 때만 성공할 것입니다. 실리콘에서 전체 자율 구동 시스템까지 전체 스택을 구축하는 것은 만만치 않은 작업입니다.”[1] 광학, 전기 및 기계 설계 소프트웨어는 이러한 비전을 지원하고 물리적으로 사실적이고 충실도가 높은 모델을 구축하는 데 우리가 필요로 하는 중요한 도구입니다.