Journal Search Engine

View PDF Download PDF Export Citation Korean Bibliography PMC Previewer
The Journal of The Korea Institute of Intelligent Transport Systems Vol.20 No.6 pp.331-345
DOI : https://doi.org/10.12815/kits.2021.20.6.331

A Study on Sensor Modeling for Virtual Testing of ADS Based on MIL Simulation

Seong-Geun Shin*, Yun-Seok Baek**, Jong-Ki Park***, Hyuck-Kee Lee****
*ICT Convergence R&D Center, Korea Automotive Technology Institute
**Co-author: Senior Researcher, ICT Convergence Research Center, Korea Automobile Research Institute
***Co-author: Researcher, ICT Convergence Research Center, Korea Automobile Research Institute
****Co-author: Center Director, ICT Convergence Research Center, Korea Automobile Research Institute
Corresponding author : Seong-Geun Shin, sgshin@katech.re.kr
10 November 2021 │ 22 November 2021 │ 23 November 2021

Abstract


Virtual testing is considered a major requirement for the safety verification of autonomous driving functions. For virtual testing, both the autonomous vehicle and the driving environment should be modeled appropriately. In particular, a realistic modeling of the perception sensor system such as the one having a camera and radar is important. However, research on modeling to consistently generate realistic perception results is lacking. Therefore, this paper presents a sensor modeling method to provide realistic object detection results in a MILS (Model in the Loop Simulation) environment. First, the key parameters for modeling are defined, and the object detection characteristics of actual cameras and radar sensors are analyzed. Then, the detection characteristics of a sensor modeled in a simulation environment, based on the analysis results, are validated through a correlation coefficient analysis that considers an actual sensor.



MIL 시뮬레이션 기반 ADS 기능 검증을 위한 환경 센서 모델링에 관한 연구

신 성 근*, 백 윤 석**, 박 종 기***, 이 혁 기****
*주저자 및 교신저자 : 한국자동차연구원 ICT융합연구센터 선임연구원
**공저자 : 한국자동차연구원 ICT융합연구센터 선임연구원
***공저자 : 한국자동차연구원 ICT융합연구센터 연구원
****공저자 : 한국자동차연구원 ICT융합연구센터 센터장

초록


시뮬레이션 기반 가상 검증은 자율주행 기능의 안전성 검증을 위한 주요 요구사항으로 간 주되고 있다. 가상 검증 환경에서는 자율주행차량과 주행 환경은 모두 모델링되어야 하며 특 히, 카메라 및 레이더 센서와 같은 환경 센서의 현실적인 모델링이 중요하다. 하지만 현실적인 인식 결과를 일관되게 제공하기 위한 모델링에 관한 연구는 부족한 실정이다. 이에 본 논문에 서는 MILS(Model in the Loop Simulation) 환경에서 현실적인 오브젝트 인식 결과를 제공하기 위한 센서 모델링 방법이 다루어진다. 먼저, 모델링을 위한 주요 파라미터가 정의되며 카메라 및 레이더 센서의 오브젝트 감지 특성이 분석된다. 분석 결과로부터 모델링된 가상 센서 모델 의 감지 특성은 실물 센서와의 상관계수 분석을 통해 유효성이 검증된다.



    Ⅰ. 서 론

    오늘날 자동차 산업에서 자율주행 기술의 중요성은 점점 더 증대되고 있으며 자율주행 기술의 도입을 통 해 도로 안전 및 사용 편의, 에너지 효율의 향상 등의 이점이 기대되고 있다(Litman, 2021). 자율주행 기술의 도입을 위한 중요한 과제는 복잡하고 다양한 시나리오와 환경조건에서 기능을 검증하고 안전성을 입증하는 것이다. 실제 자율주행차가 사람보다 안전하다는 것을 입증하기 위해서는 천문학적인 거리를 주행해야 하며 (Kalra and Paddock, 2016), 이는 시간과 비용 측면에서 현실적으로 불가능하다. 이로 인해 가상 검증(Virtual Testing)은 첨단운전자지원시스템(Advanced Driver Assistance System, ADAS) 및 자율주행시스템(Automated Driving System, ADS) 기능의 연구 및 개발에서 필수적인 주제로 다뤄지고 있다(Yoon et al., 2020). 그러나 자 율주행 기능이 어떻게 효율적인 방법으로 검증할 수 있는지 여전히 불분명하다. 이를 위해 시뮬레이션 기반 검증과 같은 테스트 방법 수립을 목적으로 ENABLE-S3와 PEGASUS 프로젝트가 수행되었다

    가상 검증 방법으로는 <Table 1>과 같이 MIL(Model in the Loop), HIL(Hardware in the Loop), VIL(Vehicle in the Loop) 등이 활용되며, 실차 기반의 Proving Ground, Real World Test 와 같은 검증 방법이 수행되고 있 다. 각각의 환경이 갖는 실행 속도와 비용, 시나리오 제약, 재현성, 충실도 수준(Level of fidelity)에 대한 고유 한 강점과 약점으로 인해 제조업체에서는 전체 시스템의 개발 및 안전성을 보장하기 위해 한 가지 환경이 아닌 다양한 환경을 활용하고 있다. 일반적으로 시스템의 성능에 대한 기본적인 검증을 목적으로 광범위한 시나리오를 다루는 경우 MIL, HIL과 같이 상대적으로 낮은 충실도(Lower fidelity)를 갖는 환경이 사용되고 있으며 이후 현실적인 시나리오에서 시스템의 성능을 검증하기 위한 목적으로 VIL, Proving Ground, Real World와 같은 충실도가 높은 환경이 사용되고 있다.

    <Table 1>

    Test environments for automotive system

    KITS-20-6-331_T1.gif

    기존 ADAS 시스템과 달리 시스템이 운전의 주체가 되는 ADS 기능의 검증을 위해서는 높은 충실도와 함 께 다양한 시나리오에 대한 현실적인 검증이 요구된다. 이를 위해서는 시나리오의 자유도가 높고 일정한 결 과를 제공하여 반복적인 검증이 가능한 MIL 및 HIL 환경이 적합하다. MIL 시뮬레이션 환경에서 ADS 기능 을 검증하기 위해서는 검증 대상인 AD 제어 모델을 제외한 주행 환경과 센서, 차량 등의 Virtual 요소들이 모두 높은 충실도로 모델링되어야 한다. 여기서, 차량 동역학 및 제어 모델 등은 인지 정보를 제공하는 환경 센서에 비해 이미 잘 개발된 모델(well-developed model)이기 때문에 현실적인 시뮬레이션을 위해서는 카메라, 레이더, 라이다와 같은 환경 인지 센서의 충실한 모델링이 매우 중요하다.

    현재 가상 환경에서 센서 데이터를 생성하기 위한 센서 모델의 형태는 <Table 2>와 같이 구분된다(Rosenberger et al., 2019).

    <Table 2>

    Classification of sensor data generation by implementation

    KITS-20-6-331_T2.gif

    여기서, Ground Truth(GT) 모델이란 World 좌표를 센서별 좌표로 폐기 없이 모든 정보를 변환하는 모델이 다. 이상적인 (Idealized) 센서 모델은 가장 복잡도가 낮고 현실감이 있는 실제 센서 모델의 개념으로 지정된 측정 범위 내의 모든 객체를 감지할 수 있지만 객체의 가려짐(Occlusion)을 고려하지 않는 이상적인 객체 정 보의 형태이다. 현상학적(Phenomenology) 모델은 확률적 모델과 물리적 모델로 구분된다. 앞선 이상적인 모 델보다 확률적이고 현실적인 모델링 방법이다. 확률적 모델은 실물 센서의 측정 테이터 기반의 접근 방식을 사용하며(Hirsenkorn et al., 2015), 물리적 모델은 레이더 및 라이다 센서의 신호 전파 및 반사와 같은 물리적 방정식을 기반으로 한다(Li et al., 2016). 가장 현실적인 모델링 방법이지만 다른 모델 대비 복잡도가 높기 때 문에 실시간성이 보장되지 않으며 시나리오 및 측정의 재현성과 반복성이 확률적 모델링의 영향을 받는다.

    다양한 센서 모델 형태 중 최근 현실적인 센서 모델링을 위해 물리적 특성을 반영한 레이더 센서 모델 (Holder et al., 2018)과 라이다 센서 모델(Coodin et al., 2010), 초음파 센서 모델(Liu et al., 2016)이 제안되었고, 실측 데이터를 활용하여 MIL 환경에서 현실적인 측정값을 제공하기 위한 레이더 센서 모델링 접근이 시도 되었다(Holder et al., 2018). 본 논문에서 다루고자 하는 MIL 시뮬레이션 환경은 개발 및 검증 과정에서 제어 로직의 기능 검증을 목적으로 하여 MIL 환경에서 센서 모델은 일관된 객체 리스트를 제공해야 한다. 하지만 현재 접근 방식은 이상적인 센서 모델을 기반으로 대상 센서의 주요 파라미터(위치, 화각, 인식률 등)를 반영 하는 접근이 일반적이다(Muckenhuber et al., 2019). 하지만 이러한 접근은 실제 주행 환경에서 존재하는 보행 자 및 차량과 같은 오브젝트의 유형에 따른 센서의 감지 특성을 현실적으로 반영하지 못한다. 이에 본 논문 에서는 MIL 시뮬레이션 환경에서 현실적인 센서의 오브젝트 인식 결과를 제공하기 위한 센서 모델링 방안 을 다룬다. 카메라와 레이더 센서를 대상으로 하여 모델링을 위한 주요 파라미터를 식별하고 센서의 보행자 및 차량의 현실적인 감지 특성을 분석한다. 오브젝트별 감지 거리, 감지 정확도, 가려짐 상황에서의 분류 성 능 초점을 맞춰 현실적인 센서 모델링을 위한 파라미터가 제시되며 실물 센서와의 상관도 분석을 통해 유효 성을 검증한다.

    Ⅱ. 모델링 파라미터 식별

    현재 카메라 및 레이더와 같은 환경 센서의 오브젝트 감지 특성을 효과적으로 모델링하기 위해 요구되는 파라미터 및 이를 도출하기 위한 절차 및 방법론은 불분명하다. 이에 본 장에서는 현재 ADAS 성능 평가를 위한 주요 시나리오가 검토되며, 해당 시나리오를 기반으로 센서 모델링을 위한 주요 파라미터가 분석된다.

    1. 시나리오 분석

    본 논문에서는 센서 모델링을 위한 주요 파라미터 식별을 위해 ADAS 기능의 성능 평가를 위한 ISO 및 Euro NCAP (Euro NCAP, 2021)의 몇 가지 시험 시나리오를 대상으로 센서 측면의 요구 성능이 분석되었다. <Fig. 1>은 대상 시나리오를 나타낸다.

    <Fig. 1>

    Test scenarios for ADAS

    KITS-20-6-331_F1.gif

    먼저, ISO-156022 (ACC) 시나리오 경우 센서 관점에서 전방 차량의 최대/최소 감지 거리와 종방향 인식 정확도, 자차선 및 인접 차선에 위치하는 전방 차량 중 자차선 차량을 타겟으로 식별할 수 있는 횡방향 분류 성능이 요구되며, ISO-22839 (FVCMS)의 경우 큰 오브젝트 뒤에 위치한 작은 오브젝트의 분류 성능, 전방 두 차량 간의 오프셋 조건에서 가까이 있는 타겟 차량 식별 성능이 요구된다. ISO-21202 (PALS) 시나리오에서 는 대상 차량의 차선 변경에 있어 안전한 차선 변경을 위한 인접 차선의 차량 인식 성능이 요구된다.

    Euro NCAP AEB C2C (Car to Car) 시나리오에서는 전방 차량의 측정 정확도와 대상 차량의 교차로 회전 상황에서 다가오는 차량과의 충돌을 방지하기 차량 인식 성능이 요구된다. AEB VRU (Vulnerable Road User) 시나리오에서는 주/야간 상황에서 보행자 거리 및 속도 측정 성능이 요구되며, 차량 뒤에서 횡단하는 어린이 보행자의 가려짐 조건에서의 인식 성능이 요구된다. 또한, 자전거(Cyclist) 및 모터사이클과의 충돌을 방지하 기 위한 센서의 오브젝트 인식 성능이 요구된다. 종합해보면 직선로 및 교차로 환경에서 대표적인 도로 사용 자인 차량 및 보행자, 자전거에 대한 센서의 감지 거리 및 정확도, 종/횡방향 타겟 분류 성능이 요구된다.

    2. 모델링 파라미터 정의

    앞선 시나리오 분석 결과로부터 본 논문에서는 센서 모델링을 위한 주요 파라미터로써 차량 및 보행자에 대한 감지 거리, 거리 측정 오차, 횡방향 분류 성능에 초점을 맞춰 주간 환경을 대상으로 모델링이 수행된다. 야간 및 악천후와 같은 주행 환경 또한 조도 및 기후에 의해 센서의 감지 특성이 달라지는 환경으로(Shin et al., 2021), 시스템의 안전성을 보장하기 위해 다뤄져야 하는 중요한 상황이나 본 연구에서는 대표적인 주행 상황인 주간 맑은 날을 대상으로 센서 모델링을 위한 접근이 수행된다. 자전거 및 오토바이 또한 중요한 오 브젝트이나 본 논문에서는 가장 대표적인 도로 사용자인 차량과 보행자를 대상으로 하였다. 정의된 상대 거 리 외에 오브젝트 유형, 속도와 같은 다른 출력 정보 역시 중요하나 일반적으로 센서의 객체 감지 거리 정보 를 기준으로 센서의 감지 성능을 향상하기 위해 수행되는 센서 융합 측면과 사고 위험 판단 측면에서 가장 핵심적인 파라미터인 상대 거리를 대상으로 정의하였다. 횡방향 분류 성능은 가려진 보행자와 같은 대표적 인 사고 상황에서 센서의 성능 저하로 인한 사고 대응 성능 검증을 목적으로 주요 파라미터로써 정의되었다. 해당 파라미터를 도출하기 위해 수행된 시나리오는 <Table 3>과 같다.

    <Table 3>

    Test scenarios for sensor modeling

    KITS-20-6-331_T3.gif

    먼저, 시나리오 (a)는 Euro NCAP AEB C2C CCRs(Car to Car Rear Stationary)과 같이 대상 차량이 전방에 정차 중인 목표 차량 방향으로 접근하는 상황이며, 시나리오 (b)는 Euro NCAP AEB CPNA(Car to Pedestrian Near Adult)와 같이 대상 차량은 우측에서 좌측으로 횡단 중인 성인 보행자와 일정한 오프셋으로 충돌하는 상황이다. 시나리오 (c)는 Euro NCAP AEB CPNC(Car to Pedestrian Near Child) 상황으로 대상 차량 우측으로 주/정차 중인 차량 뒤에서 횡단하는 어린이 보행자와 대상 차량이 충돌하는 상황이다. 시나리오 (d)는 시나리 오 (c)와 동일한 상황이나 대상 차량이 정차 중이며, 일정한 거리를 두고 인접한 차량 뒤에서 성인 보행자가 출현하는 상황으로, 레이더 센서와 같이 좁은 화각을 갖는 센서의 횡방향 타겟 분류 성능을 확인하는 것으로 목적으로 설계되었다. <Fig. 2>는 정의된 시나리오가 수행된 시험 장면을 보여준다.

    <Fig. 2>

    Sensor modeling test scenarios

    KITS-20-6-331_F2.gif

    Ⅲ. 모델링 파라미터 분석

    본 장에서는 모델링이 수행된 대상 센서와 시험 환경이 소개되며, 앞서 소개된 시나리오를 통해 수집된 센서 데이터를 기반으로 센서 모델링을 위한 주요 파라미터의 분석 결과가 제시된다. 또한, 분석 결과로부터 모델링된 대푯값을 기반으로 실차 데이터와의 상관성 분석을 통해 모델링의 유효성이 검증된다.

    1. 대상 센서 및 시험 환경

    일반적으로 카메라 센서는 레이더 센서에 비해 식별(Classification) 성능과 오브젝트 분류 성능이 우수하나 레이더 센서에 비해 감지 거리, 종방향 감지 정확도, 속도 정확도, 환경의 영향도와 같은 측면에서 부족한 성 능을 보인다(Yeong et al., 2021). 이러한 센서의 고유한 특징이 반영될 수 있도록 본 논문에서 센서 모델링은 카메라 및 레이더 센서를 대상으로 수행되었다. 모델링을 수행하기 위한 센서 모델로는 대표적인 차량용 카 메라 센서인 Mobileye 사의 단안 카메라 센서, 레이더 센서는 Denso 사의 양산형 LRR(Long Range Radar) 센 서를 대상으로 하였다. 데이터 분석을 위한 레퍼런스용으로 ibeo 사의 LUX 2010 LiDAR 센서가 추가로 장착 되었다. <Fig. 3>는 대상 센서가 장착된 시험 차량을 보여준다.

    <Fig. 3>

    Test vehicle with sensors

    KITS-20-6-331_F3.gif

    대상 센서의 출력 정보는 오브젝트 속성 정보를 포함한 추적 중인 오브젝트의 리스트이며, 센서에 탑재된 추적 알고리즘을 통해 추적 중인 감지 오브젝트의 종/횡방향 상대 거리 및 속도, 타입, 폭 등의 정보가 CAN 네트워크를 통해 출력된다. 센서 모델링이 수행된 대상 센서의 주요 스펙과 출력 정보는 <Table 4>와 같다.

    <Table 4>

    Sensor configuration and specifications

    KITS-20-6-331_T4.gif

    센서의 현실적인 오브젝트 감지 성능을 분석하기 위해 실제 차량 및 표준 보행자 더미를 활용하였다. 시 험은 카메라 센서의 환경 요인을 고려하여 맑은 날의 주간 시간에 수행되었으며, 각 시나리오는 약 5 ~ 10회 가량 반복하여 수행되었다.

    2. 센서 데이터 분석

    1) 오브젝트 감지 거리 및 정확도

    정의된 시나리오를 기반으로 수행된 시험 결과로부터 센서의 오브젝트 감지 가능 거리 및 측정 오차를 분 석하였다. 분석 방법으로는 reference용 라이다 센서의 오브젝트 감지 결과를 기준으로 감지 거리 및 측정 오 차를 분석하였다. 측정 오차는 센서의 감지 결과와 reference 센서의 측정값을 비교하여(error = reference value – measurement value) 분석되었다. 반복 시험에 대한 분석 결과는 종방향 reference 거리를 기준으로 반복 시 험의 측정 오차를 정렬하였으며, 카메라 센서의 시험 결과를 <Fig. 4>와 같이 나타내었다.

    <Fig. 4>

    Distance measurement error and representative error model of camera sensor

    KITS-20-6-331_F4.gif

    여기서, 카메라 센서의 오브젝트의 측정 거리 오차는 파란점(blue star)이며, 빨간점(red star)은 curve fitting 을 통해 도출한 대표 오차 모델이다. 대푯값으로 모델링된 거리 오차의 유효성 검증에 있어, MIL과 같이 일 정한 결과를 반복하여 제공하는 결정적인(deterministic) 가상 환경에서는 단일 실행의 시계열 비교를 통해 분 석이 가능하다. 반면, HIL 또는 VIL 환경은 어느 정도의 확률의 영향을 받으므로 반복적인 결과의 통계 분포 를 비교하여 검증이 수행될 수 있다. 본 논문에서는 모델링 결과의 유효성을 검증하기 위한 방법으로 Pearson 상관계수를 활용한다. 상관계수는 식 (1)과 같이 결정된다.

    r V , R = | i = 1 N ( V i V ¯ ) ( R i R ¯ ) | i = 1 N ( V i V ¯ ) 2 i = 1 N ( R i R ¯ ) 2
    (1)

    여기서, V , V 는 각각 가상 데이터와 가상 데이터의 평균을 나타내며, R, R은 실제 측정값과 실측값의 평균을 나타낸다. N 은 데이터의 수이며, i는 데이터의 인덱스를 나타낸다. 두 변수 간의 선형 상관관계를 나 타내는 r은 1과 -1 사이의 값을 가지며, 1에 가까울수록 상관성이 높음을 의미한다.

    도출된 거리 오차 모델을 포함한 센서 모델의 측정 거리와 실물 센서 간의 상관성 분석 결과는 평균 90% 수준으로 높은 유사성을 보였다. 도출된 카메라 센서의 주요 파라미터 및 상관성 결과는 <Table 5>와 같다.

    <Table 5>

    Design parameters of the camera sensor model

    KITS-20-6-331_T5.gif

    동일한 시나리오에서 측정된 레이더 센서의 보행자에 대한 인식 거리는 약 종방향 55m ~ 85m 수준이며, 평균 70m에서 감지가 가능하였다. 카메라 센서보다 더 긴 감지 거리를 보이나 레이더 센서의 경우 감지만이 가능하고 오브젝트를 보행자로 식별(classification)은 불가하다. 차량의 경우에는 종방향 110m ~ 180m 정도 구간에서 인식이 가능하였으며, 평균적으로 150m에서 감지가 시작되었다. 감지 거리 오차는 카메라 센서와 동일하게 reference 라이다 센서의 감지 정보를 기준으로 분석되었다. <Fig. 5>는 레이더 센서의 보행자 및 차 량 오브젝트의 감지 오차(blue star)와 대푯값(red star)으로 표현된 결과를 보여준다.

    <Fig. 5>

    Distance measurement error and representative error model of radar sensor

    KITS-20-6-331_F5.gif

    레이더 센서의 보행자 및 차량의 감지 오차는 카메라 센서와 동일하게 거리에 비례하여 증가하는 형태를 보인다. 측정 오차는 카메라에 비해 작은 편으로 종방향 오차는 감지 거리 내에서 최대 1.5m 이내의 정확도 를 보인다. 보행자에 대한 횡방향 오차는 거리에 비례하여 증가하나 레이더 센서의 낮은 해상도로 인해 방향 성은 일관되지 않는 특성을 보인다.

    식(1)을 통해 도출된 거리 오차 모델을 포함한 센서 모델의 측정 거리와 실물 센서 간의 상관성 분석 결과 는 평균 80% 수준으로 나타나며, 종방향 거리는 매우 높은 유사성을 보인 반면, 보행자의 횡방향 측정 거리 값은 40% 수준의 비교적 낮은 유사성을 보였다. 이는 레이더 센서의 낮은 횡방향 해상도와 차량 대비 낮은 반사율을 갖는 보행자의 감지 특성의 결과가 반영된 결과로 여겨진다. 도출된 레이더 센서의 주요 파라미터 및 상관성 결과는 <Table 6>과 같다.

    <Table 6>

    Design parameters of the radar sensor model

    KITS-20-6-331_T6.gif

    2) 오브젝트 분류 성능

    앞서 정의된 시나리오 (c), (d)는 차량에 인접하게 위치한 보행자의 분류 성능을 시험하기 위한 시나리오로 (c)는 시험 차량이 주행 중 전방에 정차된 차량 뒤에서 출현하는 어린이 보행자와의 충돌 상황으로 어린이 보행자는 5km/h의 속도로 이동하여 시험 차량의 앞 범퍼 중앙에 충돌하는 상황이다. 시나리오 (d)는 시험 차 량과 전방 차량이 정차 중이며, 정차 중인 차량 뒤에서 성인 보행자가 출현하는 상황이다. 이때, 시험 차량과 전방 차량의 거리는 약 10m이며, 성인 보행자의 이동 속도는 느림, 보통, 빠른 걸음 정도로 시험이 수행되었 다. 분석 결과는 전방 차량의 끝단을 0m로 기준하여 기준 위치로부터 센서가 보행자를 인식한 시작 시점을 <Table 7>과 같이 거리로 표현하였고 <Fig. 6>은 시나리오 (d)의 보행자 감지 시점을 나타낸다.

    <Table 7>

    Pedestrian discrimination performance results

    KITS-20-6-331_T7.gif
    <Fig. 6>

    Scenario (d) and results graph

    KITS-20-6-331_F6.gif

    카메라 센서는 평균적으로 차량에 벗어난 시점부터 약 0.31m 이후부터 감지가 가능함을 보여준다. 이는 보행자의 폭을 약 0.2m ~ 0.3m로 가정했을 때 보행자가 차량에 의한 가려짐에서 완전히 벗어났을 때 즉, 가 려짐이 없을 때 인식이 가능함을 알 수 있다. 보행자의 이동속도 측면으로 볼 때 (d) 상황에서 빠르게 이동하 는 보행자에 비해 느리게 이동한 보행자의 인식 시점이 빠른 결과로부터 이동속도와 인식시점과의 상관성을 볼 수 있다. 보행자의 형태 측면에서 비교했을 때 성인 보행자의 경우 어린이보다 평균적으로 약 0.3m 빠른 시점에 감지된 결과를 볼 수 있는데 이는 어린이 보행자의 체형이 성인보다 작기 때문에 차량에 가려진 상 황에서 신체 일부가 보이는 영향으로 예측해 볼 수 있다.

    레이더 센서는 카메라 센서에 비해 늦은 반응을 보인다. 반사율이 높은 차량에 인접한 보행자를 식별하기 위해서는 차량에서 평균적으로 약 1m 떨어진 지점에서 감지됨을 알 수 있다. 주행 중 차량 뒤에서 출현하는 어린이 보행자와의 충돌 상황이 (c) 시나리오에서는 레이더 센서의 좁은 화각으로 인해 보행자를 감지하지 못하였지만 화각이 충분하더라도 앞선 결과를 통해 충돌 전 보행자를 감지하는데 어려움이 있을 것으로 예 상해 볼 수 있다.

    Ⅳ. 센서 모델링 시뮬레이션

    본 장에서는 도출된 파라미터를 기반으로 모델링된 가상 센서 모델의 시뮬레이션 결과가 분석된다. 앞서 정의된 시나리오와 동일한 상황이 시뮬레이션 환경에서 구성되며 모델링된 센서 모델은 이상적인 센서 모델 과의 비교를 통해 실물 센서의 현실적인 감지 특성이 반영된 결과가 검증된다.

    1. 시뮬레이션 환경

    센서 모델링을 위한 가상 환경으로는 dSPACE 사의 ASM(Automotive Simulation Model)을 활용하였다. 가 상 센서의 장착 위치, 화각, 감지 거리, 감지 오차, 가려짐 등의 파라미터 설정이 가능하다. 앞서 도출된 모델 링 파라미터인 감지 거리와 감지 오차가 모델링 되었으며, 실차 환경과 동일한 위치에 카메라 및 레이더 센 서 모델이 구성되었다. <Fig. 7>은 시뮬레이션 환경에서 구성된 센서 모델의 파라미터 설정 및 시나리오 (a), (b) 상황을 모사한 시뮬레이션 장면을 보여준다.

    <Fig. 7>

    Sensor modeling and driving simulation environment

    KITS-20-6-331_F7.gif

    먼저, <Fig. 8>은 전방 정지 차량이 존재하는 시나리오 (a) 상황에서 모델링된 카메라 및 레이더 센서의 측 정 결과를 보여준다. 센서가 장착된 대상 차량은 정차 중인 전방 차량 방향으로 50km/h의 속도로 주행하며, 전방 차량과 대상 차량의 오프셋은 50%로 동일한 횡방향 위치를 갖는다.

    <Fig. 8>

    Measurement results of the modeled virtual sensor in scenario (a)

    KITS-20-6-331_F8.gif

    카메라 및 레이더 센서 모델은 전방 차량을 각각 120m, 150m에서 인식을 시작하였다. 이는 실물 센서의 차량 감지 거리가 반영된 현실적인 결과로 이상적인 센서 모델과 비교했을 때 그 차이를 볼 수 있다. 모델링 된 거리 오차는 이상적인 센서 모델의 상대 거리를 기준으로 실물 센서의 오차 특성이 반영된다. 식(2)과 (3) 는 오차가 반영된 레이더 센서 모델의 차량 오브젝트에 대한 종방향 및 횡방향 상대 거리 모델을 나타낸다.

    p x r a d a r , υ e h = { p x i d e a l ( p 1 l o n g , υ e h × p x i d e a l + p 2 l o n g , υ e h ) ± e r 1 , υ e h 0 d r a d a r , υ e h min < p x i d e a l _ d r a d a r , υ e h max o t h e r w i s e
    (2)

    p y r a d a r , υ e h = { p y i d e a l ( p 1 l a t , υ e h × p x i d e a l + p 2 l a t , υ e h ) ± e r 2 , υ e h 0 d r a d a r , υ e h min < p x i d e a l _ d r a d a r , υ e h max o t h e r w i s e
    (3)

    여기서, pxideal , pyideal은 각각 이상적인 센서 모델의 종방향 및 횡방향 상대 거리이며, p1long,vehp2long,veh, p1lat,veh, p2lat,veh 는 각각 <Table 6>에 정의된 레이더 센서 모델의 차량 오브젝트에 대한 종/횡방향 오차 모델 의 계수를 나타낸다. d r a d a r , υ e h min , d r a d a r , υ e h max 는 레이더 센서의 최대/최소 감지거리를 나타내며, 최대 감지거리의 경우 분석 결과로부터 150m로 적용된다. e r 1 , υ e h , e r 2 , υ e h 는 종/횡방향 거리에 대한 확률적인 측정 오차를 나타 내며, 횡방향 오차 모델은 상대 거리에 비례하여 오차가 증가하는 형태로 식 (4)와 같이 표현된다.

    e r 2 , υ e h = p x i d e a l × ( σ l a t , υ e h max / d r a d a r , υ e h max )
    (4)

    여기서 σ l a t , υ e h max 는 레이더 센서 모델의 차량 오브젝트에 대한 횡방향 오차에 대한 최대 표준편차를 나타낸 다. pxideal 값이 d r a d a r , υ e h max 와 같아질 때 오차는 최댓값을 가질 수 있다.

    종방향 오차 모델은 앞서 분석된 결과와 같이 거리와 무관하게 일정한 최대 오차값을 갖는 형태로 식(5) 와 같이 모델링된다.

    e r 1 , υ e h = σ l o n g , υ e h max
    (5)

    여기서 σ l o n g , υ e h max 는 레이더 센서 모델의 차량 오브젝트에 대한 종방향 최대 표준편차이다. 카메라 센서 또 한 동일한 과정을 통해 식(6), 식(7)과 같이 측정 거리에 대한 모델링이 수행되었다.

    p x c a m e r a , υ e h = { p x i d e a l ( a l o n g , υ e h × p x i d e a l b l o n g , υ e h ) ± e c 1 , υ e h 0 d c a m e r a , υ e h min < p x i d e a l _ d c a m e r a , υ e h max o t h e r w i s e
    (6)

    p y c a m e r a , υ e h = { p y i d e a l + ( a l a t , υ e h × p x i d e a l b l a t , υ e h ) ± e c 2 , υ e h 0 d c a m e r a , υ e h min < p x i d e a l _ d c a m e r a , υ e h max o t h e r w i s e
    (7)

    여기서, a l o n g , υ e h , b l o n g , υ e h a l a t , υ e h , b l a t , υ e h 는 <Table 5>에 정의된 카메라 센서 모델의 보행자 오브젝트에 대한 종/횡방향 오차 모델의 계수를 나태난다. d c a m e r a , υ e h min , d c a m e r a , υ e h max 는 카메라 센서의 최대/최소 감지거리를 나타내며, 최대 감지거리의 경우 분석 결과로부터 120m로 적용된다. e c 1 , υ e h , e c 2 , υ e h 는 카메라 센서 모델의 종/ 횡방향 거리에 대한 확률적인 측정 오차를 나타내며, 종/횡방향 오차 모두 상대 거리에 비례하여 오차가 증 가하는 형태로 식(8)과 식(9)과 같이 표현될 수 있다.

    e c 1 , υ e h = p x i d e a l × ( σ l o n g , υ e h max / d c a m e r a , υ e h max )
    (8)

    e c 2 , υ e h = p x i d e a l × ( σ l a t , υ e h max / d c a m e r a , υ e h max )
    (9)

    다음으로 <Fig. 9>는 횡단 보행자와의 충돌 상황인 시나리오 (b)의 카메라 및 레이더 센서 모델의 측정 결 과를 보여준다. 이 때, 센서가 장착된 대상 차량은 30km/h의 속도로 주행하며, 횡단하는 전방 보행자와 75% 의 충돌 오프셋으로 충돌하는 상황이다.

    <Fig. 9>

    Measurement results of the modeled virtual sensor in scenario (b)

    KITS-20-6-331_F9.gif

    카메라 및 레이더 센서 모델은 실물 센서의 평균적인 감지 특성과 같이 전방 보행자를 각각 50m, 70m에 서 인식을 시작하였다. 모델링된 거리 오차는 동일하게 이상적인 센서 모델의 상대 거리를 기준으로 실물 센 서의 오차 특성이 반영된다. 식(10), 식(11)은 오차가 반영된 카메라 센서 모델의 보행자 감지에 대한 종방향 및 횡방향 상대 거리를 나타내며, 식(12)과 식(13)는 레이더 센서 모델의 종/횡방향 상대 거리를 나타낸다.

    p x c a m e r a , p e d = { p x i d e a l ( a l o n g , p e d × p x i d e a l b l o n g , p e d ) ± e c 1 , p e d 0 d c a m e r a , p e d min < p x i d e a l _ d c a m e r a , p e d max o t h e r w i s e
    (10)

    p y c a m e r a , p e d = { p y i d e a l + ( a l a t , p e d × p x i d e a l b l a t , p e d ) ± e c 2 , p e d 0 d c a m e r a , p e d min < p x i d e a l _ d c a m e r a , p e d max o t h e r w i s e
    (11)

    p x r a d a r , p e d = { p x i d e a l ( p 1 l o n g , p e d × p x i d e a l + p 2 l o n g , p e d ) ± e r 1 , p e d 0 d r a d a r , p e d min < p x i d e a l _ d r a d a r , p e d max o t h e r w i s e
    (12)

    p y r a d a r , p e d = { p y i d e a l ( p 1 l a t , p e d × p x i d e a l + p 2 l a t , p e d ) ± e r 2 , p e d 0 d r a d a r , p e d min < p x i d e a l _ d r a d a r , p e d max o t h e r w i s e
    (13)

    레이더 및 카메라 센서의 보행자 감지 모델은 차량 오브젝트에 대한 표현과 같이 <Table 5>와 <Table 6> 에 정의된 파라미터를 기준으로 정의된다. 레이더 센서의 종방향 측정 거리에 대한 확률적인 오차를 나타내 는 er1,ped는 일정한 오차를 갖는 식(5)의 형태를 기반으로 정의되며, 보행자에 대한 파라미터를 적용하여 표 현된다. 횡방향 측정 거리 오차인 er2,ped는 거리에 비례하여 오차가 증가하는 형태인 식(4)를 기반으로 보행 자에 대한 파라미터가 적용된다. 동일하게 카메라 센서의 보행자 오브젝트에 대한 종/횡방향 측정 거리 오차 인 ec1,ped,ec2,ped 또한 식(8)과 식(9)를 기반으로 보행자 오브젝트의 파라미터를 적용하여 표현된다.

    이러한 결과는 <Table 5>와 <Table 6>의 상관도 분석 결과를 통해 현실성이 반영됨을 검증하였고, 실물 센 서의 오브젝트 별 감지 거리 및 오차 특성이 반영되어 이상적인 센서 모델과 비교했을 때 시스템의 성능 평 가에 있어 실차 환경에서 발생할 수 있는 센서의 현실적인 감지 특성을 고려할 수 있다.

    Ⅴ. 결 론

    본 연구에서는 MIL 시뮬레이션 환경에서 자율주행시스템의 기능 검증을 위한 환경 센서 모델링 방법에 대해 다루었다. ADAS 평가 시나리오를 기반으로 센서 모델링을 위한 주요 파라미터가 검토되었고 실차 시 험을 통해 수집된 카메라 및 레이더 센서의 오브젝트 감지 특성이 분석되었다. 주요 파라미터로써 보행자 및 차량에 대한 감지 가능 거리와 측정 거리 오차, 횡방향 분류 성능에 초점을 맞춰 실물 센서 데이터를 기반으 로 해당 파라미터를 모델링하였으며, 상관계수를 통해 모델링 결과의 유효성을 입증하였다. 하지만 센서의 오차 특성에는 calibration 및 시험 환경 등과 같은 다양한 요인으로 인한 결과가 포함됨을 고려되어야 하며, 본 논문에서 수행한 시나리오 기반 접근법은 동일한 상황에서는 현실적인 결과를 제공할 수 있으나 다양한 상황에서 일관된 특성을 보장할 수 없다. 다양한 주행 상황에서 검증이 요구되는 자율주행시스템의 검증에 있어 현실적인 감지 특성을 주행 상황에 맞게 적절히 제공할 수 있는 접근이 수행되어야 할 것이다.

    ACKNOWLEDGEMENTS

    본 연구는 국토교통부 및 국토교통과학기술진흥원의 연구비지원(21AMDP-C162182-01)으로 수행된 연구임.

    Figure

    KITS-20-6-331_F1.gif

    Test scenarios for ADAS

    KITS-20-6-331_F2.gif

    Sensor modeling test scenarios

    KITS-20-6-331_F3.gif

    Test vehicle with sensors

    KITS-20-6-331_F4.gif

    Distance measurement error and representative error model of camera sensor

    KITS-20-6-331_F5.gif

    Distance measurement error and representative error model of radar sensor

    KITS-20-6-331_F6.gif

    Scenario (d) and results graph

    KITS-20-6-331_F7.gif

    Sensor modeling and driving simulation environment

    KITS-20-6-331_F8.gif

    Measurement results of the modeled virtual sensor in scenario (a)

    KITS-20-6-331_F9.gif

    Measurement results of the modeled virtual sensor in scenario (b)

    Table

    Test environments for automotive system

    Classification of sensor data generation by implementation

    Test scenarios for sensor modeling

    Sensor configuration and specifications

    Design parameters of the camera sensor model

    Design parameters of the radar sensor model

    Pedestrian discrimination performance results

    Reference

    1. Enable-S3,European Initiative to Enable Validation for Highly Automated Safe and Secure Systems, https://www.enable-s3.eu
    2. Euro NCAP (2021), Test Protocol-AEB Car-to-Car systems and AEB/LSS VRU Systems.
    3. Goodin C., Kala R., Carrrillo A. and Liu L. Y. (2009), “Sensor modeling for the Virtual Autonomous Navigation Environment,” SENSORS, 2009 IEEE, pp.1588-1592.
    4. Hirsenkorn N. , Hanke T. , Rauch A. and Dehlink B. (2015), “A Non-Parametric Approach for Modeling Sensor Behavior,” In 16th International Radar Symposium (IRS), Dresden, pp.131-136.
    5. Holder M. , Linnhoff C. , Rosenberger P. , Popp C. and Winner H. (2019), “Modeling and Simulation of Radar Sensor Artifacts for Virtual Testing of Autonomous Driving,” In 9, Tagung Automatisiertes Fahren.
    6. Holder M. , Rosenverger P. , Winner H. , Makkapati V. P. , Maier M. , Schreiver H. , Magosi Z. , D’hondt T. , Slavik Z. , Bringmann O. and Rosenstiel W. (2018), “Measurements revealing Challenges in Radar Sensor Modeling for Virtual Validation of Autonomous Driving,” 2018 21st International Conference on Intelligent Transtpotation Systems(ITSC), Maui, HI, USA.
    7. Kalra N. and Paddock S. M. (2016), “Driving to Safety: How Many Miles of Driving Would It Take to Demonstrate Autonomous Vehicle Reliability?,” Transportation Research Part A: Policy and Practice, vol. 94, pp.182-193.
    8. Li Y. , Wang Y. , Deng W. and Li X. (2016), Lidar Sensor Modeling for ADAS Applications under a Virtual Driving Environment, SAE Technical Paper 2016-01-1907.
    9. Litman T. (2021), Autonomous Vehicle Implementation Predictions: Implications for Transport Planning, Victoria Transport Policy Institute.
    10. Liu Z. , Deng W. , Li Y. , Jiang L. , Li X. and Wang Y. (2016), Physical Modeling Method on Ultrasonic Sensors for Virtual Intelligent Driving, SAE Technical Paper 2016-01-1901.
    11. Muckenhuber S. , Holzer H. , Riibsam J. and Stettinger G. (2019), “Object-based sensor model for virtual testing of ADAS/AD functions,” 2019 IEEE International Conference on Connected Vehicles and Expo(ICCVE), Graz, Austria.
    12. Pegasus,Pegasus Research Project-Securing Automated Driving Effectively, http://www.pegasus-projekt.info/en/
    13. Rosenberger P. , Wendler J. T. , Holder M. , Linnhoff C. , Berghofer M. , Winner H. and Maurer M. (2019), “Towards a Generally Accepted Validation Methodology for Sensor Models-Challenges, Metrics, and First Results,” In Graz Symposium Virtual Vehicle (GSVF) 2019, Graz, Austria, p.13.
    14. Shin S. G. , Baek Y. S. , Park J. K. and Lee H. K. (2021), “Test Scheme for Estimating Illumination Dependence of Camera Sensor for Night Pedestrian Safety,” The Conference of The Korea Institute of Intelligent Transport Systems, Jeju, South Korea.
    15. Yeong D. J. , Velasco-Hernandez G. , Barry J. and Walsh J. (2021), “Sensor and Sensor Fusion Technology in Autonomous Vehicles: A Review,” Sensors 2021, vol. 21, no. 6, p.2140.
    16. Yoon S. , Jung J. , Hong J. , Lim K. , Kim J. and Kim H. (2020), “Development of Autonomous Vehicle Learning Data Generation System,” The Journal of The Korea Institute of Intelligent Transport Systems, vol. 19, no. 5. pp.162-177.

    저자소개

    Footnote