Journal Search Engine

View PDF Download PDF Export Citation Korean Bibliography PMC Previewer
The Journal of The Korea Institute of Intelligent Transport Systems Vol.22 No.3 pp.160-174
DOI : https://doi.org/10.12815/kits.2023.22.3.160

A Research on Improving the Shape of Korean Road Signs to Enhance LiDAR Detection Performance

Ji yoon Kim*, Jisoo Kim**, Bum jin Park***
*Dept. of Highway & Transportation Research, KICT
**Co-author: Korea Institute of Civil Engineering and Building Technology, Road Traffic Research Division, Full-time Researcher
***Corresponding author: Research Fellow, Road Traffic Research Division, Korea Institute of Civil Engineering and Building Technology
Corresponding author : Bum jin Park, park_bumjin@kict.re.kr
16 May 2023 │ 24 May 2023 │ 7 June 2023

Abstract


LiDAR plays a key role in autonomous vehicles, and to improve its visibility, it is necessary to improve its performance and the detection objects. Accordingly, this study proposes a shape for traffic safety signs that is advantageous for self-driving vehicles to recognize. Improvement plans are also proposed using a shape-recognition algorithm based on point cloud data collected through LiDAR sensors. For the experiment, a DBSCAN-based road-sign recognition and classification algorithm, which is commonly used in point cloud research, was developed, and a 32ch LiDAR was used in an actual road environment to conduct recognition performance tests for 5 types of road signs. As a result of the study, it was possible to detect a smaller number of point clouds with a regular triangle or rectangular shape that has vertical asymmetry than a square or circle. The results showed a high classification accuracy of 83% or more. In addition, when the size of the square mark was enlarged by 1.5 times, it was possible to classify it as a square despite an increase in the measurement distance. These results are expected to be used to improve dedicated roads and traffic safety facilities for sensors in the future autonomous driving era and to develop new facilities.



LiDAR 시인성 향상을 위한 국내 교통안전표지 형상개선에 대한 연구

김 지 윤*, 김 지 수**, 박 범 진***
*주저자 : 한국건설기술연구원 도로교통연구본부 박사후연구원
**공저자 : 한국건설기술연구원 도로교통연구본부 전임연구원
***교신저자 : 한국건설기술연구원 도로교통연구본부 연구위원

초록


자율주행차량에서 핵심적인 역할을 수행하는 LiDAR의 주변 환경 검지 시인성을 향상시키 기 위해서는 LiDAR 성능의 개선 뿐만 아니라, 검지 물체의 개선도 필요하다. 이에 본 연구는 LiDAR 센서를 통해 수집되는 point cloud 데이터 기반의 형상인식 알고리즘을 활용하여 자율 주행차량이 인식하기에 유리한 교통안전표지 형상과 개선방안을 제시하였다. 실험을 위해 point cloud 활용 연구에서 보편적으로 활용되는 DBSCAN 기반의 도로표지 인식·분류 알고리 즘을 개발하고 실도로 환경에서 32ch LiDAR를 활용, 도로표지 5종에 대한 인식 성능 실험을 수행하였다. 연구결과, 정사각형이나 원형보다는 상하 비대칭이 있는 정삼각형, 직사각형과 같 은 형상이 보다 적은 점군의 수로도 검지가 가능하고, 83% 이상의 높은 분류 정확도를 보였다. 또한, 정사각형 표지의 크기를 1.5배 확대할 경우, 분류 정확도를 향상시킬 수 있었다. 이러한 결과는 미래 자율주행 시대의 센서를 위한 전용 도로·교통안전시설물 개선 및 신규 시설물 개 발에 활용될 수 있을 것으로 기대된다.



    Ⅰ. 서 론

    1. 연구의 배경 및 목적

    자율주행기술은 차량을 안전하게 제어하기 위하여 끊임없이 센서로 도로와 주변의 상황을 수집한다(Kim and Park, 2022a). 운전자의 눈 역할을 수행하는 센서는 영상(Vision), 레이더(Radar), 라이다(Light Detection and Ranging, 이하 LiDAR), 초음파(Ultrasonic) 등이 있으며, 센서 별로 작동하는 원리와 영향요인이 달라 자 율주행차량은 검지 영역‧목적‧대상 등에 따라 센서 역할을 구분하여 활용한다(KICT, 2021). LiDAR는 자율주 행기술 발전을 주도하는 센서로(Li and Ibanez-Guzman, 2020), 검지하는 물체의 3D 고해상도(High-resolution) 점군데이터(Point Cloud)와 정확한 거리를 제공한다. 이에 대부분의 자율주행차량은 주변차량, 보행자, 도로‧ 교통안전시설물 등의 검지를 LiDAR가 담당하고 있다(Tang et al., 2020). <Fig. 1>은 기존의 일반적인 자율주 행차량의 데이터 프로세스이다(Tang et al., 2020). <Fig. 1>에서와 같이 기존의 LiDAR는 정확한 물체 검지 데 이터 퓨전을 실행하기 위해 정보를 수집하는 과정에만 주로 활용되었다. 하지만, 정밀지도 기반의 자율협력 주행차량은 GPS의 오류를 보정하기 위하여 주변의 차선과 도로교통안전표지 등의 도로‧교통안전시설물을 LiDAR로 인식하고, 정밀지도상의 도로시설물의 위치를 비교하는 측위(Localization) 지원 역할도 수행하는 등 점차 LiDAR의 활용 영역이 확대되고 있다. 즉, LiDAR는 물체 정보를 수집하는 기존의 물체 검지 역할뿐만 아니라 자율협력주행에 필요한 차량의 절대측위를 보정해주는 측위보정 역할(상대측위 지원)도 동시에 수행 한다(Kim and Park, 2022b).

    <Fig. 1>

    The framework example of autonomous vehicle data processing (Source : Tang et al., 2020)

    KITS-22-3-160_F1.gif

    LiDAR의 역할 확대와 더불어 LiDAR가 검지하는 물체의 정확한 인식(Perception)과 분류(Classification)를 지원하기 위하여 기존의 도로‧교통안전시설물의 물리적인 형상 등을 개선하는 노력이 시도되고 있다. 도로 공사 구간에 설치되는 교통안전콘을 LiDAR 검지에 적합하게 개선하는 연구(KICT, 2021)와 자율주행혁신사 업단에서 수행중인 ‘크라우드소싱기반의 디지털인프라 도로‧교통인프라 융합 플랫폼 기술개발’과제에서 장 애물표적표시, 연석, 교통안전표지등의 기존의 시설물을 LiDAR 전용 시설물로 개선하는 연구는 대표적 사례 이다. LiDAR는 영상(Vision)센서와 비교하여 조도와 날씨에 변화에 강건하다고 알려져 있어(Kutila et al., 2016;Kim et al., 2021;Kim et al., 2023) LiDAR 전용 시설물의 개발은 야간과 안개‧비 등의 악천후 시 자율 주행차량의 안전한 주행에 기여할 것으로 기대된다. 전통적으로 도로‧교통안전시설물은 운전자의 눈에 적합 하게 만들어져 설계·개발된 이유로 LiDAR 전용 시설물이 현재, 즉시 적용되기는 현실적으로 어렵겠지만, 미 래 Lv4+ 완전자율주행시대의 도로에는 적용이 가능할 것이다. Park(2022)은 LiDAR의 검지 특성을 활용하여 눈으로 보는 모양과 LiDAR가 보는 모양이 다른 표지판을 개발 중에 있다. 또한, 3M은 적외선 카메라를 활 용하여 눈으로 보는 모양과 적외선 카메라가 인식하는 모양이 다른 교통안전표지를 개발하였고, 영상카메라 만 인식이 가능한 교통안전표지 개발 사례도 있다(KICT, 2021). 센서 전용 도로‧교통안전시설물 개선을 위한 연구는 센서와 AI기술의 발전을 고려할 때, 시기 적절히 연구되고 있다고 판단된다. 하지만, LiDAR 센서를 위한 전용 시설물 연구는 LiDAR의 기계적 개발과 점군데이터의 AI 분석 분야의 연구발전에 비해 미진한 수 준이다. Kim and Park(2022a), Kim and Park(2022b), Kim et al.(2023)은 LiDAR가 물체 검지 시 성능의 영향을 끼치는 영향요인을 기계·물리·S/W로 구분하였고, 실도로 실험을 통해 검증하였다. 실험을 통해 수집한 점군 데이터를 분석하여 측정거리, 재질, 색깔, 설치 높이, 안개와 강우 등의 외부 물리 영향요인을 밝히고, LiDAR 성능 변화 결과를 제시하였다. 하지만, 인식 알고리즘 등의 S/W에 따른 LiDAR의 성능변화와 도로·교통안전 시설물의 개선방안 등은 제시한 사례가 거의 없다. 이는 LiDAR 인식 S/W 등이 아직 상용화되지 않아 세부 알고리즘의 공개가 많지 않은 이유로 판단된다(Jeon and Kim, 2021). Tang et al.(2020)도 <Fig. 1>의 데이터 프 로세스를 설명하면서 LiDAR의 물체 검지에서 가장 중요한 영향요인은 공개되지 않는 인식 알고리즘 (Undisclosed Algorithm)이며, 이것이 LiDAR의 물체 검지성능에 강한 영향을 끼친다고 언급하였다.

    2. 연구의 범위 및 방법

    본 논문은 이러한 점을 고려하여 도로‧교통안전시설물 관점에서 LiDAR의 시인성을 높이는 방안을 연구 하였다. 구체적으로는 보편적 성능을 가진 점군데이터 분석 알고리즘을 활용, 교통안전표지의 형상별 인식 정확도를 산출하여 LiDAR 센서용 시설물의 형상 개선 방안을 제시하고자 한다. 이를 위해 국내 도로교통법 상 주의·규제·지시·보조 표지의 제작에 활용되는 모양인 정삼각형, 원형, 정사각형, 직사각형 모양의 표지를 제작하였으며, LiDAR가 표지 검지 시 취득하게 되는 점군데이터로 형상을 분류하는 인식 알고리즘을 개발 하여 실험하였다. 일련의 연구 과정은 <Fig. 2>와 같이 제시하였다. 본 연구의 보편적 성능을 가진 형상 인식 알고리즘 분석결과는 향후 LiDAR 전용 교통안전표지 형상의 결정에 활용할 수 있을 것으로 기대된다.

    <Fig. 2>

    Process of research

    KITS-22-3-160_F2.gif

    Ⅱ. 선행연구검토

    LiDAR는 항공에서 지형정보를 수집하기 위한 위성공간정보기술(Global Navigation Satellite Systems)에서 발전되었으며, 90년대에 상용화되었다(Beraldin and Blais, 2010). 자율주행차량이나 교통정보수집용으로 사용 되는 모바일 라이다(Mobile LiDAR)는 항공 LiDAR와 동일한 기술로 짧은 기간 동안 빠른 발전을 이루었고, 최근의 자율주행차량 분야를 주도하고 있다(Li and Ibanez-Guzman, 2020). LiDAR는 근적외선 대역인 760nm~1900nm 파장의 레이저를 검지 물체에 조사(Irradiation)하여 물체와의 거리를 측정하는 장비이고, 자율 주행차량에서는 주로 905nm 파장과 TOF(Time of Flight)방식을 활용하는 LiDAR가 보편적으로 활용되고 있 다. LiDAR는 도로 주변 환경의 3차원 정보를 점군데이터(Point Cloud)형태로 제공하며, 높은 정확도의 거리 정보뿐만 아니라 센서가 검지한 반사 강도(intensity)도 제공한다(Chen et al., 2021). 또한, LiDAR는 조도의 영 향이 매우 적고(GSA, 2022), 우천과 안개 상황에도 영상센서에 비해 비교적 강건한 특성을 보인다(Kutila et al., 2016;Kim et al., 2021a;Kim et al., 2023). 다만, 아직은 타 센서에 비하여 가격이 다소 높고, 내구성이 떨 어지는 단점은 상용화를 위해서 지속적인 개선이 필요하다.

    최근 자율주행차량은 도로‧교통안전시설물뿐만 아니라 보행자, 신호등, 주변 차량, 자전거, 오토바이 등의 움직이는 정보들을 수집하는데 LiDAR에 의존하고 있으며(Tang et al., 2020), 공개된 자율주행차량 중 가장 높은 성능을 가진 것으로 평가받는 구글의 웨이모 역시 돌발물체 등의 검지에 LiDAR를 활용하고 있다(Jeon and Kim, 2021). 장애물이나 시설물 검지 외에도 정밀지도기반의 자율주행에서 필수적인 측위(localization)의 지원 역할을 LiDAR가 수행하기도 하는데, 주변의 차선과 표지판 등의 도로시설물을 인식하고, 미리 만들어 진 점군데이터 강도지도(Intensity Map)과 맵매칭(Map Matching)하거나, 시설물 위치를 특정하여 GPS 기반의 절대측위를 보정하는데 활용된다(Park, 2022).

    LiDAR의 역할 및 활용영역을 확대하려는 시도와 더불어 최근에는 LiDAR의 성능을 실제 도로에서 평가 하고, 실제로 어떤 영향요인에 따라 성능이 변화하는지 검증하려는 시도도 많다. 기존문헌(Kutila et al., 2016;Goodin et al., 2019;Kim and Park, 2022b)에서 LiDAR의 성능이 영상보다는 비교적 강건하지만, 강한 우천과 짙은 안개 시의 성능이 변화됨을 언급하였다. Kim et al.(2021a)은 LiDAR가 검지하는 물체의 색깔, 재질, 주 행속도, 검지거리 등의 다양한 영향요인에 대하여 실제 도로에서 시험하였으며, LiDAR의 검지 영향요인은 물체와의 측정거리와 물체의 재질, 색깔, 우천 등이 있으며, 강수량 40mm/h 이상에서는 성능이 저하됨을 밝 혔다. Kim et al.(2023)은 안개와 강우를 동일한 장소에서 재현·실험하여 안개 시에는 시정거리가 멀어질수록, 우천 시에는 강수량이 늘어날수록 성능이 저하됨을 실제 자율주행차량을 통하여 실증하였다. 다만, 재귀반사 필름은 시정거리 100m 이상인 경우와 강수량 30mm/h 이하에는 성능의 변화가 거의 없기 때문에 LiDAR의 시인성 향상을 위해 도로‧교통안전시설물을 개선할 때는 고휘도 재귀반사필름의 사용이 유효함을 주장하였 다. KIm and Park(2022b)은 LiDAR가 물체를 검지할 때, 성능의 영향을 미치는 요인을 크게 LiDAR 측면과 물 체측면으로 구분하였다. 물체측면은 검지물체와의 거리, 물체의 재질, 색상, 모양 및 배치 등이 영향요인이 며, 센서측면은 LIDAR의 사양(Spec)과 제조사, 사용하는 S/W의 요인이 있다고 주장하였다. Tang et al.(2020) 은 보편적인 자율주행차량의 데이터 프로세스를 설명하면서 LiDAR 등의 센서가 물체를 검지할 때, 중요한 요인 중에 하나는 공개되지 않는(Undisclosed) 인식 알고리즘이이며, 이것이 LiDAR의 검지성능에 큰 영향을 끼친다고 언급하였다. 이는 물체 인식 알고리즘도 실제 데이터를 기반한 성능평가가 필요하며, 알고리즘의 정확도를 향상시키기 위한 도로‧교통안전시설물의 개선은 협력자율주행으로 자율주행차량의 안전주행을 지 원하는 한 방법임을 의미한다(KICT, 2021).

    LiDAR가 제공하는 점군데이터는 적게는 만 개에서 많게는 수십만 개의 포인트를 군집화하여 주변 환경 을 추론(estimation)한다. 앞에서 언급하였듯이 LiDAR는 자율주행차량에서 차량, 보행자 등 동적 물체뿐만 아 니라 도로‧교통안전시설물 등과 같은 정적물체도 인식 한다. 여기서, 인식의 개념은 <Fig. 1>에서와 같이 검 지(Detection), 분류(Classification), 분할(Segmentation)의 의미를 모두 담고 있다(Kim et al., 2021b). 검지 (Detection)는 점군데이터 내에서 물체가 있는지 탐지하여 해당 물체의 위치를 얻어내는 데 목적이 있으며, 통상적으로 분류의 개념까지 포함되기도 한다. 또한, 분류(Classification)란 탐지된 물체의 클래스 정보(가로 등, 연석, 차량, 보행자 등)를 추론하는 것을 의미한다. 분할(Segmentation)이란 점군데이터를 여러 동종 영역 으로 나누는 것으로, 각 영역은 동일한 속성을 지니고 있다(Kim et al., 2021b). 따라서, 현재 대부분의 자율주 행차량의 공개하지 않는 LiDAR 인식 알고리즘(Undisclosed Algorithm)은 개별 자율주행차량마다 물체의 인식 수준도 검지·분류·분할의 기능적 범위도 다르고, 인식하는 물체의 종류도 다르다고 할 수 있다. 따라서 LiDAR 인식 알고리즘이 LiDAR의 성능에 큰 영향을 초래하는 영향요인임에도 불구하고, 실제로 성능을 평 가하기에는 어려움이 따른다.

    이러한 이유로 본 논문은 안전한 자율주행에 도움이 되는 특정 물체를 인식하는 보편적인 알고리즘을 활 용하여, 특정 객체를 어떤 모양일 때 가장 잘 인식하는지 알아보고자 한다. 이러한 연구는 향후 자율주행차 량을 고려한 도로‧교통안전시설물을 제작하는데 도움을 줄 수 있어 그 중요성이 있다. 보편적으로 많이 사 용되는 LiDAR 기반의 물체 인식 알고리즘은 규칙 기반(Rule Based) 알고리즘, 딥러닝(Deep Learning)기반 알 고리즘으로 구분한다(Yan et al., 2022). 규칙 기반 알고리즘은 미리 정해진 일정한 규칙으로 점군데이터를 군 집화하는 방식으로 크게 파티셔닝(Partitioning), 모델(Model) 그리고 밀도 기반 방식(Density-Based Spatial Clustering of Application with Noise, 이하 DBSCAN))으로 구분한다. 딥러닝 기반 알고리즘은 딥러닝 모델을 활용하여 물체를 인식하는 방식으로써 주로 데이터셋(Data set)을 통해 학습되는 지도학습(Supervised learning) 연구가 상당수를 차지하고 있다(Zamanakos et al., 2021). 따라서, 알고리즘들은 자율주행차량에서 LiDAR의 역할에 따라 특성에 맞게 사용될 것으로 예상되나, 항상 똑같은 각도나 모양을 가지는 정적물체(도 로‧교통안전시설물 등)들은 규칙 기반 알고리즘을 보편적으로 사용하며, 항상 동일한 각도나 모양이 아닌 동 적물체(보행자, 차량 등)는 딥러닝 기반 알고리즘을 사용한다.

    Ⅲ. 교통안전표지 형상 인식 알고리즘 개발

    본 연구의 교통안전표지 형상 인식 알고리즘은 다음의 <Fig. 3>의 과정으로 수행된다. 첫 번째로 수집된 LiDAR 점군데이터에 대해 Intensity(점군강도, 이하 Intensity) 기반 필터링을 진행하여, 표지 형상 추론 후보 점 군데이터들을 추출한다. 두 번째로 필터링된 교통안전표지 후보 점군데이터를 DBSCAN 알고리즘으로 군집화 한다. 군집화를 통해 동일 교통안전표지로 구분되는 점군데이터들을 분류한다. 마지막으로 각 군집그룹의 점 군데이터를 기반으로 교통안전표지 형상 분류를 진행한다. 교통안전표지 형상 분류의 정확도를 높이기 위하 여 레이어 검지(Layer Detection)와 가상 점군데이터 생성 과정을 거쳐 교통안전표지의 형상 정보를 추론한다.

    <Fig. 3>

    Architecture of Algorithm

    KITS-22-3-160_F3.gif

    1. 점군강도 기반 점군데이터 필터링

    LiDAR가 제공하는 점군데이터는 3차원 공간 정보뿐만 아니라 물체의 재질에 따른 반사율 정보인 Intensity 정보도 제공한다. Intensity 정보는 LiDAR 센서에 따라 다른 범위의 값을 제공한다. 본 연구에서 활용한 Robosense 사의 RS-32는 0~255(8bit)의 값이 부여되는데 반사도가 높은 재질일수록 높은 값을 보이며, 동일한 재질은 비슷한 값을 갖는다(Kim et al., 2023). 대부분의 국내 교통안전표지는 재귀반사필름으로 만들어지며, 재귀반사필름은 들어온 빛을 그대로 반사시키는 특징이 있어 200이상의 높은 Intensity 값이 측정된다(Kim et al., 2021a). 따라서, 본 연구에서 개발한 교통안전표지 형상 인식 재귀반사부의 점군데이터만 활용하기 위하여 Intensity 수치 150이상 으로 필터링을 수행하였다.

    2. 점군데이터 군집화(DBSCAN Clustering)

    필터링 과정을 거친 LiDAR 점군데이터들은 알고리즘을 통해 군집화된다. 군집화 알고리즘은 동일 객체에 대한 점군 데이터를 하나의 군집(Cluster)으로 색인을 부여(Indexing)하는 것으로 향후, 색인이 부여된 각 군집 들은 형상 및 거리 정보를 얻을 수 있다. 군집화를 위한 다양한 알고리즘이 존재하는데, 본 연구에서는 점군 데이터를 군집화하기 위하여 DBSCAN 알고리즘을 선택하였다. DBSCAN 알고리즘은 각 점군데이터의 밀도 를 기반으로 군집화하는 알고리즘으로써 보편적으로 활용되는 방식이며, 사전 군집 개수에 영향을 받지 않 기 때문에 강인한 성능을 제공한다(Yan et al., 2022). DBSCAN 알고리즘은 코어 포인트를 기준으로 특정 반 경(Radius) 내에 특정 개수 이상의 점이 있다면 동일 군집에 대한 점으로 인식하는 방식을 가지고 있다. <Fig. 4>은 빨간색 혹은 파란색 점(코어 포인트)에 대해 특정 반경 내에 2개 이상 존재하는 점들을 동일 군집으로 처리하는 과정의 예시로, <Fig. 5>의 우측 그림과 같이 최종 군집화 결과를 얻을 수 있게 된다.

    <Fig. 4>

    Point Cloud input data (left), Filtered data based on intensity (right)

    KITS-22-3-160_F4.gif
    <Fig. 5>

    Example of DBSCAN Clustering (Source: Kim et al., 2021b)

    KITS-22-3-160_F5.gif

    3. 군집 인식을 위한 형상 추론(Shape Estimation) 과정

    본 연구에서 사용한 LiDAR는 32ch LiDAR로 64ch 이상의 고가가 아닌 현재 자율주행차량에서 보편적으로 활용되는 성능의 LiDAR를 사용하여 수직 및 수평 분해능이 다소 낮다. 또한, 인식하는 교통안전표지의 크기 도 600×600(mm)로 작은 편이다. 이러한 이유로 점군데이터의 절대 개수가 희박하여 본 알고리즘의 정확도 향상을 위하여 아래와 같은 추가 작업을 수행하였다.

    1) LiDAR Layer 적정개수 확인

    회전형(Rotate Type) LiDAR는 내부의 거울로 된 수신기가 회전하면서 각 레이저에서 발사된 빛이 수평 방 향으로 환경을 스캐닝한다. 따라서 채널 수가 많아질수록 수직 방향의 Field of View(FOV)가 늘어나게 된다. 동일한 레이져에서 조사되어 수신된 신호(점군데이터의 x. y. z)는 동일한 방위각(Azimuth, θ) 값을 가지기 때문에 3차원의 카테시안 좌표계(x,y,z)의 점군 데이터를 수식-1과 같이 극 좌표계(θ, r)로 변환한 후, 측정된 실제 방위각 값(θ)을 비교하면 각 점의 Layer 개수를 알 수 있다. 이러한 정보를 활용하여 각 표지에서 인지 된 Layer 수를 판별하였으며, 최소 3개 이상의 Layer가 인지될 경우에만 교통안전표지 형상 분류 인식을 진 행하였다.

    r = x 2 + y 2 + z 2 θ = cos 1 z x 2 + y 2 + z 2
    (수식 1)

    2) 가상점군데이터(Virtual Point Cloud) 추가

    국내 교통안전표지의 형상은 모두 대칭임에 착안하여 <Fig. 6>와 같이 군집의 중심선을 만들고, 중심선에 대칭되는 Layer에 가상의 점군을 만들었다. 이러한 과정은 <Fig. 6>의 예는 삼각형 형상을 분류하는데 정확 도를 높이기 위하여 가상으로 만든 초록색 점군이 표현되어 있다.

    <Fig. 6>

    Example of generation of virtual point cloud

    KITS-22-3-160_F6.gif

    3) 형상 분류 기준

    본 연구에서 타겟으로 하는 도로표지는 원형과, 삼각형, 사각형으로 3가지 유형으로 분류된다. 제시된 3가 지 유형은 국내 도로교통법 상 안전표지의 유형 중 주의·규제·지시·보조 표지가 활용하고 있는 모양이다. 이 중 원형과 삼각형의 경우 Layer별 폭(width)의 분산이 사각형에 비해 매우 큰 모양이며 반대로 사각형은 Layer 폭 분산이 작은 모양이다. 즉, 원형과 삼각형은 분산이 커야 하는 기준을 잡을 수 있다. 따라서 Layer별 폭원 분산을 산출하여 사각형과 비사각형 표지를 우선 분류한다. 이후 원형과 삼각형의 분류는 최대 폭원을 가지는 Layer의 위치로 구분하였다. 최대 폭원을 가지는 Layer가 최하단에 위치하면 삼각형으로, 아니라면 원형으로 분류하였다. 사각형 유형에서 직사각형, 정사각형①, 정사각형②(정사각형① 대비 면적이 1.5배)를 나누는 기준은 수집된 점군의 크기로 판단하였으며, 세로길이가 1,000mm 이상이면 직사각형으로, 최대 폭원 이 700mm 이상이면 정사각형②, 미만이면 정사각형①로 분류하였다. 이러한 기준에 따라 표지의 형상을 분 류하는 기준은 <Fig. 7>에 제시되어 있다.

    <Fig. 7>

    Classification of rectangular / non-rectangular by standard deviation of width

    KITS-22-3-160_F7.gif

    Ⅳ. 교통안전표지 형상 인식 테스트 결과

    1. 테스트 개요

    본 연구는 미래도로의 센서 시인성을 강화하기 위한 교통안전시설물의 형상을 알아보기 위하여 LiDAR 점군데이터를 활용한 교통안전표지 형상 인식 알고리즘을 개발하였고, 알고리즘 수행 시 어떤 교통안전표지 의 형상이 검지에 유리한지 알아보았다.. 이를 위하여 LiDAR는 고가 제품이 아닌 32ch의 범용적인 LiDAR 를 활용하여 점군데이터를 수집하였다. <Table 1>에서 제시한 바와 같이 2개의 다른 제조사의 LiDAR를 활용 하였다. 또한 앞서 설명한 바와 같이 LiDAR를 활용한 물체인식에 가장 보편적으로 활용되는 DBSCAN 알고 리즘을 활용하여 교통안전표지 형상의 정확도를 알아보았다. 테스트는 일반적인 도로와 동일하게 구축된 연 천의 시험트랙에서 진행하였다.

    <Table 1>

    LiDAR Specification

    KITS-22-3-160_T1.gif

    2. 테스트 시나리오

    LiDAR 인식 성능에 적절한 교통안전표시 형상을 알아보기 위하여 <Table 2>와 같이 시나리오를 선정하였 다. 교통안전표지와 LiDAR사이의 거리를 측정거리로 하여 본 연구에서는 10m 단위로 10m, 20m, 30m의 3가 지 측정거리로 테스트하였다. 30m 이상의 측정거리에서 32ch LiDAR로는 600*600mm의 면적의 물체의 형상 을 인식하기 어려워 본 연구에서는 제외하였다. 차량에 미리 LiDAR 거치대를 마련하여 30(km/h)주행하면서 점군데이터를 수집하였다. 사용한 교통안전표지는 국내 교통안전표지로 사용되는 형상과 크기와 동일한 600*600mm의 면적이다. 다만, 600*600mm의 1.5배인 735*735mm의 면적의 정사각형②도 별도로 제작하여 테 스트하므로 면적증가에 따른 영향도 살펴보았다. 교통안전표지의 재질은 백색 재귀반사필름을 사용하였으 며, 재귀반사필름의 색깔에 따른 점군데이터 변화는 미비한 수준(Park and Kim, 2021)으로 알려져 있으므로, 백색의 재귀반사필름은 재질을 대표한다고 봐도 무방하다고 판단하였다. 교통안전표지의 설치는 기존 논문 (Kim and Park, 2022a)에서 제시한 2m 높이로 고정하여, 도로 옆 길어깨에 고정하였다. 맑은 날씨의 주광환경 에서 테스트 하였으며, 각 측정거리별로 10초 간 측정한 데이터를 활용하였다.

    <Table 2>

    Test Scenario

    KITS-22-3-160_T2.gif

    3. 테스트 결과

    테스트 시나리오에 따른 교통안전표지 형상 인식 알고리즘의 형상 분류 정확도 분석결과는 다음의 <Table 3~5>와 같다. 표의 첫 열은 실제 형상이고, 두 번째 행은 관측된 형상 분류 결과를 의미한다. 예를 들어, 첫 번째 측정거리 10m의 결과(Table 3)를 살펴보면, 정사각형①은 정사각형①로 100% 분류되었으며, 정사각형 ② 혹은 직사각형, 정삼각형, 원형으로 분류 되지 않아 정확도 100%를 의미한다. 다른 예로, 정사각형②는 88%가 정사각형②로 분류되어 정확도 88%를 의미한다. 다섯 가지 표지 유형에 대한 10m 거리에서의 정확 도는 가상 점군데이터를 활용 시 95%의 정확도로, 가상 점군데이터를 생성하지 않을 시 91%의 정확도로 형 상을 분류한다. 10m에서는 전반적으로 형상 분류정확도가 높은편으로, 최소 정확도가 83%로 나타났다.

    <Table 3>

    Traffic sign shape estimation accuracy at a detection distance of 10 m

    KITS-22-3-160_T3.gif

    두 번째 측정거리 20m의 결과(Table 4)를 살펴보면, 전반적으로 10m에 비해 정확도가 감소한 결과가 확인 된다. 전체적 정확도를 보면, 가상 점군데이터를 활용여부에 상관없이 모두 68%로 10m에 비해 20% 이상 감 소하였다. 정사각형①과 ②의 정확도가 크게 감소한 것이 영향을 주었으며, 정사각형①은 정확도가 44%로 감소하고, 정사각형②는 25%로 급감하였다. 다만, 직사각형과, 정삼각형, 원형은 79% 이상의 정확도를 유지 하였으며, 특히, 정삼각형은 100%의 정확도로 분류되었다.

    <Table 4>

    Traffic sign shape estimation accuracy at a detection distance of 20 m

    KITS-22-3-160_T4.gif

    세 번째 측정거리 30m의 결과(Table 5)를 살펴보면, 20m에 비해서도 정확도가 감소하였다. 가상 점군데이터 미활용 시 40%, 활용 시 41%의 정확도를 보여, 20m 거리에 비해서도 20% 이상 정확도가 감소하였다. 특히, 서로 유사한 형상으로 검지되는 표지 간의 오분류가 매우 많아졌다. 정사각형①은 정검지율이 0%이고, 오히 려 원형으로 분류되는 비율이 95%로 나타났다. 정사각형② 역시 정검지율이 4%로 감소하였고, 정사각형①로 분류되는 비율이 96%로 나타났다. 원형 역시 정검지율이 크게 감소하여 2% 수준으로, 정삼각형으로 분류되는 비율이 98%로 나타났다. 다만, 직사각형은 정검지율 93%, 정삼각형은 100%로 높은 정확도를 보였다.

    <Table 5>

    Traffic sign shape estimation accuracy at a detection distance of 30 m

    KITS-22-3-160_T5.gif

    이러한 결과는 30m 거리에서는 측정거리에 증가에 따라 점군 수 및 Layer의 수가 감소되므로 형상 분류 정확도 역시 감소하며, 특히 정사각형을 원형으로, 원형을 정삼각형으로 오분류하는 경우가 많아지는 것으로 보여진다. <Fig. 8>은 이러한 오분류가 발생하는 사례를 설명하고 있다. 원형이 삼각형으로 분류되는 것은 <Fig. 8>의 (a)와 같이 측정거리 증가에 따라 원형 표지에서 충분한 Layer가 검지되지 않아 원형에서도 가장 긴 폭원을 가진 layer가 최하단에 위치하여 삼각형으로 오분류되는 것으로 해석된다. 정사각형①이 원형으로 분류되는 것은 그림 7(a)와 같이 측정거리 증가에 따라 검지된 점군이 부족해지는 현상이 발생하며, 사각 형과 비사각형을 나누는 기준인 폭원(width)의 편차가 커지는 것이 원인으로 분석된다.

    <Fig. 8>

    Examples of misclassifications

    KITS-22-3-160_F8.gif

    정사각형①과 정사각형②의 분류결과를 보면, 표지의 크기에 따른 형상 분류 성공률을 비교할 수 있다. 10m 거리에서 형상 분류 정확도는 정사각형①이 100%, 정사각형②는 88%로 비교적 높은 정확도를 보였다. 그러나, 측정거리 20m부터 정사각형①은 원형으로 분류되는 비율이 크게 증가하고, 정사각형②는 정사각형 ①로 분류되는 비율이 크게 증가한다. 30m에서는 이러한 경향이 더욱 강화되어, 정사각형①은 원형으로 분 류된 비율이 95%에 달했으며, 반대로 정사각형②는 정사각형①로 분류된 비율이 96%에 달했다. 정사각형② 가 정사각형①로 분류되는 것은, 앞서 정사각형①과 원형이 오분류되는 것과 유사하게 검지된 점군의 부족 이 원인인 것으로 판단된다. 그림 7(c)와 같이, 측정거리 증가에 따라 검지된 점군이 부족해지거나, 정확 히 표지의 테두리 부위에서 점군이 측정되지 않고, 표지 내부 부분에서 점군이 검지되는 case가 발생하며, 이 에 따라 보다 작은 정사각형①로 분류되는 것으로 보여진다. 이러한 결과는 도로표지의 크기를 다른 표지와 다르게 차별화하고, 크기를 더욱 크게 하여 점군 검지를 용이하게 하면, 보다 먼 거리에서도 원래의 형상(정 사각형)으로 분류될 가능성을 높일 수 있음을 시사한다.

    테스트 시나리오에 따른 교통안전표지 형상 인식 알고리즘의 거리 정확도는 다음의 <Table 6>과 같다. 세로축 은 측정거리를, 가로축은 표지형상을 의미하며, 각 셀은 인식된 표지까지의 LiDAR를 활용한 측정거리와 실제 측정거리의 오차이다. <Table 6>에서와 같이 검지거리 30m 안에서의 거리 정확도는 4mm 이하로 매우 정확하다. 점군데이터의 필터링 과정을 거친 이유로 대체적으로 부정확한 점군데이터를 미리 삭제하였음을 감안하더라도 타 문헌(Kim et al., 2021a)에서 제시되어진 바와 같이 LiDAR가 제공하는 물체와의 거리 정확도는 우수하였다.

    <Table 6>

    Each Traffic sign’s the distance accuracy in each detection distances

    KITS-22-3-160_T6.gif

    Ⅴ. 결 론

    자율주행차량 모바일 LiDAR의 핵심기능인 주변 환경을 검지하는 시인성을 향상시키기 위해서는 LiDAR 기기의 기계적 개선뿐만 아니라 LiDAR가 검지하고자 하는 물체의 개선도 필요하다. 그러나, LiDAR는 MEMS(Micro Electro Mechanical Systems) 형식의 도입 등 기계적 개선이 활발히 진행되고 있는 반면에, LiDAR가 검지하고자 하는 도로‧교통안전시설물 등의 도로주변환경 물체를 LiDAR가 인식·분류하기 용이하 게 개선하는 연구는 상대적으로 활발히 진행되지 않고 있다. 이에 본 연구는 도로‧교통안전시설물 관점에서 LiDAR의 시인성을 높이는 방안을 연구하였다. 구체적으로는 점군데이터 분석 알고리즘을 개발·활용하여, 교 통안전표지 제작에 활용되는 형상별(정삼각형, 원형, 정사각형, 직사각형) 분류 정확도 결과를 기반으로 어떤 형상이 LiDAR 검지에 유리한지 알아보았다. 현재의 자율주행차량은 자신이 활용하는 알고리즘을 공개 (Undisclosed)하지 않으므로, 이에 분석에 활용한 알고리즘은 32ch LiDAR가 제공하는 점군데이터로 교통안전 표지의 형상을 인식할 수 있는 보편적인 알고리즘을 개발·활용하였다. 본 연구에서 개발한 형상 인식 알고리 즘은 보편적인 군집화 방법론인 DBSCAN을 활용한 규칙기반(Rule Based)으로 알고리즘으로, 사전 정의된 표 지의 형상에 따른 Layer별 폭원의 분산과 크기에 맞춰 표지를 인식·분류한다. 32ch LiDAR의 낮은 분해능으 로 인한 낮은 모양 인식 정확도를 향상시키기 위하여 적정 Layer 개수 확인과 군집 모양 대칭점을 활용하여 가상 점군데이터 생성 등의 방법도 활용하였다.

    알고리즘을 활용한 교통안전표지 형상 인식의 정확도 분석 결과를 요약하면, 다음의 도로‧교통안전시설물 개선 시의 유의사항을 제시할 수 있다. 첫 번째, 전체적으로 LiDAR와 검지 물체간의 측정거리가 멀어질수록 인식 알고리즘의 정확도가 저하되며, 물체의 크기가 클수록 정확도는 향상된다고 판단된다. 32ch Rotation type LiDAR가 수집한 점군데이터를 활용하여 교통안전표지(600×600mm)의 형상을 분류하기 위해서는 최소 3개 이상의 Layer가 필요하며, 최소 점군데이터의 개수(NPC, Number of Point cloud)는 약 16~17개가 필요하 다. 대체적으로 LiDAR 제조사의 제품설명서에서 제시된 100m 내외의 최대 검지 거리는 만족하나, DBSCAN 기반으로 표지를 인식하기 위한 군집화는 최대 측정거리 67m이내에서 가능하였다. 하지만, 최소한의 물체의 형상 분류‧분류를 위해서는 30m 이하의 측정거리가 확보되어야 하였다. 이러한 테스트 결과요약은 <Table 7>에 기술되어있다.

    <Table 7>

    Summary of Shape Estimation Algorithm in Traffic Safety Sign Panel

    KITS-22-3-160_T7.gif

    두 번째, 기존의 교통안전표지 형상인 정사각형, 원형 보다는 정삼각형, 직사각형일 때 정확도가 높으며, 이러한 이유는 수직과 수평으로 레이저를 조사하는 회전형 LiDAR의 작동원리에서 기인한 것으로 판단된다. 때문에 정삼각형과 같이 좌우(혹은 상하)로 물체의 형상이 대칭되면서 상하(혹은 좌우)반전이 있을 경우, 혹 은 직사각형과 같이 뚜렷한 몸체비율의 차이를 보일 경우 형상 분류 정확도가 높아진다. 반전이 없고, 완전히 대칭인 정사각형과 원형은 측정거리 10m 에서도 서로 혼동된 형상으로 분류되는 결과가 나타났으나, 정삼각 형은 측정거리가 20m 미만에서 100%에 가까운 분류 정확도를 보였다. 단, 이러한 높은 분류 정확도는 충분한 Layer나 점군이 수집된 경우에 한정된다. 예를 들어, 30m 거리에서 원형이 정삼각형으로, 정사각형①이 원형 으로 오분류되는 케이스가 많이 발생하고 있는데(Table 5), 충분한 형상정보가 반영된 점군데이터를 취득할 수 없어 발생하는 문제이다. 이는 LiDAR 센서의 분해능 성능을 보다 향상시키거나, 점군을 최대한 확보할 수 있는 표지 설계 및 배치(반사도가 높은 소재를 활용한 표지 제작, 차량 대향 방향을 향해 표지를 배치하는 등)를 통해 극복하는 것이 필요하다. 세 번째 물체와의 거리정보 정확도는 측정거리와 상관없이 대체적으로 정확하다. 이는 낮밤의 조도의 변화에 따른 영향은 거의 없으며(Kim et al., 2021a), 30mm 이하의 강우량과 시 정거리 100m 이하의 안개에도 거리정보 정확도는 우수하다(Kim et al., 2023)는 결과를 뒷받침한다.

    본 연구는 도로‧교통안전시설물의 개선을 통한 미래자율주행시대의 센서 시인성 향상을 위해 LiDAR를 활용하는 보편적인 형상인식 알고리즘을 활용하여 어떤 형상의 교통안전표지가 유리한지를 알아보았다. 기 존 연구에서(Park and Kim, 2021;Kim and Park, 2022a) 교통안전표지의 재귀반사와 알루미늄 재질, 채도가 높 은 색깔, 자율차의 LiDAR 설치 높이와 비슷한 높이의 설치 높이가 검지에 유리한 요인임이 제시되었다. 이 와 더불어 본 연구는 정사각형이나 원형보다는 상하 비대칭이 있는 정삼각형, 직사각형과 같은 형상이 검지 성이 보다 우수하며, 표지의 크기를 확대하여 인식·분류 정확성을 높일 수 있음을 테스트를 통해 제시하고 있다. 이러한 결과는 미래 자율주행시대의 센서를 위한 전용 도로‧교통안전시설물 개선과 신규 개발에 활용 될 수 있을 것으로 기대된다. 특히 LiDAR는 정밀지도를 활용하는 협력형 자율주행차량의 측위지원의 역할 을 수행하고 있어, 도로 표지의 시인성 개선 방안은 맵매칭을 통한 정밀 자차 측위를 수행하는 자율주행차량 의 안전한 주행에 기여할 것으로 기대된다. 다만, 본 연구는 LiDAR 센서만을 대상으로 진행하여, 표지의 내 용, 색상 등을 인식하는 것에는 한계점이 있다. 이는 향후 영상이나 레이더, 적외선 등의 다양한 센서들의 특 성을 고려한 현장기반 실증을 통해 다양한 센서를 지원하는 도로‧교통안전시설물을 연구·개발함으로써 극복 되어야 할 것이다. 또한, 기존의 도로‧교통안전시설물의 역할도 확대하여 지금의 운전자 정보 제공의 역할에 서 벗어나 자율주행차량의 안전한 주행에 기여할 수 있도록 개선이 필요하다.

    ACKNOWLEDGEMENTS

    본 연구는 국토교통부/국토교통과학기술진흥원의 지원으로 수행되었음(과제번호 21AMDP-C161924-01, 주 관연구기관 과제명: 크라우드 소싱 기반의 디지털 도로교통 인프라 융합플랫폼 기술 개발 / 공동연구기관 과 제명: 도로·교통 인프라 성능평가 방법론 개발 및 자율차 기반의 개발 인프라 검증)

    Figure

    KITS-22-3-160_F1.gif

    The framework example of autonomous vehicle data processing (Source : Tang et al., 2020)

    KITS-22-3-160_F2.gif

    Process of research

    KITS-22-3-160_F3.gif

    Architecture of Algorithm

    KITS-22-3-160_F4.gif

    Point Cloud input data (left), Filtered data based on intensity (right)

    KITS-22-3-160_F5.gif

    Example of DBSCAN Clustering (Source: Kim et al., 2021b)

    KITS-22-3-160_F6.gif

    Example of generation of virtual point cloud

    KITS-22-3-160_F7.gif

    Classification of rectangular / non-rectangular by standard deviation of width

    KITS-22-3-160_F8.gif

    Examples of misclassifications

    Table

    LiDAR Specification

    Test Scenario

    Traffic sign shape estimation accuracy at a detection distance of 10 m

    Traffic sign shape estimation accuracy at a detection distance of 20 m

    Traffic sign shape estimation accuracy at a detection distance of 30 m

    Each Traffic sign’s the distance accuracy in each detection distances

    Summary of Shape Estimation Algorithm in Traffic Safety Sign Panel

    Reference

    1. Beraldin, J. and Blais, F. (2010), Laser scanning technology: In Airborne and Terrestrial Laser Scanning, Whittles Publishing, pp.1-42.
    2. Chen, C. , Fragonara, L. Z. and Tsourdos, A. (2021), “RoIFusion: 3D Object Detection From LiDAR and Vision”, IEEE Access, vol. 9, pp.51710-51721.
    3. Goodin, C. , Carruth, D. , Doude, M. and Hudson, C. (2019), “Predicting the Influence of Rain on LiDAR in ADAS”, Electronics, vol. 8, no. 1, p.89.
    4. GSA Global (n.d.), Autonomous driving and sensor fusion SoCs, Available online: https://www.gsaglobal.org/forums/autonomous-driving-and-sensor-fusion-socs/, 2022.10.05.
    5. Jeon, H. and Kim, J. (2021), “Analysis on Handicaps of Automated Vehicle and Their Causes using IPA and FGI”, Journal of Korea Institute Intelligent Transportation System, vol. 20, no. 3, pp.34-46.
    6. Kim, J. and Park, B. (2022a), “A Research of Factors Affecting LiDAR’s Detection on Road Signs: Focus on Shape and Height of Road Sign”, Journal of Korea Institute Intelligent Transportation System, vol. 21, no. 4, pp.34-46.
    7. Kim, J. and Park, B. (2022b), “A Study of LiDAR’s Detection Performance Degradation in Fog and Rain Climate”, Journal of Korea Institute Intelligent Transportation System, vol. 21, no. 2, pp.101-115.
    8. Kim, J. , Park, B. and Kim, J. (2023), “Empirical Analysis of Autonomous Vehicle’s LiDAR Detection Performance Degradation for Actual Road Driving in Rain and Fog”, Sensors, vol. 23, no. 6, p.2972.
    9. Kim, J. , Park, B. , Roh, C. and Kim, Y. (2021), “Performance of Mobile LiDAR in the Real Road Driving Conditions”, Sensors, vol. 21, no. 22, p.7461.
    10. Kim, S. , Ha, J. and Jo, K. (2021), “Semantic Point Cloud-Based Adaptive Multiple Object Detection and Tracking for Autonomous Vehicles”, IEEE Access, vol. 9, pp.157550-157562.
    11. Korea Institute of Civil Engineering and Building Technology(KICT) (2021), Improved Road Infrastructures to Strengthen Driving Safety of Automated Driving Car Final Report.
    12. Kutila, M. , Pyykönen, P. , Ritter, W. , Sawade, O. and Schäufele, B. (2016), “Automotive LIDAR sensor development scenarios for harsh weather conditions”, Proceedings of the 2016 IEEE 19th International Conference on Intelligent Transportation Systems (ITSC), Rio de Janeiro, Brazil, 1-4 November 2016, IEEE, New York, NY, USA, 2016, pp.265-270.
    13. Li, Y. and Ibanez-Guzman, J. (2020), “LiDAR for autonomous driving: The principles, challenges, and trends for automotive LiDAR and perception systems”, IEEE Signal Processing Magazine, vol. 37, no. 4, pp.50-61.
    14. Park, B. and Kim, J. (2021), “A Study of LiDAR’s Performance Change by Road Sign’s Color and Climate”, Journal of Korea Institute Intelligent Transportation System, vol. 20, no. 6, pp.228-241.
    15. Park, B. (2022), “Method of improvements for autonomous vehicle road-traffic facilities using LiDAR”, The Korea Institute of Intelligent Transportation Systems(KITS) International Conference Special Session B-5.
    16. Tang, L. , Shi, Y. , He, Q. , Sadek, A. W. and Qiao, C. (2020), “Performance Test of Autonomous Vehicle LiDAR Sensors Under Different Weather Conditions”, Transportation Research Record, vol. 2674, no. 1, pp.319-329.
    17. Yan, X. , Gao, J. , Zheng, C. , Zheng, C. , Zhang, R. , Cui, S. and Li, Z. (2022), “2DPASS: 2D Priors Assisted Semantic Segmentation on LiDAR Point Clouds”, Computer Vision, ECCV 2022-17th European Conference, Part XXVIII, pp.677-695.
    18. Zamanakos, G. , Tsochatzidis, L. , Amanatiadis, A. and Pratikakis, I. (2021), “A comprehensive survey of LIDAR-based 3D object detection methods with deep learning for autonomous driving”, Computers & Graphics, vol. 99, pp.153-181.

    저자소개

    Footnote