Journal Search Engine

View PDF Download PDF Export Citation Korean Bibliography PMC Previewer
The Journal of The Korea Institute of Intelligent Transport Systems Vol.23 No.6 pp.338-351
DOI : https://doi.org/10.12815/kits.2024.23.6.338

A Study on the Ground Segmentation Based on LiDAR Sensor and Driving Path

Sang jin Yu*, Manbok Park**
*Dept. of Electronic engineering Korea National Univ. of Transportation
**Corresponding author: Professor, Department of Electronic Engineering, Korea National University of Transportation
Corresponding author : Manbok Park, ohnnuri@ut.ac.kr
1 November 2024 │ 13 November 2024 │ 3 December 2024

Abstract


For safe and robust operation of autonomous vehicles, accurately perceiving the surrounding environment is crucial. Commonly used sensors for perception include camera, radar, and LiDAR. The LiDAR sensor leverages light properties to measure the surrounding environment in high-precision 3D. This paper presents a ground classification algorithm, an essential preprocessing step for object recognition using LiDAR sensors. The proposed ground classification algorithm sets a region of interest (ROI) based on the driving path of the autonomous vehicle, and establishes an initial line for ground classification by using the point cloud within this ROI. By calculating distances from the expanded ROI’s point cloud to this initial line, based on its slope and intercept, points within a threshold distance are classified as ground, while others are classified as non-ground. To validate the performance of the proposed algorithm, data from various environments captured by a test vehicle were used. The results of ground and non-ground classification across these diverse environments demonstrated sufficient performance for autonomous driving. Additionally, processing time was reduced even in noisy environments.



라이다 센서 및 주행 경로 기반 지면 분류에 관한 연구

유 상 진*, 박 만 복**
*주저자 : 한국교통대학교 전자공학과 석사과정
**교신저자 : 한국교통대학교 전자공학과 교수

초록


자율주행 차량의 안전하고 강건한 운행을 위해서는 주변 환경을 정확히 인식하는 것이 매 우 중요하다. 인식을 위한 센서로 많이 사용하는 것은 카메라, 레이더, 라이다 등이 있다. 라이 다 센서는 빛의 성질을 이용하여 주변 환경을 3차원으로 정밀하게 측정할 수 있다. 본 논문에 서는 라이다 센서를 사용하여 객체 인식을 하기 위한 중요한 전처리 단계인 지면 분류 알고리 즘을 제시하였다. 제안된 지면 분류 알고리즘은 자율주행 차량의 주행 경로를 이용하여 관심 영역을 설정하고, 관심 영역 내의 포인트 클라우드를 사용하여 지면 분류를 위한 초기 직선을 설정한다. 초기 직선의 기울기, 절편을 사용하여 확장된 관심 영역에 포함되는 포인트 클라우 드와의 거리를 계산하여 거리가 임계값 이하인 포인트를 지면, 그 외의 포인트를 비지면으로 분류한다. 제안한 알고리즘의 성능을 검증하기 위해 실제 시험 차량에서 취득한 다양한 환경 에서의 데이터를 이용하였다. 다양한 환경에서 지면 및 비지면 분류 결과가 자율주행 운행을 위해 충분한 성능을 보였다. 또한 잡음이 많은 환경에서도 처리 시간이 단축됨을 확인하였다.



    Ⅰ. 서 론

    1. 연구 배경 및 목적

    자율주행 차량은 짧은 반응 시간과 안정적인 주행으로 도로 용량을 2배 이상 증가시키며, 교통 혼잡을 줄 여 사회적 손실을 감소시킬 수 있는 효과적인 교통 수요 관리 방안으로 평가된다(Jung et al., 2017;Park et al., 2015). 자율주행 차량은 주변 환경을 정확하게 감지하고 인식하기 위해 카메라, 레이더, 라이다 등 여러 유형의 센서를 사용한다. 카메라는 자율주행 차량에서 널리 사용되는 센서 중 하나로, 고해상도의 영상 데이 터를 제공함으로써 물체 인식, 차선 탐지, 교통 신호 및 표지판 인식 등에 매우 유용하다. 그러나 카메라는 조명 조건과 날씨에 매우 민감하다. 어두운 밤이나 터널처럼 조명이 부족한 환경이나 강한 햇빛이나 반사광 으로 인해 영상 정보의 왜곡이 발생하거나 성능이 크게 저하된다(Rosique et al., 2019). 또한 카메라는 2차원 영상 정보를 기반으로 사용하기 때문에 3차원 공간에서의 거리나 깊이 정보를 직접적으로 제공하지 못한다. 이러한 단점은 3차원 환경에서의 물체 인식 및 거리 측정의 정확성에 한계를 가져온다. 레이더 센서는 날씨 나 조면 조건에 크게 영향을 받지 않기 때문에, 안정적으로 물체를 감지하고 장거리 탐지에 매우 유용하지만 해상도가 낮아 물체의 정확한 형태나 크기를 파악하기 어렵기 때문에 복잡한 도심 환경에서 정밀한 인식이 요구되는 상황에서는 그 성능이 제한적일 수 있다(Bilik, 2022). 라이다 센서는 레이저를 이용하여 주변 환경 을 3차원으로 정밀하게 측정하여 자율주행 차량에서 중요한 센서로 각광받고 있다. 3차원 포인트 클라우드 는 자율주행 시스템이 주변 환경의 지형, 장애물, 건물 등 구조를 매우 정확하게 인식하여 복잡한 도심 환경 에서 주변 환경을 인식하는데 효과적이지만 대량의 데이터가 생성되기 때문에 실시간으로 처리하려면 높은 계산 자원이 요구되기 때문에 전처리 과정이 필수적이다(Lee et al., 2022;Li and Ibanez-Guzman, 2020).

    본 논문에서는 라이다 센서를 사용하여 객체 인식을 효과적으로 수행할 수 있게 전처리 과정인 지면 분류 방법을 제안한다. 제안한 알고리즘은 자율주행 차량이 실시간으로 지면과 비지면을 간단하고 신속하게 분류 함을 목적으로 했으며, 다양한 환경 조건에서 실험을 진행하였다. 자율주행 차량의 양산성을 고려하여 차량 전면부 좌/우 및 후면부 중앙에 위치한 라이다 센서 3개의 데이터를 병합하여 사용하였다.

    2. 기존 연구 고찰

    라이다 센서를 사용한 지면 분류는 자율주행과 같은 다양한 응용 분야에서 중요한 연구 주제이다. 기존의 연구에서는 주로 격자 기반 방법, RANSAC(Random Sample Consensus) 알고리즘을 통한 평면 추정 그리고 딥 러닝 기반 알고리즘을 활용한 지면 분류가 주를 이루고 있다.

    1) 격자 기반 방법

    격자 기반 방법은 포인트 클라우드를 격자 단위로 나누어 각 격자 내에서 지면과 비지면을 분류하는 방식이다. 이러한 방식은 계산 효율성이 높고, 주행 중 실시간으로 적용하기에 적합한 장점이 있다. 이 방법은 주로 비교적 간단한 환경에서 효과적이며, 지형이 복잡한 환경에서는 한계가 있을 수 있다 (Zermas et al., 2017).

    2) RANSAC 알고리즘을 이용한 평면 피팅

    RANSAC 알고리즘은 잡음이 많은 데이터에서 모델을 적합시키는 데 효과적이며, 지면이 비교적 평평한 환경에서 주로 사용된다. 이 방법은 데이터에서 무작위로 샘플을 선택하고, 이를 통해 평면을 추정하여 지면 을 분리하는 방식이다. 특히 도심 환경과 같이 평평한 도로가 많은 곳에서 활용될 수 있다(Asvadi et al., 2016).

    3) 딥러닝 기반 알고리즘

    최근에는 딥러닝을 활용한 지면 분류가 활발히 연구되고 있다. 딥러닝 모델을 복잡한 환경에서도 지면과 비지면을 보다 정확하게 분류할 수 있으며(He et al., 2021), 객체 인식에도 효과적으로 작동한다(Qi et al., 2017). 이 방식은 많은 데이터를 학습하여 지면의 복잡한 패턴을 인식할 수 있지만, 높은 계산 비용과 많은 학습 데이터가 필요하다.

    3. 연구 내용 및 방법

    본 논문에서 제시하는 알고리즘은 차량에 부착된 라이다 센서에서 취득한 데이터, 차량의 주행 경로 데이 터를 사용하여 지면 분류를 수행하였다. 기존 연구는 대부분 차량 상단에 부착된 1개의 라이다 센서에서 취 득한 데이터를 사용하여 지면을 분류하지만, 본 논문에서는 차량 전면부 좌/우 및 후면부 중앙에 부착된 라 이다 센서에서 취득한 데이터를 사용하여 지면을 분류하였다. 또한, 차량의 주행 경로를 이용하여 관심 영역 을 설정하였고, 관심 영역 내의 포인트 클라우드를 이용하여 지면을 추정하고, 확장된 관심 영역 내의 포인 트 클라우드에 대해 추정한 지면을 적용하여 지면 분류를 수행한다. 다양한 환경에서 취득한 데이터를 사용 하여 알고리즘의 결과를 확인하였다.

    Ⅱ. 본 론

    1. 주행 경로 및 관심 영역 설정

    주행 경로 생성은 정밀 지도 기반 경로 생성 방법과 차량의 위치(위도, 경도)를 일정 시간마다 저장하여 사용하는 경로 생성 방법을 사용한다. 정밀 지도가 존재하는 지역의 경우, 도착점의 위치를 설정하여 현재 위치에서 도착점까지 다익스트라 알고리즘(Dijkstra Algorithm)을 기반으로 최단거리를 갖는 경로를 생성하여 사용한다. 정밀 지도가 존재하지 않는 지역의 경우, 차량을 직접 운전하여 이동하는 위치를 저장하여 경로로 사용한다. 생성된 경로는 지리 좌표계(Geographic Coordinate System, GCS)의 위도, 경도 값이다. 이 정보를 차 량 좌표계 기준의 x, y로 변환하여 사용한다.

    관심 영역 설정은 차량의 주행 경로가 주행 차선의 중앙에 생성되었고, 주행 차선에는 차량 보행자 등 동 적 장애물이 존재하고 건물, 나무 등 정적 장애물은 존재하지 않는다고 가정하였다. 지면의 기준을 설정할 관심 영역(이하 기준 관심 영역)과, 기준을 적용할 관심 영역(이하 적용 관심 영역)으로 나누어 두 개의 관심 영역을 설정하였다. 설계 속도가 100km/h 이상일 때, 최소 도로 폭의 기준은 3.50m이므로 이 기준을 적용하 여 기준 관심 영역은 주행하는 차선으로 설정하여 양쪽 오프셋을 1.75m로 설정하였고, 적용 관심 영역은 주 행 차선의 양쪽 차선과 다음 차선의 절반을 포함하도록 7.0m로 설정하였다. 오프셋 적용은 주행 경로에 법 선 벡터를 사용하여 적용하였다. 주행 경로에 오프셋을 적용하여 관심 영역을 구하기 위한 벡터 계산은 식 (1)과 같다. Vi는 방향 벡터, ni는 법선 벡터, ||ni||는 법선 벡터의 크기, n i ^ 는 정규화된 법선 벡터를 나타낸다. 식(1)에서 계산된 법선 벡터를 사용하여 식(2)와 같이 계산하여 오프셋이 적용된 관심 영역을 계산한다.

    V i = ( d x , d y ) = ( x i + 1 x i , y i + 1 y ) n i = ( d y , d x ) n i = d x 2 + d y 2 n i ^ = ( d y n i , d x n i )
    (1)

    L i = ( X i + d L * d y n i , Y i + d L * d x n i ) R i = ( X i + d R * d y n i , Y i + d R * d x n i )
    (2)

    식(2)의 Li, Ri 는 오프셋이 적용된 포인트이다. 오프셋을 적용한 포인트끼리 직선으로 이어 생기는 내부의 공간을 관심 영역으로 설정하였다. 차량의 주행 경로, 오프셋이 적용된 포인트들을 <Fig. 1>에 나타내었다. <Fig. 1>에서 빨간색 선은 차량의 주행 경로, 파란색 선은 기준 관심 영역, 검은색 선은 적용 관심 영역을 나 타낸다.

    <Fig. 1>

    drive path and apply offset line

    KITS-23-6-338_F1.gif

    2. 전처리 과정

    센서 부착 차량이 라이다 센서에 인식되는 문제를 해결하기 위해 각 센서의 위치에서 구역을 설정하여 구 역 내의 포인트를 제거하였다. 포인트를 제거한 후, 각 센서 좌표계 정보를 갖고 있는 포인트 클라우드를 차 량 좌표계 기준으로 변환하고 하나의 포인트 클라우드로 사용하기 위해 3개 센서의 포인트 클라우드를 병합 하였다. <Fig. 2>에 알고리즘 순서도를 나타내었다.

    <Fig. 2>

    Flow-chart of TF and removing noise

    KITS-23-6-338_F2.gif

    3. 지면 분류

    본 논문에서는 이론적으로 차량으로 이동할 수 있는 부분은 지면, 그 외의 인도, 수풀 등 차량이 이동할 수 없는 부분은 비지면으로 정의하였다.

    1) 직선 피팅

    직선을 피팅하는 방법으로는 RANSAC 알고리즘을 사용하였다. RANSAC 알고리즘은 잡음이 많은 데이터 에도 효과적으로 모델을 적합시키는데 효과적이며, 구현이 쉽다는 장점이 있다. RANSAC 알고리즘은 직선 의 방정식을 기반으로 데이터 포인트를 모델링하고, 이를 통해 최적의 직선을 찾는 방식이다. 입력 데이터에 서 무작위로 2개의 점을 선택하여, 그 두 점을 기반으로 직선의 방정식을 만든다. 생성된 직선의 방정식과 데이터의 다른 모든 포인트들 사이의 거리를 계산한다. 각 포인트와 직선 사이의 거리가 사전에 정의된 임계 값 이하인 포인트들을 내부 점으로 간주한다. 이 과정을 여러 번 반복하여 가장 많은 내부 점을 포함하는 직 선 모델이 최종적으로 선택된다. <Fig. 3>에 RANSAC 알고리즘의 흐름도를 나타내었다.

    <Fig. 3>

    Flow-chart of RANSAC algorithm

    KITS-23-6-338_F3.gif

    각 영역에 포함되는 포인트는 벡터의 외적을 계산한 후 부호를 통해 구하였다.

    A = ( x 1 , y 1 ) B = ( x 1 , y 1 ) A × B = x 1 * y 2 y 1 * x 2
    (3)

    벡터 외적의 결과가 양수이면 B는 A의 반시계 방향에 위치하고, 음수이면 시계 방향에 위치하는 성질을 이용하여 기준 관심 영역의 각각의 점들과 라이다 포인트 클라우드를 계산하여 조건을 만족하는 포인트 클 라우드를 필터링하였다. 전체 포인트 클라우드와 필터링된 점들을 <Fig. 4>에 나타내었다.

    <Fig. 4>

    Merged Points and Filtered Points

    KITS-23-6-338_F4.gif

    <Fig. 4>에서 검은색 선은 기준 관심 영역을 나타내며, 빨간색 점은 기준 관심 영역 내에 존재하는 포인트 클라우드, 파란색 점은 기준 관심 영역 외의 전체 포인트 클라우드를 나타낸다.

    기준 관심 영역으로 필터링된 포인트의 거리, 높이 정보를 사용하여 RANSAC 알고리즘을 적용하여 직선 을 피팅하여 지면의 기준으로 설정하였다. 필터링된 포인트의 거리, 높이 정보와 피팅된 직선을 <Fig. 5>에 나타내었다. <Fig. 5>에서 파란색 점은 기준 관심 영역의 포인트 클라우드를 거리, 높이 정보로 나타내었으 며, 빨간색 선은 기준 관심 영역의 포인트 클라우드의 거리, 높이를 이용하여 RANSAC 알고리즘으로 피팅된 직선을 나타낸다.

    <Fig. 5>

    Result of RANSAC Fitting with Filtered Points

    KITS-23-6-338_F5.gif

    2) 직선 적용

    적용 관심 영역의 경우, 기준 관심 영역과 같은 방식으로 필터링을 진행하였고 offset 값을 설정한 7.0m로 변경하여 적용하였다. <Fig. 6>에 전체 포인트와 적용 관심 영역을 나타내었다. <Fig. 6>에서 검은색 선은 적 용 관심 영역을 나타내며, 빨간색 점은 적용 관심 영역에 포함되는 포인트 클라우드, 파란색 점은 적용 관심 영역 외의 전체 포인트 클라우드를 나타낸다.

    <Fig. 6>

    all point clouds and Applying ROI based filtered point clouds

    KITS-23-6-338_F6.gif

    기준 관심 영역에서 생성된 직선의 기울기, 절편 등의 정보를 이용하여 적용 관심 영역에서 필터링된 포 인트에 적용하였다. 필터링된 포인트와 직선의 거리가 임계값 이하인 포인트를 지면, 그 외의 포인트를 비지 면으로 분류하였다. <Fig. 7>에 적용 관심 영역으로 필터링된 포인트와 기준 관심 영역에서 생성된 직선, 직 선과 평행하고 거리가 설정한 임계값만큼 떨어진 직선을 나타내었다. <Fig. 7>에서 파란색 점은 적용 관심 영역에 포함되는 포인트 클라우드를 거리, 높이 정보로 나타내었으며, 빨간색 직선은 기준 관심 영역의 포인 트 클라우드의 거리, 높이 정보를 이용하여 RANSAC 알고리즘으로 피팅한 직선, 초록색 직선은 RANSAC 알 고리즘으로 생성된 직선과 거리가 임계값 만큼 떨어진 직선으로 초록색 선 사이에 존재하는 포인트 클라우 드가 지면 포인트, 그 외의 포인트 클라우드는 비지면 포인트로 분류한다.

    <Fig. 7>

    Result of filtered points

    KITS-23-6-338_F7.gif

    Ⅲ. 시험 결과

    1. 시험 환경 구축

    시험에 사용된 차량은 라이다 3대, 카메라 2대, 레이다 5대 등 다양한 환경 센서를 부착한 차량을 사용하 였다. 3대의 라이다는 차량 주변 360도를 인식할 수 있다. 시험에 사용된 차량, 부착된 센서, 라이다의 감지 범위를 <Fig. 8>에 나타내었다. <Fig. 8>에서 시험 차량 위에 부착한 32ch 라이다 센서를 사용하면 개발의 편 리성은 있지만 양산하기에 어렵다는 문제가 있다. 우리는 양산을 목표로 시험 차량을 개조하였기 때문에 차 량 위에 부착되어 있는 32ch 라이다 센서는 검증용으로 사용하고 3개의 16ch 라이다 센서를 사용한다. 또한 각 3대의 라이다 센서의 FOV가 겹치는 구간은 검지의 이중화가 되어 더 강건하다는 장점이 있다.

    <Fig. 8>

    Test Vehicle and FOV(Field of View) of LIDAR

    KITS-23-6-338_F8.gif

    시험은 K-City에서 진행하였다. <Fig. 9>는 K-City의 주행 경로 및 다양한 환경을 보여준다. 다양한 환경에 서의 시험을 위하여 자율주차시설에 존재하는 경사로, 건물면 등에서 시험을 수행하였다.

    <Fig. 9>

    Overview of K-City

    KITS-23-6-338_F9.gif

    2. 시험 결과

    관심 영역 기반 지면 분류 알고리즘의 성능을 평가하기 위해 시험 차량을 이용해 검증을 수행하였다. 본 논문에서 제안한 알고리즘의 경우 차량의 주행 경로 데이터가 필요하고 차량 위에 부착된 라이다 센서에서 취득한 데이터가 아닌, 낮은 위치에서 차량의 전면부 및 후면부에 부착된 라이다 데이터가 필요하기에 오픈 데이터셋을 사용하여 성능을 검증하기에 어려움이 있어 적용 관심 영역에 포함되는 포인트 클라우드를 직접 라벨링하여 정답 데이터를 생성하고 성능을 검증하였다. 추가적으로, 기존의 다른 연구들 대부분이 차량 상 부에 부착된 라이다 데이터를 기준으로 알고리즘을 설계하였기 때문에 본 연구의 특수한 환경과의 차이로 인해 다른 알고리즘과의 직접적인 성능 비교는 진행하지 않았다. <Fig. 10>에 라벨링한 포인트 클라우드를 나타내었다. 하늘색 점들은 지면 포인트, 분홍색 점들은 비지면 포인트를 나타낸다. 타 연구에서는 주로 상 단에 부착된 라이다 데이터를 기반으로 작성된 알고리즘이 대부분이며 본 논문에서 제안한 알고리즘은 비교 적 낮은 위치에 부착된 3개의 라이다 데이터를 처리하는 방식이므로 환경적 차이가 존재하여 타 기법 대비 비교분석을 진행하지 못하였다.

    <Fig. 10>

    Labeled Point Cloud

    KITS-23-6-338_F10.gif

    성능 평가 지표는 정확도(Accuracy), 정밀도(Precision), 재현율(Recall) 총 3가지 지표를 식(4)와 같이 구하여 사용하였다. 식(4)의 TP(True Positive)는 지면으로 정확히 분류된 데이터, TN(True Negative)은 비지면으로 정 확히 분류된 데이터, FP(False Positive)는 비지면이지만 지면으로 잘못 분류된 데이터, FN(False Negative)은 지면이지만 비지면으로 잘못 분류된 데이터를 의미한다.

    Accuracy = T P + T N T P + T N + F P + F N Precision = T P T P + F P Recall = T P T P + F N F1 Score = 2 * Pr e c i s i o n * R e c a l l Pr e c i s i o n + R e c a l l
    (4)

    <Table 1>에 제안한 알고리즘의 정확도, 정밀도, 재현율, F1-Score를 나타내었다. 본 논문에서 제안한 알고 리즘과 타 연구에서 진행된 알고리즘은 환경적 차이로 직접적인 비교분석은 진행하지 못하였으나, 타 논문 에서 제시된 결과 지표를 통해 본 알고리즘의 성능을 검증하였다(Deng et al., 2024). 타 논문에서 제안한 알 고리즘과 비교 대상인 알고리즘들의 F1-Score는 약 80~85% 값을 갖는 반면, 본 논문에서 제안한 알고리즘의 경우 F1-Score가 약 92%로 더 나은 성능을 보임을 확인하였다.

    <Table 1>

    Experiment Result

    Accuracy(%) Precision(%) Recall(%) F1-Score(%)
    Our Algorithm 94.3 92.2 93.6 92.9

    다양한 환경 조건에서 알고리즘의 결과를 나타내었다. <Fig. 11>은 직선 도로에서의 상황과 결과를 나타내 고 <Fig. 12>는 곡선 도로에서의 상황과 결과를 나타낸다. 또한 <Fig. 13>은 경사로에서의 상황과 결과를 나 타낸다. 따라서 제안된 알고리즘은 다양한 환경 조건에서 강건하게 동작함을 확인할 수 있다. 3개의 Fig 모 두 초록색 점은 지면, 빨간색 점은 비지면을 나타낸다.

    <Fig. 11>

    Environment Image and Result of Our Algorithm with Straight Road

    KITS-23-6-338_F11.gif
    <Fig. 12>

    Environment Image and Result of Our Algorithm with Curve Road

    KITS-23-6-338_F12.gif
    <Fig. 13>

    Environment Image and Result of Our Algorithm with Uphill in Rainy Day

    KITS-23-6-338_F13.gif

    제안된 알고리즘의 처리 시간을 <Fig. 14>에 나타내었다. Intel Core i5-8500 CPU와 Intel UHD Graphics 630 GPU가 부착된 컴퓨터를 사용하여 선행 차량이 존재하는 직선 및 곡선 환경에서 시험 결과이다. 제안된 알고 리즘의 모든 과정의 처리 시간이 40ms 이내의 성능을 보였다.

    <Fig. 14>

    Processing Time

    KITS-23-6-338_F14.gif

    Ⅳ. 결 론

    본 논문에서는 자율주행 차량의 인식 시스템에서 많이 사용되는 라이다 센서 기반의 인식 성능 개선을 목 표로 중요한 전처리 단계인 지면 분류 알고리즘을 제안하였다. 자율주행 차량의 주행 경로 데이터를 이용하 여 관심 영역을 설정하였고 관심 영역에 포함되는 포인트 클라우드를 이용하여 지면을 추정하고 확장된 관 심 영역에 포함되는 포인트 클라우드에 적용하여 지면을 분류하였다. 제안된 알고리즘의 성능 검증을 위해 취득한 데이터를 직접 라벨링하여 널리 사용되는 평가 지표를 계산하여 성능을 검증하였다. 시험 결과 90% 이상의 성능을 보임을 확인하였고 전체 알고리즘 처리 시간이 40ms 이내의 안정적인 속도를 보장함을 확인 하였다. 현재 여건상 추가 시험에 어려움이 있어 향후 연구에서 더 다양한 환경에서 시험을 수행하여 보다 더 심도 있는 연구를 진행할 계획이다.

    ACKNOWLEDGEMENTS

    본 연구는 국토교통부/국토교통과학기술진흥원의 지원으로 수행되었음(과제번호 RS-2021-KA160501). 또 한, 본 논문은 산업통상자원부가 지원한 ‘자율주행기술개발혁신사업’의 지원을 받아 수행된 연구 결과입니다 (과제명: Lv.4 자율주행시스템의 FailOperational 기술개발 / 과제번호: 20018055)

    Figure

    KITS-23-6-338_F1.gif

    drive path and apply offset line

    KITS-23-6-338_F2.gif

    Flow-chart of TF and removing noise

    KITS-23-6-338_F3.gif

    Flow-chart of RANSAC algorithm

    KITS-23-6-338_F4.gif

    Merged Points and Filtered Points

    KITS-23-6-338_F5.gif

    Result of RANSAC Fitting with Filtered Points

    KITS-23-6-338_F6.gif

    all point clouds and Applying ROI based filtered point clouds

    KITS-23-6-338_F7.gif

    Result of filtered points

    KITS-23-6-338_F8.gif

    Test Vehicle and FOV(Field of View) of LIDAR

    KITS-23-6-338_F9.gif

    Overview of K-City

    KITS-23-6-338_F10.gif

    Labeled Point Cloud

    KITS-23-6-338_F11.gif

    Environment Image and Result of Our Algorithm with Straight Road

    KITS-23-6-338_F12.gif

    Environment Image and Result of Our Algorithm with Curve Road

    KITS-23-6-338_F13.gif

    Environment Image and Result of Our Algorithm with Uphill in Rainy Day

    KITS-23-6-338_F14.gif

    Processing Time

    Table

    Experiment Result

    Reference

    1. Asvadi, A., Premebida, C., Peixoto, P. and Nunes, U. ( 2016), “3D lidar-based static and moving obstacle detection in driving environments: An approach based on Voxels and multi-region ground planes”, Robotics and Autonomous Systems, vol. 83, pp.299-311.
    2. Bilik, I. ( 2022), “Comparative analysis of radar and lidar technologies for automotive applications”, IEEE Intelligent Transportation Systems Magazine, vol. 15, no. 1, pp.244-269.
    3. Deng, W., Chen, X. and Jiang, J. ( 2024), “A staged real-time ground segmentation algorithm of 3D LiDAR point cloud”, Electronics, vol. 13, no. 5, p.841.
    4. He, D., Abid, F., Kim, Y. M. and Kim, J. H. ( 2021), “SectorGSnet: Sector learning for efficient ground segmentation of outdoor LiDAR point clouds”, IEEE Access, vol. 10, pp.11938-11946.
    5. Jung, S. W., Moon, Y. J., Lee, S. Y. and Hwang, K. Y. ( 2017), “Impacts of automated vehicles on traffic flow changes”, The Journal of The Korea Institute of Intelligent Transport Systems, vol. 16, no. 6, pp.244-257.
    6. Lee, S. J., Lim, H. T. and Myung, H. ( 2022), “Patchwork++: Fast and robust ground segmentation solving partial under-segmentation using 3D point cloud”, IEEE International Conference on Intelligent Robots and Systems (IROS), pp.13276-13283.
    7. Li, Y. and Ibanez-Guzman, J. ( 2020), “Lidar for autonomous driving: The principles, challenges, and trends for automotive lidar and perception systems”, IEEE Signal Processing Magazine, vol. 37, no. 4, pp.50-61.
    8. Park, I. S., Lee, J. D., Lee, J. Y. and Hwang, K. Y. ( 2015), “Impacts of automated vehicles on freeway traffic-flow: Focused on Seoul-singal basic sections of GyeongBu freeway”, The Korea Institute of Intelligent Transport Systems, vol. 14, no. 6, pp.21-36.
    9. Qi, C. R., Su, H., Mo, K. and Guibas, L. J. ( 2017), “PointNet: Deep learning on point sets for 3D classification and segmentation”, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp.652-660.
    10. Rosique, F., Navarro, P. J., Fernandez, C. and Padilla, A. ( 2019), “A systematic review of perception system and simulators for autonomous vehicles research”, Sensors, vol. 19, no. 3, p.648.
    11. Zermas, D., Izzat, I. and Papanikolopoulos, N. ( 2017), “Fast segmentation of 3D point clouds: a paradigm on lidar data for autonomous vehicle applications”, IEEE International Conference on Robotics and Automation (ICRA), pp.5067-5073.

    저자소개

    Footnote