Journal Search Engine

View PDF Download PDF Export Citation Korean Bibliography PMC Previewer
The Journal of The Korea Institute of Intelligent Transport Systems Vol.23 No.1 pp.123-133
DOI : https://doi.org/10.12815/kits.2024.23.1.123

Infrastructure 2D Camera-based Real-time Vehicle-centered Estimation Method for Cooperative Driving Support

Ik-hyeon Jo*, Goo-man Park**
*Dept. of Smart ICT Convergence, Univ. of Seoul National University of Science and Technology
**Dept. of Smart ICT Convergence, Univ. of Seoul National University of Science and Technology
Corresponding author : Goo man Park, gmpark@seoultech.ac.kr
6 December 2023 │ 14 December 2023 │ 26 December 2023

Abstract


Existing autonomous driving technology has been developed based on sensors attached to the vehicles to detect the environment and formulate driving plans. On the other hand, it has limitations, such as performance degradation in specific situations like adverse weather conditions, backlighting, and obstruction-induced occlusion. To address these issues, cooperative autonomous driving technology, which extends the perception range of autonomous vehicles through the support of road infrastructure, has attracted attention. Nevertheless, the real-time analysis of the 3D centroids of objects, as required by international standards, is challenging using single-lens cameras. This paper proposes an approach to detect objects and estimate the centroid of vehicles using the fixed field of view of road infrastructure and pre-measured geometric information in real-time. The proposed method has been confirmed to effectively estimate the center point of objects using GPS positioning equipment, and it is expected to contribute to the proliferation and adoption of cooperative autonomous driving infrastructure technology, applicable to both vehicles and road infrastructure.



협력주행 지원을 위한 2D 인프라 카메라 기반의 실시간 차량 중심 추정 방법

조 익 현*, 박 구 만**
*주저자 : 서울과학기술대학교 ICT융합공학과 박사과정, ㈜싸인텔레콤 기업부설연구소 차장
**교신저자 : 서울과학기술대학교 ICT융합공학과 교수

초록


기존의 자율주행 기술은 차량에 부착된 센서를 사용하여 환경을 감지하고 주행 계획을 수 립하는 방식으로 개발되었으나, 악천후나 역광, 장애물로 인한 가려짐 등 특정 상황에서 성능 이 저하되는 문제점이 있다. 이러한 문제점을 해결하기 위해 도로 인프라의 지원을 통해 자율 주행 차량의 인지 범위를 확장하는 협력형 자율주행 기술이 주목받고 있으나, 단안 카메라에 서는 국제 표준에서 요구하는 객체의 3D 중심점을 실시간으로 분석해내기 어렵다는 문제점이 있다. 이에 본 논문에서는 도로 인프라의 고정된 화각과 사전에 측정된 기하학적 정보를 활용 하여 객체를 검출하고 실시간으로 차량의 중심점을 추정하는 방법을 제안하였다. GPS 위치 측정 장비를 활용하여 객체의 중심점을 효과적으로 추정할 수 있음을 확인하였으며, 제안된 방법은 차량 및 도로 인프라 간의 협력형 자율주행 기술에 적용 가능하여, 협력형 자율주행 인프라의 보급 및 확산에 기여할 수 있을 것으로 기대된다.



    Ⅰ. 서 론

    기존 자율주행 차량 기술은 차량에 부착된 센서를 사용하여 주변의 정보를 수집하고 주행 환경을 인지하 여 스스로 주행 계획을 수립하는 형태로 개발되어왔다. 하지만 자율주행 차량에 장착된 카메라나 라이다, 레 이더 등의 센서를 통해 수집되는 정보는 역광이나 악천후, 장애물로 인한 가려짐 등의 요인으로 특정 상황에 서 검출 성능이 떨어질 수 있다. 최근의 자율주행 기술 연구는 차량의 단독 인지 한계를 극복하기 위해 도로 인프라의 도움을 받는 협력형 자율주행 기술(Cooperative Driving Automation)로 그 범위가 확장되고 있는데, 해당 기술은 자율주행 차량 간의 데이터 교환을 넘어 도로 인프라에서 수집한 차량이나 보행자, 자전거 등 도로상의 동적 객체정보를 제공받아 활용하는 것을 목표하고 있다. 더 나아가서는 단순 정보 제공을 넘어 인 프라에서 가이던스를 제공 자율주행 차량의 주행에 직접 개입하는 형태까지 광범위한 연구가 이루어지고 있 다(Jeon et al., 2022).

    협력주행 연구에 있어 교통 상황을 인식하는 객체인지(Object Perception) 기술은 핵심 구성요소로, 도로 동 적 객체정보를 수집하는 대표적인 센서는 카메라와 라이다, 레이더 등이 있으며, 수집된 객체정보는 동적 정 밀지도(Local Dynamic Map, LDM) 플랫폼이나 C-ITS (Cooperative Intelligent Transportation System) 플랫폼을 통해 차량으로 전달될 수 있다. 이러한 V2X 통신에 필요한 데이터의 구성요소 및 메시지 셋은 미국 SAE (Society of Automotive Engineers) International의 SAE J2735 표준에서 정의된 바 있으며 (SAE International, 2020), 최근 SAE J3224를 통해 J2735에서 정의된 형태의 데이터를 활용하여 SSS (Sensor Sharing Service)를 생성하기 위한 운영 개념 및 메시지 흐름이 제시되었다 (SAE International, 2022).

    J2735 및 J3224에서 차량과 인프라들이 공유하는 UV (Unequipped Vehicle)의 좌표는 3D 객체의 정중앙 바 닥을 기준으로 산출하고 있다. 2D 단안 카메라 영상에서 3D 형태의 객체를 검출하는 방법은 (Ku et al., 2019)와 같이 제안된 바 있다. 실제 자율주행 차량의 경로계획 및 주행에 직접적으로 영향을 미치는 동적 객 체정보의 경우, 실시간성이 중요하지만 (Kim et al., 2022), 단안 카메라 영상 기반의 3D 객체 검출 알고리즘 은 간소화된 형태의 2D 객체 검출 알고리즘 대비 여전히 높은 연산량을 요구하고 있어 협력주행 인프라에 적용이 어려운 상황이다. 이에 본 논문에서는 기존 2D 객체 검출 알고리즘과 고정된 인프라 카메라 환경에 서 사전에 정의된 기하학적인 정보를 바탕으로 단안 카메라 영상에서 실시간으로 객체의 검출 및 중점을 추 정할 수 있는 방법을 제안하고자 한다.

    Ⅱ. 관련 연구

    자율주행 차량의 기술 수준은 미국 SAE International에서 0~5단계로 정의한 바 있다 (SAE International, 2021). 현재의 자율주행 수준은 특정 조건 하에서 시스템이 운전자를 대신하는 조건부 자동화 수준으로 3단 계에 해당한다. 본 장에서는 4단계 이상의 자율주행 기술 수준에 도달하기 위한 협력형 자율주행 기술에 대 해 살펴보고, 보다 구체적으로 단안 카메라 기반의 인프라 센서 구현에 필요한 개선점을 도출하고자 한다.

    1. 협력형 자율주행 기술의 필요성

    자율주행 기술의 보급과 함께 자율주행 관련 교통사고가 증가하는 추세인데, 자율주행 차량의 사고 원인 은 주변 환경 인식 오류, 의사 결정 오류, 행동 오류, 크게 세 가지로 분류할 수 있다(Wang et al., 2020). 환경 인식 오류는 가까운 객체로 인한 가려짐, 기상환경의 변화 등 돌발 상황에서 발생할 수 있는 센서의 인지 성 능 저하로 인해 발생할 수 있는데 (Ignatious and Khan, 2022), 이러한 자율주행 차량의 단독 인지 한계 극복 을 위해 협력형 자율주행 기술의 필요성이 대두되고 있다(Jeon et al., 2022). 이러한 문제점을 개선하기 위해 도심 도로 자율협력주행을 위한 동적 정보 플랫폼 기술이 제안된 바 있는데, 해당 플랫폼은 유럽의 Safespot 프로젝트를 통해 개발된 동적 정밀지도를 기반으로 설계되었다 (Roh and Kim, 2019). <Fig. 1>은 네 개의 층 을 가지는 LDM의 구조와 동적 정보를 나타낸 그림으로, 협력주행을 위해서는 자율주행 차량에 제공 가능한 사각지대의 동적 정보를 수집할 수 있는 인프라 구축이 수반되어야 함을 확인할 수 있다.

    <Fig. 1>

    Local Dynamic Map Structure

    KITS-23-1-123_F1.gif

    2. 차량-인프라 센서 정보 교환 표준

    SAE J2735 표준에서는 V2X 장착 플랫폼이 되는 차량과 지면 간의 좌표 시스템을 정의하고 있는데, 차량 의 위치를 나타내는 기준점은 차량을 중심으로 도로 표면에 투영된 직사각형의 중심점으로 정의하고 있다 (SAE International, 2020).

    협력주행을 위한 V2X 센서 데이터에 대한 SAE J3224 표준에서는 SAE J2735의 참조 위치 및 좌표 시스템 을 동일하게 적용하고 있다. 해당 표준에서는 <Fig. 2>에 나타난 것과 같이 Xv 축은 차량의 전방, Yv 축은 차량의 우측에 해당함을 확인할 수 있으며, 검출된 동적 객체에 대해서는 클래스 정보, 위치, 움직임, 고유 추적 ID, 회전 정보 등의 부가적인 정보를 산출하여 자율주행 차량을 지원할 수 있도록 메시지가 정의되어 있다 (SAE International, 2022).

    <Fig. 2>

    Vehicle Reference Position (Source: SAE-J3224)

    KITS-23-1-123_F2.gif

    3. 협력주행 지원 인프라 센서

    도로변에 설치된 센서의 설치 위치는 신호등이나 가로등 등 주변의 구조물을 활용하여 설치될 수 있으며, 밀집한 교통 상황에서 가려짐을 최소화할 수 있도록 높은 위치에 설치한다. 각 센서는 고유한 특성과 장점을 갖고 있으며 <Table 1>은 대표적인 센서들의 특성을 간단하게 비교한 자료이다. 딥러닝의 발전 이후, 일반적 인 객체 감지 기술은 빠르게 발전하고 있으나, 도로 측면에서 센서를 기반으로 작동하는 객체 감지 분야의 연구는 여전히 새로운 영역이며 전통적인 분석 방법과는 다른 특징을 갖고 있다 (Bai et al., 2022).

    <Table 1>

    Different Sensors Utilized for Infrastructure-based Perception (Source : Bai et al., 2022)

    Capabilities Camera LiDAR RADAR
    Privacy-safe data ★★★ ★★★
    Accurately detects and classifies objects ★★ ★★★
    Accurately measures object speed and position ★★ ★★★ ★★★
    Extensive field-of-view(FOV) ★★★ ★★
    Reliability across changes in lighting, sun, temperature ★★ ★★★ ★★★
    Ability to read signs and differentiate color ★★★ ★★

    자율주행 차량의 운행 지원 및 고도화된 교통관리 등을 고려한 인프라 센서의 요구사항에 대한 연구가 이 루어진 바 있으며, 차량의 실시간 위치 모니터링과 정보 제공 및 지연시간의 최소화는 핵심적인 고려사항으 로 여겨진다 (Kim et al., 2022).

    4. 영상분석 알고리즘

    YOLO나 SSD, EfficientDet 등 널리 알려진 실시간 다중 객체 검출 알고리즘을 사용하여 교통정보를 수집 하고자 하는 연구는 다양하게 수행된 바 있다 (Al-qaness et al., 2021). 실시간성을 보장하기 위한 신경망의 경 량화 및 인프라 환경 최적화 연구도 이루어진 바 있으나 (Jo et al., 2022), 차량과 인프라 사이의 데이터 상호 교환을 위한 정밀 위치 측위 방면의 연구는 여전히 미비한 실정이다. 단안 카메라를 바탕으로 차량의 중심점 을 추정하기 위한 딥러닝 기반의 방법들이 제안된 바 있으나 (Ku et al., 2019), 차량의 주행 지원에 필요한 실시간성을 확보하기에는 높은 연산량으로 적용이 어려운 실정이다. 실시간성을 높이기 위하여 배경 차분 (Background Subtraction) 기반의 차량 자세 추정 방법도 제안된 바 있으나, 딥러닝 기반의 객체 검출과 전경 분리를 이용한 영상처리, 두 단계의 영상분석 과정이 필요한 상황이다.

    이에 본 논문에서는 도로 주변에 설치되어 항상 동일한 시야각을 갖는 인프라 수집 카메라 센서의 특징을 고려하여 간단한 구조의 객체 검출 신경망을 활용하여 실시간으로 차량의 중심점을 추정하는 방법을 제시하 고자 한다.

    Ⅲ. 본 론

    본 장에서는 YOLO 기반의 객체 검출 신경망을 이용하여 도로상의 차량과 해당 차량의 전면과 후면의 범 퍼 영역을 객체 검출 알고리즘의 클래스로 추가한 모델을 생성하고, 사전에 정의된 도로의 기울기와 2D 객 체 검출 알고리즘의 결과물인 경계 상자 (Bounding Box)만을 이용하여 차량의 중심점을 추정하는 알고리즘 을 제안한다. 제안 알고리즘의 전체적인 흐름은 <Fig. 3>에 나타난 것과 같다.

    <Fig. 3>

    Vehicle Center Estimation Process

    KITS-23-1-123_F3.gif

    1. 도로 인프라 센서의 특수성

    도로 인프라 센서로 활용되는 카메라 영상분석 환경에서는 일반적인 영상처리 환경과 다른 몇 가지 특수 성을 활용하여 복잡한 문제를 간단하게 해결할 수 있다. 인프라 카메라의 첫 번째 특징은 고정된 화각을 가 지고 있다는 점을 꼽을 수 있다. 고정된 환경에 설치되어 사전에 측정된 기하학적 정보를 영상분석에 활용할 수 있고, 특히 최근 활발하게 구축되는 정밀지도를 활용하는 경우 현장 실측 없이도 상당한 정보를 얻을 수 있다는 장점이 있다. 또한, 인공지능 모델의 학습에 있어 일반적인 모델의 학습은 과적합을 방지하기 위해 상당한 노력을 기울여야 한다. 하지만 공사 기간을 포함한 인프라 센서의 경우, 장기간 수집된 데이터를 활 용하여 해당 센서의 설치 환경에서 지속적인 학습을 통해 모델을 고도화할 수 있어, 상대적으로 간단한 구조 의 신경망을 활용하더라도 충분한 검출 성능을 기대할 수 있다.

    2. 객체 검출 모델 구성

    제안하는 차량 중심 추정 방법은 다중 객체를 검출할 수 있는 경계 상자 기반의 객체 검출 알고리즘에 모 두 적용 가능한 방법으로, YOLO, SSD, EfficientDet 등의 알고리즘 활용을 고려할 수 있다 (Zou et al., 2023). 본 논문에서는 이미지의 크기에 따라 신경망의 성능과 속도에 따른 Trade-off가 용이한 Scaled-yolo-v4 네트워 크(Wang et al., 2021)를 이용하여 객체 검출 모델을 구성한다. 카메라에 근접한 객체가 존재하지 않는 인프라 센서의 특수성을 고려하여 객체 검출을 위한 Fully connected Layer는 총 2개의 스케일로 구성하였으며, 입력 특징 지도는 (19x19), (38x38)의 크기가 되도록 <Fig. 4>와 같이 구성하였다.

    <Fig. 4>

    Structure of Scaled-yolo-v4 Model

    KITS-23-1-123_F4.gif

    객체 검출을 위한 클래스는 차량과 트럭, 버스, 범퍼 4종으로 구성하였다. 일반적인 차량과 확연하게 다른 외형을 갖는 트럭과 버스는 일반 차량과 구분하고, 차량의 후면부에서 확실하게 구분 가능한 트럭과 버스 또 한 별도의 클래스로 구성하였다. 마지막으로 차량의 중심 추정을 위한 범퍼를 클래스로 추가하였으며, 학습 데이터 구성을 위한 라벨링 기준은 <Table 2>와 같다.

    <Table 2>

    Annotation Guidance for Data Libeling

    Class Annotation Guide
    Car If it can be identified as a vehicle, designate only the visible parts, excluding the obscured areas, as objects.
    Truck If the front end is included in the frontal and side views, designate it as an object.
    Bus If the frontal and side views include the front end, designate it as an object.
    Bumper Label the upper left and right portions of the headlights and the lower left and right portions of the bumper as the labeling area.

    3. 차량 중심 추정

    차량 중심 추정을 위해서는 검출된 차량 경계 상자와 범퍼의 경계 상자의 매칭이 필요하다. 경계 상자의 매칭은 <Fig. 5>와 같이 차량과 범퍼 경계 상자의 IoU(Intersection over Union) 값을 이용하여 수행한다.

    <Fig. 5>

    Intersection of Union

    KITS-23-1-123_F5.gif

    검출된 차량의 경계 상자는 이미지의 원점을 기준으로 <Fig. 6>과 같이 나탤 수 있으며, 검출된 범퍼의 좌 하단 점을 Pblb, 우하단 점을 Pbrb, 검출된 차량의 좌하단 점을 Pclb, 우하단 점을 Pcrb, 사전에 설정된 도로 의 기울기를 a라고 할 때, 객체의 후편 바닥 좌표 PeblPebr 은 수식 (1)과 (2)를, 차량의 3D 중심 Pobjc는 수식 (3)을 이용하여 구할 수 있다.

    if ) a b s ( P b l b P c l b ) < a b s ( P b r b P c r b ) : { P e b r = ( P c r b x , a * ( P c r b x P b r b x ) + P b r b y ) P e b l = ( P e b r x B u m p e r w i d t h , P e b r y )
    (1)

    if ) a b s ( P b l b P c l b ) > a b s ( P b r b P c r b ) : { P e b l = ( P c l b x , a * ( P c l b x P b l b x ) + P b l b y ) P e b r = ( P e b l x B u m p e r w i d t h , P e b l y )
    (2)

    P o b j c = 0.25 * ( P b l b + P b r b + P e b l + P e b r )
    (3)

    <Fig. 6>

    Points for Estimation

    KITS-23-1-123_F6.gif

    Ⅳ. 실험 결과

    객체 검출 모델을 학습하기 위하여 총 10,000장의 이미지를 라벨링하고, 9,000장을 학습 데이터로, 1,000장 을 검증 데이터로 사용하였다. 준비된 라벨링 이미지를 사용하여 IoU 0.5 이상을 검출 성공 기준으로 두고 AP를 측정한 결과는 아래의 <Table 3>와 같으며, 비교적 간단한 구조의 신경망으로도 충분한 객체 검출 성 능을 확보할 수 있음을 확인하였다.

    <Table 3>

    Annotation Guidance for Data Libeling

    Class TP FP AP (%)
    Car 2193 470 90.21
    Truck 373 52 89.64
    Bus 56 20 90.13
    Bumper 1781 517 87.46

    객체의 중심 추정 정확도를 확인하기 위하여 RTK 단말기를 활용하여 건물 옥상에 <Fig. 7>과 같이 설치 된 카메라의 외부 캘리브레이션을 수행하였다. 이때, 지리 수집된 Bessel 타원체를 사용하여 중부 원점을 중 심으로 지리 좌표계를 투영 좌표계로 변환하였으며, 카메라의 왜곡 보정 및 내부 캘리브레이션은 (Zhang, 2000)의 방법을 이용하였다.

    <Fig. 7>

    Calibration Boards

    KITS-23-1-123_F7.gif

    n가지 종류의 차량에 아래의 <Fig. 8>와 같이 RTK 안테나를 부착하여 GPS 신호를 수집하였으며, <Fig. 9> 과 같이 검출된 차량의 중심점을 추정하여 3D 좌표를 산출하였다. 이 때 사용된 RTK 안테나의 상세 사양은 <Table 4>와 같다.

    <Fig. 8>

    GPS Sensor Position

    KITS-23-1-123_F8.gif
    <Fig. 9>

    3D Center Estimation Example

    KITS-23-1-123_F9.gif
    <Table 4>

    RTK Specification

    Category Description
    Location Accuracy Horizontal 1cm + 1ppm CEP
    Vertical 1cm + 1ppm R50
    Max Navigation Update rate Priority Navigation Mode 30Hz
    Non Priority navigation mode 2Hz
    Navigation Latency Priority Navigation Mode 15ms
    Velocity Accuracy 0.05m/s
    Dynamic Attitude Accuracy Heading/Pitch/Roll 0.2deg/0.3deg/0.5deg
    Acquisition Time (GPS+GLO+GAL+BDS) Cold/Hot 26s/2s
    Re-convergence Time RTK <10s

    약 50m의 영역을 이동하며 수집된 GPS 신호의 오차를 최소화하기 위하여 한 지점에서 10초간 정차하여 수집된 신호의 평균값을 사용하였다. GPS 신호를 동부 원점을 기준으로 변환한 3D 좌표와 추정된 차량 중 심 2D 좌표를 동부 원점 기준으로 변환한 좌표의 유클리드 거리 차이를 측정하였으며 그 결과는 <Table 5> 와 같이 나타났다. 추정된 차량의 중심은 <Fig. 10>에서 확인할 수 있으며, 차량의 길이 및 카메라와의 거리 에 따라 평균 43cm 정도의 오차를 보였고, 이는 단순하게 경계 상자의 중심을 추정한 결과는 위성과 비교한 오차 278cm보다 정밀함을 실험을 통해 확인할 수 있었다.

    <Table 5>

    Location Estimation Results

    Location GPS (m) (x,y) Center (m) (x,y) BBOX (m) (x,y) Center Gap (m) (x,y) BBox Gap (m) (x,y)
    01 6122283, 4555233 6122282, 4555233 6122284, 4555230 0.3493861, 0.1114912 1.9599, 2.8107
    02 6122270,4555244 6122270, 4555244 6122271, 4555242 0.3247175, 0.0707792 1.3162, 2.0663
    03 6122257, 4555256 6122256, 4555256 6122257, 4555253 0.4113887, 0.1427691 1.2522, 2.3147
    04 6122248, 4555263 6122249, 4555262 6122249, 4555260 0.5423755, 0.1964397 0.9885, 2.4652
    Average Gap 0.4069669, 0.1303698 1.3792, 2.414225
    0.4273387 2.780409
    <Fig. 10>

    3D Center Estimation Result

    KITS-23-1-123_F10.gif

    Ⅴ. 결 론

    본 연구에서는 도로 인프라 센서를 활용한 차량 중심 추정 방법을 제안하였다. 이 방법은 간단한 구조의 객체 검출 신경망을 기반으로, 도로 인프라의 고정된 화각과 사전에 측정된 기하학적 정보를 활용하여 객체 를 검출하고 차량의 중심점을 추정하는 방안을 제안하였다. 실험을 통해 단순한 구조의 신경망을 사용함에 도 mAP 90에 가까운 충분한 검출 성능을 확보할 수 있음을 확인하였으며, 단순한 좌표의 입력을 통해 낮은 연산량으로 객체의 중심점을 효과적으로 추정할 수 있음을 확인하였다. 또한, 제안된 방법은 차량 및 도로 인프라 간의 협력형 자율주행 기술에 적용 가능하며, 차량의 중심 추정을 통해 국제 표준을 준수하면서 실제 자율주행 차량의 경로계획에 활용할 수 있는 정보를 단안 카메라를 이용하여 생성할 수 있어, 협력형 자율주 행 인프라의 보급 및 확산에 기여할 수 있을 것으로 기대된다. 하지만 제안된 방법은 차량의 중심을 추정하 기 위해 범퍼의 검출이 필수적으로, 도로의 측면에 설치된 카메라 영상이나, 차량의 정체가 일어나 범퍼가 가려지는 환경에 적용하는 데에는 한계가 있다. 또한, 본 연구는 제한된 환경에서 직선 도로를 대상으로 수 행된 연구이므로 향후 곡선 도로 및 다양한 환경을 고려한 후속연구와 카메라의 왜곡이나 3D 좌표의 2D 좌 표 변환 과정에서 발생하는 오차를 줄이기 위한 정밀 카메라 교정 방법 등의 후속 연구가 필요할 것으로 판 단된다.

    ACKNOWLEDGEMENTS

    This work is supported by the Korea Agency for Infrastructure Technology Advancement (KAIA) grant funded by the Ministry of Land, Infrastructure and Transport (Grant RS-2021-KA160501).

    Figure

    KITS-23-1-123_F1.gif

    Local Dynamic Map Structure

    KITS-23-1-123_F2.gif

    Vehicle Reference Position (Source: SAE-J3224)

    KITS-23-1-123_F3.gif

    Vehicle Center Estimation Process

    KITS-23-1-123_F4.gif

    Structure of Scaled-yolo-v4 Model

    KITS-23-1-123_F5.gif

    Intersection of Union

    KITS-23-1-123_F6.gif

    Points for Estimation

    KITS-23-1-123_F7.gif

    Calibration Boards

    KITS-23-1-123_F8.gif

    GPS Sensor Position

    KITS-23-1-123_F9.gif

    3D Center Estimation Example

    KITS-23-1-123_F10.gif

    3D Center Estimation Result

    Table

    Different Sensors Utilized for Infrastructure-based Perception (Source : Bai et al., 2022)

    Annotation Guidance for Data Libeling

    Annotation Guidance for Data Libeling

    RTK Specification

    Location Estimation Results

    Reference

    1. Al-qaness, M. A. , Abbasi, A. A. , Fan, H. , Ibrahim, R. A. , Alsamhi, S. H. and Hawbani, A. (2021), “An improved YOLO-based road traffic monitoring system”, Computing, vol. 103, pp.211-230.
    2. Bai, Z. , Wu, G. , Qi, X. , Liu, Y. , Oguchi, K. and Barth, M. J. (2022), “Infrastructure-based object detection and tracking for cooperative driving automation: A survey”, 2022 IEEE Intelligent Vehicles Symposium(IV), pp.1366-1373.
    3. Guo, E. , Chen, Z. , Rahardja, S. and Yang, J. (2021), “3d detection and pose estimation of vehicle in cooperative vehicle infrastructure system”, IEEE Sensors Journal, vol. 21, no. 19, pp.21759- 21771.
    4. Ignatious, H. A. and Khan, M. (2022), “An overview of sensors in Autonomous Vehicles”, Procedia Computer Science, vol. 198, pp.736-741.
    5. Jeon, H. M. , Yang, I. , Kim, H. S , Lee, J. H. , Kim, S. K. , Jang, J. Y. and Kim, J. Y. (2022), “Some Lessons Learned from Previous Studies in Cooperative Driving Automation”, The Journal of The Korea Institute of Intelligent Transport Systems, vol. 21, no. 4, pp.62-77.
    6. Jo, I. H. , Sa, J. M , Kim, Y. Y. and Nam, B. (2022), “Improve Ultra-low Latency Vehicle Identification and Traffic Precision Based Yolo-v4”, Journal of Korean Society of Transportation, vol. 40, no. 6, pp.908-920.
    7. Kim, S. H. , Han, D. H. , Lee, H. and Kim, S. H. (2022), “Required Function Design of Traffic Data Collection and Provision System for Connected Automated Vehicle Operation”, Korean Society of Transportation, vol. 19, no. 3, pp.39-44.
    8. Ku, J. , Pon, A. D. and Waslander, S. L. (2019), “Monocular 3D Object Detection Leveraging Accurate Proposals and Shape Reconstruction,” 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR), Long Beach, CA, USA, pp.11859-11868.
    9. Ku, J. , Pon, A. D. and Waslander, S. L. (2019), “Monocular 3d object detection leveraging accurate proposals and shape reconstruction”, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp.11867-11876.
    10. Roh, C. G. and Kim, H. S. (2019), “Dynamic Information Platform for Connected Automated Driving at the Urban Road”, Korean Society of Transportation, vol. 16, no. 6, pp.71-78.
    11. Society of Automotive Engineers(SAE) International (2020), V2X Communications Message Set Dictionary (J2735TM Standard), Issued 2006. 12., Revised 2020.07.
    12. Society of Automotive Engineers(SAE) International (2021), Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles (J3016TM Standard), Issued 2014. 01., Revised 2021.04.
    13. Society of Automotive Engineers(SAE) International (2022), V2X V2X Sensor-Sharing for Cooperative and Automated Driving (J3224TM Standard), Issued 2022.08.
    14. Wang, C. Y. , Bochkovskiy, A. and Liao, H. Y. M. (2021), “Scaled-yolov4: Scaling cross stage partial network”, Proceedings of the IEEE/cvf Conference on Computer Vision and Pattern Recognition, pp.13029-13038.
    15. Wang, J. , Zhang, L. , Huang, Y. , Zhao, J. and Bella, F. (2020), “Safety of autonomous vehicles”, Journal of Advanced Transportation, pp.1-13.
    16. Zhang, Z. (2000), “A flexible new technique for camera calibration”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp.1330-1334.
    17. Zou, Z. , Chen, K. , Shi, Z. , Guo, Y. and Ye, J. (2023), “Object detection in 20 years: A survey”, Proceedings of the IEEE.

    저자소개

    Footnote