Journal Search Engine

View PDF Download PDF Export Citation Korean Bibliography PMC Previewer
The Journal of The Korea Institute of Intelligent Transport Systems Vol.23 No.1 pp.82-96
DOI : https://doi.org/10.12815/kits.2024.23.1.82

Vehicle Acceleration and Vehicle Spacing Calculation Method Used YOLO

Jeong-won Gil*, Jae-seong Hwang**, Jae-Kyung Kwon***, Choul-ki Lee****
*Dept. of D.N.A.Plus Convergence., Univ. of Ajou
**Transportation Research Institute., Univ. of Ajou
***Dept. of Transportation Eng., Univ. of Ajou
****Dept. of Transportation Systems Eng., Univ. of Ajou
Corresponding author : Choul ki Lee, cklee@ajou.ac.kr
29 November 2023 │ 5 December 2023 │ 21 December 2023

Abstract


While analyzing traffic flow, speed, traffic volume, and density are important macroscopic indicators, and acceleration and spacing are the important microscopic indicators. The speed and traffic volume can be collected with the currently installed traffic information collection devices. However, acceleration and spacing data are necessary for safety and autonomous driving but cannot be collected using the current traffic information collection devices.



‘You Look Only Once’(YOLO), an object recognition technique, has excellent accuracy and real-time performance and is used in various fields, including the transportation field. In this study, to measure acceleration and spacing using YOLO, we developed a model that measures acceleration and spacing through changes in vehicle speed at each interval and the differences in the travel time between vehicles by setting the measurement intervals closely. It was confirmed that the range of acceleration and spacing is different depending on the traffic characteristics of each point, and a comparative analysis was performed according to the reference distance and screen angle to secure the measurement rate. The measurement interval was 20m, and the closer the angle was to a right angle, the higher the measurement rate. These results will contribute to the analysis of safety by intersection and the domestic vehicle behavior model.



YOLO기법을 사용한 차량가속도 및 차두거리 산출방법

길 정 원*, 황 재 성**, 권 재 경***, 이 철 기****
*주저자 : 아주대학교 D.N.A.플러스융합학과 교통전공 석사과정
**공저자 : 아주대학교 교통연구센터 수석연구원
***공저자 : 아주대학교 교통공학과 박사과정
****교신저자 : 아주대학교 교통시스템공학과 교수

초록


교통류에서는 거시적인 지표로 속도, 교통량, 밀도가 중요한 파라미터로 활용되고 있으며, 미시적인 지표로는 가속도와 차두거리가 중요한 파라미터로 활용되고 있다. 속도와 교통량은 현재 설치된 교통정보 수집장치로 수집이 가능하지만 가속도와 차두거리는 안전과 자율주행 분야 등에 필요성이 있지만 현재 교통정보 수집장치로는 수집이 불가능한 실정이다.



객체인식 기법인 YOLO는 정확도와 실시간성이 우수하여 교통분야를 포함하여 다양한 분 야에서 활용되고 있다. 본 연구에서는 YOLO를 활용하여 가속도와 차두거리를 측정하기 위해 측정 간격을 조밀하게 설정하여 간격별 차량의 속도 변화와 차량 간 통행시간 차이를 통해 가 속도와 차두거리를 측정하는 모델을 개발하였다. 지점별 교통특성에 따라 가속도와 차두거리 의 범위가 다름을 확인하였고, 측정률 확보를 위한 기준거리와 화면각도에 따른 비교분석을 수행하다. 측정간격은 20m, 각도는 직각에 가까울수록 측정률이 높아짐을 분석하였다. 이를 통 해 교차로별 안전도 분석과 국내 차량행태모델 분석에 기여할 수 있을 것이다.



    Ⅰ. 서 론

    1. 연구 배경 및 목적

    4차 산업혁명으로 정보통신(ICT), SW, 빅데이터, 인공지능(AI) 기술이 계속 발전하고 있다. 교통분야에서 도 인공지능 기술의 발전과 교통혼잡 관리의 요구 증가로 객체인식 기술을 활용한 스마트교차로 시스템(SIS, Smart Intersection System)이 등장하여 도시 곳곳에서 교통정보를 수집하여 교통관리에 활용하고 있다. 객체 인식 기술을 활용하여 루프검지기, 적외선 검지기 등 과거 검지체계의 한정적인 정보를 수집하는 한계점을 극복하고 교통량, 속도, 대기차량길이 등 교통관리에 필요한 교통정보를 수집할 수 있는 장점으로 널리 확산 되고 있는 추세이다.

    몇 년 전부터 확산되고 있는 스마트교차로 시스템은 신호체계 개선 등 교통관리에 활용될 뿐만 아니라 수 집되는 정보를 활용하여 교통 관련 연구에 기초데이터로 활용되어 다양한 연구가 진행되고 있다. 다만, 수집 정보가 속도, 대기차량 길이 등 통합가공 정보이기 때문에 차량 한 대 한 대 인식할 수 있는 객체인식 기술 을 충분히 활용하고 있다고 할 수 없다.

    교통류에서는 속도, 교통량, 밀도를 기본으로 하고 있지만, 자율주행과 안전분야에서는 차량의 가속도와 차두거리 등이 중요한 지표로 활용되고 있다. 가속도와 차두거리는 많은 차량을 조사하는데 한계를 가지기 때문에 현장 데이터를 적용하는 연구가 부족한 실정이다.

    본 연구에서는 교통분야에서 가장 널리 사용되고 있는 객체인식 기법인 YOLO를 사용하여 객체인식 기술 에 가속도와 차두거리를 측정할 수 있는 방법을 도출 및 적용하고 해당 방법을 통해 가속도와 차두거리 측 정 시 발생하는 문제점을 분석한다. 또한 측정률을 분석하여 적합한 측정 방법과 카메라 높이에 대한 고찰을 통해 측정률을 높일 수 있는 방안을 제시한다.

    2. 연구수행 절차

    연구는 선행연구를 통해 가속도와 차두거리의 전통적인 조사방법 및 관련 연구를 검토하고 영상인식 기 술 동향을 검토하여 연구에 기반으로 활용할 영상인식 기법을 결정한다. 이후 가속도와 차두거리를 측정할 수 있는 방법론을 수립하여 영상인식 기법에 적용한다.

    가속도와 차두거리를 측정할 수 있는 방법과 평가지표를 결정하고 실제 교통 CCTV 영상에 영상인식 기 법을 통해 가속도와 차두거리를 측정한 뒤 평가방법으로 최적의 방안을 도출한다. 마지막으로 분석 결과를 정리한 이후 본 연구결과의 활용방안과 발전 방향을 제시한다.

    Ⅱ. 이론적 검토

    1. 가속도와 차두거리의 정의 및 측정 방법

    운전자가 속도를 변화시키는 변화율인 차량의 가속도 및 감속도는 교통공학과 도로기술에서 매우 중요한 지표이다. 가감속도는 도로의 설계뿐만 아니라, 안전표지의 설치, 속도변화구간의 설치를 위한 기초자료로 활용된다(Do, 2004). 차량의 가속도를 측정하는 방법으로는 차량에 가속도센서를 부착하여 측정하거나, GPS 및 OBDⅡ 속도센서를 활용하는 방법(Wallace et al., 2015)이 있다. 차량 외부에서 가속도를 조사하는 방법은 조사 결과가 부정확할 뿐만 아니라 차량에 가속도센서를 활용하는 간편한 방법으로 측정할 수 있기 때문에 다양한 방법의 연구가 진행되지 않았다.

    차두거리(Spacing)는 교통운영과 안전에서 매우 중요한 파라미터로, 연속으로 진행하는 앞차의 앞부분과 뒤차의 앞부분 사이의 간격(m)을 의미하며, 교통에서는 앞차와 뒤차의 앞부분(또는 뒷부분)이 동일 지점을 통과하는 시간(s)으로 차두시간(Headway)을 측정하여 파라미터로 사용한다(Do, 2004). 차간간격(Gap)은 앞차 의 뒷부분과 뒤차의 앞부분 사이의 거리를 초로 환산한 값으로 차두시간과 속도로 계산할 수 있다. 차두거 리, 차두시간, 차간간격은 직접 측정하는 경우는 드물고 일반적으로 계산에 통해 구한다(Do, 2004).

    h ¯ = 3600 q ¯ , g ¯ = h ¯ l ¯ υ ¯
    (1)

    여기서,

    • h = 평균차두시간(초)

    • q = 평균교통유율(υph)

    • g = 평균차간시간(초)

    • l = 평균차량길이(m)

    • υ = 평균차량속도(m/s)

    ITS에서는 한 지점 또는 가까운 두 지점에 검지기를 설치하여 검지기를 통과한 차량 통행정보를 통해 단 위시간당 통과하는 차량 대수와 검지기를 통과한 시간으로 통행속도를 측정하고, 연속된 두 차량 간의 시간 간격, 속도, 차량의 길이를 활용하여 차두거리를 추정한다. 다만, 고정된 단일 지점정보를 이용하기 때문에 가속도의 측정은 불가능한 실정이다. 검지기를 짧은 간격으로 연속해서 설치한다면 속도의 변화를 측정하여 가속도를 산출할 수 있지만, 검지기 설치에 과도한 예산이 필요한 한계점이 존재한다.

    2. 가속도와 차두거리 활용 분야

    1) 가속도 관련 연구

    가속도는 속도, 차두거리와 더불어 교통안전, 교통류 분석 등 많은 교통분야에서 활용되고 있다. Ha et al.(2003)는 3차원의 실제 도로형상을 고려하여 일관성을 평가하는 방법으로 가속도 개념을 사용하였으며 차 량의 운행과 운전자가 받는 느낌을 근거로 가속도가 안전에 커다란 영향 요소라고 하였다. 가속도를 사용한 도로의 일관성 평가 방법을 제시하고 속도차 방법과 가속도를 사용한 방법의 분석결과 차이를 바탕으로 속 도차 방법보다 거리에 따른 속도변화를 표현한 가속도 방법이 더 정확하다고 평가했다.

    Park et al.(2011) 교통사고 원인 분석 및 사고 예방을 위해서 교통사고 유발요인에 대한 이해의 필요성과 기존 연구된 기하구조, 운전자 특성에 더해 가속도와 가속도 변화량을 고려하여 사고 발생에 영향을 주는 변 수를 제시하였다. GPS 수신기와 가속도 센서를 장착한 프로브차량을 이용하여 차량의 속도와 가속도를 측정 하고 T-test와 이항 로지스틱 회귀분석을 통해 진행 방향 가속도의 표준편차(가속소음), 횡방향 가속도의 표 준편차와 변동계수, 수직 방향 가속도의 85th percentile 가속도 등 사고 발생에 영향을 미치는 변수들을 도출 하였다. 속도의 변화량이 크면 사고발생 가능성이 높다는 기존 연구결과에 따라 가속도의 변화량에서도 동 일한 결론이 도출될 것이라고 제시하였다.

    평균가속도에 대한 가속도의 표준편차를 가속소음이라고 한다. Jeong(2014)은 가속 소음을 활용하여 운전 자의 주행환경을 반영하는 운전행태가 교통사고를 충분히 설명할 수 있는지에 대한 연구를 진행하였다. 분 석대상구간을 가속구간과 감속구간으로 구분해 분석하였고 감속구간보다 가속구간에서 상대적으로 교통사 고가 많이 발생하였으며, 특정 평균속도 범위에서 교통사고 심각도는 가속소음에 정비례한다고 분석하였다.

    2) 차량행태 모형

    차량행태 모형은 크게 Car-following Model, Lane Change Model로 나뉜다. Car-following Model의 경우 연이 어 주행하는 두 차량 간의 속도, 가감속도, 차두거리 등의 변화와 상호 관계식을 규명하기 위한 모델이다. 기 본 개념은 후행차량은 선행차량을 따르며 선행차량의 행태에 직접적인 영향을 받아 반응하여 후행차량이 진 행한다는 것이며, 교통류의 주행특성을 이해하고 교통안전 및 운영기법의 이론적 토대를 제공한다. Pipes에 처음 제안된 Pipes car-following model부터 대표적인 교통 시뮬레이션인 VISSIM에 적용되는 Weidmann Model, 자율주행과 ADAS에 적용되는 IDM(Intelligent Driver Model) 등 최근까지 사용되고 있다. Weidmann Model은 차두거리가 주요 변수이며, IDM은 가속도와 차두거리가 주요 변수로 작용하고 있다(Advanced Institute of Convergence Technology, 2021).

    Lane Change Model은 운전 중 발생하는 앞 차와의 추종 상황과 차로변경을 모델화한 것으로 최근에는 MOBIL(Minimizing Overall Braking Induced by Lane Change), LMRS(Lane Change Model with relaxation and Synchronization) 등이 사용되고 있다. 차로변경 과정은 4단계로 구분된다. ① 의사결정 단계는 Lane Change를 결정하고, ② 차로탐색 단계는 목적차로를 탐색 후 결정한다. ③ 간격 탐색 단계는 수락간격(acceptable gap) 을 분석하고, ④ 변경수행 단계에서 Lane change를 실행한다(Advanced Institute of Convergence Technology, 2021). Lane Change Model에서도 후행 및 선행차량과의 차두거리와 차량의 가속도가 주요 변수로 작용한다.

    3. 객체인식 기술

    객체인식은 이미지나 영상에서 객체의 위치를 특정하고 그 속성을 부여하는 컴퓨터 비전 작업을 말한다. 객체인식은 컨볼루션 레이어에서 검출한 것을 식별하고 위치를 알아낸다. 또한 컨볼루션 백본에서 일부 위 치정보를 추출하여 객체의 식별과 위치 정보를 추출한다. 이후 위치 정보를 추출 및 정제하기 위해 컨볼루션 스텍에 요소를 추가하고 객체의 위치 정보를 추출하고 다듬도록 네트워크를 훈련한다(Lakshmanan et al., 2023). 대표적인 객체인식 기법으로는 YOLO와 레티나넷(RetinaNet), R-CNN, ResNet 등이 있다.

    1) YOLO(You Only Look Once)

    YOLO는 대표적인 객체인식 기법으로 이미지의 특정 부분에 어떤 객체가 있는지 검출한다. YOLO는 1-stage detector로써 객체를 인식하고 종류를 분류하는 Classification 과정과 객체의 위치를 경계박스를 통해 나타내는 Localization 과정을 동시에 처리하여 두 과정을 순차적으로 처리하는 2-stage detector보다 처리속도 가 빠르다는 장점이 있다. 새로운 이미지가 입력되면 특정 크기의 격자 셀로 나누고 각 격자 셀마다 2개의 경계박스를 예측하여 박스 안 객체의 종류와 신뢰도를 계산한다. 최종적으로 확률이 가장 높은 종류로 객체 가 검출된다. 처리속도가 빠르며 상대적으로 정확도가 높아 CCTV, 번호판 식별이나 차량검지기 같은 실시 간 시스템에 쓰이고 있다. <Table 1>과 같이 YOLO는 2016년(Redmon et al., 2016)을 시작으로 계속 발전하여 2023년 YOLO v8로 발전되어 정확도와 예측시간이 향상되었다(Qtly_u, 2023).

    <Fig. 1>

    YOLO processing steps

    KITS-23-1-82_F1.gif
    <Table 1>

    Features of each YOLO version

    Version Develop. Date explanation
    YOLO v1 2016 Development of Real-time object detection deep learning network
    YOLO v2 2017 Version 1 performance improvement and speed improvement
    YOLO v3 2018 Improved structure and learning method
    YOLO v4 2020.04 Application of SSP and AN technology
    YOLO v5 2020.06 Reduce model size, Improve accuracy
    YOLO v6 2022.07 Training optimization, Trainable bag-of-freebies suggestion
    YOLO v7 2022.09 Introduction of Quantization and Distillation
    YOLO v8 2023.01 Launch of new repository, Establishment of integrated framework
    <Fig. 2>

    Performance comparison by YOLO version

    KITS-23-1-82_F2.gif

    2) 레티나넷(RetinaNet)

    레티나넷은 분류 모델은 ResNet을 백본(Backnone)으로 하여 피라미드 네트워크(FPN, Feature Pyramid Networks)를 결합한 객체인식 모델 중 하나이다. 이미지나 영상이 CNN에 의해 처리될 때 초기 컨볼루션 레 이어는 낮은 수준의 정보를 포함하고 레이어가 깊어질수록 더 가치있는 특징으로 결합한다. 마지막 레이어 에서 특징을 검출에 사용할 수 있지만, 모든 단계에서 검출 헤드를 추가하여 좋은 정보를 모두 표시하는 방 식을 적용한 것이 FPN이다.

    레티나넷의 기본적인 객체인식 방식으로는 특정 영역에 대하여 객체의 포함 여부를 판별하며, 객체가 있 을 법한 영역을 미리 찾는 방식으로 기존의 Sliding window 방식보다 연산량이 적은 장점을 가지는 앵커박스 (Anchor Box)를 이용하여 객체를 검지한다(Lakshmanan et al., 2023).

    <Fig. 3>

    Retinanet Structure with FPN(Feature Pyramid Network) Application

    KITS-23-1-82_F3.gif

    3) 객체인식을 활용한 속도 측정 원리

    Jeng et al.(2021)은 ROI와 YOLO를 기반으로 하는 차량 검지, 속도 추정에 대한 방법을 제시하였다. 온라 인 카메라로 촬영한 도로 영상에서 기준선을 설정하여 차량을 검지하고 ROI를 설정한 후 영상 속 차선과 평 행한 노면 점선 표시를 이용하여 속도를 추정하였다. 실제 점선의 길이와 영상 속 길이의 비율을 통해 매개 변수를 계산하고 이를 이용하여 차량이 ROI까지 이동한 거리를 추정하였다. 차량이 이동하는 프레임 수를 FPS로 나누어 이동시간을 구하고 차량의 이동한 거리를 이동시간으로 나누어 속도를 계산하였다. 그 후 차 량 검지율과 실제 속도와 예상 속도와의 오차를 분석하였다.

    Rasi and Munir(2021)는 YOLO와 칼만필터를 기반으로 차량 검지와 추적, 바운딩 박스와 변위의 기준점을 설정하여 차량의 속도를 추정하였다. 교통 CCTV 영상을 프레임 샘플링하고 바운딩 박스의 아래쪽 중심점을 기준점으로 설정하여 차량의 변위를 계산하고 이동하는 데 걸린 시간으로 나누어 속도를 계산하였다. MAE 를 기준으로 여러 검지모델과 추적 모델 중 최적의 조합으로 YOLO v4와 칼만필터를 제시하였다.

    Ⅲ. 연구 방법론

    ITS에서 검지기를 활용한 기법은 활용성 대비 예산이 많이 소요된다는 문제점이 있다. 다만, 기존에 설치 된 장비를 활용하여 가속도와 차두거리를 측정한다면, 해당 지점에 보다 다양한 데이터를 수집하고 가속도 의 변화를 분석하여 안전도 분석이 가능할 것이다.

    기존에 설치된 CCTV 또는 스마트교차로를 사용할 수 있도록 하고, 스마트교차로에 적용된 기술을 활용하 여 가속도와 차두거리를 측정할 수 있도록 연구 방법을 설정하였다. 스마트교차로에서는 속도의 측정을 두 ROI를 통해 측정한다. ROI을 보다 조밀하고 여러 개 설정할 경우 속도의 변화를 측정할 수 있다. 따라서, 가 속도를 산출하기 위해서는 차량의 속도 변화를 측정할 수 있도록 화면상에 설정된 ROI마다 속도를 측정할 수 있도록 설정해야 한다. 차두거리는 후미차량과의 시간차이와 차량의 속도를 측정하여 산출할 수 있어 기 존 방식을 적용할 수 있지만, ROI가 넓거나 간격이 길게 설정될 경우 설정된 ROI 사이에서 끼어들기와 차두 거리의 변화가 일어날 수 있어 ROI를 짧게, 여러 개를 연속적으로 설정할 필요가 있다.

    1. 가속도 측정 방법

    가속도는 차량이 단위시간 동안 얼마나 변화했는지를 나타내는 벡터량으로 이를 측정하기 위해 짧은 간 격으로 속도를 측정할 수 있는 기준선(ROI)을 여러 개 설치하여 기준점에서 측정되는 속도의 변화를 계산한 다. 차량의 속도를 측정할 수 있는 기준선을 조밀하게 설정하여 기준선 간의 거리와 진출-진입 시간을 측정 하여 속도를 산출한다. 이후 인접한 구간의 속도와 통과시간으로 속도의 변화량을 계산하여 가속도를 산출 한다.

    a n = V n V n 1 T n T n 1
    (2)

    <Fig. 4>

    Acceleration measurement concept

    KITS-23-1-82_F4.gif
    • n = n번기준선

    • an = n번기준선을통과한시점에서의차량가속도(m/s2)

    • Vn = n번기준선에서의속도(m/s)

    • Tn = n번기준선을통과한시점의시간(s)

    2. 차두거리 측정 방법

    차두거리는 두 차량 간의 거리이며, 이를 측정하기 위해서는 동일한 차로를 이용하는 두 차량이 한 지점 을 통과하는 각각의 시간과 후미차량의 속도를 측정해야 한다. 후미차량이 선두차량이 통과한 지점을 얼마 만큼의 속도를 가지고 얼마만큼의 시간동안 통과했는지 알면 두 차량 간의 거리를 측정할 수 있다. 다만, 인 접한 두 차량의 차두거리를 온전히 측정하고 속도 및 가감속도에 따른 차두거리의 변화를 측정하기 위해 측 정 기준선을 조밀하게 설정할 필요가 있다.

    이 방법은 기본적으로 측정지점 직전의 상류 속도 측정 구간의 속도로 등속운동 한다는 것을 가정하고 있 다. 따라서, 차량 간의 간격이 어느 정도 가까울 경우에 정확도를 보장할 수 있는 방법이다. 차량 간의 간격 이 멀 경우 속도측정 구간에서의 속도와 다른 속도로 주행할 가능성이 높아 오차가 높아지지만, 교통류에서 차두거리는 차량 간의 간격이 밀집되어 지체분석과 안전도 분석에 사용하는 목적이 크기 때문에 본 방법을 적용하였다.

    g Ln = ( T C n + 1 T C n ) × V C n + 1
    (3)

    <Fig. 5>

    Spacing measurement concept

    KITS-23-1-82_F5.gif
    • gLn = n번째차로에서의차간거리(m)

    • TCn = n번째차량의통행시간(s)

    • VCn + 1 = n번째차량의다음차량의속도(m/s)

    3. YOLO 적용

    영상인식 기법은 교통분야에서 스마트교차로시스템(SIS, Smart Intersection System)에 적용하여 사용하고 있는 YOLO 기법을 선정하고 COCO 데이터 셋을 사용하였으며, YOLO 기법에서도 가장 최근에 개발된 것으 로 알려진 Version 8을 적용하였다. 기본적인 YOLO 기법인 객체인식 및 바운딩박스 설정과 객체의 종류를 확인하는 것에 속도와 가속도를 측정하기 위한 기준선(ROI) 설정과 더불어 가속도와 차두거리 측정을 위한 부가적인 기능을 추가하였다.

    가속도와 차두거리 측정을 위한 공통적인 요소로는 측정을 위한 기준선을 조밀하게 설정할 필요가 있다. 이를 위해 CCTV 영상의 거리를 정확하게 측정해야 한다. CCTV는 각각 조향각과 높이에 따라 실제 거리와 의 비율이 다르기 때문에 정확한 거리를 지정하기 위해 현장에서 굴림자(Walking measure)를 활용하여 화면 상의 거리를 실제로 측정하고, 실거리 10m 지점마다 CCTV 영상 속 해당 위치를 표시하여 영상 상의 거리를 측정하였다.

    4. 평가방법

    본 연구에서는 차량들의 실제 가속도와 차두거리를 측정할 수 없는 한계점을 가진다. 객체인식 기술을 적 용한 속도 측정 정확도는 검증되어 국내에서는 성능평가 지침에서도 기준을 제시하고 있다(Ministry of Land, Infrastructure and Transport, 2023). 따라서 YOLO를 이용한 속도 측정은 정확도를 갖췄다는 가정하에 평가를 수행하였다. Prove Car를 활용하여 소수의 샘플 차량에 대한 가속도 측정은 가능하지만, 정확한 평가를 위해 서는 여러 차량들의 결과 측정이 필요한 연구이기 때문에 분석된 결과들의 비교를 통한 가속도와 차두거리 를 측정할 수 있는 방안을 제시하는 평가항목을 선정하였다.

    영상인식 기법은 카메라를 활용하기 때문에 <Fig. 6> 과 같이 영상 각도에 따라 앞차로 인해 뒤 차량이 가 려지는 문제가 발생할 수 있다. 때문에 각도에 따라 정확도가 달라질 수 있으며, 기준선 설정의 간격이 좁으 면 차량이 여러 개의 기준선에 걸치게 되어 검지 정확도가 떨어질 수 있다. 또한, 교통량이 많아 차량 간의 간격이 조밀하면 오검지율이 높아질 수 있다.

    <Fig. 6>

    On-Site distance measurement for spacing setting

    KITS-23-1-82_F6.gif
    <Fig. 7>

    How tilt angle affects perception

    KITS-23-1-82_F7.gif

    이러한 방법을 평가하기 위해 기준선에 따른 분석과 화면 각도에 따른 분석, 교통량에 따른 분석 3가지 항목을 평가 항목으로 선정하여 분석하며, 이에 맞는 평가지표를 선정하였다. 본 연구의 목적은 영상인식 기 법으로 가속도와 차두거리를 측정할 수 있는지에 대한 방안연구를 목적으로 한다. 따라서 가속도와 차두거 리가 측정된 차량 대수를 인식된 전체 차량 대수로 나눠 측정률을 계산하고 이를 평가 항목으로 선정하였다.

    Ⅳ. 분석대상지 및 분석 결과

    1. 분석대상지 선정 및 CCTV 화면

    분석대상지는 화성시 일대의 향남2원룸촌 삼거리, 부영3단지아파트 삼거리, 반송마을 삼거리를 선정하였 다.. 가로등과 교통 표지판 등 CCTV 영상 속 차량 인식에 방해가 되는 요소가 비교적 적은 곳들을 검토하였 고, 향남2원룸촌 사거리는 향남읍 외곽의 왕복 4차선 도로이며 아직 개발 중에 있는 지역으로 차로 폭이 좁 고 유동인구와 교통량이 적은 구간이다. 부영3단지아파트 삼거리는 향남읍 중심부에 위치한 왕복 4차선도로 이며 아파트 단지가 형성되어 있지만 서쪽은 아직 개발 중으로 교통량이 적은 구간이다. 반송마을 사거리는 왕복 11차선이며 수원 시내와 동탄 지역을 잇는 동탄원천로의 주요 교차로이며 주변에 산업단지가 위치해 시간대와 상관없이 교통량이 많은 구간이다. 영상자료는 2023년 11월 1일 오전 9시부터 10시까지 1시간 길 이의 CCTV 영상을 활용하였다. 영상의 선명도를 위해 강수, 흐림 여부 등의 기상상태를 고려하여 닐짜를 선 정하였고 일광상태와 적절한 교통량을 고려하여 오전첨두시간 부근으로 선정하였다.

    <Fig. 8>

    Area of analysis - Hyangnam2 one room village intersection

    KITS-23-1-82_F8.gif
    <Fig. 9>

    Area of analysis - Buyeong 3-complex apartment intersection

    KITS-23-1-82_F9.gif
    <Fig. 10>

    Area of analysis - Bansong village intersection

    KITS-23-1-82_F10.gif

    2. 분석결과

    1) 가속도 측정 결과

    측정된 가속도의 기초 통계 분석을 <Table 2>에 제시하였다. 분석대상지 별로 기준선 위치에 따른 측정값 을 표시하였다. CCTV와 가까운 기준선부터 0m, 20m, 40m 순으로 설정하고 차량들이 가까워지는 방향의 차 선을 기준으로 측정하였다. 반송마을 사거리의 경우 CCTV의 거리가 멀어 영상 속 기준선 간격이 짧아져 0m 와 20m 지점에서만 측정이 가능하였다. 기준선을 통과할 때 속도를 측정하고 지점별 속도의 차이로 가속도 를 계산하였다.

    <Table 2>

    Acceleration Measurement Results

    Category Hyangnam2 one room village intersection Buyeong 3-complex apartment intersection Bansong village intersection
    Statistical Analysis of Acceleration Measurements KITS-23-1-82_T2-F1.gif KITS-23-1-82_T2-F2.gif KITS-23-1-82_T2-F3.gif
    Average of Acceleration KITS-23-1-82_T2-F4.gif KITS-23-1-82_T2-F5.gif KITS-23-1-82_T2-F6.gif

    분석대상지별, 지점별 상이한 특성을 보였지만 정지선에 가까운 기준선인 0m 지점의 경우에서 감속하는 경우가 많은 것으로 분석되었다. 상류부에서 주행하고 있는 경우 일정 수준의 가속도가 유지되어 가속도의 편차가 적으며, 정지선에 가까울수록 정지할 때의 감속, 출발할 때의 가속의 영향으로 가속도의 편차가 증가 하였다.

    보행자의 통행으로 제한속도가 낮고 연동성이 떨어지는 부영3단지아파트 삼거리의 경우 상류부 교차로를 통과하는 차량들의 가속도 편차가 높게 나타나는 경향이 분석되었다. 또한, 교통량이 많은 반송마을 사거리 의 경우 차량 간의 간격이 조밀한 차량군의 영향으로 가속도의 편차가 적은 것으로 분석되었다.

    2) 차두거리 측정 결과

    차두거리도 가속도와 마찬가지로 분석대상지 별로 기준선 위치에 따라 분석하였다. 후미차량이 기준선을 통과할 때의 속도를 전방차량이 같은 기준선을 통과했을 때의 시간 차이와 곱하여 계산하였다. 일반적으로 단속류 상황에서 차량 간격은 35m ∼ 50m 간격으로 분석되었으며, 이는 교통량에 따른 밀도의 영향과 신호 에 따라 편차가 발생하는 것으로 분석되었다. 신호 연동 유무에 따라 정지선에서의 차두거리 편차가 증가하 였고, 상류부로 갈수록 차두거리의 편차가 줄어드는 결과가 분석되었다.

    반송마을 사거리의 경우 교통량이 많고, 신호에 의한 대기 상황으로 인해 정지되어 있는 차두거리 측정이 어려운 한계점이 발생하였다. 측정식이 속도가 있는 주행하는 차량을 가정하기 때문에 정지된 차량 간의 차 두거리 측정이 불가능한 상황이 발생하였다.

    또한, 교통량이 밀집된 경우 차량 별 속도 차이는 분석이 가능하지만, 객체인식의 측정률이 낮아져 인접된 차량이 아닌 서로 떨어져 있어 정상 검지된 차량만 검지되어 차두거리 측정에 오차가 발생하였고, 반송마을 은 카메라 화각이 낮아 검지되지 않는 차량이 많아 측정 오차가 증가하였다.

    <Table 3>

    Spacing Measurement Results

    Category Hyangnam2 one room village intersection Buyeong 3-complex apartment intersection Bansong village intersection
    Statistical Analysis of Acceleration Measurements KITS-23-1-82_T3-F1.gif KITS-23-1-82_T3-F2.gif KITS-23-1-82_T3-F3.gif
    Average of Acceleration KITS-23-1-82_T3-F4.gif KITS-23-1-82_T3-F5.gif KITS-23-1-82_T3-F6.gif

    3. 측정률 평가

    1) 기준선 간격에 따른 분석

    가속도와 차두거리를 측정하는 기준선의 간격을 20m와 30m 두 방법으로 설정하였다. 간격을 10m로 설정 한 경우 차량을 검지하는 바운딩 박스가 기준선의 간격보다 커 기준선 통과를 정확히 확인할 수 없고 40m로 설정한 경우 기준선들을 통과할 때 속도 변동이 심해져 차두거리 측정이 어려워 사이값인 20m와 30m로 설 정하였다. 아래 <Table 2>은 기준선 간격에 따른 분석대상지들의 차량 검지율이다. 차량은 상류부에서 0m 지 점 방향으로 진행한다. 상류부에서 검지된 차량들을 전체검지차량으로 설정하고 상류부에서부터 연속적으로 검지된 차량들을 기준으로 지점별 검지율을 계산하였다. 향남2원룸촌 삼거리와 부영3단지아파트 삼거리는 끝 지점이 80m, 90m 지점이며 반송마을 사거리의 경우 60m 지점이다. 0m 지점 기준으로 향남2원룸촌 삼거 리의 경우 20m 간격이 30m 간격보다 1.82%, 부영3단지아파트 삼거리의 경우 4.29% 높은 검지율 보였다. 전 체적으로 30m 간격의 검지율이 20m 간격의 검지율보다 떨어졌으며 두 간격 모두 0m에 가까울수록 검지율 이 떨어지는 것으로 분석되었다. 이는 기준선 차량이 진행할수록 바운딩 박스가 소실되는 경우가 많아 검지 율이 떨어지는 것으로 분석된다.

    <Table 4>

    Comparison by baseline intervals

    Site Category Measurement count and rate
    Hyangnam2 one room village intersection Line Spacing 80m 60m 40m 20m 0m
    Detection count 133 123 119 115 97
    Detection Rate(%) 100 92.48 89.47 86.47 72.93
    Line Spacing 90m 60m 30m 0m
    Detection count 135 126 121 96
    Detection Rate(%) 100 93.33 89.63 71.11
    Buyeong 3-complex apartment intersection Line Spacing 80m 60m 40m 20m 0m
    Detection count 245 235 216 174 135
    Detection Rate(%) 100 95.92 88.16 71.02 55.10
    Line Spacing 90m 60m 30m 0m
    Detection count 246 233 200 125
    Detection Rate(%) 100 94.72 81.30 50.81

    2) 화면 각도에 따른 분석

    화면 각도에 따른 분석을 위해 향남2원룸촌 삼거리와 반송마을 사거리를 비교ㆍ분석하였다. 모든 지점, 기준선 간격에서 향남2원룸촌 삼거리의 검지율이 반송마을 사거리의 검지율보다 높게 측정되었다. 반송마을 사거리 CCTV는 향남2원룸촌 삼거리에 비해 높은 곳에 위치하기 때문에 영상 속 차량의 크기가 더 작게 촬 영되어 차량 검지율이 떨어졌으며 실제 거리 대비 기준선의 간격이 좁아져 바운딩 박스의 크기가 큰 화물차, 버스의 경우 속도, 가속도 및 차두거리 측정이 불가했다. 또한, 화면 각도가 향남2원룸촌 사거리 화면보다 차 로면에 평행하여 차량이 겹쳐져 검지에 실패하는 경우가 발생했다. 마지막으로 반송마을 사거리의 경우 다 른 분석대상지보다 교통량이 매우 많은 지역으로 차량이 겹쳐지기 때문에 검지율에 영향을 준 것으로 분석 된다.

    <Table 5>

    Comparison by screen angle

    Site Category Measurement count and rate
    Hyangnam2 one room village intersection Line Spacing 80m 60m 40m 20m 0m
    Detection count 133 123 119 115 97
    Detection Rate(%) 100 92.48 89.47 86.47 72.93
    Line Spacing 90m 60m 30m 0m
    Detection count 135 126 121 96
    Detection Rate(%) 100 93.33 89.63 71.11
    Bansong village intersection Line Spacing 60m 40m 20m 0m
    Detection count 4321 1107 779 67
    Detection Rate(%) 100 25.62 18.03 15.88
    Line Spacing 60m 30m 0m
    Detection count 4321 839 681
    Detection Rate(%) 100 19.42 15.76

    Ⅴ. 결론 및 향후 연구

    본 연구는 객체인식 기법을 활용하여 교통운영, 안전, 자율주행 등 여러 교통분야에서 중요한 변수로 활용 되는 차량 가속도와 차두거리 산출방법 제시를 목표로 하였다.

    YOLO v8을 활용하여 스마트교차로나 CCTV 영상 속 차량을 검지하고 특정 거리 간격의 기준선(ROI)를 설정하여 기준선을 지나는 시간 차이를 통해 속도와 가속도를 측정하였으며 선두차량과 후미차량이 기준선 을 통과하는 시간 차이와 후미차량의 속도를 이용하여 가속도와 차두거리를 산출하였다.

    기준선 간격에 따른 검지율 차이, 화면 각도에 따른 검지율 차이를 분석한 결과 가속도의 경우 지점별 교 통특성으로 인해 상이한 특성을 보였지만 공통적으로 정지선에 가까워질수록 감속하는 경우가 많았으며 상 류부에서는 주행 시 일정 가속도를 유지하기 때문에 편차가 적었지만, 정지선 부근에서는 정지 시 감속, 출 발 시 가속의 영향으로 편차가 증가하였다. 차두거리는 일반적인 상황에서 35m∼50m의 차두거리가 분석되 었으며, 이동 객체에서만 차두거리가 산출되며 정지된 경우 차두거리 산출이 불가능한 한계점이 있었다.

    측정률 분석 결과 기준선의 설정이 넓을수록, 화면의 각도가 차로면에 평행할수록 바운딩 박스가 소실되 는 가능성이 커져 검지율이 떨어졌으며, 교통량이 밀집되어 차량간의 간격이 좁은 경우에도 바운딩 박스의 소실이 많아져 검지율이 떨어지는 것으로 분석되었다. 또한, 교통량이 밀집된 경우 차량단위로 측정하는 가 속도는 측정이 가능하지만, 앞뒤 차량 모두가 검지되어야 하는 차두거리는 중간에 차량인식이 안될 경우 다 른 차량들과의 차두거리가 측정되어 측정오차가 발생하였다.

    본 연구에서는 YOLOv8과 COCO 데이터 셋을 사용하여 해외 이미지 기반 데이터 셋이 적용되었기 때문 에 국내 차량의 검지가 미비했다는 한계점이 존재하였다. 검지율을 높이기 위해 국내 이미지를 기반으로 객 체 인식 모델을 학습시킨다면 객체 인식 정확도가 높아질 것이다. 또한, 교통량이 밀집되고 신호 대기 상황 으로 정지되어 있는 차량들이 차두거리 측정이 불가한 점, 차량들이 겹쳐지면 검지율이 떨어져 차두거리 측 정이 불가한 점을 해결하기 위해 스마트교차로나 CCTV 영상이 아닌 차로면과 수직에 가깝게 촬영한 영상을 활용하면 보다 유의미한 데이터를 추출할 수 있을 것으로 판단된다. 향후 연구로 본 연구의 검지율과 비교가 가능하며 OpenCV 라이브러리의 객체 좌표추적 기능을 활용하여 가속도와 차두거리을 측정하는 방법 등을 적용해 볼 필요가 있다. 마지막으로 가속도는 Prove Car를 활용하여 소수의 샘플 차량에 대해서만 측정이 가 능하여 직접적인 비교가 불가하였다.

    현재의 교통정보 수집체계에서는 속도와 교통량 중심으로 한정적 교통관리를 수행하지만, 본 연구를 통해 가속도와 차두거리를 수집하고 활용한다면 더욱 다양하고 체감할 수 있는 운영 및 관리 서비스의 기반을 마 련할 수 있을 것이다.

    ACKNOWLEDGEMENTS

    이 논문은 2023년도 정부(경찰청)의 재원으로 과학치안진흥센터의 지원을 받아 수행된 연구임(No.092021 C28S01000, 자율주행 혼재 시 도로교통 통합관제시스템 및 운영기술 개발)

    Figure

    KITS-23-1-82_F1.gif

    YOLO processing steps

    KITS-23-1-82_F2.gif

    Performance comparison by YOLO version

    KITS-23-1-82_F3.gif

    Retinanet Structure with FPN(Feature Pyramid Network) Application

    KITS-23-1-82_F4.gif

    Acceleration measurement concept

    KITS-23-1-82_F5.gif

    Spacing measurement concept

    KITS-23-1-82_F6.gif

    On-Site distance measurement for spacing setting

    KITS-23-1-82_F7.gif

    How tilt angle affects perception

    KITS-23-1-82_F8.gif

    Area of analysis - Hyangnam2 one room village intersection

    KITS-23-1-82_F9.gif

    Area of analysis - Buyeong 3-complex apartment intersection

    KITS-23-1-82_F10.gif

    Area of analysis - Bansong village intersection

    Table

    Features of each YOLO version

    Acceleration Measurement Results

    Spacing Measurement Results

    Comparison by baseline intervals

    Comparison by screen angle

    Reference

    1. Advanced Institute of Convergence Technology (2021), Establishment of a Plan for Implementing Mixed Traffic Flow with Autonomous Vehicles, pp.11-19.
    2. Do, C. U. (2004), Traffic Engineering Theory, Gyomoon Books, vol. 1, pp.28-29.
    3. Ha, T. J. , Park, J. J. and Kim, Y. C. (2003), “Development of Highway Safety Evaluation Considering Design Consistency using Acceleration”, Journal of Korea Society of Transportation, vol. 21, no. 1, pp.127-136.
    4. Jeng, S. Y. , Lioa, H. W. and Lin, C. J. (2021), “A Real-Time Vehicle Counting, Speed Estimation, and Classification System Based on Virtual Detection Zone and YOLO”, Hindawi Mathematical Problems in Engineering, vol. 2021, p.1577614.
    5. Jeong, M. S. (2014), A Study on Accident Severity Analysis Using Acceleration Noise, Seoul National University Graduate School.
    6. Lakshmanan, V. , Gorner, M. and Gillard, R. (2023), Practical! Machine Learning for Computer Vision, Wiki Books, pp.121-159.
    7. Ministry of Land, Infrastructure and Transport (2023), ITS Performance Evaluation Standards in the Automobile and Road Traffic Sector, Ministry of Land, Infrastructure and Transport Notice No. 2023-21, pp.46-50.
    8. Park, J. H. , Oh, C. and Kang, K. P. (2011), “Assessment of Freeway Crash Risk using Probe Vehicle Accelerometer”, Journal of Korean Society of Road Engineers, vol. 13, no. 2, pp.49-56.
    9. Qtly_u,https://velog.io/@qtly_u/n4ptcz54, 2023.09.20.
    10. Rais, A. H. and Munir, R. (2021) “Vehicle Speed Estimation Using YOLO, Kalman Filter, and Frame Sampling”, ICAICTA(2021 8th International Conference on Advanced Informatics: Concepts, Theory and Applications), vol. 2021, no. 8, pp.1-6.
    11. Redmon, J. , Divvala, S. , Girshick, R. and Farhadi, A. (2016), “You Only Look Once: Unified, Real- Time Object Detection”, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), pp.779-788.
    12. Wallace, B. , Rockwood, M. , Goubran, R. , Knoefel, F. , Marchall, S. and Porter, M. (2015), “Measurement of vehicle acceleration in studies of older drivers from GPS position and OBDII velocity sensors”, 2015 IEEE International Symposium on Medical Measurement and Applications, pp.391-396.

    저자소개

    Footnote