Journal Search Engine

View PDF Download PDF Export Citation Korean Bibliography PMC Previewer
The Journal of The Korea Institute of Intelligent Transport Systems Vol.22 No.6 pp.114-123
DOI : https://doi.org/10.12815/kits.2023.22.6.114

Precision Evaluation of Expressway Incident Detection Based on Dash Cam

Sanggi Nam*, Younshik Chung**
*Dept. of Urban Planning and Eng., Univ. of Yeungnam
**College of Communication: Associate Professor, Department of Urban Engineering, Yeungnam University
Corresponding author : Younshik Chung, tpgist@yu.ac.kr
3 November 2023 │ 20 November 2023 │ 12 December 2023

Abstract


With the development of computer vision technology, video sensors such as CCTV are detecting incident. However, most of the current incident have been detected based on existing fixed imaging equipment. Accordingly, there has been a limit to the detection of incident in shaded areas where the image range of fixed equipment is not reached. With the recent development of edge-computing technology, real-time analysis of mobile image information has become possible. The purpose of this study is to evaluate the possibility of detecting expressway emergencies by introducing computer vision technology to dash cam. To this end, annotation data was constructed based on 4,388 dash cam still frame data collected by the Korea Expressway Corporation and analyzed using the YOLO algorithm. As a result of the analysis, the prediction accuracy of all objects was over 70%, and the precision of traffic accidents was about 85%. In addition, in the case of mAP(mean Average Precision), it was 0.769, and when looking at AP(Average Precision) for each object, traffic accidents were the highest at 0.904, and debris were the lowest at 0.629.



차량 내 영상 센서 기반 고속도로 돌발상황 검지 정밀도 평가

남 상 기*, 정 연 식**
*주저자 : 영남대학교 도시공학과 박사과정
**교신저자 : 영남대학교 도시공학과 부교수

초록


컴퓨터 비전(Computer Vision: CV) 기술 발전으로 폐쇄회로 TV(Closed-Circuit television: CCTV)와 같은 영상 센서로 돌발상황을 검지하고 있다. 그러나 현재 이러한 기술은 대부분 고정식 영상 센서를 기반으로 한다. 따라서 고정식 장비의 영상 범위가 닿지 않는 음영지역의 돌발상황 검지에는 한계가 존재해왔다. 최근 엣지 컴퓨팅(Edge-computing) 기술의 발전으로 이 동식 영상정보의 실시간 분석이 가능해졌다. 본 연구는 차량 내 설치된 이동식 영상 센서 (dashboard camera 혹은 dash cam)에 컴퓨터 비전 기술을 도입하여 고속도로에서 실시간으로 돌발상황 검지 가능성에 대해 평가하는 것이 목적이다. 이를 위해 한국도로공사 순찰차량에 장착된 dash cam에서 수집된 4,388건의 스틸 프레임 데이터 기반으로 학습데이터를 구축하였 으며, YOLO(You Only Look Once) 알고리즘을 활용하여 분석하였다. 분석 결과 객체 모두 예측 정밀도가 70% 이상으로 나타났고, 교통사고는 약 85%의 정밀도를 보였다. 또한 mAP(mean Average Precision)의 경우 0.769로 나타났고, 객체별 AP(Average Precision)를 보면 교통사고가 0.904로 가장 높게 나타났고, 낙하물이 0.629로 가장 낮게 나타났다.



    Ⅰ. 서 론

    1. 연구 배경 및 목적

    돌발상황은 ‘정지차량’, ‘역주행차량’, ‘낙하물’, ‘보행자’, ‘이동물체’ 등이 주행공간에 갑자기 출현하여 교 통사고를 유발할 수 있는 상황을 말한다(MLIT, 2023). 돌발상황은 교통 혼잡과 2차 사고에 영향을 미치므로 빠르게 검지하는 것이 중요하다. 기존에는 돌발상황의 신속한 검지를 위해 루프 검지기와 같은 고정식 센서 로 돌발상황 검지 후 CCTV(Closed Circuit Television)를 확인하는 방식으로 검지가 진행되었다. 그러나 루프 검지기와 같은 고정식 센서의 경우 잦은 고장으로 돌발상황의 신속한 검지가 불가능하며, 유지 보수 비용이 많이 소모된다. 또한 CCTV 기반 돌발상황 확인을 위해 센터 내에 많은 인력이 필요하다는 한계가 있다.

    최근 AI 기술 중 한 분야인 컴퓨터 비전(Computer Vision: CV) 기술이 발전했다. 컴퓨터 비전은 인공지능 의 한 분야로 이미지 또는 동영상에서 객체를 인식하고 이해하는 기술이다(Elgendy, 2021). 컴퓨터 비전 기술 은 CCTV와 같은 영상 센서에서 돌발상황의 실시간 검지를 가능하게 하였다(Ren et al., 2017;Moylan et al., 2018). 현재 방식의 대부분은 도로 특정 지점에 설치된 영상 센서에 컴퓨터 비전 기술을 도입하여 운영되기 때문에 검지 영역에서 발생하는 돌발상황을 실시간으로 검지 할 수 있다. 그러나 검지 영역이 도달하지 않는 위치에서 돌발상황이 발생 시 검지가 불가능한 한계가 존재한다.

    엣지 컴퓨팅(Edge-computing) 기술의 발전은 차량 내에 장착된 대쉬캠(Dash cam)과 같은 이동식 센서에서 도 실시간 동영상 분석이 가능하게 만들었다. 이를 통해 특정 지점에 설치되어 돌발상황 검지를 하던 기존의 방식을 차량 내부의 대쉬캠과 같은 이동식 센서 기반 돌발상황 검지 방식으로 대체 가능해졌으며, 고정식 돌 발상황 검지 시스템의 공간적 한계를 극복할 수 있을 것이다. 이동식 센서 기반 돌발상황 검지가 가능함에 따라 특정 돌발상황(포트홀, 낙하물 등) 검지에 이동식 센서를 활용하고 있다. 그러나 교통사고를 포함한 일 부 돌발상황은 학습데이터 수집의 한계로 상용화에 한계가 있다. 즉, 학습데이터 수집 한계를 극복한다면 교 통사고를 포함한 돌발상황 검지가 가능할 것으로 판단된다.

    본 연구는 이동식 센서인 차량의 대쉬캠에서 수집된 스틸 프레임 데이터 기반으로 학습데이터를 구축하 고, 구축한 학습데이터 기반 고속도로 돌발상황 검지 정밀도를 평가하는 것이 목적이다. 이를 위해 2021년 및 2022년 각 3개월 간 한국도로공사 순찰대에서 수집한 대쉬캠 스틸 프레임 데이터를 활용하였으며, 컴퓨 터 비전 기술에 활용되는 AI(Artificial Intelligence) 알고리즘을 적용하여 분석을 진행하였다. 결과적으로 학습 데이터 기반 딥러닝 알고리즘을 도입하였을 때, 검지 정밀도를 분석하여 시사점을 도출하고자 하였다.

    2. 연구의 구성

    본 연구의 구성은 다음과 같다. 먼저 2장에서는 교통 상황 및 교통 객체 검지에 컴퓨터 비전이 활용된 연 구 고찰 및 연구에 활용된 기술에 대해 제시하였으며, 이에 대한 시사점을 제시하였다. 3장에서는 연구에 활 용된 AI 알고리즘에 대해 검토하였으며, 4장에서는 분석을 위해 구축한 학습데이터에 대해 정리하였다. 5장 에서는 분석 결과를 제시하였으며, 마지막으로 6장에서는 연구의 결과 및 향후 연구 과제를 제시하였다.

    Ⅱ. 문헌 고찰 및 관련 기술 개념

    1. 교통 상황 또는 교통 관련 객체 검지에 컴퓨터 비전 기술이 활용된 사례

    컴퓨터 비전 기술은 지난 10년간 교통상황 또는 교통 관련 객체 검지를 위해 활용되어 왔으며, 대부분 고 정식 영상 센서를 활용하고 있는 것으로 나타났다. 또한 컴퓨터 비전 알고리즘으로 YOLO(You Only Look Once) 알고리즘을 활용하는 경우가 많았으며, 공개된 데이터를 알고리즘의 학습데이터로 활용하여 구축한 것으로 나타났다. 이에 대해 기존 진행된 교통상황 및 교통 관련 객체 검지에 컴퓨터 비전이 활용된 사례의 세부적인 내용들은 <Table 1>에 제시하였다.

    <Table 1>

    Summary of Literature Review

    Researchers (year) Purpose of Study Dataset Study Methodology Findings
    Kim et al. (2016) An on-road object detection using SSD that overcomes the problems mentioned above and makes possible robust object detection in real-time. KITTIdataset SSD, YOLO, SSD-ASP4, SSD-PED3, SSD-ASP4+PED3 We confirmed that fine-tuning SSD on road dataset using data augmentation can improve the detection result.
    Lu et al. (2018) A vehicle detection method for aerial image based on YOLO deep learning algorithm is presented. VEDAI dataset, COWC dataset, DOTA dataset YOLO The training model has good test results especially for small objects, rotating objects, as well as compact and dense objects, and meets the real-time requirements
    Ghosh et al.(2019) The main objective is to incorporate a system which is able to detect an accident form video footage provided to it using a camera. 10,000 accident frames and non-accident frames Inceptionv3 The proposed system provides a very viable and effective solution to this problem.
    Wang etal.(2020) A vision-based crash detection framework was proposed to quickly detect various crash types in mixed traffic flow environment, considering low-visibility conditions. 15,000 crash frames,40,000 normal frames YOLOv3 Image enhancement method can largely improve crash detection performance under low-visibility conditions.
    Naidenov and Sysoev (2021) The main purpose of this study is to develop a car accident detecting system using data obtained from video recordings streams applying machine learning algorithms. 1730 videos( released at Asian Conference of Computer Vision in 2016) VGG16 Accuracy of the neural network is 97% on train dataset and 62% on test dataset. and This study could be promising at fast reaction on accidents and building routes for emergency services.
    Gunawan et al. (2022) This research aims to compare the performance of object detection of UAV images using various YOLO architectures. Visdrone 2019 dateset YOLOv3,YOLOv5 mAP of YOLOv5 is higher than 5% mAP of YOLOv3.
    Qin et al. (2022) We proposed a real-time salient object detection network named increase-decrease YOLO (ID-YOLO) to discriminate the critical objects within the drivers’ fixation region. ETOD dataset ID-YOLO The qualitative and quantitative experimental results show that ID-YOLO can predict drivers fixation objects more efficiently than existing models
    Pavani and This study compares state-of-the-art 5minutes video CNN, KNN, From the present study, it suggests that
    Sriramya(2022) object detectors used to incorporate traffic state estimates. (392 frames) produced by SIMATS Haar Cascade, YOLO YOLO provides slightly better performance in detecting vehicles when compared to CNN, KNN, Haarcascade algorithms. YOLO produced an accuracy of 93% and with precision of 90% from the all videos.
    Ghahremann ezhad et al. (2022) This paper presents a new efficient framework for accident detection at intersections for traffic surveillance applications. COCO dataset YOLOv4 Experimental evaluations demonstrate the feasibility of our method in real-time applications of traffic management.
    Adewopo and Elsayed(2023) Our novel appproach introduces the I3D-ConvLSTM2D model architecture, a lightweight solution tailored explicitly for accident detection in smart city traffic surveillance systems by integrating RGB frames with optical flow information. Trafficam dataset Dashcam dataset External data I3D-ConvLstm2D By offering a cost-effective and reliable accident detection system that can be deployed in real-time within a smart city framework, we pave the way for more accessible and ubiquitous surveillance solutions.

    2. 관련 기술 개념

    본 연구에서 고려 중인 돌발상황 검지 기술은 블랙박스와 같은 차량 내 설치된 이동식 영상 센서에 컴퓨 터 비전 기술과 엣지-컴퓨팅 기술을 도입하여 도로 상황의 실시간 분석을 통해 돌발상황을 판단하는 기술을 의미한다. 본 기술은 특정 도로상황(예, 포트홀)에 대한 실시간 검지는 상용화 되어있으나 교통사고와 같은 돌발상황은 학습데이터가 제한적이기 때문에 상용화에는 한계가 있는 것으로 나타났다(Korea Expressway Corporation, 2021). 그러나 제한적인 돌발상황의 이미지 파일 수집을 통해 많은 학습데이터가 확보된다면, 현 재의 한계를 극복할 수 있을 것으로 판단된다.

    한편, 본 연구에서 활용된 기술은 차량 내 설치된 대쉬캠으로 협각 렌즈를 장착한 2채널 영상 센서이다. 본 센서의 검지 범위는 폭이 넓은 고속도로의 경우 3개 차로, 폭이 좁은 일반도로의 경우 최대 4개 차로까지 검지가 가능한 것으로 알려져 있다(Korea Expressway Corporation, 2021). 또한 이 센서는 AI 영상분석을 통해 검지된 돌발상황의 실시간 정보 전송이 가능하며, AI 분석 속도는 초당 12프레임으로 100km/h 주행 시 약 2.3m 마다 분석이 가능하다(Nam et al., 2023).

    3. 문헌고찰 및 관련 기술 요약

    <Table 1>에 제시한 바와 같이, Ghosh et al.(2019)Naidenov and Sysoev(2021)가 수행한 연구를 제외하고 는 버전의 차이는 있지만 모두 YOLO 알고리즘이 포함되었다. 그리고 객체 검지를 위한 학습데이터 대부분 은 공개된 데이터를 활용하여 객체 라벨링을 진행하였다. 그러나 공개된 데이터는 실제 돌발상황이 발생 시 야 또는 각도와 차이가 있다. 예를 들면 현재 활용되고 있는 고정식 CCTV의 경우 높은 위치에서 교통 상황 을 촬영하므로 차량 내부에 설치된 이동식 센서의 학습데이터로 활용하기엔 부적합하다. 반면 본 연구에서 활용한 데이터는 실제 국내 고속도로를 운행하는 순찰대 차량의 센서에서 수집한 데이터 기반으로 학습데이 터를 구축하였으므로 본 연구에서 제시한 이동식 센서 기반 돌발상황 검지에 가장 적합한 데이터로 판단된 다. 이에 따라 본 연구는 차량 내 이동식 센서 기반 돌발상황 검지 정밀도 평가가 목적이다.

    Ⅲ. YOLO 알고리즘 설명

    YOLO 알고리즘은 2016년 조셉 레드먼에 의해 개발된 딥러닝 알고리즘으로 합성곱 신경망(CNN: Convolution Neural Network)을 활용하는 타 알고리즘(R-CNN, Fast R-CNN, Faster R-CNN, SSD 등)보다 빠른 객체 검지 속도를 보이는 특징이 있다(Elgendy, 2021). YOLO 알고리즘의 구조는 3가지 층(합성곱, 풀링층, 전 결합층)을 가지며 <Fig. 1>와 같다.

    <Fig. 1>

    Structure of YOLO algorithm (Source: Redmon et al., 2016)

    KITS-22-6-114_F1.gif

    1. 합성곱층

    합성곱층은 이미지 내 객체의 특징을 찾는 역할을 하며, <Fig. 2>와 같이 나타난다. 컨볼루션 필터(<Fig. 2>의 Convolution filter)가 입력 이미지(<Fig. 2>의 Source pixel) 위를 픽셀 단위로 이동하면서 가중치에 따라 픽셀값을 계산하며, 계산된 픽셀 값을 모아 새로운 이미지(<Fig. 2>의 Target pixel)를 생성한다(Elgendy, 2021). 여기서 새로 생성된 이미지는 특징 맵(Feature map) 또는 활성화 맵(Activation map)라고 한다.

    <Fig. 2>

    Example of Convolutional Layer

    KITS-22-6-114_F2.gif

    2. 풀링층

    풀링층은 다음 층으로 전달되는 파라미터 수를 감소시키는 역할을 한다. 합성곱 층 수가 증가하면 최적화가 필요한 파라미터가 증가하는데, 이는 학습 시간 증가와 오버피팅 문제가 발생하게 된다. 이 문제를 해결하기 위해 풀링 연산을 통해 풀링층에서 다음 층으로 전달되는 파라미터 수를 감소시킨다. 풀링 연산은 주로 최대 풀링과 평균 풀링이 활용되며, 풀링층의 예시는 <Fig. 3>와 같다. 최대 풀링(<Fig. 3>의 Max Pooling)은 자기 앞의 합성곱층에서 출력한 특징 맵을 입력받아 입력 이미지에서 커널을 이동시키면서 최댓값을 찾아 출력 이미지 픽셀값으로 삼는다. 평균 풀링(<Fig. 3>의 Average Pooling)은 최대 풀링에서 최댓값 대신 평균값을 활용한다.

    <Fig. 3>

    Example of Pooling Layer

    KITS-22-6-114_F3.gif

    3. 전결합층

    전결합층은 합성곱층과 풀링층에서 특징을 학습한 후 실제 이미지를 분류하는 층이다. 전결합층은 3가지 의 구성요소를 가지며, <Fig. 4>과 같이 나타난다. 전결합층의 첫 번째는 입력층(<Fig. 4>의 Input)으로 합성곱 층과 풀링층에서 만들어진 차원 벡터를 입력한다. 두 번째는 은닉층(<Fig. 4>의 Dense #1, Dense #2)으로 입 력된 벡터 기반으로 특징을 실제로 학습하는 층이며, 하나 이상의 층을 가진다. 마지막으로 출력층(<Fig. 4> 의 Softmax)은 예측 결과가 출력되는 층으로 객체가 최종 분류(<Fig. 4>의 Class 1, Class 2, Class 3)된다.

    <Fig. 4>

    Example of Fully Connected Layer

    KITS-22-6-114_F4.gif

    Ⅳ. 데이터 구축

    1. 돌발상황 정의

    2021년 한국도로공사에서 발표한 보고서에 따르면 한국도로공사는 돌발상황 유형을 총 16가지로 구분하 였으며, 이 중 6가지 유형(작업, 교통사고, 정차, 노면잡물, 차량증가/정체, 사람)에서 총 99% 비율을 차지한 다고 하였다(Korea Expressway Corporation, 2021). 본 연구의 목적은 고속도로의 비 반복적 혼잡인 돌발상황 검지 가능성에 대해 평가하는 것이다. 이에 따라 본 연구에서 돌발상황은 반복적 혼잡과 구분하기 어려운 돌 발상황인 차량증가/정체는 제외하였다. 또한 작업의 경우 정차 및 노면잡물 객체에 포함하여 최종적으로 돌 발상황을 4가지 유형으로 구분하였으며, <Table 2>와 같이 정의하였다.

    <Table 2>

    Classification of incident types

    Type Definition
    Crash Vehicle damage, Unusual vehicle direction etc
    Stopped Vehicle Stopped Vehicle in the shoulder, Breakdown sign, Open trunk etc
    Debris Debris, Roadkill, Falling Rock etc
    Person Person inroad

    2. 데이터 수집 및 학습

    본 연구에서 활용한 데이터는 한국도로공사 순찰대 대쉬캠에서 수집된 돌발상황 스틸 프레임(Still frame) 데이터이다. 수집 기간은 2021년 6월에서 8월까지 3개월 데이터와 2022년 1월에서 3월까지 3개월 데이터로 총 6개월간 데이터이다. 연구를 위해 수집된 전체 데이터를 전술한 돌발상황 유형에 맞춰 라벨링하였으며, 돌발상황 유형이 하나 이상 나타난 이미지 파일에는 정상 주행하고 있는 차량에 대해 라벨링하였다. 최종적 으로 돌발상황이 포함된 이미지는 4,388장, 라벨링 된 데이터 수는 23,547건으로 나타났으며, 객체별로 라벨 링 데이터 수는 <Table 3>과 같이 나타났다. 분석 데이터 평가를 위해 라벨링된 데이터 중 80%를 학습데이 터로 활용하였으며, 20%를 검증데이터로 활용하였으며, 배치 사이즈와 에폭(Epoch)을 설정하여 효율적으로 학습을 진행했다. 여기서 배치 사이즈는 모델이 한 번에 학습하는 데이터 샘플 개수를 의미하며, 모든 데이 터를 한 번에 학습할 시 학습에 소요되는 시간이 매우 오래걸리기 때문에 학습하는 데이터 샘플 수를 나눠 학습을 진행하였다. 또한 에폭은 전체 학습 데이터 셋을 모델이 한 번 학습하는 것을 의미하며, 80개의 학습 데이터를 배치사이즈 8로 학습한다면 1에폭은 10개 배치를 학습한 후 완료됨을 의미한다. 데이터의 배치 사 이즈를 8, 에폭 50, IoU(Intersection over Union) 임곗값을 0.5 이상으로 설정하여 데이터를 분석하였다.

    <Table 3>

    Labeling of incident in image

    Class number Type Definition Number of labeling
    0 Crash Vehicle damage, Unusual vehicle direction 1,617
    1 Stopped Vehicle Stoped Vehicle in the shoulder, Breakdown sign, Open trunk 2,369
    2 Debris Debirs, Roadkill, Falling Rock etc 1,429
    3 Person Person in road 3,033
    4 Normal vehicle Normal vehicle in image including incident labeling 15,099

    Ⅴ. 분석 결과

    <Fig. 5>은 라벨링 데이터 전체를 포함하여 분석한 혼동 행렬(Confusion matrix)이다. <Fig. 5>의 혼동행렬 에서 x축은 실제 라벨링한 객체를 의미하며, y축은 모델이 예측한 객체를 의미한다. 행렬 내 표시된 각 수치 는 정밀도(Precision)를 의미하며, 라벨링 한 객체 중 모델 예측한 객체의 비율을 의미한다. 예를 들면 <Fig. 5> x축의 정차(Stopped vehicle)로 라벨링한 객체(0.04+0.72+0.02+0.08+0.14=1) 중 모델이 정차로 예측한 객체 (0.72)의 비율이 정차 객체의 정밀도가 된다. 다음으로 모델이 객체라고 예측한 것 중 실제 라벨링 한 객체 비율은 재현율(Recall)이라 하며, <Fig. 5> y축의 정차(0.08+0.72+0.01+0.10=0.91)로 판단한 객체 중 실제 정차 로 라벨링 한 객체(0.72)의 비율이 재현율이다. <Fig. 6>은 PR곡선으로 재현율이 증가할 때도 정밀도가 하락 하지 않을 때, 좋은 모델로 평가된다. 또한 <Fig. 6>에 표시된 수치는 평균 정밀도(Average Precision: AP)를 의미하며, 각 객체의 평균 정밀도를 평균하면 mAP(mean Average Precision)가 된다. 평균 정밀도가 높을 때 객체를 잘 예측한 것으로 판단하며, mAP 또한 값이 높을수록 좋은 성능으로 평가된다.

    <Fig. 5>

    Confusion matrix for 5 objects

    KITS-22-6-114_F5.gif
    <Fig. 6>

    PR curve for 5 objects

    KITS-22-6-114_F6.gif

    분석 결과를 보면 5개 객체 모두 모델의 예측 정밀도가 70% 이상으로 나타났고, 교통사고의 경우 약 85% 의 정밀도를 보이는 것으로 분석되었다. 낙하물의 정밀도가 70%로 가장 낮게 나타났는데, 이는 YOLO 알고 리즘이 객체 크기가 작을 때 검지 확률이 낮아지는 특성에 의한 것으로 보인다. 모델이 잘못 예측한 경우는 실제 객체는 존재하지 않아 라벨링을 하지 않았으나 모델은 정상주행차량으로 판단한 경우가 57%로 가장 높게 나타났다. 이는 이미지 내 차량이 타 차량에 가려지거나 중앙분리대와 같은 물체로 인해 차량이 가려지 더라도 알고리즘 내에서 판단한 차량이라는 특징에 부합할 때 모두 정상주행차량으로 검지했기 때문으로 판 단된다. <Fig. 6>에서 객체별 평균 정밀도를 보면 교통사고는 0.904로 가장 높게 나타났고, 정상주행차량 0.804, 보행자 0.770, 정차 0.740, 낙하물은 0.629로 가장 낮게 나타났으며, mAP는 0.769로 나타났다. 교통사고 평균 정밀도가 가장 높게 나타난 이유는 타 객체에 비해 이미지 내에서 크기가 큰 경우가 많으며, 타 객체에 비해 특성(차량 파손, 차량 위치 등)이 명확하기 때문으로 보인다. 이에 반해 낙하물의 경우 평균 정밀도가 낮은 이유는 이미지 내 객체의 크기가 작은 것이 영향을 미친 것으로 보인다. 또한 정상 주행 차량 객체와 정지 차량 객체의 특성이 비슷함에도 불구하고 정상 주행 차량의 평균 정밀도가 높게 나타난 이유는 라벨링 되지 않은 객체를 모델이 정상 주행 차량 객체로 인식하여 높은 재현율이 나타났기 때문으로 추정된다.

    Ⅵ. 결론 및 향후 연구 과제

    본 연구는 차량 내 설치된 이동식 영상 센서에 컴퓨터 비전 기술을 도입하여 고속도로 돌발상황 검지 정 밀도에 대해 평가하는 것이 목적이다. 연구를 위해 2021년 및 2022년 각 3개월 간 한국도로공사 순찰대에서 수집한 대쉬캠 스틸 프레임 데이터를 활용하였다. 각 객체는 교통사고, 정차, 낙하물, 보행자, 정상주행차량 으로 구분하였고, 구분된 객체를 YOLO 알고리즘으로 분석하였다. 분석 결과 각 객체 모두 예측 정밀도가 70% 이상 나타났다. 또한 객체별 평균 정밀도를 보면 교통사고는 0.904로 가장 높게 나타났고, 낙하물이 0.629로 가장 낮게 나타났으며, mAP는 0.769로 나타났다.

    본 연구의 향후 연구과제는 교통사고 평균 정밀도가 0.904로 100% 달성되지 않았으나 YOLO 알고리즘의 경우 통상적으로 학습데이터 수가 정밀도에 영향을 미치기 때문에 차후에 학습데이터를 추가한다면 평균 정 밀도가 높아질 것으로 예상된다. 그리고 학습데이터의 수집 가능성을 보면 현재 수집된 학습데이터 수(5가지 객체 기준 8,448건)가 2020년 고속도로에서 발생한 돌발상황 발생 건수(5개 객체 기준 130,084건)의 약 6% 수준임을 감안했을 때 추가적인 학습데이터 수집 또한 가능할 것으로 예상된다. 아울러, 고속도로 순찰대에 서 수집한 데이터를 기반으로 연구를 수행하여, 향후 고속도로의 교통류 특성 및 교통시설과 다른 단속류 구 간에 대한 연구가 필요하다. 또한 돌발상황 발생 위치, 차로 차단 현황, 사고 유형 분류 등 사고 유형을 세분 화한 AI 모델 개발이 필요하다. 마지막으로 AI 도입에 따른 돌발상황 검지 시간 감소 효과(교통 혼잡 감소, 2차 사고, 사고 심각도 감소) 등의 분석이 필요하다.

    ACKNOWLEDGEMENTS

    이 연구는 2023년도 영남대학교 학술연구조성비에 의한 것으로, 2023년 한국ITS학회 추계학술대회에서 발 표되었던 논문을 수정·보완하여 작성하였습니다.

    Figure

    KITS-22-6-114_F1.gif

    Structure of YOLO algorithm (Source: Redmon et al., 2016)

    KITS-22-6-114_F2.gif

    Example of Convolutional Layer

    KITS-22-6-114_F3.gif

    Example of Pooling Layer

    KITS-22-6-114_F4.gif

    Example of Fully Connected Layer

    KITS-22-6-114_F5.gif

    Confusion matrix for 5 objects

    KITS-22-6-114_F6.gif

    PR curve for 5 objects

    Table

    Summary of Literature Review

    Classification of incident types

    Labeling of incident in image

    Reference

    1. Adewopo, A. and Elsayed, N. (2023), Smart City Transportation: Deep Learning Ensemble Approach for Traffic Accident Detection, arXiv:2310.10038, pp.1-12.
    2. Elgendy, M. (2021), Deep Learning for Vision Systems, Hanbit Media. (in Korean)
    3. Ghahremannezhad, H. , Shi, H. and Liu, C. (2022), Real-Time Accident Detection in Traffic Surveillance Using Deep Learning, arXiv:2208.0461, pp.1-6.
    4. Ghosh, S. , Sunny, S. J. and Roney, R. (2019), “Accident Detection Using Convolutional Neural Networks”, 2019 International Conference on Data Science and Communication(IconDSC), pp.1-6.
    5. Gunawan, T. S. , Ismail I. M. M. , Kartiwi, M. and Ismail, N. (2022), “Performance Comparison of Various YOLO Architectures on Object Detection of UAV Images”, 2022 IEEE 8th International Conference on Smart Instrumentation, Measurement and Application(ICSIMA), pp.257-261.
    6. Kim, H. E. , Lee, Y. W. , Yoon, B. H. , Park, E. S. and Kim, H. K. (2016), “On-road Object Detection Using Deep Neural Network”, 2016 IEEE International Conference on Consumer Electrnics-Asia(ICCE-Asia), pp.1-4.
    7. Korea Expressway Corporation (2021), A Study on the Introduction of Advanced High-Density(AHD) Traffic Control on Highways Through AI-based Image Analysis, pp.77, 168.
    8. Lu, J. , Ma, C. , Li, L. , Xing, X. , Zhang, Y. , Wang, Z. and Xu, J. (2018), “A Vehicle Detection Method for Aerial Image Based on YOLO”, Journal of Computer and Communications, vol. 6, no. 11, pp.98-107.
    9. MLIT(Ministry of Land, Infrastructure and Transport),https://www.law.go.kr/LSW/admRulLsInfoP.do?admRulSeq=2100000191820, 2023.11.29.
    10. Moylan, E. , Chand, S. and Waller, T. (2018), “Framework for Estimating the impact of Caemera-based Intelligent Transportation Systems(ITS) Technology on Incident Duration”, Transportation Research Record, vol. 2672, no. 19, pp.25-33.
    11. Naidenov, A. and Sysoev, A. (2021), “Developing Car Accident Detecting System Based on Machine Learning Algorithms Applied to Video Recordings Data”, In Advances in industrial internet of things, engineering and management (pp.75-85), Springer.
    12. Nam, S. G. , Chung, Y. S. , Kim, H. K. and Kim, W. G. (2023), “Estimation of Incident Detection Time on Expressways Based on Market Penetration Rate of Connected Vehicles”, Journal of Korea Intelligent Transportation System, vol. 22, no. 3, pp.38-50. (in Korean)
    13. Pavani, K. and Sriramya, P. (2022), “Comparison of KNN, ANN, CNN and YOLO Algorithms for Detecting the Accurate Traffic Flow and Build an Intelligent Transportation System”, 2022 2nd International Conference on Innovative Practices in Technology and Management(ICIPTM), pp.23-25.
    14. Qin, L. , Shi, Y. , He, Y. , Zhang, J. , Zhang, X. , Li, Y. , Deng, T. and Yan, H. (2022), “ID-YOLO: Real-Time Salient Object Detection Based on the Driver’s Fixation Region”, IEEE Transactions on Intelligent Transportation Systems, vol. 23, no. 9, pp.15898-15908.
    15. Redmon, J. , Divvala, S. , Girshick, R. and Farhadi, A. (2016), “You Only Look Once: Unified, Real-Time Object Detection”, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.779-788.
    16. Ren, S. , He, K. , Girshick, R. , Zhang, X. and Sun, J. (2017), “Object Detection Networks on Convolutional Feature Maps”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 7, pp.1476-1481.
    17. Wang, C. , Dai, Y. , Zhou, W. and Geng, Y. (2020), “A Vision-Based Video Crash Detection Framework for Mixed Traffic Flow Environment Considering Low-Visibility Condition”, Journal of Advance4d Transportation, vol. 2020, pp.1-11.

    저자소개

    Footnote