Journal Search Engine

View PDF Download PDF Export Citation Korean Bibliography PMC Previewer
The Journal of The Korea Institute of Intelligent Transport Systems Vol.22 No.2 pp.133-146
DOI : https://doi.org/10.12815/kits.2023.22.2.133

Estimation of Urban Traffic State Using Black Box Camera

Haechan Cho*, Yeohwan Yoon**, Hwasoo Yeo***
*Dept. of civil and environmental engineering, Korea advanced science and technology
**Dept. of Highway & Transportation Research, Korea institute of civil engineering and building technology
***Corresponding author: Professor, Department of Civil and Environmental Engineering, Korea Advanced Institute of Science and Technology
Corresponding author : Hwasoo Yeo, hwasoo@kaist.ac.kr
30 November 2022 │ 23 December 2022 │ 15 February 2023

Abstract


Traffic states in urban areas are essential to implement effective traffic operation and traffic control. However, installing traffic sensors on numerous road sections is extremely expensive. Accordingly, estimating the traffic state using a vehicle-mounted camera, which shows a high penetration rate, is a more effective solution. However, the previously proposed methodology using object tracking or optical flow has a high computational cost and requires consecutive frames to obtain traffic states. Accordingly, we propose a method to detect vehicles and lanes by object detection networks and set the region between lanes as a region of interest to estimate the traffic density of the corresponding area. The proposed method only uses less computationally expensive object detection models and can estimate traffic states from sampled frames rather than consecutive frames. In addition, the traffic density estimation accuracy was over 90% on the black box videos collected from two buses having different characteristics.



차량 블랙박스 카메라를 이용한 도시부 교통상태 추정

조 해 찬*, 윤 여 환**, 여 화 수***
*주저자 : 한국과학기술원 건설및환경공학과 박사과정
**공저자 : 한국건설기술연구원 도로교통연구본부 선임연구위원
***교신저자 : 한국과학기술원 건설및환경공학과 교수

초록


도심지역의 교통 상태는 효과적인 교통 운영과 교통 제어를 수행하는 데 필수 요소이다. 하지만 교통 상태를 얻기 위해서 수많은 도로 구간에 교통 센서를 설치하는 것은 막대한 비용 이 든다. 이를 해결하기 위해서 시장침투율이 높은 센서인 차량 블랙박스 카메라를 이용하여 교통 상태를 추정하는 것이 효과적이다. 하지만 기존의 방법론은 객체 추적 알고리즘이나 광 학 흐름과 같이 계산 복잡도가 높고, 연속된 프레임이 있어야 연산을 수행할 수 있다는 단점이 존재한다. 이에 본 연구에서는 심층학습 모델로 차량과 차선을 탐지하고, 차선 사이의 공간을 관심 영역으로 설정하여 해당 영역의 교통밀도를 추정하는 방법을 제안하였다. 이 방법론은 객체 탐지 모델만을 이용해서 연산량이 적고, 연속된 프레임이 아닌 샘플링된 프레임에 대해 교통 상태를 추정할 수 있다는 장점이 있기에, 보유하고 있는 컴퓨팅 자원에 맞는 교통 상태 추정이 가능하다. 또, 도심지역에서 운행하는 서로 다른 특성의 2개의 버스 노선에서 수집한 블랙박스 영상을 검증한 결과, 교통밀도 추정 정확도가 90% 이상인 것을 확인하였다.



    Ministry of Science and ICT
    2022-0-00784

    Korea Institute of Civil Engineering and Building Technology

    Ⅰ. 서 론

    넓은 도심지역에 걸쳐 고품질의 교통 상태를 확보하는 것은 효과적인 도시 교통 제어를 수행하는 데 매우 중요하다. 지금까지는 교통 상태를 추정하기 위해서 루프 감지기(Xie et al., 2018), 프로브 차량(Sun and Ban, 2013), DSRC(Schuricht et al., 2011)가 사용되어왔다. 루프 감지기는 교통량과 시간 점유율을 얻을 수 있지만, 설치 지역에서만 교통 상태를 추정할 수 있다는 단점이 존재한다. 프로브 차량은 차량 대기 행렬 길이(Sun and Ban, 2013;Shahrbabaki et al., 2018), 교통 속도, 교통량(Shahrbabaki et al., 2018)을 추정하는 것에 효과적 이며, DSRC를 통해서는 도로 구간 내 이동 시간을 추정할 수 있다. 하지만 이들 센서는 교통 혼잡 예측에 중요한 교통 변수인 교통밀도 추정 시에 비효율적이다. 인프라 카메라를 통해서 교통밀도를 추정할 수 있지 만, 루프 감지기와 마찬가지로 카메라 설치 지역에서만 교통 상태 추정이 가능하다는 단점이 존재한다 (Gokasar and Timurogullari, 2021).

    최근 항공 촬영 기술의 발전으로 짧은 도로 구간 단위의 교통밀도를 추정하는 연구가 확대되고 있다. Park et al.(2015)에서는 항공 촬영을 통해서 촬영된 도로를 20(m) 단위로 나누고, 해당 단위마다 교통밀도를 추정 하는 방법론을 제안하였다. 최근에는 도심지역에서 드론으로 촬영한 도로 이미지에 대해서 픽셀 단위로 교 통밀도를 추정하는 연구를 진행하였다(Kim et al., 2023). 그러나 기존의 교통 센서만을 이용해 넓은 도시부 지역에 대해서 교통밀도를 얻는 것은 불가능하다. 이를 해결하기 위해서 센서 감지 구간의 교통 상태를 이용 해 센서 음영 구역의 교통 상태를 추정하는 연구 결과를 이용할 수 있으며, 크게 두 가지가 연구되고 있다. 첫 번째는 운동파 이론(kinematic wave theory)이나 베이즈 필터(Bayes Filter)를 이용하여 여러 센서에서 수집 한 정보를 융합하여 교통 상태를 추정하는 방법이고 두 번째는 CNN(Convolutional Neural Network) 모델을 이 용하여 희소 데이터에서 전체 교통 상태를 복원하는 모델을 개발하는 것이다. 하지만 이 방법론은 센서 감지 구간의 교통 상태를 통해 센서 음영 구역의 교통 상태를 추정하는 것이기에 정확도가 제한된다.

    이에 본 연구에서는 시장침투율이 높은 차량 블랙박스 카메라를 이용해 짧은 도로 구간마다 교통밀도를 추정하는 시스템을 개발하였다. 본 연구에서 제안한 시스템은 차량 블랙박스 카메라에서 수집한 영상에 심 층학습 모델을 적용해서 차량과 차선을 탐지하고, 이를 통해 약 30(m) 길이의 관심 영역에 대한 교통밀도를 추정한다. 본 연구에서 제안한 탐지 기반 방법론은 기존 연구에서 사용한 차량 궤적의 추적이나 광학 흐름 알고리즘을 통한 교통 상태 추정과는 다르게 연속된 프레임이 아닌 샘플링 된 프레임에 적용해도 교통 상태 를 추정할 수 있기에 보유하고 있는 컴퓨팅 자원에 맞게 교통 상태 추정 주기를 설정할 수 있다는 장점이 존재한다. 또한, 카메라마다 직접 카메라 변수 보정을 할 필요가 없어서 확장성이 높다. 본 연구에서 제안한 교통밀도 추정 방법론을 2개의 서로 다른 특성을 보이는 버스 노선에서 수집한 블랙박스 영상를 통해 검증 한 결과, 교통밀도 추정 정확도가 90% 이상인 것을 확인하였다. 나아가, 교통 기본도 수식과 교통 속도에 따 른 서비스 수준(level of service)을 기반으로 교통 혼잡을 추정하는 방법을 제안하였다. 이를 통해서 격자형 도시 구조를 보이는 지역에서 교통 혼잡이 더 빈번한 것을 확인하였다. 본 연구에서 제안한 방법론을 통해서 차량 주행 경로에 대응하는 도심지역 도로 구간의 교통밀도와 혼잡도를 실시간으로 추정할 수 있게 되었다.

    Ⅱ. 관련 연구

    1. 센서 음영 구간의 교통 상태 추정

    기존 교통 센서인 루프 감지기, 프로브 차량, DSRC는 제한된 공간 범위의 교통 상태만을 감지할 수 있기 에 여러 종류의 센서에서 수집한 정보를 융합하여 센서 음영 구간의 교통 상태를 추정하는 연구가 활발히 수행되고 있다. Mehran et al.(2012)은 운동파 이론을 이용하여 프로브 차량과 루프 감지기에서 얻은 정보와 신호 정보를 통해 도심지역의 차량 궤적을 추정하는 연구를 수행하였다. 또한, Sun and Ban(2013)에서도 운 동파 이론을 이용하여 프로브 차량과 신호 정보를 이용하여 도심지역에서 대기행렬 길이를 추정하는 연구를 수행하였다. Shahrbabaki et al.(2018)은 도심지역에서 프로브 차량과 루프 감지기에서 얻은 정보에 베이즈 필 터를 적용하여 대기행렬 길이와 교통량을 추정하는 방법을 제안하였다. Xie et al.(2018)은 도심지역에서 루프 감지기, 신호 정보, 근거리전용 통신에서 얻은 정보를 바탕으로 대기행렬 길이와 교통량을 추정하였으며, Chen et al.(2022)은 연결기반 자율주행 차량(Connected Autonomous Vehicle)에서 수집한 정보를 이용하여 이 를 수행하였다. 하지만, 제시한 연구에서 교통 상태 추정 작업을 높은 정확도로 수행하기 위해서는 여러 종 류의 센서에서 수집한 정보가 필요하다는 단점이 존재한다.

    단일 센서로 얻은 교통 상태를 기반으로 센서 음영 구간의 교통 상태를 추정하는 최첨단 방법론 (state-of-the-art method)은 심층학습 모델인 CNN(Convolutional Neural Network) 기반의 인코더-디코더를 이용 하는 방법이다. 센서 감지 구간의 교통 상태를 시공도에 나타내면 이를 하나의 이미지로 볼 수 있는데, CNN 기반의 인코더-디코더 모델은 해당 이미지를 입력값으로 하여 전체 교통 상태가 표현된 이미지를 산출해 센 서 음영 구간의 교통 상태를 추정한다. Benkraouda et al.(2020)은 프로브 차량에서 수집한 교통 속력에 CNN 기반의 인코더-디코더 모델을 적용하여 프로브 차량이 탐지하지 못한 시공간 구간의 교통 속력을 추정하는 방법론을 제안하였다. Thodi et al.(2022)는 시공도 상에서 교통 상태가 연관되어있는 셀의 위치가 정해져 있 다는 정보를 바탕으로 CNN 모델을 발전시켰다. 하지만, 교통 센서 융합 연구와 마찬가지로 센서 감지 구간 의 교통 상태를 이용하여 센서 음영 구역의 교통 상태를 추정하는 방식은 정확도에 상한선이 존재한다.

    2. 차량 블랙박스 기반 교통 상태 추정

    루프 감지기나 인프라 카메라와는 다르게 차량 블랙박스 카메라가 달린 차량의 높은 비율을 고려하면 교 통 센서로서 차량 블랙박스의 효용성은 크다. Kar et al.(2017)은 블랙박스 카메라 내 인접한 차량의 주행 궤 적을 추적하고, 비스듬한 뷰의 주행 궤적을 탑 뷰 시점의 좌표로 변환하여 차량 속력을 추정하는 방법을 제 안하였다. Kim et al.(2019)Lee et al.(2022)은 광학 흐름 알고리즘을 이용하여 선두 차량과의 거리를 추정하 고, 이를 이용하여 교통밀도를 추정한다. 이 외에도 차량 주행 궤적의 추적(Gupte et al., 2002;Magee, 2004)이 나 광학 알고리즘(Sun et al., 2002;Parisot et al., 2008)을 이용하여 차량 부착 카메라에서 교통 상태를 추정하 는 유사한 연구가 진행되었다. 하지만 차량 궤적의 추적이나 광학 흐름 알고리즘은 연속된 프레임에서의 연 산이 요구되며, 차량 부착 카메라마다 카메라 변수 보정을 직접 수행해야 하기에 시스템의 확장성이 떨어진 다. 이와 같은 문제를 해결하기 위해서 본 연구에서는 차량 및 차선 탐지만을 이용하여 교통밀도를 추정하는 시스템을 제안하였다. 해당 시스템은 연속된 프레임이 아닌 샘플링 된 프레임에 적용하여도 교통 상태를 추 정할 수 있으며, 카메라 변수 보정이 필요하지 않아 기존의 시스템에 비해 확장성이 높은 시스템이다.

    Ⅲ. 방법론

    본 연구는 차량 블랙박스 카메라를 통해 수집되는 영상에 대해 차량과 차선을 탐지하여 실시간으로 교통 밀도를 추정하는 시스템을 제안하고, 실제 버스 블랙박스 영상을 이용하여 제안한 시스템의 효과성을 검증 한다. 또한, 추정된 교통밀도를 통해 교통 혼잡을 판정하는 방법론을 제안하였다. 본 연구에서 제안한 실시 간 교통밀도 및 교통 혼잡 추정 시스템의 흐름도는 <Fig. 1>에서 확인할 수 있다.

    <Fig. 1>

    System flowchart

    KITS-22-2-133_F1.gif

    1. YOLOv5 기반 차량 탐지

    블랙박스 영상을 통해서 교통 상태를 추정하기 위해서는 차량의 위치를 탐지할 수 있어야 한다. 영상의 프레임에서 차량을 탐지할 때는 미리 학습된 YOLOv5 네트워크를 사용하였다(Ultralytics, 2022). 이 네트워크 는 128개의 객체 클래스의 Microsoft COCO 이미지 데이터를 이용해 학습된 네트워크이며, 블랙박스 영상 내 에서 차량 탐지가 정확해서 추가로 네트워크를 학습하지 않았다. YOLOv5 네트워크는 크게 이미지에서 특성 을 추출하는 백본 네트워크와 이미지 특성을 기반으로 객체의 위치를 탐지하는 헤드로 구성된다. 백본 파트 에서 사용한 네트워크는 CSPNet이며, 헤드는 3개의 크기를 가지는 앵커 박스로 구성된다. 여기에서 앵커 박 스는 미리 설정된 바운딩 박스를 뜻하며, 모델은 각 앵커 박스가 특정 객체일 확률을 계산한다. 이를 통해서 Yolov5 네트워크는 여러 종류의 객체를 한 번의 추론으로 탐지할 수 있다.

    2. LaneATT 기반 차선 탐지

    본 연구에서는 차선 탐지 모델로 LaneATT 네트워크를 사용하였다(Tabelini et al., 2021). 이 네트워크는 차 량 탐지에서 사용한 Yolov5 모델처럼 백본 네트워크와 헤드 네트워크로 구성된다. 백본 네트워크는 CNN 기 반의 ResNet을 사용하였고, 헤드 네트워크는 여러 개의 anchor 선으로 구성된다. LaneATT 네트워크에서 사용 하는 anchor 선의 수식은 식 (1-2)에서 볼 수 있다. 여기에서 (xorig, yorig) 은 원래 이미지에서 anchor 선이 시 작되는 위치이며, θ 는 anchor 선과 아래 모서리가 이루는 각도이다. δback은 백본 네트워크 CNN 커널의 stride 이다. LaneATT 네트워크는 각 anchor 선을 따라 균일하게 수집된 점 ( j = 0 , 1 , 2 , , N p t s 1 ) 을 기반으로 차선 을 추정하며, 해당 anchor 선이 차선일 확률과 anchor 선의 각 점이 실제 차선과 떨어진 수평 거리를 추정하 여 차선의 위치를 판정한다.

    x j = 1 tan θ ( y j y or i g δ b a c k ) + x or i g δ b a c k
    (1)

    y j = j H I N p t s 1
    (2)

    본 네트워크는 anchor 선이 차선일 확률과 anchor 선과 실제 차선이 떨어진 거리를 추정하는 과정에서 anchor 선의 특성뿐만 아니라 다른 anchor 선의 특성도 사용한다. 다른 anchor 선의 특성을 해당 anchor 선의 특성에 반영하는 과정에서 attention 방법론을 사용하며, 이는 식 (3)에 표현되어 있다. 여기에서 W ( N a n c , N a n c ) 는 여러 anchor 선 특성의 가중평균을 구할 때 사용되며, 학습이 가능한 파라미터이다. 이를 통해서 각 anchor 선마다 가중평균치를 다르게 할당할 수 있다. 다른 anchor 선 특성의 가중평균치를 전역적 인 특성이라고 하며, 이를 해당 anchor 선의 특성과 이어서 anchor 선이 차선일 확률과 이와 실제 차선과 떨 어진 수평 거리를 추정하게 된다. Attention 방법론을 통해서 차선 판정 시 지역적인 특성뿐만 아니라 전역적 인 특성을 반영하는 네트워크를 설계할 수 있다는 장점이 있다.

    A g l o b = W A l o c
    (3)

    LaneATT 네트워크를 학습하기 위해서 TuSimple 차선 데이터를 사용하였다. 해당 데이터는 약 6,000여 개 의 차선이 라벨링된 이미지로 구성되어 있으며, 1280p의 해상도 이미지 내에 최대 5개의 차선이 존재한다. 본 연구에서는 RTX 3090 그래픽 카드를 이용하여 100 에포크 동안 학습한 네트워크를 이용하였다.

    3. 이미지 처리 기반 차선 탐지 보정

    TuSimple 데이터를 이용해서 학습한 LaneATT 모델을 블랙박스 영상에 적용하였을 때, 교차하는 차선이 동시에 탐지되는 결과가 존재하였다. 이를 막기 위해서 교차하는 차선에 대해서 15픽셀만큼 오프셋을 주어 서 해당 영역 내에 흰색 픽셀이 비율이 낮은 차선을 제거하였다. 또한, 15픽셀만큼 오프셋 된 영역 내 파란 색 픽셀의 수를 기반으로 주행 중인 차선이 버스 전용 차로인지를 확인하였다. 버스 전용 차로일 경우 해당 차선이 실제 도로 교통 상태를 잘 대변한다고 할 수 없기에 인접한 왼쪽 차선의 교통밀도를 추정하였다. 위 에서 기술한 차선 탐지 결과를 보정하는 과정은 <Fig. 2>에서 확인할 수 있다.

    <Fig. 2>

    Bus-only lane identification and intersecting lane filtering

    KITS-22-2-133_F2.gif

    4. 교통밀도 추정

    본 연구에서는 앞서 탐지한 차량과 차선을 기반으로 교통밀도를 추정하는 방법을 제안하였다. 식 (4)에서 N 은 차량의 대수이고, L 은 관심 영역의 길이이다. 교통밀도를 추정하는 차선은 현재 버스가 주행 중인 차선 이다. 만약 주행 중인 차선이 버스 전용 차로일 경우 도로의 전체 교통 상태를 반영하기 어렵기에 인접한 왼 쪽 차선을 이용하였다. 예를 들면, <Fig. 3>에서 452 버스의 관심 영역에 대해서 인접한 왼쪽 차선(파란색)은 차량의 대수가 2대이고, 주행 중인 차선(빨간색)은 1대이다. 여기에서 추정된 교통밀도는 1/x (veh/m)이다. 만 약 주행 중인 차선이 버스 전용 차로일 경우 인접한 왼쪽 차선의 교통밀도인 2/x (veh/m)를 이용한다. 이를 검증하기 위해서 실제 블랙박스 영상을 통해서 제안한 방법론이 다양한 조건에서 교통밀도를 정확하게 추정 하는지를 확인하였다. 본 연구에서 사용한 452번 버스의 관심 영역 길이는 26(m)이며, 3012번 버스는 34(m) 이다. 이는 서울 시가지 도로의 흰 실선이 3(m), 실선 사이의 간격이 5(m)인 것을 기반으로 계산하였다.

    k = N L
    (4)

    <Fig. 3>

    Traffic density estimation for Region Of Interest

    KITS-22-2-133_F3.gif

    5. 교통밀도 추정 검증

    본 연구는 차량 부착 카메라에서 수집한 영상을 통해 실시간으로 도시부 교통 상태를 추정하는 연구를 수 행한다. 컴퓨터 비전 알고리즘을 통해 교통 상태를 추정하는 알고리즘을 검증할 때 영상을 통해 사람이 직접 교통 상태 변수를 관측한 값을 참값이라고 가정하고 검증으로 수행하는 경우가 종종 있다. Park et al.(2015) 에서는 항공 촬영을 통한 교통밀도 추정 시 마찬가지로 영역 내 차량의 수를 직접 센 값과 비교하여 정확도 를 검증하였다. Umair et al.(2021)에서는 컴퓨터 비전 방법론을 이용하여 대기 행렬 길이를 추정하는 방법을 제시하였는데, 마찬가지로 관심 영역 내 차량의 수를 직접 센 값을 대기 행렬 길이의 참값이라고 가정하고 검증을 수행하였다. 본 연구에서도 표시된 관심 영역 안에 존재하는 차량 수의 추정치가 실제 관심 영역 내 의 차량의 수를 직접 센 값과 같은지를 비교하여 교통밀도 추정 정확도를 평가하였다.

    제시한 방법론의 효과성을 검증하기 위해 실제 버스 블랙박스 영상을 이용하였다. 실험에 사용한 데이터 는 서울 452번과 3012번 버스가 해당 노선을 따라서 도심지역을 주행하면서 얻은 영상 데이터이다. 영상이 수집된 날짜는 452번 버스의 경우 2021년 9월 10일이고, 3012번 버스의 경우 2021년 9월 11일이다. 두 노선 모두 8시 40분부터 9시 10분까지의 영상이며, 영상 한 개의 길이는 10분이다. <Table 1>에서 각 영상에 대해 6초마다 수집한 총 프레임과 버스가 교차로에서 정지하여 중복되는 프레임을 필터링한 프레임 수를 나타낸 다. 정확도 검증에는 중복되는 프레임을 제거한 샘플을 이용하였다. <Fig. 4>은 각 버스 노선과 주행 시간에 해당하는 버스의 위치를 나타낸다. 그림을 통해서 452번 버스는 해당 시간대에 직진만을 수행하지만, 3012번 버스의 경우 2번의 우회전과 2번의 좌회전을 수행한다. 또한, 3012번 버스가 주행하는 도로는 교차로 간 간 격이 짧은 격자형 도로이다. 이를 통해서 서로 다른 공간적 특성을 보이는 지역에서 제안한 방법론이 효과성 을 검증할 수 있다.

    <Table 1>

    Number of samples for each video with different bus number and time

    KITS-22-2-133_T1.gif
    <Fig. 4>

    Bus trajectory for two buses: 452 and 3012

    KITS-22-2-133_F4.gif

    <Fig. 5>는 각 버스 노선에서 촬영한 도로의 예시를 보여준다. 그림에서도 볼 수 있듯이 452번 버스와 3012번 버스는 블랙박스가 부착된 위치와 촬영하는 각도가 서로 다르다. 이를 통해서 제안한 방법론이 블랙 박스 부착 위치와 촬영 각도와 무관하게 교통 상태를 효과적으로 추정하는지를 확인할 수 있다.

    <Fig. 5>

    Example frames for two bus lines: 452 and 3012

    KITS-22-2-133_F5.gif

    6. 교통혼잡 판정

    교통밀도는 속력과 교통량과 더불어 도로의 교통 상태를 나타내는 중요한 변수이다. 이를 위해 본 연구에 서는 위에서 설명했듯이 컴퓨터 비전 방법론을 이용해서 교통밀도를 추정하였다. 이를 교통 혼잡의 정도와 연관하기 위해서는 정량화된 교통 혼잡에 대한 지표가 필요하며, 이를 위해 사용되는 것은 서비스 수준 (LOS; Level Of Service)이다. Pandey and Biswas(2022)에 따르면 도심지역에서 LOS의 등급은 교통 속도를 기 준으로 6가지로 분류되며, 본 연구에서는 6가지의 A~F 등급에서 A와 B 등급, C와 D 등급, E와 F 등급을 묶 어서 교통 상태를 여유, 보통, 혼잡으로 나누었다. 여유, 보통, 혼잡 등급별로 해당하는 속도의 범위는 각각 40(km/h) 이상, 20(km/h) 이상 40(km/h) 미만, 20(km/h) 미만이다. 이를 위해서 추정한 교통밀도에서 속력을 추 정하는 과정이 필요한데, 본 연구에서는 Nantes et al.(2016)에서처럼 Smulders(1990)에서 제시한 교통 기본도 식 (5)를 사용하였다. 단속류의 경우 교통 신호의 영향으로 하나의 도로 구간 내에서도 교통 상태의 변화가 심하지만, 관심 영역의 공간 단위를 대략 30(m)로 설정하였기에 교통 상태 추정 단위 내에서 교통 상태가 균 질하고 식 (5)를 사용하는 것이 적절하다. 식 (5)의 변수인 자유 속도(υfree)는 50(km/h)로 가정하였으며, 나머 지 변수는 Geroliminis and Daganzo(2007)가 San Francisco 지역에서 측정한 k c r i t = 0.03 ( υ e h / m . l a n e ) , k j a m = 0.09 ( υ e h / m . l a n e ) 을 이용하였다.

    υ i = Q ( k i , t ) k i , t = { υ f r e e ( 1 k i , t k j a m ) if k i , t < k c r i t υ f r e e k c r i t ( 1 k i , t 1 k j a m ) o t h e r w i s e
    (5)

    Ⅳ. 실험 결과

    1. 교통밀도 추정 정확도 판정

    교통밀도 추정 정확도는 하나의 비디오를 제외하고는 모두 90% 이상이었으며, 대다수 오류는 버스 전용 차로임에도 불구하고 왼쪽 차선을 탐지하지 않고 주행 차로의 교통밀도를 추정한 것에서 비롯된다. 이를 통 해 본 연구에서 제안한 실시간 교통 상태 추정 알고리즘이 정확한 것을 확인할 수 있다.

    <Fig. 6>는 차선 탐지 오류 및 버스 주행 차로 탐지로 기인한 교통밀도 추정의 오차 예시이다. 첫 번째 차 선 탐지 오차에서는 검은색 차량이 왼쪽 차선을 가려서 차선 탐지가 오차가 있는 것을 확인할 수 있으며, 두 번째 버스 주행 탐지의 경우 왼쪽 차선이 파란색으로 차선이지만 알고리즘이 이를 인식하지 못하고 일반 차 선이라고 탐지하여 버스 주행 차로의 교통밀도를 추정한 오차이다.

    <Table 2>

    Accuracy of traffic density estimation for each video

    KITS-22-2-133_T2.gif
    <Fig. 6>

    Example of (a) lane detection error and (b) blue lane error

    KITS-22-2-133_F6.gif

    2. 추정된 교통밀도 기반 도로 혼잡 파악

    이전 절에서 제안한 방법론이 실시간으로 교통밀도 추정 시에 효과적임을 검증할 수 있었다. 이를 기반으 로 본 연구에서는 연구 방법 절에서 기술한 것과 같이 추정한 교통밀도로부터 교통 혼잡 정도를 추출할 수 있었다. <Fig. 7>은 교통 기본도 식을 통해서 추정한 교통밀도를 통해 계산한 1초 간격의 교통 속도이며, <Fig. 8>은 계산된 교통 속도를 이용하여 얻은 교통 혼잡 정도이다. 이 과정을 통해서 버스의 이동 경로를 따라서 도로 혼잡상황을 파악할 수 있다. <Fig. 8>을 통해 격자형의 촘촘한 도시 형태에서 교통 혼잡이 더 빈번하게 발생하는 것을 확인할 수 있었다. 각 버스 노선별로 교통 혼잡이 발생한다고 추정되는 구간의 예시 는 <Fig. 9>에서 볼 수 있다. 다음의 예시를 통해서 본 방법론이 교통 혼잡이 극심한 구간을 추정하는 데에 효과적이었음을 알 수 있다.

    <Fig. 7>

    Estimated traffic speed for bus number (a) 452 and (b) 3012

    KITS-22-2-133_F7.gif
    <Fig. 8>

    Level of service(LOS)-based traffic congestion in bus number (a) 452 and (b) 3012

    KITS-22-2-133_F8.gif
    <Fig. 9>

    Examples of highly congested area (LOS=congested) in bus number (a) 452 and (b) 3012

    KITS-22-2-133_F9.gif

    Ⅴ. 결 론

    본 연구에서는 블랙박스 카메라를 통해서 교통밀도와 교통 혼잡도를 추정하는 시스템을 제안하였다. 해당 시스템은 차량과 차선 탐지 모델을 통해 블랙박스 영상 내 차량과 차선을 탐지하고, 차량이 주행하는 차로를 판정하여 관심 영역을 정의하며, 관심 영역 내 차량의 수를 세어 교통밀도를 추정하였다. 여기에서 차량이 버스 주행 차로 주행 시 해당 도로 구간의 교통 상태를 대변한다고 볼 수 없기에 버스 주행 차로에서 주행 하는 경우 인접한 왼쪽 차선의 교통밀도를 이용하였다.

    제안한 컴퓨터 비전 기반의 교통밀도 추정 정확도를 검증하기 위해서 서로 다른 특성을 보이는 2개의 버 스 노선(452, 3012번)에서 취득한 블랙박스 영상을 이용하였다. 관심 영역 내 차량의 수를 사람이 직접 센 값 을 참이라는 가정하에 검증한 결과, 검증에 사용한 6개의 영상 중 5개의 영상에서 90% 이상의 교통밀도 추 정 정확도를 확인할 수 있었다. 차량 전면부에 부착된 카메라에서 차량 탐지 정확도가 매우 높기에, 교통밀 도 추정 시 대부분 오류는 차선 탐지 오류에 기인한다. 차선 탐지 모델은 자율주행차량의 주행에 있어서 중 요한 요소로써 시간이 지남에 따라 지속적인 발전이 기대되고, 본 연구에서 제시한 교통밀도 추정 시스템의 정확도는 점차 높아질 것이다(Zheng et al., 2022).

    본 연구에서 제안한 알고리즘을 통해 서울지역 452번과 3012번 버스에 대해서 1초마다 교통 혼잡도를 판 정한 결과, 452번 버스 노선보다 격자형인 도시에서 주행하는 3012번 버스에서 교통 혼잡이 더 빈번하게 발 생하는 것을 확인했다. 제시한 알고리즘은 앞선 예시와 같이 다양한 주행 환경에서 교통 혼잡도를 추정하여 도심지역 교통혼잡의 원인을 파악하는 데 사용할 수 있다는 장점이 존재한다.

    ACKNOWLEDGEMENTS

    이 연구는 2022년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연 구임 (2022-0-00784, 이동형 인프라 영상 센서를 활용한 지능형 도로 및 교통 상황 탐지 기술 개발).

    이 연구는 2022년도 한국건설기술연구원의 지원을 받아 수행된 연구임 (이동형 영상 기반 지능형 도로 상 황 분석 시스템 연구).

    Figure

    KITS-22-2-133_F1.gif

    System flowchart

    KITS-22-2-133_F2.gif

    Bus-only lane identification and intersecting lane filtering

    KITS-22-2-133_F3.gif

    Traffic density estimation for Region Of Interest

    KITS-22-2-133_F4.gif

    Bus trajectory for two buses: 452 and 3012

    KITS-22-2-133_F5.gif

    Example frames for two bus lines: 452 and 3012

    KITS-22-2-133_F6.gif

    Example of (a) lane detection error and (b) blue lane error

    KITS-22-2-133_F7.gif

    Estimated traffic speed for bus number (a) 452 and (b) 3012

    KITS-22-2-133_F8.gif

    Level of service(LOS)-based traffic congestion in bus number (a) 452 and (b) 3012

    KITS-22-2-133_F9.gif

    Examples of highly congested area (LOS=congested) in bus number (a) 452 and (b) 3012

    Table

    Number of samples for each video with different bus number and time

    Accuracy of traffic density estimation for each video

    Reference

    1. Benkraouda, O. , Thodi, B. , Yeo, H. , Menendez, M. and Jabari, S. (2020), “Traffic data imputation using deep convolutional neural networks”, IEEE Access, vol. 8, pp.104740-104752.
    2. Chen, X. , Yin, J. , Tang, K. , Tian, Y. and Sun, J. (2022), “Vehicle Trajectory Reconstruction at Signalized Intersections Under Connected and Automated Vehicle Environment”, IEEE Transactions on Intelligent Transportation Systems, vol. 23, no. 10, pp.17986-18000.
    3. Geroliminis, N. and Daganzo, C. F. (2007), “Macroscopic modeling of traffic in cities”, Transportation Research Board 86th Annual Meeting.
    4. Gokasar, I. and Timurogullari, A. (2021), “Real-time prediction of traffic density with deep learning using computer vision and traffic event information”, 2021 International Conference on Innovations in Intelligent Systems and Applications.
    5. Gupte, S. , Masoud, O. , Martin, R. and Papanikolopoulos, N. (2002), “Detection and classification of vehicles”, IEEE Transactions on Intelligent Transportation Systems, vol. 3, no. 1, pp.37-47.
    6. Kar, G. , Jain, S. , Gruteser, M. , Bai, F. and Govindan, R. (2017), “Real-time traffic estimation at vehicular edge nodes”, IEEE/CVF International Conference on Computer Vision, pp.1-13.
    7. Kim, M. , Jeong, D. and Kim, H. (2019), “A study on estimation of traffic flow using image-based vehicle identification technology”, The Journal of the Korea Institute of Intelligent Transport Systems, vol. 18, no. 6, pp.110-123.
    8. Kim, S. , Anagnostopoulos, G. , Barmpounakis, E. and Geroliminis, N. (2023), “Visual extensions and anomaly detection in the pNEUMA experiment with a swarm of drones”, Transportation Research Part C: Emerging Technologies, vol. 147, p.103966.
    9. Lee, H. , Lee, J. and Chung, Y. (2022), “Traffic density estimation using vehicle sensor data”, Journal of Intelligent Transportation Systems, vol. 26, no. 6, pp.675-689.
    10. Magee, D. R. (2004), “Tracking multiple vehicles using foreground, background and motion models”, Image and Vision Computing, vol. 22, no. 2, pp.143-155.
    11. Mehran, B. , Kuwahara, M. and Naznin, F. (2012), “Implementing kinematic wave theory to reconstruct vehicle trajectories from fixed and probe sensor data”, Transportation Research Part C: Emerging Technologies, vol. 20, no. 1, pp.144-163.
    12. Nantes, A. , Ngoduy, D. , Bhaskara, A. , Miska, M. and Chung, E. (2016), “Real-time traffic state estimation in urban corridors from heterogeneous data”, Transportation Research Part C: Emerging Technologies, vol. 66, pp.99-118.
    13. Pandey, A. and Biswas, S. (2022), “Assessment of Level of Service on urban roads: A revisit to past studies”, Advances in Transportation Studies, vol. 57.
    14. Parisot, C. , Meessen, J. , Carincotte, C. and Desurmont, X. (2008), “Real-time road traffic classification using on-board bus video camera”, 2008 11th International IEEE Conference on Intelligent Transportation Systems, pp.189-196.
    15. Park, B. , Kim, T. , Yang, I. , Heo, J. and Son, B. (2015), “A method for measuring accurate traffic density by aerial photography”, Journal of Advanced Transportation, vol. 49, no. 4, pp.568-580.
    16. Schuricht, P. , Michler, O. and Baker, B. (2011), “Efficiency-increasing driver assistance at signalized intersections using predictive traffic state estimation”, 2011 14th International IEEE Conference on Intelligent Transportation Systems, pp.347-352.
    17. Shahrbabaki, M. , Safavi, A. , Papageorgiou, M. and Papamichail, I. (2018), “A data fusion approach for real-time traffic state estimation in urban signalized links”, Transportation Research Part C: Emerging Technologies, vol. 92, pp.525-548.
    18. Smulders, S. (1990), “Control of freeway traffic flow by variable speed signs”, Transportation Research Part B: Methodological, vol. 24, no. 2, pp.111-132.
    19. Sun, Z. and Ban, X. (2013), “Vehicle trajectory reconstruction for signalized intersections using mobile traffic sensors”, Transportation Research Part C: Emerging Technologies, vol. 36, pp.268-283.
    20. Sun, Z. , Bebis, G. and Miller, R. (2002), “Improving the performance of on-road vehicle detection by combining gabor and wavelet features”, IEEE 5th International Conference on Intelligent Transportation Systems, pp.130-135.
    21. Tabelini, L. , Berriel, R. , Paixao, T. M. , Badue, C. , Souza, A. F. and Oliveira, T. (2021), “Keep your Eyes on the Lane: Real-time Attention-guided Lane Detection”, IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp.294-302.
    22. Thodi, B. , Khan, S. , Jabari, E. and Menendez, M. (2022), “Incorporating kinematic wave theory into a deep learning method for high-resolution traffic speed estimation”, IEEE Transactions on Intelligent Transportation Systems, vol. 23, no. 10, pp.17849-17862.
    23. Ultralytics,https://github.com/ultralytics/yolov5, 2022.07.02.
    24. Umair, M. , Farooq, M. , Raza, R. , Chen, Q. and Abdulhai, B. (2021), “Efficient Video-based Vehicle Queue Length Estimation using Computer Vision and Deep Learning for an Urban Traffic Scenario”, Processes, vol. 9, no. 10, p.1786.
    25. Xie, X. , Lint, H. and Verbraeck, A. (2018), “A generic data assimilation framework for vehicle trajectory reconstruction on signalized urban arterials using particle filters”, Transportation Research Part C: Emerging Technologies, vol. 92, pp.364-391.
    26. Zheng, T. , Huang, Y. , Liu, Y. , Tang, W. , Yang, W. , Cai, D. and He, X. (2022), “CLRNet: Cross Layer Refinement Network for Lane Detection”, IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp.898-907.

    저자소개

    Footnote