Ⅰ. 서 론
1. 연구의 배경 및 목적
우리나라는 현재 226개 모든 기초지자체에서 스마트도시통합운영센터를 운영 중이며, 공공 CCTV망을 이 용하여 교통, 방범, 재난 등의 도시 상황을 관제하고 있다. 지자체 뿐 아니라 경찰청, 광역 ITS 센터, 시도별 재난관제센터 등의 공공기관이 운영하는 CCTV 수는 2023년 기준 총 1,767,894대(KOSIS, 2024)에 이를 정도 로 밀도 높은 도시 모니터링이 이루어지고 있으며, 이를 활용한 스마트 관제기술 역시 개발 속도를 높이고 있는 상황이다. 스마트 관제기술의 기본은 신뢰도 높은 동적 객체 감지에 있다. 즉, 시민들의 안전을 위협할 수 있는 다양한 형태의 도시 내 사건·사고를 파악하기 위해서는 보행자, 차량, 오토바이, 킥보드 등 동적 교 통객체의 감지율 향상이 중요하며, 다양한 환경에서 예측력 비교를 통한 적절한 동적 교통객체 감지율의 분 석 방안이 마련되어야 한다. 동적 교통객체를 감지하기 위해서는 실시간으로 처리 가능하며, 높은 수준의 신 뢰도가 확보되어야 한다. 교통객체 감지 및 신뢰도 확보를 위해서는 현재 대표적인 영상인식 방법론인 딥러 닝 활용이 필수적이다. 특히, 객체 검출에 특화된 알고리즘으로 빠른 수행 속도와 정확도를 갖는 YOLO(you only look once) 계열 모델을 기반으로 한 객체 감지 연구가 활발히 추진되고 있다. 하지만 대부분의 학술적 연구들은 개별 기술의 실험과 고도화에 초점이 맞추어져 있으며, 실용화를 위한 영상, 도로, 시간대 등 다양 한 유형별 실험현장과 연관된 연구는 부족한 상황이다.
이에 본 연구는 YOLOv8을 기반으로 다양한 실험 조건을 설정하여 동적 교통객체의 감지율을 비교하며 그 시사점을 제시하고자 한다. 전체 학습데이터를 기반으로 한 동적 교통객체 감지 예측력을 통해 동적 교통 객체 감지의 실용성을 타진하고 학습모델의 크기별 성능 차이를 분석한다. 실제 지자체 공공 CCTV를 기반 으로 주간, 야간 시간대의 RGB 영상 차이 비교, 차로 크기 및 밀집도를 고려한 도로 유형별 비교, RGB, 열 화상 등 영상 유형별 비교 등 다양한 실험 환경에서의 동적 교통객체 감지율을 비교 분석하고자 한다. 분석 내용을 토대로 본 논문에서는 동적 교통객체 검출 성능 비교와 교통사고 예방을 목적으로 하는 CCTV 관제 센터 기반의 기술 실현 및 실용화를 위한 시사점을 제시하고자 한다. 1장 서론에서는 연구의 범위 및 방법론 을 제시하고, 2장에서는 선행연구를 고찰한다. 3장에서는 연구방법론을 제시하고 4장에서는 유형별 실험 실 증분석을 수행한다. 이를 토대로 5장 결론에서는 연구결과에 대한 시사점을 제시한다.
2. 연구의 범위 및 방법
본 연구의 분석 대상은 보행자 포함 차량, 오토바이, 전동킥보드, 자전거 등 도로에서 운행되는 동적 교통 객체이다. 도로의 경우 다양한 모빌리티가 동시다발적으로 운행되는 왕복 8차선 학원가 사거리 교차로와 비 교적 교통객체 운행이 적은 왕복 2차선 이면도로로 공간적 범위를 분류하여 테스트베드로 선정하였다. 수집 되는 영상 유형의 경우 테스트베드 내 왕복 8차선 도로와 2차선 도로에서 수집되는 RGB, 열화상 이미지를 이용하였으며, 객체 유형별 데이터 보강 및 IR 이미지 확보를 위해 AI-Hub 데이터셋을 추가로 활용하였다.
연구방법론으로는 실시간 객체 탐지에 특화된 YOLOv8을 활용하며, 테스트베드에서 수집되는 보행자, 차 량, 오토바이, 전동킥보드, 자전거 등의 동적 교통객체에 대한 탐지 정밀도(precision), 재현율(recall), mAP50을 산출하여 예측력의 검증도구로 사용하였다. 세부 학습모델의 크기에 따른 딥러닝 결과 비교 분석, 주야간 분 석, 도로 크기별 분석, 영상 유형별 분석 등 YOLOv8을 기반으로 다양한 실험 조건에서의 동적 교통객체 감 지 비교분석을 수행하도록 한다. 이를 토대로 객체 검출 예측력 비교와 교통사고 예방 목적의 기술 실현 및 실용화를 위한 서비스방안을 최종 제시하고자 한다.
Ⅱ. 선행연구 고찰
1. 동적 교통객체 감지 선행연구
일반적으로 동적 교통객체 감지 연구는 주로 보행자, 킥보드, 자전거, 차량이 주 대상이며, 이를 위해 실시 간 객체 검출에 특화된 YOLO 계열의 딥러닝 기법이 통용되고 있다. 보행자를 대상으로 한 연구는 다음과 같다. Hwang and Kim(2024)은 YOLOv4를 이용하여 유동인구 분석을 위한 CCTV 영상에서의 군중 밀집도 분 석 서비스를 개발하였다. 임계값이 0.6 이상인 객체의 바운딩 박스(bounding box)만 출력하게 설정하였으며, 제한 인원수를 초과하면 경고음이 출력되는 시스템을 제시하였다. 고해상도 영상에서는 정밀도가 80~90%로 양호한 수준이었으나, 저해상도 영상에서는 20~30%로 저하되는 한계가 있었다. Lee et al.(2024a)은 YOLOv5 모델 및 앙상블 기법을 활용하여 휠체어, 목발과 같은 보조기구를 이용하는 교통약자 객체를 탐지하는 기술 을 제안하였다. 분석 결과, YOLOv5 기반 Non-Maximum Suppression(NMS) 기법을 적용한 모델의 mAP50이 0.95로 산출되는 등 높은 수준의 감지율을 확보하였다. Bak and Ha(2024)는 YOLOv8을 이용하여 야간 객체탐 지 성능평가 연구를 수행하였다. 해당 연구에서는 YOLOv5보다 매개변수와 텐서의 크기를 줄여서 데이터셋 학습에 효과적이며 더 높은 정확도 성능을 보인 YOLOv8 모델을 사용하였으며, 히스토그램 평활화를 거쳐 야간 객체탐지 성능을 추가로 향상시켰다.
한편, 최근 전동킥보드 사용이 보편화되면서 관련 연구 역시 늘어나고 있다. Miah and Shin(2022)은 YOLOv3을 활용하여 업체별 전동킥보드의 객체감지 연구를 수행하였다. 업체 유형별로 클래스별 신뢰도 점 수(The Class Specific Confidence Score)는 0.90~0.98의 양호한 감지율을 나타냈다. Namgung and Kim(2023)은 YOLOv8을 사용하여 2인 탑승 전동 킥보드 탐지 개선을 위한 새로운 라벨링 방법을 제안하였다. mAP 분석 결과, 1인 탑승 전동킥보드는 0.930, 2인 탑승 전동킥보드는 0.927 등 양호한 객체 감지율을 확보하였다. Choi et al.(2024)은 RGB, 깊이카메라 등 이동형 IoT 센서 장비를 활용한 자전거도로에서의 사고 위험요소 선정 연 구를 수행하였다. 동적 객체요소로써 보행자, 킥보드, 차량 등을 분석 대상으로 선정하였으며, 이를 고려한 지자체 서비스방안을 제시하였다.
보행자, 차량, 자전거 등 도로 위 다양한 교통객체 유형을 하나의 딥러닝 모델에서 동시적으로 감지하는 연구 역시 많이 수행되고 있다. Lee et al.(2024b)은 YOLOv5를 사용하여 보행자, 차량 등의 객체를 감지하여 대학교 캠퍼스 내 교통안전 시스템 설계 연구를 수행하였다. YOLOv5 모델 중 n(nano)과 s(small)의 성능평가 를 비교하였는데, YOLOv5n은 0.740, YOLOv5s는 0.753로 분석되었다. Yun et al.(2018)은 YOLOv2 기반으로 고밀도 그리드 모델과 앵커 모델을 이용한 동적 객체검지 향상 연구를 수행하였다. 차량, 보행자, 자전거를 실험 대상으로 선정하였고, 이 중 자동차 검지에 있어서 해당 논문에서 제시한 DOKR(Data on Korean Road) 데이터셋 기반 고밀도 그리드 모델이 최대 22.4% 향상된 결과를 가져왔다. Seo and Park(2022)은 YOLOv4를 활용하여 도심로 주행을 위한 객체 검출 및 거리 추정 알고리즘 방안을 제시하였다. 4개의 차량 유형(자동 차, 버스, 트럭, 자전거), 보행자, 정지선, 횡단보도, 4개의 신호등 신호 등 15개의 객체 유형을 선정하였고, 제 안된 방식의 mAP는 86.63으로 기존 방식과 비교하여 감지율이 4.03% 향상되었다.
이처럼 기존 교통객체 감지 선행연구들을 검토한 결과, 대부분의 연구들이 실사용을 목적으로 실시간 객 체 검출에 특화된 YOLO 계열의 딥러닝 모델이 주를 이루고 있는 것을 알 수 있었다. 연구 객체 유형의 경 우 보행자, 차량, 킥보드 등 주 교통수단별 분석이 주를 이루었으나, 차량의 경우 승용차, 버스, 트럭 등 세부 유형으로 분류한 연구도 수행되었다. 교통객체 감지율에 대한 성능지표로써 주로 mAP가 활용되었고, 연구 주제에 따라 감지율은 상이했으나 전반적으로 0.74부터 0.95 정도의 예측력을 확보하는 것으로 나타났다. 기 존 논문들은 주로 YOLO 계열의 교통객체 감지 딥러닝 모델 방법론을 비교한 연구가 주를 이루었으나, 실용 화가 고려되어 다양한 외부요인들에 대해 실험한 연구는 수행된바 없다. 이에 본 연구는 선행연구에서 주로 사용되었으며 객체 검출분야에서 뛰어난 성능 확보가 가능한 YOLO 계열의 YOLOv8 딥러닝 모델을 활용하 되, 학습모델 크기별 분석 뿐 아니라 영상 시간대, 도로 규모, 센서 유형 등 다양한 외부 환경적 조건에서의 분석 비교를 통해 연구의 차별성을 확보한다. 또한 연구의 최종 목적인 교통사고 예방을 위해, 보행자, 차량, 오토바이, 전동킥보드, 자전거 등 모빌리티 대상을 확장하여 동적 교통객체별 검출 성능을 비교와 이를 토대 로 한 시사점을 제시하고자 한다.
2. 영상 유형에 따른 선행연구
기존 동적 교통객체 감지를 위한 주 데이터 수집원은 CCTV 기반의 RGB 영상이었다. 하지만 최근 기후 변화, 인프라 노후화, 불특정 범죄사고 등 관측, 예측이 어려운 도심 사건·사고의 발생 빈도가 증가함에 따라 다른 IoT 센서들이 도입되는 추세이다. RGB 영상 외 활용되는 대표적인 센서는 열화상카메라이다. 열화상이 미지 기반으로 화재 검출 연구(Lee and Park, 2023;Ko and Cho, 2023;Lee and Park, 2024)가 주로 수행되어 왔으나, 최근에는 보행자, 차량 등 동적 객체 분야로도 확장되고 있는 추이이다. 국내에서 크게 이슈가 되었 던 2021년 4월 25일 심야시간대 한강시민공원에서 발생한 의대생 실종·사망사건(Choi et al., 2023)이 발단이 되어, 서초구청에서는 도심지 야간 사건사고 대응을 위한 열화상 이미지 데이터셋 구축 사업을 진행한 바 있 다. 열화상 카메라는 장파장 적외선을 활용하여 검출된 적외선 열에너지를 이미지 처리 과정을 통해 시각화 시켜주는 장치로서, 물체의 복사열을 감지하므로 조명의 유무와 관계없이 객체 확인이 가능하다(Hwang et al., 2019;Choi and Jang, 2024). 이에 전통적으로 사용되는 군사 뿐 아니라 야간 감시, 인명 구조, 소방 방재, 교통 등 다양한 분야에서 활용되고 있다. Choi et al.(2023)은 열화상카메라를 기반으로 도심 이상상황 감지 서비스 선호도 평가를 수행하였다. 도로, 시설물, 방재 이상상황과 더불어 야간 교통사고, 야간 치안사고, 보 행 위험상황 등 동적 객체 이상상황에 대한 유형을 정리하고 그 중요도를 산정하였다. 중요도 분석 결과, 총 21개 유형 중 야간 보행자 감지 1순위, 야간 모빌리티 감지가 2순위로 선정되는 등 동적 교통객체 감지의 중 요성이 크게 강조되었다. 이어서 Choi and Jang(2024)은 열화상 및 RGB 카메라, 기상 관측센서 등을 활용한 도심 생활안전 이상감지 서비스 구축방안 연구를 수행하였다. 열화상 뿐 아니라 RGB, 기상센서 등 테스트베 드 기반 데이터를 확장 구축하여 동적객체 감지 뿐 아니라 보행자 위협상황, 충돌 위협상황 등 관제센터 기 반으로 실제 활용 가능한 서비스 구축방안을 제시하였다.
열화상이미지를 기반으로 수행된 동적 객체 감지 연구는 다음과 같다. Chang and Lin(2020)은 저조도 야간 시스템을 위한 열영상 기반 객체 검출 알고리즘을 제안하였다. 800*600 크기의 열영상 비디오 프레임을 기 반으로 확장형 유사 Haar 특징점을 활용한 Adaboost 학습 알고리즘을 활용하였다. 야간 시간대 감시를 목적 으로 한 분석대상은 주로 보행자이며, 객체 검출 결과는 평균 90% 이상을 확보하였다. Kwon et al.(2024)은 건물 에너지의 효율적 관리를 위해 저해상도 열화상 이미지를 활용한 재실자 수 예측 연구를 수행하였다. 해 당 연구는 개인정보보호가 가능하고 시설 구축비용을 최소화할 수 있도록 저해상도 IR 카메라를 이용하였 다. 참값 확보를 위해 RGB 카메라를 함께 사용하였으며, 딥러닝 분석기법으로는 YOLOv5를 활용하였다. Hit Count 방식으로 측정된 예측 정확도는 90% 이상의 양호한 수준으로 산출되었다. 이 밖에 도로에서의 주야간 보행자 감지(González et al., 2016), 자율주행을 위한 노출 부족영역에서의 객체 감지(Munir et al., 2022), 사람 의 얼굴 인식(Pavez et al., 2022) 및 이상행동 감지(Wang et al., 2022;Lee et al., 2022) 등의 열화상 이미지 기 반 객체 감지연구가 수행된 바 있다.
열화상 또는 IR 이미지를 활용한 객체 감지 논문은 주로 화재 검출과 더불어 야간 감시, 자율주행 등 다양 한 목적으로 활발히 연구되고 있다. 하지만 일반 RGB 영상에 비해 상대적으로 높은 장비 구축비용, 저해상 도, 짧은 감지거리에 따라 활용 목적 및 설치 장소에 대한 심도깊은 선별 작업이 필요할 것으로 판단된다. 열화상 또는 IR 기반 영상분석은 동적 객체감지 뿐 아니라 화재 검출, 도로상태 파악 등 다양한 분석대상으 로의 확장이 가능하므로, 본 연구에서는 영상 유형별 비교분석을 함께 수행하여 실용화 관점에서 효율적인 동적 교통객체 관제방안을 제시하고자 한다.
Ⅲ. 연구방법론
1. 객체 탐지 딥러닝 모델
본 연구는 동적 교통객체 감지를 목적으로 함에 따라 실시간 객체 검출 분야의 대표 알고리즘인 YOLO를 활용하고자 한다. YOLO는 대상 객체를 빠르고 정확하게 식별할 수 있으며, 입력 이미지를 특정 크기의 분 할로 그리드화하여 각 셀의 경계 상자와 클래스 확률 집합을 예측하는 방식으로 작동한다(Lee and Park, 2024). 2015년 처음으로 개발된 YOLO는 2023년에 발표된 YOLOv8까지 지속적으로 새로운 버전을 발표하고 그 성능을 향상시키고 있다. YOLOv8은 YOLOv5의 개선된 알고리즘으로 타 알고리즘에 비해 빠른 수행속도 와 정확도를 나타낸다. YOLO는 후보영역을 추출하기 위한 별도의 네트워크를 적용하지 않으므로 Faster R-CNN 등 CNN 관련 알고리즘보다 처리시간 측면에서 높은 성능을 보인다(Lee and Kim, 2020). 또한 YOLO 는 기존 객체 탐지모델과 비교했을 때 정확도 측면에서 2배 정도 높은 성능을 보이는 것으로 연구된 바 있 다(Kim and Hong, 2021).
이에 본 연구는 동적 교통객체 감지를 위해 YOLOv8을 주 분석도구로 사용한다. 딥러닝분석은 <Fig. 1>과 같이 전처리 및 증강작업에 대한 데이터 준비과정, 모델 학습, 예측 순서로 진행된다. RGB, 열화상, IR 이미 지에서 다중 객체 감지를 위해서는 크기 조정(resizing), 회전(rotation), 정규화(normalization), 변환(translation), 스케일 조정(scale jittering) 등의 데이터 준비 작업이 필요하다. 크기 조정은 효율적인 학습을 위해 이미지 크 기를 표준화하는 반면, 회전은 모델이 객체 방향을 일반화하는데 필요한 작업이다. 정규화는 픽셀 값의 균일 한 확장을 도모하며, 이는 열화상 및 IR 데이터에 매우 중요한 작업이다. 변환 및 스케일 조정은 객체 위치 및 크기 변화에 안정적으로 모델을 유지시키데 도움을 준다. 모자이크(mosaic), 믹스업(mix up)과 같은 증강 작업은 학습데이터를 더욱 다양화하여 복잡한 멀티모달 장면에서의 물체 감지율을 향상시킬 수 있다.
YOLOv8 모델은 PyTorch 프레임워크를 사용하여 학습하였으며, 손실 함수로 교차 엔트로피 손실과 회귀 손실을 사용하였다. Adam 최적화(optimizer)는 0.01에서 시작하여 0.001로 점진적으로 감소하는 동적 학습률 (dynamic learning rate)을 적용하였으며, 데이터셋은 모델의 성능을 평가하기 위해 80%의 학습 데이터와 20% 의 검증 데이터로 분할하였다. IoU의 평균 정밀도 0.50(mAP50)을 주 평가지표로 사용하여 모델의 탐지 성능 을 정량적으로 평가하였다. 본 연구는 COCO 데이터셋에서 학습된 YOLOv8 모델의 사전 훈련된 가중치를 기반으로 추가 학습을 수행하였다. COCO 데이터셋은 광범위한 객체 클래스(80개 클래스)에 대해 사전 학습 된 모델을 제공하므로 초기 가중치로 사용할 때 동적 교통객체에 대한 감지 성능을 향상시킨다. 또한 사전 학습된 가중치는 모델이 학습 초기 단계에서 빠르게 수렴하고 새로운 데이터셋에 대하여 보다 효과적인 일 반화(generalization)를 위한 기반을 제공한다.
YOLOv8 모델을 학습할 때 학습모델의 크기에 따라 분류되는 n(nano), s(small), m(medium), l(large), x(xtra large) 중 분석 성능 및 데이터셋 규모를 고려하여 YOLOv8n과 YOLOv8m을 함께 사용하였다. 이를 기반으로 다양한 실험조건별 동적 교통객체 감지 및 예측작업을 수행하였다. YOLOv8n의 경우 epochs(반복 학습 수) 20, Model size 6MB, Batch size 1, 추론속도(Inference speed) 70-80fps, GPU는 RTX2060을 사용하였다. YOLOv8m의 경우 epochs 20, Model size 52MB, Batch size 1, 추론속도 40-50fps, GPU는 RTX2060을 사용하였다.
2. 모델 평가방법
본 연구에서는 YOLO 모델의 성능 평가지표로 주로 사용되는 정밀도, 재현율, 그리고 mAP를 모델 평가방 법으로 사용하고자 한다. 정밀도는 알고리즘을 통해 검출한 결과에서 실제 객체와 일치한 비율이며, 재현율 은 실제 객체 중 알고리즘이 정확히 검출한 비율을 의미한다. 이는 식 1~2와 같이 계산된다(Lee and Park, 2024). 여기에서, TP는 실제 Positive, 예측 Positive 값이며, FP는 실제 Negative, 예측 Positive 값이다. FN은 실 제 Positive, 예측 Negative값이며, TN는 실제 Negative, 예측 Negative 값이다.
이렇게 계산된 정밀도와 재현율의 변화를 그래프로 표현한 것이 PR곡선(Precision-Recall Curve)이다. PR곡 선에서 그래프 선 아래쪽 면적을 계산한 것이 AP(Average Precision)이며, mAP는 AP의 평균값을 의미한다. 즉, mAP는 class별 정밀도 값의 평균값으로 다중 class 객체 감지 시나리오에서의 종합적인 모델 성능 평가를 제공하는데 강점을 갖는다. 이 중 임계값 0.50에서 정밀도를 측정하여 모델이 물체를 정확히 감지하는 능력 에 중점을 두며, 모델 성능의 광범위한 평가에 활용되는 mAP50을 주 해석에 활용하고자 한다.
Ⅳ. 실증분석
1. 실증 실험 설계
1) 데이터 수집
본 연구의 경우 다양한 실험 환경을 구축하기 위해 A 지자체의 협조를 받아 보행자를 포함한 다양한 모 빌리티가 운행되는 왕복 8차선 도로의 학원가사거리 주/야간 CCTV 영상을 확보하였다. 8차선 도로의 CCTV 영상 수집기간은 2024년 5월 30-31일이며, 수집 시간대의 경우 다량, 다종의 모빌리티 객체 데이터 확보를 위해 교통이 밀집되고 학원 하원시간대인 18시부터 22시까지로 설정하였다. 도로 규모 및 영상 유형별 비교 분석을 위해 왕복 2차선 도로에 열화상 듀얼 카메라를 설치하여 열화상 및 RGB 이미지 데이터를 수집하였 다. 열화상 카메라 설치 시 개인정보, 보안성 등 관련 협의를 통해 데이터 수집 시 발생할 수 있는 문제 소지 를 최소화하였다. 2차선 도로의 경우 8차선 도로와의 모빌리티 통행 차별성 확보를 위해 교통 운행이 비교적 한적한 이면도로로 설정하였다. 한적한 교통 통행에 따라 영상 수집기간은 2024년 2월부터 6월까지, 총 4개 월로 8차선 도로에 비해 데이터 확보기간을 보다 길게 설정하였다. 위 2개 도로에서 운행되는 동적 교통객체 의 모든 유형을 도출한 뒤, 유형별 데이터 확보 개수와 교통사고 발생 위험상황을 함께 고려하여 보행자, 차 량, 자전거, 오토바이, 전동킥보드 등 총 5개 유형을 최종 선정하였다. 테스트베드 기반의 객체 유형별 데이 터를 보강하고 IR 이미지 확보를 위해 AI-Hub의 야간 사건·사고 데이터셋을 추가로 활용하였다. <Fig. 2>는 실험에 사용된 테스트베드 내 영상 데이터이다.
2) 실험 설계
본 연구는 다양한 실험조건에서 동적 교통객체 감지 예측력을 비교하여 CCTV 운영센터 기반의 기술 실 현 및 실용화를 도모하는데 그 목적이 있다. 이에 본 연구는 총 4개 유형의 실험을 수행하고자 한다. 첫째, 주/야간 8차선 도로의 RGB 데이터, 2차선 도로의 열화상 및 RGB 데이터, AI-Hub 기반의 IR 및 열화상 데이 터 등 전체 데이터셋 기반으로 동적 교통객체 감지분석을 수행한다. 분석 시 YOLOv8n과 YOLOv8m을 비교 분석하여 학습모델의 크기별 예측력 차이를 확인한다. 전반적인 동적 교통객체 감지율 분석을 통해 실용화 가능성을 타진하고 적절한 세부 학습모델을 제시하고자 한다. 둘째, 8차선 도로를 기반으로 주, 야간 RGB 데이터의 교통객체 감지율을 비교 분석한다. RGB 이미지의 경우 야간에 광량 부족에 따른 해상도 저하가 예상됨에 따라 주/야간 예측력 및 세부적인 교통객체 유형별 차이를 확인하고자 한다. 셋째, 보행자, 차량, 오 토바이, 자전거 등 다양한 모빌리티가 동시다발적으로 감지되는 학원가 8차선 도로, 이에 반해 상대적으로 운행밀도가 낮은 2차선 이면도로의 교통객체 예측력을 비교하고자 한다. 넷째, 지자체에 주로 설치되어 있는 RGB 이미지 뿐 아니라 야간 객체 감지에 강점이 있는 열화상, IR 데이터를 비교 분석하고자 한다. 이를 위 해 2차선 도로에서의 RGB, 열화상 데이터와 AI-Hub 기반의 열화상, IR 데이터를 활용한다.
2. 데이터 통계
본 연구는 데이터 수집 경로에 따라 8차선 도로 데이터, 2차선 도로 데이터, 그리고 AI-Hub 데이터로 구성 하였다. 8차선 도로 데이터의 경우 지자체 CCTV 데이터이므로 RGB 이미지로만 수집되었으며, 주/야간 비교 분석을 위한 주간 RGB 이미지 39,504개, 야간 RGB 이미지 21,588개가 구축되었다. 2차선 도로 데이터의 경 우 이면도로에 열화상 및 RGB 이미지가 동시에 수집되는 듀얼카메라를 직접 설치하여 데이터를 수집하였 다. 이를 통해 RGB 이미지 8,652개, 열화상 이미지 3,695개 데이터를 확보하였다. AI-Hub 데이터는 부족한 모빌리티 유형의 열화상 데이터를 보강하고 IR 데이터를 추가 구축하기 위해 야간 사건·사고 데이터셋을 추 가 구축하였다. AI-Hub 기반 열화상 이미지는 52,780개, IR 이미지는 50,445개이다. 확보된 176,664개의 이미 지 데이터를 3개 유형별로 구성비를 살펴보면 RGB 이미지 39.5%(69,744개), 열화상 이미지 32.0%(56,475개), IR 이미지 28.6%(50,445개)이다. AI에 적용한 유형의 경우 학습데이터로 132,497개(75%), 검증데이터 26,500 (15%), 테스트 데이터 17,667개(10%)로 구성하였다. 본 연구에 활용된 데이터 통계는 <Table 1>과 같다.
<Table 1>
Category | Data Type | Number of Data |
---|---|---|
the 8-lane road data | Daytime RGB Images | 39,504 |
Nighttime RGB Images | 21,588 | |
the 2-lane road data | RGB Images | 8,652 |
Thermal Images | 3,695 | |
AI-Hub data | Thermal Images | 52,780 |
IR Images | 50,445 | |
Total Data | 176,664 | |
AI data types | Training Data | 132,497 |
Validation Data | 26,500 | |
Test Data | 17,667 |
3. 실험 유형별 분석결과
1) 전체 데이터셋 및 모델크기별 분석결과
8차선 도로, 2차선 도로, AI-Hub 데이터 등 모든 데이터 유형을 포함한 전체 데이터셋을 기반으로 학습모델 크기별 딥러닝분석을 수행하였다. 레이블링 된 전체 객체인 인스턴스(Instances) 104,807개에 대한 YOLOv8n의 정밀도는 0.878, 재현율 0.855, mAP50 0.921로 분석되었다. 같은 데이터셋의 YOLOv8m의 정밀도는 0.910, 재현 율 0.896, mAP50 0.952로 분석되어, YOLOv8m이 YOLOv8n보다 높은 성능을 확보됨을 알 수 있었다. 이는 보행 자, 차랑, 오토바이 등 모든 객체별 분석에서도 동일하다. 교통객체 유형별로 살펴보면, mAP50 기준 YOLOv8m 의 자동차가 0.974로 가장 높았으며, 이어서 전동킥보드 0.964, 자전거 0.962, 오토바이 0.950, 보행자 0.910 순으 로 나타났다. 전체 학습데이터의 mAP50이 95%이며, 가장 예측력이 낮게 나타난 보행자 역시 91% 이상의 양호 한 감지율을 확보할 수 있었다. 해당 분석결과는 <Table 2>와 같다.
<Table 2>
Class | Images | Instances | Precision | Recall | mAP50 | |||
---|---|---|---|---|---|---|---|---|
YOLOv8n | YOLOv8m | YOLOv8n | YOLOv8m | YOLOv8n | YOLOv8m | |||
all | 26,500 | 104,807 | 0.878 | 0.910 | 0.855 | 0.896 | 0.921 | 0.952 |
person | 15,365 | 29,221 | 0.824 | 0.853 | 0.743 | 0.823 | 0.852 | 0.910 |
bike | 4,259 | 4,352 | 0.915 | 0.934 | 0.878 | 0.926 | 0.934 | 0.962 |
car | 10,840 | 63,788 | 0.889 | 0.897 | 0.919 | 0.938 | 0.965 | 0.974 |
motorbike | 5,240 | 5,519 | 00847 | 0.913 | 0.858 | 0.867 | 0.920 | 0.950 |
E-scooter | 1,908 | 1,927 | 0.914 | 0.953 | 0.877 | 0.927 | 0.933 | 0.964 |
2) 주야간 비교분석
A 지자체에서 제공 받은 왕복 8차선 도로인 학원가사거리 CCTV에서의 주, 야간 RGB 이미지의 교통객체 감지율을 비교하고자 한다. 주간 영상의 전체 인스턴스 값은 81,163개, 정밀도 0.771, 재현율 0.810, mAP50 0.865가 산출되었다. 야간 영상의 경우 인스턴스 51,694개, 정밀도 0.760, 재현율 0.781, mAP50 0.849로 분석 되었다. 교통객체 유형별로 살펴보면, 주간의 경우 mAP50 기준 차량 감지율이 0.972로 가장 높았으며 이어 서 보행자 0.878, 오토바이 0.823, 자전거 0.788 순으로 분석되었다. 레이블링 된 데이터 개수의 차이에 따라 자전거와 오토바이는 감지성능이 낮은 것으로 판단되며, 데이터 보강 시 예측력은 보다 향상될 것으로 예상 된다. 보행자와 차량을 비교했을 때 차량이 mAP50 기준 10% 가량 높은 감지율을 나타냈다. 야간의 경우 mAP50 기준 차량 감지율이 0.976으로 가장 높았으며, 이어서 보행자 0.856, 오토바이 0.835, 자전거 0.730 순 으로 분석되었다. 전반적으로는 주간 객체 감지율이 야간보다 높게 나타났으나, 차량과 오토바이는 주간 대 비 야간 객체 감지율이 더 높게 분석되었다. 주야간 비교분석 결과는 <Table 3>과 같다.
<Table 3>
Class | Images | Instances | Precision | Recall | mAP50 | |||||
---|---|---|---|---|---|---|---|---|---|---|
Daytime | Nighttime | Daytime | Nighttime | Daytime | Nighttime | Daytime | Nighttime | Daytime | Nighttime | |
all | 10,008 | 5,427 | 81,163 | 51,694 | 0.771 | 0.760 | 0.810 | 0.781 | 0.865 | 0.849 |
person | 6,683 | 4,352 | 14,634 | 13,125 | 0.797 | 0.762 | 0.778 | 0.773 | 0.878 | 0.856 |
bike | 578 | 231 | 626 | 239 | 0.657 | 0.617 | 0.799 | 0.722 | 0.788 | 0.730 |
car | 9,916 | 5,374 | 63,676 | 37,846 | 0.884 | 0.902 | 0.939 | 0.946 | 0.972 | 0.976 |
motorbike | 1,951 | 452 | 2,227 | 484 | 0.745 | 0.757 | 0.722 | 0.729 | 0.823 | 0.835 |
3) 도로 유형별 비교분석
본 실험은 8차선 대로와 2차선 이면도로의 교통객체 예측력을 비교한다. 동일한 실험조건을 맞추기 위해 8차선 도로는 주간 시간대의 데이터셋을, 2차선 도로는 RGB 영상만을 활용하였다. 8차선 도로의 경우 정밀 도 0.771, 재현율 0.810, mAP50 0.865로 분석되었다. 이에 반해 2차선 도로는 정밀도 0.952, 재현율 0.968, mAP50 0.991로 8차선 도로 대비 높은 객체 감지율을 확보하였다. 전체 인스턴스 값이 8차선 도로 81,163개, 2차선 도로 8,807개로 직접적인 비교는 어려우나, 2차선 도로가 mAP50 기준 12.6%나 향상되어 0.991의 높은 감지율로 예측된 것은 특이점이 있다고 볼 수 있다. 도로 유형별 비교분석 결과는 <Table 4>와 같다.
<Table 4>
Class | Images | Instances | Precision | Recall | mAP50 | |||||
---|---|---|---|---|---|---|---|---|---|---|
8-lane | 2-lane | 8-lane | 2-lane | 8-lane | 2-lane | 8-lane | 2-lane | 8-lane | 2-lane | |
all | 10,008 | 2,170 | 81,163 | 8,807 | 0.771 | 0.952 | 0.810 | 0.968 | 0.865 | 0.991 |
person | 6,683 | 5,143 | 14,634 | 4,263 | 0.797 | 0.935 | 0.778 | 0.978 | 0.878 | 0.987 |
bike | 578 | 18 | 626 | 18 | 0.657 | 0.928 | 0.799 | 1.000 | 0.788 | 0.995 |
car | 9,916 | 2,041 | 63,676 | 4,508 | 0.884 | 0.944 | 0.939 | 0.963 | 0.972 | 0.988 |
motorbike | 1,951 | 18 | 2,227 | 18 | 0.745 | 1.000 | 0.722 | 0.933 | 0.823 | 0.995 |
4) 영상 유형별 비교분석
본 실험에서는 RGB, 열화상, IR 이미지 등 영상 유형별 교통객체 감지율을 비교분석하고자 한다. 2차선 이면도로에 설치된 듀얼카메라로부터 수집되는 열화상 및 RGB 데이터에 대한 비교와, AI-Hub의 도심지 야 간 사건사고 데이터셋 구축사업의 IR, 열화상 데이터를 비교 분석하였다. 첫째, 2차선 이면도로의 열화상 및 RGB 이미지 분석결과는 다음과 같다. 열화상 이미지의 경우 전체 인스턴스 값은 8,621개, 정밀도 0.860, 재 현율 0.874, mAP50 0.864로 산출되었다. RGB 이미지는 전체 인스턴스 값이 8,807개, 정밀도 0.952, 재현율 0.968, mAP50 0.991로 분석되어 열화상 이미지에 비해 높은 예측력을 보였다. 열화상 이미지 역시 mAP50 값 이 0.864로 양호한 편이나, RGB 이미지의 분석결과가 0.991의 압도적인 예측력을 나타냈다. 교통객체 유형별 로 살펴봤을 때, 보행자만 열화상이 RGB 이미지보다 더 높은 예측력을 나타낸 특징이 있다(mAP50 기준 열 화상 0.991, RGB 0.987). 열화상과 RGB 이미지 간 비교분석 결과는 <Table 5>와 같다.
<Table 5>
Class | Images | Instances | Precision | Recall | mAP50 | |||||
---|---|---|---|---|---|---|---|---|---|---|
Thermal | RGB | Thermal | RGB | Thermal | RGB | Thermal | RGB | Thermal | RGB | |
all | 3,695 | 2,170 | 8,621 | 8,807 | 0.860 | 0.952 | 0.874 | 0.968 | 0.864 | 0.991 |
person | 3,693 | 5,143 | 4,417 | 4,263 | 0.950 | 0.935 | 0.990 | 0.978 | 0.991 | 0.987 |
bike | 21 | 18 | 21 | 18 | 0.929 | 0.928 | 1.000 | 1.000 | 0.964 | 0.995 |
car | 3,226 | 2,041 | 4,179 | 4,508 | 0.972 | 0.944 | 0.996 | 0.963 | 0.981 | 0.988 |
motorbike | 4 | 18 | 4 | 18 | 0.588 | 1.000 | 0.500 | 0.933 | 0.519 | 0.995 |
둘째, AI-Hub 데이터 기반 열화상과 IR 이미지의 분석결과는 다음과 같다. 열화상 이미지의 경우 전체 인 스턴스 값이 10,217개, 정밀도 0.955, 재현율 0.944, mAP50 0.959로 산출되었다. IR 이미지는 전체 인스턴스 값이 8,798개, Precision 0.954, 재현율 0.912, mAP50 0.952로 분석되었다. 전반적으로 열화상 이미지 분석이 소폭 높은 감지율을 보였다. 하지만 교통객체 유형별로 살펴보면, 보행자는 오히려 IR 이미지가 열화상 이미 지 대비 5% 높은 감지율을 나타냈다. 열화상과 IR 이미지 간 비교분석 결과는 <Table 6>과 같다.
<Table 6>
Class | Images | Instances | Precision | Recall | mAP50 | |||||
---|---|---|---|---|---|---|---|---|---|---|
Thermal | IR | Thermal | IR | Thermal | IR | Thermal | IR | Thermal | IR | |
all | 7,956 | 7,481 | 10,217 | 8,798 | 0.955 | 0.954 | 0.944 | 0.912 | 0.959 | 0.952 |
person | 3,525 | 3,673 | 5,029 | 4,356 | 0.916 | 0.953 | 0.873 | 0.893 | 0.889 | 0.939 |
bike | 2,156 | 1,595 | 2,196 | 1,612 | 0.981 | 0.964 | 0.975 | 0.923 | 0.987 | 0.962 |
motorbike | 1,937 | 1,865 | 1,984 | 1,911 | 0.979 | 0.940 | 0.983 | 0.910 | 0.989 | 0.949 |
E-scooter | 999 | 909 | 1,008 | 919 | 0.943 | 0.957 | 0.946 | 0.920 | 0.971 | 0.960 |
4. 토의
본 장에서는 앞서 수행된 각 실험 유형별 결과를 토대로 교통사고 예방 목적의 기술 실현 및 실용화를 위 한 시사점을 정리하고자 한다. 첫째, 전체 데이터셋 및 모델 크기별 분석이다. YOLOv8m에 대해 mAP50 기 준 전체 학습데이터 0.952, 객체 유형별로는 0.910~0.974의 양호한 감지율을 확보하여, 본 교통객체 감지연구 의 실용화의 가능성을 기대할 수 있다. 학습모델 크기에 따른 분석결과를 살펴보면, mAP50을 기준으로 YOLOv8m이 YOLOv8n보다 3.1% 향상된 성능을 나타냈다. 즉, 학습모델의 크기가 클수록 예측력 역시 향상 됨을 확인할 수 있었다. 다만, 분석하는 컴퓨터의 성능, 데이터셋 유형 및 크기 등이 함께 고려되어 학습모델 의 크기를 설정해야 될 것으로 판단된다.
둘째, 8차선 학원가사거리 CCTV 영상에서의 주, 야간 비교분석이다. 전반적으로 주간의 감지율이 야간보 다 높게 나타났으며, 이는 RGB 이미지 특성 상 야간에 광량 부족에 따른 저하 문제가 반영된 것으로 판단된 다. 교통객체 유형별 분석결과, 주, 야간 모두 차량이 보행자보다 10% 가량 높게 나타났는데, 이는 학원가사 거리의 특성 상 다수의 보행자가 군집하여 횡단보도를 건너는 상황에서 보행자 감지율이 저하된 것으로 판 단된다. 향후연구에서는 다수 인원이 밀집한 상황에서의 보행자 객체 감지율 향상에 대해 검토가 필요할 것 으로 보인다. 전반적으로 주간 객체 감지율이 야간보다 높았으나, 차량과 오토바이의 경우 오히려 야간 감지 율이 높게 분석되었다. 차량과 오토바이는 야간에 전조등의 빛이 일정하게 비추므로, 해상도가 저하되는 야 간 환경에서도 객체 감지율이 향상되었을 것으로 해석된다.
셋째, 8차선 대로와 2차선 이면도로 간 도로 유형별 비교분석이다. 8차선 도로에 비해 2차선 도로의 감지 율이 mAP50 기준 12.6% 높게 나타났다. 다량, 다종의 모빌리티가 동시다발적으로 감지되는 8차선 대로의 교 통객체 감지율보다는, 상대적으로 모빌리티 운행 빈도가 낮은 2차선 이면도로의 교통객체 예측력이 높게 나 타난 것으로 해석된다. 상대적으로 대형사고 발생률이 높은 대로 교차로에서의 교통객체 감지율을 향상시키 기 위한 노력이 필요한 것으로 판단된다.
넷째, RGB, 열화상, IR 등 영상 유형별 비교분석이다. 2차선 이면도로에서의 열화상 및 RGB 간 비교분석 결과, RGB가 열화상 이미지보다 mAP50 기준 12.7% 높은 예측력을 나타냈다. 교통객체 감지만을 고려했을 때 열화상보다는 RGB 영상 관제가 적합한 것으로 판단된다. 교통객체 유형별로 살펴봤을 때, 보행자의 경우 에만 열화상이 RGB 이미지보다 소폭 높은 예측력을 나타냈다. 이는 객체 온도 기반으로 감지되는 열화상 영상 특성상 일정하게 유지되는 사람 체온에 예측력이 높아진 경향이 반영된 것으로 보인다. 이에 보행자의 야간 안전이 위협되는 장소에서는 열화상 카메라 기반 감시가 더 적합할 것으로 판단된다. AI-Hub 데이터 기반 열화상 및 IR 이미지 간 비교분석 결과, 전반적으로 열화상 이미지의 예측력이 높게 나타났다. 하지만 보행자 감지는 오히려 IR 분석이 열화상 이미지에 비해 높게 나타났는데, 이 결과는 보행자의 일정한 움직임 에 대한 감지의 경우 객체 형태와 윤곽을 보다 세밀하게 형상화할 수 있는 적외선 기반의 IR의 성능이 반영 된 것으로 해석된다. 보다 명확한 검증을 위해서 향후 추가적인 실증 실험이 필요할 것으로 판단된다.
Ⅴ. 결 론
본 연구는 교통사고 예방 목적의 CCTV 관제센터 기반 동적객체 감지 기술 실현 및 실용화를 위한 기초연 구로 YOLOv8을 활용하여 다양한 실험조건에서의 교통객체 감지율을 비교분석하였다. 전체 학습데이터셋의 mAP50은 0.952로 실용화가 기대되는 안정적인 감지율을 확보하였다. 8차선 학원가사거리의 CCTV 영상에서 주간의 전체 감지율은 야간보다 높게 나타났으나, 전조등의 빛이 일정하게 비추는 차량, 오토바이의 경우 야 간 감지율이 더 높게 나타난 특징을 보였다. 교통객체 유형별 분석결과, 보행자 감지율이 차량에 비해 10% 정도 낮게 나타났는데, 이는 학원가사거리 특성 상 다수의 보행자가 군집하여 보행한 특징 때문으로 판단된 다. 도로 크기별 분석결과, mAP50 기준 8차선 대로가 2차선 이면도로보다 12.6% 낮게 분석되었는데, 이는 다량·다종의 모빌리티가 동시다발적으로 나타나는 대로의 특징 때문으로 판단된다. 영상 유형별 분석결과, RGB가 열화상보다 높은 예측력이 나타남에 따라 전반적인 교통객체 관제에는 RGB 영상이 적합한 것으로 판단된다. 다만 보행자의 경우 열화상 영상분석이 높게 나타났는데, 이는 사람의 체온에 의해 발생되는 열이 대상의 형상을 뚜렷하게 해주는 것의 영향으로 판단되어 보행자의 야간 안전이 위협받는 곳에서는 열화상카 메라 기반 감시가 효과적일 것으로 보인다.
연구결과를 기반으로 필요한 시사점 및 향후연구를 정리하면 다음과 같다. 첫째, 본 연구는 동적 교통객체 검출을 위해 딥러닝모델의 학습크기별 비교분석 뿐 아니라 RGB 이미지의 특징을 고려한 영상 시간대 비교, 통행량을 고려한 도로 규모별 비교, RGB, 열화상, IR 등 영상 유형별 비교 등 실용화를 고려한 다양한 외부 요인을 비교분석하였다. 이는 도시 안전 요구에 맞는 안정적인 교통객체 탐지 시스템 개발의 토대를 마련한 의의가 있으며, 교통객체 검출에 있어 높은 신뢰도 확보가 필요한 지능형 교통제어 시스템과 이를 활용하는 지자체, 경찰청 등 CCTV 관제센터에서 유용한 기초자료가 될 것으로 판단된다. 둘째, 추가적으로 학원가사 거리와 같이 군집보행 및 다량·다종의 모빌리티가 출현되는 장소에서의 교통객체 감지 고도화 연구가 필요 하다. 2022년 10월에 발생한 이태원 참사(Hwang and Kim, 2024)와 같이 밀집된 군중에 의한 압사사고 예방을 위해서도 반드시 필요할 것으로 판단된다. 셋째, 야간 교통객체 감지율 향상을 위한 고도화 연구가 필요하 다. 최근 CCTV 영상기술의 발전에 따라 야간 객체 감지율이 높아지긴 했으나, 조명이 부족한 곳에서는 아직 도 야간 해상도 저하에 따른 오탐지 발생이 빈번한 상황이다. 이를 보완하기 위해 열화상 및 IR 카메라로 대 체하는 방안도 있으나, 짧은 감지거리, 낮은 해상도, 특히 지자체와 같은 운영기관의 추가적인 설비 관리의 어려움에 따라 기존 CCTV 인프라를 활용한 RGB 기반 영상분석 기술 고도화가 더욱 필요할 것으로 판단된 다. 다만, 보행자의 야간 안전이 위협되는 장소 또는 도로노면의 온도상태 파악을 통해 결빙, 이상고온(화재 포함) 등 복합적으로 관제가 필요한 곳에서는 열화상카메라를 활용하는 것이 좋은 대안일 수 있다. 넷째, 실 제 지자체의 CCTV 인프라를 활용한 본 연구 성과의 확장 및 실용화 연구가 필요하다. 본 연구에서는 동적 교통객체 감지 위주의 연구를 수행하였으나, 실질적인 교통사고 예방을 위해서는 보행자를 포함한 모빌리티 간 충돌사고와 관련한 후속연구가 반드시 필요하다. 이를 위해서는 실제 지자체 CCTV 기반 양질의 교통사 고 데이터와 충돌에 적합한 딥러닝모델의 조정작업이 필요하다.
본 연구의 한계는 다음과 같다. 첫째, 각각의 개별 실험마다의 분석조건은 동일하게 마련하고자 했으나, 모든 실험에 대한 통제는 이루어지지 않았다. 실험 내용 및 목적 상 데이터셋이 상이할 수밖에 없었으나, 분 석조건 통제 하에 단계적 실험을 수행하였으면 보다 명확한 교통객체 감지방식을 제안할 수 있었을 것이다. 둘째, 교통객체 유형이 제한적이고 유형별 데이터 수의 차이가 큰 편이다. 유형별 데이터 확보 범위 내에서 총 5개의 유형을 선정하였으나, 보행자를 비롯하여 타 교통객체의 사고 두려움을 높이는 버스, 트럭, 중장비 차량 등 대형 교통객체를 연구 데이터로 구성하지 못한 아쉬움이 있다. 또한 CCTV에서 카운팅되는 교통객 체 유형별 인스턴스의 차이가 있을 수밖에 없으나, CCTV 영상 확보에 어려움이 있어서 자전거, 전동킥보드 와 같은 모빌리티의 데이터 수는 상대적으로 적었다. 셋째, 실제 영상을 수집했던 8차선, 2차선 도로와는 다 르게 AI-Hub 데이터의 경우 도로환경이 상이한 편이었다. AI-Hub 데이터의 경우 야간 사건사고 대응을 위한 IR, 열화상 데이터셋으로 차선이 없는 으슥한 골목길이 주 공간적 범위였다. 또한 AI-Hub 데이터는 본 연구 자가 정제한 테스트베드 데이터와는 다소 다르게 데이터셋이 구축된 차이가 있다. 향후 연구의 한계를 극복 하고 기술 실현 및 실용화를 위한 후속연구가 지속적으로 진행되어 국민안전을 위한 지능형 교통관제가 이 루어지길 기대한다.