Ⅰ. 서 론
1. 연구의 배경 및 목적
자율주행차 시장은 2024년부터 2033년까지 연평균 35%의 성장률을 보일 것으로 전망된다(Precedence Research, 2024). 현재 자율주행 기술은 SAE(Society of Automotive Engineers) 기준 2~3단계 수준에 머물러 있 다. 2단계 자율주행은 차량이 자동으로 가속, 제동, 조향을 수행할 수 있으나, 운전자는 여전히 차량을 지속 적으로 모니터링하고 필요 시 개입할 준비가 되어 있어야 한다. 2021년 3월 일본의 혼다가 세계 최초로 3단 계 자율주행차를 출시하였으며, 독일의 메르세데스-벤츠가 2022년에 뒤를 이으며 기술 발전이 계속되고 있 다(Liberty Advisor Group, 2024). 3단계는 2단계보다 발전된 기술이지만, 완전한 자율구간 이외의 상황에서는 여전히 운전자의 개입이 필요하다. 특히 복잡한 도시 환경이나 다양한 외부 조건에서는 ‘시스템이 작동을 중 단하는 현상(disengagement)’이 발생할 수 있어 자율주행 기술의 신뢰성 확보에는 여전히 한계가 존재한다. 자율주행은 센서 기반의 독립형(stand-alone, SA) 주행에 의존하고 있으나, 도로 인프라 지원이 부족할 경우 시스템의 작동 중단 가능성이 높아져 안전에 심각한 영향을 줄 수 있다(Liu et al., 2021). 따라서 안전한 자율 주행을 위해서는 센서 기술의 발전뿐만 아니라 도로 인프라의 정비와 지원 또한 병행되어야 한다.
자율주행에서 핵심적인 역할을 하는 첨단 운전자 지원 시스템(Advanced Driver Assistance Systems, ADAS) 는 차선 유지 보조 시스템(Lane Keeping Assistance Systems, LKAS), 지능형 크루즈 컨트롤(Adaptive Cruise Control, ACC), 긴급 자동 제동 시스템(Automatic Emergency Braking, AEB), 후측방 경보 시스템(Blind Spot Detection, BSD) 등 운전 편의성과 안전성을 높이기 위한 다양한 기능으로 구성된다(Bhagat et al., 2023). 이 중 LKAS는 자율주행을 위한 핵심 기술로 자주 언급되며, 조향 제어를 통해 차량이 차선을 이탈하지 않도록 도와주고, 장거리 또는 정체 구간 주행 시 운전자 피로로 인한 사고 위험을 줄여준다. 그러나 LKAS는 작동 이 중단되면 차량 제어권이 갑작스럽게 운전자에게 돌아가 사고 위험이 커질 수 있기 때문에, 시스템의 지속 적인 작동을 위한 조건이 매우 중요하다(Karthikeyan et al., 2020).
LKAS가 안정적으로 작동하기 위해서는 차선이 명확하게 유지되어야 하며, 이는 자율주행차가 문제없이 주행 가능한 상태를 의미하는 차선의 ‘건전성(안전성)’ 평가를 필요로 한다. 차선의 ‘건전성(안전성)’이란, 자 율주행 차량이 차선을 정확히 인식하고 안정적으로 주행을 유지할 수 있는 상태를 의미하며, 물리적 마모, 도색 훼손, 오염 등에 의해 시인성이 저하되지 않고 기능적으로 정상 작동할 수 있는 조건을 포함한다. 즉, 차선의 물리적 상태와 영상 기반 인식 가능성이 모두 충족된 상태를 ‘건전하다’고 판단하는 것이다. LKAS는 차선이 불분명하거나 마모된 도로에서 더 자주 비활성화되며, 이는 주로 차선 인식 오류나 복잡한 도로 환경 에 기인한다 (Wang and Li, 2021;Bhagat et al., 2023). 따라서 LKAS의 안정적 작동을 위해서는 차선 상태를 실시간으로 평가하고 관리하는 것이 중요하며, 이를 위해 현장에서 신속하게 차선을 식별할 수 있는 알고리 즘 개발이 필요하다. 선행연구에 따르면 바운딩 박스를 활용한 차선 탐지 및 훼손 평가 방식은 빠르고 효과 적인 방법으로 알려져 있으며(Harshitha et al., 2023), 영상 수집 장비는 자율주행 환경을 캡처하는 데 적합하 다(Caesar et al., 2020). 특히 도로 환경 내 차선 탐지에서는 YOLO 알고리즘이 기존 합성곱 신경망(CNN) 기 반 방법보다 높은 평균 정밀도를 보였으며(Mohanapriya et al., 2021), 복잡한 도로 환경에서 객체 식별 정확도 가 가장 높은 것으로 나타났다(Malik et al., 2021).
본 연구는 자율주행 차량의 인프라 환경 내에서 도로 유지보수를 지원하기 위한 영상 기반 차선식별 알고 리즘을 개발하는 것을 목적으로 한다. 특히, 자율주행 시스템의 안정성을 저해하는 요인 중 하나인 ‘차선 마 모 및 손상’에 효과적으로 대응하고, 유지보수 대상 차선을 자동으로 식별할 수 있는 기술을 제안하였다.
본 연구에서 개발한 알고리즘은 먼저 영상 수집 장비로부터 확보된 차선 이미지에서 차선 식별을 방해하 는 요소들을 별도의 class로 정의한 후, 바운딩 박스와 클래스 확률을 하나의 회귀 문제로 처리하여 YOLO 알고리즘(Redmon et al., 2016)을 통해 객체의 종류와 위치를 동시에 탐지할 수 있도록 하였다. 본 연구는 기 존 연구들이 주로 컴퓨터공학 또는 기계공학 관점에서 차선 탐지 정확도를 높이는 데 집중한 것(Al Mamun et al., 2022;Behrendt and Witt, 2017;Getahun et al., 2021;Malik et al., 2021)과 달리, 교통공학적 관점에서 자 율주행의 안전성을 확보하기 위한 차선 식별에 초점을 맞추었다. 이는 자율주행차의 기능적 요소와 독립적 으로 접근한 연구로, 향후에는 자율주행 안전을 위한 차선 건전성 평가 알고리즘 개발로 확대될 예정이다. 본 연구는 자율주행 관련 유지관리 목적의 차선 안전성 평가를 시도한 최초의 연구로서 정책결정에 활용 가 능한 표준화된 차선 평가 기준 수립에 기여할 수 있을 것으로 기대된다.
2. 연구의 범위
본 연구의 시간적 범위는 자율주행 중 발생 가능한 다양한 환경 조건(계절, 조도, 기상 등)을 모두 반영하 기 위해 2021년 10월부터 2022년 10월까지 총 1년간 설정되었으며, 이 중 실제 조사는 10개월간 수행되었고, 잔여 2개월은 보완조사 및 누락 구간 점검을 위한 예비 일정으로 계획되었다.
공간적 범위는 서울특별시에 위치한 7개 도시고속도로(올림픽대로, 강변북로, 서부간선도로, 동부간선도 로, 내부순환로, 북부간선도로, 강남순환로)로, 총 157.6km의 구간에서 데이터를 수집하였다. 총 주행 거리 누 적 값은 20,172km이며, 총 896건의 데이터가 수집되었다.
내용적 범위는 자율주행 중 차선 마모나 인식 오류로 인해 시스템이 해제되는 상황을 분석하고 이를 해결 하기 위한 기술 개발에 있다. 이를 위해, 먼저 기존의 차선 검출 방법론을 검토하고 효과적인 방법론 선정 후 자율주행 영상 수집 장비를 구축하여 원시 데이터를 수집하고 수집된 데이터를 정제 및 전처리하여 자율 주행 해제의 주요 위험 요인을 도출하였다. 이후 해당 위험 요인을 자동으로 탐지할 수 있는 YOLO 기반 알 고리즘을 설계하고 이를 다양한 환경에서 성능 평가함으로써 자율주행 인프라 유지보수를 위한 기술적 타당 성과 실효성을 검증하였다.
3. 연구수행 흐름
본 연구는 선행연구 고찰에 따른 방법론 결정 후 두 가지 주요 단계로 구성된다. 첫 번째 단계는 학습 데 이터셋 구축을 위한 원시 데이터 수집 및 전처리 과정이며, 두 번째 단계는 구축된 데이터를 활용한 학습과 성능 평가 및 차선 식별(Lane Identification) 단계이다. 전체 연구 흐름은 <Fig. 1>과 같다.
Ⅱ. 관련 이론 및 선행연구 고찰
1. YOLO 알고리즘 개요
YOLO(You Only Look Once) 알고리즘은 실시간 객체 탐지 분야에 혁신을 가져온 딥러닝 기반 모델로 평 가받고 있다(Meyer et al., 2021). 이 알고리즘은 단일 신경망 연산을 통해 객체 탐지를 수행함으로써 매우 빠 른 속도를 제공한다. 기존의 객체 탐지 방식은 이미지 내 다수의 영역을 반복적으로 탐색해야 하는 반면, YOLO는 전체 이미지를 한 번에 처리함으로써 속도 면에서 큰 장점을 가진다. 본 연구에서는 YOLOv5를 활 용하였다. YOLOv5는 최신 버전에 비해 정확도가 다소 낮을 수 있으나, 경량화된 구조와 높은 처리 효율성 으로 다양한 테스트를 통해 그 유효성이 입증되었다(Redmon et al., 2016). YOLO 알고리즘을 활용한 객체 탐 지의 적절성과 정확도는 다음 세 가지 지표를 통해 평가된다. 첫째, 정밀도(Precision, 수식 (1))는 모델이 양성 으로 예측한 결과 중 실제 양성의 비율을 의미한다. 둘째, 재현율(Recall, 수식 (2))은 실제 양성 중 모델이 올 바르게 예측한 비율을 나타낸다. 마지막으로 평균 정밀도(mAP, mean Average Precision, 수식 (3))는 정밀도- 재현율 곡선 하의 면적을 계산하여, 모든 재현율 수준에서의 정밀도의 평균을 나타낸다.
2. 선행연구 고찰
1) 차선 검출에 관한 연구
차선 유지 보조 시스템(LKAS)의 정확도를 향상시켜 자율주행의 안전성을 확보하기 위한 차선 검출 연구 는 활발히 진행 중이다. 대표적으로, ADAS 기능에 필수적인 차선 검출을 위해 자동 라벨 생성, 완전 합성곱 신경망(FCN) 학습, 라벨 품질 점검, 실시간 처리를 포함한 딥러닝 기반 방법이 제안되었으며(Behrendt and Witt, 2017), 수작업 없이 대규모 학습 데이터를 생성할 수 있는 기술이 도입되었다. 또한, 경량화된 CNN 모 델을 활용해 높은 처리 속도와 낮은 오검출률을 달성함으로써 자율주행 차량의 실시간 차선 검출 요구를 충 족시켰다(Getahun et al., 2021). 복잡한 도로 환경에서도 실시간 차선 검출과 차선 오프셋 추정을 가능하게 하 는 다중 해상도 공간 합성곱 알고리즘이 개발되었으며, 이는 다양한 해상도에서의 정확도를 향상시키고, 차 선 소실 구간에서의 검출률 저하 문제를 개선하였다(Liang et al., 2024). 아울러, CNN, LaneNet, SCNN, CNN-LSTM 등 다양한 딥러닝 기반 차선 인식 기법이 비교된 결과, 차선 손상이 인식 성능에 큰 영향을 미친 다는 점이 확인되었다(Al Mamun et al., 2022).
이처럼 기존 연구들은 주로 컴퓨터공학 및 기계공학 관점에서 LKAS의 인식 정확도를 높이기 위한 기술 적 접근에 집중되어 있으며, 도로 인프라 개선의 관점에서 차선을 식별하는 연구는 상대적으로 부족한 실정 이다.
2) 교통공학 분야의 YOLO 기반 모델에 관한 연구
YOLO(You Only Look Once) 알고리즘은 Redmon et al.(2016)에 의해 처음 제안된 객체 탐지 알고리즘으로 서 단일 신경망을 통해 전체 이미지를 한 번에 처리하는 방식을 채택하여 기존의 탐지 기법에 비해 계산 효 율성과 처리 속도를 획기적으로 향상시켰다. YOLO는 뛰어난 객체 탐지 성능으로 인해 자율주행, 보안 감시, 의료 영상, 로보틱스 등 다양한 분야에서 널리 활용되고 있다(Bhagat et al., 2023;Gao et al., 2024;Kunekar et al., 2023;Terven and Cordova-Esparza, 2023).
교통공학 분야에서도 YOLO 알고리즘은 여러 응용에 적용되고 있으며, 대표적으로 교차로에서 차량 대기 시간을 최소화하기 위한 교통신호 제어 시스템이나, 차량을 실시간으로 인식하여 신호를 조절하는 지능형 교통관리 시스템 등이 있다(Mohanapriya et al., 2021;Kim and Park, 2017). 또한, 도로 유지보수와 같은 돌발 상황에 대비해 교통 콘 인식을 위한 데이터셋 구축 연구도 진행되고 있다(Karthikeyan et al., 2020).
그러나 교통공학 분야에서는 영상 기반 분석 기법을 활용한 연구가 타 분야에 비해 상대적으로 적으며, 특히 자율주행차의 안전 확보를 위한 도로 인프라의 점검 및 유지관리 측면에서 YOLO 알고리즘을 적용한 연구는 거의 전무한 실정이다. 본 연구는 단순한 차선 탐지 정확도 향상에 그치지 않고, 자율주행 중 해제된 실제 구간에서 수집한 데이터를 기반으로 차선 마모 및 훼손 등 시인성 저하 요인을 정량화하고, 이를 통해 차선 안전성(건전성)을 평가할 수 있는 알고리즘을 개발하였다. YOLO 알고리즘의 높은 객체 인식 성능을 활 용하여 차선을 효과적으로 분류하고, 자율주행 해제의 주요 원인을 자동으로 탐지할 수 있도록 설계함으로 써, 기존의 탐지 중심 연구에서 나아가 자율주행 인프라의 유지보수 효율성과 실시간 도로 상태 진단 가능성 을 제시한다는 점에서 차별성을 갖는다. 또한, 차선 상태를 정량적으로 평가함으로써 문제 구간을 조기에 파 악하고, 자율주행 주행 안정성 확보에 실질적으로 기여할 수 있다.
Ⅲ. 데이터 수집
1. 원시 데이터 수집
자율주행 인프라의 안전성 검토를 위한 기초 차선 식별 및 분류 알고리즘을 개발하기 위해, 자율주행 2단 계에서 2.5단계 수준의 차량에 광학 장비를 설치하여 데이터를 수집하였다. 차량 내부에서는 LKAS(Lane Keeping Assist System) 해제 관련 정보를, 외부에서는 해제 순간의 주행 영상을 촬영하였다. 또한, LKAS 및 ADAS 해제의 구체적 원인을 파악하기 위해 특정 GPS 좌표에서 해제 사유를 입력할 수 있는 전용 앱을 개 발·활용하였으며, 그 구성은 <Fig. 2>에 제시하였다.
2. 전처 리 과정
수집된 데이터를 학습용 데이터셋으로 활용하기 위해 전처리 작업이 수행되었으며, 전체 전처리 알고리즘 과 작업 흐름은 <Fig. 3>과 같다.
-
(초기화) 영상 데이터와 앱 로그의 타임스탬프를 동기화한다.
-
영상 데이터가 입력되면, YOLO 및 KNN 알고리즘을 활용하여 데이터베이스를 생성하고, 이를 모든 주 행 경로에 대해 반복 수행한다.
-
Pandas 라이브러리를 활용하여 앱 로그 데이터를 기반으로 별도의 데이터베이스를 구축하고, 이 또한 모든 주행 경로에 대해 반복 수행한다.
-
영상 DB와 앱 DB의 조사 시점을 일치시켜 통합 데이터베이스를 구축한다.
-
통합 DB를 외부 영상의 조사 시점과 매칭하여 차선 손상 시점이 포함된 이미지를 반복적으로 추출한다.
-
추출된 이미지에 대해 다음 기준에 따라 라벨링을 수행한다.
수집된 내부 영상 데이터는 K-최근접 이웃 알고리즘(K-Nearest Neighbors, KNN)과 YOLO 알고리즘을 활용 하여 데이터베이스로 구축되었다. 이 과정에서는 영상 내 날짜 및 시간을 분석하고 LKAS 및 LFA 기능을 검 토하기 위한 관심 영역(Region of Interest, ROI)을 설정하였다. 이후 자율주행 해제 원인을 기록한 앱 데이터 를 내부 영상 DB와 병합하여 통합 데이터베이스를 구성하였다. 이 통합 DB를 통해 자율주행 해제의 원인과 시점을 동시에 식별할 수 있다. 전체 병합 및 처리 과정은 <Fig. 4>와 같으며, 데이터 병합은 Python의 pandas 라이브러리를 활용하여 수행되었다.
병합된 DB를 활용함으로써 자율주행 중 ADAS 시스템이 해제된 시점의 외부 영상 데이터를 정확히 식별 할 수 있다. 해당 타임스탬프를 외부 영상과 매칭함으로써 객체 분류를 위한 이미지 추출이 가능해진다. 조 사 결과, 자율주행 중 ADAS 해제의 주요 원인은 ‘급커브(Sharp curve)’와 ‘마모된 차선(Faded Lane)’으로 확인 되었다. 특히, 차선의 상태는 자율주행차의 독립형(Stand-Alone, SA) 주행 성능에 중대한 영향을 미치는 요인 이며, 마모되거나 훼손된 차선은 자율주행 시스템의 안정성에 심각한 문제를 야기할 수 있다. 이에 따라 차 선의 상태를 정확하게 평가하는 작업은 적절한 유지관리를 위해 필수적이며, 문제 구간에 대한 영상 추출이 선행되어야 한다.
본 연구에서는 마모된 차선 발생 시점의 영상을 추출하여 자율주행이 어려운 구간 식별 및 도로 유지관리 수준을 평가하는 데 활용하였다. 수집된 영상 데이터는 자율주행 해제와 무관한 구간이 다수 포함되어 있었 기 때문에 LKAS가 해제된 시점을 기준으로 전처리 작업을 수행하였다. 그 결과, ‘마모된 차선’이 발생한 시 점부터 초당 10프레임(10fps)으로 분할하여 총 330장의 이미지를 추출할 수 있었다. 내부 DB와 외부 영상 간 의 시간 매칭을 통해 이미지가 추출된 결과는 <Fig. 5>와 같다.
자율주행 인프라 내에서 높은 객체 인식 정확도를 유지하기 위해서는 차선 마킹과 기타 객체 간의 혼동을 방지하고 정상 차선과 문제 차선 모두를 일관되게 차선으로 인식할 수 있도록 다양한 객체를 정확히 구분하 는 것이 필수적이다. 특히, 차선을 분절된 형태(segmented shapes)로 명확히 구분함으로써 라벨링 박스 내에서 의 이미지 추출이 가능해지고 이는 향후 차선 손상 정도를 정량화하여 차선 상태를 평가하는 데 유용한 기 반이 된다.
오탐(false positive)을 줄이기 위해 단일 클래스가 아닌 다중 클래스 기반의 라벨링이 보다 효과적인 것으 로 나타나는데. 이에 본 연구에서는 ‘차선(lane)’ 클래스 외에도 ‘노면표시(road markings)’, ‘얼룩(stains)’, ‘안전 지대(safety zones)’ 등의 추가 클래스를 포함하여 차선 식별의 정확도를 향상시키고자 하였다. 라벨링 작업은 YOLO 알고리즘 분석 시 일반적으로 활용되는 ‘LabelImg’ 툴을 사용하여 수행되었으며, 객체식별 알고리즘 에 따른 객체구분 예시는 <Fig. 6>과 같다.
Ⅳ. 차선식별 알고리즘 개발 및 평가
1.알고리즘 개발 결과
1) 차선식별 알고리즘 처리 흐름
차선식별 알고리즘의 처리 흐름은 <Fig. 7>과 같으며, 각 단계의 기준은 다음과 같다.
-
라벨링된 이미지를 삽입하고 데이터 증강(Data Augmentation)을 수행한다. 이 과정은 전체 이미지에 동 일하게 적용된다.
-
이미지를 학습용(60%), 검증용(20%), 테스트용(20%)으로 분할한다.
-
이미지 학습 프로세스를 시작한다(Train.py 실행). 학습 과정에서는 실제 라벨(Ground Truth)과 예측 라 벨 간의 교차 영역 비율(IOU, Intersection Over Union)을 반복적으로 계산하며, 손실 함수(Loss Function) 를 계산하고 클래스별 신뢰도(Class Confidence)를 산출한다. 또한, 중복 객체 제거를 위한 비최대 억제 (Non-Maximum Suppression)를 적용한다.
-
학습이 완료되면 최적 가중치 파일(optimal weight file)이 생성된다.
-
이후 새로운 이미지를 삽입하여 검증을 수행하고 (detect.py 실행), 객체 탐지를 수행한다.
-
최종 탐지 결과를 도출한다.
2) 차선식별 알고리즘 훈련 및 성능평가 결과
추출된 330장의 이미지는 데이터 증강을 통해 학습에 활용되었다. 이미지 증강(Image Augmentation)을 통 해 데이터셋의 크기를 증가시킴으로써, 특정 데이터에 대한 모델의 과적합(overfitting)을 방지하고 다양한 변 형을 반영한 일반화 능력을 향상시킬 수 있다. 증강은 Python의 OpenCV 라이브러리를 활용하여 수행되었으 며, 원본 330장의 이미지를 총 2,790장으로 증가시켰다. 이때 이미지뿐만 아니라 해당 라벨링 파일도 함께 증 강하여 라벨 정보와 이미지 수의 일관성을 유지하였다. 증강된 이미지의 결과는 <Fig. 8>과 같다.
학습을 위해 증강된 이미지는 80%를 학습용, 20%를 검증용으로 분할하였으며, 이 중 학습용 데이터의 20%를 추가로 테스트셋으로 활용하였다. 학습은 13세대 Intel(R) Core(TM) i9-13900HK (2.60GHz) 프로세서와 NVIDIA GeForce RTX 4080 그래픽 환경이 갖춰진 시스템에서 수행되었다. YOLOv5 모델 중 가장 높은 정확 도를 제공하는 YOLOv5xl 모델이 사용되었으며, 학습 시간은 다소 길지만 정확도 측면에서 최적의 성능을 제공하는 장점이 있다. 총 100 에폭(epoch)에 걸쳐 학습이 진행되었다.
모델 성능 지표는 <Tabel 1> 및 <Fig. 9>에 제시되어 있으며, 정밀도(Precision), 재현율(Recall), mAP@0.5 값이 모두 91%에서 96% 사이로 나타나 모델의 높은 적합도를 확인할 수 있었다. 또한, Training 및 Validation 과정에서의 객체 손실률(Object Loss Ratio)은 약 2~3% 수준으로 매우 낮게 유지되었다.
<Table 1>
Model Performance Metrics
Train_object loss | Val_object loss | Precision | Recall | mAP_0.5 |
---|---|---|---|---|
0.029 | 0.038 | 0.963 | 0.917 | 0.949 |
클래스별 예측 정확도는 ‘차선(Lane)’은 97%, ‘노면표시(Road marking)’는 93%, ‘얼룩(Stain)’은 92%, ‘안전 지대(Safety zone)’는 97%로 높은 정확도를 나타냈다.
3) 차선식별 알고리즘 검증
개발된 알고리즘의 일반화 성능(generalizability)을 평가하기 위해서는 새로운 차선 이미지에 대한 예측 정 확도를 확인하는 것이 중요하다. 이에 따라 성능 테스트를 위해 KITTI 데이터셋과 Tusimple 데이터셋에서 각 각 6장의 간선도로 이미지를 추출하여 검증을 수행하였다.
검증 결과는 <Fig. 10>과 같으며, 예측된 객체 위치의 정확도를 나타내는 평균 교차 영역 비율(Intersection over Union, IOU)은 0.45~0.73 범위로 분석되어 양호한 성능을 나타냈다.
<Fig. 11>에 제시된 클래스별 혼동 행렬(confusion matrix) 분석 결과, 본 알고리즘은 특히 차선(Lane) 검출 에서 우수한 성능을 보였다. 총 181개의 차선을 정확하게 탐지하였으며, 오탐(false positive) 4건(차선이 아닌 영역을 차선으로 잘못 인식한 경우), 미탐(false negative) 5건(실제 차선을 인식하지 못한 경우)만이 발생하였 다. 한편, 화살표(Arrow) 탐지에서는 보통 수준의 성능을 보였으며, 정탐(true positive) 7건, 오탐 5건, 미탐 3 건이 발생하였다. 노면표시(Road Marking) 클래스의 경우, test 데이터셋에 실제로 라벨링된 노면표시가 존재 하지 않아 정탐(true positive) 및 미탐(false negative)은 없었으며, 오탐 1건만 발생하였다. 이는 알고리즘이 노 면표시가 아님에도 불구하고 해당 영역을 노면표시로 잘못 탐지한 사례로써 전반적으로는 노면표시와 일반 영역을 효과적으로 구분하고 있음을 나타낸다. 마지막으로, 안전지대(Safety Zone) 클래스의 경우도 테스트 데이터에 해당 객체가 라벨링되어 있지 않아 정탐, 오탐, 미탐 모두 발생하지 않았다. 이는 안전지대가 아님 에도 불구하고 이를 잘못 탐지하는 사례가 전혀 없었음을 의미하며, 알고리즘이 안전지대를 다른 객체와 정 확히 구분하고 있음을 시사한다.
각 클래스별 정탐(True Positive), 오탐(False Positive), 정음성(True Negative), 미탐(False Negative) 에 대한 세 부적인 설명은 다음과 같다.
-
정탐(True Positive, TP): 알고리즘이 해당 클래스를 정확히 탐지한 경우
-
오탐(False Positive, FP): 알고리즘이 해당 클래스가 아님에도 잘못 탐지한 경우
-
정음성(True Negative, TN): 알고리즘이 해당 클래스가 없음을 정확히 예측한 경우
-
미탐(False Negative, FN): 알고리즘이 해당 클래스가 존재함에도 탐지하지 못한 경우
각 이미지에 대한 정밀도(Precision), 재현율(Recall), mAP@0.5 기반의 세부 예측 정확도는 <Table 2>와 같 다. KITTI #1, KITTI #3, Tusimple #1, Tusimple #2는 정밀도, 재현율, mAP@0.5 수치가 모두 0.95 이상으로 일 관되게 높은 성능을 나타냈다. 이는 해당 이미지들에서 객체 또는 차선을 높은 정확도로 탐지하였으며, 예측 된 바운딩 박스와 실제 라벨 간의 정합률이 매우 우수함을 의미한다. 예를 들어, Tusimple #1의 경우 정밀도 0.97, 재현율 0.96, mAP 0.96을 기록하였으며, 차선 등의 객체가 명확하게 보이고 주변 환경 간섭이 적어 모 델이 바운딩 박스를 정확하게 예측하기에 용이한 이미지였다.
<Table 2>
Performance Metrics Analysis for Evaluation Images
Image | Precision | Recall | mAP_0.5 |
---|---|---|---|
KITTI #1 | 0.97 | 0.96 | 0.96 |
KITTI #2 | 0.86 | 0.84 | 0.83 |
KITTI #3 | 0.97 | 0.96 | 0.98 |
KITTI #4 | 0.88 | 0.85 | 0.85 |
KITTI #5 | 0.89 | 0.86 | 0.87 |
KITTI #6 | 0.80 | 0.75 | 0.80 |
Tusimple #1 | 0.98 | 0.97 | 0.96 |
Tusimple #2 | 0.96 | 0.96 | 0.98 |
Tusimple #3 | 0.97 | 0.78 | 0.96 |
Tusimple #4 | 0.98 | 0.83 | 0.97 |
Tusimple #5 | 0.96 | 0.96 | 0.98 |
Tusimple #6 | 0.56 | 0.54 | 0.53 |
Average | 0.90 | 0.86 | 0.89 |
반면, 가장 낮은 성능을 보인 이미지는 Tusimple #6으로, 정밀도 0.56, 재현율 0.54, mAP 0.53으로, 다른 이 미지들과 비교해 성능이 뚜렷하게 저하된 것으로 나타났다.
특히 낮게 나타난 mAP 값은 모델이 차선의 바운딩 박스를 정확하게 예측하는 데 어려움을 겪었음을 시사 한다. 이러한 성능 저하는 주로 이미지 내 환경적 요인, 특히 양광 반사(glare)로 인한 탐지 난이도 증가에 기 인한다. 해당 이미지에서는 차선이 강한 햇빛에 의해 가려지거나 왜곡되어 나타나, 모델이 차선을 정확하게 식별하고 정밀한 바운딩 박스를 생성하는 데 실패하였다. 이와 같은 사례는 <Fig. 12>와 같다.
4) 기존 연구와의 비교분석
개발된 알고리즘과 기존 차선 검출 연구들과의 정량적 성능 비교는 <Tabel 3>과 같다. 본 연구에서 달성 한 정밀도(Precision)는 0.90으로서 Meyer et al.(2021)의 0.86을 상회하며, Behrendt et al.(2017)의 0.74, Kim and Park(2017)의 0.37에 비해 현저히 높은 값을 기록하였다. 이는 본 연구의 알고리즘이 차선 검출 정확도가 더 높고 오탐률(False Positive Rate)이 낮다는 것을 나타내며, 특히 Kim and Park(2017)의 모델에 비해 잘못된 차 선 인식 가능성을 크게 줄였음을 의미한다.
<Table 3>
Comparison of evaluation indicators with other studies
Author | Method | Precision | Recall | mAP_0.5 |
---|---|---|---|---|
Ours | bounding box | 0.96 | 0.92 | 0.95 |
Meyer et al., (2021) | polyline | 0.86 | 0.81 | - |
Behrendt et al., (2017) | Segmentation | 0.74 | 0.43 | - |
Wang et al., (2021) | Segmentation | 0.79 | 0.98 | - |
Kim and Park (2017) | Segmentation | 0.37 | 0.67 | - |
Zhang et al., (2018) | bounding box | - | - | 0.88 |
재현율(Recall)의 경우, 본 연구는 0.86을 기록하였으며, 이는 Wang et al.(2021)의 0.98에는 다소 미치지 못 하나, Behrendt et al.(2017)의 0.43보다는 크게 상회하는 수치이다. 이는 일부 차선을 놓칠 수는 있으나, 대부 분의 주행 상황에서 안정적으로 차선을 검출할 수 있음을 시사한다.
마지막으로 mAP@0.5 값은 0.89로서 Zhang et al.(2018)의 0.88과 거의 유사한 수준이다. 이는 복잡한 구조 의 모델을 사용하지 않고도 바운딩 박스 방식만으로도 높은 성능을 달성할 수 있음을 보여주며, 연산 자원 소모를 최소화하면서도 정밀한 차선 검출이 가능함을 입증한다.
Ⅴ. 결론 및 향후 연구방향
1. 결론
본 연구는 자율주행 차량의 안정적인 주행을 위해 도로 인프라 내 차선 식별과 상태 평가의 중요성을 강 조하였다. 실제 자율주행 차량을 도심 주요 간선도로에서 운행하며 수집한 데이터를 기반으로 자율주행 시 스템 해제의 주요 원인이 ‘급커브’ 및 ‘마모된 차선’임을 규명하였다. 이에 대응하기 위해 차선을 타 객체와 구별할 수 있는 학습 데이터셋을 구축하고 YOLOv5xl 기반의 차선 식별 알고리즘을 개발하였다.
알고리즘의 학습 결과, 정밀도(Precision), 재현율(Recall), mAP@0.5가 91%~96% 범위의 높은 정확도를 보였으며, 주요 클래스(차선, 노면표시, 화살표, 안전지대)의 예측 정확도도 92%~97%로 우수하였다. 또한, KITTI 및 Tusimple 과 같은 외부 데이터셋을 통해 모델의 일반화 성능을 검증한 결과, 대부분의 이미지에서 높은 탐지 성능을 유지하였다. 특히 Tusimple #1, KITTI #1 등의 이미지에서는 정밀도와 재현율이 95% 이상을 기록하였다.
기존 연구와의 비교에서도 본 연구의 알고리즘은 정밀도 90%로, Meyer et al.(2021)의 86%, Behrendt et al.(2017)의 74%, Kim and Park(2017)의 37%보다 높은 성능을 보였으며, 복잡한 모델이 아닌 YOLOv5x의 상 대적으로 단순한 구조를 사용하면서도 mAP@0.5는 89%로 Zhang et al.(2018)의 88%과 유사한 수준을 달성하 였다. 이는 연산 자원 소모를 줄이면서도 높은 정확도를 확보한 효율적인 차선 식별 방법임을 입증한다.
2. 한계점 및 향후 연구방향
본 연구는 자율주행차의 안전 운행을 위협하는 주요 인프라 요인 중 하나인 차선 상태를 정확히 인식하기 위한 알고리즘을 개발하고, 다양한 환경에서의 탐지 성능을 검증함으로써 의미 있는 성과를 도출하였다. 그 러나 다음과 같은 한계가 존재한다.
첫째, 학습에 사용된 데이터는 서울 도심 내 특정 도로 구간에서 수집된 것으로, 기후 변화, 야간 및 악천 후, 비도심 지역 등 다양한 환경 조건을 충분히 반영하지 못하였다. 이러한 제한된 데이터 구성은 알고리즘 의 일반화 능력을 평가하는 데 제약을 줄 수 있다.
둘째, 일부 이미지에서는 태양광 반사(glare), 그림자, 노면 오염 등 환경적 요인으로 인해 차선의 시인성이 저하되었으며, 이로 인해 알고리즘의 성능이 급감하는 현상이 확인되었다. 이는 실제 주행 환경에서 알고리 즘이 일정 수준 이상의 강인성을 확보하기 위해서는 추가적인 개선이 필요함을 시사한다.
셋째, 본 연구의 알고리즘은 차선의 식별(detection)에 중점을 두고 있으며, 식별된 차선의 정상·손상 여부 를 판단하거나 정량적으로 평가하는 기능은 포함되어 있지 않다. 이는 유지관리의 실질적 활용 측면에서 기 능적 확장성이 요구되는 부분이다.
따라서 향후 연구에서는 식별된 차선의 상태를 정량적으로 평가할 수 있는 방법론을 구축하고 픽셀 점유 율, 색상 대비, 경계 불연속성 등의 시각적 지표를 활용하여 차선의 손상 여부를 판별할 수 있는 기준을 마 련할 필요가 있다. 이를 통해 차선의 단순 탐지를 넘어, 자율주행 인프라의 실시간 유지관리와 안전성 향상 에 기여할 수 있는 통합 진단 체계로의 확장이 가능할 것으로 기대된다.