Ⅰ. 서 론
1. 연구개요
자율주행기술은 기존 교통의 안전성과 효율성을 혁신적으로 변화시킬 핵심 성장 동력이기에 지속적인 연 구개발과 경제성을 갖춘 상용화 기술개발에 집중하고 있다. 실제 환경 즉, 안개·비·눈·야간과 같은 일반 도로 환경에서 카메라, 라이다, 레이다 등 차량 센서는 객체 인지 오류를 발생시킨다. 특히 카메라 기반 자율주행 시각 인지 과정에서 흔히 발생하고 있다. 또한 본 논문의 연구 대상으로 도로 표면 파손 영역을 인지하는 기 능이 요구되고 있음에도 불구하고 현재 자율주행차를 대상으로 하는 도로파손 탐지 기능을 적용한 사례는 매무 드물다. 최근 테슬라를 중심으로 시각인지 기반 도로 파손 탐지 기능을 추가하려는 시도가 확인되고 있 으며, 이는 자율주행차의 경우 도로 표면 손상 정보를 정확하고 신속하게 탐지하는 것이 필수 기능으로 요구 되고 있음을 시사한다. 도로파손 탐지를 위한 시각인지 연구는 대부분 밝은 낮 시간대의 도로 파손 데이터가 뚜렷하게 잘 보이는 도로 영상 데이터를 학습시킨 인공지능 모델로서 도로 파손 탐지를 위한 시각인지 AI 모델과 학습 데이터에 관한 것이 대부분이다. 본 논문은 낮 시간대의 도로 영상 데이터에서도 조명과 대비 조건이 불량한 상황 즉 저조도·저대비(Low Light Low Contrast, LLLC)에서 도로 파손 시각인지 성능이 매우 나빠진다는 점을 확인했다. 이는 자율주행 시각인지 기능의 현실적인 한계이자 해결해야 하는 도전 과제이 기도 하다. 최근 AI 기반 시각 인지 및 딥러닝 객체 탐지 기술의 발전으로, 도로 파손 시각인지에 관한 다양 한 연구가 이루어지고 있다. 한국건설기술연구원에서 개발한 U-Net 기반의 KICT SegNet 모델은 입력 영상으 로부터 도로 파손 영역을 분할하는 모델이고, 차량 내부 카메라에서 취득한 영상 데이터를 사용하고 있다. 이는 다해상도 특징 전달, 경계 정보 보존, 과적합 방지 등 특화된 설계를 통해 도로 파손 시각 인지 분야에 서 상당한 성능을 확보하고 있다. 그럼에도, 일반화 테스트 과정에서는 저조도·저대비 영상의 시각인지 오류 즉 미탐지율을 획기적으로 개선하지 못하고 있으며, 이는 제한적인 학습 데이터가 도로 상황의 일반성을 대 표하지 못하는 데이터 품질 문제, 저조도·저대비, 도로 파손 객체의 다양한 형태, 제한적 픽셀 정보 등 여러 요인에 기인한다.
본 논문은 저조도·저대비 영상에서 발생하는 AI 모델의 미탐지율을 개선하기 위한 연구이다. 이를 위해 먼저 이미지의 픽셀 단위 휘도 데이터를 이용하여 정탐지와 미탐지 이미지셋을 분류한 후 그룹별 픽셀 히스토그램 분석을 거쳐 8개 인덱스로 특징을 분석하였다. 이미지 픽셀은 0부터 255까지의 휘도값을 가지며, 이를 토대로 정탐지와 오탐지 이미지군을 모두 분석하여, 각 카테고리별 픽셀 특성을 찾고자 연구했다. 여기서 미탐지 이미 지셋은 AI모델이 탐지 실패한 이미지셋이며, 모든 이미지를 대상으로 밝기(Brightness), 대비(Contrast), 색조 (Hue), 텍스처(LaplacianVar, MeanGradient) 등 8개 인덱스로 특징을 분석하였다. 또한, AI 탐지 실패 즉 미탐지율 을 낮추기 위한 시도로 픽셀 밝기 값을 변화시키는 필터 모듈을 설계하였다. 특히 기존 이미지 기반 필터 모듈 단일 방식만으로는 LLLC 조건에서 발생하는 복합적 시각 오인지 문제를 해결하기 어렵다는 점이 확인되었다. 이러한 시각 인지 실패가 주로 LLLC 상황에서 발생함을 고려하여, LLLC 영향을 줄이도록 최적 이미지 필터 방법을 연구했다. 제안한 이미지 필터는 감마 기반 밝기 향상 필터(Adaptive Gamma Correction with Weighting Distribution, AGCWD), 국소 대비 향상 필터(Contrast Limited Adaptive Histogram Equalization, CLAHE), 조명 복 원 필터(Brightness and Illumination Map Estimation-based Enhancement Filte, BIMEF)를 가중치 조합한 필터이다. AGCWD 필터는 어두운 영역을 밝게 하고, CLAHE 필터는 경계 강조 및 저대비를 개선하며, BIMEF 필터는 실제 조명을 보정하여 자연스럽게 밝기와 명암을 복원하는 특성을 가지고 있어, LLLC 이미지의 탐지 성능을 향상하기 위해 이미지 필터의 결합 및 최적화를 연구했다.
2. 연구 동향
최근 도로 표면 파손 탐지 분야에서는 저조도 및 저대비 환경에서의 탐지 정확도 저하가 중요한 문제로 제기되고 있다. Lee et al.(2021)은 밝기 변화에 강건한 CNN 기반 도로 파손 탐지 모델을 제시하며, 입력단에 자동 밝기 조정 모듈을 삽입하여 다양한 조도 조건에서도 모델의 탐지 성능 저하를 최소화하였다. Chun and Ryu(2019)는 학습데이터셋의 레이블 데이터의 부족 문제를 해결하기 위해 수도 레이블을 이용한 준지도 학 습 기법을 도입하여, F1-score 결과를 0.7982에서 0.8917로 개선하였다. 저조도 및 비균질 조명 환경에서 영상 품질 저하 문제를 보완하기 위해 다양한 영상 향상 필터가 제안되었다. Choi et al.(2008)은 단일 스케일 Retinex(SSR) 기반의 색상 영상 향상 기법을 제안하며, 영상을 전역 조명, 국소 조명, 반사도의 곱으로 분해하 는 방식을 통해 기존 Retinex 필터에서 나타나는 조명 불균질 문제를 개선하였다. Rahman et al.(1996)은 서로 다른 가우시안 커널 스케일을 결합한 다중 스케일 Retinex 필터를 제안하여, 명암 대비와 색상 일관성을 동 시에 확보함으로써, 기존 단일 스케일 Retinex의 한계를 효과적으로 개선하는 필터를 제안하였다. Huang et al.(2013)은 누적분포함수 기반의 AGCWD 필터를 제안하여, 감마 매핑과 가중 분포 함수를 결합함으로써 색 상 왜곡 없이 대비를 개선하고 시각적 인공 패턴을 억제하였다. 제안된 필터는 저조도 및 고조도 영상에서 안정적인 대비 향상을 달성하였고, 기존 히스토그램 평활화 필터 대비 색상 보존 측면에서 우수한 성능을 보 였다. Ying et al.(2017)은 인간의 시각 시스템에 착안하여, 하나의 저조도 영상을 여러 노출 영상으로 변환한 후 이를 융합하는 방식으로 저조도 영상 개선용 생체 영감 기반 다중 노출 융합 프레임워크 필터를 제안하 였다. Guo(2016)는 저조도 환경에서의 영상 품질 문제를 개선하기 위해, 픽셀 단위 조도맵 추정에 기반한 저 조도 이미지 향상 필터를 제안했다. Tao and Vijayan(2005)은 비균일한 조명 조건에서 촬영된 저조도 영상을 비선형 변환으로 동적 범위를 압축하고, 주변 화소의 평균 휘도 값으로 적응적 대비 향상을 통해서 전역 명 암과 국부 대비를 동시에 복원하는 필터를 제안하였다. Han et al.(2023)은 저조도 도로 이미지에서 색상 왜곡 과 노이즈를 동시에 개선하기 위해 Retinex 기반 밝기 복원과 CLAHE 기반 대비 보정을 결합한 필터를 제안 하였다. 실험 결과, 단일 CLAHE 적용보다 색상 안정성 및 세부 명암 분포 복원이 개선되었으며, 이는 밝기 와 채도의 조합이 영상 인식에 실질적으로 영향을 준다고 하였다. Li et al.(2019)는 중심 픽셀과 주변 픽셀의 밝기 평균을 선형적으로 결합하고, 노이즈 영역은 가중치를 작게, 경계 부분은 높게 부여함으로써 노이즈 억 제와 경계 보존을 동시에 향상하는 필터를 제안하였다. Saleem et al.(2012)은 Laplacian pyramid 기반 다해상 도 분해를 통해 각 스케일별 대비를 독립적으로 조정하고, 이후 재결합 단계에서 밝기, 색상, 경계 세부 정보 를 통합하여 기존 히스토그램 평활화 필터의 과도 보정 문제를 완화하면서 색상 안정성을 높이는 필터를 제 안하였다. Wu and Zhong(2024)은 영상의 전역 대비를 개선한 후, 양방향 필터를 적용하여 노이즈 증폭과 경 계 블러 문제를 보정하는 방법으로 저조도 환경에서의 명암 대비 및 세부 손실 문제를 개선하는 필터를 제 안하였다. 관련 연구를 분석한 결과, 기존 연구는 저조도·저대비 환경에서 영상 품질 개선 및 탐지 성능 향 상을 위해 Retinex 계열, 감마 보정, 히스토그램 평활화, 다중 필터 융합 등 다양한 영상 필터를 제안하고 있 었다. 또한 대부분의 연구 사례는 실내 또는 인물사진 중심의 이미지를 연구 대상으로 하였고, 자율주행차를 위한 도로 파손 이미지와 같이 조도 변화가 많고, 배경과 도로 파손 객체가 다양한 픽셀로 존재하는 LLLC 도로파손 이미지 기반의 영상 필터 연구는 사례가 드물었다.
본 논문은 LLLC 도로파손 이미지를 픽셀 단위로 시각적 특성을 분석하였고, 이를 토대로 LLLC 도로 파손 이미지의 미탐지 성능을 개선할 수 있는 AI 모델의 이미지 필터를 구성하는 방법과 실험 결과를 제시하였다. LLLC 도로 파손 이미지에서 미탐지 성능을 개선하기 위한 이미지 필터는 AGCWD, CLAHE, BIMEF 등 10종 필터의 보정 효과를 실험하였고, 우수한 성능을 보인 필터들을 조합한 후 가중치 변수 실험을 통해 최적의 이미지 필터를 구성하여 LLLC 도로 파손 이미지의 미탐지 오류를 줄이고자 하였다.
Ⅱ. 시각 인지 기반 도로 파손 이미지 데이터 분석
1. AI 모델 및 데이터셋
도로 파손 탐지 AI 모델은 Two stage 아키텍처이며, First stage는 차량 단말의 AI 모델로써 실시간성을 고 려한 경량화 모델이며, Second stage는 서버 모델로써 단말로부터의 탐지한 결과를 토대로 이차적으로 연산 하는 모델이다. 각 스테이지에 사용한 AI 모델은 SegNet 기반 CNN 모델이며 도로 파손의 경계·형상을 탐지 하는 구조이다. 인코딩은 5×5 커널 합성곱을 사용해 도로 파손의 불규칙한 형태를 추출하며, 이때 Batch Normalization, ReLU 함수, Dropout을 적용하였다. 디코딩은 업샘플링을 사용하였고, 인코더와 스킵 커넥션 결 합 형태로 구성하였다. 각 스테이지별로 실시간성과 탐지 정밀도를 위해 레이어수, 하이퍼파라미터를 조정하 여, 추론 모델을 생성하였다. 본 논문에서 실시간성은 기 확보하였기에, 정밀도 실험을 위한 두 번째 스테이 지의 AI 모델을 사용하였다.
학습 데이터는 도로 주행 영상(1080p, 30fps)에서 수집한 노면 파손 이미지이며, 원본 이미지를 ROI 설정 및 리사이즈(256p)하여 데이터셋을 구성했다. 학습 데이터셋은 총 9,931장으로 구성되어 있으며, 학습 과정에 서 이를 학습용 8,937장과 검증용 994장으로 구분하였다. 또한 1,882장의 비 학습한 테스트셋을 별도로 구성 하여 학습·검증에 포함되지 않은 테스트셋으로 성능 평가에 사용하였다. 테스트셋(1,882장)의 탐지 결과, 정 탐지(True) 1,750장과 미탐지(False) 132장으로 분류했고, 정탐지 기준은 IoU 0.5 이상이었으며, mIoU는 0.7623 이었다. <Fig. 1>은 테스트셋과 AI 모델의 처리 과정에 대한 실험 흐름도이다.
탐지 결과에 대한 육안 판독 결과, 미탐지 데이터셋은 픽셀 평균 밝기가 낮거나 객체와 주변 픽셀 간의 대 비가 낮은 데이터가 많았다. 정탐지 데이터셋은 미탐지 데이터셋보다 평균적으로 명도 대비가 뚜렷한 특성 을 시각적으로 확인할 수 있었다. <Fig. 2>은 실험 데이터셋을 기준으로 정탐지 데이터 및 미탐지 데이터셋 의 특징적인 예이다.
2. 도로 파손 이미지 기반 특성 분석 지표
도로 파손 이미지를 대상으로 AI 모델이 분류한 정탐지 데이터셋과 미탐지 데이터셋을 토대로 시각적 특 성을 분석하는 8개 지표인 8-Indexes 기반 픽셀 분석을 수행했다. 8-Indexes는 다양한 분야의 연구에서 활용된 시각 품질 지표를 종합하여 선정하였다. Memon et al.(2015)은 Laplacian Variance, Tenengrad, MeanGradient 기 반 지표 등 선명도·경계 특성을 나타내는 지표들이 픽셀 성능 평가에 효과적이라고 제안하였다. Pertuz et al.(2013)은 Gradient, Laplacian, Entropy, Spatial Frequency 지표가 포커스 수준과 텍스처 복잡도를 정량화하는 중요 지표하고 제안하였다. Chiang and Lin(2024)은 저조도 환경에서 Brightness와 Contrast의 저하로 인한 이 미지의 특징이 약해지는 현상을 실험적으로 규명하였으며, 결과적으로 딥러닝 기반 모델의 객체 인식 성능 을 저하시키는 주요 요인이라고 주장하였다. Ghaida et al.(2020)은 HSV 색상 공간을 기반으로 도로와 차량을 분리하는 과정에서 Hue가 픽셀의 기본 색상 성분을 나타내며 도로·비도로 영역을 구분하는 핵심 요소이며, Saturation이 색 강도와 선명도를 결정하여 객체의 경계를 식별하는 데 직접적으로 영향을 미친다고 주장하였 다. 선행 연구를 토대로 픽셀 이미지의 조도(Brightness, Contrast), 색상(Hue, Saturation), 텍스처 복잡도 (Entropy), 경계·초점 정보(MeanGradient, Tenegrad·Laplacian Variance)가 영상 품질과 객체 인식 성능을 평가하 는 지표로 주로 사용하였음을 확인하였다. 따라서 본 연구에서 이러한 관점을 바탕으로 LLLC 이미지의 탐 지 실패 요인을 분석하기 위해 8-Indexes 기반 픽셀 분석 방법을 제안하였다. 여기서, 밝기·색조 기반 지표로 는 Brightness(B), Contrast(C), Hue(H), Saturation(S)을 사용했고, 이들은 평균 밝기, 픽셀 간 밝기 차이, 색조, 채도를 분석하며, 이를 사용하여 픽셀의 전역적 밝기와 색상 분포를 설명할 수 있다. 또한 텍스처 기반 지표 는 Entropy(E), MeanGradient(G), LaplacianVar(L), Tenengrad(T)이며, 이는 픽셀별 밝기 분포의 불균일성, 평균 기울기 크기, 라플라시안 분산, 임계값 이상 그래디언트 제곱합을 산출하여, 영상의 복잡도 및 선명도를 반 영한다. 8-Indexes에 대한 계산식은 <Table 1>과 같다. 먼저 Brightness 지표는 이미지의 전역적 조도 수준을 반영하는 지표이다. 여기서, Ri , Gi , Bi 는 i번째 픽셀의 밝기 성분 값이며, N은 전체 픽셀 수를 의미한다. Contrast는 이미지의 전체적인 대비 정도를 나타내며, RMS 표준편차로 계산한다. 여기서, Ii 는 i번째 픽셀의 그레이스케일 값, μI 전체 평균 밝기를 의미한다. Hue는 색조 정보를 나타내며, 채도를 가중치로 적용한 원 형 평균이다. 여기서, Hi는 HSV 색공간에서의 Hue 값, Si는 채도 값이다. Saturation은 색의 선명도이며, 전체 픽셀의 평균으로 계산한다. 여기서, Si는 i번째 픽셀의 HSV 채도이다. Entropy는 픽셀값 분포의 불균일성으 로 이미지의 복잡성을 나타내며 확률분포로 계산한다. 여기서, pk는 그레이스케일 레벨 k의 발생 확률이며, L은 전체 명암 레벨 개수이다. MeanGradient는 소벨 연산으로 계산된 평균 기울기이고, 여기서, Gx,i , Gy,i 는 픽셀 i에서의 x축, y축 방향 기울기를 의미한다. LaplacianVar는 라플라시안 응답의 분산으로, 영상의 초점 정 도와 경계 선명도이고, 여기서 ∇2Ii 는 픽셀 i의 라플라시안 값이다. Tenengrad는 소벨 기울기 제곱합이며, 특 정 임계값 τ를 초과하는 경계를 누적하여 계산한다.
<Table 1>
Formulas and Units of the 8 Image Quality Metrics
| Index | Formula | Unit |
|---|---|---|
| Brightness (B) | Pixel Intensity Value (0~255) | |
| Contrst (C) | % | |
| Hue (H) | °(degree) | |
| Saturation (S) | % | |
| Entropy (E) | bits | |
| Mean Gradient (G) | % | |
| Laplacian Variance (L) | dimensionless | |
| Tenengrad (T) | dimensionless |
3. 8-Indexes 기반 미탐지 데이터셋 특성 분석
밝기·색상 기반 지표(B-C-H-S)는 이미지 데이터의 전역적인 시각적 특성을 반영하고, 텍스처 기반 지표 (E-G-L-T)는 국소적 텍스처와 경계 선명도를 분석할 수 있다. 다음 장에서 미탐지 데이터셋의 픽셀 단위 특 성 분석을 수행하였다. 미탐지 데이터셋의 픽셀 단위 8-Indexes 분석 결과는 <Table 2>와 같다.
<Table 2>
8-Indexes Results(False/True Dataset)
| Indexes | Index | Type | Mean | Standard Deviation | Max | Min |
|---|---|---|---|---|---|---|
| Brightness-Color Based Indexes (B-C-H-S) | Brightness | True Dataset | 122.90 | 25.08 | 175.15 | 42.43 |
| False Dataset | 98.39 | 35.85 | 178.62 | 46.84 | ||
| Contrast | True Dataset | 12.14 | 2.93 | 21.07 | 5.35 | |
| False Dataset | 11.97 | 2.63 | 19.74 | 6.57 | ||
| Hue | True Dataset | 67.51 | 61.99 | 342.44 | 10.03 | |
| False Dataset | 137.59 | 92.86 | 280.42 | 12.33 | ||
| Saturation | True Dataset | 11.79 | 3.15 | 48.68 | 2.37 | |
| False Dataset | 11.89 | 4.06 | 31.23 | 6.19 | ||
| Texture Based Indexes (E-G-L-T) | Entropy | True Dataset | 6.40 | 0.40 | 7.48 | 5.12 |
| False Dataset | 6.31 | 0.39 | 7.29 | 5.42 | ||
| MeanGradient | True Dataset | 12.41 | 3.69 | 27.52 | 4.56 | |
| False Dataset | 12.25 | 4.01 | 28.68 | 5.14 | ||
| Laplacian Var | True Dataset | 83.36 | 43.74 | 303.11 | 10.30 | |
| False Dataset | 95.73 | 60.78 | 538.31 | 15.15 | ||
| Tenengrad | True Dataset | 454.04 | 180.18 | 1338.99 | 67.19 | |
| False Dataset | 455.52 | 254.31 | 2474.60 | 91.07 |
Brightness 지표의 경우, 정탐지셋(True Dataset, TP)의 평균 및 표준편차는 122.9와 25.08, 미탐지셋(False Dataset, FN)은 98.4와 35.85이고, 이는 False Dataset은 True Dataset 대비 평균 25% 낮은 밝기와 넓은 분산 분 포를 가지고 있어, 저조도의 픽셀이 객체와 배경에 더 많이 분포함을 의미한다. Contrast는 평균값이 True 12.14, False 11.97로 큰 차이를 보이지 않아, 명암 대비의 영향은 미미하였다. Hue 지표는 True 67.5, False 137.6으로 평균 70의 차이를 보였으며, 이는 색조 분포에서 두 집단의 뚜렷한 분리 특성을 보였다. Saturation 은 True 11.79, False 11.89로 비슷한 특성을 보였다. Entropy는 평균적으로 True 6.40, False 6.31의 값으로 유 사하여, 이미지 텍스처 다양성의 차이를 확인할 수 없었다. MeanGradient는 True 12.41, False 12.25로 비슷한 결과이다. LaplacianVar는 True 83.4, False 95.7로 차이를 보였고, Tenengrad 값은 True 454.0, False 455.5로 차 이가 없었다. 8-Indexes 평가를 통해서 미탐지 원인의 픽셀 단위 특성 분석을 시도 한 결과, 미탐지 그룹의 평 균 밝기값이 정탐지군보다 낮게 분포하고 픽셀 밝기 차이가 적다는 특성을 보였으며, 이는 전형적인 저조도 저대비 특성이고, 여기서 정량적 평가 방법으로 수치적 차이를 분석했다.
다음으로 8-indexes의 정량적 분석과 더불어 탐지 실패 원인을 직관적으로 평가할 수 있는 시각화 기법으 로 커널밀도추정(Kernel Density Estimation, KDE) 분포 그래프를 사용하였다. KDE 분석은 TP와 FN의 분포 형태와 중첩도를 시각적으로 분석할 수 있었다. 특히 LLLC 이미지의 FN 성능 개선 효과에 대해서 KDE 분 석을 통해 성능 개선의 시각화 및 정량적 향상도를 확인하는 과정에 활용하였다. <Fig. 3>은 True Dataset(TP) 과 False Dataset(FN)의 8-Indexes KDE 분포를 분석한 것이다.
KDE 분석 결과, Brightness 지표의 KDE 분포는 FN 집단이 전체적으로 저조도(밝기 80~120 구간)에 집중 되어 있으며, TP 집단은 120~180 밝기 범위에 뚜렷한 픽셀 분포도를 형성하였다. 이는 FN 집단의 평균 밝기 가 TP 대비 저조도임을 의미한다. Hue의 KDE 분포는 두 집단의 차이가 뚜렷하게 나타났으며, FN은 100~200° 구간에서 넓은 분산 폭을 보였고, TP는 약 60° 부근에 좁은 집중도를 형성하였다. 이는 저조도 영 역에서 색상 편차가 확대되어 색조 일관성이 약해졌음을 의미한다. LaplacianVar의 KDE 분포는 좁고 높은 TP 분포를 보인 반면, FN은 낮고 넓은 분포 형태이다. 정리하면, Brightness·Hue·LaplacianVar 지표는 FN 집단 에서 저조도, 색상 불균질, 경계 대비 약화라는 세 가지 주요 특징이라고 해석할 수 있다. 또한 Contrast·Entropy·MeanGradient 지표는 뚜렷한 분리 특성을 보이지 않았다. B-H-L 지표의 KDE 분석 결과를 토 대로 국부적 밝기 분포와 색조 특성으로 FN 집단의 미탐지 특성을 분석할 수 있었다. 이러한 분석을 통해, 미탐지 데이터셋은 낮은 밝기·불균질한 색상 분포·불명확한 경계 특성을 갖는 것으로 전형적인 LLLC 이미 지의 특징을 포함하였으며, 결과적으로 AI 인지 성능의 저하 즉 미탐지 오류로 이어짐을 확인하였다.
실험 데이터셋(OG)를 기준으로 True Dataset과 False Dataset의 KDE 분석은 분포 중첩도(Overlap Coefficient, OVL), Bhattacharyya Coefficient(BC), Bhattacharyya Distance(BD)의 값으로 계산할 수 있다. OVL은 두 분포의 중첩도이며, 아래 식(1)과 같다.
여기서, fTP (x)및 fFN (x)는 TP와 FN의 확률밀도함수이고, 두 확률밀도함수의 공통 면적이다. OVL 값이 1 에 가까울수록 두 분포가 중첩하고, 0에 가까울수록 분리된다. 두 분포의 통계적 유사성(BC, BD)은 식(2), 식 (3)과 같이 수학적으로 표현하고 TP와 FN의 유사도 및 집단간 거리로 분포의 유사도이다.
BC 값이 1에 가까울수록 두 분포가 유사해지며, 0에 가까울수록 유사도가 없어짐을 의미한다. BD 값은 분포 간의 거리를 로그 변환한 것으로 두 분포 분리도의 크기를 평가한다.
BD 값이 클수록 두 분포가 서로 다른 방향으로 이동해 유사도가 낮다는 것을 의미한다. 8-Idexes별 TP와 FN 집단의 OVL, BC, BD값을 산출하여 <Table 3>과 같이 정리했다.
<Table 3>
8-Indexes Results(False/True Dataset) of OVL, BC, BD in OG Dataset
| Indexes | Index | Overlap(OVL) | Bhattacharyya Coeff(BC) | Bhattacharyya Dist(BD) |
|---|---|---|---|---|
| Brightness-Color Based Indexes (B-C-H-S) | Brightness | 0.640 | 0.892 | 0.114 |
| Contrast | 0.902 | 0.991 | 0.009 | |
| Hue | 0.493 | 0.808 | 0.213 | |
| Saturation | 0.819 | 0.967 | 0.033 | |
| Texture Based Indexes (E-G-L-T) | Entropy | 0.868 | 0.986 | 0.014 |
| MeanGradient | 0.914 | 0.985 | 0.015 | |
| LaplacianVar | 0.855 | 0.964 | 0.036 | |
| Tenegrad | 0.878 | 0.974 | 0.026 |
Brightness 지표의 경우, TP와 FN 집단의 OVL 값이 0.64, BD값이 0.114이며, 이는 두 분포의 중첩 면적이 64%로, 미탐지 집단의 조도 분포가 저조도 영역(약 80~120)에 집중되어 있음을 알 수 있다. Hue 지표의 경 우, OVL 값은 0.493, BD값은 0.213으로 중첩도가 낮으며, 이는 미탐지 집단의 색조 분포가 100~200° 구간으 로 이동해 색조 불균질성이 두드러졌다. LaplacianVar 지표의 경우 OVL 값은 0.855, BD 값은 0.036으로 분포 의 중심은 유사하지만 FN 집단의 분포 폭이 넓어 경계부 선명도가 상대적으로 불안정하였다. KDE 분포의 OVL, BD 값을 통해 분석한 결과, 도로 파손 이미지의 TP 집단과 FN 집단 사이에는 시각적 특징을 지표별로 분석할 수 있다. 특히 Brightness, Hue 지표에서 OVL, BD 값으로 FN 데이터셋의 이미지들은 저조도 및 색조 불균질성을 갖는 결과이며, 이는 LLLC 이미지가 미탐지의 원인이었음을 입증하는 방법이었다. 본 장에서는 자율차 시각인지에서 다양한 유형의 LLLC 이미지의 미탐지 오류를 평가하는 8-Indexes 분석 방법을 제안하 였다. 다음 장에는 8-Indexes 분석법을 토대로 미탐지 원인을 정량적으로 분석한 후, LLLC 미탐지 성능을 개 선할 수 있는 이미지 필터 방법을 제안하고자 한다.
Ⅲ. 저조도 저대비 이미지 필터 설계
1. 저조도 저대비 이미지 개선용 필터별 실험 및 결과
저조도·저대비(LLLC) 이미지는 도로 파손 이미지의 탐지 성능을 떨어뜨리는 요인이며, 이를 개선하기 위 해서는 LLLC 이미지의 픽셀 개선이 필요하고, 이를 위해 이미지 필터를 연구하였다. 앞서 8-Indexes 분석 결 과, FN 집단은 LLLC 특성을 가지므로 Brightness, Hue, LaplacianVar 지표 측면에서 픽셀 특성을 개선할 수 있는 이미지 향상 필터를 다양하게 실험하였다. 본 논문에서는 10종의 이미지 필터를 실험하였으며, 이들은 LLLC 이미지 품질을 개선하는 필터인 AGCWD, CLAHE, BIMEF, AINDANE, ACE, SSR, MSR, MSRCR, Median 필터를 사용했다. 본 장에서는 실험 데이터셋 이미지를 대상으로 FN 성능 즉 필터별 미탐지 성능을 비교 평가했다.
1) 필터별 탐지 실험 및 비교 평가
필터 실험은 실험 데이터셋(OG)을 기준으로 10종 필터별 미탐지율을 비교 실험했다. 비교 실험은 실험 데 이터셋(OG)를 기준으로 필터별 변조 데이터셋을 제작한 후, OG와 각 필터별 데이터셋 사이의 FN 성능을 비 교했다. 실험데이터셋(OG) 및 필터별 실험 데이터셋의 이미지 예는 <Fig. 4>과 같다. 여기서 OG는 실험 데이 터셋의 원본이고, 필터별 변조 데이터셋의 샘플 이미지는 아래와 같이 시각적으로 확인할 수 있다.
필터별 미탐지율 실험 결과는 <Table 4>과 같이 정리하였고, 10종 필터를 적용하여 미탐지 성능 중심으로 비교한 결과, AGCWD, CLAHE, BIMEF 필터가 가장 좋은 성능 개선 효과를 보였다. AGCWD의 경우 FN 데 이터셋이 132장에서 91장으로 31.1% 감소하였으며, TP 데이터셋이 1,791장으로 증가하였고, mIoU는 0.752 이었다. 즉, AGCWF 필터를 적용한 결과, 미탐지율이 개선되었다. CLAHE 필터의 실험결과, FN 데이터셋이 101장으로 OG 대비 23.5% 감소하였고, 이때 mIoU는 0.7487을 유지하여 성능 개선에 효과적임을 확인했다. 필터별 미탐지율 실험 결과는 <Table 4>와 같다. 비교 실험 결과에서 보듯이, 필터별 미탐지율 성능이 다양 하게 나타났으며, 특히 별도 표시한 3종의 필터에서 미탐지율 성능이 개선되었음을 확인했다. 이 결과는 개 선 성능을 보인 필터들은 전역 밝기 보정, 제한적 국소 대비 향상, 자연광 기반의 색 안정화를 보정해 LLLC 이미지 집단에서 미탐지율을 개선하는 데 효과적임을 확인한 것이다.
<Table 4>
Test Dataset Results of 10 Filters
| Filter | FN | TP | mIoU |
|---|---|---|---|
| OG | 132 | 1750 | 0.7623 |
| AGCWD | 91 | 1791 | 0.7520 |
| CLAHE | 101 | 1781 | 0.7487 |
| BIMEF | 130 | 1752 | 0.7405 |
| LIME | 155 | 1727 | 0.7272 |
| AINDANE | 266 | 1616 | 0.7289 |
| ACE | 457 | 1425 | 0.6393 |
| Median | 647 | 1235 | 0.6380 |
| MSRCR | 755 | 1127 | 0.6044 |
| SSR | 944 | 938 | 0.5781 |
| MSR | 947 | 935 | 0.4968 |
미탐지율 개선 효과를 보인 AGCWD, CLAHE, BIMEF 필터를 대상으로 데이터셋의 8-Indexes 분석을 수행 하여, <Table 5>와 같이 정리했다.
<Table 5>
Variations in FN/TP Image Index(Δ) by 10 Filters Compared to the Original Dataset(OG)
| Filter Type | Type | ∆Brightness | ∆Contrast | ∆Hue | ∆Saturation | ∆Entropy | ∆MeanGradient | ∆LaplacianVar | Tenengrad |
|---|---|---|---|---|---|---|---|---|---|
| AGCWD | True Dataset | +49.97 | +5.76 | −26.55 | −0.01 | +0.53 | +8.68 | +14.18 | +536.21 |
| False Dataset | +29.21 | +5.23 | +1.64 | +0.12 | +0.44 | +5.41 | +11.16 | +340.06 | |
| CLAHE | True Dataset | +17.15 | +2.02 | −16.31 | −0.68 | +0.50 | +12.05 | +26.61 | +647.35 |
| False Dataset | +2.06 | +1.60 | +0.89 | +0.07 | +0.47 | +10.33 | +20.72 | +566.48 | |
| BIMEF | True Dataset | +39.27 | −4.94 | −10.12 | −2.94 | −0.58 | +1.82 | +4.14 | +65.92 |
| False Dataset | +26.06 | −5.43 | +0.82 | −1.87 | −0.70 | +0.18 | +1.66 | +7.69 | |
| LIME | True Dataset | +35.13 | −7.79 | −14.52 | −2.61 | −1.69 | +0.65 | +1.84 | −19.02 |
| False Dataset | +15.77 | −8.15 | +0.75 | −1.88 | −1.87 | −0.58 | +0.82 | −51.41 | |
| AINDANE | True Dataset | −28.65 | +3.23 | −22.31 | +5.59 | +0.31 | −0.61 | −4.02 | −48.71 |
| False Dataset | −25.06 | +2.90 | −2.13 | +3.98 | +0.37 | +0.32 | −0.52 | +55.67 | |
| ACE | True Dataset | +1.20 | +17.18 | −38.23 | +13.12 | +0.11 | +18.39 | +50.62 | +1768.34 |
| False Dataset | -23.29 | +17.01 | +6.44 | +11.59 | +0.09 | +17.67 | +57.32 | +1781.19 | |
| MEDIAN | True Dataset | +13.92 | +1.92 | −25.45 | +5.70 | +0.20 | −5.51 | −12.47 | −186.70 |
| False Dataset | −1.02 | +2.43 | −2.45 | +2.90 | +0.22 | −5.52 | −9.04 | −192.86 | |
| MSRCR | True Dataset | −18.22 | −10.65 | −53.65 | −11.22 | −3.79 | −10.16 | −12.87 | −416.06 |
| False Dataset | +16.49 | −8.45 | +36.36 | −10.67 | −2.35 | −6.85 | −5.65 | −290.73 | |
| SSR | True Dataset | +132.89 | −9.67 | −22.46 | −11.42 | −2.66 | −8.93 | −12.18 | −388.76 |
| False Dataset | +80.31 | −7.83 | +52.37 | −10.64 | −1.73 | −6.41 | −5.50 | −284.33 | |
| MSR | True Dataset | +133.93 | −9.80 | −25.43 | −11.45 | −2.80 | −8.90 | −12.14 | −387.62 |
| False Dataset | +81.496 | −8.03 | +51.26 | −10.69 | −1.85 | −6.32 | −5.31 | −278.09 |
이는 도로 표면의 명암 대비가 강화되어 파손 경계선의 구조적 텍스처가 명확하게 인식된 결과이다. SSR, MSR, MSRCR 및 Median 필터는 대부분의 지표에서 음의 변위를 보였으며, 영상의 세부 질감이 손실되거나 과도한 감마 보정으로 인한 밝기 왜곡이 발생한 것으로 분석된다. AGCWD는 Brightness와 LaplacianVar 지표 모두에서 가장 높은 양의 변위를 보였으며, FN 감소 효과가 가장 크게 나타났다. 이는 가중 감마 보정을 통 해 저조도 영역의 화소 대비를 국소적으로 향상시켜 파손부와 배경부 간의 명암 분포 차이를 확대한 결과로 해석된다. CLAHE는 제한적 구간 히스토그램 평활화를 통해 저대비 영역의 경계 대비를 향상시켰다. BIMEF 는 Entropy와 Saturation 지표의 안정성을 유지하면서 색상 왜곡을 최소화하였다. 반면 MSR과 MSRCR은 MeanGradient 및 Tenengrad 지표에서 음의 변위를 보여, 다중 스케일 보정 과정에서 과도한 감마 보정으로 텍 스처 대비가 균질화되고 경계 식별력이 약화된 것으로 분석된다. Median 필터 또한 LaplacianVar 지표가 감 소하여 영상의 선명도가 저하되고 파손 경계의 구조적 특징이 약화된 것으로 나타났다. 필터별 미탐지율 성 능 변화를 실험한 결과, AGCWD, CLAHE, BIMEF는 밝기·대비·기울기 지표에서 일관된 양의 변화로 LLLC 이미지의 미탐지율 개선과 안정적인 mIoU 값을 확보할 수 있었다. 필터 중 AGCWD 데이터셋의 KDE 분포 를 분석한 결과는 <Fig. 5>와 같다.
여기서 AGCWD는 감마 가중 기반의 전역 정규화를 통해 저조도 구간의 픽셀 대비를 향상시켜 FN의 Brightness 분포가 TP에 근접하였다. LaplacianVar와 MeanGradient 값 역시 상승하여 도로 파손 경계부의 구조 적 선명도와 인식률이 향상되었다. 이는 전역 밝기 정규화가 국소 영역의 경계 정보를 안정화시키는 효과를 가졌음을 의미한다. BIMEF는 과도한 밝기 보정보다 조명 균형 복원에 초점을 맞춰 자연스러운 색상을 유지 한 것으로 보인다. CLAHE는 저조도 저대비 영역의 픽셀 밝기 분포를 조정하여, 경계 대비를 향상시키고 텍 스처 정보를 복원하여 도로 파손 영역의 식별력을 높였다. 결과적으로, AGCWD는 전역 밝기 보정, BIMEF는 조명 복원, CLAHE는 국소 대비 향상을 통해 LLLC 이미지의 미탐지율을 개선한 결과를 얻었다. 다음 장에 는 3종 필터를 조합한 최적 필터를 제안한다.
2) 조합 필터 설계 및 탐지 성능 실험
본 장에서는 미탐지율과 mIoU에서 효과를 보인 AGCWD, CLAHE, BIMEF 필터를 조합하여 미탐지율을 개선할 수 있는 조합 필터를 제안하였다. 제안한 조합 필터는 3종 필터별 가중치를 부여하여 결합한 형태이 며, 조합 필터의 구성도는 <Fig. 6>와 같다.
조합 필터는 3종 필터의 가중치 결합에 의한 것으로 식<4>와 같다. 필터별 가중치 값이 다양하므로 본 실 험에서는 단일 필터 실험에서 성능 변화가 크게 나타난 구간을 중심으로 파라미터 조합 범위를 제한한 가중 치 조합 실험을 통해서 최적 필터를 제안하였다.
여기서, I는 입력 이미지(Input Image), PAGCWD 는 AGCWD 연산, PCLAHE는 CLAHE 연산, PBIMEF 는 BIMEF 연산이다. PAGCWD (I) 는 누적분포함수 기반의 감마 매핑을 통해 입력 이미지의 전역 밝기 분포를 정규화한 다. 는 Clip Limit(CCLAHE )와 Grid Size GCLAHE를 기반으로 국부적 히스토그램 평활 과정을 거 친다. 는 감마 계수 γBIMEF 와 혼합 계수 αBIMEF 를 이용해 영상의 조명맵을 복원하고 저조도 영 역의 세부 명암 정보를 보정한다. αFusion 은 CLAHE와 BIMEF 결과의 비율이며, CLAHE 출력을 기준으로 0.7 값으로 설정하였다. 가중치 조합에 따른 필터별 비교 실험은 기준이 되는 조합을 비교 대상으로 하여 미탐지 율을 비교했다. 기준 조합(H0)은 앞에서 필터별 실험에서 적용한 가중치를 그대로 사용하였다. 기준 조합 필 터의 가중치는 CCLAHE는 2.0, GCLAHE는 (8,8), γBIMEF 는 0.7, αBIMEF 는 0.5, αFusion 은 0.7이다. 조합 필터의 파 라미터는 연속형 변수이기 때문에 이론적으로 무한대의 조합이 존재하나, 전 범위를 모두 탐색하는 것은 계 산 비용과 실험 재현성 측면에서 현실적으로 어렵다. 따라서 이번 실험에서는 선행 연구에서 일반적으로 사 용하는 방식으로 파라미터의 기준값을 중심으로 상·하 변화폭을 갖도록 Grid Search 형태로 조합을 구성하였 다. 즉, 파라미터 다섯 개의 기준값과 변화 값의 조합 형태로 16 가지의 가중치 조합을 실험했고, 그 결과는 <Table 6>과 같다. H0 대비 파라미터를 단계적으로 변화시킨 결과, CLAHE의 ClipLimit 감소와 BIMEF의 감 마 증가는 공통적으로 FN 감소 효과를 보였다. CLAHE의 ClipLimit 값을 2.0에서 1.8(H3)과 1.5(H13)로 조정 한 조합은 FN 성능이 68장, 67장으로 가장 좋은 성능을 보였다. 이는 국부 대비 과보정이 억제되고 텍스처의 균질화가 나타난 것이다. 타일 크기를 (6,6)으로 축소한 H1과 H15 조합은 지역적 세분화로 인해 국소 대비는 향상되었지만, 인접 타일 간의 경계 불연속성이 증가하여 오탐지율이 오히려 증가하였다. BIMEF의 감마 계 수(γBIMEF )는 가중치를 0.8로 상향(H4, H10~H15)한 경우, 저조도 영역이 복원되어 FN 이미지가 평균 3, 4장 감소하였다. αFusion 실험 결과, CLAHE 출력의 가중 비율을 0.6(H8) 또는 0.8(H9, H16)로 변화시켰을 때, 밝 기 보정 및 조명 복원 간의 균형이 무너져 mIoU 변동폭이 증가하였다. αFusion 이 0.6의 경우 BIMEF 비중이 과도하게 확대되어 경계선 대비가 약화되었으며, αFusion 이 0.8의 경우 CLAHE의 대비 강화로 인해 색상 왜 곡이 부분적으로 발생하였다.
<Table 6>
Hybrid Adaptive Filter Parameter and Performance Results
| Filter | CCLAHE | GCLAHE | γBIMEF | αBIMEF | αFusion | FN | TP | mIoU |
|---|---|---|---|---|---|---|---|---|
| H0 | 2.0 | (8,8) | 0.7 | 0.5 | 0.7 | 69 | 1813 | 0.7509 |
| H1 | 2.0 | (6,6) | 0.7 | 0.5 | 0.7 | 74 | 1808 | 0.7521 |
| H2 | 2.5 | (8,8) | 0.7 | 0.5 | 0.7 | 73 | 1809 | 0.7485 |
| H3 | 1.8 | (8,8) | 0.7 | 0.5 | 0.7 | 68 | 1814 | 0.7528 |
| H4 | 2.0 | (8,8) | 0.8 | 0.5 | 0.7 | 69 | 1813 | 0.7515 |
| H5 | 2.0 | (8,8) | 0.6 | 0.5 | 0.7 | 72 | 1810 | 0.7508 |
| H6 | 2.0 | (8,8) | 0.7 | 0.4 | 0.7 | 70 | 1812 | 0.7512 |
| H7 | 2.0 | (8,8) | 0.7 | 0.6 | 0.7 | 69 | 1813 | 0.7511 |
| H8 | 2.0 | (8,8) | 0.7 | 0.5 | 0.6 | 79 | 1803 | 0.7538 |
| H9 | 2.0 | (8,8) | 0.7 | 0.5 | 0.8 | 71 | 1811 | 0.7476 |
| H10 | 1.8 | (8,8) | 0.8 | 0.5 | 0.7 | 66 | 1816 | 0.7531 |
| H11 | 1.8 | (6,6) | 0.8 | 0.5 | 0.7 | 71 | 1811 | 0.7537 |
| H12 | 1.8 | (8,8) | 0.7 | 0.5 | 0.7 | 68 | 1814 | 0.7498 |
| H13 | 1.5 | (8,8) | 0.8 | 0.5 | 0.7 | 67 | 1815 | 0.7544 |
| H14 | 1.2 | (8,8) | 0.8 | 0.5 | 0.7 | 73 | 1809 | 0.7552 |
| H15 | 1.2 | (6,6) | 0.8 | 0.5 | 0.7 | 73 | 1809 | 0.7564 |
| H16 | 1.5 | (8,8) | 0.7 | 0.5 | 0.8 | 70 | 1812 | 0.7516 |
가중치 조합 실험 결과, αFusion 0.7은 밝기·대비·색상 복원 간 균형을 유지하는 최적의 조합 비율로 확인 하였고, 최적의 가중치는 CLAHE의 ClipLimit 1.8, BIMEF 감마 0.8, Fusion 0.7일때 미탐지 성능이 66장으로 OG의 미탐지율과 비교하여 50.0% 성능 개선이 있었다. 따라서, 제안한 조합 필터는 3종 개별 필터보다 미탐 지율 성능이 더욱 개선되었음을 확인했다.
2. 저조도 저대비 이미지 개선용 조합 필터 최적화 실험 및 결과
1) 최적 조합 필터 데이터셋 기반 8-Index 분석
최적의 조합 필터는 가중치 조정을 통해서 도출하였고, LLLC 이미지의 탐지 성능을 개선하는 결과를 얻 었다, 8-Indexes 분석 결과는 <Table 7>과 같다. 여기서 최적 조합필터를 적용하지 않은 원본 그대로의 OG 데 이터셋과 최적 조합필터(H10) 데이터셋의 8-Indexes 특성을 분석하였다. 8-Indexes 기반 분석 결과, 지표별 FN 변화량 Brightness(+49.0), Contrast(+2.06), MeanGradient(+13.4), LaplacianVar(+199.6) 등 조도 및 경계 관련 지표 가 모두 상승하였다. 이는 저조도 구간의 픽셀 분포가 정상 조도 범위로 이동하였고 경계 명확도가 강화되었 다. Hue(-65.15°)와 Saturation(-0.9)은 감소하여 색상 변동성과 채도 과보정이 억제되었다. TP 집단의 경우, 대 부분의 지표 변화 폭이 ±2% 이내로 안정적으로 유지되었고, 이는 필터가 정상적으로 탐지한 이미지의 특성 을 훼손하지 않으면서, FN 집단에 보정 효과를 보였다. 특히 TP 이미지의 LaplacianVar가 증가(+155.76)한 것 은 경계부 선명도를 강화하면서 과보정 현상이 발생하지 않았다. 따라서 Brightness, Contrast, LaplacianVar, MeanGradient의 동시 개선이 FN 감소와 mIoU 향상에 중요하게 작용하였다. 특히 최적 조합 필터 H10은 전 역 밝기 정규화, 국소 대비 향상, 조명 복원의 3단계를 통해, LLLC 이미지의 미탐지율을 획기적으로 줄여 AI 모델의 시각 인지 성능을 높이는데 효과적임을 확인했다.
<Table 7>
8-indexes Comparison between OG and H10 FN/TP
| Index | OG | H10 | ⩟(H10-OG) | |||
|---|---|---|---|---|---|---|
| FN Mean | TP Mean | FN Mean | TP Mean | ⩟FN | ⩟TP | |
| Brightness | 98.39 | 122.90 | 147.39 | 147.55 | +49.00 | +24.65 |
| Contrast | 11.97 | 12.14 | 14.03 | 13.98 | +2.06 | +1.84 |
| Hue | 137.59 | 67.51 | 72.45 | 71.33 | -65.15 | +3.82 |
| Saturation | 11.89 | 11.79 | 10.99 | 11.57 | -0.90 | -0.22 |
| Entropy | 6.30 | 6.40 | 7.04 | 7.03 | +0.73 | +0.63 |
| MeanGradient | 12.25 | 12.41 | 25.62 | 22.01 | +13.37 | +9.60 |
| LaplacianVar | 95.73 | 83.36 | 295.28 | 239.12 | +199.55 | +155.76 |
| Tenengrad | 455.52 | 454.04 | 1176.80 | 994.48 | +721.28 | +540.44 |
다음은 최적 조합 필터 H10의 KDE 분석 결과이며, <Fig. 7>과 같다. 결과에 보듯이, FP 집단의 분포도가 TP와 중첩하는 형태를 확인할 수 있고, 이는 FP 집단이 TP로 이동했음을 의미한다.
<Table 8>은 H10 필터의 KDE 분포도를 기준으로 TP와 FN의 OVL, BC, BD 변화 결과이다. Brightness 지 표의 경우, OVL 값은 0.934, BD 값은 0.007이었고, Contrast 지표에서는 OVL 0.916, BD 0.008 수치를 보여 최 적 조합 필터를 적용하여 TP와 FP 분포의 중첩도가 크게 상승하였다. 나머지 지표별 OVL, BC, BD값은 미탐 지율을 개선한 것으로 유의미하게 수치의 결과를 보였다.
<Table 8>
8-Indexes Results(False/True Dataset) of OVL, BC, BD in H10 Dataset
| Indexes | Index | Overlap(OVL) | Bhattacharyya Coeff(BC) | Bhattacharyya Dist(BD) |
|---|---|---|---|---|
| Brightness-Color Based Indexes (B-C-H-S) | Brightness | 0.934 | 0.993 | 0.007 |
| Contrast | 0.916 | 0.992 | 0.008 | |
| Hue | 0.782 | 0.932 | 0.071 | |
| Saturation | 0.843 | 0.979 | 0.021 | |
| Texture Based Indexes (E-G-L-T) | Entropy | 0.921 | 0.993 | 0.007 |
| MeanGradient | 0.755 | 0.947 | 0.054 | |
| LaplacianVar | 0.772 | 0.947 | 0.054 | |
| Tenegrad | 0.799 | 0.947 | 0.054 |
2) 최적 조합 필터의 탐지성능 실험 결과
실험 데이터 1,882장을 대상으로 실험한 결과, 최적 조합 필터 H10이 미탐지율을 가장 우수하게 개선했다. 최적 조합 필터를 적용하지 않았을 경우, 실험 데이터수 대비 미탐지 이미지수(FN)가 132장으로 미탐지율은 7.01%이었다. 이를 개선하기 위한 실험으로 10종의 필터별 성능을 비교한 결과, 가장 좋은 필터인 AGCWD 필터의 경우, FN이 91장으로 감소하였고, 미탐지율은 4.8%로 개선되었다. 이후 최적 조합 필터 H10을 적용 한 결과, FN이 66장으로 더욱 감소하였고, 이때 미탐지율은 3.5%까지 더 감소하여, LLLC 이미지의 성능 개 선에 효과가 있음을 확인하였다. 결과적으로 미탐지율은 7.01%에서 3.5%로 50% 향상된 결과를 얻었다. <Fig. 8>는 필터를 적용하지 않은 경우의 미탐지한 대표적인 이미지와 필터 적용 후 동일한 데이터를 대상으로 탐 지한 결과 그리고 정답 이미지(Ground Truth)를 같이 정리한 것이다.
실험 결과에서 보듯이, LLLC 이미지들은 도로파손 영역을 시각적으로도 구별할 수 없을 수준이었으나, 이들이 최적의 이미지 필터를 통과시킨 결과는 도로파손 영역을 정확히 탐지하고 있음을 확인할 수 있다. 이 러한 결과는 제안한 최적 조합 필터가 LLLC 이미지를 대상으로 탐지 성능을 향상시킬 수 있는 방법임을 확 인한 유의미한 결과이다. 또한 이미지 필터의 연산 속도를 측정한 결과, H10은 5.67ms/frame, OG는 8.46ms/frame으로 측정되어, 연산 속도 측면에서도 효과적임을 확인했다. <Fig. 9>은 최적 조합 필터 H10의 IoU 구간별 TP 이미지의 누적 분포를 분석하였다. H10 조합 필터는 OG 데이터와 비교하여 0.55~0.60 구간에 서 33장, 0.60~0.65 구간에서 41장, 0.65~0.70 구간에서 54장, 0.70~0.775 구간에서 60장 증가하였고, 0.85~0.90 구간에서 60장, 0.90~0.95 구간에서 38장, 0.95~1.00 구간에서 21장으로 분석되었다. 결과적으로 제안한 H10 조합 필터는 0.55~0.75 구간에서 총 188장이 TP 이미지로 전환되었으며, FN 총 이미지 수는 132장에서 66장 으로 감소했다.
지금까지 H10의 미탐지율 개선 효과를 FN 데이터 수의 변화, TP 누적 데이터 수의 변화로 확인했다. TP 및 FN 이미지 수량의 변화를 바탕으로 픽셀 수준으로 분석을 이어갔다. OG와 H10 조합 필터의 FN와 TP 이 미지에 대해, GT 영역 내에서 예측 픽셀이 얼마나 포함되는지를 누적하여 계산하였다. 전체 GT 영역의 픽셀 총량은 605,206개 픽셀이며, 이 중 OG의 경우 383,371개 픽셀, H10은 393,547개 픽셀을 탐지하여 H10이 GT 영역에 더 많은 픽셀을 포함하는 것으로 나타났다. GT 영역의 픽셀 총량을 기준으로 비교한 결과 OG는 63.3%, H10은 65%로 H10이 1.7% 더 많은 픽셀을 탐지한 것이다. 또한, OG와 H10이 공통으로 FN 및 TP로 동시 분류한 이미지의 GT 영역에 대한 픽셀 개수를 비교하였다. 공통 분류한 FN 이미지는 42장으로, OG와 H10 모두 해당 GT 영역에서 픽셀을 전혀 탐지하지 못하였다. 반면, 공통 분류한 TP 이미지는 1,726장으로, OG는 GT 영역에 대해 382,446(67.2%), H10은 388,596(68.26%)개의 픽셀을 탐지하여 H10이 1.06% 높은 GT 영역 내 탐지율을 보였다.
Ⅳ. 결론 및 향후 계획
본 논문은 저조도·저대비(LLLC) 이미지의 탐지 실패를 개선하기 위한 연구 결과이며, 이를 위해 8-Indexes 특성 분석 및 필터별 성능 비교 그리고 최적 조합 필터 설계와 성능 실험 결과를 제시하였다. 8-Indexes 이미 지 분석 방법은 픽셀 단위 픽셀 정보를 토대로 정량적으로 미탐지 이미지의 특징을 이해하는 과정이었다. 이 를 바탕으로 LLLC 이미지의 미탐지율을 개선하는 방법으로 10종 필터에 대한 개별 성능을 실험하여 미탐지 율을 개선하는 3종 필터를 선정했고, 이를 최적 조합필터로 구성하여 미탐지율의 개선 효과를 크게 향상시 켰다. 실험에 사용한 도로파손 이미지에서 미탐지 데이터셋으로 분류한 결과를 토대로 최적 조합필터를 적 용하여 실험한 결과, Brightness(+48.2), Contrast(+3.7), LaplacianVar(+16.5), MeanGradient(+0.38)의 지표들이 양 의 값으로 상승했다. 이런 정량적 변화는 조도·경계·텍스처 특징이 향상한 것을 의미하며, 결과적으로 미탐 지율을 개선하는 효과를 보였다. 또한 8-Indexes 기반의 KDE 분포도 결과에 따르면, 미탐지 데이터 집단 즉 FN 데이터셋의 분포가 정탐지 영역으로 이동하였고, 이는 미탐지되었던 이미지들이 정탐지 집단으로 전환되 었음을 확인한 결과이다. KDE 분포 기반의 OVL 값을 분석한 결과, 필터 미적용 데이터셋 OG와 최적 조합 필터 H10을 적용한 데이터셋를 기준으로 TP와 FN의 OVL 값은 0.640에서 0.934로 변했고, TP와 유사한 분포 를 보인 결과로 이는 FN 데이터셋의 일부분이 TP 데이터셋으로 이동했음을 의미한다.
8-Indexes 분석 및 필터 실험 결과에 따르면, 다양한 필터 중 3종 AGCWD, CLAHE, BIMEF 필터는 개별적 으로도 미탐지율을 개선하였지만, 이를 더욱 개선하기 위해 3종 필터를 최적의 가중치로 결합한 최적 조합 필터를 제안하였다. 최적 조합 필터를 적용하지 않은 데이터셋 즉 OG 데이터셋과 H10 데이터셋의 미탐지율 은 7.01%에서 3.5%로 크게 개선되었다. 본 논문은 필터 적용 후 밝기, 색상, 경계 특성이 함께 개선되며, AI 모델의 탐지 결과가 향상되었음을 확인한 것이다. 또한 제안한 방법은 단순히 이미지의 시각적 품질을 개선 하는 데 그치지 않고, AI 모델의 미탐지 성능을 개선하였고, 특히 LLLC 조건의 이미지에 대해서 높은 탐지 성능을 보였다는 점이다. 자율주행차 시각인지 기반의 객체 탐지 분야에서 탐지 성능을 높이기 위해 8-Indexes 방법, KDE 분석 그리고 조합 필터 설계 및 가중치 최적화 방법의 성능 개선 프레임워크를 제안하 였다. 앞으로의 연구는 더욱 가혹한 일반 조건에서도 작동할 수 있는 적응형 필터와 가중치 조정 방법 등 시 각인지 분야의 난인지 문제를 해결하는 방향으로 계획하고 있다. 또한 적응형 필터는 실도로 환경의 입력 영 상과 강우, 강설, 농무 등 날씨 변화에 적용하여 일반화 성능을 높이는 과정이 필요하며, Zero-Refernece Deep Curve Estimation, Retinexformer 등 LLLC 성능을 고도화할 계획이다. 자율주행차 시각인지 과정에서 난인지 문제였던 저 조도·저대비로 인한 탐지 실패 문제를 푸는 실마리가 되길 바라며, 자율주행차 및 AI 기반 도로 인프라 안전 및 효율성 분야에 다양하게 활용할 수 있을 것이다.




















