Ⅰ. 서 론
1. 개요
최근 저조도의 야간 환경에서 고품질의 영상을 얻기 위한 감시 시스템에 관한 연구가 중요하게 대두되고 있다. 기존의 일반 CCD 카메라의 경우 저조도 환경에서 영상의 식별이 어려운 한계점을 가진다. 이러한 한 계점을 보완하기 위하여, CCD와 같은 감시 시스템에도 범용으로 사용할 수 있는 다양한 유형의 객체 감지 기술이 존재한다.(Zhong, 2001)
객체 감지 기술에는 객체 기반, 템플리트 기반 및 동작 기반이 포함된다. 이러한 감지 기술들은 이미지 피 처의 표준화와 참조점의 정렬이 중요하다. 또한 조명, 크기 및 방향의 변화를 처리하기 위해 이미지를 다른 공간으로 변형해야 할 경우도 있다.
템플릿 기반의 형상 기반 또는, 색상 기반의 접근 방식을 사용하는 객체 검색은 이미지 시퀀스 간의 특징 을 일치시키기 위한 프로세스가 필요하다.(특히 움직이는 객체와 움직임이 없는 객체 검출과 비교할 때, 동 작 탐지는 객체의 시간 변화 요구 사항을 추가함으로써 객체 검출의 문제를 복잡하게 만든다. 이러한 문제점 을 해결하기 위하여 컴퓨터 비전에서 객체 인식 방법은 2가지로 나뉜다. 첫째는 배경추정 알고리즘으로 계 산량은 적지만 사람이 움직이지 않는 경우, 객체 검출 성능이 저하된다.(Patel and Thakore, 2013) 둘째는 각 영역에서 대한 특징값들을 정량적으로 산출하는 특징 추출(feature extraction)과 매칭 방법이 있다. 주요 방법 은 HOG(Histogram of Oriented Gradient)와 LBP(Local Bit Pattern) 특징점(Ahonen et al., 2006), 유사 Haar이 주 로 활용된다. HOG는 일반적으로 영상에서 특정 이미지의 경사도를 측정하여 해당 영상의 경계선의 양과 방 향을 구분하는 특성이 있다. 하지만 오버랩을 이용하여 계산하기 때문에 특정 영역이 아닌 모든 영역에 대한 히스토그램을 생성해야 하므로 연산량이 많다는 단점이 있다.(Wang, 2009) LBP는 지역적인 이진 패턴을 계 산하여 조명 조건에 강한 장점이 있지만, 잡음과 회전에 약하며 히스토그램에서 특징점 개수가 많아질수록 계산 복잡도가 증가한다는 단점이 있다.(Silva et al., 2015) 유사 Haar 특징점(Haar-like features points)은 선, 중 심, 각도에 대한 특징점을 활용해 객체를 검출하는 원리로 객체의 움직임에 대한 유사도가 높은 장점이 있 다.(Messom and Barczak, 2006)
언급한 객체 검출 방법들은 낮시간의 조도가 높은 상황에서의 검출은 용이할 수 있으나, 야간시간 대의 저조 도 환경에서 객체를 감시해야만 하는 보안 및 감시 시스템에서 객체를 제대로 인식하지 못하는 이러한 문제점 은 크게 작용할 수 있다. 따라서 야간 시간대에서의 객체 검출 문제를 보완하기 위한 솔루션으로는 이미지 인텐 시파이어, 열영상 카메라, 저조도 CCD 카메라 및 새로운 적외선 일루미네이션 기술이 있다.(Wong et al., 2009)
본 논문에서는 실시간 처리가 가능한 저조도 환경의 야간 시간대의 객체 검출을 위하여 열영상 카메라에 서 촬영된 입력 영상에 유사 Haar 특징점을 적용한 객체 식별과, 움직이는 객체 검출을 위한 Adaboost 학습 알고리즘(Amini, 2015)을 이용하여 저조도 야간 감시 시스템 구현을 위한 열영상 기반의 객체 검출 알고리즘 을 제안하고자 한다.
Ⅱ. 열영상 기반의 객체 검출 알고리즘
제안한 열영상 기반의 객체 검출 알고리즘은 크게 특징점 추출, 객체 특징점 등록. 객체 추적 등의 세 부 분으로 구성된다.
1. 특징점 추출
Adaboost 알고리즘에 기반하는 특징점 선택 방법은 학습 샘플들에 대한 특징점이 유사하거나 동일한 특징 점이 선택되는 경우가 빈번하다. 따라서 특징점 간의 형태적 유사도를 계산하여 이미 선택된 특징점들과 유 사한 특징점들의 중복을 제거하여 선택하도록 하는 방법을 제안한다.
하르 기반 캐스케이드 분류기는 유사 Haar 특징점과 같은 매우 단순한 특징들을 조합하여 객체를 찾아낸 다. 처음에는 간단한 검출기를 적용하고, 점점 더 어려운 검출기를 적용하는 방법이다. 따라서 초기 단순 검 출기를 통과한 후보에게만 시간이 오래 걸리는 강력한 검출기가 적용되기 때문에 검출 속도를 크게 향상시킬 수 있다. <Fig. 1>(Zhang et al., 2017)과 같이 위치, 모양, 크기에 따라 다양한 형태로 구성되어 있으며, 그 특징 값은 흰색 영역의 화소 값의 합과 검은색 직사각형 영역의 화소 값의 합의 차로 정의된다.
각 초등의 특징점에 대한 특징값은 특징점의 흰색 부분에 해당하는 영상 픽셀들의 밝기합에서 검은색 부 분의 밝기 합을 뺀 차로 계산된다. 그리고 특징점을 이용한 대상의 식별은 계산된 영역의 밝기차가 특징점에 부여된 임계값(threshold)보다 큰지 작은지 여부를 이용한다. 물론 하나의 특징점을 사용하는 것이 아니라 다 수의 특징점을 조합하여 사용하게 되며, 예를 들어 사용한 특징점이 f1, f2, ..., fn이라면 f1<t1이고 f2<t2이고 f3>t3, ... fn<tn을 만족하면 대상 물체이고 만족하지 않으면 배경이라고 판단하는 식이다. 따라서 특징점의 유 사도는 특징점의 종류, 크기, 위치를 고려하여 계산하여야 한다.
유사 Haar 특징점은 <Fig. 2>와 같이 type, x, y, width, height로 나타낼 수 있다. 여기에서 type은 유사Haar 특징점의 종류이며, x, y와 width, height는 유사 Haar 특징점의 위치와 크기이다. 특징점간의 형태적 유사도를 계산하기 위해 특징점 중심점 위치 (cx, cy)를 추가하여 유사 Haar 특징점을 (type, x, y, width, height, cx, cy)로 나타낸다. 특징점 유사도는 같은 종류의 특징점들에 대해서만 고려하며 식 (1)과 같이 계산한다. 그리고 특징 점 거리는 두 특징점의 중심 좌표가 (x1, y1), (x2, y2)일 때, 식 (2)와 같이 계산한다.
같은 종류의 특징점이라 할지라도 물체 내에서의 위치 및 크기(scale)에 따라 서로 다른 특징점으로 간주 하기 때문에 거의 무한대에 가까운 특징점 조합이 가능하다. 이들 중 의미 있는 특징점들을 선정하는 것이 중요한데 여기서 의미 있는 특징점이란 인식하고자 하는 대상들에서는 비슷한 값을 나타내면서 대상이 아닌 경우에는 랜덤한 값을 내는 특징점들로 볼 수 있다. 예를 들어, <Fig. 2>와 같이 사람의 영역에 대해 특징점 을 잡으면 해당 객체의 영역은 대체로 주변보다 어둡기 때문에 객체 검출을 위한 의미 있는 특징점이 된다. 물론 이러한 의미 있는 특징점의 선정은 수작업이 아닌 <Fig. 3>과 같이 boosting 알고리즘 실행 단계에서 자 동화를 통해 이루어진다.
2. 객체 특징점 등록 및 추적
야간 시간대의 움직이는 객체를 대상으로 감시 목적의 영상 촬영은 대부분 사람 또는 보행자로 분류가 된 다. 따라서 본 논문에서는 저조도의 야간 환경에서 이를 검출하기 위해 열영상을 이용한 방법을 제시한다. 인체의 온도는 약 36~37°C 범위의 온도를 갖는다. 실외에서 계절의 범주에 따라 재킷 등의 착용 유무가 존 재하므로 실제 범위는 30~40°C의 설정 범위를 가지게 된다. 또한 반사광, 조명, 등에 의한 온도 차이는 감지 범위의 소음 구간에 존재할 수 있으므로 설정에 주의해야 한다.
설정된 값을 기준으로 녹화된 CCD 카메라 영상에서 <Fig. 4>와 같이 학습된 특징점 데이터 세트의 객체 들은 비예측형 움직임을 가지기 때문에 이를 학습하고 객체의 특징점을 활용한 학습 알고리즘이 필요하다. 이것을 해결하기 위해 확장형 유사 Haar 특징점을 활용한 Adaboost 학습 알고리즘에 <Fig. 5>와 같이 적용하 여 열영상 기반의 객체 검출 알고리즘을 다음과 같이 실행한다.
Ⅲ. 실 험
본 논문에서 제안한 객체 검출 학습 알고리즘의 성능을 입증하기 위하여, NVIDIA사의 Jetson TX2 모듈을 사용한 그래픽 병렬처리 임베디드 시스템을 활용해 영상 기반 객체 검출 시스템을 구현한다. 확장형 Haar 특 징점을 적용한 Adaboost 알고리즘에 대하여 NVIDIA사의 SoC를 사용하기 때문에 전용 플랫폼인 CUDA 9.0 을 이용해 구현된 알고리즘을 인텔 I5-6500 CPU 3.20GHz 과 8GB 메모리의 컴퓨터 환경에서 컴파일했다. 실 험에 사용한 동영상은 해상도 800*600 크기로 30분간 초당 30 프레임으로 촬영된 저조도 야간 영상이다. 제 안한 알고리즘의 성능을 평가하기 위하여 기존의 히스토그램 이퀄라이징 선처리 검출 알고리즘 수행 시간 (Wong et al., 2009) 과 제안한 알고리즘과의 수행 시간을 측정하여 <Table 1>과 같이 비교하였다.
제안하는 알고리즘과 기존 히스토그램 이퀄라이징 검출 알고리즘을 통한 객체 감지 테스트를 위하여 다음 <Fig. 6>과 같이 실행 데이터를 이용한 총 33개의 세그먼트 이미지를 입력데이터로 하여 테스트를 진행하였다.
촬영된 영상을 기반으로 객체 감지를 위한 타이밍과 횟수를 측정하여 평균, 최대, 최소 프레임 수를 기록 하고 다음 <Table 2>와 같은 측정값을 얻을 수 있었다. 측정값 다음과 같이 정의한다. TP는 설정 범위 내에 있는 객체의 감지를, TN은 설정 범위 외 객체의 미감지를, FP는 설정 범위 외 객체의 감지, FN은 설정 범위 내 객체의 미감지를 의미한다. 따라서 올바른 객체 감지(Rate of Correct Detection) RCD는 식 (3)과 같이 정의 할 수 있고, 제안하는 알고리즘의 정확도를 평가할 수 있다.
제안한 알고리즘을 적용한 객체 검출 결과는 식 (3)에 의해 약 90% 이상의 객체 검출 성공률을 확인할 수 있었으며, 또한 기존 히스토그램 이퀄라이징 결과보다 약 30% 빠른 처리 속도를 확인할 수 있었다. 하지만 설정 범위를 벗어나는 예외 객체는 검출하지 못하는 상황이 발생하였고, 객체가 겹치는 경우에는 하나의 객 체로 인식하여 특징점을 추출하는데 어려움이 발견되었다.
Ⅳ. 결 론
본 논문은 저조도 야간 감시 시스템을 위한 열영상 기반의 객체 검출 알고리즘을 제안했다. 제안하는 알 고리즘은 야간 시간대의 저조도 영상 이미지에서 움직임을 갖는 비예측형 객체를 인식하기 위하여 설정 범 위 내의 열영상 800*600 크기의 비디오 프레임을 입력 받아, 확장형 유사 Haar 특징점을 활용한 Adaboost 학 습 알고리즘에 적용하여 CUDA 9.0 플랫폼에서 구현된 객체 검출 알고리즘을 컴파일했다. 제안한 알고리즘 을 적용한 객체 검출의 결과는 평균 약 90% 이상 객체 검출 성공률을 확인할 수 있었으며, 기존의 히스토그 램 이퀄라이징 결과에 비해 약 30% 빠른 처리 속도를 확인할 수 있었다.
본 논문에서 나타난 한계점을 보완하고, 보다 발전된 결과를 도출하기 위해서는 다음과 같은 추가적인 연구 가 필요하다. 첫째, 열영상 이미지에서 설정 범위를 벗어나는 예외 객체는 검출하지 못하는 상황이 발생하여 특징점 추출을 하지 못하였다. 따라서 제안된 임계값 보다 낮은 값으로 특정 객체의 특징점을 추출하기 위한 알고리즘이 필요하다. 둘째, 추출되는 특징점이 적은 만큼 객체가 겹치는 경우에 객체를 인식하지 못하거나, 하 나의 객체로 인식되는 경우가 발생되었다. 이에 따른 객체의 라벨링을 통해 객체 분할에 대한 연구가 필요하다.