Journal Search Engine

View PDF Download PDF Export Citation Korean Bibliography PMC Previewer
The Journal of The Korea Institute of Intelligent Transport Systems Vol.17 No.1 pp.123-128
DOI : https://doi.org/10.12815/kits.2018.17.1.123

A Multiple Vehicle Object Detection Algorithm Using Feature Point Matching

Kyung-Min Lee*, Chi-Ho Lin**
*Dept. of Computer Science., Univ. of Semyung
**Dept. of Computer Science., Univ. of Semyung
Corresponding author : Chi-Ho Lin, ich410@hanmail.net
20180105 │ 20180208 │ 20180222

Abstract

In this paper, we propose a multi-vehicle object detection algorithm using feature point matching that tracks efficient vehicle objects. The proposed algorithm extracts the feature points of the vehicle using the FAST algorithm for efficient vehicle object tracking. And True if the feature points are included in the image segmented into the 5X5 region. If the feature point is not included, it is processed as False and the corresponding area is blacked to remove unnecessary object information excluding the vehicle object. Then, the post processed area is set as the maximum search window size of the vehicle. And A minimum search window using the outermost feature points of the vehicle is set. By using the set search window, we compensate the disadvantages of the search window size of mean-shift algorithm and track vehicle object. In order to evaluate the performance of the proposed method, SIFT and SURF algorithms are compared and tested. The result is about four times faster than the SIFT algorithm. And it has the advantage of detecting more efficiently than the process of SUFR algorithm.


특징점 매칭을 이용한 다중 차량 객체 검출 알고리즘

이 경 민*, 인 치 호**
*주저자 : 세명대학교 컴퓨터학과 석사과정
**교신저자 : 세명대학교 컴퓨터학과 교수

초록

본 논문에서는 효율적인 차량 객체를 추적하는 특징점 매칭을 이용한 다중 차량 객체 검 출 알고리즘을 제안한다. 제안하는 알고리즘은 효율적인 차량 객체 추적을 위해 FAST 알고 리즘을 이용해서 차량의 특징점을 추출한다. 그리고 5X5 영역으로 분할 된 영상에서 특징점 이 포함되면 True 포함되지 않으면 False로 해당 영역을 검은색으로 후처리하여 차량 객체을 제외한 불필요한 객체 정보를 제거한다. 그리고 후처리 된 영역을 차량의 최대 탐색창 크기 로 설정하고, 차량의 최외각 특징점을 이용한 최소 탐색창을 설정하여 Mean-Shift 알고리즘 의 탐색창 크기에 대한 단점을 보완하여 차량 객체 추적을 한다. 제안한 방법의 성능 평가하 기위해 SIFT, SURF 알고리즘을 비교하여 실험한다. 그 결과 SIFT 알고리즘에 비해서 약 4배 빠르고 SUFR 알고리즘의 처리 과정 보다는 효율적으로 검출하는 장점이 있다


    Ⅰ.서 론

    1.개 요

    최근 자율주행시스템 기술의 발전으로 전 세계에 다양한 연구가 진행 중이다. 자율주행시스템은 기존 자 동차에 ICT 기술을 도입하여 스스로 주행환경을 인식, 위험을 판단, 경로를 계획하는 등 운전자 조작을 최소 화하여 운행하는 자동차 기술을 말한다.

    위와 같이 자율주행에는 3단계로 인식, 판단, 조작으로 기술이 나뉘며, 인식 기술에는 레이더, 카메라, 초 음파 등 환경을 인식하기 위한 센서를 사용한다. 그 중 카메라 센서에는 컴퓨터 비전 이용한 인식 기술을 사 용하고 있다. 컴퓨터 비전에서는 차량, 보행자와 같은 장애물 인식부터 차선, 표지판과 같은 주행에 필요한 환경 인식에 대한 다양한 연구가 진행 중이다.

    컴퓨터 비전 기술에서 특징점을 이용한 객체 인식은 각 영역 대한 특징 값들을 정량적으로 산출하는 특징 추출(feature extraction)과 매칭 방법으로, 주요 방법은 해리스 코너 이론(Harris and Stephens, 1988), Shi & Tomasi 이론(Shi and Tomasi, 1994), SIFT(Scale Invariant Feature Transform)이론(Lowe, 2004), SURF(Speeded up robust features)이론(Bay et al., 2006) 등으로 객체를 인식한다.

    해리스 코너, SIFT, SURF 등의 검출기는 객체 인식에 안정적인 인식률에 많이 이용되지만 많은 수의 특징 들을 추출하고 이들을 차량별로 분류(grouping)해야 하기 때문에 많은 연산 시간으로 실시간 처리에 부적합 하다는 단점이 있다.(Koller et al., 1993)

    본 논문에서는 효율적인 차량 객체를 추적하는 특징점 매칭을 이용한 다중 차량 객체 검출 알고리즘을 제 안한다. 제안하는 알고리즘은 효율적인 차량 객체 추적을 위해 FAST 알고리즘을 이용해서 차량의 특징점을 추출한다. 그리고 추출 된 특징점을 이용해서 5X5 영역으로 분할 된 영상에 매칭하여 특징점의 좌표가 해당 영역에 포함되면 True, 포함되지 않으면 False로 해당 영역을 검은색으로 후처리하여 차량 객체을 제외한 불 필요한 객체 정보를 제거한다. 그리고 후처리 된 영역을 차량의 최대 탐색창 크기로 설정하고, 차량의 최외 각 특징점을 이용한 최소 탐색창을 설정하여 Mean-Shift 알고리즘(Comaniciu and Meer, 2002)의 탐색창 크기 에 대한 단점을 보완하여 차량 객체 추적을 한다.

    Ⅱ.다중 차량 객체 검출 알고리즘

    제안한 다중 차량 객체 검출 알고리즘은 크게 특징점 추출, 추적 차량 객체 특징점 등록. 차량 객체 추적 등의 세 부분으로 구성된다.

    1.특징점 추출

    Rosten and Drummond(2006)에 의해 제안된 FAST 코너 검출기 원리는 이미지에서 픽셀 P 를 선택하고 픽 셀 P의 밝기를 Ip라고 한다. 임의의 임계값 t를 취해 아래 <Fig. 1>와 같이 픽셀 P 주위의 16개 픽셀로 이루 어진 원 내부에 픽셀 n개가 연속으로 존재하거나, IP-t보다 어두운 픽셀 n개가 연속으로 존재하면 픽셀 P 를 코너로 판단한다.

    Fast 코너 알고리즘은 식 (1)과 같이 정의된다. 점 p에 대한 밝기 Ip를 임계값 t를 뺀 값보다 작으면 d(Darker), 임계값 t를 뺀 값보다 크고 임계값 t를 더한 값보다 작으면 s(Similar), 그리고 임계값 t를 더한 값보 다 크면 b(Brighter)이다. 이 상태에 따라 P를 Pd, Ps, Pb 세 가지로 구분한다.

    S p x = { d , s , b , I p x I p t I p t < I p x < I p + t I p + t I p x
    (1)

    해리스 코너, SIFT, SURF 등의 검출기 알고리즘 보다 FAST 검출기 속도에 최적화되어 설계된 기술이다. 그러나 이런 특징이 있는 기술임에도 다양한 영상 변화에서도 동일한 특징점을 검출하는 검출기이다. 본 논 문에서 FAST 검출기의 장점인 속도와 기존 특징점 검출기 알고리즘만큼의 정확성을 차량 객체 분할에 이용 한다. 차량은 실세계 도로 영상에 있는 객체 중에 강한 특징점을 가지고 있다. 따라서 FAST 검출기에 높은 임계값을 주어 검출해도 차량 객체가 검출된다. FAST 검출기의 임계값 변화에 따른 특징점 추출을 결과는 <Fig. 2>와 같다. 임계값(30)이 낮은 <Fig. 2(a)>와 같이 차량 객체를 포함한 여러 객체의 특징점이 추출된다.

    그리고 높은 임계값(150)을 설정하면 <Fig. 2(b)>와 같이 차량 객체에 특징점이 많이 검출된다. 또한 <Fig. 2(b)>에 설정된 임계값을 이 이상으로 높일 경우 <Fig. 2(c)>와 같이 특징점이 검출되지 않는다.

    실세계 영상에서 차량의 코너 성분이 다른 객체에 비해 높은 점을 <Fig. 2>와 같이 확인할 수 있다. 영상 에서 최소의 특징점을 검출하는 FAST 검출기 임계값을 150으로 설정하여 검출되는 특징점을 차량으로 정의 한다.

    2.추적 차량 객체 후처리 및 추적

    Mean-Shift 알고리즘은 특징점, 코너, 색상 등 데이터 집합의 밀도 분포 기반으로 관심영역(ROI: Region Of Interest) 객체를 고속으로 추적하는 알고리즘이다. 일반적으로 Mean-Shift 알고리즘은 초기의 탐색창의 크기 와 위치를 지정해야 하는 단점이 있다. 따라서 본 논문에서는 이러한 단점을 보완하기 위해 FAST 알고리즘 을 이용하여 특징점을 추출한다. <Fig. 3>과 같이 홀수 5X5 영상으로 분할된 영상에 매칭하여 객체 분. 제안 한 영상 분할은 분할 된 영역마다 객체를 단순하게 정의할 수 있다. 분할 영상의 영역 중 가운데는 앞선 차 량과 소실점 위치를 정의할 수 있고, (2,x) 또는 (4,x)의 분할 영역은 차선으로 정의할 수 있다. 추출된 특징점 위치가 분할 된 영역에 있지 않을 경우나 각 영역의 정의에 따라 검은색으로 후처리한다. 그리고 최외각의 코너점들을 이용하여 탐생창 크기를 설정하여 생성한다. 이러한 과정은 매 프레임마다 반복함으로써 객체의 크기에 따라 탐색창을 생성하여 추적 대상을 등록하여 Mean-Shift 알고리즘으로 추적한다.

    Ⅲ.실 험

    제안하는 특징점 매칭을 이용한 다중 차량 객체 검출 알고리즘은 C++ 언어로 구현하였으며, 인텔 I5-6500 CPU 3.20GHz 과 4GB 메모리의 컴퓨터 환경에 실험하였습니다. 실험 영상은 고속도로에서 촬영된 도로 주 행 영상이며, 영상 사이즈는 640 X 480 이다. 제안한 알고리즘의 성능 평가하기 위해 SIFT, SURF 알고리즘 과 수행 시간을 측정하여 비교하였다. <Fig. 4>는 제안한 알고리즘을 적용한 결과 이미지이다.

    차량 객체 검출 시간 측정은 <Table 1>과 같다. SIFT 알고리즘을 적용한 실험은 영상크기, 조명, 평행 이동 등에 특징점을 추출하는 정확성이 . 그러나 계산량이 많아 Video 1에서는 7.43 sec/frame 의 결과가 Video 2에 서는 8.82 sec/frame 결과를 얻었다. 또한 SURF 알고리즘을 적용한 실험에서는 SIFT 알고리즘의 계산량이 많 은 문제를 보완하는 알고리즘이므로 Video 1에서는 1.75 sec/frame Video 2에서는 1.76 sec/frame의 결과를 SIFT알고리즘을 적용한 것 보다 속도가 빠른 장점을 알 수 있었다. 그러나 SURF는 그레이 영상을 이용함에 따라 컬러 영상에서 활용하지 못하는 단점이 있어 특징점 추출 후 Mean-Shift 알고리즘을 통한 객체 검출 과 정과 SURF 과정에서 gray-scale 변환하여 제안하는 방법보다 효율성이 떨어진다. 본 논문에서 제안하는 방법 으로 실험 결과 Video 1에서는 1.76 sec/frame, Video 2는 1.77 sec/frame의 결과를 얻었다. 제안된 방법은 FAST 알고리즘을 이용하여 빠른 특징점 추출과 영상의 5x5 영역 분할을 이용하여 특징점이 포함되는 영역 을 Mean-shift에서 최대 탐색창으로 정의하고 최외각 특징점을 이용하여 최소 탐색창을 정의한다. 그리고 최 대, 최소 탐색창 크기 평균으로 객체 크기를 정의한다. 기존 방법의 SIFT 보다는 빠르게 객체를 검출 가능하 며, SURF 보다는 효율적으로 검출하는 장점이 있다.

    Ⅳ.결 론

    본 논문은 특징점 매칭을 이용한 다중 차량 객체 검출 알고리즘은 제안한다. 제안하는 알고리즘은 SIFT, SURF 등 특징기반 객체 인식의 문제점인 속도를 개선하기 위해 FAST 알고리즘을 적용하여 특징점 추출 시 간을 단축한다. 또한 임계값을 높이는 것으로 코너 성분이 강한 점만 추출함으로써 속도를 향상시킬 수 있 다. 추출된 전체 영상을 5X5 영역을 분할하여 추출된 특징점 위치가 포함되지 않은 경우에 해당 분할 영상 을 검은색으로 후처리하고, 포함된 영역을 최대 탐색창으로 정의한다. 그리고 특징점들 중 최외각의 코너점 들을 이용하여 최소 탐생창 정의하고, 최대,최소 탐색창의 평균을 계산하여 객체 검출 탐색창을 정의한다. 생성된 탐생창을 통해 Mean-Shift 알고리즘은 적용하여 차량 객체 추적을 수행한다. 취득한 고속도로 주행 영상을 사용한 실험결과에서 제안된 알고리즘은 SIFT 알고리즘에 비해서 약 4배, SUFR 알고리즘의 처리 과 정 보다는 효율적으로 검출하는 장점이 있다.

    본 연구에서 나타난 한계점을 보완하고, 보다 발전된 결과를 도출하기 위해서는 다음과 같은 추가적인 연 구가 필요하다. 첫째, 차량 객체의 특징점 추출을 위해 높은 임계값의 FAST 알고리즘을 통해 연산 시간을 단 축하였으나, 추출된 특징점 개수의 줄어듦에 따라 높은 조도 변화에 정확도가 낮아졌다. 따라서 제안된 임계 값 보다 낮은 값으로 차량 객체만의 특징점을 추출할 수 있으며, 조도 변화에 강한 특징점 추출 알고리즘이 필요하다. 둘째, 추출되는 특징점이 적은 만큼 차량 객체가 겹치는 경우에 객체를 인식하지 못하거나, 하나의 객체로 인식되는 경우가 발생되었다. 따라서 색상을 이용한 객체의 라벨링을 통해 객체 분할이 필요하다.

    Figure

    KITS-17-123_F1.gif

    12 contiguous pixels which are brighter than p which is the center of a candidate corner

    KITS-17-123_F2.gif

    Application Image according to FAST Algorithm threshold

    KITS-17-123_F3.gif

    Object post-processing for creating navigation windows

    KITS-17-123_F4.gif

    The resulting images using the proposed method

    Table

    The comparison of the average processing time for each algorithm (sec/frame)

    Reference

    1. BayH. TuytelaarsT. Van GoolL. (2006) in ECCV, ; pp.404-417
    2. ComaniciuD. MeerP. (2002) Mean Shift: A Robust Approach Toward Feature Space Analysis , IEEE Transactions on Pattern Analysis and Machine Intelligence archive, Vol.24 (5) ; pp.603-619
    3. HarrisC. StephensM. (1988) A combined Corner and Edge Detector , Proceeding 4th Alvey Vision Conference,
    4. KollerD. DaniilidisK. NagelH. (1993) Model-based object tracking in monocular image sequences of road traffic scenes. , Int. J. Comput. Vis., Vol.10 (3) ; pp.257-281
    5. LoweD.G. (2004) Distinctive image features from scale-invariant keypoints. , IJCV, Vol.60 (2) ; pp.91-110
    6. RostenE. DrummondT. (2006) in ECCV, Vol.Volume Part I ; pp.430-443
    7. ShiJ. TomasiC. (1994) Good Features to Track , Proceedings IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), ; pp.593-600
    8. TrajkovicM. HedlyM. (1998) Fast corner detection. , Image Vis. Comput., Vol.16 (2) ; pp.75-87

    저자소개

    Footnote