Journal Search Engine

View PDF Download PDF Export Citation Korean Bibliography
The Journal of The Korea Institute of Intelligent Transport Systems Vol.13 No.5 pp.35-49
DOI : https://doi.org/10.12815/kits.2014.13.5.035

Object Classification Algorithm with Multi Laser Scanners by Using Fuzzy Method

Giroung Lee*, Dongkyoung Chwa**
*Main author: Ph.D. program, Department of Electronic Engineering, Ajou University, Graduate School
**Co-author and Corresponding Author: Ajou University, Department of Electronic Engineering
20140411 │ 20140702 │ 20141006

Abstract


This paper proposes the on-road object detection and classification algorithm by using a detection system consisting of only laser scanners. Each sensor data acquired by the laser scanner is fused with a grid map and the measurement error and spot spaces are corrected using a labeling method and dilation operation. Fuzzy method which uses the object information (length, width) as input parameters can classify the objects such as a pedestrian, bicycle and vehicle. In this way, the accuracy of the detection system is increased. Through experiments for some scenarios in the real road environment, the performance of the proposed detection and classification system for the actual objects is demonstrated through the comparison with the actual information acquired by GPS-RTK.



퍼지 기법을 이용한 다수 레이저스캐너 기반 객체 인식 알고리즘

이 기 룡*, 좌 동 경**
*주저자 : 아주대학교 일반대학원 전자공학과 박사과정
**공저자 및 교신저자 : 아주대학교 전자공학과 교수

초록


본 논문에서는 레이저스캐너만으로 이루어진 감지 시스템을 이용하여 도로 위에 있는 객체의 위치를 추정하고 분류 하는 알고리즘을 제안한다. 각각의 레이저 스캐너에서 획득한 데이터는 그리드 맵을 사용하여 데이터를 융합하였으며, 팽창 연산과 레이블링 방법을 사용하여 측정 오차를 보정하였다. 추출한 객체의 정보(길이, 폭)를 입력으로 사용한 퍼지 방법을 통해 객체를 보행자, 자전거, 차량으로 분류하였으며, 이러한 방법은 레이저스캐너로만 이루어진 감지 시스템의 정확도를 증가시켰다. 또한 본 논문에서는 실제 도로 환경에서 몇 가지 시나리오를 설정하여 실험을 하였다. 실험을 통 해 감지 시스템이 객체를 정확히 분류하는지, GPS-RTK 장비를 사용하여 획득한 위치 정보와 비교하여 객체의 위치 정 보를 정확히 추정하는지 검증하였다.



    Ⅰ. 서 론

    자동차와 같은 교통수단에 대한 의존도가 갈수 록 증가하고 도로 환경이 복잡해지면서 교통사고 발생 건수가 매년 증가하고 있다. 세계보건기구 (World Health Organization)에 따르면 2010년에 교통 사고로 122만 명이 사망하였으며, 이로 인해 발생 하는 사회적 손실은 세계적으로 큰 사회 문제가 되 고 있다. 이러한 이유로 지능형 교통 시스템 분야에 서는 보다 편안하고 안전한 주행 환경을 만들기 위 해 차량, 도로, 운전자 사이의 정보 교환을 긴밀하 게 하고 새로운 교통 정보 서비스를 제공하는 C-ITS (Co-operative Systems for Intelligent Transportation System)에 대한 연구를 꾸준히 진행하고 있다 [1, 2]. 특히 최근 자동차 시장에서는 C-ITS 서비스 중 하나인 ADAS (Advanced Driver Assistance Systems)에 대한 관심이 크게 증가하고 있다[3]. ADAS란 차량 및 도로에 설치된 센서를 사용하여 도로에 있는 객체를 탐지하고 분석한 후 충돌 가능 성이 있는지를 판단하여 경고 정보 제공 및 차량의 제어를 통해 사고를 방지하는 일련의 서비스를 말 한다. ADAS에 필요한 감지 시스템은 설치 위치에 따라 크게 차량에 설치하는 시스템[4, 5]과 도로에 설치하는 시스템[6, 7]으로 구분할 수 있으며, 시스 템 특성에 따라 초음파, 비전, LIDAR, IR, RADAR 등의 센서를 사용하고 있다[5-9]. 지금까지의 감지 시스템에 대한 연구는 대부분 차량에 설치하는 시 스템에 초점이 맞춰져 있으며, 상대적으로 도로에 설치하는 시스템에 대한 연구 비중은 적은 편이다. 하지만 앞으로의 C-ITS 서비스가 차량에서 획득하 는 정보 이외에 주변 환경 및 멀리 떨어진 도로의 정보를 융합하여 새로운 교통 정보를 생성하고 이 를 활용하는 방향으로 발전한다면, 도로에 설치하 는 시스템의 비중이 점차 늘어날 것으로 판단된다. 따라서 이러한 C-ITS 발전과 함께 요구 성능 조건 을 만족하기 위해 기존 감지 시스템에서 나타난 문 제점들을 해결해야 한다.

    기존의 도로에 설치하는 시스템은 CCTV와 같은 비전 센서를 주로 사용하였다. 이는 비전 센서 데이 터는 LIDAR와 같은 거리 센서와 비교하여 보다 다 양한 정보를 획득할 수 있으며, 이를 이용하여 차량 번호판 인식, 차량 종류 및 색상 분석, 차선 이탈 감지, 신호등 감지 등의 서비스를 구현할 수 있기 때문이다. 하지만 비전 데이터는 거리 정보를 획득 하기가 어려워 정확한 객체의 위치 및 크기 정보를 필요로 하는 서비스에는 적합하지 않을 수 있다. 또 한 충분한 시야각을 확보하기 위해 도로 주변의 빌 딩이나 높은 설치물이 필요하며, 비전 센서의 특성 상 날씨에 따른 조도의 변화, 도로 주변에 있는 가 로등 및 차량의 램프, 그림자와 같은 외부 환경 요 인에 따라 감지 성능이 크게 변할 수 있어 시스템 을 사용할 수 없는 경우도 발생하게 된다[10, 11]. 따라서 많은 감시 시스템에서는 충분한 조도가 확 보된 공간에서만 사용하거나 적외선 필터와 같은 추가 장비를 사용한다[12]. 이러한 점들은 기존의 감지 시스템이 24시간 내내 동일한 감지 성능을 보 장해야 하는 C-ITS에서 충분한 역할을 수행하지 못 할 수 있다는 것을 의미하며, 시야각 및 조도 확보 를 위한 설치 공간의 제약, 추가 장비 사용으로 인 한 비용 상승 및 감지 성능 저하 등의 문제점을 가 지고 있다는 것을 의미한다.

    따라서 본 논문에서는 비전 센서를 기반으로 이 루어진 기존의 시스템의 문제점을 해결하기 위해 비전 센서를 제외한 거리 센서로만 이루어진 감지 시스템을 제안한다. 거리 센서는 비전 센서와 달리 외부 환경 요인에 대한 변화가 적고 10mm에서 최 대 100mm의 오차율을 가진 매우 정확한 거리 정보 를 획득할 수 있으며 별도의 구조물 없이 기존의 도로 장비(가로수, 가로등)에 직접 설치하거나 높이 1m내외의 이동식 설치물을 이용할 수 있어 추후 감 지 시스템을 유동적으로 운용할 수 있는 장점이 있 다. 그리고 기존의 거리 센서를 이용한 감지 시스템 의 경우 주로 단일 센서만을 사용하였는데, 본 논문 에서는 각각의 센서 데이터를 여러 개의 로컬 그리 드 맵으로 변환하고 이를 다시 하나의 글로벌 그리 드 맵으로 변환하는 2개 층 그리드 맵을 사용하여 다수의 감지 시스템에서 획득한 데이터를 손쉽게 융합할 수 있도록 하였다[13-15]. 또한 기존의 연구 에는 고려하지 않은 레이저 빔과 빔 사이이의 거리 (spot space) 증가에 따른 오차까지 고려하여 센서 데이터의 정확도를 향상시켰다. 마지막으로 객체의 크기 정보를 퍼지 이론에 사용하여 객체의 종류를 보행자, 자전거, 차량으로 구분하였다[16].

    본 논문의 구성으로 2장에서 거리 센서로 구성된 감지 시스템에 대한 설명을 하였으며, 3장에서는 센서 데이터의 오차를 보상한 후 이를 사용하여 객 체를 감지하고, 위치 및 크기를 획득하는 방법을, 4 장에서는 퍼지 이론을 사용하여 객체를 분류하는 방법을, 5장에서는 실제 도로 환경에서 실험을 실 시하여 알고리즘의 성능을 평가하였다. 특히 GPSRTK( Real Time Kinematic satellite navigation) 장비를 사용하여 객체의 정확한 위치를 획득한 후 이를 알 고리즘의 결과와 비교하여 알고리즘 성능을 확인하 였다. 그리고 퍼지 이론을 사용한 객체 분류 방법이 기존의 비전 센서 데이터를 사용한 객체 분류 알고 리즘과 비교하여 성능이 저하되지 않음을 확인하였 다. 마지막으로 6장에서는 본 논문에 대한 결론을 서술하였다.

    Ⅱ. 시스템 아키텍처

    본 논문에서는 도로에 설치된 다수의 거리 센서 에서 획득한 센서 데이터를 융합하여 객체의 위치 및 크기 정보를 추정하고, 객체의 종류를 분류할 수 있는 객체 감지 알고리즘 개발을 목표로 한다. 거리 센서는 레이저 스캐너를 사용하였으며, 센서의 위 치는 <그림 1>과 같이 사각 지대를 최소화하기 위 해 탐지 영역으로 여러 방향을 향해 설치하였으며, 매 샘플링 시간마다 중앙 서버로 센서 데이터를 전 송한다. 레이저 스캐너는 임의의 위치에 설치할 수 있지만, 중앙 서버는 레이저 스캐너의 위치를 알고 미리 알고 있어야 한다. 이러한 탐지 시스템은 교차 로 및 횡단보도 근처에 있는 객체를 탐지하여 차량, 자전거, 보행자로 분류한 후 각각의 객체의 위치를 추정하여 지도에 표시함으로써 차량과 보행자의 사 각지대를 최소화할 수 있으며, 차량의 차선 이탈 및 보행자의 무단 횡단, 충돌 여부를 탐지하여 ADAS 에 사용할 수 있다.

    탐지 시스템은 각 센서 데이터의 시간 동기화, 공간에 대한 동기화 과정을 거쳐, 객체의 탐지, 탐 지된 객체의 위치를 추정, 객체의 종류를 분류하는 과정을 거치게 된다. 각각의 레이저 스캐너에서 획 득한 센서 데이터는 로컬 그리드 맵으로 변환되어 저장된다. 레이저 스캐너에서 센서 데이터를 중앙 서버에 전송하는 시간은 제각각이며, 중앙 서버에 서 모든 센서 데이터를 전송받는데 걸리는 통신 지 연 시간 등의 이유로 인해 동일한 시간에 사용한 센서 데이터들 사이에 시간차가 발생할 수 있다. 따 라서 일정 시간마다 각각의 센서 데이터를 사용해 서 로컬 그리드 맵을 생성하고 글로벌 그리드 맵으 로 전송한 후 로컬 그리드 맵을 갱신하는 방법을 사용하였다. 이러한 방법을 사용하면 특정 센서 데 이터가 시간 지연으로 로컬 그리드 맵이 생성되지 않는 경우가 발생하거나 글로벌 그리드 맵으로 전 송하기 전에 센서 데이터가 다시 들어오는 경우가 발생할 수 있지만 센서 데이터의 시간을 동기화시 킬 수 있다. 실제로 레이저 스캐너를 사용하여 통신 테스트를 한 결과 하드웨어 문제가 발생하지 않는 이상 센서 데이터는 일정한 시간마다 계속 전송되 며, 알고리즘 처리 속도가 센서 데이터 전송 시간보 다 훨씬 빨라서 로컬 그리드 맵이 중복되거나 생성 되지 않는 경우는 발생하지 않았다. 로컬 그리드 맵 에서는 측정 오차를 없애기 위해 일련의 필터링 과 정을 거친 후 후보 객체의 정보를 추정한다. 그리고 글로벌 그리드 맵으로 후보 객체의 정보를 전송한 후 후보 객체의 크기 및 위치 정보를 사용하여 동 일 객체인지 판단하여 객체의 정보를 합치는 공간 에 대한 동기화 과정을 하게 된다. 그 후 최종 객체 정보를 퍼지 이론을 사용하여 객체의 종류를 보행 자, 자전거, 차량으로 분류하게 된다. 레이저 스캐 너에서 획득한 센서 데이터를 처리하는 과정은 <그 림 2>와 같이 표현할 수 있다.

    Ⅲ. 레이저스캐너 데이터 처리

    레이저 스캐너에서 획득한 센서 데이터는 거리 와 각도로 구성된 극좌표계로 구성되어 있다. 이를 x, y로 구성된 직교 좌표계로 변환한 후 이진화를 통하여 그리드 맵의 셀에 매핑을 하였다. 객체의 위 치를 탐지하기 위해서는 그리드 맵에서 활성화된 셀의 분포 상태를 분석해야 한다. 그리드 맵의 셀의 크기는 레이저 스캐너의 성능 및 외부 환경에 의해 달라질 수 있다. 셀의 크기가 커지면 알고리즘 내부 에서 처리하는 연산량이 줄어들고, 센서 데이터의 노이즈에 강인하게 대응할 수 있지만 객체의 크기, 위치 정보의 오차가 커질 수 있다. 반대로 셀의 크 기가 작아지면 연산량이 늘어나고, 센서 데이터의 측정 오차에 민감하게 반응하여 탐지 성능이 저하 될 수 있다. 본 논문에서 사용한 레이저 스캐너의 모델은 SICK사의 LMS 291이며, 이 모델의 측정 오 차는 최대 측정 거리를 8m로 하였을 경우 최대 10mm까지 발생할 수 있다. 하지만 객체의 표면 상 태에 따라 측정 오차가 크게 증가할 수 있다. 실제 본 논문에서 실험한 <그림 3>의 데이터를 살펴보면 차량의 백미러 부분에서 오차가 크게 발생하는 경 우를 확인할 수 있다. 또한 차량의 표면 상태 및 태 양광의 반사에 의해서도 측정 오차가 크게 증가하 는 것을 확인하였다. 그리고 레이저 스캐너의 구조 상 거리에 따른 spot space 현상이 발생한다. spot space란 레이저 스캐너는 거리를 탐지하기 위해 레 이저 빔을 일정한 각도로 연속으로 발사하는데, 반 사되는 객체의 거리가 멀수록 이웃하는 빔과 빔 사 이의 거리 차이가 증가하는 현상을 말한다. <그림 4(a)>와 같이 레이저 스캐너와 객체 사이의 거리가 멀어지거나 <그림 4(b)>와 같이 레이저 스캐너의 중앙에서 각도가 벌어질수록 spot space가 증가하는 것을 확인할 수 있다.

    이러한 현상으로 인해 동일한 객체를 측정한 센 서 데이터를 그리드 맵에 표시할 경우 활성화된 셀 이 연속하지 않고 점선 모양으로 나타나게 된다.

    따라서 센서 데이터를 처리할 때는 크게 두 가지 문제점을 해결해야 한다. 첫 번째는 측정 오차로 생 성되는 그리드 맵의 셀을 파악해서 제거하는 것이 고, 두 번째는 spot space를 파악해서 측정 오차와 구별해야 하는 것이다.

    1. 센서 데이터에 팽창 연산 적용

    센서 데이터의 측정 오차와 spot spacing을 보상 하기 위해 그리드 맵에 팽창 연산(dilation operation) 을 적용하였다. 팽창 연산은 그리드 맵에서 활성화 된 모든 셀 주변으로 일정한 크기의 마스크를 씌우 는 것이다. 팽창 연산을 통해 마스크의 크기 이하의 측정 오차를 제거할 수 있으며, spot space로 생긴 셀 사이의 공백을 채울 수 있다. 하지만 마스크의 크기가 작다면 spot space를 제대로 보상해 주지 못 해 측정 오차로 생긴 셀로 판단해 객체 정보에 포 함되지 않을 수 있으며, 반대로 마스크의 크기가 크 다면 측정 오차로 생긴 셀 또한 객체 정보에 포함 되어 객체의 크기 및 위치에 오차가 커질 수 있다. 따라서 본 논문에서는 일정한 크기의 마스크를 일 률적으로 적용하는 것이 아니라 레이저 스캐너와 셀 사이의 거리를 이용하여 셀의 크기를 조정하여 적용한다. 따라서 <그림 4>에 있는 spot space 그래 프를 모델링하여 적절한 셀의 크기를 계산하는 식 을 만들어 이를 적용하였다.

    m = p × [ x tan ( π 2 a ) × 1 s ] + n
    (1)

    식 (1)에서 x는 레이저 스캐너와 객체 사이의 수 직으로의 최소거리를 말하며, a는 레이저 스캐너와 셀과의 각도, s는 그리드 맵의 셀의 크기, n은 마스 크의 최소 크기를 말한다. 또한 p는 객체 정보로 포 함시킬 spot space의 간격을 의미한다. 즉 spot space 로 생긴 셀과 셀 사이의 공간을 최소한의 크기의 마스크로 씌우되 측정 오차로 인해 spot space가 넓 어질 경우 p개의 셀만큼만 보상한다는 것이다. 레 이저 스캐너와 셀 사이의 거리 및 각도를 통해 마 스크의 크기를 조절함으로써 최대한 많은 spot space를 보상할 수 있게 된다. 또한 측정 오차로 생 긴 셀은 팽창 연산을 사용하더라도 주변에 인접한 다른 셀이 없거나 또는 그 수가 적기 때문에 뭉쳐 있는 셀의 개수를 통해 측정 오차로 분류하여 제거 할 수 있다. <그림 5>는 위의 센서 데이터 처리 과 정을 도식한 것이다.

    2. 레이블링

    팽창 연산을 적용한 후 레이블링을 적용한다. 레 이블링은 영상 처리 알고리즘에서 많이 사용하는 방법 중 하나로 객체의 위치와 크기를 구분하기 위 해 사용한다. 각각의 객체를 구분하기 위해서 그리 드 맵의 셀들이 서로 연결되어 있는지 알아야 한다.

    셀이 다른 셀들과 연결되어 있는지 알기 위해 4- 이웃 셀(4-neighbor)과 8-이웃 셀을 정의한다. 예를 들어 [i, j] 위치에서 4-이웃 셀은 [i + 1, j] , [i - 1, j] , [i, j + 1] , [i, j - 1] 로 구성되며, 8-이웃 셀은 4-이웃 셀에 [i + 1, j + 1] , [i + 1, j - 1] , [i - 1, j + 1] , [i - 1, j - 1] 이 추가된다. [i, j] 위치에 있는 셀의 4- 이웃 셀을 4-연결도(connectivity)의 이웃 셀이라 하 고, 8-이웃 셀을 8-연결도의 이웃 셀이라고 한다. 그 리고 서로 이웃하여 있는 셀들의 집합을 연결 성분 (connected component)이라고 한다. 연결 성분에 속 한 셀들은 어떠한 객체를 나타내는 셀들의 집합을 나타낼 가능성이 크다. 한 연결 성분에 속한 셀들에 같은 ID를 붙이고, 다른 연결 성분의 설들에게 다른 ID를 부여한다. 또한 같은 ID를 가진 셀들의 xy 좌표를 더하여 그 평균을 냄으로써 개체의 위치 를 추정할 수 있다. 이와 같은 방법을 면적 중심법 이라고 하며 다음과 같은 수식으로 나타낼 수 있다. 이러한 셀들의 집합 정보를 통해 각각의 로컬 그리 드 맵에서는 후보 객체를 추정하게 된다.

    x ¯ = i = 1 m j m j B [ i , j ] A , y ¯ = i = 1 m j m i B [ i , j ] A
    (2)

    3. 후보 객체 처리

    각각의 로컬 그리드 맵에서 획득한 후보 객체들 은 글로벌 그리드 맵에 도식되어, 동일한 객체인지 판단하게 된다. 동일한 객체라고 판단되면 각각의 후보 객체 정보로 인해 활성화된 로컬 그리드 맵 셀을 합쳐 최종적으로 새로운 객체 정보로 판단한 다. 동일한 객체를 탐지하여 나온 후보 객체인지를 판단하기 위해 가장 중요한 기준은 후보 객체들 사 이의 거리이다. 각각의 센서에서 획득한 데이터를 이용하여 후보 객체를 추정하고, 후보 객체의 위치 정보를 계산한다. 그 후 각각의 후보 객체 사이의 거리를 계산하여 테이블을 작성한 후 최소값을 가 진 객체부터 비교하여 동일 객체인지 판단한다. 동 일 객체 판단 기준은 두 후보 객체 사이의 거리가 일정값 이하이고, 두 객체의 형태가 동일할 경우에 만 판단한다. 하지만 후보 객체 정보는 레이저 스캐 너 센서의 특성상 객체의 일부 정보만을 포함할 가 능성이 있다. 즉 차량과 같은 직사각형 형태의 객체 라도 레이저 스캐너와의 위치에 따라 직사각형이 아닌 긴 막대 형태 또는 ‘ㄱ’, ‘ㄴ’의 형태로 표시될 수 있다. 이러한 문제를 해결하기 위해서 불확실한 후보 객체 정보를 이용해서 최대한 정확한 객체 정 보를 획득해야만 한다. 이러한 점이 바로 본 논문에 서 객체의 정보를 퍼지를 이용하여 분류하는 이유 중 하나이다.

    Ⅳ. 퍼지를 이용한 객체 분류

    센서에서 획득한 정보를 이용하여 객체의 종류 와 위치를 정확히 추정하는 것은 C-ITS 서비스 구 현에 매우 중요하다. 특히 객체의 크기 정보만을 사 용할 경우 퍼지 이론은 매우 효율적이다. 퍼지 이론 은 다른 알고리즘과 비교하여 매우 간단하여 이해 하기가 매우 쉬우며, 몇 개의 퍼지 룰을 통해 분류 결과를 쉽게 변경할 수 있다. 또한 입력 정보가 비 선형성이 강하거나 불완전할 경우에도 이를 쉽게 처리할 수 있는 장점이 있다[16]. 특히 본 논문에서 는 Takagi-Sugeno 퍼지 모델을 사용하여 객체의 정 보를 보행자, 자전거, 차량으로 분류하였다. 레이저 스캐너의 특성상 객체의 일부가 사각지대에 놓일 경우 객체의 크기 정보가 불완전할 수 있으며, 측정 오차로 발생하는 잘못된 판단을 최소화할 수 있기 때문이다. 그리고 추후 분류하는 객체의 종류를 확 장 때에도 편리하기 때문이다. 입출력에 사용할 퍼 지 셋은 다음과 같이 설정하였다.

    Length = {Very Small, Small, Medium, Large, Very Large}

    Width = {Very Small, Small, Medium, Large, Very Large}

    Output = {Etc, Pedestrian, Bicycle, Vehicle}

    Length는 객체의 길이를 의미하며, Width는 폭을 의미한다. Output은 객체의 종류를 의미하며 각각 보행자, 자전거, 차량, 기타로 구분한다. 기타로 구 분된 객체는 불완전한 객체 정보 및 센서 데이터의 측정 오차로 인해 발생한 잘못된 판단 또는 초기 실험 설계 당시 고려하지 않은 다른 형태의 객체로 판단할 수 있다. 각각의 객체에 대한 퍼지 셋을 설 정하기 위한 객체의 크기는 실험에 사용된 객체의 크기를 기준으로 현행 도로 교통법에 적합하도록 하였다. 차량의 모델링을 위해 ‘고속도로 운행 차종 구분, 규정 제 9조’, 및 ‘자동차 관리법’에 의거한 1 종 승용자동차에 적합하도록 설정하였다. 차량으로 분류되는 객체의 길이는 [17]의 <표 5>를 참조하여 1톤 트럭을 제외한 1종 승용자동차 길이의 최대 측 정치인 4500mm로 하였으며, 폭의 경우 윤거 1800mm를 기준으로 설정하였다. 자전거로 분류되 는 객체는 자전거 및 이륜자동차를 동시에 고려할 수 있도록 설정하였다. 단 이륜자동차 및 보행자의 경우 정해진 기준이 없기 때문에 실험에 사용된 객 체의 크기를 우선으로 모델링하였다. 객체의 분류 및 위치 정보를 추정하기 위해 객체의 모델링 및 객체의 움직임에 대한 추론이 필요하며[18-19], 이 를 고려한 각 개체들의 수치는 <표 1>과 같다.

    각각의 객체 정의에 사용된 표준 편차(σ)는 레이 저 스캐너의 측정 오차를 고려하여 객체의 분류 오 차를 최소화하도록 반복적인 실험을 통해 산정하였 다. <표 1>을 토대로 한 객체에 대한 맴버쉽 함수는 <그림 7>과 같다.

    Takagi-Sugeno 퍼지 이론의 경우 IF-THEN 형태 또는 input-output 형태로 설정이 가능한데, 본 논문 에서는 IF-THEN 형태를 사용하여 퍼지 룰을 설정 하였다.

    IF (Length is S) and (Width is S) THEN (Output is P)

    IF (Length is M) and (Width is M) THEN (Output is B)

    IF (Length is L) and (Width is L) THEN (Output is V)

    IF (Length is VS) and (Width is S) THEN (Output is E)

    IF (Length is VL) and (Width is VL) THEN (Output is E)

    이 외의 룰에 대해서는 모두 E로 처리하여 잘못 된 객체를 탐지한 것으로 판단한다. 각각의 입력에 대한 퍼지 출력에 대한 결과 그래프는 <그림 8>, <그림 9>와 같다.

    Ⅴ. 실험 결과

    1. 실험 환경

    이번 장에서는 본 논문에서 제안한 알고리즘을 검증하기 위한 실험에 대해 설명한다. 임의의 도로 구간을 실험 구간으로 설정하고, 임의의 지점에 레 이저 스캐너를 설치하고 보행자, 자전거 및 차량을 주행한 후 센서 데이터를 획득하였다. 실험에 사용 된 객체는 GPS-RTK 장비를 착용하여 위치를 정확 하게 측정할 수 있도록 하였으며, 그 후 알고리즘을 통해 객체의 분리 및 위치 추적과 비교하여 알고리 즘의 성능을 비교 분석하였다. 실험에 사용한 레이 저 스캐너는 SICK사의 LMS291 모델이다. 이 레이 저 스캐너는 <표 2>와 같은 성능을 보유하고 있다. 특히 이 실험에서는 레이저 스캐너의 측정 거리를 80m, 각도 분해능을 0.5°로 하였으며 RS232 통신 방식을 사용하여 37.5Hz의 샘플링 레이트로 센서 데이터를 획득하였다. 또한 GPS-RTK 장비를 사용 하여 레이저 스캐너의 위치를 획득한 후 알고리즘 에 미리 입력해 놓았다.

    <그림 10>은 테스트베드 구간의 위성사진과 레 이저스캐너가 설치된 위치를 나타낸 것이다. 실험 에는 두 대의 LMS291을 사용하였으며, 도로 위를 주행하는 객체로는 보행자, 자전거, 차량을 투입하 였다. 레이저스캐너의 센서 데이터는 서버에서 별 도의 인터페이스 장치를 사용하여 획득하였으며, 그 후 Matlab을 사용하여 알고리즘을 구현하였다.

    2. 시나리오 설정

    이 실험은 두 가지 사항에 대한 성능 검증을 목 표로 하고 있다. 첫 번째는 도로 위를 주행하고 있 는 객체를 제대로 분류하는지, 두 번째는 알고리즘 을 통해 추정한 객체의 위치와 GPS-RTK에서 획득 한 객체의 위치와 비교하여 알고리즘의 성능을 분 석하는 것이다. 이를 위해 5개의 시나리오를 설정 하고 이를 3~5회 반복하여 실험하였다. 수행한 시 나리오는 다음과 같다.

    • a) 차량 단독 시나리오 : 한 대의 차량을 주행한 후 데이터 획득

    • b) 차량 연속 주행 시나리오 : 두 대의 차량을 같 은 차선에서 연속으로 주행한 후 데이터 획득

    • c) 차량 교차 주행 시나리오 : 두 대의 차량은 다 른 차선에서 교차 주행한 후 데이터 획득

    • d) 보행자 시나리오 : 한 명의 보행자가 도로를 횡단한 후 데이터 획득

    • e) 자전거 시나리오 : 한 대의 자전거가 도로를 횡단한 후 데이터 획득

    객체의 정확한 위치를 획득하기 위해 trimble사의 R5 제품을 이용하였다. R5의 오차 범위는 종방향으 로 10㎜+1ppm RMS, 횡방향으로 20mm+1ppm RMS 의 값을 가진다. 차량의 경우 GPS-RTK 안테나를 루프 패널 중앙에 설치하였으며, 보행자와 자전거 의 경우 안테나가 설치된 가방을 착용하고 위치 데 이터를 측정하였다.

    3. 실험 결과

    <그림 12>는 실제 실험 중 획득한 센서 데이터를 알고리즘을 통해 처리하는 과정을 나타내고 있다. <그림 12(a)>와 같이 임의의 위치에 차량을 정차시 켜놓고 레이저 스캐너를 통해 센서 데이터를 획득 한 후 <그림 12(b)>와 같은 원시 데이터를 획득하였 다. 붉은 색과 푸른 색으로 표시된 점은 서로 다른 로컬 그리드 맵의 데이터를 의미한다. 그 후 <그림 12(c)>와 같이 팽창 연산, 레이블링의 필터링 과정 을 거쳐 측정 오차들이 제거됨을 확인할 수 있다. 그리고 퍼지 이론을 사용하여 탐지한 객체의 크기 정보를 사용하여 객체의 종류가 차량으로 추정하고 있음을 확인할 수 있다.

    <그림 13>은 객체의 분류 정확도를 표로 그린 그 림이다. 실험은 시나리오별로 5번 반복하여 시행하 였다. 다만 시나리오 5의 경우 실험 과정에서 데이 터를 분실하여 총 2번의 결과만을 표시하였다. 그 래프를 살펴보면 시나리오 1과 시나리오 3에서는 100% 정확한 결과를 나타내고 있으며, 시나리오 2 와 시나리오 4에서는 각각 3번, 6번의 오차가 발생 하는 것을 알 수 있다. 시나리오 2의 경우 차량이 교차 주행하면서 겹치는 구간에서 객체 정보가 제 대로 파악되지 않아 다른 총 3번의 오차가 발생하 였다. 시나리오 4의 경우 객체로 선택한 보행자가 차량에 비해 크기도 작으며, 표면이 불규칙한 형태 이기 때문에 차량의 경우보다 많은 측정 오차가 발 생하였다. 이 경우 실험에 사용한 레이저 스캐너의 개수를 늘림으로써 정확도를 더욱 향상시킬 수 있 을 것으로 판단된다.

    위의 결과를 객체의 종류에 따른 분류 정확도로 살펴보면 <표 3>과 같다. [17]의 <표 8>과 비교한다 면 표본의 수의 차이에 따라 직접적인 비교는 어렵 지만 정확도 측면에서는 더 높음을 알 수 있다.

    <그림 14>는 GPS-RTK 장비로 획득한 객체의 위 치와 본 논문의 알고리즘으로 추정한 객체의 위치 를 표시한 것이다. 1번 시나리오를 통해 획득한 데 이터를 사용하였으며, 그리드 맵에서 표시한 위치 정보를 다시 위경도 좌표로 표시하였다. <그림 14(b)>는 레이저 스캐너의 샘플링 레이드마다 추정 된 위치 값과 GPS-RTK 위치 값과의 차이를 나타내 고 있다. 위의 시나리오의 경우 평균 약 4.9798cm의 추정 오차가 발생하고 있음을 알 수 있다.<그림 15> 는 각각의 레이저 스캐너에서 측정한 객체의 거리 와 각도를 GPS-RTK 정보와 비교한 그래프이다. 측 정 거리의 경우 10cm이내의 오차가 발생함을 알 수 있다. 이것은 그리드 맵에서 1칸의 셀에 해당하는 크기로 알고리즘 추정 결과 1칸 이내의 오차만 발생 하는 것을 알 수 있다. <표 4>는 각 시나리오 별로 RTK 장비로 획득한 객체의 위치와 논문의 알고리 즘으로 추정한 객체의 위치를 비교한 표이다. 위의 결과를 살펴보면 각각의 시나리오에서 평균 위치 오차가 5cm ~ 10cm까지 나타나는 것을 볼 수 있다. 이는 그리드 맵의 셀의 크기로 간주하면 대략 1칸 이내의 오차로 볼 수 있다. 셀의 크기를 줄인다면 오차도 같이 줄어들 것으로 판단되고, 결국 레이저 스캐너 자체 오차에 근접하는 오차를 보일 것으로 판단된다. 따라서 이 결과에서 보인 오차는 절대적 인 수치로 판단하기 보다는 그리드 맵의 셀 크기 이 하의 오차를 보이는 것으로 판단해야 한다. 오차를 줄이기 위해서 그리드 맵의 셀 크기를 줄일 수도 있 지만, 알고리즘의 실시간 처리에 필요한 시스템 처 리 속도를 고려한다면 이러한 방법은 한계가 있다.

    오차가 크게 발생하는 시나리오의 경우 이는 한 쪽 레이저 스캐너에서 객체 때문에 발생하는 사각 지대에 다른 객체가 위치하게 되는 경우 때문인 것 으로 파악된다. 차량의 경우 차량의 백미러의 튀어 나온 부분 또는 백미러의 거울 때문에 레이저 스캐 너의 빔이 난반사되어 오차가 발생한 것으로 파악 되며, 또한 차량 표면에 반사되는 태양광에 의해서 도 오차가 발생하는 것으로 파악된다. 이러한 문제 는 측정 사각 지대를 없애기 위해 레이저 스캐너를 추가 설치하던지, 아니면 차량 표면과 오차에 대한 관련 실험을 통한 필터링 재설계를 통해 극복할 수 있을 것이라 판단된다.

    <표 5>와 <표 6>은 본 논문에서 제안한 알고리즘 을 사용한 결과와 그렇지 않은 결과를 비교한 표이 다. <표 5>는 <표 4>와 비교하여 보면 필터를 사용 하지 않을 경우 최대 6~7배의 거리 추정 차이가 생 기는 것을 알 수 있다. 이는 레이저 스캐너 데이터 에서 효율적으로 오차 및 객체 분리를 하지 못해서 생기는 결과로 판단된다. 특히 차량 두 대가 동시에 있을 경우 필터를 사용하지 않은 경우에는 두 객체 를 하나로 판단하는 경우가 생기게 된다. <표 6>은 객체 분류 알고리즘의 성능을 평가한 것이다. 필터 를 사용하지 않은 경우 분류 성능이 크게 저하되는 것을 볼 수 있다. 눈 여겨 볼 점은 차량을 대상으로 한 분류 결과는 약 20%의 오차만을 보이는데 보행 자 및 자전거의 경우 두 알고리즘 사이에 큰 차이가 발생한 것을 볼 수 있다. 차량과 같이 큰 객체의 경 우 어느 정도의 오차에도 영향을 받지 않지만, 보행 자 및 자전거의 경우 오차의 영향을 크게 받고 객체 의 외형이 불규칙적이어서 이를 처리하기가 까다롭 기 때문이다. 하지만 제안한 알고리즘을 사용한 경 우 이런 오차를 모두 고려하였기 때문에 위치 추정 및 개체 분류 성능이 뛰어남을 알 수 있다.

    본 논문에서의 실제 실험은 2차 도로에서 진행하 였기 때문에 시나리오에 다수의 객체를 투입하기 어려웠다. 하지만 레이저 스캐너에서 객체를 분리 하는 알고리즘을 사용한다면 추후 2차선 이상의 실 험 환경에서도 무리가 없다고 판단된다. 이는 시나 리오 b와 c를 통해서도 확인이 가능하다.

    Ⅵ. 결론

    본 논문에서는 다수의 레이저 스캐너로만 이루 어진 감지 시스템을 이용하여 객체를 탐지하고 이 를 분류하는 알고리즘의 성능을 평가하였다. 레이 저 스캐너로 이루어진 측정 시스템은 도로 위에 설 치되어 도로를 주행하는 객체를 그리드 맵으로 표 시, 필터링 및 레이블링 알고리즘을 사용하여 탐지 한 후 객체의 위치 및 크기 정보를 획득하였으며, 퍼지 이론을 사용하여 탐지한 객체의 종류를 분류 하였다. 레이저 스캐너에서 획득한 정확한 객체 정 보를 통해 측정된 객체의 위치 및 크기 정보는 매 우 정확히 추정하였으며, 분류 알고리즘 또한 비전 센서 정보를 사용하지 않더라도 상당한 정확도를 보였다. 또한 레이저 스캐너 사각 지대에서 발생하 는 오차도 존재하는데 이것은 레이저 스캐너를 추 가로 설치하던지 설치 위치를 달리함으로써 측정 성능을 향상시킬 수 있을 것이라 생각된다. 본 논문 의 실험 결과에서 보인 오차율은 센서 데이터의 추 가 설치 및 알고리즘의 보완을 통해 좀 더 줄일 수 있을 것이라 판단된다. 또한 이러한 시스템은 다양 한 도로 환경에서도 아무런 제약 없이 레이저 스캐 너를 설치함으로써 충분히 적용할 수 있어 여러 방 면으로 활용 가능할 것이라 생각된다.

    Figure

    KITS-13-5-35_F1.gif

    Object detection system architecture

    KITS-13-5-35_F2.gif

    Flow of sensor data processing algorithm

    KITS-13-5-35_F3.gif

    Measurement error at the grid map

    KITS-13-5-35_F4.gif

    Spot space of the laser scanner

    KITS-13-5-35_F5.gif

    Measurement error removal processing

    KITS-13-5-35_F6.gif

    Example of candidate object labeling at the local grid map

    KITS-13-5-35_F7.gif

    Membership function for inputs variables

    KITS-13-5-35_F8.gif

    Example how input convert to output

    KITS-13-5-35_F9.gif

    Measurement function for output

    KITS-13-5-35_F10.gif

    Testbed environment

    KITS-13-5-35_F11.gif

    Experiment scenario

    KITS-13-5-35_F12.gif

    Experiment results for single vehicle driving

    KITS-13-5-35_F13.gif

    Object classification results

    KITS-13-5-35_F14.gif

    Estimation results of the Object location

    KITS-13-5-35_F15.gif

    Measurement errors of distance and angle at each laser scanners

    Table

    Object modeling for fuzzy sets

    Hardware specification of the laser scanner LMS 291

    Classification accuracy according to the type of object

    Experiment results

    Performance evaluation of the location estimation

    Performance evaluation of the object classification method

    Reference

    1. Florian Ahlers and Christian Stimming, “Laserscanner based cooperative Pre-data-fusion,” Advanced Microsystems for Automotive Application 2008, pp.63-71, 2008.
    2. Florian Ahlers and Christian Stimming, “Cooperative Laserscanner Pre-Data-Fusion, ”IEEE Intelligent Vehicles Symposium 2008, pp.1187-1190, Eindhoven, Netherlands, Jun. 2008.
    3. Meng Lu, Kees Wevers and Rob Van Der Heijden, “Technical Feasibility of Advanced Driver Assistance Systems (ADAS) for Road Traffic Safety,” Transportation Planning and Technology, vol. 28, no. 3, pp.167-187, Jun. 2005.
    4. Gwang Yul Song, Ki Yong Lee and Joon Woong Lee, “Vehicle Detection by Edge-based Candidate Generation and Appearance-based Classification,” IEEE Intelligent Vehicles Symposium 2008, pp.428-433, Eindhovan, Netherlands, Jun. 2008.
    5. Goncalo Monteiro, Cristiano Premebida, Paulo Peixoto and Urbano Nunes, “Tracking and Classification of Dynamic Obstacles Using Laser Range Finder and Vision,” in Proc. IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, Beijing, China, 2006.
    6. Wook-Sun Shin, Doo-Heon Song and Chang-Hun Lee, “Vehicle Classification by Road Lane Detection and Model Fitting Using a Surveillance Camera,” International Journal of Information Processing Systems, vol. 2, no. 1, pp.52-57, Mar. 2006.
    7. Habibu Rabiu, “Vehicle Detection and Classification for Cluttered Urban Intersection,” International Journal of Computer Science, Engineering and Applications, vol. 3, no. 1, pp.37-47, Feb. 2013.
    8. Zhengping Ji and Danil Prokhorov, “Radar-Vision Fusion for Object Classification,” IEEE Int. Conf. on Information Fusion 2008, pp.1-7, Cologne, Germany, Jun. 2008.
    9. S. Tokoro, K. Moriizumi, T. Kawasaki, T. Nagao, K. Abe and K. Fujita, “Sensor Fusion system Pre-crash safety system,” IEEE Intelligent Vehicles Symposium, pp.14-17, Parma, Italy, Jun. 2004.
    10. 오주택, 이상용, 이상민, 김영삼, “Vision 시스 템의 차량 인식률 향상에 관한 연구,” 한국ITS 학회 논문지, vol. 10, no. 3, pp.16-24, Jun. 2011.
    11. Stefano Messelodi, Carla Maroa Modena and Michele Zanin, “A Computer Vision System for the Detection and Classification of Vehicles at Urban Road Intersections,” Pattern Analysis and Applications, vol. 8, pp.17-31, Sep. 2005.
    12. Xia Liu and Kikuo Fujimura, “Pedestrian Detection Using Stereo Night Vision,” IEEE Trans. on Vehicular Technology, vol. 53, no. 6, pp.1657-1665, Nov. 2004.
    13. Giorgio Grisetti, Cyrill Stachniss and Wolfram Burgard, “Improved Techniques for Grid Mapping with Rao-Blackwellized Particle Filters,” IEEE Trans. on Robotics, vol. 23, no. 1, pp.34-46, Feb. 2007.
    14. Trung-dung Vu, Olivier Aycard, “Online Localization and Mapping with Moving Object Tracking in Dynamic Outdoor Environments,” IEEE Intelligent Vehicles Symposium 2007, pp.190-195, Istanbul, Turkey, Jun. 2007.
    15. Alberto Elfes, “Using Occupancy Grids for Mobile Robot Perception and Navigation,” Computer, vol. 22, no. 6, pp.46-57, Jun. 1989.
    16. Sung-Wook Kim, Kwangsoo Kim, Joo- hyung Lee and Dong-il(Dan) Cho, “Application of Fuzzy Logic to Vehicle Classification Algorithm in Loop /Piezo-Sensor Fusion Systems,” Asian Journal of Control, vol. 3, no. 1, pp.64-68, Mar. 2001.
    17. 박준형, 김태진, 오철, “고속도로 루프검지기를 이용한 차종분류 기법 평가,” 한국ITS학회 논 문지, vol. 8, no. 1, pp.9-21, Mar. 2009.
    18. Chang Choi, Junho Choi, Eunji Lee, Ilsun You and Pankoo Kim, “Probabilistic Spatio-temporal Inference for Motion Event Understanding,” Neurocomputing, vol. 122, pp.24-32, Dec. 2013.
    19. Chang Choi, Junho Choi, Juhyun Shin, Sung-Ryul Kim and Pankoo Kim, “Semantic Representation of Motion for Tracing Object in Surveillance System,” Journal of Internet Technology, vol. 14, no. 4, pp.621-630, Jul. 2012.

    저자소개

    • 이 기 룡 (Giroung Lee)
    • 2008년 3월~현재 : 아주대학교 전자공학과 박사과정
    • 2006년 3월~2008년 2월 : 아주대학교 전자공학과 석사 졸업 (공학석사) ~2006년 2월 : 아주대학교 전자공학부 졸업 (공학사)

    • 좌 동 경 (Dongkyoung Chwa)
    • 2005년 3월~현재 : 아주대학교 전자공학과 교수
    • 1995년 3월~2001년 2월 : 서울대학교 대학원 제어계측공학과 졸업(공박) ~1995년 2월 : 서울대학교 제어계측공학과 졸업

    Footnote