Journal Search Engine

View PDF Download PDF Export Citation Korean Bibliography PMC Previewer
The Journal of The Korea Institute of Intelligent Transport Systems Vol.19 No.6 pp.96-106
DOI : https://doi.org/10.12815/kits.2020.19.6.96

Class 1·3 Vehicle Classification Using Deep Learning and Thermal Image

Yoo Seok Jung*, Do Young Jung**
*Korea Institute of Civil Engineering and Building Technology
**Korea Institute of Civil Engineering and Building Technology

† Corresponding author : Doyoung Jung, jdy@kict.re.kr
9 November 2020 │ 23 November 2020 │ 14 December 2020

Abstract


To solve the limitation of traffic monitoring that occur from embedded sensor such as loop and piezo sensors, the thermal imaging camera was installed on the roadside. As the length of Class 1(passenger car) is getting longer, it is becoming difficult to classify from Class 3(2-axle truck) by using an embedded sensor. The collected images were labeled to generate training data. A total of 17,536 vehicle images (640x480 pixels) training data were produced. CNN (Convolutional Neural Network) was used to achieve vehicle classification based on thermal image. Based on the limited data volume and quality, a classification accuracy of 97.7% was achieved. It shows the possibility of traffic monitoring system based on AI. If more learning data is collected in the future, 12-class classification will be possible. Also, AI-based traffic monitoring will be able to classify not only 12-class, but also new various class such as eco-friendly vehicles, vehicle in violation, motorcycles, etc. Which can be used as statistical data for national policy, research, and industry.



열화상 카메라를 활용한 딥러닝 기반의 1·3종 차량 분류

정 유 석*, 정 도 영**
*주저자 : 한국건설기술연구원 미래융합연구본부 전임연구원
**교신저자 : 한국건설기술연구원 미래융합연구본부 전임연구원

초록


본 연구에서는 루프 센서를 통한 교통량 수집방식의 오류를 해결하기 위해 1종(승용차)과 3종(일반 트럭)의 구분이 어려운 부분 및 영상 이미지의 단점을 보완하기 위해 도로변에 열화 상 카메라를 설치하여 영상 이미지를 수집하였다. 수집된 영상 이미지를 레이블링 단계를 거 쳐 1종(승용차)과 3종(일반 트럭)의 학습데이터를 구성하였다. 정지영상을 대상으로 labeling을 진행하였으며, 총 17,536대의 차량 이미지(640x480 pixel)에 대해 시행하였다. 열화상 영상 기반 의 차종 분류를 달성하기 위해 CNN(Convolutional Neural Network)을 이용하였으며, 제한적인 데이터량과 품질에도 불구하고 97.7%의 분류정확도를 나타내었다. 이는 AI 영상인식 기반의 도로 교통량 데이터 수집 가능성을 보여주는 것이라 판단되며, 향후 더욱더 많은 학습데이터 를 축적한다면 12종 차종 분류가 가능할 것이다. 또한, AI 기반 영상인식으로 도로 교통량의 12종 차종뿐만 아니라 다양한(친환경 차량, 도로 법규 위반차량, 이륜자동차 등) 차종 분류를 할 수 있을 것이며, 이는 국가정책, 연구, 산업 등의 통계 데이터로 활용도가 높을 것으로 판단 된다.



    Ⅰ. 서 론

    1. 개요

    교통량 분류체계는 교통제어, 교통흐름, 교통구성, 도로설계 등에 널리 적용되고 있으며, 교통량 산출 및 예측에 기초가 되는 매우 중요한 데이터이다. 기존에는 차종 분류는 루프센서(Mita and Imazu, 1995), 레이저 (Peiyu et al., 2006), 비디오 센서(Duarte and Hu, 2004) 방식의 교통량 수집을 하여 분류하였으면(Kaewkamnerd et al., 2009)(Cheung et al., 2005), 최근에는 영상 이미지 기반 차량검지 및 분류에 대한 다양한 접근 방식이 제안되고 있다. 국외에서는 영상 이미지를 통한 다양한 차량 분류가 이루어지고 있으나, 국내에서는 아직 미 흡한 실정이다. 도로교통량 통계 정보 제공뿐만 아니라 자율주행 기술의 일환으로 급속하게 발전하고 있다.

    그 방법으로는 머신러닝(Wen et al, 2015)또는 딥러닝(Zhou and Cheung, 2016)을 활용하여 차종을 구분하려 하고 있고, 또한, 객체인식 오픈소스의 등장으로 더욱 가속화 되고 있다.(Şentaş et al., 2020)

    하지만, 많은 연구에서는 이상적인 조건에서의 환경을 고려하여 실험 등을 진행하여 높은 정확도를 보였 으나, 눈, 비, 야간 등의 기상 악조건 및 일반적인 영상을 시각적으로 확인이 불가능한 이미지 분석에 대해서 는 열화상 카메라를 활용하여 일반 이미지의 단점을 보완하였다(Ramesh, 2017) 실제로 <Fig. 1>과 같이 악 천후 시에는 전조등을 통해 차량의 객체는 인식할 수 있으나 차량의 축이나 형태를 정확하게 파악할 수 없 는 것을 알 수 있다.

    <Fig. 1>

    Example of vehicle image in case of bad weather

    KITS-19-6-96_F1.gif

    본 연구에서는 루프센서를 통한 교통량 수집방식의 오류를 해결하기 위해 1종(승용차)과 3종(2축트럭)의 구분이 어려운 부분과 영상 이미지의 단점을 보완하기 위해 도로변에 열화상 카메라를 설치하여 영상 이미 지를 수집하였다. 기존 루프센서로는 1종(승용차)과 3종(2축트럭)의 길이가 같아지는 현재 상황을 반영하지 못하여 오류가 발생하며, 야간 등의 외부 환경의 요인으로 발생하는 오류를 보완하기 위해 열화상카메라를 선정하였다.

    수집된 영상 이미지를 레이블링 단계를 거쳐 1종(승용차)과 3종(2축트럭)의 학습데이터를 구성하였다. 이 를 통해 객체 인식 오픈소스를 활용하여 영상이미지를 통한 차종 분류 검증을 시행하였다.(Taek Lee and Chung, 2017; Zhao et al., 2016) 이는 국내에서 시도하지 않은 부분에서 높은 의의가 있으며, 새로운 방식의 교통량 수집 방법을 제안하고 있습니다.

    또한, 기존 교통량 수집의 단점을 극복하고 차종 분류의 정확도를 높이는 기술의 가능성에 대해 검증한다는 것에 의의를 가지고 있다. 최근 10여 년간 교통안전문제들로 인한 비효용지표의 심각성을 인식한 선진국들은 교통사고를 획기적으로 예방하기 위한 협력형 지능형교통시스템(cooperative ITS) 구상에 집중하고 있다.

    Ⅱ. 연구배경 및 선행연구

    1. 센서 기반의 차종분류

    현재 우리나라에서는 국가 교통량 제공을 하고 있는 유일한 시스템은 교통량 정보제공 시스템에서 통계 연보 데이터를 제공하고 있다. 이는 루프방식의 교통량을 수집하여 12종 차종 분류체계로 교통량을 제공하 고 있습니다. 또한 ITS(Intelligent Transport Systems)에서는 영상검지기를 통해 차종분류가 아닌 교통량 정보 를 활용하여 교통정보제공을 하고 있다.

    차량 분류방식에는 (Kaewkamnerd et al., 2009) 지자기 센서로 차량 자기 길이, 평균 에너지, 패턴 등 기반 으로 실시간 차량 분류를 시행하였다. 오토바이, 자동차, 픽업트럭, 밴의 4가지로 차종을 분류하였으며, 오토 바이는 95%의 정확도를 나타냈다. 자동차, 픽업트럭, 밴의 정확도는 68%, 82%, 71%로 검지율을 나타냈다. 차량길이가 확연한 차이가 있을떄 분류의 정확도가 높았으며, 차량의 길이가 유사한 차종에 대해서는 분류 가 어려운 것으로 나타났다.

    (Zhang et al., 2007) 비디오 기반 차량 감지 분류 시스템은 트럭 데이터 수집을 위해 개발되어 사용되고 있다. 이는 사용 중인 감시카메라에서 배경을 추출하여 여러 컴퓨터 비전 기반 알고리즘을 사용하여 차종에 대행 구 분하였다. 트럭이라는 한가지 차종에 대해 구분을 시행하였으며, 정확도는 97%이상 높은 정확도를 나타냈다

    그 외 라이터, 광학 방식, 레이져 방식, 음향신호 방식등의 차량 검지 방식이 있으며, 차종 분류에는 장점 과 한계점을 가지고 있다.(MacCarley and Slonaker, 2008)

    2. 열화상 이미지

    COVID19 이후 확산 방지하려고 발열 감지용으로 열화상 카메라를 쉽게 접할 수 있다. 열화상 카메라는 적외선을 통해 온도를 측정하고 모니터 영상으로 보여주는 장치이다. 열화상 카메라는 기술발전에 따라 사 용 분야가 점점 확대되어 산업 장비나 대형건물의 상태와 내부의 결함, 화재를 감지(Ramesh, 2017), 건설 현 장(Ali, 2019) 및 유지관리(Choi and Cho, 2018)등 다양한 용도로 쓰이고 있다.

    (Ramesh, 2017) 열화상 카메라 이미지를 딥러닝에 적용하였다. 주행중인 차량의 적외선 이미지를 도로에서 캡쳐하여 학습하였다. 차량을 적외선 카메라를 이용하여 차량상태, 차량 내부 온도, 차량 주행 시간 등을 딥 러닝을 통해 분석하였다. 또한, 주행 중 자동차의 발화에 대한 예측모델에 대해 제안하였다.

    (Cheng et al., 2019) 교량 데크의 박리평가에 대해 열화상 이미지를 활용하여 온도 대비 및 모양 확산에 대 해 검토하였다. CNN(Convolutional Neural Network)기반으로 적용 모델은 DenseNet (Dense Convolutional Network)을 적용하였으며, 케이스별 열화상 이미지 445, 413, 511장에 대해 학습을 시행하였다. 박리 모양을 정확하게 판단할 수 있었으나, 학습데이터 보강, 박리면적에 대해 체적인 판단 등의 한계점을 나타냈다. 건 설 유지관리 측면의 (Ali, 2019)열화상 측정을 사용하여 교량의 철재 요소의 지하 손상을 감지하는 새로운 딥 러닝 기반 방법을 제안하였다. 매니토바 주 위니펙의 알링턴 다리에 있는 구조용 강철 요소의 열화상 이미지 를 활용해 비냉각식 마이크로 볼로미터를 사용하여 이미지화 한 다음 학습 분석을 시행하였다. 96%의 최대 테스트 정확도를 달성했습니다. 학습데이터는 열화상 이미지 2000장을 생성하였고 1600개는 학습 400개는 테스트를 진행하였다. (Choi and Cho, 2018)열화상 이미지를 활용하여 DCNN 알고리즘을 적용으로 자동 누수 를 판별하고 현장에 직접 적용하여 정확도를 검증하였다.(Fahmy and Moselhi, 2009)캐나다에서 수도관의 기 존 누수 탐사 방법에 대하여 한계를 극복하기 위해 열화상 카메라를 활용한 누수 탐사 가능성을 조사하였고 누수지점과 비누수지점 도로지면의 온도 차이를 탐지하여 누수 지점을 찾을 수 있는 가능성을 확인하였다

    3. 영상기반 차종분류

    교통 부문 빅데이터가 양적, 질적 활용도가 점차 높아지고 있어 대규모 데이터를 활용해 소기의 성과를 내는 Deep Learning 기술의 적용 가능성 및 적용 범위가 점차 확대되고 있다. 최근 연구 동향을 살펴보면 차 량의 운행과 관련된 거의 모든 대상에 대한 자동식별에 Deep Learning기술 적용이 되고 있다.

    영상 이미지를 활용한 차종 분류방식은 다양하며, (Audebert et al., 2017)항공 이미지 활용하여 차량 이미 지를 추출 및 분류를 시행하였다. 학습이미지는 LeNet, AlexNet의 오픈소스를 활용하여 학습을 진행하였으 며, 항공 이미지의 차량에 대해 CNN(Convolutional Neural Network) 모델을 적용하였다. 차량 2357개 개체에 대해 검증하였으며, 80%이상의 평균 정확도로 차량을 분류하였다.

    (Zhuo et al., 2017) 대규모 교통감시 영상으로 차종분류를 진행하였다. Vehicle Dataset의 모든 이미지는 조 명, 소음, 해상도, 카메라 각도 및 날씨의 변화를 포함하여 실제 고속도로 감시 카메라에서 이미지를 추출하 였으며, 차량은 버스, 자동차, 오토바이, 미니 버스, 트럭 및 밴의 6 가지로 구분하였다. 기본적으로 Caffe 플 랫폼의 GoogLeNet은 초기 모델을 얻기 위해 ILSVRC-2012 데이터 셋에 대해 먼저 사전 학습진행하였고, 추 가적으로 감시 카메라 영상에서 얻은 13,700개의 이미지로 추가 학습을 진행하였다. 평균 차총 분류 정확도 는 98.2%정도로 매우 높은 정확도를 나타내며, 다양한 환경의 데이터 셋 구축으로 이상적인 조건이 아닌 상 황에서도 정확도가 높음을 알 수 있었다. (Şentaş et al., 2020) 실시간 차종분류하기 위해 SVM (Support Vector Machine)과 YOLO(You Only Look Once) 모델을 조합 성능을 높혔다. 영상에서 얻은 4944개의 이미지 를 버스, 미니 밴, 미니 버스, 트럭, 자동차의 다섯 가지 클래스 레이블링하여 학습을 진행하였고 75% 학습과 25%검증 데이터로 구분하였다.

    Ⅲ. 연구방법

    1. 열화상 이미지 수집

    신설 국도 47호선 퇴계원∼진접구간(Fig. 2)에 도로 교통량 수집장비 AVC가 설치되어 운영중에 있으며, 현재 운영중인 장비의 인근에 <Fig. 3>과 같이 설치하여 Test bad를 검증하고자 하였다. 열화상 이미지 수집 을 위해 서울 방면의 2차로에 각각 카메라를 두 대씩 설치하였으며, 번호 인식 카메라를 통한 차량의 정지 영상을 수집하였다. 다양한 데이터를 수집하기 위해 차종별 통행이 다양한 지점을 선정하였다.

    <Fig. 2>

    Naegak, Jinjeop-eup, Namyangju-si, Gyeonggido, Republic of Korea(National highway 47)

    KITS-19-6-96_F2.gif
    <Fig. 3>

    Test Bed

    KITS-19-6-96_F3.gif

    번호 인식 카메라에서 레이져 센서를 통해 차량이 통과할때의 이미지를 저장하여 데이터를 수집하였다. 기본적으로 번호 인식 카메라의 인식율은 95% 이상으로 이상적인 수준의 기존 기술을 적용한 것이며. 측면 의 열화상카메라는 번호 인식 카메라의 차량통과 신호를 받아 열화상 카메라 정지 영상을 확보할 수 있었다

    2. 데이터 라벨링

    2019년 3월부터 6월까지 Test Bed에서 수집한 정지영상을 대상으로 labeling을 진행하였으며, 총 17,536대 의 차량 이미지(640x480 pixel)에 대해 시행하였다. 차종분류 결과 <Fig. 4>의 1종 차종 9,804장, <Fig. 5>의 3 종 차종 3,275장을 확보하였다. 해당데이터는 차량 두대 이상 나란히 달리고 있거나 화각 밖으로 나가서 잘 린 이미지들은 제외하였다. 그중에 1종 826장, 3종 295장을 임의로 선정하여 테스트 셋으로 만들었다. 테스 트셋에는 주간과 야간에 취득한 데이터가 포함되도록 하였다. 또한 10% 의 이미지를 검증셋으로 설정하였 다. 여기서 훈련셋은 모델의 학습에 사용되는 데이터이고, 검증셋은 모델학습과정중 성능을 측정하기 위한 데이터 이다. 테스트셋은 모델의 죄종 성능을 평가하기 위한 데이터로 다른 데이터와 섞이지 않게 해야한다. 이 과정을 통해 과소적합(underfitting) 혹은 조기종료(early stopping), 과적합(overfitting)을 방지할 수 있다.

    <Fig. 4>

    Thermal image of class 1 vehicle

    KITS-19-6-96_F4.gif
    <Fig. 5>

    Thermal image of class 3 vehicle

    KITS-19-6-96_F5.gif

    3. CNN

    CNN(Convolutional Neural Network)는 <Fig. 6>을 이용하여 설명하려고 한다. <Fig. 6(a)>는 FCN(Fully connected neural network)의 예시이다. <Fig. 6(b)>는 1D CNN, <Fig. 6(c)>은 2D CNN을 나타낸다. FCN은 완 전히 연결된 데에 반해서 CNN은 인접한 유닛만 연결되는 차이가 있다. FCN은 1차원으로만 적용할 수 있는 데에 비해 CNN은 2D 이미지 데이터나 3D 에 활용 할 수 있기 때문에 공간 정보의 손실을 방지할 수 있다. 특정 크기의 필터를 이동하면서 계산을 진행한다. 필터가 이동하는 일정한 간격을 stride라 한다. padding은 입력값 주위에 0값을 넣어 입력값의 크기를 임의로 키우는 방법으로, 필터 크기에 따라 다음 레이어의 크기 가 작아지는 것을 방지할 수 있다. pooling 방법 중에서 Max pooling이 가장 일반적으로 사용되는데, 큰 값이 주변을 대표한다는 개념으로 레이어 크기를 줄이고 싶을때 사용할 수 있다. 따라서 다음 레이어의 크기는 pooling, stride, padding에 따라 결정된다(Chun and Ryu, 2019).

    <Fig. 6>

    Example of (a) FCN (b)1D and (c) 2D CNN

    KITS-19-6-96_F6.gif

    Ⅳ. CNN 학습 및 결과

    1. 네트워크 구성

    차종 분류 모델의 학습 가능성을 확인하는 것이 목적인만큼 딥러닝 층은 <Fig. 3>과 같이 단순하게 구성 하였다. 각 MaxPooling 층에 Pool size = (2,2)로 설정하였고 2D Convolution 층의 Kernel size와 Strides는 각각 (12,12)와 (2,2)로 설정하였다. 과적합을 방지하기 위해 각 Layer 마다 25%의 Dropout을 설정하였다. 분류문 제 이므로 Output Layer의 Activation은 ‘Softmax’를 설정하였고 그외의 Layer들은 ‘Relu’로 설정하였다.

    그리고 네트워크에 따라 학습결과의 차이를 확인하기 위해 <Table 1>과 같이 레이어 수와 각 레이어의 노 드 수를 다르게 하여 학습계획을 수립하였다. Kernel size나 Strides, Pool size는 앞서 설정한대로 고정한 것은 연구 범위의 한계에 의해 변수를 제한하기 위함이다. 그 중에 Node unit 수가 32개이고 레이어 수가 3개인 네트워크를 도식화 하면 <Fig. 7>과 같다.

    <Table 1>

    Factorial Design for Optimal network

    KITS-19-6-96_T1.gif
    <Fig. 7>

    CNN Network

    KITS-19-6-96_F7.gif

    2. 학습결과

    학습 계획에 따른 결과는 <Table 2>와 같다. Layer가 1개 인 네트워크 이외에는 정확도가 오차범위 이내로 우수하다. 학습 시간은 모두 Epoch당 14.1초로 차이가 없었다. 대표적인 학습 결과를 <Fig. 8>에 그래프로 나 타내었다.

    <Table 2>

    Factorial Design for Optimal network

    KITS-19-6-96_T2.gif
    <Fig. 8>

    Plot of CNN learning result

    KITS-19-6-96_F8.gif

    최종 Epoch의 검증셋 정확도는 97.7% 를 나타내었다. <Fig. 8>의 CNN 학습결과를 보면 100 Epoch 이후에 학습이 수렴하는 것을 확인 할 수 있었다. 수렴해가는 과정이 보여졌고, 테스트셋에서의 정확도가 크게 차이 나지 않으므로 과적합이나 과소 적합은 발생하지 않았다. 각 Epoch마다 차이는 있었으나 항상 97% 에서 98% 정도의 분류정확도를 나타내는 것을 확인 하여 현재 교통량 조사 장비의 정확도 기준인 95%를 만족하 는 성능이다. 양질의 데이터셋을 확보하거나 K-fold cross validation 등 정확도를 높일 수 있는 기술을 도입한 다면 더 높은 정확도를 기대할 수 있을 것이다.

    1종(승용)과 3종(2축트럭)의 차종을 구분하기 위한 학습을 진행하였으며, 향후 12종 및 확장 데이터를 구 분하는 학습을 진행하여 데이터 다양한 데이터 및 정확도를 공공으로 제공하고자 한다.

    또한, 실제 상용화 단계에서는 동영상을 통한 객체 검증이 필요하며, 이를 수행하기 위해서는 카메라 200 만화소 기준 초당 30프레임의 정지영상의 중복제거 기술 등을 통한 정확한 객체 인식 알고리즘 등 기능이 필요하다.

    Ⅴ. 결 론

    현재 도로 교통량 조사는 루프 센서 방식으로 차종을 분류하고 있으나, 1종(승용)과 3종(2축트럭)의 차량 길이가 같아져 루프센서로 추출하는 것에 대한 한계를 보이고 있어, 이를 보완하기 위해 도로변에 영상(열화 상) 카메라를 설치하여 AI 영상인식 방식의 1종(승용)과 3종(2축트럭) 차종 분류를 시행하였다.

    또한, 야간, 눈, 비 등의 외부환경의 영향을 최소화하기 위해 열화상 카메라를 사용하여 정확도를 높이는 데 기여하였다.

    AI 영상(열화상)인식 기반의 차종 분류를 달성하기 위해 CNN 방법을 사용하였으며, 기존 매설식 차종분 류의 오류가 발생하고 있는 1종(승용)과 3종(2축트럭)에 대하여 우선 데이터 수집 및 분류를 수행하였다. 제 한적인 데이터양과 품질에도 불구하고 검증데이터 셋의 97.7%의 분류정확도를 나타내었다.

    이는 AI 영상인식 기반의 도로 교통량 데이터 수집 가능성을 보여주는 것이라 판단되며, 일반 카메라의 단점을 보완하기 위해 열화상으로 실험을 진행하였으나, 추후 일반 영상도 진행하여 비교분석을 진행 할 필 요가 있다. 이에 따른 문제점 및 보완 사항을 추가하여 카메라 기능을 선정하는 것이 필요하다.

    향후 본 연구에서 진행하지 못한 실측 데이터(동영상)와 비교분석을 하여 검증을 하여야 한다. 또한, 더욱 더 많은 학습데이터를 축적한다면 12종 차종 분류가 가능할 것이며, AI기반 영상인식으로 12종 차종뿐만 아 니라 다양한(친환경 차량, 도로 법규 위반차량, 이륜자동차 등) 차종 분류를 할 수 있을 것이다.

    AI 영상인식 기반의 도로 교통량 수집으로 루프센서방식의 수집보다 더욱 다양한 데이터를 확보 할 수 있 으며, AI 영상인식 기반의 교통량 수집 장비 기술개발을 가속화 할 수 있는 기초 데이터로 활용 될 것이다.

    또한, 국가 통계 공공데이터로 국가정책, 산업, 연구 등에 지속해서로 활용되며, 도로 교통량 통계 데이터 의 신뢰도 및 활용도가 높아질 것이다.

    ACKNOWLEDGEMENTS

    본 연구는 한국건설기술연구원 주요사업인 ‘50% 경량-저비용화 스마트 IoT-BEMS 중소건물 보급형 플랫 폼 개발’ 과제 지원으로 수행하였습니다.

    Figure

    KITS-19-6-96_F1.gif

    Example of vehicle image in case of bad weather

    KITS-19-6-96_F2.gif

    Naegak, Jinjeop-eup, Namyangju-si, Gyeonggido, Republic of Korea(National highway 47)

    KITS-19-6-96_F3.gif

    Test Bed

    KITS-19-6-96_F4.gif

    Thermal image of class 1 vehicle

    KITS-19-6-96_F5.gif

    Thermal image of class 3 vehicle

    KITS-19-6-96_F6.gif

    Example of (a) FCN (b)1D and (c) 2D CNN

    KITS-19-6-96_F7.gif

    CNN Network

    KITS-19-6-96_F8.gif

    Plot of CNN learning result

    Table

    Factorial Design for Optimal network

    Factorial Design for Optimal network

    Reference

    1. Ali R. (2019), Deep learning-and infrared thermography-based subsurface damage detection in a steel bridge, University of Manitoba.
    2. Audebert N. , Le Saux B. and Lefèvre S. (2017), “Segment-before-detect: Vehicle detection and classification through semantic segmentation of aerial images,” Remote Sensing, vol. 9, no. 4, 368.
    3. Bajwa R. et al. (2011), “In-pavement wireless sensor network for vehicle classification,” In Proceedings of the 10th ACM/IEEE International Conference on Information Processing in Sensor Networks, IEEE, pp.85-96.
    4. Bang H. T. , Park S. and Jeon H. (2020), “Defect identification of composites via thermography and deep learning techniques,” Composite Structures, vol. 246, 112405.
    5. Burnos P. et al. (2011), “Road traffic parameters measuring system with variable structure,” Metrology and Measurement Systems, vol. 18, no. 4, pp.659-666.
    6. Cao Y. et al. (2020), “Two-stream convolutional neural network for non-destructive subsurface defect detection via similarity comparison of lock-in thermography signals,” NDT & E International, vol. 112, 102246.
    7. Chen Z. , Ellis T. and Velastin S. A. (2012), “Vehicle detection, tracking and classification in urban traffic,” In 2012 15th International IEEE Conference on Intelligent Transportation Systems, IEEE, pp.951-956.
    8. Cheng C. , Shang Z. and Shen Z. (2019), “CNN-based deep architecture for reinforced concrete delamination segmentation through thermography’,” In Computing in Civil Engineering 2019: Smart Cities, Sustainability, and Resilience, American Society of Civil Engineers Reston, VA, pp.50-57.
    9. Cheung S. Y. et al. (2005), “Traffic measurement and vehicle classification with single magnetic sensor',” Transportation Research Record, vol. 1917, no. 1, pp.173-181.
    10. Choi Y. H. and Cho W. S. (2018), “Research of Automatic Water Leak Detection Technology Used on Thermography and Deep Learning,” The Journal of Korean Institute of Information Technology, vol. 16, no. 8, pp.1-9,
    11. Chun C. and Ryu S. K. (2019), “Road Surface Damage Detection Using Fully Convolutional Neural Networks and Semi-Supervised Learning,” Sensors, vol. 19, no. 24, 5501,
    12. Duarte M. F. and Hu Y. H. (2004), “Vehicle classification in distributed sensor networks,” Journal of Parallel and Distributed Computing, vol. 64, no. 7, pp.826-838.
    13. Fahmy M. and Moselhi O. (2009), “Detecting and locating leaks in underground water mains using thermography,” In Proceedings of the 26th International Symposium on Automation and Robotics in Construction(ISARC 2009), Austin, TX, USA, pp.24-27.
    14. Kaewkamnerd S. et al. (2009), “Automatic vehicle classification using wireless magnetic sensor',” In 2009 IEEE International Workshop on Intelligent Data Acquisition and Advanced Computing Systems: Technology and Applications, IEEE, pp.420-424.
    15. Lee J. T. and Chung Y. (2017), “Deep learning-based vehicle classification using an ensemble of local expert and global networks,” In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp.47-52.
    16. Liu W. et al. (2017), “An ensemble deep learning method for vehicle type classification on visual traffic surveillance sensors,” IEEE Access, vol. 5, pp.24417-24425.
    17. Ma W. et al. (2013), “A wireless accelerometer-based automatic vehicle classification prototype system,” IEEE Transactions on Intelligent Transportation Systems, vol. 15, no. 1, pp.104-111.
    18. MacCarley A. and Slonaker J. (2008), Video Vehicle Detector Verification System(V2DVS).
    19. Mita Y. and Imazu K. (1995), “Range-measurement-type optical vehicle detector,” Intelligent Transport Systems World Congress.
    20. Peiyu L. , Dapeng T. and Boyu L. (2006), “Embedded flexible assembly system for car latch based on laser identification,” International Technology and Innovation Conference 2006(ITIC 2006).
    21. Ramesh V. (2017), “A Review on Application of Deep Learning in Thermography,” International Journal of Engineering and Management Research(IJEMR), vol. 7, no. 3, pp.489-493.
    22. Şentaş A. et al. (2020), “Performance evaluation of support vector machine and convolutional neural network algorithms in real-time vehicle type and color classification,” Evolutionary Intelligence, vol. 13, no. 1, pp.83-91.
    23. Taghvaeeyan S. and Rajamani R. (2013), “Portable roadside sensors for vehicle counting, classification, and speed measurement,” IEEE Transactions on Intelligent Transportation Systems, vol. 15, no. 1, pp.73-83.
    24. Tang Y. et al. (2017), “Vehicle detection and recognition for intelligent traffic surveillance system,” Multimedia tools and applications, vol. 76, no. 4, pp.5817–5832.
    25. Valev K. et al. (2018), “A systematic evaluation of recent deep learning architectures for fine-grained vehicle classification,” In Pattern Recognition and Tracking XXIX, International Society for Optics and Photonics, 1064902.
    26. Wen X. et al. (2015), "A rapid learning algorithm for vehicle classification," Information sciences, vol. 295, pp.395-406.
    27. Wu J. et al. (2019), “Automatic vehicle classification using roadside LiDAR data,” Transportation Research Record, vol. 2673, no. 6, pp.153-164.
    28. Xie R. et al. (2016), “Resource-constrained implementation and optimization of a deep neural network for vehicle classification,” In 2016 24th European Signal Processing Conference(EUSIPCO), IEEE, pp.1862-1866.
    29. Yousaf K. , Iftikhar A. and Javed A. (2012), “Comparative analysis of automatic vehicle classification techniques: A survey,” International Journal of Image, Graphics and Signal Processing, vol. 4, no. 9, pp.52-59.
    30. Zhang G. , Avery R. P. and Wang Y. (2007), “Video-based vehicle detection and classification system for real-time traffic data collection using uncalibrated video cameras,” Transportation Research Record, vol. 1993, no. 1, pp.138-147.
    31. Zhao D. , Chen Y. and Lv L. (2016), “Deep reinforcement learning with visual attention for vehicle classification,” IEEE Transactions on Cognitive and Developmental Systems, vol. 9, no. 4, pp.356-367.
    32. Zhou Y. and Cheung N. M. (2016), Vehicle classification using transferable deep neural network features, arXiv preprint arXiv:1601.01145.
    33. Zhuo L. et al. (2017), “Vehicle classification for large-scale traffic surveillance videos using convolutional neural networks,” Machine Vision and Applications, vol. 28, no. 7, pp.793-802.

    저자소개

    Footnote