KR102074073B1 - Method for detecting vehicles and apparatus using the same - Google Patents

Method for detecting vehicles and apparatus using the same Download PDF

Info

Publication number
KR102074073B1
KR102074073B1 KR1020180075127A KR20180075127A KR102074073B1 KR 102074073 B1 KR102074073 B1 KR 102074073B1 KR 1020180075127 A KR1020180075127 A KR 1020180075127A KR 20180075127 A KR20180075127 A KR 20180075127A KR 102074073 B1 KR102074073 B1 KR 102074073B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
moving object
similarity
histogram
Prior art date
Application number
KR1020180075127A
Other languages
Korean (ko)
Other versions
KR20200002066A (en
Inventor
이재성
Original Assignee
한국교통대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국교통대학교산학협력단 filed Critical 한국교통대학교산학협력단
Priority to KR1020180075127A priority Critical patent/KR102074073B1/en
Publication of KR20200002066A publication Critical patent/KR20200002066A/en
Application granted granted Critical
Publication of KR102074073B1 publication Critical patent/KR102074073B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G06K9/4647
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

인식률을 유지하면서 연산량을 감소시킬 수 있는 영상 처리 기반의 차량 인식 방법 및 이를 이용하는 장치가 개시된다. 차량 인식 방법은, 도로 영상을 획득하고, 도로 영상 내 이동객체의 영역에 가변 크기를 갖는 두 개의 윈도우들을 형성하고, 두 개의 윈도우들을 각각 슬라이딩하여 중첩시키고, 두 개의 윈도우의 히스토그램들 간의 유사성을 비교하고, 유사성의 비교 결과를 토대로 차량 여부 또는 차량 영역을 인식하며, 여기서 두 개의 윈도우들은 이동 객체에 대응하는 차량을 정면에서 바라보고 반으로 나누었을 때 나눠진 양쪽 부분들이 서로 대칭적이라는 형태적 특징을 가진다.Disclosed are an image processing-based vehicle recognition method and an apparatus using the same, which can reduce an amount of computation while maintaining a recognition rate. The vehicle recognition method acquires a road image, forms two windows having variable sizes in an area of a moving object in the road image, slides two windows to overlap each other, and compares similarities between histograms of the two windows. Based on the comparison result of the similarity, the vehicle recognizes whether the vehicle is located or the area of the vehicle, where the two windows show the front side of the vehicle corresponding to the moving object and split in half. Have

Description

차량 인식 방법 및 이를 이용하는 장치{METHOD FOR DETECTING VEHICLES AND APPARATUS USING THE SAME}Vehicle recognition method and apparatus using same {METHOD FOR DETECTING VEHICLES AND APPARATUS USING THE SAME}

본 발명의 실시예들은 차량 인식 방법에 관한 것으로, 보다 상세하게는, 인식률을 유지하면서 연산량을 감소시킬 수 있는 영상 처리 기반의 차량 인식 방법 및 이를 이용하는 장치에 관한 것이다.Embodiments of the present invention relate to a vehicle recognition method, and more particularly, to an image processing-based vehicle recognition method and apparatus using the same that can reduce the amount of computation while maintaining the recognition rate.

최근 활발히 연구되고 있는 차세대 지능형교통시스템(C-ITS, Cooperative Intelligent Transport Systems)은 공간에 따라 정보제공의 제약이 있는 기존의 지능형교통시스템(ITS)과 달리 교통정보의 수집과 제공 체계가 상호 분리되어 있어 차량과 차량(V2V), 차량과 도로 인프라(V2I) 간 지속적이고 신속한 정보공유가 가능하여 능동적인 돌발 상황 사전대응 및 예방 등이 가능한 장점이 있다.The next-generation Cooperative Intelligent Transport Systems (C-ITS), which is being actively researched recently, has a separate system for collecting and providing traffic information, unlike existing ITS, which has limitations in providing information according to space. As a result, continuous and rapid information sharing between the vehicle and the vehicle (V2V) and the vehicle and the road infrastructure (V2I) enables active proactive response and prevention.

이러한 C-ITS에서 영상을 통해 교통 정보를 수집하는 첨단도로 인프라는 자율주행자동차의 차량주행에 필요한 많은 다양한 정보를 제공하여 자율주행자동차의 제한적인 주변인지 범위 문제와 고가의 센서 장비 등 비용문제를 극복할 수 있다.The advanced road infrastructure that collects traffic information through video in C-ITS provides a variety of information necessary for driving of autonomous cars, thereby limiting the cost issues such as limited perception range of autonomous cars and expensive sensor equipment. It can be overcome.

C-ITS와 첨단도로 인프라에서 도로 위 차량 인식은 상당히 중요하다. 영상 인식 분야에서 특정 물체의 인식을 위해 대표적으로 사용되는 SIFT(Scale-Invariant Feature Transform) 알고리즘은 높은 연산량과 다양한 차량의 참조 모델(이미지)들이 사전에 필요로 한다는 문제가 있어 불특정 다수의 차량을 실시간으로 인식하는 시스템으로 구현하기에는 무리가 있다.On-road vehicle awareness is critical for C-ITS and advanced road infrastructure. The Scale-Invariant Feature Transform (SIFT) algorithm, which is typically used to recognize a specific object in the image recognition field, has a problem that a large amount of computation and reference models (images) of various vehicles are required in advance, thus realizing an unspecified number of vehicles in real time. There is no way to implement a system that recognizes this as a system.

좀더 구체적으로, 영상을 이용한 교통정보 수집에서 가장 중요한 요소는 차량으로 의심되는 이동객체를 1대의 완전한 차량으로 정확히 인지하는 문제이다. 지금까지는 모션 히스토리(Motion History), SIFT(Scale-Invariant Feature Transform), 히스토그램 역투영(Back-projection)을 이용한 평균시프트(Mean Shift), 머신러닝 알고리즘 등을 사용하여 차량을 인지해 왔다.More specifically, the most important factor in collecting traffic information using images is a problem of accurately recognizing a moving object suspected as a vehicle as one complete vehicle. Until now, the vehicle has been recognized using motion history, scale-invariant feature transform (SIFT), mean shift using histogram back-projection, and machine learning algorithms.

모션 히스토리 알고리즘은 인접하는 프레임들의 차연산을 통해 각각의 결과 이미지에서 임계치 이상의 값들을 이진화한뒤, 그 결과 이미지들을 짧은 시간동안 겹쳐 나타내어 이동객체의 움직임을 추정하는 알고리즘이다. 하지만 차량 정체 등으로 긴시간 동안 영상 프레임이 멈춰 있을 경우 이동객체로 인지하지 못한다는 단점이 있다.The motion history algorithm is an algorithm for estimating the motion of a moving object by binarizing values above a threshold value in each result image through difference operations of adjacent frames, and then superimposing the result images for a short time. However, there is a disadvantage that the moving object is not recognized when the image frame is stopped for a long time due to the congestion of the vehicle.

SIFT 알고리즘의 경우 특징점을 기반으로 프레임 간 객체 매칭을 통하여 차량을 인지하기 때문에 시간에 상관없이 차량을 잘 인지할 수 있다. 하지만, 처리할 연산량이 너무 많아 실시간 처리가 불가능하다. 경우에 따라서는 한 프레임 계산에 2~3초가 수행되기도 한다. 뿐만 아니라 사전에 차량 모델 이미지들을 미리 입력해 주어야 하기 때문에 불특정 다수의 차량을 검출하기에는 매우 제한적이다.In the case of the SIFT algorithm, the vehicle is recognized through object matching between frames based on the feature points, so that the vehicle can be recognized regardless of time. However, the amount of computation to process is so large that real-time processing is impossible. In some cases, two to three seconds are performed in one frame calculation. In addition, since it is necessary to input the vehicle model images in advance, it is very limited to detect an unspecified number of vehicles.

히스토그램 역투영 기법을 사용한 Mean-Shift는 색상정보(Hue Channel) 히스토그램을 이용해 입력 영상에서 유사도를 측정하고 그 결과 영상의 픽셀값을 확률값으로 변경시켜 구한 확률값 분포에 대해 Mean-Shift를 수행한다. 하지만 SIFT와마찬가지로 사전정보를 요구하기 때문에 불특정 다수의 차량을 검지하는 것은 실제로 불가능하다.Mean-Shift using the histogram inverse projection technique measures the similarity in the input image using a Hue channel histogram and performs Mean-Shift on the probability distribution obtained by changing the pixel value of the image into a probability value. However, as with SIFT, it requires practical information, so it is virtually impossible to detect an unspecified number of vehicles.

한편, 최근에 머신러닝을 이용한 차량 검지 방법도 많이 연구되고 있는데 SIFT와 마찬가지로 연산 복잡도가 너무 커서 실시간 처리는 불가능하다.Recently, a lot of vehicle detection methods using machine learning have been studied. Like SIFT, computational complexity is so large that real-time processing is impossible.

이와 같이, 현재 불특정 다수의 차량에 대한 인식률을 유지하거나 높이면서 실시간 인식을 위해 연산량을 감소시킬 수 있는 차량 인식 방법이 필요하다.As such, there is a need for a vehicle recognition method capable of reducing the amount of computation for real time recognition while maintaining or increasing the recognition rate for a plurality of unspecified vehicles.

본 발명은 기존 알고리즘들의 높은 연산 복잡도(run-time 처리불가능) 또는 사전에 약속된 차량만을 검지하는 문제점을 극복하고 인식률을 높이면서 연산량을 감소시킬 수 있는 방안으로서 히스토그램 기반의 데칼코마니 정합 알고리즘을 이용하는 차량 인식 방법 및 이를 이용하는 장치를 제공하는데 있다.The present invention overcomes the problem of detecting high computational complexity (not run-time processing) of the existing algorithms or only a vehicle that has been promised in advance, and reduces the amount of computation while increasing the recognition rate, and uses a histogram-based decalcomani matching algorithm. A recognition method and an apparatus using the same are provided.

본 발명의 다른 목적은 높은 연산 복잡도 때문에 실시간 처리가 어렵다는 기존 차량 인지 방법들에서의 문제점을 극복하기 위한 것으로 영상검지기(VDS) 등에 유용한, 히스토그램 기반의 데칼코마니 정합 알고리즘을 이용하는 차량 인식 방법 및 이를 이용하는 장치를 제공하는데 있다.Another object of the present invention is to overcome the problems of existing vehicle recognition methods, which are difficult to process in real time due to high computational complexity, and are useful in vehicle detection methods using a histogram-based decalcommani matching algorithm and apparatus using the same. To provide.

상술한 기술적 과제를 달성하기 위하여 본 발명의 일 측면에 따른 차량 인식 방법은, 도로 인프라 카메라로부터 입력되는 영상에 대한 전처리 과정을 통해 도로 영역을 정의하고, 입력 프레임들을 누적하여 배경 영상을 생성하고, 상기 배경 영상과 현재 입력 프레임 간의 차연산(difference operation)을 통해 도로 위의 이동객체를 검출하고, 검출한 이동객체를 별도의 이미지 윈도우로 분리하고, 분리된 이미지 윈도우 안에서 히스토그램 기반 데칼코마니 정합 과정을 통해 유사도를 계산하고, 유사도 값을 분석하여 차량의 진위 여부를 판단한다.In order to achieve the above technical problem, the vehicle recognition method according to an aspect of the present invention defines a road area through a preprocessing process for an image input from a road infrastructure camera, accumulates input frames to generate a background image, The moving object on the road is detected through a difference operation between the background image and the current input frame, the detected moving object is separated into a separate image window, and a histogram-based decalcomani matching process is performed within the separated image window. The similarity is calculated, and the similarity value is analyzed to determine the authenticity of the vehicle.

상술한 기술적 과제를 달성하기 위하여 본 발명의 다른 측면에 따른 차량 인식 방법은, 카메라로부터 입력되는 영상에서 도로 영역을 관심 영역으로 정의하고, 입력 프레임을 누적하여 배경 영상을 생성하고, 상기 배경 영상과 현재 입력 프레임 간의 차연산을 수행하여 도로 위 이동객체를 검출하고, 검출한 이동객체를 이미지 윈도우로 분리하고, 분리된 이미지 윈도우 내에서 히스토그램 데칼코마니 정합을 적용하여 유사도를 측정하고, 일정 개수의 영상들이 누적될 때까지 위의 과정들을 반복 수행하고, 상기 히스토그램 데칼코마니 정합에 따른 유사도 계수를 분석하여 차량의 진위 여부를 판단한다.According to another aspect of the present invention, there is provided a vehicle recognition method, which defines a road area as an ROI in an image input from a camera, generates a background image by accumulating input frames, and generates a background image. It detects moving objects on the road by performing the difference operation between the current input frames, separates the detected moving objects into image windows, measures similarity by applying histogram decalcomani matching within the separated image windows, and a certain number of images The above processes are repeated until they accumulate, and the similarity coefficients according to the histogram decalcomani matching are analyzed to determine the authenticity of the vehicle.

상술한 기술적 과제를 달성하기 위하여 본 발명의 또 다른 측면에 따른 차량 인식 방법은, 입력 프레임에서 다수의 좌표를 받아 이진화 다각형 이미지를 생성하는 단계-상기 다각형 이미지는 관심영역으로 정의됨-; 입력 프레임들을 누적하여 배경 영상을 생성하는 단계; 상기 다각형 이미지와 현재 입력되는 프레임 간의 논리 연산을 통해 다각형 내부 영역만을 획득하는 단계; 상기 배경 영상과 현재 입력 프레임 간의 차연산의 결과를 절대값으로 두고 일정 임계치와 비교하여 이진화를 수행하고 일정 임계 값 이상의 픽셀 값을 가지는 좌표를 움직임이 일어나는 좌표로 추정하여 도로 위 이동객체를 검출하는 단계; 상기 이동객체의 윤곽선으로 정의되는 직사각형 영역을 수직 중앙선을 중심으로 반으로 나누는 단계; 상기 반으로 나누어진 좌우 윈도우 영역의 오리지널 픽셀값을 가지고 히스토그램을 구해 상호 비교하는 단계; 상기 좌우 윈도우 영역의 폭을 조금씩 증가시켜가며 좌측 또는 우측으로 슬라이딩시키면서 좌우 윈도우 영역의 히스토그램 유사도를 계산하고, 그 계산 값이 가장 높은 지점에서 슬라이딩을 멈춤으로써 차량의 중심을 찾는 단계; 및 상기 좌우 윈도우 영역들에 대한 히스토그램의 유사도 계수 또는 비교 계수를 토대로 상기 이동객체가 차량인지를 판단하는 단계;를 포함한다.According to another aspect of the present invention, there is provided a vehicle recognition method, comprising: generating a binary polygon image by receiving a plurality of coordinates in an input frame, wherein the polygon image is defined as a region of interest; Accumulating input frames to generate a background image; Obtaining only a polygonal inner region through a logical operation between the polygonal image and the currently input frame; The result of the difference operation between the background image and the current input frame is set as an absolute value, binarization is performed by comparing with a predetermined threshold value, and a moving object on the road is detected by estimating a coordinate having a pixel value equal to or greater than a predetermined threshold value as a coordinate at which movement occurs. step; Dividing a rectangular area defined as an outline of the moving object in half with respect to a vertical center line; Obtaining a histogram using original pixel values of the left and right window regions divided in half and comparing them with each other; Calculating the histogram similarity of the left and right window areas by gradually increasing the width of the left and right window areas, and finding the center of the vehicle by stopping the sliding at the point where the calculated value is the highest; And determining whether the moving object is a vehicle based on a similarity coefficient or a comparison coefficient of the histograms for the left and right window regions.

일실시예에서, 차량 인식 방법은, 상기 이동객체를 검출하는 단계 후에, 상기 이동객체를 포함하는 영상 내 잡음을 제거하기 위해 미디안 필터링을 수행하는 단계; 상기 이동객체의 객체 분리현상이 억제되도록 혹은 상기 이동객체의 분할된 객체 덩어리들이 병합되도록 모폴로지 연산을 수행하는 단계; 및 침식 연산을 통해 상기 모폴로지 불림 연산 또는 팽창 연산에 의해 외부로 팽창한 객체 부분을 깎아 원래의 크기로 복원시키는 단계;를 더 포함할 수 있다.In one embodiment, the method for recognizing a vehicle may include: performing median filtering to remove noise in an image including the moving object after detecting the moving object; Performing a morphology operation such that object separation of the mobile object is suppressed or the divided object chunks of the mobile object are merged; And slicing the part of the object inflated to the outside by the morphology call operation or the expansion operation to restore the original size to the original size through an erosion operation.

일실시예에서, 모폴로지 연산을 수행하는 단계는, 상기 이동객체에서 수직 방향으로 분할이 있는 경우, 병합에 사용되는 마스크의 크기를 2X8로 정의하여 수직 방향으로 더 많은 불림(dilation)이 되도록 수행될 수 있다.In one embodiment, the step of performing a morphology operation, if there is a division in the vertical direction in the moving object, by defining the size of the mask used for merging to 2X8 to be more dilation in the vertical direction Can be.

여기서, 모폴로지 불림 연산은 입력 영상의 객체 부분 또는 화이트 영역의 모든 픽셀 위치로 마스크의 중심이 지나면서 마스크가 덮는 부분의 중심좌표 픽셀 값으로 마스크가 덮는 영역 내 모든 픽셀들의 값을 상기 중심좌표 픽셀 값으로 바꾸는 혹은 중심좌표 픽셀로 바꾸는 과정을 지칭할 수 있다. 마스크의 모양과 크기는 카메라의 설치 위치에 따라 튜닝되거나 다르게 결정될 수 있다.Here, the morphology call operation is a value of all the pixels in the area covered by the mask as the center pixel value of the area covered by the mask while passing the center of the mask to all pixel positions of the object portion or the white area of the input image. It may refer to a process of converting to or converting to a center coordinate pixel. The shape and size of the mask can be tuned or determined differently depending on the installation position of the camera.

일실시예에서, 상기 배경 영상을 생성하는 단계는, 입력되는 연속적인 프레임을 일정 가중치로 누적하여 상기 배경 영상을 획득하고, 상기 배경 영상은 차량 전면의 일정 길이의 2차선 도로 부분을 포함할 수 있다.In an embodiment, the generating of the background image may include accumulating consecutive input frames with a predetermined weight to obtain the background image, and the background image may include a two-lane road portion having a predetermined length in front of the vehicle. have.

일실시예에서, 상기 나누는 단계는, 상기 이동객체의 객체영상에서 흰색 픽셀값을 가지는 상하좌우 방향에서의 최외각 픽셀 좌표를 조사하여 사각 영역을 계산하고, 입력 프레임의 밝기 값을 계산한 이미지로부터 이동객체의 객체영역을 분리하여 이동객체에 대한 새로운 이미지를 생성할 수 있다.In an exemplary embodiment, the dividing may include calculating a rectangular region by examining outermost pixel coordinates in up, down, left, and right directions having a white pixel value in the object image of the moving object, and calculating brightness values of an input frame. By separating the object area of the moving object, a new image for the moving object can be created.

일실시예에서, 상기 차량의 중심을 찾는 단계는, 상기 유사도의 계산에서 유사도 계수가 기설정된 범위 밖이면 슬라이딩의 스텝을 넓히고 상기 범위에 들어오면 슬라이딩 스텝을 조금씩 증가시켜 연산 속도와 정밀도를 제어할 수 있다.In one embodiment, the step of finding the center of the vehicle, in the calculation of the degree of similarity if the similarity coefficient is out of a predetermined range to widen the step of sliding and enter the range by a little increase in the sliding step to control the operation speed and precision Can be.

상술한 기술적 과제를 달성하기 위하여 본 발명의 또 다른 측면에 따른 차량 인식 장치는, 입력 영상에서 도로 영역을 정의하는 설정부; 상기 입력 영상 또는 입력 프레임을 누적하여 배경영상을 생성하는 누적부; 상기 배경영상과 현재 입력 프레임 간의 차연산(subtraction)을 통해 도로 위 이동객체를 검출하는 차연산부; 상기 검출된 이동객체에 대응하는 관심영역을 두 이미지 윈도우들로 분리하는 분리부; 상기 두 이미지 윈도우들의 히스토그램의 유사성을 비교하는 유사도 측정부; 및 상기 유사도 측정부를 통해 획득한 유사도계수에 기초하여 차량의 진위 여부 또는 차량 영역을 판단하는 판단부를 포함한다.According to another aspect of the present invention, there is provided a vehicle recognition apparatus, including: a setting unit defining a road area in an input image; An accumulator for accumulating the input image or the input frame to generate a background image; A difference calculation unit for detecting a moving object on a road through a subtraction between the background image and a current input frame; A separator that separates the ROI corresponding to the detected moving object into two image windows; A similarity measurer comparing the similarity of the histograms of the two image windows; And a determination unit determining whether the vehicle is authentic or the vehicle area based on the similarity coefficient obtained through the similarity measuring unit.

일실시예에서, 상기 설정부, 상기 누적부, 상기 차연산부, 상기 분리부, 상기 유사도 측정부, 상기 판단부 또는 이들의 조합은 하나 이상의 소프트웨어 모듈 또는 프로그램 형태로 메모리에 저장되며, 상기 메모리에는 상기 프로그램을 수행하는 프로세서가 연결될 수 있다.In one embodiment, the setter, the accumulator, the difference calculator, the separator, the similarity measurer, the determiner, or a combination thereof are stored in a memory in the form of one or more software modules or programs. A processor that executes the program may be connected.

상술한 기술적 과제를 달성하기 위하여 본 발명의 또 다른 측면에 따른 차량 인식 방법은, 도로 영상을 획득하고, 도로 영상 내 이동객체의 영역에 가변 크기를 갖는 두 개의 윈도우들을 형성하고, 두 개의 윈도우들을 각각 슬라이딩하여 중첩시키고, 두 개의 윈도우의 히스토그램들 간의 유사성을 비교하고, 유사성의 비교 결과를 토대로 차량 여부 또는 차량 영역을 인식하며, 여기서 두 개의 윈도우들은 이동 객체에 대응하는 차량을 정면에서 바라보고 반으로 나누었을 때 나눠진 양쪽 부분들이 서로 대칭적이라는 형태적 특징을 가진다.In order to achieve the above technical problem, a vehicle recognition method according to another aspect of the present invention, acquires a road image, forms two windows having a variable size in the area of the moving object in the road image, and two windows Sliding and overlapping each other, comparing the similarity between the histograms of the two windows, and recognizes whether the vehicle or the vehicle area based on the comparison result of the similarity, where the two windows are viewed from the front of the vehicle corresponding to the moving object When divided into two parts, the divided parts are symmetrical to each other.

일실시예에서, 도로 영상을 획득하고 두 개의 윈도우들을 형성하는 과정은 관심영역을 설정하고, 배경제거를 통해 객체를 검출하며 과정에 대응할 수 있다. 이러한 관심영역의 설정과 배경제거를 통한 객체 검출 과정 후에는 상기 형태적 특징으로 이용하는 모폴로지 연산이 수행될 수 있다. 모폴로지 연산과 모폴로지 연산 후에 수행되는 히스토그램 데칼코마니 정합은 두 개의 윈도우의 히스토그램들 간의 유사성을 비교하는 과정에 대응될 수 있다.In an embodiment, the process of acquiring a road image and forming two windows may set an ROI, detect an object through background removal, and correspond to the process. After the object detection process by setting the ROI and removing the background, the morphology calculation used as the shape feature may be performed. The histogram decalcomani matching performed after the morphology operation and the morphology operation may correspond to a process of comparing similarities between histograms of two windows.

이와 같이, 본 발명의 실시예는, 차량을 정면에서 바라볼 때 차량을 정확히 반으로 나누면 좌우가 서로 대칭된 형태로 동일하다는 물리적 또는 형태적 특성에 기초하여 영상 내 차량(차량 영역)을 반으로 나누어 획득한 좌우 영상의 유사도를 정확하게 측정하기 위해 히스토그램 비교 기법을 이용하는데 그 주된 기술적 특징이 있다. 여기서, 히스토그램은 영상(image)의 명암 값(즉, 픽셀 값)의 빈도수를 나타낸 것으로 영상의 특성을 파악하는 데 이용될 수 있다.As described above, according to an embodiment of the present invention, when the vehicle is viewed from the front, the vehicle (vehicle region) in the image is halved on the basis of the physical or morphological characteristics that when the vehicle is divided in half, the left and right are the same in symmetrical form. In order to accurately measure the similarity of the left and right images obtained by dividing, a histogram comparison technique is used. Here, the histogram represents the frequency of the intensity value (that is, the pixel value) of the image and may be used to determine the characteristics of the image.

상술한 기술적 과제를 달성하기 위해 본 발명의 다른 측면에 따른 차량 인식 방법은, 입력 영상에서 도로 영역을 정의하는 단계, 입력 영상 또는 입력 프레임을 누적하여 배경영상을 생성하는 단계, 배경영상과 현재 입력 프레임 간의 차연산을 통해 도로 위 이동객체를 검출하는 단계, 검출한 이동객체의 영역에 동일한 크기의 두 이미지 윈도우들을 중첩시키는 단계, 슬라이딩하여 나란히 정렬된 두 이미지 윈도우들의 히스토그램의 유사성을 비교하는 단계, 유사성 비교 결과로 얻은 유사도계수에 기초하여 차량의 진위 여부 및 차량 영역을 판단하는 단계를 포함한다.According to another aspect of the present invention, there is provided a vehicle recognition method, including: defining a road area in an input image, generating a background image by accumulating an input image or an input frame, a background image, and a current input. Detecting a moving object on the road through a difference operation between frames, superimposing two image windows of the same size in the area of the detected moving object, comparing the similarity of the histograms of two image windows arranged by sliding side by side; And determining the authenticity of the vehicle and the vehicle area based on the similarity coefficient obtained as a result of the similarity comparison.

상술한 기술적 과제를 달성하기 위하여 본 발명의 또 다른 측면에서는, 입력 영상에서 도로 영역을 정의하는 설정부, 입력 영상 또는 입력 프레임을 누적하여 배경영상을 생성하는 누적부, 배경영상과 현재 입력 프레임(현재 프레임) 간의 차연산(subtraction)을 통해 도로 위 이동객체를 검출하는 차연산부, 이동객체를 두 이미지 윈도우로 분리하는 분리부, 두 이미지 윈도우들의 히스토그램의 유사성을 비교하는 유사도 측정부, 및 측정된 유사도계수에 기초하여 차량의 진위 여부 및/또는 차량 영역을 판단하는 판단부를 포함하는, 차량 인식 장치를 제공할 수 있다.In another aspect of the present invention to achieve the above technical problem, a setting unit for defining a road area in the input image, the accumulation unit for accumulating the input image or input frame to generate a background image, the background image and the current input frame ( A difference calculation unit for detecting a moving object on the road through subtraction between the current frame), a separation unit for separating the moving object into two image windows, a similarity measuring unit comparing the similarity of the histograms of the two image windows, and the measured The vehicle recognition apparatus may include a determination unit that determines whether the vehicle is authentic and / or the vehicle area based on the similarity coefficient.

상술한 기술적 과제를 달성하기 위하여 본 발명의 또 다른 측면에서는, 프로그램을 저장하는 메모리, 및 메모리에 연결되는 프로세서를 포함하고, 프로세서는 프로그램을 수행하여 입력 영상에서 도로 영역을 정의하고, 입력 영상 또는 입력 프레임을 누적하여 배경영상을 생성하고, 배경영상과 현재 입력 프레임 간의 차연산을 통해 도로 위 이동객체를 검출하고, 이동객체를 두 이미지 윈도우로 분리하고, 두 이미지 윈도우들의 히스토그램의 유사성을 비교하고, 유사성 비교 결과로 얻은 유사도계수에 기초하여 차량의 진위 여부 및/또는 차량 영역을 판단하는, 차량 인식 장치를 제공할 수 있다.In another aspect of the present invention, a memory for storing a program, and a processor coupled to the memory, the processor performs a program to define a road area in the input image, the input image or Accumulate input frames to create a background image, detect moving objects on the road by calculating the difference between the background image and the current input frame, separate the moving objects into two image windows, compare the similarity of histograms of the two image windows, The vehicle recognition apparatus may determine whether the vehicle is authentic and / or the vehicle region based on the similarity coefficient obtained as a result of the similarity comparison.

일실시예에서, 프로그램은 입력 영상에서 도로 영역을 정의하는 설정모듈, 입력 영상 또는 입력 프레임을 누적하여 배경영상을 생성하는 누적모듈, 배경영상과 현재 입력 프레임 간의 차연산을 통해 도로 위 이동객체를 검출하는 차연산모듈, 이동객체를 두 이미지 윈도우로 분리하는 분리모듈, 두 이미지 윈도우들의 히스토그램의 유사성을 비교하는 유사도측정모듈, 유사도측정모듈에서 측정된 유사도계수에 기초하여 차량의 진위 여부 및 차량 영역을 판단하는 판단모듈 또는 이들의 조합을 포함할 수 있다.According to an embodiment, the program may include a setting module that defines a road area in an input image, a cumulative module that accumulates an input image or an input frame, and generates a background image. Vehicle authenticity and vehicle area based on the similarity coefficient measured in the difference calculation module for detecting, the separation module for separating the moving object into two image windows, the similarity measuring module for comparing the similarity of histograms of the two image windows, and the similarity measuring module. It may include a determination module or a combination thereof to determine the.

상술한 바와 같은 본 발명의 실시예들에 의하면, 도로 위 이동객체인 차량의 판별을 위해 정면에서 차량을 바라보고 비교적 정확히 반으로 나누었을 때, 양쪽이 대칭적이라는 시각적 특징을 이용하여 차량을 효율적으로 신뢰성 있게 인식할 수 있다. 이러한 본 실시예의 차량 인식 방법은 히스토그램 데칼코마니 정합을 이용한 차량 인식 방법으로 지칭될 수 있다.According to the embodiments of the present invention as described above, when looking at the vehicle from the front and divided in half relatively precisely for the determination of the vehicle which is the moving object on the road, the vehicle is effectively utilized by using the visual feature that both sides are symmetrical. Can be recognized reliably. The vehicle recognition method of this embodiment may be referred to as a vehicle recognition method using histogram decalcomani matching.

본 실시예에 의하면, 가변 크기를 갖는 두 개의 윈도우(windows)를 도로 위 이동객체 영역에 슬라이딩하며 두 윈도우의 히스토그램의 유사성을 비교해 차량 영역 즉, 차량을 인식할 수 있다. 실제 측정 결과 20~40m 이내 거리에 위치한 차량들에 대해 실시간으로 평균 97.2%이상의 차량 인식률을 달성하는 것을 확인하였다. 이와 같이, 본 실시예에 의하면, 적은 연산량으로 효율적으로 도로상의 이동객체인 차량을 효율적으로 인식할 수 있는 장점이 있다.According to the present exemplary embodiment, two windows having a variable size may be slid to a moving object area on a road, and the vehicle area, that is, the vehicle may be recognized by comparing the similarity of the histograms of the two windows. As a result of the actual measurement, it was confirmed that the vehicle recognition rate of more than 97.2% is achieved in real time for the vehicles located within 20 ~ 40m. As described above, according to the present exemplary embodiment, there is an advantage in that a vehicle which is a moving object on a road can be efficiently recognized with a small amount of calculation.

또한, 본 실시예의 차량 인식 방법 및 장치를 사용하면, 저연산량의 영상 처리 알고리즘을 통해 소형, 저전력, 저가의 모바일 임베디드 플랫폼에도 구현이 가능하도록 함으로써 현재 루프 검지기나 VDS가 설치되지 않은 이면 도로들까지 도로구석구석에 카메라를 설치하여 도로 전구간의 주요 교통 정보(교통량등)를 수집, 제공하는데 기여할 수 있다.In addition, using the vehicle recognition method and apparatus of the present embodiment, it is possible to implement in a small, low-power, low-cost mobile embedded platform through a low computational image processing algorithm to the back roads without a current loop detector or VDS installed Cameras can be installed in every corner of the road to contribute to the collection and provision of key traffic information (traffic volume, etc.) between all roads.

도 1은 본 발명의 일실시예에 따른 차량 인식 방법에 대한 흐름도이다.
도 2는 도 1의 방법에서 객체검출이 수행될 관심영역 설정 과정을 설명하기 위한 도면이다.
도 3은 도 1의 방법에 채용할 수 있는 러닝 평균(running average)을 이용한 배경이미지에 대한 예시도이다.
도 4는 도 1의 방법에 채용된 배경제거를 이용한 객체검출 결과를 설명하기 위한 도면이다.
도 5는 도 1의 방법에 채용된 미디안 필터링을 이용한 잡음 제거 과정을 설명하기 위한 도면이다.
도 6은 도 1의 방법에 채용할 수 있는 모폴로지 연산을 이용한 객체덩어리 명확화를 설명하기 위한 도면이다.
도 7은 도 1의 방법에 채용할 수 있는 이동객체영상을 이용한 윈도우 분리를 설명하기 위한 도면이다.
도 8은 도 1의 방법에 채용할 수 있는 윈도우 슬라이딩 프로세스를 설명하기 위한 도면이다.
도 9는 도 1의 방법에 채용할 수 있는 히스토그램 데칼코마니 정합 기법을 설명하기 위한 도면이다.
도 10은 도 1의 방법에 대한 실험 결과를 보여주는 예시도이다.
도 11은 본 발명의 다른 실시예에 따른 차량 인식 방법을 이용하는 장치에 대한 블록도이다.
1 is a flowchart illustrating a vehicle recognition method according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a process of setting a region of interest in which object detection is to be performed in the method of FIG. 1.
FIG. 3 is an exemplary diagram of a background image using a running average that may be employed in the method of FIG. 1.
FIG. 4 is a diagram illustrating an object detection result using background removal employed in the method of FIG. 1.
FIG. 5 is a diagram illustrating a noise removal process using median filtering employed in the method of FIG. 1.
FIG. 6 is a view for explaining object mass disambiguation using morphology operations that may be employed in the method of FIG. 1.
FIG. 7 is a view for explaining window separation using a moving object image that may be employed in the method of FIG. 1.
FIG. 8 is a diagram for describing a window sliding process that may be employed in the method of FIG. 1.
FIG. 9 is a diagram for describing a histogram decalcomani matching technique that may be employed in the method of FIG. 1.
10 is an exemplary view showing an experimental result for the method of FIG.
11 is a block diagram of an apparatus using a vehicle recognition method according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, similar reference numerals are used for similar elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함한다", "가진다" 등과 관련된 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. As used herein, the terms “comprise,” “having,” and the like are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

본 명세서에서 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 포함한다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 의미와 일치하는 의미로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined herein, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in the commonly used dictionaries are to be interpreted in a meaning consistent with the contextual meaning of the related art, and are not to be construed in ideal or excessively formal meanings unless expressly defined herein.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 차량 인식 방법의 흐름도이다.1 is a flowchart of a vehicle recognition method according to an embodiment of the present invention.

본 실시예의 차량 인식 방법을 구현하는 영상 검지 시스템의 전체적인 프로세스 또는 작동 알고리즘 수행 과정은, 도 1에 나타낸 바와 같이, 전처리(preprocessing, S10) 및 반복(loop, S20) 절차들을 포함한다.The overall process or operating algorithm execution process of the image detection system implementing the vehicle recognition method of the present embodiment includes preprocessing (S10) and looping (loop, S20) procedures as shown in FIG.

도로 인프라 카메라로부터 입력되는 영상에 대한 전처리(Preprocessing) 과정을 통해 도로영역을 정의함으로써 도로 이외 영역의 잡음으로 인한 영향을 차단한다. 이후 입력 프레임들을 누적하여 평균 배경 영상을 생성하고 배경영상과 현재 입력 프레임 간의 차연산(Difference Operation)을 수행하여 도로 위의 이동객체들을 검출한다. 이후 각 객체를 별도의 이미지 윈도우로 분리한 다음 그 윈도우 안에서 히스토그램 기반 데칼코마니 정합 과정을 통해 유사도를 계산한다. 마지막으로유사도값을 분석하여 차량의 진위 여부를 판단한다.The road area is defined through the preprocessing process of the image input from the road infrastructure camera to block the effects of noise from the non-road area. Then, the average background image is generated by accumulating the input frames, and the moving objects on the road are detected by performing a difference operation between the background image and the current input frame. After that, each object is separated into a separate image window, and the similarity is calculated through histogram-based decalcomani matching. Finally, the similarity value is analyzed to determine the authenticity of the vehicle.

다른 표현 방식으로 나타내 보면, 전처리(S10) 절차에서 인프라 기반의 고정된 카메라로부터 입력되는 영상(First Frame, S12)에서 도로영역을 관심영역(ROI, Region of interest)으로 정의하여(S14) 도로 이외의 영역잡음으로 인한 영향을 최소화할 수 있다.In other representations, the road region is defined as a region of interest (ROI) in the image (First Frame, S12) input from the fixed camera based on the infrastructure in the preprocessing (S10) (S14). Minimize the effect due to the area noise.

다음, 루프(S20) 절차에서 입력 프레임들을 누적하여(S22) 배경영상을 생성하고, 배경영상(background image)과 현재 입력프레임 간의 차연산(subtraction)을 수행하여(S24) 도로 위 이동객체를 검출한다.Next, in the loop S20, input frames are accumulated (S22) to generate a background image, and a subtraction between the background image and the current input frame is performed (S24) to detect a moving object on the road. do.

다음, 루프(S20) 절차에서 앞서 얻어진 객체를 각 이미지 윈도우로 분리하고 분리된 윈도우 내에서 히스토그램 데칼코마니 정합(Histogram Decalcomnie Matching, S26)을 적용하여 유사도를 측정한다. 위의 단계들(S22, S24 및 S26)은 일정 개수의 영상들이 누적될 때까지 반복 수행될 수 있다(S28). 그런 다음, 히스토그램 데칼코마니 정합에 따른 유사도 계수를 분석하여 차량의 진위여부를 판단할 수 있다.Next, the object obtained previously in the loop (S20) process is separated into each image window, and histogram decalcomani matching (S26) is applied in the separated window to measure similarity. The above steps S22, S24, and S26 may be repeatedly performed until a predetermined number of images are accumulated (S28). Then, it is possible to determine the authenticity of the vehicle by analyzing the similarity coefficient according to the histogram decalcomani matching.

이하에서는 전처리(S10)와 루프(S20)의 각 단계들에 대하여 좀더 상세히 설명하기로 한다.Hereinafter, each step of the preprocessing S10 and the loop S20 will be described in more detail.

도 2는 도 1의 방법에서 객체검출이 수행될 관심영역 설정 과정을 설명하기 위한 도면이다.FIG. 2 is a diagram illustrating a process of setting a region of interest in which object detection is to be performed in the method of FIG. 1.

본 실시예에 따른 차량 검출 알고리즘(차량 인식 방법에 대응함)의 첫 번째 처리과정은 입력되는 프레임에서 관심영역을 설정하는 것이다. 고정된 카메라를 통해 입력되는 프레임에서 차량의 검출이 이루어지는 도로영역을 제외한 영역은 이후 단계에서 수행될 연산에 잡음일 수 있다. 따라서 도로영역을 관심영역으로 설정하여 영역외부요인에 의한 잡음과 오차를 최소화한다.The first process of the vehicle detection algorithm (corresponding to the vehicle recognition method) according to the present embodiment is to set a region of interest in an input frame. An area excluding a road area in which a vehicle is detected in a frame input through a fixed camera may be noise in an operation to be performed in a later step. Therefore, the road area is set as the area of interest to minimize noise and errors caused by factors outside the area.

관심영역설정은 도 2와 같이 수행될 수 있다. 입력되는 첫 번째 프레임에서 다수의 좌표를 입력받아 내부픽셀 값이 255, 외부픽셀 값이 0인 이진화(Image Binarization)된 다각형 이미지(22)를 생성하여 관심영역을 정의한다. 그 다음 다각형 이미지(22)와 현재 입력되는 프레임(21) 간의 논리(AND) 연산을 통해 다각형 내부영역만을 획득할 수 있다(23 참조).The ROI setting may be performed as shown in FIG. 2. A region of interest is defined by generating a binarized polygonal image 22 having an internal pixel value of 255 and an external pixel value of 0 by receiving a plurality of coordinates in the first input frame. Then, only the polygonal inner region may be obtained through a logic (AND) operation between the polygon image 22 and the currently input frame 21 (see 23).

차량검출에 있어서 도로 위 이동하는 객체(Moving Object)들은 차량으로 의심되는 중요한 정보이다. 주로 사용되는 이동객체검출 알고리즘으로는 배경제거(Background subtraction), 모션 히스토리(Motion History), 광류(Optical Flow) 등을 이용한 방법들이 있으나, 본 실시예에서는 비교적 연산량이 적고 구현이 간단한 배경제거기법을 사용하여 움직이는 도로 위 객체를 검출할 수 있다.Moving objects on the road in vehicle detection are important information suspected to be vehicles. Most commonly used moving object detection algorithms include background subtraction, motion history, optical flow, and the like. However, in the present embodiment, a relatively small amount of computation and a simple implementation are performed. To detect objects on moving roads.

배경 제거 기법을 통한 객체검출 방법은 가장 간단하면서도 효과적인 움직임 검출 방법으로, 배경이미지와 현재 입력프레임 사이 차 연산(Difference Operation)을 계산하고, 일정 임계 값 이상의 픽셀 값을 가지는 좌표를 움직임이 일어나는 좌표로 추정할 수 있다.Object detection using background removal is the simplest and most effective method of motion detection. It calculates the difference operation between the background image and the current input frame and converts coordinates with pixel values above a certain threshold It can be estimated.

도 3은 도 1의 방법에 채용할 수 있는 러닝 평균(running average)을 이용한 배경이미지에 대한 예시도이다.FIG. 3 is an exemplary diagram of a background image using a running average that may be employed in the method of FIG. 1.

도 3을 참조하면, 입력되는 연속적인 프레임을 일정 가중치로 누적하여 배경이미지를 획득하는 러닝 평균(running average)을 보여준다(25 참조). 배경 이미지는 차량 전면의 일정 길이의 2차선 도로 부분을 포함한다.Referring to FIG. 3, a running average is obtained by accumulating consecutive input frames with a predetermined weight to obtain a background image (see 25). The background image includes a portion of the two-lane road of a certain length in front of the vehicle.

러닝 평균은 아래의 수학식 1과 같은 계산 수식으로 나타낼 수 있다.The running average may be represented by a calculation formula such as Equation 1 below.

Figure 112018063943772-pat00001
Figure 112018063943772-pat00001

위의 수학식 1에서

Figure 112018063943772-pat00002
는 현재 프레임
Figure 112018063943772-pat00003
에서 입력된 영상의 픽셀 값,
Figure 112018063943772-pat00004
Figure 112018063943772-pat00005
까지의 평균 픽셀 값, 그리고
Figure 112018063943772-pat00006
는 가중치로 새로이 입력된 영상
Figure 112018063943772-pat00007
가 이전까지 평균값
Figure 112018063943772-pat00008
에 얼마만큼 영향을 주는지에 대한 값으로, 적절한 이동평균배경을 얻기 위해서 적절하게 설정해 주어야 한다. 예를 들어 200프레임의 영상을 누적하여 배경을 획득할 경우
Figure 112018063943772-pat00009
의 값은 0.005의 값이 된다.In Equation 1 above
Figure 112018063943772-pat00002
Is the current frame
Figure 112018063943772-pat00003
Pixel value of the image input from
Figure 112018063943772-pat00004
Is
Figure 112018063943772-pat00005
Average pixel values up to and
Figure 112018063943772-pat00006
Is the newly input image with weight
Figure 112018063943772-pat00007
Averaged until
Figure 112018063943772-pat00008
It is a value that affects how much it affects, and should be set appropriately to obtain an appropriate moving average background. For example, if you acquire a background by accumulating 200 frames of video
Figure 112018063943772-pat00009
The value of becomes 0.005.

도 4는 도 1의 방법에 채용된 배경제거를 이용한 객체검출 결과를 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating an object detection result using background removal employed in the method of FIG. 1.

도 4에 도시한 바와 같이, 입력되는 프레임에서 배경영상을 추출하는 것은 아래의 수학식 2를 사용하여 현재 입력프레임과 누적된 배경영상의 차 연산(Difference Operation) 결과를 절대값으로 두고 일정 임계치와 비교하여 이진화(Image Binarization)를 수행한다(27 참조).As shown in FIG. 4, extracting a background image from an input frame is performed by using Equation 2 below, and sets a result of a difference operation between the current input frame and the accumulated background image as an absolute value and a predetermined threshold value. Image binarization is performed by comparison (see 27).

결과적으로 입력되는 프레임 내 움직임이 발생하는 픽셀을 배경영상과의 차연산을 통해 획득한 뒤 일정 수준(threshold)보다 큰 극심한 값의 변화를 보이는 픽셀을 선정하여 이진화를 통해 이동객체를 추출할 수 있다. 극심한 값의 변화는 움직임 발생의심 픽셀에 대응될 수 있다. 이진화 영상(27)의 점선 원 부분을 아래에 확대하여 나타내고 있다(28 참조).As a result, after the pixel in which the motion in the input frame is generated is obtained through the difference operation with the background image, the moving object can be extracted through the binarization by selecting the pixel having the extreme value change larger than a certain level. . The extreme change in value may correspond to the motion suspected pixel. The dotted circle portion of the binarized image 27 is shown enlarged below (see 28).

Figure 112018063943772-pat00010
Figure 112018063943772-pat00010

수학식 2는 입력영상(

Figure 112018063943772-pat00011
) 내 객체 추출에 적용된 계산 수식을 나타낸다.Equation 2 is the input image (
Figure 112018063943772-pat00011
) Shows the calculation formula applied to extract objects.

도 5는 도 1의 방법에 채용된 미디안 필터링을 이용한 소음잡음 제거 과정을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating a noise noise removing process using median filtering employed in the method of FIG. 1.

이동객체로서 이전 단계에서 얻어진 이진화된 객체영상은 배경영상과 객체의 픽셀 밝기 차이가 임계치를 넘지 않아 하나의 객체가 여러 덩어리로 분할되는 현상이 일어나게 된다. 따라서 이번 단계에서는 객체 분리현상을 억제하기 위해 모폴로지(morphology) 연산을 적용할 수 있다.In the binarized object image obtained in the previous step as a moving object, the difference between the pixel brightness of the background image and the object does not exceed the threshold value, so that a single object is divided into multiple chunks. Therefore, at this stage, you can apply morphology operations to suppress object separation.

도 5에 나타낸 바와 같이, 분리된 객체덩어리를 하나의 객체로 합병(Merge)하기 전, 배경영상과 입력프레임 간의 픽셀 값 차이가 급격하게 변하여 이진화된 객체 영상에서 백색으로 나타나는 소금잡음(원으로 표시된 부분 내의 흰색 점)이 발생하게 된다(31 참조). 이러한 소금잡음에 효과적인 영역기반 처리로는 미디안 필터링이 있다(32 참조).As shown in FIG. 5, before merging the separated object masses into one object, the difference in pixel values between the background image and the input frame changes drastically and appears as white in the binarized object image. White spots within the portion) (see 31). Area-based treatments that are effective against this salt noise include median filtering (see 32).

미디안 필터링은 마스크에 겹쳐지는 픽셀 값들 중 중간 값을 선정하여 필터링을 수행하는 대표적인 비선형 필터링으로 영상에서 발생하는 소금잡음이나 소금후추 잡음과 같이 백색(픽셀 값이 255)과 흑색(픽셀 값이 0)에 가까운 잡음을 억제하는데 효과적으로 사용될 수 있다.Median filtering is a representative nonlinear filtering that selects the middle value among the overlapping pixel values and performs filtering. White (black is 255) and black (zero is pixel), such as salt noise or salt and pepper noise. It can be effectively used to suppress noise close to.

잡음을 제거한 뒤 분할된 객체 덩어리의 병합을 위한 모폴로지 연산을 수행할 수 있다.After removing the noise, we can perform the morphology operation for merging the chunks of the divided objects.

도 6은 도 1의 방법에 채용할 수 있는 모폴로지 연산을 이용한 객체덩어리 결합을 설명하기 위한 도면이다. 또한, 도 6은 모폴로지 연산을 통해 객체의 연결 요소를 올바르게 결합한 예시를 나타낸다.FIG. 6 is a view for explaining object mass coupling using morphology calculation that may be employed in the method of FIG. 1. 6 illustrates an example in which connection elements of an object are correctly combined through morphology calculation.

도 6에 도시한 바와 같이, 차량으로 의심되는 이동객체는 도로를 정면으로 바라보도록 설치된 카메라의 설치각도에 의해 수직방향으로 분할이 일어난 것을 확인할 수 있다(33 참조). 따라서 본 실시예에서는 분할된 객체 덩어리의 병합에 사용되는 마스크의 크기를 2×8로 정의하여 수직 방향으로 더 많은 불림(Dilation)이 되도록 할 수 있다(34 참조).As shown in FIG. 6, the mobile object suspected of being a vehicle can be seen that the division occurred in the vertical direction by the installation angle of the camera installed to face the road in front (see 33). Therefore, in the present exemplary embodiment, the size of the mask used for merging the divided object chunks may be defined as 2 × 8 so that more dilation occurs in the vertical direction (see 34).

위와 같은 방식으로 마스크의 크기를 경험적으로 정하면, 차량과 카메라간 거리(원근)에 따라 마스크 인위적으로 조작해줘야 하는데 일반적으로 VDS의 카메라가 교통량 측정을 위해 차량을 인지할 때는 차량을 정면으로 바라보고 촬영하다가 차량이 특정 기준 지점(ROI)을 통과할 때 인지하기 때문에 카메라와 피사체 간 거리가 일정하게 되므로 최초 카메라 설치시만 인위적으로 결정해 주면 된다. 또한, 일반적으로 카메라 설치 지점으로부터 멀지 않은 일정 거리에 그 기준 지점을 지정하므로 설치 환경이 다를지라도 마스크 모양과 크기를 정하는 튜닝 시간은 그리 많이 걸리지 않게 된다.If the size of the mask is empirically determined in the above manner, the mask must be artificially manipulated according to the distance (perspective) between the vehicle and the camera. Generally, when the camera of the VDS recognizes the vehicle for traffic measurement, the vehicle is viewed in front of the vehicle. The distance between the camera and the subject becomes constant because the vehicle recognizes when the vehicle passes through a specific reference point (ROI), so it is only necessary to artificially determine the first camera installation. In addition, since the reference point is generally set at a certain distance not far from the camera installation point, the tuning time for determining the shape and size of the mask does not take much even if the installation environment is different.

전술한 모폴로지 불림 연산은 아래의 수학식 3과 같이 수행될 수 있다.The morphology called operation described above may be performed as in Equation 3 below.

Figure 112018063943772-pat00012
Figure 112018063943772-pat00012

수학식 3에서 모폴로지 불림 연산은 입력 영상

Figure 112018063943772-pat00013
의 객체 부분(white 영역)의 모든 픽셀 위치로 마스크
Figure 112018063943772-pat00014
의 중심좌표가 지나다니면서 마스크
Figure 112018063943772-pat00015
이 덮치는 부분은 모두 화이트(white) 픽셀로 전환하는 과정을 지칭한다. 예컨대, 씌워지는 영역의 중심좌표픽셀 값이 255일 때, 마스크로 씌워지는 영역을 255로 바꾸는 과정이다. 결과적으로 차량으로 의심되는 객체를 마스크 크기만큼 외부로 팽창시켜 끊어져있던 요소들을 상호 연결해주는 역할을 하게 된다(도 6의 33 참조).In Equation 3, the morphology call operation is input image.
Figure 112018063943772-pat00013
Mask to all pixel positions in the object portion of the (white region) of
Figure 112018063943772-pat00014
Mask as the center coordinates pass by
Figure 112018063943772-pat00015
All of these overlapping parts refer to the process of converting to white pixels. For example, when the center coordinate pixel value of the area to be covered is 255, the process of changing the area covered by the mask to 255. As a result, the object suspected of being a vehicle is inflated to the outside by the size of a mask to serve to interconnect broken elements (see 33 in FIG. 6).

그런 다음, 즉 바람직하게 객체연결요소가 결합되었다면, 침식 연산을 통해 팽창 연산의 수행 후에 외부로 팽창한 객체 부분을 다시 깎아 원래의 크기로 복원시킨다(도 6의 34 참조). 아래의 수학식 4는 침식 연산을 나타낸다.Then, ie, if the object connection element is preferably coupled, after the expansion operation is performed through the erosion operation, the part of the object that has been expanded outwardly is cut back to its original size (see 34 in FIG. 6). Equation 4 below represents an erosion operation.

Figure 112018063943772-pat00016
Figure 112018063943772-pat00016

본 실시예에서는 도로 위 이동객체의 차량유무를 판단하기 위해 히스토그램을 데칼코마니 정합 기법을 이용한다. 히스토그램(Histogram)은 이미지의 특성을 분석한 대표적인 영상처리 기법으로 이미지의 픽셀 값 빈도수를 계산해 해당 픽셀 값이 이미지 내 몇 번이나 포함되어 있는지를 나타낼 수 있다. 본 실시예에서는 차량을 정면 또는 후면에서 바라볼 경우, 반으로 나누었을 때 좌우가 대칭(데칼코마니)이라는 시각적 특성을 가지고 있다. 따라서, 이전 단계들에서 얻어진 이동객체의 윤곽선(coutour)으로 정의되는 직사각형 영역(도 7의 36 내 박스 영역)을 수직 중앙선을 중심으로 반으로 나눈 뒤 좌우 각 영역의 오리지널 픽셀값들을 가지고 히스토그램을 구해 상호 비교해보면 높은 유사도를 가짐을 확인할 수 있다. 이러한 높은 유사도 계수는 그 이동객체가 차량인지 여부를 판단하기 위한 중요한 척도로 사용할 수 있다.In the present embodiment, a histogram is used to determine the presence or absence of a moving object on a road. A histogram is a representative image processing technique that analyzes the characteristics of an image and calculates the frequency of pixel values of an image to indicate how many times the pixel value is included in the image. In this embodiment, when the vehicle is viewed from the front or the rear, it has a visual characteristic that the left and right are symmetrical (decalcomani) when divided in half. Therefore, the rectangular area (box area in 36 in FIG. 7) defined as the coutour of the moving object obtained in the previous steps is divided in half with respect to the vertical center line, and the histogram is obtained from the original pixel values of the left and right areas. Comparing with each other, it can be seen that it has a high similarity. This high similarity coefficient can be used as an important measure for determining whether the moving object is a vehicle.

첨언하면, 전술한 특성은 종이 위에 물감을 바르고 그것을 두 겹으로 접거나 다른 종이를 그 위에 겹쳐 압착했다가 떼어내면 두 면이 동일한 패턴을 가지는 미술의 회화 기법중 하나인 데칼코마니(Decalcomanie)를 연상시킨다. 따라서 이전단계에서 얻어진 이동객체 이미지 내 객체영역을 반으로 나누어 두 히스토그램을 비교하면 특정 지역에서 높은 비교계수를 얻을 수 있다. 따라서 본 실시예에서는 그러한 비교계수를 객체의 차량판단을 위한 척도로 사용할 수 있다.Incidentally, the above characteristics remind us of Decalcomanie, one of the painting techniques of art where the two sides have the same pattern by applying paint on paper and folding it in two layers or squeezing and peeling another paper over it. . Therefore, if the two histograms are compared by dividing the object area in the moving object image obtained in the previous step in half, a high comparison coefficient can be obtained in a specific region. Therefore, in the present embodiment, such a comparison coefficient can be used as a measure for determining a vehicle of an object.

도 7은 도 1의 방법에 채용할 수 있는 이동객체영상을 이용한 윈도우 분리를 설명하기 위한 도면이다.FIG. 7 is a view for explaining window separation using a moving object image that may be employed in the method of FIG. 1.

도 7을 참조하면, 입력되는 프레임(35)에서 객체 영역을 분리하기 위해 객체의 외곽정보를 이용한다. 객체영상에서 흰색 픽셀 값(255)을 가지는 각 객체의 상하좌우 4개 방향에서의 최외각 픽셀 좌표를 조사하여 사각 영역을 계산할 수 있다(35 참조). 계산된 영역을 새로운 이미지로 만들어 분리를 수행할 수 있다. 이렇게 계산된 객체 영상의 각 영역을 그대로 가져올 경우 히스토그램을 계산하였을 때 이진화된 0과 255의 두 가지 값만 계산될 것이다(36 참조). 따라서 객체 영역을 입력프레임의 밝기 값을 계산한 이미지(Gray-Scale Image)에서 분리를 수행하여 새로운 이미지(371, 372, 373)를 획득할 수 있다.Referring to FIG. 7, outline information of an object is used to separate an object area from an input frame 35. In the object image, the rectangular area may be calculated by examining the outermost pixel coordinates in four directions of up, down, left, and right of each object having a white pixel value 255 (see 35). Separation can be performed by making the calculated area a new image. If each area of the calculated object image is imported as it is, only two values of binarized 0 and 255 will be calculated when the histogram is calculated (see 36). Accordingly, new images 371, 372, and 373 may be obtained by separating an object region from a gray-scale image in which brightness values of input frames are calculated.

한편, 객체의 데칼코마니 특성을 계산하기 위해 객체를 수직으로 나누어 분할된 두 이미지의 히스토그램을 계산한 다음 이를 비교해야 한다. 하지만, 객체를 분리한 영상에서 차량으로 추정되는 객체는 그림자 성분을 포함하게 된다. 이러한 그림자에 의해 영상 내 차량 추정 객체를 정확히 반으로 나누었을 때 그 중심이 차량의 중심이 될 수 없다. 이에 본 실시예에 따른 차량 인식 방법에서는 분리된 객체를 이용하여 차량을 판단할 때 그 정확성을 높이기 위해 좌우 윈도우의 폭을 조금씩 증가시켜가며 좌측 또는 우측으로 슬라이딩시키면서 좌우 윈도우 영역의 히스토그램 유사도를 계산하고 그 계산 값이 가장 높은 지점에서 슬라이딩을 멈춤으로써 진정한 차량의 중심을 찾을 수 있다.On the other hand, to calculate the decalcomani characteristics of the object, it is necessary to calculate the histogram of two divided images by dividing the object vertically and then compare them. However, the object estimated to be a vehicle in the separated image includes the shadow component. When the vehicle estimation object in the image is divided in half by these shadows, the center cannot be the center of the vehicle. Accordingly, the vehicle recognition method according to the present embodiment calculates the histogram similarity of the left and right window regions by gradually increasing the width of the left and right windows and gradually sliding the left or right side to increase the accuracy when determining the vehicle using the separated object. The true vehicle center can be found by stopping the sliding at the point with the highest calculated value.

도 8은 도 1의 방법에 채용할 수 있는 윈도우 슬라이딩 프로세스를 설명하기 위한 도면이다. 도 8은 데칼코마니 특성을 이용하여 유사도 계산을 수행할 두 영역 윈도우들이 슬라이딩하는 과정을 보여준다.FIG. 8 is a diagram for describing a window sliding process that may be employed in the method of FIG. 1. FIG. 8 shows a process of sliding two region windows to perform a similarity calculation using the decalcomani characteristic.

위에서 언급했듯이 불필요한 그림자가 포함되어 있을 확률이 높으므로, 히스토그램이 계산될 좌우 두 윈도우들을 일정 가중치로 증가시켜 가며 즉, 좌측에서 우측으로, 또한 우측에서 좌측으로 순차적으로 증가시켜가며 양방향에서의 유사도 계산 결과를 비교할 수 있다. 그 경우, 그림자가 생성된 방향이 반대 방향에 비해 낮은 유사도를 갖게 되어 그림자에 의한 오차를 제거할 수 있다. 즉, 그림자를 포함한 특정 주변 배경을 효과적으로 제거하는 슬라이딩 과정을 통해 불필요한 그림자 성분 등이 객체로 인식되는 것을 억제할 수 있다.As mentioned above, since there is a high probability of containing unnecessary shadows, the two left and right windows for which the histogram is to be calculated are increased by a certain weight, that is, from left to right and sequentially from right to left, to calculate the similarity in both directions. The results can be compared. In this case, the direction in which the shadow is generated has a low similarity compared to the opposite direction, thereby eliminating errors due to the shadow. That is, it is possible to suppress the recognition of unnecessary shadow components as objects through a sliding process that effectively removes a specific surrounding background including a shadow.

이와 같이, 본 실시예에서는 객체의 데칼코마니 특성을 계산할 때 즉, 히스토그램이 계산될 두 윈도우(38, 39)를 일정 가중치로 증가시켜 가며 좌측에서 우측으로, 우측에서 좌측으로 양방향을 비교하면 그림자가 생성된 방향이 반대방향에 비해 낮은 유사도를 갖게 되는 점을 이용하여 그림자에 의한 오차를 제거할 수 있다.As described above, in the present embodiment, when calculating the decalcomani characteristic of the object, that is, the shadows are generated when the two windows 38 and 39 for which the histogram is calculated are increased by a certain weight and compared from left to right and right to left. The error caused by the shadow can be eliminated by using the point that the inclined direction has a lower similarity than the opposite direction.

전술한 히스토그램 비교 계산을 위하여 본 실시예에서 대표적인 히스토그램 비교 기법인 바타차야 매칭(Bhattacharyya matching) 기법을 유사도 계산 수식으로 이용할 수 있다. 바타차야 매칭은 히스토그램으로 표현된 데이터의 유사성을 측정하는 통계학적인 알고리즘으로서 정규화가 수행된 히스토그램에서 수학식 5와 같이 정의될 수 있다.For the above-described histogram comparison calculation, the Battacharyya matching technique, which is a representative histogram comparison technique, may be used as a similarity calculation formula in this embodiment. Batchaya matching is a statistical algorithm that measures the similarity of the data represented by the histogram, and can be defined as shown in Equation 5 in the histogram on which normalization is performed.

Figure 112018063943772-pat00017
Figure 112018063943772-pat00017

위의 수학식 5에서

Figure 112018063943772-pat00018
Figure 112018063943772-pat00019
는 이전 단계에서 분할된 객체의 좌우 이미지의 히스토그램으로 i에 따른 각 빈(bin)의 값을 의미한다.
Figure 112018063943772-pat00020
는 히스토그램의 모든 빈의 값을 빈의 개수로 나눈 평균값으로서
Figure 112018063943772-pat00021
로 나타낼 수 있다.
Figure 112018063943772-pat00022
은 히스토그램 빈의 수를 나타낸다. 이렇게 얻어진 비교 계수
Figure 112018063943772-pat00023
Figure 112018063943772-pat00024
의 범위를 가지고 있으며 d의 값이 0에 가까울수록 두 히스토그램이 유사한 히스토그램임을 나타낸다. 완벽하게 일치하는 이미지일 경우 0의 값을 갖는다.In Equation 5 above
Figure 112018063943772-pat00018
Wow
Figure 112018063943772-pat00019
Is a histogram of the left and right images of the object divided in the previous step, and means the value of each bin according to i.
Figure 112018063943772-pat00020
Is the average of all bins in the histogram divided by the number of bins.
Figure 112018063943772-pat00021
It can be represented as.
Figure 112018063943772-pat00022
Represents the number of histogram bins. The comparison coefficient thus obtained
Figure 112018063943772-pat00023
Is
Figure 112018063943772-pat00024
It has a range of and the closer d is to 0, the more similar histograms are. If the image is a perfect match, it has a value of zero.

도 9는 도 1의 방법에 채용된 히스토그램 데칼코마니정합 기법의 예시를 설명하기 위한 도면이다.FIG. 9 is a diagram for explaining an example of a histogram decalcomani matching technique employed in the method of FIG. 1.

도 9에 도시한 바와 같이, 이전단계에서 설명한 윈도우 슬라이딩을 수행하면서(도 8 참조) 각 크기의 윈도우마다 히스토그램 비교를 수행한다. 비교 결과 계수가 가장 낮게(가장 유사한 두 이미지) 나타나는 윈도우를 차량으로 검출할 수 있다. 본 실시예에서는 예시(X)에서 비교 계수가 가장 작은 값을 갖는다.As shown in FIG. 9, the histogram comparison is performed for each window of each size while performing the window sliding described in the previous step (see FIG. 8). As a result of the comparison, the window with the lowest coefficient (the two most similar images) can be detected by the vehicle. In the present embodiment, the comparison coefficient has the smallest value in the example (X).

따라서 차량의 평균적인 비교계수를 구하기 위해 1000회 이상의 차량 이미지 샘플을 사용하여 실험을 수행하였고, 0 내지 0.376 범위의 유사도 계수에서 차량의 정중앙점을 발견할 수 있었다. 즉, 유사도 계수가 그 범위 안에 있지 않을 때는 슬라이딩 스텝을 넓히고 그 범위에 들어오면 슬라이딩 스텝을 조금씩 증가시켜 연산 속도와 정밀도를 동시에 높이도록 할 수 있다.Therefore, experiments were performed using more than 1000 vehicle image samples to find average comparison coefficients of vehicles, and the center of gravity of the vehicle was found in the similarity coefficient ranging from 0 to 0.376. In other words, when the similarity coefficient is not within the range, the sliding step can be widened, and when the similarity coefficient is within the range, the sliding step can be increased little by little to increase the computation speed and precision.

도 10은 도 1의 방법에 대한 실험 결과를 보여주는 예시도이다.10 is an exemplary view showing an experimental result for the method of FIG.

도 10을 참조하면, 위에서 설명한 히스토그램 데칼코마니 정합기법의 성능 분석 결과를 확인할 수 있다. Referring to FIG. 10, a performance analysis result of the histogram decalcomani matching technique described above may be confirmed.

본 실시예의 차량 인식 방법을 구현한 알고리즘(데칼코마니 정합 알고리즘)의 성능 평가를 위해 실제 차량 영역의 중심 좌표와 본 실시예의 데칼코마니 정합 알고리즘을 통해 자동 인지된 차량 영역의 중심 좌표간 차이(오차)를 계산하여 보았다.Calculate the difference (error) between the center coordinates of the actual vehicle area and the center coordinates of the vehicle area automatically recognized by the decalcommani matching algorithm of the present embodiment for the performance evaluation of the algorithm (decalcomani matching algorithm) implementing the vehicle recognition method of this embodiment. Looked.

오차 거리의 측정 단위는 픽셀이며 오차 비율은 오차 픽셀수를 실제 차량의 영역으로 판단되는 영역의 폭(Width)으로 나눈 비율로 표기하였다. 예컨대, 거리에 따른 1개 픽셀의 상대적인 크기를 고려하여 실제 차량의 영역으로 판단되는 수작업으로 지정한 영역의 폭(width)으로 오차 픽셀을 나누어 실제차량 영역의 크기에 대한 오거리 픽셀을 비율로 표기하였다. 또한, 인지률은 실제 차량 영역과 인지된 차량 영역간 공유 면적을 실제 차량 영역으로 나눈 비율로 표기하여 실험하였다.The unit of measurement of the error distance is pixels, and the error ratio is expressed as a ratio obtained by dividing the number of error pixels by the width of an area determined to be an area of an actual vehicle. For example, an error pixel is expressed as a ratio of the size of the actual vehicle area by dividing an error pixel by a width of an area manually determined as an area of the actual vehicle in consideration of the relative size of one pixel according to the distance. In addition, the recognition rate was tested by expressing the shared area between the real vehicle area and the recognized vehicle area by the ratio divided by the real vehicle area.

Figure 112018063943772-pat00025
Figure 112018063943772-pat00025

위의 표 1은 맑은 날 낮시간대에 카메라로부터 20~40m 거리에서 이동하는 차량에 대한 데칼코마니 정합 알고리즘을 적용한 결과로서, 일정 시간 동안 도로를 촬영하면서 본 알고리즘을 적용하여 계산한 평균적인 오차와 평균 차량 인지률을 나타내고 있다.Table 1 above shows the result of applying the decalcomani matching algorithm for a vehicle moving at a distance of 20 to 40 meters from the camera during a sunny day. The average error and average vehicle calculated by applying this algorithm while photographing roads for a certain period of time. Recognition rate is shown.

또한, 도 10의 (A) 내지 (D)에 도시한 바와 같이, 파란색 영역(41)으로 표시된 실시예의 결과와 빨간색 영역(42)으로 표시된 실제 차량 영역이 상당히 일치하는 것을 확인할 수 있다.In addition, as shown in FIGS. 10A to 10D, it can be seen that the result of the embodiment indicated by the blue region 41 and the actual vehicle region indicated by the red region 42 substantially coincide.

계산된 데이터로부터 알 수 있듯이 본 실시예에 따른 알고리즘은 날씨가 맑은 날의 경우 비교적 매우 정확한 인지률과 적은 오차를 가짐을 알 수 있다.As can be seen from the calculated data, it can be seen that the algorithm according to the present embodiment has a relatively very accurate recognition rate and a small error when the weather is clear.

한편 악천후 및 시간대별 인지률과 오차 역시 중요하기 때문에 여러가지 상황에 대한 실험을 실시하였으며 그 결과를 표 2에 정리하였다.On the other hand, the recognition rate and error by bad weather and time are also important, so experiments were conducted for various situations and the results are summarized in Table 2.

Figure 112018063943772-pat00026
Figure 112018063943772-pat00026

예상대로 비가 오는 경우는 오차율이 높았으며 비가 오는 저녁 시간대의 경우 그 비율이 급격히 증가함을 알 수 있다. 이는 도로 바닥의 빗물에 의해 반사되는 전조등이 매칭을 방해하기 때문인 것으로 확인되었다. 그에 따라 인지률도 급격히 떨어진다. 반면 적당량의 눈이 오는 경우는 오히려 맑은 날씨보다 인지률이 높았다. 이유는 바닥면이 하얗게 변하기 때문에 노면의 차선이나 그림자 등의 방해요소들이 제거되고 배경 분리가 명확히 되기 때문이다. 눈 오는 날 저녁의 경우는 정확도가 감소되는데 그대로 비오는 날 저녁에 비하면 양호한 것으로 나타났다.As expected, the rate of error was high in the case of rain and the rate increased sharply in the rainy evening. This was confirmed because headlights reflected by rainwater at the bottom of the road interfered with matching. As a result, the recognition rate drops sharply. On the other hand, if the amount of snow comes, the recognition rate was higher than the clear weather. The reason is that the floor surface turns white so that the obstacles such as lanes and shadows on the road surface are removed and the background separation becomes clear. In the case of a snowy evening, the accuracy is reduced, which is better than that of a rainy evening.

도 11은 본 발명의 다른 실시예에 따른 차량 인식 방법을 이용하는 장치에 대한 블록도이다.11 is a block diagram of an apparatus using a vehicle recognition method according to another embodiment of the present invention.

도 11을 참조하면, 본 실시예에 따른 장치는 차량 인식 방법을 이용하기 위해 프로세서(50)와 메모리(60)를 포함할 수 있다. 이러한 장치는 차량에 탑재되는 차량 제어기 중 하나일 수 있다. 또한, 이러한 장치는 차량에 탈부착되는 사용자 단말이나 사용자의 지능형 모바일 시스템(도 1의 100 참조)의 적어도 일부 기능부나 구성부로 구현될 수 있다. 사용자 단말은 카메라와 영상 처리 수단을 구비하는 네비게이션, 블랙박스, 스마트폰, 휴대단말, 태블릿 컴퓨터 등에서 선택되는 하나 이상의 단말로 구현될 수 있다.Referring to FIG. 11, the apparatus according to the present embodiment may include a processor 50 and a memory 60 to use a vehicle recognition method. Such a device may be one of a vehicle controller mounted on a vehicle. In addition, such a device may be implemented as at least some functional units or components of a user terminal detachable from a vehicle or an intelligent mobile system of the user (see 100 of FIG. 1). The user terminal may be implemented as one or more terminals selected from a navigation, a black box, a smart phone, a mobile terminal, a tablet computer, and the like having a camera and image processing means.

프로세서(50)는 메모리(60)에 저장되는 프로그램이나 소프트웨어 모듈들을 실행하여 차량 인식 방법에 따른 동작을 수행할 수 있다. 일례로, 프로세서(50)는 입력 영상에서 도로 영역을 정의하고, 입력 영상 또는 입력 프레임을 누적하여 배경영상을 생성하고, 배경영상과 현재 입력 프레임(현재 프레임) 간의 차연산(subtraction)을 통해 도로 위 이동객체를 검출하고, 이동객체를 두 이미지 윈도우로 분리하고, 두 이미지 윈도우들의 히스토그램의 유사성을 비교하고, 비교된 유사도 계수에 기초하여 차량여부를 판단할 수 있다.The processor 50 may execute a program or software modules stored in the memory 60 to perform an operation according to the vehicle recognition method. In one example, the processor 50 defines a road area in the input image, generates a background image by accumulating the input image or the input frame, and generates a road through subtraction between the background image and the current input frame (current frame). The moving object may be detected, the moving object may be separated into two image windows, the similarity of the histograms of the two image windows may be compared, and whether the vehicle may be determined based on the compared similarity coefficients.

메모리(60)는 차량 인식 방법을 구현하기 위한 소프트웨어 모듈들을 구비할 수 있다. 소프트웨어 모듈들은 입력 영상에서 도로 영역을 정의하는 설정부(61), 입력 영상 또는 입력 프레임을 누적하여 배경영상을 생성하는 누적부(62), 배경영상과 현재 입력 프레임(현재 프레임) 간의 차연산(subtraction)을 통해 도로 위 이동객체를 검출하는 차연산부(63), 이동객체를 두 이미지 윈도우로 분리하는 분리부(64), 두 이미지 윈도우들의 히스토그램의 유사성을 비교하는 유사도 측정부(65), 및 측정된 유사도계수에 기초하여 차량의 진위 여부를 판단하는 판단부(66)에 대응할 수 있다. 또한, 소프트웨어 모듈들은 그룹 형태로 전처리 모듈과 루프 모듈로 그룹지어질 수 있다(도 1 참조).The memory 60 may include software modules for implementing a vehicle recognition method. The software modules may include a setting unit 61 defining a road area in the input image, an accumulator 62 accumulating the input image or an input frame to generate a background image, and a difference operation between the background image and the current input frame (current frame). a difference calculation unit 63 for detecting a moving object on the road through subtraction, a separating unit 64 for separating the moving object into two image windows, a similarity measuring unit 65 for comparing the similarity between the histograms of the two image windows, and The determination unit 66 may determine the authenticity of the vehicle based on the measured similarity coefficient. In addition, software modules may be grouped into preprocessing modules and loop modules in a group form (see FIG. 1).

전술한 프로세서(50)는 적어도 하나 이상의 중앙 처리 장치를 포함할 수 있고, 중앙처리장치(CPU)는 MCU(micro control unit)와 주변 장치(외부 확장 장치를 위한 집적회로)가 함께 배치되는 SOC(system on chip)로 구현될 수 있으나, 이에 한정되지는 않는다. 그리고 코어는 처리할 명령어를 저장하는 레지스터(register)와, 비교, 판단, 연산을 담당하는 산술논리연산장치(arithmetic logical unit, ALU)와, 명령어의 해석과 실행을 위해 CPU를 내부적으로 제어하는 제어부(control unit)와, 이들을 연결하는 내부 버스 등을 구비할 수 있다.The above-described processor 50 may include at least one central processing unit, and the central processing unit (CPU) may include an SOC (microcontrol unit) and a peripheral device (an integrated circuit for an external expansion unit). system on chip), but is not limited thereto. The core is a register that stores instructions to be processed, an arithmetic logical unit (ALU) that is responsible for comparison, determination, and operation, and a controller that internally controls the CPU for interpretation and execution of instructions. (control unit), and an internal bus connecting them.

또한, 프로세서(50)는 하나 이상의 데이터 프로세서, 이미지 프로세서 또는 코덱(CODEC)을 포함할 수 있으나, 이에 한정되지는 않는다. 프로세서(50)는 주변장치 인터페이스와 메모리 인터페이스를 구비할 수 있다. 주변장치 인터페이스는 프로세서(50)와 입출력 시스템 및 여러 다른 주변 장치를 연결하고, 메모리 인터페이스는 프로세서(50)와 메모리(60)를 연결할 수 있다.In addition, the processor 50 may include, but is not limited to, one or more data processors, an image processor, or a codec. The processor 50 may have a peripheral device interface and a memory interface. The peripheral interface may connect the processor 50 to the input / output system and various other peripheral devices, and the memory interface may connect the processor 50 to the memory 60.

또한, 전술한 메모리(60)는 비휘발성 랜덤 액세스 메모리(non-volatile RAM, NVRAM), DRAM(dynamic random access memory) 등의 휘발성 메모리, 하드디스크드라이브(hard disk drive, HDD), 광 저장 장치, 플래시 메모리 등으로 구현될 수 있고, 차량 인식 방법을 구현하기 위한 소프트웨어 모듈들 외에 운영체제, 프로그램, 명령어 집합 등을 저장할 수 있다.In addition, the above-described memory 60 may include volatile memory such as non-volatile random access memory (NVRAM), dynamic random access memory (DRAM), a hard disk drive (HDD), an optical storage device, It may be implemented as a flash memory, and may store an operating system, a program, a command set, etc. in addition to software modules for implementing a vehicle recognition method.

전술한 실시예들에 의하면, 히스토그램 데칼코마니 정합기법을 이용하는 새로운 차량 인식 방법을 제공할 수 있다. 즉, 차량을 반으로 나누었을 때 좌우가 동일하다는 시각적 또는 형태적 특성을 이용하고, 추가적으로 그림자 등의 방해 요소의 영향을 극복하기 위해 슬라이딩 스텝을 통해 도로 위 절반 객체들을 좌우로 이동시켜가면서 유사도를 비교하여 차량 인식을 효과적으로 수행할 수 있다.According to the embodiments described above, a new vehicle recognition method using a histogram decalcomani matching technique can be provided. In other words, it uses the visual or morphological characteristics that the left and right are the same when the vehicle is divided in half, and additionally moves the half objects on the road from side to side through the sliding step to overcome the influence of obstacles such as shadows. In comparison, vehicle recognition can be effectively performed.

한편, 전술한 실시예들에 따른 성능분석 결과에서는 97.2%의 차량인식률과 9.58%의 실제차량 중심점 대비 오차율을 가지고 있음을 확인하였다. 이러한 오차의 대표적인 원인으로는 배경제거를 통한 객체검출을 기반으로 데칼코마니 정합을 수행하기 때문에 배경 제거성능에 따른 오차가 있고 또 다른 원인으로 비교를 수행할 슬라이딩 윈도우의 폭 가중치에 따라 높은 가중치를 주었을 경우 윈도우의 분할 횟수가 적어 한 객체의 비교 횟수가 감소할 수 있으며, 그에 따라 오차가 발생할 수 있다. 따라서, 본 발명의 또 다른 실시예에서는 슬라이딩 윈도우의 폭 가중치를 낮춰서 차량인식률을 97.2%보다 높게 할 수 있다. 다만, 그 경우, 가중치의 감소가 연산량의 증가를 야기할 수 있으므로, 장치의 성능에 따라 적절히 가중치를 조정하거나 혹은 설정하여 적용할 수 있음은 물론이다.On the other hand, the results of the performance analysis according to the above embodiments confirmed that the vehicle has an error rate of 97.2% and an error rate of the actual vehicle center point of 9.58%. The most common cause of this error is decalcomani matching based on object detection through background removal.Therefore, there is an error according to background removal performance and another weighting factor is given by the weight of the width of the sliding window to be compared. Since the number of partitions of the window is small, the number of comparisons of an object may be reduced, thereby causing an error. Therefore, in another embodiment of the present invention, the vehicle recognition rate may be higher than 97.2% by lowering the width weight of the sliding window. However, in this case, since the decrease in weight may cause an increase in the amount of calculation, the weight may be appropriately adjusted or set according to the performance of the apparatus.

이와 같이, 본 실시예에 의하면, 인프라 기반의 정확한 차량인식에 기여할 수 있다. 인프라 기반의 정확한 차량인식은 최근 활발하게 연구되고 있는 첨단도로 인프라기반의 차량정보 제공시스템과 C-ITS 관련 분야에서 유용하게 사용될 수 있다. 본 실시예에 따른 데칼코마니 특성을 이용한 차량인식은 기존 고연산량을 요구하는 SIFT, 머신러닝 등을 사용하지 않아 낮은 가격의 디바이스에서 구동이 용이하다는 장점이 있다. 또한, 인프라 기반의 카메라 외 차량 내부 블랙박스에서 앞차의 후면과 뒤차의 전면 특성에도 본 실시예에서 제공하는 데칼코마니 특성을 이용해 분석한다면 기존 사용되는 고연산량의 시스템을 대체하여 차량인식을 유용하게 수행할 수 있다.Thus, according to this embodiment, it can contribute to the accurate vehicle recognition based on infrastructure. Infra-based accurate vehicle recognition can be usefully used in advanced road infrastructure-based vehicle information providing system and C-ITS related fields. Vehicle recognition using the decal comany characteristic according to the present embodiment has the advantage that it is easy to drive in a low-cost device because it does not use the SIFT, machine learning, etc. that require a high amount of conventional operation. In addition, if the analysis based on the decalcomani characteristics provided in this embodiment also analyzes the characteristics of the rear of the front and the front of the rear of the vehicle in a black box inside the vehicle other than the infrastructure-based camera, the vehicle recognition can be usefully performed by substituting the existing high-computation system. Can be.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below I can understand that you can.

Claims (8)

삭제delete 삭제delete 입력 프레임에서 다수의 좌표를 받아 이진화 다각형 이미지를 생성하는 단계-상기 다각형 이미지는 관심영역으로 정의됨-;
입력 프레임들을 누적하여 배경 영상을 생성하는 단계;
상기 다각형 이미지와 현재 입력되는 프레임 간의 논리 연산을 통해 다각형 내부 영역만을 획득하는 단계;
상기 배경 영상과 현재 입력 프레임 간의 차연산의 결과를 절대값으로 두고 일정 임계치와 비교하여 이진화를 수행하고 일정 임계 값 이상의 픽셀 값을 가지는 좌표를 움직임이 일어나는 좌표로 추정하여 도로 위 이동객체를 검출하는 단계;
상기 이동객체의 윤곽선으로 정의되는 직사각형 영역을 수직 중앙선을 중심으로 반으로 나누는 단계;
상기 반으로 나누어진 좌우 윈도우 영역의 오리지널 픽셀값을 가지고 히스토그램을 구해 상호 비교하는 단계;
상기 좌우 윈도우 영역의 폭을 증가시켜가며 좌측 또는 우측으로 슬라이딩시키면서 좌우 윈도우 영역의 히스토그램 유사도를 계산하고, 그 계산 값이 가장 높은 지점에서 슬라이딩을 멈춤으로써 차량의 중심을 찾는 단계; 및
상기 좌우 윈도우 영역들에 대한 히스토그램의 유사도 계수 또는 비교 계수를 토대로 상기 이동객체가 차량인지를 판단하는 단계;
를 포함하는 차량 인식 방법.
Generating a binarized polygonal image by receiving a plurality of coordinates in an input frame, wherein the polygonal image is defined as a region of interest;
Accumulating input frames to generate a background image;
Obtaining only a polygonal inner region through a logical operation between the polygonal image and the currently input frame;
The result of the difference operation between the background image and the current input frame is set as an absolute value, and binarization is performed by comparing with a predetermined threshold value. step;
Dividing a rectangular area defined as an outline of the moving object in half with respect to a vertical center line;
Obtaining a histogram using original pixel values of the left and right window regions divided in half and comparing them with each other;
Calculating the histogram similarity of the left and right window areas while increasing the width of the left and right window areas while sliding to the left or right, and finding the center of the vehicle by stopping the sliding at the highest point; And
Determining whether the moving object is a vehicle based on a similarity coefficient or a comparison coefficient of the histogram for the left and right window regions;
Vehicle recognition method comprising a.
청구항 3에 있어서,
상기 이동객체를 검출하는 단계 후에,
상기 이동객체를 포함하는 영상 내 잡음을 제거하기 위해 미디안 필터링을 수행하는 단계;
상기 이동객체의 객체 분리현상이 억제되도록 혹은 상기 이동객체의 분할된 객체 덩어리들이 병합되도록 모폴로지 연산을 수행하는 단계; 및
상기 모폴로지 연산의 모폴로지 팽창 연산에 의해 외부로 팽창한 객체 부분을 깎아 원래의 크기로 복원시키는 단계;를 더 포함하는 차량 인식 방법.
The method according to claim 3,
After detecting the moving object,
Performing median filtering to remove noise in an image including the moving object;
Performing a morphology operation such that object separation of the mobile object is suppressed or the divided object chunks of the mobile object are merged; And
And slicing the part of the object inflated to the outside by the morphology expansion operation of the morphology operation and restoring it to its original size.
청구항 3에 있어서,
상기 배경 영상을 생성하는 단계는, 입력되는 연속적인 프레임을 일정 가중치로 누적하여 상기 배경 영상을 획득하고, 상기 배경 영상은 차량 전면의 일정 길이의 2차선 도로 부분을 포함하며,
상기 나누는 단계는, 상기 이동객체의 객체영상에서 흰색 픽셀값을 가지는 상하좌우 방향에서의 최외각 픽셀 좌표를 조사하여 사각 영역을 계산하고, 입력 프레임의 밝기 값을 계산한 이미지로부터 이동객체의 객체영역을 분리하여 이동객체에 대한 새로운 이미지를 생성하는, 차량 인식 방법.
The method according to claim 3,
The generating of the background image may include obtaining a background image by accumulating a continuous frame input with a predetermined weight, wherein the background image includes a two-lane road portion having a predetermined length in front of the vehicle,
In the dividing step, the rectangular area is calculated by examining the outermost pixel coordinates in the up, down, left, and right directions having white pixel values in the object image of the moving object, and the object area of the moving object is calculated from the image in which the brightness value of the input frame is calculated. Separating to generate a new image for the moving object, vehicle recognition method.
삭제delete 삭제delete 삭제delete
KR1020180075127A 2018-06-29 2018-06-29 Method for detecting vehicles and apparatus using the same KR102074073B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180075127A KR102074073B1 (en) 2018-06-29 2018-06-29 Method for detecting vehicles and apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180075127A KR102074073B1 (en) 2018-06-29 2018-06-29 Method for detecting vehicles and apparatus using the same

Publications (2)

Publication Number Publication Date
KR20200002066A KR20200002066A (en) 2020-01-08
KR102074073B1 true KR102074073B1 (en) 2020-03-02

Family

ID=69154537

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180075127A KR102074073B1 (en) 2018-06-29 2018-06-29 Method for detecting vehicles and apparatus using the same

Country Status (1)

Country Link
KR (1) KR102074073B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220025435A (en) 2020-08-24 2022-03-03 주식회사 테스트웍스 Apparatus and method for selecting optimized models

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102563000B1 (en) * 2020-10-29 2023-08-03 주식회사 딥비전스 Apparatus and method for behavior recognition
KR102531058B1 (en) * 2020-11-23 2023-05-10 한국광기술원 System for Camouflage pattern evaluation based on image analysis and Method thereof
KR102667903B1 (en) * 2021-04-02 2024-05-20 성균관대학교산학협력단 Apparatus and method for tracking the motion of paticles in a fluid
KR102381909B1 (en) * 2021-05-18 2022-04-01 렉스젠(주) An Apparatus for verifying vehicle speed and method therefore
CN113723457A (en) * 2021-07-28 2021-11-30 浙江大华技术股份有限公司 Image recognition method and device, storage medium and electronic device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100829904B1 (en) * 2006-12-13 2008-05-16 (재)대구경북과학기술연구원 Vehicles detecting method using multiple resolution technique
JP2015011713A (en) 2013-07-01 2015-01-19 株式会社リコー Vehicle detection method and device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100566629B1 (en) * 2003-06-16 2006-03-31 주식회사 팬택 System for detecting moving objects and method thereof
KR20070019347A (en) * 2005-08-12 2007-02-15 주식회사 케이티 device and method for detecting mobile in automated driving system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100829904B1 (en) * 2006-12-13 2008-05-16 (재)대구경북과학기술연구원 Vehicles detecting method using multiple resolution technique
JP2015011713A (en) 2013-07-01 2015-01-19 株式会社リコー Vehicle detection method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220025435A (en) 2020-08-24 2022-03-03 주식회사 테스트웍스 Apparatus and method for selecting optimized models
WO2022045519A1 (en) * 2020-08-24 2022-03-03 주식회사 테스트웍스 Optimization model selection device and method

Also Published As

Publication number Publication date
KR20200002066A (en) 2020-01-08

Similar Documents

Publication Publication Date Title
KR102074073B1 (en) Method for detecting vehicles and apparatus using the same
US9514366B2 (en) Vehicle detection method and system including irrelevant window elimination and/or window score degradation
US8744168B2 (en) Target analysis apparatus, method and computer-readable medium
EP1975879B1 (en) Computer implemented method for tracking object in sequence of frames of video
US20170032676A1 (en) System for detecting pedestrians by fusing color and depth information
KR101764845B1 (en) A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof
US9607228B2 (en) Parts based object tracking method and apparatus
Huang et al. Vehicle detection and inter-vehicle distance estimation using single-lens video camera on urban/suburb roads
US7881531B2 (en) Error propogation and variable-bandwidth mean shift for feature space analysis
Karasulu Review and evaluation of well-known methods for moving object detection and tracking in videos
US20060067562A1 (en) Detection of moving objects in a video
US9443137B2 (en) Apparatus and method for detecting body parts
US9836851B2 (en) Apparatus and method for detecting multiple objects using adaptive block partitioning
Timofte et al. Combining traffic sign detection with 3D tracking towards better driver assistance
Saran et al. Traffic video surveillance: Vehicle detection and classification
US20170103536A1 (en) Counting apparatus and method for moving objects
Santos et al. Learning to segment roads for traffic analysis in urban images
Ghasemi et al. A real-time multiple vehicle classification and tracking system with occlusion handling
Cheng et al. Road extraction via adaptive graph cuts with multiple features
Zheng et al. Shadow removal for pedestrian detection and tracking in indoor environments
JP2014048702A (en) Image recognition device, image recognition method, and image recognition program
KR100566629B1 (en) System for detecting moving objects and method thereof
Chen et al. Research on vehicle detection and tracking algorithm for intelligent driving
Yogameena et al. People/vehicle classification by recurrent motion of skeleton features
US11210916B2 (en) Smoke detection method and apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant