KR102082254B1 - a vehicle recognizing system - Google Patents

a vehicle recognizing system Download PDF

Info

Publication number
KR102082254B1
KR102082254B1 KR1020180029955A KR20180029955A KR102082254B1 KR 102082254 B1 KR102082254 B1 KR 102082254B1 KR 1020180029955 A KR1020180029955 A KR 1020180029955A KR 20180029955 A KR20180029955 A KR 20180029955A KR 102082254 B1 KR102082254 B1 KR 102082254B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
bounding box
vector
vehicle recognition
Prior art date
Application number
KR1020180029955A
Other languages
Korean (ko)
Other versions
KR20190115501A (en
Inventor
이윤관
전문구
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020180029955A priority Critical patent/KR102082254B1/en
Publication of KR20190115501A publication Critical patent/KR20190115501A/en
Application granted granted Critical
Publication of KR102082254B1 publication Critical patent/KR102082254B1/en

Links

Images

Classifications

    • G06K9/00785
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

차량 인식 시스템이 개시된다. 본 발명의 일 실시 예에 따른 차량 인식 시스템은 교통 감시 영상을 입력받는 이미지 입력부, 상기 이미지 입력부에서 입력받은 이미지로부터 차량을 인식하는 제어부 및 상기 제어부에서 인식한 결과를 출력하는 출력부를 포함하며, 상기 제어부는 입력받은 이미지로부터 특징을 추출하는 특징 추출부, 추출한 특징에 기초하여 경계 박스를 생성하고 이를 보정하는 경계 박스 생성 및 보정부, 경계 박스의 세 면을 하나의 면으로 투영한 이미지를 생성하는 투영면 생성부, 및 상기 투영면 생성부에서 생성된 이미지를 입력으로하여 차량 인식 모델을 통해 차량을 인식하는 모델링부를 포함한다.A vehicle recognition system is disclosed. The vehicle recognition system according to an embodiment of the present invention includes an image input unit for receiving a traffic monitoring image, a control unit for recognizing a vehicle from an image received by the image input unit, and an output unit for outputting a result recognized by the control unit. The controller extracts a feature from the input image, the feature extractor generates a bounding box based on the extracted feature, creates and corrects a bounding box, and generates an image in which three sides of the bounding box are projected onto one surface. And a modeling unit configured to recognize a vehicle through a vehicle recognition model by using the projection surface generator and an image generated by the projection surface generator as an input.

Description

차량 인식 시스템{a vehicle recognizing system}Vehicle recognizing system

본 발명은 차량 인식 시스템에 관한 것이다. 구체적으로, 검출되는 차량에 대한 경계 박스를 생성하고 이를 딥러닝 기반의 추정 모델에 입력 값으로 사용하여 차량을 인식하는 차량 인식 시스템에 관한 것이다.The present invention relates to a vehicle recognition system. Specifically, the present invention relates to a vehicle recognition system for generating a bounding box for a detected vehicle and using the same as an input value to a deep learning based estimation model to recognize a vehicle.

최근, 교통안전 및 모니터링을 목적으로 많은 대도시에서 교통 카메라가 급증하고 있다. 따라서, 수많은 카메라의 자동 감시를 위한 컴퓨터 비전 작업을 기반으로 하는 지능형 교통 감시 시스템의 개발이 이루어졌다. 최근 감시 카메라 시장에 채택된 방법들 중 번호판 인식, 차량 감지 및 교통량 측정의 경우, 사람의 감독 없이 스스로 동작하는 자동화된 시스템이 구축되어 있다.Recently, traffic cameras are rapidly increasing in many large cities for the purpose of traffic safety and monitoring. Thus, the development of an intelligent traffic surveillance system based on computer vision work for the automatic monitoring of numerous cameras. Among the methods recently adopted in the surveillance camera market, for license plate recognition, vehicle detection and traffic measurement, automated systems are built that operate on their own without human supervision.

또한, 차량 하위 카테고리 인식 방법은 지능형 교통 감시 시스템에 내장되어야 한다. 과속 또는 도주 차량을 추적할 때 차량 번호판을 모르는 경우 차량 모델을 사용하여 용의자의 차량을 추적하는 것이 가능하다. 차량 제조업체는 특정 모델의 통과 빈도를 확인할 수 도 잇다. 따라서, 다양한 분야에서 차량 모델의 구체적인 인식에 대한 필요성이 제기되고 있다. 그러나, 지금까지 차량 모델을 인식하는 방법은 주로 차량의 크기(소형, 중형, 대형) 또는 차량의 전면에만 집중되었다.In addition, the vehicle subcategory recognition method should be embedded in an intelligent traffic monitoring system. When tracking a speeding or escaping vehicle, it is possible to track the suspect's vehicle using the vehicle model if the license plate is not known. The vehicle manufacturer can also check the frequency of passage for a particular model. Therefore, there is a need for a concrete recognition of a vehicle model in various fields. However, until now, the method of recognizing a vehicle model has been mainly focused on the size of the vehicle (small, medium, large) or the front of the vehicle.

Zeiler, M. D., & Fergus, R. (2014, September). Visualizing and understanding convolutional networks. In European conference on computer vision (pp. 818-833). Springer International Publishing.Zeiler, M. D., & Fergus, R. (2014, September). Visualizing and understanding convolutional networks. In European conference on computer vision (pp. 818-833). Springer International Publishing. A. Krizhevsky, I. Sutskever, and G. E. Hinton. Imagenet classification with deep convolutional neural networks. In F. Pereira, C. Burges, L. Bottou, and K. Weinberger, editors, Advances in Neural Information Processing Systems 25, pages 1097??1105. Curran Associates, Inc., 2012.A. Krizhevsky, I. Sutskever, and G. E. Hinton. Imagenet classification with deep convolutional neural networks. In F. Pereira, C. Burges, L. Bottou, and K. Weinberger, editors, Advances in Neural Information Processing Systems 25, pages 1097 ?? 1105. Curran Associates, Inc., 2012. Dubskㅱ, Markㅹta, Adam Herout, and Jakub Sochor. "Automatic Camera Calibration for Traffic Understanding." BMVC. 2014.Dubsk ㅱ, Mark ㅹ ta, Adam Herout, and Jakub Sochor. "Automatic Camera Calibration for Traffic Understanding." BMVC. 2014.

본 발명의 일 실시 예에 따른 차량 인식 시스템은 특징 정보에 기초하여 생성되는 경계 박스를 이용하여 차량을 인식하기 위한 것이다.The vehicle recognition system according to an exemplary embodiment of the present invention is for recognizing a vehicle using a boundary box generated based on feature information.

구체적으로 기존의 차량 인식 시스템에서 인식하지 못하는 하위 카테고리(예를 들어 차량 모델, 연식, 제조사) 정보까지 인식하기 위한 것이다.In more detail, the present invention is to recognize information on sub-categories (for example, vehicle model, model, and manufacturer) that are not recognized by the existing vehicle recognition system.

본 발명의 일 실시 예에 따른 차량 인식 시스템은 교통 감시 영상을 입력받는 이미지 입력부, 상기 이미지 입력부에서 입력받은 이미지로부터 차량을 인식하는 제어부 및 상기 제어부에서 인식한 결과를 출력하는 출력부를 포함하며, 상기 제어부는 입력받은 이미지로부터 특징을 추출하는 특징 추출부, 추출한 특징에 기초하여 경계 박스를 생성하고 이를 보정하는 경계 박스 생성 및 보정부, 경계 박스의 세 면을 하나의 면으로 투영한 이미지를 생성하는 투영면 생성부, 및 상기 투영면 생성부에서 생성된 이미지를 입력으로하여 차량 인식 모델을 통해 차량을 인식하는 모델링부를 포함한다.The vehicle recognition system according to an exemplary embodiment of the present disclosure includes an image input unit for receiving a traffic monitoring image, a controller for recognizing a vehicle from an image received by the image input unit, and an output unit for outputting a result recognized by the controller. The controller extracts a feature from the input image, the feature extractor generates a bounding box based on the extracted feature, creates and corrects a bounding box, and generates an image in which three sides of the bounding box are projected onto one surface. And a modeling unit configured to recognize a vehicle through a vehicle recognition model by using the projection surface generator and an image generated by the projection surface generator as an input.

본 발명의 일 실시 예에 다른 차량 인식 시스템은 차량의 하위 계층 정보까지 인식할 수 있다.According to an embodiment of the present invention, the vehicle recognition system may recognize even lower layer information of the vehicle.

또한, 본 발명의 일 실시 예에 따른 차량 인식 시스템은 하위 계층 정보를 인식하기 위해 추가적인 측정 장비를 사용하는 것이 아니고 기존의 영상을 그대로 사용하여 경제성이 있다.In addition, the vehicle recognition system according to an embodiment of the present invention is economical by using an existing image as it is, without using additional measurement equipment to recognize lower layer information.

도 1은 평균 특징 맵을 생성하는 단계를 나타낸다.
도 2는 직사각형 커튼이 있는 세가지 테스트 예를 보여준다. 커튼이 각 샘플에 사용될 때 반응 맵의 평균을 나타내는 히트 맵 추출을 보여준다.
도 3은 차량의 중요 부분을 추출한 것을 나타낸다.
도 4는 본 발명의 일 실시 예에 따른 차량 인식 알고리즘을 나타내는 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 차량 인식 시스템의 블록도이다.
도 6은 경계 박스 및 투영된 이미지의 일 예를 나타낸다.
1 illustrates a step of generating an average feature map.
2 shows three test examples with rectangular curtains. The heat map extraction shows the mean of the response map as the curtain is used for each sample.
3 shows an important part of the vehicle extracted.
4 is a flowchart illustrating a vehicle recognition algorithm according to an embodiment of the present invention.
5 is a block diagram of a vehicle recognition system according to an exemplary embodiment.
6 shows an example of a bounding box and a projected image.

이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 그러나 본 발명의 사상은 이하의 실시예에 제한되지 아니하며, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에 포함되는 다른 실시예를 구성요소의 부가, 변경, 삭제, 및 추가 등에 의해서 용이하게 제안할 수 있을 것이나, 이 또한 본 발명 사상의 범위 내에 포함된다고 할 것이다. Hereinafter, with reference to the drawings will be described in detail a specific embodiment of the present invention. However, the spirit of the present invention is not limited to the following embodiments, and those skilled in the art who understand the spirit of the present invention can easily add, change, delete, or add other components that fall within the scope of the same spirit. It may be proposed, but this will also be included within the scope of the present invention.

첨부 도면은 발명의 사상을 이해하기 쉽게 표현하기 위하여 전체적인 구조를 설명함에 있어서는 미소한 부분은 구체적으로 표현하지 않을 수도 있고, 미소한 부분을 설명함에 있어서는 전체적인 구조는 구체적으로 반영되지 않을 수도 있다. 또한, 설치 위치 등 구체적인 부분이 다르더라도 그 작용이 동일한 경우에는 동일한 명칭을 부여함으로써, 이해의 편의를 높일 수 있도록 한다. 또한, 동일한 구성이 복수 개가 있을 때에는 어느 하나의 구성에 대해서만 설명하고 다른 구성에 대해서는 동일한 설명이 적용되는 것으로 하고 그 설명을 생략한다. In the accompanying drawings, in order to easily express the spirit of the present invention, in describing the overall structure, minute parts may not be specifically described, and in describing the minute parts, the overall structure may not be specifically reflected. In addition, even if the specific parts, such as an installation position, are different, when the action is the same, the same name is given, and the convenience of understanding can be improved. In addition, when there exists a plurality of the same structure, only one structure is demonstrated, and the same description is applied about another structure, and the description is abbreviate | omitted.

상술한 바와 같이, 기존의 문제를 해결하기 위해 본 발명에서는 복원될 실내 구조의 레이아웃을 추정하고, 이를 이용하여 3차원 복원 정확도를 향상시키고자 하였다. 즉, 본 발명에서는 바닥과 천장이 평행하며 벽에 수직하도록 실내 구조를 제약하여 실내를 복원한다.As described above, in order to solve the existing problem, in the present invention, the layout of the interior structure to be restored is estimated, and the 3D restoration accuracy is improved by using the same. That is, in the present invention, the interior is restrained by restraining the interior structure so that the floor and the ceiling are parallel and perpendicular to the wall.

일반적인 감시 방법에 비해 차량 하위 카테고리 인식 방법은 다른 대상에서 찾을 수 없는 차량의 고유한 특성으로 인해 다른 방법보다 많은 제한이 있다. 첫째, SUV, 트럭 및 세단과 같은 다양한 종류의 클래스 사이에서 차량의 디자인 스타일에는 큰 차이가 없다. 분명하게 각 차량이 다른 제조사 또는 다른 연식임에도 불구하고 언뜻 보면 큰 차이가 없으며 따라서 차량을 인식하기가 어려운 것이 일반적이다. 둘째, 동일한 차량임에도 불구하고 차량은 자세 및 각도에 따라 매우 다른 외관을 만든다. 차량의 앞면과 측면의 모양이 매우 다른바, 다른 시각에서 각 차량의 고유한 특징을 식별하는 것은 어렵다.Compared with the general monitoring method, the vehicle subcategory recognition method has more limitations than other methods due to the unique characteristics of the vehicle that cannot be found in other objects. First, there is no big difference in the design style of the vehicle between different classes of classes such as SUVs, trucks and sedans. Obviously, despite the fact that each vehicle is a different manufacturer or a different year, it is not at all a big difference at first glance, so it is common to be difficult to recognize the vehicle. Second, despite being the same vehicle, the vehicle makes a very different appearance depending on posture and angle. The shape of the front and side of the vehicle is very different, making it difficult to identify the unique features of each vehicle from different perspectives.

인식에 큰 부담이 되는 차량의 독특한 특성에도 불구하고, 차량의 하위 카테고리를 인식하는 발명이 있었다. 그러나, 이러한 기존의 발명은 인식에서의 많은 제약으로 인하여 완벽한 차량 인식 방법이라고 할 수 없다. 전형적인 제약 사항 중 하나는 차량의 하위 카테고리가 차량 앞 부분만으로 인식된다는 것이다. 몰론, 차량의 정면만으로도 인식 성능이 좋다는 것은 사실이다. 그러나, 감시 환경에서의 자동차 외관은 항상 정면만이 있는 것이 아니고, 측면, 후면 및 상단이 감지될 때도 있다. 또한, 기존의 발명은 차량의 모델 이름과 제조업체를 식별할 수 있는 하위 카테고리를 인식하지 못하고 SUV, 트럭, 세단, 버스 등의 상위 카테고리만을 인식할 수 있었다.In spite of the unique characteristics of the vehicle, which is a great burden for recognition, there has been an invention of recognizing subcategories of the vehicle. However, this existing invention is not a perfect vehicle recognition method due to many limitations in recognition. One typical constraint is that a subcategory of a vehicle is recognized only by the front of the vehicle. Of course, it is true that the recognition performance is good only by the front of the vehicle. However, the exterior of a car in a surveillance environment is not always the front, and sometimes the side, back and top are sensed. In addition, the existing invention was not able to recognize the sub-category that can identify the model name and the manufacturer of the vehicle, it was able to recognize only the upper category, such as SUV, truck, sedan, bus.

본 발명에서는 Convolution Neural Network(CNN) 기반 모델로서, 기존보다 더 강력한 성능을 얻기 위해 차량의 부분별 특징을 추출하고 학습하는 차량 인식 모델을 제안한다.In the present invention, as a Convolution Neural Network (CNN) -based model, we propose a vehicle recognition model that extracts and learns the features of each part of the vehicle in order to obtain more powerful performance than before.

구체적으로 이하에서는 컨볼루션 레이어를 이해하기 위한 특징 맵의 시각화를 설명하고, 시각화 분석을 통해 차량 인식에 필요한 부분을 자동으로 찾는 방법을 설명한다. 이것은 레이어의 포워드 패스 중 활성화를 시각화하여 수행된다. Specifically, a description will be given of the visualization of the feature map for understanding the convolutional layer, and a method of automatically finding the parts required for vehicle recognition through visualization analysis. This is done by visualizing the activation during the forward pass of the layer.

도 1은 평균 특징 맵을 생성하는 단계를 나타낸다.1 illustrates a step of generating an average feature map.

(b)는 각 레이어의 특징 맵의 평균을 의미하며, (c)는 (b)에서 수집된 레이어들의 평균을 나타낸다. (b) means the average of the feature map of each layer, (c) shows the average of the layers collected in (b).

본 발명은 가장 강력한 활성화 기능(선행기술 1)을 갖는 시각화를 기반으로 한다. The present invention is based on visualization with the strongest activation function (prior art 1).

본 발명의 일 실시 예에서는 차량의 정면 이미지, 정면 및 사이드 바이 사이드 이미지의 224 * 224 자른 이미지를 동시에 구성하고, 이를 Krizhevsky(선행기술 2) 구조에 넣는다. 본 발명에서는 모든 학습을 마친 후, 네트워크에서 생성된 특징 맵을 확인한다. According to an embodiment of the present invention, the front image of the vehicle, the front and side by side images of the 224 * 224 cropped image are simultaneously configured and put into the Krizhevsky (prior art 2) structure. In the present invention, after completing all the learning, the feature map generated in the network is checked.

Krizhevsky 구조의 각 계층 중 가장 반응성이 높은 특징 중 9가지가 획득된다. 레이어가 깊어짐에 따라 반응한 특징 맵은 학습 과정을 거치면서 더 희귀해지고 지역화된다.Nine of the most responsive features of each layer of the Krizhevsky structure are obtained. As the layer deepens, the feature map that reacts becomes more rare and localized throughout the learning process.

동시에, 드물지만 반응하는 뉴런을 나타내는 특징 맵의 이미지가 인지에 있어서 가장 중요한 부분이다. 따라서 마지막 5개의 풀링 레이어에 의해 활성화된 이미지는 궁극적인 인식에 필요한 최소한의 그리고 확실한 영역이다.At the same time, images of feature maps that represent rare but reactive neurons are the most important part of cognition. Thus, the image activated by the last five pooling layers is the minimum and certain area required for ultimate recognition.

마지막 5개의 레이어에서 모든 특징 맵의 평균 반응 픽셀들이 계산된다. 여기에서 fl i를 l번째 이미지의 다섯번째 풀링 레이어의 i 번째 특징 맵이라 지칭한다. 그리고 난 뒤, 마지막 반응 필드를 형성하기 위해 소위 히트 맵이라 지칭되는 전체 이미지의 특징 맵이 평균화가 다음 수학식 1과 같이 수행된다. In the last five layers, the average response pixels of all feature maps are calculated. Here, f l i is referred to as the i th feature map of the fifth pulling layer of the l th image. Then, to form the last response field, the feature map of the entire image, called a heat map, is averaged as shown in Equation 1 below.

Figure 112018025758752-pat00001
Figure 112018025758752-pat00001

본 발명에서 사용되는 네트워크는 5개의 컨볼루션 레이어를 갖는바, 총 5개가 있다. 이들은 수학식 2와 같이 평균화된다.The network used in the present invention has five convolutional layers, totaling five. These are averaged as in Equation 2.

Figure 112018025758752-pat00002
Figure 112018025758752-pat00002

여기에서 F가 히트맵(heatmap)이다. 그러므로, 도 1(c)와 같은 평균 히트맵이 획득된다.Where F is the heatmap. Therefore, an average heat map as shown in Fig. 1C is obtained.

도 2는 직사각형 커튼이 있는 세가지 테스트 예를 보여준다. 커튼이 각 샘플에 사용될 때 반응 맵의 평균을 나타내는 히트 맵 추출을 보여준다.2 shows three test examples with rectangular curtains. The heat map extraction shows the mean of the response map as the curtain is used for each sample.

도 2는 차량의 다양한 위치에서 화면을 사용하고 학습이 진행됨에 따라 어느 부분이 가장 중요한지를 시각화하여 보여준다. 각 테스트 이미지에 대한 평균 특징 맵은 차량 분류에서 가장 활동적인 영역을 보여준다. 도 4에 도시된 바와 같이, 차량의 헤드 라이트, 테일 라이트, 및 중앙 엠블럼의 위치가 차량 인식에 있어서 가장 중요한 부분임을 알 수 있다.FIG. 2 visualizes and shows which parts are most important as the screen is used at various positions of the vehicle and the learning progresses. The average feature map for each test image shows the most active area of the vehicle classification. As shown in Figure 4, it can be seen that the position of the head light, tail light, and the center emblem of the vehicle is the most important part in vehicle recognition.

도 2의 마지막 예는 유니크 케이스를 보여준다. 이 테스트 이미지는 차량의 앞면에 따라 분류되어, 최종 히트맵 결과가 테일 라이트에 집중되었다. 헤드 라이트와 엠블럼이 보이는 이미지에 비해 반응성이 낮으나, 헤드 라이트, 테일 라이트, 및 엠블렘은 컨볼루션 레이어를 통해 차량 인식 시 가장 중요한 부분임을 알 수 있다. 따라서, 본 발명에서는 인식률을 극대화하고 제조사 및 모델과 같은 차량 하위 카테고리를 구별하기 위해 차량의 라이트와 엠블렘을 주요 인식 특징으로 선정하였다.The last example of Figure 2 shows a unique case. The test images were sorted according to the front of the vehicle, and the final heatmap result was focused on the tail lights. Although the responsiveness of the headlights and emblems is less responsive than the visible images, the headlights, tail lights, and emblems can be seen as the most important parts in vehicle recognition through the convolutional layer. Therefore, in the present invention, the light and the emblem of the vehicle are selected as the main recognition features in order to maximize the recognition rate and distinguish the vehicle sub-categories such as the make and model.

이하에서서는 3D 경계 박스(선행기술 3)를 찾는 알고리즘을 기반으로 분류에 필요한 차량을 찾고 감시 환경에서 차량의 특징적인 부분을 찾는 방법을 설명한다. 대부분의 교통 환경에서 차량이 직선 경로로 달리는 것을 가정한다면, 본 발명의 알고리즘은 실제 교통 감시 비디오에 대하여 일반적으로 쉽고 안정적으로 적용할 수 있다.In the following, a method for finding vehicles required for classification based on an algorithm for finding a 3D bounding box (prior art 3) and finding a characteristic part of the vehicle in a surveillance environment will be described. Assuming that the vehicle runs on a straight path in most traffic environments, the algorithm of the present invention is generally easy and stable to apply to real traffic surveillance video.

다른 물체와 달리, 본 발명에서는 보다 정확하고 신뢰할 수 있는 모델을 개발하기 위해 차량의 특정 모양을 고려하는 분류 모델을 구축한다. 구체적으로 경계 박스를 찾아 경계 박스의 각 면인 앞면, 옆면 및 위면을 식별할 수 있다.Unlike other objects, the present invention builds a classification model that takes into account the specific shape of the vehicle in order to develop a more accurate and reliable model. Specifically, the bounding box may be found to identify front, side, and top surfaces of each side of the bounding box.

본 발명의 일 실시 예에 따른 알고리즘의 첫 번째 단계는 차량 흐름을 통해 확인할 수 있는 3개의 소실점을 결정하고, 이를 통해 카메라 캘리브레이션을 수행하는 것이다. 첫 번째 소실점은 KLT 추적 프로그램에 의해 추적되고 식별되는 특징 점에 대한 방향이다. 두 번째 소실점은 도로의 분할 선에 수직인 방향이다. 세 번째 소실점은 두 개의 소실점의 바깥쪽 방향이다. 이러한 소실점의 점들을 정규화함으로써, 직육면체 형상 차량을 검출하는 것이 가능하다.The first step of the algorithm according to an embodiment of the present invention is to determine three vanishing points that can be identified through the flow of the vehicle, and then perform camera calibration. The first vanishing point is the direction to the feature point that is tracked and identified by the KLT tracking program. The second vanishing point is in a direction perpendicular to the dividing line of the road. The third vanishing point is the outward direction of the two vanishing points. By normalizing these vanishing points, it is possible to detect a rectangular parallelepiped vehicle.

두 번째 단계에서 세 개의 소실점의 접점을 찾고, 차량에 대한 직육면체 박스를 만든다. 각 섹션은 앞/뒤(F), 옆(S) 및 위(U)의 세 섹션으로 표시된다. 각 부분은 다음과 같은 행렬 P로 구성된다.In the second step, we find the junctions of the three vanishing points and build a cuboid box for the vehicle. Each section is represented by three sections: front / back (F), side (S), and top (U). Each part consists of the matrix P as follows.

Figure 112018025758752-pat00003
Figure 112018025758752-pat00003

상기의 P 행렬을 통해 각 횡단면의 위치를 찾을 수 있다. 그리고 각 횡단면에 대하여 투영 이미지를 2차원으로 얻을 수 있다.The position of each cross section can be found through the P matrix. And projection images can be obtained in two dimensions for each cross section.

도 3은 차량의 중요 부분을 추출한 것을 나타낸다. 3 shows an important part of the vehicle extracted.

상술한 바와 같은 방법으로 차량의 앞/뒤, 측면, 및 위쪽으로 나뉘어진 부분을 얻을 수 있다. 그러나 도 3에 도시된 바와 같이, 차량의 F 섹션과 S 섹션을 동시에 보는 경우, 정면이 추출된 섹션에서는 정면이 그대로 유지되지 않는다. In the manner as described above, the divided parts of the front / rear, side, and upward of the vehicle can be obtained. However, as shown in FIG. 3, when the F section and the S section of the vehicle are simultaneously viewed, the front face is not maintained as it is in the section where the front face is extracted.

또한, 3개의 소실점으로부터 획득된 F 섹션이 모든 헤드라이트등을 포함하지 않는 경우도 있다. 그러나, 앞에서 본 바와 같이 챠량의 헤드라이트는 차량 인식에 있어서, 중요한 부분임을 인지한 바 있다. 그러나, 앞서 설명한 경계 박스만으로는 헤드라이트/테일라이트 영역을 올바르게 인식하지 못하는 경우가 있을 수 있다. 따라서, 이하에서는 헤드 라이트/테일라이트 영역을 효율적으로 얻을 수 있는 방법을 설명한다.In addition, the F section obtained from three vanishing points may not include all the headlights. However, as previously seen, the vehicle headlights have been recognized as an important part in vehicle recognition. However, there may be a case where the headlight / taillight area is not correctly recognized only by the boundary box described above. Therefore, the following describes a method for efficiently obtaining the headlight / taillight area.

차량의 정면을 온전히 보기 위해서, 차량의 측면 경계 상자로 인식되나, 차량의 앞 부분에 속하는 영역을 획득하여 전체 전면을 획득할 수 있다. 차량이 앞쪽을 향하고 있다는 가정하에, 차량이 얼마나 멀리에 있는지에 관한 각도를 계산한다. 이를 위해 먼저, 영상에 수평방향으로 평행한 두 선인 수평선(w1과 w2)을 정의한다. 그리고 여기에서 w1은 차량 전면 사각형을 구성하는 네개의 점중 가장 아래에 위치하는 점(도 3에서는 p6)과 접하며, w2는 차량 전면 사각형을 구성하는 네 개의 점 중 가장 위에 위치하는 점(도 3에서는 p2)와 접한다. In order to fully view the front of the vehicle, it is recognized as a side bounding box of the vehicle, but the entire front can be obtained by acquiring an area belonging to the front part of the vehicle. Assuming that the vehicle is facing forward, calculate the angle as to how far the vehicle is. To this end, first, horizontal lines w1 and w2, which are parallel to the image, are defined. Here, w1 is in contact with the lowest point among the four points constituting the vehicle front rectangle (p6 in FIG. 3), and w2 is the highest point among the four points constituting the vehicle front rectangle (in FIG. 3). contact with p2).

그리고, 경계 박스의 측면을 구성하는 사각형에 포함된 차량 진행 방향의 두 선 중 어느 하나와 w1 또는 w2 중 어느 하나가 만나는 점을 b1이라고 한다. 그리고 b1으로부터 출발하는 수평선에 수직인 선과 측면 사각형의 차량 진행 방향 선 중 수평선과 만나지 않은 선이 만나는 점을 b2라고 한다. 결과적으로 아래와 같은 행렬 P가 정의된다.The point at which any one of two lines in the vehicle traveling direction included in the rectangle constituting the side of the bounding box meets either w1 or w2 is referred to as b1. And b2 is a point where a line perpendicular to the horizontal line starting from b1 and a line which does not meet the horizontal line among the vehicle traveling direction lines of the side rectangles meet. As a result, the following matrix P is defined.

Figure 112018025758752-pat00004
Figure 112018025758752-pat00004

상기 행렬 P를 통해 차량의 모든 중요한 부분을 포함하는 조정된 전면을 얻을 수 있다. 보정된 정면의 픽셀 좌표 T를 다음과 같이 나타낼 수 있다.The matrix P gives an adjusted front that includes all the important parts of the vehicle. The corrected front pixel coordinate T can be expressed as follows.

T = (p2 b1 p5 b2)T = (p2 b1 p5 b2)

여기에서, p1, b1, p5, b2는 사각형을 구성한다. 도 3에 도시된 바와 같이, p2, p3, p5, p6로 구성되는 정면 사각형을 위한 행렬 P를 통해 보정된 값을 획득할 수 있다.Here, p1, b1, p5, and b2 form a rectangle. As shown in FIG. 3, a corrected value may be obtained through the matrix P for the front quadrangle consisting of p2, p3, p5, and p6.

도 4는 본 발명의 일 실시 예에 따른 차량 인식 알고리즘을 나타내는 흐름도이다.4 is a flowchart illustrating a vehicle recognition algorithm according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 차량 인식 시스템은 교통 감시 영상을 입력 받는다(S101). 여기에서 입력되는 교통 감시 영상은 일반적인 교통 감시 시스템에서 수집되는 영상으로, 일 예로 고속도로 통행 영상일 수 있다.Vehicle recognition system according to an embodiment of the present invention receives a traffic monitoring image (S101). The traffic monitoring image input here is an image collected by a general traffic monitoring system. For example, the traffic monitoring image may be a highway traffic image.

차량 인식 시스템은 교통 영상으로부터 차량을 검출한다(S103). 차량 인식 시스템은 교통 영상에서 차량을 검출할 수 있으며, 영상에서 차량을 검출하는 방법을 알려진 알고리즘에 따른다.The vehicle recognition system detects a vehicle from the traffic image (S103). The vehicle recognition system may detect a vehicle in a traffic image, and a method of detecting a vehicle in the image is based on a known algorithm.

차량 인식 시스템은 영상 분석 알고리즘을 통해 영상의 특징 정보를 생성한다(S105). 차량 인식 시스템은 영상 분석 알고리즘을 통해 영상에서 3개의 벡터를 추출한다. 구체적으로 차량 인식 시스템은 차량의 진행방향에 대한 모션 벡터를 구하고, 차량 진행 방향에 수직인 벡터를 구한다. 그리고 차량 인식 시스템은 모션 벡터와 모션 벡터에 수직인 벡터간의 외적 벡터를 구한다. 구체적인 특징 정보 생성의 알고리즘은 앞선 도 3에서 설명한바 여기에서는 상세한 설명을 생략한다.The vehicle recognition system generates feature information of an image through an image analysis algorithm (S105). The vehicle recognition system extracts three vectors from the image through an image analysis algorithm. In detail, the vehicle recognition system obtains a motion vector with respect to the moving direction of the vehicle, and obtains a vector perpendicular to the moving direction of the vehicle. And the vehicle recognition system finds the cross product vector between the motion vector and the vector perpendicular to the motion vector. The algorithm for generating specific feature information has been described above with reference to FIG. 3, and thus detailed description thereof will be omitted.

차량 인식 시스템은 특징 정보에 기초하여 경계 박스를 생성한다(S107). 구체적으로 차량 인식 시스템은 단계 S105에서 획득한 세 개의 벡터를 조합하여 직육면체 형상의 경계 박스를 생성한다. 이때, 경계 박스는 차량의 전방 이미지를 포함하는 전면(또는 전면의 반대면인 후면), 차량의 측방 이미지를 포함하는 측면 및 차량의 상방 이미지를 포함하는 상면의 세 개의 면으로 구성될 수 있다. 예를 들어, 차량의 전방 이미지는 일반적인 상식에서 헤드라이트를 포함하는 이미지로 볼 수 있으며, 차량의 측방 이미지는 도어를 포함하는 이미지로 볼 수 있으며, 차량의 상방 이미지는 차량 천장을 포함하는 이미지로 볼 수 있다. The vehicle recognition system generates a bounding box based on the feature information (S107). Specifically, the vehicle recognition system combines the three vectors obtained in step S105 to generate a rectangular box-shaped bounding box. In this case, the bounding box may be composed of three surfaces: a front surface (or a rear surface opposite to the front surface) including a front image of the vehicle, a side surface including a side image of the vehicle, and an upper surface including an upper image of the vehicle. For example, the front image of the vehicle may be viewed as an image including a headlight in general common sense, the side image of the vehicle may be viewed as an image including a door, and the upper image of the vehicle may be an image including a ceiling of the vehicle. can see.

차량 인식 시스템은 생성된 경계 박스의 세개의 면을 투영하여 한장의 이미지를 획득한다(S109). 경계 박스의 각 면은 일반적으로 차량의 전방, 측방, 상방을 나타내나, 전방을 포함하는 전면이 차량의 전방을 온전히 포함하지 못하는 경우가 있을 수 있다. 따라서, 본 발명의 일 실시 예에 따른 차량 인식 시스템은 경계 박스를 구성하는 면을 보정하고 보정된 면을 투영하여 세개의 면이 모두 표현된 한장의 이미지를 획득한다. The vehicle recognition system acquires a single image by projecting three surfaces of the generated bounding box (S109). Each side of the bounding box generally represents the front, side, and top of the vehicle, although there may be cases where the front, including the front, does not fully cover the front of the vehicle. Accordingly, the vehicle recognition system according to an exemplary embodiment of the present invention corrects the plane constituting the bounding box and projects the corrected plane to obtain a single image in which all three planes are represented.

구체적인 실시 예에서, 차량 인식 시스템은 세개의 면 중 차량의 진행 방향 면(경계 박스의 전면 또는 후면)을 보정한다. 구체적인 보정 방법은 도 3에서 설명하였는바, 여기에서는 설명을 생략한다.In a specific embodiment, the vehicle recognition system corrects the traveling direction surface (front or rear of the boundary box) of the three surfaces. A detailed correction method has been described with reference to FIG. 3, and thus description thereof will be omitted.

차량 인식 시스템은 보정된 면을 포함하는 세개의 면을 투영하여 세개의 면이 한면으로 표현되는 이미지를 획득한다.The vehicle recognition system projects three faces including the corrected face to obtain an image in which the three faces are represented by one face.

차량 인식 시스템은 획득한 이미지를 CNN 모델에 입력한다(S111). 여기에서 사용하는 CNN 모델은 경계 박스의 세개의 면으로 구성된 한장의 이미지를 입력 데이터로 하여 딥러링 방식으로 구현된 모델로서, 방대한 양의 차종 데이터로 구성되는 모델이다.The vehicle recognition system inputs the acquired image into the CNN model (S111). The CNN model used here is a model implemented by a deeper method using a single image composed of three sides of a bounding box as input data, and is a model composed of a large amount of vehicle model data.

차량 인식 시스템은 CNN 모델을 통해 차종을 검색하고, 검색된 결과를 출력한다(S113). The vehicle recognition system searches for the vehicle model through the CNN model, and outputs the searched result (S113).

도 5는 본 발명의 일 실시 예에 따른 차량 인식 시스템의 블록도이다.5 is a block diagram of a vehicle recognition system according to an exemplary embodiment.

본 발명의 일 실시 예에 따른 차량 인식 시스템(1)은 이미지 입력부(10), 제어부(20), 저장부(30), 및 출력부(40)를 포함할 수 있다. 여기에서 차량 인식 시스템(1)은 하나의 독립된 장치일 수도 있고, 장치의 일 구성일 수도 있고, 복수의 독립된 장치들의 조합일 수도 있고, 프로그램일 수도 있고, 프로그램이 설치되어 실행가능한 장치일 수도 있다.The vehicle recognition system 1 according to an exemplary embodiment may include an image input unit 10, a control unit 20, a storage unit 30, and an output unit 40. Here, the vehicle recognition system 1 may be a single independent device, a configuration of a device, a combination of a plurality of independent devices, a program, or a device in which a program is installed and executable. .

이미지 입력부(10)는 CCTV와 같은 촬영 장치에서 촬영된 차량 감시 영상을 입력받는다. 여기에서 이미지 입력부(10)는 외부 장치와 연결되는 인터페이스일 수 있으며, 이미지 디코더를 포함하는 구성일 수 있다. 예를 들어 이미지 입력부(10)는 USB 단자 및 특정 압축 방식에 따라 압축된 이미지를 디코딩할 수 있는 디코더를 포함할 수 있다. 더하여, 이미지 입력부(10)는 카메라와 같은 이미지 촬영장치를 더 포함할 수도 있다.The image input unit 10 receives a vehicle surveillance image photographed by a photographing device such as a CCTV. Here, the image input unit 10 may be an interface connected to an external device, and may be a component including an image decoder. For example, the image input unit 10 may include a USB terminal and a decoder capable of decoding the compressed image according to a specific compression scheme. In addition, the image input unit 10 may further include an image photographing device such as a camera.

제어부(20)는 차량 인식에 관한 전반적인 동작을 수행한다. 제어부(20)는 하드웨어 프로세서일 수 있다. 제어부(20)는 세부적으로 특징 추출부(21), 경계박스 생성 및 보정부(22), 투영면 생성부(23) 및 모델링부(24)를 포함할 수 있다.The controller 20 performs an overall operation related to vehicle recognition. The controller 20 may be a hardware processor. The control unit 20 may include a feature extractor 21, a boundary box generation and correction unit 22, a projection plane generator 23, and a modeling unit 24.

특징 추출부(21)는 이미지 입력부(10)로부터 획득한 차량 감시 영상에서 차량을 검출하고, 특징을 추출한다. 특징 추출부(21)가 추출하는 특징은 상술한 바와 같이 세 개의 벡터이며, 세 개의 벡터를 추출하는 구체적인 방법은 상술한바 여기에서는 상세한 설명을 생략한다.The feature extractor 21 detects a vehicle from the vehicle surveillance image acquired from the image input unit 10 and extracts a feature. The features extracted by the feature extractor 21 are three vectors as described above, and the detailed method of extracting the three vectors is described above.

경계 박스 생성 및 보정부(22)는 특징 추출부(21)에서 추출된 세 개의 벡터에 기초하여 직육면체 형상의 경계 박스를 생성한다. 그리고 경계 박스의 세 면 중 보정이 필요한 면에 대한 보정을 수행한다. 경계 박스 생성 및 보정에 관한 구체적인 동작은 상술한바 여기에서는 상세한 설명을 생략한다. 경계 박스의 생성 예는 도 6의 (a)를 참고할 수 있다.The bounding box generating and correcting unit 22 generates a rectangular parallelepiped bounding box based on the three vectors extracted by the feature extracting unit 21. Then, the three sides of the bounding box need to be corrected. Detailed operation of the bounding box generation and correction has been described above, and thus detailed description thereof will be omitted. An example of generating the bounding box may refer to FIG. 6A.

투영면 생성부(23)는 경계 박스의 세 면을 투영하여 하나의 이미지를 생성한다. 투영면은 차량을 식별하기 위한 차량의 각 면을 하나의 면으로 합친 이미지로서, 생성 예는 도 6의 (b)를 참고할 수 있다.The projection plane generator 23 projects one surface of the bounding box to generate one image. The projection surface is an image in which each surface of the vehicle for identifying the vehicle is combined into one surface. For example, the projection surface may refer to FIG. 6B.

모델링부(24)는 투영면 생성부(23)에서 생성된 이미지를 구성되어 있는 차량 인식 모델에 입력한다. 여기에서 사용되는 추정 모델은 CNN이 사용될 수 있으며, 다수의 데이터를 수 회 반복학습하여 구성되는 추정 모델일 수 있다. 만약, 투영면 생성부(23)로부터 입력되는 이미지가 기 구성된 모델에서 인식할 수 없는 경우 모델링부(24)는 새로운 이미지를 입력으로 하여 학습을 통해 새로운 모델을 생성할 수 있다.The modeling unit 24 inputs the image generated by the projection surface generation unit 23 to the vehicle recognition model. As the estimation model used herein, the CNN may be used, and the estimation model may be an estimation model configured by repetitively learning a plurality of data. If the image input from the projection plane generator 23 cannot recognize the pre-configured model, the modeling unit 24 may generate a new model through learning using the new image as an input.

저장부(30)는 이미지 데이터를 저장한다. 저장부(30)는 내장형 메모리, 외장 저장 장치 또는 서버일 수 있으며, 기타 데이터를 저장 가능한 어떠한 매체도 가능하다. 구체적으로 저장부(30)는 투영면 생성부(23)에서 생성되는 이미지를 저장할 수 있으며, 기존의 차량 인식을 위한 이미지 데이터도 저장할 수 있다. 저장부(30)에 저장되어 있는 데이터는 모델링부(24)에서 추정 모델을 구성하고 업데이트하는데 사용될 수 있다.The storage unit 30 stores image data. The storage unit 30 may be an internal memory, an external storage device, or a server, and any medium capable of storing other data may be used. In detail, the storage unit 30 may store an image generated by the projection surface generator 23, and may also store image data for recognizing an existing vehicle. The data stored in the storage unit 30 may be used by the modeling unit 24 to construct and update the estimation model.

출력부(40)는 제어부(20)에서 수행한 차량 인식 결과를 출력한다. 출력부(40)는 예를 들어 디스플레이 장치, 프린터와 같은 출력장치일 수 있다. 출력부(40)는 차량 인식 결과를 출력하는데, 여기에서 출력되는 차량 정보는 차량의 모델명, 제조사, 연식 중 적어도 어느 하나일 수 있다. 기존의 차량 인식 시스템의 경우 차량의 차체와 관련된 등급을 인식하는데 그치나, 본 발명에서는 경계 박스 및 투영면 그리고 딥러닝 기반의 추정 모델을 이용하여 비교적 하위 계층의 차량 정보까지 인식하여 이를 출력할 수 있다.The output unit 40 outputs the vehicle recognition result performed by the control unit 20. The output unit 40 may be, for example, an output device such as a display device or a printer. The output unit 40 outputs a vehicle recognition result. The vehicle information output here may be at least one of a model name, a manufacturer, and a year of the vehicle. The existing vehicle recognition system recognizes a class related to the vehicle body, but the present invention can recognize and output relatively lower layer vehicle information using a bounding box, a projection surface, and a deep learning based estimation model.

도 6은 경계 박스 및 투영된 이미지의 일 예를 나타낸다.6 shows an example of a bounding box and a projected image.

(a)는 특징 정보(세 방향 벡터)에 기초하여 생성된 경계 박스 및 경계 박스를 구성하는 세 면의 일 예를 나타낸다.(a) shows an example of three sides that constitute the bounding box and the bounding box generated based on the feature information (three-direction vector).

(b)는 경계 박스의 세 면을 하나의 이미지로 투영한 결과에 관한 일 예를 나타낸다.(b) shows an example of the result of projecting three sides of the bounding box into one image.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. The present invention described above can be embodied as computer readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes those implemented in the form of carrier waves (eg, transmission over the Internet).

따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (8)

교통 감시 영상을 입력 받는 단계;
입력 받은 영상으로부터 차량을 검출하는 단계;
입력 받은 영상에서 검출된 차량을 기준으로 특징 정보를 추출하는 단계;
추출한 특징 정보에 기초하여 경계 박스를 생성하는 단계;
상기 경계 박스의 세 면을 하나의 면으로 투영하는 이미지를 생성하는 단계; 및
상기 투영된 이미지를 차량 인식 모델에 입력하는 단계를 포함하고,
상기 경계 박스의 세 면을 하나의 면으로 투영하는 이미지를 생성하는 단계는
상기 경계 박스를 구성하는 면 중 전면 또는 후면 사각형을 구성하는 점과 접하는 복수개의 수평선을 생성하는 단계;
상기 수평선이 상기 경계 박스를 구성하는 면 중 측면을 구성하는 사각형과 만나는 점을 도출하여, 상기 경계 박스를 구성하는 면 중 전면 또는 후면 사각형을 보정하는 단계를 포함하는,
차량 인식 방법.
Receiving a traffic monitoring image;
Detecting a vehicle from an input image;
Extracting feature information based on the detected vehicle from the input image;
Generating a bounding box based on the extracted feature information;
Generating an image projecting three sides of the bounding box onto one side; And
Inputting the projected image into a vehicle recognition model;
Generating an image projecting the three sides of the bounding box onto one side
Generating a plurality of horizontal lines in contact with points constituting a front or rear quadrangle among surfaces constituting the bounding box;
Deriving a point where the horizontal line meets a rectangle constituting the side of the plane constituting the bounding box, and correcting a front or rear rectangle of the plane constituting the bounding box;
Vehicle Recognition Method.
제 1 항에 있어서,
상기 특징 정보는 복수의 벡터를 포함하고,
복수의 벡터는, 차량 진행 방향에 관한 제1 벡터, 상기 제1 벡터에 수직인 제2 벡터 및 제1 벡터와 제2 벡터의 외적인 제3 벡터를 포함하는
차량 인식 방법.
The method of claim 1,
The feature information includes a plurality of vectors,
The plurality of vectors includes a first vector relating to a vehicle traveling direction, a second vector perpendicular to the first vector, and a third vector external to the first vector and the second vector.
Vehicle Recognition Method.
제 2 항에 있어서,
상기 경계 박스의 세 면을 하나의 면으로 투영하는 이미지를 생성하는 단계는
상기 경계 박스를 구성하는 면 중 전방 이미지를 포함하는 전면 또는 후방 이미지를 포함하는 후면을 보정하고, 보정한 면을 투영하는 이미지를 생성하는 단계를 포함하는
차량 인식 방법.
The method of claim 2,
Generating an image projecting the three sides of the bounding box onto one side
Compensating the rear surface including the front or rear image including the front image of the surface constituting the bounding box, and generating an image projecting the corrected surface
Vehicle Recognition Method.
제 1 항에 있어서,
차량 인식 모델은 컨볼루션 신경망 네트워크(convolution neural network)인
차량 인식 방법.
The method of claim 1,
The vehicle recognition model is a convolution neural network
Vehicle Recognition Method.
교통 감시 영상을 입력받는 이미지 입력부;
상기 이미지 입력부에서 입력받은 이미지로부터 차량을 인식하는 제어부; 및
상기 제어부에서 인식한 결과를 출력하는 출력부를 포함하며,
상기 제어부는 입력받은 이미지로부터 특징을 추출하는 특징 추출부, 추출한 특징에 기초하여 경계 박스를 생성하고 이를 보정하는 경계 박스 생성 및 보정부, 경계 박스의 세 면을 하나의 면으로 투영한 이미지를 생성하는 투영면 생성부, 및 상기 투영면 생성부에서 생성된 이미지를 입력으로하여 차량 인식 모델을 통해 차량을 인식하는 모델링부를 포함하고,
상기 경계 박스 생성 및 보정부는
상기 경계 박스를 구성하는 면 중 전면 또는 후면 사각형을 구성하는 점과 접하는 복수개의 수평선을 생성하고,
상기 수평선이 상기 경계 박스를 구성하는 면 중 측면을 구성하는 사각형과 만나는 점을 도출하여, 상기 경계 박스를 구성하는 면 중 전면 또는 후면 사각형을 보정하는
차량 인식 시스템.
Image input unit for receiving a traffic monitoring image;
A controller for recognizing a vehicle from an image received by the image input unit; And
An output unit for outputting a result recognized by the controller,
The control unit may include a feature extraction unit for extracting a feature from an input image, a boundary box generation and correction unit for generating and correcting a boundary box based on the extracted feature, and an image in which three sides of the boundary box are projected onto one surface And a modeling unit configured to recognize a vehicle through a vehicle recognition model by inputting an image generated by the projection surface generator and an image generated by the projection surface generator.
The bounding box generation and correction unit
Create a plurality of horizontal lines in contact with the points constituting the front or rear rectangle of the surface constituting the bounding box,
Deriving a point where the horizontal line meets the square forming the side of the plane constituting the bounding box, to correct the front or rear square of the plane constituting the bounding box
Vehicle recognition system.
제 5 항에 있어서,
차량 인식 결과를 출력하는 출력부를 더 포함하는
차량 인식 시스템.
The method of claim 5, wherein
Further comprising an output unit for outputting a vehicle recognition result
Vehicle recognition system.
제 5 항에 있어서,
상기 투영면 생성부에서 생성된 이미지를 저장하고, 상기 모델링부에 모델 구성을 위한 데이터를 제공하는 저장부를 더 포함하는
차량 인식 시스템.
The method of claim 5, wherein
The apparatus may further include a storage unit configured to store the image generated by the projection plane generator and to provide data for constructing a model to the modeling unit.
Vehicle recognition system.
제 5 항에 있어서,
상기 추출한 특징은 복수의 벡터를 포함하고,
복수의 벡터는, 차량 진행 방향에 관한 제1 벡터, 상기 제1 벡터에 수직인 제2 벡터 및 제1 벡터와 제2 벡터의 외적인 제3 벡터를 포함하는
차량 인식 시스템.
The method of claim 5, wherein
The extracted feature includes a plurality of vectors,
The plurality of vectors includes a first vector relating to a vehicle traveling direction, a second vector perpendicular to the first vector, and a third vector external to the first vector and the second vector.
Vehicle recognition system.
KR1020180029955A 2018-03-14 2018-03-14 a vehicle recognizing system KR102082254B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180029955A KR102082254B1 (en) 2018-03-14 2018-03-14 a vehicle recognizing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180029955A KR102082254B1 (en) 2018-03-14 2018-03-14 a vehicle recognizing system

Publications (2)

Publication Number Publication Date
KR20190115501A KR20190115501A (en) 2019-10-14
KR102082254B1 true KR102082254B1 (en) 2020-02-27

Family

ID=68171652

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180029955A KR102082254B1 (en) 2018-03-14 2018-03-14 a vehicle recognizing system

Country Status (1)

Country Link
KR (1) KR102082254B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220156292A (en) * 2021-05-18 2022-11-25 한국과학기술원 A traffic data processor, traffic controlling system and method of processing traffic data

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102419428B1 (en) * 2020-06-29 2022-07-12 주식회사 직트럭 Video-based vehicle information input device and method for used truck sales
US20220058228A1 (en) * 2020-08-24 2022-02-24 Snap Inc. Image based browser navigation
KR102311236B1 (en) * 2021-04-01 2021-10-13 주식회사 젠티 Method for measuring speed using deep-learning object detection and tracking and system thereof
KR20220163626A (en) 2021-06-03 2022-12-12 한국전자통신연구원 Apparatus for switching main screen based on distributed telepresence and method using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101282864B1 (en) * 2013-04-02 2013-07-05 주식회사 스마트비전 System using global coordinator and method thereof
JP2016175586A (en) * 2015-03-20 2016-10-06 株式会社デンソーアイティーラボラトリ Vehicle periphery monitoring device, vehicle periphery monitoring method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516118B2 (en) * 1997-03-24 2004-04-05 オムロン株式会社 Object recognition method and object recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101282864B1 (en) * 2013-04-02 2013-07-05 주식회사 스마트비전 System using global coordinator and method thereof
JP2016175586A (en) * 2015-03-20 2016-10-06 株式会社デンソーアイティーラボラトリ Vehicle periphery monitoring device, vehicle periphery monitoring method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220156292A (en) * 2021-05-18 2022-11-25 한국과학기술원 A traffic data processor, traffic controlling system and method of processing traffic data
KR102523637B1 (en) * 2021-05-18 2023-04-20 한국과학기술원 A traffic data processor, traffic controlling system and method of processing traffic data

Also Published As

Publication number Publication date
KR20190115501A (en) 2019-10-14

Similar Documents

Publication Publication Date Title
KR102082254B1 (en) a vehicle recognizing system
US11620837B2 (en) Systems and methods for augmenting upright object detection
US10878288B2 (en) Database construction system for machine-learning
US9076047B2 (en) System and method for recognizing parking space line markings for vehicle
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
US20160104047A1 (en) Image recognition system for a vehicle and corresponding method
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
EP3159126A1 (en) Device and method for recognizing location of mobile robot by means of edge-based readjustment
US11093762B2 (en) Method for validation of obstacle candidate
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
KR102229220B1 (en) Method and device for merging object detection information detected by each of object detectors corresponding to each camera nearby for the purpose of collaborative driving by using v2x-enabled applications, sensor fusion via multiple vehicles
JP6910664B2 (en) Methods and Devices for Detecting Parking Areas Utilizing Semantic Segmentation in Automatic Parking Systems
CN111937036A (en) Method, apparatus, and computer-readable storage medium having instructions for processing sensor data
JP5396585B2 (en) Feature identification method
KR101549165B1 (en) Apparatus and method for estimating pose of vehicle
US20220171975A1 (en) Method for Determining a Semantic Free Space
JP4106163B2 (en) Obstacle detection apparatus and method
Yamada et al. Vision based obstacle avoidance and target tracking for autonomous mobile robots
Bas Road and traffic analysis from video
KR102424664B1 (en) Apparatus and method tracking object based on 3 dimension images
Denasi et al. Early obstacle detection using region segmentation and model-based edge grouping
WO2024004325A1 (en) External world recognition device and external world recognition method
Krajewski et al. Drone-based Generation of Sensor Reference and Training Data for Highly Automated Vehicles
Karthik et al. Enabling Object Detection and Distance Calculation in AI based Autonomous Driving System
KR102142660B1 (en) Apparatus and Method for Deleting Reflection Image of Image Data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right