KR102095685B1 - vehicle detection method and device - Google Patents

vehicle detection method and device Download PDF

Info

Publication number
KR102095685B1
KR102095685B1 KR1020190158397A KR20190158397A KR102095685B1 KR 102095685 B1 KR102095685 B1 KR 102095685B1 KR 1020190158397 A KR1020190158397 A KR 1020190158397A KR 20190158397 A KR20190158397 A KR 20190158397A KR 102095685 B1 KR102095685 B1 KR 102095685B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
detection
identification
license plate
Prior art date
Application number
KR1020190158397A
Other languages
Korean (ko)
Inventor
김태경
Original Assignee
주식회사 넥스파시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스파시스템 filed Critical 주식회사 넥스파시스템
Priority to KR1020190158397A priority Critical patent/KR102095685B1/en
Application granted granted Critical
Publication of KR102095685B1 publication Critical patent/KR102095685B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • G06K9/3258
    • G06K9/00624
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06K2209/15
    • G06K2209/23
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a vehicle detection method based on a Fast R-convolution neural network (CNN) and an abnormal parking and stopping vehicle identification system using the same. According to an embodiment of the present invention, the improved vehicle identification method using a top-down method comprises: a first step of acquiring an image through a camera; a second step of dividing an entire region of the image into a short-distance region and a long-distance region; a third step of dividing the image into a plurality of preset block units; a fourth step of deriving a feature map to which the plurality of block units are applied; a fifth step of determining whether an object included in the image is at least one vehicle; a sixth step of determining whether a license plate of the at least one vehicle and a vehicle number in the license plate can be identified when the object is the at least one vehicle; a seventh step of monitoring the first vehicle when the first vehicle, in which at least one of identification of the license plate and identification of the vehicle number is impossible, exists; and an eighth step of retrying the identification of the license plate of the first vehicle and the identification of the vehicle number in the license plate when movements of the first vehicle occur during monitoring operation.

Description

차량 식별 방법 및 장치 {vehicle detection method and device}Vehicle identification method and device {vehicle detection method and device}

본 발명은 차량 식별 방법 및 장치에 관한 것이다.The present invention relates to a vehicle identification method and apparatus.

경제성장과 소득증가로 인해 차량의 수요가 급증하고 있는 데 반하여 도로 사정이나 교통상황을 관리하는 인력은 이에 미치지 못하고 있다. 따라서 제한된 인원으로 현재의 열악한 교통 관리 체계를 극복하고자 하는 노력들이 많이 이루어지고 있다.While the demand for vehicles is rapidly increasing due to economic growth and income increase, the manpower managing road conditions and traffic conditions is not reaching this. Therefore, many efforts have been made to overcome the current poor traffic management system with limited personnel.

이러한 노력의 일환으로서 차량의 자동인식(번호인식 포함) 시스템의 개발이 활발하게 진행되고 있다. 차량 인식 혹은 차량의 번호(문자) 인식을 통해 교통 단속은 물론 교통량 조사, 도난 차량 검거, 출입 차량 통제, 주차 시설 관리 등의 다양한 분야에 효과적으로 이용할 수 있으며, 현재까지 많은 연구가 이루어져 왔다.As part of such efforts, development of an automatic recognition (including number recognition) system of a vehicle is being actively conducted. Through vehicle recognition or vehicle number (character) recognition, it can be effectively used in various fields such as traffic control, traffic investigation, stolen vehicle detection, entrance vehicle control, and parking facility management, and many studies have been conducted to date.

특히, 차량 번호판의 문자를 인식하기 위한 과정은 다른 문자 인식과는 달리 주변 환경적인 영향으로 카메라 잡음, 조명변화, 날씨 등으로 인해 왜곡된 현상이 발생하기 때문에 강인한 처리방법들이 고려되어야 한다. 하지만 차량의 번호판 영역의 경우 그 고유의 특성상 내용이 제한되어 있고, 일반적인 문자 인식(패턴인식)에 비해 구조가 단순하다. 이러한 이유로 인해서 차량 번호 인식(License Plate Recognition: LPR)은 환경적인 특성, 차량의 수요 증가, 인력수급 및 주차공간의 자원 관리를 효율적으로 운영하기 위한 가장 보편적인 시스템이라고 할 수 있다.In particular, in the process of recognizing the characters on the license plate of the vehicle, robust processing methods should be considered because, unlike other character recognition, a distorted phenomenon occurs due to camera noise, lighting changes, weather, etc. due to environmental influence. However, in the case of the license plate area of the vehicle, the contents are limited due to its unique characteristics, and the structure is simple compared to the general character recognition (pattern recognition). For this reason, License Plate Recognition (LPR) can be said to be the most common system for efficiently operating environmental characteristics, increasing demand for vehicles, manpower supply, and resource management of parking spaces.

LPR 시스템 또는 번호인식 기술은 영국에서 1976년에 가장 먼저 개발되었다. 그 이후 수십 년 동안, 기술이 진화하고 시장 수요가 증가함에 따라 LPR 시스템은 꾸준히 성장하였고, 동남아시아를 비롯한 유럽 국가에서 점차 확대되었다. 이로 인해 미국 북미 지역에서도 LPR 시스템 시장이 크게 성장하고 있다. 이는 효율적인 범죄 진압 및 예방 기술에 대한 강한 동기부여로 이어져서 더 넓은 시장으로 활성화되는 계기가 되었다.The LPR system or number recognition technology was first developed in 1976 in the UK. Over the next decades, as technology evolved and market demand increased, the LPR system grew steadily and gradually expanded in Southeast Asia and other European countries. As a result, the market for LPR systems in North America is also growing significantly. This led to a strong motivation for effective crime suppression and prevention technologies, which prompted the market to become more active.

과거의 차량 번호 인식(LPR) 또는 ALPR(Automated LPR) 시스템은 차량 번호판을 판독하기 위해 카메라로부터 획득된 이미지(영상)에서 광학문자인식(Optical Character Recognition: OCR)을 사용하여 감시방법(Surveillance Method)에 적용되었다. 최근에는 주차관리 시스템이란 명칭으로 주차공간의 효율적인 업무를 진행하고 있다. 현재 LPR 시스템은 주차환경과 관련하여 관리인이 주차 요금을 정산함으로써 인력수급 및 인건비 부담과 요금 누수현상을 해결하고 있고, LPR 시스템의 수요는 끊임없이 증가되고 가면서 기술의 변화 및 개발이 지속적으로 이어지고 있다.Past vehicle number recognition (LPR) or Automated LPR (ALPR) systems use the Optical Character Recognition (OCR) on images (images) acquired from the camera to read the vehicle license plate (Surveillance Method) Was applied to. Recently, the parking management system is under the name of efficient parking space. Currently, the LPR system solves the burden of manpower supply and labor costs and the leakage of fees by setting the parking fee by the manager in relation to the parking environment, and the demand for the LPR system is constantly increasing and the technology is continuously changing and developing.

또한, 공공안전과 개인보안 등의 이유로 현대에는 곳곳에 CCTV(closed circuit television)가 설치되어 있고, 현재도 진행 중이며, CCTV 등을 통해 기록된 자료는 범죄 예방과 범죄 발생 시에 증거자료로 활용되고 있다.In addition, for reasons of public safety and personal security, CCTV (closed circuit television) is installed everywhere in the present, and it is still in progress, and the data recorded through CCTV is used as evidence for crime prevention and crime occurrence. have.

공공안전과 시설물 및 개인의 안전으로부터 위협받거나 생활의 편의를 도모하기 위한 이유로 현대에는 곳곳에 CCTV(closed circuit television)가 설치되어 있고 현재도 진행 중이다. CCTVs (closed circuit televisions) are installed in various places in modern times for threats from public safety, facilities, and personal safety, or for the convenience of living.

이러한 배경들은 IT기술의 지속적인 발전에 따른 기능을 유연하게 수용하며 미래 환경변화에 대응할 수 있는 차세대 무인교통단속장비 및 CCTV 지능형 영상솔루션의 객체 검출과 행동분석을 통한 감시 및 재난, 재해 방지 등의 역할로 발전하게 되었다.These backgrounds play a role in monitoring, disaster, and disaster prevention through object detection and behavioral analysis of next-generation unmanned traffic control equipment and CCTV intelligent video solutions that can flexibly accommodate functions according to the continuous development of IT technology and respond to future environmental changes. To develop.

특히, 무인교통단속장비와 같은 교통법규를 준수하도록 유도하는 형태의 시스템 및 솔루션은 교통사고 발생의 감소와 함께 궁극적으로 도로교통의 안전을 지향하기 위한 일환으로 설치 및 운영되고 있다. In particular, systems and solutions in the form of inducing compliance with traffic regulations such as unmanned traffic control equipment are being installed and operated as part of reducing traffic accidents and ultimately aiming for safety of road traffic.

사실상 단속의 효과는 과거(2012년~2013년도)에 교통공학적 측면에 의존성이 높았다면, 현재에는 교통뿐만 아니라 안전과 복지 그리고 편의성을 갖춘 복합적인 시스템을 요구하게 되었다. In fact, if the effect of crackdown was highly dependent on the traffic engineering aspect in the past (2012 ~ 2013), nowadays, it requires a complex system with safety, welfare and convenience as well as traffic.

또한, 단속에 의한 운전자의 운전형태의 개선과 교통소통 및 교통안전성을 확보함으로써 도로 및 교통여건의 변화에 따른 교통사고 변화추이와 교통사고 심각분포를 고려한 도시 환경 조정에도 활용되고 있다.In addition, by improving the driver's driving mode through crackdown and securing traffic communication and traffic safety, it is also used to adjust the traffic accident according to changes in road and traffic conditions and to adjust the urban environment considering the serious distribution of traffic accidents.

이와 같이 산업의 특성에 반영될 수 있었던 배경들 중에서 지능형교통시스템(ITS) 분야에서 쉽게 살펴볼 수 있다. Among the backgrounds that could be reflected in the characteristics of the industry, it can be easily examined in the field of intelligent transportation system (ITS).

이는 도로 및 교통정보제공, 대중교통 및 화물차량의 운영등과 같이 교통의 전 분야에 걸쳐 정보통신 기술, 센서 및 제어기술, 영상해석 및 처리기술등과 함께 유기적으로 접목하여 교통의 효율성을 극대화시킬 뿐만 아니라 비용의 절감을 향상시킨 계기가 되었다. It maximizes the efficiency of transportation by organically grafting it with information and communication technology, sensor and control technology, image analysis and processing technology across all areas of transportation, such as providing road and traffic information, operation of public transportation and freight vehicles. Not only that, it was also an opportunity to improve cost savings.

또한, 이에 대해 우리나라 ITS 기본계획 21에서도 설명하고 있으며 총 3단계에 걸쳐 최첨단 인프라를 완성하는 기본 계획을 갖고 있다. In addition, this is also explained in ITS Basic Plan 21 in Korea and has a basic plan to complete the state-of-the-art infrastructure in three stages.

최근에는 다양한 산업의 관련 업체들이 시장에 참여하기에는 수익성 확보에 어려움이 있기 때문에 시장성이 있는 분야의 중심과 민간 업체들의 참여로 비즈니스 모델의 개발과 지속적인 기술개발을 통한 새로운 서비스를 추구하고 있고 u-City 사업 등의 광범위한 시스템 설계 및 솔루션을 통한 개선을 도모하고 있다. In recent years, it is difficult to secure profitability for related companies in various industries to participate in the market, so it is pursuing new services through the development of business models and continuous technology development with the participation of private companies and the center of the marketable sector. It seeks to improve through a wide range of system designs and solutions such as business.

이러한 산업분야 내에서 교통 영상감시 기능에 대한 신뢰도가 높일수록 시스템의 오류발생 확률을 낮출 수 있을수록 기존 CCTV 제품 및 솔루션 대비 성능 우수성을 보장 할 수 있어야 경쟁력 확보가 가능하고 시장 우위를 점할 수 있다. In this industry, the higher the reliability of the traffic video surveillance function, the lower the probability of an error in the system, the better it is possible to ensure the superiority of performance compared to the existing CCTV products and solutions to secure competitiveness and gain market advantage.

하지만 교통흐름을 실시간으로 관리 및 감독하기에는 교통과 관련된 시스템들이 저변확대가 되어야 하고 신뢰성 높은 기술의 성능이 유지되어야 한다. However, in order to manage and supervise the traffic flow in real time, the systems related to transportation must be expanded and the performance of reliable technology must be maintained.

그러나 현재의 상황은 캠코더를 이용하여 영상 단속을 시행하거나 도로환경에 주행중인 차량이용자로부터 정보를 수집하거나 무인교통감시 시스템 및 방법기능을 갖는 영상수집 카메라 등이 활용되고 있는 실정에서 효과적인 결과를 얻기에는 자동보다는 수동화된 시스템을 의존할 수밖에 없다.However, in the current situation, it is difficult to obtain effective results in situations where video surveillance is performed using a camcorder, information is collected from a vehicle user driving in a road environment, or video collection cameras with unmanned traffic monitoring systems and methods are used. You have to rely on a passive system rather than an automatic one.

따라서 상기한 문제점을 해소할 수 있는 해결방안이 요구되고 있는 실정이다.Therefore, a solution that can solve the above problems is required.

대한민국 특허청 등록번호 제10-1565978호Republic of Korea Patent Office Registration No. 10-1565978

본 발명은 차량 식별 방법 및 장치를 사용자에게 제공하고자 한다.The present invention seeks to provide a user with a vehicle identification method and apparatus.

본 발명은 단속시스템 내의 대상차량을 검출하기 위한 효과적인 방법과 관련된 것으로, 기존 CNN(Convolution Neural Network) 환경에서 객체 검출에 대한 크기와 위치 그리고 거리차이에 따른 Max-Pooling 내의 Bounding Box 계산 문제를 해결하고자 한다. The present invention relates to an effective method for detecting a target vehicle in an intermittent system, and to solve the problem of calculating the bounding box in Max-Pooling according to the size, position, and distance difference for object detection in an existing convolutional neural network (CNN) environment. do.

구체적으로, 대부분의 종래기술의 경우, 불법 주정차 대상차량의 경우는 특징성분을 분석하기 위해 패턴화된 형태로 대상 객체를 검출한 반면, 본 발명에서는 크기에 따른 특징벡터와 위치에 따라 동일한 객체 변화 그리고 거리에 따라 특징벡터 분포를 다르게 분석하도록 설정함으로써 기존 방법 대비 효과적으로 처리할 수 있다.Specifically, in the case of most conventional technologies, in the case of an illegally parked target vehicle, the target object is detected in a patterned form in order to analyze the characteristic components, whereas in the present invention, the same object changes according to the feature vector and position according to the size. And by setting the feature vector distribution to be analyzed differently according to the distance, it can be effectively processed compared to the existing method.

한편, 본 발명은 Receptive filed의 top-down방법을 이용한 개선된 차량검출 방법과 이를 활용한 비정상적 주정차 차량식별 시스템을 사용자에게 제공하고자 한다.On the other hand, the present invention is to provide an improved vehicle detection method using a receptive filed top-down method and an abnormal parking vehicle identification system using the same.

구체적으로 본 발명은 전술한 문제점을 해소하기 위해, 효과적으로 차량검출 및 분류 방법에 적용되는 SSD의 문제점을 해결하는 DSSD 방법을 활용하고, 처리속도보다는 분류의 정확도를 향상시킬 수 있도록 레이어(layer) 층의 구성을 기존 네트워크 구조에서 특정 레이어 구조만을 사용할 수 있도록 적용한 방법 및 시스템을 제공하고자 한다.Specifically, the present invention utilizes a DSSD method that effectively solves the problem of the SSD applied to the vehicle detection and classification method to solve the above-described problems, and a layer layer to improve accuracy of classification rather than processing speed. It is intended to provide a method and system that is applied so that only the specific layer structure can be used in the existing network structure.

또한, 본 발명은 단속대상의 회피 차량이 움직임을 갖거나 가림현상에 사용된 물체 혹은 가림막 같은 경우가 제거될 때 회피 대상의 차량을 재검출(re-identification) 및 번호판 인식을 통해 단속이 가능한 방법 및 시스템을 제공함으로써, 가림 및 회피 대상차량을 분류할 수 있고 이동 성분을 분석함으로써 검출에 대한 인식률을 개선하고자 한다.In addition, the present invention is a method capable of controlling a vehicle through a re-identification and license plate recognition of a vehicle to be avoided when the object of the object to be controlled has a movement or when an object or a mask used in a screening phenomenon is removed. And by providing a system, it is possible to classify vehicles to be covered and avoided, and to improve the recognition rate for detection by analyzing moving components.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned are clearly apparent to those skilled in the art from the following description. Will be understandable.

상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 차량 식별 방법은, 카메라를 통해 영상을 획득하는 제 1 단계; 영상 내에 미리 지정된 기준선을 기초로, 영상의 전체 영역을 근거리 영역과 원거리 영역으로 구분하는 제 2 단계; 상기 영상을 미리 설정된 복수의 블록 단위로 구획하는 제 3 단계; 컨볼루션 신경망(Convolutional Neural Network, CNN)의 복수의 컨볼루션 레이어(Convolutio layer) 중 적어도 하나를 이용하여, 상기 복수의 블록 단위를 적용한 특징 맵(feature map)을 도출하는 제 4 단계; 상기 특징 맵을 이용하여 상기 영상에 포함된 객체가 적어도 하나의 차량인지 여부를 판단하는 제 5 단계; 상기 객체가 적어도 하나의 차량인 경우, 상기 적어도 하나의 차량의 번호판 식별 및 상기 번호판 내의 차량번호 식별이 가능한지 여부를 판단하는 제 6 단계; 상기 적어도 하나의 차량 중 상기 번호판의 식별 및 상기 차량번호의 식별 중 적어도 하나가 불가능한 제 1 차량이 존재하는 경우, 상기 제 1 차량에 대한 모니터링을 진행하는 제 7 단계; 및 상기 모니터링 작업 중 상기 제 1 차량의 움직임이 발생되는 경우, 상기 제 1 차량의 번호판 식별 및 상기 번호판 내의 차량번호 식별을 재시도하는 제 8 단계;를 포함하되, 상기 객체가 상기 원거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어를 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하고, 상기 객체가 상기 근거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어 중 미리 지정된 개수의 레이어만을 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출할 수 있다.A vehicle identification method, which is an aspect of the present invention for achieving the above technical problem, comprises: a first step of acquiring an image through a camera; A second step of dividing the entire region of the image into a short-distance region and a long-distance region based on a predetermined reference line in the image; A third step of dividing the image into a plurality of preset block units; A fourth step of deriving a feature map using the plurality of block units using at least one of a plurality of convolutional layers of a convolutional neural network (CNN); A fifth step of determining whether an object included in the image is at least one vehicle using the feature map; A sixth step of determining whether a license plate identification of the at least one vehicle and identification of a vehicle number in the license plate are possible when the object is at least one vehicle; A seventh step of monitoring the first vehicle when there is a first vehicle in which at least one of identification of the license plate and identification of the vehicle number is unavailable among the at least one vehicle; And an eighth step of retrying identification of the license plate of the first vehicle and identification of the vehicle number in the license plate when the movement of the first vehicle occurs during the monitoring operation, wherein the object is included in the remote area If it is, the feature map for the region including the object is derived using the plurality of convolution layers, and if the object is included in the short-range region, only a predetermined number of layers among the plurality of convolution layers By using it, a feature map for an area including the object can be derived.

또한, 상기 제 2 단계에서 상기 객체가 상기 원거리 영역에 포함된 경우, 상기 제 2 단계 및 상기 제 3 단계 사이에는, 상기 원거리 영역의 스케일을 변환하는 제 2-1 단계;를 더 포함할 수 있다.In addition, when the object is included in the remote area in the second step, between the second step and the third step, a 2-1 step of converting the scale of the remote area may be further included. .

또한, 상기 제 5 단계는, 상기 객체와 관련된 특징 맵을 상기 복수의 블록 단위 별로 비교하는 제 5-1 단계; 상기 복수의 블록 단위 중 상기 객체가 가장 빈번하게 존재하는 맥스 폴링(max pooing) 영역을 결정하는 제 5-2 단계; 및 상기 맥스 폴링 영역을 기초로 상기 차량의 특징 값을 이용하여 상기 객체가 차량인지 여부를 판단하는 제 5-3 단계;를 포함할 수 있다.In addition, the fifth step includes: a 5-1 step of comparing the feature map associated with the object for each of the plurality of block units; A 5-2 step of determining a max pooing area in which the object exists most frequently among the plurality of block units; And a 5-3 step of determining whether the object is a vehicle based on the feature value of the vehicle based on the max polling area.

또한, 상기 제 5-3 단계는, 상기 맥스 폴링 영역을 기초로 ROI(region of interest)를 설정하는 5-4 단계; 상기 설정한 ROI를 기초로 경계 박스(bounding box)를 설정하는 제 5-5 단계; 및 상기 경계 박스 내의 객체의 특징 값과 상기 차량의 특징 값을 비교하여, 상기 객체가 상기 차량인지 여부를 판단하는 제 5-6 단계;를 포함할 수 있다.In addition, the 5-3 steps include steps 5-4 of setting a region of interest (ROI) based on the max polling area; Step 5-5 of setting a bounding box based on the set ROI; And comparing the feature value of the object in the bounding box with the feature value of the vehicle to determine whether the object is the vehicle.

또한, 상기 제 5 단계는, DSSD(Deconvolutional Single Shot Detector) 방법에 의해 수행되고, 상기 DSSD 방법은, 디콘볼루션 레이어(deconvolution layer)를 추가로 이용하는 SSD(Single Shot Detector) 방법으로, 식별 속도 향상을 위해 피드포워드 커넥션(feed forward connection)을 이용할 수 있다.In addition, the fifth step is performed by a deconvolutional single shot detector (DSSD) method, and the DSSD method is a single shot detector (SSD) method that additionally uses a deconvolution layer to improve identification speed. For this, a feed forward connection can be used.

또한, 상기 DSSD 방법은, 상기 SSD 방법을 통해 검출된 객체 영역(bounding region)의 좌표(coordinate) 및 클래스 점수(class score)를 얻는 과정에서, 3x3 convolution 만을 수행할 수 있다.In addition, the DSSD method can perform only 3x3 convolution in the process of obtaining the coordinates and class score of the object region detected through the SSD method.

또한, 상기 제 5 단계는, 상기 DSSD 방법을 통해 검출된 상기 적어도 하나의 차량의 영역(region) 내의 종횡비(aspect ratio) 크기에 따라 도출되는 좌표(coordinate)를 이용하여 수행될 수 있다.In addition, the fifth step may be performed using coordinates derived according to an aspect ratio size in a region of the at least one vehicle detected through the DSSD method.

또한, 상기 카메라의 배치 정보 및 미리 획득한 상기 적어도 하나의 차량의 번호판의 위치 정보를 기초로, 상기 좌표를 도출할 수 있다.In addition, the coordinates may be derived based on the arrangement information of the camera and the position information of the license plate of the at least one vehicle obtained in advance.

또한, 상기 도출되는 좌표를 이용하여 궤적 정보를 생성하고, 상기 제 6 단계에서는, 상기 생성한 궤적 정보를 이용하여 상기 적어도 하나의 차량의 번호판 식별 및 상기 번호판 내의 차량번호 식별이 가능한지 여부를 판단할 수 있다.Further, trajectory information is generated using the derived coordinates, and in the sixth step, it is determined whether identification of the license plate of the at least one vehicle and identification of a vehicle number in the license plate are possible using the generated trajectory information. You can.

또한, 상기 제 7 단계에서, 상기 제 1 차량은, 사람 및 상기 적어도 하나의 차량을 제외한 객체 중 적어도 하나에 의해 상기 번호판의 식별 및 상기 차량번호의 식별 중 적어도 하나가 불가능한 차량일 수 있다.Further, in the seventh step, the first vehicle may be a vehicle in which at least one of identification of the license plate and identification of the vehicle number is impossible by at least one of a person and an object other than the at least one vehicle.

한편, 상기의 기술적 과제를 달성하기 위한 본 발명의 다른 일 양상인 차량 식별 시스템은, 영상을 획득하는 카메라; 영상 내에 미리 지정된 기준선을 기초로, 영상의 전체 영역을 근거리 영역과 원거리 영역으로 구분하고, 상기 영상을 미리 설정된 복수의 블록 단위로 구획하는 제어부;를 포함하고, 상기 제어부는, 컨볼루션 신경망(Convolutional Neural Network, CNN)의 복수의 컨볼루션 레이어(Convolutio layer) 중 적어도 하나를 이용하여, 상기 복수의 블록 단위를 적용한 특징 맵(feature map)을 도출하고, 상기 특징 맵을 이용하여 상기 영상에 포함된 객체가 차량인지 여부를 판단하며, 상기 객체가 차량인 경우, 상기 차량의 차량번호 영역으로부터 차량 번호를 인식하고, 상기 객체가 상기 원거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어를 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하며, 상기 특징 맵을 이용하여 상기 영상에 포함된 객체가 적어도 하나의 차량인지 여부를 판단하고, 상기 객체가 적어도 하나의 차량인 경우, 상기 적어도 하나의 차량의 번호판 식별 및 상기 번호판 내의 차량번호 식별이 가능한지 여부를 판단하며, 상기 적어도 하나의 차량 중 상기 번호판의 식별 및 상기 차량번호의 식별 중 적어도 하나가 불가능한 제 1 차량이 존재하는 경우, 상기 제 1 차량에 대한 모니터링을 진행하고, 상기 모니터링 작업 중 상기 제 1 차량의 움직임이 발생되는 경우, 상기 제 1 차량의 번호판 식별 및 상기 번호판 내의 차량번호 식별을 재시도할 수 있다.On the other hand, another aspect of the present invention for achieving the above technical problem is a vehicle identification system, a camera for acquiring an image; Includes a control unit for dividing the entire region of the image into a short-distance region and a long-distance region based on a predetermined reference line in the image, and dividing the image into a plurality of preset block units, wherein the control unit includes a convolutional neural network A feature map to which the plurality of block units is applied is derived using at least one of a plurality of convolutional layers of a Neural Network (CNN), and the feature map includes the feature map. It is determined whether the object is a vehicle, and if the object is a vehicle, the vehicle number is recognized from the vehicle number area of the vehicle, and when the object is included in the remote area, the plurality of convolutional layers are used to A feature map for an area including an object is derived, and at least one object included in the image is obtained using the feature map. It is determined whether it is a vehicle, and if the object is at least one vehicle, it is determined whether identification of the license plate of the at least one vehicle and identification of a vehicle number in the license plate are possible, and identification of the license plate among the at least one vehicle and If there is a first vehicle in which at least one of the identification of the vehicle number is impossible, monitoring of the first vehicle is performed, and if movement of the first vehicle occurs during the monitoring operation, the license plate of the first vehicle The identification and identification of the vehicle number in the license plate can be retried.

본 발명은 차량 식별 방법 및 장치를 사용자에게 제공할 수 있다.The present invention can provide a vehicle identification method and apparatus to a user.

본 발명은 단속시스템 내의 대상차량을 검출하기 위한 효과적인 방법과 관련된 것으로, 기존 CNN(Convolution Neural Network) 환경에서 객체 검출에 대한 크기와 위치 그리고 거리차이에 따른 Max-Pooling 내의 Bounding Box 계산 문제를 해결할 수 있다.The present invention relates to an effective method for detecting a target vehicle in an intermittent system, and can solve the problem of calculating the bounding box in Max-Pooling according to the size, position, and distance difference for object detection in an existing Convolution Neural Network (CNN) environment. have.

구체적으로, 대부분의 종래기술의 경우, 주정차 대상차량의 경우는 특징성분을 분석하기 위해 패턴화된 형태로 대상 객체를 검출한 반면, 본 발명에서는 크기에 따른 특징벡터와 위치에 따라 동일한 객체 변화 그리고 거리에 따라 특징벡터 분포를 다르게 분석하도록 설정함으로써 기존 방법 대비 효과적으로 처리할 수 있다.Specifically, in the case of most conventional technologies, in the case of the main vehicle target vehicle, the target object is detected in a patterned form in order to analyze the characteristic components, whereas in the present invention, the same object changes according to the feature vector and position according to the size and By setting the feature vector distribution to be analyzed differently according to the distance, it can be effectively processed compared to the existing method.

또한, 본 발명은 Receptive filed의 top-down방법을 이용한 개선된 차량검출 방법과 이를 활용한 비정상적 주정차 차량식별 시스템을 사용자에게 제공할 수 있다.In addition, the present invention can provide an improved vehicle detection method using a top-down method of receptive filed and an abnormal parking vehicle identification system using the same.

구체적으로 본 발명은 효과적으로 차량검출 및 분류 방법에 적용되는 SSD의 문제점을 해결하는 DSSD 방법을 활용하고, 처리속도보다는 분류의 정확도를 향상시킬 수 있도록 레이어(layer) 층의 구성을 기존 네트워크 구조에서 특정 레이어 구조만을 사용할 수 있다.Specifically, the present invention utilizes a DSSD method that effectively solves the problems of SSDs applied to vehicle detection and classification methods, and specifies a layer layer configuration in an existing network structure to improve classification accuracy rather than processing speed. Only layer structures can be used.

또한, 본 발명은 단속대상의 회피 차량이 움직임을 갖거나 가림현상에 사용된 물체 혹은 가림막 같은 경우가 제거될 때 회피 대상의 차량을 재검출(re-identification) 및 번호판 인식을 통해 단속이 가능한 방법 및 시스템을 제공함으로써, 가림 및 회피 대상차량을 분류할 수 있고 이동 성분을 분석함으로써 검출에 대한 인식률을 개선할 수 있다.In addition, the present invention is a method capable of controlling a vehicle through a re-identification and license plate recognition of a vehicle to be avoided when the object of the object to be controlled has a movement or when an object or a mask used in a screening phenomenon is removed. And by providing a system, it is possible to classify the vehicle to be covered and avoided, and by analyzing the moving component, the recognition rate for detection can be improved.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description. Will be able to.

도 1은 본 발명에 적용될 수 있는 주정차 단속 시스템의 블록 구성도의 일례를 나타낸 것이다.
도 2는 본 발명에 적용될 수 있는 제어부의 블록 구성도의 일례를 나타낸다.
도 3a 및 도 3b는 본 발명의 일례와 관련된 주정차 단속 시스템이 설치된 구조의 평면도 및 측면도이다.
도 4는 본 발명과 관련된 신경망 네트워크 구조의 일례를 도시한 것이다.
도 5는 본 발명과 관련된 컨볼루션 신경망의 일례를 도시한 것이다.
도 6은 본 발명이 제안하는 개선된(Improved F-CNNs)기반의 시스템 흐름도를 도시한 것이다.
도 7은 본 발명과 관련하여, Fast R-CNN기반의 객체 검출의 일례를 도시한 것이다.
도 8은 본 발명과 관련하여, 이미지 내의 블록단위를 설정하는 일례를 도시한 것이다.
도 9는 본 발명에 적용되는 AlexNet 구조의 일례를 도시한 것이다.
도 10은 본 발명과 관련하여, Faster R-CNN 구조에서 영역크기 고정을 위한 구조의 일례를 도시한 것이다.
도 11은 본 발명과 관련하여, 고정영역 출력값의 일례를 도시한 것이다.
도 12는 본 발명과 관련하여, 이미지내의 공간위치 영역검출을 위한 컨볼루션 레이어 구조의 일례를 도시한 것이다.
도 13은 본 발명과 관련하여, 객체영역을 검출하기 위해 공간내의 특징벡터 성분의 일례를 도시한 것이다.
도 14는 본 발명에 적용되는 객체 검출 단계의 순서도를 도시한 것이다.
도 15는 실험결과를 도시한 것이고, 도 16은 객체 손실에 따른 실험결과를 도시한 것이며, 도 17은 개선된 처리결과를 보이는 실험 결과를 도시한 것이다.
도 18는 본 발명과 관련하여, 전체 시스템 구성도의 일례를 도시한 것이다.
도 19는 본 발명과 관련하여, SSD(Single Shot Detector)의 네트워크 구조의 일례를 도시한 것이다.
도 20은 본 발명과 관련하여, DSSD(Deconvolution Single Shot Detector)의 네트워크 구조의 일례를 도시한 것이다.
도 21은 본 발명과 관련하여, 전체 시스템에서 SSD, DSSD 구조에서의 개선시킨 구조의 일례를 도시한 것이다.
도 22은 본 발명과 관련하여, 검출결과로부터 객체 궤적을 추출하는 일례를 도시한 것이다.
도 23는 본 발명과 관련하여, 서로 다른 객체결과로부터 차량번호판 가림을 판단하는 일례를 도시한 것이다.
도 24은 본 발명과 관련하여, 궤적 추출결과의 데이터 값이 작은 경우에 차량 번호판 가림을 판단하는 일례를 도시한 것이다.
도 25은 본 발명과 관련하여, 제안하는 비정상적 차량검출 및 분류 시스템 모듈의 순서도를 도시한 것이다.
도 26는 본 발명과 관련하여, 실험 이미지 및 영상 내의 특징을 정리하여 도시한 것이다.
도 27은 도 26에서의 입력 이미지에 대하여, 실험 결과(처리속도) 및 이미지 특징을 정리하여 도시한 것이다.
Figure 1 shows an example of a block diagram of a parking control system that can be applied to the present invention.
2 shows an example of a block diagram of a control unit applicable to the present invention.
3A and 3B are plan and side views of a structure in which a parking control system related to an example of the present invention is installed.
4 shows an example of a neural network structure related to the present invention.
5 shows an example of a convolutional neural network related to the present invention.
6 shows an improved F-CNNs based system flow diagram proposed by the present invention.
7 shows an example of Fast R-CNN based object detection in relation to the present invention.
8 illustrates an example of setting a block unit in an image in connection with the present invention.
9 shows an example of an AlexNet structure applied to the present invention.
10 shows an example of a structure for fixing the size of a region in the Faster R-CNN structure in connection with the present invention.
11 shows an example of a fixed area output value in relation to the present invention.
12 illustrates an example of a convolutional layer structure for detecting a spatial location area in an image in connection with the present invention.
13 shows an example of a feature vector component in a space for detecting an object region in connection with the present invention.
14 is a flowchart illustrating an object detection step applied to the present invention.
FIG. 15 shows experimental results, FIG. 16 shows experimental results according to object loss, and FIG. 17 shows experimental results showing improved processing results.
18 shows an example of an overall system configuration in connection with the present invention.
19 shows an example of a network structure of a single shot detector (SSD) in connection with the present invention.
20 shows an example of a network structure of a DSSD (Deconvolution Single Shot Detector) in connection with the present invention.
21 shows an example of an improved structure in the SSD and DSSD structures in the overall system in relation to the present invention.
22 shows an example of extracting an object trajectory from a detection result in relation to the present invention.
23 shows an example of judging the license plate covering from different object results in relation to the present invention.
24 is a diagram illustrating an example of judging a vehicle license plate when a data value of a trajectory extraction result is small in relation to the present invention.
25 is a flowchart illustrating a proposed abnormal vehicle detection and classification system module in connection with the present invention.
26 is a view illustrating the characteristics of experimental images and images in relation to the present invention.
FIG. 27 is a view showing the experimental results (processing speed) and image characteristics of the input image in FIG. 26.

주정차 단속 시스템Parking control system

이하, 도면을 참조하여 본 발명의 바람직한 일 실시례에 대해서 설명한다. 또한, 이하에 설명하는 일 실시례는 특허청구범위에 기재된 본 발명의 내용을 부당하게 한정하지 않으며, 본 실시 형태에서 설명되는 구성 전체가 본 발명의 해결 수단으로서 필수적이라고는 할 수 없다.Hereinafter, a preferred embodiment of the present invention will be described with reference to the drawings. In addition, one embodiment described below does not unduly limit the content of the present invention as set forth in the claims, and the entire configuration described in this embodiment cannot be said to be essential as a solution to the present invention.

종래에는 불법 주정차 차량으로 인한 교통 정체와 혼잡을 방지하고자 주정차 금지구역에 감시 카메라를 설치하여 불법 주정차 차량을 단속하였다. Conventionally, in order to prevent traffic jams and congestion caused by illegal parking vehicles, surveillance cameras have been installed in prohibited parking areas to control illegal parking vehicles.

그러나, 주정차 금지구역 주변에 존재하는 차량 이외의 물체가 검지 카메라에 의하여 촬영된 영상에 포함되어 차량이 아닌 물체가 검지되는 오검지의 문제가 빈번하게 발생할 수 있다는 문제점이 있었다. 또한, 검지 카메라로부터 멀리 떨어진 곳에 주정차된 차량의 경우 단속이 어렵다는 문제점도 있었다.However, there is a problem in that a problem of false detection in which an object other than a vehicle is detected is frequently included in an image photographed by the detection camera because an object other than the vehicle existing around the forbidden parking area is included. In addition, there was also a problem that it is difficult to control the vehicle parked far away from the detection camera.

이하에서는, 본 발명이 제안하는 불법 주정차 단속 시스템을 구체적으로 설명한다.Hereinafter, the illegal parking control system proposed by the present invention will be described in detail.

도 1은 본 발명에 적용될 수 있는 불법 주정차 단속 시스템의 블록 구성도의 일례를 나타낸 것이다.1 shows an example of a block diagram of an illegal parking control system that can be applied to the present invention.

상기 불법 주정차 단속 시스템(10)은 카메라 모듈(100), 출력부(200), 통신부(300), 메모리(400), 인터페이스부(500), 전원공급부(600), 제어부(700) 등을 포함할 수 있다. The illegal parking control system 10 includes a camera module 100, an output unit 200, a communication unit 300, a memory 400, an interface unit 500, a power supply unit 600, a control unit 700, etc. can do.

단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 불법 주정차 단속 시스템이 구현될 수도 있다.However, since the components shown in FIG. 1 are not essential, an illegal parking control system having more or fewer components may be implemented.

이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in turn.

카메라 모듈(100)은 주정차 금지구역을 촬영하여 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 카메라 모듈(100)에서 처리된 화상 프레임은 메모리(400)에 저장되거나 통신부(300)를 통하여 외부로 전송될 수 있다. 처리된 화상 프레임은 디스플레이부(210)에 표시될 수도 있다. The camera module 100 processes an image frame such as a still image or a video image obtained by photographing a prohibited parking area. The image frames processed by the camera module 100 may be stored in the memory 400 or transmitted to the outside through the communication unit 300. The processed image frame may be displayed on the display unit 210.

이때, 카메라 모듈(100)에 사용되는 카메라는 사용 환경에 따라 2개 이상이 구비될 수 있다.At this time, two or more cameras used in the camera module 100 may be provided according to the use environment.

일례로, 카메라 모듈(100)은 검지 카메라(110)와 단속 카메라(120) 등을 포함할 수 있다. 다만, 본 발명은 이러한 구성으로 한정되는 것은 아니며, 다른 촬영수단을 구비하는 구성도 포함될 수 있다. In one example, the camera module 100 may include a detection camera 110 and an intermittent camera 120. However, the present invention is not limited to such a configuration, and a configuration including other imaging means may also be included.

검지 카메라(110)는 주정차 금지구역을 촬영하며, 이렇게 촬영된 검지영상을 이용하여 주정차 금지구역 내로 차량이 진입하는지 여부를 검지할 수 있다. The detection camera 110 photographs a forbidden parking area, and can detect whether a vehicle enters the forbidden parking area using the captured detection image.

상기 검지 카메라(110)는 어안렌즈(Fisheye Lens)가 장착된 카메라를 사용하여 구현될 수도 있다. 넓은 화각을 갖는 어안렌즈를 사용하는 경우에는 검지 카메라(110)를 중심으로 전방위(360˚) 영역의 영상을 촬영하여 검지영상으로 활용할 수 있다.The detection camera 110 may be implemented using a camera equipped with a fisheye lens. When a fish-eye lens having a wide angle of view is used, an image in an omnidirectional (360 °) region centered on the detection camera 110 may be captured and used as a detection image.

다만, 상기 검지 카메라(110)가 설치되어 있더라도 주정차 금지구역의 특정 지점을 확대하여 볼 수 있는 것은 아니므로 팬, 틸트, 줌 동작을 수행할 수 있는 단속 카메라(120)가 필요하다.However, even if the detection camera 110 is installed, it is not possible to enlarge and view a specific point in the forbidden parking area, and thus, an intermittent camera 120 capable of performing pan, tilt, and zoom operations is required.

단속 카메라(120)는 팬(Pan), 틸트(Tilt) 및 줌(Zoom) 동작 중 적어도 하나를 수행하여 주정차 금지구역 내에 불법으로 주정차하고 있는 차량의 번호판을 촬영할 수 있다. 이러한 단속 카메라(120)는 바람직하게는 LPR(License Plate Recognition) 카메라를 사용할 수 있다. The intermittent camera 120 may perform at least one of a Pan, Tilt, and Zoom operation to photograph a license plate of a vehicle that is illegally parked in a parked prohibited area. The intermittent camera 120 may preferably use a LPR (License Plate Recognition) camera.

LPR 카메라는 x축, y축, z축 방향으로 각각 틸팅할 수 있는 틸팅장치를 구비하고 있으며, 이러한 구성은 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 용이한 사항이므로 구체적인 설명을 생략하기로 한다. 이와 같은 LPR 카메라는 지정된 x, y 좌표로 카메라를 회전시켜 차량에 대해 줌인(zoom-in) 영상 또는 줌아웃(zoom-out) 영상을 촬영할 수 있는 구성을 갖고 있다.The LPR camera is equipped with a tilting device capable of tilting in the x-axis, y-axis, and z-axis directions, and a detailed description is omitted since this configuration is easy for a person having ordinary knowledge in the technical field to which this invention belongs. I will do it. The LPR camera has a configuration capable of photographing a zoom-in image or a zoom-out image with respect to a vehicle by rotating the camera at designated x and y coordinates.

한편, 출력부(200)는 시각 또는 청각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(210), 경고부(220) 등이 포함될 수 있다.Meanwhile, the output unit 200 is for generating output related to vision or hearing, and may include a display unit 210, a warning unit 220, and the like.

디스플레이부(210)는 불법 주정차 단속 시스템(10)에서 처리되는 정보를 표시(출력)할 수 있다. 예를 들어, 불법 주정차 단속 시스템(10)과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 카메라 모듈(100)에서 촬영된 정지영상이나 동영상, 통신부(300)를 통하여 송/수신된 영상, UI, GUI 등을 표시할 수 있다. The display 210 may display (output) information processed by the illegal parking control system 10. For example, a user interface (UI) or a graphical user interface (GUI) associated with the illegal parking control system 10 is displayed. A still image or a video captured by the camera module 100, an image transmitted / received through the communication unit 300, a UI, a GUI, etc. may be displayed.

또한, 디스플레이부(210)는 야간이나 어두운 공간에서 불법으로 주정차한 차량을 단속하거나 불법 주정차 단속 시스템(10)을 방범용으로 사용하는 경우 방범영역을 단속하기 위한 조명등으로 이용될 수도 있다.In addition, the display unit 210 may be used as a lighting for controlling the crime prevention area in the event of illegally stopping a vehicle parked at night or in a dark space or when the illegal parking control system 10 is used for crime prevention purposes.

상기 디스플레이부(210)는 액정 디스플레이(Liquid Crystal Display, LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display) 중에서 적어도 하나를 포함할 수 있다.The display 210 includes a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display ( Flexible Display), 3D display (3D Display) may include at least one.

경고부(220)는 불법 주정차 단속 시스템(10)의 이벤트 발생을 알리기 위한 신호를 출력한다. 불법 주정차 단속 시스템(10)에서 발생 되는 이벤트의 예로는 주정차 금지구역에 차량의 불법 주정차 등이 있다. The warning unit 220 outputs a signal for notifying the occurrence of an event in the illegal parking control system 10. An example of an event occurring in the illegal parking control system 10 is illegal parking of a vehicle in a prohibited parking area.

경고부(220)는 오디오 신호나 비디오 신호 이외에 다른 형태, 예를 들어 경고 안내 문서 등을 출력할 수도 있으며, 이 경우 경고 안내 문서를 출력하기 위한 프린터가 연결될 수 있다.The warning unit 220 may output other forms in addition to an audio signal or a video signal, for example, a warning guide document, and in this case, a printer for outputting a warning guide document may be connected.

상기 비디오 신호는 디스플레이부(210)를 통해서도 출력될 수 있으므로, 이 경우 상기 디스플레이부(210)는 경고부(220)의 일종으로 분류될 수도 있다.Since the video signal may also be output through the display unit 210, in this case, the display unit 210 may be classified as a kind of the warning unit 220.

한편, 통신부(300)는 불법 주정차 단속 시스템(10)과 유/무선 통신 시스템 사이 또는 불법 주정차 단속 시스템(10)과 불법 주정차 단속 시스템(10)이 위치한 네트워크 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 통신부(300)는 유/무선 인터넷 모듈(310), 근거리 통신 모듈(320) 및 위치정보 모듈(330) 등을 포함할 수 있다.On the other hand, the communication unit 300 is one or more modules that enable communication between the illegal parking control system 10 and the wired / wireless communication system or between the illegal parking control system 10 and the network where the illegal parking control system 10 is located. It may include. For example, the communication unit 300 may include a wired / wireless Internet module 310, a short-range communication module 320, and a location information module 330.

유/무선 인터넷 모듈(310)은 유/무선 인터넷 접속을 위한 모듈을 말하는 것으로, 불법 주정차 시스템에 내장되거나 외장될 수 있다.The wired / wireless internet module 310 refers to a module for wired / wireless internet access, and may be built in or external to an illegal parking system.

상기 무선 인터넷의 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), WCDMA(Wideband Code Division Multiple Access), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution) 등이 이용될 수 있다.The wireless Internet technology includes a wireless LAN (WLAN) (Wi-Fi), a wireless broadband (Wibro), a world interoperability for microwave access (Wimax), a wideband code division multiple access (WCDMA), and a high speed downlink packet access (HSDPA). , Long Term Evolution (LTE) may be used.

근거리 통신 모듈(320)은 근거리 통신을 위한 모듈을 말한다. 상기 근거리 통신(short range communication)의 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 320 refers to a module for short-range communication. The short-range communication technology may be Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, or the like.

위치 정보 모듈(330)은 불법 주정차 시스템(10)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. The location information module 330 is a module for obtaining the location of the illegal parking system 10, and a representative example thereof is a Global Position System (GPS) module. According to the current technology, the GPS module calculates distance information and accurate time information from three or more satellites, and then applies trigonometry to the calculated information to obtain current location information in three dimensions according to latitude, longitude, and altitude. It can be calculated accurately. Currently, a method of calculating position and time information using three satellites and correcting an error of the calculated position and time information using another one satellite is widely used. In addition, the GPS module can calculate speed information by continuously calculating the current position in real time.

한편, 메모리(400)는 제어부(700)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 정지영상, 동영상 등의 특징벡터 정보)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리(400)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 특징벡터 정보에 대한 사용빈도)도 함께 저장될 수 있다. Meanwhile, the memory 400 may store a program for processing and control of the control unit 700, and temporarily store data input / output (eg, feature vector information such as still images and videos). You can also perform functions. The frequency of use for each of the data (for example, the frequency of use for each feature vector information) may also be stored in the memory 400.

상기와 같은 메모리(400)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 불법 주정차 단속 시스템(10)은 인터넷(internet) 상에서 상기 메모리(400)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 400 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.). ), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic A storage medium of at least one type of memory, magnetic disk, and optical disk may be included. The illegal parking control system 10 may operate in connection with a web storage that performs a storage function of the memory 400 on the Internet.

한편, 인터페이스부(500)는 불법 주정차 단속 시스템(10)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(500)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 불법 주정차 단속 시스템(10) 내부의 각 구성 요소에 전달하거나, 불법 주정차 단속 시스템(10) 내부의 데이터가 외부 기기로 전송되도록 한다. Meanwhile, the interface unit 500 serves as a passage to all external devices connected to the illegal parking control system 10. The interface unit 500 receives data from an external device, receives power, and transmits data to each component inside the illegal parking control system 10, or transmits data inside the illegal parking control system 10 to external devices. do.

예를 들어, 카메라 모듈(100)로 촬영된 이미지 또는 영상을 외부로 연결하는 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트 등이 인터페이스부(500)에 포함될 수 있다. For example, a port for externally connecting an image or video captured by the camera module 100, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device equipped with an identification module , An audio input / output (I / O) port, a video input / output (I / O) port, and the like, may be included in the interface unit 500.

한편, 전원공급부(600)는 제어부(700)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.Meanwhile, the power supply unit 600 receives external power and internal power under the control of the controller 700 and supplies power required for the operation of each component.

한편, 제어부(controller)(700)는 통상적으로 불법 주정차 단속 시스템(10)의 전반적인 동작을 제어한다. 예를 들어 영상 촬영, 불법 주정차 차량 검지, 단속자료 생성 등을 위한 관련된 제어 및 처리를 수행한다. Meanwhile, the controller 700 controls the overall operation of the illegal parking control system 10. For example, it performs related control and processing for video shooting, illegal parking vehicle detection, and control data generation.

예를 들어, 제어부(700)는 검지 카메라(110)가 촬영한 영상을 수신받으며, 주정차 금지구역에 차량이 주정차를 하는 경우 상기 차량을 단속할지 여부를 판단할 수 있다. 또한, 제어부(700)는 주정차 금지구역의 조도가 불균일한 경우, 조도를 검지하여 밝은 영역을 향하는 디스플레이부(210)의 투광 세기는 약하게 조절하고, 어두운 영역을 향하는 디스플레이부(210)의 투광 세기는 강하게 조절할 수 있다.For example, the control unit 700 may receive an image photographed by the detection camera 110 and determine whether to control the vehicle when the vehicle stops in the forbidden parking area. In addition, when the illuminance of the parking stop prohibition zone is non-uniform, the control unit 700 detects the illuminance and adjusts the light intensity of the display unit 210 toward the bright area weakly, and the light intensity of the display unit 210 toward the dark area. Can be strongly adjusted.

여기에 설명되는 다양한 실시례는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein can be implemented in a computer- or similar device-readable recording medium using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시례는 ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시례들이 제어부(700) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein include Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the control unit 700 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시례들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰인 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(400)에 저장되고, 제어부(700)에 의해 실행될 수 있다.According to the software implementation, embodiments such as procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code can be implemented in a software application written in an appropriate programming language. The software code may be stored in the memory 400 and executed by the control unit 700.

한편, 도 2는 본 발명에 적용될 수 있는 제어부의 블록 구성도의 일례를 나타낸다.On the other hand, Figure 2 shows an example of a block diagram of a control unit that can be applied to the present invention.

도 2에 도시된 것과 같이, 발명의 일례에 적용될 수 있는 제어부(700)는 차량 인식수단(710), 불법 주정차 판단수단(720), 번호판 인식수단(730), 필터링 수단(740), 카메라 제어수단(750), 메모리 제어수단(760) 등이 포함될 수 있다. 단, 제어부(700)의 구성이 이에 한정되는 것은 아니며, 이보다 많거나 이보다 적은 구성요소들로 구현하는 것도 가능하다.As shown in Figure 2, the control unit 700 that can be applied to an example of the invention is a vehicle recognition means 710, illegal parking stop determination means 720, license plate recognition means 730, filtering means 740, camera control Means 750, a memory control means 760 may be included. However, the configuration of the control unit 700 is not limited to this, and it may be implemented with more or less components.

먼저, 차량 인식수단(710)은 검지 카메라(110)가 촬영한 주정차 금지구역에 대한 검지영상을 수신받으며, 특징벡터를 이용하여 상기 검지영상으로부터 특징벡터 정보를 분석할 수 있다.First, the vehicle recognition means 710 receives a detection image of a parking stop prohibited area photographed by the detection camera 110 and may analyze feature vector information from the detection image using a feature vector.

상기 특징벡터는 불법 주정차 단속 시스템(10)의 단속 대상인 차량을 인식하기 위한 특징벡터를 추출하고 분석하는 방법으로서, SIFT(Scale-Invariant Feature Transform), SURF(Speeded Up Robust Features), Adaboost, BMA(Block Matching Algorithm), HOG(Histogram of Oriented Gradients), Haar-like features 및 Gabor Wavelet(filter) 중 어느 하나를 이용할 수 있다.The feature vector is a method of extracting and analyzing a feature vector for recognizing a vehicle that is an object of enforcement of the illegal parking control system 10, such as Scale-Invariant Feature Transform (SIFT), Speeded Up Robust Features (SURF), Adaboost, BMA ( Block Matching Algorithm (HOG), Histogram of Oriented Gradients (HOG), Haar-like features, and Gabor Wavelet (filter) can be used.

여기서, SIFT 알고리즘은 영상의 특징벡터를 추출하는 대표적인 알고리즘으로서, 이미지 회전, 스케일링, 이동, 부분 조명 변화 및 투영변환(projective transform)에 불변인 특성을 지니고 있다. SIFT 알고리즘은 로컬 이미지의 특성을 고려하여 특징의 위치, 스케일 및 방향 등의 속성을 추출할 수 있다.Here, the SIFT algorithm is a representative algorithm for extracting a feature vector of an image, and has invariant characteristics in image rotation, scaling, movement, partial illumination change, and projective transform. The SIFT algorithm can extract properties such as location, scale, and direction of features in consideration of characteristics of a local image.

즉, 첫 번째 단계로, DOG(Difference-Of-Gaussian) 함수를 통해 생성한 스케일 공간에서 최대·최소(extrema)를 검색하여 샘플점(또는 후보 픽셀)을 선택한다(Scale-space extrema detection). That is, in the first step, a sample point (or candidate pixel) is selected by searching for a maximum and minimum (extrema) in a scale space generated through a difference-of-gaussian (DOG) function (Scale-space extrema detection).

두 번째 단계로, 안정도(stability) 수치에 기반하여 키포인트들을 선택한다(Keypoint localization). In the second step, keypoints are selected based on stability values.

세 번째 단계로, 각각의 키포인트에 대하여 1 이상의 방향을 할당한다(Orientation assignment).In the third step, one or more directions are assigned to each key point (Orientation assignment).

마지막 단계로, 로컬 이미지 기울기(local image gradient)들을 이용하여 키포인트 기술자를 생성한다(Keypoint descriptor).As a final step, a keypoint descriptor is generated using local image gradients.

상기 SIFT 알고리즘에 관한 상세한 설명은 "Distinctive image features from scale-invariant keypoints" 논문에 자세하게 나와있다.The detailed description of the SIFT algorithm is given in detail in the paper "Distinctive image features from scale-invariant keypoints".

또한, SURF 알고리즘은 여러 개의 영상으로부터 크기, 조명, 시점 등의 환경 변화를 고려하여 환경 변화에 불변하는 특징을 찾는 알고리즘으로서, 일반적으로 성능이 우수하다고 알려진 SIFT 알고리즘과 견줄만한 성능을 보이면서 동시에 속도를 크게 향상시킨 알고리즘이다.In addition, the SURF algorithm is an algorithm that finds characteristics that are invariant to environmental changes by considering environmental changes such as size, lighting, and viewpoint from multiple images, while simultaneously showing performance comparable to the SIFT algorithm, which is known to have excellent performance. It is a greatly improved algorithm.

상기 SURF 알고리즘에 관한 상세한 설명은 "Robust Interest Point Detection and Descriptor" 논문에 자세하게 나와있다.The detailed description of the SURF algorithm is described in detail in a paper entitled "Robust Interest Point Detection and Descriptor".

또한, HOG 알고리즘은 영상 내에서 특정 물체의 외관과 형상은 기울기 크기나 모서리 방향의 분포에 의하여 결정될 수 있다는 점을 기반으로 한다. In addition, the HOG algorithm is based on the fact that the appearance and shape of a specific object in an image can be determined by the size of the gradient or the distribution in the corner direction.

HOG 알고리즘은 영상을 셀(cell)이라고 지칭되는 다수의 영역으로 분할하고, 각 셀마다 기울기나 모서리의 방향의 히스토그램을 작성하여 특정 물체를 인식할 수 있다.The HOG algorithm can recognize a specific object by dividing the image into a number of regions called a cell, and creating a histogram of the inclination or corner direction for each cell.

상기 HOG 알고리즘에 관한 상세한 설명은 "Histograms of oriented gradients for human detection" 논문에 자세하게 나와있다.A detailed description of the HOG algorithm is given in detail in the paper "Histograms of oriented gradients for human detection".

또한, Haar-like features 알고리즘은 모서리의 특징 정보를 나타내는 포로토타입과 선의 특징 정보를 나타내는 프로토타입을 이용하여 특정 물체를 인식할 수 있다. 이에 대한 자세한 설명은 "An Extended Set of Haar-like Features for Rapid Object Detection" 논문에 설명되어 있다.In addition, the Haar-like features algorithm can recognize a specific object by using a prototype that represents feature information of a line and a prototype that represents feature information of a corner. This is described in detail in the paper "An Extended Set of Haar-like Features for Rapid Object Detection".

또한, Gabor Wavelet(filter) 알고리즘에 관한 상세한 설명은 "Uncertainty relation for resolution in space, spatial frequency, and orientation optimized by two-dimensional visual cortical filters."에 자세하게 나와있다.In addition, a detailed description of the Gabor Wavelet (filter) algorithm is described in detail in "Uncertainty relation for resolution in space, spatial frequency, and orientation optimized by two-dimensional visual cortical filters."

또한, BMA 알고리즘에 관한 상세한 설명은 "Combined shape and feature-based video analysis and its application to non-regid object tracking"에 자세하게 나와 있다.Also, detailed description of the BMA algorithm is described in detail in "Combined shape and feature-based video analysis and its application to non-regid object tracking".

이러한 특징벡터에 의하여 추출된 특징벡터 정보는 메모리(400)에 저장되어 있는 학습 데이터와 비교된다.The feature vector information extracted by the feature vector is compared with learning data stored in the memory 400.

상기 학습 데이터는 일반적인 차량의 영상에 대한 특징벡터의 벡터성분들의 정보를 포함하고 있으므로, 차량 인식수단(710)은 검지영상에 촬영된 객체 중 차량이 있는지 판단할 수 있으며 차량에 대한 인식을 할 수 있다.Since the learning data includes information of vector components of a feature vector for an image of a general vehicle, the vehicle recognition means 710 can determine whether there is a vehicle among the objects captured in the detection image and can recognize the vehicle. have.

또한, 검지영상으로부터 차량을 인식하는 과정에서는 선형 최근접점 탐색이 사용될 수 있으며, 이는 비교되는 특징벡터 중 유사도가 높은 특징벡터의 개수에 따라 결정하는 방법이다. 하지만 선형 최근접점 탐색은 메모리(400)에 저장된 모든 학습 데이터와 비교하여야 하므로 연산량이 너무 많으며 계산 속도가 느릴 수 있다. 따라서, 학습 데이터에 특징벡터 정보와 관련된 색인(index)을 만들어 탐색을 고속화하는 방법이 이용될 수도 있다.In addition, in the process of recognizing the vehicle from the detection image, a linear nearest-neighbor search may be used, which is a method of determining according to the number of feature vectors having high similarity among the compared feature vectors. However, since the linear nearest point search needs to be compared with all the learning data stored in the memory 400, the calculation amount is too large and the calculation speed may be slow. Therefore, a method of speeding up search by creating an index related to the feature vector information in the learning data may be used.

또한, 차량 인식수단(710)은 차량이 주정차 금지구역에 진입하는지 여부와 상기 차량이 주정차 금지구역에 정지한 위치를 판단할 수 있다. In addition, the vehicle recognition means 710 may determine whether the vehicle enters the no-parking zone and the position where the vehicle has stopped in the no-parking zone.

이를 위하여 차량의 모션을 검지하는 모션 검지 알고리즘 또는 주정차 금지구역의 배경 영상과 차량 주차 시 영상을 대비하는 영상 검지 알고리즘이 사용될 수 있으며, 바람직하게는 더 정확한 차량 검지를 위해 두 개의 알고리즘을 모두 사용할 수 있다.To this end, a motion detection algorithm that detects the motion of a vehicle or an image detection algorithm that contrasts the background image of a no-parking zone with an image when parking a vehicle can be used. Preferably, both algorithms can be used for more accurate vehicle detection. have.

한편, 불법 주정차 판단수단(720)은 차량이 주정차 금지구역 상에 주정차하였는지 여부를 판단할 수 있다.Meanwhile, the illegal parking stop determining means 720 may determine whether the vehicle has parked on the parking stop prohibited area.

즉, 차량 인식수단(710)이 검지 카메라(110)가 촬영한 검지영상을 수신하여 주정차 금지구역에 있는 차량을 인식한 경우, 불법 주정차 판단수단(720)은 이 차량이 불법 주정차하였는지 여부를 판단하여 단속처리를 수행할지 여부를 결정할 수 있다.That is, when the vehicle recognition means 710 recognizes the vehicle in the forbidden parking area by receiving the detection image captured by the detection camera 110, the illegal parking stop determination means 720 determines whether the vehicle has been illegally parked. You can decide whether or not to perform the crackdown process.

검지영상에 차량이 인식되었다는 사정만으로 그 차량이 불법 주정차하였다고 단정할 수 없으며, 차량이 기 설정된 시간 이상 주정차 금지구역에 정지한 경우에야 비로소 그 차량이 불법 주정차를 하였다고 할 수 있다.It cannot be concluded that the vehicle was illegally parked due to the fact that the vehicle was recognized in the detection image, and the vehicle was said to have been illegally parked only when the vehicle was stopped in a no-parking zone for more than a predetermined time.

따라서, 통상적으로 불법 주정차 판단수단(720)은 기 설정된 시간의 간격으로 촬영된 검지영상을 이용하여 차량의 불법 주정차 여부를 판단할 수 있다.Therefore, the illegal parking stop determination unit 720 may determine whether the vehicle is illegally stopped using the detection image photographed at a predetermined time interval.

즉, 불법 주정차 판단수단(720)은 초기에 주정차 금지구역에 차량의 존재를 인식한 경우, 기 설정된 시간이 경과한 후에 검지 카메라(110)가 다시 주정차 금지구역을 촬영하도록 제어한다. 이를 위하여 카메라 제어수단(750)이 검지 카메라(110)의 동작을 함께 제어할 수 있다.That is, the illegal parking stop determination unit 720 controls the detection camera 110 to photograph the parking stop prohibited area again after a predetermined time has elapsed when initially detecting the presence of the vehicle in the parking stop prohibited area. To this end, the camera control means 750 may control the operation of the detection camera 110 together.

차량 인식수단(710)은 상기 기 설정된 시간 경과 후 촬영된 검지영상을 수신하고, 다시 특징벡터를 분석하여 상기 검지영상으로부터 특징벡터 정보를 추출한다. The vehicle recognition unit 710 receives the detected image captured after the predetermined time elapses, and analyzes the feature vector again to extract feature vector information from the detected image.

이렇게 추출된 특징벡터는 메모리(400)에 저장되어 있는 학습 데이터와 비교되며, 차량 인식수단(710)은 기 설정된 시간 경과 후 촬영된 검지영상에 촬영된 객체 중 차량이 있는지 판단할 수 있으며 차량에 대한 인식을 할 수 있다.The extracted feature vector is compared with the learning data stored in the memory 400, and the vehicle recognition means 710 can determine whether there is a vehicle among the photographed objects in the detection image captured after a preset time elapse. Can be aware of.

불법 주정차 판단수단(720)이 기 설정된 시간 경과 후의 검지영상에서 인식된 차량이 초기의 검지영상에서 인식된 차량과 동일하다고 판단하는 경우, 상기 차량은 불법 주정차를 한 것이라고 간주된다.When the illegal parking stop determining means 720 determines that the vehicle recognized in the detection image after a predetermined time has passed is the same as the vehicle recognized in the initial detection image, the vehicle is considered to have illegally stopped.

반대로, 기 설정된 시간 경과 후의 검지영상에서 인식된 차량과 초기의 검지영상에서 인식된 차량이 동일하지 않다고 판단하는 경우에는 상기 차량은 불법 주정차하지 않은 것이라고 인정되며, 다시 검지 카메라(110)를 이용하여 주정차 금지구역을 촬영하며 차량의 진입 여부를 탐색한다.Conversely, when it is determined that the vehicle recognized in the detection image after the preset time elapses and the vehicle recognized in the initial detection image are not the same, it is recognized that the vehicle is not illegally parked, and the detection camera 110 is used again. The parked area is photographed and the vehicle is searched for entry.

한편, 번호판 인식수단(730)은 단속 카메라(120)가 촬영한 영상을 수신하여 불법 주정차 차량의 번호판의 문자를 인식할 수 있다. On the other hand, the license plate recognition means 730 may receive the image captured by the intermittent camera 120 to recognize the characters of the license plate of the illegal parking vehicle.

문자 인식을 위하여 우선 차량 번호판 위치의 3가지 검출방법 중 하나가 실행될 수 있다.For character recognition, one of three detection methods of the vehicle license plate position can be executed.

첫째는 촬영된 영상으로부터 수직 및 수평 가장자리 정보를 이용하여 번호판의 특징영역을 검출하는 것이다.The first is to detect the feature region of the license plate using vertical and horizontal edge information from the captured image.

두 번째는 스캔 데이터 분석에 의해 차량 번호판의 위치를 검출하는 것이다.The second is to detect the position of the license plate by analyzing the scan data.

세 번째는 숫자와 문자를 직접 검색하여 정확한 차량 번호판을 검출하는 것이다.The third is to detect the correct license plate by directly searching for numbers and letters.

차량 번호판의 위치가 검출되면, 템플렛 정합에 의한 문자 인식(한글자음 + 번호), 구조적 특징에 의한 문자 인식(한글모음)을 하고, 오인식을 줄이기 위하여 내부의 인식 알고리즘은 숫자, 문자(자음, 모음) 등 특징을 상세하게 분류하여 인식된 문자를 재확인처리를 함으로써 문자 해독 시 오류를 최소화할 수 있다.When the location of the vehicle license plate is detected, the character recognition (template + number) by template matching, character recognition by structure features (Korean vowel), and internal recognition algorithms reduce numbers and characters (consonants, vowels) to reduce misrecognition. ) By classifying features in detail, such as re-checking the recognized characters, minimizing errors in character decoding.

한편, 필터링 수단(740)은 검지영상에 찍힌 차량의 크기를 고려하여 단속 대상에서 제외할 것인지 여부를 결정할 수 있다.On the other hand, the filtering means 740 may determine whether to exclude the object from the crackdown by considering the size of the vehicle captured on the detection image.

검지 카메라(110)를 이용하여 주정차 금지구역에 대한 검지영상을 촬영하는 경우, 촬영된 검지영상에 찍힌 차량의 크기는 검지 카메라(110)로부터 실제 차량의 위치까지의 거리에 따라서 달라진다.In the case of using the detection camera 110 to photograph the detection image for the parking stop prohibited area, the size of the vehicle captured in the captured detection image varies depending on the distance from the detection camera 110 to the actual vehicle location.

즉, 검지영상의 하단 부분은 불법 주정차 단속 시스템(10)이 설치된 지주에서 가까운 공간이므로, 실제 차량이 검지 카메라(110)에 가까운 곳에 위치한다면, 검지영상에 찍힌 차량은 검지영상의 하단 부분에 위치할 것이며, 검지영상에 찍힌 차량의 크기는 크게 나타날 것이다.That is, since the lower part of the detection image is a space close to the prop where the illegal parking control system 10 is installed, if the actual vehicle is located close to the detection camera 110, the vehicle captured on the detection image is located at the lower portion of the detection image The size of the vehicle captured on the detection image will be large.

반대로, 실제 차량이 검지 카메라(110)에서 먼 곳에 위치한다면, 검지영상에 찍힌 차량은 검지영상의 상단 부분에 위치할 것이며, 검지영상에 찍힌 차량의 크기는 작게 나타날 것이다.Conversely, if the actual vehicle is located far from the detection camera 110, the vehicle captured in the detection image will be located in the upper portion of the detection image, and the size of the vehicle captured in the detection image will appear small.

이렇게, 필터링 수단(740)은 차량 인식수단(710)에 의하여 인식된 차량의 검지영상에서의 위치를 이용하여 검지 카메라(110)로부터 실제 차량의 위치까지의 거리를 계산할 수 있다.In this way, the filtering means 740 may calculate the distance from the detection camera 110 to the actual vehicle position by using the position in the detection image of the vehicle recognized by the vehicle recognition means 710.

또한, 필터링 수단(740)은 상기 계산된 거리를 이용하여 검지영상에서의 예상되는 차량 영상의 크기를 산출할 수 있으며, 검지영상 상의 차량 영상의 크기가 예상되는 차량 영상의 크기와 차이가 많이 난다면 이를 단속 대상에서 제외함으로써 오검지를 방지할 수 있다.In addition, the filtering means 740 may calculate the predicted size of the vehicle image in the detection image using the calculated distance, and the size of the vehicle image on the detection image is significantly different from the expected size of the vehicle image. You can prevent false positives by excluding them from the target.

즉, 차량 인식수단(710)에 의하여 인식된 차량이 검지영상의 하단 부분에 찍혀 있어서 검지 카메라(110)로부터 가까운 곳에 있다고 계산되었는데, 검지영상 상의 차량 영상의 크기가 작게 찍혀있는 경우에는, 상기 인식된 차량은 실제로는 차량이 아니고 오검지일 가능성이 많기 때문에 이를 단속 대상에서 제외시킬 수 있다.That is, it is calculated that the vehicle recognized by the vehicle recognition means 710 is close to the detection camera 110 because it is stamped on the lower portion of the detection image. If the size of the vehicle image on the detection image is small, the recognition is performed. An old vehicle is not actually a vehicle, but it is likely to be a false detection, so it can be excluded from enforcement.

반대로, 차량 인식수단(710)에 의하여 인식된 차량이 검지영상의 상단 부분에 찍혀 있어서 검지 카메라(110)로부터 먼 곳에 있다고 계산되었는데, 검지영상 상의 차량 영상의 크기가 크게 찍혀있는 경우에는, 상기 인식된 차량은 실제로는 차량이 아니고 오검지일 가능성이 많기 때문에 이 또한 단속 대상에서 제외시킬 수 있다.Conversely, it was calculated that the vehicle recognized by the vehicle recognition means 710 is located on the upper part of the detection image and is far from the detection camera 110. If the size of the vehicle image on the detection image is large, the recognition is performed. The old vehicle is not actually a vehicle, but is likely to be a false detection, so this can also be excluded from enforcement.

한편, 카메라 제어수단(750)은 카메라 모듈(100)에 속하는 검지 카메라(110)와 단속 카메라(120)의 전반적인 동작을 제어할 수 있다.Meanwhile, the camera control means 750 may control the overall operation of the detection camera 110 and the intermittent camera 120 belonging to the camera module 100.

카메라 제어수단(750)은 불법 주정차 단속 시스템(10)이 주정차 금지구역에 정지하는 차량을 단속하도록 검지 카메라(110)를 이용하여 주정차 금지구역에 대한 검지영상을 촬영하도록 제어할 수 있다.The camera control means 750 may control the illegal parking control system 10 to take a detection image for the parking stop prohibited region using the detection camera 110 to control the vehicle stopping at the parking stop prohibited region.

또한, 카메라 제어수단(750)은 주정차 금지구역에 정지한 차량이 주정차 금지구역 상에 주정차한 것인지 여부를 판단할 수 있도록 기 설정된 시간 이후에 다시 주정차 금지구역에 대한 검지영상을 촬영하도록 제어할 수 있다. 이는 불법 주정차 판단수단(720)과 함께 제어될 수 있다.In addition, the camera control means 750 may be controlled to take a detection image for the forbidden parking area again after a preset time to determine whether a vehicle stopped in the forbidden parking area is parked on the forbidden parking area. have. This may be controlled together with the illegal parking stop determining means 720.

또한, 카메라 제어수단(750)은 차량 인식수단(710)에 의하여 판단된 정지된 차량의 위치 정보를 수신하며, 이를 이용하여 단속 카메라(120)가 주정차 금지구역에 정지한 차량의 번호판을 촬영할 수 있도록 단속 카메라(120)의 팬, 틸트, 줌 동작 중 적어도 하나를 수행하도록 제어를 할 수 있다.In addition, the camera control means 750 receives the location information of the stopped vehicle determined by the vehicle recognition means 710, and by using this, the intermittent camera 120 can photograph the license plate of the vehicle stopped in the no-parking zone. In order to be able to control to perform at least one of the pan, tilt and zoom operation of the intermittent camera 120.

한편, 메모리 제어수단(760)은 메모리(400)로 입/출력되는 각종 데이터에 대한 전반적인 동작을 제어할 수 있다.Meanwhile, the memory control means 760 may control the overall operation of various data input / output to the memory 400.

제어부(700)의 차량 인식수단(710)은 검지영상으로부터 특징벡터를 추출하며, 상기 추출된 특징벡터를 메모리(400)의 일반적인 차량 영상에 대한 특징벡터 정보와 비교한다.The vehicle recognition means 710 of the control unit 700 extracts a feature vector from the detection image, and compares the extracted feature vector with feature vector information for a general vehicle image in the memory 400.

이를 위하여, 메모리 제어수단(760)은 메모리(400)가 일반적인 차량 영상에 대한 특징벡터 정보가 포함된 학습 데이터를 차량 인식수단(710)으로 출력하도록 제어할 수 있다.To this end, the memory control means 760 may control the memory 400 to output learning data including feature vector information for a general vehicle image to the vehicle recognition means 710.

또한, 차량 인식수단(710) 및/또는 필터링 수단(750)에 의하여 인식된 차량에 대한 특징벡터 정보가 메모리(400)의 학습 데이터에 존재하지 않는 경우, 이를 다음 학습 데이터와의 비교에 사용할 수 있도록 상기 특징벡터 정보를 메모리(400)에 저장할 수 있다.In addition, when feature vector information for a vehicle recognized by the vehicle recognition means 710 and / or the filtering means 750 does not exist in the training data of the memory 400, it can be used for comparison with the next training data. So, the feature vector information can be stored in the memory 400.

이를 위하여, 메모리 제어수단(760)은 차량 인식수단(710) 및/또는 필터링 수단(750)에 의하여 인식된 차량에 대한 특징벡터 정보를 메모리(400)로 입력되도록 제어할 수 있다.To this end, the memory control means 760 may control the feature vector information for the vehicle recognized by the vehicle recognition means 710 and / or the filtering means 750 to be input to the memory 400.

이하에서는, 상기 설시한 구성을 갖는 불법 주정차 단속 시스템의 설치 구조를 도면을 참조하여 살펴본다.Hereinafter, the installation structure of the illegal parking control system having the above-described configuration will be described with reference to the drawings.

도 3a 및 도 3b는 본 발명의 일례와 관련된 불법 주정차 단속 시스템이 설치된 구조의 평면도 및 측면도이다.3A and 3B are plan and side views of a structure in which an illegal parking control system related to an example of the present invention is installed.

도 3a 및 도 3b에서 볼 수 있듯이, 본 발명의 불법 주정차 단속 시스템(10) 구조는 지주(12), 가로대(14), 검지 카메라(110), 단속 카메라(120) 등을 포함할 수 있다.As can be seen in Figures 3a and 3b, the illegal parking control system 10 structure of the present invention may include a prop (12), a crossbar (14), a detection camera (110), an enforcement camera (120), and the like.

단, 도 3a 및 도 3b에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 불법 주정차 단속 시스템이 구성될 수도 있다. 이하, 도 3a 및 도 3b의 설치 구조를 살펴본다.However, since the components shown in FIGS. 3A and 3B are not essential, an illegal parking control system having more or fewer components may be configured. Hereinafter, the installation structure of FIGS. 3A and 3B will be described.

지주(12)는 주정차 금지구역 안이나 근처의 지면에 고정되게 설치되며, 볼트에 의해 지면에 고정되거나 지중에 삽입 고정되는 것이 바람직하다. 지주(12)는 단속 카메라(120)가 넓은 지역을 촬영할 수 있도록 충분한 높이로 설치될 수 있다.The support 12 is installed to be fixed to the ground in or near the parking stop zone, and is preferably fixed to the ground by a bolt or inserted into the ground. The prop 12 may be installed at a sufficient height so that the intermittent camera 120 can photograph a large area.

지주(12)는 검지 카메라(110)나 단속 카메라(120), 출력부(200), 통신부(300) 등에 전원을 공급하기 위해 지중으로부터 연결되는 전선이 관통될 수 있도록 내부는 중공으로 형성될 수 있으며, 그 재질은 빗물 등에 부식되지 않는 금속 재질로 형성되는 것이 바람직하다.The holding 12 may be formed inside the hollow so that the wires connected from the underground can be penetrated to supply power to the detection camera 110, the intermittent camera 120, the output unit 200, the communication unit 300, and the like. It is preferable that the material is formed of a metal material that does not corrode in rainwater or the like.

지주(12)의 상부에는 적어도 하나의 가로대(14)가 연결되어 설치될 수 있으며, 상기 지주(12)와 마찬가지로 그 내부는 중공으로 형성될 수 있으며, 그 재질은 금속 재질로 형성되는 것이 바람직하다.At least one crossbar 14 may be connected to the upper part of the post 12, and like the post 12, the inside thereof may be hollow, and the material is preferably formed of a metal material. .

가로대(14)는 지면과 수평 하게 위치될 수 있고, 바람직하게는 주정차 금지구역 위에 배치될 수 있다.The crossbar 14 may be positioned horizontally to the ground, and preferably may be disposed over a no-parking zone.

검지 카메라(110)와 단속 카메라(120)는 주정차 금지구역을 촬영하여 얻어지는 정지영상 또는 동영상 등의 화상을 처리할 수 있다. 상기 검지 카메라(110)와 단속 카메라(120)는 상기 가로대(14)의 단부에 설치될 수 있고, 바람직하게는 단속하고자 하는 주정차 금지구역 위에 배치될 수 있다.The detection camera 110 and the intermittent camera 120 may process images such as still images or videos obtained by photographing a prohibited parking area. The detection camera 110 and the intermittent camera 120 may be installed at the ends of the crossbar 14, and preferably, may be disposed over a no-parking zone to be intermittent.

상기 불법 주정차 단속 시스템(10)이 설치된 주정차 금지구역에는 도 3a에 도시한 바와 같이 검지 카메라(110)로부터 가까운 곳에 주정차된 차량(21)과 검지 카메라(110)로부터 먼 곳에 주정차된 차량(22)이 있을 수 있다.As shown in FIG. 3A, the illegally stopped parking control system 10 is installed in the forbidden parking area, as shown in FIG. 3A, the vehicle 21 parked near the detection camera 110 and the vehicle 22 parked away from the detection camera 110. This can be.

앞서 설명한 바와 같이, 검지 카메라(110)를 이용하여 주정차 금지구역에 대한 검지영상을 촬영하는 경우, 검지 카메라(110)로부터 가까운 곳에 주정차된 차량(21)은 검지영상의 하단에 위치하게 된다. As described above, when the detection image for the forbidden parking area is photographed using the detection camera 110, the vehicle 21 parked near the detection camera 110 is positioned at the bottom of the detection image.

따라서 필터링 수단(740)은 상기 검지영상에 찍힌 차량의 위치를 이용하여 검지 카메라(110)로부터 상기 차량(21)까지의 거리를 계산할 수 있다. Therefore, the filtering means 740 may calculate the distance from the detection camera 110 to the vehicle 21 using the location of the vehicle captured on the detection image.

또한, 검지 카메라(110)로부터 먼 곳에 주정차된 차량(22)은 검지영상의 상단에 위치하게 되며, 이로부터 검지 카메라(110)로부터 상기 차량(22)까지의 거리가 계산될 수 있다.In addition, the vehicle 22 parked far away from the detection camera 110 is located at the top of the detection image, from which the distance from the detection camera 110 to the vehicle 22 can be calculated.

Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템Illegal parking control system using Fast R-CNN based vehicle detection

공공안전과 시설물 및 개인의 안전으로부터 위협받거나 생활의 편의를 도모하기 위한 이유로 현대에는 곳곳에 CCTV(closed circuit television)가 설치되어 있고 현재도 진행 중이다. CCTVs (closed circuit televisions) are installed in various places in modern times for threats from public safety, facilities, and personal safety, or for the convenience of living.

이러한 배경에는 CCTV 지능형 영상보안은 영상내의 객체 검출과 행동분석을 통해 영상감시 및 재난, 재해 방지 등의 역할을 하고 있다.Against this background, CCTV intelligent video security plays a role of video surveillance and disaster prevention through disaster detection and behavior analysis.

기존 객체 검출 방법 및 방식에는 Background modeling을 통해 배경과 전경의 차이값으로 인한 검출을 하고 HoG, LBP, Color Histogram을 이용하여 feature를 추출하고 Adaboost, SVM, ASEF Filter 등의 기계학습을 통해 검출하여 사용하고 있다. Existing object detection methods and methods use background modeling to detect due to the difference between the background and foreground, extract features using HoG, LBP, and color histogram, and detect and use them through machine learning such as Adaboost, SVM, and ASEF Filter. Doing.

이후 객체 추적에서는 Basian tracking, Particle filtering, Mean-shift, Cam-Shift등의 여러 Machine learning 기법들을 사용한다.Later, object tracking uses several machine learning techniques such as Basian tracking, particle filtering, Mean-shift, and Cam-Shift.

도 4는 신경망 네트워크 구조의 일례를 도시한 것이다.4 shows an example of a network structure of a neural network.

최근의 Deep Learning 영상인식 기술은 도 4에 도시된 것과 같이, CNN을 기반으로 발전을 거듭하여 RCNN, Fast R-CNN, Faster R-CNN을 거쳐 YOLO 등의 빠르고 검출율이 높은 단계까지 발전하고 있다. As shown in FIG. 4, the recent deep learning image recognition technology has been continuously developed based on CNN, and has been developed through RCNN, Fast R-CNN, and Faster R-CNN to a fast and high detection rate such as YOLO. .

이러한 객체검출 및 추적(분석) 알고리즘은 꾸준히 발전하여 인간의 인지능력에 대체할 수준까지 발전하고 있으며 무인자동차를 비롯한 산업계 전반에 활용 및 응용되고 있는 추세이다.These object detection and tracking (analysis) algorithms have been steadily developed and developed to a level that can be replaced by human cognitive abilities, and are being used and applied in all industries, including driverless vehicles.

CCTV영상에서 기존의 방식을 벗어나 최근의 CNN기반의 Deep Learning 알고리즘을 적용하여 인식율을 높이고 영상보안의 완성도를 높이는 개발 및 적용되고 있다. It is being developed and applied to the recognition rate and the completeness of image security by applying the deep learning algorithm based on the recent CNN beyond the existing method from the CCTV image.

이러한 기술의 발전들과 함께 차량을 대상으로 한 응용 서비스에 도입이 되고 있는 추세이며, 모바일 앱, 자율주행 자동차에 이르기까지 다양한 시스템에서 영상, 자연어, 음성, 제어, 통신의 내용을 인식하는데 사용되고 있고, 복잡한 자료 및 다양한 데이터 유형들을 분석하는데 활용되고 있다. With the development of these technologies, it is a trend that is being introduced into application services for vehicles, and it is used to recognize the contents of video, natural language, voice, control, and communication in various systems ranging from mobile apps to autonomous vehicles. It is used to analyze complex data and various data types.

특히, 불법 주정차 차량단속, 버스전용로의 주행차량 단속, 주차관제 및 자율주행 등 다양한 산업분야에서 차량검지의 정확도를 높이고 이를 활용 및 도입하고 있는 추세이다.In particular, the trend is to increase the accuracy of vehicle detection in various industries such as illegal parking control, traffic control of buses, parking control, and autonomous driving, and utilize and introduce them.

기존의 불법주정차 단속시스템내의 차량검지부에 해당하는 검출기는 특징정보를 추출하고 이를 기준으로 설정된 임계치 값에 따라 차량을 검출하는 방식을 선택하고 있거나, 배경 성분과 차량 정보가 포함된 성분간의 차이를 이용하여 차량을 검출하는 방식 등으로 구분되어 사용되고 있다.The detector corresponding to the vehicle detection unit in the existing illegal parking control system selects a method of extracting feature information and detecting a vehicle according to a threshold value set based on this, or uses a difference between a background component and a component containing vehicle information Therefore, the vehicle is classified and used.

이와 같은 방식들은 특징정보의 손실여부에 따라 차량이 아닌 다른 대상(사람, 유사특징을 보이는 물체 등)형태로 인지하게 되는 오검출이 될 수 있고, 특징정보의 취득과정에서 조명의 변화, 계절, 날씨, 시간대별 환경의 변화에 취약하여 원하는 대상의 차량정보를 검출하기가 어렵다.Such methods can be false detections that are recognized in the form of objects (persons, objects with similar characteristics, etc.) other than the vehicle depending on whether or not the feature information is lost. It is difficult to detect vehicle information of a desired target because it is vulnerable to changes in the environment by weather and time.

따라서 차량검출을 위한 기존 방법들과 달리 본 개발에서는 딥러닝과 같은 기반의 머신러닝 학습을 이용한 방법을 이용하여 차량의 특징을 탐지하는 검출방법을 적용하고 정확도를 높이기 위한 다양한 학습패턴들을 적용함으로써 실제 도로환경에서 복잡하고 다양한 형태의 차량을 검출한다.Therefore, unlike the existing methods for vehicle detection, this development uses a method using machine learning learning based on deep learning to apply the detection method to detect the characteristics of the vehicle and applies various learning patterns to increase accuracy. Detect complex and various types of vehicles in the road environment.

대부분의 일반적인 용어로 정의된 딥러닝(Deeplearning) 방식은 기본구조내의 적용기술 방식에 따라 달리 적용되고 학습데이터 구조(레이아웃)의 크기에 따라 검출의 정확도가 상이한 반면, 처리속도 및 거리의 차량검출에 효과적으로 나타날 수 있는 장-단점이 있다. 또한 적용방법에 따른 기술의 내용이 상이하더라도 보편적으로 동일한 시스템 구조내의 구성으로 인해서 흔히 딥러닝이란 의미를 갖는다.The deep learning method defined in most general terms is applied differently according to the applied technology method in the basic structure, and the accuracy of detection differs depending on the size of the learning data structure (layout), whereas it is used for vehicle detection of processing speed and distance. There are pros and cons that can appear effectively. In addition, even though the contents of the technology according to the application method are different, it is commonly referred to as deep learning due to the configuration in the same system structure.

먼저 딥러닝에 대한 의미를 소개한다면, 딥러닝은 머신러닝의 한 종류이고, 이미지 인식, 음성 인식뿐만 아니라 자연언어처리 등의 다양한 분야에 활용되고 성능 또한 좋은 결과를 도출하고 있다. 기존의 차량특징 정보를 추출하는 방식과 달리 딥러닝에서는 “특징량 추출”로써 기존 방법에서는 사람이 이미지 내부에 있는 특징을 하나하나 지정해야 했지만 딥러닝의 경우는 학습데이터에서 기계가 자동으로 특징추출에 대한 학습을 하는 것이 큰 차이점이라 할 수 있다.First of all, if you introduce the meaning of deep learning, deep learning is a kind of machine learning, and it is used in various fields such as image recognition and speech recognition as well as natural language processing, and has good performance. Unlike the existing method of extracting vehicle feature information, in deep learning, it is a “feature quantity extraction”. In the existing method, a person had to specify each feature in the image, but in the case of deep learning, the machine automatically extracts features from the learning data. Learning about is a big difference.

이와 같은 특징은 과거 신경망(뉴럴네트워크, NN: Neural network) 네트워크 구조의 의미를 갖고 있기 때문에 특징추출에 대한 학습으로 이어질 수 있으며 이는 인간의 뇌에서 수많은 신경세포(뉴런)이 있고 하나의 뉴런은 다른 뉴런에게 신호를 받거나 전달하는 신호의 흐름으로 연결되어 다양한 정보를 만들 수 있게 된다. This feature can lead to learning about feature extraction because it has the meaning of the neural network (NN: Neural network) network structure in the past, and there are numerous neurons (neurons) in the human brain and one neuron is different. It is connected to the flow of signals that receive or transmit signals to neurons, thereby making various information possible.

이러한 구조를 연상하여 구현된 부분이 신경망(뉴럴네트워크, NN: Neural network) 이다.The part implemented in association with this structure is a neural network (NN: Neural network).

도 4에 도시한 구조를 신경망의 여러 뉴런이 연결돼 있어서 망(네트워크)라고 말하고 입력층(Input layer)에 학습시키고 싶은 데이터가 들어가면 중간층(Hidden layer)의 구조에서 여러 입력을 받아지게 되고 이때 입력에 따라 하나의 다른 노드(유닛, 연결강도)로 신호를 보내고 출력층(Output layer)에서 출력한다. The structure shown in FIG. 4 is called a network (network) because several neurons of a neural network are connected, and when data to be learned enters the input layer, multiple inputs are received from the structure of the middle layer. Depending on the signal is sent to one other node (unit, connection strength) and output from the output layer (Output layer).

이러한 신경망을 3개 이상 중첩하면 깊은 신경망(Deep Neural Network: DNN)이라고 부르고 이를 활용한 기계학습을 딥러닝이라고 말한다. When three or more of these neural networks overlap, it is called a deep neural network (DNN) and machine learning using this is called deep learning.

대량의 데이터를 입력해서 학습시키는 구조에서 뉴런의 가중치를 조정함으로써 연결강도의 가중치 합 혹은 곱 등의 연산에 따라 출력의 신호세기에 연관이 되므로 학습에 대한 효율성 및 효과를 극대화시키는 방법으로 설계도 가능하다. By adjusting the weight of neurons in the structure of learning by inputting a large amount of data, it can be designed as a method to maximize the efficiency and effectiveness of learning because it is related to the signal strength of the output according to calculations such as the sum of weights or products of the connected strengths. .

이와 같은 구조는 방대한 데이터들을 처리하기 위한 변형이 필요하며, 학습 데이터의 량이 방대해졌을 때 더 복잡한 구조이어도 가능하게 된다. 이러한 구조의 특징중의 하나인 컨볼루션 신경망(Convolutional Neural Network: CNN)은 뉴런들의 연결 패턴을 구성한 전 방향 신경망으로서 레이어들간의 처리수행을 할 수 있도록 설계가 되어 있고 여러 개의 컨볼루션 레이어들로 구성된다. Such a structure requires modification to process vast amounts of data, and can be a more complex structure when the amount of training data is large. Convolutional Neural Network (CNN), one of the features of this structure, is an omni-directional neural network that configures the connection pattern of neurons and is designed to perform processing between layers and consists of several convolutional layers. do.

CNN의 구조는 2차원 입력 데이터에 적합한 구조로써 CCTV 카메라와 같은 영상분야에 활용 및 적용이 가능하다.The structure of CNN is suitable for 2D input data, and can be used and applied to video fields such as CCTV cameras.

도 5는 본 발명에 적용되는 컨볼루션 신경망의 일례를 도시한 것이다.5 shows an example of a convolutional neural network applied to the present invention.

도 5는 CNN 구조로써 기존의 신경망 구조와 비슷하지만 컨볼루션을 통해 의미있는 특징을 추출한다는 점과 여러 레이어들이 스태킹(stacking)되어 있으므로 특징추출, 서브샘플링을 통한 차원축소(dimensionality reduction), 최상위 레이어와 하위 레이어에서 전달되는 특징분류 등의 역할을 수행하고 있다. 5 is a CNN structure, similar to the existing neural network structure, but it extracts meaningful features through convolution and several layers are stacked, so feature extraction, dimensionality reduction through subsampling, and top layer And plays a role of classifying features transmitted from lower layers.

이러한 복잡한 구조에서 각각의 레이어들마다 학습과정을 가지게 되고, 학습된 내용을 기반으로 새로운 입력에 대해 답을 얻어내는 과정을 갖게되며, 학습 파라미터(가중치)등을 설정하여 학습모델을 다양하게 제공 및 적용할 수 있다. In this complex structure, each layer has a learning process, and has a process of obtaining an answer to a new input based on the learned content, and provides a variety of learning models by setting learning parameters (weights), etc. Can be applied.

예를 들어, 다층 퍼셉트론(Feedforward Multilayer perceptron: MLP), 딥 빌리프 네트워크(Convolutional Deep Belief Network: CDBN) 등의 모델들이 있다. For example, there are models such as a federated multi-layer perceptron (MLP) and a convolutional deep belief network (CDBN).

이러한 모델들은 영상(이미지)내에서 객체를 검출하는 것보다 분류하는 방식으로 활용되고 있으며 학습된 데이터와 입력데이터간의 유사도를 계산하여 분석 및 분류한다.These models are used as a classification method rather than detecting an object in an image (image), and analyze and classify by calculating the similarity between the learned data and the input data.

본 개발내용에서는 차량정보 추출을 위해서 분류보다는 탐지 혹은 검출 방식을 대상으로하는 학습 모델을 사용해야 되므로 기존의 CNN 방법보다 영상(이미지)내에서 찾는 방식인 RCNN(Region-based Convolution Networks)을 기반한 접근에서 진행한다. In this development, it is necessary to use a learning model that targets detection or detection methods rather than classification to extract vehicle information. To proceed.

이때 R-CNN의 경우 사전 찾고자 하는 대상을 중심으로 영역을 지정을 하게 되고 이를 기준하여 객체를 검출한다. At this time, in the case of R-CNN, an area is designated centering on a target to be searched in advance, and an object is detected based on this.

하지만 대상객체의 수가 복수 개로 지정될 경우 처리시간에 따른 비용이 커서 실시간성 보장이 어렵다. However, if the number of target objects is specified as multiple, it is difficult to guarantee real-time performance due to the high cost of processing time.

또한 차량의 정보를 추출하기 위한 영상(이미지)내에서 복수 개의 대상차량이 존재하게 되고, 경우에 따라서는 차량과 유사한 속성을 갖는 물체(포장박스, 이륜차, 자전거, 수레 등)들도 존재하기 때문에 영역내의 정확도가 중요하지만 실시간성 확보를 위해 Fast RCNN(Fast RCNN)과 같은 처리속도가 반영되어야 할 시스템들도 있다.In addition, a plurality of target vehicles exist in an image (image) for extracting vehicle information, and in some cases, objects (packaging boxes, two-wheeled vehicles, bicycles, wagons, etc.) having properties similar to vehicles exist. Although accuracy in the area is important, there are also systems that need to reflect processing speed such as Fast RCNN (Fast RCNN) to secure real-time.

일반적으로 R-CNN과 Fast RCNN 접근방법에서 영상(이미지)내의 객체를 검출(탐지)하기 위해서 높은 정확도와 처리속도를 개선시킬 수 있는 반면에서 실제 환경에서 다채널(Multi-Channel)간의 스트리밍 처리에는 정확도와 처리속도의 문제를 해결하지 못하며, 특히 카메라위치에서 대상물체 간의 거리에 따른 정확도 성능의 차이변화가 많고, 영상(이미지) 크기에 따른 처리속도도 달리 측정되므로 이를 해결하기 위한 최적화된 개발이 필요하다.In general, in the R-CNN and Fast RCNN approach, high accuracy and processing speed can be improved to detect (detect) objects in an image (image), while streaming processing between multi-channels in a real environment Since it does not solve the problem of accuracy and processing speed, in particular, there are many changes in the accuracy performance depending on the distance between objects at the camera position, and the processing speed according to the size of the image (image) is also measured. need.

따라서 본 개발에서는 처리속도와 함께 높은 정확성을 요구하기 위한 실시간 처리에 따른 다채널(Multi-Channel) 카메라기반에서 시스템 구성을 확보해야 되기 때문에 기본 구조내의 구조적인 개선과 시스템의 최적화에 따른 성능을 보이도록 하였다. 특히 차량검출을 위해 특정 레이어층에 대한 선택적인 결정과 거리에 따른 위치구간에서의 정확도 및 식별, 그리고 번호인식을 통한 차량인식을 하였다.Therefore, in this development, it is necessary to secure the system configuration on the basis of a multi-channel camera according to real-time processing to require high accuracy along with the processing speed, so it shows the structural improvement in the basic structure and the performance according to the optimization of the system. Was made. In particular, for the vehicle detection, the vehicle was recognized through selective determination of specific layer layers, accuracy and identification in the location section according to distance, and number recognition.

도 6은 본 발명이 제안하는 개선된(Improved F-CNNs)기반의 시스템 흐름도를 도시한 것이다.6 shows an improved F-CNNs based system flow diagram proposed by the present invention.

도 6을 참조하면, 일반적으로 CNN에서 convolutional기반 특징(feature)이 가로와 세로 블록의 차이만을 해석하는 Haar-like기반의 특징(feature)보다 복잡하고 정교하며 추상적인 정보를 얻을 수 있기 때문에 영상의 한 위치를 기준으로 적은 수의 검색 크기(kernel)로 얻어지는 Haar-like feature보다 처리속도에서 유용하다.Referring to FIG. 6, in general, since convolutional-based features in CNN can obtain more complex, sophisticated, and abstract information than Haar-like-based features that interpret only the difference between horizontal and vertical blocks, It is more useful at processing speed than Haar-like features obtained with a small number of search kernels based on one location.

다만, 얻어진 특징(feature)은 단순한 정보만을 포함을 갖게 된다.However, the obtained features have only simple information.

이에 비해 CNN에서는 다양한 검색 크기(kernel)을 사용하고 특징(feature)을 얻어 수 있으며 Haar-like feature 보다 처리속도는 느리지만 복잡하고 정교한 정보로써의 특징(feature)을 갖는다.On the other hand, in CNN, various search sizes (kernels) can be used and features can be obtained, and processing speed is slower than Haar-like features, but it has features as complex and sophisticated information.

이러한 특징은 convolutional layer들을 여러 층을 사용함으로써 Haar-like feature에 대한 정확도가 높게 된다. This feature has high accuracy for Haar-like features by using multiple layers of convolutional layers.

그렇지만 CNN은 특징(feature)을 찾는 처리속도가 문제이므로 이를 해결하기 위해서는 convolutional layer 층에 대한 변형이 필요시 되고 대상 물체(차량)가 영상내에 존재하는 비율(크기)이나 거리(카메라로부터 대상 물체간 거리) 위치에 따라 처리속도 및 정확성에 영향을 받게 되므로 전체 layer층을 사용하지 않고 상대적으로 차량의 크기로 구분이 가능한 범위의 layer층만을 선택하여 처리속도 및 효과적인 검출 방법으로 개발한다.However, since CNN has a problem in processing speed to find features, it is necessary to modify the convolutional layer layer, and the ratio (size) or distance of the target object (vehicle) in the image (between the target objects from the camera) Distance) Depending on the location, processing speed and accuracy are affected, so instead of using the entire layer layer, select only the layer layer in a range that can be distinguished by the size of the vehicle and develop it as a processing speed and effective detection method.

도 6의 각 단계에 대해 구체적으로 이하, 설명한다.Each step of FIG. 6 will be described below in detail.

먼저, S10 단계 및 S11 단계인 입력과 영상보정(Input & Image Calibration) 단계를 설명한다.First, steps S10 and S11, input and image calibration, are described.

영상의 입력은 카메라로부터 취득된 디지털화 된 데이터이다. 동영상이 대상이 되고, 각 프레임(영상)은 2차원의 데이터로 구성이 된다.The input of the image is digitized data obtained from the camera. The video is a target, and each frame (image) is composed of two-dimensional data.

또한, 영상보정은 사전 관심대상의 객체(차량)를 검지하기 위해 입력좌표간의 검지영역을 지정한다. In addition, the image correction designates a detection area between input coordinates to detect an object (vehicle) of interest in advance.

이때 영역내의 구간을 두 개의 영역으로 구분할 수 있도록 재정의 하고, 각 영역에 대해서 객체(차량) 검지 영역을 수행하게 된다.At this time, the section in the area is redefined to be divided into two areas, and an object (vehicle) detection area is performed for each area.

두 개의 영역으로 설정한 부분은 원거리와 근거리로 구분하기 위함이다. The part set with two areas is to distinguish between long distance and short distance.

이러한 이유는 동일한 객체(차량)가 영상 내에 존재하여도 객체(차량) 크기가 서로 다른 크기를 갖기 때문에 특징추출에 있어서 객체(차량)의 질감(texture)가 달리 보이게 되고, 형태 혹은 모양이 없던 특징정보들이 나타나게 되어서 처리결과의 입력데이터에 대한 신뢰성을 갖도록 한다.This is because the object (vehicle) has different sizes even when the same object (vehicle) exists in the image, so the texture (texture) of the object (vehicle) is different in feature extraction. Information is displayed so that the input data of the processing result is reliable.

또한, 두 개의 영역중에서 첫 번째 영역인 경우, 즉 근거리의 객체(차량)를 검지하게 되고 객체(차량)의 크기가 카메라로부터의 거리가 가까워서 크기가 큰 객체 영역을 갖게 된다.In addition, in the case of the first area among the two areas, that is, a short-distance object (vehicle) is detected, and the size of the object (vehicle) is close to the distance from the camera, thereby having a large object area.

또한, 두 개의 영역중에서 두 번째 영역인 경우, 즉 원거리의 객체(차량)를 검지하게 되고, 객체(차량)의 크기가 카메라로부터의 거리가 멀어서 작은 객체 영역들이 존재하므로 관심대상의 객체(차량)이 불특정 물체간의 크기 차이(분포)가 유사하게 되므로 영역내의 특징정보를 쉽게 식별할 수 있도록 카메라 설정(기능)에서 스케일의 변환 혹은 카메라의 줌(Zoom In/OUT)에 의한 영역으로 설정하게 된다.In addition, in the case of the second area among the two areas, that is, a remote object (vehicle) is detected, and since the object (vehicle) has a small object area because the size of the object (vehicle) is far from the camera, there is an object of interest (vehicle). Since the size difference (distribution) between the unspecified objects is similar, it is set to an area by a scale conversion or a zoom in / out of the camera in the camera setting (function) to easily identify feature information in the area.

다음으로, S12 단계를 설명한다.Next, step S12 will be described.

S12 ESKRP는 Optional(Selected) layers within F-CNNs 단계로서, 입력데이터와 영상보정 설정 이후의 단계로써 원하는 대상 객체(차량)을 검지하기 위한 딥러닝 기술을 적용한다. S12 ESKRP is an optional (Selected) layers within F-CNNs step, and applies deep learning technology to detect a desired target object (vehicle) as a step after setting input data and image correction.

대부분의 경우 딥러닝을 활용하는 범위가 물 체를 검지 및 인식하는 범위내에서 범주를 설정하게 되고 이를 정의하여 조건들에 대한 값들과 분포를 계산하게 된다.In most cases, the range using deep learning sets a category within the range of detecting and recognizing objects, and defining it to calculate the values and distribution for the conditions.

본 시스템에서는 대상객체(차량)과 비대상 객체(사람)이 포함된 검출기를 CNN기반에서 처리한다. In this system, a detector including a target object (vehicle) and a non-target object (person) is processed based on CNN.

이때, 객체들에 대한 학습데이터는 VOC Pascal 2007, VOC Pascal 2012, MS COCO, Caltech pedestrian dataset, ImageNet 2012, 2014, MIOTCD dataset 으로 학습에 활용한다.At this time, the learning data for the objects is used for learning as VOC Pascal 2007, VOC Pascal 2012, MS COCO, Caltech pedestrian dataset, ImageNet 2012, 2014, MIOTCD dataset.

본 시스템에 적용된 CNN기반에서 처리속도의 개선을 위한 Fast-CNN의 일반적인 경우는 다음의 도 7과 같다.The general case of Fast-CNN for improving the processing speed on the basis of CNN applied to this system is shown in FIG. 7 below.

도 7은 본 발명과 관련하여, Fast R-CNN기반의 객체 검출의 일례를 도시한 것이다.7 shows an example of Fast R-CNN based object detection in relation to the present invention.

도 7을 참조하면, 객체(차량)검지를 위해서는 CNN기반의 각 레이어(layer)들로부터 결과를 영역 형태로 출력하게 되고, 해당 값들에 대해서 전체(Fully-connected)네트워크 형태로 재구성한 후 다시 각 레이어(layer)층에 대한 영역결과에서 대상 객체(차량)의 크기와 위치를 기반으로 재 설정(재 위치)로 설정한다.Referring to FIG. 7, in order to detect an object (vehicle), a result is output in the form of a region from each layer based on CNN, and the values are reconstructed into a fully-connected network, and then each again. In the area result for the layer layer, it is set to reset (reposition) based on the size and position of the target object (vehicle).

또한, Fully-Connected layer의 구성은 convolution layer, pooling layer와 함께 구성되고, 매개변수들에 따라 서로 연결(connect 또는 weight) 구조로 되어 있으며, convolution과 pooling layer에서 특징을 추출하고 fully-connected layer에서 어떤 클래스(class, 범주)에 속하는지를 판단하는 과정을 말한다.In addition, the configuration of the Fully-Connected layer is composed of a convolution layer and a pooling layer, and has a structure of connecting or weighting each other according to parameters, extracting features from the convolution and pooling layers, and from the fully-connected layer. It refers to the process of determining which class (category) belongs to.

이때, 입력데이터의 이미지를 작은 블록단위로 나눠지고 CNN 구조내의 각각의 네트워크(connect)를 통해 블록들에 대해서 특징 정보를 추출한다. At this time, the image of the input data is divided into small block units, and feature information is extracted for blocks through each network in the CNN structure.

도 8은 본 발명과 관련하여, 이미지 내의 블록단위를 설정하는 일례를 도시한 것이다.8 illustrates an example of setting a block unit in an image in connection with the present invention.

도 8에 도시된 것과 같이, 블록단위의 형태로 처리하는 이유는 구조적인 특성상 출력의 개수가 고정형태로 처리하기 위한 것이며 물체(특징정보, 객체차량)검출 결과에 있어서 해당 위치 및 크기 정보를 출력할 때 위치설정이 용이하기 때문이다.As shown in FIG. 8, the reason for processing in the form of a block unit is to process the number of outputs in a fixed form due to structural characteristics, and output the corresponding position and size information in the result of detecting an object (feature information, object vehicle). This is because the positioning is easy.

또한, 도 7에서 특징맵(feature map)에서 영역 추출을 위한 방법으로는 selective search 방법을 사용하고 특징추출에서는 AlexNet을 사용한다. In addition, in FIG. 7, a selective search method is used as a method for region extraction from a feature map, and AlexNet is used for feature extraction.

이때 fully connected layer에서 n개의 출력에 대한 특징벡터로 사용하며 분류는 SVM(Support Vector Machine)을 이용하여 학습한다.At this time, it is used as a feature vector for n outputs in the fully connected layer, and classification is learned by using a support vector machine (SVM).

한편, 도 9는 본 발명에 적용되는 AlexNet 구조의 일례를 도시한 것이다.On the other hand, Figure 9 shows an example of an AlexNet structure applied to the present invention.

도 9를 참조하면, AlexNet 구조는 총 8개의 레이어로 구성되어 있고, 첫 번째에서 다섯 번째는 Convolutional layer이고 다음 3개의 레이어는 Fully connected layer이다. Referring to FIG. 9, the AlexNet structure is composed of a total of 8 layers, the first to fifth are convolutional layers, and the next three layers are fully connected layers.

병렬 레이어들마다 이미지에 대한 각각의 독립적으로 특징을 추출하고 학습을 시킨다.For each of the parallel layers, each independently extracted feature for the image is extracted and trained.

또한, 결과적으로 영역 추출을 위해서는 특징맵(feature map)의 크기를 AlexNet 특징 벡터와 분류기의 순서에 따라 입력 데이터로 하게 되며 이때 고정된 크기형태로 크기변환을 해줘야 된다. In addition, as a result, in order to extract the region, the size of the feature map is used as input data according to the order of the AlexNet feature vector and the classifier, and at this time, the size must be converted to a fixed size.

결과적으로 블록단위의 형태에서 크기 변환으로 인한 왜곡은 있으나 입력의 크기와 처리속도문제로 인한 특징 영역에서 손실 또한 존재하게 된다.As a result, there is distortion due to size conversion in the form of block units, but there is also a loss in the characteristic area due to the size and processing speed of the input.

또한, 입력데이터의 크기가 크거나 작을 경우 특징맵(feature map)에서의 각각의 레이어마다 특징 추출하는 과정에서 손실되는 정보들로 인한 결과 영역의 위치와 크기가 영향을 받게 되고, 학습패턴들(특징정보)마다 영향을 줌으로 인해 크기정보의 선택이 중요하다.In addition, if the size of the input data is large or small, the location and size of the result area due to information lost in the feature extraction process for each layer in the feature map is affected, and the learning patterns ( Feature information) is important, so it is important to select size information.

이러한 단계에서 근거리의 객체정보 또는 원거리 객체정보의 위치형태에 따라 출력된 위치와 크기정보가 다르게 결정될 수 있으므로 이를 해결해야 한다.In this step, the output location and size information may be determined differently according to the location type of the short-distance object information or the far-distance object information.

본 발명에서는 객체 특징맵(feature map)과 각각의 레이어들에서 처리되는 과정 에서 입력데이터를 크게 두 영역으로 나눠서 설정하고 이를 각각 입력으로 처리한다.In the present invention, in the process of processing in the object feature map and the respective layers, the input data is divided into two areas and is set and processed as input.

또한, 입력데이터가 서로 다른 이유는 근거리와 원거리에서 존재하는 객체특징이 다르게 존재하는 부분을 정확도와 처리속도를 엄격히 구분하여 처리할 수 있도록 설정하고 AlexNet구조내의 레이어들간에 연결구조에서 손실되는 형태를 최소한다.In addition, the reason why the input data is different is that the object characteristics that exist at short distances and distances are set to be processed by strictly classifying the accuracy and processing speed, and the loss of the connection structure between the layers in the AlexNet structure is lost. Should be minimal.

또한, 객체특징추출에 있어서는 검출영역의 위치와 크기 정보를 출력 개수의 고정에 맞게 출력위치를 설정하기 위해서 레이어층마다 검출된 영역과 분류기의 형태를 단일 구조로 변경하고 이때 해당 객체위치의 최대 출력 개수를 정의하여 최종의 출력 영역에 대한 객체검출 영역으로 표시한다.In addition, in order to extract the location and size information of the detection area in order to set the output position according to the fixed number of outputs in object feature extraction, the type of the detected area and classifier for each layer layer is changed to a single structure, and at this time, the maximum output of the object position The number is defined and displayed as the object detection area for the final output area.

도 10은 본 발명과 관련하여, Faster R-CNN 구조에서 영역크기 고정을 위한 구조의 일례를 도시한 것이다.10 shows an example of a structure for fixing the size of a region in the Faster R-CNN structure in connection with the present invention.

도 10은 객체검출결과에서 서로 다른 위치의 크기 영역값들이 존재할 때 각각의 크기 위치가 다르게 분포되고 이를 하나의 출력값으로 계산하여 정확도에 대한 개선 방법으로 선택한다.10, when there are different size area values of different positions in the object detection result, each size position is distributed differently and is calculated as a single output value, and is selected as an improvement method for accuracy.

각각의 영역들에 대한 출력값들의 분포와 해당 영역들이 객체정보내의 영역에서 표현된 출력값은 다음의 도 11과 같다.The distribution of the output values for each region and the output values in which the regions are expressed in the region in the object information are as shown in FIG. 11 below.

도 11은 본 발명과 관련하여, 고정영역 출력값의 일례를 도시한 것이다.11 shows an example of a fixed area output value in relation to the present invention.

그림 10과 11에서 n개의 영역 값들에서 해당 위치에서의 표현할 수 있는 최대 출력 객체 개수를 설정하기 위해서 각각의 영역내의 중심위치에 대한 설정값을 갖도록 재구성하고 이때 크기에 따른 출력신호를 1차 배열공간의 위치로 설정함으로써 최종 객체영역의 위치를 선택한다.In Figures 10 and 11, in order to set the maximum number of output objects that can be expressed at the corresponding position in n area values, it is reconstructed to have the setting value for the central position in each area, and the output signal according to the size is the primary array space. Select the position of the final object area by setting the position of.

도 11과 같은 결과를 위해서는 convolution layer에서 이미지를 픽셀로 입력할 경우, 일반적으로 행렬식 NxNx3, 가로와 세로 그리고 채널(차원)으로 구성되고, 각 채널은 R, G, B로 구성된다. For a result as shown in FIG. 11, when an image is input as a pixel in a convolution layer, it is generally composed of a matrix NxNx3, horizontal and vertical, and a channel (dimensional), and each channel is composed of R, G, and B.

또한, Convolution layer에서 각각의 채널에 대한 특징패턴을 계산할 때 행렬식의 표현으로 계산되고 이는 크기와는 무관하다.In addition, when calculating the feature pattern for each channel in the convolution layer, it is calculated as the expression of the determinant and is independent of the size.

도 12는 convolution layer에서 영역 추출에 대한 재구성된 영역들로 객체 특징 정보를 모두 포함하는 객체 위치와 크기를 갖는다. 12 is reconstructed regions for region extraction in a convolution layer, and has an object position and size including all object feature information.

이때 특징영역의 검출에 대한 특징맵(feature map)의 형태는 도 13과 같다.At this time, the shape of the feature map for detection of the feature region is shown in FIG. 13.

이로써 특징벡터의 계산과 CNN내의 컨볼루션 레이어들간의 고정크기에 따른 위치 출력의 재구성 구조를 개선한 방법을 이용하여 객체(차량특징)검출의 세부 단계는 도 14에 표시된 것과 같다.The detailed steps of object (vehicle feature) detection using the method of improving the reconstruction structure of the position output according to the fixed size between the convolutional layers in the CNN and the calculation of the feature vector are as shown in FIG. 14.

도 14는 본 발명에 적용되는 객체 검출 단계의 순서도를 도시한 것이다.14 is a flowchart illustrating an object detection step applied to the present invention.

도 14를 참조하면, 입력영상을 획득하고(S21), 블록단위를 생성하며(S22), Faster T-CNN을 적용하고(S23), ROI 특징을 계산하며(S24), Bounding box를 설정하고(S25), 객체 인식을 수행하게 된다(S26).Referring to FIG. 14, an input image is acquired (S21), block units are generated (S22), Faster T-CNN is applied (S23), ROI characteristics are calculated (S24), and a bounding box is set ( S25), object recognition is performed (S26).

한편, 불법 주정차 단속내의 객체 검출과 관련하여, 객체 검출 단계에서 Fast R-CNN구조내의 Pooling(폴링) 레이어의 계산은 하기의 수학식 1 및 수학식 2에 따라 결정된다.Meanwhile, in relation to object detection in illegal parking control, the calculation of the pooling layer in the Fast R-CNN structure in the object detection step is determined according to Equations 1 and 2 below.

수학식 1Equation 1

Figure 112019124424326-pat00001
Figure 112019124424326-pat00001

수학식 2Equation 2

Figure 112019124424326-pat00002
Figure 112019124424326-pat00002

수학식 1은 폴링 계산을 위한 물체(객체 차량)의 영역으로

Figure 112019124424326-pat00003
로 정의한다.Equation 1 is the area of the object (object vehicle) for polling calculation.
Figure 112019124424326-pat00003
Is defined as

수학식 1에서 kth는 이미지내의 블록단위의 영역으로 학습데이터간의 비교하기 위해서 사용된다. In Equation 1, kth is a block unit region in an image and is used for comparison between learning data.

이때 물체(객체 차량) 영역의 폴링결과는 jth의 폴링계층(layer)에 출력된다. At this time, the polling result of the object (object vehicle) area is output to the polling layer of jth.

Figure 112019124424326-pat00004
는 필터계수이고 이미지내의 블록단위에서 필터계수와의 컨볼루션을 의미하며 영역내의 후보영역을 찾고, 해당 높은 값을 계산하여 Max-pooling 영역을 계산한다.
Figure 112019124424326-pat00004
Is the filter coefficient and means the convolution with the filter coefficient in the block unit in the image, finds the candidate area in the area, and calculates the high value to calculate the max-pooling area.

이때 문제점으로 최소한 영역에 관심객체가 포함되어 있을 것으로 판단하지만 객체영역보다는 배경성분의 영역들로 문제 그리고 관심 객체의 크기에 적은 경우의 문제에서 특징벡터의 부정확한 영역으로 선택될 수 있다.At this time, it is determined that an object of interest is included in at least the area as a problem, but it may be selected as an inaccurate area of the feature vector in the case of areas with background component rather than the object area and when the size of the object of interest is small.

이러한 왜곡(손실)된 정보를 보정하기 위해서는 하기의 수학식 3으로 계산한다.In order to correct such distorted (lost) information, it is calculated by Equation 3 below.

수학식 3Equation 3

Figure 112019124424326-pat00005
Figure 112019124424326-pat00005

상기 수학식 3에서는 입력변수

Figure 112019124424326-pat00006
에 대해서 손실정보를
Figure 112019124424326-pat00007
로 나타내며, 수학식 1에 의해
Figure 112019124424326-pat00008
는 max-pooling 인텍스를 나타낸다. In Equation 3, the input variable
Figure 112019124424326-pat00006
About loss information
Figure 112019124424326-pat00007
Denoted by Equation 1
Figure 112019124424326-pat00008
Denotes a max-pooling index.

이는 컨볼루션 계산 후 각 영역들에서 찾았던 위치정보를 나타낸다.This represents the location information found in each area after calculating the convolution.

Figure 112019124424326-pat00009
는 미분에 의해서 계산되고 손실값을 나타낸다.
Figure 112019124424326-pat00009
Is calculated by derivative and represents the loss value.

이때, 모든 ROI에 대한 영역추출 결과는

Figure 112019124424326-pat00010
에 누적된다.At this time, the area extraction results for all ROI
Figure 112019124424326-pat00010
Accumulate on.

이러한 반복과정을 통해서 RPN(Region proposal network)이 생성한 RoI(Region of Interest)에 대해서 RoI(Region of Interest) Pooling을 하게 되고, 각 Region에 대한 특징 맵이 모두 다 동일하게 고정된 사이즈로 생성된다. 이를 통해서 각 RoI(Region of Interest) 내 물체(객체)들의 분류한다. 객체 분류는 SVM(Support Vector Machine)을 통해서 간단하게 객체인지 아닌지, 객체가 맞는다면 어떤 객체인지만을 대상으로 하고 본 시스템에서는 차량객체만을 대상으로 결정하였다.Through this iterative process, the Region of Interest (RoI) pooling is performed for the Region of Interest (RoI) generated by the Region proposal network (RPN), and all feature maps for each region are created in the same fixed size. . Through this, objects (objects) in each Region of Interest (RoI) are classified. Object classification is based on the support vector machine (SVM), whether it is an object or not, and if the object is correct, only the object, and in this system, only the vehicle object is determined.

마지막으로 대상물체(객체)에 대해서는 최종 출력을 위해서 Bounding Box를 계산하고 이때 단순히 linear regression을 이용한다.Finally, for the final object (object), the bounding box is calculated for the final output, and at this time, linear regression is simply used.

Bounding Box의 계산은 하기의 수학식 4 및 수학식 5와 같다.The calculation of the bounding box is as shown in Equation 4 and Equation 5 below.

수학식 4에서는 BBO는 가장 이상적인 bounding box를 나타낸다.In Equation 4, BBO represents the most ideal bounding box.

수학식 4Equation 4

Figure 112019124424326-pat00011
Figure 112019124424326-pat00011

수학식 5Equation 5

Figure 112019124424326-pat00012
Figure 112019124424326-pat00012

수학식 4에서 G는 Ground truth box이고,

Figure 112019124424326-pat00013
는 Max pooling에서 인덱스된 영역을 말한다. In Equation 4, G is the ground truth box,
Figure 112019124424326-pat00013
Is the area indexed in Max pooling.

수학식 5는 해당 영역간의 중첩에 의한 범위를 산출하여 가장 이상적인 bounding box를 생성하게 된다.Equation (5) calculates the range by overlapping between the corresponding areas to generate the most ideal bounding box.

본 시스템은 이러한 과정을 입력단계에서 두 영역으로 나눠서 설정하고 폴링의 문제를 개선하여 원거리, 근거리의 대상물체에 대한 정확도를 개선하였다.The system divides this process into two areas at the input stage and improves the problem of polling, thereby improving the accuracy of long-distance and short-range objects.

다시 도 6으로복귀하여, S12 단계 이후, 번호 판 영역을 추출하는 단계(S13)가 진행되고, 성공하면 번호를 인식하고(S14), 실패하는 경우에는 검출된 프레임을 저장하게 된다(S15).Returning to FIG. 6 again, after step S12, a step (S13) of extracting the license plate area proceeds, and if successful, the number is recognized (S14), and if it fails, the detected frame is stored (S15).

이하에서는, 실험 결과 및 본 발명이 불법 주정차에 적용된 결과를 설명한다.Hereinafter, experimental results and results of applying the present invention to illegal parking will be described.

도 15는 실험결과를 도시한 것이고, 도 16은 객체 손실에 따른 실험결과를 도시한 것이며, 도 17은 개선된 처리결과를 보이는 실험 결과를 도시한 것이다.FIG. 15 shows experimental results, FIG. 16 shows experimental results according to object loss, and FIG. 17 shows experimental results showing improved processing results.

불법 주정차 단속내의 차량검지 방법으로 Fast R-CNN기반에서 컨볼루션 레이어층들의 특징벡터 계산 후 폴링 단계에서 bounding box 설정으로 인한 객체 검출이 객체 크기에 따라서 다르게 분포된 결과를 나타내고 이를 객체검출의 결과에 영향을 줌으로써 시스템의 성능이 저하 될 수 있는 요인으로 발생하였다. As a vehicle detection method in illegal parking control, after detecting the feature vector of the convolutional layer layers on the basis of Fast R-CNN, the object detection due to the bounding box setting in the polling step shows differently distributed results according to the object size, and this is applied to the result of object detection. It occurred as a factor that could degrade the performance of the system by influencing it.

이러한 문제를 개선하고자 입력단계에서 영역을 나눠 설정함으로써 원, 근거리내의 객체검출에 대한 성능을 향상시킬 수 있었다.In order to improve this problem, it is possible to improve the performance of object detection within the original and near areas by setting the area in the input step.

그림 15는 실제 환경에서 불법주정차 단속 대상의 차량을 검출하기 위해서 제안된 방법(Fast R-CNN기반)을 이용한 결과이다. Figure 15 shows the result of using the proposed method (based on Fast R-CNN) to detect a vehicle subject to illegal parking control in a real environment.

이때, 영상 내의 두 영역으로 구분하지 않고 입력데이터를 활용하였으나, 근거리의 경우 대상차량을 검출하는데 있어서는 문제가 나타나지 않았으나, 원거리의 경우 차량의 간격 혹은 단일 차량형태로 구분이 모호한 경계로 인한 특성과 ROI Pooling 결과에서 Max Pooling의 결과가 서로 다르므로 부정확한 데이터를 갖게 된 요인으로 분석하였다.At this time, the input data was used without dividing into two areas in the image, but a problem was not found in detecting the target vehicle in the short distance, but in the case of a long distance, the characteristics and ROI due to the ambiguous boundary in the interval of the vehicle or a single vehicle type As the result of Max Pooling is different from the pooling result, it was analyzed as a factor that has inaccurate data.

도 16의 경우에서도 도 15의 결과처럼 작은 물체들중에서 일부 영역들에 대한 특징분포가 주변 영역과 비슷하거나 크기에 따른 특징벡터 성분이 다르게 분포되어 부정확한 결과를 얻었다.In the case of FIG. 16, as in the results of FIG. 15, the feature distribution for some regions is similar to the surrounding region or the feature vector components according to the size are differently distributed, resulting in inaccurate results.

또한, 도 17의 경우는, 도 15 및 도 16의 결과를 개선하기 위해 입력데이터의 두 영역을 나누고 동일한 개선된 방법에 의해 수행하였으며, 객체크기와 POI 폴링에 의한 차이를 구분함으로써 원하는 대상차량의 검출에 있어서 정확도를 개선시킨 결과이다.In addition, in the case of FIG. 17, in order to improve the results of FIGS. 15 and 16, the two areas of the input data were divided and performed by the same improved method, and the difference between the object size and POI polling was used to differentiate the desired target vehicle. It is the result of improving the accuracy in detection.

전술한 것과 같이, 본 발명은 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템을 사용자에게 제공할 수 있다.As described above, the present invention can provide the user with an illegal parking control system using Fast R-CNN based vehicle detection.

또한, 본 발명은 불법 주정차 단속시스템 내의 대상차량을 검출하기 위한 효과적인 방법과 관련된 것으로, 기존 CNN(Convolution Neural Network) 환경에서 객체 검출에 대한 크기와 위치 그리고 거리차이에 따른 Max-Pooling 내의 Bounding Box 계산 문제를 해결할 수 있다.In addition, the present invention relates to an effective method for detecting a target vehicle in an illegal parking control system, and calculation of a bounding box in Max-Pooling according to a size, position, and distance difference for object detection in an existing convolutional neural network (CNN) environment You can solve the problem.

구체적으로, 대부분의 종래기술의 경우, 불법 주정차 대상차량의 경우는 특징성분을 분석하기 위해 패턴화된 형태로 대상 객체를 검출한 반면, 본 발명에서는 크기에 따른 특징벡터와 위치에 따라 동일한 객체 변화 그리고 거리에 따라 특징벡터 분포를 다르게 분석하도록 설정함으로써 기존 방법 대비 효과적으로 처리할 수 있다.Specifically, in the case of most conventional technologies, in the case of an illegally parked target vehicle, the target object is detected in a patterned form in order to analyze the characteristic components, whereas in the present invention, the same object changes according to the feature vector and position according to the size. And by setting the feature vector distribution to be analyzed differently according to the distance, it can be effectively processed compared to the existing method.

Receptive filed의 top-down방법을 이용한 개선된 차량검출 방법 및 이를 이용한 비정상적 주정차 차량식별 시스템Improved vehicle detection method using receptive filed top-down method and abnormal parking vehicle identification system using the same

교통흐름을 실시간으로 관리 및 감독하기에는 교통과 관련된 시스템들이 저변확대가 되어야 하고 신뢰성 높은 기술의 성능이 유지되어야 한다. In order to manage and supervise the traffic flow in real time, the systems related to traffic must be expanded and the performance of reliable technology must be maintained.

그러나 현재의 상황은 캠코더를 이용하여 영상 단속을 시행하거나 도로환경에 주행중인 차량이용자로부터 정보를 수집하거나 무인교통감시 시스템 및 방법기능을 갖는 영상수집 카메라 등이 활용되고 있는 실정에서 효과적인 결과를 얻기에는 자동보다는 수동화된 시스템을 의존할 수밖에 없다.However, in the current situation, it is difficult to obtain effective results in situations where video surveillance is performed using a camcorder, information is collected from a vehicle user driving in a road environment, or video collection cameras with unmanned traffic monitoring systems and methods are used. You have to rely on a passive system rather than an automatic one.

따라서 본 개발보고서는 CCTV 카메라를 통해서 영상을 집중적으로 관리 및 감독하는 시스템들 중에서 단속과 관련된 무인교통감시내의 영상해석 및 분석기술을 활용하여 기존 시스템 성능대비 제품의 기술력을 확보하는 한편 높은 신뢰성 갖춘 무인교통 감시 단속(불법 주정차 단속) 시스템 개발이다. Therefore, this development report utilizes the video analysis and analysis technology in unmanned traffic monitoring related to enforcement among systems that intensively manage and supervise images through CCTV cameras, while securing the technology of the product against the performance of the existing system and unmanned with high reliability. It is the development of traffic surveillance enforcement (illegal parking control) system.

이는 교통의 원활한 흐름을 방해하는 불법 주·정차 차량을 근본적으로 근절하기 위하여 상습적으로 불법 주·정차가 이루어지는 지역에 카메라를 설치하여 상시 단속 및 지도 할 수 있게 된다. In order to fundamentally eradicate illegal parking and stopping vehicles that interfere with the smooth flow of traffic, cameras can be installed in areas where illegal parking and parking are routinely carried out to control and guide them at all times.

이와 같은 시스템의 특징은 도로 환경에서 카메라를 설치하여 움직임 객체(일반적으로 사람, 자동차)를 검출하고, 해당 정보를 통해 교통사고 및 흐름을 관리감독, 신속/정확한 처리와 지원이 요구되는 시스템을 말한다. The characteristics of such a system refers to a system that installs a camera in a road environment to detect moving objects (generally people, cars), and supervises and manages traffic accidents and flows through the information, and requires prompt / accurate processing and support. .

이러한 목적을 갖는 시스템은 도로 환경의 영상을 저장하는 역할만을 수행하는 것이 아니라, 객체를 검출/검지 및 인식을 통한 기능이 지원되지 않는 한 단순 모니터링의 수준으로 이용되고 흐름을 제어하거나 관리 및 감독하기엔 실질적인 효과를 얻기가 어렵다. A system having this purpose is not only for storing the image of the road environment, but is used as a level of simple monitoring and controls, manages, and supervises the flow unless the function through detection / detection and recognition of objects is supported. It is difficult to obtain a practical effect.

최근에는 인공지능 및 영상인식기술을 접목한 머신러닝, 특히 딥러닝(Deep Learning) 기술이 발전하면서 각종 산업에서 가장 괄목할만한 성과를 나타내고 있고 의료 영상 진단기술, 자율주행차, 스마트 홈, 보안 및 영상감시 산업, 산업용 로봇의 시각 지능, 서비스 로봇 및 지능형 로봇, 스마트 팩토리, 국방 및 우주항공, 헬스케어, 가전, 스마트 쇼핑, 엔터테인먼트 등 다양한 분야에서도 산업과 사회에 새로운 가치 실현의 기반이 되고 있다.Recently, with the development of machine learning, especially deep learning technology, incorporating artificial intelligence and image recognition technology, it has been showing the most remarkable achievements in various industries, and medical imaging technology, autonomous vehicle, smart home, security and imaging. In various fields such as the surveillance industry, visual intelligence of industrial robots, service robots and intelligent robots, smart factories, defense and aerospace, healthcare, consumer electronics, smart shopping, and entertainment, it has become the basis for realizing new values for industry and society.

이는 PC에서 모바일로 시대가 변화한 것처럼 다음 패러다임은 인공지능(AI)이며, 국내외적으로 인공지능의 더 큰 발전에 주목하면서 자연어처리, 음성인식 등 관련 기술을 넘어 인공지능 및 영상인식기술이 우리 산업과 사회 속에 한 부분으로 자리잡게 되었다.As the era has changed from PC to mobile, the next paradigm is artificial intelligence (AI), and while focusing on the greater development of artificial intelligence both domestically and internationally, AI and image recognition technology beyond our related technologies such as natural language processing and voice recognition are ours. It has become a part of industry and society.

기존 영상검지기술에서 객체 검출 방법은 Background modeling을 통해 배경과 전경의 차이값으로 인한 방법으로 검출하고, HoG(Histogram of Gradient), LBP(local binary pattern), Color Histogram을 이용하여 feature를 추출하고 Adaboost, SVM(Support Vector machine), ASEF(average of Synthetic Exact) Filter 등의 기계학습을 통해 검출하는 방식을 사용하고 있다. In the existing image detection technology, the object detection method is detected by the background modeling method due to the difference between the background and the foreground, and features are extracted using the histogram of gradient (HOG), local binary pattern (LBP), and color histogram and adaboost. , SVM (Support Vector machine), ASEF (average of Synthetic Exact) Filter, etc. are used for detection through machine learning.

이후 객체 검출의 결과에 대해 지속적인 모니터링 혹은 객체 추적에서는 베이지안(Bayesian) tracking, Particle filtering, Mean-shift, Cam-Shift등의 여러 Machine learning 기법들을 사용한다.Thereafter, in continuous monitoring of object detection results or object tracking, Bayesian tracking, Particle filtering, Mean-shift, and Cam-Shift are used.

최근에는 인공지능 및 딥러닝 기술을 접목하여 검출에 대한 정확도를 향상시켜 시스템에 적용되고 있다. Recently, by applying artificial intelligence and deep learning technology, the accuracy of detection has been improved and applied to the system.

이는 객체분류와 검출을 영상분석 및 컴퓨터비전 분야의 기본요소 기술로써 오랫동안 많은 연구가 진행 및 개선되었다. This is the basic element technology in the field of image analysis and computer vision for object classification and detection.

대부분의 경우 영상내의 이벤트와 관련된 검지 기술에 대한 알고리즘의 향상을 집중적으로 개선되었으나 객체 분류내의 정확도를 개선하기에는 데이터(수집, 분류, 분석, 결과를 포함한 모든 영상 데이터)의 중요성을 강조하기에는 환경적인 요인(해결하고자 하는 범주내의 이벤트 감지)들이 복잡하고 다양하기 때문에 주관적인 비교 분석의 결과들이 나타나게 되었고, 인공지능 기반 비전 기술의 핵심인 CNN(Convolutional Neural Network)과 같은 구조에서 객체 검출 및 분류 추출방법으로 경계(그리드) 개념과 YOLO(You only Look Once), SSD(Single Shot Detector)등이 적용되었다.In most cases, the improvement of the algorithm for detection technology related to the event in the image has been intensively improved, but an environmental factor to emphasize the importance of data (all image data including collection, classification, analysis, and results) to improve the accuracy within object classification. Because (event detection within the category to be solved) is complex and diverse, the results of subjective comparative analysis have appeared, and the boundary is the object detection and classification extraction method in a structure such as CNN (Convolutional Neural Network), which is the core of AI-based vision technology. The concept of (grid), YOLO (You only Look Once), and SSD (Single Shot Detector) were applied.

이와 같은 이유로는 복잡하고 다양한 환경에서 원인들을 해결하기 위해 데이터의 학습 범위와 범주를 세분화하거나 시스템 구조를 개선시켜 보다 정확한 객체 분류 혹은 검지에 대한 다양성을 높이고 효율성을 높이고 있다. For these reasons, the range and category of data are subdivided or system structure is improved to solve causes in complex and diverse environments, thereby increasing diversity and accuracy for more accurate object classification or detection.

이는 사람이 어떤 이미지를 보았을 때 이미지 내에 있는 객체(Object)들의 세밀한 부분까지 쉽게 파악할 수 있는 특성부터 복잡한 행위를 할 수 있는 이유에서 가정(Assume)하고 있다. This assumes that when a person sees an image, he can easily comprehend the details of the objects in the image and perform complex actions.

하지만 최근에는 R-CNN과 같은 검출시스템(detection system)들로 인해서 복잡한 처리과정들이 Human visual system을 모방하기에는 다소 부족한 부분요인들이 나타나게 되었다. However, in recent years, due to detection systems such as R-CNN, complicated processing processes have appeared to be partially insufficient to mimic the human visual system.

예를 들면 느린 처리속도, 최적화 방법, 현행 시스템 내의 구조개선 등이다. 그 대표적인 객체 검출 및 분류 방법으로 SSD(Single Shot Detector), YOLO(You Only Look Once)라는 방법이 있다. Examples include slow processing speeds, optimization methods, and structural improvements in current systems. The representative object detection and classification methods include SSD (Single Shot Detector) and YOLO (You Only Look Once).

YOLO는 각 이미지를 S x S 개의 그리드로 분할하고, 그리드의 신뢰도를 계산한다. 신뢰도는 그리드 내 객체 인식 시 정확성을 반영하게 된다. YOLO divides each image into S x S grids and calculates the reliability of the grid. Reliability reflects the accuracy when recognizing objects in the grid.

이는 처음에 객체 인식과는 동떨어진 경계 그리드가 설정되지만, 신뢰도를 계산하여 경계 그리드의 위치를 조정함으로써 가장 높은 경계 그리드의 위치를 얻게 되고 이를 인식할 경우 객체의 정확성을 갖는다. This initially sets the boundary grid away from object recognition, but by calculating the reliability and adjusting the position of the boundary grid, the position of the highest boundary grid is obtained, and when it is recognized, it has the accuracy of the object.

이와 같은 이유에는 이미지 내의 bounding box와 class probability를 single regression problem으로 간주하여 이미지를 한 번 봤을 때 object의 종류와 위치를 추측한다. 이 방식은 single convolutional network를 통해 multiple bounding box에 대한 class probability를 계산하는 구조로 되어 있다.For this reason, the bounding box and class probability in the image are regarded as a single regression problem, and the type and position of the object are estimated when the image is viewed once. This method is structured to calculate class probability for multiple bounding boxes through a single convolutional network.

기존의 객체검출 방법(object detection method)과 비교했을 때, YOLO의 특징은 간단한 처리과정으로 속도가 매우 빠르고 기존의 다른 real-time detection system들과 비교할 때 2배 정도 높은 메모리 성능을 보이고 있으며, 이미지 전체를 한 번에 보는 것처럼 class에 대한 이해도를 높이고 있다. Compared to the existing object detection method, the characteristic of YOLO is a very simple process, and the speed is very fast, and it shows twice the memory performance compared to other real-time detection systems. As you can see the whole thing at once, it improves the understanding of the class.

반면 상대적으로 낮은 정확도를 보이는 것이 특징인데, Fully-connected layer를 이용해 영상 전반에 대한 context를 고려하여 false positive의 개수가 상대적으로 적어서 출력하는 bounding box 크기에 대한 제약이 없으므로 형태가 다소 부정확한 결과를 보이는 단점도 있다.On the other hand, it is characterized by showing relatively low accuracy. Since the number of false positives is relatively small considering the context for the entire image using the full-connected layer, there is no restriction on the size of the bounding box to be output. There are also disadvantages.

반면 YOLO 방법과 상대적으로 다르게 균형적인 요소(처리속도와 정확도)를 갖는 구조의 Single Shot Detector(SSD) 방법이 있다. On the other hand, there is a single shot detector (SSD) method with a structure that has a balanced element (processing speed and accuracy) that is relatively different from the YOLO method.

이 SSD는 한번만 입력 이미지에 대한 CNN을 실행하고 특징 맵(feature map)을 계산한다. 경계 그리드 및 객체 분류 확률을 예측하기 위해 이 특징 맵을 3 × 3 크기로 CNN을 수행한다. The SSD runs the CNN on the input image only once and computes the feature map. In order to predict the boundary grid and object classification probability, CNN is performed on this feature map with a size of 3 × 3.

SSD는 CNN처리 후 경계 그리드를 예측하게 되고 다양한 스케일의 물체를 검출 할 수 있게 된다. 이는 Multi-scale 특징을 고려하여 최종 결과를 convolution layers를 통해 출력하기 때문에 parameter 수가 적어도 Convolution layers를 통한 지역적 정보만을 대상으로 false positive가 다소 발생하게 되고, generalization error가 YOLO에 비해 다소 높은 편에 속한다.The SSD predicts the boundary grid after CNN processing and can detect objects of various scales. Since the final result is output through convolution layers in consideration of multi-scale features, false positives are generated only for regional information through at least convolution layers, and the generalization error is somewhat higher than YOLO.

이처럼 영상에서 기존의 방식을 벗어나서 인공지능 및 Deep Learning 기법을 적용함으로써 시스템에 대한 신뢰도 및 인식율의 완성도가 높게 나타나게 되고 있고, 이와 같은 결과로 인해서 기술의 발전들과 함께 차량을 대상으로 한 응용 서비스에 도입이 되고 있는 추세이며, 다양한 시스템에서 영상, 자연어, 음성, 제어, 통신의 내용을 인식하는데 사용되고 있다. In this way, by applying the artificial intelligence and deep learning techniques beyond the existing method in the image, the reliability and recognition rate of the system is high, and as a result of this, along with advances in technology, it is applied to application services for vehicles. This trend is being introduced, and it is used in various systems to recognize the contents of video, natural language, voice, control, and communication.

더 나아가서 복잡한 자료 및 다양한 데이터 유형들을 분석하는데 활용되고, 특히 불법 주정차 차량단속, 버스전용로의 주행차량 단속, 주차관제 및 자율주행 등 다양한 산업분야에서 차량검지의 정확도를 높이는데 활용된다.Furthermore, it is used to analyze complex data and various types of data, and in particular, it is used to increase the accuracy of vehicle detection in various industries such as illegal parking control, bus driving vehicle control, parking control and autonomous driving.

본 명세서에서는, 객체 검출방법을 통해서 차량으로 판단하고 해당 결과로부터 주정차 차량 중에서 이상행위의 주차로 판단되는 차량을 인식 및 식별을 한다. In the present specification, a vehicle determined as a vehicle through an object detection method and a vehicle determined as parking of an abnormal behavior among the parked vehicles is recognized and identified from the result.

또한, 본 발명에 따른 차량을 판단하기 위한 객체 검출단계에서는, CNN기반으로 초기 객체(차량)로 판단하고, 해당 결과 내에서 정상적인 주정차 차량인지 아닌지를 판단함으로써, 이상행위 주차에 대한 차량인식을 적용하게 된다. In addition, in the object detection step for determining the vehicle according to the present invention, it is determined as an initial object (vehicle) based on CNN, and by determining whether or not the vehicle is a normal parking vehicle within the result, vehicle recognition for abnormal behavior parking is applied. Is done.

여기서 비정상적인 주정차 즉 이상행위 주차의 경우는, 차량외형에서 차량으로 판단하기 위한 고유정보(특징정보)인 차량번호판을 기준으로 검지한다. Here, in the case of abnormal parking or abnormal parking, the vehicle is detected based on the license plate, which is unique information (characteristic information) for determining the vehicle from the vehicle appearance.

다시 말해서 차량으로 판단된 차량의 경우 주정차 대상에 따른 번호판 가림이니 회피로 인해서 차량고유정보(특징정보)를 식별이 불가피한 상태인지를 판단하게 되고, 사물이나 주변 환경 (지형물, 사람포함)으로 인한 차페(가림)여부에 대해서도 인지가 가능하게 된다.In other words, in the case of a vehicle determined to be a vehicle, it is judged whether the identification of the vehicle-specific information (characteristic information) is inevitable due to the evasion of the license plate according to the object of parking, and due to objects or surroundings (including objects and people). It is also possible to recognize whether or not it is a chafe.

도 18는 본 발명과 관련하여, 전체 시스템 구성도의 일례를 도시한 것이다.18 shows an example of an overall system configuration in connection with the present invention.

도 18를 참조하면, 가장 먼저, 카메라(100)가 스트리밍 영상을 입력받는 단계(S10)가 진행된다.Referring to FIG. 18, first, a step S10 in which the camera 100 receives a streaming image is performed.

이후, 제어부(700)가 선택적으로 DSSD, SSD 등을 이용하여 차량을 인식하는 단계(S20)가 진행된다.Thereafter, the control unit 700 selectively recognizes a vehicle using DSSD, SSD, or the like (S20).

또한, 제어부(700)는 차량의 단일 지역 특징(single region feature)를 추출(S30)하게 된다.In addition, the controller 700 extracts a single region feature of the vehicle (S30).

이때, 제어부(700)는 차량의 번호판 추출에 성공하였는지 또는 번호판 내의 차량 번호 인식에 성공하였는지 여부에 대해 판단한다(S40).At this time, the controller 700 determines whether the license plate extraction of the vehicle was successful or whether the vehicle number recognition in the license plate was successful (S40).

S40 단계에서 성공한 경우에는 차량으로 판별(S50)하여 추후 절차를 진행하고, 실패한 경우에는 파악한 차량의 재식별을 시도한다(S60).If it is successful in step S40, it is determined as a vehicle (S50), and a subsequent procedure is performed. If it is unsuccessful, the identified vehicle is re-identified (S60).

S60 단계에서는 기존의 축적된 데이터 베이스 내의 추가된 특징을 활용(S70)하는 것이 가능하다.In step S60, it is possible to utilize the added features in the existing accumulated database (S70).

S60 단계를 거쳐, 궤적을 축적하고, 이를 기반으로 탐지하는 영역의 변화 등을 꾀하면서 재식별을 시도할 수 있다(S80).Through the step S60, a trajectory may be accumulated, and re-identification may be attempted while attempting to change a region to be detected based on the trajectory (S80).

만약, 객체가 이동하는 경우에는 전술한 S40 단계부터 다시 절차를 수행한다.If the object moves, the procedure is performed again from step S40 described above.

여기서, 해당 비정상적인 주정차의 경우 다음과 같은 특징들이 포함 될 수 있다.Here, the following characteristics may be included in the case of the abnormal parking.

(1) 트렁크 열림, 트렁크 열린 상태에서 사물로 인한 번호판 가림(박스, 비닐, 신문지, 박스 등등)(1) Opening of the trunk, covering the number plate due to objects in the open state of the trunk (box, vinyl, newspaper, box, etc.)

(2) 번호판 가림(전체, 일부, 특정 위치, 비닐포장, 지형지물을 이용한 차페), 가림판(주차금지판, 공사장 금지판 등)(2) Covering license plates (all, part, specific location, plastic packaging, tea using terrain features), blanking plates (no parking, prohibited construction sites, etc.)

(3) 사람이 인위적으로 차량 번호판 위치에 배회 혹은 가림 행위(3) A person artificially roams or obscures the license plate position

(4) 트럭의 경우 트럭 후미 문 내림현상, 지형지물을 이용한 회피(4) In the case of trucks, truck tailgate falls and avoidance using terrain features

(5) 차량간격에 따라 크기로 인한 회피 및 전체 번호판 중 일부 혹은 전체 가림 행위(5) Dodge due to size and cover part or all of the entire license plate depending on the vehicle interval

(6) 전신주, 가로등, 화물(짐) 등의 가림 행위(6) Covering acts such as telephone poles, street lights, and cargo (load)

입력영상과 차량검출Input image and vehicle detection

도 18를 통해 설명한 기술 흐름과 관련하여 각각의 단계를 구체적으로 설명한다.Each step will be described in detail with reference to the technology flow described through FIG. 18.

먼저, S10 및 S20 단계인 입력영상과 차량검출에 대해 설명한다.First, input images and vehicle detection, which are steps S10 and S20, will be described.

S10 단계에서, 영상의 입력은 카메라로부터 취득된 디지털화 된 데이터이다.In step S10, the input of the image is digitized data acquired from the camera.

이때, 데이터는 동영상이 대상이 되고, 각 프레임(영상)은 2차원의 데이터로 구성된다. At this time, the video is a target object, and each frame (image) is composed of two-dimensional data.

S20 단계 관련, 본 발명에서 제안하고자 하는 목적은 정상적인 주정차 차량 이외의 차량식별 및 판단하고자 하며, 정상적인 주정차의 정의는 입력된 카메라의 위치와 화각(Field of view)에서 차량의 형태가 육안으로 식별이 가능한 범위 내에 존재해야 하고 번호판 식별이 가능한 차량을 정의한다.In relation to step S20, the object proposed in the present invention is to identify and judge a vehicle other than a normal parking vehicle, and the definition of the normal parking vehicle is visually identified by the type of the vehicle from the input camera position and field of view. Define vehicles that must be within the possible range and are license plate identifiable.

이때 비정상적인 주정차 차량의 정의는 정상적인 주정차 차량의 정의에 다르게 우선적으로 차량번호판이 육안으로 식별되지 않는 상태에서 화면내에 존재하는 차량을 말한다.At this time, the definition of the abnormal parking vehicle refers to a vehicle existing in the screen in a state in which the vehicle license plate is not discriminated visually differently from the definition of the normal parking vehicle.

그리고 영상내에 존재하는 객체 즉, 차량, 사람, 사물(신문지, 박스, 비닐류, 테이프 등의 차량번호판을 일부 혹은 전체를 훼손이나 가림이 가능한 물체), 가로등, 주차금지 안내판, 공사 안내표지판, 주변 주정차 차량과 방향이 달리 주정차된 차량 등과 차량간의 크기로 인한 가림 형태로써 주변환경에 존재하는 차량 외형의 형태를 비정상적인 차량으로 정의한다.And objects present in the image, that is, vehicles, people, objects (objects that can damage or obscure part or all of the license plate such as newspapers, boxes, vinyls, tapes), street lights, parking prohibited signs, construction guide signs, surrounding parking The vehicle is different from the direction of the vehicle, and it is defined as an abnormal vehicle.

본 발명에서 제안하는 방법은 검출대상의 객체 속성은 차량이고 정상적인 형태의 주정차 차량과 비정상적인 주정차 차량을 판단하기 위해서 사람, 사물의 특성, 정상적인 차량이어도 연속된 주정차 차량으로 인한 가림 등을 분석하고 이를 식별 및 판단한다.In the method proposed in the present invention, the object property of the detection target is a vehicle, and in order to determine a normal parking vehicle and an abnormal parking vehicle, the characteristics of people, objects, and even a normal vehicle are analyzed and identified by a continuous parking vehicle. And judge.

또한, 비정상적인 주정차 차량으로 판단 및 식별되었을 때 해당 주정차 차량을 주 관심 객체로 정의하고 지속적으로 모니터링 할 수 있도록 재할당하며 해당 차량의 움직임이 발생했을 때 차량번호를 식별 및 인식한다.In addition, when it is judged and identified as an abnormal parking vehicle, the parking vehicle is defined as an object of interest and reallocated to be continuously monitored, and the vehicle number is identified and recognized when the movement of the vehicle occurs.

정상적인 주정차 차량검출 및 인식Normal parking vehicle detection and recognition

다음으로, 정상적인 주정차 차량검출 및 인식에 대해 구체적으로 설명한다.Next, the normal parking vehicle detection and recognition will be described in detail.

입력데이터로부터 원하는 대상 객체(차량)을 검지하기 위한 본 발명의 객체 검출과 인식 방법을 설명한다. An object detection and recognition method of the present invention for detecting a desired target object (vehicle) from input data will be described.

최근에는 객체 검출 및 분류방법으로 시스템 환경에 따라서 SSD(Single Shot Detector)와 YOLO(You only Look Once) 방법을 사용하고 있다.Recently, SSD (Single Shot Detector) and YOLO (You only Look Once) methods are used according to the system environment as object detection and classification methods.

본 시스템에서는 SSD(Single Shot Detector) 방법에서 작은 객체 검출에 따른 문제점을 개선함과 동시에 빠른 처리속도 및 객체 검출의 성능향상을 갖도록 DSSD (Deconvolutional Single Shot Detector)방법으로 적용 및 제안한다.This system applies and proposes the DSSD (Deconvolutional Single Shot Detector) method to improve the problem of small object detection in the SSD (Single Shot Detector) method and to improve the performance of fast processing speed and object detection.

도 19는 본 발명과 관련하여, SSD(Single Shot Detector)의 네트워크 구조의 일례를 도시한 것이다.19 shows an example of a network structure of a single shot detector (SSD) in connection with the present invention.

이때, SSD(Single Shot Detector)의 기존방법에서 deconvolution layer를 추가하고 Skip을 통한 처리속도 향상과 객체 검출의 성능을 높이기 위해서 feed forward connection을 적용한 개선방법을 사용한다. At this time, in the existing method of single shot detector (SSD), a deconvolution layer is added, and an improvement method using a feed forward connection is used to improve processing speed through skip and improve object detection performance.

이는 초기 영역(default region)의 종횡비(영역의 가로와 세로, aspect ratio)를 고려한 convolution kernel을 적용하기 위해 초기 영역(default region)의 모양이 정사각형뿐만 아니라 직사각형도 포함하고 있는 형태를 가지므로 SSD 구조에서 검출된 객체 영역(bounding region)의 coordinate와 class score를 얻는 과정에서 오직 3x3 convolution 만을 수행하게 설정한다.In order to apply the convolution kernel considering the aspect ratio of the default region (width and height of the region, aspect ratio), the shape of the default region includes a rectangle as well as a square, so the SSD structure Set to perform only 3x3 convolution in the process of obtaining the coordinate and class score of the bounding region detected in.

이러한 이유는 각 특징맵(feature map)에서 효과적으로 검출하기 위한 구성으로써(effective receptive field) 초기 영역(default region)형태와 유사하게 함으로써 SSD(Single Shot Detector) 300의 검출에 대한 오류를 보완하기 위한 구조개선이다.The reason for this is a structure for compensating for errors in detection of a single shot detector (SSD) 300 by making it similar to the default region type as an effective receptive field for effective detection in each feature map. It is an improvement.

도 20은 본 발명과 관련하여, DSSD(Deconvolution Single Shot Detector)의 네트워크 구조의 일례를 도시한 것이다.20 shows an example of a network structure of a DSSD (Deconvolution Single Shot Detector) in connection with the present invention.

도 20과 관련하여, 학습을 위한 사전데이터는 VOC Pascal 2007, VOC Pascal 2012, MS COCO, Caltech pedestrian dataset, ImageNet 2012, 2014, MIO-TCD dataset으로 학습에 활용한다.20, the dictionary data for learning is utilized for learning as VOC Pascal 2007, VOC Pascal 2012, MS COCO, Caltech pedestrian dataset, ImageNet 2012, 2014, MIO-TCD dataset.

또한, 도 21은 본 발명과 관련하여, 전체 시스템에서 SSD, DSSD 구조에서의 개선시킨 구조의 일례를 도시한 것이다.In addition, FIG. 21 shows an example of an improved structure in the SSD and DSSD structures in the entire system in relation to the present invention.

도 21을 참조하면, 점선 블록으로 구획한 영역에 본 발명의 개선된 구조가 적용된다.Referring to FIG. 21, the improved structure of the present invention is applied to an area partitioned by a dotted block.

검출된 차량의 특징 추출Extract feature of detected vehicle

다음으로, 검출된 차량의 특징을 추출하는 방법을 설명한다.Next, a method of extracting the characteristics of the detected vehicle will be described.

SSD(Single Shot Detector) 구조내의 개선된 방법을 이용하여 영상내에 존재하는 차량을 검출하였고, 해당 영역으로 정상적인 주정차 차량과 비정상적인 주정차를 대상으로 특징을 분석 및 추출한다.Vehicles existing in the image were detected using the improved method in the structure of SSD (Single Shot Detector), and the features are analyzed and extracted for normal parking and abnormal parking in the area.

특징 추출은 검출된 영역(region)내에 종횡비(aspect ratio) 크기에 따라 아래쪽 좌-우측 좌표의 중간좌표를 계산한다. 이때 중간좌표는 검출결과에 따라 해당 위치 좌표내의 차량 번호판이 존재 한다는 가정과 카메라 위치에 따라 달리 육안으로 식별이 될 수 있으나 대부분의 경우는 카메라 위치가 Top View 형태로 갖는다는 가정도 포함하고 있다. 차량 형태학적 요소에서 번호판 위치가 아래 부분에 위치되어 있으므로 아래쪽의 계산된 중간 좌표지점을 활용한다.Feature extraction calculates the middle coordinates of the lower left-right coordinates according to the aspect ratio size in the detected region. At this time, the intermediate coordinates can be identified with the naked eye differently depending on the assumption that the vehicle license plate exists in the corresponding position coordinates according to the detection result and the assumption that the camera position is in the top view in most cases. Since the license plate position is located in the lower part of the morphological element of the vehicle, the calculated intermediate coordinate point below is used.

검출영역에서 중간좌표지점으로 하나의 점(Point)에 대한 좌표설정은 검출 영역의 가장자리 위치(좌표)인 4개의 좌표의 값으로부터 아래 두 개의 점에 대한 좌표로 계산한다.The coordinate setting for one point as the intermediate coordinate point in the detection area is calculated from the values of the four coordinates that are the edge positions (coordinates) of the detection area as the coordinates for the two points below.

또한, 4개의 좌표로 인한 검출영역은 하나의 단일 객체로 저장하고 해당좌표로 인한 재할당이 가능한 값으로 설정하였다. 즉 4개의 좌표값 위치는 검출단계에서 결정된다.In addition, the detection area due to the four coordinates was stored as one single object and set to a value that can be reassigned due to the corresponding coordinate. That is, four coordinate value positions are determined in the detection step.

객체 검출결과로부터 아래쪽 두개의 좌표에 대한 중간 좌표 계산은 다음과 같고, 해당 좌표는 해당 객체를 식별하는 고유값 및 이동 성분을 분석하기 위한 점(Point)로 활용되며 이를 궤적(Trajectory )정보로 활용되는 값이다. Calculation of the middle coordinates for the bottom two coordinates from the object detection results is as follows, and the coordinates are used as points to analyze the eigenvalues and moving components that identify the object and use them as trajectory information. Is the value.

검출된 영역과 종횡비에 대한 계산은 다음의 수학식 6과 같다.The calculation of the detected area and the aspect ratio is as shown in Equation 6 below.

수학식 6Equation 6

Figure 112019124424326-pat00014
Figure 112019124424326-pat00014

상기 수학식 6 에서

Figure 112019124424326-pat00015
Figure 112019124424326-pat00016
은 0.3이고
Figure 112019124424326-pat00017
Figure 112019124424326-pat00018
는 0.95이며,
Figure 112019124424326-pat00019
Figure 112019124424326-pat00020
은 multi-feature maps의 개수를 나타낸다. In Equation 6 above
Figure 112019124424326-pat00015
Figure 112019124424326-pat00016
Is 0.3
Figure 112019124424326-pat00017
Figure 112019124424326-pat00018
Is 0.95,
Figure 112019124424326-pat00019
Figure 112019124424326-pat00020
Indicates the number of multi-feature maps.

이때 각 feature map에서 default box의 크기를 구하고 종횡비(aspect ratio)를 계산한다.At this time, the size of the default box is obtained from each feature map, and the aspect ratio is calculated.

또한, 수학식 6에서

Figure 112019124424326-pat00021
Figure 112019124424326-pat00022
는 검출 영역 개수를 말하며, 이때 종횡비(aspect ratio)가 1일 때 가장 최적의 default box를 말한다.Also, in Equation 6
Figure 112019124424326-pat00021
Figure 112019124424326-pat00022
Is the number of detection areas, and this is the most optimal default box when the aspect ratio is 1.

한편, 해당 default box에서 한 점에 대한 객체 검출 특징점은 하기의 수학식 7와 같다.On the other hand, the object detection feature point for a point in the corresponding default box is as shown in Equation 7.

수학식 7Equation 7

Figure 112019124424326-pat00023
Figure 112019124424326-pat00023

상기 수학식 7는 영역내의 한 점에 대한 특징점으로 표현된 식이다.Equation 7 is an expression expressed as a feature point for a point in the region.

다음으로, 도 22은 본 발명과 관련하여, 검출결과로부터 객체 궤적을 추출하는 일례를 도시한 것이다.Next, FIG. 22 shows an example of extracting the object trajectory from the detection result in relation to the present invention.

도 22의 (a)는 검출된 객체 영역 결과를 도시한 것이다.22 (a) shows the result of the detected object area.

또한, 도 22의 (b)는 결과로부터 획득된 한 점(point)를 도시한 것이다.In addition, Fig. 22 (b) shows a point obtained from the result.

즉, 해당 객체 궤적정보를 기준하여 주정차 차량의 객체가 번호판 위치정보로 판단하고 특정 물체 혹은 이웃한 차량간의 간격(거리), 특정 고정 물체로 인한 가림(일부 가림) 등의 판단하게 된다.That is, based on the object trajectory information, the object of the main vehicle is judged as the license plate location information, and it is determined, such as the distance (distance) between a specific object or a neighboring vehicle, and the occlusion (partial occlusion) due to a specific fixed object.

이때, 특정 혹은 고정물체로 인한 가림의 판단은 이미 검출된 객체와 다른 영역에 존재하는 객체 검출로 인한 결과에서 판단한다.At this time, the determination of the occlusion due to a specific or fixed object is determined from the result of the detection of an object existing in a different region from the already detected object.

다른 영역(하나의 이미지 내에 존재하는 서로 다른 객체 혹은 동일한 속성을 갖는 객체 모두를 포함) 검출은 크게 두 가지 의미를 갖게 설정하였다.Detection of different areas (including different objects in an image or all objects with the same properties) was set to have two meanings.

첫 번째는 다른 영역에 존재하는 객체 검출 및 분류는 추가 학습데이터로부터 검출 및 인식을 하게 된다. First, object detection and classification in other areas are detected and recognized from additional learning data.

해당 검출 및 분류는 제안된 방법인 DSSD 결과이며 학습데이터 구성이 사람, 특정 물체, 고정물체, 차량의 고유한 데이터가 아닌 비정상적인 형태를 갖는 차량 데이터를 추가적으로 학습모델로 분류 범주에 포함하였다. 이로써 검출된 차량 이외의 다른 물체에 대한 객체를 판단하게 된다.This detection and classification is the result of the proposed method, DSSD, and the data of the vehicle having an abnormal form is not included in the classification category as a learning model in addition to the unique data of a person, a specific object, a fixed object, or a vehicle. Accordingly, an object for an object other than the detected vehicle is determined.

두 번째는 검출된 객체 영역의 크기(boundary box)가 정형화된 차량의 크기 이하에 속할 경우 한 점의 궤적정보추출에 대한 값이 적거나, 한 점으로 계산했을 때 그 값이 작아서 정형화된 차량으로 판단하기에는 부정확한 데이터로 판단하게 하였다.Second, if the size of the detected object area (boundary box) falls within the size of the standardized vehicle, the value for the extraction of trajectory information of one point is small, or when calculated as one point, the value is small, resulting in a standardized vehicle. It was judged to be inaccurate data to judge.

하기의 수학식 8은 두 객체간의 가림을 판단하기 위한 조건으로써 객체 A와 객체 B간의 영역내의 관심 영역 중복된 부분을 인지하도록 설정한 것이다.Equation 8 below is a condition for determining the occlusion between two objects, and is set to recognize the overlapping part of the region of interest in the region between the object A and the object B.

또한, 수학식 8에서 객체 A와 객체 B간의 관심영역의 조건에 대해서도 하기에 서술하였다.In addition, the condition of the region of interest between object A and object B in Equation 8 is also described below.

수학식 8Equation 8

Figure 112019124424326-pat00024
Figure 112019124424326-pat00024

한편, 도 23는 본 발명과 관련하여, 서로 다른 객체결과로부터 차량번호판 가림을 판단하는 일례를 도시한 것이다.On the other hand, Figure 23 shows an example of determining the occlusion of the license plate from the results of different objects in relation to the present invention.

도 23의 (a)는 객체 A 관련, 검출된 차량결과에서 궤적추출결과를 도시한 것이다.23 (a) shows the result of trajectory extraction from the detected vehicle result related to object A.

또한, 도 23의 (b)는 객체 B 관련, 다른 영역의 객체검출 결과를 도시한 것이다.In addition, FIG. 23B shows the result of object detection in other areas related to object B.

또한, 도 24은 본 발명과 관련하여, 궤적 추출결과의 데이터 값이 작은 경우에 차량 번호판 가림을 판단하는 일례를 도시한 것이다.In addition, FIG. 24 shows an example of determining the occlusion of the vehicle license plate when the data value of the trajectory extraction result is small in relation to the present invention.

도 24의 (a)는 (a) 검출된 차량 객체 검출결과를 도시한 것이고, 도 24의 (b)는 검출된 결과로부터 궤적추출 결과를 도시한 것이다.24 (a) shows the result of detecting the detected vehicle object (a), and FIG. 24 (b) shows the result of trajectory extraction from the detected result.

이와 같이, 본 발명에서는, 가림 판단의 정확도를 높이기 위해 검출된 영역에서 번호인식을 수행하고 인식된 결과가 미인식, 부분인식에 해당될 경우 가림으로 판단하게 된다.As described above, in the present invention, in order to increase the accuracy of the occlusion determination, number recognition is performed in the detected area, and if the recognized result is unrecognized or partially recognized, it is determined as occlusion.

또한, 가림으로 판단된 차량의 경우(비정상적인 주정차) 움직임이 발생할 경우 차량 주변의 사람 혹은 주정차를 하여도 사람이 내리지 않은 상태인 경우로 나눠서 판단이 가능하다.In addition, in the case of a vehicle judged to be occluded (abnormal parking), it is possible to divide the vehicle into a case in which a person around the vehicle or a person who has stopped the vehicle has not dropped off.

즉, 비정상적인 주정차의 경우에 해당 차량으로부터 움직임이 발생하였다면 비정상적이 주정차 차량 주변에 사람이 식별될 경우와 비정상적인 주정차 식별하는 단계에서 주변에 사람이 없는 경우로 가정할 수 있다. That is, in the case of abnormal parking, if a movement occurs from the vehicle, it may be assumed that a person is identified in the vicinity of the vehicle in which the abnormal parking is abnormal, and that there is no person in the vicinity in the step of identifying the abnormal parking.

이때, 첫 번째의 경우는 사람으로 판단될 경우 연속적인 영상데이터로부터 번호인식을 수행하게 되고, 두 번째의 경우 비정상적인 위치좌표(이동 궤적성분)의 이동벡터로 인해서 번호인식을 수행한다.At this time, in the first case, if it is judged to be a person, number recognition is performed from continuous image data, and in the second case, number recognition is performed due to the motion vector of the abnormal position coordinate (moving trajectory component).

하기의 수학식 9는 영역 내의 특징점(비정상적인 주정차 차량의 한점)에 대한 이동성분 벡터를 계산한 것이다.Equation 9 below calculates a moving component vector for a feature point (a point of an abnormal parking vehicle) in a region.

수학식 9Equation 9

Figure 112019124424326-pat00025
Figure 112019124424326-pat00025

상기 수학식 9에서 R은 검출된 영역의 좌표성분들이고, P는 특징점의 좌표를 나타낸다. 이때 R은 연속된 영상데이터의 검출된 영역의 좌표들이다.In Equation 9, R is the coordinate components of the detected area, and P represents the coordinates of the feature point. At this time, R is the coordinates of the detected area of the continuous image data.

수학식 9는 연속된 영상데이터에서 검출된 객체로부터 영역좌표에 의한 한 점을 대상으로 이동성분의 좌표로 나타내며 해당 좌표가 영상내에 존재여부를 판단하는 기준이면서 번호인식 단계로 이어지는 데이터 값으로 활용된다.Equation (9) represents the coordinates of the moving component targeting a point by region coordinates from the object detected from the continuous image data, and is used as a data value that leads to the number recognition step as a criterion for determining whether the coordinates exist in the image. .

또한, 수학식 9에서

Figure 112019124424326-pat00026
Figure 112019124424326-pat00027
는 이전 영상에서 검출된 객체와 현재 영상에서 검출된 객체 사이의 거리 추정값이고
Figure 112019124424326-pat00028
Figure 112019124424326-pat00029
는 이전 영상에서 검출된 특징점의 좌표이고
Figure 112019124424326-pat00030
Figure 112019124424326-pat00031
Figure 112019124424326-pat00032
Figure 112019124424326-pat00033
는 현재 영상에서 검출된 특징점의 좌표를 말한다.Also, in Equation 9
Figure 112019124424326-pat00026
Figure 112019124424326-pat00027
Is an estimate of the distance between the object detected in the previous image and the object detected in the current image.
Figure 112019124424326-pat00028
Figure 112019124424326-pat00029
Is the coordinates of the feature points detected in the previous image
Figure 112019124424326-pat00030
Figure 112019124424326-pat00031
Figure 112019124424326-pat00032
Figure 112019124424326-pat00033
Is the coordinates of the feature points detected in the current image.

도 25은 본 발명과 관련하여, 제안하는 비정상적 차량검출 및 분류 시스템 모듈의 순서도를 도시한 것이다.25 is a flowchart illustrating a proposed abnormal vehicle detection and classification system module in connection with the present invention.

도 25을 참조하면, 제어부(700)는 차량의 단일 지역 특징(single region feature)를 추출(S100)하게 된다.Referring to FIG. 25, the controller 700 extracts a single region feature of the vehicle (S100).

이때, 제어부(700)는 1차원의 궤적을 할당하고(S200), object occlusion과 번호판 내의 차량 번호 인식을 시도한다(S300).At this time, the controller 700 allocates a one-dimensional trajectory (S200), and attempts to recognize the object occlusion and the vehicle number in the license plate (S300).

S300 단계를 기초로, 비정상적 주차된 차량인지 여부를 판단하고(S400), 궤적의 누적 및 탐지하는 영역의 변화 등을 꾀하면서 재식별을 시도할 수 있다(S500).Based on the step S300, it may be determined whether the vehicle is an abnormally parked vehicle (S400), and attempts to re-identify while attempting to accumulate a trajectory and change a region to be detected (S500).

최종적으로, 차량 번호의 인식을 재시도하여 성공할 수 있다(S600).Finally, the vehicle number may be retried to succeed (S600).

실험 결과Experiment result

본 발명은 차량검출과 이를 활용하여 차량번호판 중심에 불특정 물체로 인한 가림판단을 위한 식별방법으로써 차량의 특징중에 고유정보로 활용되는 차량번호판이 물체 혹은 사람으로 인해서 식별이 불가능할 경우 해당 차량검출의 결과를 지속적으로 관리하고 검출된 차량이 이동할 경우 재검출 및 번호판의 식별 및 인식을 통해서 최초 검출대상의 차량으로 판단하게 된다. The present invention is a method of detecting a vehicle and using the same as a discrimination method for determining the occlusion due to an unspecified object in the center of the vehicle license plate. If the detected vehicle moves continuously, it is determined as the vehicle to be detected first through re-detection and identification and recognition of the license plate.

이때, 검출된 차량의 경우 이동성분을 분석하고 해당 검출된 차량으로 재검출을 하게 되며 동일한 차량으로 판단하기 위한 기준으로 이동성분의 벡터 즉, 1차원(1D)의 궤적정보를 계산한다.At this time, in the case of the detected vehicle, the moving component is analyzed and re-detected with the detected vehicle, and the vector of the moving component, that is, the one-dimensional (1D) trajectory information is calculated as a criterion for determining the same vehicle.

도 26는 본 발명과 관련하여, 실험 이미지 및 영상 내의 특징을 정리하여 도시한 것이다.26 is a view illustrating the characteristics of experimental images and images in relation to the present invention.

도 26의 (a)는 차량과 방해 객체가 포함된 것이고, 도 26의 (b)는 차량, 방해 객체, 사람이 포함된 것이며, 도 26의 (c)는 차량과 사람이 포함된 것이다.26 (a) includes a vehicle and an obstacle object, FIG. 26 (b) includes a vehicle, an obstacle object, and a person, and FIG. 26 (c) includes a vehicle and a person.

또한, 도 26의 (d)는 차량과 방해 객체가 포함된 것이고, 도 26의 (e)는 복수의 차량과 방해 객체가 포함된 것이며, 도 26의 (f)는 차량만 포함된 것이다.In addition, FIG. 26 (d) includes a vehicle and an obstruction object, FIG. 26 (e) includes a plurality of vehicles and an obstruction object, and FIG. 26 (f) includes only a vehicle.

도 27은 도 26에서의 입력 이미지에 대하여, 실험 결과(처리속도) 및 이미지 특징을 정리하여 도시한 것이다.FIG. 27 is a view showing the experimental results (processing speed) and image characteristics of the input image in FIG. 26.

즉, 도 27의 (a) 내지 (f)는 도 26의 (a) 내지 (f)를 각각 입력이미지로 하고, 처리결과를 이미지로 보여주는 것이다.That is, FIGS. 27 (a) to 27 (f) are used as input images in FIGS. 26 (a) to 26 (f), and the processing results are shown as images.

도 27에서 좌측의 이미지가 도 26에서의 입력 이미지이고, 우측의 이미지가 처리 결과 이미지가 된다.In FIG. 27, the image on the left is the input image in FIG. 26, and the image on the right is the result of processing.

도 27의 (a)를 참조하면, 특징 및 검출처리속도와 관련하여, 다음과 같은 결과를 얻을 수 있었다.Referring to FIG. 27 (a), the following results were obtained with respect to the feature and the detection processing speed.

Image size: Full HD / Image format: JPEG / Processing speed: 18.18 fps(1/1000초) / Image feature: Vehicle, ObjectImage size: Full HD / Image format: JPEG / Processing speed: 18.18 fps (1/1000 sec) / Image feature: Vehicle, Object

도 27의 (b)를 참조하면, 특징 및 검출처리속도와 관련하여, 다음과 같은 결과를 얻을 수 있었다.Referring to (b) of FIG. 27, the following results were obtained with respect to the feature and the detection processing speed.

Image size: Full HD / Image format: JPEG / Processing speed: 18.18 fps(1/1000초) / Image feature: Vehicle, Object, HumanImage size: Full HD / Image format: JPEG / Processing speed: 18.18 fps (1/1000 sec) / Image feature: Vehicle, Object, Human

도 27의 (c)를 참조하면, 특징 및 검출처리속도와 관련하여, 다음과 같은 결과를 얻을 수 있었다.Referring to FIG. 27 (c), the following results were obtained with respect to the feature and the detection processing speed.

Image size: Full HD / Image format: JPEG / Processing speed: 14.08 fps(1/1000초) / Image feature: Vehicle, HumanImage size: Full HD / Image format: JPEG / Processing speed: 14.08 fps (1/1000 sec) / Image feature: Vehicle, Human

도 27의 (d)를 참조하면, 특징 및 검출처리속도와 관련하여, 다음과 같은 결과를 얻을 수 있었다.Referring to FIG. 27 (d), the following results were obtained with respect to the feature and the detection processing speed.

Image size: Full HD / Image format: JPEG / Processing speed: 26.32 fps(1/1000초) / Image feature: Vehicle, ObjectImage size: Full HD / Image format: JPEG / Processing speed: 26.32 fps (1/1000 sec) / Image feature: Vehicle, Object

도 27의 (e)를 참조하면, 특징 및 검출처리속도와 관련하여, 다음과 같은 결과를 얻을 수 있었다.Referring to FIG. 27 (e), the following results were obtained with respect to the feature and the detection processing speed.

Image size: Full HD / Image format: JPEG / Processing speed: 43.48 fps(1/1000초) / Image feature: Vehicle's, ObjectImage size: Full HD / Image format: JPEG / Processing speed: 43.48 fps (1/1000 sec) / Image feature: Vehicle's, Object

도 27의 (f)를 참조하면, 특징 및 검출처리속도와 관련하여, 다음과 같은 결과를 얻을 수 있었다.Referring to FIG. 27 (f), the following results were obtained with respect to the feature and the detection processing speed.

Image size: Full HD / Image format: JPEG / Processing speed: 41.67 fps(1/1000초) / Image feature: VehicleImage size: Full HD / Image format: JPEG / Processing speed: 41.67 fps (1/1000 sec) / Image feature: Vehicle

기존의 불법주정차 차량에 대한 단속을 할 경우 주변의 환경이나 고정물체 혹은 사람의 행위에 따라 단속을 회피하거나 번호판 주위에 일부 혹은 전체를 가릴 수 있는 도구를 활용해서 단속이 피하고 있다.In the case of crackdown on existing illegally parked vehicles, crackdown is avoided by using tools that can avoid crackdown or cover some or all around the license plate depending on the surrounding environment, fixed objects, or human actions.

또한, 주정차 단속에서 번호판 식별이 가능한 차량을 단속대상으로 활용되고 있으며 실제 도로환경에서는 주정차 단속 회피 대상의 차량들로 인해서 운영에 어려움을 겪고 있다.In addition, a vehicle that can identify a license plate is used as a target for crackdowns, and in a real road environment, it is difficult to operate due to vehicles subject to avoidance.

이러한 문제점을 전술한 본 발명의 방법 및 시스템을 통해 극복될 수 있다.These problems can be overcome through the methods and systems of the present invention described above.

즉, 제안하는 본 시스템은 효과적으로 차량검출 및 분류 방법에 적용되는 SSD의 문제점을 해결하는 DSSD 방법을 활용하고 처리속도보다는 분류의 정확도를 향상시킬 수 있도록 레이어(layer) 층의 구성을 기존 네트워크 구조에서 특정 레이어 구조만을 사용할 수 있도록 적용하였다. That is, the proposed system utilizes the DSSD method that effectively solves the problems of SSDs applied to vehicle detection and classification methods and configures the layer layer structure in the existing network structure to improve the accuracy of classification rather than processing speed. It was applied so that only a specific layer structure could be used.

또한, 단속대상의 회피 차량이 움직임을 갖거나 가림현상에 사용된 물체 혹은 가림막 같은 경우가 제거될 때 회피 대상의 차량을 재검출(re-identification) 및 번호판 인식을 통한 단속이 가능하도록 적용하였다. 이로써 가림 및 회피 대상차량을 분류할 수 있고 이동 성분을 분석함으로써 검출에 대한 인식률을 개선시킬 수 있는 방법을 제시하였다.In addition, when the avoidance vehicle of an object to be controlled has a movement or when an object or a mask used in a screening phenomenon is removed, the vehicle of the object to be avoided has been applied to enable control through re-identification and license plate recognition. As a result, a method to classify the vehicles to be covered and avoided and to improve the recognition rate for detection by analyzing moving components was proposed.

한편, 상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. Meanwhile, the above-described embodiments of the present invention may be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.For implementation by hardware, the method according to embodiments of the present invention includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs) , Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code can be stored in a memory unit and driven by a processor. The memory unit is located inside or outside the processor, and can exchange data with the processor by various known means.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The detailed description of preferred embodiments of the present invention disclosed as described above has been provided to enable those skilled in the art to implement and practice the present invention. Although described above with reference to preferred embodiments of the present invention, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art can use each of the configurations described in the above-described embodiments in a manner of combining with each other. Accordingly, the present invention is not intended to be limited to the embodiments presented herein, but to give the broadest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential features of the present invention. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments presented herein, but is intended to give the broadest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation relationship in the claims can be combined to form an embodiment or included as a new claim by amendment after filing.

Claims (11)

카메라를 통해 영상을 획득하는 제 1 단계;
영상 내에 미리 지정된 기준선을 기초로, 영상의 전체 영역을 근거리 영역과 원거리 영역으로 구분하는 제 2 단계;
상기 영상을 미리 설정된 복수의 블록 단위로 구획하는 제 3 단계;
컨볼루션 신경망(Convolutional Neural Network, CNN)의 복수의 컨볼루션 레이어(Convolutio layer) 중 적어도 하나를 이용하여, 상기 복수의 블록 단위를 적용한 특징 맵(feature map)을 도출하는 제 4 단계;
상기 특징 맵을 이용하여 상기 영상에 포함된 객체가 적어도 하나의 차량인지 여부를 판단하는 제 5 단계;
상기 객체가 적어도 하나의 차량인 경우, 상기 적어도 하나의 차량의 번호판 식별 및 상기 번호판 내의 차량번호 식별이 가능한지 여부를 판단하는 제 6 단계;
상기 적어도 하나의 차량 중 상기 번호판의 식별 및 상기 차량번호의 식별 중 적어도 하나가 불가능한 제 1 차량이 존재하는 경우, 상기 제 1 차량에 대한 모니터링을 진행하는 제 7 단계; 및
상기 모니터링 작업 중 상기 제 1 차량의 움직임이 발생되는 경우, 상기 제 1 차량의 번호판 식별 및 상기 번호판 내의 차량번호 식별을 재시도하는 제 8 단계;를 포함하되,
상기 객체가 상기 원거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어를 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하고,
상기 객체가 상기 근거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어 중 미리 지정된 개수의 레이어만을 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하며,

상기 제 2 단계에서 상기 객체가 상기 원거리 영역에 포함된 경우,
상기 제 2 단계 및 상기 제 3 단계 사이에는, 상기 원거리 영역의 스케일을 변환하는 제 2-1 단계;를 더 포함하고,

상기 제 5 단계는,
상기 객체와 관련된 특징 맵을 상기 복수의 블록 단위 별로 비교하는 제 5-1 단계;
상기 복수의 블록 단위 중 상기 객체가 가장 빈번하게 존재하는 맥스 폴링(max pooing) 영역을 결정하는 제 5-2 단계; 및
상기 맥스 폴링 영역을 기초로 상기 차량의 특징 값을 이용하여 상기 객체가 차량인지 여부를 판단하는 제 5-3 단계;를 포함하며,

상기 제 5-3 단계는,
상기 맥스 폴링 영역을 기초로 ROI(region of interest)를 설정하는 5-4 단계;
상기 설정한 ROI를 기초로 경계 박스(bounding box)를 설정하는 제 5-5 단계; 및
상기 경계 박스 내의 객체의 특징 값과 상기 차량의 특징 값을 비교하여, 상기 객체가 상기 차량인지 여부를 판단하는 제 5-6 단계;를 포함하고,

상기 제 5 단계는, DSSD(Deconvolutional Single Shot Detector) 방법에 의해 수행되고,
상기 DSSD 방법은,
디콘볼루션 레이어(deconvolution layer)를 추가로 이용하는 SSD(Single Shot Detector) 방법으로, 식별 속도 향상을 위해 피드포워드 커넥션(feed forward connection)을 이용하며,
상기 SSD 방법을 통해 검출된 객체 영역(bounding region)의 좌표(coordinate) 및 클래스 점수(class score)를 얻는 과정에서, 3x3 convolution 만을 수행하고,

상기 제 5 단계는,
상기 DSSD 방법을 통해 검출된 상기 적어도 하나의 차량의 영역(region) 내의 종횡비(aspect ratio) 크기에 따라 도출되는 좌표(coordinate)를 이용하여 수행되며,

상기 카메라의 배치 정보 및 미리 획득한 상기 적어도 하나의 차량의 번호판의 위치 정보를 기초로, 상기 좌표를 도출하고,

상기 도출되는 좌표를 이용하여 궤적 정보를 생성하고,
상기 제 6 단계에서는,
상기 생성한 궤적 정보를 이용하여 상기 적어도 하나의 차량의 번호판 식별 및 상기 번호판 내의 차량번호 식별이 가능한지 여부를 판단하는 것을 특징으로 하는 차량 식별 방법.
A first step of acquiring an image through a camera;
A second step of dividing the entire region of the image into a short-distance region and a long-distance region based on a predetermined reference line in the image;
A third step of dividing the image into a plurality of preset block units;
A fourth step of deriving a feature map applying the plurality of block units using at least one of a plurality of convolutional layers of a convolutional neural network (CNN);
A fifth step of determining whether an object included in the image is at least one vehicle using the feature map;
A sixth step of determining whether a license plate identification of the at least one vehicle and identification of a vehicle number in the license plate are possible when the object is at least one vehicle;
A seventh step of monitoring the first vehicle when there is a first vehicle in which at least one of identification of the license plate and identification of the vehicle number is unavailable among the at least one vehicle; And
Including the eighth step of retrying the identification of the license plate of the first vehicle and the identification of the vehicle number in the license plate when the movement of the first vehicle occurs during the monitoring operation;
When the object is included in the remote area, a feature map for the area including the object is derived using the plurality of convolutional layers,
When the object is included in the short-range region, a feature map for the region including the object is derived by using only a predetermined number of layers among the plurality of convolution layers,

When the object is included in the remote area in the second step,
Between the second step and the third step, the 2-1 step of converting the scale of the remote area; further comprising,

The fifth step,
Step 5-1 of comparing the feature map associated with the object for each of the plurality of block units;
A 5-2 step of determining a max pooing area in which the object exists most frequently among the plurality of block units; And
And a 5-3 step of determining whether the object is a vehicle using the feature value of the vehicle based on the max polling area.

The 5-3 step,
Step 5-4 of setting a region of interest (ROI) based on the max polling region;
Step 5-5 of setting a bounding box based on the set ROI; And
And a step 5-6 of comparing the feature value of the object in the bounding box with the feature value of the vehicle to determine whether the object is the vehicle.

The fifth step is performed by a DSSD (Deconvolutional Single Shot Detector) method,
The DSSD method,
As a single shot detector (SSD) method that additionally uses a deconvolution layer, a feed forward connection is used to improve identification speed.
In the process of obtaining the coordinates and class score of the object region (bounding region) detected through the SSD method, only 3x3 convolution is performed,

The fifth step,
It is performed using coordinates derived according to an aspect ratio size in a region of the at least one vehicle detected through the DSSD method,

Based on the arrangement information of the camera and the position information of the license plate of the at least one vehicle obtained in advance, the coordinates are derived,

Trajectory information is generated using the derived coordinates,
In the sixth step,
Vehicle identification method characterized in that it is determined whether the identification of the license plate of the at least one vehicle and identification of the vehicle number in the license plate is possible using the generated trajectory information.
제 1항에 있어서,
상기 제 7 단계에서,
상기 제 1 차량은, 사람 및 상기 적어도 하나의 차량을 제외한 객체 중 적어도 하나에 의해 상기 번호판의 식별 및 상기 차량번호의 식별 중 적어도 하나가 불가능한 차량인 것을 특징으로 하는 차량 식별 방법.
According to claim 1,
In the seventh step,
The first vehicle is a vehicle identification method characterized in that at least one of identification of the license plate and identification of the vehicle number by at least one of a person and an object other than the at least one vehicle is impossible.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190158397A 2019-12-02 2019-12-02 vehicle detection method and device KR102095685B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190158397A KR102095685B1 (en) 2019-12-02 2019-12-02 vehicle detection method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190158397A KR102095685B1 (en) 2019-12-02 2019-12-02 vehicle detection method and device

Publications (1)

Publication Number Publication Date
KR102095685B1 true KR102095685B1 (en) 2020-04-01

Family

ID=70276278

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190158397A KR102095685B1 (en) 2019-12-02 2019-12-02 vehicle detection method and device

Country Status (1)

Country Link
KR (1) KR102095685B1 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597992A (en) * 2020-05-15 2020-08-28 哈尔滨工业大学 Scene object abnormity identification method based on video monitoring
CN111783724A (en) * 2020-07-14 2020-10-16 上海依图网络科技有限公司 Target object identification method and device
CN111784747A (en) * 2020-08-13 2020-10-16 上海高重信息科技有限公司 Vehicle multi-target tracking system and method based on key point detection and correction
CN111814604A (en) * 2020-06-23 2020-10-23 浙江理工大学 Pedestrian tracking method based on twin neural network
CN113496201A (en) * 2020-04-06 2021-10-12 丰田自动车株式会社 Object state recognition device, object state recognition method, object state recognition computer program, and control device
KR20210153421A (en) * 2020-06-10 2021-12-17 주식회사 엘지유플러스 Parking management system and appartus using image recognition
KR20210155142A (en) * 2020-06-15 2021-12-22 주식회사 베이리스 Object detection apparatus based on deep learning and method therefor
CN114446045A (en) * 2021-09-14 2022-05-06 武汉长江通信智联技术有限公司 Method for studying and judging illegal transportation behaviors of vehicles on highway in epidemic situation period
CN114547249A (en) * 2022-02-24 2022-05-27 济南融瓴科技发展有限公司 Vehicle retrieval method based on natural language and visual features
CN115147491A (en) * 2022-09-02 2022-10-04 山东西曼克技术有限公司 Method for estimating pose information of transport target of AGV
CN115346206A (en) * 2022-10-20 2022-11-15 松立控股集团股份有限公司 License plate detection method based on improved super-resolution deep convolution feature recognition
KR102506222B1 (en) 2022-06-30 2023-03-08 호서대학교 산학협력단 Method and system for collection of vision data, learning ,distribution and inference
CN116071707A (en) * 2023-02-27 2023-05-05 南京航空航天大学 Airport special vehicle identification method and system
CN114547249B (en) * 2022-02-24 2024-06-07 济南融瓴科技发展有限公司 Vehicle retrieval method based on natural language and visual features

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101565978B1 (en) 2015-03-18 2015-11-05 (주)테라테코 Method of identifying vehicle number and extracting photographic evidences using long distance captured image
KR101970442B1 (en) * 2018-12-04 2019-04-19 주식회사 넥스파시스템 Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection
KR102011624B1 (en) * 2019-03-29 2019-08-16 주식회사 넥스파시스템 Improved vehicle detection method abnormal illegal parking vehicle system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101565978B1 (en) 2015-03-18 2015-11-05 (주)테라테코 Method of identifying vehicle number and extracting photographic evidences using long distance captured image
KR101970442B1 (en) * 2018-12-04 2019-04-19 주식회사 넥스파시스템 Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection
KR102011624B1 (en) * 2019-03-29 2019-08-16 주식회사 넥스파시스템 Improved vehicle detection method abnormal illegal parking vehicle system

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113496201B (en) * 2020-04-06 2024-02-09 丰田自动车株式会社 Object state recognition device, object state recognition method, computer-readable recording medium, and control device
CN113496201A (en) * 2020-04-06 2021-10-12 丰田自动车株式会社 Object state recognition device, object state recognition method, object state recognition computer program, and control device
CN111597992B (en) * 2020-05-15 2023-04-18 哈尔滨工业大学 Scene object abnormity identification method based on video monitoring
CN111597992A (en) * 2020-05-15 2020-08-28 哈尔滨工业大学 Scene object abnormity identification method based on video monitoring
KR102414984B1 (en) 2020-06-10 2022-06-29 주식회사 엘지유플러스 Parking management system and appartus using image recognition
KR20210153421A (en) * 2020-06-10 2021-12-17 주식회사 엘지유플러스 Parking management system and appartus using image recognition
KR102429272B1 (en) 2020-06-15 2022-08-04 주식회사 베이리스 Object detection apparatus based on deep learning and method therefor
KR20210155142A (en) * 2020-06-15 2021-12-22 주식회사 베이리스 Object detection apparatus based on deep learning and method therefor
CN111814604A (en) * 2020-06-23 2020-10-23 浙江理工大学 Pedestrian tracking method based on twin neural network
CN111783724A (en) * 2020-07-14 2020-10-16 上海依图网络科技有限公司 Target object identification method and device
CN111783724B (en) * 2020-07-14 2024-03-26 上海依图网络科技有限公司 Target object identification method and device
CN111784747A (en) * 2020-08-13 2020-10-16 上海高重信息科技有限公司 Vehicle multi-target tracking system and method based on key point detection and correction
CN111784747B (en) * 2020-08-13 2024-02-27 青岛高重信息科技有限公司 Multi-target vehicle tracking system and method based on key point detection and correction
CN114446045A (en) * 2021-09-14 2022-05-06 武汉长江通信智联技术有限公司 Method for studying and judging illegal transportation behaviors of vehicles on highway in epidemic situation period
CN114547249A (en) * 2022-02-24 2022-05-27 济南融瓴科技发展有限公司 Vehicle retrieval method based on natural language and visual features
CN114547249B (en) * 2022-02-24 2024-06-07 济南融瓴科技发展有限公司 Vehicle retrieval method based on natural language and visual features
KR102506222B1 (en) 2022-06-30 2023-03-08 호서대학교 산학협력단 Method and system for collection of vision data, learning ,distribution and inference
CN115147491A (en) * 2022-09-02 2022-10-04 山东西曼克技术有限公司 Method for estimating pose information of transport target of AGV
CN115346206A (en) * 2022-10-20 2022-11-15 松立控股集团股份有限公司 License plate detection method based on improved super-resolution deep convolution feature recognition
CN116071707B (en) * 2023-02-27 2023-11-28 南京航空航天大学 Airport special vehicle identification method and system
CN116071707A (en) * 2023-02-27 2023-05-05 南京航空航天大学 Airport special vehicle identification method and system

Similar Documents

Publication Publication Date Title
KR102095685B1 (en) vehicle detection method and device
KR101970442B1 (en) Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection
KR102011624B1 (en) Improved vehicle detection method abnormal illegal parking vehicle system
Gudigar et al. A review on automatic detection and recognition of traffic sign
US10706330B2 (en) Methods and systems for accurately recognizing vehicle license plates
Geronimo et al. Survey of pedestrian detection for advanced driver assistance systems
Boukerche et al. Automated vehicle detection and classification: Models, methods, and techniques
Guo et al. Pedestrian detection for intelligent transportation systems combining AdaBoost algorithm and support vector machine
US9363483B2 (en) Method for available parking distance estimation via vehicle side detection
Loce et al. Computer vision in roadway transportation systems: a survey
KR20180135898A (en) Systems and methods for training object classifiers by machine learning
KR102122859B1 (en) Method for tracking multi target in traffic image-monitoring-system
Takeuchi et al. On-road vehicle tracking using deformable object model and particle filter with integrated likelihoods
JP5257274B2 (en) MOBILE BODY DETECTING DEVICE, MOBILE BODY DETECTING METHOD, AND COMPUTER PROGRAM
US11587327B2 (en) Methods and systems for accurately recognizing vehicle license plates
KR102122850B1 (en) Solution for analysis road and recognition vehicle license plate employing deep-learning
JP2008517353A (en) Traffic sign detection method
KR20200003349A (en) System and method for traffic sign recognition
Hong et al. Fast multi-feature pedestrian detection algorithm based on histogram of oriented gradient using discrete wavelet transform
KR101355201B1 (en) The system and the method for monitoring illegal stopping and parking vehicles based spatio-temporal feature vector-based vehicle recognition
Putra et al. HOG feature extraction and KNN classification for detecting vehicle in the highway
Mammeri et al. North-American speed limit sign detection and recognition for smart cars
Raj et al. Vacant parking lot detection system using random forest classification
Nguwi et al. Number plate recognition in noisy image
Chughtai et al. Traffic Surveillance System: Robust Multiclass Vehicle Detection and Classification

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant