KR102001002B1 - Method and system for recognzing license plate based on deep learning - Google Patents

Method and system for recognzing license plate based on deep learning Download PDF

Info

Publication number
KR102001002B1
KR102001002B1 KR1020180160588A KR20180160588A KR102001002B1 KR 102001002 B1 KR102001002 B1 KR 102001002B1 KR 1020180160588 A KR1020180160588 A KR 1020180160588A KR 20180160588 A KR20180160588 A KR 20180160588A KR 102001002 B1 KR102001002 B1 KR 102001002B1
Authority
KR
South Korea
Prior art keywords
camera
recognized
license plate
character
characters
Prior art date
Application number
KR1020180160588A
Other languages
Korean (ko)
Inventor
정부은
최흥묵
김영규
뉴엔탄하이
Original Assignee
유니셈 (주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유니셈 (주) filed Critical 유니셈 (주)
Priority to KR1020180160588A priority Critical patent/KR102001002B1/en
Priority to PCT/KR2018/016206 priority patent/WO2020122300A1/en
Application granted granted Critical
Publication of KR102001002B1 publication Critical patent/KR102001002B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • G06K9/3258
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06K2209/15
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a number recognition system based on deep learning. According to one embodiment of the present invention, the number recognition system based on deep learning comprises: a communication unit receiving an image photographed by a camera; and a detection unit recognizing one or more objects matching a pre-stored criterion based on the image received from the communication unit.

Description

딥러닝 기반 번호 인식 시스템{METHOD AND SYSTEM FOR RECOGNZING LICENSE PLATE BASED ON DEEP LEARNING}[0001] METHOD AND SYSTEM FOR RECOGNIZING LICENSE PLATE BASED ON DEEP LEARNING [0002]

본 발명은 딥러닝 기반 번호 인식 시스템에 관한 것이다.The present invention relates to a deep learning based number recognition system.

최근 스마트 교통 분야에서 영상인식 기술을 기반으로 실시간으로 교통량을 분석하여 스마트 시티를 위한 도시 계획에 활용하고, 교통 법규 위반 사항 검지, 보안 분야 등에서 연구가 활발히 이루어지고 있다.In recent years, smart traffic has been used in urban planning for smart city by analyzing traffic volume in real time based on image recognition technology, and researches on violation of traffic regulation violation and security have been actively carried out.

기존의 단속 시스템의 경우 위반 사항 검지를 위해 루프 검지기를 사용하고 있으나, 이는 동남아의 교통 환경상 검지기 내에 차량과 모터사이클이 혼재되어 있어 적용이 어려운 상황이다.In the case of the existing intermittent system, the loop detector is used for detecting the violation, but it is difficult to apply it because the vehicle and the motorcycle are mixed in the sensor of the traffic environment in Southeast Asia.

또한, 레이저 및 레이다 센서를 이용한 차량의 속도 검지의 경우 크기가 작은 모터 사이클이 자동차와 혼재되어 있어 제대로 인식이 되지 않는 문제점이 있는 실정이다.Further, in the case of detecting the speed of the vehicle using the laser and the radar sensor, the motorcycle having a small size is mixed with the automobile, so that there is a problem that it is not recognized properly.

나아가, 교통환경이 열악한 신흥국에서는 모터 사이클과 자동차가 뒤엉켜 많은 혼란을 야기하고 있다. 교차로에서는 많은 수의 모터 사이클과 자동차가 동시에 신호위반 등 교통 규 위반이 비일비재하게 일어나고 잇다. 이에 교통사고 발생율도 높은 편이며, 이러한 사고의 75%의 원인이 모터사이클로 인한 사고이다.Furthermore, in emerging countries where traffic conditions are poor, motorcycles and automobiles are intertwined, causing many confusion. At the intersection, a large number of motorcycles and vehicles are simultaneously experiencing traffic violations such as signal violations. Therefore, the incidence of traffic accidents is high, and 75% of these accidents are caused by motorcycles.

특히, 출퇴근 시간 대의 많은 수의 모터 사이클로 인해 교통 경찰의 단속 또한 어려운 상황이며, 이를 효율적으로 단속하기 위한 솔루션이 필요하다.Especially, it is difficult to control the traffic police due to the large number of motorcycles during the commute time, and a solution is required to effectively crack down on them.

본 발명은 LPR(License Plate Recognition)카메라 또는 루프탐지기 없이 CCTV 카메라만 이용한 딥 러닝 기반 번호 인식 시스템을 제공하기 위한 것이다.The present invention provides a deep learning based number recognition system using only a CCTV camera without an LPR (License Plate Recognition) camera or a loop detector.

또한, 본 발명은 후면에 번호판이 배치된 모터 사이클의 번호판을 효과적으로 인식하기 위한 것이다.Further, the present invention is for effectively recognizing a license plate of a motorcycle in which a license plate is disposed on the rear surface.

또한, 본 발명은 회귀분석을 이용하여 번호판의 인식의 정확도를 향상시키기 위한 것이다.The present invention is also intended to improve the accuracy of recognition of license plates using regression analysis.

본 발명의 일 측면에 따르면, 딥 러닝 기반 번호 인식 시스템은 기 결정된 두 지점을 통과하는 오브젝트를 촬영하는 번호 인식 시스템에 있어서, 카메라로부터 기 결정된 제 1 지점과 기 결정된 제 2 지점을 통과하는 오브젝트를 포함하는 제 1 프레임과 제 2 프레임을 수신하고, 수신된 프레임을 기초로 기 저장된 오브젝트와 매칭률이 기 설정된 수치 값 이상인 오브젝트를 적어도 하나 검출하는 검출 유닛; 및 상기 검출 유닛에서 검출된 오브젝트가 기 설정된 기준에 상응하면 수신된 프레임에서 오브젝트가 촬영된 지점과 카메라까지의 거리가 짧은 지점에서 촬영된 프레임을 불러오고, 불러온 프레임을 기초로 오브젝트의 번호판을 인식하는 인식 유닛을 포함할 수 있다.According to one aspect of the present invention, a deep learning based number recognition system is a number recognition system for photographing an object passing through two predetermined points, comprising: an object passing through a predetermined first point and a predetermined second point from a camera A detection unit which receives the first frame and the second frame including the received frame and detects at least one of the object whose matching rate with the previously stored object is equal to or greater than a predetermined numerical value based on the received frame; And when the object detected by the detection unit corresponds to a predetermined reference, a frame photographed at a point where the distance from the point at which the object was photographed and the camera at the received frame is shortened, And a recognizing unit for recognizing the user.

또한, 카메라로부터 수신된 영상을 기초로 n번째 프레임에서 기 저장된 오브젝트와 매칭률이 기 설정된 수치 값 이상인 오브젝트를 적어도 하나 검출하는 검출 유닛; 및 상기 검출 유닛에서 검출된 오브젝트에서 번호판을 인식하고 인식된 오브젝트의 번호판에서 오브젝트의 번호를 인식하는 인식 유닛을 포함할 수 있다(n은 1 이상의 정수). A detection unit that detects at least one object stored in the n-th frame based on the image received from the camera and an object whose matching rate is equal to or greater than a predetermined numerical value; And a recognition unit for recognizing the license plate in the object detected by the detection unit and recognizing the number of the object in the license plate of the recognized object (n is an integer of 1 or more).

또한, n번째 프레임에서 검출된 오브젝트가 적어도 하나 이상 있는 경우에 n번째 프레임에서 검출된 오브젝트가 기 설정된 기준에 상응하는지를 판단하는 처리 유닛을 포함하고, 상기 처리 유닛은, 산출된 오브젝트가 기 설정된 기준에 상응하는 경우 기 설정된 기준에 상응하는 오브젝트를 포함하는 프레임을 수집할 수 있다.And a processing unit for determining whether the object detected in the n-th frame corresponds to a preset reference when at least one object detected in the n-th frame is present, It is possible to collect a frame including an object corresponding to a predetermined criterion.

또한, n번째 프레임에서 검출된 오브젝트가 적어도 하나 이상 있는 경우에 n번째 프레임에서 검출된 오브젝트의 속도를 산출하는 처리 유닛을 포함하고, 상기 처리 유닛은, 산출된 오브젝트의 속도가 기 설정된 속도를 초과하는 경우에 기 설정된 속도를 초과하는 오브젝트를 포함하는 프레임을 수집할 수 있다.And a processing unit for calculating the velocity of the object detected in the n-th frame when there is at least one or more objects detected in the n-th frame, wherein the processing unit determines that the velocity of the calculated object exceeds the predetermined velocity It is possible to collect a frame including an object exceeding a preset speed.

또한, 상기 인식 유닛은, 인식된 번호판의 개수, 번호판의 위치정보, 번호판의 신뢰도 및 번호판의 유형을 포함하는 번호판 정보를 인식하고, 오브젝트의 번호판에서 인식된 문자들과 기 저장된 문자들을 비교하여 각각의 문자들의 매칭률의 평균값이 높은 번호판일수록 높은 신뢰도를 부여하고 부여된 신뢰도가 가장 높은 번호판을 선택할 수 있다.The recognition unit recognizes license plate information including the number of recognized license plates, position information of license plates, reliability of license plates, and type of license plates, compares the recognized characters with pre-stored characters in the license plate of the object, It is possible to select a license plate having a higher reliability and a license plate having the highest reliability.

또한, 상기 인식 유닛은, 선택된 번호판 내의 인식된 문자 영역들 중 적어도 2개 이상의 문자 영역들이 부분적으로 오버랩 되는 경우에 오버랩 되는 상기 적어도 2개 이상의 문자 영역으로부터 인식된 문자들 중 하나의 문자를 결정할 수 있다.The recognition unit may also determine one of the recognized characters from the at least two character regions overlapping when at least two of the recognized character regions in the selected license plate are partially overlapped have.

또한, 결정된 상기 문자는, 결정된 상기 문자 신뢰도 값들 중 가장 큰 값에 대응하는 문자일 수 있다.In addition, the determined character may be a character corresponding to the largest value among the determined character reliability values.

또한, 상기 처리 유닛은, 결정된 상기 문자를 포함하는 문자 영역들의 중심점을 결정하고, 결정된 상기 문자를 포함하는 문자 영역들의 중심점으로부터 거리의 합이 최소가 되는 직선을 중심선으로 결정할 수 있다.Further, the processing unit may determine a center point of character regions including the determined character, and determine a straight line as a center line with a minimum sum of distances from a center point of character regions including the determined character.

또한, 상기 처리 유닛은, 상기 중심선을 기준으로 상단에서 인식된 문자를 1행의 문자로 하고, 상기 중심선을 기준으로 하단에서 인식된 문자를 2행의 문자로 결정할 수 있다.In addition, the processing unit may determine a character recognized at the upper end with respect to the center line as a character of one line, and a character recognized at the lower end with respect to the center line as a character of two lines.

또한, 상기 처리 유닛은, 상기 중심선을 기준으로 상단과 하단에 문자가 인식된 경우에 문자가 2개의 행으로 배열된 제 1 유형의 번호판으로 결정하고, 상기 중심선이 인식된 문자 영역을 통과하는 경우에 문자가 1개의 행으로 배열된 제 2 유형의 번호판으로 결정할 수 있다.In addition, the processing unit determines that the characters are arranged in two rows when the characters are recognized at the upper and lower ends with respect to the center line, and when the center line passes through the recognized character area The second type of plate can be determined by arranging characters in one line.

또한, 상기 처리 유닛은, 결정된 번호판 유형을 기초로 결정된 상기 문자를 포함하는 문자 영역의 중심점의 x좌표를 기준으로 중심점의 x좌표가 작은 순으로 각각의 행에 좌측부터 순서대로 문자를 매칭할 수 있다.In addition, the processing unit can match characters in order from the left to the right in the order of smaller x-coordinate of the center point on the basis of the x-coordinate of the center point of the character area including the character determined based on the determined number plate type have.

또한, 카메라의 촬영 중심에서 지면까지의 거리는 H이고, 카메라의 촬영 중심에서 지면의 교점에서 카메라에 의하여 촬영된 이미지 화면상의 하단 부분까지의 실제 거리는 L1이고, 카메라의 촬영 중심에서 지면의 교점에서 카메라에 의하여 촬영된 이미지 화면상의 상단 부분까지의 실제 거리는 L2이고, 오브젝트가 제 1 지점에 위치할 때에 카메라에 의하여 촬영된 이미지 화면상에 표시되는 지점과 스크린의 중심 사이의 거리가 P이고, 오브젝트가 제 2 지점에 위치할 때에 카메라에 의하여 촬영된 이미지 화면상에 표시되는 지점과 스크린의 중심 사이의 거리가 Q이고, 카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상의 상단 방향과 카메라의 촬영 중심에서 지면으로 향하는 방향에서 이루어지는 각도가 제 1 각도(α)이고, 카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상의 상단 방향과 카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상의 하단 방향에서 이루어지는 각도가 제 2 각도(θ)이고, 카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상에 표시된 지점 A를 향하는 방향과 카메라의 촬영 중심에서 지면과 직교하는 지점을 향하는 방향에서 이루어지는 각도가 제 3 각도(αP)이고, 카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상에 표시된 지점 B를 향하는 방향과 카메라의 촬영 중심에서 지면과 직교하는 지점을 향하는 방향에서 이루어지는 각도가 제 4 각도(αQ)이고, 상기 처리 유닛은, 기 결정된 수학식에 의하여 제 1 지점과 제 2 지점 사이의 실제 거리를 구할 수 있다.The distance from the center of the camera to the ground is H, the actual distance from the center of the camera to the bottom of the image screen taken by the camera at the intersection of the ground and the camera is L 1 , The actual distance to the upper portion on the screen of the image taken by the camera is L 2 , the distance between the point displayed on the image screen photographed by the camera and the center of the screen when the object is located at the first point is P, The distance between the point displayed on the image screen photographed by the camera and the center of the screen when the object is located at the second point is Q and the distance between the upper direction on the image screen photographed by the camera at the photographing center of the camera, The angle formed in the direction from the photographing center to the ground is the first angle alpha, The angle formed in the upper direction on the image plane captured by the camera at the center and in the lower direction on the image screen taken by the camera at the photographing center of the camera is the second angle? The angle formed by the direction toward the point A displayed on the image screen and the direction from the photographing center of the camera to the point orthogonal to the ground is the third angle alpha P , And the angle formed by the direction toward the point B shown in Fig. 4A and the direction toward the point orthogonal to the ground at the photographing center of the camera is the fourth angle? Q , and the processing unit calculates the angle? The actual distance between two points can be obtained.

또한, 상기 처리 유닛은, n번째 프레임에서 검출된 오브젝트가 제 1 지점을 통과한 시간, n번째 프레임에서 검출된 오브젝트가 제 2 지점을 통과한 시간 및 제 1 지점에서 제 2 지점 사이의 거리를 기초로 오브젝트의 제 1 지점과 제 2 지점 사이의 속도를 산출할 수 있다.Further, the processing unit may be configured to calculate the time at which the object detected at the nth frame passes the first point, the time at which the object detected at the nth frame passes through the second point, and the distance between the first point and the second point It is possible to calculate the velocity between the first point and the second point of the object as a basis.

또한, 본 발명의 다른 측면에 따르면, 딥 러닝 기반 번호 인식 방법은 카메라로부터 수신된 영상을 기초로 n번? 프레임에서 기 저장된 오브젝트와 매칭률이 기 설정된 수치 값 이상인 오브젝트를 적어도 하나 검출하는 단계; 검출된 오브젝트에서 번호판을 인식하고 인식된 오브젝트의 번호판에서 오브젝트의 번호를 인식하는 단계; N번째 프레임에서 검출된 오브젝트가 적어도 하나 이상 있는 경우에 n번째 프레임에서 검출된 오브젝트의 속도를 산출하는 단계; 산출된 오브젝트의 속도가 기 설정된 속도를 초과하는 경우에 기 설정된 속도를 초과하는 오브젝트의 번호판을 수집하는 단계; 및 수집된 오브젝트의 번호판에서 인식된 문자들과 기 저장된 문자들을 비교하여 각각의 문자들의 매칭률의 합이 높은 번호판일수록 높은 신뢰도를 부여하고, 신뢰도가 가장 높은 번호판을 선택하는 단계를 포함할 수 있다.According to another aspect of the present invention, a deep learning based number recognition method includes: Detecting at least one object having a matching rate with the object stored in the frame equal to or greater than a predetermined numerical value; Recognizing the license plate in the detected object and recognizing the number of the object in the license plate of the recognized object; Calculating the velocity of the object detected in the nth frame when there is at least one object detected in the Nth frame; Collecting a number plate of an object exceeding a predetermined speed when the speed of the calculated object exceeds a predetermined speed; And comparing the recognized characters with the recognized characters in the license plate of the collected object to select the license plate having the highest reliability and the highest reliability as the license plate having a higher sum of matching rates of the characters .

또한, 상기 신뢰도가 가장 높은 번호판을 선택하는 단계 이후에, 선택된 번호판 내의 인식된 문자 영역들 중 적어도 2개 이상의 문자 영역들이 부분적으로 오버랩 되는 경우에 오버랩 되는 상기 적어도 2개 이상의 문자 영역으로부터 인식된 문자들 중 하나의 문자를 결정하는 단계; 번호판 내의 결정된 문자 영역들의 중심점을 결정하고 결정된 문자 영역들의 중심점으로부터 거리의 합이 최소가 되는 중심선을 결정하는 단계; 결정된 중심선을 사용하여 결정된 번호판 유형에 따라 문자를 매칭하는 단계; 및 결과를 출력하는 단계를 포함할 수 있다.In addition, after the step of selecting the license plate having the highest reliability, the character recognized from the at least two character areas overlapping when at least two character areas of the recognized character areas in the selected license plate are partially overlapped, Determining one of the characters; Determining a center point of the determined character areas in the license plate and determining a center line at which the sum of the distances from the center points of the determined character areas is the minimum; Matching the characters according to the determined license plate type using the determined center line; And outputting the result.

본 발명의 일 실시 예에 의하면, LPR(License Plate Recognition)카메라 또는 루프탐지기 없이 CCTV 카메라만 이용한 딥 러닝 기반 번호 인식 시스템을 제공할 수 있다.According to an embodiment of the present invention, it is possible to provide a deep learning based number recognition system using only a CCTV camera without an LPR (License Plate Recognition) camera or a loop detector.

또한, 본 발명의 일 실시 예에 의하면, 후면에 번호판이 배치된 모터 사이클의 번호판을 효과적으로 인식할 수 있다.Further, according to the embodiment of the present invention, the license plate of the motorcycle having the license plate on the rear surface can be recognized effectively.

또한, 본 발명의 일 실시 예에 의하면, 회귀분석을 이용하여 번호판의 인식의 정확도를 향상시킬 수 있다.Also, according to an embodiment of the present invention, the accuracy of recognition of a license plate can be improved by using regression analysis.

도 1은 본 발명의 일 실시 예에 따른 딥 러닝 기반 다중 객체 검출 시스템의 전체적인 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 딥 러닝 기반 다중 객체 검출 시스템의 세부적인 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 딥 러닝 기반 다중 객체 검출 방법의 순서도이다.
도 4는 도 3의 딥 러닝 기반 다중 객체 검출을 설명하기 위한 예시적인 도면이다.
도 5는 인식한 객체의 속도를 계산하는 방법을 설명하기 위한 순서도이다.
도 6은 도 5의 S20을 설명하기 위한 도면이다.
도 7은 도 5의 S20을 구체적으로 설명하는 순서도이다.
도 8은 번호판 영역 검출 알고리즘을 보여주는 순서도이다.
도 9는 번호판 인식 알고리즘을 보여주는 순서도이다.
도 10은 도 9의 S44의 중심선 알고리즘을 설명하기 위한 도면이다.
1 is an overall block diagram of a deep learning based multi-object detection system in accordance with an embodiment of the present invention.
2 is a detailed block diagram of a deep learning based multi-object detection system according to an embodiment of the present invention.
3 is a flowchart of a deep learning based multi-object detection method according to an embodiment of the present invention.
4 is an exemplary diagram for explaining the deep learning based multi-object detection of FIG.
5 is a flowchart for explaining a method of calculating the velocity of a recognized object.
Fig. 6 is a view for explaining S20 in Fig. 5. Fig.
FIG. 7 is a flowchart specifically illustrating S20 in FIG.
8 is a flow chart showing a license plate area detection algorithm.
9 is a flow chart showing the license plate recognition algorithm.
FIG. 10 is a diagram for explaining the center line algorithm of S44 in FIG. 9; FIG.

본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Other advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.Unless defined otherwise, all terms (including technical or scientific terms) used herein have the same meaning as commonly accepted by the generic art in the prior art to which this invention belongs. Terms defined by generic dictionaries may be interpreted to have the same meaning as in the related art and / or in the text of this application, and may be conceptualized or overly formalized, even if not expressly defined herein I will not.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the terms' comprise 'and / or various forms of use of the verb include, for example,' including, '' including, '' including, '' including, Steps, operations, and / or elements do not preclude the presence or addition of one or more other compositions, components, components, steps, operations, and / or components. The term 'and / or' as used herein refers to each of the listed configurations or various combinations thereof.

한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.It should be noted that the terms such as '~', '~ period', '~ block', 'module', etc. used in the entire specification may mean a unit for processing at least one function or operation. For example, a hardware component, such as a software, FPGA, or ASIC. However, '~ part', '~ period', '~ block', '~ module' are not meant to be limited to software or hardware. Modules may be configured to be addressable storage media and may be configured to play one or more processors. ≪ RTI ID = 0.0 >

따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.Thus, by way of example, the terms 'to', 'to', 'to block', 'to module' refer to components such as software components, object oriented software components, class components and task components Microcode, circuitry, data, databases, data structures, tables, arrays, and the like, as well as components, Variables. The functions provided in the components and in the sections ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ ' , '~', '~', '~', '~', And '~' modules with additional components.

이하, 본 명세서에 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings attached hereto.

도 1은 본 발명의 일 실시 예에 따른 딥 러닝(Deep laearning) 기반 다중 객체 검출 시스템(100)의 전체적인 블록도이다.1 is an overall block diagram of a Deep Learning based multi-object detection system 100 in accordance with an embodiment of the present invention.

도 1을 참조하면, 다중 객체 검출 시스템(100)은 오브젝트(20)를 영상 수집 장치(30)로부터 촬영된 영상을 수신한다. 다중 객체 검출 시스템(10)은 영상 수집 장치(30)와 네트워크를 통해 연결된다.Referring to FIG. 1, a multi-object detection system 100 receives an image of an object 20 taken from an image collection device 30. The multi-object detection system 10 is connected to the image collection device 30 via a network.

본 발명은 딥 러닝 기반 다중 객체 검출 시스템(100)으로 딥 러닝 기반의 다중 클래스 객체 검출 엔진에서 소요되는 연산량과 메모리 량을 경량화하면서도 객체 검출에 대한 성능의 정확도를 높일 수 있다.The deep learning based multi-object detection system 100 according to the present invention can improve the accuracy of performance for object detection while reducing the amount of computation and memory required in the deep-learning-based multi-class object detection engine.

또한, 추정된 객체들의 영역이 생성되면 NMS(non-maximum suppression)기법을 이용하여 서로 겹치는 바운딩 박스 중에서 신뢰도가 낮은 바운딩 박스를 제거함으로써 다중 객체를 검출한다.In addition, when the region of the estimated objects is created, the multi-object is detected by removing the low-reliability bounding box among the bounding boxes overlapping each other using NMS (non-maximum suppression) technique.

도 2는 본 발명의 일 실시 예에 따른 딥 러닝 기반 다중 객체 검출 시스템의 세부적인 블록도이다.2 is a detailed block diagram of a deep learning based multi-object detection system according to an embodiment of the present invention.

도 2를 참조하면, 다중 객체 검출 시스템(100)은 통신 모듈(미도시), 검출 모듈(110), 추적 모듈(120), 분류 모듈(130) 및 분석 모듈(140)을 포함한다.Referring to FIG. 2, the multi-object detection system 100 includes a communication module (not shown), a detection module 110, a tracking module 120, a classification module 130, and an analysis module 140.

먼저, 통신 모듈은 카메라로부터 촬영된 영상을 수신하고 오브젝트를 포함하는 하나 이상의 관심 영역(ROI: region of interest)을 검출한다. 통신 모듈은 스틱셀(stixel) 기법을 이용하여 관심 영역을 추출한다. 여기서, 스틱셀 기법은 도로 위에 직립하여 있는 장애 물체들을 동일한 시차 정보를 갖는다는 가정에서 화소 대신에 일정 폭의 스틱(stick)과 같은 그룹으로 영상을 표현하는 방법을 의미하며, 이것을 그룹핑(grouping)하여 관심 영역을 추출할 수 있다.First, the communication module receives the photographed image from the camera and detects one or more regions of interest (ROI) including the object. The communication module extracts a region of interest using a stixel technique. Here, the stick cell technique refers to a method of representing an image in the same group as a stick of a certain width instead of a pixel on the assumption that obstacle objects standing up on the road have the same parallax information, Thereby extracting a region of interest.

검출 모듈(110)은 통신 모듈에서 수신된 영상을 기초로 기 저장된 기준에 매칭하는 하나 이상의 오브젝트를 인식한다. 예를 들면, 검출 모듈(110)은 딥 러닝 기반 다중 객체 분류 기법을 이용하여 검출된 관심 영역 별로 관심 영역 내에 존재하는 각각의 오브젝트를 인식한다.The detection module 110 recognizes one or more objects matching the previously stored reference based on the image received from the communication module. For example, the detection module 110 recognizes each object existing in the ROI by using the deep learning-based multi-object classification technique.

여기서, 검출 모듈(110)은 딥 러닝 기법을 이용하여 다중 객체의 클래스를 인식하지만, 랜덤 포레스트(Random forest)와 같은 기법을 이용할 수 있다. 여기서, 랜덤 포레스트는 기계 학습(Machine Learning)에서 여러 개의 결정 트리들을 임의적으로 학습하는 방식의 앙상블 방법이다. 랜덤 포레스트 방법은 크게 복수의 결정 트리를 구성하는 학습 단계와 입력 벡터가 들어왔을 때, 분류하거나 예측하는 테스트 단계로 구성되어 있다. 랜덤 포레스트는 검출, 분류, 그리고 회귀 등 다양한 어플리케이션으로 활용되고 있다.Here, the detection module 110 recognizes the classes of multiple objects using a deep learning technique, but can use a technique such as a random forest. Here, the random forest is an ensemble method in which a plurality of decision trees are randomly learned in machine learning. The random forest method consists largely of a learning step for constructing a plurality of decision trees and a test step for classifying or predicting input vectors. Random forests are used in various applications such as detection, classification, and regression.

또한, 딥 러닝은 사물이나 데이터를 군집하거나 분류하는데 사용하는 기술이다. 예를 들면, 컴퓨터는 사진만으로 개와 고양이를 구분하지 못하지만 사람은 아주 쉽게 구분할 수 있다. 이를 위해 데이터를 컴퓨터에 입력하고 비슷한 것끼리 분류하도록 하는 것이 기계 학습 기술이다. 즉, 딥 러닝은 저장된 개 사진과 비슷한 사진이 입력되면, 이를 개 사진이라고 컴퓨터가 분류하도록 한 것이다.Deep learning is also a technique used to cluster or classify objects or data. For example, computers can not distinguish dogs and cats from photographs, but people can easily distinguish between them. To do this, machine learning technology is used to enter data into a computer and classify similar things. In other words, Deep Learning is a sort of a photo similar to a stored dog photo, and the computer classifies it as an open photo.

또한, 검출 모듈(110)은 레이블링 저작 도구를 활용하여 학습용 레이블링 데이터를 생성한다. 본 발명에서는 레이블링 저작 도구를 활용하여 오브젝트의 형식값 및 오브젝트의 위치 좌표에 관한 데이터를 생성한다. 오브젝트의 형식값은 자동차, 밴, 버스, 트럭, 오토바이의 앞면, 오토바이의 뒷면, 오토바이의 옆면 등으로 구분될 수 있다. 여기서, 오토바이의 앞면, 뒷면, 옆면을 별도로 구분하는 이유는 자동차는 앞면과 뒷면에 모두 번호판이 있지만 일반적으로 오토바이는 뒷면에 번호판이 있기 때문이다.In addition, the detection module 110 generates labeling data for learning using a labeling authoring tool. In the present invention, the labeling authoring tool is used to generate data regarding the object's type value and the object's position coordinates. The type value of an object can be divided into a car, a van, a bus, a truck, a front surface of a motorcycle, a rear surface of a motorcycle, and a side surface of a motorcycle. Here, the front, back, and sides of the motorcycle are distinguished by the reason that cars have license plates on both the front and rear sides, but generally motorcycles have license plates on the back.

추적 모듈(120)은 검출 모듈(110)에서 인식한 적어도 하나의 오브젝트와 유사한 오브젝트를 적어도 하나 인식한다. 여기서, 추적 모듈(120)은 검출된 오브젝트의 형식값을 기초로 오브젝트를 추적한다. 추적 모듈(120)은 상관 필터 기반의 추적 기술을 사용하여 검출된 오브젝트를 추정한다. 이러한 추적 기술은 사람과 같이 시간에 따라 형태가 변화하는 객체에 대하여도 강건한 추적 성능을 보여준다.The tracking module 120 recognizes at least one object similar to at least one object recognized by the detection module 110. [ Here, the tracking module 120 tracks the object based on the format value of the detected object. The tracking module 120 estimates the detected object using a correlation-filter based tracking technique. This tracking technique shows robust tracking performance even for objects whose shape changes with time like a human being.

또한, 객체 추적과 데이터 연관에서는 다중 채널 특징 벡터를 재활용함으로써 각각의 모듈에서 특징 벡터를 추출할 때 소요되는 연산 시간을 최소화 할 수 있다. In object tracking and data association, it is possible to minimize the computation time required for extracting feature vectors from each module by reusing multi-channel feature vectors.

추적 모듈(120)에 대한 자세한 내용은 후술하기로 한다.Details of the tracking module 120 will be described later.

분류 모듈(130)은 검출 모듈(110)에서 인식한 적어도 하나의 오브젝트를 검출 오브젝트로 결정하고, 추적 모듈(120)에서 인식한 적어도 하나의 오브젝트와 유사한 오브젝트를 추적 오브젝트로 결정한다.The classification module 130 determines at least one object recognized by the detection module 110 as a detection object and determines an object similar to at least one object recognized by the tracking module 120 as a tracking object.

도 3은 본 발명의 일 실시 예에 따른 딥 러닝 기반 다중 객체 검출 방법의 순서도이고, 도 4는 도 3의 딥 러닝 기반 다중 객체 검출을 설명하기 위한 예시적인 도면이다.FIG. 3 is a flow chart of a deep learning based multi-object detection method according to an exemplary embodiment of the present invention, and FIG. 4 is an exemplary diagram illustrating deep learning based multi-object detection of FIG.

먼저 도 3을 참조하면, 본 발명의 딥 러닝 기반 다중 객체 검출 시스템(10)은 아래와 같은 단계로 구성된다.Referring first to FIG. 3, the deep learning based multi-object detection system 10 of the present invention comprises the following steps.

먼저, 영상수집장치(30)로부터 영상을 수신하고, 시스템 내에서 영상을 인식한다(S100). 이후에, 검출 모듈(110)은 n(n은 2 이상의 정수)번째 프레임에서 기 저장된 오브젝트 형식값과 매칭률이 특정 수치 값 이상인 오브젝트를 적어도 하나 인식한다(S200).First, an image is received from the image collection device 30, and the image is recognized in the system (S100). Thereafter, the detection module 110 recognizes at least one object having a pre-stored object format value and a matching rate equal to or higher than a specific numerical value in n (n is an integer of 2 or more) frame (S200).

또한, 추적 모듈(120)은 n번째 프레임에서 검출 모듈(110)에서 인식한 적어도 하나의 오브젝트와 유사율이 특정 수치 값 이상인 오브젝트를 적어도 하나 인식한다(S300).Also, the tracking module 120 recognizes at least one object recognized by the detection module 110 in the n-th frame and at least one object whose similarity rate is not less than a specific numerical value (S300).

예를 들면, 기 검출된 오브젝트는 바운딩 박스 내의 영상을 이미지의 형태로 분류하여 이전에 검출되었던 이미지의 형태와 비교하여 바운딩 박스 내의 영상의 이미지가 기 검출된 영상의 이미지와 매칭이 되면 동일한 오브젝트로 판단할 수 있다. 본 실시 예에서는 이미지에 관한 객체 정보를 사용하여 객체 정보의 매칭 여부를 확인하였지만, 객체 정보는 영상 내의 다양한 정보를 사용할 수도 있다.For example, the detected object may be classified into an image of a bounding box and an image of a previously detected image. If the image of the bounding box is matched with the image of the detected image, It can be judged. In the present embodiment, whether or not the object information is matched using the object information related to the image is confirmed, but the object information may use various information in the image.

이후에, 분석 모듈(140)은 n번째 프레임에서 검출 모듈(110)에서 인식된 적어도 하나의 오브젝트의 위치 좌표와 추적 모듈(120)에서 인식된 적어도 하나의 오브젝트의 위치 좌표를 비교하여 평균 값으로 적어도 하나의 오브젝트의 위치 좌표를 결정한다(S400).Thereafter, the analysis module 140 compares the position coordinates of at least one object recognized by the detection module 110 with the coordinates of at least one object recognized by the tracking module 120 in the n-th frame, The coordinates of at least one object are determined (S400).

예를 들면, n번째 프레임에서 인식된 오브젝트의 위치 좌표는 오브젝트의 바운딩 박스의 좌측 상단, 우측 상단, 좌측 하단, 우측 하단의 좌표이다.For example, the position coordinates of the object recognized in the n-th frame are the coordinates of the upper left, upper right, lower left, and lower right of the bounding box of the object.

본 발명은 첫번째 프레임에서 인식된 오브젝트의 위치 좌표와 세번째 프레임에서 인식된 오브젝트의 위치 좌표의 평균 값으로 두번째 프레임에서 인식된 해당 오브젝트의 위치 좌표를 구할 수 있다. 이러한 방법을 사용하면 오브젝트 검출에서 놓칠 수 있는 데이터를 오브젝트 추적을 이용하여 보완할 수 있다.The present invention can obtain the positional coordinates of the corresponding object recognized in the second frame by the average value of the position coordinates of the object recognized in the first frame and the position coordinates of the object recognized in the third frame. Using this method, data that can be missed in object detection can be supplemented with object tracking.

본 발명의 일 실시 예에 따르면, 본 발명에서 오브젝트 정보는 오브젝트의 형식 값 및 오브젝트의 위치 좌표 중 적어도 어느 하나에 대한 정보를 포함한다. 오브젝트의 형식 값은 자동차, 오토바이의 앞면, 오토바이의 뒷면 중 적어도 어느 하나에 대한 정보를 포함한다. 여기서, 오토바이의 경우 번호판이 뒷면에만 있기 때문에 교통 분석 및 단속 시스템에 본 기술을 적용하기 위해서 오토바이의 앞면 및 오토바이의 뒷면을 구분하는 것이다.According to an embodiment of the present invention, object information in the present invention includes information on at least one of a format value of an object and a position coordinate of an object. The format value of the object includes information on at least one of the front face of the automobile, the motorcycle, and the rear face of the motorcycle. Here, in the case of motorcycles, since the license plate is only on the back side, it is necessary to distinguish the front side of the motorcycle and the rear side of the motorcycle in order to apply the technology to the traffic analysis and control system.

나아가, 오브젝트의 형식 값은 오토바이의 측면, 헬멧을 착용한 오토바이 운전자, 헬멧을 착용하지 않은 오토바이 운전자, 보행자를 추가로 구분할 수 있다. 현지 교통 사정에 따라 오브젝트의 형식 값은 기계 학습을 통해 어떠한 것이라도 추가할 수 있다.Further, the type value of the object can further distinguish the side of a motorcycle, a motorcycle driver wearing a helmet, a motorcycle driver not wearing a helmet, and a pedestrian. Depending on local traffic conditions, the object's type value can be added to anything through machine learning.

본 발명의 딥 러닝 기반 다중 객체 인식 시스템(100)은 추적 모듈(120)이 n번째 프레임에서 기 검출된 오브젝트의 형식 값과 동일한 오브젝트의 형식 값을 포함하는 오브젝트를 적어도 하나 이상 인식한다. 이후에, n+k번째 프레임에서 기 검출된 오브젝트의 형식 값과 동일한 오브젝트의 형식 값을 포함하는 오브젝트를 추적 객체로 결정하고 이후 프레임에서 결정된 추적 오브젝트를 추적한다(k는 1 이상의 정수).The deep learning based multi-object recognition system 100 of the present invention recognizes at least one object including the format value of the same object as the format value of the object detected in the n-th frame by the tracking module 120. [ Then, an object including the format value of the same object as the format value of the object detected in the (n + k) -th frame is determined as a tracking object, and the tracking object determined in the subsequent frame is traced (k is an integer of 1 or more).

예를 들면, 첫번째 프레임에서 오브젝트의 형식 값이 오토바이의 뒷면인 경우에 3번째 프레임에서 오브젝트의 형식 값이 오토바이의 뒷면인 오브젝트가 있으면, 해당 오브젝트를 추적 오브젝트로 정하고 이후 프레임에서 오브젝트의 형식 값이 오토바이 뒷면인 오브젝트를 연속적으로 추적하는 데이터를 생성한다.For example, if the object's format value in the first frame is the back side of the motorcycle, and if the object's format value in the third frame is the back side of the motorcycle, the object is set as the tracking object, Generates data that tracks the objects behind the motorcycle in succession.

그러나, 도로에는 다수의 차량과 오토바이가 통행을 한다. 그렇기 때문에 다중 객체를 구별하여 추적하는 방법이 필요하다.However, there are many vehicles and motorcycles on the road. Therefore, there is a need for a method to distinguish and track multiple objects.

나아가, 추적 모듈(120)은 n번째 프레임에서 기 검출된 오브젝트의 형식 값과 동일한 오브젝트의 형식 값를 포함하는 객체의 바운딩 박스의 중심점 및 n+k번째 프레임에서 기 검출된 오브젝트의 형식 값과 동일한 오브젝트의 형식 값을 포함하는 오브젝트의 바운딩 박스의 중심점을 연결하여 중심선을 결정한다. 이후에, m번째 프레임에서 기 검출된 오브젝트의 형식 값과 동일한 객체가 복수 개 일 때 m번째 프레임에서 검출된 오브젝트의 바운딩 박스의 중심점에서 중심선까지의 수직 거리가 가장 가까운 오브젝트를 m번째 프레임에서 추적 오브젝트로 결정한다.Further, the tracking module 120 may determine whether the center point of the bounding box of the object including the format value of the object identical to the format value of the object detected in the nth frame and the object value of the object To determine the centerline by connecting the center points of the bounding boxes of the objects containing the type values of < RTI ID = 0.0 > Thereafter, when the object having the same format value as the detected object in the m-th frame is detected, the object closest to the vertical distance from the center point of the bounding box of the object detected in the m-th frame is traced And determines it as an object.

더 나아가, 추적 모듈(120)은 n번째 프레임에서 기 검출된 오브젝트의 형식 값과 동일한 오브젝트의 형식 값을 포함하는 오브젝트의 바운딩 박스의 영역과 n+k번째 프레임에서 기 검출된 오브젝트의 형식 값과 동일한 오브젝트의 형식 값을 포함하는 오브젝트의 바운딩 박스의 영역을 결정한다. 이후에, n번째 프레임에서 결정된 오브젝트의 바운딩 박스의 영역과 n+k번째 프레임에서 결정된 오브젝트의 바운딩 박스의 영역이 기 설정된 비율 이상 중첩되면, n번째 프레임에서 결정된 객체와 n+k번째 프레임에서 결정된 오브젝트를 추적 오브젝트로 결정한다.Furthermore, the tracking module 120 may be configured to detect the area of the bounding box of the object including the format value of the object identical to the format value of the object detected in the nth frame, the format value of the object detected in the (n + Determines the area of the bounding box of the object that contains the format value of the same object. If the area of the bounding box of the object determined in the n-th frame and the area of the bounding box of the object determined in the n + k-th frame are overlapped by a predetermined ratio or more, The object is determined as a trace object.

이러한 방법은 현재까지 입력된 영상만을 참조하여 영상에서 오브젝트의 위치와 움직임 정보를 추정할 수 있어 실시간 성이 요구되는 영상 분석이나 자율주행 분야에서 활용될 수 있다.In this method, the position and motion information of the object can be estimated by referring to only the input image so far, so that it can be utilized in the field of image analysis or autonomous travel requiring real-time property.

도 5는 인식한 객체의 속도를 계산하는 방법을 설명하기 위한 순서도이다.5 is a flowchart for explaining a method of calculating the velocity of a recognized object.

본 발명의 번호판 인식 시스템(200)은 루프 검지기 없이 영상수집장치(30)만을 이용하여, 기 설정된 두 개의 경계선 중 첫번째 경계선을 지나는 객체의 이미지를 저장하고 두번째 경계선을 지나는 객체의 이미지를 저장한다. 이후에, 첫번째 경계선을 지나는 객체의 이미지와 두번째 경계선을 지나는 객체의 이미지를 비교하여 객체의 속도를 산출한다.The license plate recognition system 200 of the present invention stores an image of an object passing through a first boundary of two preset boundaries using an image collecting device 30 only without a loop detector and stores an image of an object passing through a second boundary. Then, the speed of the object is calculated by comparing the image of the object passing through the first boundary line with the image of the object passing through the second boundary line.

산출된 객체의 속도가 속도 위반으로 판단되면 기 저장된 첫번째 경계선을 지나는 객체의 이미지를 기초로 번호판을 인식한다. 여기서, 번호판을 인식하는 기초가 되는 객체의 이미지는 첫번째 경계선을 지나는 객체의 이미지와 두번째 경계선을 지나는 객체의 이미지 중 상대적으로 영상처리에 용이한 객체의 이미지로 결정할 수 있다.If the velocity of the calculated object is judged to be a speed violation, the license plate is recognized based on the image of the object passing through the first stored boundary line. Here, the image of the underlying object for recognizing the license plate can be determined as an image of the object passing through the first boundary and the image of the object passing through the second boundary, which is relatively easy to process the image.

다시 도 2를 참조하면, 딥 러닝 기반 번호 인식 시스템(200)은 통신 유닛(미도시), 검출 유닛(210), 처리 유닛(230) 및 인식 유닛(220)을 포함한다. 통신 유닛(미도시)은 카메라로부터 촬영된 영상을 수신하고, 검출 유닛(210)은 통신 유닛(미도시)에서 수신된 영상을 기초로 기 저장된 기준에 매칭하는 하나 이상의 오브젝트를 검출한다. 처리 유닛(230)은 인식한 오브젝트의 속도를 산출한다. 또한, 인식 유닛(220)은 처리 유닛(230)에 의해 수집된 프레임에서 기 설정된 속도를 초과하는 오브젝트를 인식하고 인식된 오브젝트에서 오브젝트의 번호판을 인식하고, 인식된 오브젝트의 번호판에서 오브젝트의 번호를 인식한다.Referring again to FIG. 2, the deep learning based number recognition system 200 includes a communication unit (not shown), a detection unit 210, a processing unit 230 and a recognition unit 220. A communication unit (not shown) receives the photographed image from the camera, and the detection unit 210 detects one or more objects that match the previously stored reference based on the image received in the communication unit (not shown). The processing unit 230 calculates the speed of the recognized object. In addition, the recognition unit 220 recognizes an object exceeding a predetermined speed in the frame collected by the processing unit 230, recognizes the license plate of the object in the recognized object, .

본 발명의 일 실시 예에 따르면, 검출 유닛(210)은 n번째 프레임에서 기 저장된 오브젝트와 매칭률이 기 설정된 수치 값 이상인 오브젝트를 적어도 하나 검출한다. 이후에, 처리 유닛(230)에서 n번째 프레임에서 인식한 오브젝트가 적어도 하나 이상 있는 경우에 n번째 프레임에서 인식한 오브젝트의 속도를 산출한다.According to an embodiment of the present invention, the detection unit 210 detects at least one object having a match rate with the pre-stored object in the n-th frame or higher than a predetermined numerical value. Thereafter, when the processing unit 230 has at least one object recognized in the n-th frame, the speed of the object recognized in the n-th frame is calculated.

도 5를 참조하면, n번째 프레임에서 인식된 적어도 하나의 오브젝트의 번호판을 인식하고(S10), n번째 프레임에서 적어도 하나의 오브젝트를 인식하고, 이 중 S10에서 인식한 오브젝트가 있을 때 해당 오브젝트의 속도를 산출한다(S20). S20에 대한 구체적인 설명은 도 6 및 도 7을 참조하여 후술한다.Referring to FIG. 5, a license plate of at least one object recognized in the n-th frame is recognized (S10), at least one object is recognized in the n-th frame, and when there is an object recognized in S10, Speed is calculated (S20). A detailed description of S20 will be given later with reference to Fig. 6 and Fig.

도 6은 도 5의 S20을 설명하기 위한 도면이고, 도 7은 도 5의 S20을 구체적으로 설명하는 순서도이다.FIG. 6 is a view for explaining S20 in FIG. 5, and FIG. 7 is a flowchart specifically illustrating S20 in FIG.

카메라 화면(Screen)에서 픽셀 A와 픽셀 B의 실제 거리를 구하고 픽셀 A와 픽셀 B를 포함하는 프레임의 촬영 시간과 비교하면, 카메라만 사용하여 오브젝트의 속도를 구할 수 있다.When the actual distance between the pixel A and the pixel B is obtained on the camera screen (Screen) and the photographing time of the frame including the pixel A and the pixel B is compared, the speed of the object can be obtained using only the camera.

도 6을 참조하면, 카메라의 촬영 중심에서 지면까지의 거리(카메라가 설치된 높이)는 H, 카메라의 촬영 중심에서 지면의 교점에서 카메라에 의하여 촬영된 이미지 화면상의 하단 부분까지의 실제 거리는 L1, 카메라의 촬영 중심에서 지면의 교점에서 카메라에 의하여 촬영된 이미지 화면상의 상단 부분까지의 실제 거리는 L2라고 한다.6, the actual distance from the center of the camera to the ground (the height at which the camera is installed) is H, the actual distance from the camera center to the bottom of the image plane photographed by the camera is L 1 , The actual distance from the camera's center of gravity to the top of the image taken by the camera at the intersection of the ground and the camera is L 2 .

오브젝트가 제 1 지점에 위치할 때에 카메라에 의하여 촬영된 이미지 화면상에 표시되는 지점과 스크린의 중심 사이의 거리가 P이고, 오브젝트가 제 2 지점에 위치할 때에 카메라에 의하여 촬영된 이미지 화면상에 표시되는 지점과 스크린의 중심 사이의 거리가 Q이다.When the distance between the point displayed on the image screen photographed by the camera and the center of the screen is P and the object is located at the second point when the object is located at the first point on the image screen photographed by the camera The distance between the displayed point and the center of the screen is Q.

카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상의 상단 방향과 카메라의 촬영 중심에서 지면으로 향하는 방향에서 이루어지는 각도가 제 1 각도(α)이고, 카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상의 상단 방향과 카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상의 하단 방향에서 이루어지는 각도가 제 2 각도(θ)이고, 카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상에 표시된 지점 A를 향하는 방향과 카메라의 촬영 중심에서 지면과 직교하는 지점을 향하는 방향에서 이루어지는 각도가 제 3 각도(αP)이고, 카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상에 표시된 지점 B를 향하는 방향과 카메라의 촬영 중심에서 지면과 직교하는 지점을 향하는 방향에서 이루어지는 각도가 제 4 각도(αQ)이다.The angle formed by the upper direction on the image screen taken by the camera at the photographing center of the camera and the direction from the photographing center of the camera toward the ground is the first angle alpha, The angle formed in the lower direction on the image screen taken by the camera at the upper direction and the photographing center of the camera is the second angle (?), The direction toward the point A displayed on the image screen photographed by the camera at the photographing center of the camera And an angle formed in a direction orthogonal to the ground plane from the photographing center of the camera is a third angle alpha P and a direction from the camera center to a point B displayed on the image plane photographed by the camera, In the direction from the photographing center to a point orthogonal to the ground Degrees is the fourth angle (α Q).

처리 유닛(230)는 제 1 지점과 제 2 지점 사이의 실제 거리를 구한다. 구체적인 과정은 아래와 같다.The processing unit 230 obtains the actual distance between the first point and the second point. The concrete procedure is as follows.

먼저, 각도α를 arctan(L2/H)로 구하고(S21, 수학식 1), 카메라부터 스크린의 아래쪽 부분까지의 거리 D는 H와 L1의 길이를 기초로 피타고라스의 정리를 하면 구할 수 있다(S22, 수학식 2). 각도θ는 각도α에서 arctan(L1/H)로 구하고(S23, 수학식 3), 카메라부터 스크린까지의 거리 C는 D와 cos(θ/2)의 곱으로 구할 수 있다(S24, 수학식 4).First, the distance D from the camera to the lower portion of the screen can be obtained by summing up the Pythagorean based on the length of H and L 1 , by obtaining the angle α as arctan (L 2 / H) (S 21, (S22, equation (2)). Angle θ is can be determined by the product of D and cos (θ / 2) obtained by arctan (L 1 / H) at an angle α (S23, equation (3)), the distance C from the camera to the screen (S24, equation 4).

스크린은 sin(θ/2)와 D를 곱하고 2배를 하면 그 길이를 구할 수 있다(S25, 수학식 5). 그 다음에, θP는 각도α에서 θ/2를 빼고 arctan(P/C)를 더해서 구하고, θQ는 각도α에서 θ/2를 빼고 arctan(Q/C)를 빼서 구한다(S26, 수학식 6).The screen can be obtained by multiplying sin (? / 2) by D and doubling it (S25, Equation 5). Next, θ P is obtained by subtracting θ / 2 from angle α and adding arctan (P / C), θ Q is obtained by subtracting θ / 2 from angle α and subtracting arctan (Q / C) 6).

마지막으로, 픽셀 A의 실제 거리는 L2에서 tan(αP)와 H의 곱을 빼면 구할 수 있고, 픽셀 B의 실제 거리는 L2에서 tan(αQ)와 H의 곱을 빼면 구할 수 있다(S27, 수학식 7). 픽셀 A와 픽셀 B의 실제 거리와 영상의 입력 시간을 비교하면 객체의 속도를 구할 수 있다. Finally, the actual distance of the pixel A can be obtained by subtracting the product of tan (α P ) and H at L 2 , and the actual distance of the pixel B can be obtained by subtracting the product of tan (α Q ) and H at L 2 Equation 7). The speed of the object can be obtained by comparing the actual distance between the pixel A and the pixel B with the input time of the image.

[수학식 1][Equation 1]

Figure 112018125068690-pat00001
Figure 112018125068690-pat00001

[수학식 2]&Quot; (2) "

Figure 112018125068690-pat00002
Figure 112018125068690-pat00002

[수학식 3]&Quot; (3) "

Figure 112018125068690-pat00003
Figure 112018125068690-pat00003

[수학식 4]&Quot; (4) "

Figure 112018125068690-pat00004
Figure 112018125068690-pat00004

[수학식 5]&Quot; (5) "

Figure 112018125068690-pat00005
Figure 112018125068690-pat00005

[수학식 6]&Quot; (6) "

Figure 112018125068690-pat00006
Figure 112018125068690-pat00006

[수학식 7]&Quot; (7) "

Figure 112018125068690-pat00007
Figure 112018125068690-pat00007

처리 유닛(230)은 n번째 프레임에서 검출된 오브젝트가 제 1 지점을 통과한 시간, n번째 프레임에서 검출된 오브젝트가 제 2 지점을 통과한 시간 및 제 1 지점에서 제 2 지점 사이의 거리를 기초로 오브젝트의 제 1 지점과 제 2 지점 사이의 속도를 산출한다.The processing unit 230 determines the time at which the object detected in the nth frame passes through the first point, the time at which the object detected in the nth frame passes through the second point, and the distance between the first point and the second point To calculate the velocity between the first point and the second point of the object.

다시 말하면, 최초의 영상의 프레임에서 픽셀 B를 감지하고, 일정 시간 뒤에 프레임에서 픽셀 A를 감지한다. 해당 객체의 속도를 감지하고 감지된 속도가 위반 속도에 해당하면 최초의 영상의 프레임에서 일정 시간 뒤에 프레임까지의 프레임 중 해당 객체의 번호판을 용이하게 인식할 수 있는 프레임을 선택하여 번호판 인식을 수행한다.In other words, it detects the pixel B in the frame of the first image, and detects the pixel A in the frame after a certain time. And detects a speed of the object. If the detected speed corresponds to the speed of violation, a frame capable of easily recognizing the license plate of a corresponding object among the frames from the frame of the first image to a frame after a predetermined time is selected to perform license plate recognition .

예를 들면, 오토바이의 경우 번호판이 후면에 배치되어 있어 속도를 감지하기 위해서는 먼저 영상을 촬영하고, 이후에 속도 위반이 감지되면 회귀분석을 통해 번호판을 인식하고 위반을 단속해야 한다.For example, in the case of a motorcycle, a license plate is arranged on the rear side, so images are first taken in order to detect the speed, and if a speed violation is detected afterwards, the license plate must be recognized through regression analysis and the violation controlled.

도 8은 번호판 영역 검출 알고리즘을 보여주는 순서도이다.8 is a flow chart showing a license plate area detection algorithm.

본 발명에서 처리 유닛(230)은 산출된 오브젝트의 속도가 기 설정된 속도를 초과하는 경우에 기 설정된 속도를 초과하는 오브젝트를 포함하는 프레임을 수집한다.In the present invention, the processing unit 230 collects a frame including an object exceeding a predetermined speed when the speed of the calculated object exceeds a predetermined speed.

도 8을 참조하면, 영상수집장치(30)로부터 데이터를 입력 받고(S30), Yolo3기반 Localization 네트워크 모델을 이용하여 오브젝트의 영역 내에서 적어도 하나의 번호판을 인식한다(S31, S32). 적어도 하나 이상의 인식된 번호판이 없다면, 다시 오브젝트의 영역 내에서 적어도 하나의 번호판을 인식한다.Referring to FIG. 8, data is received from the image collection device 30 (S30), and at least one license plate is recognized in the area of the object using the Yolo3 based localization network model (S31, S32). If there is not at least one recognized license plate, at least one license plate is recognized again in the area of the object.

적어도 하나 이상의 번호판을 인식하면, 인식된 번호판의 개수, 번호판의 위치 정보, 번호판의 신뢰도, 번호판의 유형을 인식한다(S34). S34 단계에서 결정된 번호판의 신뢰도가 가장 높은 번호판을 선택한다(S35). 여기서, 번호판의 위치는 번호판을 포함하는 바운딩 박스의 좌측 상단, 좌측 하단, 우측 상단 및 우측 하단 중 적어도 하나의 위치를 말하고, 필요에 따라 바운딩 박스의 중심이 번호판의 위치 일 수도 있다. 번호판의 신뢰도는 오브젝트의 영역 내에서 기 저장된 문자와 비교하여 기 저장된 문자의 인식률에 따라 부여한다. 또한, 번호판의 유형은 개별 국가마다 차량의 유형 및 차량의 출고 시기에 따라 번호판의 유형이 다양하다. 예를 들면, 하나의 행으로 되거나 두개의 행으로 배치된 번호판이 있을 수 있다. 번호판의 인식률을 높이기 위해 번호판 영역을 검출하는 단계에서 번호판의 유형을 결정한다.When recognizing at least one license plate, the number of recognized license plates, position information of the license plate, reliability of the license plate, and type of license plate are recognized (S34). The license plate having the highest reliability of the license plate determined in step S34 is selected (S35). Here, the position of the license plate refers to the position of at least one of the left upper end, the lower left end, the right upper end, and the lower right end of the bounding box including the license plate, and if necessary, the center of the bounding box may be the position of the license plate. The reliability of the license plate is given according to the recognition rate of the stored character compared with the pre-stored character in the area of the object. In addition, the type of license plate varies depending on the type of vehicle and the time of release of the vehicle for each country. For example, there may be a license plate placed in one row or in two rows. In order to increase the recognition rate of the license plate, the license plate type is determined in the step of detecting the license plate area.

본 발명의 일 실시 예에 따르면, 인식 유닛(220)은 오브젝트의 번호판에서 인식된 문자들과 기 저장된 문자들을 비교하여 각각의 문자들의 매칭률의 평균값이 높은 번호판일수록 높은 신뢰도를 부여하고 부여된 신뢰도가 가장 높은 번호판을 선택한다.According to an embodiment of the present invention, the recognition unit 220 compares characters recognized in the license plate of the object with pre-stored characters, assigns a higher reliability to a license plate having a higher average value of the matching rates of the respective characters, Select the highest plate number.

도 9는 번호판 인식 알고리즘을 보여주는 순서도이고, 도 10은 도 9의 S44의 중심선 알고리즘을 설명하기 위한 도면이다.FIG. 9 is a flowchart showing a license plate recognition algorithm, and FIG. 10 is a diagram for explaining a center line algorithm in S44 of FIG.

번호판 인식 알고리즘은 선택된 번호판 내의 인식된 문자 영역들 중 적어도 2개 이상의 문자 영역들이 부분적으로 오버랩 되는 경우에 오버랩 되는 상기 적어도 2개 이상의 문자 영역으로부터 인식된 문자들 중 하나의 문자를 결정한다.The license plate recognition algorithm determines one of the recognized characters from the at least two character regions overlapping when at least two of the recognized character regions in the selected license plate are partially overlapped.

결정된 상기 문자는 결정된 상기 문자 신뢰도 값들 중 가장 큰 값에 대응하는 문자이다.The determined character is a character corresponding to the largest value among the determined character reliability values.

도 9를 참조하면, S35단계에서 선택된 번호판의 문자를 인식한다(S410). 인식된 문자를 기초로 오버랩 문자를 제거한다(S43). 오버랩 문자의 기준은 교차 영역이 70% 이상인 것을 말한다. 오버랩 된 문자 중에서 점수가 더 높은 문자를 선택하고, 선택된 문자를 제외한 문자는 제거한다. 여기서, 점수는 문자 인식률이 높을수록 높게 부여한다.Referring to FIG. 9, the character of the license plate selected in step S35 is recognized (S410). The overlap character is removed based on the recognized character (S43). The reference of the overlap character is that the intersection area is 70% or more. Select the character with the higher score among the overlapped characters, and remove the characters excluding the selected character. Here, the score is given higher as the character recognition rate is higher.

이후에, 번호판의 종류 및 중심선 알고리즘을 사용하여 문자를 배열하고(S44), 인식된 문자와 번호판을 매칭하고(S45), 결과를 출력한다(S46).Thereafter, characters are arranged using the type of license plate and the center line algorithm (S44), the recognized letters and license plates are matched (S45), and the result is outputted (S46).

도 10을 참조하면, 중심선 알고리즘은 아래와 같이 수행된다.Referring to FIG. 10, the centerline algorithm is performed as follows.

먼저, 번호판 영역 내에 인식된 문자 바운딩 박스의 센터 포인트를 결정하고, 각각의 문자 바운딩 박스의 센터 포인트로부터 거리의 합이 최소가 되는 라인을 중심선으로 결정한다. 번호판 인식 시 행 구분이 이루어지지 않으므로, 결정된 중심선을 기준으로 행 구분을 정확히 할 수 있으며, 기울어진 번호판에 대해서도 보정을 통해 번호판 영역 내의 문자 인식의 강건성을 높일 수 있다.First, the center point of the recognized character bounding box is determined in the license plate area, and the line with the minimum distance from the center point of each character bounding box is determined as the center line. Since the line classification is not performed when the license plate is recognized, the line classification can be accurately performed on the basis of the determined center line, and the tilting of the license plate in the license plate area can be enhanced by correcting the tilted license plate.

본 발명에 따르면, 처리 유닛(230)은 결정된 상기 문자를 포함하는 문자 영역들의 중심점을 결정하고, 결정된 상기 문자를 포함하는 문자 영역들의 중심점으로부터 거리의 합이 최소가 되는 직선을 중심선으로 결정한다. 상기 중심선을 기준으로 상단에 인식된 문자를 1행의 문자로 하고, 상기 중심선을 기준으로 하단에 인식된 문자를 2행의 문자로 결정한다.According to the present invention, the processing unit 230 determines a center point of character areas including the determined character, and determines a straight line as a center line that minimizes a sum of distances from a center point of character areas including the determined character. A character recognized at the upper end is determined as a character of one line on the basis of the center line, and a character recognized at the lower end of the center line is determined as a character of two lines.

또한, 상기 중심선을 기준으로 상단과 하단에 문자가 인식된 경우에 문자가 2개의 행으로 배열된 제 1 유형의 번호판을 결정하고, 상기 중심선이 인식된 문자 영역을 통과하는 경우에 문자가 1개의 행으로 배열된 제 2 유형의 번호판으로 결정한다. 결정된 번호판의 유형을 기초로 결정된 상기 문자를 포함하는 문자 영역의 중심점의 x좌표를 기준으로 중심점의 x좌표가 작은 순으로 각각의 행에 좌측부터 순서대로 문자를 매칭한다.It is also possible to determine a license plate of a first type in which characters are arranged in two rows when characters are recognized at the upper and lower sides with respect to the center line and when the center line passes through the recognized character area, Lt; RTI ID = 0.0 > 2 < / RTI > The characters are sequentially matched from left to right in each line in order of decreasing x-coordinate of the center point based on the x-coordinate of the center point of the character area including the character determined based on the determined type of license plate.

예를 들면, 번호판 유형이 2개의 행으로 구분된 번호판으로 결정된 경우 결정된 중심선을 기준으로 위쪽에 위치한 바운딩 박스는 1행에 배열된 문자, 결정된 중심선을 기준으로 아래쪽에 위치한 바운딩 박스는 2행에 배열된 문자로 할 수 있다. 이후에, 각각의 문자의 바운딩 박스의 x좌표 값을 기초로 크기가 작은 순으로 문자를 순서대로 배열하여 번호판의 유형에 따라 문자를 매칭할 수 있다.For example, if the license plate type is determined by a plate divided into two rows, the upper bounding box based on the determined center line is a character arranged in one row, the lower bounding box based on the determined center line is arranged in two rows Can be done with the characters. Thereafter, characters can be arranged in order from the smallest size based on the x-coordinate value of the bounding box of each character, and characters can be matched according to the type of plate.

다른 예를 들면, 번호판 유형이 1개의 행으로 구분된 번호판은 중심선이 각각의 바운딩 박스의 센터 포인트를 지나는 중심선이 결정될 것이고, 결정된 중심선을 기초로 각각의 문자의 바운딩 박스의 x좌표 값을 기초로 크기가 작은 순으로 문자를 순서대로 배열할 수 있다.For another example, a license plate in which the license plate type is divided into one row will have its center line passing through the center point of each bounding box determined and based on the determined center line based on the x coordinate value of the bounding box of each character Characters can be arranged in order, in ascending order of size.

또한, 본 발명은 기 결정된 두 지점을 통과하는 오브젝트를 촬영하는 번호 인식 시스템에 있어서, 카메라로부터 기 결정된 제 1 지점과 기 결정된 제 2 지점을 통과하는 오브젝트를 포함하는 제 1 프레임과 제 2 프레임을 수신하고, 수신된 프레임을 기초로 기 저장된 오브젝트와 매칭률이 기 설정된 수치 값 이상인 오브젝트를 적어도 하나 검출하는 검출 유닛 및 상기 검출 유닛에서 검출된 오브젝트가 미리 설정된 기준에 상응하면 수신된 프레임에서 오브젝트가 촬영된 지점과 카메라까지의 거리가 짧은 지점에서 촬영된 프레임을 불러오고, 불러온 프레임을 기초로 오브젝트의 번호판을 인식하는 인식 유닛을 포함할 수 있다. The present invention also provides a number recognition system for photographing an object passing through two predetermined points, comprising: a first frame including an object passing through a predetermined first point and a predetermined second point from a camera; A detection unit for detecting at least one object having a matching rate higher than a preset numerical value and a previously stored object based on the received frame, And a recognition unit for calling a frame photographed at a point where the distance between the photographed point and the camera is short and recognizing the license plate of the object based on the loaded frame.

또한, n번째 프레임에서 검출된 오브젝트가 적어도 하나 이상 있는 경우에 n번째 프레임에서 검출된 오브젝트가 기 설정된 기준에 상응하는지를 판단하는 처리 유닛을 포함하고, 상기 처리 유닛은 산출된 오브젝트가 기 설정된 기준에 상응하는 경우 기 설정된 기준에 상응하는 오브젝트를 포함하는 프레임을 수집할 수 있다.And a processing unit for determining whether the object detected in the n-th frame corresponds to a predetermined criterion when at least one object detected in the n-th frame is present, And may collect frames that include objects corresponding to predetermined criteria if so.

이상에서 설명한 딥 러닝 기반 번호 인식 시스템(200)은 지정한 두 개의 경계선 중 첫번째 경계선을 지나는 오토바이 후면 객체 사진을 찍고 두번째 경계선을 지나는 오토바이의 후면 객체 사진을 기초로 오토바이가 속도 위반으로 판단되면, 이전에 식별 되었던 오토바이 후면 객체 사진을 불러와 보다 선명한 이미지를 가지고 번호판을 인식하는 것이다. 여기서, 이전에 식별된 오토바이 후면 객체 사진을 불러와 번호판을 인식하는 이유는 상대적으로 거리가 가까운 영상에서 얻은 이미지가 선명하여 영상 처리를 하기 용이하기 때문이다.The deep learning based number recognition system 200 described above takes a picture of the back side object of a motorcycle passing through the first boundary line of the two boundaries and, based on the back side object picture of the motorcycle passing through the second boundary line, It will recognize the license plate with a clearer image by calling up the image of the identified rear motorcycle object. Here, the reason for recognizing the license plate by calling the previously identified motorcycle rear object photograph is because the image obtained from the image with a relatively short distance is clear and the image processing is easy to perform.

본 발명의 일 실시 예에 따르면, 카메라로부터 수신된 영상을 기초로 산출된 오브젝트의 속도가 기 설정된 속도를 초과하는 경우에 기 설정된 속도를 초과하는 오브젝트를 식별하여 해당 오브젝트의 번호판 및 번호를 인식한다.According to an embodiment of the present invention, when the speed of an object calculated based on an image received from a camera exceeds a preset speed, an object exceeding a predetermined speed is identified, and license plates and numbers of the object are recognized .

다시 말하면, 본 발명은 카메라로부터 수신된 영상을 기초로 식별된 오브젝트가 기 설정된 조건에 부합하는 경우 식별된 오브젝트의 번호판 및 번호를 인식한다. 예를 들면, 카메라로부터 수신된 영상을 기초로 차선 위반, 신호 위반, 오토바이 헬멧 착용 위반, 오토바이 탑승자 위반, 차선 끼어들기 위반, 교차로 꼬리물기 위반 및 역주행을 포함하는 교통 법규 위반에 해당하는 경우에 교통 법규를 위반하는 오브젝트의 번호판 및 번호를 인식 할 수 있다.In other words, the present invention recognizes the license plate number and the number of the identified object when the object identified based on the image received from the camera meets predetermined conditions. For example, in the event of a violation of traffic regulations, including a violation of a lane, a violation of a signal, a violation of a motorcycle helmet, a violation of a motorcycle rider, a violation of a lane-breaking, a violation of an intersection tail, You can recognize the license plate number and number of objects that violate the law.

기존에 교통 법규 위반을 판별하는 방법은 차선에 별도로 설치된 하드웨어 센서를 설치하여 오브젝트를 인식하여 교통 법규 위반을 판별하는 방식이다. 그러나, 본 발명을 이용하면 차선에 별도로 설치된 하드웨어 센서없이 영상만으로 교통 법규 위반을 판별할 수 있어 보다 효과적인 지능형 교통 시스템을 구축할 수 있다.A method of discriminating a violation of a traffic regulation is a method of recognizing an object and discriminating a traffic regulation violation by installing a hardware sensor installed separately in the lane. However, according to the present invention, it is possible to discriminate a traffic regulation violation with only a video image without a hardware sensor installed separately in a lane, so that a more effective intelligent traffic system can be constructed.

이상의 상세한 설명은 본 발명을 예시하는 것이다. 또한 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내어 설명하는 것이며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당 업계의 기술 또는 지식의 범위 내에서 변경 또는 수정이 가능하다. 저술한 실시 예는 본 발명의 기술적 사상을 구현하기 위한 최선의 상태를 설명하는 것이며, 본 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.The foregoing detailed description is illustrative of the present invention. In addition, the foregoing is intended to illustrate and explain the preferred embodiments of the present invention, and the present invention may be used in various other combinations, modifications, and environments. That is, it is possible to make changes or modifications within the scope of the concept of the invention disclosed in this specification, within the scope of the disclosure, and / or within the skill and knowledge of the art. The embodiments described herein are intended to illustrate the best mode for implementing the technical idea of the present invention and various modifications required for specific applications and uses of the present invention are also possible. Accordingly, the detailed description of the invention is not intended to limit the invention to the disclosed embodiments. It is also to be understood that the appended claims are intended to cover such other embodiments.

10 : 다중 객체 검출 및 번호판 인식 시스템
20 : 객체
30 : 영상 수집 장치
100 : 다중 객체 검출 시스템
110 : 검출 모듈
120 : 추적 모듈
130 : 분류 모듈
140 : 분석 모듈
200 : 번호 인식 시스템
210 : 검출 유닛
220 : 인식 유닛
230 : 처리 유닛
10: Multiple object detection and license plate recognition system
20: Object
30: Image collecting device
100: Multiple object detection system
110: Detection module
120: Trace module
130: Classification module
140: Analysis module
200: Number recognition system
210:
220: recognition unit
230: Processing unit

Claims (15)

기 결정된 두 지점을 통과하는 오브젝트를 촬영하는 번호 인식 시스템에 있어서,
카메라로부터 기 결정된 제 1 지점과 기 결정된 제 2 지점을 통과하는 오브젝트를 포함하는 제 1 프레임과 제 2 프레임을 수신하고, 수신된 프레임을 기초로 기 저장된 오브젝트와 매칭률이 기 설정된 수치 값 이상인 오브젝트를 적어도 하나 검출하는 검출 유닛;
상기 검출 유닛에서 검출된 오브젝트가 기 설정된 기준에 상응하면 수신된 프레임에서 오브젝트가 촬영된 지점과 카메라까지의 거리가 짧은 지점에서 촬영된 프레임을 불러오고, 불러온 프레임을 기초로 오브젝트의 번호판을 인식하는 인식 유닛; 및
인식된 상기 번호판에서 문자의 행을 구분하고, 상기 번호판의 유형을 결정하는 처리 유닛;을 포함하고,
상기 인식 유닛은,
상기 검출 유닛에서 검출된 오브젝트에서 번호판을 인식하고 인식된 오브젝트의 번호판에서 오브젝트의 번호를 인식하고, 인식된 번호판의 개수, 번호판의 위치정보, 번호판의 신뢰도 및 번호판의 유형을 포함하는 번호판 정보를 인식하고, 오브젝트의 번호판에서 인식된 문자들과 기 저장된 문자들을 비교하여 각각의 문자들의 매칭률의 평균값이 높은 번호판일수록 높은 신뢰도를 부여하고 부여된 신뢰도가 가장 높은 번호판을 선택하며, 선택된 번호판 내의 인식된 문자 영역들 중 적어도 2개 이상의 문자 영역들이 부분적으로 오버랩 되는 경우에 오버랩 되는 상기 적어도 2개 이상의 문자 영역으로부터 인식된 문자들 중 하나의 문자를 결정하고,
상기 처리 유닛은,
결정된 상기 문자를 포함하는 문자 영역들의 중심점을 결정하고, 결정된 상기 문자를 포함하는 문자 영역들의 중심점으로부터 거리의 합이 최소가 되는 직선을 중심선으로 결정하고, 상기 중심선을 기준으로 문자의 행을 구분하고,
상기 중심선을 기준으로 상단에서 인식된 문자를 1행의 문자로 하고, 상기 중심선을 기준으로 하단에서 인식된 문자를 2행의 문자로 결정하고,
상기 중심선을 기준으로 상단과 하단에 문자가 인식된 경우에 문자가 2개의 행으로 배열된 제 1 유형의 번호판으로 결정하고, 상기 중심선이 인식된 문자 영역을 통과하는 경우에 문자가 1개의 행으로 배열된 제 2 유형의 번호판으로 결정하는 딥 러닝 기반 번호 인식 시스템.
A number recognition system for photographing an object passing through two predetermined points,
Receiving a first frame and a second frame including an object passing through a predetermined first point and a predetermined second point from a camera, and receiving an object having a matching rate with the pre-stored object based on the received frame, A detection unit for detecting at least one of the detection signals;
If the object detected by the detection unit corresponds to a predetermined reference, a frame photographed at a point where the distance from the point at which the object was photographed and the camera at the received frame is retrieved, and the license plate of the object is recognized based on the loaded frame ; And
And a processing unit for distinguishing a line of characters from the recognized license plate and determining the type of the license plate,
Wherein the recognition unit comprises:
Recognizes the number plate on the object detected by the detection unit, recognizes the number of the object on the number plate of the recognized object, recognizes the number plate information including the number of the recognized number plate, the position information of the plate, the reliability of the plate, And comparing the recognized characters with the stored characters in the license plate of the object to give a higher reliability to the license plate having a higher average value of the matching rates of the respective characters and selecting the license plate having the highest reliability, Determining one character out of the recognized characters from the at least two character regions overlapping when at least two of the character regions overlap partially,
The processing unit includes:
Determining a center line of the character areas including the determined character and determining a straight line having a minimum sum of distances from the center points of the character areas including the determined character as a center line and dividing a line of characters based on the center line ,
A character recognized at the upper end with respect to the center line is determined as a character of two lines based on the center line,
A first type of number plate in which characters are arranged in two rows when characters are recognized at the upper and lower sides with respect to the center line, and when the center line passes through the recognized character area, A deep running based number recognition system for determining a numbered plate of a second type arranged.
카메라로부터 수신된 영상을 기초로 n번째 프레임에서 기 저장된 오브젝트와 매칭률이 기 설정된 수치 값 이상인 오브젝트를 적어도 하나 검출하는 검출 유닛;
상기 검출 유닛에서 검출된 오브젝트에서 번호판을 인식하고 인식된 오브젝트의 번호판에서 오브젝트의 번호를 인식하는 인식 유닛; 및
인식된 상기 번호판에서 문자의 행을 구분하고, 상기 번호판의 유형을 결정하는 처리 유닛;을 포함하고,
상기 인식 유닛은,
인식된 번호판의 개수, 번호판의 위치정보, 번호판의 신뢰도 및 번호판의 유형을 포함하는 번호판 정보를 인식하고, 오브젝트의 번호판에서 인식된 문자들과 기 저장된 문자들을 비교하여 각각의 문자들의 매칭률의 평균값이 높은 번호판일수록 높은 신뢰도를 부여하고 부여된 신뢰도가 가장 높은 번호판을 선택하고, 선택된 번호판 내의 인식된 문자 영역들 중 적어도 2개 이상의 문자 영역들이 부분적으로 오버랩 되는 경우에 오버랩 되는 상기 적어도 2개 이상의 문자 영역으로부터 인식된 문자들 중 하나의 문자를 결정하고,
상기 처리 유닛은,
결정된 상기 문자를 포함하는 문자 영역들의 중심점을 결정하고, 결정된 상기 문자를 포함하는 문자 영역들의 중심점으로부터 거리의 합이 최소가 되는 직선을 중심선으로 결정하고, 상기 중심선을 기준으로 문자의 행을 구분하고,
상기 중심선을 기준으로 상단에서 인식된 문자를 1행의 문자로 하고, 상기 중심선을 기준으로 하단에서 인식된 문자를 2행의 문자로 결정하고,
상기 중심선을 기준으로 상단과 하단에 문자가 인식된 경우에 문자가 2개의 행으로 배열된 제 1 유형의 번호판으로 결정하고, 상기 중심선이 인식된 문자 영역을 통과하는 경우에 문자가 1개의 행으로 배열된 제 2 유형의 번호판으로 결정하는 딥 러닝 기반 번호 인식 시스템(n은 1 이상의 정수).
A detection unit for detecting at least one object stored in the n-th frame based on the image received from the camera and an object whose matching rate is not less than a predetermined numerical value;
A recognizing unit for recognizing the number plate on the object detected by the detecting unit and recognizing the number of the object on the license plate of the recognized object; And
And a processing unit for distinguishing a line of characters from the recognized license plate and determining the type of the license plate,
Wherein the recognition unit comprises:
Recognizes license plate information including the number of recognized license plates, position information of the license plate, the reliability of the license plate, and the type of the license plate, compares the recognized characters with the stored characters in the license plate of the object, Selecting a number plate having the highest reliability and assigning the highest degree of reliability to the higher numbered plate and selecting the numbered characters of the at least two characters overlapping when at least two of the recognized character areas in the selected numbered plate overlap partially, Determining one of the recognized characters from the region,
The processing unit includes:
Determining a center line of the character areas including the determined character and determining a straight line having a minimum sum of distances from the center points of the character areas including the determined character as a center line and dividing a line of characters based on the center line ,
A character recognized at the upper end with respect to the center line is determined as a character of two lines based on the center line,
A first type of number plate in which characters are arranged in two rows when characters are recognized at the upper and lower sides with respect to the center line, and when the center line passes through the recognized character area, (N is an integer greater than or equal to 1).
제 2 항에 있어서,
n번째 프레임에서 검출된 오브젝트가 적어도 하나 이상 있는 경우에 n번째 프레임에서 검출된 오브젝트가 기 설정된 기준에 상응하는지를 판단하는 처리 유닛을 포함하고,
상기 처리 유닛은,
산출된 오브젝트가 기 설정된 기준에 상응하는 경우 기 설정된 기준에 상응하는 오브젝트를 포함하는 프레임을 수집하는 딥 러닝 기반 번호 인식 시스템.
3. The method of claim 2,
and a processing unit for determining whether the object detected in the n-th frame corresponds to a predetermined criterion when at least one object detected in the n-th frame is present,
The processing unit includes:
And acquires a frame including an object corresponding to a predetermined criterion when the calculated object corresponds to a predetermined criterion.
제 2 항에 있어서,
n번째 프레임에서 검출된 오브젝트가 적어도 하나 이상 있는 경우에 n번째 프레임에서 검출된 오브젝트의 속도를 산출하는 처리 유닛을 포함하고,
상기 처리 유닛은,
산출된 오브젝트의 속도가 기 설정된 속도를 초과하는 경우에 기 설정된 속도를 초과하는 오브젝트를 포함하는 프레임을 수집하는 딥 러닝 기반 번호 인식 시스템.
3. The method of claim 2,
and a processing unit for calculating the velocity of the object detected in the n-th frame when there is at least one or more objects detected in the n-th frame,
The processing unit includes:
And collects a frame including an object exceeding a preset speed when the speed of the calculated object exceeds a predetermined speed.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 처리 유닛은,
결정된 번호판 유형을 기초로 결정된 상기 문자를 포함하는 문자 영역의 중심점의 x좌표를 기준으로 중심점의 x좌표가 작은 순으로 각각의 행에 좌측부터 순서대로 문자를 매칭하는 딥 러닝 기반 번호 인식 시스템.
The method according to claim 1,
The processing unit includes:
Based on the x-coordinate of the center point of the character area including the character determined on the basis of the determined number plate type, in order from the left side in each row in the order of smaller x-coordinate of the center point.
제 4 항에 있어서,
카메라의 촬영 중심에서 지면까지의 거리는 H이고,
카메라의 촬영 중심에서 지면의 교점에서 카메라에 의하여 촬영된 이미지 화면상의 하단 부분까지의 실제 거리는 L1이고,
카메라의 촬영 중심에서 지면의 교점에서 카메라에 의하여 촬영된 이미지 화면상의 상단 부분까지의 실제 거리는 L2이고,
오브젝트가 제 1 지점에 위치할 때에 카메라에 의하여 촬영된 이미지 화면상에 표시되는 지점과 스크린의 중심 사이의 거리가 P이고,
오브젝트가 제 2 지점에 위치할 때에 카메라에 의하여 촬영된 이미지 화면상에 표시되는 지점과 스크린의 중심 사이의 거리가 Q이고,
카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상의 상단 방향과 카메라의 촬영 중심에서 지면으로 향하는 방향에서 이루어지는 각도가 제 1 각도(α)이고,
카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상의 상단 방향과 카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상의 하단 방향에서 이루어지는 각도가 제 2 각도(θ)이고,
카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상에 표시된 지점 A를 향하는 방향과 카메라의 촬영 중심에서 지면과 직교하는 지점을 향하는 방향에서 이루어지는 각도가 제 3 각도(αP)이고,
카메라의 촬영 중심에서 카메라에 의하여 촬영된 이미지 화면상에 표시된 지점 B를 향하는 방향과 카메라의 촬영 중심에서 지면과 직교하는 지점을 향하는 방향에서 이루어지는 각도가 제 4 각도(αQ)이고,
[수학식 1]
Figure 112019054176029-pat00008

[수학식 2]
Figure 112019054176029-pat00009

[수학식 3]
Figure 112019054176029-pat00010

[수학식 4]
Figure 112019054176029-pat00011

[수학식 5]
Figure 112019054176029-pat00012

[수학식 6]
Figure 112019054176029-pat00013

[수학식 7]
Figure 112019054176029-pat00014

상기 처리 유닛은,
상기 수학식 1 내지 수학식 7에 의하여 제 1 지점과 제 2 지점 사이의 실제 거리를 구하는 딥 러닝 기반 번호 인식 시스템.
(여기서, AReal은 카메라에 의하여 촬영된 이미지 화면상의 상단 부분과 지면의 교점에서 지점 A까지의 실제 거리이고, BReal은 카메라에 의하여 촬영된 이미지 화면상의 상단 부분과 지면의 교점에서 지점 B의 실제 거리임)
5. The method of claim 4,
The distance from the camera's center of gravity to the ground is H,
The actual distance from the photographing center of the camera to the lower end portion of the image screen captured by the camera at the intersection of the ground and the ground is L 1 ,
The actual distance from the camera's center of gravity to the top of the image plane captured by the camera at the intersection of the ground and the camera is L 2 ,
The distance between the point displayed on the image screen photographed by the camera and the center of the screen when the object is located at the first point is P,
The distance between the point displayed on the image screen photographed by the camera and the center of the screen when the object is located at the second point is Q,
The angle formed by the upper direction on the image screen taken by the camera at the photographing center of the camera and the direction from the photographing center of the camera toward the ground is the first angle [alpha]
The angle formed in the upper direction on the image screen taken by the camera at the photographing center of the camera and the lower direction on the image screen taken by the camera at the photographing center of the camera is the second angle [theta]
The angle formed by the direction from the photographing center of the camera toward the point A displayed on the image plane photographed by the camera and the direction from the photographing center of the camera to the point orthogonal to the ground is the third angle alpha P ,
And an angle made in a direction toward the point where the ground and the perpendicular from the point B toward the image displayed on the screen captured by the camera in the shooting direction of the camera center and the center of the camera shooting a fourth angle (α Q),
[Equation 1]
Figure 112019054176029-pat00008

&Quot; (2) "
Figure 112019054176029-pat00009

&Quot; (3) "
Figure 112019054176029-pat00010

&Quot; (4) "
Figure 112019054176029-pat00011

&Quot; (5) "
Figure 112019054176029-pat00012

&Quot; (6) "
Figure 112019054176029-pat00013

&Quot; (7) "
Figure 112019054176029-pat00014

The processing unit includes:
Wherein the actual distance between the first point and the second point is obtained by the equations (1) to (7).
(Where A Real is the actual distance from the intersection of the top of the image shot by the camera and the ground to the point A, and B Real is the distance from the intersection of the top of the image shot by the camera to the ground, Actual distance)
제 12 항에 있어서,
상기 처리 유닛은,
n번째 프레임에서 검출된 오브젝트가 제 1 지점을 통과한 시간, n번째 프레임에서 검출된 오브젝트가 제 2 지점을 통과한 시간 및 제 1 지점에서 제 2 지점 사이의 거리를 기초로 오브젝트의 제 1 지점과 제 2 지점 사이의 속도를 산출하는 딥 러닝 기반 번호 인식 시스템.
13. The method of claim 12,
The processing unit includes:
th frame, a time at which the object detected at the nth frame has passed through the first point, a time at which the object detected at the nth frame has passed through the second point, and a distance between the first point and the second point, And the second point is calculated based on the difference between the first point and the second point.
카메라로부터 수신된 영상을 기초로 n번째 프레임에서 기 저장된 오브젝트와 매칭률이 기 설정된 수치 값 이상인 오브젝트를 적어도 하나 검출하는 단계;
검출된 오브젝트에서 번호판을 인식하고 인식된 오브젝트의 번호판에서 오브젝트의 번호를 인식하는 단계;
N번째 프레임에서 검출된 오브젝트가 적어도 하나 이상 있는 경우에 n번째 프레임에서 검출된 오브젝트의 속도를 산출하는 단계;
산출된 오브젝트의 속도가 기 설정된 속도를 초과하는 경우에 기 설정된 속도를 초과하는 오브젝트의 번호판을 수집하는 단계;
수집된 오브젝트의 번호판에서 인식된 문자들과 기 저장된 문자들을 비교하여 각각의 문자들의 매칭률의 합이 높은 번호판일수록 높은 신뢰도를 부여하고, 신뢰도가 가장 높은 번호판을 선택하는 단계;
선택된 번호판 내의 인식된 문자 영역들 중 적어도 2개 이상의 문자 영역들이 부분적으로 오버랩 되는 경우에 오버랩 되는 상기 적어도 2개 이상의 문자 영역으로부터 인식된 문자들 중 하나의 문자를 결정하는 단계;
번호판 내의 결정된 문자 영역들의 중심점을 결정하고 결정된 문자 영역들의 중심점으로부터 거리의 합이 최소가 되는 중심선을 결정하는 단계; 및
결정된 중심선을 사용하여 결정된 번호판 유형에 따라 문자를 매칭하는 단계;를 포함하고,
상기 결정된 중심선을 사용하여 결정된 번호판 유형에 따라 문자를 매칭하는 단계는,
상기 중심선을 기준으로 문자의 행을 구분하는 단계;
상기 중심선을 기준으로 상단에서 인식된 문자를 1행의 문자로 하고, 상기 중심선을 기준으로 하단에서 인식된 문자를 2행의 문자로 결정하는 단계; 및
상기 중심선을 기준으로 상단과 하단에 문자가 인식된 경우에 문자가 2개의 행으로 배열된 제 1 유형의 번호판으로 결정하고, 상기 중심선이 인식된 문자 영역을 통과하는 경우에 문자가 1개의 행으로 배열된 제 2 유형의 번호판으로 결정하는 단계;를 포함하는 딥 러닝 기반 번호 인식 방법.
Detecting at least one object stored in the n-th frame based on the image received from the camera, the object having a matching rate equal to or higher than a predetermined numerical value;
Recognizing the license plate in the detected object and recognizing the number of the object in the license plate of the recognized object;
Calculating the velocity of the object detected in the nth frame when there is at least one object detected in the Nth frame;
Collecting a number plate of an object exceeding a predetermined speed when the speed of the calculated object exceeds a predetermined speed;
Comparing the characters recognized in the license plate of the collected object with pre-stored characters, selecting a license plate having the highest reliability and having the highest reliability as the license plate having a higher sum of matching rates of the respective characters is selected;
Determining one of the recognized characters from the at least two character regions overlapping when at least two of the recognized character regions in the selected license plate are partially overlapped;
Determining a center point of the determined character areas in the license plate and determining a center line at which the sum of the distances from the center points of the determined character areas is the minimum; And
And matching the characters according to the license plate type determined using the determined center line,
Wherein the step of matching characters according to the license plate type determined using the determined center line comprises:
Dividing a line of characters based on the centerline;
Determining a character recognized at the upper end with respect to the center line as a character of one line and a character recognized at the lower end with respect to the center line as a character of two lines; And
A first type of number plate in which characters are arranged in two rows when characters are recognized at the upper and lower sides with respect to the center line, and when the center line passes through the recognized character area, Determining a second type of number plate arranged in the second direction.
삭제delete
KR1020180160588A 2018-12-13 2018-12-13 Method and system for recognzing license plate based on deep learning KR102001002B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180160588A KR102001002B1 (en) 2018-12-13 2018-12-13 Method and system for recognzing license plate based on deep learning
PCT/KR2018/016206 WO2020122300A1 (en) 2018-12-13 2018-12-19 Deep learning-based number recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180160588A KR102001002B1 (en) 2018-12-13 2018-12-13 Method and system for recognzing license plate based on deep learning

Publications (1)

Publication Number Publication Date
KR102001002B1 true KR102001002B1 (en) 2019-07-17

Family

ID=67512802

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180160588A KR102001002B1 (en) 2018-12-13 2018-12-13 Method and system for recognzing license plate based on deep learning

Country Status (2)

Country Link
KR (1) KR102001002B1 (en)
WO (1) WO2020122300A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102089298B1 (en) * 2019-10-21 2020-03-16 가천대학교 산학협력단 System and method for recognizing multinational license plate through generalized character sequence detection
KR102200204B1 (en) 2019-12-05 2021-01-11 (주)한국아이티에스 3-D Image Analyzing System Using CCTV Image
KR102230352B1 (en) * 2019-11-22 2021-03-22 (주)에스유지 Outdoor advertisement measuring device using AR and GPS
KR20210098109A (en) * 2020-01-31 2021-08-10 에스케이 주식회사 Method and system for automobile traction type classification and automobile number recognition based on deep-learning
KR102368122B1 (en) * 2021-08-31 2022-02-25 이홍기 Method and system for recognizing vehicle number by using deep learning image recognition-based vehicle detection and tracking technology
KR102383377B1 (en) * 2021-06-02 2022-04-08 (주)트루엔 Electronic device for recognizing license plate
CN116597437A (en) * 2023-07-18 2023-08-15 昆明理工大学 End-to-end Laos license plate identification method and device integrating double-layer attention network

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110045971A (en) * 2009-10-28 2011-05-04 한국전자통신연구원 Recognition system of license plates and method thereof
US20130148857A1 (en) * 2011-12-12 2013-06-13 Electronics And Telecommunications Research Institute Apparatus for extracting character area in vehicle number plate and method thereof
KR101745551B1 (en) * 2016-05-31 2017-06-27 인천광역시 서구(인천광역시서구청장) Apparatus and method for monitoring overspeed-vehicle using CCTV image information

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101815053B1 (en) * 2012-12-03 2018-01-04 한화테크윈 주식회사 System for calculating traffic information and operating method thereof
KR101432113B1 (en) * 2013-01-28 2014-08-21 경북대학교 산학협력단 Apparatus and method for detecting vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110045971A (en) * 2009-10-28 2011-05-04 한국전자통신연구원 Recognition system of license plates and method thereof
US20130148857A1 (en) * 2011-12-12 2013-06-13 Electronics And Telecommunications Research Institute Apparatus for extracting character area in vehicle number plate and method thereof
KR101745551B1 (en) * 2016-05-31 2017-06-27 인천광역시 서구(인천광역시서구청장) Apparatus and method for monitoring overspeed-vehicle using CCTV image information

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102089298B1 (en) * 2019-10-21 2020-03-16 가천대학교 산학협력단 System and method for recognizing multinational license plate through generalized character sequence detection
KR102230352B1 (en) * 2019-11-22 2021-03-22 (주)에스유지 Outdoor advertisement measuring device using AR and GPS
KR102200204B1 (en) 2019-12-05 2021-01-11 (주)한국아이티에스 3-D Image Analyzing System Using CCTV Image
KR20210098109A (en) * 2020-01-31 2021-08-10 에스케이 주식회사 Method and system for automobile traction type classification and automobile number recognition based on deep-learning
KR102294560B1 (en) * 2020-01-31 2021-08-26 에스케이 주식회사 Method and system for automobile traction type classification and automobile number recognition based on deep-learning
KR102383377B1 (en) * 2021-06-02 2022-04-08 (주)트루엔 Electronic device for recognizing license plate
KR102368122B1 (en) * 2021-08-31 2022-02-25 이홍기 Method and system for recognizing vehicle number by using deep learning image recognition-based vehicle detection and tracking technology
CN116597437A (en) * 2023-07-18 2023-08-15 昆明理工大学 End-to-end Laos license plate identification method and device integrating double-layer attention network
CN116597437B (en) * 2023-07-18 2023-10-03 昆明理工大学 End-to-end Laos license plate identification method and device integrating double-layer attention network

Also Published As

Publication number Publication date
WO2020122300A1 (en) 2020-06-18

Similar Documents

Publication Publication Date Title
KR102001002B1 (en) Method and system for recognzing license plate based on deep learning
KR102031503B1 (en) Method and system for detecting multi-object
KR102041734B1 (en) System and method for enforcing traffic violation based on deep learning
CN102765365B (en) Pedestrian detection method based on machine vision and pedestrian anti-collision warning system based on machine vision
US9767368B2 (en) Method and system for adaptive ray based scene analysis of semantic traffic spaces and vehicle equipped with such system
JP6679152B1 (en) Accident analysis device, accident analysis method and program
CN106600977B (en) Multi-feature recognition-based illegal parking detection method and system
KR102453627B1 (en) Deep Learning based Traffic Flow Analysis Method and System
EP2026246A1 (en) Method and apparatus for evaluating an image
CN107845104A (en) A kind of method, associated processing system, passing vehicle detecting system and vehicle for detecting passing vehicle
CN102792314A (en) Cross traffic collision alert system
Battiato et al. On-board monitoring system for road traffic safety analysis
CN110738857A (en) vehicle violation evidence obtaining method, device and equipment
Ketcham et al. Recognizing the Illegal Parking Patterns of Cars on the Road in Front of the Bus Stop Using the Support Vector Machine
JP7285799B2 (en) Accident analysis device, accident analysis method and program
CN103164958A (en) Method and system for vehicle monitoring
CN113658427A (en) Road condition monitoring method, system and equipment based on vision and radar
US20120155711A1 (en) Apparatus and method for analyzing video
Álvarez et al. Perception advances in outdoor vehicle detection for automatic cruise control
CN112329724B (en) Real-time detection and snapshot method for lane change of motor vehicle
Muller-Schneiders et al. Performance evaluation of a real time traffic sign recognition system
Simoncini et al. Two-stream neural architecture for unsafe maneuvers classification from dashcam videos and GPS/IMU sensors
Avupati et al. Traffic Rules Violation Detection using YOLO and HAAR Cascade
KR20220089217A (en) Two-wheeled vehicle control apparatus and method
CN111754781A (en) Method, device and system for detecting vehicle violation and camera

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant