KR102238401B1 - Recognition Method of License Plate Number Using Data expansion and CNN - Google Patents

Recognition Method of License Plate Number Using Data expansion and CNN Download PDF

Info

Publication number
KR102238401B1
KR102238401B1 KR1020200117620A KR20200117620A KR102238401B1 KR 102238401 B1 KR102238401 B1 KR 102238401B1 KR 1020200117620 A KR1020200117620 A KR 1020200117620A KR 20200117620 A KR20200117620 A KR 20200117620A KR 102238401 B1 KR102238401 B1 KR 102238401B1
Authority
KR
South Korea
Prior art keywords
image
vehicle
vehicle number
cropping
data
Prior art date
Application number
KR1020200117620A
Other languages
Korean (ko)
Inventor
이근상
오정훈
고대경
이강훈
Original Assignee
전주비전대학교산학협력단
주식회사 펜타게이트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주비전대학교산학협력단, 주식회사 펜타게이트 filed Critical 전주비전대학교산학협력단
Priority to KR1020200117620A priority Critical patent/KR102238401B1/en
Application granted granted Critical
Publication of KR102238401B1 publication Critical patent/KR102238401B1/en

Links

Images

Classifications

    • G06K9/3258
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • G06K2209/15
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a vehicle number recognizing method using data extension and a CNN. The vehicle number recognizing method using data expansion and a CNN comprises: an image input step (S100) of inputting a vehicle image for learning; a vehicle area detection step (S200) of detecting a vehicle area (A1) in the input vehicle image; a number plate area detection step (S300) of detecting a number plate area (A2) located in the vehicle area (A1); a cropping step (S400) of extracting a cropping image (C1); an expansion image generation step (S500) of generating an expansion image (E1); an expanded vehicle number recognition learning data generation step (S600); and a vehicle number recognition step (S700) of recognizing a vehicle number from image data input from a camera. Therefore, the vehicle number recognizing method using data expansion and a CNN can accurately recognize a vehicle number from a video image.

Description

데이터 확장 및 CNN을 이용한 차량번호 인식 방법{Recognition Method of License Plate Number Using Data expansion and CNN}Recognition Method of License Plate Number Using Data expansion and CNN}

본 발명은 인공지능을 이용한 차량번호 인식 방법 및 장치에 관한 것이다. 보다 상세하게는 데이터 확장 및 CNN을 이용하여 영상 이미지로부터 보다 정확하게 차량번호를 인식할 수 있는 데이터 확장 및 CNN을 이용한 차량번호 인식 방법 및 차량번호 인식 장치에 관한 것이다.The present invention relates to a vehicle number recognition method and apparatus using artificial intelligence. In more detail, the present invention relates to a vehicle number recognition method and a vehicle number recognition apparatus using data expansion and CNN that can more accurately recognize vehicle numbers from image images using data expansion and CNN.

차량용 번호판은 차량의 전면 또는 후면에 부착되며 규격화된 문자(글자, 숫자 및 기호 포함)가 특정 패턴으로 기재된 판이다. 차량번호 인식 장치는 차량이 포함된 영상으로부터 차량용 번호판 및 여기에 기재된 문자를 자동으로 인식 및 판독하는 장치를 의미한다. 일반적인 차량번호 인식 장치는 차량 촬영과 번호판 추출, 음영이나 기울기에 따른 전처리 과정을 수행하고 미리 정해진 기준 글자에 따라 번호판에 기재된 문자를 인식하는 단계를 포함한다. 이러한 차량번호 인식 장치가 문자를 보다 정확하게 하기 위한 인식 알고리즘은 차량번호 인식 장치에 있어서 매우 중요한 요소이다.Vehicle license plates are attached to the front or rear of the vehicle, and standardized characters (including letters, numbers, and symbols) are written in a specific pattern. The vehicle number recognition device refers to a device that automatically recognizes and reads a vehicle license plate and characters described therein from an image including a vehicle. A typical vehicle number recognition apparatus includes the steps of photographing a vehicle, extracting a license plate, performing a pre-processing according to a shade or an inclination, and recognizing a character written on the license plate according to a predetermined reference letter. A recognition algorithm for the vehicle number recognition device to make characters more accurate is a very important factor in the vehicle number recognition device.

기존의 번호판 인식은 원형 정합 방법 및 구문론적 방법 등이 이용되고 있으며, 원형 정합 방법은 기하학적 정합 방법을 개선시킨 방법으로서, 표준 패턴에 입력된 영상을 정합시켜 문자를 인식시키는 방법을 말한다. 그러나 기울어진 영상이나 잡음이 있을 경우 인식률이 저하되며, 환경이 변화되면 표준 패턴을 재구성해야 하는 단점을 갖고 있으며, 구문론 적인 방법은 문자 특징 간의 상호 관련성 또는 상호 연결성 정보와 같은 구조적 정보를 이용하며 글자 크기, 기울기 등에 강한 특징을 지닌다. 특히 구조적 정보를 정량화하여 추출할 수 있어야 한다는 어려움이 있으며, 특징 간의 정확한 구조적 정보를 구하는 것이 용이하지 않은 문제점이 있다.Conventional license plate recognition uses a circular matching method and a syntactic method, and the circular matching method is a method that improves the geometric matching method, and refers to a method of recognizing characters by matching an image input to a standard pattern. However, if there is an inclined image or noise, the recognition rate is lowered, and when the environment changes, the standard pattern must be reconstructed. The syntactic method uses structural information such as interrelationship or interconnectivity information between character features, and It has strong characteristics such as size and slope. In particular, there is a difficulty in being able to quantify and extract structural information, and it is difficult to obtain accurate structural information between features.

최근에는 신경망을 이용한 번호판 인식 방법에 많은 관심이 집중되고 있다. 신경망 또는 인공신경망(ANN: Artificial Neural Network)이란 생물학의 신경망에서 영감을 얻은 통계학적 학습 알고리즘으로 인공신경망은 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 가리킨다. 나아가 컨볼루션신경망(CNN, Convolution Neural Network)이란 다층구조 형태의 인공 신경망을 기반으로 하는 머신 러닝의 한 분야로 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습(machine learning) 알고리즘의 집합이다.Recently, a lot of attention has been focused on a license plate recognition method using a neural network. Neural network or artificial neural network (ANN: Artificial Neural Network) is a statistical learning algorithm inspired by biological neural networks.In artificial neural networks, artificial neurons (nodes) that form a network by combining synapses change the strength of synapses through learning. It refers to the overall model with problem-solving ability. Furthermore, a convolutional neural network (CNN) is a field of machine learning based on a multi-layered artificial neural network, a machine learning algorithm that attempts a high level of abstraction through a combination of several nonlinear transducers. It is a set of.

신경망을 이용한 방법은 입력된 영상의 영역을 나누어 신경망의 입력으로 하고 이로부터 신경망을 이용하여 문자를 인식하는 방법이다.The method using a neural network is a method of dividing a region of an input image as an input of a neural network, and recognizing a character using a neural network.

하지만, 입력된 영상으로부터 차량 번호판의 문자 등을 인식하기 위한 과정은 일반적인 문자 인식과는 달리 주변 환경적인 영향을 많이 받으며 카메라 잡음, 조명변화, 날씨 등으로 인해 왜곡된 현상이 발생하기 때문에 이에 대응하기 위한 강인한 처리 방법 대한 연구가 요구된다. 이에 따라 선행문헌에서는 차량번호 인식 이전에 촬영된 영상을 전처리하여 화질을 개선한 후 차량번호를 인식하고 있으나 이는 전처리 과정으로 인하여 매번 차량번호 인식에 소요되는 시간과 자원이 증가하는 단점이 있다. 나아가 인공신경망 학습을 다양한 주변 환경에서 촬영된 학습 이미지를 다수 확보하는 것도 현실적으로 곤란하다는 문제가 있다.However, unlike general character recognition, the process of recognizing the characters on the vehicle license plate from the input image is greatly affected by the surrounding environment, and distortion occurs due to camera noise, lighting changes, and weather. Research on a robust treatment method for this is required. Accordingly, in the prior literature, the image captured before the vehicle number recognition is pre-processed to improve the image quality and then the vehicle number is recognized, but this has a disadvantage in that the time and resources required for each vehicle number recognition increase due to the pre-processing process. Furthermore, there is a problem in that it is practically difficult to acquire a large number of learning images captured in various surrounding environments for artificial neural network learning.

한국등록특허공보 제10-1931804호(2018.12.17)Korean Registered Patent Publication No. 10-1931804 (2018.12.17)

본 발명에서 해결하고자 하는 과제는 상술한 문제점에서 해결하기 위한 것으로, 본 발명의 목적은 데이터 확장 및 CNN을 이용하여 영상 이미지로부터 보다 정확하게 차량번호를 인식할 수 있는 데이터 확장 및 CNN을 이용한 차량번호 인식 방법 및 차량번호 인식 장치를 제공하는 것이다.The problem to be solved in the present invention is to solve the above-described problem, and an object of the present invention is to extend data that can more accurately recognize vehicle number from image images using data expansion and CNN, and vehicle number recognition using CNN. It is to provide a method and a vehicle number recognition device.

상기 서술한 문제점을 해결하기 위한 본 발명 데이터 확장 및 CNN을 이용한 차량번호 인식 방법은,In order to solve the above-described problem, the method of recognizing a vehicle number using data expansion and CNN

학습용 차량 영상을 입력하는 영상 입력 단계(S100); 차량 검출 학습 데이터와 SSD(Single shot multibox detector) 알고리즘을 이용하여 상기 영상 입력 단계(S100)에서 입력된 차량 영상 내의 차량 영역(A1)을 검출하는 차량 영역 검출 단계(S200); 상기 차량 영역 검출 단계(S200 에서 검출된 차량 영역(A1)에서, 차량 영역(A1) 내에 위치한 번호판 영역(A2)을 검출하는 번호판 영역 검출 단계(S300); 상기 차량 영역 검출 단계(S200)에서 검출한 차량 영역(A1) 내에서, 상기 번호판 영역 검출 단계(S300)에서 검출한 번호판 영역(A2)을 포함하는 영역을 크롭핑하여 크롭핑 이미지(C1)를 추출하는 크롭핑 단계(S400); 상기 크롭핑 단계(S400)에서 추출한 크롭핑 이미지(C1)에 대하여, 데이터 확장 알고리즘을 이용하여 이미지를 변형한 확장 이미지(E1)를 생성하는 확장 이미지 생성 단계(S500); 상기 확장 이미지 생성 단계(S500)에서 생성한 확장 이미지(E1)를 컨볼루션신경망(CNN)에 입력하여 차량번호 인식 학습을 실시하고 확장된 차량번호 인식 학습 데이터를 생성하는 확장된 차량번호 인식 학습 데이터 생성 단계(S600); 상기 확장된 차량번호 인식 학습 데이터를 이용하여 카메라로부터 입력되는 영상데이터에서 차량번호를 인식하는 차량번호 인식 단계(S700);를 포함한다. An image input step of inputting an image of a vehicle for learning (S100); A vehicle area detection step (S200) of detecting a vehicle area (A1) in the vehicle image input in the image input step (S100) using vehicle detection learning data and a single shot multibox detector (SSD) algorithm; The vehicle area detection step (S300) of detecting a license plate area A2 located in the vehicle area A1 in the vehicle area A1 detected in S200; detection in the vehicle area detection step S200 A cropping step (S400) of extracting a cropping image (C1) by cropping an area including the license plate area (A2) detected in the license plate area detection step (S300) within one vehicle area (A1); With respect to the cropping image C1 extracted in the cropping step (S400), an expanded image generation step (S500) of generating an expanded image (E1) transforming the image using a data expansion algorithm (S500); the expanded image generation step (S500) The extended vehicle number recognition learning data generation step (S600) of performing vehicle number recognition learning by inputting the extended image (E1) generated in) into a convolutional neural network (CNN) and generating extended vehicle number recognition learning data (S600); And a vehicle number recognition step (S700) of recognizing a vehicle number from image data input from the camera using the expanded vehicle number recognition learning data.

상기 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘은 광학적 변형 알고리즘으로 확장이미지를 생성하되, 상기 크롭핑 이미지(C1)의 컬러 값에 노이즈 값을 추가하여 확장 이미지(E1)를 생성할 수 있다.The data expansion algorithm of the extended image generation step (S500) generates an extended image using an optical transformation algorithm, and may generate an extended image E1 by adding a noise value to the color value of the cropping image C1.

상기 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘은, 상기 크롭핑 단계(S400)에서 추출한 크롭핑 이미지(C1)에 대하여, 이미지를 회전시키는 회전 연산, 이미지를 뒤트는 뒤틀기 연산, 이미지를 이동시키는 이동 연산, 이미지를 확대시키는 확대 연산을 포함하는 변형 연산 방식으로 확장 이미지(E1)를 생성하는 기하학 변형 방식과, 이미지에 포함된 각각의 픽셀을 임의의 방향으로 뒤틀리게 변형시켜 확장 이미지(E1)를 생성하는 엘라스틱 변형(Elastic Distortion) 방식을 포함할 수 있다. The data expansion algorithm of the expanded image generation step (S500) includes a rotation operation to rotate the image, a warping operation to distort the image, and moving the image with respect to the cropping image C1 extracted in the cropping step (S400). A geometric transformation method that generates an extended image E1 by a transformation operation method including a movement operation and an enlargement operation that enlarges the image, and the extended image E1 by distorting each pixel included in the image in a random direction. It may include a generated elastic distortion (Elastic Distortion) method.

상기 엘라스틱 변형(Elastic Distortion) 방식은 각 픽셀 위치에 대하여 구한 임의의 유니폼 랜덤 변위장에 대하여 노이즈를 제거하기 위한 스무딩 값을 적용하고, 변형 정도의 세기를 조절하기 위한 알파 값을 곱하는 것을 특징으로 한다. The elastic distortion method is characterized in that a smoothing value for removing noise is applied to an arbitrary uniform random displacement field obtained for each pixel position, and an alpha value for adjusting the intensity of the deformation is multiplied. .

상기 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘은 광학적 변형 알고리즘으로 확장이미지를 생성하되, 상기 크롭핑 이미지(C1)의 밝기 대비 (Light Contrast) 변형 방식으로 확장이미지를 생성할 수 있다.The data expansion algorithm in the extended image generation step S500 may generate an extended image using an optical deformation algorithm, but the extended image may be generated using a light contrast deformation method of the cropping image C1.

본 발명 데이터 확장 및 CNN을 이용한 차량번호 인식 방법에 따르면, 학습이미지에 데이터 확장 알고리즘을 이용하여 이미지를 변형한 확장 이미지(E1)를 생성하고 인공신경망에 입력하여 학습시킴으로서 적은 수의 학습이미지로도 보다 정확하게 차량번호를 인식할 수도록 학습시킬 수 있다.According to the method of recognizing vehicle number using data expansion and CNN of the present invention, an expanded image (E1) transformed from an image using a data expansion algorithm is generated in the training image and input to an artificial neural network for training, so that even a small number of training images are used. You can learn to recognize the vehicle number more accurately.

또한, 본 발명은 기하학적 변형 방식과 엘라스틱 변형 방식과 광학적 변형 방식으로 확장된 이미지로 CNN을 학습을 시킴으로써 촬영된 영상의 전처리 과정이 부족하더라도 정확하게 차량번호를 인식할 수 있다.In addition, according to the present invention, the vehicle number can be accurately recognized even if the pre-processing process of the captured image is insufficient by learning the CNN with the image expanded by the geometric transformation method, the elastic transformation method, and the optical transformation method.

도 1은 본 발명의 실시예에 따른 데이터 확장 및 CNN을 이용한 차량번호 인식 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 실시예에 따른 데이터 확장 및 CNN을 이용한 차량번호 인식 방법의 SSD(Single Shot multibox Detector)에 대한 구성도이다.
도 3은 본 발명의 실시예에 따른 데이터 확장 및 CNN을 이용한 차량번호 인식 방법을 이용한 차량번호 인식을 위한 차량 영역(A1) 및 번호판 영역(A2)을 나타낸 예시 도면이다.
도 4는 본 발명의 실시예에 따른 데이터 확장 및 CNN을 이용한 차량번호 인식 방법의 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘으로 기하학 변형 방식을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 데이터 확장 및 CNN을 이용한 차량번호 인식 방법의 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘으로 엘라스틱 변형 방식을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 데이터 확장 및 CNN을 이용한 차량번호 인식 방법의 컨볼루션신경망(CNN)의 구조를 설명하기 위한 도면이다.
1 is a flowchart illustrating a method of recognizing a vehicle number using a CNN and data expansion according to an embodiment of the present invention.
2 is a configuration diagram of a single shot multibox detector (SSD) of a method for recognizing a vehicle number using a CNN and data expansion according to an embodiment of the present invention.
3 is an exemplary view showing a vehicle area A1 and a license plate area A2 for vehicle number recognition using a vehicle number recognition method using data expansion and CNN according to an embodiment of the present invention.
FIG. 4 is a diagram for explaining a geometry transformation method as a data expansion algorithm in an expanded image generation step (S500) of a method for expanding data and recognizing a vehicle number using a CNN according to an exemplary embodiment of the present invention.
FIG. 5 is a diagram for explaining an elastic transformation method as a data expansion algorithm in an expanded image generation step (S500) of a method for expanding data and recognizing a vehicle number using a CNN according to an exemplary embodiment of the present invention.
6 is a diagram for explaining the structure of a convolutional neural network (CNN) in a method for recognizing a vehicle number using data expansion and CNN according to an embodiment of the present invention.

본 명세서에서 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in the present specification are exemplified only for the purpose of describing the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention can apply various changes and have various forms, the embodiments will be illustrated in the drawings and described in detail in the present specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes changes, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of the rights according to the concept of the present invention, the first component may be referred to as the second component, Similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 이웃하는”과 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle. Expressions that describe the relationship between components, for example, “between” and “just between” or “neighbor to” and “directly adjacent to” should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 “포함하다” 또는 “가지다” 등의 용어를 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "include" or "have" are intended to be designated as features, numbers, steps, actions, components, parts, or a combination thereof, but one or more other features, numbers, steps, actions It is to be understood that the possibility of the presence or addition of, components, parts, or combinations thereof is not preliminarily excluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be construed as having a meaning consistent with the meaning of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present specification. Does not.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 데이터 확장 및 CNN을 이용한 차량번호 인식 방법 및 장치에 관하여 살펴보기로 한다.Hereinafter, a method and apparatus for recognizing a vehicle number using a CNN and data expansion according to a preferred embodiment of the present invention will be described with reference to the accompanying drawings.

본 발명에서 차량번호란 차량의 번호판에 기재된 문자로서 글자, 숫자 및 기호를 포함한다. 데이터 확장이란 원래의 데이터를 다양한 변형 방식으로 처리하여 왜곡된 데이터를 생성함으로서 원래의 데이터로부터 왜곡된 다른 데이터로까지 확장시킨다는 것을 의미하며 데이터의 종류는 이미지 등이 될 수 있으나 이에 국한되지는 않는다.In the present invention, the vehicle number is a character written on the license plate of the vehicle and includes letters, numbers and symbols. Data expansion means that the original data is processed in various ways to generate distorted data, thereby extending from the original data to other distorted data, and the type of data may be an image, but is not limited thereto.

도 1은 본 발명의 바람직한 실시예에 따른 데이터 확장 및 CNN을 이용한 차량번호 인식 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating a method of recognizing a vehicle number using data expansion and CNN according to a preferred embodiment of the present invention.

도 1에 따르면 본 발명 데이터 확장 및 CNN을 이용한 차량번호 인식 방법은 학습용 차량 영상을 입력하는 영상 입력 단계(S100); 차량 검출 학습 데이터와 SSD(Single shot multibox detector) 알고리즘을 이용하여 상기 영상 입력 단계(S100)에서 입력된 차량 영상 내의 차량 영역(A1)을 검출하는 차량 영역 검출 단계(S200); 상기 차량 영역 검출 단계(S200 에서 검출된 차량 영역(A1)에서, 차량 영역(A1) 내에 위치한 번호판 영역(A2)을 검출하는 번호판 영역 검출 단계(S300); 상기 차량 영역 검출 단계(S200)에서 검출한 차량 영역(A1) 내에서, 상기 번호판 영역 검출 단계(S300)에서 검출한 번호판 영역(A2)을 포함하는 영역을 크롭핑하여 크롭핑 이미지(C1)를 추출하는 크롭핑 단계(S400); 상기 크롭핑 단계(S400)에서 추출한 크롭핑 이미지(C1)에 대하여, 데이터 확장 알고리즘을 이용하여 이미지를 변형한 확장 이미지(E1)를 생성하는 확장 이미지 생성 단계(S500); 상기 확장 이미지 생성 단계(S500)에서 생성한 확장 이미지(E1)를 컨볼루션신경망(CNN)에 입력하여 차량번호 인식 학습을 실시하고 확장된 차량번호 인식 학습 데이터를 생성하는 확장된 차량번호 인식 학습 데이터 생성 단계(S600); 상기 확장된 차량번호 인식 학습 데이터를 이용하여 카메라로부터 입력되는 영상데이터에서 차량번호를 인식하는 차량번호 인식 단계(S700);를 포함한다. According to FIG. 1, the method of recognizing a vehicle number using data expansion and CNN includes an image input step of inputting a vehicle image for learning (S100); A vehicle area detection step (S200) of detecting a vehicle area (A1) in the vehicle image input in the image input step (S100) using vehicle detection learning data and a single shot multibox detector (SSD) algorithm; The vehicle area detection step (S300) of detecting a license plate area A2 located in the vehicle area A1 in the vehicle area A1 detected in S200; detection in the vehicle area detection step S200 A cropping step (S400) of extracting a cropping image (C1) by cropping an area including the license plate area (A2) detected in the license plate area detection step (S300) within one vehicle area (A1); With respect to the cropping image C1 extracted in the cropping step (S400), an expanded image generation step (S500) of generating an expanded image (E1) transforming the image using a data expansion algorithm (S500); the expanded image generation step (S500) The extended vehicle number recognition learning data generation step (S600) of performing vehicle number recognition learning by inputting the extended image (E1) generated in) into a convolutional neural network (CNN) and generating extended vehicle number recognition learning data (S600); And a vehicle number recognition step (S700) of recognizing a vehicle number from image data input from the camera using the expanded vehicle number recognition learning data.

먼저 영상 입력 단계(S100)는, 학습용 차량 영상을 입력하는 단계로서, 차량번호 인식 학습을 위한 컨볼루션신경망(CNN, Convolution Neural Network)을 포함하는 차량번호 인식용 서버에 학습용 차량 영상을 입력하는 단계이다.First, the image input step (S100) is a step of inputting a vehicle image for learning, and a step of inputting a vehicle image for learning into a vehicle number recognition server including a convolution neural network (CNN) for learning vehicle number recognition. to be.

학습용 차량 영상은 일반적으로 하나의 영상이 아니라 다수의 서로 다른 차량 영상이 준비되어 입력됨으로서 CNN 학습이 이루어진다. 영상 입력 단계에서는 다양한 영상이 입력될수록 CNN 학습이 잘 이루어질 수 있다. In general, a vehicle image for training is not one image, but a plurality of different vehicle images are prepared and input to perform CNN learning. In the image input step, as various images are input, CNN learning can be performed better.

차량 영역 검출 단계(S200)는, 상기 영상 입력 단계(S100)에서 입력된 차량 영상 내의 차량 영역(A1)을 검출하기 위하여, 차량 검출 학습 데이터와 SSD(Single shot multibox detector) 알고리즘을 이용하여 차량 영역(A1)을 검출하는 단계이다. SSD(Single shot multibox detector) 알고리즘은 공지의 알고리즘을 이용하여도 무방하며 도 2에 SSD(Single shot multibox detector) 네트워크의 구조를 도시하였다.In the vehicle area detection step (S200), in order to detect the vehicle area (A1) in the vehicle image input in the image input step (S100), the vehicle area is detected by using vehicle detection learning data and a single shot multibox detector (SSD) algorithm. This is the step of detecting (A1). The single shot multibox detector (SSD) algorithm may use a known algorithm, and FIG. 2 shows the structure of a single shot multibox detector (SSD) network.

상기 차량 영역 검출 단계(S200)는, 상기 영상 입력 단계(S100)에서 입력된 차량 영상 내에서 격자 형태의 특징맵을 설정하고, 설정된 특징맵에서 객체 존재 여부를 판단하여 객체가 존재하는 것으로 판단된 특징맵의 격자 픽셀을 연결시켜 바운딩 박스를 형성하여 차량 영역(A1)을 검출하게 된다.In the vehicle area detection step (S200), a feature map in the form of a grid is set within the vehicle image input in the image input step (S100), and the existence of an object is determined in the set feature map to determine that the object exists. The vehicle area A1 is detected by connecting the grid pixels of the feature map to form a bounding box.

즉, 영상 내에 차량이 포함된 영역에 바운딩 박스(Bounding box)를 형성하여 차량 영역(A1)을 검출하게 되는 것이다.That is, the vehicle area A1 is detected by forming a bounding box in the area including the vehicle in the image.

이때, 상기 차량 영역 검출 단계(S200)에서 설정된 특징맵에서 설정된 객체 존재 여부를 판단하되 해당 객체가 차량임을 판단하기 위하여, 공지의 차량검출 학습 데이터를 이용하여 판단하는 것을 특징으로 한다.In this case, it is characterized in that it is determined whether there is an object set in the feature map set in the vehicle area detection step (S200), but is determined using known vehicle detection learning data in order to determine that the object is a vehicle.

이에 따라, 차량검출 학습 데이터를 이용하여, 상기 설정된 특징맵의 격자 내에 인식된 객체 중 차량을 인식할 수 있게 되는 것이다.Accordingly, it is possible to recognize a vehicle among objects recognized in the grid of the set feature map by using the vehicle detection learning data.

상기 차량 영역 검출 단계(S200)에서 검출한 차량 영역(A1)은 도 3에 도시된 바와 같이 나타난다.The vehicle area A1 detected in the vehicle area detection step S200 appears as shown in FIG. 3.

번호판 영역 검출 단계(S300)은, 상기 차량 영역 검출 단계(S200)에서 검출된 차량 영역(A1)에서, 차량 영역(A1) 내에 위치한 번호판 영역(A2)을 검출하기 위하여, 번호판 검출 학습 데이터와 SSD(Single shot multibox detector) 알고리즘을 이용하여 번호판 영역(A2)을 검출하는 단계이다.License plate area detection step (S300), in the vehicle area (A1) detected in the vehicle area detection step (S200), in order to detect the license plate area (A2) located in the vehicle area (A1), license plate detection learning data and SSD This is a step of detecting the license plate area A2 using the (Single shot multibox detector) algorithm.

상기 번호판 영역 검출 단계(S300)는, 상기 차량 영역 검출 단계(S200)에서 검출한 차량 영역(A1) 내에서 격자 형태의 특징맵을 설정하고, 설정된 특징맵에서 차량 번호판 이미지를 포함한 특징맵의 격자 픽셀을 연결시켜 바운딩 박스를 형성하여 번호판 영역(A2)을 검출하게 된다.In the license plate area detection step (S300), a feature map in the form of a grid is set within the vehicle area A1 detected in the vehicle area detection step (S200), and a grid of a feature map including a vehicle license plate image in the set feature map. A bounding box is formed by connecting pixels to detect the license plate area A2.

즉, 상기 번호판 영역(A2)을 검출하기 위하여, 차량 번호판을 포함한 영역에 바운딩 박스를 형성하여 번호판 영역(A2)을 검출하게 되는 것이다. That is, in order to detect the license plate area A2, a bounding box is formed in the area including the vehicle license plate to detect the license plate area A2.

이에 대하여 설명하면, 상기 번호판 영역(A2)을 검출하기 위하여, 격자 형태의 특징맵을 설정할 시, 상기 차량 영역 검출 단계(S200)에서 설정한 특징맵의 격자의 크기보다 작은 격자 형태의 특징맵을 형성하여 차량 면적을 배제시키고 차량 면적 내의 차량 번호판을 검출하게 되는 것이다.In this regard, in order to detect the license plate area A2, when setting a grid-shaped feature map, a grid-shaped feature map smaller than the grid size of the feature map set in the vehicle region detection step S200 is selected. It is formed to exclude the vehicle area and detect the vehicle license plate within the vehicle area.

이때, 상기 번호판 영역 검출 단계(S300)에서 설정된 특징맵에서 객체 존재 여부를 판단하되 해당 객체가 차량 번호판임을 판단하기 위하여, 차량 번호판 검출 학습 데이터를 이용하여 판단하는 것을 특징으로 한다.In this case, it is characterized in that it is determined whether an object exists in the feature map set in the license plate area detection step (S300), but is determined using vehicle license plate detection learning data in order to determine that the object is a vehicle license plate.

상기 차량 번호판 검출 학습 데이터란, 차량 번호판 학습을 위하여, 차량 번호판을 포함하는 하나 이상의 이미지를 의미한다.The vehicle license plate detection learning data means one or more images including the vehicle license plate for learning the vehicle license plate.

상기 번호판 영역 검출 단계(S300)에서 검출한 번호판 영역(A2)은 도 3에 도시된 바와 같이 상기 차량 영역 검출 단계(S200)에서 검출한 차량 영역(A1) 내에 위치하여 검출되는 것이다.The license plate area A2 detected in the license plate area detection step S300 is positioned and detected in the vehicle area A1 detected in the vehicle area detection step S200, as shown in FIG. 3.

상기 차량 영역 검출 단계(S200), 번호판 영역 검출 단계(S300)는, 차량 영역(A1) 및 번호판 영역(A2)을 검출하기 위하여, 공지의 딥러닝 방식의 SSD(Single shot Multibox Detector) 알고리즘을 이용하여 해당 영역을 검출할 수 있다.The vehicle area detection step (S200) and the license plate area detection step (S300) use a known deep learning single shot multibox detector (SSD) algorithm to detect the vehicle area A1 and the license plate area A2. Thus, the region can be detected.

상기 차량 영역 검출 단계(S200) 및 번호판 영역 검출 단계(S300)에서 해당 영역을 검출하기 위하여 딥러닝 방식의 SSD 알고리즘을 이용하는 것은, 기존에 이미지에서 특정 객체 및 영역을 검출하기 위하여, 특징을 추출하고, 특징을 추출한 이후에 추출한 특징을 포함하는 해당 영역을 검출하는 두단계의 과정를 거치게 되는데, 상기 차량 영역 검출 단계(S200), 번호판 영역 검출 단계(S300)에서 딥러닝 방식의 SSD(Single shot detection) 알고리즘을 이용하게 됨으로써, 특징 추출과 영역 검출을 동시에 처리함으로써 상기 서술한 두 단계의 과정을 단축시킬 수 있어 처리 속도를 향상시킬 수 있는 것이다.In the vehicle area detection step (S200) and the license plate area detection step (S300), the use of a deep learning SSD algorithm to detect a corresponding area is performed by extracting a feature in order to detect a specific object and area in an existing image. , After the feature is extracted, a two-step process of detecting a corresponding region including the extracted feature is performed.In the vehicle region detection step (S200) and the license plate region detection step (S300), a deep learning method of single shot detection (SSD) By using the algorithm, feature extraction and region detection are simultaneously processed, thereby reducing the above-described two-step process, thereby improving processing speed.

다음으로 크롭핑 단계(S400)가 실행된다. 상기 크롭핑 단계(S400)는, 상기 차량 영역 검출 단계(S200)에서 검출한 차량 영역(A1) 내에서, 상기 번호판 영역 검출 단계(S300)에서 검출한 번호판 영역(A2)을 크롭핑하여(잘라내어) 크롭핑 이미지(C1)를 추출하는 단계이다.Next, the cropping step (S400) is executed. The cropping step (S400) includes cropping (cutting out) the license plate area A2 detected in the license plate area detecting step S300 within the vehicle area A1 detected in the vehicle area detecting step S200. ) This is the step of extracting the cropping image C1.

상기 크롭핑 단계(S400)는, 차량 번호판을 포함하는 영역을 추출하고 이외의 영역은 삭제하기 위한 단계로서, 상기 차량 영역 검출 단계(S400)에서 검출한 차량 영역(A1) 내에서, 번호판 영역(A2)을 포함하도록 영역을 설정하고 크롭핑하여 크롭핑 이미지(C1)를 추출한다. 이는 크롭핑 이미지(C1)만 추출하여 불필요한 부분을 제거함으로서 추후 확장 이미지(E1)를 생성할 때 데이터 처리속도를 높이기 위함이다. 상기 크롭핑 단계(S400)에서 추출된 크롭핑 이미지(C1)는 도 5에 도시된 바와 같이, 번호판 영역(A2)을 기준으로 설정될 수 있다.The cropping step (S400) is a step for extracting a region including the vehicle license plate and deleting the other regions. Within the vehicle region A1 detected in the vehicle region detecting step S400, the license plate region ( The area is set to include A2) and cropped to extract the cropped image C1. This is to increase the data processing speed when generating the expanded image E1 later by extracting only the cropping image C1 and removing unnecessary portions. The cropping image C1 extracted in the cropping step S400 may be set based on the license plate area A2, as shown in FIG. 5.

확장 이미지 생성 단계(S500)는, 상기 크롭핑 단계(S400)에서 추출한 크롭핑 이미지(C1)에 대하여, 데이터 확장 알고리즘을 이용하여 이미지를 변형한 확장 이미지(E1)를 생성하는 단계이다.The extended image generation step S500 is a step of generating an extended image E1 obtained by transforming the image using a data expansion algorithm with respect to the cropping image C1 extracted in the cropping step S400.

상기 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘에는, 기하학 변형(Geometric Distortion) 방식과 엘라스틱 변형(Elastic Distortion/탄성 변형) 방식과 광학적 변형(Photometric Distortion) 방식이 있다. 이들 세 가지 변형 방식은 필요에 따라 한 가지 또는 두 가지 이상의 방식을 조합하여 적용할 수 있다.The data expansion algorithm in the extended image generation step S500 includes a geometric distortion method, an elastic distortion method, and an optical distortion method. These three modifications can be applied by combining one or two or more methods according to need.

도 4는 본 발명의 실시예에 따른 데이터 확장 및 CNN을 이용한 차량번호 인식 방법의 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘으로 기하학 변형 방식을 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining a geometry transformation method as a data expansion algorithm in an expanded image generation step (S500) of a method for expanding data and recognizing a vehicle number using a CNN according to an exemplary embodiment of the present invention.

도 4를 참조하면 기하학 변형 방식은 상기 크롭핑 단계(S400)에서 추출한 크롭핑 이미지(C1)에 대하여, 크롭핑 이미지(C1)의 각각의 픽셀을 회전시키는 회전(rotation) 연산, 픽셀을 뒤트는 뒤틀기(shearing) 연산, 픽셀을 이동 시키는 이동(translation) 연산, 픽셀을 확대시키는 확대(scaling) 연산을 포함하는 변형 연산 방식으로 확장 이미지(E1)를 생성하는 것을 특징으로 한다.Referring to FIG. 4, the geometric transformation method includes a rotation operation for rotating each pixel of the cropping image C1, and for twisting the pixels with respect to the cropping image C1 extracted in the cropping step S400. It is characterized in that the extended image E1 is generated by a transformation operation method including a shearing operation, a translation operation to move a pixel, and a scaling operation to enlarge a pixel.

상기 변형 연산은 3X3 변형 매트릭스를 이용하되, 회전 변형을 실시한 회전 이미지(RO), 뒤틀기 변형을 실시한 뒤틀기 이미지(SH), 이동 변형을 실시한 이동 이미지(TR) 또는 확대 변형을 실시한 확대 이미지(SC)가 적용된 확장 이미지(E1)를 생성하는 것을 특징으로 한다.The transformation operation is performed using a 3X3 transformation matrix, but the rotational image RO, which is subjected to rotational transformation, the distorted image (SH), which is subjected to warping transformation, the moving image TR, or the enlarged image (SC), which has undergone expansion transformation. It characterized in that it generates an extended image (E1) to which is applied.

이때, 상기 확장 이미지 생성 단계(S500)에서 크롭핑 이미지(C1)의 각 픽셀에 실시하는 변형 연산 중 회전 변형에 대한 변형 매트릭스는 다음과 같은 행렬 구조로 이루어질 수 있으나 반드시 이에 한정되는 것은 아니다.In this case, the transformation matrix for rotational transformation among the transformation operations performed on each pixel of the cropping image C1 in the extended image generation step S500 may be formed in the following matrix structure, but is not limited thereto.

Figure 112020097167398-pat00001
Figure 112020097167398-pat00001

상기 확장 이미지 생성 단계(S500)에서 크롭핑 이미지(C1)의 각 픽셀에 실시하는 변형 연산 중 뒤틀기 변형에 대한 변형 매트릭스는 다음과 같은 행렬 구조로 이루어질 수 있으나 반드시 이에 한정되는 것은 아니다.Among the deformation operations performed on each pixel of the cropping image C1 in the extended image generation step S500, the deformation matrix for the warp deformation may be formed in the following matrix structure, but is not limited thereto.

Figure 112020097167398-pat00002
Figure 112020097167398-pat00002

상기 확장 이미지 생성 단계(S500)에서 크롭핑 이미지(C1)의 각 픽셀에 실시하는 변형 연산 중 이동 변형에 대한 변형 매트릭스는 다음과 같은 행렬 구조로 이루어질 수 있으나 반드시 이에 한정되는 것은 아니다.Among the transformation operations performed on each pixel of the cropping image C1 in the extended image generation step S500, the transformation matrix for the movement transformation may be formed in the following matrix structure, but is not limited thereto.

Figure 112020097167398-pat00003
Figure 112020097167398-pat00003

상기 확장 이미지 생성 단계(S500)에서 크롭핑 이미지(C1)의 각 픽셀에 실시하는 변형 연산 중 확대 변형에 대한 변형 매트릭스는 다음과 같은 행렬 구조로 이루어질 수 있으나 반드시 이에 한정되는 것은 아니다.Among the transformation operations performed on each pixel of the cropping image C1 in the step of generating the expanded image (S500 ), the transformation matrix for the expanded transformation may be formed in the following matrix structure, but is not limited thereto.

Figure 112020097167398-pat00004
Figure 112020097167398-pat00004

한편 상기 서술한 각각의 변형 매트릭스를 [수학식 1]에 대입하여 크롭핑 이미지(C1)의 각 픽셀에 대한 변형 연산을 실시할 수 있다.Meanwhile, by substituting each of the above-described transformation matrices into [Equation 1], a transformation operation may be performed on each pixel of the cropped image C1.

[수학식 1][Equation 1]

Figure 112020097167398-pat00005
Figure 112020097167398-pat00005

R은 회전(Rotation) 변형에 대한 변형 매트릭스, Sh는 뒤틀기(Shearing) 변형에 대한 변형 매트릭스, T는 이동(Translation) 변형에 대한 변형 매트릭스, Sc는 확대(Scaling) 변형에 대한 변형 매트릭스이다.R is a transformation matrix for rotation transformation, Sh is a transformation matrix for shearing transformation, T is a transformation matrix for translation transformation, and Sc is a transformation matrix for scaling transformation.

상기 [수학식 1]을 참조하여 설명하면, 각 변형 매트릭스의 값을 설정함에 따라, 크롭핑 이미지(C1)의 각 픽셀의 변형 연산을 실시하여 회전, 뒤틀기, 이동, 확대가 가능하고, 상기 [수학식 1]의 연산을 통하여 확장 이미지(E1) 학습 데이터를 생성하게 되는 것이다.When described with reference to [Equation 1], by setting a value of each transformation matrix, a transformation operation of each pixel of the cropping image C1 is performed to rotate, warp, move, and enlarge, and the [ The extended image E1 training data is generated through the operation of Equation 1].

또한, 상기 [수학식 1]에 각 변형 매트릭스 값을 설정함에 따라 변형 연산 과정을 통하여 하나의 학습이미지로부터 결과적으로 다양한 확장 이미지(E1)를 다양하게 생성할 수 있게 되는 것이다.In addition, as each transformation matrix value is set in [Equation 1], various extended images E1 can be variously generated as a result from one learning image through a transformation operation process.

즉, 크롭핑 이미지(C1)에 변형 연산을 실시할 시, 크롭핑 이미지(C1)의 각 픽셀에 회전, 뒤틀기, 이동, 확대 변형을 선택적으로 실시할 수 있어 이에 따라 생성되는 확장 이미지(E1)가 다양하게 생성될 수 있는 것이다.That is, when a transformation operation is performed on the cropping image C1, rotation, distortion, movement, and enlargement transformation can be selectively performed on each pixel of the cropping image C1, and thus the expanded image E1 generated accordingly. Can be created in various ways.

또한 상기 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘은, 엘라스틱 변형(Elastic Distortion/탄성 변형) 방식으로 이미지에 포함된 각각의 픽셀을 임의의 방향으로 뒤틀리게 변형시켜 확장 이미지(E1)를 생성하는 것을 특징으로 한다. 이는 각 이미지의 픽셀에 대하여, 픽셀 위치에 대한 임의의 변위장(displacement field)을 구하여 이미지 모양을 변형시키는 것으로서, 이미지의 각각의 픽셀별로 다른 방향으로 뒤틀리게 함으로서 자연스러운 이미지의 변형을 위한 것이다.In addition, the data expansion algorithm of the expanded image generation step (S500) is to generate an expanded image E1 by distorting each pixel included in the image in a random direction using an elastic distortion (elastic distortion) method. It is characterized. This is for transforming the shape of the image by obtaining an arbitrary displacement field with respect to the pixel position for each pixel of the image, and is for transforming a natural image by distorting each pixel of the image in a different direction.

보다 구체적으로 엘라스틱 변형(Elastic Distortion/탄성 변형) 처리 과정을 [수학식 2] 내지 [수학식 5]를 참조하여 설명하면,More specifically, the elastic deformation (Elastic Distortion / elastic deformation) processing process will be described with reference to [Equation 2] to [Equation 5],

[수학식 2][Equation 2]

dx(x, y) = rand(-1, +1)dx(x, y) = rand(-1, +1)

[수학식 3][Equation 3]

dy(x, y) = rand(-1, +1)dy(x, y) = rand(-1, +1)

먼저, 상기 [수학식 2] 및 [수학식 3]을 이용하여 x, y에 대한 유니폼 랜덤 변위장 dx, dy 값을 구한다.First, uniform random displacement fields dx and dy values for x and y are obtained using [Equation 2] and [Equation 3].

상기 [수학식2], [수학식 3]에 따라, rand 함수는 x, y에 대하여 -1에서 +1의 범위에서 임의의 값의 유니폼 랜덤 변위장 dx, dy 값을 구하게 되는 것이다.According to [Equation 2] and [Equation 3], the rand function obtains uniform random displacement fields dx and dy values of arbitrary values in the range of -1 to +1 for x and y.

[수학식 4][Equation 4]

Smoothing(dx, dy, kernel_size, sigma)Smoothing(dx, dy, kernel_size, sigma)

[수학식 5][Equation 5]

Smoothing(dx, dy, kernel_size, sigma)Smoothing(dx, dy, kernel_size, sigma)

여기서 시그마(sigma)는, 가우시안 커널 매개 변수로(Gaussian kernel parameter) 표준편차를 의미고, 커널 사이즈(kernel_size)는 "sigma X 6 + 1"과 같다.Here, sigma means a standard deviation of a Gaussian kernel parameter, and a kernel size (kernel_size) is equal to "sigma X 6 + 1".

상기 [수학식 4] 및 [수학식 5]를 이용하녀 [수학식 2] 및 [수학식 3]에서 구한 각 픽셀 위치에 대한 임의의 유니폼 랜덤 변위장에 대하여 노이즈를 제거하기 위한 스무딩(sommthing/평활화) 값을 구하게 된다.Using the above [Equation 4] and [Equation 5], smoothing (sommthing/ Smoothing).

이때, 상기 시그마(sigma) 값이 클수록 넓은 영역의 노이즈를 제거하기 위한 스무딩값을 구하게 되고, 시그마(sigma) 값이 작을수록 좁은 영역의 노이즈를 제거하기 위한 스무딩값을 구하게 되는 것이다.In this case, as the sigma value increases, a smoothing value for removing noise in a wide area is obtained, and as the sigma value is small, a smoothing value for removing noise in a narrow area is obtained.

다음으로 스무딩을 적용한 변위장에 알파(alpha) 값을 곱한다. 알파 값을 곱하는 이유는 변형 정도의 세기를 조절하기 위함이다.Next, the displacement field applied smoothing is multiplied by the alpha value. The reason for multiplying the alpha value is to control the intensity of the degree of deformation.

상기 스무딩을 적용한 변위장에 알파(alpha)값을 곱하는 것을 변형 정도의 세기를 조절하기 위한 것으로 상기 알파(alpha)값은 변위의 강도값을 의미하며, 알파(alpha)값이 클수록 변형 강도가 높아지는 것이다.Multiplying the displacement field to which the smoothing is applied by an alpha value is used to adjust the intensity of the degree of deformation.The alpha value means the intensity value of the displacement, and the larger the alpha value, the higher the deformation strength. will be.

마직막으로 알파 값을 곱하여 최종적으로 구한 변위장 dx, dy 위치로 원래 이미지 위치(x, y)의 값을 가져와 맵핑(remapping)하면 엘라스틱 변형이 적용된 확장 이미지(E1)를 생성할 수 있다.Finally, when the values of the original image positions (x, y) are obtained and mapped to the displacement fields dx and dy positions finally obtained by multiplying the alpha value, an extended image E1 to which the elastic deformation has been applied can be generated.

상기 확장 이미지 생성 단계(S500)에서 엘라스틱 변형(Elastic Distortion/탄성 변형) 방식의 데이터 확장 알고리즘을 이용하여 이미지에 포함된 각각의 픽셀을 임의의 방향으로 뒤틀리게 변형시켜 확장 이미지(E1)를 생성할 시, 회전(Rotation) 연산에 의한 회전 변형, 뒤틀기(Shearing) 연산에 의한 뒤틀기 변형, 이동(Translation) 연산에 의한 이동 변형, 확대(Scaling) 연산에 의한 확대 변형은 선형 방식의 변형이기 때문에 일정한 형태로 변형되지만, 엘라스틱 변형(Elastic Distortion/탄성 변형)은 이미지에 포함된 각각의 픽셀별로 임의의 방향으로 변형시키기 때문에 선형 방식의 변형보다 자연스러운 이미지의 변형이 가능하게 되는 것이다.When generating an extended image E1 by distorting each pixel included in the image in a random direction using an elastic deformation (elastic deformation) data expansion algorithm in the extended image generating step (S500) , Rotation transformation by rotation operation, warping transformation by shearing operation, movement transformation by translation operation, and expansion transformation by scaling operation are linear transformations. Although it is deformed, since elastic distortion (Elastic Distortion) transforms each pixel included in the image in an arbitrary direction, it is possible to transform a natural image rather than a linear transformation.

마지막으로 상기 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘은, 광학적 변형(Photometric Distortion) 방식으로 이미지에 포함된 각각의 픽셀의 컬러 값 또는 밝기 값에 임의의 노이즈(Noise)를 추가하는 노이즈 연산 변형과, 밝기 콘트라스트(light contrast) 값을 변형시키는 밝기 콘트라스트 연산 변형을 사용하여 확장 이미지(E1)를 생성하는 것을 특징으로 한다. 이는 차량을 촬영한 영상을 조명, 반사 등 주변 환경의 영향으로 왜곡된 것과 유사하게 변형하여 확장이미지를 생성하고 이를 학습시켜 실제 촬영된 영상의 화질이 불량한 상황에서도 차량번호 인식을 수행할 수 있도록 하기 위함이다.Finally, the data expansion algorithm of the extended image generation step (S500) is a noise operation modification that adds random noise to the color value or brightness value of each pixel included in the image in a photometric distortion method. And, the extended image E1 is generated by using a brightness contrast operation modification that transforms a light contrast value. This is to create an extended image by transforming the image taken of the vehicle to be similar to the one distorted by the influence of the surrounding environment such as lighting and reflection, and to learn it so that the vehicle number recognition can be performed even in a situation where the image quality is poor. It is for sake.

보다 상세하게 광학적 변형 방식에서 노이즈 연산 변형은 각 이미지의 픽셀의 컬러(color) 값 값에 대하여 노이즈(noise) 값을 추가하되 노이즈 값은 다음의 [수학식 6]에 따라 가우시안 분포 노이즈를 계산하여 원래 이미지에 추가할 수 있다.In more detail, in the optical transformation method, noise calculation transformation adds a noise value to the color value of each image pixel, but the noise value is calculated by calculating Gaussian distribution noise according to the following [Equation 6]. Can be added to the original image.

[수학식 6][Equation 6]

img_nosiy = img_src + random_noiseimg_nosiy = img_src + random_noise

여기서, img_src는 원래의 이미지의 컬러 값이고, img_nosiy 는 노이즈 값이 추가된 이미지의 컬러 값이며, random_noise 는 평균값이 “0”이고 표준편차값이 “1”인 정규분포를 가지는 가우시안 분포 노이즈 값이다.Here, img_src is the color value of the original image, img_nosiy is the color value of the image to which the noise value is added, and random_noise is a Gaussian distribution noise value having a normal distribution with an average value of “0” and a standard deviation value of “1”. .

노이즈 연산 변형을 거치면 컬러 값이 다른 이미지를 생성할 수 있고, 이는 차량번호를 인식할 때 촬영 환경에 따라 컬러가 왜곡된 경우에도 정확한 인식이 가능하도록 학습을 시킬 수 있다. An image having a different color value can be generated through noise calculation transformation, and this can be learned to enable accurate recognition even when the color is distorted according to the shooting environment when recognizing the vehicle number.

광학적 변형 방식에서 밝기 대비 연산 변형은 각 이미지의 픽셀의 밝기 값을 변형하기 위한 연산을 다음의 [수학식 7]에 따라 수행할 수 있다.In the optical transformation method, the operation transformation against brightness may be performed according to the following [Equation 7] for modifying the brightness value of the pixel of each image.

[수학식 7][Equation 7]

f(x) = (x - Vmin) * (max - min) / (Vmax - Vmin) + min f(x) = (x-Vmin) * (max-min) / (Vmax-Vmin) + min

여기서, f(x)는 밝기 대비 연산 변형의 결과 값이고, x는 이미지의 밝기 값이며, max는 이미지의 밝기의 최대 값이고, min은 이미지의 밝기의 최소 값이며, Vmax는 이미지의 밝기 변형의 최대 값이고, Vmin은 이미지의 밝기 변형의 최소 값이다. Here, f(x) is the result of transforming the brightness of the image, x is the brightness of the image, max is the maximum brightness of the image, min is the minimum brightness of the image, and Vmax is the brightness variation of the image. Is the maximum value, and Vmin is the minimum value of the brightness variation of the image.

밝기 대비 연산 변형을 거치면 밝기 값이 다른 이미지를 생성할 수 있고, 이는 차량번호를 인식할 때 촬영 환경에 따라 조명이 밝거나 어두운 경우 등 촬영 조건이 좋지 않은 경우에도 정확한 인식이 가능하도록 학습을 시킬 수 있다. An image with a different brightness value can be generated by changing the brightness contrast calculation, and this allows learning to be accurately recognized even when the shooting conditions are poor, such as when the lighting is bright or dark depending on the shooting environment when recognizing the vehicle number. I can.

상술한 광학적 변형 방식은 학습이미지를 광학적으로 다양하게 변형한 확장이미지를 다수 생성함으로서 보다 빠르게 많은 다양한 학습 이미지들로 인공신경망 또는 CNN을 학습시킬 수 있다. The above-described optical transformation method generates a large number of extended images obtained by optically variously transforming a learning image, so that an artificial neural network or CNN can be trained more quickly with a large number of various learning images.

상기 확장 이미지 생성 단계(S500)에 적용할 수 있는 데이터 확장 알고리즘은 위에서 설명한 기하학 변형 방식과 엘라스틱 변형(Elastic Distortion/탄성 변형) 방식과 광학적 변형(Photometric Distortion) 방식의 데이터 확장 알고리즘 중 어느 하나만을 적용하거나 두 가지 알고리즘 또는 세 가지 알고리즘을 동시에 적용할 수 있음은 통상의 기술자에게 자명하 므로 별도로 설명하지 않는다.The data expansion algorithm that can be applied to the extended image generation step (S500) applies only one of the above-described geometric transformation method, elastic distortion (elastic distortion) method, and optical distortion method data expansion algorithm. Or, it is obvious to a person skilled in the art that two algorithms or three algorithms can be applied at the same time, and thus not described separately.

학습 데이터 생성 단계(S600)는, 확장 이미지 생성 단계(S500)에서 생성한 확장 이미지(E1)의 각 픽셀 중 특징 요소를 포함하는 특징 픽셀을 추출하고, 추출한 특징 픽셀을 맵핑하여 학습 데이터를 생성하는 단계이다.In the training data generation step S600, a feature pixel including a feature element is extracted from each pixel of the extended image E1 generated in the extended image generation step S500, and the extracted feature pixel is mapped to generate training data. Step.

상기 학습 데이터 생성 단계(S600)는, 확장 이미지 생성 단계(S500)에서 생성한 확장 이미지(E1)의 각 픽셀에 대한 특징을 추출하도록 컨볼루션 레이어(Convolution layer)와 풀링 레이어(pooling layer)를 포함하는 CNN(Convolution neural network) 알고리즘을 통해 필터링하여 특징 픽셀을 추출하고, 추출한 특징 픽셀들을 맵핑하여 학습 데이터를 생성하는 단계이다.The training data generation step (S600) includes a convolution layer and a pooling layer to extract features for each pixel of the expanded image E1 generated in the expanded image generation step (S500). In this step, feature pixels are extracted by filtering through a convolution neural network (CNN) algorithm, and training data is generated by mapping the extracted feature pixels.

도 6을 참조하여 설명하면, 상기 학습 데이터 생성 단계(S600)는, 상기 확장 이미지 생성 단계(S500)에서 생성한 하나 이상의 확장 이미지 데이터의 영역 크기를 정규화 시킬 수 있다. Referring to FIG. 6, the training data generating step S600 may normalize the area size of one or more extended image data generated in the extended image generating step S500.

이는, 상기 학습 데이터 생성 단계(S600)에서 각 픽셀에 대한 특징을 추출하기 위하여 필터링 할 시 보다 용이하게 하기 위함이다.This is to facilitate filtering in order to extract features for each pixel in the training data generation step (S600).

상기 학습 데이터 생성 단계(S600)에서 확장 이미지를 이용하여 각 픽셀에 대한 특징을 추출하기 위하여 필터링 할 시 보다 용이하게 하기 위함이다.This is to facilitate filtering in order to extract features for each pixel by using the extended image in the training data generation step (S600).

상기 학습 데이터 생성 단계(S600)는, CNN(Convolutional Neural Network) 알고리즘을 이용하여 필터링 및 맵핑을 한다.In the training data generation step (S600), filtering and mapping are performed using a convolutional neural network (CNN) algorithm.

결론적으로 상기 학습 데이터 생성 단계(S600)는, 상기 확장 이미지 생성 단계(S500)에서 생성한 하나 이상의 확장 이미지 데이터를 이용하여 컨볼루션 신경망(CNN, Convolutional Neural Network)을 학습시킨다.In conclusion, in the training data generation step (S600), a convolutional neural network (CNN) is trained by using one or more expanded image data generated in the expanded image generation step (S500).

차량번호 인식 단계(S700)는, 상기 학습 데이터 생성 단계(S600)에서 학습시킨 컨볼루션 신경망(CNN, Convolutional Neural Network)을 이용하여 카메라로 촬영된 영상에서 차량번호를 인식하여 검출한다.In the vehicle number recognition step (S700), the vehicle number is recognized and detected from an image captured by a camera using a convolutional neural network (CNN) learned in the training data generation step (S600).

상술한 과정을 거쳐 본 발명 데이터 확장 및 CNN을 이용한 차량번호 인식 방법은 방범, 교통관제, 주차관제 등의 분야에서 보다 정확하게 차량번호를 인식할 수 있다.Through the above-described process, the vehicle number recognition method using the data expansion and CNN of the present invention can more accurately recognize the vehicle number in fields such as crime prevention, traffic control, and parking control.

한편 본 발명은 데이터 확장 및 CNN을 이용한 차량번호 인식 장치(미도시)를 포함할 수 있다. Meanwhile, the present invention may include a vehicle number recognition apparatus (not shown) using data expansion and CNN.

상기 데이터 확장 및 CNN을 이용한 차량번호 인식 장치는 학습용 차량 영상을 입력하는 영상 입력부; 차량 검출 학습 데이터와 SSD(Single shot multibox detector) 알고리즘을 이용하여 입력된 차량 영상 내의 차량 영역(A1)을 검출하는 차량 영역 검출부; 상기 검출된 차량 영역(A1)에서, 차량 영역(A1) 내에 위치한 번호판 영역(A2)을 검출하는 번호판 영역 검출부; 상기 검출한 번호판 영역(A2)을 포함하는 영역을 크롭핑하여 크롭핑 이미지(C1)를 추출하는 크롭핑부; 상기 추출한 크롭핑 이미지(C1)에 대하여, 데이터 확장 알고리즘을 이용하여 이미지를 변형한 확장 이미지(E1)를 생성하는 확장 이미지 생성부; 상기 생성한 확장 이미지(E1)를 컨볼루션신경망(CNN)에 입력하여 차량번호 인식 학습을 실시하고 확장된 차량번호 인식 학습 데이터를 생성하는 확장된 차량번호 인식 학습 데이터 생성부; 상기 확장된 차량번호 인식 학습 데이터를 이용하여 카메라로부터 입력되는 영상데이터에서 차량번호를 인식하는 차량번호 인식부;를 포함하고, 상기 확장 이미지 생성부의 데이터 확장 알고리즘은 광학적 변형 방식으로 확장이미지를 생성하되, 하기의 수학식을 이용하여 상기 크롭핑 이미지(C1)의 컬러 값에 노이즈 값을 추가하여 확장 이미지(E1)를 생성할 수 있다.
[수학식] img_nosiy = img_src + random_noise
(여기서, img_nosiy는 노이즈 값이 추가된 이미지이고, img_src는 원래의 이미지이며, random_noise는 평균값이 “0”이고 표준편차값이 “1”인 정규분포를 가지는 노이즈값임)
The vehicle number recognition apparatus using the data expansion and CNN includes an image input unit for inputting a vehicle image for training; A vehicle area detection unit detecting a vehicle area A1 in the input vehicle image using vehicle detection learning data and a single shot multibox detector (SSD) algorithm; A license plate area detection unit for detecting a license plate area A2 located in the vehicle area A1 in the detected vehicle area A1; A cropping unit for extracting a cropped image C1 by cropping an area including the detected license plate area A2; An extended image generator for generating an extended image E1 in which the image is transformed using a data extension algorithm with respect to the extracted cropping image C1; An extended vehicle number recognition learning data generator configured to perform vehicle number recognition learning by inputting the generated extended image E1 into a convolutional neural network (CNN) and generating extended vehicle number recognition learning data; A vehicle number recognition unit for recognizing a vehicle number from image data input from a camera using the expanded vehicle number recognition learning data, wherein the data expansion algorithm of the extended image generation unit generates an extended image using an optical transformation method, , An extended image E1 may be generated by adding a noise value to the color value of the cropping image C1 using the following equation.
[Equation] img_nosiy = img_src + random_noise
(Here, img_nosiy is an image to which noise values have been added, img_src is an original image, and random_noise is a noise value having a normal distribution with an average value of “0” and a standard deviation value of “1”)

데이터 확장 및 CNN을 이용한 차량번호 인식 장치의 영상 입력부와 차량 영역 검출부와 번호판 영역 검출부와 크롭핑부와 확장 이미지 생성부와 학습 데이터 생성부 및 차량번호 인식부는 상기 서술한 차량번호 인식 장치와 동작 원리가 동일하기 때문에 자세한 설명은 생략한다.The image input unit, the vehicle area detection unit, the license plate area detection unit, the cropping unit, the extended image generation unit, the learning data generation unit, and the vehicle number recognition unit of the vehicle number recognition device using data expansion and CNN are based on the above-described vehicle number recognition device and its operation principle Since they are the same, detailed descriptions are omitted.

본 발명 데이터 확장 및 CNN을 이용한 차량번호 인식 방법 및 장치에 따르면, 한정된 학습이미지에 데이터 확장 알고리즘을 이용하여 이미지를 변형한 확장 이미지(E1)를 생성하고 인공신경망에 입력하여 학습시킴으로서 적은 수의 학습이미지로도 보다 정확하게 차량번호를 인식할 수도록 학습시킬 수 있다.According to the method and apparatus for recognizing vehicle number using data expansion and CNN according to the present invention, a small number of learning is performed by generating an expanded image (E1) transformed from an image using a data expansion algorithm in a limited training image and inputting it into an artificial neural network for training. You can learn to recognize the vehicle number more accurately with images.

또한, 본 발명은 기하학적 변형 방식과 엘라스틱 변형 방식과 광학적 변형 방식으로 확장된 이미지로 CNN을 학습을 시킴으로써 촬영된 영상의 전처리 과정이 부족하더라도 정확하게 차량번호를 인식할 수 있는 효과가 제공된다.In addition, the present invention provides an effect of accurately recognizing the vehicle number even if the pre-processing process of the captured image is insufficient by learning the CNN with the image expanded by the geometrical transformation method, the elastic transformation method, and the optical transformation method.

이상에서 본 발명은 도면에 도시된 바를 바탕으로 설명되었으나 이는 예시적인 것에 불과하며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시 예 및 도면에 한정되는 것은 아니다.In the above, the present invention has been described based on what is shown in the drawings, but this is only illustrative, and various substitutions, modifications and changes are possible within the scope of the technical spirit of the present invention, so limited to the above-described embodiments and drawings. It does not become.

S100 : 영상 입력 단계 S500 : 확장 이미지 생성 단계
S200 : 차량 영역 검출 단계 S600 : 학습 데이터 생성 단계
S300 : 번호판 영역 검출 단계 S700 : 차량번호 인식 단계
S400 : 크롭핑 단계
S100: Image input step S500: Extended image generation step
S200: vehicle area detection step S600: learning data generation step
S300: License plate area detection step S700: Vehicle number recognition step
S400: cropping step

Claims (6)

데이터 확장 및 CNN을 이용한 차량번호 인식 방법에 있어서,
학습용 차량 영상을 입력하는 영상 입력 단계(S100);
차량 검출 학습 데이터와 SSD(Single shot multibox detector) 알고리즘을 이용하여 상기 영상 입력 단계(S100)에서 입력된 차량 영상 내의 차량 영역(A1)을 검출하는 차량 영역 검출 단계(S200);
상기 차량 영역 검출 단계(S200) 에서 검출된 차량 영역(A1)에서, 차량 영역(A1) 내에 위치한 번호판 영역(A2)을 검출하는 번호판 영역 검출 단계(S300);
상기 차량 영역 검출 단계(S200)에서 검출한 차량 영역(A1) 내에서, 상기 번호판 영역 검출 단계(S300)에서 검출한 번호판 영역(A2)을 포함하는 영역을 크롭핑하여 크롭핑 이미지(C1)를 추출하는 크롭핑 단계(S400);
상기 크롭핑 단계(S400)에서 추출한 크롭핑 이미지(C1)에 대하여, 데이터 확장 알고리즘을 이용하여 이미지를 변형한 확장 이미지(E1)를 생성하는 확장 이미지 생성 단계(S500);
상기 확장 이미지 생성 단계(S500)에서 생성한 확장 이미지(E1)를 컨볼루션신경망(CNN)에 입력하여 차량번호 인식 학습을 실시하고 확장된 차량번호 인식 학습 데이터를 생성하는 확장된 차량번호 인식 학습 데이터 생성 단계(S600);
상기 확장된 차량번호 인식 학습 데이터를 이용하여 카메라로부터 입력되는 영상데이터에서 차량번호를 인식하는 차량번호 인식 단계(S700);를 포함하고,
상기 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘은 광학적 변형 방식으로 확장이미지를 생성하되,
하기의 수학식을 이용하여 상기 크롭핑 이미지(C1)의 컬러 값에 노이즈 값을 추가하여 확장 이미지(E1)를 생성하는 것을 특징으로 하는 데이터 확장 및 CNN을 이용한 차량번호 인식 방법.
[수학식] img_nosiy = img_src + random_noise
(여기서, img_nosiy는 노이즈 값이 추가된 이미지이고, img_src는 원래의 이미지이며, random_noise는 평균값이 “0”이고 표준편차값이 “1”인 정규분포를 가지는 노이즈값임)
In the vehicle number recognition method using data expansion and CNN,
An image input step of inputting an image of a vehicle for learning (S100);
A vehicle area detection step (S200) of detecting a vehicle area (A1) in the vehicle image input in the image input step (S100) using vehicle detection learning data and a single shot multibox detector (SSD) algorithm;
A license plate area detection step (S300) of detecting a license plate area (A2) located in the vehicle area (A1) in the vehicle area (A1) detected in the vehicle area detection step (S200);
In the vehicle area A1 detected in the vehicle area detection step S200, a cropping image C1 is obtained by cropping the area including the license plate area A2 detected in the license plate area detection step S300. Cropping step of extracting (S400);
An expanded image generation step (S500) of generating an expanded image (E1) obtained by transforming the image using a data expansion algorithm with respect to the cropping image (C1) extracted in the cropping step (S400);
Extended vehicle number recognition learning data for performing vehicle number recognition learning by inputting the extended image E1 generated in the extended image generation step (S500) into a convolutional neural network (CNN) and generating extended vehicle number recognition learning data Generating step (S600);
A vehicle number recognition step (S700) of recognizing a vehicle number from image data input from a camera using the expanded vehicle number recognition learning data (S700); and,
The data expansion algorithm of the expanded image generation step (S500) generates an expanded image using an optical transformation method,
A method for recognizing a vehicle number using data expansion and CNN, comprising generating an extended image E1 by adding a noise value to the color value of the cropping image C1 using the following equation.
[Equation] img_nosiy = img_src + random_noise
(Here, img_nosiy is an image to which noise values have been added, img_src is an original image, and random_noise is a noise value having a normal distribution with an average value of “0” and a standard deviation value of “1”)
제1항에 있어서,
상기 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘은, 상기 크롭핑 단계(S400)에서 추출한 크롭핑 이미지(C1)에 대하여, 이미지를 회전시키는 회전 연산, 이미지를 뒤트는 뒤틀기 연산, 이미지를 이동시키는 이동 연산, 이미지를 확대시키는 확대 연산을 포함하는 변형 연산 방식으로 확장 이미지(E1)를 생성하는 기하학 변형 방식과, 이미지에 포함된 각각의 픽셀을 임의의 방향으로 뒤틀리게 변형시켜 확장 이미지(E1)를 생성하는 엘라스틱 변형(Elastic Distortion) 방식을 더 포함하는 것을 특징으로 하는 데이터 확장 및 CNN을 이용한 차량번호 인식 방법.
The method of claim 1,
The data expansion algorithm of the expanded image generation step (S500) includes a rotation operation to rotate the image, a warping operation to distort the image, and moving the image with respect to the cropping image C1 extracted in the cropping step (S400). A geometric transformation method that generates an extended image E1 by a transformation operation method including a movement operation and an enlargement operation that enlarges the image, and the extended image E1 by distorting each pixel included in the image in a random direction. A method for recognizing a vehicle number using data expansion and CNN, further comprising a generating elastic distortion method.
제 2 항에 있어서,
상기 엘라스틱 변형(Elastic Distortion) 방식은 각 픽셀 위치에 대하여 구한 임의의 유니폼 랜덤 변위장에 대하여 노이즈를 제거하기 위한 스무딩 값을 적용하고, 변형 정도의 세기를 조절하기 위한 알파 값을 곱하는 것을 특징으로 하는 데이터 확장 및 CNN을 이용한 차량번호 인식 방법.
The method of claim 2,
The elastic distortion method is characterized in that a smoothing value for removing noise is applied to an arbitrary uniform random displacement field obtained for each pixel position, and an alpha value for adjusting the intensity of the deformation is multiplied. Vehicle number recognition method using data expansion and CNN.
삭제delete 제1항에 있어서,
상기 확장 이미지 생성 단계(S500)의 데이터 확장 알고리즘은 광학적 변형 알고리즘으로 확장이미지를 생성하되, 상기 크롭핑 이미지(C1)의 밝기 대비 (Light Contrast) 변형 방식으로 확장이미지를 생성하는 것을 특징으로 하는 데이터 확장 및 CNN을 이용한 차량번호 인식 방법.
The method of claim 1,
The data expansion algorithm of the expanded image generation step (S500) generates an expanded image using an optical transformation algorithm, and generates an expanded image using a light contrast transformation method of the cropping image C1. Vehicle number recognition method using extension and CNN.
데이터 확장 및 CNN을 이용한 차량번호 인식 장치에 있어서,
학습용 차량 영상을 입력하는 영상 입력부;
차량 검출 학습 데이터와 SSD(Single shot multibox detector) 알고리즘을 이용하여 입력된 차량 영상 내의 차량 영역(A1)을 검출하는 차량 영역 검출부;
상기 검출된 차량 영역(A1)에서, 차량 영역(A1) 내에 위치한 번호판 영역(A2)을 검출하는 번호판 영역 검출부;
상기 검출한 번호판 영역(A2)을 포함하는 영역을 크롭핑하여 크롭핑 이미지(C1)를 추출하는 크롭핑부;
상기 추출한 크롭핑 이미지(C1)에 대하여, 데이터 확장 알고리즘을 이용하여 이미지를 변형한 확장 이미지(E1)를 생성하는 확장 이미지 생성부;
상기 생성한 확장 이미지(E1)를 컨볼루션신경망(CNN)에 입력하여 차량번호 인식 학습을 실시하고 확장된 차량번호 인식 학습 데이터를 생성하는 확장된 차량번호 인식 학습 데이터 생성부;
상기 확장된 차량번호 인식 학습 데이터를 이용하여 카메라로부터 입력되는 영상데이터에서 차량번호를 인식하는 차량번호 인식부;를 포함하고,
상기 확장 이미지 생성부의 데이터 확장 알고리즘은 광학적 변형 방식으로 확장이미지를 생성하되,
하기의 수학식을 이용하여 상기 크롭핑 이미지(C1)의 컬러 값에 노이즈 값을 추가하여 확장 이미지(E1)를 생성하는 것을 특징으로 하는 데이터 확장 및 CNN을 이용한 차량번호 인식 장치.
[수학식] img_nosiy = img_src + random_noise
(여기서, img_nosiy는 노이즈 값이 추가된 이미지이고, img_src는 원래의 이미지이며, random_noise는 평균값이 “0”이고 표준편차값이 “1”인 정규분포를 가지는 노이즈값임)
In the vehicle number recognition device using data expansion and CNN,
An image input unit for inputting an image of a vehicle for learning;
A vehicle area detection unit detecting a vehicle area A1 in the input vehicle image using vehicle detection learning data and a single shot multibox detector (SSD) algorithm;
A license plate area detection unit for detecting a license plate area A2 located in the vehicle area A1 in the detected vehicle area A1;
A cropping unit for extracting a cropped image C1 by cropping an area including the detected license plate area A2;
An extended image generator for generating an extended image E1 in which the image is transformed using a data extension algorithm with respect to the extracted cropping image C1;
An extended vehicle number recognition learning data generator configured to perform vehicle number recognition learning by inputting the generated extended image E1 into a convolutional neural network (CNN) and generating extended vehicle number recognition learning data;
Includes; a vehicle number recognition unit for recognizing a vehicle number from image data input from a camera using the expanded vehicle number recognition learning data,
The data expansion algorithm of the expanded image generator generates an expanded image using an optical transformation method,
A vehicle number recognition apparatus using data expansion and CNN, characterized in that to generate an extended image (E1) by adding a noise value to the color value of the cropping image (C1) using the following equation.
[Equation] img_nosiy = img_src + random_noise
(Here, img_nosiy is an image to which noise values have been added, img_src is an original image, and random_noise is a noise value having a normal distribution with an average value of “0” and a standard deviation value of “1”)
KR1020200117620A 2020-09-14 2020-09-14 Recognition Method of License Plate Number Using Data expansion and CNN KR102238401B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200117620A KR102238401B1 (en) 2020-09-14 2020-09-14 Recognition Method of License Plate Number Using Data expansion and CNN

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200117620A KR102238401B1 (en) 2020-09-14 2020-09-14 Recognition Method of License Plate Number Using Data expansion and CNN

Publications (1)

Publication Number Publication Date
KR102238401B1 true KR102238401B1 (en) 2021-04-09

Family

ID=75444136

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200117620A KR102238401B1 (en) 2020-09-14 2020-09-14 Recognition Method of License Plate Number Using Data expansion and CNN

Country Status (1)

Country Link
KR (1) KR102238401B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102368122B1 (en) * 2021-08-31 2022-02-25 이홍기 Method and system for recognizing vehicle number by using deep learning image recognition-based vehicle detection and tracking technology
KR102452756B1 (en) * 2021-08-31 2022-10-11 주식회사한맥아이피에스 Method for managing illegal parking in electric vehicle charing area based on deep learning and a charing device for electric vehicles
WO2022239977A1 (en) * 2021-05-10 2022-11-17 현대자동차주식회사 Method and device for augmenting data in m2m system
KR102509313B1 (en) * 2022-11-23 2023-03-14 (주)정도기술 License plate recognition method and license plate recognition system
KR102584182B1 (en) * 2023-02-17 2023-10-05 주식회사 보임 High-speed distributed vehicle number recognition system using cloud computing technology
WO2024090899A1 (en) * 2022-10-27 2024-05-02 라이트비전 주식회사 Method for providing qr code-based parking system on basis of accurate vehicle number plate recognition

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101898051B1 (en) * 2015-12-30 2018-09-12 건아정보기술 주식회사 Multilane vehicle speed detecting system
KR101931804B1 (en) 2018-03-26 2018-12-21 장경익 Device and method of increasing a recognition rate in a license plate
KR101979654B1 (en) * 2018-01-15 2019-05-17 주식회사 비엔인더스트리 License plate recognition apparatus and the method thereof
KR101986592B1 (en) * 2019-04-22 2019-06-10 주식회사 펜타게이트 Recognition method of license plate number using anchor box and cnn and apparatus using thereof
KR102002225B1 (en) * 2017-11-23 2019-07-19 재단법인 다차원 스마트 아이티 융합시스템 연구단 License plate recognition method and system
KR20200019280A (en) * 2018-08-07 2020-02-24 전북대학교산학협력단 The visual detecting system and visual detecting method for operating by the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101898051B1 (en) * 2015-12-30 2018-09-12 건아정보기술 주식회사 Multilane vehicle speed detecting system
KR102002225B1 (en) * 2017-11-23 2019-07-19 재단법인 다차원 스마트 아이티 융합시스템 연구단 License plate recognition method and system
KR101979654B1 (en) * 2018-01-15 2019-05-17 주식회사 비엔인더스트리 License plate recognition apparatus and the method thereof
KR101931804B1 (en) 2018-03-26 2018-12-21 장경익 Device and method of increasing a recognition rate in a license plate
KR20200019280A (en) * 2018-08-07 2020-02-24 전북대학교산학협력단 The visual detecting system and visual detecting method for operating by the same
KR101986592B1 (en) * 2019-04-22 2019-06-10 주식회사 펜타게이트 Recognition method of license plate number using anchor box and cnn and apparatus using thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239977A1 (en) * 2021-05-10 2022-11-17 현대자동차주식회사 Method and device for augmenting data in m2m system
KR102368122B1 (en) * 2021-08-31 2022-02-25 이홍기 Method and system for recognizing vehicle number by using deep learning image recognition-based vehicle detection and tracking technology
KR102452756B1 (en) * 2021-08-31 2022-10-11 주식회사한맥아이피에스 Method for managing illegal parking in electric vehicle charing area based on deep learning and a charing device for electric vehicles
WO2024090899A1 (en) * 2022-10-27 2024-05-02 라이트비전 주식회사 Method for providing qr code-based parking system on basis of accurate vehicle number plate recognition
KR102509313B1 (en) * 2022-11-23 2023-03-14 (주)정도기술 License plate recognition method and license plate recognition system
KR102584182B1 (en) * 2023-02-17 2023-10-05 주식회사 보임 High-speed distributed vehicle number recognition system using cloud computing technology

Similar Documents

Publication Publication Date Title
KR102238401B1 (en) Recognition Method of License Plate Number Using Data expansion and CNN
CN109165697B (en) Natural scene character detection method based on attention mechanism convolutional neural network
CN111046880B (en) Infrared target image segmentation method, system, electronic equipment and storage medium
CN111401384B (en) Transformer equipment defect image matching method
KR102161516B1 (en) Classification of vehicles using deep learning-based data expansion learning
CN109948566B (en) Double-flow face anti-fraud detection method based on weight fusion and feature selection
US20200311459A1 (en) Training language models using text corpora comprising realistic optical character recognition (ocr) errors
CN110097110B (en) Semantic image restoration method based on target optimization
CN110807738B (en) Blurred image non-blind restoration method based on edge image block sharpening
CN114022383A (en) Moire pattern removing method and device for character image and electronic equipment
Huang et al. AdvBokeh: Learning to adversarially defocus Blur
CN111696090B (en) Method for evaluating quality of face image in unconstrained environment
CN115862121B (en) Face quick matching method based on multimedia resource library
CN110930358A (en) Solar panel image processing method based on self-adaptive algorithm
CN114445726B (en) Sample library establishing method and device based on deep learning
US20220122244A1 (en) Defect image generation method for deep learning and system therefor
Katiyar et al. Image Forgery Detection with Interpretability
CN114283431A (en) Text detection method based on differentiable binarization
Mitra et al. Machine learning approach for signature recognition by harris and surf features detector
KR100973999B1 (en) Robust method of segmenting characters of license plate on irregular illumination condition
Rawat et al. ANALYSIS OF IMAGE PREPROCESSING TECHNIQUES TO IMPROVE OCR OF GARHWALI TEXT OBTAINED USING THE HINDI TESSERACT MODEL.
Feng et al. An improved vibe algorithm of moving target extraction for night infrared surveillance video
CN113537213B (en) Smoke open fire detection algorithm based on variable convolution kernel
Lan et al. Recognition of Vehicle License Plate Based on Hopfield Artificial Neural Network.
CN117132592B (en) Industrial defect detection method based on entropy fusion

Legal Events

Date Code Title Description
GRNT Written decision to grant