KR101986592B1 - Recognition method of license plate number using anchor box and cnn and apparatus using thereof - Google Patents
Recognition method of license plate number using anchor box and cnn and apparatus using thereof Download PDFInfo
- Publication number
- KR101986592B1 KR101986592B1 KR1020190046508A KR20190046508A KR101986592B1 KR 101986592 B1 KR101986592 B1 KR 101986592B1 KR 1020190046508 A KR1020190046508 A KR 1020190046508A KR 20190046508 A KR20190046508 A KR 20190046508A KR 101986592 B1 KR101986592 B1 KR 101986592B1
- Authority
- KR
- South Korea
- Prior art keywords
- anchor box
- image
- anchor
- box
- size
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G06K9/3258—
-
- G06K9/4642—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G06K2209/15—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 인공지능을 이용한 차량 번호 인식 장치 및 차량 번호 인식 방법에 관한 것이다. 보다 상세하게는 앵커박스 및 CNN 특징 맵을 이용하여 영상 이미지로부터 정확하게 문자를 인식할 수 있는 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치 및 차량 번호 인식 방법에 관한 것이다.BACKGROUND OF THE
차량용 번호판이란 차량의 전면 또는 후면에 부착되며 규격화된 문자(글자, 숫자 및 기호 포함)가 특정 패턴으로 기재된 판을 의미하며, 차량 번호판 인식 장치란 영상으로부터 차량용 번호판 및 이제 기재된 문자를 자동으로 인식 및 판독하는 장치를 의미한다. 일반적인 차량 번호판 인식 장치는 차량 촬영과 번호판 추출, 음영이나 기울기에 따른 전처리 과정을 수행하고 미리 정해진 기준 글자에 따라 번호판을 인식하는 단계를 포함한다. 이러한 차량 번호판 인식 장치에는 차량 번호판에 기재된 문자를 인식하는 차량 번호 인식 장치 또는 차량 번호 인식 방법이 반드시 수반되므로 보다 정확한 차량 번호 인식 방법은 차량 번호판 인식 장치에 있어서 매우 중요한 요소이다.A vehicle license plate is a plate which is attached to the front or rear surface of a vehicle and in which standardized characters (including letters, numbers and symbols) are written in a specific pattern. The license plate recognition device automatically recognizes license plates and characters Means a device for reading. A general license plate recognition apparatus includes a step of car shooting, a license plate extraction, a preprocessing process according to shade or tilt, and recognizing the license plate according to a predetermined standard letter. Such a vehicle license plate recognizing device necessarily carries out a vehicle number recognizing device or a car number recognizing method for recognizing characters written on the license plate, so that a more accurate car number recognizing method is a very important factor in a license plate recognizing device.
기존의 번호판 인식은 원형 정합 방법 및 구문론적 방법 등이 이용되고 있으며, 원형 정합 방법은 기하학적 정합 방법을 개선시킨 방법으로서, 표준 패턴에 입력된 영상을 정합 시켜 문자를 인식시키는 방법을 말한다. 그러나, 기울어진 영상이나 잡음이 있을 경우 인식률이 저하되며, 환경이 변화되면 표준 패턴을 재구성해야 되는 단점을 갖고 있으며, 구문론 적인 방법은 문자 특징 간의 상호 관련성 또는 상호 연결성 정보와 같은 구조적 정보를 이용하며 글자 크기, 기울기 등에 강한 특징을 지닌다. 특히 구조적 정보를 정량화 하여 추출할 수 있어야 한다는 어려움이 있으며, 특징 간의 정확한 구조적 정보를 구하는 것이 용이하지 않은 문제점이 있다.Conventional license plate recognition uses a circular matching method and a syntactic method, and the circular matching method improves the geometrical matching method and refers to a method of recognizing characters by matching images inputted in a standard pattern. However, if there is a slant image or noise, the recognition rate is degraded. If the environment is changed, the standard pattern must be reconstructed. Syntactic methods use structural information such as interrelationship between character characteristics or interconnection information Character size, and slope. Especially, it is difficult to quantitatively extract structural information, and it is not easy to obtain accurate structural information between features.
최근에는 신경망을 이용한 번호판 인식 방법에 많은 관심이 집중되고 있다. 신경망 또는 인공신경망(ANN: artificial neural network)이란 생물학의 신경망에서 영감을 얻은 통계학적 학습 알고리즘으로 인공신경망은 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 가리킨다. 딥러닝 기술이란 다층구조 형태의 인공 신경망을 기반으로 하는 머신 러닝의 한 분야로 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습(machine learning) 알고리즘의 집합이다.Recently, much attention has been focused on the license plate recognition method using neural network. An artificial neural network (ANN) is a statistical learning algorithm inspired by the neural network of biology. An artificial neural network is a system in which artificial neurons (nodes) And refers to the overall model that has problem solving ability. Deep learning technology is a field of machine learning based on artificial neural networks in the form of a multi-layer structure. It is a set of machine learning algorithms that try to achieve a high level of abstraction through a combination of various nonlinear transformation techniques.
신경망을 이용한 방법은 입력된 영상의 영역을 나누어 신경망의 입력으로 하고 이로부터 신경망을 이용하여 문자를 인식하는 방법이다. 따라서, 이러한 신경망을 이용한 방법은 입력 영역의 선정이 매우 중요하며, 이에 따라서 성능이 크게 좌우되므로 문자가 차지하는 영역의 선정 방법에 대한 많은 연구가 요구된다.The method using the neural network divides the area of the input image into the input of the neural network and recognizes the character using the neural network. Therefore, the method using the neural network is very important to select the input area. Therefore, since the performance is greatly influenced by the selection of the input area, a lot of studies on the method of selecting the area occupied by the characters are required.
이에 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로, 본 발명의 목적은 앵커박스 및 인공 신경망을 이용하여 영상 이미지로부터 정확하게 문자를 인식할 수 있는 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치를 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide a vehicle number recognition apparatus using an anchor box and a CNN feature map capable of accurately recognizing characters from an image using an anchor box and an artificial neural network .
또한 본 발명의 다른 목적은 앵커박스 및 인공 신경망을 이용하여 보다 정확히 차량번호를 인식할 수 있는 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법을 제공하는 것이다.Another object of the present invention is to provide a vehicle number recognition method using an anchor box and a CNN feature map that can more accurately recognize a vehicle number using an anchor box and an artificial neural network.
상기한 본 발명의 목적을 실현하기 위한 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치는 제1 영상 이미지를 입력 받는 영상 입력부, 상기 제1 영상 이미지로부터 문자가 포함된 관심 영역을 검출하여 제2 영상 이미지를 생성하는 제2 영상 생성부, 상기 제2 영상 이미지로부터 특징성분을 추출하는 특징성분 추출부, 상기 제2 영상 이미지로부터 상기 제2 영상 이미지와 세로의 크기가 서로 동일하고 가로의 크기가 서로 상이한 복수개의 앵커박스(Anchor Box)를 생성하는 앵커박스 생성부, 상기 앵커박스들의 영역에 해당하는 상기 제2 영상 이미지의 특징성분들을 문자 검출 학습데이터와 비교하여 최대 매칭 값을 갖는 앵커박스를 각 문자 영역의 바운딩박스(Bounding Box)로 선정하는 바운딩박스 생성부 및 상기 바운딩박스에 해당하는 영역의 특징성분을 문자 인식 학습데이터와 비교하여 상기 앵커박스에 해당하는 문자를 인식하는 문자 인식부를 포함하고, 상기 앵커박스들은 상기 제2 영상 이미지의 모든 영역에 걸쳐 일정한 간격으로 겹쳐서 위치하며 가로의 크기와 세로의 크기가 동일한 a개의 엔드 앵커박스(a는 자연수), 상기 엔드 앵커박스의 일측에 위치하며, 가로의 크기가 세로의 크기보다 작은 a개의 베이스 앵커박스 및 상기 베이스 앵커박스의 영역을 포함하며, 가로의 크기가 상기 엔드 앵커박스의 가로의 크기보다 작으면서 상기 베이스 앵커박스의 가로의 크기에서 일정한 크기만큼 증가한 크기를 갖는 복수개의 서브 앵커박스를 포함한다.In order to achieve the object of the present invention, an apparatus for recognizing a car number using an anchor box and a CNN feature map includes an image input unit for receiving a first image, a second region for detecting a region of interest including a character from the first image, A feature extraction unit for extracting a feature component from the second image, a second feature extraction unit for extracting a feature component from the second image, An anchor box generating unit for generating a plurality of anchor boxes different from each other, and an anchor box having a maximum matching value by comparing feature data of the second image corresponding to the anchor boxes with character learning data A bounding box generating unit for selecting a bounding box of each character region, And a character recognizing unit for recognizing characters corresponding to the anchor box by comparing the character recognition learning data with the character recognition learning data, wherein the anchor boxes are overlapped at all of the areas of the second video image at regular intervals, (A is a natural number) having the same size, a base anchor box located at one side of the end anchor box and having a lateral size smaller than the vertical size, and an area of the base anchor box, And a plurality of sub-anchor boxes having a size smaller than a width of the end anchor box and having a size that is increased by a predetermined size in the width of the base anchor box.
본 발명의 일 실시예에 있어서, 상기 앵커박스 생성부가 상기 앵커박스를 생성하는 방법은 상기 제2 영상 이미지의 일측에 위치하는 베이스 앵커박스를 생성하는 단계, 가로의 크기가 세로의 크기가 같아질 때까지 바로 이전에 생성된 앵커박스의 영역을 포함하며 바로 이전에 생성된 앵커박스의 가로의 크기에서 일정한 크기로 가로의 크기를 증가시킨 상기 서브 앵커박스를 생성하는 단계, 바로 이전에 생성된 앵커박스의 영역을 포함하는 상기 엔드 앵커박스를 생성하는 단계, 바로 이전에 생성된 베이스 앵커박스에서 일정한 크기만큼 가로 위치가 이동된 새로운 베이스 앵커박스를 생성하는 단계, 상기 서브 앵커박스를 생성하는 단계 및 상기 엔드 앵커박스를 생성하는 단계를 다시 수행하는 단계 및 상기 새로운 베이스 앵커박스를 생성하는 단계 및 상기 다시 수행하는 단계를 상기 제2 영상 이미지의 일측의 가장 반대측에 위치하는 엔드 앵커박스가 생성될 때까지 반복하는 단계를 포함할 수 있다.In one embodiment of the present invention, the method for generating the anchor box includes generating a base anchor box located at one side of the second video image, Creating the sub-anchor box including the area of the anchor box generated immediately before and increasing the size of the anchor box to a predetermined size from the size of the previously generated anchor box, Creating an end anchor box including an area of a box, creating a new base anchor box with a horizontal position shifted by a predetermined size in a previously generated base anchor box, creating the sub anchor box, Performing the step of creating the end anchor box again, and creating the new base anchor box And repeating the step of repeating until the end anchor box located on the most opposite side of one side of the second video image is generated.
본 발명의 일 실시예에 있어서, 상기 앵커박스의 크기는 픽셀 단위이고, 상기 베이스 앵커박스의 가로의 크기(픽셀의 개수)는 상기 엔드 앵커박스의 세로의 크기(픽셀의 개수)의 1/r배이고, 상기 서브 앵커박스의 증가하는 가로의 일정한 크기는 p픽셀이고, 상기 a개의 엔드 앵커박스들 중에서 가장 인접한 엔드 박스 사이의 시작 위치의 일정한 간격은 q픽셀(q는 자연수)일 수 있다.In one embodiment of the present invention, the size of the anchor box is in pixels, and the size of the base anchor box (the number of pixels) is 1 / r (number of pixels) of the size of the end anchor box And a constant size of the increasing width of the sub-anchor box is p pixels, and a constant interval of a start position between the end boxes adjacent to the end a boxes among the a end achor boxes may be q pixels (q is a natural number).
본 발명의 일 실시예에 있어서, r이 2일때 하나의 상기 제2 영상 이미지로부터 생성되는 앵커박스의 총 개수는 다음의 수학식으로 계산될 수 있다.In an embodiment of the present invention, when r is 2, the total number of anchor boxes generated from one second image may be calculated by the following equation.
여기서, N은 상기 제2 영상 이미지의 세로의 크기이고, M은 상기 제2 영상 이미지의 가로의 크기임.Here, N is the vertical size of the second video image and M is the horizontal size of the second video image.
본 발명의 일 실시예에 있어서, 상기 차량 번호 인식 장치는 상기 제1 영상 이미지로부터 SDD(Single shot MultiBox Detector) 알고리즘을 이용하여 차량 영역을 검출하는 차량 검출부를 더 포함하고, 상기 제2 영상 생성부는 상기 검출된 차량 영역으로부터 SDD(Single shot MultiBox Detector) 알고리즘을 이용하여 상기 관심 영역인 차량용 번호판 영역을 검출하여 제2 영상 이미지를 생성할 수 있다.In one embodiment of the present invention, the car number recognition apparatus further includes a vehicle detection section that detects a vehicle area from the first video image using an SDD (Single shot MultiBox Detector) algorithm, and the second image generation section The vehicle license plate area, which is the area of interest, is detected from the detected vehicle area using a SDD (Single shot MultiBox Detector) algorithm to generate a second image.
본 발명의 일 실시예에 있어서, 상기 제2 영상 이미지에 intensity balancing 및 모폴로지(Morphology)를 수행하여 화질을 개선하는 전처리부를 더 포함하고, 상기 모폴로지는 닫힘 모폴로지 및 열림 모폴로지를 포함하고, 상기 intensity balancing의 수행은 영상 그레이 레벨에 대한 히스토그램을 계산하고, 상기 히스토그램으로부터 하위 사분위수와 상위 사분위수에 해당되는 픽셀 값을 계산하며, 다음의 수학식으로 어파인 변환(affine transform)을 수행할 수 있다.In an exemplary embodiment of the present invention, the image processing apparatus may further include a preprocessor for enhancing image quality by performing intensity balancing and morphology on the second image, wherein the morphology includes a closed morphology and an open morphology, The histogram of the image gray level is calculated and the pixel values corresponding to the lower quartile and the upper quartile are calculated from the histogram and an affine transform can be performed by the following equation.
여기서, x는 해당 위치의 픽셀 값이고, max는 해당 영역에서 최대 픽셀 값이고, min은 해당 영역에서 최소 픽셀 값이고, Vmin은 하위 사분위수에 해당되는 픽셀 값이고, Vmax는 상위 사분위수에 해당되는 픽셀 값임.Here, x is a pixel value at the corresponding position, max is a maximum pixel value in the corresponding region, min is a minimum pixel value in the corresponding region, Vmin is a pixel value corresponding to a lower quartile, and Vmax corresponds to a higher quartile Pixel values.
본 발명의 일 실시예에 있어서, 상기 차량 번호 인식 장치는 수평투영법(Horizontal projection)을 이용하여 상기 제2 영상 이미지의 상위 위치와 하위 위치를 계산하는 프로젝션부를 더 포함할 수 있다.In one embodiment of the present invention, the car number recognition apparatus may further include a projection unit for calculating an upper position and a lower position of the second image by using a horizontal projection method.
본 발명의 일 실시예에 있어서, 상기 특징성분 추출부는 합성곱 신경망(CNN: Convolutional Neural Network)을 이용하여 상기 제2 영상 이미지의 컨볼루션 특징 맵(convolution feature map)을 추출하고, 이를 상기 특징성분으로 하며, 상기 합성곱 신경망은 입력 레이어(Input layer), 합성곱 레이어(Convolution Layer) 및 풀링 레이어(Pooling Layer)를 포함할 수 있다.In one embodiment of the present invention, the feature extraction unit extracts a convolution feature map of the second image using a Convolutional Neural Network (CNN) And the combined-product neural network may include an input layer, a convolution layer, and a pooling layer.
본 발명의 일 실시예에 있어서, 상기 문자 인식부는 Fully Connection 네트워크를 이용하여 상기 앵커박스에 해당하는 문자를 인식할 수 있다.In an embodiment of the present invention, the character recognition unit can recognize a character corresponding to the anchor box using a fully connected network.
상기한 본 발명의 목적을 실현하기 위한 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법은 영상 입력부가 제1 영상 이미지를 입력 받는 단계, 제2 영상 이미지 생성부가 상기 제1 영상 이미지로부터 문자가 포함된 관심 영역을 검출하여 제2 영상 이미지를 생성하는 단계, 특징성분 추출부가 상기 제2 영상 이미지로부터 특징성분을 추출하는 단계, 앵커박스 생성부가 상기 제2 영상 이미지로부터 상기 제2 영상 이미지와 세로의 크기가 서로 동일하고 가로의 크기가 서로 상이한 복수개의 앵커박스(Anchor Box)를 생성하는 단계, 바운딩박스 생성부가 상기 앵커박스들의 영역에 해당하는 상기 제2 영상 이미지의 특징성분들을 문자 검출 학습데이터와 비교하여 최대 매칭 값을 갖는 앵커박스를 각 문자 영역의 바운딩박스(Bounding Box)로 선정하는 단계 및 문자 인식부가 상기 바운딩박스에 해당하는 영역의 특징성분을 문자 인식 학습데이터와 비교하여 상기 앵커박스에 해당하는 문자를 인식하는 단계를 포함하고, 상기 앵커박스들은 상기 제2 영상 이미지의 모든 영역에 걸쳐 일정한 간격으로 겹쳐서 위치하며 가로의 크기와 세로의 크기가 동일한 a개의 엔드 앵커박스(a는 자연수), 상기 엔드 앵커박스의 일측에 위치하며, 가로의 크기가 세로의 크기보다 작은 a개의 베이스 앵커박스 및 상기 베이스 앵커박스의 영역을 포함하며, 가로의 크기가 상기 엔드 앵커박스의 가로의 크기보다 작으면서 상기 베이스 앵커박스의 가로의 크기에서 일정한 크기만큼 증가한 크기를 갖는 복수개의 서브 앵커박스를 포함한다.The method for recognizing a car number using an anchor box and a CNN feature map for realizing the object of the present invention includes the steps of receiving a first video image from a video input unit, Extracting a feature component from the second video image; extracting a feature component from the second video image by extracting a feature component from the second video image; Generating a plurality of anchor boxes having the same size and different widths from each other, and the bounding box generating unit is configured to classify the feature components of the second video image corresponding to the area of the anchor boxes into character detection learning data Selecting an anchor box having a maximum matching value as a bounding box of each character area; And recognizing the character corresponding to the anchor box by comparing the feature component of the area corresponding to the bounding box with the character recognition learning data, A number of base anchor boxes (a is a natural number) located at one side of the end anchor box and having a size smaller than the vertical size, And a plurality of sub-anchor boxes including an area of the base anchor box, the size of which is smaller than the width of the end anchor box, and the size of the sub anchor box is increased by a predetermined size in the width of the base anchor box .
본 발명의 일 실시예에 있어서, 상기 앵커박스(Anchor Box)를 생성하는 단계는 상기 제2 영상 이미지의 일측에 위치하는 베이스 앵커박스를 생성하는 단계, 가로의 크기가 세로의 크기가 같아질 때까지 바로 이전에 생성된 앵커박스의 영역을 포함하며 바로 이전에 생성된 앵커박스의 가로의 크기에서 일정한 크기로 가로의 크기를 증가시킨 상기 서브 앵커박스를 생성하는 단계, 바로 이전에 생성된 앵커박스의 영역을 포함하는 상기 엔드 앵커박스를 생성하는 단계, 바로 이전에 생성된 베이스 앵커박스에서 일정한 크기만큼 가로 위치가 이동된 새로운 베이스 앵커박스를 생성하는 단계;In one embodiment of the present invention, the step of creating an anchor box may include the steps of creating a base anchor box located at one side of the second video image, Creating the sub-anchor box that includes the area of the anchor box generated immediately before, and the size of the sub-anchor box that is increased in size by a predetermined size from the size of the anchor box created immediately before; Creating a new base anchor box in which a horizontal position is shifted by a predetermined size in a previously generated base anchor box;
상기 서브 앵커박스를 생성하는 단계 및 상기 엔드 앵커박스를 생성하는 단계를 다시 수행하는 단계 및 상기 새로운 베이스 앵커박스를 생성하는 단계 및 상기 다시 수행하는 단계를 상기 제2 영상 이미지의 일측의 가장 반대측에 위치하는 엔드 앵커박스가 생성될 때까지 반복하는 단계를 포함할 수 있다.Creating the sub-anchor box and creating the end anchor box again; and creating the new base anchor box, and performing the re-performing step on the opposite side of one side of the second video image And repeating until an end anchor box positioned is created.
본 발명의 일 실시예에 있어서, 상기 앵커박스의 크기는 픽셀 단위이고, 상기 베이스 앵커박스의 가로의 크기(픽셀의 개수)는 상기 엔드 앵커박스의 세로의 크기(픽셀의 개수)의 1/r배이고, 상기 서브 앵커박스의 증가하는 가로의 일정한 크기는 p픽셀이고, 상기 a개의 엔드 앵커박스들 중에서 가장 인접한 엔드 박스 사이의 시작 위치의 일정한 간격은 q픽셀일 수 있다.In one embodiment of the present invention, the size of the anchor box is in pixels, and the size of the base anchor box (the number of pixels) is 1 / r (number of pixels) of the size of the end anchor box The constant size of the increasing width of the sub-anchor box is p pixels, and a certain interval of the start position between the end-boxes closest to the a end-anchor boxes may be q pixels.
본 발명의 일 실시예에 있어서, r이 2일때 하나의 상기 제2 영상 이미지로부터 생성되는 앵커박스의 총 개수는 다음의 수학식으로 계산될 수 있다.In an embodiment of the present invention, when r is 2, the total number of anchor boxes generated from one second image may be calculated by the following equation.
여기서, N은 상기 제2 영상 이미지의 세로의 크기이고, M은 상기 제2 영상 이미지의 가로의 크기임.Here, N is the vertical size of the second video image and M is the horizontal size of the second video image.
본 발명의 일 실시예에 있어서, 상기 차량 번호 인식 방법은 차량 검출부가 상기 제1 영상 이미지로부터 SDD(Single shot MultiBox Detector) 알고리즘을 이용하여 차량 영역을 검출하는 단계를 더 포함하고, 상기 제2 영상 이미지를 생성하는 단계에서는 상기 검출된 차량 영역으로부터 SDD(Single shot MultiBox Detector) 알고리즘을 이용하여 상기 관심 영역인 차량용 번호판 영역을 검출하여 제2 영상 이미지를 생성할 수 있다.In one embodiment of the present invention, the car number recognition method further includes the step of the vehicle detection unit detecting a vehicle area using the SDO (Single shot MultiBox Detector) algorithm from the first image, In the step of generating an image, a second image may be generated by detecting a vehicle license plate area, which is the area of interest, from the detected vehicle area using an SDD (Single shot MultiBox Detector) algorithm.
본 발명의 일 실시예에 있어서, 상기 차량 번호 인식 방법은 전처리부가 상기 제2 영상 이미지에 intensity balancing 및 모폴로지(Morphology)를 수행하여 화질을 개선하는 단계를 더 포함하고, 상기 화질을 개선하는 단계는 닫힘 모폴로지를 수행하는 단계, 상기 닫힘 모폴로지의 수행에 이어서 열림 모폴로지를 수행하는 단계, 영상 그레이 레벨에 대한 히스토그램을 계산하는 단계, 상기 히스토그램으로부터 하위 사분위수와 상위 사분위수에 해당되는 픽셀 값을 계산하는 단계 및 다음의 수학식으로 어파인 변환(affine transform)을 수행하는 단계를 포함할 수 있다.In one embodiment of the present invention, the vehicle number recognition method may further include a step of the image processing unit performing intensity balancing and morphology on the second image image to improve the image quality, Performing a closed morphology, performing an open morphology following the closed morphology, calculating a histogram for an image gray level, calculating a pixel value corresponding to a lower quartile and an upper quartile from the histogram And performing an affine transform using the following equation: < EMI ID = 1.0 >
여기서, x는 해당 위치의 픽셀 값이고, max는 해당 영역에서 최대 픽셀 값이고, min은 해당 영역에서 최소 픽셀 값이고, Vmin은 하위 사분위수에 해당되는 픽셀 값이고, Vmax는 상위 사분위수에 해당되는 픽셀 값임.Here, x is a pixel value at the corresponding position, max is a maximum pixel value in the corresponding region, min is a minimum pixel value in the corresponding region, Vmin is a pixel value corresponding to a lower quartile, and Vmax corresponds to a higher quartile Pixel values.
본 발명의 일 실시예에 있어서, 상기 차량 번호 인식 방법은 프로젝션부가 수평투영법(Horizontal projection)을 이용하여 상기 제2 영상 이미지의 상위 위치와 하위 위치를 계산하는 단계를 더 포함할 수 있다.In one embodiment of the present invention, the vehicle number recognition method may further include a step of calculating an upper position and a lower position of the second image by using a horizontal projection.
본 발명의 일 실시예에 있어서, 상기 특징성분을 추출하는 단계에서는 합성곱 신경망(CNN: Convolutional Neural Network)을 이용하여 상기 제2 영상 이미지의 컨볼루션 특징 맵(convolution feature map)을 추출하고, 이를 상기 특징성분으로 하며, 상기 합성곱 신경망은 입력 레이어(Input layer), 합성곱 레이어(Convolution Layer) 및 풀링 레이어(Pooling Layer)를 포함할 수 있다.In one embodiment of the present invention, in extracting the feature component, a convolution feature map of the second image is extracted using a CNN (Convolutional Neural Network) And the composite neural network may include an input layer, a convolution layer, and a pooling layer.
본 발명의 일 실시예에 있어서, 상기 문자를 인식하는 단계에서는 Fully Connection 네트워크를 이용하여 상기 앵커박스에 해당하는 문자를 인식할 수 있다.In one embodiment of the present invention, in the step of recognizing the character, a character corresponding to the anchor box can be recognized using a fully connected network.
본 발명의 실시예들에 따르면, 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치 및 차량 번호 인식 방법은 영상 입력부, 제2 영상 이미지 생성부, 특징성분 추출부, 앵커박스 생성부, 바운딩박스 생성부 및 문자 인식부를 포함한다. 따라서, 영상으로부터 앵커박스를 생성하고 상기 앵커박스에 해당하는 부분의 특징성분을 문자 인식 학습데이터와 비교하여 보다 정확한 차량 번호를 인식할 수 있다.According to embodiments of the present invention, a car number recognition apparatus and a car number recognition method using an anchor box and a CNN feature map may include an image input unit, a second image image generation unit, a feature component extraction unit, an anchor box generation unit, And a character recognition unit. Therefore, an anchor box is generated from the image, and a more accurate vehicle number can be recognized by comparing the feature component of the portion corresponding to the anchor box with the character recognition learning data.
또한, 본 발명은 다양한 크기의 다수의 앵커박스로부터 문자가 위치하는 영역인 바운딩박스를 생성하므로 문자의 특징에 따라서 가변적으로 영역이 선택될 수 있으며, 이로 인해 효율적인 크기의 영역 선택 및 이를 이용한 보다 정확한 차량 번호를 인식할 수 있다.In addition, since the present invention creates a bounding box that is a region where characters are located from a plurality of anchor boxes of various sizes, an area can be variably selected according to characteristics of characters, The vehicle number can be recognized.
또한, 본 발명은 인공 신경망 기술을 이용하여 문자 영역을 추출하고, 문자를 인식하므로 문자 인식의 높은 확장성 및 정확도를 제공할 수 있다.In addition, the present invention extracts character regions using artificial neural network technology, and recognizes characters, thereby providing high scalability and accuracy of character recognition.
도 1은 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치를 나타내는 구성도이다.
도 2는 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치를 나타내는 구성도이다.
도 3은 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법을 나타내는 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법을 나타내는 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법의 화질을 개선하는 단계를 나타내는 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치 및 방법의 앵커박스(Anchor Box)를 생성하는 단계를 나타내는 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치 및 방법의 앵커박스를 나타내는 도면이다.
도 8은 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치 및 방법의 앵커박스를 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치 및 방법의 구현예를 나타내는 도면이다.
도 10은 일반적인 SSD 방법을 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치 및 방법의 제2 영상 이미지의 구현예를 나타내는 도면이다.
도 12는 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치 및 방법의 CNN의 구현예를 나타내는 도면이다.
도 13은 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치 및 방법의 Fully Connection 네트워크의 구현예를 나타내는 도면이다.1 is a configuration diagram illustrating a vehicle number recognition apparatus using an anchor box and a CNN feature map according to an embodiment of the present invention.
2 is a configuration diagram illustrating a vehicle number recognition apparatus using an anchor box and a CNN feature map according to an embodiment of the present invention.
3 is a flowchart illustrating a method of recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention.
4 is a flowchart illustrating a method of recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention.
5 is a flowchart illustrating a step of improving the image quality of the car number recognition method using the anchor box and the CNN feature map according to an embodiment of the present invention.
FIG. 6 is a flowchart illustrating a step of generating an anchor box of an apparatus and method for recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention.
7 is a view showing an anchor box of an apparatus and method for recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention.
8 is a view showing an anchor box of an apparatus and method for recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention.
9 is a view showing an embodiment of an apparatus and method for recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention.
10 is a diagram showing a general SSD method.
11 is a view showing an embodiment of a second image of an apparatus and method for recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention.
12 is a view showing an embodiment of CNN of an apparatus and method for recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention.
13 is a view showing an embodiment of a fully connected network of an apparatus and method for recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. It is to be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but on the contrary, is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms.
상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms are used only for the purpose of distinguishing one component from another. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the term "comprises" or "comprising ", etc. is intended to specify that there is a stated feature, figure, step, operation, component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.
본 발명에서 문자는 글자, 숫자 및 기호를 포함한다.In the present invention, letters include letters, numbers and symbols.
도 1은 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치를 나타내는 구성도이다.1 is a configuration diagram illustrating a vehicle number recognition apparatus using an anchor box and a CNN feature map according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치는 영상 입력부(100), 제2 영상 생성부(200), 특징성분 추출부(300), 앵커박스 생성부(400), 바운딩박스 생성부(500) 및 문자 인식부(600)를 포함한다.1, an apparatus for recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention includes an
상기 영상 입력부(100)는 제1 영상 이미지를 입력 받을 수 있다. 예를 들면, 상기 영상 입력부(100)는 카메라, CCTV 또는 영상 센서일 수 있다. 예를 들면, 상기 영상 입력부(100)는 IP 카메라일 수 있다. 예를 들면, 상기 영상 입력부(100)는 도로위에 설치되어 차량의 전면 또는 후면을 촬영하는 카메라일 수 있다. 상기 제1 영상 이미지에는 동일한 규격을 갖는 문자가 포함될 수 있다. 상기 제1 영상 이미지에는 동일한 규격을 갖는 일렬로 배치된 문자들이 포함될 수 있다. 예를 들면, 상기 제1 영상 이미지에는 숫자, 글자 또는 부호가 포함될 수 있다. 예를 들면, 도 11과 같이 상기 제1 영상 이미지에는 차량용 번호판이 포함될 수 있다. The
상기 제2 영상 생성부(200)는 상기 제1 영상 이미지로부터 문자가 포함된 관심 영역을 검출하여 제2 영상 이미지를 생성할 수 있다. 예를 들면, 도 11과 같이 상기 관심 영역은 차량용 번호판의 영역일 수 있다. 상기 관심 영역의 검출에는 딥러닝 기술이 사용될 수 있다. 예를 들면, 도 9와 같이 상기 관심 영역은 차량용 번호판의 영역이고, 상기 딥러닝 기술은 SSD(Single shot Multibox Detector)이며 번호판검출 학습 데이터를 이용하여 상기 차량용 번호판을 검출할 수 있다. 차량용 번호판 검출에 사용되는 상기 SSD 기술은 도 10과 같이 이미 공지된 기술이므로 자세한 설명은 생략한다. The
상기 특징성분 추출부(300)는 상기 제2 영상 이미지로부터 특징성분을 추출할 수 있다. 예를 들면, 상기 특징성분 추출부(300)는 합성곱 신경망(CNN: Convolutional Neural Network)을 이용하여 상기 제2 영상 이미지의 컨볼루션 특징 맵(convolution feature map)을 추출하고, 이를 상기 특징성분으로 할 수 있다. The
상기 합성곱 신경망은 입력 레이어(Input layer), 합성곱 레이어(Convolution Layer), 풀링 레이어(Pooling Layer) 및 특징 맵(feature map)을 포함할 수 있다. 상기 합성곱 레이어 및 풀링 레이어는 복수개가 사용될 수 있다. 상기 합성곱 레이어(Convolution Layer)는 입력 데이터에 필터를 적용 후 활성화 함수를 반영하여 이미지를 변환할 수 있다. 상기 풀링 레이어(Pooling Layer)는 이미지의 차원을 줄이는 서브 샘플링(subsampling) 레이어 일 수 있다. 따라서, 상기 풀링 레이어는 생략될 수 있다.The composite neural network may include an input layer, a convolution layer, a pooling layer, and a feature map. A plurality of the composite product layer and the pooling layer may be used. The convolution layer may transform an image by applying a filter to the input data and then reflecting the activation function. The pooling layer may be a subsampling layer that reduces the dimension of the image. Thus, the pooling layer may be omitted.
예를 들면, 도 12와 같이 상기 입력 레이어에서는 상기 제2 영상 이미지를 112x112 크기로 정규화 시킬 수 있으며 그레이 레벨 한 채널을 사용할 수 있고(@1 또는 depth 1), 상기 합성곱 레이어에서는 그레이 레벨 32 채널을 사용하여 상기 정규화 된 제2 영상 이미지를 56x56 크기로 변환할 수 있으며, 상기 풀링 레이어에서는 그레이 레벨 32 채널을 사용하여 상기 변환된 제2 영상 이미지를 28x28 크기로 변환할 수 있고, 다음 합성곱 레이어에서는 그레이 레벨 64 채널을 사용하여 상기 풀링 레이어에서 변환된 상기 제2 영상 이미지를 14x14 크기로 변환할 수 있고, 다음 풀링 레이어에서는 상기 다음 합성곱 레이어에서 변환된 상기 제2 영상 이미지를 그레이 레벨 128 채널을 사용하여 7x7 크기로 변환할 수 있으며, 최종 변환된 7x7 크기에 128 depth를 갖는 이미지는 상기 특징 맵으로 사용될 수 있다.For example, as shown in FIG. 12, the input image layer may normalize the second image to 112x112, use a gray level channel (@ 1 or depth 1), and in the composite product layer, The normalized second video image can be converted into a size of 56x56, and in the pooling layer, the converted second video image can be converted into a 28x28 size using a
상기 앵커박스 생성부(400)는 상기 제2 영상 이미지로부터 복수개의 앵커박스(Anchor Box)를 생성할 수 있다. 상기 복수개의 앵커박스들은 상기 제2 영상 이미지와 세로의 크기가 서로 동일하고 가로의 크기가 서로 상이할 수 있다. 상기 앵커박스(Anchor Box)는 문자 인식을 위한 임의 구분 영역일 수 있다.The anchor
상기 앵커박스들은 엔드 앵커박스(403), 베이스 앵커박스(401) 및 서브 앵커박스(402)를 포함할 수 있다. The anchor boxes may include an
상기 엔드 앵커박스(403)는 가로의 크기와 세로의 크기가 동일한 형상일 수 있다. 예를 들면, 도 7과 같이 가로의 크기 및 세로의 크기가 N인 앵커박스일 수 있다. 상기 엔드 앵커박스(403)는 복수개 일 수 있다. 예를 들면, 상기 엔드 앵커박스(403)는 a개일 수 있다(a는 자연수). 상기 엔드 앵커박스(403)는 상기 제2 영상 이미지의 모든 영역에 걸쳐 일정한 간격으로 겹쳐서 위치할 수 있다. 예를 들면, 도 8과 같이 제2 영상 이미지의 가로의 크기가 M, 세로의 크기가 N이며, 상기 엔드 앵커박스(403)가 크기 1(r=1)의 간격으로 배치된 경우 상기 엔드 앵커박스(403)들의 개수 a는 (M-N+1)개일 수 있다.The
상기 베이스 앵커박스(401)는 가로의 크기가 세로의 크기보다 작을 수 있다. 예를 들면, 도 7과 같이 상기 베이스 앵커박스(401)의 가로의 크기는 세로의 크기의 1/r배일 수 있다. 예를 들면, 상기 베이스 앵커박스(401)의 가로의 크기는 세로의 크기의 1/2배일 수 있다. 상기 베이스 앵커박스(401)는 상기 엔드 앵커박스(403)의 일측에 위치할 수 있다. 상기 베이스 앵커박스(401)는 상기 엔드 앵커박스(403)와 동일한 개수로 생성될 수 있다. 예를 들면, 도 8과 같이 제2 영상 이미지의 가로의 크기가 M, 세로의 크기가 N이며, 상기 베이스 앵커박스(401)가 크기 1(r=1)의 간격으로 배치된 경우 상기 베이스 앵커박스(401)들의 개수 a는 (M-N+1)개일 수 있다.The width of the
상기 서브 앵커박스(402)는 가로의 크기가 상기 엔드 앵커박스(403)의 가로의 크기보다 작으면서 상기 베이스 앵커박스(401)의 가로의 크기에서 일정한 크기만큼 증가한 크기를 가질 수 있다. 상기 서브 앵커박스(402)는 하나의 상기 베이스 앵커박스(401)에 대하여 복수개가 생성될 수 있다. 예를 들면, 도 7과 같이 상기 서브 앵커박스(402)들의 가로의 크기는 세로의 크기의 1/r에 p의 n배를 더한 값일 수 있다.The width of the
상기 서브 앵커박스(402)는 상기 베이스 앵커박스(401)의 영역을 포함할 수 있다. 예를 들면, 도 7과 같이 상기 서브 앵커박스(402)들은 상기 베이스 앵커박스(401)의 가로의 크기인 N/r보다 큰 가로의 크기와 상기 베이스 앵커박스(401)의 세로의 크기인 N과 동일한 세로의 크기를 가지며, 상기 베이스 앵커박스(401)를 일측에 완전히 포함하는 위치에 배치될 수 있다. 상기 서브 앵커박스(402)들은 서로 가로로 p만큼 이동된 위치에 배치될 수 있다.The
상기 앵커박스의 크기는 픽셀단위일 수 있다. 상기 베이스 앵커박스(401)의 가로의 크기(픽셀의 개수)는 상기 엔드 앵커박스(403)의 세로의 크기(픽셀의 개수)의 1/r배일 수 있다. 예를 들면, 상기 세로의 크기에 해당하는 픽셀의 개수는 짝수이고, 상기 r은 세로의 크기의 약수일 수 있다. 예를 들면, 도 7과 같이 상기 베이스 앵커박스(401)들은 세로 픽셀의 개수가 N, 가로 픽셀의 개수가 N/r일 수 있다.The size of the anchor box may be a pixel unit. The width (number of pixels) of the
상기 서브 앵커박스(402)의 증가하는 가로의 일정한 크기는 p픽셀일 수 있다. 예를 들면, 도 7과 같이 상기 서브 앵커박스(402)들은 세로 픽셀의 개수가 N, 가로 픽셀의 개수가 (N/r)+n*p일 수 있다(n은 자연수).The constant size of the increasing width of the
상기 a개의 엔드 앵커박스(403)들 중에서 가장 인접한 엔드 박스 사이의 시작 위치의 일정한 간격은 q픽셀일 수 있다. 상기 a개의 베이스 앵커박스(401)들 중에서 가장 인접한 베이스 앵커박스(401) 사이의 시작 위치의 일정한 간격은 q픽셀일 수 있다. 예를 들면, 도 8의 (b)와 같이 가로의 픽셀 개수 N개, 세로의 픽셀 개수 N/r개를 갖는 베이스 앵커박스(401)들은 q픽셀의 간격으로 배치될 수 있다. 예를 들면, 도 8의 (c)와 같이 가로의 픽셀 개수 N개, 세로의 픽셀 개수 N개를 갖는 엔드 앵커박스(403)들은 q픽셀의 간격으로 배치될 수 있다.The predetermined interval between the start positions of the end a boxes closest to the end a
상기 앵커박스 생성부(400)는 상기 r 및 q를 상기 제2 영상 이미지의 크기에 따라서 변경할 수 있다. 예를 들면, 상기 제2 영상 이미지의 세로의 크기가 홀수이고, 가로의 크기가 짝수이며, r값이 2인 경우, 상기 앵커박스 생성부(400)는 q값을 0.5 단위를 포함하는 값으로 설정할 수 있다. 상기 r, q 및 p값은 장치 사용자 또는 장치 관리자에 의해 변경될 수 있다.The anchor
상기 앵커박스 생성부(400)가 상기 앵커박스를 생성하는 방법은 도 6과 같이 베이스 앵커박스를 생성하는 단계(S410), 서브 앵커박스를 생성하는 단계(S420), 엔드 앵커박스를 생성하는 단계(S430), 새로운 베이스 앵커박스를 생성하는 단계(S440), 다시 수행하는 단계(S450) 및 가장 반대측에 위치하는 엔드 앵커박스가 생성될 때까지 반복하는 단계(S460)를 포함할 수 있다.The method of generating the anchor box by the anchor
상기 베이스 앵커박스를 생성하는 단계(S410)에서는 상기 제2 영상 이미지의 일측에 위치하는 베이스 앵커박스(401)를 생성할 수 있다. 예를 들면, 도 8의 (a)와 같이 상기 제2 영상 이미지의 일측 끝단에 세로의 크기 N, 가로의 크기 N/r인 베이스 앵커박스(401)를 생성할 수 있다.In step S410 of creating the base anchor box, a
상기 서브 앵커박스를 생성하는 단계(S420)에서는 가로의 크기와 세로의 크기가 같아질 때까지 바로 이전에 생성된 앵커박스의 영역을 포함하며 바로 이전에 생성된 앵커박스의 가로의 크기에서 일정한 크기로 가로의 크기를 증가시킨 상기 서브 앵커박스(402)를 생성할 수 있다. 예를 들면, 도 8의 (a)와 같이 상기 제2 영상 이미지의 일측 끝단으로부터 세로의 크기 N, 가로의 크기가 (N/r)+n*p인 서브 앵커박스(402)들을 생성할 수 있다(n은 자연수).In step S420, the sub-anchor box is generated. The sub-anchor box includes an area of the anchor box generated immediately before the size of the sub-anchor box is equal to the size of the sub-anchor box. The size of the
상기 엔드 앵커박스를 생성하는 단계(S430)에서는 바로 이전에 생성된 앵커박스의 영역을 포함하는 상기 엔드 앵커박스(403)를 생성할 수 있다. 예를 들면, 도 8의 (a)와 같이 상기 제2 영상 이미지의 일측 끝단으로부터 세로의 크기 N, 가로의 크기가 N인 엔드 앵커박스(403)를 생성할 수 있다.In step S430 of creating the end anchor box, the
상기 새로운 베이스 앵커박스를 생성하는 단계(S440)에서는 바로 이전에 생성된 베이스 앵커박스(401)에서 일정한 크기만큼 가로 위치가 이동된 새로운 베이스 앵커박스(401)를 생성할 수 있다. 예를 들면, 도 8의 (b)와 같이 상기 제2 영상 이미지의 일측 끝단으로부터 q만큼 이동한 세로의 크기 N, 가로의 크기 N/r인 베이스 앵커박스(401)를 생성할 수 있다.In step S440 of creating the new base anchor box, a new
상기 다시 수행하는 단계(S450)에서는 상기 서브 앵커박스를 생성하는 단계(S420) 및 상기 엔드 앵커박스를 생성하는 단계(S430)를 다시 수행할 수 있다. 예를 들면, 도 8의 (b)와 같이 상기 제2 영상 이미지의 일측 끝단으로부터 l*q만큼 이동한 세로의 크기 N, 가로의 크기가 (N/r)+n*p인 서브 앵커박스(402)들 및 세로의 크기 N이고 가로의 크기가 N인 엔드 앵커박스(403)들을 생성할 수 있다(n및 l은 자연수).In step S450, the sub-anchor box creation step S420 and the end anchor box creation step S430 may be performed again. For example, as shown in FIG. 8 (b), a sub-anchor box (N / r) + n * p having a size N and a size of horizontal (N / r) + n * p shifted by l * q from one end of the second video image 402) and
상기 가장 반대측에 위치하는 엔드 앵커박스가 생성될 때까지 반복하는 단계(S460)에서는 상기 새로운 베이스 앵커박스를 생성하는 단계(S440) 및 상기 다시 수행하는 단계(S450)를 상기 제2 영상 이미지의 일측의 가장 반대측에 위치하는 엔드 앵커박스(403)가 생성될 때까지 반복할 수 있다. 예를 들면, 도 8의 (c)와 같이 상기 제2 영상 이미지의 일측의 반대측의 끝단에 위치하는 세로의 크기 N, 가로의 크기가 N인 엔드 앵커박스(403)를 생성할 수 있다.In the step S460 of repeating until the end anchor box located on the most opposite side is created, the step of creating the new base anchor box S440 and the step S450 of performing the re-performing are repeatedly performed on one side Can be repeated until the
따라서, 세로의 크기가 N이고 가로의 크기가 M이며 r이 2인 제2 영상 이미지로부터 생성되는 앵커박스의 개수는 다음의 수학식 1 로 계산될 수 있다.Accordingly, the number of anchor boxes generated from the second image having a vertical size of N, a horizontal size of M, and r of 2 can be calculated by the following equation (1).
수학식 1
여기서, N은 상기 제2 영상 이미지의 세로의 크기이고, M은 상기 제2 영상 이미지의 가로의 크기임.Here, N is the vertical size of the second video image and M is the horizontal size of the second video image.
상기 바운딩박스 생성부(500)는 상기 앵커박스들의 영역에 해당하는 상기 제2 영상 이미지의 특징성분들을 문자 검출 학습데이터와 비교하여 최대 매칭 값을 갖는 앵커박스를 각 문자 영역의 바운딩박스(Bounding Box)로 선정할 수 있다.The bounding
상기 문자 인식부(600)는 상기 바운딩박스에 해당하는 영역의 특징성분을 문자 인식 학습데이터와 비교하여 상기 앵커박스에 해당하는 문자를 인식할 수 있다. 상기 문자 인식부(600)는 Fully Connection 네트워크를 이용하여 상기 앵커박스에 해당하는 문자를 인식할 수 있다. 상기 Fully Connection 네트워크는 입력 레이어(Input layer), Fully Connection layer 및 출력 레이어(Output layer)를 포함할 수 있다. 예를 들면, 도 13과 같이 상기 Fully Connection 네트워크는 입력 레이어(Input layer), 제1 Fully Connection layer 및 제2 Fully Connection Layer를 포함할 수 있으며, 상기 입력 레이어에는 상기 바운딩박스에 해당하는 영역의 특징성분이 입력될 수 있다. 여기서, Fully Connection 네트워크란 이전 계층의 모든 뉴런과 결합된 형태의 layer를 사용한 인공 신경망 기술을 말한다.The
도 2는 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치를 나타내는 구성도이다. 2 is a configuration diagram illustrating a vehicle number recognition apparatus using an anchor box and a CNN feature map according to an embodiment of the present invention.
본 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치는 차량 검출부(700), 전처리부(800) 및 프로젝션부(900)를 제외하고는 도 1의 차량 번호 인식 장치와 실질적으로 동일하다. 따라서, 도 1의 차량 번호 인식 장치와 동일한 구성요소는 동일한 도면 부호를 부여하고, 반복되는 설명은 생략한다.The vehicle number recognizing apparatus using the anchor box and the CNN characteristic map according to the present embodiment is substantially the same as the vehicle number recognizing apparatus of Fig. 1 except for the
도 2를 참조하면, 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치는 차량 검출부(700), 전처리부(800) 및 프로젝션부(900)를 포함할 수 있다. Referring to FIG. 2, the vehicle number recognizing apparatus using the anchor box and the CNN feature map according to an embodiment of the present invention may include a
상기 차량 검출부(700)는 상기 제1 영상 이미지로부터 SSD(Single shot MultiBox Detector) 알고리즘을 이용하여 차량 영역을 검출할 수 있다. 상기 차량 검출부(700)는 상기 SSD(Single shot Multibox Detector)기술 및 차량검출 학습 데이터를 이용하여 상기 차량 영역을 검출할 수 있다. 차량 검출에 사용되는 상기 SSD 기술은 도 10과 같이 이미 공지된 기술이므로 자세한 설명은 생략한다. 상기 제2 영상 생성부(200)는 상기 검출된 차량 영역으로부터 SSD(Single shot MultiBox Detector) 알고리즘을 이용하여 상기 관심 영역인 차량용 번호판 영역을 검출하여 제2 영상 이미지를 생성할 수 있다.The
상기 전처리부(800)는 상기 제2 영상 이미지에 intensity balancing 및 모폴로지(Morphology)를 수행하여 화질을 개선할 수 있다.The
상기 intensity balancing의 수행은 영상 그레이 레벨에 대한 히스토그램을 계산하고, 상기 히스토그램으로부터 하위 사분위수와 상위 사분위수에 해당되는 픽셀 값을 계산하며, 다음의 수학식 2를 이용하여 어파인 변환(affine transform)을 수행할 수 있다.The intensity balancing operation calculates a histogram of an image gray level, calculates a pixel value corresponding to a lower quartile and an upper quartile from the histogram, and performs an affine transform using Equation (2) Can be performed.
수학식 2
여기서, x는 해당 위치의 픽셀 값이고, max는 영역에서 최대 픽셀 값이고, min은 영역에서 최소 픽셀 값이고, Vmin은 하위 사분위수에 해당되는 픽셀 값이고, Vmax는 상위 사분위수에 해당되는 픽셀 값임.Here, x is a pixel value at the position, max is a maximum pixel value in the region, min is a minimum pixel value in the region, Vmin is a pixel value corresponding to a lower quartile, and Vmax is a pixel value corresponding to a higher quartile Value.
상기 모폴로지(Morphology)란 영상의 노이즈를 제거하고 문자 부분을 강조하기 위한 방법일 수 있다. 상기 모폴로지는 닫힘 모폴로지 및 열림 모폴로지를 포함할 수 있으며, 상기 전처리부(800)는 상기 닫힘 모폴로지를 수행하고 이어서 열림 모폴로지를 수행할 수 있다. 상기 닫힘 모폴로지는 침식(erosion)연산을 수행 후 팽창(dilation)연산을 수행하는 것일 수 있다. 열림 모폴로지는 팽창연산을 한 후, 침식 연산을 수행하는 것일 수 있다. 상기 닫힘 모폴로지는 노이즈를 제거하며, 상기 열림 모폴로지는 문자 부분의 픽셀을 강조시킬 수 있다.The morphology may be a method for removing noise of an image and emphasizing a character portion. The morphology may include a closed morphology and an open morphology, and the
상기 프로젝션부(900)는 수평투영법(Horizontal projection)을 이용하여 상기 제2 영상 이미지의 상위 위치와 하위 위치를 계산할 수 있다. 상기 수평투영법은 상기 제2 영상 이미지를 이진화 한 다음 각 행 별로 수행 프로젝션을 수행해서 픽셀 수를 카운트한 후 하위부터 픽셀 카운트 수를 계산해서 최소 카운트 수 부분을 하위 위치로 정하고, 다음에 최소 카운트 수 부분을 상위 위치로 정하는 방법일 수 있다.The
상기 차량 번호 인식 장치는 상기 차량 번호 인식 장치에 전원을 제공하는 전원부, 상기 차량 번호 인식 장치의 각 구성에서 저장 기능이 필요한 경우 저장부를 더 포함할 수 있다.The car number recognizing apparatus may further include a power supply unit for supplying power to the car number recognizing apparatus, and a storage unit for storing the car number recognizing apparatus.
상기 차량 번호 인식 장치는 상기 인식된 문자를 순서대로 결합하여 차량의 번호를 출력하는 차량 번호 출력부를 더 포함할 수 있다.The car number recognition apparatus may further include a car number output unit for outputting a car number by sequentially combining the recognized characters.
상기 차량 번호 인식 장치의 구성은 다양하게 변형될 수 있다. 상기 차량 번호 인식 장치의 구성은 전부 하나의 장치로 구성되거나 분리된 장치로 구성될 수 있다. 예를 들면, 상기 영상 입력부(100), 상기 제2 영상 생성부(200), 상기 특징 성분 추출부, 상기 앵커박스 생성부(400), 상기 바운딩박스 생성부 및 상기 문자 인식부(600)는 하나의 장치로 구성될 수 있다. 예를 들면, 상기 제2 영상 생성부(200), 상기 특징 성분 추출부, 상기 앵커박스 생성부(400), 상기 바운딩박스 생성부 및 상기 문자 인식부(600)는 하나의 프로세서로 구성될 수 있다. 예를 들면, 상기 제2 영상 생성부(200), 상기 특징 성분 추출부, 상기 앵커박스 생성부(400), 상기 바운딩박스 생성부 및 상기 문자 인식부(600)는 별도의 장치인 서버로 구성되고, 상기 서버에 복수개의 상기 영상 입력부(100)가 유선 또는 무선으로 연결될 수 있다. 상기 차량 번호 인식 장치는 데이터를 다른 구성요소 또는 타 시스템으로 전송하는 통신부를 더 포함할 수 있다.The configuration of the vehicle identification apparatus may be variously modified. The configuration of the car number recognition device may be entirely composed of one device or a separate device. For example, the
도 3은 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a method of recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention.
본 실시예에 따른 차량 번호 인식 방법은 상기 차량 번호 인식 장치에서 수행되며, 도 1 및 도 2의 차량 번호 인식 장치와 카테고리만 상이할 뿐 실질적으로 동일하다. 따라서, 도 1 및 도 2의 차량 번호 인식 장치와 동일한 구성요소는 동일한 도면 부호를 부여하고, 반복되는 설명은 생략한다.The car number recognition method according to the present embodiment is performed in the car number recognition device and is substantially the same as the car number recognition device in Figs. Therefore, the same components as those of the vehicle identification apparatus of FIGS. 1 and 2 are denoted by the same reference numerals, and repeated descriptions are omitted.
도 3을 참조하면, 본 발명의 일 실시예에 따른 차량 번호 인식 방법은 제1 영상 이미지를 입력 받는 단계(S100), 제2 영상 이미지를 생성하는 단계(S200), 특징성분을 추출하는 단계(S300), 특징성분을 추출하는 단계(S400), 바운딩박스(Bounding Box)로 선정하는 단계(S500) 및 문자를 인식하는 단계(S600)를 포함한다.Referring to FIG. 3, a car number recognition method according to an embodiment of the present invention includes receiving a first image (S100), generating a second image (S200), extracting a feature S300), extracting feature components (S400), selecting a bounding box (S500), and recognizing characters (S600).
상기 제1 영상 이미지를 입력 받는 단계(S100)에서는 상기 영상 입력부(100)가 제1 영상 이미지를 입력 받을 수 있다. 상기 제1 영상 이미지에는 동일한 규격을 갖는 문자가 포함될 수 있다. 상기 제1 영상 이미지에는 동일한 규격을 갖는 일렬로 배치된 문자들이 포함될 수 있다. 예를 들면, 상기 제1 영상 이미지에는 숫자, 글자 또는 부호가 포함될 수 있다. 예를 들면, 도 11과 같이 상기 제1 영상 이미지에는 차량용 번호판이 포함될 수 있다. In the step S100 of receiving the first video image, the
상기 제2 영상 이미지를 생성하는 단계(S200)에서는 상기 제2 영상 생성부(200)가 상기 제1 영상 이미지로부터 문자가 포함된 관심 영역을 검출하여 제2 영상 이미지를 생성할 수 있다. 예를 들면, 도 11과 같이 상기 관심 영역은 차량용 번호판의 영역일 수 있다. 상기 관심 영역의 검출에는 딥러닝 기술이 사용될 수 있다. 예를 들면, 상기 관심 영역은 차량용 번호판의 영역이고, 상기 딥러닝 기술은 SSD(Single shot Multibox Detector)이며 번호판검출 학습 데이터를 이용하여 상기 차량용 번호판 영역을 검출할 수 있다. 차량용 번호판 검출에 사용되는 상기 SSD 기술은 도 10과 같이 이미 공지된 기술이므로 자세한 설명은 생략한다.In the step S200 of generating the second video image, the
상기 특징성분을 추출하는 단계(S300)에서는 상기 특징성분 추출부(300)가 상기 제2 영상 이미지로부터 특징성분을 추출할 수 있다. 예를 들면, 상기 특징성분 추출부(300)는 합성곱 신경망(CNN: Convolutional Neural Network)을 이용하여 상기 제2 영상 이미지의 컨볼루션 특징 맵(convolution feature map)을 추출하고, 이를 상기 특징성분으로 할 수 있다. In step S300 of extracting the feature component, the feature
상기 합성곱 신경망은 입력 레이어(Input layer), 합성곱 레이어(Convolution Layer), 풀링 레이어(Pooling Layer) 및 특징 맵(feature map)을 포함할 수 있다. 상기 합성곱 레이어 및 풀링 레이어는 복수개가 사용될 수 있다. 상기 합성곱 레이어(Convolution Layer)는 입력 데이터에 필터를 적용 후 활성화 함수를 반영하여 이미지를 변환할 수 있다. 상기 풀링 레이어(Pooling Layer)는 이미지의 차원을 줄이는 서브 샘플링(subsampling) 레이어 일 수 있다. 따라서, 상기 풀링 레이어는 생략될 수 있다.The composite neural network may include an input layer, a convolution layer, a pooling layer, and a feature map. A plurality of the composite product layer and the pooling layer may be used. The convolution layer may transform an image by applying a filter to the input data and then reflecting the activation function. The pooling layer may be a subsampling layer that reduces the dimension of the image. Thus, the pooling layer may be omitted.
예를 들면, 도 12와 같이 상기 입력 레이어에서는 상기 제2 영상 이미지를 112x112 크기로 정규화 시킬 수 있으며 그레이 레벨 한 채널을 사용할 수 있고(@1 또는 depth 1), 상기 합성곱 레이어에서는 그레이 레벨 32 채널을 사용하여 상기 정규화 된 제2 영상 이미지를 56x56 크기로 변환할 수 있으며, 상기 풀링 레이어에서는 그레이 레벨 32 채널을 사용하여 상기 변환된 제2 영상 이미지를 28x28 크기로 변환할 수 있고, 다음 합성곱 레이어에서는 그레이 레벨 64 채널을 사용하여 상기 풀링 레이어에서 변환된 상기 제2 영상 이미지를 14x14 크기로 변환할 수 있고, 다음 풀링 레이어에서는 상기 다음 합성곱 레이어에서 변환된 상기 제2 영상 이미지를 그레이 레벨 128 채널을 사용하여 7x7 크기로 변환할 수 있으며, 최종 변환된 7x7 크기에 128 depth를 갖는 이미지는 상기 특징 맵으로 사용될 수 있다.For example, as shown in FIG. 12, the input image layer may normalize the second image to 112x112, use a gray level channel (@ 1 or depth 1), and in the composite product layer, The normalized second video image can be converted into a size of 56x56, and in the pooling layer, the converted second video image can be converted into a 28x28 size using a
상기 특징성분을 추출하는 단계(S400)에서는 상기 앵커박스 생성부(400)는 상기 제2 영상 이미지로부터 복수개의 앵커박스(Anchor Box)를 생성할 수 있다. 상기 복수개의 앵커박스들은 상기 제2 영상 이미지와 세로의 크기가 서로 동일하고 가로의 크기가 서로 상이할 수 있다. 상기 앵커박스(Anchor Box)는 문자 인식을 위한 임의 구분 영역일 수 있다.In step S400 of extracting the feature component, the anchor
상기 앵커박스들은 엔드 앵커박스(403), 베이스 앵커박스(401) 및 서브 앵커박스(402)를 포함할 수 있다. The anchor boxes may include an
상기 엔드 앵커박스(403)는 가로의 크기와 세로의 크기가 동일한 형상일 수 있다. 예를 들면, 도 7과 같이 가로의 크기 및 세로의 크기가 N인 앵커박스일 수 있다. 상기 엔드 앵커박스(403)는 복수개 일 수 있다. 예를 들면, 상기 엔드 앵커박스(403)는 a개일 수 있다(a는 자연수). 상기 엔드 앵커박스(403)는 상기 제2 영상 이미지의 모든 영역에 걸쳐 일정한 간격으로 겹쳐서 위치할 수 있다. 예를 들면, 도 8과 같이 제2 영상 이미지의 가로의 크기가 M, 세로의 크기가 N이며, 상기 엔드 앵커박스(403)가 크기 1(r=1)의 간격으로 배치된 경우 상기 엔드 앵커박스(403)들의 개수 a는 (M-N+1)개일 수 있다.The
상기 베이스 앵커박스(401)는 가로의 크기가 세로의 크기보다 작을 수 있다. 예를 들면, 도 7과 같이 상기 베이스 앵커박스(401)의 가로의 크기는 세로의 크기의 1/r배일 수 있다. 예를 들면, 상기 베이스 앵커박스(401)의 가로의 크기는 세로의 크기의 1/2배일 수 있다. 상기 베이스 앵커박스(401)는 상기 엔드 앵커박스(403)의 일측에 위치할 수 있다. 상기 베이스 앵커박스(401)는 상기 엔드 앵커박스(403)와 동일한 개수로 생성될 수 있다. 예를 들면, 도 8과 같이 제2 영상 이미지의 가로의 크기가 M, 세로의 크기가 N이며, 상기 베이스 앵커박스(401)가 크기 1(r=1)의 간격으로 배치된 경우 상기 베이스 앵커박스(401)들의 개수 a는 (M-N+1)개일 수 있다.The width of the
상기 서브 앵커박스(402)는 가로의 크기가 상기 엔드 앵커박스(403)의 가로의 크기보다 작으면서 상기 베이스 앵커박스(401)의 가로의 크기에서 일정한 크기만큼 증가한 크기를 가질 수 있다. 상기 서브 앵커박스(402)는 하나의 상기 베이스 앵커박스(401)에 대하여 복수개가 생성될 수 있다. 예를 들면, 도 7과 같이 상기 서브 앵커박스(402)들의 가로의 크기는 세로의 크기의 1/r에 p의 n배를 더한 값일 수 있다.The width of the
상기 서브 앵커박스(402)는 상기 베이스 앵커박스(401)의 영역을 포함할 수 있다. 예를 들면, 도 7과 같이 상기 서브 앵커박스(402)들은 상기 베이스 앵커박스(401)의 가로의 크기인 N/r보다 큰 가로의 크기와 상기 베이스 앵커박스(401)의 세로의 크기인 N과 동일한 세로의 크기를 가지며, 상기 베이스 앵커박스(401)를 일측에 완전히 포함하는 위치에 배치될 수 있다. 상기 서브 앵커박스(402)들은 서로 가로로 p만큼 이동된 위치에 배치될 수 있다.The
상기 앵커박스의 크기는 픽셀단위일 수 있다. 상기 베이스 앵커박스(401)의 가로의 크기(픽셀의 개수)는 상기 엔드 앵커박스(403)의 세로의 크기(픽셀의 개수)의 1/r배일 수 있다. 예를 들면, 상기 세로의 크기에 해당하는 픽셀의 개수는 짝수이고, 상기 r은 세로의 크기의 약수일 수 있다. 예를 들면, 도 7과 같이 상기 베이스 앵커박스(401)들은 세로 픽셀의 개수가 N, 가로 픽셀의 개수가 N/r일 수 있다.The size of the anchor box may be a pixel unit. The width (number of pixels) of the
상기 서브 앵커박스(402)의 증가하는 가로의 일정한 크기는 p픽셀일 수 있다. 예를 들면, 도 7과 같이 상기 서브 앵커박스(402)들은 세로 픽셀의 개수가 N, 가로 픽셀의 개수가 (N/r)+n*p일 수 있다(n은 자연수).The constant size of the increasing width of the
상기 a개의 엔드 앵커박스(403)들 중에서 가장 인접한 엔드 박스 사이의 시작 위치의 일정한 간격은 q픽셀일 수 있다. 상기 a개의 베이스 앵커박스(401)들 중에서 가장 인접한 베이스 앵커박스(401) 사이의 시작 위치의 일정한 간격은 q픽셀일 수 있다. 예를 들면, 도 8의 (b)와 같이 가로의 픽셀 개수 N개, 세로의 픽셀 개수 N/r개를 갖는 베이스 앵커박스(401)들은 q픽셀의 간격으로 배치될 수 있다. 예를 들면, 도 8의 (c)와 같이 가로의 픽셀 개수 N개, 세로의 픽셀 개수 N개를 갖는 엔드 앵커박스(403)들은 q픽셀의 간격으로 배치될 수 있다.The predetermined interval between the start positions of the end a boxes closest to the end a
상기 앵커박스 생성부(400)는 상기 r 및 q를 상기 제2 영상 이미지의 크기에 따라서 변경할 수 있다. 예를 들면, 상기 제2 영상 이미지의 세로의 크기가 홀수이고, 가로의 크기가 짝수이며, r값이 2인 경우, 상기 앵커박스 생성부(400)는 q값을 0.5 단위를 포함하는 값으로 설정할 수 있다. The anchor
상기 특징성분을 추출하는 단계(S400)는 베이스 앵커박스를 생성하는 단계(S410), 서브 앵커박스를 생성하는 단계(S420), 엔드 앵커박스를 생성하는 단계(S430), 새로운 베이스 앵커박스를 생성하는 단계(S440), 다시 수행하는 단계(S450) 및 가장 반대측에 위치하는 엔드 앵커박스가 생성될 때까지 반복하는 단계(S460)를 포함할 수 있다.The step S400 of extracting the feature component includes a step S410 of creating a base anchor box, a step S420 of creating a sub anchor box, a step S430 of creating an end anchor box, a step of creating a new base anchor box (S440), performing again (S450), and repeating (S460) until the end anchor box located on the opposite side is generated.
상기 베이스 앵커박스를 생성하는 단계(S410)에서는 상기 제2 영상 이미지의 일측에 위치하는 베이스 앵커박스(401)를 생성할 수 있다. 예를 들면, 도 8의 (a)와 같이 상기 제2 영상 이미지의 일측 끝단에 세로의 크기 N, 가로의 크기 N/r인 베이스 앵커박스(401)를 생성할 수 있다.In step S410 of creating the base anchor box, a
상기 서브 앵커박스를 생성하는 단계(S420)에서는 가로의 크기와 세로의 크기가 같아질 때까지 바로 이전에 생성된 앵커박스의 영역을 포함하며 바로 이전에 생성된 앵커박스의 가로의 크기에서 일정한 크기로 가로의 크기를 증가시킨 상기 서브 앵커박스(402)를 생성할 수 있다. 예를 들면, 도 8의 (a)와 같이 상기 제2 영상 이미지의 일측 끝단으로부터 세로의 크기 N, 가로의 크기가 (N/r)+n*p인 서브 앵커박스(402)들을 생성할 수 있다(n은 자연수).In step S420, the sub-anchor box is generated. The sub-anchor box includes an area of the anchor box generated immediately before the size of the sub-anchor box is equal to the size of the sub-anchor box. The size of the
상기 엔드 앵커박스를 생성하는 단계(S430)에서는 바로 이전에 생성된 앵커박스의 영역을 포함하는 상기 엔드 앵커박스(403)를 생성할 수 있다. 예를 들면, 도 8의 (a)와 같이 상기 제2 영상 이미지의 일측 끝단으로부터 세로의 크기 N, 가로의 크기가 N인 엔드 앵커박스(403)를 생성할 수 있다.In step S430 of creating the end anchor box, the
상기 새로운 베이스 앵커박스를 생성하는 단계(S440)에서는 바로 이전에 생성된 베이스 앵커박스(401)에서 일정한 크기만큼 가로 위치가 이동된 새로운 베이스 앵커박스(401)를 생성할 수 있다. 예를 들면, 도 8의 (b)와 같이 상기 제2 영상 이미지의 일측 끝단으로부터 q만큼 이동한 세로의 크기 N, 가로의 크기 N/r인 베이스 앵커박스(401)를 생성할 수 있다.In step S440 of creating the new base anchor box, a new
상기 다시 수행하는 단계(S450)에서는 상기 서브 앵커박스를 생성하는 단계(S420) 및 상기 엔드 앵커박스를 생성하는 단계(S430)를 다시 수행할 수 있다. 예를 들면, 도 8의 (b)와 같이 상기 제2 영상 이미지의 일측 끝단으로부터 l*q만큼 이동한 세로의 크기 N, 가로의 크기가 (N/r)+n*p인 서브 앵커박스(402)들 및 세로의 크기 N이고 가로의 크기가 N인 엔드 앵커박스(403)들을 생성할 수 있다(n및 l은 자연수).In step S450, the sub-anchor box creation step S420 and the end anchor box creation step S430 may be performed again. For example, as shown in FIG. 8 (b), a sub-anchor box (N / r) + n * p having a size N and a size of horizontal (N / r) + n * p shifted by l * q from one end of the second video image 402) and
상기 가장 반대측에 위치하는 엔드 앵커박스가 생성될 때까지 반복하는 단계(S460)에서는 상기 새로운 베이스 앵커박스를 생성하는 단계(S440) 및 상기 다시 수행하는 단계(S450)를 상기 제2 영상 이미지의 일측의 가장 반대측에 위치하는 엔드 앵커박스(403)가 생성될 때까지 반복할 수 있다. 예를 들면, 도 8의 (c)와 같이 상기 제2 영상 이미지의 일측의 반대측의 끝단에 위치하는 세로의 크기 N, 가로의 크기가 N인 엔드 앵커박스(403)를 생성할 수 있다.In the step S460 of repeating until the end anchor box located on the most opposite side is created, the step of creating the new base anchor box S440 and the step S450 of performing the re-performing are repeatedly performed on one side Can be repeated until the
따라서, 세로의 크기가 N이고 가로의 크기가 M이며 r이 2인 제2 영상 이미지로부터 생성되는 앵커박스의 개수는 다음의 수학식 3으로 계산될 수 있다.Accordingly, the number of anchor boxes generated from the second image having a vertical size of N, a horizontal size of M, and r of 2 can be calculated by the following equation (3).
수학식 3
여기서, N은 상기 제2 영상 이미지의 세로의 크기이고, M은 상기 제2 영상 이미지의 가로의 크기임.Here, N is the vertical size of the second video image and M is the horizontal size of the second video image.
상기 바운딩박스(Bounding Box)로 선정하는 단계(S500)에서는 상기 바운딩박스 생성부(500)는 상기 앵커박스들의 영역에 해당하는 상기 제2 영상 이미지의 특징성분들을 문자 검출 학습데이터와 비교하여 최대 매칭 값을 갖는 앵커박스를 각 문자 영역의 바운딩박스(Bounding Box)로 선정할 수 있다.In the step S500 of selecting a bounding box, the bounding
상기 문자를 인식하는 단계(S600)에서는 상기 문자 인식부(600)는 상기 바운딩박스에 해당하는 영역의 특징성분을 문자 인식 학습데이터와 비교하여 상기 앵커박스에 해당하는 문자를 인식할 수 있다. 상기 문자 인식부(600)는 Fully Connection 네트워크를 이용하여 상기 앵커박스에 해당하는 문자를 인식할 수 있다. 상기 Fully Connection 네트워크는 입력 레이어(Input layer), Fully Connection layer 및 출력 레이어(Output layer)를 포함할 수 있다. 예를 들면, 도 13과 같이 상기 Fully Connection 네트워크는 입력 레이어(Input layer), 제1 Fully Connection layer 및 제2 Fully Connection Layer를 포함할 수 있으며, 상기 입력 레이어에는 상기 바운딩박스에 해당하는 영역의 특징성분이 입력될 수 있다. 여기서, Fully Connection 네트워크란 이전 계층의 모든 뉴런과 결합된 형태의 layer를 사용한 인공 신경망 기술을 말한다.In step S600 of recognizing the character, the
도 4는 본 발명의 일 실시예에 따른 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법을 나타내는 흐름도이다. 도 5는 본 발명의 일 실시예에 따른 차량 번호 인식 방법의 화질을 개선하는 단계를 나타내는 흐름도이다.4 is a flowchart illustrating a method of recognizing a car number using an anchor box and a CNN feature map according to an embodiment of the present invention. 5 is a flowchart illustrating a step of improving the image quality of the car number recognition method according to an embodiment of the present invention.
본 실시예에 따른 차량 번호 인식 방법은 차량 영역을 검출하는 단계(S110), 화질을 개선하는 단계(S210) 및 제2 영상 이미지의 상위 위치와 하위 위치를 계산하는 단계(S220)를 제외하고는 도 3의 차량 번호 인식 방법과 실질적으로 동일하다. 따라서, 도 3의 차량 번호 인식 방법과 동일한 구성요소는 동일한 도면 부호를 부여하고, 반복되는 설명은 생략한다.The vehicle number recognition method according to the present embodiment includes the steps of detecting a vehicle area (S110), improving an image quality (S210), and calculating a higher position and a lower position of a second image image (S220) Is substantially the same as the car number recognition method of Fig. Therefore, the same constituent elements as those of the car number recognition method of FIG. 3 are denoted by the same reference numerals, and repeated description is omitted.
도 4 및 도 5를 참조하면, 본 발명의 일 실시예에 따른 차량 번호 인식 방법은 차량 영역을 검출하는 단계(S110), 화질을 개선하는 단계(S210) 및 제2 영상 이미지의 상위 위치와 하위 위치를 계산하는 단계(S220)를 포함할 수 있다. 4 and 5, a vehicle number recognition method according to an exemplary embodiment of the present invention includes a step S110 of detecting a vehicle area, a step S210 of improving an image quality, And calculating a position (S220).
상기 차량 영역을 검출하는 단계(S110)에서는 상기 차량 검출부(700)는 상기 제1 영상 이미지로부터 SSD(Single shot MultiBox Detector) 알고리즘을 이용하여 차량 영역을 검출할 수 있다. 예를 들면, 도 9와 같이 상기 차량 영역을 검출하는 단계(S110)에서는 SSD(Single shot Multibox Detector) 및 차량검출 학습 데이터를 이용하여 상기 차량을 검출할 수 있다. 상기 차량 검출에 사용되는 상기 SSD 기술은 도 10과 같이 이미 공지된 기술이므로 자세한 설명은 생략한다. 상기 제2 영상 이미지를 생성하는 단계에서는 상기 검출된 차량 영역으로부터 SSD(Single shot MultiBox Detector) 알고리즘을 이용하여 상기 관심 영역인 차량용 번호판 영역을 검출하여 제2 영상 이미지를 생성할 수 있다.In the step S110 of detecting the vehicle area, the
상기 화질을 개선하는 단계(S210)에서는 상기 전처리부(800)는 상기 제2 영상 이미지에 intensity balancing 및 모폴로지(Morphology)를 수행하여 화질을 개선할 수 있다.In the step of improving the image quality (S210), the
상기 화질을 개선하는 단계(S210)는 히스토그램을 계산하는 단계(S211), 픽셀 값을 계산하는 단계(S212), 어파인 변환(affine transform)을 수행하는 단계(S213), 닫힘 모폴로지를 수행하는 단계(S214) 및 열림 모폴로지를 수행하는 단계(S215)를 포함할 수 있다.The step of improving the image quality (S210) includes a step S211 of calculating a histogram, a step S212 of calculating a pixel value, an affine transform step S213, a step of performing a closed morphology (S214) and performing an open morphology (S215).
상기 히스토그램을 계산하는 단계(S211)에서는 상기 제2 영상 이미지로부터 영상 그레이 레벨에 대한 히스토그램을 계산할 수 있다. 상기 픽셀 값을 계산하는 단계(S212)에서는 상기 히스토그램으로부터 하위 사분위수와 상위 사분위수에 해당되는 픽셀 값을 계산할 수 있다. 상기 어파인 변환(affine transform)을 수행하는 단계(S213)에서는 다음의 수학식 4를 이용하여 어파인 변환(affine transform)을 수행할 수 있다.In the step of calculating the histogram (S211), a histogram of the image gray level may be calculated from the second image. In step S212, the pixel values corresponding to the lower quartile and the upper quartile can be calculated from the histogram. In step S213 of performing the affine transform, an affine transform may be performed using Equation (4).
수학식 4
여기서, x는 해당 위치의 픽셀 값이고, max는 영역에서 최대 픽셀 값이고, min은 영역에서 최소 픽셀 값이고, Vmin은 하위 사분위수에 해당되는 픽셀 값이고, Vmax는 상위 사분위수에 해당되는 픽셀 값임.Here, x is a pixel value at the position, max is a maximum pixel value in the region, min is a minimum pixel value in the region, Vmin is a pixel value corresponding to a lower quartile, and Vmax is a pixel value corresponding to a higher quartile Value.
상기 모폴로지(Morphology)란 영상의 노이즈를 제거하고 문자 부분을 강조하기 위한 방법일 수 있다. 상기 모폴로지는 닫힘 모폴로지 및 열림 모폴로지를 포함할 수 있다. 상기 전처리부(800)는 상기 닫힘 모폴로지를 수행하고 이어서 열림 모폴로지를 수행할 수 있다. 상기 닫힘 모폴로지를 수행하는 단계(S214)에서는 침식(erosion)연산을 수행 후 팽창(dilation)연산을 수행하는 상기 닫힘 모폴로지를 수행할 수 있다. 상기 열림 모폴로지를 수행하는 단계(S215)에서는 팽창연산을 한 후, 침식 연산을 수행하는 상기 열림 모폴로지를 수행할 수 있다. 상기 닫힘 모폴로지는 노이즈를 제거하며, 상기 열림 모폴로지는 문자 부분의 픽셀을 강조시킬 수 있다.The morphology may be a method for removing noise of an image and emphasizing a character portion. The morphology may include a closed morphology and an open morphology. The
상기 제2 영상 이미지의 상위 위치와 하위 위치를 계산하는 단계(S220)에서는 상기 프로젝션부(900)는 수평투영법(Horizontal projection)을 이용하여 상기 제2 영상 이미지의 상위 위치와 하위 위치를 계산할 수 있다. 상기 수평투영법은 상기 제2 영상 이미지를 이진화 한 다음 각 행 별로 수행 프로젝션을 수행해서 픽셀 수를 카운트한 후 하위부터 픽셀 카운트 수를 계산해서 최소 카운트 수 부분을 하위 위치로 정하고, 다음에 최소 카운트 수 부분을 상위 위치로 정하는 방법일 수 있다.In step S220 of calculating the upper and lower positions of the second image, the
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 통상의 기술자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. It will be understood.
100: 영상 입력부
200: 제2 영상 생성부
300: 특징성분 추출부
400: 앵커박스 생성부
500: 바운딩박스 생성부
600: 문자 인식부100:
200: second image generating unit
300: Feature component extraction unit
400: anchor box creation unit
500: Bounding box generating unit
600:
Claims (12)
상기 제1 영상 이미지로부터 문자가 포함된 관심 영역을 검출하여 제2 영상 이미지를 생성하는 제2 영상 생성부;
상기 제2 영상 이미지로부터 특징성분을 추출하는 특징성분 추출부;
상기 제2 영상 이미지로부터 상기 제2 영상 이미지와 세로의 크기가 서로 동일하고 가로의 크기가 서로 상이한 복수개의 앵커박스(Anchor Box)를 생성하는 앵커박스 생성부;
상기 앵커박스들의 영역에 해당하는 상기 제2 영상 이미지의 특징성분들을 문자 검출 학습데이터와 비교하여 최대 매칭 값을 갖는 앵커박스를 각 문자 영역의 바운딩박스(Bounding Box)로 선정하는 바운딩박스 생성부; 및
상기 바운딩박스에 해당하는 영역의 특징성분을 문자 인식 학습데이터와 비교하여 상기 앵커박스에 해당하는 문자를 인식하는 문자 인식부를 포함하고,
상기 앵커박스들은,
상기 제2 영상 이미지의 모든 영역에 걸쳐 일정한 간격으로 겹쳐서 위치하며 가로의 크기와 세로의 크기가 동일한 a개의 엔드 앵커박스(a는 자연수);
상기 엔드 앵커박스의 일측에 위치하며, 가로의 크기가 세로의 크기보다 작은 a개의 베이스 앵커박스; 및
상기 베이스 앵커박스의 영역을 포함하며, 가로의 크기가 상기 엔드 앵커박스의 가로의 크기보다 작으면서 상기 베이스 앵커박스의 가로의 크기에서 일정한 크기만큼 증가한 크기를 갖는 복수개의 서브 앵커박스를 포함하는 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치.
A video input unit receiving a first video image;
A second image generation unit for generating a second image by detecting a region of interest including a character from the first image;
A feature extraction unit for extracting a feature component from the second image;
An anchor box generating unit for generating a plurality of anchor boxes having the same size as the second video image from the second video image and having different sizes in the horizontal direction;
A bounding box generating unit for comparing the feature components of the second image corresponding to the anchor boxes with the character detection learning data and selecting an anchor box having a maximum matching value as a bounding box of each character area; And
And a character recognizing unit for recognizing the character corresponding to the anchor box by comparing the feature component of the area corresponding to the bounding box with the character recognition learning data,
The anchor boxes may include:
A a number of end anchor boxes (a is a natural number) that are overlapped with all the areas of the second video image at regular intervals and have the same size in the horizontal and vertical directions;
A base anchor box located at one side of the end anchor box and having a width smaller than a vertical size; And
An anchor box including a plurality of sub-anchor boxes including an area of the base anchor box, the size of which is smaller than the width of the end anchor box and increased by a predetermined size in the width of the base anchor box, Box and CNN feature map.
상기 제2 영상 이미지의 일측에 위치하는 베이스 앵커박스를 생성하는 단계;
가로의 크기가 세로의 크기가 같아질 때까지 바로 이전에 생성된 앵커박스의 영역을 포함하며 바로 이전에 생성된 앵커박스의 가로의 크기에서 일정한 크기로 가로의 크기를 증가시킨 상기 서브 앵커박스를 생성하는 단계;
바로 이전에 생성된 앵커박스의 영역을 포함하는 상기 엔드 앵커박스를 생성하는 단계;
바로 이전에 생성된 베이스 앵커박스에서 일정한 크기만큼 가로 위치가 이동된 새로운 베이스 앵커박스를 생성하는 단계;
상기 서브 앵커박스를 생성하는 단계 및 상기 엔드 앵커박스를 생성하는 단계를 다시 수행하는 단계; 및
상기 새로운 베이스 앵커박스를 생성하는 단계 및 상기 다시 수행하는 단계를 상기 제2 영상 이미지의 일측의 가장 반대측에 위치하는 엔드 앵커박스가 생성될 때까지 반복하는 단계를 포함하는 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치.
2. The method of claim 1, wherein the anchor box generating unit generates the anchor box,
Creating a base anchor box located on one side of the second video image;
The size of the sub-anchor box including the area of the anchor box generated immediately before the size of the horizontal is equal to the size of the sub-anchor box, ;
Creating an end anchor box including an area of an anchor box created immediately before;
Creating a new base anchor box in which a horizontal position is shifted by a predetermined size in a base anchor box generated immediately before;
Creating the sub-anchor box and creating the end anchor box again; And
Generating the new base anchor box and repeating the step of repeating the step until the end anchor box located on the most opposite side of the one side of the second video image is generated, Vehicle number identification device used.
상기 베이스 앵커박스의 가로의 크기(픽셀의 개수)는 상기 엔드 앵커박스의 세로의 크기(픽셀의 개수)의 1/r배이고,
상기 서브 앵커박스의 증가하는 가로의 일정한 크기는 p픽셀이고,
상기 a개의 엔드 앵커박스들 중에서 가장 인접한 엔드 박스 사이의 시작 위치의 일정한 간격은 q픽셀인 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치.
The method of claim 1, wherein the size of the anchor box is in pixels,
The width of the base anchor box (the number of pixels) is 1 / r times the length of the end anchor box (the number of pixels)
The constant size of the increasing width of the sub-anchor box is p pixels,
Wherein the predetermined interval of the start positions between the end boxes adjacent to the most adjacent end boxes is a q-pixel.
여기서, N은 상기 제2 영상 이미지의 세로의 크기이고, M은 상기 제2 영상 이미지의 가로의 크기임.
The apparatus as claimed in claim 3, wherein the total number of anchor boxes generated from one second image when r is 2 is calculated by the following equation.
Here, N is the vertical size of the second video image and M is the horizontal size of the second video image.
상기 제2 영상 생성부는 상기 검출된 차량 영역으로부터 SSD(Single shot MultiBox Detector) 알고리즘을 이용하여 상기 관심 영역인 차량용 번호판 영역을 검출하여 제2 영상 이미지를 생성하는 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 장치.
The apparatus of claim 1, further comprising: a vehicle detection unit that detects a vehicle area using a SSD (Single Shot MultiBox Detector) algorithm from the first image,
The second image generator generates an anchor box for generating a second image by detecting the vehicle license plate area, which is the area of interest, from the detected vehicle area using an SSD (Single Shot MultiBox Detector) algorithm, Recognition device.
상기 제2 영상 이미지에 intensity balancing 및 모폴로지(Morphology)를 수행하여 화질을 개선하는 전처리부를 더 포함하고,
상기 모폴로지는 닫힘 모폴로지 및 열림 모폴로지를 포함하고,
상기 intensity balancing의 수행은 영상 그레이 레벨에 대한 히스토그램을 계산하고, 상기 히스토그램으로부터 하위 사분위수와 상위 사분위수에 해당되는 픽셀 값을 계산하며, 다음의 수학식으로 어파인 변환(affine transform)을 수행하는 것인 차량 번호 인식 장치.
여기서, x는 해당 위치의 픽셀 값이고, max는 해당 영역에서 최대 픽셀 값이고, min은 해당 영역에서 최소 픽셀 값이고, Vmin은 하위 사분위수에 해당되는 픽셀 값이고, Vmax는 상위 사분위수에 해당되는 픽셀 값임.
The method according to claim 1,
Further comprising a preprocessing unit for enhancing image quality by performing intensity balancing and morphology on the second video image,
Wherein the morphology includes a closed morphology and an open morphology,
The intensity balancing operation calculates a histogram of the image gray level, calculates a pixel value corresponding to a lower quartile and an upper quartile from the histogram, and performs an affine transform using the following equation Vehicle identification number.
Here, x is a pixel value at the corresponding position, max is a maximum pixel value in the corresponding region, min is a minimum pixel value in the corresponding region, Vmin is a pixel value corresponding to a lower quartile, and Vmax corresponds to a higher quartile Pixel values.
제2 영상 이미지 생성부가 상기 제1 영상 이미지로부터 문자가 포함된 관심 영역을 검출하여 제2 영상 이미지를 생성하는 단계;
특징성분 추출부가 상기 제2 영상 이미지로부터 특징성분을 추출하는 단계;
앵커박스 생성부가 상기 제2 영상 이미지로부터 상기 제2 영상 이미지와 세로의 크기가 서로 동일하고 가로의 크기가 서로 상이한 복수개의 앵커박스(Anchor Box)를 생성하는 단계;
바운딩박스 생성부가 상기 앵커박스들의 영역에 해당하는 상기 제2 영상 이미지의 특징성분들을 문자 검출 학습데이터와 비교하여 최대 매칭 값을 갖는 앵커박스를 각 문자 영역의 바운딩박스(Bounding Box)로 선정하는 단계; 및
문자 인식부가 상기 바운딩박스에 해당하는 영역의 특징성분을 문자 인식 학습데이터와 비교하여 상기 앵커박스에 해당하는 문자를 인식하는 단계를 포함하고,
상기 앵커박스들은,
상기 제2 영상 이미지의 모든 영역에 걸쳐 일정한 간격으로 겹쳐서 위치하며 가로의 크기와 세로의 크기가 동일한 a개의 엔드 앵커박스(a는 자연수);
상기 엔드 앵커박스의 일측에 위치하며, 가로의 크기가 세로의 크기보다 작은 a개의 베이스 앵커박스; 및
상기 베이스 앵커박스의 영역을 포함하며, 가로의 크기가 상기 엔드 앵커박스의 가로의 크기보다 작으면서 상기 베이스 앵커박스의 가로의 크기에서 일정한 크기만큼 증가한 크기를 갖는 복수개의 서브 앵커박스를 포함하는 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법.
Receiving a first video image from a video input unit;
Generating a second image by detecting a region of interest including a character from the first image;
Extracting a feature component from the second image;
Generating an anchor box from the second video image, the anchor box generating unit having a plurality of anchor boxes having the same vertical size as the second video image and different widths from each other;
The bounding box generating unit compares the feature components of the second video image corresponding to the area of the anchor boxes with the character detection learning data and selects an anchor box having a maximum matching value as a bounding box of each character area ; And
And recognizing the character corresponding to the anchor box by comparing the feature component of the area corresponding to the bounding box with the character recognition learning data,
The anchor boxes may include:
A a number of end anchor boxes (a is a natural number) that are overlapped with all the areas of the second video image at regular intervals and have the same size in the horizontal and vertical directions;
A base anchor box located at one side of the end anchor box and having a width smaller than a vertical size; And
An anchor box including a plurality of sub-anchor boxes including an area of the base anchor box, the size of which is smaller than the width of the end anchor box and increased by a predetermined size in the width of the base anchor box, Box number and CNN feature map.
상기 제2 영상 이미지의 일측에 위치하는 베이스 앵커박스를 생성하는 단계;
가로의 크기가 세로의 크기가 같아질 때까지 바로 이전에 생성된 앵커박스의 영역을 포함하며 바로 이전에 생성된 앵커박스의 가로의 크기에서 일정한 크기로 가로의 크기를 증가시킨 상기 서브 앵커박스를 생성하는 단계;
바로 이전에 생성된 앵커박스의 영역을 포함하는 상기 엔드 앵커박스를 생성하는 단계;
바로 이전에 생성된 베이스 앵커박스에서 일정한 크기만큼 가로 위치가 이동된 새로운 베이스 앵커박스를 생성하는 단계;
상기 서브 앵커박스를 생성하는 단계 및 상기 엔드 앵커박스를 생성하는 단계를 다시 수행하는 단계; 및
상기 새로운 베이스 앵커박스를 생성하는 단계 및 상기 다시 수행하는 단계를 상기 제2 영상 이미지의 일측의 가장 반대측에 위치하는 엔드 앵커박스가 생성될 때까지 반복하는 단계를 포함하는 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법.
8. The method of claim 7, wherein the creating of the anchor box comprises:
Creating a base anchor box located on one side of the second video image;
The size of the sub-anchor box including the area of the anchor box generated immediately before the size of the horizontal is equal to the size of the sub-anchor box, ;
Creating an end anchor box including an area of an anchor box created immediately before;
Creating a new base anchor box in which a horizontal position is shifted by a predetermined size in a base anchor box generated immediately before;
Creating the sub-anchor box and creating the end anchor box again; And
Generating the new base anchor box and repeating the step of repeating the step until the end anchor box located on the most opposite side of the one side of the second video image is generated, A method of recognizing a used car number.
상기 베이스 앵커박스의 가로의 크기(픽셀의 개수)는 상기 엔드 앵커박스의 세로의 크기(픽셀의 개수)의 1/r배이고,
상기 서브 앵커박스의 증가하는 가로의 일정한 크기는 p픽셀이고,
상기 a개의 엔드 앵커박스들 중에서 가장 인접한 엔드 박스 사이의 시작 위치의 일정한 간격은 q픽셀인 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법.
8. The method of claim 7, wherein the size of the anchor box is in pixels,
The width of the base anchor box (the number of pixels) is 1 / r times the length of the end anchor box (the number of pixels)
The constant size of the increasing width of the sub-anchor box is p pixels,
Wherein the predetermined interval of the start positions between the most adjacent end boxes among the a number of end-anchor boxes is q pixels, and the CNN feature map is used.
여기서, N은 상기 제2 영상 이미지의 세로의 크기이고, M은 상기 제2 영상 이미지의 가로의 크기임.
10. The method of claim 9, wherein the total number of anchor boxes generated from one second image when r is 2 is calculated by the following equation.
Here, N is the vertical size of the second video image and M is the horizontal size of the second video image.
차량 검출부가 상기 제1 영상 이미지로부터 SSD(Single shot MultiBox Detector) 알고리즘을 이용하여 차량 영역을 검출하는 단계를 더 포함하고,
상기 제2 영상 이미지를 생성하는 단계에서는 상기 검출된 차량 영역으로부터 SSD(Single shot MultiBox Detector) 알고리즘을 이용하여 상기 관심 영역인 차량용 번호판 영역을 검출하여 제2 영상 이미지를 생성하는 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법.
8. The method of claim 7,
Further comprising the step of the vehicle detection unit detecting the vehicle area using the SSD algorithm from the first image,
In the step of generating the second video image, an anchor box and a CNN feature map for generating a second video image by detecting the vehicle license plate area, which is the area of interest, using SSD (Single shot MultiBox Detector) algorithm from the detected vehicle area A method of recognizing a car number using the.
전처리부가 상기 제2 영상 이미지에 intensity balancing 및 모폴로지(Morphology)를 수행하여 화질을 개선하는 단계를 더 포함하고,
상기 화질을 개선하는 단계는,
닫힘 모폴로지를 수행하는 단계;
상기 닫힘 모폴로지의 수행에 이어서 열림 모폴로지를 수행하는 단계;
영상 그레이 레벨에 대한 히스토그램을 계산하는 단계;
상기 히스토그램으로부터 하위 사분위수와 상위 사분위수에 해당되는 픽셀 값을 계산하는 단계; 및
다음의 수학식으로 어파인 변환(affine transform)을 수행하는 단계를 포함하는 앵커박스 및 CNN 특징 맵을 이용한 차량 번호 인식 방법.
여기서, x는 해당 위치의 픽셀 값이고, max는 해당 영역에서 최대 픽셀 값이고, min은 해당 영역에서 최소 픽셀 값이고, Vmin은 하위 사분위수에 해당되는 픽셀 값이고, Vmax는 상위 사분위수에 해당되는 픽셀 값임.
8. The method of claim 7,
The pre-processing unit further performing an intensity balancing and a morphology on the second image to improve the image quality,
Wherein the improving the image quality comprises:
Performing a closed morphology;
Performing the closed morphology followed by an open morphology;
Calculating a histogram for the image gray level;
Calculating a pixel value corresponding to a lower quartile and an upper quartile from the histogram; And
A method for recognizing a car number using an anchor box and a CNN feature map, the method comprising: performing an affine transform using the following equation.
Here, x is a pixel value at the corresponding position, max is a maximum pixel value in the corresponding region, min is a minimum pixel value in the corresponding region, Vmin is a pixel value corresponding to a lower quartile, and Vmax corresponds to a higher quartile Pixel values.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190046508A KR101986592B1 (en) | 2019-04-22 | 2019-04-22 | Recognition method of license plate number using anchor box and cnn and apparatus using thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190046508A KR101986592B1 (en) | 2019-04-22 | 2019-04-22 | Recognition method of license plate number using anchor box and cnn and apparatus using thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101986592B1 true KR101986592B1 (en) | 2019-06-10 |
Family
ID=66848570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190046508A KR101986592B1 (en) | 2019-04-22 | 2019-04-22 | Recognition method of license plate number using anchor box and cnn and apparatus using thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101986592B1 (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472539A (en) * | 2019-08-01 | 2019-11-19 | 上海海事大学 | A kind of Method for text detection, device and computer storage medium |
CN110472588A (en) * | 2019-08-19 | 2019-11-19 | 上海眼控科技股份有限公司 | Anchor point frame determines method, apparatus, computer equipment and storage medium |
CN110689010A (en) * | 2019-09-27 | 2020-01-14 | 支付宝(杭州)信息技术有限公司 | Certificate identification method and device |
CN110717445A (en) * | 2019-10-09 | 2020-01-21 | 清华大学 | Front vehicle distance tracking system and method for automatic driving |
CN110796144A (en) * | 2019-11-08 | 2020-02-14 | 北京字节跳动网络技术有限公司 | License plate detection method, device, equipment and storage medium |
CN111241940A (en) * | 2019-12-31 | 2020-06-05 | 浙江大学 | Remote control method of robot and human body boundary frame determination method and system |
KR102157989B1 (en) * | 2020-06-29 | 2020-09-18 | 이홍기 | Illegal parking control method and system by using neural network |
KR102157990B1 (en) * | 2020-06-29 | 2020-09-21 | 이홍기 | Method and system for recognizing vehicle number plate using neural network |
KR102161516B1 (en) | 2020-04-27 | 2020-10-05 | 주식회사 펜타게이트 | Classification of vehicles using deep learning-based data expansion learning |
KR102161948B1 (en) * | 2020-06-29 | 2020-10-06 | 이홍기 | Parking guidance system applied with vehicle license plate recognition technology using neural network and method of providing parking vehicle location information thereof |
KR102161949B1 (en) * | 2020-06-29 | 2020-10-06 | 이홍기 | Integrated parking management method and system using vehicle number plate recognition technology using neural network |
CN112069995A (en) * | 2020-09-04 | 2020-12-11 | 西安西图之光智能科技有限公司 | Method, system and storage medium for extracting dense features of face in depth domain |
KR102194890B1 (en) * | 2020-06-29 | 2020-12-24 | 이홍기 | Unmanned enforcement and road crime prevention method and system applied with vehicle license plate recognition technology using neural network |
KR20210004529A (en) * | 2019-07-05 | 2021-01-13 | 김용운 | CCTV for recognizing car number based on deep learning |
KR102238401B1 (en) * | 2020-09-14 | 2021-04-09 | 전주비전대학교산학협력단 | Recognition Method of License Plate Number Using Data expansion and CNN |
CN113052835A (en) * | 2021-04-20 | 2021-06-29 | 江苏迅捷装具科技有限公司 | Medicine box detection method and detection system based on three-dimensional point cloud and image data fusion |
WO2022065547A1 (en) * | 2020-09-24 | 2022-03-31 | 주식회사 키센스 | Method for recognizing license plate by using hybrid technique, and system therefor |
KR20220071822A (en) * | 2020-11-24 | 2022-05-31 | 전주비전대학교산학협력단 | Identification system and method of illegal parking and stopping vehicle numbers using drone images and artificial intelligence technology |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140334721A1 (en) * | 2013-05-10 | 2014-11-13 | Tantrum Street LLC | Methods and apparatus for capturing, processing, training, and detecting patterns using pattern recognition classifiers |
KR20150093453A (en) * | 2014-02-07 | 2015-08-18 | 전북대학교산학협력단 | Method and apparatus for detection license plate |
KR20150094165A (en) * | 2014-02-10 | 2015-08-19 | 전북대학교산학협력단 | Method and apparatus for character segmentation of license plate |
US20150371109A1 (en) * | 2013-01-17 | 2015-12-24 | Sensen Networks Pty Ltd | Automated vehicle recognition |
KR101931804B1 (en) | 2018-03-26 | 2018-12-21 | 장경익 | Device and method of increasing a recognition rate in a license plate |
KR101970442B1 (en) * | 2018-12-04 | 2019-04-19 | 주식회사 넥스파시스템 | Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection |
-
2019
- 2019-04-22 KR KR1020190046508A patent/KR101986592B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150371109A1 (en) * | 2013-01-17 | 2015-12-24 | Sensen Networks Pty Ltd | Automated vehicle recognition |
US20140334721A1 (en) * | 2013-05-10 | 2014-11-13 | Tantrum Street LLC | Methods and apparatus for capturing, processing, training, and detecting patterns using pattern recognition classifiers |
KR20150093453A (en) * | 2014-02-07 | 2015-08-18 | 전북대학교산학협력단 | Method and apparatus for detection license plate |
KR20150094165A (en) * | 2014-02-10 | 2015-08-19 | 전북대학교산학협력단 | Method and apparatus for character segmentation of license plate |
KR101931804B1 (en) | 2018-03-26 | 2018-12-21 | 장경익 | Device and method of increasing a recognition rate in a license plate |
KR101970442B1 (en) * | 2018-12-04 | 2019-04-19 | 주식회사 넥스파시스템 | Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210004529A (en) * | 2019-07-05 | 2021-01-13 | 김용운 | CCTV for recognizing car number based on deep learning |
KR102220643B1 (en) * | 2019-07-05 | 2021-02-26 | 김용운 | CCTV for recognizing car number based on deep learning |
CN110472539A (en) * | 2019-08-01 | 2019-11-19 | 上海海事大学 | A kind of Method for text detection, device and computer storage medium |
CN110472539B (en) * | 2019-08-01 | 2022-09-30 | 上海海事大学 | Text detection method and device and computer storage medium |
CN110472588A (en) * | 2019-08-19 | 2019-11-19 | 上海眼控科技股份有限公司 | Anchor point frame determines method, apparatus, computer equipment and storage medium |
CN110689010B (en) * | 2019-09-27 | 2021-05-11 | 支付宝(杭州)信息技术有限公司 | Certificate identification method and device |
CN110689010A (en) * | 2019-09-27 | 2020-01-14 | 支付宝(杭州)信息技术有限公司 | Certificate identification method and device |
CN110717445A (en) * | 2019-10-09 | 2020-01-21 | 清华大学 | Front vehicle distance tracking system and method for automatic driving |
CN110717445B (en) * | 2019-10-09 | 2022-08-23 | 清华大学 | Front vehicle distance tracking system and method for automatic driving |
CN110796144A (en) * | 2019-11-08 | 2020-02-14 | 北京字节跳动网络技术有限公司 | License plate detection method, device, equipment and storage medium |
CN111241940B (en) * | 2019-12-31 | 2022-07-26 | 浙江大学 | Remote control method of robot and human body boundary frame determination method and system |
CN111241940A (en) * | 2019-12-31 | 2020-06-05 | 浙江大学 | Remote control method of robot and human body boundary frame determination method and system |
KR102161516B1 (en) | 2020-04-27 | 2020-10-05 | 주식회사 펜타게이트 | Classification of vehicles using deep learning-based data expansion learning |
KR102194890B1 (en) * | 2020-06-29 | 2020-12-24 | 이홍기 | Unmanned enforcement and road crime prevention method and system applied with vehicle license plate recognition technology using neural network |
KR102161949B1 (en) * | 2020-06-29 | 2020-10-06 | 이홍기 | Integrated parking management method and system using vehicle number plate recognition technology using neural network |
KR102161948B1 (en) * | 2020-06-29 | 2020-10-06 | 이홍기 | Parking guidance system applied with vehicle license plate recognition technology using neural network and method of providing parking vehicle location information thereof |
KR102157990B1 (en) * | 2020-06-29 | 2020-09-21 | 이홍기 | Method and system for recognizing vehicle number plate using neural network |
KR102157989B1 (en) * | 2020-06-29 | 2020-09-18 | 이홍기 | Illegal parking control method and system by using neural network |
CN112069995A (en) * | 2020-09-04 | 2020-12-11 | 西安西图之光智能科技有限公司 | Method, system and storage medium for extracting dense features of face in depth domain |
CN112069995B (en) * | 2020-09-04 | 2024-02-27 | 西安西图之光智能科技有限公司 | Depth domain face dense feature extraction method, system and storage medium |
KR102238401B1 (en) * | 2020-09-14 | 2021-04-09 | 전주비전대학교산학협력단 | Recognition Method of License Plate Number Using Data expansion and CNN |
WO2022065547A1 (en) * | 2020-09-24 | 2022-03-31 | 주식회사 키센스 | Method for recognizing license plate by using hybrid technique, and system therefor |
KR20220071822A (en) * | 2020-11-24 | 2022-05-31 | 전주비전대학교산학협력단 | Identification system and method of illegal parking and stopping vehicle numbers using drone images and artificial intelligence technology |
KR102516890B1 (en) * | 2020-11-24 | 2023-03-30 | 전주비전대학교산학협력단 | Identification system and method of illegal parking and stopping vehicle numbers using drone images and artificial intelligence technology |
CN113052835A (en) * | 2021-04-20 | 2021-06-29 | 江苏迅捷装具科技有限公司 | Medicine box detection method and detection system based on three-dimensional point cloud and image data fusion |
CN113052835B (en) * | 2021-04-20 | 2024-02-27 | 江苏迅捷装具科技有限公司 | Medicine box detection method and system based on three-dimensional point cloud and image data fusion |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101986592B1 (en) | Recognition method of license plate number using anchor box and cnn and apparatus using thereof | |
Bunk et al. | Detection and localization of image forgeries using resampling features and deep learning | |
Bappy et al. | Exploiting spatial structure for localizing manipulated image regions | |
Raghunandan et al. | Riesz fractional based model for enhancing license plate detection and recognition | |
US9754184B2 (en) | Feature density object classification, systems and methods | |
Al-Ghaili et al. | Vertical-edge-based car-license-plate detection method | |
EP1693782B1 (en) | Method for facial features detection | |
Gllavata et al. | A robust algorithm for text detection in images | |
Yousif et al. | Toward an optimized neutrosophic K-means with genetic algorithm for automatic vehicle license plate recognition (ONKM-AVLPR) | |
US8867828B2 (en) | Text region detection system and method | |
Slimani et al. | An automated license plate detection and recognition system based on wavelet decomposition and CNN | |
US11450087B2 (en) | System and method for multimedia analytic processing and display | |
KR101906796B1 (en) | Device and method for image analyzing based on deep learning | |
Roy et al. | Fractional poisson enhancement model for text detection and recognition in video frames | |
CN110866529A (en) | Character recognition method, character recognition device, electronic equipment and storage medium | |
US20210256707A1 (en) | Learning to Segment via Cut-and-Paste | |
CN108229434A (en) | A kind of vehicle identification and the method for careful reconstruct | |
CN111754441B (en) | Image copying, pasting and forging passive detection method | |
CN111814690A (en) | Target re-identification method and device and computer readable storage medium | |
Tao et al. | Smoke vehicle detection based on robust codebook model and robust volume local binary count patterns | |
CN113628181A (en) | Image processing method, image processing device, electronic equipment and storage medium | |
Huang et al. | A back propagation based real-time license plate recognition system | |
JP6377214B2 (en) | Text detection method and apparatus | |
Bappy et al. | Detection and localization of image forgeries using resampling features and deep learning | |
Pandey et al. | Review of different binarization techniques used in different areas of image analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |