KR20220057876A - Method and system for detecting area based on deep learning - Google Patents

Method and system for detecting area based on deep learning Download PDF

Info

Publication number
KR20220057876A
KR20220057876A KR1020200142979A KR20200142979A KR20220057876A KR 20220057876 A KR20220057876 A KR 20220057876A KR 1020200142979 A KR1020200142979 A KR 1020200142979A KR 20200142979 A KR20200142979 A KR 20200142979A KR 20220057876 A KR20220057876 A KR 20220057876A
Authority
KR
South Korea
Prior art keywords
image
deep learning
license plate
vertical
present
Prior art date
Application number
KR1020200142979A
Other languages
Korean (ko)
Inventor
심충섭
Original Assignee
주식회사 딥하이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥하이 filed Critical 주식회사 딥하이
Priority to KR1020200142979A priority Critical patent/KR20220057876A/en
Publication of KR20220057876A publication Critical patent/KR20220057876A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a system and method for detecting a specific region (e.g., license plate region) in an image on the basis of deep learning to reduce processing time. According to one aspect of the present invention, an object detection method using deep learning comprises the following steps of: acquiring an image corresponding to each frame from a video stream photographed by a camera and inputting the image; using an image processing algorithm using deep learning to find a vanishing point of a road line from the input image; setting the vertical value of the vanishing point among the coordinates of the image as a horizontal line, setting the upper region and the lower region with respect to the horizontal line, and setting the upper and lower regions as regions of interest; and image-processing the region of interest through deep learning to detect a vehicle.

Description

딥러닝 기반의 영역 감지 시스템 및 방법{Method and system for detecting area based on deep learning}{Method and system for detecting area based on deep learning}

본 발명은 딥러닝을 기반으로 이미지 내의 특정 영역(예를 들어, 번호판 영역)를 감지하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for detecting a specific area (eg, license plate area) in an image based on deep learning.

이미지 내의 특정 영역을 인식이 적용되는 대표적인 사례가 번호판 영역 인식이다. 자동차 인식 시스템은 통상적으로 번호판영역 검출 단계와, 영역분리 단계, 문자인식 단계로 이루어지며, 번호판영역 검출단계는 영상이 입력되면 입력된 영상으로부터 번호판영역의 위치를 검출하는 단계이며, 영역분리 단계는 번호판영역 검출 단계로부터 검출된 번호판을 영상으로부터 분리하는 단계이며, 문자인식단계는 영역분리 단계에서 분리된 번호판에 형성된 문자들을 인식하는 단계이다. 또한 자동차 인식 시스템은 번호판영역 검출 단계에서 번호판영역을 제대로 검출하지 못하면 시스템 자체의 의미가 상실되기 때문에 번호판영역을 얼마나 정확하게 검출하느냐는 전체적인 시스템의 성능의 가장 중요한 문제이다.A representative example in which recognition of a specific area within an image is applied is license plate area recognition. The vehicle recognition system usually consists of a license plate area detection step, a zone separation step, and a character recognition step. It is a step of separating the license plate detected from the license plate area detection step from the image, and the character recognition step is a step of recognizing the characters formed on the license plate separated in the area separation step. In addition, if the vehicle recognition system does not properly detect the license plate area in the license plate area detection stage, the meaning of the system itself is lost.

종래의 차량 번호판 추출 방법으로는 차량 번호판의 색상 정보에 기초하는 방법, 차량 번호판 문양의 형태학적 요소에 기반한 방법, 차량 번호판의 테두리 윤곽선을 검출하는 방법 등이 있다. 이들 중 차량 번호판의 색상정보를 이용하는 방법은 일기 변화나 영상의 품질에 민감할 뿐 아니라, 번호판의 색상이 차량의 그것과 대비가 약한 경우 누락되기 쉽다는 단점이 있다. 번호판테두리 윤곽선에 기초한 방법은 주로 범용 하흐 변환을 이용하는데, 이 방법은 일반적으로 계산량이 많고, 번호판 테두리 부를 이루는 화소수에 의존하는 바가 크므로 상기 다차로 번호판 인식기에서와 같이 작은 화소수로 이루어진 영상에 대해서는 적용상 한계가 있다 더구나 조도 저하 등 환경의 변화 때문에 카메라가 취득한 영상의 품질이 떨어져 경계를 이루는 화소수가 작아지는 경우에도 번호판 영상이 추출과정에서 누락되기 쉽다.As a conventional vehicle license plate extraction method, there are a method based on color information of the license plate, a method based on the morphological element of the license plate pattern, a method of detecting the edge contour of the license plate, and the like. Among them, the method of using the color information of the license plate is sensitive to weather changes or the quality of the image, and there is a disadvantage that the color of the license plate is easily omitted when the contrast with that of the vehicle is weak. The method based on the license plate border outline mainly uses the general-purpose Hach transform. This method generally requires a lot of computation and is highly dependent on the number of pixels constituting the license plate border. In addition, the image quality of the image acquired by the camera is deteriorated due to changes in the environment, such as a decrease in illuminance, and even if the number of pixels forming the boundary decreases, the license plate image is easily omitted in the extraction process.

본 발명이 이루고자 하는 기술적인 과제는 상술한 문제를 해결하기 위한 것으로서, 딥러닝을 이용함으로써 기존의 영상 분야에서 이미지 내의 영역을 검출하는 알고리즘의 단점을 극복하여 영역 검출의 정확도를 높이고, 전체 영상을 탐색할 경우보다 처리하는 시간을 줄일 수 있는 시스템 및 방법을 제안하는 것이다.The technical task to be achieved by the present invention is to solve the above problem, and by using deep learning, the disadvantage of an algorithm for detecting a region in an image in the existing image field is overcome to increase the accuracy of region detection, and the entire image It is to propose a system and method that can reduce the processing time compared to the case of searching.

..

본 발명의 일 측면에 따르면, 딥러닝을 이용한 영역 감지 방법으로서, 소정의 감지대상의 영상에 대한 바이너리 이미지를 입력받고 입력받은 상기 바이너리 이미지로부터 각 수직방향 경계 선분의 위치 정보를 포함하는 수직에지 정보를 생성하는 단계, 상기 수직에지 정보를 기반으로 상기 감지대상에 대한 후보 이미지 영역의 범위를 지정하기 위한 정보를 포함하는 테이블을 생성하는 단계 및 상기 테이블을 기반으로 상기 후보 이미지 영역을 산출하는 단계를 포함하되, 상기 감지대상을 촬영한 영상에 대한 바이너리 이미지를 입력받고 입력받은 상기 바이너리 이미지로부터 각 수직방향 경계 선분의 위치 정보를 포함하는 수직에지 정보를 생성하는 단계는, 수직 방향 경계 선분을 검출하고 검출한 상기 수직방향 경계 선분의 위치 정보를 포함하는 수직에지 정보를 생성하는 것을 특징으로 하는 딥러닝을 이용한 영역 감지 방법이 제공된다.According to one aspect of the present invention, as a method for detecting an area using deep learning, a binary image for an image of a predetermined detection target is input and vertical edge information including position information of each vertical boundary line from the received binary image. generating a table including information for designating a range of a candidate image region for the sensing target based on the vertical edge information, and calculating the candidate image region based on the table Including, wherein the step of receiving a binary image for the image captured by the sensing target and generating vertical edge information including position information of each vertical boundary line segment from the received binary image includes detecting the vertical boundary line segment, and There is provided a region sensing method using deep learning, characterized in that it generates vertical edge information including the detected position information of the vertical boundary line segment.

본 발명의 다른 일 측면에 따르면, 데이터 처리장치에 설치되며 상술한 방법을 수행하기 위한 컴퓨터 판독 가능한 매체에 기록된 컴퓨터 프로그램이 제공된다.According to another aspect of the present invention, there is provided a computer program installed in a data processing apparatus and recorded on a computer-readable medium for performing the above-described method.

본 발명의 다른 일 측면에 따르면, 딥러닝을 이용한 차량 영역 감지 시스템으로서, 프로세서 및 컴퓨터 프로그램을 저장하는 메모리를 포함하되, 상기 컴퓨터 프로그램은, 상기 프로세서에 의해 실행되는 경우 상기 딥러닝을 이용한 차량 영역 감지 시스템으로 하여금 상술한 방법을 수행하도록 하는 딥러닝을 이용한 차량 영역 감지 시스템이 제공된다.According to another aspect of the present invention, there is provided a vehicle area detection system using deep learning, including a processor and a memory for storing a computer program, wherein the computer program is executed by the processor. A vehicle area detection system using deep learning for causing the detection system to perform the above-described method is provided.

본 발명의 일 실시예에 따르면 딥러닝을 이용함으로써 기존의 영상 분야에서 이미지 내의 영역을 검출하는 알고리즘의 단점을 극복하여 영역 검출의 정확도를 높이고, 전체 영상을 탐색할 경우보다 처리하는 시간을 줄일 수 있는 시스템 및 방법을 제공할 수 있는 효과가 있다.According to an embodiment of the present invention, by using deep learning, it is possible to overcome the disadvantages of an algorithm for detecting a region in an image in the existing image field, thereby increasing the accuracy of region detection, and reducing the processing time compared to the case of searching the entire image. There is an effect that can provide a system and method.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 차량 번호판의 이미지 영역을 검출하기 위한 장치를 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 차량 번호판의 이미지 영역을 검출하기 위한 방법을 나타내는 도면이다.
도 3 및 도 4는 본 발명에 따라 차량 번호판을 인식한 화면의 일 예를 나타낸 도면이다.
In order to more fully understand the drawings recited in the Detailed Description, a brief description of each drawing is provided.
1 is a view showing an apparatus for detecting an image area of a license plate according to an embodiment of the present invention.
2 is a diagram illustrating a method for detecting an image area of a license plate according to an embodiment of the present invention.
3 and 4 are views showing an example of a screen for recognizing a license plate according to the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 명세서에 있어서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, terms such as "include" or "have" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more other It should be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다. 반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.In addition, in the present specification, when any one component 'transmits' data to another component, the component may directly transmit the data to the other component or through at least one other component. This means that the data may be transmitted to the other component. Conversely, when one component 'directly transmits' data to another component, it means that the data is transmitted from the component to the other component without passing through the other component.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 중심으로 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, the present invention will be described in detail focusing on embodiments of the present invention with reference to the accompanying drawings. Like reference numerals in each figure indicate like elements.

본 발명의 일 실시예에 따른 시스템은 본 발명의 기술적 사상을 구현하기 위해 필요한 하드웨어 리소스(resource) 및/또는 소프트웨어를 구비할 수 있으며, 반드시 하나의 물리적인 구성요소를 의미하거나 하나의 장치를 의미하는 것은 아니다. 즉, 상기 시스템은 본 발명의 기술적 사상을 구현하기 위해 구비되는 하드웨어 및/또는 소프트웨어의 논리적인 결합을 의미할 수 있으며, 필요한 경우에는 서로 이격된 장치에 설치되어 각각의 기능을 수행함으로써 본 발명의 기술적 사상을 구현하기 위한 논리적인 구성들의 집합으로 구현될 수도 있다. 또한, 상기 시스템은 본 발명의 기술적 사상을 구현하기 위한 각각의 기능 또는 역할별로 별도로 구현되는 구성들의 집합을 의미할 수도 있다.A system according to an embodiment of the present invention may include hardware resources and/or software necessary to implement the technical idea of the present invention, and necessarily means one physical component or one device. is not doing That is, the system may mean a logical combination of hardware and/or software provided to implement the technical idea of the present invention, and, if necessary, is installed in devices spaced apart from each other to perform each function of the present invention. It may be implemented as a set of logical configurations for implementing a technical idea. In addition, the system may refer to a set of components separately implemented for each function or role for implementing the technical idea of the present invention.

본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예를 들면, 상기 모듈은 특정된 코드와 상기 특정된 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In this specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may mean a specified code and a logical unit of hardware resources for executing the specified code, and does not necessarily mean physically connected code or a single type of hardware. It can be easily deduced to an average expert in the art of the present invention.

이하에서는 검출 대상이 되는 영역의 대표적인 예시인 차량 영역을 기준으로 설명하지만 본 발명의 기술적 사상이 차량을 비롯한 각종 오브젝트에도 동일하게 적용될 수 있음은 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다.Hereinafter, description will be made based on a vehicle area, which is a representative example of a detection target area, but it is easy for those of ordinary skill in the art to which the present invention pertains that the technical idea of the present invention can be equally applied to various objects including vehicles. you will be able to understand

도 1은 본 발명의 일 실시예에 따른 차량 번호판의 이미지 영역을 검출하기 위한 장치를 나타내는 도면이다. 상기 장치는 컴퓨팅 시스템 혹은 컴퓨팅 시스템을 포함하는 소정의 시스템일 수 있다.1 is a view showing an apparatus for detecting an image area of a license plate according to an embodiment of the present invention. The device may be a computing system or any system including a computing system.

도 1에 도시한 바와 같이, 본 발명에 따른 차량 번호판의 이미지 영역을 검출하기 위한 장치는 컬러영상 획득부(110), 영상 전처리부(120), 위치정보 생성부(130), 축약공간 테이블 생성부(140), 후보영역 추출부(150) 등을 포함하여 구성될 수 있다.As shown in Figure 1, the apparatus for detecting the image area of the license plate according to the present invention is a color image acquisition unit 110, an image pre-processing unit 120, a location information generation unit 130, a reduced space table generation It may be configured to include the unit 140 , the candidate region extraction unit 150 , and the like.

컬러영상 획득부(110)는 카메라를 통해 차량 번호판의 컬러 영상을 획득할 수 있다.The color image acquisition unit 110 may acquire a color image of the license plate through a camera.

영상 전처리부(120)는 입력받은 컬러 영상을 프레임 단위로 입력 받아 0에서 255까지 256 단계의 그레이 스케일 흑백 영상으로 변환하고 변환된 흑백 영상을 바이너리 경계 이미지로 변환할 수 있다.The image preprocessor 120 may receive the received color image in frame units, convert it into a gray scale black and white image of 256 steps from 0 to 255, and convert the converted black and white image into a binary boundary image.

구체적으로 설명하면 다음과 같다. 즉, 영상 전처리부(120)는 변환된 흑백 영상에서 화소의 밝기 값에 특정 준위의 기준 값을 임계치로 정하여 각 화소의 밝기 값이 해당 임계치 이상인 경우에 흰색 값(255)을 부여하고, 그 이하의 밝기 값을 가지는 화소에 대해서는 검정색 값(0)을 부여하여 바이너리 이미지로 변환하게 된다.Specifically, it is as follows. That is, the image preprocessor 120 sets a reference value of a specific level to the brightness value of a pixel in the converted black-and-white image as a threshold, and gives a white value 255 when the brightness value of each pixel is greater than or equal to the threshold, and is less than or equal to the threshold value. A black value (0) is assigned to a pixel having a brightness value of , and converted into a binary image.

상기 과정에서 임계치는 변환된 영상에서 차량의 번호판을 비롯한 사물의 경계선이 밝은 윤곽선으로 최대한 많이 표시되도록 정하게 되는데 이러한 원리는 영상처리 기술 분야 및 패턴 인식기술 분야의 경계추출 기법을 사용함으로써 가능하기 때문에 본 발명에서의 영상 전처리 과정으로 그 방법을 특정하지 아니한다.In the above process, the threshold value is determined so that the boundary of objects including the license plate of the vehicle is displayed as bright outlines as much as possible in the converted image. The method is not specified as the image pre-processing process in the present invention.

이때, 배경영상을 포함하여 적어도 한 대 이상의 차량에 대하여 해당 차량의 번호판의 이미지가 나타나도록 카메라로 촬영하여 얻은 영상의 한 프레임을 각 화소의 밝기값에 대하여 256단계의 그레이(gray) 레벨로 변환한 영상 프레임을 오리지널 영상(original image)이라 하며 각 화소의 밝기값을 화소값이라 약칭하기로 한다.At this time, one frame of the image obtained by shooting with a camera so that an image of the license plate of the corresponding vehicle appears for at least one vehicle including the background image is converted to a gray level of 256 steps for the brightness value of each pixel One image frame is called an original image, and the brightness value of each pixel is abbreviated as a pixel value.

또한 바이너리 이미지에서 수직 및 수평 방향으로 서로 연속한 흰색 화소에 대해 각각 수직 화소값 VER_P, 수평 화소값 HOR_P를 부여하고 그 외 화소에 대해서는 NON_P값을 부여하여 구분되게 하여 바이너리 경계 이미지를 만든다. 예컨대, 수직 화소값 VER_P, 수평 화소값 HOR_P, 및 NON_P들은 각각 254, 253, 128과 같은 값을 부여하여 구분할 수 있다.In addition, in the binary image, a vertical pixel value VER_P and a horizontal pixel value HOR_P are assigned to white pixels that are continuous in the vertical and horizontal directions, respectively, and NON_P values are assigned to other pixels to make a binary boundary image. For example, the vertical pixel value VER_P, the horizontal pixel value HOR_P, and NON_P may be distinguished by assigning values such as 254, 253, and 128, respectively.

이러한 바이너리 경계 이미지는 그레이 레벨로 변환한 오리지널 이미지와 같은 크기로 정의되며, 각 윤곽선의 화소 위치는 그 오리지널 이미지에서 사물 윤곽선의 좌표 상의 위치와 동일하다. 이에 따라 바이너리 경계 이미지는 경계 이미지로 약칭하기로 한다.The binary boundary image is defined to have the same size as the original image converted to gray level, and the pixel position of each contour is the same as the position on the coordinates of the object contour in the original image. Accordingly, the binary boundary image will be abbreviated as a boundary image.

화면에 표시되는 2차원 평면 영상의 좌표를 (X, Y)로 나타내고, 좌측 상단을 기점(0,0)으로 하여 오른쪽을 X값이 증가하는 방향으로 또, 아래쪽으로 Y값이 증가하는 방향으로 한다.The coordinates of the two-dimensional plane image displayed on the screen are represented by (X, Y), and with the upper left as the starting point (0,0), the right is the direction in which the X value increases and the downward direction in the direction in which the Y value increases. do.

그리고 가로 및 세로 방향의 화소수를 W 및 H로 표시하여 차량 영상의 해상도를 W x H로 나타내기로 하며, 또한, 컴퓨터 메모리 공간에 영상을 저장하는 순서는 메모리가 증가하는 방향으로 좌표 (0,0), (1,0), (2, 0),.... (W-1, 0), (0,1), (1,1), (2,1), ....(W-1, 1), .....(0, H-1), (1, H-1), (2, H-2), ...(W-1, H-1)의 순으로 대응되는 각 화소값을 저장하기로 한다.And the number of pixels in the horizontal and vertical directions is expressed as W and H to indicate the resolution of the vehicle image as W x H. Also, the order of storing the images in the computer memory space is coordinates (0, 0, 0), (1,0), (2, 0),.... (W-1, 0), (0,1), (1,1), (2,1), ....( W-1, 1), .....(0, H-1), (1, H-1), (2, H-2), ... (W-1, H-1) It is decided to store each pixel value corresponding to .

이때, 영상 이미지 img에 대한 자료 구조는 img[H][W]와 같이 표기하여 2차원 배열로 나타낸다.In this case, the data structure for the video image img is expressed as img[H][W] as a two-dimensional array.

본 발명에서 원래 영상 프레임 내의 차량 번호판은 위치 좌표와 크기로 정의하기로 한다. 즉, 차량의 번호판은 차량 번호판의 중심 좌표값 cx, cy와 X, Y방향으로의 좌표상의 반경값 rx, ry로 표현하여 4개 인수의 조합 (cx, cy, rx, ry)로 나타낸다.In the present invention, the license plate in the original image frame is to be defined by position coordinates and size. That is, the license plate of the vehicle is expressed as a combination of four factors (cx, cy, rx, ry) by expressing the central coordinate values of the license plate cx, cy and the radius values rx, ry on the coordinates in the X and Y directions.

위치정보 생성부(130)는 바이너리 경계 이미지를 참고하여 각 수직 방향 경계 선분의 위치 정보 등을 포함하는 수직에지 정보 VerEdgeInfo를 생성할 수 있다.The location information generator 130 may generate vertical edge information VerEdgeInfo including location information of each vertical boundary line segment with reference to the binary boundary image.

먼저 위치정보 생성부(130)는 수직 에지 정보 VerEdgeInfo를 생성하기 위하여 메모리 내에 W ㅧ h개의 저장 공간을 확보할 수 있다. 여기서, h는 h = H / 2의 연산 결과값으로 수직 방향 화소수의 절반을 나타내는데, 디지털 화상 정보에서 화소의 위치는 정수값을 가지므로 그 연산 결과로 소수점 이하를 버린 정수 값을 취하는 것으로 한다.First, the location information generating unit 130 may secure W Ⅷ h storage spaces in the memory to generate the vertical edge information VerEdgeInfo. Here, h represents half the number of pixels in the vertical direction as a result of calculation of h = H / 2 .

이때, 이러한 수직 에지 정보의 자료 구조는 VerEdgeInfo[W][h]과 같이 표기하여 화살표 방향 예컨대, 위에서 아래 방향으로 순차적으로 자료가 저장되게 한다. 이 자료가 저장되는 순서를 스캔 방향으로 한다.At this time, the data structure of such vertical edge information is indicated as VerEdgeInfo[W][h] so that data is sequentially stored in the direction of the arrow, for example, from top to bottom. The order in which this data is stored is the scan direction.

수직 에지 정보 VerEdgeInfo는 메모리 내에서 저장용량 h의 크기를 가지는 W개의 엔트리로 구성되는데, 각 엔트리는 경계 이미지의 대응되는 수직방향 스캔라인(X=i, Y)에 대한 정보를 저장하는 공간으로 사용될 수 있다.The vertical edge information VerEdgeInfo consists of W entries having a storage capacity h in the memory. can

수직 에지 정보 VerEdgeInfo내의 각 엔트리는 경계 이미지를 수평방향 각 X값에 대해 수직방향으로 스캔하여 최소 3개 이상의 화소로 구성되는 수직 선분들을 조사하여 채워 나간다. 각 엔트리에 정보가 저장되는 순서는 스캔라인 (X = i, Y)에 대한 엔트리 Ei의 첫째 저장소 Ei[0]에 해당 스캔라인에서 발견되는 수직 선분의 총 개수를 저장하고, Ei[1]과 Ei[2]에 각각 첫 번째 수직 선분의 시작화소와 끝 화소의 Y 좌표값을 저장하며, 동일하게반복하여 Ei[j+1]와 Ei[j+2]에 수직선분 v_lj의 시작과 끝 화소의 Y 좌표값을 저장한다. 이렇게 하면 VerEdgeInfo의 각 엔트리에는 해당 스캔라인에 속한 유효 수직선분의 위치 정보 및 시작과 끝 화소의 위치값 차이로서 구성화소수에 대한 정보를 포함하게 된다.Each entry in the vertical edge information VerEdgeInfo scans the boundary image in the vertical direction for each X value in the horizontal direction, and fills out by irradiating vertical lines composed of at least three or more pixels. The order in which information is stored in each entry is to store the total number of vertical segments found in that scanline in the first storage Ei[0] of the entry Ei for the scanline (X = i, Y), and Ei[1] and The Y coordinate values of the start and end pixels of the first vertical line segment are stored in Ei[2], respectively, and the same is repeated in Ei[j+1] and Ei[j+2] for the start and end pixels of the vertical line segment v_lj. Store the Y coordinate value of In this way, each entry of VerEdgeInfo includes information on the number of constituent pixels as the position information of the effective vertical line segment belonging to the corresponding scan line and the difference between the position values of the start and end pixels.

[0059] 위에서, 수직 에지 정보 VerEdgeInfo의 정보를 저장하는 각 엔트리의 크기를 원래 영상의 높이의 반으로 확보하는 이유는 수직 방향의 최대 선분의 개수가 각 선분이 최소 유효화소 기준인 3개 화소만으로 구성되고 각 수직 선분들이 한 개의 화소 거리만큼 떨어져 있는 경우라도 한 스캔 라인당 최대 Hㆇ(3+1)개의 선분이 존재할 수 있고, 또 하나의 선분에 대해 두 개의 저장 공간이 필요하기 때문에 결과적으로 (Hㆇ4)ㅧ2개의 저장 공간이면 충분하기 때문이다.[0059] Above, the reason for securing the size of each entry that stores information of vertical edge information VerEdgeInfo to half the height of the original image is that the maximum number of vertical line segments is only three pixels where each line segment is the minimum effective pixel standard. up to Hㆇ(3+1) line segments can exist per scan line even if each vertical line segment is separated by one pixel distance, and two storage spaces are required for another line segment. This is because (Hㆇ4)ㅧ2 storage space is sufficient.

축약공간 테이블 생성부(140)는 수직에지 정보 VerEdgeInfo를 기반으로 후보 이미지 영역의 범위를 지정하기 위한 정보를 포함하는 축약공간 테이블 VoteTable을 생성할 수 있다.The reduced space table generation unit 140 may generate the reduced space table VoteTable including information for designating the range of the candidate image area based on the vertical edge information VerEdgeInfo.

이하에서는 경계 이지미 공간에서 번호판 후보 이미지 영역의 범위에 관하여 설명한다.Hereinafter, the range of the license plate candidate image area in the boundary image space will be described.

경계 이미지 내 좌표 (i,j)에서 시작하여 아래 방향으로 연속된 화소의 수직선분이 존재하는 경우, 그 수직선분을 번호판의 좌측 테두리로 간주하여 번호판 후보 이미지 영역으로서 가능한 나머지 우측 테두리 위치의 범위를 나타내고 있다.If there is a vertical line segment of pixels that is continuous downward starting from the coordinate (i,j) in the boundary image, the vertical line segment is regarded as the left edge of the license plate and represents the range of possible remaining right edge positions as the license plate candidate image area. there is.

상기 수직선분을 기준으로 가로 반경 및 세로 반경을 각각 rx, ry를 가지는 최소크기의 번호판에서 Rx, Ry를 가지는 최대 크기의 번호판을 가정할 수 있으며, 만일 추출하고자 하는 범위의 크기를 가진 유효한 번호판 후보이면 이 최소 번호판 크기와 최대 번호판 크기 사이의 위치 값을 가지는 나머지 테두리 윤곽 선분화소를 가져야 한다.Based on the vertical line segment, it is possible to assume a license plate of the maximum size having Rx, Ry from the license plate of the minimum size having rx, ry, respectively, the horizontal radius and the vertical radius, and if the valid license plate candidate having the size of the range to be extracted If this is the case, it should have the remaining border outline segmentation pixels having a position value between this minimum license plate size and the maximum license plate size.

여기서, 최소번호판 크기, 최대 번호판 크기는 오리지널 영상에서 번호판 후보 이미지 영역으로 추출하고자 하는 사각형 이미지를 나타내는데 있어서, 그 사각형 이미지의 최소 폭과 최대 폭, 및 최소 높이와 최대 높이의 범위를 화소 단위로 지정한 것이다.Here, the minimum license plate size and the maximum license plate size indicate a rectangular image to be extracted as a license plate candidate image area from the original image, and the minimum and maximum width of the rectangular image, and the range of the minimum height and maximum height are designated in units of pixels. will be.

좌표 (i,j)는 수직에지 정보 VerEdgeInfo 내에 저장되어 있으며 좌표값 i의 변량 X는 수직선분을 조사할 수직방향 스캔라인의 위치 정보로서, 변위 범위는 0에서부터 최소크기의 번호판이 원래 영상의 최 우측에 위치한 경우 최대 X = W - (최소번호판의 폭)까지이며, 좌표값 j의 변량 Y는 각 스캔라인에서 조사할 수직선분의 유효 범위로서 변위 범위는 0에서부터 최소크기의 번호판이 영상의 최 하단에 위치한 경우 최대 Y = H - (최소번호판의 높이)까지이다.The coordinates (i, j) are stored in the vertical edge information VerEdgeInfo, and the variance X of the coordinate value i is the position information of the vertical scan line to investigate the vertical line segment. If it is located on the right, the maximum X = W - (the width of the minimum number plate), and the variance Y of the coordinate value j is the effective range of the vertical line segment to be investigated in each scan line. If located at the bottom, the maximum is Y = H - (the height of the minimum number plate).

또한, 최소번호판 크기, 최대번호판 크기는 가로 반경과 세로 반경 rx와 ry, Rx와 Ry으로 각각 나타낼 수 있는데, 사실상 번호판의 크기는 규격으로 정해져 있기 때문에 가로 길이 대비 세로 길이의 비율로부터 세로 길이만 알면 가로 길이는 계산된다. 이러한 번호판의 가로 길이 대비 세로 길이의 비율을 형상비라고 한다.In addition, the minimum license plate size and the maximum license plate size can be represented by horizontal and vertical radii rx and ry, Rx and Ry, respectively. In fact, since the size of the license plate is determined by the standard, if you know only the vertical length from the ratio of the horizontal length to the vertical length The horizontal length is calculated. The ratio of the vertical length to the horizontal length of such a license plate is called an aspect ratio.

따라서 번호판 가로 길이에 대한 변량으로 R을 정의하면 그 범위는 rx ≤ R ≤ Rx이 된다.Therefore, if R is defined as a variable for the horizontal length of the license plate, the range becomes rx ≤ R ≤ Rx.

이상에서 각 변량의 범위를 한정함으로써 계산속도를 빠르게 할 수 있다.In the above, by limiting the range of each variable, the calculation speed can be increased.

후보영역 추출부(150)는 생성된 축약공간 테이블을 이용하여 후보 이미지 영역을 산출할 수 있다.The candidate region extractor 150 may calculate a candidate image region by using the generated reduced space table.

도 2는 본 발명의 일 실시예에 따른 차량 번호판의 이미지 영역을 검출하기 위한 방법을 나타내는 도면이다.2 is a diagram illustrating a method for detecting an image area of a license plate according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 본 발명에 따른 차량 번호판의 이미지 영역을 검출하기 위한 장치(이하 검출 장치라고 한다)는 카메라를 통해 차량 번호판의 컬러 영상을 획득할 수 있다(S910).As shown in Figure 2, the apparatus for detecting the image area of the license plate according to the present invention (hereinafter referred to as a detection device) may obtain a color image of the license plate through a camera (S910).

다음으로, 검출 장치는 촬영한 컬러 영상을 바이너리 이미지로 변환할 수 있다(S920). 즉, 검출 장치는 촬영한 컬러 영상을 프레임 단위로 입력 받아 그레이 스케일의 흑백 영상으로 변환하고 변환된 흑백 영상을 수직, 수평선분을 이루는 화소들에 구분가능토록 특정 값을 부여한 바이너리 경계 이미지로 변환할 수 있다.Next, the detection apparatus may convert the photographed color image into a binary image (S920). That is, the detection device receives the photographed color image in frame units, converts it into a grayscale black-and-white image, and converts the converted black-and-white image into a binary boundary image in which specific values are assigned to distinguishable pixels constituting vertical and horizontal lines. can

다음으로, 검출 장치는 변환한 바이너리 경계 이미지로부터 각 수직 방향 경계 선분의 위치 정보 등을 포함하는 수직에지 정보를 생성할 수 있다(S930). 즉, 검출 장치는 수직 방향으로 적어도 3개 이상의 화소로 구성되는 수직 방향 경계 선분을 검출하고 검출한 수직방향 경계 선분의 위치 정보 등을 포함하는 수직에지 정보를 생성하게 된다.Next, the detection apparatus may generate vertical edge information including position information of each vertical boundary line segment from the converted binary boundary image (S930). That is, the detection apparatus detects a vertical boundary line segment composed of at least three or more pixels in a vertical direction and generates vertical edge information including position information of the detected vertical boundary line segment and the like.

이때, 수직에지 정보에는 바이너리 경계 이미지에서 각 수직방향 스캔라인에 대하여 X축 좌표값 및 해당 스캔라인에 포함된 직선선분의 개수, 그리고 각 수직선분들의 시작 화소와 끝화소의 Y축 좌표값을 포함한다.In this case, the vertical edge information includes the X-axis coordinate value for each vertical scan line in the binary boundary image, the number of straight line segments included in the scan line, and the Y-axis coordinate value of the start and end pixels of each vertical line segment. do.

다음으로, 검출 장치는 생성한 수직에지 정보를 기반으로 차량 번호판에 대한 후보 이미지 영역의 범위를 지정하기 위한 정보를 포함하는 축약공간 테이블을 생성할 수 있다(S940).Next, the detection apparatus may generate a reduced space table including information for designating a range of a candidate image area for a license plate based on the generated vertical edge information (S940).

이때, 축약공간 테이블은 바이너리 경계 이미지의 가로, 세로 방향 변량 X, Y 및 후보 이미지 영역의 가로방향 반경 R에 대한 변량을 각각 축약상수 S로 나눈 크기의 변량 x, y, r로 정의하여 3차원 배열 테이블을 생성하고,In this case, the reduced space table defines three-dimensional variables x, y, and r, each of which is obtained by dividing the horizontal and vertical variances X and Y of the binary boundary image and the variance for the horizontal radius R of the candidate image area by the reduction constant S, respectively. create an array table,

수직 에지정보의 각 엔트리 정보를 참조하여 후보 이미지의 중심좌표의 x축 값 cx와 가로 반경 cr을 산출하고 수직선분의 각 화소의 Y값에 대응하는 vote범위내의 테이블값을 1씩 누진 시켜 중심좌표 cy의 위치를 결정한다.Calculate the x-axis value cx and the horizontal radius cr of the center coordinates of the candidate image by referring to each entry information of the vertical edge information, and progressively increase the table values within the vote range corresponding to the Y value of each pixel in the vertical line by 1 to obtain the central coordinates. Determine the location of cy.

다음으로, 검출 장치는 상기 축약공간 테이블을 기반으로 후보 이미지 영역을 산출할 수 있다(S950). 즉, 검출장치는 축약공간 테이블을 기반으로 후보 이미지 영역의 중심 좌표의 좌표값 즉, 가로 좌표값과 세로 좌표값, 가로 방향의 크기, 세로 방향의 크기, 및 차량 번호판의 가로 길이 대 세로 길이의 비율인 형상비가 다르게 정의된 종류를 산출하게 된다.Next, the detection apparatus may calculate a candidate image area based on the reduced space table ( S950 ). That is, the detection device determines the coordinate values of the center coordinates of the candidate image area based on the reduced space table, that is, the horizontal coordinate value and the vertical coordinate value, the size in the horizontal direction, the size in the vertical direction, and the horizontal length versus the vertical length of the license plate. Aspect ratio, which is a ratio, yields a different defined type.

이상에서 설명한 바와 같이 본 발명은 여러 단계 중에서 VerEdgeInfo의 값들을 경계 이미지에서 찾아낼 때, 유효 수직선분의 최소 화소수를 3까지 지정할 수 있으며, 이로써 번호판 후보 이미지의 높이가 최소 3화소의 크기를 갖는 작은 영역의 이미지까지 추출 가능하다는 특징을 가진다. 실제로는, 번호판 후보 이미지 영역 내에 인식가능한 정도의 화소수를 가진 문자, 수자 등의 심볼이 존재해야 하므로 본 발명의 방법이 적용되는 상황에서 추출 대상의 번호판 이미지의 최소 높이 화소수는 이를 상회할 것이므로 대상 이미지를 누락됨이 없이 추출할 수 있다.As described above, in the present invention, when finding the VerEdgeInfo values in the boundary image among several steps, the minimum number of effective vertical lines can be specified up to 3, whereby the height of the license plate candidate image has a size of at least 3 pixels. It has the feature of being able to extract images of a small area. In reality, since symbols such as letters and numbers having a recognizable number of pixels in the license plate candidate image area must exist, the minimum height pixel number of the license plate image to be extracted in a situation where the method of the present invention is applied will exceed this The target image can be extracted without omission.

또한 본 발명은 일기, 기상의 변화로 인해 영상의 품질이 저하되어 번호판 이미지의 테두리 윤곽선이 분명하게 촬영되지 않는 경우에도 임계치 이상의 화소수만으로도 번호판 이미지 영역을 추출할 수 있다.In addition, the present invention can extract the license plate image area only with the number of pixels above the threshold even when the quality of the image is deteriorated due to the change of weather and weather and the outline of the license plate image is not clearly taken.

또한 본 발명은 각 단계에서 경계 이미지 공간의 수평, 수직선분의 각 화소 좌표 값을 참조하여 메모리 자료 공간에 단순연산으로 처리한 결과 값을 저장해 나가는 과정으로 수행되기 때문에 기타 통계적 방법에 비해 복잡한 수학식 연산이 필요하지 않아 고속 수행이 가능하다.In addition, since the present invention is performed in each step by referring to each pixel coordinate value of the horizontal and vertical line segments of the boundary image space and storing the result value processed by a simple operation in the memory data space, it is a complex mathematical formula compared to other statistical methods High-speed execution is possible because no calculation is required.

또한 본 발명은 VoteTable 자료 공간에 축약 상수를 도입함으로써 번호판 이미지가 기울어지거나 윤곽선이 단선이 아닌 영역도 추출할 수 있다는 특징이 있다.In addition, the present invention has a feature that by introducing abbreviation constants in the VoteTable data space, it is possible to extract a region where the license plate image is tilted or the outline is not a single line.

한편, 구현 예에 따라서, 본 발명의 일 실시예에 따른 시스템은 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함할 수 있다. 상기 프로세서는 싱글 코어 CPU혹은 멀티 코어 CPU를 포함할 수 있다. 메모리는 고속 랜덤 액세스 메모리를 포함할 수 있고 하나 이상의 자기 디스크 저장 장치, 플래시 메모리 장치, 또는 기타 비휘발성 고체상태 메모리 장치와 같은 비휘발성 메모리를 포함할 수도 있다. 프로세서 및 기타 구성 요소에 의한 메모리로의 액세스는 메모리 컨트롤러에 의해 제어될 수 있다. Meanwhile, according to an embodiment, a system according to an embodiment of the present invention may include a processor and a memory for storing a program executed by the processor. The processor may include a single-core CPU or a multi-core CPU. The memory may include high-speed random access memory and may include non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid-state memory devices. Access to memory by the processor and other components may be controlled by a memory controller.

한편, 본 발명의 실시예에 따른 방법은 컴퓨터가 읽을 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명의 실시예에 따른 제어 프로그램 및 대상 프로그램도 컴퓨터로 판독 가능한 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.On the other hand, the method according to the embodiment of the present invention may be implemented in the form of a computer-readable program command and stored in a computer-readable recording medium, and the control program and the target program according to the embodiment of the present invention are also implemented in the computer. It may be stored in a readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.

기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the software field.

컴퓨터로 읽을 수 있는 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and floppy disks, and hardware devices specially configured to store and execute program instructions, such as magneto-optical media and ROM, RAM, flash memory, and the like. In addition, the computer-readable recording medium is distributed in network-connected computer systems, and computer-readable codes can be stored and executed in a distributed manner.

프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by an apparatus for electronically processing information using an interpreter or the like, for example, a computer.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. .

Claims (3)

딥러닝을 이용한 영역 감지 방법으로서,
감지대상을 촬영한 영상에 대한 바이너리 이미지를 입력받고 입력받은 상기 바이너리 이미지로부터 각 수직방향 경계 선분의 위치 정보를 포함하는 수직에지 정보를 생성하는 단계;
상기 수직에지 정보를 기반으로 상기 감지대상에 대한 후보 이미지 영역의 범위를 지정하기 위한 정보를 포함하는 테이블을 생성하는 단계; 및
상기 테이블을 기반으로 상기 후보 이미지 영역을 산출하는 단계를 포함하되,
상기 감지대상을 촬영한 영상에 대한 바이너리 이미지를 입력받고 입력받은 상기 바이너리 이미지로부터 각 수직방향 경계 선분의 위치 정보를 포함하는 수직에지 정보를 생성하는 단계는,
수직 방향 경계 선분을 검출하고 검출한 상기 수직방향 경계 선분의 위치 정보를 포함하는 수직에지 정보를 생성하는 것을 특징으로 하는 딥러닝을 이용한 영역 감지 방법.
A method for detecting an area using deep learning, comprising:
receiving a binary image of an image of a sensing target and generating vertical edge information including position information of each vertical boundary line segment from the received binary image;
generating a table including information for designating a range of a candidate image area for the sensing target based on the vertical edge information; and
Comprising the step of calculating the candidate image area based on the table,
The step of receiving a binary image for the image of the sensing target and generating vertical edge information including position information of each vertical boundary line segment from the received binary image includes:
A method for detecting a region using deep learning, comprising detecting a vertical boundary line segment and generating vertical edge information including position information of the detected vertical boundary line segment.
데이터 처리장치에 설치되며 제1항에 기재된 방법을 수행하기 위한 컴퓨터 판독 가능한 매체에 기록된 컴퓨터 프로그램.
A computer program installed in a data processing apparatus and recorded on a computer readable medium for performing the method according to claim 1.
딥러닝을 이용한 영역 감지 시스템으로서,
프로세서; 및 컴퓨터 프로그램을 저장하는 메모리를 포함하되,
상기 컴퓨터 프로그램은, 상기 프로세서에 의해 실행되는 경우 상기 딥러닝을 이용한 영역 감지 시스템으로 하여금 제1항에 기재된 방법을 수행하도록 하는 딥러닝을 이용한 영역 감지 시스템.
As an area detection system using deep learning,
processor; and a memory for storing a computer program;
When the computer program is executed by the processor, the region detection system using deep learning causes the region detection system using deep learning to perform the method according to claim 1 .
KR1020200142979A 2020-10-30 2020-10-30 Method and system for detecting area based on deep learning KR20220057876A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200142979A KR20220057876A (en) 2020-10-30 2020-10-30 Method and system for detecting area based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200142979A KR20220057876A (en) 2020-10-30 2020-10-30 Method and system for detecting area based on deep learning

Publications (1)

Publication Number Publication Date
KR20220057876A true KR20220057876A (en) 2022-05-09

Family

ID=81582065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200142979A KR20220057876A (en) 2020-10-30 2020-10-30 Method and system for detecting area based on deep learning

Country Status (1)

Country Link
KR (1) KR20220057876A (en)

Similar Documents

Publication Publication Date Title
US11270133B2 (en) Object detection device, object detection method, and computer-readable recording medium
KR101403876B1 (en) Method and Apparatus for Vehicle License Plate Recognition
KR101848019B1 (en) Method and Apparatus for Detecting Vehicle License Plate by Detecting Vehicle Area
JP4157620B2 (en) Moving object detection apparatus and method
US9965695B1 (en) Document image binarization method based on content type separation
KR102314520B1 (en) Apparatus and method for detecting object
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
US20090110286A1 (en) Detection method
JP2021082316A5 (en)
JP2007179386A (en) Method and apparatus for recognizing white line
KR20090098167A (en) Method and system for detecting lane by using distance sensor
US8306335B2 (en) Method of analyzing digital document images
KR101282663B1 (en) Apparatus for detecting image region of vehicle number plate and method thereof
KR20100051002A (en) Noise reduction for digital images
CN112926463B (en) Target detection method and device
CN116324911A (en) Method for extracting characters from a vehicle license plate and license plate character extraction device for performing the method
US20110019000A1 (en) Vehicular image processing device and vehicular image processing program
KR101637535B1 (en) Apparatus and method for correcting distortion in top view image
US11275963B2 (en) Image identification apparatus, image identification method, and non-transitory computer-readable storage medium for storing image identification program
JP6631691B2 (en) Image processing device, device control system, imaging device, image processing method, and program
CN107292303B (en) Method and apparatus for license plate inspection with edge type sliding concentric window
JP4824729B2 (en) Object detection method
KR20220057876A (en) Method and system for detecting area based on deep learning
US20230410561A1 (en) Method and apparatus for distinguishing different configuration states of an object based on an image representation of the object
KR20150099116A (en) Method for recognizing a color character using optical character recognition and apparatus thereof