KR101329492B1 - Apparatus and method for controlling camera for locating scene text to proper position and size - Google Patents

Apparatus and method for controlling camera for locating scene text to proper position and size Download PDF

Info

Publication number
KR101329492B1
KR101329492B1 KR1020120007388A KR20120007388A KR101329492B1 KR 101329492 B1 KR101329492 B1 KR 101329492B1 KR 1020120007388 A KR1020120007388 A KR 1020120007388A KR 20120007388 A KR20120007388 A KR 20120007388A KR 101329492 B1 KR101329492 B1 KR 101329492B1
Authority
KR
South Korea
Prior art keywords
character string
character
image
lens
size
Prior art date
Application number
KR1020120007388A
Other languages
Korean (ko)
Other versions
KR20130086493A (en
Inventor
김진형
석재현
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020120007388A priority Critical patent/KR101329492B1/en
Publication of KR20130086493A publication Critical patent/KR20130086493A/en
Application granted granted Critical
Publication of KR101329492B1 publication Critical patent/KR101329492B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/987Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns with the intervention of an operator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Abstract

카메라 렌즈를 조절하여 인식할 문자열을 영상의 중앙에 인식 가능한 크기로 위치시키는 장치 및 그 방법이 개시된다. 문자 인식 장치는 카메라에서 촬영되는 제1 영상으로부터 문자열을 탐지하는 탐지부; 문자열의 위치 또는 크기 중 적어도 하나에 따라 카메라의 렌즈를 조정하는 제어부; 및 렌즈가 조정된 이후 문자열이 재촬영된 제2 영상으로부터 문자열에 해당되는 문자 데이터를 인식하는 인식부를 포함할 수 있다.Disclosed are an apparatus and a method for adjusting a camera lens to locate a character string to be recognized in a center of an image in a recognizable size. The character recognition apparatus may include a detector configured to detect a character string from a first image photographed by a camera; A controller for adjusting a lens of the camera according to at least one of the position or size of the character string; And a recognition unit recognizing character data corresponding to the character string from the second image in which the character string is re-photographed after the lens is adjusted.

Description

카메라 렌즈를 조절하여 인식할 문자열을 영상의 중앙에 인식 가능한 크기로 위치시키는 장치 및 그 방법{APPARATUS AND METHOD FOR CONTROLLING CAMERA FOR LOCATING SCENE TEXT TO PROPER POSITION AND SIZE}A device and method for adjusting a camera lens to locate a character string to be recognized in the center of an image and a method thereof {APPARATUS AND METHOD FOR CONTROLLING CAMERA FOR LOCATING SCENE TEXT TO PROPER POSITION AND SIZE}

본 발명의 실시예들은 카메라를 이용하여 촬영된 자연 영상에 존재하는 문자열을 인식하기 위해 카메라의 렌즈를 자동으로 조절하여 인식하고자 하는 문자를 영상 중앙부위에 인식 가능한 크기로 위치시키는 방법에 관한 것이다.Embodiments of the present invention relate to a method of automatically adjusting a lens of a camera to recognize a character string existing in a natural image photographed by using a camera to locate a character to be recognized in a center portion of the image.

카메라를 이용한 문자 입력이란 카메라를 통해 촬영된 영상에서 나타난 글자를 추출하고 인식한 결과를 장치에 입력하는 것이다. 카메라를 이용한 문자 입력은 키보드로 대표되는 입력 장치를 이용하지 않고 자동으로 입력한다는 점과 몇몇 작동을 통해 입력이 가능하여 단순하며, 특히 외국어의 입력에 대해 문자 입력 방법이 원활하지 않은 사람들도 손쉽게 문자를 입력 가능하다는 장점을 가지고 있다.Character input using a camera is to extract characters from images taken by the camera and input the recognition results into the device. The text input using the camera is simple because it is input automatically without using the input device represented by the keyboard, and it is simple to input through some operations. Has the advantage of being able to enter.

기존의 문자 인식 방법은 영상으로부터 문자열의 색상 정보 및 외곽선 정보를 추출하고 문자열 색상과 비슷한 화소들을 찾거나 배경과 문자열을 분리해내는 외곽선을 찾아냄으로써 문자열을 영상으로부터 추출 및 인식할 수 있다. 또한, 한국등록특허 제10-0874747호 "화소 이동 문서 영상 조합 인식 방법을 이용한 카메라 문자인식 장치 및 방법"에는 카메라 문서 영상에 대해 화소가 이동된 부-문서 영상(sub-document images)을 획득하여 영상 개선 알고리즘을 적용하고 부-문서 영상에 대해 국소 이진화를 행한 다음 문자 추출, 문자 특징 추출 및 이종 인식기를 결합하여 문자를 인식하는 방법이 개시되어 있다.The existing character recognition method extracts and recognizes a string from an image by extracting color information and outline information of a string from an image, finding pixels similar to the string color, or finding an outline that separates the background from the string. In addition, Korean Patent No. 10-0874747 "Camera Character Recognition Apparatus and Method Using a Pixel Moving Document Image Combination Recognition Method" includes obtaining sub-document images in which pixels are moved with respect to a camera document image. A method of applying a image enhancement algorithm, performing local binarization on sub-document images, and then combining character extraction, character feature extraction, and a heterogeneous recognizer is disclosed.

하지만 기존의 문자 인식 방법들은 이미 촬영된 영상으로부터 문자열을 추출하고 인식하므로, 인식하고자 하는 문자열이 작게 촬영된 경우에는 문자열의 저해상도(low resolution) 영상 정보만을 획득할 수 있고 이 정보 만으로는 문자열의 정확한 추출 및 인식에 어려움이 있다.However, the existing character recognition methods extract and recognize character strings from already captured images. Therefore, when the character string to be recognized is photographed small, only low resolution image information of the character strings can be obtained. And difficulty in perception.

따라서, 인식하고자 하는 문자열이 저해상도로 촬영되는 문제점을 해결하기 위한 방법이 절실하다.Therefore, a method for solving the problem that the character string to be recognized at a low resolution is urgently needed.

문자열의 정확한 추출과 인식을 위하여 문자열이 인식 가능한 크기로 영상의 중앙 부분에 위치할 수 있도록 카메라 렌즈를 자동 조절하여 문자를 인식하는 문자 인식 장치 및 방법을 제공한다.Provided are a character recognition apparatus and a method for automatically recognizing characters by automatically adjusting a camera lens so that a character string can be located at a center portion of an image in order to accurately extract and recognize a character string.

본 실시예에 따른 문자 인식 장치는 카메라에서 촬영되는 제1 영상으로부터 문자열을 탐지하는 탐지부; 문자열의 위치 또는 크기 중 적어도 하나에 따라 카메라의 렌즈를 조정하는 제어부; 및 렌즈가 조정된 이후 문자열이 재촬영된 제2 영상으로부터 문자열에 해당되는 문자 데이터를 인식하는 인식부를 포함할 수 있다.Character recognition apparatus according to the present embodiment includes a detector for detecting a character string from the first image taken by the camera; A controller for adjusting a lens of the camera according to at least one of the position or size of the character string; And a recognition unit recognizing character data corresponding to the character string from the second image in which the character string is re-photographed after the lens is adjusted.

일 측면에 따르면, 탐지부는 제1 영상의 각 화소를 문자 영역 또는 비문자 영역으로 분류하는 방식을 통해 문자열을 탐지할 수 있다.According to an aspect, the detector may detect a character string by classifying each pixel of the first image into a character area or a non-letter area.

다른 측면에 따르면, 문자 인식 장치는 문자열을 표시하여 사용자로부터 문자열에 대한 선택 명령을 입력 받는 인터페이스부를 더 포함할 수 있다. 이때, 제어부는 사용자에 의해 선택된 문자열에 대하여 카메라의 렌즈를 조정할 수 있다.According to another aspect, the character recognition apparatus may further include an interface unit which displays a character string and receives a selection command for the character string from the user. In this case, the controller may adjust the lens of the camera with respect to the character string selected by the user.

또 다른 측면에 따르면, 제어부는 렌즈에 대하여 문자열의 위치에 따른 방향(pan) 조정 값, 또는 문자열의 크기에 따른 줌(zoom) 조정 값 중 적어도 하나를 결정할 수 있다.According to another aspect, the controller may determine at least one of a pan adjustment value according to the position of the character string or a zoom adjustment value according to the size of the character string with respect to the lens.

또 다른 측면에 따르면, 제어부는 문자열의 중점과 제1 영상의 중점 간의 거리 차를 이용하여 방향 조정 값을 결정할 수 있다.According to another aspect, the controller may determine the direction adjustment value by using a distance difference between the midpoint of the string and the midpoint of the first image.

또 다른 측면에 따르면, 제어부는 문자열의 크기와 일정 크기 간의 크기 차를 이용하여 줌 조정 값을 결정할 수 있다.According to another aspect, the controller may determine the zoom adjustment value by using the size difference between the size of the character string and the predetermined size.

또 다른 측면에 따르면, 문자 인식 장치는 방향 조정 값 또는 줌 조정 값 중 적어도 하나에 따라 렌즈를 구동하는 구동부를 더 포함할 수 있다.According to another aspect, the character recognition apparatus may further include a driving unit for driving the lens according to at least one of the direction adjustment value or the zoom adjustment value.

또 다른 측면에 따르면, 인식부는 문자열을 일정 크기로 조정하여 중앙에 위치시킨 제2 영상을 이진화 하여 이진화 된 영상 데이터를 문자 데이터로 변환할 수 있다.According to another aspect, the recognizer may adjust the character string to a predetermined size to binarize the second image positioned at the center to convert the binarized image data into text data.

카메라 영상에서 문자를 인식하는 방법은 카메라에서 촬영되는 제1 영상으로부터 문자열을 탐지하는 단계; 문자열의 위치 또는 크기 중 적어도 하나에 따라 카메라의 렌즈를 조정하는 단계; 및 렌즈가 조정된 이후 문자열이 재촬영된 제2 영상으로부터 문자열에 해당되는 문자 데이터를 인식하는 단계를 포함할 수 있다.A method of recognizing a character in a camera image includes detecting a character string from a first image photographed by a camera; Adjusting the lens of the camera according to at least one of the position or size of the character string; And recognizing character data corresponding to the character string from the second image in which the character string is re-photographed after the lens is adjusted.

인식하고자 하는 문자열 영역의 크기와 위치에 따라 문자열이 인식 가능한 적정 크기로 영상의 중앙 부분에 위치할 수 있도록 카메라 렌즈를 자동 조절함으로써 문자열이 저해상도로 촬영되는 문제점을 보안할 수 있으며, 보다 정확한 문자열 인식을 통해 인식 성능을 향상시킬 수 있다.According to the size and position of the text area to be recognized, the camera lens can be automatically adjusted so that the text can be located at the center of the image at an appropriate size that can be recognized. This can improve recognition performance.

최근 카메라 문자 인식은 책읽는 로봇과 같은 로봇 비전에 활용되거나 휴대폰과 같은 모바일 기기에 카메라 기능 및 인식 기능을 내장시켜 정보 획득의 수단으로 활용되고 있는 상황에서, 현실 세계에서 보다 안정적인 카메라 문자 인식 성능을 보장하면서 그 인식 결과를 다른 응용 서비스와 결합할 경우에 사용자에게 편리함을 제공할 수 있다.Recently, camera character recognition is used for robot vision such as a robot that reads, or it is used as a means of acquiring information by embedding camera functions and recognition functions in mobile devices such as mobile phones. While ensuring that the recognition results can be combined with other application services, this can provide convenience to the user.

도 1은 본 발명의 일실시예에 있어서, 카메라 렌즈를 자동 조절하여 높은 해상도로 촬영된 영상에서 문자열을 인식하는 문자 인식 장치의 내부 구성을 도시한 블록도이다.
도 2 내지 도 5는 문자열 영역의 크기와 위치에 따라 카메라 렌즈를 조정하여 높은 해상도의 영상을 얻는 과정을 설명하기 위한 예시 도면이다.
도 6은 높은 해상도의 영상을 통해 문자열을 추출 및 인식하는 과정을 설명하기 위한 예시 도면이다.
도 7은 본 발명의 일실시예에 있어서, 카메라 렌즈를 자동 조절하여 높은 해상도로 촬영된 영상에서 문자열을 인식하는 문자 인식 방법을 도시한 흐름도이다.
1 is a block diagram illustrating an internal configuration of a character recognition apparatus for automatically recognizing a character string in an image photographed at a high resolution by automatically adjusting a camera lens according to an embodiment of the present invention.
2 to 5 are exemplary diagrams for explaining a process of obtaining a high resolution image by adjusting a camera lens according to the size and position of a character string region.
6 is an exemplary diagram for explaining a process of extracting and recognizing a character string through a high resolution image.
7 is a flowchart illustrating a character recognition method of recognizing a character string in an image photographed at a high resolution by automatically adjusting a camera lens according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 실시예들은 카메라 렌즈를 자동 조정하여 인식하고자 하는 문자열을 영상 중앙 부근에 적절한 크기로 위치시킨 후, 이후 얻은 영상 내에서 문자를 인식하는 장치 및 방법에 관한 것이다.The present embodiments relate to an apparatus and method for automatically recognizing a character in an image obtained after positioning a character string to be recognized at an appropriate size near an image center by automatically adjusting a camera lens.

도 1은 본 발명의 일실시예에 있어서, 문자 인식 장치의 내부 구성을 도시한 블록도이다.1 is a block diagram showing an internal configuration of a character recognition apparatus according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 일실시예에 따른 문자 인식 장치(100)은 카메라 영상에서 문자를 인식하기 위한 것으로, 줌-인(zoom-in), 줌-아웃(zoom-out), 그리고 상하좌우 회전(panning) 등이 가능한 카메라(110)를 이용한다.As shown in FIG. 1, the character recognition apparatus 100 according to an exemplary embodiment is for recognizing characters in a camera image, and includes zoom-in, zoom-out, and up and down. A camera 110 capable of panning and the like is used.

문자 인식 기술을 이용하면 카메라 영상으로부터 유용한 문자 정보를 추출할 수 있다. 그러나, 영상 내에 인식하고자 하는 문자가 너무 작게 포착된 경우에는 정확한 인식이 어려우므로, 카메라의 렌즈를 조정하여 문자를 인식하기 좋은 크기로 영상 중앙에 위치시키는 것이 중요하다. 즉, 본 실시예는 카메라 영상으로부터 문자열을 자동 인식하여 장치에 입력하고자 할 때 인식할 문자열에 대한 고해상도 영상을 획득하여 더 나은 인식 결과를 얻고자 함에 그 목적이 있다.Using text recognition technology, useful text information can be extracted from camera images. However, if the character to be recognized in the image is captured too small, it is difficult to accurately recognize it. Therefore, it is important to adjust the lens of the camera so that the character is located at the center of the image in a size that is easy to recognize. That is, the present embodiment is intended to obtain a better recognition result by acquiring a high resolution image of a character string to be recognized when automatically inputting a character string from a camera image to the device.

이를 위하여, 일실시예에 따른 문자 인식 장치(100)은 도 1에 도시한 바와 같이 탐지부(120), 인터페이스(130), 제어부(140), 구동부(150), 인식부(160)를 포함하여 구성될 수 있다.To this end, the character recognition apparatus 100 according to an embodiment includes a detector 120, an interface 130, a controller 140, a driver 150, and a recognizer 160 as shown in FIG. 1. Can be configured.

탐지부(120)는 사용자의 문자 인식 요구에 대하여 카메라(110)에서 촬영되는 초기 영상(이하, '제1 영상'이라 칭함)을 입력 받은 후, 제1 영상의 전체 영역에서 문자열이 존재하는 영역을 탐지한다. 도 2에 도시한 바와 같이, 카메라 영상인 제1 영상(210)에는 'WINE SHOP & BAR', 'wine', 'cheese' 등의 문자열들이 존재할 수 있다. 제1 영상(210)에서 문자열 영역을 탐지하는 것은 영상의 각 화소(pixel)를 문자 영역(text region) 또는 비문자 영역(non-text region)으로 분류하는 작업이다. 이를 위해, 탐지부(120)는 문자 영역의 특성을 나타낼 수 있는 다양한 특징(feature)들을 사용하여 분류기를 학습하는 기계학습(machine learning) 방법을 사용하거나, 문자 영역을 비문자 영역과 구분할 수 있는 규칙들을 정의해 놓은 전문가 시스템을 사용할 수 있다. 일 예로, 문자 영역은 비 문자 영역에 비해 화소 강도(intensity) 변화가 급격하며 외곽선의 분포가 조밀하고 규칙적이므로, 분류하려는 화소 주변의 지역적 영상에서 나타나는 화소 강도들의 평균 차이 값(mean difference feature), 표준편자(standard deviation), 혹은 방향 별 외곽선의 히스토그램(Histogram of oriented gradients) 등의 특징을 이용하여 문자 영역과 비문자 영역을 분류할 수 있다. 화소 별 문자/비문자 분류 이후에는 문자로 분류된 화소들 중 인접한 화소들을 하나로 묶어 문자열에 해당되는 최종 영역을 얻을 수 있다. 이후, 탐지부(120)는 제1 영상에서 문자열 영역이 최종으로 탐지되면 탐지된 문자열 영역 각각에 대하여 문자열 영역의 크기와 위치를 탐지할 수 있다. 다시 말해, 탐지부(120)는 문자열 영역 내 화소의 위치 값들을 이용하여 해당 영역의 크기와 중점의 위치를 확인할 수 있다.The detector 120 receives an initial image (hereinafter, referred to as a “first image”) captured by the camera 110 in response to a user's character recognition request, and then includes a region in which a character string exists in the entire region of the first image. Detect As shown in FIG. 2, a string such as 'WINE SHOP & BAR', 'wine', and 'cheese' may exist in the first image 210 which is a camera image. Detecting the character string region in the first image 210 is an operation of classifying each pixel of the image into a text region or a non-text region. To this end, the detection unit 120 may use a machine learning method for learning a classifier using various features that may represent characteristics of the text area, or may distinguish the text area from the non-literal area. You can use an expert system that defines the rules. For example, the character region has a sharper change in pixel intensity than the non-character region, and the distribution of outlines is dense and regular, so that a mean difference feature of pixel intensities appearing in a local image around a pixel to be classified is determined. Characteristic and non-literal domains can be classified using features such as standard deviation, or histogram of oriented gradients. After the character / non-character classification for each pixel, adjacent pixels among the pixels classified as the characters may be bundled into one to obtain a final region corresponding to the character string. Then, when the text area is finally detected in the first image, the detector 120 may detect the size and location of the text area for each detected text area. In other words, the detector 120 may check the location of the size and the midpoint of the corresponding area by using the location values of the pixels in the text area.

인터페이스부(130)는 사용자와의 인터페이스 역할을 하는 수단으로, 디스플레이 수단과 입력 수단으로 구성될 수 있다. 이때, 인터페이스부(130)는 문자 인식 기능에 대한 사용자의 요구를 입력 받을 수 있으며, 카메라(110)에서 입력되는 영상을 출력하고, 영상에 여러 문자열이 포함된 경우에는 문자열 탐지 결과를 사용자에게 보여주어 인식하고자 하는 문자열을 사용자가 선택할 수 있도록 인터페이스를 제공할 수 있다. 인터페이스부(130)는 사용자로부터 문자열에 대한 선택 명령을 입력 받기 위하여 탐지부(120)의 탐지 결과를 입력 받아 도 3에 도시한 바와 같이 제1 영상 내에서 탐지된 문자열 영역(301)을 모두 표시해줄 수 있다. 이에, 사용자는 영상 내 문자열(301) 중에서 인식하고자 하는 문자열(예컨대, 'wine')을 선택할 수 있다.The interface unit 130 is a means that serves as an interface with a user, and may be configured as a display means and an input means. In this case, the interface unit 130 may receive a user's request for a character recognition function, output an image input from the camera 110, and show a string detection result to the user when the image includes several strings. You can provide an interface that allows the user to select the string that you want to recognize. The interface unit 130 receives the detection result of the detector 120 to receive a selection command for the character string from the user and displays all the detected character string regions 301 in the first image as shown in FIG. 3. I can do it. Accordingly, the user may select a character string (for example, 'wine') to be recognized from the character string 301 in the image.

제어부(140)는 탐지부(120)의 탐지 결과와 문자열에 대한 사용자의 선택 명령을 입력 받아 해당 문자열의 위치 또는 크기 중 적어도 하나를 기준으로 카메라(110)의 렌즈를 조정하는 역할을 한다. 상세하게, 제어부(140)는 인식하려는 문자열의 중심 위치로부터 제1 영상의 중심 위치까지의 상대적 거리 차와, 인식하려는 문자열의 크기와 인식에 적합하도록 사전에 정해진 일정 크기 간의 상대적 크기 차를 측정한다. 도 4를 참조하면, 제어부(140)는 인식하려는 문자열(401)을 카메라 영상의 중앙에 위치시키기 위해 문자열(401)과 영상 중심 간의 거리 차를 이용하여 렌즈의 방향 조정 값을 결정할 수 있다. 아울러, 제어부(140)는 인식하려는 문자열(401)의 해상도를 높이기 위해 문자열(401)과 일정 크기와의 크기 차를 이용하여 렌즈의 줌 조정 값을 결정할 수 있다. 그리고, 제어부(140)는 렌즈의 방향 조정 값과 줌 조정 값에 대응되는 구동 제어 신호를 출력하게 된다.The controller 140 receives a detection result of the detector 120 and a user's selection command for the character string and adjusts the lens of the camera 110 based on at least one of the position or size of the character string. In detail, the controller 140 measures a difference in relative distance from the center position of the string to be recognized to the center position of the first image, and the difference in relative size between a predetermined size that is suitable for recognition and the size of the string to be recognized. . Referring to FIG. 4, the controller 140 may determine the direction adjustment value of the lens by using a distance difference between the string 401 and the center of the image in order to position the string 401 to be recognized at the center of the camera image. In addition, the controller 140 may determine the zoom adjustment value of the lens by using a size difference between the string 401 and a predetermined size to increase the resolution of the string 401 to be recognized. The controller 140 outputs a driving control signal corresponding to the direction adjustment value and the zoom adjustment value of the lens.

구동부(150)는 제어부(140)의 제어 하에 카메라의 렌즈를 조정하는 구동 역할을 수행한다. 다시 말해, 구동부(150)는 제어부(140)에서 출력된 구동 제어 신호에 따라 제어부(150)에서 계산된 방향 조정 값과 줌 조정 값만큼 렌즈의 방향과 줌을 조정할 수 있다. 따라서, 구동부(150)는 제어부(140)로부터 렌즈의 방향과 줌 조절을 위한 구동 제어 신호를 받아서 카메라(110)의 렌즈를 구동함으로써 도 5에 도시한 바와 같이 인식하려는 문자열(501)을 카메라 영상의 중앙에, 그리고 인식하기 적합한 크기로 위치시킬 수 있다.The driver 150 performs a driving role of adjusting the lens of the camera under the control of the controller 140. In other words, the driving unit 150 may adjust the direction and the zoom of the lens by the direction adjustment value and the zoom adjustment value calculated by the control unit 150 according to the driving control signal output from the control unit 140. Accordingly, the driver 150 receives the driving control signal for adjusting the direction and zoom of the lens from the controller 140 and drives the lens of the camera 110 to recognize the character string 501 to be recognized as shown in FIG. 5. It can be placed in the middle of the and at a size suitable for recognition.

인식부(160)는 인식하려는 문자열의 위치 및/또는 크기에 따라 카메라(110)의 렌즈가 조정된 이후 재 촬영된 조정 영상(이하, '제2 영상'이라 칭함)으로부터 문자열에 해당되는 문자 데이터를 인식할 수 있다. 도 6을 참조하면, 인식부(160)는 문자열(601)이 일정 크기로 중앙에 위치하는 제2 영상(610)으로부터 인식하고자 하는 문자열(601)을 추출하여 추출된 문자열(601)에 대한 이진 영상(binary image)(602)을 만들어 내고, 이를 인식함으로써 영상 데이터를 문자 데이터로 변환하는 역할을 한다. 일 예로, 인식부(160)는 제2 영상(610)의 색상 정보, 외곽선 정보 등을 이용하여 제2 영상(610) 내에 존재하는 문자를 추출하고, 이를 문자 인식기(Optical Character Recognizer, OCR)에 입력으로 하여 결과 문자열을 얻을 수 있다. 이때, 인식된 문자열은 장치의 화면에 출력되거나, 추가적인 서비스가 가능하도록 다른 응용 시스템(예컨대, 번역, 검색, 로봇 비전 등)의 입력으로 전달될 수 있다.Recognition unit 160 is a character data corresponding to the character string from the re-adjusted image (hereinafter referred to as 'second image') after the lens of the camera 110 is adjusted according to the position and / or size of the character string to be recognized Can be recognized. Referring to FIG. 6, the recognizer 160 extracts a string 601 to be recognized from a second image 610 in which a string 601 is located at the center with a predetermined size, and performs binary extraction on the extracted string 601. By generating a binary image 602 and recognizing it, the image data is converted into text data. For example, the recognizer 160 extracts a character existing in the second image 610 by using color information and outline information of the second image 610, and then extracts the character existing in the optical character recognizer (OCR). You can get the result string as input. In this case, the recognized character string may be output on the screen of the device or transferred to an input of another application system (eg, translation, search, robot vision, etc.) to enable additional service.

따라서, 상기한 구성의 문자 인식 장치는 초기 영상에서 문자열의 위치와 크기를 탐지하고, 탐지 결과를 기준으로 카메라 렌즈의 방향과 줌을 조정하여 문자열을 영상 중앙에 인식 가능한 크기로 위치시킨 후 문자를 인식함으로써 정확한 인식이 가능하다.Accordingly, the character recognition apparatus having the above-described configuration detects the position and size of the character string in the initial image, adjusts the direction and zoom of the camera lens based on the detection result, and places the character character in the center of the image to recognize the character. By recognizing, accurate recognition is possible.

도 7은 본 발명의 일실시예에 있어서, 카메라 렌즈를 자동 조절하여 높은 해상도로 촬영된 영상에서 문자열을 인식하는 문자 인식 방법을 도시한 흐름도이다. 일실시예에 따른 문자 인식 방법은 도 1을 통해 설명한 문자 인식 장치에 의해 각각의 단계가 수행될 수 있다.7 is a flowchart illustrating a character recognition method of recognizing a character string in an image photographed at a high resolution by automatically adjusting a camera lens according to an embodiment of the present invention. In the character recognition method according to an embodiment, each step may be performed by the character recognition apparatus described with reference to FIG. 1.

단계(701)에서 문자 인식 장치는 사용자의 문자 인식 요구에 대하여 제1 영상에서 문자열 영역을 탐지한다. 이때, 문자 인식 장치는 제1 영상의 각 화소를 문자 영역 또는 비문자 영역으로 분류하는 방식을 통해 문자가 존재하는 문자열 영역을 탐지할 수 있다.In operation 701, the text recognition apparatus detects a text area in the first image in response to a user's text recognition request. In this case, the character recognition apparatus may detect a character string region in which a character exists by classifying each pixel of the first image into a character region or a non-character region.

단계(702)와 단계(703)에서 문자 인식 장치는 제1 영상에 문자열 영역이 존재하면 문자열 영역 내 화소의 위치 값들을 이용하여 해당 영역의 크기와 중점 위치를 측정할 수 있다. 이때, 문자 인식 장치는 제1 영상에 여러 문자열이 포함된 경우 인식하려는 문자열을 사용자로부터 직접 선택 받아 선택된 문자열에 대한 크기와 위치를 탐지할 수 있다.In operation 702 and operation 703, when the character string region exists in the first image, the character recognition apparatus may measure the size and the midpoint position of the corresponding region using position values of pixels in the character string region. In this case, when a plurality of character strings are included in the first image, the character recognition apparatus may directly select a character string to be recognized by the user and detect the size and position of the selected character string.

단계(704)와 단계(705)에서 문자 인식 장치는 인식하려는 문자열이 영상 중앙에 위치하는지 여부를 판단하여 문자열이 영상 중앙에 위치하지 않는 경우 인식하려는 문자열의 중점과 제1 영상의 중점 간의 거리 차를 이용하여 카메라 렌즈의 방향 조정 값을 결정한 후 결정된 조정 값에 따라 렌즈 방향을 조정한다. 이때, 문자 인식 장치는 단계(704)에서 인식하려는 문자열이 영상 중앙에 위치하는 경우 단계(705)를 수행하지 않고 단계(706)로 이동한다.In steps 704 and 705, the character recognition apparatus determines whether the character string to be recognized is located at the center of the image, and if the character string is not located at the center of the image, the distance difference between the midpoint of the string to be recognized and the center point of the first image. After determining the direction adjustment value of the camera lens using, adjust the lens direction according to the determined adjustment value. In this case, when the character string to be recognized in the step 704 is located in the center of the image, the character recognition apparatus moves to step 706 without performing step 705.

단계(706)와 단계(707)에서 문자 인식 장치는 인식하려는 문자열의 크기가 사전에 정해진 일정 크기 이상인지 여부를 판단하여 문자열이 일정 크기 보다 작은 경우 인식하려는 문자열의 영역 크기와 일정 크기 간의 크기 차를 이용하여 카메라 렌즈의 줌 조정 값을 결정한 후 결정된 조정 값에 따라 렌즈 줌을 조정한다. 이때, 문자 인식 장치는 단계(706)에서 인식하려는 문자열의 영역 크기가 일정 크기 이상인 경우 단계(707)를 수행하지 않고 단계(708)로 이동한다.In steps 706 and 707, the character recognition apparatus determines whether the size of the character string to be recognized is greater than or equal to a predetermined size, and if the character string is smaller than the predetermined size, the size difference between the area size of the character string to be recognized and the predetermined size. After determining the zoom adjustment value of the camera lens using, adjust the lens zoom according to the determined adjustment value. In this case, when the size of the area of the character string to be recognized in step 706 is greater than or equal to a certain size, the character recognition apparatus moves to step 708 without performing step 707.

단계(708)와 단계(709)에서 문자 인식 장치는 인식하려는 문자열의 위치 및/또는 크기에 따라 카메라의 렌즈가 조정된 이후 재 촬영되는 제2 영상으로부터 문자열을 추출 및 인식한 후, 인식된 문자열을 장치에 입력할 수 있다. 일 예로, 문자 인식 장치는 문자열이 일정 크기로 중앙에 위치하는 제2 영상을 이진화 하여 이진화 된 영상 데이터를 문자 데이터로 변환함으로써 결과 문자열을 얻을 수 있다.In operation 708 and operation 709, the character recognition apparatus extracts and recognizes a character string from a second image which is re-photographed after the lens of the camera is adjusted according to the position and / or size of the character string to be recognized, and then the recognized character string is recognized. Can be entered into the device. As an example, the character recognition apparatus may obtain a result string by binarizing a second image having a character string at a center and converting the binarized image data into character data.

단계(710)에서 문자 인식 장치는 문자열에 대한 인식 및 입력이 완료되면 카메라 렌즈의 방향과 줌을 초기화 한다.In operation 710, the character recognition apparatus initializes the direction and the zoom of the camera lens when the recognition and input of the character string is completed.

도 7과 관련하여 앞서 설명한 문자를 인식하는 방법은 보다 단축된 동작들 또는 추가 동작들을 포함할 수 있다. 또한, 둘 이상의 동작이 조합될 수 있고, 동작들의 순서가 변경될 수 있다.The method of recognizing a character described above with reference to FIG. 7 may include shorter operations or additional operations. In addition, more than one operation may be combined, and the order of operations may be changed.

이와 같이, 본 발명의 실시예에 따르면, 인식하고자 하는 문자열 영역의 크기와 위치에 따라 문자열이 인식 가능한 적정 크기로 영상의 중앙 부분에 위치할 수 있도록 카메라 렌즈를 자동 조절함으로써 문자열이 저해상도로 촬영되는 문제점을 보안할 수 있으며, 보다 정확한 문자열 인식을 통해 인식 성능을 향상시킬 수 있다.As described above, according to the exemplary embodiment of the present invention, the character string is photographed at a low resolution by automatically adjusting the camera lens so that the character string is located at the center of the image with an appropriate size recognizable according to the size and position of the character string area to be recognized. Problems can be secured and recognition performance can be improved through more accurate string recognition.

본 발명의 실시예에 따른 문자 인식 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예들은 모바일 단말 전용 어플리케이션(예를 들어, 스마트폰 어플리케이션, 피쳐폰 VM(virtual machine) 등의 형태)으로 구성될 수 있다. 이는, 스마트 기기에서 구동되는 적어도 하나의 프로세서에 의해 실행되도록 구성될 수 있다.Character recognition method according to an embodiment of the present invention is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. In particular, the embodiments may be configured as a mobile terminal dedicated application (for example, in the form of a smartphone application, a feature phone virtual machine (VM), etc.). It may be configured to be executed by at least one processor running in the smart device.

상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 또한, 상술한 파일 시스템은 컴퓨터 판독이 가능한 기록 매체에 기록될 수 있다.The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. In addition, the above-described file system can be recorded in a computer-readable recording medium.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

100: 문자 인식 장치
110: 카메라
120: 탐지부
130: 인터페이스부
140: 제어부
150: 구동부
160: 인식부
100: character recognition device
110: camera
120: detector
130: interface unit
140:
150: drive unit
160:

Claims (10)

카메라에서 촬영되는 제1 영상으로부터 문자열을 탐지하는 탐지부;
상기 문자열을 표시하여 사용자로부터 상기 문자열에 대한 선택 명령을 입력 받는 인터페이스부;
상기 사용자에 의해 선택된 상기 문자열에 대하여 상기 문자열의 위치 및 크기에 따라 상기 카메라의 렌즈를 조정하는 제어부; 및
상기 렌즈가 조정된 이후 상기 문자열이 재촬영된 제2 영상으로부터 상기 사용자에 의해 선택된 상기 문자열에 해당되는 문자 데이터를 인식하는 인식부
를 포함하고,
상기 탐지부는,
상기 제1 영상에 대하여 화소 강도들의 평균 차이 값(mean difference), 표준편차(standard deviation) 및 방향 별 외곽선의 히스토그램(Histogram of oriented gradients)을 이용하여 상기 제1 영상의 각 화소를 문자 영역과 비문자 영역으로 분류한 후 상기 문자 영역으로 분류된 화소들의 위치 값을 이용하여 상기 문자열의 위치 또는 크기 중 적어도 하나를 탐지하고,
상기 제어부는,
상기 문자열의 중점과 상기 제1 영상의 중점 간의 거리 차를 이용하여 상기 렌즈의 방향 조정 값을 결정하고, 상기 문자열의 크기와 사전에 정해진 일정 크기 간의 크기 차를 이용하여 상기 렌즈의 줌 조정 값을 결정하는 것
을 특징으로 하는 문자 인식 장치.
A detector for detecting a character string from the first image photographed by the camera;
An interface unit displaying the character string and receiving a selection command for the character string from a user;
A controller for adjusting a lens of the camera according to the position and size of the character string with respect to the character string selected by the user; And
Recognizing unit for recognizing the character data corresponding to the character string selected by the user from the second image of the re-photographed character string after the lens is adjusted
Lt; / RTI >
The detection unit,
Each pixel of the first image is compared with a text area by using a mean difference, a standard deviation, and a histogram of oriented gradients of directions with respect to the first image. After classifying the character area, detecting at least one of the position or the size of the character string by using a position value of pixels classified into the character area,
The control unit,
The direction adjustment value of the lens is determined using the distance difference between the midpoint of the string and the midpoint of the first image, and the zoom adjustment value of the lens is adjusted using the size difference between the size of the string and a predetermined size. Deciding
Character recognition device characterized in that.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 방향 조정 값 또는 상기 줌 조정 값 중 적어도 하나에 따라 상기 렌즈를 구동하는 구동부
를 더 포함하는 문자 인식 장치.
The method of claim 1,
A driving unit driving the lens according to at least one of the direction adjustment value and the zoom adjustment value
Character recognition device further comprising.
제1항에 있어서,
상기 제2 영상은 상기 문자열을 일정 크기로 조정하여 중앙에 위치시킨 영상이며,
상기 인식부는,
상기 제2 영상을 이진화 하여 상기 이진화 된 영상 데이터를 상기 문자 데이터로 변환하는 것
을 특징으로 하는 문자 인식 장치.
The method of claim 1,
The second image is an image positioned at the center by adjusting the character string to a predetermined size.
Wherein,
Converting the binarized image data into the text data by binarizing the second image
Character recognition device characterized in that.
카메라 영상에서 문자를 인식하는 방법에 있어서,
카메라에서 촬영되는 제1 영상으로부터 문자열을 탐지하는 단계;
상기 문자열을 표시하여 사용자로부터 상기 문자열에 대한 선택 명령을 입력 받는 단계;
상기 사용자에 의해 선택된 상기 문자열에 대하여 상기 문자열의 위치 또는 크기 중 적어도 하나에 따라 상기 카메라의 렌즈를 조정하는 단계; 및
상기 렌즈가 조정된 이후 상기 문자열이 재촬영된 제2 영상으로부터 상기 문자열에 해당되는 문자 데이터를 인식하는 단계
를 포함하고,
상기 문자열을 탐지하는 단계는,
상기 제1 영상에 대하여 화소 강도들의 평균 차이 값(mean difference), 표준편자(standard deviation) 및 방향 별 외곽선의 히스토그램(Histogram of oriented gradients)을 이용하여 상기 제1 영상의 각 화소를 문자 영역과 비문자 영역으로 분류하는 단계와,
상기 문자 영역으로 분류된 화소들의 위치 값을 이용하여 상기 문자열의 위치 및 크기를 탐지하는 단계
를 포함하고,
상기 카메라의 렌즈를 조정하는 단계는,
상기 문자열의 중점과 상기 제1 영상의 중점 간의 거리 차를 이용하여 상기 렌즈의 방향 조정 값을 결정하고, 상기 문자열의 크기와 사전에 정해진 일정 크기 간의 크기 차를 이용하여 상기 렌즈의 줌 조정 값을 결정하는 단계
를 포함하는 문자 인식 방법.
In the method of recognizing a character in the camera image,
Detecting a character string from the first image captured by the camera;
Displaying the character string and receiving a selection command for the character string from a user;
Adjusting a lens of the camera according to at least one of the position or size of the character string with respect to the character string selected by the user; And
Recognizing character data corresponding to the character string from the second image where the character string is re-photographed after the lens is adjusted
Lt; / RTI >
Detecting the string,
Each pixel of the first image is compared with a text area by using a mean difference, standard deviation, and histogram of oriented gradients of the pixel intensities with respect to the first image. Categorizing it into a character area,
Detecting the position and size of the character string using position values of pixels classified into the character region;
Lt; / RTI >
Adjusting the lens of the camera,
The direction adjustment value of the lens is determined using the distance difference between the midpoint of the string and the midpoint of the first image, and the zoom adjustment value of the lens is adjusted using the size difference between the size of the string and a predetermined size. Decision Step
Character recognition method comprising a.
문자 인식 장치에서 문자열을 인식하는 방법에 있어서,
카메라에서 촬영되는 제1 영상으로부터 문자열을 탐지하는 단계;
상기 문자열을 표시하여 사용자로부터 상기 문자열에 대한 선택 명령을 입력 받는 단계;
상기 사용자에 의해 선택된 상기 문자열에 대하여 상기 문자열의 위치 또는 크기 중 적어도 하나에 따라 상기 카메라의 렌즈를 조정하는 단계; 및
상기 렌즈가 조정된 이후 상기 문자열이 재촬영된 제2 영상으로부터 상기 문자열에 해당되는 문자 데이터를 인식하는 단계
를 포함하고,
상기 문자열을 탐지하는 단계는,
상기 제1 영상에 대하여 화소 강도들의 평균 차이 값(mean difference), 표준편자(standard deviation) 및 방향 별 외곽선의 히스토그램(Histogram of oriented gradients)을 이용하여 상기 제1 영상의 각 화소를 문자 영역과 비문자 영역으로 분류하는 단계와,
상기 문자 영역으로 분류된 화소들의 위치 값을 이용하여 상기 문자열의 위치 또는 크기 중 적어도 하나를 탐지하는 단계
를 포함하며,
상기 카메라의 렌즈를 조정하는 단계는,
상기 문자열의 중점과 상기 제1 영상의 중점 간의 거리 차를 이용하여 상기 렌즈의 방향(pan) 조정 값을 결정하는 단계;
상기 문자열의 크기와 일정 크기 간의 크기 차를 이용하여 상기 렌즈의 줌(zoom) 조정 값을 결정하는 단계; 및
상기 방향 조정 값 및 상기 줌 조정 값에 따라 상기 렌즈를 조정하는 단계
를 포함하는 문자 인식 방법.
In the method of recognizing a character string in the character recognition device,
Detecting a character string from the first image captured by the camera;
Displaying the character string and receiving a selection command for the character string from a user;
Adjusting a lens of the camera according to at least one of the position or size of the character string with respect to the character string selected by the user; And
Recognizing character data corresponding to the character string from the second image where the character string is re-photographed after the lens is adjusted
Lt; / RTI >
Detecting the string,
Each pixel of the first image is compared with a text area by using a mean difference, standard deviation, and histogram of oriented gradients of the pixel intensities with respect to the first image. Categorizing it into a character area,
Detecting at least one of a position or a size of the character string by using position values of pixels classified into the character region;
Including;
Adjusting the lens of the camera,
Determining a pan adjustment value of the lens by using a distance difference between a midpoint of the string and a midpoint of the first image;
Determining a zoom adjustment value of the lens by using a size difference between the size of the character string and a predetermined size; And
Adjusting the lens according to the direction adjustment value and the zoom adjustment value.
Character recognition method comprising a.
KR1020120007388A 2012-01-25 2012-01-25 Apparatus and method for controlling camera for locating scene text to proper position and size KR101329492B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120007388A KR101329492B1 (en) 2012-01-25 2012-01-25 Apparatus and method for controlling camera for locating scene text to proper position and size

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120007388A KR101329492B1 (en) 2012-01-25 2012-01-25 Apparatus and method for controlling camera for locating scene text to proper position and size

Publications (2)

Publication Number Publication Date
KR20130086493A KR20130086493A (en) 2013-08-02
KR101329492B1 true KR101329492B1 (en) 2013-11-13

Family

ID=49213727

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120007388A KR101329492B1 (en) 2012-01-25 2012-01-25 Apparatus and method for controlling camera for locating scene text to proper position and size

Country Status (1)

Country Link
KR (1) KR101329492B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102209729B1 (en) * 2014-04-04 2021-01-29 삼성전자주식회사 Apparatas and method for detecting contents of a recognition area in an electronic device
KR102555707B1 (en) * 2022-04-19 2023-07-14 호서대학교 산학협력단 Method for control autonomous mobile robot that tracks tile grid pattern based on character recognition

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106510A (en) * 1994-10-05 1996-04-23 Casio Comput Co Ltd Character reader and character recognition device
JPH10247220A (en) * 1997-03-04 1998-09-14 Sharp Corp Character recognition device
JP2003309760A (en) * 2002-04-16 2003-10-31 Fujitsu Ltd Imaging apparatus
KR20100007722A (en) * 2008-07-10 2010-01-22 삼성전자주식회사 Method of character recongnition and translation based on camera image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106510A (en) * 1994-10-05 1996-04-23 Casio Comput Co Ltd Character reader and character recognition device
JPH10247220A (en) * 1997-03-04 1998-09-14 Sharp Corp Character recognition device
JP2003309760A (en) * 2002-04-16 2003-10-31 Fujitsu Ltd Imaging apparatus
KR20100007722A (en) * 2008-07-10 2010-01-22 삼성전자주식회사 Method of character recongnition and translation based on camera image

Also Published As

Publication number Publication date
KR20130086493A (en) 2013-08-02

Similar Documents

Publication Publication Date Title
JP6395759B2 (en) Lane detection
EP3152706B1 (en) Image capturing parameter adjustment in preview mode
KR101617681B1 (en) Text detection using multi-layer connected components with histograms
US8831381B2 (en) Detecting and correcting skew in regions of text in natural images
KR101023389B1 (en) Apparatus and method for improving performance of character recognition
EP2164027B1 (en) Object detecting device, imaging apparatus, object detecting method, and program
US20140168478A1 (en) Text Image Quality Based Feedback For Improving OCR
KR101279712B1 (en) Apparatus and method for providing real-time lane detection, recording medium thereof
CN105303156B (en) Character detection device, method, and program
KR20110076625A (en) Detecting apparatus for charater recognition region and charater recognition method
KR20130066819A (en) Apparus and method for character recognition based on photograph image
WO2015002719A1 (en) Method of improving contrast for text extraction and recognition applications
Giri Text information extraction and analysis from images using digital image processing techniques
KR101329492B1 (en) Apparatus and method for controlling camera for locating scene text to proper position and size
KR100969603B1 (en) A licence plate recognition method based on geometric relations of numbers on the plate
JP2016053763A (en) Image processor, image processing method and program
KR20230099590A (en) Code recognition device, and character code recognition method using the same
Gaikwad et al. Video scene segmentation to separate script
JP2018072884A (en) Information processing device, information processing method and program
KR101169340B1 (en) Method and System for Recognizing an Object in an Image Processing System
JP6688091B2 (en) Vehicle distance deriving device and vehicle distance deriving method
KR101727432B1 (en) Apparatus and method for improving the performance of object recognition function using an image in Multi-Step
KR20190143525A (en) A Method of Detecting Character Data through a Adaboost Learning Method
JP6833324B2 (en) Information processing equipment, programs and information processing methods
JP4974367B2 (en) Region dividing method and apparatus, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161026

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee