KR100741368B1 - Apparatus and method for automatic recognition of character - Google Patents

Apparatus and method for automatic recognition of character Download PDF

Info

Publication number
KR100741368B1
KR100741368B1 KR1020050023028A KR20050023028A KR100741368B1 KR 100741368 B1 KR100741368 B1 KR 100741368B1 KR 1020050023028 A KR1020050023028 A KR 1020050023028A KR 20050023028 A KR20050023028 A KR 20050023028A KR 100741368 B1 KR100741368 B1 KR 100741368B1
Authority
KR
South Korea
Prior art keywords
unit
light
image
target document
automatic
Prior art date
Application number
KR1020050023028A
Other languages
Korean (ko)
Other versions
KR20060101579A (en
Inventor
안종길
Original Assignee
유니챌(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유니챌(주) filed Critical 유니챌(주)
Priority to KR1020050023028A priority Critical patent/KR100741368B1/en
Publication of KR20060101579A publication Critical patent/KR20060101579A/en
Application granted granted Critical
Publication of KR100741368B1 publication Critical patent/KR100741368B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H39/00Devices for locating or stimulating specific reflex points of the body for physical therapy, e.g. acupuncture
    • A61H39/08Devices for applying needles to such points, i.e. for acupuncture ; Acupuncture needles or accessories therefor
    • A61H39/086Acupuncture needles

Abstract

본 발명은 사용자가 검색을 원하는 단어의 입력 단계에서 사용자의 개입을 최소화 할 수 있는 자동인식 입력기술을 이용하여 전체적인 검색시간을 줄이므로써, 빠르고 정확한 정보 검색이 가능한 문자자동인식장치 및 방법에 관한 것이다. The present invention relates to an automatic character recognition apparatus and method capable of fast and accurate information retrieval by reducing the overall search time by using an automatic recognition input technology that can minimize the user's intervention in the input step of the word that the user wants to search. will be.

본 발명의 문자자동인식장치는 대상문서를 읽어들여 단어를 검색하기 위한 전자사전부를 구비하고, 대상문서를 읽어들이기 위하여 상대적인 거리 및 움직임을 인식하여 판단하는 행위인식부와 행위인식부의 판단 결과에 의하여 대상문서의 영상이미지를 판독하여 처리하는 영상처리부를 포함하는 문서자동인식부와, 문서자동인식부에서 처리된 영상데이터로부터 문자데이터를 인식하는 문자자동인식부와 행위인식부로부터의 검출된 신호를 인가받아 영상처리부로 대상문서의 영상이미지를 판독 제어하며, 영상처리부에서 처리된 영상데이터에 포함된 판독 가능한 문자데이터를 인식 가능하도록 제어하여 인식된 문자데이터를 전자사전부로 입력하는 일련의 처리과정을 제어하는 주제어부를 포함하여 이루어진다. The automatic character recognition device of the present invention includes an electronic dictionary for reading a target document and searching for a word, and based on the determination result of the behavior recognition unit and the behavior recognition unit for recognizing and determining the relative distance and movement to read the target document. A document automatic recognition unit including an image processing unit for reading and processing an image image of a target document, a character automatic recognition unit for recognizing character data from image data processed by the document automatic recognition unit, and a detected signal from the action recognition unit. The image processing of the target document is read and controlled by the image processing unit, and the control unit is configured to recognize the readable text data included in the image data processed by the image processing unit and inputs the recognized text data to the electronic dictionary. It includes a controlling main control part.

따라서, 본 발명에 따르면 검색 단어가 포함되어 있는 대상문서 위에 문자자동인식장치를 간단히 올려 놓음으로써 문자데이터가 입력되고, 입력된 문자데이터에 해당되는 단어를 검색하여 그 결과를 표시하는 과정이 자동적으로 이루어지기 때문에 사용자의 개입을 최소화 할 수 있으며, 전체적인 검색시간을 최소화하여 빠르고 정확한 정보검색이 가능한 것이다.Therefore, according to the present invention, the text data is input by simply placing the text recognition device on the target document including the search word, and the process of searching for a word corresponding to the input text data and displaying the result is automatically performed. It is possible to minimize the user's involvement, and it is possible to search the information quickly by minimizing the overall search time.

Description

문자자동인식장치 및 방법{APPARATUS AND METHOD FOR AUTOMATIC RECOGNITION OF CHARACTER}Automatic character recognition device and method {APPARATUS AND METHOD FOR AUTOMATIC RECOGNITION OF CHARACTER}

도 1은 종래기술에 따른 전자사전 내부 구성블럭도 1 is an internal configuration block diagram of the electronic dictionary according to the prior art

도 2는 본 발명의 바람직한 일실시예에 따른 문자자동인식장치의 블럭도. Figure 2 is a block diagram of the automatic character recognition device according to an embodiment of the present invention.

도 3은 본 발명의 도 2에 따른 문자자동인식장치의 일부 사시도. Figure 3 is a partial perspective view of the automatic character recognition device according to Figure 2 of the present invention.

도 4는 본 발명의 일실시예에 따른 문자자동인식방법을 나타낸 흐름도. Figure 4 is a flow chart illustrating a character automatic recognition method according to an embodiment of the present invention.

*** 도면 주요 부분의 부호의 설명 *** *** Explanation of symbols of the main parts of the drawing ***

10 : 키입력장치 20 : 사전 DB 10: key input device 20: dictionary DB

30 : 출력장치 40 : 전자사전 제어부 30: output device 40: electronic dictionary control unit

50 : 전자사전 50: electronic dictionary

200 : 문서자동인식부 210 : 행위인식부200: automatic document recognition unit 210: behavior recognition unit

220 : 광검출부 221 : 발광부 220: light detection unit 221: light emitting unit

222 : 수광부 230 : 근접거리 판단부222: light receiver 230: proximity distance determination unit

231 : 광인식부 232 : 거리비교부231: optical recognition unit 232: distance comparison unit

240 : 광패턴판단부 241 : X,Y좌표 감지부 240: optical pattern determination unit 241: X, Y coordinate detection unit

242 : 광패턴비교부 250 : 영상처리부242: light pattern comparison unit 250: image processing unit

251 : 캡쳐부 252 : 영상데이터변환부251: capture unit 252: image data conversion unit

260 : 대상문서 300 : 문자자동인식부260: the target document 300: automatic text recognition unit

400 : 주제어부 500 : 전자사전부400: subject control 500: electronic dictionary

510 : 입력부 520 : 사전 DB부510: input unit 520: dictionary DB unit

530 : 표시부 530: display unit

본 발명은 사용자가 검색을 원하는 단어의 입력 단계에서 사용자의 개입을 최소화 할 수 있는 자동인식 입력기술을 이용해 전체적인 검색시간을 최소화하여 빠르고 정확한 정보검색이 가능한 문자자동인식장치에 관한 것이다. The present invention relates to a text automatic recognition device capable of fast and accurate information search by minimizing the overall search time by using the automatic recognition input technology that can minimize the user's intervention in the input step of the word that the user wants to search.

반도체 메모리 기술이 발달하지 못하였던 종래에는 사전에 담겨있는 방대한 양의 단어들을 저장하기가 어려웠으며 일일이 사전의 폐이지를 넘기며 단어를 찾아야 했다. In the past, when semiconductor memory technology was not developed, it was difficult to store a large amount of words contained in a dictionary, and the words had to be found by handing over the dictionaries of the dictionary.

그러나, 반도체 메모리 기술이 급속도로 발전함에 따라 거대한 용량을 저장할 수 있는 반도체 메모리가 개발됨으로써 방대한 양의 단어를 저장할 수 있는 전자사전이 개발되었다, However, with the rapid development of semiconductor memory technology, an electronic dictionary capable of storing a large amount of words has been developed by developing a semiconductor memory capable of storing huge capacity.

도 1은 종래에 사용되는 전자사전의 구성도이다. 도 1을 참조하면, 전자사전(50)의 내부에는 검색된 전자사전의 데이터를 출력하는 출력장치(30)와, 입력된 단어에 맞는 정보를 제공하기 위한 사전 DB(20)와, 사용자가 검색할 단어를 입력하는 키입력장치(10)와, 상기한 장치들을 전반적으로 제어하는 전자사전 제어부(40)를 포함하여 이루어진다.1 is a block diagram of a conventional electronic dictionary. Referring to FIG. 1, an electronic device 50 includes an output device 30 for outputting data of a searched electronic dictionary, a dictionary DB 20 for providing information corresponding to an input word, and a user search. And a key input device 10 for inputting a word, and an electronic dictionary controller 40 for overall control of the devices.

사용자는 상기 키입력장치(10)를 통해서 자신이 알고 싶은 단어를 전자사전(50)에 입력을 하면, 전자사전 제어부(40)에서의 제어신호에 의하여 전자사전(50)은 사전 DB(20)로부터 입력된 단어에 해당되는 데이터를 검색하여 출력장치(30)를 통해 검색된 내용을 출력하여 사용자가 알 수 있도록 한다.When the user inputs a word he wants to know in the electronic dictionary 50 through the key input device 10, the electronic dictionary 50 is a dictionary DB 20 in response to a control signal from the electronic dictionary controller 40. Search the data corresponding to the word input from the output to the searched content through the output device 30 so that the user can know.

상기한 바와 같이 종래의 전자사전(50)은 사용자가 단어를 입력했을 때 해당 단어를 검색하여 출력장치(30)를 통하여 검색 결과를 알려주고 있다. 이러한 전자사전은 사용자가 찾고자 하는 단어에 대하여 일일히 버튼을 통하여 입력하고 검색하기에는 한계가 있으며, 입력기능이 제한적으로 구현되기 때문에 즉, 사용자가 수동적으로 키입력장치의 키버튼을 통하여 검색하고자하는 단어를 일일히 입력해야만 하기 때문에 버튼 조작의 불편함과 또한 단어를 입력하여 결과가 나타나기 까지의 시간이 소요된다는 문제점이 있다. As described above, the conventional electronic dictionary 50 searches for a corresponding word when a user inputs a word and informs the search result through the output device 30. These electronic dictionaries are limited in that they can be entered and searched through the buttons for the words that the user wants to find, and since the input function is limited, that is, the words that the user manually searches through the key buttons of the key input device. There is a problem in that it takes a long time until the results appear by inputting a word and also the inconvenience of button operation because it must be input one by one.

따라서 본 발명은, 이상에서 설명한 문제점을 해결하기 위하여 안출된 것으로써, 사용자가 검색을 원하는 단어의 입력 단계에서 사용자의 개입을 최소화 할 수 있는 자동인식 입력기술을 이용해 전체적인 검색시간을 최소화 하여 빠르고 정확한 정보 검색이 가능한 문자자동인식장치을 제공하는데 그 목적이 있다.Therefore, the present invention is to solve the problems described above, by using the automatic recognition input technology that can minimize the user's intervention in the input step of the word you want to search by minimizing the overall search time fast and accurate An object of the present invention is to provide an automatic character recognition device capable of searching information.

상기한 기술적 과제를 해결하기 위하여 안출된 본 발명에 따른 문자자동인식장치는, 대상문서를 읽어들여 단어를 검색하기 위한 전자사전부를 구비하고, 상기 대상문서를 읽어들이기 위하여 상대적인 거리 및 움직임을 인식하여 판단하는 행위인식부와 상기 행위인식부의 판단 결과에 의하여 상기 대상문서의 영상이미지를 판독하여 영상데이터로 처리하는 영상처리부를 포함하는 문서자동인식부와; 상기 문서자동인식부에서 처리된 영상데이터로부터 문자데이터를 인식하는 문자자동인식 부; 및 상기 행위 인식부로부터의 검출된 신호를 인가받아 상기 영상처리부로 대상문서의 영상이미지를 판독 제어하며 상기 영상처리부에서 처리된 영상데이터에 포함된 판독 가능한 상기 문자데이터를 인식 가능하도록 제어하여 상기 인식된 문자데이터를 상기 전자사전부로 입력하는 일련의 처리과정을 제어하는 주제어부를 포함하여 이루어지는 것을 특징으로 한다.In order to solve the above technical problem, the automatic character recognition device according to the present invention includes an electronic dictionary for searching a word by reading a target document, and recognizes a relative distance and a movement to read the target document. A document automatic recognition unit including an image recognition unit which reads an image image of the target document and processes the image image based on the determination result of the action recognition unit and the determination result of the action recognition unit; A text automatic recognition unit for recognizing text data from the image data processed by the document automatic recognition unit; And reading and controlling the image image of the target document by receiving the detected signal from the behavior recognition unit and controlling the readable text data included in the image data processed by the image processing unit to be able to recognize the recognition. Characterized in that it comprises a main control unit for controlling a series of processes for inputting the text data into the electronic dictionary.

본 발명의 다른 특징에 따르면, 상기 행위인식부는 상기 대상문서에 광을 주사하고, 상기 대상문서로부터 광을 검출하는 광검출부와; 상기 광검출부로부터 검출된 광의 세기를 처리하여, 상기 상대적인 거리를 인식하므로써 근접거리를 판단하는 근접거리판단부; 및 상기 감지된 광의 광패턴에 의하여 상기 상대적인 움직임을 인식하여 판단하는 광패턴 판단부를 포함하여 이루어지는 것을 특징으로 한다.According to another feature of the invention, the action recognition unit for scanning the light to the target document, the light detecting unit for detecting the light from the target document; A proximity distance determining unit which processes the intensity of light detected by the light detector and determines a proximity distance by recognizing the relative distance; And an optical pattern determination unit for recognizing and determining the relative movement based on the detected optical pattern of the light.

본 발명의 다른 특징에 따르면, 상기 광검출부는 상기 대상문서에 상기 광을 주사하는 발광부; 및 상기 발광부로부터 상기 대상문서에 주사된 광에 의하여 상기 대상문서로부터 반사된 광을 검출하는 수광부로 이루어지는 것을 특징으로 한다.According to another feature of the invention, the light detection unit for emitting the light to the target document; And a light receiving unit that detects light reflected from the target document by light scanned from the light emitting unit to the target document.

본 발명의 다른 특징에 따르면, 상기 근접거리판단부는 상기 광검출부로부터 광의 세기를 인식하는 광인식부; 및 상기 광인식부로부터 인식된 광의 세기와, 기검출된 광의 세기를 상호 비교하여 상기 상대적인 거리를 인식하는 거리비교부로 이루어지는 것을 특징으로 한다.According to another feature of the invention, the proximity distance determining unit includes a light recognition unit for recognizing the intensity of light from the light detection unit; And a distance comparison unit that recognizes the relative distance by comparing the intensity of light recognized by the light recognition unit with the intensity of light previously detected.

본 발명의 다른 특징에 따르면, 상기 광패턴 판단부는 상기 검출된 광패턴에 대한 X, Y의 좌표값을 감지하는 X,Y 좌표감지부; 및 상기 X,Y 좌표감지부에 감지된 좌표값과, 기검출된 광패턴의 좌표값을 상호 비교하고, 상기 비교로부터의 광패 턴에 대한 변화값에 의하여 상기 상대적인 움직임을 인식하는 광패턴비교부로 이루어지는 것을 특징으로 한다.According to another feature of the invention, the light pattern determination unit X, Y coordinate detection unit for detecting the coordinate value of the X, Y for the detected light pattern; And an optical pattern comparison unit which compares the coordinate values sensed by the X and Y coordinate detection units with the coordinate values of the previously detected optical patterns, and recognizes the relative movement by a change value for the optical pattern from the comparison. Characterized in that made.

본 발명의 다른 특징에 따르면, 상기 영상처리부는 상기 대상문서의 영상이미지를 캡쳐하는 캡쳐부; 및 상기 캡쳐부에서 캡쳐된 상기 영상이미지를 입력받아 디지털 변환처리하는 영상데이터변환부를 포함하여 이루어지는 것을 특징으로 한다.According to another feature of the invention, the image processing unit includes a capture unit for capturing an image of the target document; And an image data converter configured to receive the image captured by the capture and digitally convert the image.

본 발명의 다른 특징에 따르면, 상기 전자사전부는 상기 전자사전부의 전원을 온, 오프 및 수동으로 단어를 검색하기 위한 키버튼을 구비한 입력부와; 상기 문자자동인식부에서 입력받은 상기 문자데이터에 해당되는 단어가 저장되어 있는 사전 DB부; 및 상기 사전 DB부에 저장된 단어를 상기 주제어부로부터의 제어신호에 의하여 검색하고, 검색된 단어를 출력하는 출력부로 이루어지는 것을 특징으로 한다.According to another feature of the invention, the electronic dictionary comprises an input unit having a key button for turning on, off and manually search for a word of the electronic dictionary; Dictionary DB unit for storing the word corresponding to the character data received from the automatic character recognition unit; And an output unit for searching for a word stored in the dictionary DB unit by a control signal from the main control unit and outputting the searched word.

본 발명의 다른 관점에 따른 문자자동인식방법은, 행위인식부와 영상처리부와 문자자동인식부 및 주제어부로 이루어진 문자자동인식장치를 이용한 대상문서를 자동으로 인식하는 문자 자동인식방법에 있어서, 상기 행위인식부의 광을 주사하는 발광부로부터 상기 대상문서에 주사되어 상기 대상문서로부터 반사된 광을 수광부에서 검출하는 제 1 단계와; 상기 검출된 광의 세기를 처리하여 근접거리판단부에서 상대적인 거리를 인식하는 제 2 단계와; 상기 인식된 거리로부터 대상문서가 근접거리인가를 판단하여 근접거리가 아닌 경우에는 상기 제 1 단계를 수행하는 제 3 단계와; 상기 제 3 단계에서 근접거리인 경우에는 상기 행위인식부의 상대적인 움 직임을 판단하는 광패턴판단부가 검출된 광패턴의 X, Y의 좌표값을 감지하는 제 4 단계와; 상기 감지된 좌표값에 의한 광패턴의 변화값으로부터 대상문서가 움직이는가를 판단하고, 움직임이 있는 경우에는, 상기 제 1 단계를 수행하는 제 5 단계와; 상기 제 5 단계에서 움직임이 없는 경우에는, 상기 행위인식부로부터의 검출된 신호를 인가받아 상기 영상처리부에서 대상문서의 영상이미지를 촬영하고, 촬영된 영상이미지를 영상데이터로 변환하여 처리하는 제 6 단계와; 상기 처리된 영상데이터가 판독 가능하도록 제어하여 문자데이터가 있는지를 판단하는 제 7 단계와; 상기 영상데이터 중 문자가 있는 경우에는, 상기 문자자동인식부에서 문자데이터를 인식하는 제 8 단계; 및 상기 인식된 문자데이터를 검색하는 전자사전부로 입력하여 상기 전자데이터에 해당하는 단어를 상기 전자사전부의 사전 DB로부터 검색하여 표시하는 제 9 단계를 포함하여 이루어진 것을 특징으로 한다.In the automatic character recognition method according to another aspect of the present invention, in the automatic character recognition method for automatically recognizing the target document using the automatic character recognition device consisting of the behavior recognition unit, the image processing unit, the character automatic recognition unit and the main control unit, A first step of detecting, at the light receiving unit, light that is scanned from the light emitting unit scanning the light of the recognition unit and reflected from the target document; A second step of recognizing a relative distance from the proximity determination unit by processing the detected intensity of light; A third step of determining whether a target document is a proximity distance from the recognized distance and performing the first step if it is not a proximity distance; A fourth step of detecting coordinate values of X and Y of the detected light pattern when the light pattern determination unit determines the relative movement of the behavior recognition unit in the case of the proximity distance in the third step; A fifth step of determining whether a target document is moving from the change value of the light pattern by the detected coordinate value, and performing the first step if there is a movement; In the fifth step, if there is no motion, the image processing unit receives the detected signal from the action recognition unit, and the image processing unit photographs the image of the target document, and converts the captured image image into image data for processing. Steps; A seventh step of determining whether there is text data by controlling the processed image data to be readable; An eighth step of recognizing the character data in the character automatic recognition unit when there is a character among the image data; And a ninth step of inputting the recognized character data into an electronic dictionary to search for and displaying a word corresponding to the electronic data from a dictionary DB of the electronic dictionary.

본 발명의 다른 특징에 따르면, 상기 제 6 단계에서 상기 영상데이터의 변환처리는 상기 영상데이터의 컬러 정보를 제거하고, 밝기 정보를 흑백의 2단계로 변환하여 처리하는 것을 특징으로 한다.According to another aspect of the present invention, in the sixth step, the conversion process of the image data is characterized by removing color information of the image data, and converting brightness information into two stages of black and white.

본 발명의 다른 특징에 따르면, 상기 제 7 단계는 상기 제 6 단계에서 처리된 영상데이터의 배열 상태의 평균 각도를 검사하여 과도하게 틀어져 있는 경우에는 표시부에 상기 제 6 단계에서 변환되기 이전의 영상데이터와 패턴의 위치 수정을 요구하는 메시지를 표시하고, 사용자에게 정확한 영상이미지를 캡쳐하여 판독 가능하도록 제어하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.According to another feature of the invention, in the seventh step, if the average angle of the arrangement state of the image data processed in the sixth step is excessively distorted, the image data before being converted in the sixth step on the display unit And displaying a message requesting the position of the pattern to be corrected, and controlling the user to capture and read the correct video image.

본 발명의 다른 특징에 따르면, 상기 제 8 단계는 상기 문자데이터가 없는 경우에, 상기 대상문서에 문자데이터가 없다는 메시지를 표시하고, 상기 제 6 단계로 돌아가 문자데이터의 존재 유무를 판단하는 단계를 더 포함하여 이루어진 것을 특징으로 한다.According to another aspect of the present invention, in the eighth step, if there is no text data, displaying the message that there is no text data in the target document, and returning to the sixth step to determine the presence or absence of text data Characterized in that further comprises.

이하, 본 발명의 바람직한 실시예들을 첨부한 도면들을 참조하여 상세히 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 바람직한 실시예에 따른 문자자동인식장치의 블럭도이다.2 is a block diagram of an automatic letter recognition apparatus according to a preferred embodiment of the present invention.

도 2를 참조하면, 문자자동인식장치는 대상문서로부터의 문서데이터를 자동으로 인식하기 위한 문서자동인식부(200)와 자동으로 인식된 문서데이터로부터 문자데이터만을 검출하여 인식하는 문자자동인식부(300)와 문서자동인식부(200)로 인식된 문서데이터를 영상이미지 판독처리 및 제어하며, 처리된 영상데이터에 포함된 문자데이터를 상기 문자자동인식부(300)에서 판독 인식할 수 있도록 제어하며, 문자데이터에 해당되는 단어를 검색하여 표시해주는 전자사전부(500)를 제어하는 주제어부(400)로 구성된다. Referring to FIG. 2, the text automatic recognition device includes a document automatic recognition unit 200 for automatically recognizing document data from a target document and a text automatic recognition unit for detecting and recognizing only text data from automatically recognized document data. And image data reading processing and control of the document data recognized by the automatic document recognition unit 200, and the character data included in the processed image data can be read and recognized by the automatic character recognition unit 300. The main control unit 400 controls the electronic dictionary 500 for searching and displaying a word corresponding to the character data.

본 발명의 특징에 따르면 상기 문서자동인식부(200)는 주사된 광으로부터 근접거리임이 판단되면 대상문서로부터의 영상이미지에 대한 문서데이터를 인식하여 판단하는 행위판단부(210)와 상기 행위판단부로부터의 판단 결과에 기초하여 대상문서의 영상이미지를 판독하여 데이터 처리하는 영상처리부(250)로 이루어진다. 상기 행위판단부(210)은 광을 주사하는 발광부(221)와 대상문서로부터 반사된 광을 검출하는 수광부(222)로 이루어진 광검출부(220)와, 상기 광검출부로 검출된 광의 세기를 처리하여 인식하는 광인식부(231)와 인식된 광의 세기와 기검출된 광의 세 기를 상호 비교하여 근접거리인가를 판단하는 거리비교부(232)로 이루어진 근접거리판단부(230)와, 또한 상기 근접거리판단부의 판단결과에 따라 광검출부로부터 인식된 광패턴에 대한 X,Y 좌표에 대한 좌표값을 감지하는 X,Y 좌표감지부(241)과 감지된 광패턴의 좌표값과 기검출된 광패턴의 좌표값을 상호 비교하여 광패턴의 변화값으로부터 광패턴의 움직임을 인식하여 판단하는 광패턴비교부(242)로 이루어진 광패턴판단부(240)로 구성되어 있다.According to a feature of the present invention, the document automatic recognition unit 200 recognizes and determines document data for a video image from a target document when it is determined that the proximity distance from the scanned light and the action determining unit The image processing unit 250 reads an image of the target document based on the determination result from the image processing unit 250 and processes the data. The action determining unit 210 processes a light detector 220 comprising a light emitter 221 for scanning light, a light receiver 222 for detecting light reflected from a target document, and a light intensity detected by the light detector. And a close distance determining unit 230 including a light recognizing unit 231 for recognizing the light and a distance comparing unit 232 for determining whether the light is close to each other by comparing the intensity of the recognized light with the three detected light. According to the determination result of the determination unit, the X, Y coordinate detection unit 241 for detecting the coordinate value of the X, Y coordinates for the light pattern recognized by the light detection unit and the coordinate value of the detected light pattern and the previously detected light pattern The optical pattern determination unit 240 includes an optical pattern comparison unit 242 which compares coordinate values with each other and recognizes and determines the movement of the optical pattern from the change value of the optical pattern.

본 발명의 특징에 따르면, 상기 영상처리부(250)는 대상문서의 영상이미지를 캡쳐하는 캡쳐부(251)와, 캡쳐된 영상이미지를 디지털 데이터로 처리하는 영상데이터 변환부로 이루어진다.According to a feature of the present invention, the image processor 250 includes a capture unit 251 for capturing an image of a target document, and an image data converter for processing the captured image as digital data.

본 발명의 특징에 따르면, 상기 전자사전부(500)는 상기 본 발명에 따른 문자자동인식장치의 주 전원을 온, 오프하고 수동으로 단어를 검색하기 위한 키버튼을 구비한 입력부(510)와, 상기 문자자동인식부(300)에서 입력받은 상기 문자데이터에 해당되는 단어를 포함한 각종 단어들이 사전형식으로 저장되어 있는 사전 DB부(520)와, 상기 주제어부(400)의 제어 신호에 따라 상기 문자자동인식부(300)로부터 입력된 문자데이터에 해당되는 단어가 저장되어 있는 사전 DB부(520)를 검색하고, 검색된 단어를 표시하는 표시부(530)로 이루어진다. According to a feature of the invention, the electronic dictionary 500 is an input unit 510 having a key button for turning on and off the main power of the automatic character recognition device according to the present invention and manually searching for words; According to the control signal of the dictionary DB unit 520 and the main control unit 400, various words including words corresponding to the character data received from the automatic character recognition unit 300 are stored in a dictionary form. It consists of a display unit 530 for searching the dictionary DB unit 520 in which the word corresponding to the character data input from the automatic recognition unit 300 is stored and displaying the searched word.

도 3은 본 발명의 도 2에 따른 문자자동인식장치의 부분 사시도이다.Figure 3 is a partial perspective view of the automatic character recognition device according to Figure 2 of the present invention.

도 3을 참조하면, 본 발명에 따른 문자자동인식장치는, 대상문서(260)에 광을 주사하는 발광부(221)와 광을 검출하는 수광부(222) 및 대상문서의 영상이미지를 캡쳐하는 캡쳐부(251)가 문자자동인식장치의 외부로 설치되어 대상문서를 캡쳐 한다.Referring to FIG. 3, the automatic character recognition device according to the present invention includes a light emitting unit 221 for scanning light onto a target document 260, a light receiving unit 222 for detecting light, and capturing an image of a target document. The unit 251 is installed outside of the text automatic recognition device to capture the target document.

광검출부의 발광부(221)에서 대상문서(260)로 광을 주사한다. 주사된 광은 대상문서(260)에서 반사되고 반사된 광은 수광부(222)에 입사된다. 입사되어 검출된 광은 근접거리판단부(230)와 광패턴판단부(240)로 출력된다. 검출된 광은 근접거리판단부(230)에서 문자자동인식장치가 적정한 거리에 위치되어 있는지, 광패턴판단부(240)에서는 문자자동인식장치가 움직이는지를 감지하게 된다.The light is emitted from the light emitter 221 of the photodetector to the target document 260. The scanned light is reflected by the target document 260 and the reflected light is incident on the light receiver 222. The incident and detected light is output to the proximity distance determination unit 230 and the light pattern determination unit 240. The detected light detects whether the automatic character recognition device is located at an appropriate distance from the proximity determining unit 230 and the automatic pattern recognition unit 240 detects whether the automatic character recognition device moves.

행위판단부(210)에서 처리된 정보는 주제어기(400)에 전달이 되어 문자자동인식장치가 적정한 거리에 위치하고 움직이지 않는 경우에는 영상처리부의 캡쳐부(251)는 대상문서(260)에 기록되어 있는 영상이미지를 캡쳐부를 통해서 캡쳐한다. 이때 캡쳐부는 카메라 또는 스캐너 등 다양하게 영상이미지를 읽어들일 수 있는 장치이면 가능하다. 캡쳐된 영상이미지는 주제어부(400)의 제어신호에 의하여 영상처리부(250)의 영상데이터변환부(252)에서 사용가능한 영상데이터 정보로 변환하여 변환된 정보를 문자자동인식부(300)로 출력한다. 주제어부(400)의 제어신호하에 문서자동인식부(200)의 행위판단부(210)와 영상처리부(250)에서 처리된 결과 정보는 문자자동인식부(209)로 전송되어져 검색하고자 하는 문자데이터만을 전자사전부(500)로 출력되어 문자데이터에 해당되는 단어를 검색하여 사용자가 알아볼 수 있도록 표시하게 된다.When the information processed by the behavior determining unit 210 is transmitted to the main controller 400 and the automatic text recognition device is located at an appropriate distance and does not move, the capture unit 251 of the image processing unit is recorded in the target document 260. Capture the captured video image through the capture unit. In this case, the capture unit may be any device capable of reading various image images such as a camera or a scanner. The captured image image is converted into image data information usable by the image data conversion unit 252 of the image processing unit 250 according to the control signal of the main control unit 400 and outputs the converted information to the character automatic recognition unit 300. do. The result information processed by the action determining unit 210 and the image processing unit 250 of the document automatic recognition unit 200 under the control signal of the main control unit 400 is transmitted to the text automatic recognition unit 209 to search for the text data. The bay is output to the electronic dictionary 500 to search for words corresponding to the character data so that the user can recognize them.

상기한 바와 같이 도 2 및 도 3에 따른 본 발명의 문자자동인식장치의 동작원리는 다음과 같다.As described above, the operation principle of the automatic character recognition device of the present invention according to FIGS. 2 and 3 is as follows.

본 발명의 문자자동인식장치에 구비된 광검출부의 발광부(221)는 검색하고자 하는 단어가 포함되어 있는 대상문서(210)에 광을 주사시킨다. 주사된 광은 대상문서(210)로부터 반사되어 광검출부의 수광부(222)에서 검출된다. 검출된 광은 행위 판단부(210)에 입력되어 근접거리판단부(230)의 광인식부(231)는 광에 대한 세기를 인식하며, 근접거리판단부(230)의 거리비교부(232)는 인식된 광의 세기와 기검출된 광의 세기를 상호 비교하여 문자자동인식장치와 대상문서가 근접거리인가를 판단하여 상호 근접거리라고 판단하며, 또한 근접거리판단부의 판단결과에 따라 광검출부로부터 검출된 광으로부터 광패턴판단부(240)의 X,Y 좌표감지부(241)가 광패턴에 대한 X,Y 좌표에 대한 좌표값을 감지하여 광패턴판단부(240)의 광패턴비교부(242)로부터의 기검출된 광패턴의 좌표값을 상호 비교하여 광패턴의 변화값으로부터 광패턴의 움직임을 인식하여 판단한다.The light emitting unit 221 of the light detecting unit provided in the automatic letter recognition device of the present invention scans the light to the target document 210 containing the word to be searched. The scanned light is reflected from the target document 210 and detected by the light receiving unit 222 of the light detector. The detected light is input to the behavior determining unit 210 so that the light recognition unit 231 of the proximity determination unit 230 recognizes the intensity of the light, and the distance comparison unit 232 of the proximity determination unit 230 By comparing the intensity of the recognized light with the intensity of the previously detected light, it is determined whether the automatic text recognition device and the target document are in close proximity to each other to determine the proximity distance, and the light detected from the light detection unit according to the determination result of the proximity determination unit. From the X, Y coordinate detection unit 241 of the optical pattern determination unit 240 detects the coordinate value of the X, Y coordinates for the optical pattern from the optical pattern comparison unit 242 of the optical pattern determination unit 240 The coordinate values of the previously detected light patterns are compared with each other to recognize and determine the movement of the light pattern from the change value of the light pattern.

본 발명의 문자자동인식장치와 대상문서(260)와의 근접거리에 대한 판단은 대상문서(260)로부터 반사되는 광의 세기를 검출하여 거리비교부(232)가 검출된 광의 세기와 기검출된 광의 세기를 상호 비교하여 판단한다. 즉, 상호간의 거리가 멀수록 광의 세기는 작아지기 때문에 문자자동인식장치와 대상문서가 상호 어느정도 근접거리 범위에 위치되어야만 대상문서의 영상이미지를 캡쳐하여 판독할 수 있으므로 영상이미지를 캡쳐하기 이전에 문자자동인식장치와 대상문서 상호간의 적정 범위의 거리를 판단한다.Determination of the proximity distance between the automatic text recognition device and the target document 260 of the present invention detects the intensity of the light reflected from the target document 260, so that the distance comparator 232 detects the intensity of the detected light and the intensity of the previously detected light. And compare with each other. In other words, the greater the distance between each other, the smaller the light intensity. Therefore, the automatic text recognition device and the target document must be located within a certain range of mutual distance to capture and read the video image of the target document. Determine the proper range distance between the automatic recognition device and the target document.

본 발명의 광패턴의 움직임에 대한 판단은 대상문서(260)로부터 반사되는 광패턴을 반복적으로 비교함으로써 광패턴에 대한 움직임을 인식하여 판단한다. 즉, 움직임이 없다고 가정하면 반사되는 광패턴은 지속적으로 동일한 패턴을 유지할 것 이며 이 경우에는 주제어부의 제어신호가 발생하여 영상처리부(250)의 캡쳐부(251)는 대상문서의 영상이미지를 캡쳐하여 판독하며, 움직임이 있을 경우에는 반사되는 광패턴은 지속적으로 변하게 될 것이며 이 경우에는 광패턴에 대한 변화가 없을 때까지 지속적으로 광패턴을 비교한다. 그러므로 X,Y 좌표감지부(241)에서는 광검출부(220)으로부터 검출된 반사되는 광패턴의 X,Y 좌표에 대한 좌표값을 감지하여 광패턴비교부(242)를 통하여 현재 검출된 광패턴의 X,Y 좌표에 대한 좌표값과 바로 이전에 검출된 광패턴에 대한 X,Y 좌표에 대한 좌표값을 상호 비교하므로써 문자자동인식장치와 대상문서 상호간에 어떠한 움직임이 있다고 인식하여 판단한다.In the determination of the movement of the light pattern of the present invention, by repeatedly comparing the light patterns reflected from the target document 260, the movement of the light pattern is recognized and determined. That is, assuming that there is no movement, the reflected light pattern will maintain the same pattern continuously. In this case, the control signal of the main controller is generated, so that the capture unit 251 of the image processor 250 captures the image of the target document. When there is motion, the reflected light pattern will change continuously, in which case the light patterns are continuously compared until there is no change to the light pattern. Therefore, the X, Y coordinate detecting unit 241 detects the coordinate values of the X, Y coordinates of the reflected light pattern detected by the light detecting unit 220 to detect the coordinates of the currently detected optical pattern through the light pattern comparing unit 242. By comparing the coordinate values of the X and Y coordinates with the coordinate values of the X and Y coordinates of the immediately detected light pattern, the controller recognizes and determines that there is any movement between the automatic character recognition device and the target document.

따라서, 상술한 바와 같이 검출된 광으로부터 문자자동인식장치와 캡쳐하고자 하는 대상문서(210)가 적정한 근접거리에 있고, 움직임이 없이 안정되게 놓여 있다면, 다시말해서 사용자가 문자자동인식장치을 단어 검색을 위하여 대상문서(260) 위에 정상적으로 올려놓으면 문자자동인식장치와 대상문서(210)간의 거리는 매우 근접한 거리가 되며 대상문서(210)와 문자자동인식장치과의 상대적 움직임은 매우 작아질 것이다.Therefore, if the automatic text recognition device and the target document 210 to be captured from the light detected as described above are at a proper proximity and are stably placed without movement, in other words, the user may use the automatic text recognition device to search for words. Normally placed on the target document 260, the distance between the automatic text recognition device and the target document 210 is a very close distance and the relative movement between the target document 210 and the automatic text recognition device will be very small.

이와같이 문자자동인식장치와 대상문서(260)가 문서데이터를 읽어 들이기에 최적의 조건이 되었을 때 주제어부(400)는 캡쳐부(251)로부터 대상문서(260)에 기록되어 있는 문서데이터에 대한 영상이미지를 캡쳐하도록 제어신호를 발생한다. 캡쳐부(251)는 대상문서(260)의 영상이미지를 캡쳐하여 영상데이터 변환부(252)에 입력하여 영상데이터로 변환한다. As such, when the automatic text recognition device and the target document 260 become optimal conditions for reading the document data, the main control unit 400 images an image of the document data recorded in the target document 260 from the capture unit 251. Generate a control signal to capture the image. The capturer 251 captures an image of the target document 260 and inputs it to the image data converter 252 to convert the image into image data.

영상데이터로 변환하는 과정은 영상이미지의 컬러정보를 제거하고 밝기정보 를 2단계로 변환하여 처리함으로서 이루어진다. 즉, 컬러정보를 제거하고 밝기정보를 흑백의 2단계로 변환처리한다. The process of converting the image data is performed by removing color information of the image image and converting the brightness information in two steps. That is, the color information is removed and the brightness information is converted into two stages of black and white.

이와같은 영상데이터의 간편화를 위한 변환처리과정은 문자자동인식부(300)의 처리 과정에 대한 계산량을 줄이고 정확한 처리를 위한 것이며, 또한 전체적인 영상데이터의 용량을 줄임으로써 문자 인식율의 개선과 빠른 처리를 확보할 수 있기 때문이다. 실제로 문자자동인식부(300)에서는 컬러정보 및 자세한 밝기정보는 필요로 하지 않기 때문에 문자인식율의 정확도는 향상되며, 동시에 빠른 처리를 가능하게 한다.The conversion process for simplicity of the image data is to reduce the amount of calculation and accurate processing of the character automatic recognition unit 300, and to improve the character recognition rate and speed up the process by reducing the overall image data capacity. This is because it can be secured. In fact, since the character automatic recognition unit 300 does not need color information and detailed brightness information, the accuracy of the character recognition rate is improved, and at the same time enables a fast process.

또한, 문자자동인식부(300)에서 변환처리된 영상데이터로부터 문자 데이터의 존재 여부를 판단하기 이전에, 인식하고자 하는 문자 위에 올려 놓았을 경우 문자를 포함하는 영상데이터는 좌우로 길게 위치하게 되므로 영상데이터의 배열 상태의 평균 각도를 검사하여 과도하게 틀어져 있는 경우에는 주제어부(400)의 제어신호에 따라서 표시부(530)를 통하여 컬러정보와 밝기정보를 제거하기 이전의 영상데이터를 표시하고, 동시에 사용자에게 위치 수정을 요구하는 메시지를 출력하여 정확한 문자 인식이 가능하도록 대상문서(260) 또는 본 발명의 문자자동인식장치의 위치 수정을 알려준다. 따라서, 사용자는 표시부의 안내 메시지에 의하여 본 발명의 문자자동인식장치의 위치 수정 정보에 기초하여 대상문서의 영상이미지를 다시 캡쳐할 수 있다.In addition, before determining whether there is text data from the image data converted by the text automatic recognition unit 300, when the text data is placed on the text to be recognized, the video data including the text is long to the left and right. In the case where the average angle of the arrangement state of the data is excessively distorted, the image data before removing the color information and the brightness information are displayed through the display unit 530 according to the control signal of the main controller 400, and at the same time the user It outputs a message requesting the position correction to inform the target document 260 or the position correction of the automatic text recognition device of the present invention to enable accurate character recognition. Therefore, the user can recapture the video image of the target document based on the position correction information of the text automatic recognition device of the present invention by the guide message of the display unit.

주제어부(400)의 제어신호에 의하여 영상처리부(250)에서 출력되는 영상변환처리된 영상데이터를 문자자동인식부(300)로 입력되면 문자자동인식부(300)는 입력 된 영상데이터 정보를 인식하여 사용자가 검색하고자 하는 정보인 문자데이터 정보만을 인식하여 전자사전부(500)로 출력한다. 전자사전부(500)는 입력된 문자데이터 정보를 주제어부(400)의 제어신호에 의하여 문자데이터에 해당되는 단어를 사전 DB부(520)에서 검색하여 표시부(530)로 사용자가 볼 수 있도록 표시한다.When the image conversion processed image data output from the image processing unit 250 is input to the character automatic recognition unit 300 according to the control signal of the main control unit 400, the text automatic recognition unit 300 recognizes the input image data information. It recognizes only the text data information that is information that the user wants to search and outputs it to the electronic dictionary 500. The electronic dictionary 500 searches for the word corresponding to the character data in the dictionary DB unit 520 by the control signal of the main control unit 400 and inputs the character data information to the display unit 530 for the user to see. do.

도 4는 본 발명의 일실시에에 따른 문자자동인식방법을 나타낸 흐름도이다.4 is a flowchart illustrating an automatic character recognition method according to an embodiment of the present invention.

도 4를 참조하면, 문자데이터를 자동으로 인식하기 위한 행위인식부(210)와 영상처리부(250)와 문자자동인식부(300) 및 주제어부(400)와 문자데이터에 해당되는 단어를 검색하는 전자사전부(500)로 이루어진 문자자동인식장치를 이용한 대상문서를 자동으로 인식하는 문자자동인식방법은 다음과 같다.Referring to FIG. 4, an action recognition unit 210, an image processing unit 250, an automatic text recognition unit 300, a main control unit 400, and a word corresponding to text data are automatically searched to automatically recognize text data. The automatic character recognition method for automatically recognizing the target document using the automatic character recognition device consisting of the electronic dictionary 500 is as follows.

행위인식부(210)의 광을 주사하는 발광부(221)로부터 대상문서(260)에 주사되어 대상문서(260)로부터 반사된 광을 수광부(222)에서 검출한다(S101). In operation S101, the light receiving unit 222 detects the light reflected from the target document 260 by the light emitting unit 221 scanning the light of the behavior recognition unit 210 and reflected from the target document 260.

검출된 광의 세기를 처리하여 근접거리판단부(230)에서 상대적인 거리를 인식하여 비교한다(S102). The relative distance is detected by the proximity determining unit 230 by processing the detected light intensity (S102).

인식 비교된 거리로부터 대상문서가 근접거리인가를 판단하여 근접거리가 아닌 경우에는 상기 (S101)단계를 수행한다(S103). If it is determined that the target document is a proximity distance from the recognized compared distance, if it is not the proximity distance, step S101 is performed (S103).

상기 (S103)단계에서 근접거리인 경우에는 행위인식부(210)의 상대적인 움직임을 판단하는 광패턴판단부(240)가 검출된 광패턴의 X, Y의 좌표값을 감지한다(S104). When the distance is close in step S103, the light pattern determination unit 240 that determines the relative movement of the behavior recognition unit 210 detects coordinate values of X and Y of the detected light pattern (S104).

감지된 좌표값에 의한 광패턴의 변화값으로부터 대상문서가 움직이는가를 판단하고, 움직임이 있는 경우에는 상기 (S101)단계를 수행한다(S105). It is determined whether the target document is moved from the change value of the light pattern by the detected coordinate value, and if there is a movement (S101), the process is performed (S105).

상기 (S105)단계에서 움직임이 없는 경우에는, 행위인식부(210)로부터의 검출된 신호를 인가받아 영상처리부(250)에서 대상문서(260)의 영상이미지를 캡쳐하고, 캡쳐된 영상이미지를 영상데이터로 변환하여 처리한다(S106). If there is no motion in the step (S105), by receiving the detected signal from the behavior recognition unit 210, the image processing unit 250 captures the image image of the target document 260, the captured image image The data is converted into data and processed (S106).

또한, 바람직하게는 상기 (S106)단계에서 영상데이터로 변환하는 과정은 영상이미지의 컬러정보를 제거하고 밝기정보를 2단계로 변환하여 처리함으로서 이루어진다. 즉, 컬러정보를 제거하고 밝기정보를 흑백의 2단계로 변환하여 처리한다. 이와 같은 영상데이터의 간편화를 위한 (S106)단계와 같은 영상데이터 변환처리과정은 문자데이터의 존재 유무를 판단하는 과정에 대한 계산량을 줄이고 정확한 처리를 위한 것이며, 또한 전체적인 영상데이터의 용량을 줄임으로써 문자인식율의 개선과 빠른 처리를 확보할 수 있기 때문이다. 실제로 문자데이터의 존재 유무를 판단하는 과정은 컬러정보 및 자세한 밝기정보는 필요로 하지 않기 때문에 문자인식율의 정확도는 향상되며, 동시에 빠른 처리를 수행할 수 있다.Preferably, the step of converting the image data into the image data in step S106 is performed by removing color information of the image image and converting the brightness information into two stages. That is, color information is removed and brightness information is converted into two stages of black and white for processing. The image data conversion processing process such as the step (S106) for simplifying the image data is to reduce the amount of calculation for the process of determining the presence or absence of the text data and to accurately process the text data by reducing the overall volume of the image data. This is because the recognition rate can be improved and fast processing can be secured. In fact, since the process of determining the presence or absence of character data does not require color information and detailed brightness information, the accuracy of character recognition rate is improved, and at the same time, fast processing can be performed.

상기 (S106)단계에서 처리된 영상데이터의 배열 상태의 평균 각도를 검사한다(S107).The average angle of the arrangement state of the image data processed in the step (S106) is inspected (S107).

상기 (S107)단계의 검사결과 상기 영상데이터가 과도하게 틀어져 있는 경우에는 표시부(530)를 통하여 상기 (S106)단계에서 변환되기 이전의 영상이미지와 영상이미지 패턴의 위치 수정을 요구하는 메시지를 표시하고, 사용자에게 정확한 영상이미지를 캡쳐하여 판독 가능하도록 제어한다(S108).If the image data is excessively distorted as a result of the checking in step S107, the display unit 530 displays a message requesting the position correction of the video image and the image image pattern before being converted in step S106. In operation S108, the user captures an accurate video image and reads it to the user.

즉, 인식하고자 하는 대상문서 위에 올려 놓았을 경우 문자데이터를 포함하는 영상데이터는 좌우로 길게 위치하게 되므로 영상데이터의 배열 상태의 평균 각 도를 검사하여 과도하게 틀어져 있는 경우에는 주제어부(400)의 제어신호에 따라서 표시부(530)를 통하여 컬러정보와 밝기정보를 제거하기 이전의 영상데이터를 표시하고, 동시에 사용자에게 위치 수정을 요구하는 메시지를 출력하여 정확한 문자데이터가 인식 가능하도록 대상문서(260) 및 본 발명의 문자자동인식장치의 위치 수정을 알려준다. 따라서, 사용자는 표시부의 안내 메시지에 의하여 본 발명의 문자자동인식장치의 위치 수정 정보에 기초하여 대상문서의 영상이미지를 다시 캡쳐할 수 있다.  That is, when placed on the target document to be recognized, the image data including the text data is positioned long left and right, so if the average angle of the arrangement state of the image data is excessively distorted, the main control unit 400 The target document 260 displays the image data before removing the color information and the brightness information through the display unit 530 according to the control signal, and simultaneously outputs a message requesting the user to correct the position to recognize the correct text data. And informs the position correction of the automatic character recognition device of the present invention. Therefore, the user can recapture the video image of the target document based on the position correction information of the text automatic recognition device of the present invention by the guide message of the display unit.

상기 (S106)단계에서 처리된 영상데이터가 판독 가능하도록 제어하여 문자데이터가 있는지를 판단한다(S109). The image data processed in step S106 is controlled to be readable to determine whether there is character data (S109).

상기 (S109)단계를 수행한 결과 문자데이터가 없는 경우에, 대상문서에 문자데이터가 없다는 메시지를 표시하고, 상기 (S106)단계로 돌아가 다시 캡쳐된 영상이미지로부터 문자데이터의 존재 유무를 판단한다(S110). If there is no text data as a result of performing step S109, a message indicating that there is no text data is displayed in the target document, and the method returns to step S106 to determine whether text data exists from the captured image image again ( S110).

상기 (S109)단계의 영상데이터 중 문자데이터가 있는 경우에는, 문자자동인식부(300)은 문자데이터를 인식한다(S111). When there is text data among the image data of the step (S109), the text automatic recognition unit 300 recognizes the text data (S111).

상기 인식된 문자데이터는 전자사전부로 입력되어 상기 문자데이터에 해당하는 단어를 상기 전자사전부(500)의 사전 DB부(520)로부터 검색한다(S112).The recognized character data is input to the electronic dictionary to search for a word corresponding to the character data from the dictionary DB unit 520 of the electronic dictionary 500 (S112).

상기 전자사전부(500)의 사전 DB부(520)로부터 검색된 문자데이터에 해당되는 단어는 상기 전자사전부(500)의 표시부(530)에 표시한다(S113). The word corresponding to the character data retrieved from the dictionary DB unit 520 of the electronic dictionary unit 500 is displayed on the display unit 530 of the electronic dictionary unit 500 (S113).

이상 도면과 명세서에서 최적의 실시예들이 개시되었다. 여기서 사용된 특정한 용어는 단지 본 발명을 설명하기 위한 목적에서 사용된 것일 뿐 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것이 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.The best embodiments have been disclosed in the drawings and specification above. The specific terminology used herein is for the purpose of describing the present invention only and is not intended to be limiting of meaning or the scope of the invention as set forth in the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

이상에서 설명한 바와 같이, 본 발명의 문자자동인식장치 및 방법에 의하면, 문자자동인식장치를 검색 단어가 포함되어 있는 대상문서 위에 간단히 올려 놓음으로써 문자데이터가 입력되고, 입력된 문자데이터에 대한 단어를 검색하여 그 결과를 표시하는 과정이 자동적으로 이루어지기 때문에 사용자의 개입을 최소화 할 수 있으며, 전체적인 검색시간을 최소화하여 빠르고 정확한 정보검색이 가능한 것이다.As described above, according to the automatic character recognition apparatus and method of the present invention, the character data is input by simply placing the automatic character recognition apparatus on the target document including the search word, and the word for the input character data is inputted. Since the process of searching and displaying the result is done automatically, the user's intervention can be minimized, and the quick and accurate information search is possible by minimizing the overall search time.

Claims (11)

삭제delete 대상문서를 읽어들여 단어를 검색하기 위한 전자사전부를 구비하고,An electronic dictionary for reading a target document and searching for words; 상기 대상문서에 광을 주사하고, 상기 대상문서로부터 광을 검출하는 광검출부와, 상기 광검출부로부터 검출된 광의 세기를 처리하여, 상기 대상문서와 광검출부간의 상대적인 거리를 인식하므로써 근접거리를 판단하는 근접거리판단부, 및 상기 광검출부로부터 감지된 광패턴에 의하여 상기 대상문서와 광검출부간의 상대적인 움직임을 인식하여 판단하는 광패턴 판단부로 이루어진 행위인식부와, 상기 행위인식부의 판단 결과에 의하여 상기 대상문서의 영상이미지를 판독하여 영상데이터 처리하는 영상처리부를 포함하는 문서자동인식부와;Scanning the light onto the target document, processing the light detector to detect light from the target document, and processing the intensity of the light detected by the light detector to determine the proximity distance by recognizing the relative distance between the target document and the light detector. An action recognition unit comprising a proximity distance determination unit and an optical pattern determination unit that recognizes and determines a relative movement between the target document and the light detection unit by the light pattern detected by the light detection unit, and the target by the determination result of the action recognition unit A document automatic recognition unit including an image processing unit for reading image data of a document and processing image data; 상기 문서자동인식부에서 처리된 영상데이터로부터 문자데이터를 인식하는 문자자동인식부; 및 A text automatic recognition unit for recognizing text data from the image data processed by the document automatic recognition unit; And 상기 행위 인식부로부터의 검출된 신호를 인가받아 상기 영상처리부로 대상문서의 영상이미지를 판독 제어하며, 상기 영상처리부에서 처리된 영상데이터에 포함된 판독 가능한 상기 문자데이터를 인식 가능하도록 제어하여 상기 인식된 문자데이터를 상기 전자사전부로 입력하는 일련의 처리과정을 제어하는 주제어부를 포함하여 이루어지는 것을 특징으로 하는 문자자동인식장치.The image signal of the target document is read and controlled by the image processing unit by receiving the detected signal from the behavior recognition unit, and the recognition is performed by controlling the recognition of the readable text data included in the image data processed by the image processing unit. Automatic character recognition device comprising a main control unit for controlling a series of processes for inputting the text data into the electronic dictionary. 제 2 항에 있어서, 상기 광검출부는 상기 대상문서에 상기 광을 주사하는 발광부; 및The display apparatus of claim 2, wherein the photodetector comprises: a light emitting unit configured to scan the light onto the target document; And 상기 발광부로부터 상기 대상문서에 주사된 광에 의하여 상기 대상문서로부터 반사된 광을 검출하는 수광부로 이루어지는 것을 특징으로 하는 문자자동인식장치.And a light receiving unit for detecting the light reflected from the target document by the light scanned from the light emitting unit to the target document. 제 2 항에 있어서, 상기 근접거리판단부는 상기 광검출부로부터 광의 세기를 인식하는 광인식부; 및 The apparatus of claim 2, wherein the proximity distance determining unit comprises: an optical recognition unit recognizing the intensity of light from the photodetector; And 상기 광인식부로부터 인식된 광의 세기와, 기검출된 광의 세기를 상호 비교하여 상기 상대적인 거리를 인식하는 거리비교부로 이루어지는 것을 특징으로 하는 문자자동인식장치.And a distance comparator for recognizing the relative distance by comparing the intensity of the light recognized by the optical recognition unit with the intensity of the previously detected light. 제 2 항에 있어서, 상기 광패턴 판단부는 상기 검출된 광패턴에 대한 X, Y의 좌표값을 감지하는 X,Y 좌표감지부; 및 The display apparatus of claim 2, wherein the light pattern determination unit comprises: an X and Y coordinate detection unit configured to detect coordinate values of X and Y for the detected light pattern; And 상기 X,Y 좌표감지부에 감지된 좌표값과, 기검출된 광패턴의 좌표값을 상호 비교하고, 상기 비교로부터의 광패턴에 대한 변화값에 의하여 상기 상대적인 움직임을 인식하는 광패턴비교부로 이루어지는 것을 특징으로 하는 문자자동인식장치.And a light pattern comparing unit which compares the coordinate values sensed by the X and Y coordinate detecting units with the coordinate values of the previously detected light patterns, and recognizes the relative movement based on the change values for the light patterns from the comparison. Character automatic recognition device, characterized in that. 제 2 항 내지 제 5 항 중 어느 한 항에 있어서, The method according to any one of claims 2 to 5, 상기 영상처리부는 상기 대상문서의 영상이미지를 캡쳐하는 캡쳐부; 및The image processing unit includes a capture unit for capturing a video image of the target document; And 상기 캡쳐부에서 캡쳐된 상기 영상이미지를 입력받아 디지털 변환처리하는 영상데이터변환부를 포함하여 이루어지는 것을 특징으로 하는 문자자동인식장치.And an image data converter configured to receive the image captured by the capture and digitally convert the image. 제 6 항에 있어서, 상기 전자사전부는 상기 전자사전부의 전원을 온, 오프 및 수동으로 단어를 검색하기 위한 키버튼을 구비한 입력부와; 7. The electronic dictionary of claim 6, wherein the electronic dictionary comprises: an input unit including a key button for turning on, off and manually searching for a word of power of the electronic dictionary; 상기 문자자동인식부에서 입력받은 상기 문자데이터에 해당되는 단어를 포함하여 각종 단어들이 사전으로 저장되어 있는 사전 DB부; 및 A dictionary DB unit for storing various words as a dictionary including a word corresponding to the character data received from the automatic character recognition unit; And 상기 사전 DB부에 저장된 단어를 상기 주제어부로부터의 제어신호에 의하여 검색하고, 검색된 단어를 표시하는 표시부로 이루어지는 것을 특징으로 하는 문자자동인식장치.And a display unit for searching for a word stored in the dictionary DB unit by a control signal from the main control unit, and displaying a searched word. 행위인식부와 영상처리부와 문자자동인식부 및 주제어부로 이루어진 문자자동인식장치를 이용한 대상문서를 자동으로 인식하는 문자자동인식방법에 있어서, In the automatic character recognition method for automatically recognizing the target document using the automatic character recognition device consisting of the behavior recognition unit, the image processing unit, the automatic character recognition unit and the main control unit, 상기 행위인식부의 광을 주사하는 발광부로부터 상기 대상문서에 주사되어 상기 대상문서로부터 반사된 광을 수광부에서 검출하는 제 1 단계와;A first step of detecting, at the light receiving unit, light reflected from the target document by scanning from the light emitting unit scanning the light of the behavior recognition unit; 상기 검출된 광의 세기를 처리하여 근접거리판단부에서 상대적인 거리를 인식하여 비교하는 제 2 단계와;A second step of processing the detected intensity of light and recognizing and comparing a relative distance from the proximity determination unit; 상기 인식 비교된 거리로부터 대상문서가 근접거리인가를 판단하여 근접거리 가 아닌 경우에는 상기 제 1 단계를 수행하는 제 3 단계와;A third step of determining whether a target document is a proximity distance from the recognized compared distance, and performing the first step if it is not a proximity distance; 상기 제 3 단계에서 근접거리인 경우에는 상기 행위인식부의 상대적인 움직임을 판단하는 광패턴판단부가 검출된 광패턴의 X, Y의 좌표값을 검출하는 제 4 단계와;A fourth step of detecting coordinate values of X and Y of the light pattern detected by the light pattern determination unit, which determines the relative movement of the behavior recognition unit when the distance is close in the third step; 상기 감출된 좌표값에 의한 광패턴의 변화값으로부터 대상문서가 움직이는가를 판단하고, 움직임이 있는 경우에는, 상기 제 1 단계를 수행하는 제 5 단계와;A fifth step of determining whether a target document is moving from the change value of the light pattern by the detected coordinate value, and performing the first step if there is a movement; 상기 제 5 단계에서 움직임이 없는 경우에는, 상기 행위인식부로부터의 검출된 신호를 인가받아 상기 영상처리부에서 대상문서의 영상이미지를 캡쳐하고, 캡쳐된 영상이미지를 영상데이터로 변환하여 처리하는 제 6 단계와;In the fifth step, if there is no motion, the image processing unit receives the detected signal from the behavior recognition unit, and the image processing unit captures an image of the target document, and converts the captured image image into image data for processing. Steps; 상기 처리된 영상데이터가 판독 가능하도록 제어하여 문자데이터가 있는지를 판단하는 제 7 단계와;A seventh step of determining whether there is text data by controlling the processed image data to be readable; 상기 영상데이터 중 문자데이터가 있는 경우에는, 상기 문자자동인식부에서 문자데이터를 인식하는 제 8 단계; 및 An eighth step of recognizing text data in the text automatic recognition unit when text data is included in the video data; And 상기 인식된 문자데이터는 상기 전자사전부로 입력되어 상기 문자데이터에 해당하는 단어를 상기 전자사전부의 사전 DB부로부터 검색하여 표시하는 제 9 단계를 포함하여 이루어진 것을 특징으로 하는 문자자동인식방법.And the ninth step of inputting the recognized character data into the electronic dictionary to search for and display a word corresponding to the character data from the dictionary DB of the electronic dictionary. 제 8 항에 있어서, 상기 제 6 단계에서 상기 영상데이터의 변환처리는 상기 영상이미지의 컬러정보를 제거하고, 밝기정보를 흑백의 2단계로 변환하여 처리하는 것을 특징으로 하는 문자자동인식방법.9. The automatic character recognition method according to claim 8, wherein in the sixth step, the conversion process of the image data is performed by removing color information of the image image and converting brightness information into two stages of black and white. 제 8 항 또는 제 9 항에 있어서, 상기 제 7 단계는 상기 제 6 단계에서 처리된 영상데이터의 배열 상태의 평균 각도를 검사하여 과도하게 틀어져 있는 경우에는 표시부에 상기 제 6 단계에서 변환되기 이전의 영상이미지를 표시하고, 영상이미지의 위치 수정을 요구하는 메시지를 표시하며, 사용자에게 정확한 영상이미지를 캡쳐하여 판독 가능하도록 제어하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 문자자동인식방법.10. The method according to claim 8 or 9, wherein the seventh step checks an average angle of the arrangement state of the image data processed in the sixth step and is excessively distorted before the conversion to the display unit in the sixth step. And displaying a video image, displaying a message requesting the position of the video image to be corrected, and controlling the user to capture and read the correct video image. 제 10 항에 있어서, 상기 제 8 단계는 상기 문자데이터가 없는 경우에, 상기 대상문서에 문자데이터가 없다는 메시지를 표시하고, 상기 제 6 단계로 돌아가 문자데이터의 존재 유무를 판단하는 단계를 더 포함하여 이루어진 것을 특징으로 하는 문자자동인식방법.11. The method of claim 10, wherein the eighth step further comprises the step of displaying a message that there is no text data in the target document when there is no text data and returning to the sixth step to determine whether text data exists. Character automatic recognition method characterized in that made.
KR1020050023028A 2005-03-21 2005-03-21 Apparatus and method for automatic recognition of character KR100741368B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050023028A KR100741368B1 (en) 2005-03-21 2005-03-21 Apparatus and method for automatic recognition of character

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050023028A KR100741368B1 (en) 2005-03-21 2005-03-21 Apparatus and method for automatic recognition of character

Publications (2)

Publication Number Publication Date
KR20060101579A KR20060101579A (en) 2006-09-26
KR100741368B1 true KR100741368B1 (en) 2007-07-20

Family

ID=37632608

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050023028A KR100741368B1 (en) 2005-03-21 2005-03-21 Apparatus and method for automatic recognition of character

Country Status (1)

Country Link
KR (1) KR100741368B1 (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010096191A3 (en) * 2009-02-18 2010-11-18 Exbiblio B.V. Automatically capturing information, such as capturing information using a document-aware device
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US8005720B2 (en) 2004-02-15 2011-08-23 Google Inc. Applying scanned information to identify content
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US8179563B2 (en) 2004-08-23 2012-05-15 Google Inc. Portable scanning device
US8261094B2 (en) 2004-04-19 2012-09-04 Google Inc. Secure data gathering from rendered documents
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US8447111B2 (en) 2004-04-01 2013-05-21 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8600196B2 (en) 2006-09-08 2013-12-03 Google Inc. Optical scanners, such as hand-held optical scanners
US8620760B2 (en) 2004-04-01 2013-12-31 Google Inc. Methods and systems for initiating application processes by data capture from rendered documents
US8621349B2 (en) 2004-04-01 2013-12-31 Google Inc. Publishing techniques for adding value to a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8619147B2 (en) 2004-02-15 2013-12-31 Google Inc. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8793162B2 (en) 2004-04-01 2014-07-29 Google Inc. Adding information or functionality to a rendered document via association with an electronic counterpart
US8799303B2 (en) 2004-02-15 2014-08-05 Google Inc. Establishing an interactive environment for rendered documents
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8903759B2 (en) 2004-12-03 2014-12-02 Google Inc. Determining actions involving captured information and electronic content associated with rendered documents
US8990235B2 (en) 2009-03-12 2015-03-24 Google Inc. Automatically providing content associated with captured information, such as information captured in real-time
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US9268852B2 (en) 2004-02-15 2016-02-23 Google Inc. Search engines and systems with handheld document data capture devices
US9275051B2 (en) 2004-07-19 2016-03-01 Google Inc. Automatic modification of web pages
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
US9454764B2 (en) 2004-04-01 2016-09-27 Google Inc. Contextual dynamic advertising based upon captured rendered text
WO2019059503A1 (en) * 2017-09-25 2019-03-28 이준택 Image capture for character recognition
US10769431B2 (en) 2004-09-27 2020-09-08 Google Llc Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102348071B1 (en) * 2019-12-19 2022-01-06 주식회사 위벨롭 Method and system for evaluating technical correlation of patent literature for tender examination

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366684A (en) 1986-09-08 1988-03-25 Toyota Autom Loom Works Ltd Recognizing device for carved character
JPH0351960A (en) * 1989-07-19 1991-03-06 Seiko Epson Corp Pocket electronic dictionary
JPH0354408A (en) * 1989-07-24 1991-03-08 Seiko Epson Corp Encoder, image input device and character recognizing device
JPH06139277A (en) * 1992-10-26 1994-05-20 Seiko Epson Corp Electronic dictionary device
JPH0816713A (en) * 1994-06-27 1996-01-19 Fujitsu Ltd Character recognizing system
JPH11143988A (en) 1997-11-10 1999-05-28 Nippon Telegr & Teleph Corp <Ntt> Character recognition device
US6148119A (en) 1995-02-01 2000-11-14 Canon Kabushiki Kaisha Character recognition in input images divided into areas
US6272238B1 (en) 1992-12-28 2001-08-07 Canon Kabushiki Kaisha Character recognizing method and apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366684A (en) 1986-09-08 1988-03-25 Toyota Autom Loom Works Ltd Recognizing device for carved character
JPH0351960A (en) * 1989-07-19 1991-03-06 Seiko Epson Corp Pocket electronic dictionary
JPH0354408A (en) * 1989-07-24 1991-03-08 Seiko Epson Corp Encoder, image input device and character recognizing device
JPH06139277A (en) * 1992-10-26 1994-05-20 Seiko Epson Corp Electronic dictionary device
US6272238B1 (en) 1992-12-28 2001-08-07 Canon Kabushiki Kaisha Character recognizing method and apparatus
JPH0816713A (en) * 1994-06-27 1996-01-19 Fujitsu Ltd Character recognizing system
US6148119A (en) 1995-02-01 2000-11-14 Canon Kabushiki Kaisha Character recognition in input images divided into areas
JPH11143988A (en) 1997-11-10 1999-05-28 Nippon Telegr & Teleph Corp <Ntt> Character recognition device

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US9268852B2 (en) 2004-02-15 2016-02-23 Google Inc. Search engines and systems with handheld document data capture devices
US8005720B2 (en) 2004-02-15 2011-08-23 Google Inc. Applying scanned information to identify content
US8019648B2 (en) 2004-02-15 2011-09-13 Google Inc. Search engines and systems with handheld document data capture devices
US8831365B2 (en) 2004-02-15 2014-09-09 Google Inc. Capturing text from rendered documents using supplement information
US8799303B2 (en) 2004-02-15 2014-08-05 Google Inc. Establishing an interactive environment for rendered documents
US8619147B2 (en) 2004-02-15 2013-12-31 Google Inc. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8515816B2 (en) 2004-02-15 2013-08-20 Google Inc. Aggregate analysis of text captures performed by multiple users from rendered documents
US8214387B2 (en) 2004-02-15 2012-07-03 Google Inc. Document enhancement system and method
US8447144B2 (en) 2004-02-15 2013-05-21 Google Inc. Data capture from rendered documents using handheld device
US8621349B2 (en) 2004-04-01 2013-12-31 Google Inc. Publishing techniques for adding value to a rendered document
US8793162B2 (en) 2004-04-01 2014-07-29 Google Inc. Adding information or functionality to a rendered document via association with an electronic counterpart
US9454764B2 (en) 2004-04-01 2016-09-27 Google Inc. Contextual dynamic advertising based upon captured rendered text
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US8447111B2 (en) 2004-04-01 2013-05-21 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8505090B2 (en) 2004-04-01 2013-08-06 Google Inc. Archive of text captures from rendered documents
US9514134B2 (en) 2004-04-01 2016-12-06 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9633013B2 (en) 2004-04-01 2017-04-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8620760B2 (en) 2004-04-01 2013-12-31 Google Inc. Methods and systems for initiating application processes by data capture from rendered documents
US8781228B2 (en) 2004-04-01 2014-07-15 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8619287B2 (en) 2004-04-01 2013-12-31 Google Inc. System and method for information gathering utilizing form identifiers
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US9030699B2 (en) 2004-04-19 2015-05-12 Google Inc. Association of a portable scanner with input/output and storage devices
US8261094B2 (en) 2004-04-19 2012-09-04 Google Inc. Secure data gathering from rendered documents
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8799099B2 (en) 2004-05-17 2014-08-05 Google Inc. Processing techniques for text capture from a rendered document
US9275051B2 (en) 2004-07-19 2016-03-01 Google Inc. Automatic modification of web pages
US8179563B2 (en) 2004-08-23 2012-05-15 Google Inc. Portable scanning device
US10769431B2 (en) 2004-09-27 2020-09-08 Google Llc Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8903759B2 (en) 2004-12-03 2014-12-02 Google Inc. Determining actions involving captured information and electronic content associated with rendered documents
US8953886B2 (en) 2004-12-03 2015-02-10 Google Inc. Method and system for character recognition
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US8600196B2 (en) 2006-09-08 2013-12-03 Google Inc. Optical scanners, such as hand-held optical scanners
CN102369724B (en) * 2009-02-18 2016-05-04 谷歌公司 Automatically capturing information, for example, use document awareness apparatus capturing information
US8638363B2 (en) 2009-02-18 2014-01-28 Google Inc. Automatically capturing information, such as capturing information using a document-aware device
US8418055B2 (en) 2009-02-18 2013-04-09 Google Inc. Identifying a document by performing spectral analysis on the contents of the document
CN102369724A (en) * 2009-02-18 2012-03-07 谷歌公司 Automatically capturing information, such as capturing information using a document-aware device
WO2010096191A3 (en) * 2009-02-18 2010-11-18 Exbiblio B.V. Automatically capturing information, such as capturing information using a document-aware device
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US9075779B2 (en) 2009-03-12 2015-07-07 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US8990235B2 (en) 2009-03-12 2015-03-24 Google Inc. Automatically providing content associated with captured information, such as information captured in real-time
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
WO2019059503A1 (en) * 2017-09-25 2019-03-28 이준택 Image capture for character recognition

Also Published As

Publication number Publication date
KR20060101579A (en) 2006-09-26

Similar Documents

Publication Publication Date Title
KR100741368B1 (en) Apparatus and method for automatic recognition of character
US7313255B2 (en) System and method for optically detecting a click event
KR101015663B1 (en) Method for recognizing character and apparatus therefor
WO2001026035A2 (en) Triggerless optical reader with signal enhancement features
US8035722B2 (en) System and method for calculating dimensions of object during image capture of object for use in imaging device
US7679605B2 (en) Optical mouse with barcode reading function
US9430691B2 (en) Fingerprint reading system
KR20170061631A (en) Method and device for region identification
JP2004318890A (en) Image inputting system and device for combining finger recognition and finger navigation
KR102236616B1 (en) Information processing apparatus, control method thereof, and storage medium
US5760412A (en) Method and apparatus for sensing the presence of a line of data from a document on a transparent surface
KR101015740B1 (en) Character recognition method and apparatus
CN108572734A (en) A kind of gestural control system based on infrared laser associated image
US6233363B1 (en) Image reading apparatus for a document placed face up having a function of erasing finger area images
EP3370403B1 (en) Reading device and mobile terminal
EP2793458B1 (en) Apparatus and method for auto-focusing in device having camera
KR100869144B1 (en) Apparatus for sensing scrolling of subject and Method thereof
US20210063850A1 (en) Imaging device, method for controlling imaging device, and system including imaging device
JP2547621B2 (en) Image region detection method and apparatus for image processing apparatus
KR100829142B1 (en) Apparatus for sensing moving of subject and method thereof
US8422785B2 (en) Image processing apparatus, image processing method, and program
JP4793459B2 (en) Symbol reader and program
KR102321359B1 (en) Portable terminal and vr viewer system for controlling virtual reality content based on hand shape and illumination sensor
CN104751103A (en) Finger fingerprint reading system and fingerprint reading method
US20100002274A1 (en) Independent scanning apparatus and independent scanning method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20130628

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140630

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160705

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee