KR100741368B1 - Apparatus and method for automatic recognition of character - Google Patents
Apparatus and method for automatic recognition of character Download PDFInfo
- Publication number
- KR100741368B1 KR100741368B1 KR1020050023028A KR20050023028A KR100741368B1 KR 100741368 B1 KR100741368 B1 KR 100741368B1 KR 1020050023028 A KR1020050023028 A KR 1020050023028A KR 20050023028 A KR20050023028 A KR 20050023028A KR 100741368 B1 KR100741368 B1 KR 100741368B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- light
- image
- target document
- automatic
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H39/00—Devices for locating or stimulating specific reflex points of the body for physical therapy, e.g. acupuncture
- A61H39/08—Devices for applying needles to such points, i.e. for acupuncture ; Acupuncture needles or accessories therefor
- A61H39/086—Acupuncture needles
Abstract
본 발명은 사용자가 검색을 원하는 단어의 입력 단계에서 사용자의 개입을 최소화 할 수 있는 자동인식 입력기술을 이용하여 전체적인 검색시간을 줄이므로써, 빠르고 정확한 정보 검색이 가능한 문자자동인식장치 및 방법에 관한 것이다. The present invention relates to an automatic character recognition apparatus and method capable of fast and accurate information retrieval by reducing the overall search time by using an automatic recognition input technology that can minimize the user's intervention in the input step of the word that the user wants to search. will be.
본 발명의 문자자동인식장치는 대상문서를 읽어들여 단어를 검색하기 위한 전자사전부를 구비하고, 대상문서를 읽어들이기 위하여 상대적인 거리 및 움직임을 인식하여 판단하는 행위인식부와 행위인식부의 판단 결과에 의하여 대상문서의 영상이미지를 판독하여 처리하는 영상처리부를 포함하는 문서자동인식부와, 문서자동인식부에서 처리된 영상데이터로부터 문자데이터를 인식하는 문자자동인식부와 행위인식부로부터의 검출된 신호를 인가받아 영상처리부로 대상문서의 영상이미지를 판독 제어하며, 영상처리부에서 처리된 영상데이터에 포함된 판독 가능한 문자데이터를 인식 가능하도록 제어하여 인식된 문자데이터를 전자사전부로 입력하는 일련의 처리과정을 제어하는 주제어부를 포함하여 이루어진다. The automatic character recognition device of the present invention includes an electronic dictionary for reading a target document and searching for a word, and based on the determination result of the behavior recognition unit and the behavior recognition unit for recognizing and determining the relative distance and movement to read the target document. A document automatic recognition unit including an image processing unit for reading and processing an image image of a target document, a character automatic recognition unit for recognizing character data from image data processed by the document automatic recognition unit, and a detected signal from the action recognition unit. The image processing of the target document is read and controlled by the image processing unit, and the control unit is configured to recognize the readable text data included in the image data processed by the image processing unit and inputs the recognized text data to the electronic dictionary. It includes a controlling main control part.
따라서, 본 발명에 따르면 검색 단어가 포함되어 있는 대상문서 위에 문자자동인식장치를 간단히 올려 놓음으로써 문자데이터가 입력되고, 입력된 문자데이터에 해당되는 단어를 검색하여 그 결과를 표시하는 과정이 자동적으로 이루어지기 때문에 사용자의 개입을 최소화 할 수 있으며, 전체적인 검색시간을 최소화하여 빠르고 정확한 정보검색이 가능한 것이다.Therefore, according to the present invention, the text data is input by simply placing the text recognition device on the target document including the search word, and the process of searching for a word corresponding to the input text data and displaying the result is automatically performed. It is possible to minimize the user's involvement, and it is possible to search the information quickly by minimizing the overall search time.
Description
도 1은 종래기술에 따른 전자사전 내부 구성블럭도 1 is an internal configuration block diagram of the electronic dictionary according to the prior art
도 2는 본 발명의 바람직한 일실시예에 따른 문자자동인식장치의 블럭도. Figure 2 is a block diagram of the automatic character recognition device according to an embodiment of the present invention.
도 3은 본 발명의 도 2에 따른 문자자동인식장치의 일부 사시도. Figure 3 is a partial perspective view of the automatic character recognition device according to Figure 2 of the present invention.
도 4는 본 발명의 일실시예에 따른 문자자동인식방법을 나타낸 흐름도. Figure 4 is a flow chart illustrating a character automatic recognition method according to an embodiment of the present invention.
*** 도면 주요 부분의 부호의 설명 *** *** Explanation of symbols of the main parts of the drawing ***
10 : 키입력장치 20 : 사전 DB 10: key input device 20: dictionary DB
30 : 출력장치 40 : 전자사전 제어부 30: output device 40: electronic dictionary control unit
50 : 전자사전 50: electronic dictionary
200 : 문서자동인식부 210 : 행위인식부200: automatic document recognition unit 210: behavior recognition unit
220 : 광검출부 221 : 발광부 220: light detection unit 221: light emitting unit
222 : 수광부 230 : 근접거리 판단부222: light receiver 230: proximity distance determination unit
231 : 광인식부 232 : 거리비교부231: optical recognition unit 232: distance comparison unit
240 : 광패턴판단부 241 : X,Y좌표 감지부 240: optical pattern determination unit 241: X, Y coordinate detection unit
242 : 광패턴비교부 250 : 영상처리부242: light pattern comparison unit 250: image processing unit
251 : 캡쳐부 252 : 영상데이터변환부251: capture unit 252: image data conversion unit
260 : 대상문서 300 : 문자자동인식부260: the target document 300: automatic text recognition unit
400 : 주제어부 500 : 전자사전부400: subject control 500: electronic dictionary
510 : 입력부 520 : 사전 DB부510: input unit 520: dictionary DB unit
530 : 표시부 530: display unit
본 발명은 사용자가 검색을 원하는 단어의 입력 단계에서 사용자의 개입을 최소화 할 수 있는 자동인식 입력기술을 이용해 전체적인 검색시간을 최소화하여 빠르고 정확한 정보검색이 가능한 문자자동인식장치에 관한 것이다. The present invention relates to a text automatic recognition device capable of fast and accurate information search by minimizing the overall search time by using the automatic recognition input technology that can minimize the user's intervention in the input step of the word that the user wants to search.
반도체 메모리 기술이 발달하지 못하였던 종래에는 사전에 담겨있는 방대한 양의 단어들을 저장하기가 어려웠으며 일일이 사전의 폐이지를 넘기며 단어를 찾아야 했다. In the past, when semiconductor memory technology was not developed, it was difficult to store a large amount of words contained in a dictionary, and the words had to be found by handing over the dictionaries of the dictionary.
그러나, 반도체 메모리 기술이 급속도로 발전함에 따라 거대한 용량을 저장할 수 있는 반도체 메모리가 개발됨으로써 방대한 양의 단어를 저장할 수 있는 전자사전이 개발되었다, However, with the rapid development of semiconductor memory technology, an electronic dictionary capable of storing a large amount of words has been developed by developing a semiconductor memory capable of storing huge capacity.
도 1은 종래에 사용되는 전자사전의 구성도이다. 도 1을 참조하면, 전자사전(50)의 내부에는 검색된 전자사전의 데이터를 출력하는 출력장치(30)와, 입력된 단어에 맞는 정보를 제공하기 위한 사전 DB(20)와, 사용자가 검색할 단어를 입력하는 키입력장치(10)와, 상기한 장치들을 전반적으로 제어하는 전자사전 제어부(40)를 포함하여 이루어진다.1 is a block diagram of a conventional electronic dictionary. Referring to FIG. 1, an
사용자는 상기 키입력장치(10)를 통해서 자신이 알고 싶은 단어를 전자사전(50)에 입력을 하면, 전자사전 제어부(40)에서의 제어신호에 의하여 전자사전(50)은 사전 DB(20)로부터 입력된 단어에 해당되는 데이터를 검색하여 출력장치(30)를 통해 검색된 내용을 출력하여 사용자가 알 수 있도록 한다.When the user inputs a word he wants to know in the
상기한 바와 같이 종래의 전자사전(50)은 사용자가 단어를 입력했을 때 해당 단어를 검색하여 출력장치(30)를 통하여 검색 결과를 알려주고 있다. 이러한 전자사전은 사용자가 찾고자 하는 단어에 대하여 일일히 버튼을 통하여 입력하고 검색하기에는 한계가 있으며, 입력기능이 제한적으로 구현되기 때문에 즉, 사용자가 수동적으로 키입력장치의 키버튼을 통하여 검색하고자하는 단어를 일일히 입력해야만 하기 때문에 버튼 조작의 불편함과 또한 단어를 입력하여 결과가 나타나기 까지의 시간이 소요된다는 문제점이 있다. As described above, the conventional
따라서 본 발명은, 이상에서 설명한 문제점을 해결하기 위하여 안출된 것으로써, 사용자가 검색을 원하는 단어의 입력 단계에서 사용자의 개입을 최소화 할 수 있는 자동인식 입력기술을 이용해 전체적인 검색시간을 최소화 하여 빠르고 정확한 정보 검색이 가능한 문자자동인식장치을 제공하는데 그 목적이 있다.Therefore, the present invention is to solve the problems described above, by using the automatic recognition input technology that can minimize the user's intervention in the input step of the word you want to search by minimizing the overall search time fast and accurate An object of the present invention is to provide an automatic character recognition device capable of searching information.
상기한 기술적 과제를 해결하기 위하여 안출된 본 발명에 따른 문자자동인식장치는, 대상문서를 읽어들여 단어를 검색하기 위한 전자사전부를 구비하고, 상기 대상문서를 읽어들이기 위하여 상대적인 거리 및 움직임을 인식하여 판단하는 행위인식부와 상기 행위인식부의 판단 결과에 의하여 상기 대상문서의 영상이미지를 판독하여 영상데이터로 처리하는 영상처리부를 포함하는 문서자동인식부와; 상기 문서자동인식부에서 처리된 영상데이터로부터 문자데이터를 인식하는 문자자동인식 부; 및 상기 행위 인식부로부터의 검출된 신호를 인가받아 상기 영상처리부로 대상문서의 영상이미지를 판독 제어하며 상기 영상처리부에서 처리된 영상데이터에 포함된 판독 가능한 상기 문자데이터를 인식 가능하도록 제어하여 상기 인식된 문자데이터를 상기 전자사전부로 입력하는 일련의 처리과정을 제어하는 주제어부를 포함하여 이루어지는 것을 특징으로 한다.In order to solve the above technical problem, the automatic character recognition device according to the present invention includes an electronic dictionary for searching a word by reading a target document, and recognizes a relative distance and a movement to read the target document. A document automatic recognition unit including an image recognition unit which reads an image image of the target document and processes the image image based on the determination result of the action recognition unit and the determination result of the action recognition unit; A text automatic recognition unit for recognizing text data from the image data processed by the document automatic recognition unit; And reading and controlling the image image of the target document by receiving the detected signal from the behavior recognition unit and controlling the readable text data included in the image data processed by the image processing unit to be able to recognize the recognition. Characterized in that it comprises a main control unit for controlling a series of processes for inputting the text data into the electronic dictionary.
본 발명의 다른 특징에 따르면, 상기 행위인식부는 상기 대상문서에 광을 주사하고, 상기 대상문서로부터 광을 검출하는 광검출부와; 상기 광검출부로부터 검출된 광의 세기를 처리하여, 상기 상대적인 거리를 인식하므로써 근접거리를 판단하는 근접거리판단부; 및 상기 감지된 광의 광패턴에 의하여 상기 상대적인 움직임을 인식하여 판단하는 광패턴 판단부를 포함하여 이루어지는 것을 특징으로 한다.According to another feature of the invention, the action recognition unit for scanning the light to the target document, the light detecting unit for detecting the light from the target document; A proximity distance determining unit which processes the intensity of light detected by the light detector and determines a proximity distance by recognizing the relative distance; And an optical pattern determination unit for recognizing and determining the relative movement based on the detected optical pattern of the light.
본 발명의 다른 특징에 따르면, 상기 광검출부는 상기 대상문서에 상기 광을 주사하는 발광부; 및 상기 발광부로부터 상기 대상문서에 주사된 광에 의하여 상기 대상문서로부터 반사된 광을 검출하는 수광부로 이루어지는 것을 특징으로 한다.According to another feature of the invention, the light detection unit for emitting the light to the target document; And a light receiving unit that detects light reflected from the target document by light scanned from the light emitting unit to the target document.
본 발명의 다른 특징에 따르면, 상기 근접거리판단부는 상기 광검출부로부터 광의 세기를 인식하는 광인식부; 및 상기 광인식부로부터 인식된 광의 세기와, 기검출된 광의 세기를 상호 비교하여 상기 상대적인 거리를 인식하는 거리비교부로 이루어지는 것을 특징으로 한다.According to another feature of the invention, the proximity distance determining unit includes a light recognition unit for recognizing the intensity of light from the light detection unit; And a distance comparison unit that recognizes the relative distance by comparing the intensity of light recognized by the light recognition unit with the intensity of light previously detected.
본 발명의 다른 특징에 따르면, 상기 광패턴 판단부는 상기 검출된 광패턴에 대한 X, Y의 좌표값을 감지하는 X,Y 좌표감지부; 및 상기 X,Y 좌표감지부에 감지된 좌표값과, 기검출된 광패턴의 좌표값을 상호 비교하고, 상기 비교로부터의 광패 턴에 대한 변화값에 의하여 상기 상대적인 움직임을 인식하는 광패턴비교부로 이루어지는 것을 특징으로 한다.According to another feature of the invention, the light pattern determination unit X, Y coordinate detection unit for detecting the coordinate value of the X, Y for the detected light pattern; And an optical pattern comparison unit which compares the coordinate values sensed by the X and Y coordinate detection units with the coordinate values of the previously detected optical patterns, and recognizes the relative movement by a change value for the optical pattern from the comparison. Characterized in that made.
본 발명의 다른 특징에 따르면, 상기 영상처리부는 상기 대상문서의 영상이미지를 캡쳐하는 캡쳐부; 및 상기 캡쳐부에서 캡쳐된 상기 영상이미지를 입력받아 디지털 변환처리하는 영상데이터변환부를 포함하여 이루어지는 것을 특징으로 한다.According to another feature of the invention, the image processing unit includes a capture unit for capturing an image of the target document; And an image data converter configured to receive the image captured by the capture and digitally convert the image.
본 발명의 다른 특징에 따르면, 상기 전자사전부는 상기 전자사전부의 전원을 온, 오프 및 수동으로 단어를 검색하기 위한 키버튼을 구비한 입력부와; 상기 문자자동인식부에서 입력받은 상기 문자데이터에 해당되는 단어가 저장되어 있는 사전 DB부; 및 상기 사전 DB부에 저장된 단어를 상기 주제어부로부터의 제어신호에 의하여 검색하고, 검색된 단어를 출력하는 출력부로 이루어지는 것을 특징으로 한다.According to another feature of the invention, the electronic dictionary comprises an input unit having a key button for turning on, off and manually search for a word of the electronic dictionary; Dictionary DB unit for storing the word corresponding to the character data received from the automatic character recognition unit; And an output unit for searching for a word stored in the dictionary DB unit by a control signal from the main control unit and outputting the searched word.
본 발명의 다른 관점에 따른 문자자동인식방법은, 행위인식부와 영상처리부와 문자자동인식부 및 주제어부로 이루어진 문자자동인식장치를 이용한 대상문서를 자동으로 인식하는 문자 자동인식방법에 있어서, 상기 행위인식부의 광을 주사하는 발광부로부터 상기 대상문서에 주사되어 상기 대상문서로부터 반사된 광을 수광부에서 검출하는 제 1 단계와; 상기 검출된 광의 세기를 처리하여 근접거리판단부에서 상대적인 거리를 인식하는 제 2 단계와; 상기 인식된 거리로부터 대상문서가 근접거리인가를 판단하여 근접거리가 아닌 경우에는 상기 제 1 단계를 수행하는 제 3 단계와; 상기 제 3 단계에서 근접거리인 경우에는 상기 행위인식부의 상대적인 움 직임을 판단하는 광패턴판단부가 검출된 광패턴의 X, Y의 좌표값을 감지하는 제 4 단계와; 상기 감지된 좌표값에 의한 광패턴의 변화값으로부터 대상문서가 움직이는가를 판단하고, 움직임이 있는 경우에는, 상기 제 1 단계를 수행하는 제 5 단계와; 상기 제 5 단계에서 움직임이 없는 경우에는, 상기 행위인식부로부터의 검출된 신호를 인가받아 상기 영상처리부에서 대상문서의 영상이미지를 촬영하고, 촬영된 영상이미지를 영상데이터로 변환하여 처리하는 제 6 단계와; 상기 처리된 영상데이터가 판독 가능하도록 제어하여 문자데이터가 있는지를 판단하는 제 7 단계와; 상기 영상데이터 중 문자가 있는 경우에는, 상기 문자자동인식부에서 문자데이터를 인식하는 제 8 단계; 및 상기 인식된 문자데이터를 검색하는 전자사전부로 입력하여 상기 전자데이터에 해당하는 단어를 상기 전자사전부의 사전 DB로부터 검색하여 표시하는 제 9 단계를 포함하여 이루어진 것을 특징으로 한다.In the automatic character recognition method according to another aspect of the present invention, in the automatic character recognition method for automatically recognizing the target document using the automatic character recognition device consisting of the behavior recognition unit, the image processing unit, the character automatic recognition unit and the main control unit, A first step of detecting, at the light receiving unit, light that is scanned from the light emitting unit scanning the light of the recognition unit and reflected from the target document; A second step of recognizing a relative distance from the proximity determination unit by processing the detected intensity of light; A third step of determining whether a target document is a proximity distance from the recognized distance and performing the first step if it is not a proximity distance; A fourth step of detecting coordinate values of X and Y of the detected light pattern when the light pattern determination unit determines the relative movement of the behavior recognition unit in the case of the proximity distance in the third step; A fifth step of determining whether a target document is moving from the change value of the light pattern by the detected coordinate value, and performing the first step if there is a movement; In the fifth step, if there is no motion, the image processing unit receives the detected signal from the action recognition unit, and the image processing unit photographs the image of the target document, and converts the captured image image into image data for processing. Steps; A seventh step of determining whether there is text data by controlling the processed image data to be readable; An eighth step of recognizing the character data in the character automatic recognition unit when there is a character among the image data; And a ninth step of inputting the recognized character data into an electronic dictionary to search for and displaying a word corresponding to the electronic data from a dictionary DB of the electronic dictionary.
본 발명의 다른 특징에 따르면, 상기 제 6 단계에서 상기 영상데이터의 변환처리는 상기 영상데이터의 컬러 정보를 제거하고, 밝기 정보를 흑백의 2단계로 변환하여 처리하는 것을 특징으로 한다.According to another aspect of the present invention, in the sixth step, the conversion process of the image data is characterized by removing color information of the image data, and converting brightness information into two stages of black and white.
본 발명의 다른 특징에 따르면, 상기 제 7 단계는 상기 제 6 단계에서 처리된 영상데이터의 배열 상태의 평균 각도를 검사하여 과도하게 틀어져 있는 경우에는 표시부에 상기 제 6 단계에서 변환되기 이전의 영상데이터와 패턴의 위치 수정을 요구하는 메시지를 표시하고, 사용자에게 정확한 영상이미지를 캡쳐하여 판독 가능하도록 제어하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.According to another feature of the invention, in the seventh step, if the average angle of the arrangement state of the image data processed in the sixth step is excessively distorted, the image data before being converted in the sixth step on the display unit And displaying a message requesting the position of the pattern to be corrected, and controlling the user to capture and read the correct video image.
본 발명의 다른 특징에 따르면, 상기 제 8 단계는 상기 문자데이터가 없는 경우에, 상기 대상문서에 문자데이터가 없다는 메시지를 표시하고, 상기 제 6 단계로 돌아가 문자데이터의 존재 유무를 판단하는 단계를 더 포함하여 이루어진 것을 특징으로 한다.According to another aspect of the present invention, in the eighth step, if there is no text data, displaying the message that there is no text data in the target document, and returning to the sixth step to determine the presence or absence of text data Characterized in that further comprises.
이하, 본 발명의 바람직한 실시예들을 첨부한 도면들을 참조하여 상세히 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 2는 본 발명의 바람직한 실시예에 따른 문자자동인식장치의 블럭도이다.2 is a block diagram of an automatic letter recognition apparatus according to a preferred embodiment of the present invention.
도 2를 참조하면, 문자자동인식장치는 대상문서로부터의 문서데이터를 자동으로 인식하기 위한 문서자동인식부(200)와 자동으로 인식된 문서데이터로부터 문자데이터만을 검출하여 인식하는 문자자동인식부(300)와 문서자동인식부(200)로 인식된 문서데이터를 영상이미지 판독처리 및 제어하며, 처리된 영상데이터에 포함된 문자데이터를 상기 문자자동인식부(300)에서 판독 인식할 수 있도록 제어하며, 문자데이터에 해당되는 단어를 검색하여 표시해주는 전자사전부(500)를 제어하는 주제어부(400)로 구성된다. Referring to FIG. 2, the text automatic recognition device includes a document
본 발명의 특징에 따르면 상기 문서자동인식부(200)는 주사된 광으로부터 근접거리임이 판단되면 대상문서로부터의 영상이미지에 대한 문서데이터를 인식하여 판단하는 행위판단부(210)와 상기 행위판단부로부터의 판단 결과에 기초하여 대상문서의 영상이미지를 판독하여 데이터 처리하는 영상처리부(250)로 이루어진다. 상기 행위판단부(210)은 광을 주사하는 발광부(221)와 대상문서로부터 반사된 광을 검출하는 수광부(222)로 이루어진 광검출부(220)와, 상기 광검출부로 검출된 광의 세기를 처리하여 인식하는 광인식부(231)와 인식된 광의 세기와 기검출된 광의 세 기를 상호 비교하여 근접거리인가를 판단하는 거리비교부(232)로 이루어진 근접거리판단부(230)와, 또한 상기 근접거리판단부의 판단결과에 따라 광검출부로부터 인식된 광패턴에 대한 X,Y 좌표에 대한 좌표값을 감지하는 X,Y 좌표감지부(241)과 감지된 광패턴의 좌표값과 기검출된 광패턴의 좌표값을 상호 비교하여 광패턴의 변화값으로부터 광패턴의 움직임을 인식하여 판단하는 광패턴비교부(242)로 이루어진 광패턴판단부(240)로 구성되어 있다.According to a feature of the present invention, the document
본 발명의 특징에 따르면, 상기 영상처리부(250)는 대상문서의 영상이미지를 캡쳐하는 캡쳐부(251)와, 캡쳐된 영상이미지를 디지털 데이터로 처리하는 영상데이터 변환부로 이루어진다.According to a feature of the present invention, the
본 발명의 특징에 따르면, 상기 전자사전부(500)는 상기 본 발명에 따른 문자자동인식장치의 주 전원을 온, 오프하고 수동으로 단어를 검색하기 위한 키버튼을 구비한 입력부(510)와, 상기 문자자동인식부(300)에서 입력받은 상기 문자데이터에 해당되는 단어를 포함한 각종 단어들이 사전형식으로 저장되어 있는 사전 DB부(520)와, 상기 주제어부(400)의 제어 신호에 따라 상기 문자자동인식부(300)로부터 입력된 문자데이터에 해당되는 단어가 저장되어 있는 사전 DB부(520)를 검색하고, 검색된 단어를 표시하는 표시부(530)로 이루어진다. According to a feature of the invention, the
도 3은 본 발명의 도 2에 따른 문자자동인식장치의 부분 사시도이다.Figure 3 is a partial perspective view of the automatic character recognition device according to Figure 2 of the present invention.
도 3을 참조하면, 본 발명에 따른 문자자동인식장치는, 대상문서(260)에 광을 주사하는 발광부(221)와 광을 검출하는 수광부(222) 및 대상문서의 영상이미지를 캡쳐하는 캡쳐부(251)가 문자자동인식장치의 외부로 설치되어 대상문서를 캡쳐 한다.Referring to FIG. 3, the automatic character recognition device according to the present invention includes a
광검출부의 발광부(221)에서 대상문서(260)로 광을 주사한다. 주사된 광은 대상문서(260)에서 반사되고 반사된 광은 수광부(222)에 입사된다. 입사되어 검출된 광은 근접거리판단부(230)와 광패턴판단부(240)로 출력된다. 검출된 광은 근접거리판단부(230)에서 문자자동인식장치가 적정한 거리에 위치되어 있는지, 광패턴판단부(240)에서는 문자자동인식장치가 움직이는지를 감지하게 된다.The light is emitted from the
행위판단부(210)에서 처리된 정보는 주제어기(400)에 전달이 되어 문자자동인식장치가 적정한 거리에 위치하고 움직이지 않는 경우에는 영상처리부의 캡쳐부(251)는 대상문서(260)에 기록되어 있는 영상이미지를 캡쳐부를 통해서 캡쳐한다. 이때 캡쳐부는 카메라 또는 스캐너 등 다양하게 영상이미지를 읽어들일 수 있는 장치이면 가능하다. 캡쳐된 영상이미지는 주제어부(400)의 제어신호에 의하여 영상처리부(250)의 영상데이터변환부(252)에서 사용가능한 영상데이터 정보로 변환하여 변환된 정보를 문자자동인식부(300)로 출력한다. 주제어부(400)의 제어신호하에 문서자동인식부(200)의 행위판단부(210)와 영상처리부(250)에서 처리된 결과 정보는 문자자동인식부(209)로 전송되어져 검색하고자 하는 문자데이터만을 전자사전부(500)로 출력되어 문자데이터에 해당되는 단어를 검색하여 사용자가 알아볼 수 있도록 표시하게 된다.When the information processed by the
상기한 바와 같이 도 2 및 도 3에 따른 본 발명의 문자자동인식장치의 동작원리는 다음과 같다.As described above, the operation principle of the automatic character recognition device of the present invention according to FIGS. 2 and 3 is as follows.
본 발명의 문자자동인식장치에 구비된 광검출부의 발광부(221)는 검색하고자 하는 단어가 포함되어 있는 대상문서(210)에 광을 주사시킨다. 주사된 광은 대상문서(210)로부터 반사되어 광검출부의 수광부(222)에서 검출된다. 검출된 광은 행위 판단부(210)에 입력되어 근접거리판단부(230)의 광인식부(231)는 광에 대한 세기를 인식하며, 근접거리판단부(230)의 거리비교부(232)는 인식된 광의 세기와 기검출된 광의 세기를 상호 비교하여 문자자동인식장치와 대상문서가 근접거리인가를 판단하여 상호 근접거리라고 판단하며, 또한 근접거리판단부의 판단결과에 따라 광검출부로부터 검출된 광으로부터 광패턴판단부(240)의 X,Y 좌표감지부(241)가 광패턴에 대한 X,Y 좌표에 대한 좌표값을 감지하여 광패턴판단부(240)의 광패턴비교부(242)로부터의 기검출된 광패턴의 좌표값을 상호 비교하여 광패턴의 변화값으로부터 광패턴의 움직임을 인식하여 판단한다.The
본 발명의 문자자동인식장치와 대상문서(260)와의 근접거리에 대한 판단은 대상문서(260)로부터 반사되는 광의 세기를 검출하여 거리비교부(232)가 검출된 광의 세기와 기검출된 광의 세기를 상호 비교하여 판단한다. 즉, 상호간의 거리가 멀수록 광의 세기는 작아지기 때문에 문자자동인식장치와 대상문서가 상호 어느정도 근접거리 범위에 위치되어야만 대상문서의 영상이미지를 캡쳐하여 판독할 수 있으므로 영상이미지를 캡쳐하기 이전에 문자자동인식장치와 대상문서 상호간의 적정 범위의 거리를 판단한다.Determination of the proximity distance between the automatic text recognition device and the
본 발명의 광패턴의 움직임에 대한 판단은 대상문서(260)로부터 반사되는 광패턴을 반복적으로 비교함으로써 광패턴에 대한 움직임을 인식하여 판단한다. 즉, 움직임이 없다고 가정하면 반사되는 광패턴은 지속적으로 동일한 패턴을 유지할 것 이며 이 경우에는 주제어부의 제어신호가 발생하여 영상처리부(250)의 캡쳐부(251)는 대상문서의 영상이미지를 캡쳐하여 판독하며, 움직임이 있을 경우에는 반사되는 광패턴은 지속적으로 변하게 될 것이며 이 경우에는 광패턴에 대한 변화가 없을 때까지 지속적으로 광패턴을 비교한다. 그러므로 X,Y 좌표감지부(241)에서는 광검출부(220)으로부터 검출된 반사되는 광패턴의 X,Y 좌표에 대한 좌표값을 감지하여 광패턴비교부(242)를 통하여 현재 검출된 광패턴의 X,Y 좌표에 대한 좌표값과 바로 이전에 검출된 광패턴에 대한 X,Y 좌표에 대한 좌표값을 상호 비교하므로써 문자자동인식장치와 대상문서 상호간에 어떠한 움직임이 있다고 인식하여 판단한다.In the determination of the movement of the light pattern of the present invention, by repeatedly comparing the light patterns reflected from the
따라서, 상술한 바와 같이 검출된 광으로부터 문자자동인식장치와 캡쳐하고자 하는 대상문서(210)가 적정한 근접거리에 있고, 움직임이 없이 안정되게 놓여 있다면, 다시말해서 사용자가 문자자동인식장치을 단어 검색을 위하여 대상문서(260) 위에 정상적으로 올려놓으면 문자자동인식장치와 대상문서(210)간의 거리는 매우 근접한 거리가 되며 대상문서(210)와 문자자동인식장치과의 상대적 움직임은 매우 작아질 것이다.Therefore, if the automatic text recognition device and the
이와같이 문자자동인식장치와 대상문서(260)가 문서데이터를 읽어 들이기에 최적의 조건이 되었을 때 주제어부(400)는 캡쳐부(251)로부터 대상문서(260)에 기록되어 있는 문서데이터에 대한 영상이미지를 캡쳐하도록 제어신호를 발생한다. 캡쳐부(251)는 대상문서(260)의 영상이미지를 캡쳐하여 영상데이터 변환부(252)에 입력하여 영상데이터로 변환한다. As such, when the automatic text recognition device and the
영상데이터로 변환하는 과정은 영상이미지의 컬러정보를 제거하고 밝기정보 를 2단계로 변환하여 처리함으로서 이루어진다. 즉, 컬러정보를 제거하고 밝기정보를 흑백의 2단계로 변환처리한다. The process of converting the image data is performed by removing color information of the image image and converting the brightness information in two steps. That is, the color information is removed and the brightness information is converted into two stages of black and white.
이와같은 영상데이터의 간편화를 위한 변환처리과정은 문자자동인식부(300)의 처리 과정에 대한 계산량을 줄이고 정확한 처리를 위한 것이며, 또한 전체적인 영상데이터의 용량을 줄임으로써 문자 인식율의 개선과 빠른 처리를 확보할 수 있기 때문이다. 실제로 문자자동인식부(300)에서는 컬러정보 및 자세한 밝기정보는 필요로 하지 않기 때문에 문자인식율의 정확도는 향상되며, 동시에 빠른 처리를 가능하게 한다.The conversion process for simplicity of the image data is to reduce the amount of calculation and accurate processing of the character
또한, 문자자동인식부(300)에서 변환처리된 영상데이터로부터 문자 데이터의 존재 여부를 판단하기 이전에, 인식하고자 하는 문자 위에 올려 놓았을 경우 문자를 포함하는 영상데이터는 좌우로 길게 위치하게 되므로 영상데이터의 배열 상태의 평균 각도를 검사하여 과도하게 틀어져 있는 경우에는 주제어부(400)의 제어신호에 따라서 표시부(530)를 통하여 컬러정보와 밝기정보를 제거하기 이전의 영상데이터를 표시하고, 동시에 사용자에게 위치 수정을 요구하는 메시지를 출력하여 정확한 문자 인식이 가능하도록 대상문서(260) 또는 본 발명의 문자자동인식장치의 위치 수정을 알려준다. 따라서, 사용자는 표시부의 안내 메시지에 의하여 본 발명의 문자자동인식장치의 위치 수정 정보에 기초하여 대상문서의 영상이미지를 다시 캡쳐할 수 있다.In addition, before determining whether there is text data from the image data converted by the text
주제어부(400)의 제어신호에 의하여 영상처리부(250)에서 출력되는 영상변환처리된 영상데이터를 문자자동인식부(300)로 입력되면 문자자동인식부(300)는 입력 된 영상데이터 정보를 인식하여 사용자가 검색하고자 하는 정보인 문자데이터 정보만을 인식하여 전자사전부(500)로 출력한다. 전자사전부(500)는 입력된 문자데이터 정보를 주제어부(400)의 제어신호에 의하여 문자데이터에 해당되는 단어를 사전 DB부(520)에서 검색하여 표시부(530)로 사용자가 볼 수 있도록 표시한다.When the image conversion processed image data output from the
도 4는 본 발명의 일실시에에 따른 문자자동인식방법을 나타낸 흐름도이다.4 is a flowchart illustrating an automatic character recognition method according to an embodiment of the present invention.
도 4를 참조하면, 문자데이터를 자동으로 인식하기 위한 행위인식부(210)와 영상처리부(250)와 문자자동인식부(300) 및 주제어부(400)와 문자데이터에 해당되는 단어를 검색하는 전자사전부(500)로 이루어진 문자자동인식장치를 이용한 대상문서를 자동으로 인식하는 문자자동인식방법은 다음과 같다.Referring to FIG. 4, an
행위인식부(210)의 광을 주사하는 발광부(221)로부터 대상문서(260)에 주사되어 대상문서(260)로부터 반사된 광을 수광부(222)에서 검출한다(S101). In operation S101, the
검출된 광의 세기를 처리하여 근접거리판단부(230)에서 상대적인 거리를 인식하여 비교한다(S102). The relative distance is detected by the
인식 비교된 거리로부터 대상문서가 근접거리인가를 판단하여 근접거리가 아닌 경우에는 상기 (S101)단계를 수행한다(S103). If it is determined that the target document is a proximity distance from the recognized compared distance, if it is not the proximity distance, step S101 is performed (S103).
상기 (S103)단계에서 근접거리인 경우에는 행위인식부(210)의 상대적인 움직임을 판단하는 광패턴판단부(240)가 검출된 광패턴의 X, Y의 좌표값을 감지한다(S104). When the distance is close in step S103, the light
감지된 좌표값에 의한 광패턴의 변화값으로부터 대상문서가 움직이는가를 판단하고, 움직임이 있는 경우에는 상기 (S101)단계를 수행한다(S105). It is determined whether the target document is moved from the change value of the light pattern by the detected coordinate value, and if there is a movement (S101), the process is performed (S105).
상기 (S105)단계에서 움직임이 없는 경우에는, 행위인식부(210)로부터의 검출된 신호를 인가받아 영상처리부(250)에서 대상문서(260)의 영상이미지를 캡쳐하고, 캡쳐된 영상이미지를 영상데이터로 변환하여 처리한다(S106). If there is no motion in the step (S105), by receiving the detected signal from the
또한, 바람직하게는 상기 (S106)단계에서 영상데이터로 변환하는 과정은 영상이미지의 컬러정보를 제거하고 밝기정보를 2단계로 변환하여 처리함으로서 이루어진다. 즉, 컬러정보를 제거하고 밝기정보를 흑백의 2단계로 변환하여 처리한다. 이와 같은 영상데이터의 간편화를 위한 (S106)단계와 같은 영상데이터 변환처리과정은 문자데이터의 존재 유무를 판단하는 과정에 대한 계산량을 줄이고 정확한 처리를 위한 것이며, 또한 전체적인 영상데이터의 용량을 줄임으로써 문자인식율의 개선과 빠른 처리를 확보할 수 있기 때문이다. 실제로 문자데이터의 존재 유무를 판단하는 과정은 컬러정보 및 자세한 밝기정보는 필요로 하지 않기 때문에 문자인식율의 정확도는 향상되며, 동시에 빠른 처리를 수행할 수 있다.Preferably, the step of converting the image data into the image data in step S106 is performed by removing color information of the image image and converting the brightness information into two stages. That is, color information is removed and brightness information is converted into two stages of black and white for processing. The image data conversion processing process such as the step (S106) for simplifying the image data is to reduce the amount of calculation for the process of determining the presence or absence of the text data and to accurately process the text data by reducing the overall volume of the image data. This is because the recognition rate can be improved and fast processing can be secured. In fact, since the process of determining the presence or absence of character data does not require color information and detailed brightness information, the accuracy of character recognition rate is improved, and at the same time, fast processing can be performed.
상기 (S106)단계에서 처리된 영상데이터의 배열 상태의 평균 각도를 검사한다(S107).The average angle of the arrangement state of the image data processed in the step (S106) is inspected (S107).
상기 (S107)단계의 검사결과 상기 영상데이터가 과도하게 틀어져 있는 경우에는 표시부(530)를 통하여 상기 (S106)단계에서 변환되기 이전의 영상이미지와 영상이미지 패턴의 위치 수정을 요구하는 메시지를 표시하고, 사용자에게 정확한 영상이미지를 캡쳐하여 판독 가능하도록 제어한다(S108).If the image data is excessively distorted as a result of the checking in step S107, the
즉, 인식하고자 하는 대상문서 위에 올려 놓았을 경우 문자데이터를 포함하는 영상데이터는 좌우로 길게 위치하게 되므로 영상데이터의 배열 상태의 평균 각 도를 검사하여 과도하게 틀어져 있는 경우에는 주제어부(400)의 제어신호에 따라서 표시부(530)를 통하여 컬러정보와 밝기정보를 제거하기 이전의 영상데이터를 표시하고, 동시에 사용자에게 위치 수정을 요구하는 메시지를 출력하여 정확한 문자데이터가 인식 가능하도록 대상문서(260) 및 본 발명의 문자자동인식장치의 위치 수정을 알려준다. 따라서, 사용자는 표시부의 안내 메시지에 의하여 본 발명의 문자자동인식장치의 위치 수정 정보에 기초하여 대상문서의 영상이미지를 다시 캡쳐할 수 있다. That is, when placed on the target document to be recognized, the image data including the text data is positioned long left and right, so if the average angle of the arrangement state of the image data is excessively distorted, the
상기 (S106)단계에서 처리된 영상데이터가 판독 가능하도록 제어하여 문자데이터가 있는지를 판단한다(S109). The image data processed in step S106 is controlled to be readable to determine whether there is character data (S109).
상기 (S109)단계를 수행한 결과 문자데이터가 없는 경우에, 대상문서에 문자데이터가 없다는 메시지를 표시하고, 상기 (S106)단계로 돌아가 다시 캡쳐된 영상이미지로부터 문자데이터의 존재 유무를 판단한다(S110). If there is no text data as a result of performing step S109, a message indicating that there is no text data is displayed in the target document, and the method returns to step S106 to determine whether text data exists from the captured image image again ( S110).
상기 (S109)단계의 영상데이터 중 문자데이터가 있는 경우에는, 문자자동인식부(300)은 문자데이터를 인식한다(S111). When there is text data among the image data of the step (S109), the text
상기 인식된 문자데이터는 전자사전부로 입력되어 상기 문자데이터에 해당하는 단어를 상기 전자사전부(500)의 사전 DB부(520)로부터 검색한다(S112).The recognized character data is input to the electronic dictionary to search for a word corresponding to the character data from the
상기 전자사전부(500)의 사전 DB부(520)로부터 검색된 문자데이터에 해당되는 단어는 상기 전자사전부(500)의 표시부(530)에 표시한다(S113). The word corresponding to the character data retrieved from the
이상 도면과 명세서에서 최적의 실시예들이 개시되었다. 여기서 사용된 특정한 용어는 단지 본 발명을 설명하기 위한 목적에서 사용된 것일 뿐 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것이 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.The best embodiments have been disclosed in the drawings and specification above. The specific terminology used herein is for the purpose of describing the present invention only and is not intended to be limiting of meaning or the scope of the invention as set forth in the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
이상에서 설명한 바와 같이, 본 발명의 문자자동인식장치 및 방법에 의하면, 문자자동인식장치를 검색 단어가 포함되어 있는 대상문서 위에 간단히 올려 놓음으로써 문자데이터가 입력되고, 입력된 문자데이터에 대한 단어를 검색하여 그 결과를 표시하는 과정이 자동적으로 이루어지기 때문에 사용자의 개입을 최소화 할 수 있으며, 전체적인 검색시간을 최소화하여 빠르고 정확한 정보검색이 가능한 것이다.As described above, according to the automatic character recognition apparatus and method of the present invention, the character data is input by simply placing the automatic character recognition apparatus on the target document including the search word, and the word for the input character data is inputted. Since the process of searching and displaying the result is done automatically, the user's intervention can be minimized, and the quick and accurate information search is possible by minimizing the overall search time.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050023028A KR100741368B1 (en) | 2005-03-21 | 2005-03-21 | Apparatus and method for automatic recognition of character |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050023028A KR100741368B1 (en) | 2005-03-21 | 2005-03-21 | Apparatus and method for automatic recognition of character |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060101579A KR20060101579A (en) | 2006-09-26 |
KR100741368B1 true KR100741368B1 (en) | 2007-07-20 |
Family
ID=37632608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050023028A KR100741368B1 (en) | 2005-03-21 | 2005-03-21 | Apparatus and method for automatic recognition of character |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100741368B1 (en) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010096191A3 (en) * | 2009-02-18 | 2010-11-18 | Exbiblio B.V. | Automatically capturing information, such as capturing information using a document-aware device |
US7990556B2 (en) | 2004-12-03 | 2011-08-02 | Google Inc. | Association of a portable scanner with input/output and storage devices |
US8005720B2 (en) | 2004-02-15 | 2011-08-23 | Google Inc. | Applying scanned information to identify content |
US8081849B2 (en) | 2004-12-03 | 2011-12-20 | Google Inc. | Portable scanning and memory device |
US8146156B2 (en) | 2004-04-01 | 2012-03-27 | Google Inc. | Archive of text captures from rendered documents |
US8179563B2 (en) | 2004-08-23 | 2012-05-15 | Google Inc. | Portable scanning device |
US8261094B2 (en) | 2004-04-19 | 2012-09-04 | Google Inc. | Secure data gathering from rendered documents |
US8442331B2 (en) | 2004-02-15 | 2013-05-14 | Google Inc. | Capturing text from rendered documents using supplemental information |
US8447066B2 (en) | 2009-03-12 | 2013-05-21 | Google Inc. | Performing actions based on capturing information from rendered documents, such as documents under copyright |
US8447111B2 (en) | 2004-04-01 | 2013-05-21 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US8489624B2 (en) | 2004-05-17 | 2013-07-16 | Google, Inc. | Processing techniques for text capture from a rendered document |
US8600196B2 (en) | 2006-09-08 | 2013-12-03 | Google Inc. | Optical scanners, such as hand-held optical scanners |
US8620760B2 (en) | 2004-04-01 | 2013-12-31 | Google Inc. | Methods and systems for initiating application processes by data capture from rendered documents |
US8621349B2 (en) | 2004-04-01 | 2013-12-31 | Google Inc. | Publishing techniques for adding value to a rendered document |
US8620083B2 (en) | 2004-12-03 | 2013-12-31 | Google Inc. | Method and system for character recognition |
US8619147B2 (en) | 2004-02-15 | 2013-12-31 | Google Inc. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
US8713418B2 (en) | 2004-04-12 | 2014-04-29 | Google Inc. | Adding value to a rendered document |
US8793162B2 (en) | 2004-04-01 | 2014-07-29 | Google Inc. | Adding information or functionality to a rendered document via association with an electronic counterpart |
US8799303B2 (en) | 2004-02-15 | 2014-08-05 | Google Inc. | Establishing an interactive environment for rendered documents |
US8874504B2 (en) | 2004-12-03 | 2014-10-28 | Google Inc. | Processing techniques for visual capture data from a rendered document |
US8903759B2 (en) | 2004-12-03 | 2014-12-02 | Google Inc. | Determining actions involving captured information and electronic content associated with rendered documents |
US8990235B2 (en) | 2009-03-12 | 2015-03-24 | Google Inc. | Automatically providing content associated with captured information, such as information captured in real-time |
US9081799B2 (en) | 2009-12-04 | 2015-07-14 | Google Inc. | Using gestalt information to identify locations in printed information |
US9116890B2 (en) | 2004-04-01 | 2015-08-25 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US9143638B2 (en) | 2004-04-01 | 2015-09-22 | Google Inc. | Data capture from rendered documents using handheld device |
US9268852B2 (en) | 2004-02-15 | 2016-02-23 | Google Inc. | Search engines and systems with handheld document data capture devices |
US9275051B2 (en) | 2004-07-19 | 2016-03-01 | Google Inc. | Automatic modification of web pages |
US9323784B2 (en) | 2009-12-09 | 2016-04-26 | Google Inc. | Image search using text-based elements within the contents of images |
US9454764B2 (en) | 2004-04-01 | 2016-09-27 | Google Inc. | Contextual dynamic advertising based upon captured rendered text |
WO2019059503A1 (en) * | 2017-09-25 | 2019-03-28 | 이준택 | Image capture for character recognition |
US10769431B2 (en) | 2004-09-27 | 2020-09-08 | Google Llc | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102348071B1 (en) * | 2019-12-19 | 2022-01-06 | 주식회사 위벨롭 | Method and system for evaluating technical correlation of patent literature for tender examination |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6366684A (en) | 1986-09-08 | 1988-03-25 | Toyota Autom Loom Works Ltd | Recognizing device for carved character |
JPH0351960A (en) * | 1989-07-19 | 1991-03-06 | Seiko Epson Corp | Pocket electronic dictionary |
JPH0354408A (en) * | 1989-07-24 | 1991-03-08 | Seiko Epson Corp | Encoder, image input device and character recognizing device |
JPH06139277A (en) * | 1992-10-26 | 1994-05-20 | Seiko Epson Corp | Electronic dictionary device |
JPH0816713A (en) * | 1994-06-27 | 1996-01-19 | Fujitsu Ltd | Character recognizing system |
JPH11143988A (en) | 1997-11-10 | 1999-05-28 | Nippon Telegr & Teleph Corp <Ntt> | Character recognition device |
US6148119A (en) | 1995-02-01 | 2000-11-14 | Canon Kabushiki Kaisha | Character recognition in input images divided into areas |
US6272238B1 (en) | 1992-12-28 | 2001-08-07 | Canon Kabushiki Kaisha | Character recognizing method and apparatus |
-
2005
- 2005-03-21 KR KR1020050023028A patent/KR100741368B1/en not_active IP Right Cessation
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6366684A (en) | 1986-09-08 | 1988-03-25 | Toyota Autom Loom Works Ltd | Recognizing device for carved character |
JPH0351960A (en) * | 1989-07-19 | 1991-03-06 | Seiko Epson Corp | Pocket electronic dictionary |
JPH0354408A (en) * | 1989-07-24 | 1991-03-08 | Seiko Epson Corp | Encoder, image input device and character recognizing device |
JPH06139277A (en) * | 1992-10-26 | 1994-05-20 | Seiko Epson Corp | Electronic dictionary device |
US6272238B1 (en) | 1992-12-28 | 2001-08-07 | Canon Kabushiki Kaisha | Character recognizing method and apparatus |
JPH0816713A (en) * | 1994-06-27 | 1996-01-19 | Fujitsu Ltd | Character recognizing system |
US6148119A (en) | 1995-02-01 | 2000-11-14 | Canon Kabushiki Kaisha | Character recognition in input images divided into areas |
JPH11143988A (en) | 1997-11-10 | 1999-05-28 | Nippon Telegr & Teleph Corp <Ntt> | Character recognition device |
Cited By (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8442331B2 (en) | 2004-02-15 | 2013-05-14 | Google Inc. | Capturing text from rendered documents using supplemental information |
US9268852B2 (en) | 2004-02-15 | 2016-02-23 | Google Inc. | Search engines and systems with handheld document data capture devices |
US8005720B2 (en) | 2004-02-15 | 2011-08-23 | Google Inc. | Applying scanned information to identify content |
US8019648B2 (en) | 2004-02-15 | 2011-09-13 | Google Inc. | Search engines and systems with handheld document data capture devices |
US8831365B2 (en) | 2004-02-15 | 2014-09-09 | Google Inc. | Capturing text from rendered documents using supplement information |
US8799303B2 (en) | 2004-02-15 | 2014-08-05 | Google Inc. | Establishing an interactive environment for rendered documents |
US8619147B2 (en) | 2004-02-15 | 2013-12-31 | Google Inc. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
US8515816B2 (en) | 2004-02-15 | 2013-08-20 | Google Inc. | Aggregate analysis of text captures performed by multiple users from rendered documents |
US8214387B2 (en) | 2004-02-15 | 2012-07-03 | Google Inc. | Document enhancement system and method |
US8447144B2 (en) | 2004-02-15 | 2013-05-21 | Google Inc. | Data capture from rendered documents using handheld device |
US8621349B2 (en) | 2004-04-01 | 2013-12-31 | Google Inc. | Publishing techniques for adding value to a rendered document |
US8793162B2 (en) | 2004-04-01 | 2014-07-29 | Google Inc. | Adding information or functionality to a rendered document via association with an electronic counterpart |
US9454764B2 (en) | 2004-04-01 | 2016-09-27 | Google Inc. | Contextual dynamic advertising based upon captured rendered text |
US9143638B2 (en) | 2004-04-01 | 2015-09-22 | Google Inc. | Data capture from rendered documents using handheld device |
US8447111B2 (en) | 2004-04-01 | 2013-05-21 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US9116890B2 (en) | 2004-04-01 | 2015-08-25 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US8505090B2 (en) | 2004-04-01 | 2013-08-06 | Google Inc. | Archive of text captures from rendered documents |
US9514134B2 (en) | 2004-04-01 | 2016-12-06 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US9633013B2 (en) | 2004-04-01 | 2017-04-25 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US8620760B2 (en) | 2004-04-01 | 2013-12-31 | Google Inc. | Methods and systems for initiating application processes by data capture from rendered documents |
US8781228B2 (en) | 2004-04-01 | 2014-07-15 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US8619287B2 (en) | 2004-04-01 | 2013-12-31 | Google Inc. | System and method for information gathering utilizing form identifiers |
US8146156B2 (en) | 2004-04-01 | 2012-03-27 | Google Inc. | Archive of text captures from rendered documents |
US8713418B2 (en) | 2004-04-12 | 2014-04-29 | Google Inc. | Adding value to a rendered document |
US9030699B2 (en) | 2004-04-19 | 2015-05-12 | Google Inc. | Association of a portable scanner with input/output and storage devices |
US8261094B2 (en) | 2004-04-19 | 2012-09-04 | Google Inc. | Secure data gathering from rendered documents |
US8489624B2 (en) | 2004-05-17 | 2013-07-16 | Google, Inc. | Processing techniques for text capture from a rendered document |
US8799099B2 (en) | 2004-05-17 | 2014-08-05 | Google Inc. | Processing techniques for text capture from a rendered document |
US9275051B2 (en) | 2004-07-19 | 2016-03-01 | Google Inc. | Automatic modification of web pages |
US8179563B2 (en) | 2004-08-23 | 2012-05-15 | Google Inc. | Portable scanning device |
US10769431B2 (en) | 2004-09-27 | 2020-09-08 | Google Llc | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
US8620083B2 (en) | 2004-12-03 | 2013-12-31 | Google Inc. | Method and system for character recognition |
US8081849B2 (en) | 2004-12-03 | 2011-12-20 | Google Inc. | Portable scanning and memory device |
US8874504B2 (en) | 2004-12-03 | 2014-10-28 | Google Inc. | Processing techniques for visual capture data from a rendered document |
US8903759B2 (en) | 2004-12-03 | 2014-12-02 | Google Inc. | Determining actions involving captured information and electronic content associated with rendered documents |
US8953886B2 (en) | 2004-12-03 | 2015-02-10 | Google Inc. | Method and system for character recognition |
US7990556B2 (en) | 2004-12-03 | 2011-08-02 | Google Inc. | Association of a portable scanner with input/output and storage devices |
US8600196B2 (en) | 2006-09-08 | 2013-12-03 | Google Inc. | Optical scanners, such as hand-held optical scanners |
CN102369724B (en) * | 2009-02-18 | 2016-05-04 | 谷歌公司 | Automatically capturing information, for example, use document awareness apparatus capturing information |
US8638363B2 (en) | 2009-02-18 | 2014-01-28 | Google Inc. | Automatically capturing information, such as capturing information using a document-aware device |
US8418055B2 (en) | 2009-02-18 | 2013-04-09 | Google Inc. | Identifying a document by performing spectral analysis on the contents of the document |
CN102369724A (en) * | 2009-02-18 | 2012-03-07 | 谷歌公司 | Automatically capturing information, such as capturing information using a document-aware device |
WO2010096191A3 (en) * | 2009-02-18 | 2010-11-18 | Exbiblio B.V. | Automatically capturing information, such as capturing information using a document-aware device |
US8447066B2 (en) | 2009-03-12 | 2013-05-21 | Google Inc. | Performing actions based on capturing information from rendered documents, such as documents under copyright |
US9075779B2 (en) | 2009-03-12 | 2015-07-07 | Google Inc. | Performing actions based on capturing information from rendered documents, such as documents under copyright |
US8990235B2 (en) | 2009-03-12 | 2015-03-24 | Google Inc. | Automatically providing content associated with captured information, such as information captured in real-time |
US9081799B2 (en) | 2009-12-04 | 2015-07-14 | Google Inc. | Using gestalt information to identify locations in printed information |
US9323784B2 (en) | 2009-12-09 | 2016-04-26 | Google Inc. | Image search using text-based elements within the contents of images |
WO2019059503A1 (en) * | 2017-09-25 | 2019-03-28 | 이준택 | Image capture for character recognition |
Also Published As
Publication number | Publication date |
---|---|
KR20060101579A (en) | 2006-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100741368B1 (en) | Apparatus and method for automatic recognition of character | |
US7313255B2 (en) | System and method for optically detecting a click event | |
KR101015663B1 (en) | Method for recognizing character and apparatus therefor | |
WO2001026035A2 (en) | Triggerless optical reader with signal enhancement features | |
US8035722B2 (en) | System and method for calculating dimensions of object during image capture of object for use in imaging device | |
US7679605B2 (en) | Optical mouse with barcode reading function | |
US9430691B2 (en) | Fingerprint reading system | |
KR20170061631A (en) | Method and device for region identification | |
JP2004318890A (en) | Image inputting system and device for combining finger recognition and finger navigation | |
KR102236616B1 (en) | Information processing apparatus, control method thereof, and storage medium | |
US5760412A (en) | Method and apparatus for sensing the presence of a line of data from a document on a transparent surface | |
KR101015740B1 (en) | Character recognition method and apparatus | |
CN108572734A (en) | A kind of gestural control system based on infrared laser associated image | |
US6233363B1 (en) | Image reading apparatus for a document placed face up having a function of erasing finger area images | |
EP3370403B1 (en) | Reading device and mobile terminal | |
EP2793458B1 (en) | Apparatus and method for auto-focusing in device having camera | |
KR100869144B1 (en) | Apparatus for sensing scrolling of subject and Method thereof | |
US20210063850A1 (en) | Imaging device, method for controlling imaging device, and system including imaging device | |
JP2547621B2 (en) | Image region detection method and apparatus for image processing apparatus | |
KR100829142B1 (en) | Apparatus for sensing moving of subject and method thereof | |
US8422785B2 (en) | Image processing apparatus, image processing method, and program | |
JP4793459B2 (en) | Symbol reader and program | |
KR102321359B1 (en) | Portable terminal and vr viewer system for controlling virtual reality content based on hand shape and illumination sensor | |
CN104751103A (en) | Finger fingerprint reading system and fingerprint reading method | |
US20100002274A1 (en) | Independent scanning apparatus and independent scanning method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Publication of correction | ||
FPAY | Annual fee payment |
Payment date: 20130628 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20140630 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20160705 Year of fee payment: 10 |
|
LAPS | Lapse due to unpaid annual fee |