KR101588890B1 - Method of character recongnition and translation based on camera image - Google Patents

Method of character recongnition and translation based on camera image Download PDF

Info

Publication number
KR101588890B1
KR101588890B1 KR1020090057266A KR20090057266A KR101588890B1 KR 101588890 B1 KR101588890 B1 KR 101588890B1 KR 1020090057266 A KR1020090057266 A KR 1020090057266A KR 20090057266 A KR20090057266 A KR 20090057266A KR 101588890 B1 KR101588890 B1 KR 101588890B1
Authority
KR
South Korea
Prior art keywords
character
word
user
electronic dictionary
recognized
Prior art date
Application number
KR1020090057266A
Other languages
Korean (ko)
Other versions
KR20100007722A (en
Inventor
김상호
황성택
오상욱
김현수
김정림
김지훈
이동창
오윤제
정희원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP09165054.9A priority Critical patent/EP2144189A3/en
Priority to US12/500,094 priority patent/US8625899B2/en
Priority to CN2009102116073A priority patent/CN101702154B/en
Publication of KR20100007722A publication Critical patent/KR20100007722A/en
Application granted granted Critical
Publication of KR101588890B1 publication Critical patent/KR101588890B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Abstract

본 발명에 따른 카메라로 촬영한 문자영상 인식 및 전자사전 연동 번역 방법은 촬영된 문자 영상에서 인식할 영역을 사용자가 직접 선택해서 문자 인식을 수행하는 과정과, 사용자가 선택한 문자 또는 단어를 연계된 사전 데이터와 연동 검색해서 그 번역 결과 정보를 화면 장치에 표시하는 과정을 포함한다.A character image recognition and electronic dictionary linked translation method photographed by a camera according to the present invention includes the steps of performing character recognition by a user directly selecting an area to be recognized in a captured character image, And displaying the translation result information on the screen device.

상기 문자 인식을 수행하기 위한 과정은 인식된 문자열 또는 단어의 위치 정보를 사용자에게 제공하여 사용자가 선택한 위치 영역의 문자열 또는 단어의 번역을 지시할 수 있는 사용자 인터페이스 과정을 포함한다.The process for performing the character recognition includes a user interface process for providing the user with the location information of the recognized character string or word and instructing the user to translate the character string or word in the selected location area.

그리고 상기 사전 연동 검색 번역 과정은 상기 사용자 인터페이스 과정에서 선택된 문자 또는 단어를 전자사전 데이터 베이스와 연동 검색해서 그 번역 결과를 상기 사용자 인터페이스 과정을 통해 사용자에게 제공하는 과정을 포함한다.The dictionary-linked search and translation process may include searching for a character or word selected in the user interface process in association with an electronic dictionary database, and providing the translation result to the user through the user interface process.

문자, 단어, 인식, 카메라, 번역 Character, word, recognition, camera, translation

Description

카메라 기반 영상의 문자 인식 및 번역 방법{METHOD OF CHARACTER RECONGNITION AND TRANSLATION BASED ON CAMERA IMAGE}METHOD OF CHARACTER RECOGNITION AND TRANSLATION BASED ON CAMERA IMAGE

본 발명은 문자 인식에 관한 발명으로서, 특히 카메라로 촬영된 영상에 포함된 문자를 인식하고 사전과 연동해서 번역할 수 있는 카메라에 기반하는 문자 인식 및 번역 방법에 관한 발명이다. The present invention relates to a character recognition method, and more particularly, to a camera-based character recognition and translation method capable of recognizing a character included in an image captured by a camera and translating the character in association with a dictionary.

종래의 문자 인식은 종이 문서를 스캐너(Scaner)로 스캐닝(Scannening)해서 텍스트 화일 또는 전자 문서의 형태로 변환하는 방법이 일반적이다. 그러나, 최근 에는 소형의 디지털 카메라를 장착한 형태의 휴대형 디지털 기기들을 이용해서 촬영된 영상의 문자를 인식하는 방법이 제안되고 있다.In conventional character recognition, a paper document is generally scanned by a scanner and converted into a text file or an electronic document. However, recently, a method of recognizing a character of a photographed image by using a portable digital device having a compact digital camera has been proposed.

종래 스캐너가 종이에 기재된 문자의 인식으로 제한되는 반면에, 디지털 카메라가 장착된 휴대형 디지털 기기들은 카메라를 이용한 광학 방식의 문자 인식(Optical character recongntion; OCR)이 가능하다. 즉, 휴대용 디지털 기기들에 장착된 카메라를 이용한 문자 인식은 종래 스캐너에 의해 스캐닝된 문자의 인식 방법에 비해, 다양한 매체(기념비, 도로 안내 표지판, 메뉴판, 각종 설명서 등등)에 표시된 문자를 인식할 수 있다. Conventional scanners are limited to recognition of characters written on paper, while portable digital devices equipped with digital cameras are capable of optical character recognition (OCR) using a camera. That is, the character recognition using the camera mounted on the portable digital devices recognizes characters displayed on various media (monuments, road signs, menus, various manuals, etc.) as compared with a method of recognizing characters scanned by conventional scanners .

그러나 상술한 바와 같이 카메라를 이용한 문자 인식은 입력 대상 문자들이 제한되지 않아 인식 대상이 되는 문자의 다양성 이외에도 문자 이외의 주변의 조명과 같이 외부 요인에 의해서 문자 인식이 불가능한 경우도 발생 될 수 있다..However, as described above, the character recognition using the camera is not limited to the characters to be input, and in addition to the diversity of the character to be recognized, character recognition by external factors such as surrounding illumination other than characters may occur.

도 1은 종래 기술에 따른 문자 인식 방법을 도시한 순서도로서, 촬영된 영상으로부터 문자를 인식하기 위한 방법을 나타낸다. 도 1을 참조하면, 종래의 문자 인식 방법(100)은 카메라로 문자를 포함하는 영상을 촬영하는 과정(S1)과, 촬영된 영상의 데이터 처리 과정(S2)과, 인터페이스 과정(S3)과, 개별 문자의 정규화 과정(S4)과, 정규화된 개별 문자의 특징을 추출하는 과정(S5)과, 추출된 문자의 특징을 기반으로 문자와 단어를 인식하는 과정(S6)과, 번역 결과를 제공하는 과정(S7)을 포함한다.FIG. 1 is a flowchart showing a character recognition method according to the related art, and shows a method for recognizing characters from a captured image. Referring to FIG. 1, a conventional character recognition method 100 includes a step S1 of photographing an image including a character with a camera, a data processing step S2 of a photographed image, an interface step S3, (S6) of recognizing characters and words on the basis of the characteristics of the extracted characters, and a step (S6) of providing a translation result (S7).

상기 촬영 과정(S1)은 인식의 대상이 되는 문자를 포함하는 피사체를 영상의 형태로 촬영하는 과정이고, 상기 데이터 처리 과정(S2)은 촬영된 영상을 그레이 스케일(Gray scale)의 형태로 변환시키는 과정을 의미한다. 촬영된 영상은 다양한 색을 포함하는 칼러(color) 영상일 수 있으나, 문자 인식을 위해서는 불필요한 색을 제거해서 촬영된 영상을 그레이 스케일의 상태로 변환시킬 필요가 있다. The photographing process S1 is a process of photographing a subject including a character to be recognized in the form of an image, and the data process S2 transforms the photographed image into a gray scale Process. The photographed image may be a color image including various colors. However, in order to recognize a character, it is necessary to remove an unnecessary color and convert the photographed image into a grayscale state.

상기 인터페이스 과정(S3)은 촬영에 이용된 카메라의 특성 및 촬영 환경에 따라서, 문자 인식에 적합한 형태로 촬영된 영상을 보상하기 위한 과정이다. The interface process S3 is a process for compensating the photographed image in a form suitable for character recognition according to the characteristics of the camera used in the photographing and the photographing environment.

또한, 개별 문자의 정규화 과정(S4)은 촬영된 영상에 포함된 인식 대상인 문자 하나 하나(최소 단위로서 예를 들자면 한글은 자음 및 모음, 영어는 알파벳 등)를 정해진 규격의 문자 형태로 변환시키기 위한 과정이고, 개별 문자의 특징 추출 과정(S5)은 인식 대상인 문자의 특징을 추출하기 위한 과정이다. In the normalization step S4 of the individual character, a character to be recognized is converted into a character form of a predetermined standard by one character (a minimum unit such as a consonant and a vowel, and an English alphabet, etc.) included in the photographed image , And the process of extracting features of individual characters (S5) is a process for extracting characteristics of characters to be recognized.

상기 특징에 기반한 문자 인식 과정(S6)은 추출된 문자의 특징을 근거로 대상 문자를 인식(촬영된 문자를 정의)하기 위한 과정이다. 상기 번역 결과를 사전과 연동해서 사용자에게 제공하는 과정(S7)은 인식된 문자들로부터 단어를 조합해서 그 결과를 사용자에게 제공하기 위한 과정이다. The character recognition process (S6) based on the feature is a process for recognizing a target character (defining a captured character) on the basis of the characteristic of the extracted character. The process of providing the translation result to the user in cooperation with the dictionary (S7) is a process for combining the words from the recognized characters and providing the result to the user.

상기 문자 인식 과정으로부터 저장된 문자 인식 결과 데이트를 내부에 저장한 후, 그 인식 결과 문자 또는 단어들을 화면 장치에 출력한 후, 사용자가 선택 수단을 이용해서 선택한 단어를 전자사전 데이터 베이스와 연동 검색해서 다시 화면에 출력하는 사용자 인터페이스 과정을 최종적으로 포함한다.After storing the stored character recognition result date from the character recognition process, the recognition result character or words are output to the screen device, and then the user searches the selected word using the selection means in association with the electronic dictionary database And finally outputting a user interface process to the screen.

상술한 바와 같은 종래의 문자 인식 및 번역 과정은 문서 영상에 대한 인식 및 사전 번역 과정에 있어서 인식 대상인 문자 영상에 포함된 문자와 실제 인식된 문자를 동시에 확인할 수 있는 사용자 인터페이스가 직관적이지 않으며, 전체 문자 영상에 대해서 인식을 수행할 경우, 하드웨어 성능의 제한 및 여러 가지 다양한 잡영들이 포함됨으로 인해서 그 인식률 자체가 높지 않을 확률이 크며 그 사용자 인터페이스 또한 직관적이지 못한 부분이 존재한다.The conventional character recognition and translation process as described above is not intuitive in that the user interface for simultaneously recognizing the characters included in the character image to be recognized and the actually recognized characters at the same time in recognizing the document image and in the dictionary translation process, When the recognition is performed on the image, there is a possibility that the recognition rate itself is not high due to limitation of the hardware performance and various miscellaneous ones, and the user interface is also not intuitive.

본 발명은 카메라로 촬영된 영상에 포함된 문자 인식이 가능한 장치에서 문자 인식의 정확도를 향상시키고, 다양한 영상 문자 인식이 가능함과 동시에 사용자 인터페이스의 편의성이 향상된 문자 인식 방법을 제공하고자 한다.An object of the present invention is to provide a character recognition method that improves the accuracy of character recognition in a device capable of recognizing characters included in an image captured by a camera, enables various image character recognition, and improves user interface convenience.

본 발명에 따른 카메라로 촬영된 영상에 포함된 문자를 인식하는 방법은,According to another aspect of the present invention, there is provided a method of recognizing characters included in an image captured by a camera,

촬영된 영상에 포함된 문자와 단어를 인식하고, 사용자가 선택한 단어를 연계된 사전의 데이터와 번역하는 문자 및 단어 인식 과정과;A character and word recognizing process of recognizing characters and words included in the photographed image and translating the data selected by the user into data of a linked dictionary;

상기 문자 및 단어 인식 과정에서 인식된 문자와 단어를 사용자에게 제공하고 사용자가 선택한 문자 또는 단어의 번역을 지시하는 사용자 인터페이스 과정을 포함하며,And providing a character and a word recognized in the character and word recognition process to the user and instructing the user to translate the selected character or word,

상기 문자 및 단어 인식 과정은 상기 사용자 인터페이스 과정에서 선택된 문자 또는 단어를 번역해서 상기 사용자 인터페이스 과정을 통해 사용자에게 제공한다. The character and word recognition process translates the selected character or word in the user interface process and provides the character or word to the user through the user interface process.

바람직하게는, 상기 사용자 인터페이스 과정은,Advantageously, the user interface process further comprises:

(a) 영상을 촬영하는 단계와;(a) photographing an image;

(b) 촬영된 영상의 문자를 인식하기 위한 범위를 선택하는 단계를 포함한다.(b) selecting a range for recognizing characters of the photographed image.

바람직하게는, 상기 사용자 인터페이스 과정은,Advantageously, the user interface process further comprises:

(c) 상기 문자 및 단어 인식 과정에서 인식된 문자와 단어를 사용자에게 제 공하고 제공된 문자와 단어들 중 사용자가 선택한 문자 또는 단어의 번역된 결과를 사용자에게 제공하는 단계와;(c) providing a character and a word recognized in the character and word recognition process to a user, and providing a user with a translated result of a character or word selected by the user from among the provided characters and words;

(d) 사용자가 선택한 문자 또는 단어 이외의 다른 문자 또는 단어의 선택 여부를 확인해서 사용자가 다른 문자 또는 단어를 선택할 경우 상기 (c) 단계로 복귀하는 단계와;(d) checking whether a character or word other than the character or word selected by the user is selected and returning to step (c) if the user selects another character or word;

(e) 사용자가 인식된 문자 또는 단어에 대해 선택하지 않은 경우에 상기 (a) 단계로의 복귀 여부를 사용자에게 확인하는 단계를 더 포함한다.(e) if the user does not select a recognized character or word, checking whether the user returns to step (a).

바람직하게는, 상기 (b) 단계에서 사용자가 촬영된 영상의 전체를 문자 인식의 대상으로 선택한 경우에, 상기 문자 또는 단어 인식 과정으로 진행한다.Preferably, in the step (b), when the user selects the whole of the photographed image as an object of character recognition, the process proceeds to the character or word recognition process.

바람직하게 상기 후처리 단계는,Preferably, the post-

촬영된 영상에 포함된 개별 문자들을 인식하는 단계와;Recognizing individual characters included in the photographed image;

인식된 개별 문자들로부터 단어를 구성하고, 구성된 단어를 연동된 사전 데이터를 검색해서 사전적 의미를 확인하는 단계와;Constructing a word from the recognized individual characters, searching for dictionary data linked with the composed word, and confirming the dictionary meaning;

인식된 문자 또는 단어를 상기 사용자 인터페이스 과정의 (c) 단계를 통해서 사용자에게 제공하는 단계를 포함한다.And providing the recognized character or word to the user through step (c) of the user interface process.

바람직하게 상기 문자 또는 단어를 인식하는 과정은,Preferably, the step of recognizing the character or word comprises:

(h) 촬영된 영상을 전처리하는 단계와;(h) preprocessing the photographed image;

(i) 전처리된 영상에 포함된 문자들을 정규화하는 단계와;(i) normalizing the characters included in the preprocessed image;

(j) 개별 문자의 특징을 추출하는 단계와;(j) extracting features of individual characters;

(k) 개별 문자의 추출된 특징을 기반으로 문자와 단어를 인식하는 단계와;(k) recognizing characters and words based on extracted features of individual characters;

(l) 후처리 단계를 포함한다.(1) post-treatment step.

바람직하게 상기 (h) 단계는,Preferably, the step (h)

(m) 입력된 영상을 분석하는 단계와;(m) analyzing the input image;

(n) 분석 대상의 영상 중에서 문자 영역을 선택하는 단계와;(n) selecting a character region from an image to be analyzed;

(o) 상기 영상을 구성하는 문자 영역과 배경 영역의 명도 반전의 여부를 결정하는 단계와;(o) determining whether the brightness of the character region and the background region constituting the image are reversed;

(p) 상기 문자 영역과 배경 영역과 명도를 반전시키는 단계와;(p) reversing the brightness of the character area and the background area;

(q) 상기 (o) 또는 (p) 단계를 거친 영상의 문자 영역을 이진화시키는 단계와;(q) binarizing the character region of the image through the step (o) or (p);

(s) 이진화된 문자 영역을 영상으로부터 분리하는 단계를 포함한다.(s) separating the binarized character region from the image.

바람직하게는, 상기 (l) 단계는,Preferably, the step (l)

개별 문자의 추출된 특징을 기반으로 문자 또는 단어의 인식 결과를 분석하는 단계와;Analyzing a character or word recognition result based on the extracted characteristic of the individual character;

촬영된 영상의 문자 영역과 배경 영역을 구분하는 단계와;A step of distinguishing a character area and a background area of the photographed image;

배경 영역을 제거하는 단계와;Removing the background area;

상기 (i) 단계가 완료됨을 알리기 위한 정보를 생성하는 단계를 포함한다.And generating information for notifying that the step (i) is completed.

본 발명은 광학 방식의 영상 문자 인식 방법을 통해서 편리한 사용자 중심의 인터페이스를 구축함과 동시에 문자 인식의 오류를 최소화시킬 수 있다. 그 외에도 본 발명은 다양한 형태로 기록된 문자들을 인식할 수 있으며, 본 발명은 촬영된 영상 중 전체 또는 일부 범위를 사용자가 문자 인식의 대상으로 선택할 수 있으므로, 사용자의 선택에 따라서 연산 과정을 최소화시킬 수도 있다. The present invention can minimize the error of character recognition while forming a convenient user-oriented interface through the optical character recognition method of the optical system. In addition, the present invention can recognize characters recorded in various forms, and the present invention can select all or a part of a photographed image as a target of character recognition by the user, It is possible.

이하에서는 첨부도면들을 참조하여 본 발명의 실시 예를 상세히 설명하기로 한다. 본 발명을 설명함에 있어서, 관련된 공지기능, 혹은 구성에 대한 구체적인 설명은 본 발명의 요지를 모호하지 않게 하기 위하여 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted so as to avoid obscuring the subject matter of the present invention.

본 발명은 촬영된 영상에 포함된 문자를 인식하기 위한 방법에 관한 발명으로서, 본 발명의 일 측면에 따른 카메라로 촬영된 영상에 포함된 문자를 인식하는 방법은 촬영된 영상에 포함된 문자와 단어를 인식하고, 사용자가 선택한 단어를 연계된 사전의 데이터와 번역하는 문자 및 단어 인식 과정과, 상기 문자 및 단어 인식 과정에서 인식된 문자와 단어를 사용자에게 제공하고 사용자가 선택한 문자 또는 단어의 번역을 지시하는 사용자 인터페이스 과정을 포함하며, 상기 문자 및 단어 인식 과정은 상기 사용자 인터페이스 과정에서 선택된 문자 또는 단어를 번역해서 상기 사용자 인터페이스 과정을 통해 사용자에게 제공한다.The present invention relates to a method for recognizing a character included in a photographed image, and a method for recognizing a character included in a photographed image according to an aspect of the present invention includes: A character and a word recognizing process for recognizing a character and a word recognized by the user and translating the selected word and data associated with the dictionary; And the character and word recognizing process translates the selected character or word in the user interface process and provides the character or word to the user through the user interface process.

본 발명에 따른 문자 인식 방법은 촬영된 영상 전체를 대상으로 하거나 또는 촬영된 영상 중 사용자가 선택한 일 부분 범위만을 문자 인식의 대상으로 하는 방법으로 구분해서 설명될 수 있다. 상술한 사용자 인터페이스 과정은 문자와 단어의 인식 및 번역 과정 중에 사용자에게 제공 또는 사용자의 선택이 요구되는 다수의 단계들을 포함한다.The character recognition method according to the present invention can be described by dividing the entire captured image into a method of recognizing only a partial range selected by the user from among the captured images. The above-described user interface process includes a plurality of steps of providing characters or words to a user during a recognizing and translating process or requiring a user's selection.

도 2는 본 발명의 제1 실시 예에 따른 문자 인식 방법을 설명하기 위한 순서도로서, 촬영된 영상 전체를 문자 인식의 대상으로 하는 본 발명의 일 실시 예이다. 도 2를 참조하면, 본 발명에 따른 카메라로 촬영된 영상에 포함된 문자를 인식하는 방법은 촬영된 영상에 포함된 문자와 단어를 인식하고, 인식된 단어를 연계된 사전의 데이터와 비교하는 문자 및 단어 인식 과정과, 상기 문자 및 단어 인식 과정에서 인식된 문자와 단어를 사용자에게 제공해서 사용자의 선택에 따라서 상기 문자 및 단어 인식 과정을 지시하는 사용자 인터페이스 과정을 포함한다.FIG. 2 is a flowchart for explaining a character recognition method according to the first embodiment of the present invention, and is an embodiment of the present invention in which the entire captured image is subjected to character recognition. Referring to FIG. 2, a method of recognizing characters included in an image photographed by a camera according to the present invention includes recognizing characters and words included in a photographed image, recognizing characters And a user interface process for providing a character and a word recognized in the character and word recognition process to a user and instructing the character and word recognition process according to a user's selection.

상기 사용자 인터페이스 과정은 (a) 영상을 촬영하는 단계(S1)와, (b) 촬영된 영상에 포함된 문자를 인식하기 위한 영상 내의 인식 범위를 선택하는 단계(S2)와, 인식 또는 번역의 결과를 사용자에게 제공하기 위한 단계(S3~S5)와, (d) 사용자가 선택한 문자 또는 단어 이외의 다른 문자 또는 단어의 선택 여부를 사용자에게 확인해서 사용자가 다른 문자 또는 단어를 선택할 경우 상기 (c) 단계(S3~S5)로 복귀하는 단계(S6)와, (e) 사용자가 표시된 문자 또는 단어에 대해 선택하지 않은 경우에 상기 (a) 단계(S1)로의 복귀 여부를 사용자에게 확인하는 단계(S7)를 포함한다.The user interface process comprises the steps of: (a) capturing an image (S1); (b) selecting a recognition range in an image for recognizing characters included in the captured image; (S2) (D) determining whether the user selects a character or a word other than the character or word selected by the user, and if the user selects another character or word, the step (c) (S6) returning to the step S3 to S5; (e) if the user does not select the displayed character or word, confirming to the user whether or not to return to the step (S1) ).

상기 사용자 인터페이스 과정은 상기 (b) 단계(S2)에서 사용자가 촬영된 영상의 전체를 문자 인식의 대상으로 선택한 경우에, 상기 문자 및 단어 인식 과정의 문자 인식 단계(S9)로 진행된다. The user interface process proceeds to step S9 of recognizing the character and word recognition process when the user selects the entire image captured by the user in step (S2).

상기 문자 및 단어 인식 과정은 촬영된 영상에 포함된 개별 문자들을 인식하는 단계(S9)와, 인식된 개별 문자들로부터 단어를 구성하며 구성된 단어를 연동된 사전 데이터를 검색해서 사전적 의미를 확인하는 단계(S10)와, 확인된 단어와 인식된 문자를 상기 사용자 인터페이스 과정의 상기 (c) 단계(S3)를 통해서 인식 또는 번역 완료된 결과를 사용자에게 제공하기 위한 단계(S11)를 포함한다.The character and word recognizing process includes recognizing individual characters included in the photographed image (S9), and recognizing the lexical meaning by searching dictionary data linked with the composed word constituting the word from recognized individual characters (S11) for providing the user with a result of recognizing or translating the recognized word and the recognized character through the step (c) (S3) of the user interface process.

도 3은 도 2에 도시된 문자 인식 단계(S9)를 설명하기 위한 순서도이다. 도 3을 참조하면, 문자 또는 단어를 인식하는 단계(S9)는 (h) 촬영된 영상을 전처리하는 단계(410)와, (i) 전처리된 영상에 포함된 문자들을 정규화하는 단계(420)와, (j) 개별 문자의 특징을 추출하는 단계(430)와, (k) 개별 문자의 추출된 특징을 기반으로 문자와 단어를 인식하는 단계(440)와, (l) 후처리 단계(450)를 포함한다. FIG. 3 is a flowchart for explaining the character recognition step S9 shown in FIG. Referring to FIG. 3, step (S9) of recognizing a character or word includes (h) preprocessing a photographed image 410, (i) normalizing the characters included in the preprocessed image, and , (j) extracting features of individual characters, (k) recognizing characters and words based on the extracted features of individual characters, (4) .

도 4는 도 3에 도시된 전처리 단계(410)를 설명하기 위한 순서도이다. 도 4를 참조하면, 상기 전처리 단계(410)는 (m) 입력된 영상을 분석하는 단계(411)와, (n) 분석 대상의 영상 중에서 문자 영역을 선택하는 단계(412)와, (o) 상기 영상을 구성하는 문자 영역과 배경 영역의 명도 반전의 여부를 결정하는 단계(413)와, (p) 상기 문자 영역과 배경 영역과 명도를 반전시키는 단계(414)와, (q) 상기 (o) 또는 상기 (p) 단계를 거친 영상의 문자 영역을 이진화시키는 단계(415)와, (s) 이진화된 문자 영역을 영상으로부터 분리하는 단계(416)를 포함한다. 4 is a flowchart illustrating the preprocessing step 410 shown in FIG. Referring to FIG. 4, the preprocessing step 410 comprises the steps of (411) analyzing the inputted image (m), (412) selecting a character region from the image of the analysis object (412) (413) a step (413) of determining whether the brightness of the character region and the background region constituting the image is reversed, (p) reversing the brightness of the character region and the background region (414) (415) binarizing the character region of the image through the step (p) or separating the binarized character region from the image (416).

상기 전처리 단계(410)는 사용자 인터페이스 과정에서 촬영된 영상의 히스토그램 등을 통해서 영상을 분석하고, 문자 및 배경 영역을 선별해서 색상 값(예, 명도)을 참고하여 문자 및 배경 영역의 반전 여부를 결정하는 다수의 서브 단계들을 수행할 수 있다. The preprocessing step 410 analyzes the image through the histogram of the captured image in the user interface process, and determines whether the character and the background area are inverted by referring to the color value (e.g., brightness) Lt; RTI ID = 0.0 > a < / RTI >

도 5는 도 3에 도시된 후처리 과정(450)을 설명하기 위한 순서도이다. 도 5 를 참조하면, 상기 후처리 과정(450)은 개별 문자의 추출된 특징을 기반으로 문자 또는 단어의 인식 결과를 분석하는 과정(451)과, 촬영된 영역 내의 문자 영역과 배경 영역을 구분하는 과정(452)과, 문자 이외의 배경 영역을 제거하는 과정(453)과, 상기 (I) 과정이 완료됨을 알리기 위한 정보를 생성하는 과정(454)을 포함한다. FIG. 5 is a flowchart for explaining the post-processing process 450 shown in FIG. Referring to FIG. 5, the post-process 450 includes a step 451 of analyzing a recognition result of a character or a word on the basis of extracted features of individual characters, A step 452 for removing background areas other than characters, and a step 454 for generating information for informing that the step (I) is completed.

상기 후처리 과정(450)는 오인식되거나 잡음들로 인한 오류를 바로잡기 위한 과정로서, 인식된 문자 중 비 문자를 잘못 인식되었는지를 구별해서 처리하기 위한 과정이다. The post-process 450 is a process for correcting an error due to misidentification or noise, and discriminating whether a non-character among recognized characters is erroneously recognized and processed.

도 6은 본 발명에 따른 문자 인식 방법의 구현 예를 설명하기 위한 도면으로서, 도 6은 터치 스크린(510)을 포함하는 장치의 문자 인식 구현 방법의 일 예이다. 도 6은 촬영된 영상의 전체를 문자 인식의 대상으로 본 발명을 적용한 예로서, 선택되지 않은 문자(501)와, 선택된 문자(502) 모두가 이미 문자 인식의 대상으로 처리되나, 그 결과는 사용자가 선택한 문자(502)에 대해 제공하는 실시 예이다. FIG. 6 is a view for explaining an embodiment of a character recognition method according to the present invention, and FIG. 6 is an example of a method for implementing character recognition in a device including a touch screen 510. 6 shows an example in which the present invention is applied to an object of character recognition as a whole of a photographed image, in which both the non-selected character 501 and the selected character 502 are already subjected to character recognition, Is provided for the selected character 502.

도 6a는 터치 스크린(510)을 예로 했으나, 네비게이션 키(520) 등을 이용해서 사용자가 특정 문자나 단어를 선택하는 형태로도 구현될 수 있다. 도 6b는 촬영된 영상(610) 중 일부 범위(601)를 문자 인식의 대상으로 선택한 예로서, 선택된 범위(601) 중에서도 사용자가 선택한 문자나 단어에 대한 인식 결과를 제공하는 실시 예이다.6A illustrates the touch screen 510. However, the touch screen 510 may be implemented by a user selecting a specific character or word using the navigation key 520 or the like. 6B is an example in which a certain range 601 of the photographed image 610 is selected as an object of character recognition and the recognition result for the character or word selected by the user is selected from among the selected range 601. [

도 7a 내지 도 7d는 본 발명에 따른 문자 인식 방법의 구현 예를 설명하기 위한 도면들로서, 문자 인식의 대상 범위 또는 인식된 문자 또는 단어를 선택하는 방법에 대한 구현 예를 설명하기 위한 도면들이다. 도 7a 내지 도 7d는 터치 스크 린을 이용한 예로서, 별도의 터치 펜 또는 사용자의 신체 일부에 의한 구현이 가능하다. 도 7a는 선택하고자 하는 단어 위에 사선(701)을 긋는 형태의 실시 예이고, 도 7b는 선택하고자 하는 단어에 정형화되지 않은 테두리(702)를 긋는 형태이고, 도 7c와 도 7d 각각은 정형화된 형태의 사각의 박스(703, box)와 밑줄(704)을 긋는 형태의 예를 도시한 도면들이다. FIGS. 7A to 7D are diagrams for explaining an embodiment of a character recognition method according to the present invention, and are views for explaining an implementation example of a target range of character recognition or a method of selecting recognized characters or words. 7A to 7D are examples using a touch screen, and can be realized by a separate touch pen or a part of the user's body. FIG. 7A shows an embodiment in which an oblique line 701 is drawn on a word to be selected, FIG. 7B shows an unformed frame 702 in a word to be selected, FIG. 7C and FIG. 7D each show a form And a box 703 (box) and an underline 704 are drawn.

도 9a 내지 도 9d는 본 발명에 따른 촬영된 영상으로부터 문자를 인식하는 또 다른 예를 설명하기 위한 도면들로서, 촬영된 영상 중 일부 범위만을 문자 인식의 대상으로 하는 예를 설명하기 위한 도면이다. 도 9d는 번역된 결과를 전체 화면으로 사용자에게 제공되는 화면의 예이다. 9A to 9D are diagrams for explaining another example of recognizing a character from a photographed image according to the present invention. FIG. 9A to FIG. 9D illustrate an example in which only a part of the photographed image is subjected to character recognition. FIG. 9D is an example of a screen in which the translated result is provided to the user in full screen.

본 발명은 촬영된 영상의 일부 또는 전체 범위를 선택하거나, 인식 또는 번역된 문자와 단어를 선택하는 데 있어서, 터치 스크린 또는 네비게이션 키와 같은 입력 수단들이 이용될 수 있다. The present invention can use input means such as a touch screen or a navigation key to select a part or whole range of the photographed image, or to select recognized or translated characters and words.

본 발명은 촬영된 영상에 포함된 문자를 문자로서 인식하고, 인식된 일련의 문자들로부터 단어를 구성해서 번역하기 위한 방법에 관한 발명으로서, 카메라로 촬영된 문자 영상에 포함된 문자를 인식하는 방법은 촬영된 영상에 포함된 문자 및 일련의 문자들로 구성된 단어를 인식하고 번역해서 사용자에게 그 위치 정보를 화면을 통해 제공하거나, 사용자가 선택한 화면 상의 위치에 존재하는 단어에 대해서 전자사전의 데이터 베이스와 연동해서 번역하고 그 결과를 사용자에게 직관적으로 제공하기 위한 인터페이스 등을 제공한다.The present invention relates to a method for recognizing a character included in a photographed image as a character and constituting a word from a recognized series of characters and translating it, and a method for recognizing a character included in a character image photographed by a camera Recognizes and translates a word composed of a character and a series of characters included in the photographed image to provide the user with the positional information on the screen or to search the database of the electronic dictionary And an interface for intuitively providing the result to the user.

도 8은 본 발명의 제2 실시 예에 따른 문자 인식 및 번역 방법을 설명하기 위한 순서도이고, 도 16은 본 발명의 제3 실시 예에 따른 문자 인식 및 번역 방법을 설명하기 위한 순서도들이다. 본 발명의 제2 및 제3 실시 예는 크게 2가지 측면으로 요약될 수 있다.FIG. 8 is a flow chart for explaining a character recognition and translation method according to a second embodiment of the present invention, and FIG. 16 is a flowchart for explaining a character recognition and translation method according to a third embodiment of the present invention. The second and third embodiments of the present invention can be roughly summarized in two aspects.

첫째는 촬영된 문자 영상 인식 과정에서 사용자가 직접 문자 인식할 영역을 선택하며, 문자 인식된 개별 문자 또는 단어의 위치 영역 정보가 인식된 문자 영상이 제공되고 있는 화면 상에 직접 표시되는 점과, 사용자가 최종적으로 번역하고자 하는 문자열 또는 특정 단어를 선택하면 휴대 단말에 내장된 전자사전을 이용해서 해당 단어를 번역해서 사용자에게 직관적으로 제공하기 위한 일련의 과정들이다.First, in the process of recognizing a photographed character image, the user directly selects an area to be recognized as a character, and the position area information of the recognized individual character or word is directly displayed on the screen on which the recognized character image is provided, If the user selects a character string or a specific word to be finally translated, it is a series of processes for translating the word using the electronic dictionary built in the portable terminal and intuitively providing the translated word to the user.

둘째는 중국어 또는 일본어와 같이 언어 구조상 띄어쓰기, 즉 영어와 다르게 단어 사이에 공백이 없는 언어에 있어서, 촬영된 영상에 포함된 문자들을 문자로서 인식하고 내장된 전자사전의 데이터 베이스를 이용해서 번역하며, 이 때에 단어별 띄어쓰기가 되어 있지 않은 문자열에 대해서 단어별 띄어쓰기 및 구분을 위한 기술적 방법들이다.The second is to recognize characters included in the photographed image as characters and translate them using a built-in electronic dictionary database in a language having no space between words different from English, such as Chinese or Japanese, These are technical methods for word spacing and segmentation for non-spaced strings.

도 8을 참조하면, 본 발명의 제2 실시 예에 따른 촬영된 문자 영상에 포함된 문자의 인식 및 번역 방법은 (a) 피사체가 문자로서 촬영된 영상에서 인식하고자 하는 영역을 선택하는 과정과, (b) 문자 영상의 사용자가 선택한 영역에 포함된 문자들을 문자로서 인식해서 저장하는 과정과, (c) 상기 (b) 과정에서 인식된 문자들 및 단어들을 선택 가능한 형태로 사용자에게 제공하는 과정과, (d) 상기 (c) 과정에서 제공되는 선택 가능한 문자들 또는 단어들 중 번역하고자 하는 대상을 사용자가 선택하는 과정과, (e) 사용자가 선택한 문자 또는 단어들을 검색하는 과정 및 검색된 문자 또는 단어들을 검증하는 과정과, (f) 상기 (e) 과정에서 검증이 완료된 문자 또는 단어들의 번역 결과를 사용자에게 제공하는 과정과, g) 상기 (f) 과정 이후에 전자사전을 구동시키는 과정과, (h) 상기 (g) 과정에서 상기 전자사전이 구동된 상태에서 번역 결과를 제공하는 화면으로 복귀여부를 결정하는 과정과, (i) 다른 번역 대상의 단어를 선택하는 과정과, (j) 상기 (i)과정에서 다른 번역 대상의 단어를 선택하지 않을 경우에 다른 문자 영상 내의 인식 범위을 선택하는 과정과, (k) 상기 (j)과정에서 인식되지 않은 다른 문자 영상 내의 범위를 선택하지 않았을 경우에 다른 문자 영상의 인식 여부를 판단하는 과정을 포함하며, 상기 (f) 과정 이후에 전자사전을 구동시키기 위한 상기 (g) 과정은 전자사전을 직접 구동시킬 수 있는 수단을 화면을 통해 사용자에게 제공하고, 구동 수단이 선택되면 전자사전이 구동됨을 화면을 통해 사용자에게 제공한다. Referring to FIG. 8, a method of recognizing and translating characters included in a photographed character image according to a second exemplary embodiment of the present invention includes the steps of (a) selecting an area to be recognized in an image of a photographed subject, (b) recognizing and storing the characters included in the area selected by the user of the character image as a character, and (c) providing characters and words recognized in the step (b) (d) selecting a target to be translated among the selectable characters or words provided in the process (c); (e) searching a character or words selected by the user; (F) providing translation results of characters or words that have been verified in step (e) to a user; g) activating an electronic dictionary after step (f) Determining whether to return to the screen providing the translation result in the state in which the electronic dictionary is driven in the step (g); (i) selecting a word to be translated; and (j) selecting a range of recognition in another character image when a word of another translation target is not selected in the step (i); and (k) selecting a range within another character image not recognized in the step Wherein the step (g) for driving the electronic dictionary after the step (f) comprises the step of directly driving the electronic dictionary through the screen, When the driving means is selected, the electronic dictionary is displayed on the screen to the user.

상기 (a) 과정은 휴대 단말기 등에 포함된 화면을 통해서 제공되는 문자 영상 중에서 직접 사용자가 인식하고자 하는 영역을 설정하고, 설정된 영역의 위치 정보를 화면을 통해서 사용자가 쉽게 인지할 수 있도록 화면을 통해 제공되고 있는 문자 영상 상에 중복되도록 표시하기 위한 과정이다. 상기 (a) 과정은 터치 스크린의 드래그 또는 마우스의 포인팅 장치를 이용해서 인식하고자 하는 영역을 사용자가 설정할 수 있다.In step (a), an area to be directly recognized by a user is set in a character image provided through a screen included in a mobile terminal or the like, and the user can easily recognize the location information of the set area through a screen To be displayed on the character image. In the step (a), a user can set an area to be recognized by dragging a touch screen or using a pointing device of a mouse.

상기 (b) 과정은 상기 화면에 표시된 문자 영상에 포함된 문자들을 인식하고, 인식된 개별 문자들을 디지털 문자 데이터의 형태로 저장 및 출력하기 위해서 문자 영상 인식 및 그 결과를 저장하기 위한 과정이다. 상기 (b) 과정은 사용자가 선택한 문자 영상 내의 영역에 포함된 문자들을 대상으로 인식을 실행함으로써, 문자 인식률 및 인식에 소요되는 시간을 단축시킬 수 있다.The step (b) is a process for recognizing characters included in the character image displayed on the screen, and for recognizing the character image and storing the result in order to store and output the recognized individual characters in the form of digital character data. The step (b) recognizes the characters included in the area of the character image selected by the user, thereby shortening the time required for recognition and recognition of the character.

상기 (c) 과정은 상기 화면을 통해 제공되는 문자 영상 위에 인식된 문자들로 구성된 모든 단어들의 위치 정보를 직접 제공하기 위한 과정으로서, 상기 (c) 과정은 상기 (b) 과정에서 인식된 문자들 및 단어들을 인식 이전 상태의 문자 영상이 제공되는 화면 상에 중복되는 형태로 사용자에게 제공하며, 상기 (b) 과정에서 인식된 문자들 및 단어들을 둘러싸는 색상이 있는 사각을 형성해서 사용자가 인식된 문자 또는 단어들을 선택할 수 있도록 제공하며, 사용자가 전체 문자 영상 중 일부만을 선택한 경우에는 사용자가 선택한 영역의 위치 정보에 포함된 단어 또는 문자들의 위치 정보만을 상술한 방법으로 제공한다.(C) is a process for directly providing location information of all words composed of recognized characters on a character image provided on the screen, wherein the step (c) And providing words to the user in the form of overlapping on a screen provided with a character image in a pre-recognition state, and forming a rectangle having a color surrounding the recognized characters and words recognized in the step (b) And provides only the location information of the words or characters included in the location information of the area selected by the user in the above-described manner when the user selects only a part of the entire character images.

상기 (d) 과정은 상기 (c) 과정에서 제공되는 선택 가능한 문자들 또는 단어들 중 번역하고자 하는 대상을 사용자가 선택하는 과정으로서, 상기 화면을 통해 제공되는 문자 영상 위에 그 위치 정보가 표시된 단어들 중에서 사용자가 선택하고자 하는 위치에 가장 근접한 곳에 위치된 단어 또는 문자열의 위치 정보를 그 이외의 단어 또는 문자열들(선택되지 않은)과 구분가능하도록 하이라이팅(highlighting)한다. 즉, 상기 (d) 과정은 단어 또는 문자열의 시작 위치와 종료 위치 사이의 중간 위치와, 사용자가 선택한 위치 사위의 거리를 산출해서 사용자가 선택한 위치와 가장 인접하게 위치된 단어 또는 문자들의 위치를 결정하고, 사용자에 의해 선택된 것으로 판단된 단어 또는 문자열의 위치가 이웃한 다른 단어 또는 문자열들에 비해서 상대적으로 사용자가 인지하기 쉽도록 해당 위치 정보(사용자가 선택한 단어 및 문자열 또는 사용자가 선택한 단어 및 문자열에 인접한 단어 및 문자열)가 선택되지 않은 단어들 또는 문자들 간 다른 색상 또는 다른 굵기를 갖도록 설정한다.In the step (d), the user selects a target object to be translated among the selectable characters or words provided in the step (c), and the word is displayed on the character image provided on the screen, Highlighting the location information of a word or a string located nearest to a position to be selected by the user so as to be distinguishable from other words or strings (not selected). That is, the step (d) calculates the distance between the starting position and the ending position of the word or the character string and the distance between the position of the position selected by the user and determines the position of the word or characters located closest to the position selected by the user And the location of the word or the string determined to be selected by the user is relatively positioned relative to other neighboring words or strings so that the user can perceive the location information (the word and the string selected by the user or the word and the string selected by the user) Adjacent words and strings) have different colors or different thicknesses between unselected words or characters.

상기 (e) 과정은 사용자가 선택한 위치의 단어 또는 문자열을 검색어 단어로 설정해서 전자사전의 데이터베이스에 연동해서 검색하고, 그 결과를 검증하기 위한 과정이다. 도 23은 본 발명의 제2 실시 예의 문자열 후처리 및 전자사전 데이터 베이스에 연동 검색 후보 단어들의 구성 방법에 대한 순서도이다. 도 23을 참조하면, 상기 (e) 과정이 적용되는 대상이 중국어 또는 일본어와 같이 단어 간 공백이 없는 언어가 대상인 경우라면, 상기 (e) 과정은 상기 문자 영상에 대한 문자 인식 후 저장된 모든 문자열 데이터들을 로딩하는 과정과, 상기 로딩된 문자열들 속에 포함된 숫자 또는 특수기호들을 필터링하는 과정과, 상기 필터링하는 과정을 거친 문자열들을 전자사전과 비교해서 검색된 단어들을 분리하는 과정과, 상기 분리된 단어들 중에서 화면을 통해서 사용자가 직접 선택한 단어들에 대해서 전자사전과 연동해서 검색하는 과정을 포함할 수 있다. 상기 (e) 과정은 전자사전을 기반으로 인식된 문자들로 구성된 단어들을 검색하고, 검색된 단어들의 리스트에 포함된 표제어 또는 키워드를 상호 비교해서 번역된 내용을 검증한다.In the step (e), a word or a string of a position selected by the user is set as a search word, and the search is performed in conjunction with the database of the electronic dictionary, and the result is verified. FIG. 23 is a flowchart of a character post-process and a method of constructing interlocked search candidate words in the electronic dictionary database according to the second embodiment of the present invention. Referring to FIG. 23, if a target language to which the process (e) is applied is a target language such as Chinese or Japanese, the process (e) A step of filtering numbers or special symbols included in the loaded strings; separating the searched words by comparing the strings subjected to the filtering process with an electronic dictionary; And searching for words selected by the user through the screen in association with the electronic dictionary. In the step (e), words composed of recognized characters based on the electronic dictionary are searched, and the translated contents are verified by comparing the headwords or keywords included in the list of searched words.

도 10a 및 도 10b와, 도 11a 와 도 11b는 본 발명에 따른 구체적인 실시 영상의 예를 설명하기 위한 도면들이다. 도 10a와 도 10b는 실제 촬영 및 인식된 문장 영상 및 그 위에 직접 표시되어 있는 전자사전 데이터 베이스 검색어 후보 단어들의 위치 정보를 사각형의 형태로 표시한 것을 설명한다. 도 11a 내지 도 11c는 도 10a와 도 10b에 해당하는 일련의 과정들을 도식화하여 설명하기 위한 도면들이다. 최초 인식된 개별 문자 및 문자열들에 대한 후처리 및 최종 전자사전 검색어 후보 단어들의 구성이 순차적으로 이루어짐을 나타낸다. FIGS. 10A and 10B and FIGS. 11A and 11B are views for explaining an example of a concrete implementation image according to the present invention. FIGS. 10A and 10B illustrate the fact that the actual photographed and recognized sentence images and the position information of the electronic dictionary database search word candidate words directly displayed thereon are displayed in the form of a rectangle. FIGS. 11A to 11C are diagrams illustrating a series of processes corresponding to FIGS. 10A and 10B. The post processing for the first recognized individual character and strings and the configuration of the final electronic dictionary query candidate words are sequentially performed.

도 10a는 화면에 표시된 문자 영상이고, 도 10b는 화면 영상 위에 문자 인식 후처리를 통해 구성된 단어들의 위치정보가 표시된 화면의 영상이다. 도 11a는 문자 영상 인식 결과 개별 문자 데이터이고, 도 11b는 단어 데이터 베이스를 이용해서 인식된 문자들이 후처리된 상태를 도시한 도면이고, 도 11c는 특수 문자 및 기호가 제거된 후의 최종 단어 구성된 상태를 도시한 도면이다.10A is a character image displayed on the screen, and FIG. 10B is an image of a screen on which position information of words constructed through character recognition processing is displayed on a screen image. 11A is a diagram showing a state in which characters recognized by using the word database are post-processed, FIG. 11C is a diagram showing a state in which a final character after the removal of special characters and symbols Fig.

상기 (f) 과정은 상기 화면에 표시된 문자 영상 위에 사용자에 의해 선택된 위치의 전자사전 데이터베이스 검색어에 대해서, 상기 전자사전 데이터베이스에서 검색된 사전 표제어 또는 키워드와 그에 해당하는 의미 정보를 사용자에게 직접 제공하기 위한 과정이다. 상기 (f) 과정에서 제공되는 번역 결과들은 사용자에게 제공되는 다른 영상 정보가 투영될 수 있는 반투명한 형태로 제공하고, 이전의 검색 결과와 중복될 경우에 이전 검색 결과와 중복되지 않도록 화면을 통해 사용자에게 제공된다.(F) is a process for directly providing a dictionary entry word or keyword and corresponding semantic information found in the electronic dictionary database to an electronic dictionary database search word at a position selected by a user on a character image displayed on the screen, to be. The translation results provided in the step (f) may be provided in a translucent form in which other image information provided to the user can be projected. If the translation results are overlapped with the previous search results, Lt; / RTI >

본 실시 예에 따른 문자 영상의 인식 및 번역 방법은 사용자가 인식하고자 하는 영역을 선택적으로 지정할 수 있도록 화면 표시를 구성하는 부분과, 문자 인식된 결과 데이터 정보들 중에서 화면 장치에 표시된 인식 문자 영상 위에 인식된 해당 문자열 또는 단어들의 상대적인 위치 정보를 표시해서 사용자가 쉽게 구 정보를 구별할 수 있도록 화면 장치에 표시하는 과정과, 그 식별된 단어들 중에서 사용 자가 선택하고 그 선택된 단어에 대한 전자사전 검색 후 번역 연동 결과를 사용자에게 직관적으로 제공하는 과정들로 크게 구분할 수 있다.The method of recognizing and translating character images according to the present embodiment includes a part for configuring a screen display so that a user can selectively specify an area to be recognized and a part for recognizing and recognizing characters on a recognition character image displayed on a screen device Displaying the relative position information of the corresponding character string or words on the screen device so that the user can easily distinguish the old information; selecting from among the identified words, And the process of intuitively providing the interworking result to the user.

촬영된 문자 영상에 포함된 문자들을 문자로서 인식하기 위한 방법은 도 3에 도시된 과정에 따른다. 도 3을 참조하면, 촬영된 문자 영상의 문자 인식 과정은 해당 문자 영상의 잡영 제거 및 영상 이진화(Binarization)와 같은 전처리 과정(410)과, 이후 개별 문자를 분리해서 정규화하는 과정(420)과, 개별 문자의 특징을 대변할 수 있는 개별 문자의 특징 추출 과정(430)과, 이후 추출된 각 문자의 특징은 이미 저장되어 있는 각 문자의 개별 특징들에 대한 데이터에 비교해서 가장 우선 순위가 높은 정보들(기 저장된 각 문자의 개별 특징들에 대한 데이터에 비교해서 가장 일치하는 결과)을 출력하는 특징 기반 문자 인식 과정(440)과, 인식된 문자인식 결과들을 분류하고 저장하는 후처리 과정(450)을 포함한다.A method for recognizing characters included in a photographed character image as a character follows the procedure shown in Fig. Referring to FIG. 3, the process of character recognition of a photographed character image includes a preprocessing process 410 such as deserialization and image binarization of the character image, a process 420 of separating and normalizing individual characters, A feature extracting process 430 for extracting features of individual characters that can represent characteristics of individual characters, and a process of extracting characteristics of individual characters, A feature-based character recognizing process 440 for outputting a character recognition result (the most matching result compared to the data of the individual characteristics of each character stored previously), a post-process 450 for classifying and storing the recognized character recognition results, .

도 9의 a 내지 c는 문자 영상 인식 후 저장된 전체 인식 데이터의 구성 형태를 설명하기 위한 도면이다. 도 9a 내지 도 9c를 참조하면, 문자 영상 인식의 결과로서 개별 인식된 문자와 개별 문자로 이루어진 개별 단어 및 개별 단어들로 이루어지는 개별 문자열 라인의 구조, 최종적으로 문자열 라인으로 이루어지는 블록의 형태로 구성되는 내용들을 순차적으로 나타내고 있다. 일반적으로 영어와 같은 경우에는 개별 단어 사이에 띄어쓰기된 형태의 문자열에 대해서 단어들 사이의 공백에 대해서도 인식하여 그 결과를 출력하여 사용자가 개별 단어들을 직접 인지할 수 있도록 구성되어 있다. 깎러나 이하 연계된 내용으로 상세 설명들을 추가로 이어나갈 것이나, 중국어나 일본어와 같이 단어 간 띄어쓰기 형태의 문자열이 아닌 언어 에 대해서 문자 영상 인식을 수행하고자 할 때에는, 별도의 단어를 분리하는 과정을 더 거쳐야 한다. 상술한 문제를 해결하기 위해 사용되고 있는 방법은 크게 다음과 같이 구분될 수 있다.FIGS. 9A to 9C are diagrams for explaining the configuration of the overall recognition data stored after recognition of a character image. 9A to 9C, a structure of individual string lines consisting of individual words and individual words composed of individual recognized characters and individual characters as a result of character image recognition, and finally, a structure of blocks composed of string lines Contents are shown sequentially. Generally, in the case of English, a space between words is recognized for a character string in a space between individual words, and the result is output so that the user can recognize individual words directly. However, when it is desired to perform character image recognition for a language other than a character string in a space between words such as Chinese or Japanese, a process of separating a separate word is further performed It must go through. The methods used to solve the above problems can be largely classified as follows.

첫 번째 방법은 문자 영상에 대한 개별 문자 인식 후, 해당 국가의 언어로 씌여진 문자열 문장에 대해서 개별 의미 있는 구성 요소별 단어들을 분리하는 형태소 해소 방법이다.The first method is a morphological solution method that separates individual meaningful component words for a string sentence written in the language of the corresponding country after recognizing individual characters for the character image.

두 번째 방법은 개별 문자 인식 후 해당 언어에 대한 대규모 단어 리스트 데이터 베이스를 별도 이용해서 인식된 문자열 문장에 대해서 단어별로 분리해내는 과정을 이용하는 것이다. 그러나, 상술한 방범들은 별도로 대규모의 정보 및 휴대폰 메모리와 CPU와 같은 자용이 추가로 요구되며, 이로 인해서 현재의 휴대 단말기기에 적용하는데 상당한 제약이 따른다. The second method is to use a large word list database for the language after recognizing individual characters and to separate the recognized string sentences by words. However, the above-described security measures require additional information such as a large-scale information and a memory such as a mobile phone memory and a CPU, thereby imposing a considerable restriction on application to current portable terminal devices.

문자 인식을 수행하는 과정 중에 상기 전처리 과정(410)은 도 5에 도시된 바와 같이 인식하고자 하는 문자 영상 내의 영상 문자, 즉 문자색이 문자의 바탕색보다 더 밝은 경우에도 문자 인식이 가능하도록 문자 영상 전처리 단계에서 해당 영상을 처리하는 과정을 포함한다. 상술한 과정은 문자 인식기의 종류별 차이가 있을 수 있으나, 문자 인식기 구조 자체가 상술한 과정들을 직접 포함하는 형태로도 구성될 수 있다.During the process of performing character recognition, the preprocessing process 410 may include a preprocessing step 410 for performing a character image preprocessing step such that, as shown in FIG. 5, a character image in a character image to be recognized, And processing the corresponding image in the image processing unit. Although the above-described process may have different types of character recognizers, the character recognizer structure itself may be configured to directly include the above-described processes.

도 12는 사용자에 의한 전자사전 데이터 검색어 단어의 선택 방법의 실시 예를 설명하기 위한 것이다. 화면에 해당 위치가 표시된 검색어 후보 단어들 중에서 사용자가 도 12a에 도시된 바와 같이 위치를 선택한다면, 해당 검색어 후보 단어는 검색어 단어로 선택됨과 동시에 전자사전 데이터 베이스 연동 검색 번역 결과 정보로서 사용자에게 제공될 수 있다. 선택된 검색어 단어는 이웃한 다른 검색어 후보 단어들과 쉽게 구분될 수 있도록 다양한 방법들이 이용될 수 있다. 특히 검색어 후보 단어들 중에서 검색어 단어를 사용자가 선택할 대 직접 해당 단어의 위치 영역을 선택하지 않았더라도 화면 상에서 사용자가 선택한 영영 위치에 가장 인접한 검색어 후보 단어(도 12b의 사각)의 위치를 도 12c에 도시된 바와 같이 자동으로 계산해서 선택 가능하게 제시해 주는 방법을 포함해서 구성될 수 있다. 12 is a diagram for explaining an embodiment of a method of selecting words of an electronic dictionary data search word by a user. 12A, if the user selects a position from among the candidate words displayed on the screen as shown in FIG. 12A, the candidate word of the search word is selected as a search word word, and at the same time, provided to the user as search result information linked with the electronic dictionary database . Various methods can be used so that the selected search word can be easily distinguished from neighboring candidate words. In particular, even if the user does not select the position area of the corresponding word in the user's choice of the candidate word among the candidate words, the position of the candidate word candidate (the square in FIG. 12B) closest to the user's selected position on the screen is shown in FIG. 12C As well as a method of automatically calculating and presenting a selection as shown.

도 14는 사용자에 의해 선택된 검색어 단어와 검색된 전자사전의 키워드 또는 표제어가 일치하는 지에 대한 검증 과정을 설명하기 위한 순서도이다. 전자사전 검색 번역 결과를 화면을 통해서 제공하는 과정에서 사용자가 선택한 검색어 단어와 이에 대응되는 전자사전의 검색 결과 정보(사전 표제어 도는 키워드)가 서로 일치하는지 한 번 더 검증하기 위한 과정들이다. 도 14에 따른 검증 방법은 전자사전의 출력 결과가 원래 문자 영상에서 인식되어 선택된 검색어 단어에 대한 오인식될 가능성이 있는 경우에 사용자가 직관적으로 검증할 수 있는 방법을 제공할 수 있다. 특히, 전자사전 종류 별로 검색 기능이 상이할 수 있으며, 검색 기능이 상이한 경우에 해당 언어를 모르는 사용자는 제공되는 정보가 정확한 정보인지 알 수 없는 문제가 있다. 그러나, 도 14에 제시된 검증 과정들을 통해서 상술한 문제들을 해소시킬 수 있다.FIG. 14 is a flowchart for explaining a process of verifying whether a keyword of a search word selected by a user matches a keyword or a lemma of the searched electronic dictionary. Electronic dictionary search In the process of providing the translation result through the screen, it is a process for verifying once again whether the search word selected by the user matches the search result information (dictionary entry word or keyword) of the corresponding electronic dictionary. The verification method according to FIG. 14 can provide a method that the user can intuitively verify when the output result of the electronic dictionary is recognized in the original character image and is likely to be misrecognized for the selected search word. In particular, the search function may be different for each electronic dictionary type, and when the search function is different, a user who does not know the language may not know whether the provided information is correct information. However, the above-described problems can be solved through the verification processes shown in FIG.

도 15는 사용자가 선택한 검색어 단어에 대한 전자사전 데이터 베이스의 검색 결과를 화면 상에 표시하는 예들을 구체적으로 설명하기 위한 도면들로서, 문자 영상 전체 또는 일부 영역만을 대상으로 하는 결과를 화면상에 표시하는 방법들을 설명하기 위한 도면들이다. 도 15a와 도 15b는 상기 사용자가 선택한 전자사전 검색어 단어에 대한 전자사전 데이터 베이스의 검색 결과를 표시하는 화면들 각각의 예로서, 문자 영상의 전체 또는 일부 영역을 인식 대상으로 한 결과가 제공되는 화면들이다. 도 15a는 전자사전 데이터 베이스에서 검색된 사전 키워드(또는 표제어; 802)가 반투명 창의 형태로 표시되고 있으며, 상술한 사전 키워드(802)의 검색된 결과(803)도 별도의 반투명 창으로 사용자에게 제공된다. 도 15b는 사용자가 문자 영상의 일부 영역(804)만을 선택한 예이다. 도 15c와 도 15d는 사용자가 선택한 검색어 단어에 대한 전자사전 데이터 베이스 검색 결과를 표시하는 각각의 예로서, 도 15c는 화면의 하단에 표시되는 예이고, 도 15d는 화면 상단에 표시되는 예이다. FIG. 15 is a diagram for explaining examples of displaying a search result of an electronic dictionary database for a search word selected by a user on a screen, in which a result for only a whole or a part of a character image is displayed on the screen Are diagrams for illustrating the methods. 15A and 15B are views showing examples of screens displaying the search result of the electronic dictionary database for the electronic dictionary search word selected by the user, admit. 15A shows a dictionary keyword (or headword) 802 retrieved from an electronic dictionary database in the form of a semi-transparent window, and the retrieved result 803 of the dictionary keyword 802 is also provided to the user as a separate translucent window. 15B is an example in which a user selects only a partial region 804 of a character image. 15C and 15D show examples of the electronic dictionary database search results for the search word selected by the user. FIG. 15C is an example displayed at the bottom of the screen, and FIG. 15D is an example displayed at the top of the screen.

도 16은 본 발명의 제3 실시 예에 따른 문자 영상의 인식 및 번역 방법을 설명하기 위한 순서도이다. 도 16을 참조하면, 본 실시 예에 따른 휴대 단말기에 부착된 카메라를 이용하여 문자 영상을 촬영해서 문자 영상을 인식 및 번역해서 사용자에게 제공하기 위한 방법은 (a) 상기 카메라로 촬영된 문자 영상을 상기 화면을 통해 사용자에게 사용자가 선택가능하게 제공하는 과정과, (b) 상기 (a) 과정에서 사용자에 의해 선택된 문자 영상 내의 인식 대상 영역에 포함된 문자들을 인식하고, 인식된 개별 문자들을 저장하기 위한 과정과, (c) 상기 화면을 통해 제공되는 문자 영상 중 번역하고자 하는 영역을 선택하고자 하는 과정과, (d) 상기 (c) 과정에서 선택된 영역에 포함된 문자열들 후처리 하고, 후처리된 문자열에 포함된 개별 문자들로부터 검색어 후보 단어들을 구성하고, 검색어 후보 단어들 중에서 검색어 단어를 선정하는 과정과, (e) 상기 (d) 과정에서 선정된 상기 검색어 단어에 대응되는 전자사전의 데이터 베이스에서 검색된 결과를 사용자에게 제공하는 과정과, (f) 사용자가 선택적으로 휴대 단말기에 내장된 전자사전을 구동시키거나 종료시키는 과정을 포함한다. 16 is a flowchart illustrating a method of recognizing and translating a character image according to a third embodiment of the present invention. 16, a method for capturing a character image using a camera attached to the portable terminal according to an embodiment of the present invention and recognizing and translating the character image to provide the character image to a user includes the steps of: (a) (B) recognizing characters included in the recognition target area in the character image selected by the user in the step (a), storing the recognized individual characters, and (C) selecting an area to be translated of the character image provided through the screen; (d) post-processing the strings included in the area selected in the step (c) (E) selecting one of the candidate word candidates from among individual words included in the character string, Providing a search result to a user in a database of the electronic dictionary corresponding to the selected search term word; and (f) selectively driving or terminating an electronic dictionary built in the portable terminal by the user.

상기 (a) 과정은 상기 화면 장치에 표시된 문자 영상 위에서 직접 사용자가 인식하고자 하는 문자 영상 영역을 선택하고 그 해당 선택 영역을 화면 장치에 표시된 문자 영상 위에 사용자가 쉽게 인지할 수 있도록 저장하고 표시하는 과정이고, 상기 (b) 과정은 상기 화면에 표시된 영역에 해당하는 문자 영상 영역에 한해서 문자 영상에 포함된 문자들을 인식하고, 인식된 개별 문자들을 디지털 문자 데이터의 형태로 출력 또는 저장하기 위한 문자 영상 인식 및 인식 결과 문자열들에 대한 정보를 저장하는 과정이다. 상기 (c) 과정은 상기 화면 장치에 표시된 문자 영상 위에서 사용자가 단어 번역을 위해서 선택하는 부분의 위치 정보를 저장하고, 해당 위치 정보와 가장 인접한 곳에 위치되며 이미 인식되어 저장된 문자 정보와 상기 문자 정보를 포함하는 위치에 존재하는 하나의 문자열을 호출하는 과정이다. In the step (a), the user directly selects a character image region to be recognized on the character image displayed on the screen device, and stores the selected character region so that the user can easily recognize the selected character image on the character image displayed on the screen device (B) recognizes the characters included in the character image only in the character image area corresponding to the area displayed on the screen, and recognizes the character images for outputting or storing the recognized individual characters in the form of digital character data And information on the recognition result strings. In the step (c), the position information of a portion selected by the user for word translation is stored on the character image displayed on the screen device, and the character information and the character information, which are located nearest to the corresponding position information, This is the process of calling a single string that exists at the containing position.

상기 (d)과정은 상기 (c)과정에서 호출된 하나의 문자열에 대해서 이 문자열에 포함된 문자를 제외한 숫자 및 특수 기호 등을 필터링시키기 위한 선택된 문자열의 후처리 과정과, 상기 후처리된 문자열에 대해서 문자열에 포함된 개별 문자들을 이용해서 전자사전의 데이터 베이스 검색을 위한 검색어 후보 단어들을 구성하고 검색된 후보 단어들 중에서 최종 전자사전 데이터 베이스 검색어 단어를 선택하는 과정을 포함한다. 상기 (e)과정은 상기 화면에 표시된 문자 영상 위에 상기 선 정된 전자사전 데이터 베이스의 검색어 단어에 대응되는 상기 전자사전 데이터 베이스에서 검색된 결과에 해당하는 사전 표제어 또는 키워드와 의미 정보를 직접 제공하는 과정이고, 상기 (f)과정은 상기 화면에 표시된 문자 영상 위에 상기 선정된 전자사전 데이터 베이스 검색어 단어를 전자사전의 표제어 또는 키워드로 사용해서 사용자가 선택적으로 상기 휴대 단말기에 내장된 전자사전을 직접 구동시키거나 종료하는 과정이다. 본 실시 예는 중국어 및 일본어의 단어에 대한 전자사전 연동 번역시 효과적인 방법을 제공할 수 있으며, 한국어의 복합 명사 등과 같이 의미가 있는 단어별 띄어 쓰기가 이루어지지 않는 언어에 대해서도 해당 복합 명사 단어의 의미 있는 개별 단어에 대해서도 전자사전을 통한 번역 결과를 사용자에게 제공할 수 있다.In the step (d), a post-process of a selected character string for filtering a number, a special character, and the like excluding a character included in the character string, which is called in step (c) Constructing search word candidate words for database search of the electronic dictionary using individual characters included in the string and selecting the final electronic dictionary database search word among the searched candidate words. The step (e) directly provides a dictionary entry word or keyword corresponding to the search result in the electronic dictionary database corresponding to the search word of the selected electronic dictionary database on the character image displayed on the screen and the semantic information directly , The step (f) directly drives the electronic dictionary built in the portable terminal by the user using the selected word of the electronic dictionary database search word on the character image displayed on the screen as a headword or keyword of the electronic dictionary This is the process of terminating. The present embodiment can provide an effective method for translating electronic dictionary into words of Chinese and Japanese, and it is also possible to provide a meaning of a compound noun word, such as a compound noun of Korean, It is possible to provide the user with the translation result through the electronic dictionary for the individual words.

본 실시 예는 휴대용 단말기기 등에 내장된 전자사전의 데이터 베이스의 정보를 직접 이용함으로써 실제 번역하고자 하는 검색어 단어를 구별해내고, 최종적으로 사용자에 의해 선택된 단어에 대해서 다시 전자사전 데이터 베이스의 연동 검색함으로써 정확한 번역 결과를 얻을 수 있다. In this embodiment, words of a search word to be actually translated are distinguished by directly using the information of the database of the electronic dictionary built in the portable terminal or the like, and finally, the words selected by the user are interlocked with the electronic dictionary database Accurate translation results can be obtained.

도 17은 도 16의 (d) 과정을 구체적으로 설명하기 위한 순서도이다. 상기 (d)과정을 실행할 수 있는 방법은 크게 두 가지가 제시될 수 있으며, 도 17은 그 중 첫 번째 방법을 설명하기 위한 도면이다. FIG. 17 is a flowchart for specifically explaining the process of FIG. 16 (d). The method (d) can be roughly divided into two methods, and FIG. 17 is a diagram for explaining the first method.

상기 (d) 과정은 (d-1) 사용자에 의해 그 위치가 선택된 문자열의 후처리 단계 이후, 전자사전 데이터 베이스 검색이 가능한 최대 문자열 길이를 설정하고, 사용자에 의해 선택된 위치에 해당하는 문자를 기준으로 좌측에서부터 시작되는 최대 문자열 길이에 해당하는 개수의 문자들로 이루어진 전자사전 데이터 베이스 검색어 후보 문자열을 구성하는 과정과, (d-2) 상기 전자사전 데이터 베이스 검색어 후보 문자열을 단어로 가정해서 전자사전 데이터 베이스와 연동 검색하고, 검색 결과가 상기 전자사전 데이터 베이스에 존재하는지를 판단하는 과정과, (d-3) 상기 검색어 후보 문자열이 전자사전 데이터 베이스에 존재하지 않을 경우에, 상기 후보 문자열의 길이 및 포함된 문자들을 변경해서 전자사전 데이터 베이스 검색어 후보 문자열을 갱신하는 과정(S47)과, (d-4) 갱신된 전자사전 데이터 베이스 검색어 후보 문자열을 단어로 가정해서 전자사전 데이터 베이스와 연동해서 검색하고, 상기 단어로 가정된 문자열에 대한 전자사전 데이터 베이스 검색 결과가 있는 경우에 전자사전 데이터 베이스 검색 선정을 완료하고, 해당 검색 결과를 화면을 통해 제공하는 과정을 포함한다.In the step (d), the maximum string length that can be searched for the electronic dictionary database is set after the post-processing step of the string whose position is selected by the user, and the character corresponding to the position selected by the user is set as the reference (D-2) generating an electronic dictionary database search word candidate string including a number of characters corresponding to a maximum string length starting from the left side of the electronic dictionary database search word candidate string, (D-3) if the search word candidate string does not exist in the electronic dictionary database, determining whether the length of the candidate string is greater than the length of the candidate string, A process of updating the candidate string of the electronic dictionary database query word by changing embedded characters (S47); (d-4) searching for the updated electronic dictionary database query word candidate string in association with the electronic dictionary database on the assumption that the word is an electronic dictionary database search result for the string assumed as the word; And a process of completing selection of the electronic dictionary database search and providing the search result through a screen.

상기 (d-1)과정은 사용자가 선택한 화면 상의 위치와 가장 인접한 곳에 위치된 문자가 포함된 인식 문자열을 호출하는 과정(S41)과, 인식된 문자열에서 숫자 및 특수기호들을 제거하는 과정(S42)과, 최초 전자사전 데이터 베이스 검색용 단어를 구성하기 위한 최대 문자열의 길이를 설정하는 과정(S43)과, 설정된 최대 문자열의 길이에 해당하는 전자사전 데이터 베이스 검색어 후보 문자열을 구성하는 과정(S44)를 포함한다. 상기 (d-2)과정은 구성된 후보 문자열을 단어로 가정하여 전자사전 데이터 베이스에 존재하는 검색하는 과정(S45)과, 검색어 단어가 전자 사전의 데이터 베이스에 존재하는지를 판단하는 과정(S46)을 포함한다. 상기 (d-4)과정은 상기 (d-3)의 과정(S47) 이후에 상기 (d-2)과정(S45, S46)을 다시 반복한 후, 전자사전 데이터 베이스 검색어 단어 선정 완료 정보를 전송하는 과정(S48)을 진행한 후 종료된다.The step (d-1) comprises a step (S41) of calling a recognition character string including a character positioned closest to a position on the screen selected by the user, a step (S42) of removing numbers and special symbols from the recognized character string, A step S43 of setting a maximum string length for constructing a word for the first electronic dictionary database search and a step S44 of constructing an electronic dictionary database query word candidate string corresponding to the set maximum string length . The step (d-2) includes a step (S45) of searching for an existing candidate string in the electronic dictionary database on the assumption that the candidate string is a word, and a step (S46) of determining whether a search word exists in the database of the electronic dictionary do. The process (d-4) repeats the process (d-2) (S45, S46) after the process (d-3) (S48) and then ends.

도 19와 도 20은 도 17의 인식된 문자열의 후처리 및 전자사전 데이터 베이스 검색어 단어 선정 방법이 실행된 예를 도시한 도면이다. 도 19a는 화면에 표시된 촬영 문자 영상 위에서 전자사전 데이터 베이스의 검색 대상인 개별 문자를 선택하는 화면 예이고, 도 19b는 문자 영상 위에 전자사전 데이터 베이스 검색어의 위치정보가 표시된 화면 예이다. 도 20의 (a) 내지 (f)는 전자사전 데이터 표제어를 이용해서 후처리된 문자열에 대한 단어별 라벨링 실시 예이고, 도 20의 (g)는 라벨링된 단어들 중에서 사용자에 의해 선택된 위치 영역의 단어를 전자사전 데이터 베이스 검색어 단어로 선정한 예를 보이기 위한 도면이다.FIGS. 19 and 20 are diagrams showing examples in which the post-processing of the recognized character string and the method of selecting the electronic dictionary database search word in FIG. 17 are executed. FIG. 19A is an example of a screen for selecting individual characters to be searched in the electronic dictionary database on the photographed character image displayed on the screen, and FIG. 19B is a screen example in which position information of the electronic dictionary database search word is displayed on the character image. 20 (a) to 20 (f) illustrate word-by-word labeling of a post-processed character string using an electronic dictionary data entry word. FIG. 20 (g) A word is selected as an electronic dictionary database search word.

도 18은 도 16의 (d) 과정을 구체적으로 설명하기 위한 순서도로서, 그 중 두번째 방법을 설명하기 위한 도면이다. 도 18의 방법이 도 17의 방법과 다른 점은 사용자에 의해 선택된 특정 개별 문자의 위치가 아니라, 그 개별 문자의 위치 정보가 포함된 해당 문자열 전체를 이용한다는 점이다. 즉, 사용자에 의해 선택된 문자의 위치가 포함된 해당 문자열 전체에 대해서, 휴대 단말에 내장된 전자사전 데이터 베이스의 사전 표제어 도는 키워드 정보를 이용해서 해당 문자열을 구성하고 있는 단어들을 구분하고, 구분된 단어들 중에서 사용자가 최초 선택하였던 위치 영역의 개별 문자를 포함한 단어를 전자사전 검색어 단어로 선정하는 방법이다. 그 구체적 방법은 화면에서 사용자의 선택 위치와 가장 가까운 곳에 위치된 문자가 포함된 인식 문자열 호출 과정(S51), 인식된 문자열에서 숫자 및 특수기호를 제거하는 과정(S52), 문자열의 처음부터 끝까지 전자사전 데이터 베이스에서 검색된 표제어 단어를 기반으로 라벨링(labeling) 실시하는 과정(S53), 동일한 값을 라벨링된 문자들끼지 하나의 단어로 구성해서 연속된 단어들을 구성하는 과정(S54), 연속된 단어들 중에서 사용자가 선택한 위치정보를 포함하는 단어를 최종 전자사전 데이터 베이스 검색어 단어로 선정하고 완료 정보를 전송하는 과정(S55)을 포함한다.FIG. 18 is a flowchart for explaining the process of FIG. 16 (d), and is a diagram for explaining the second method. The method of FIG. 18 differs from the method of FIG. 17 in that not only the position of a specific individual character selected by the user but also the entire character string including the positional information of the individual character is used. That is, with respect to the entire character string including the position of the character selected by the user, words constituting the character string are distinguished by using the dictionary entry word or the keyword information of the electronic dictionary database built in the portable terminal, A word including an individual character in a location area which is initially selected by a user is selected as an electronic dictionary word word. The specific method includes a recognizing string calling process (S51) in which a character positioned nearest to the user's selection position is included in the screen, a step of removing numbers and special symbols from the recognized character string (S52) A step S53 of labeling the same value based on the headword word retrieved from the dictionary database, a step of constructing consecutive words by constructing the same value as one word among the labeled characters S54, (S55) of selecting a word including position information selected by the user as a final electronic dictionary database search word and transmitting completion information.

도 21은 사용자가 선택한 검색어 단어에 대한 전자사전 데이터 베이스 검색 결과를 표시하는 방법에 있어서 전체 문자 영상 또는 문자 영상의 일부분을 선택한 실제 사진 예를 보여주기 위한 도면이다. 도 21의 (a)는 전체 문자 영상의 전체를 인식 대상으로 한 결과이고, 도 21의 (b)는 사용자에 의해 선택된 일부 영역(실선)를 대상으로 한 결과이다. FIG. 21 is a diagram showing an example of an actual photograph in which a part of a character image or a character image is selected in a method of displaying an electronic dictionary database search result for a search word selected by a user. FIG. 21A shows the result of the entire character image as an object of recognition, and FIG. 21B shows the result of the partial area (solid line) selected by the user.

도 22와 도 23은 문자 영상에서 인식된 문자로 구성된 전자사전 데이터 베이스 검색어 단어를 사전 연동 번역한 결과를 화면을 제공된 상태로서, 보다 더 자세한 번역 결과 정보를 얻기 위해서 휴대 단말에 내장된 전자사전을 직접 연동 실행하는 방법 및 실시 예를 도시한 도면이다. 도 22의 (a)는 번역된 결과를 문자 영상 상에 중복되게 제공되는 상태의 예이고, 도 22의 (b)는 전자사전에 의해 단어의 구체적 결과를 제공하는 상태의 예이다.FIGS. 22 and 23 illustrate a state in which a screen is provided as a result of a dictionary translation of an electronic dictionary database search word composed of characters recognized in a character image, and an electronic dictionary built in the mobile terminal to obtain more detailed translation result information A method and an embodiment of directly interlocking execution. FIG. 22 (a) shows an example of a state in which translated results are provided redundantly on a character image, and FIG. 22 (b) shows an example of a state in which a specific result of a word is provided by an electronic dictionary.

도 23은 전자사전을 실행하는 과정을 설명하기 위한 도면으로서, 전자사전 실행 메뉴 선택, 전자사전 데이터 베이스 검색어 임시 메모리 저장, 전자사전 데이터 베이스 검색어를 전자사전 인터페이스 부분에 전달, 전자사전 실행과 동시에 전자사전 데이터베이스 검색어를 전자사전 키워드로 전환하는 과정들을 포함한다.23 is a view for explaining a process of executing an electronic dictionary, which includes an electronic dictionary execution menu selection, an electronic dictionary database search word temporary memory storage, an electronic dictionary database search word to an electronic dictionary interface part, And converting the dictionary database search word into an electronic dictionary keyword.

도 1은 종래의 문자 인식 방법을 설명하기 위한 순서도,1 is a flowchart for explaining a conventional character recognition method,

도 2는 본 발명의 제1 실시 예에 따른 문자 인식 방법을 설명하기 위한 순서도,FIG. 2 is a flowchart for explaining a character recognition method according to a first embodiment of the present invention. FIG.

도 3은 도 2에 도시된 문자 인식 과정을 설명하기 위한 순서도,FIG. 3 is a flowchart for explaining the character recognition process shown in FIG. 2,

도 4는 도 3에 도시된 전처리 과정을 설명하기 위한 순서도,4 is a flowchart for explaining the preprocessing process shown in FIG. 3,

도 5는 도 4에 도시된 후전처리 과정를 설명하기 위한 순서도,FIG. 5 is a flowchart for explaining a post-preprocessing process shown in FIG. 4,

도 6a 내지 도 7d는 본 발명에 따른 문자 인식 방법의 구현 예를 설명하기 위한 도면들,6A to 7D are views for explaining an embodiment of a character recognition method according to the present invention,

도 8은 본 발명의 제2 실시 예에 따른 문자 인식 및 번역 방법을 설명하기 위한 순서도,8 is a flowchart for explaining a character recognition and translation method according to a second embodiment of the present invention.

도 9a 내지 도 9c는 문자 영상 인식 후 저장된 전체 인식 데이터의 저장 방법의 구체적인 예들을 설명하기 위한 도면들, FIGS. 9A to 9C are diagrams for explaining specific examples of a method for storing all recognition data stored after recognition of a character image,

도 10과 도 11은 도 3의 문자 인식 과정을 실행한 예들을 설명하기 위한 도면들,FIGS. 10 and 11 are views for explaining examples in which the character recognition process of FIG. 3 is performed,

도 12는 본 발명의 제2 실시 예에 따른 문자 인식의 실행을 실시한 예를 설명하기 위한 도면,12 is a diagram for explaining an example of execution of character recognition according to the second embodiment of the present invention,

도 13은 선택된 단어의 위치 정보를 사용자에게 제공하기 위한 방법들을 설명하기 위한 도면,13 is a diagram for explaining methods for providing a user with positional information of a selected word,

도 14는 사용자가 선택한 검색어 단어와 검색된 전자사전의 키워드 간 일치 여부를 검증하기 위한 방법을 설명하기 위한 순서도,FIG. 14 is a flowchart for explaining a method for verifying whether a keyword of a user selected by a user matches a keyword of a searched electronic dictionary,

도 15는 사용자가 선택한 검색어 단어와 전자 사전 데이터 베이스의 검색 결과를 화면 상에 표시하는 예를 보여주기 위한 도면,FIG. 15 is a diagram for showing an example of displaying a search word selected by a user and a search result of an electronic dictionary database on a screen,

도 16은 본 발명의 제3 실시 예에 따른 문자 영상으로부터 문자를 인식하고 단어를 번역하기 위한 방법을 설명하기 위한 순서도,16 is a flowchart for explaining a method for recognizing characters from a character image and translating words according to a third embodiment of the present invention,

도 17은 전자사전 데이터 베이스 검색어 단어의 선정 방법의 일 예를 설명하기 위한 순서도,17 is a flowchart for explaining an example of a method of selecting words of an electronic dictionary database search word,

도 18은 전자사전 데이터 베이스 검색어 단어의 선정 방법의 또 다른 예를 설명하기 위한 순서도,18 is a flowchart for explaining another example of a method of selecting words of an electronic dictionary database search word;

도 19와 도 20은 검색어 단어를 선정하기 위한 방법의 예를 설명하기 위한 도면들,19 and 20 are diagrams for explaining an example of a method for selecting a search word,

도 21은 문자 영상 전체 또는 부분 인식시 전자사전 데이터 베이스의 검색 결과가 제공되는 차이를 설명하기 위한 도면,FIG. 21 is a diagram for explaining a difference in which search results of an electronic dictionary database are provided when recognizing the whole character image or partial character recognition,

도 22는 휴대 단말기에 내장된 전자사전을 연동한 상태를 보여주기 위한 도면,22 is a diagram for showing a state in which an electronic dictionary built in a portable terminal is interlocked,

도 23은 도 22의 휴대 단말기에 내장된 전자사전을 연동하기 위한 방법을 설명하기 위한 순서도. FIG. 23 is a flowchart for explaining a method for linking an electronic dictionary built in the portable terminal of FIG. 22; FIG.

Claims (15)

카메라로 촬영된 문자 영상에 포함된 문자열 또는 단어를 인식하고, 내재된 전자사전 데이터 베이스를 이용해서 인식된 특정 문자열 또는 단어를 다른 언어로 번역하는 방법에 있어서,A method for recognizing a character string or a word included in a character image photographed by a camera and translating a recognized character string or word recognized by using an embedded electronic dictionary database into another language, 사용자가 선택한 문자 영상 영역 안에 포함된 문자열 또는 단어들을 인식하고, 인식된 문자열에 대해서 인식 후처리를 실시해서 상기 촬영된 문자 영상에서 문자열 또는 단어를 인식하는 과정과;Recognizing a character string or words included in a character image region selected by a user and recognizing and processing a recognized character string to recognize a character string or a word in the captured character image; 인식 후 처리된 문자열에 포함된 단어 중 사용자가 선택한 문자 또는 단어를 전자사전 데이터 베이스와 연동 검색해서 검색된 단어에 대한 번역 결과 정보를 화면 장치에 표시하는 인식된 특정 문자열 또는 단어를 다른 언어로 번역하는 과정을 포함하며,A character string or a word selected by the user from among the words included in the processed string after the recognition process is interlocked with the electronic dictionary database and the translation result information about the searched word is displayed on the screen device. ≪ / RTI > 상기 문자 인식 과정은 선택된 문자 영상 영역의 위치 및 인식된 문자열 또는 단어의 위치 정보를 사용자에게 제공해서, 사용자가 선택한 위치 영역의 문자열 또는 단어의 번역을 지시하는 사용자 인터페이스 과정을 포함하고,Wherein the character recognition process includes a user interface process for providing a user with a position of a selected character image region and positional information of a recognized character string or word and instructing a user to translate a character string or word of the selected positional region, 상기 전자사전 데이터 베이스와 연동해서 검색 및 번역하기 위한 과정은 상기 사용자 인터페이스 과정에서 선택된 문자 또는 단어를 전자사전 데이터 베이스와 연동 검색해서 그 번역 결과를 상기 사용자 인터페이스 과정을 통해 사용자에게 제공함을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.Wherein the step of searching for and translating in association with the electronic dictionary database searches a character or word selected in the user interface process in conjunction with an electronic dictionary database and provides the translation result to the user through the user interface process Character recognition and translation method of camera based image. 제1 항에 있어서, 상기 사용자 인터페이스 과정은,The method of claim 1, (a) 카메라로 촬영한 문자 영상을 화면 장치에 표시한 후 문자 영상을 인식하기 위한 인식 대상 영역 범위를 선택함에 있어서, 선택 중인 또는 선택 완료된 인식 영역의 위치를 화면 장치에 표시된 문자 영상 위에 직접 표시해서 사용자가 그 선택 과정과 선택 결과를 직관적으로 확인할 수 있도록 사용자 인터페이스를 구성하는 단계와;(a) displaying a character image photographed by a camera on a screen device and then selecting a recognition target area range for recognizing a character image, the position of the selected or selected recognition area is directly displayed on the character image displayed on the screen device Configuring a user interface so that the user can intuitively confirm the selection process and selection result; (b) 인식된 문자 영상 영역의 해당 문자 인식 결과 중에서, 사용자가 번역하고자 하는 단어가 인식되었는지 판단할 수 있도록 인식된 단어들의 상대적인 위치 정보를 문자 영상 위에 직접 표시하는 단계와;(b) directly displaying, on the character image, relative position information of the recognized words so that the user can determine whether the word to be translated is recognized, out of corresponding character recognition results of the recognized character image region; (c) 인식된 문자 영상 영역에 포함된 인식된 복수개의 단어들 중에서 사용자에 의해 선택된 위치의 단어 및 그에 해당하는 전자사전 데이터 베이스에서 검색된 번역 정보를 화면 장치에 표시된 문자 영상 위에 직접 표시하는 단계를 포함하며,(c) directly displaying, on the character image displayed on the screen device, the words at the position selected by the user and the translation information searched in the electronic dictionary database corresponding to the selected word among the plurality of recognized words included in the recognized character image area ≪ / RTI & 상기 사용자 인터페이스 과정은 문자 영상 및 전자사전 데이터 베이스 연동 기능을 제공함을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.Wherein the user interface process provides a character image and an electronic dictionary database interworking function. 제2 항에 있어서, 상기 사용자 인터페이스 과정은,3. The method of claim 2, (d) 사용자가 최초 선택한 문자 또는 단어 이외의 다른 문자 또는 단어의 선택 여부를 확인해서 사용자가 다른 문자 또는 단어를 선택할 경우 상기 (c) 단계로 복귀하는 단계와;(d) checking whether the user selects a character or a word other than the first selected character or word, and if the user selects another character or word, returning to step (c); (e) 사용자가 인식된 문자 또는 단어에 대해 선택하지 않은 경우에 상기 (a) 단계로의 복귀 여부를 사용자에게 확인하는 단계를 더 포함함을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.(e) if the user does not select a recognized character or word, confirming to the user whether or not to return to step (a). 제2 항에 있어서, 3. The method of claim 2, 상기 (a) 단계에서 사용자가 촬영된 영상의 전체를 문자 인식의 대상 영역으로 선택한 경우에, 상기 문자 또는 단어 인식 및 번역 과정으로 진행함을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.Wherein the step of recognizing and translating the character or word is performed when the user selects the entire captured image as a target area for character recognition in the step (a). 제1 항에 있어서, 상기 후처리 단계는,2. The method of claim 1, 인식된 문자열에서 문자가 아닌 특수 문자 또는 숫자들을 필터링하기 위한 단계와;Filtering special characters or numbers that are not characters in the recognized string; 인식된 개별 문자들로부터 단어를 구성하고, 구성된 단어를 연동된 사전 데이터를 검색해서 사전적 의미를 확인하는 단계와;Constructing a word from the recognized individual characters, searching for dictionary data linked with the composed word, and confirming the dictionary meaning; 인식된 문자 또는 단어를 상기 사용자 인터페이스 과정의 (c) 단계를 통해서 사용자에게 제공하는 단계를 포함함을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.And providing the recognized character or word to the user through step (c) of the user interface process. 문자가 포함된 피사체를 카메라로 촬영한 문자 영상에 포함된 문자열 또는 단어들을 인식하고 번역해서 그 결과를 화면 장치를 통해 사용자에게 제공하기 위한 방법에 있어서,A method for recognizing and translating a character string or words included in a character image captured by a camera and providing the result to a user through a screen device, (a) 촬영된 문자 영상에서 인식하고자 하는 영역을 사용자가 직접 선택하며 그 선택되고 있는 영역 정보를 실시간으로 확인할 수 있는 사용자 인터페이스를 포함하는 과정과;(a) a user interface for allowing the user to directly select an area to be recognized in the photographed character image and to confirm the selected area information in real time; (b) 사용자가 선택한 영역에 포함된 문자들을 문자로서 인식해서 저장하는 과정과;(b) recognizing and storing the characters included in the area selected by the user as characters; (c) 상기 (b) 과정에서 인식된 문자 또는 문자열 중에서 화면 장치에 표시되어 있는 문자 영상 위에서 사용자가 선택한 영역에 위치한 문자 또는 단어를 포함하는 위치에 존재하는 문자열에 대해서 특수 문자나 숫자를 필터링하는 후처리 단계를 실시한 후, 전자사전 데이터 베이스에 있는 단어들을 이용해서 선택 가능한 단어들의 형태로 분리해서 그 결과 정보를 임시 저장하는 과정과;(c) filtering a special character or number for a character existing at a position including a character or a word located in an area selected by the user on the character image displayed on the screen device among the characters or strings recognized in the process (b) Performing a post-processing step, separating the words into selectable words using words in the electronic dictionary database, and temporarily storing the result information; (d) 상기 (c) 과정에서 임시 저장된 단어들 중에서 사용자가 최초 선택한 영역에 위치한 단어에 대해서 전자사전의 데이터 베이스와 연동해서 검색하고 그 결과를 검증하는 과정과;(d) retrieving a word located in a first region selected from the temporarily stored words in the step (c) by interlocking with a database of the electronic dictionary and verifying the result; (e) 상기 (d) 과정에서 검증이 완료된 단어의 번역 결과를 사용자에게 제공하는 과정을 포함함을 특징으로 하는 카메라 기반 문자 영상의 문자 인식 및 번역 방법.and (e) providing a translation result of the verified word to the user in the step (d). 제6 항에 있어서,The method according to claim 6, 피사체가 문자로서 촬영된 영상에서 인식하고자 하는 영역을 선택하기 위한 상기 (a) 과정은 터치 스크린의 드래그 또는 마우스의 포인팅 장치를 이용해서 실행됨을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.The method of (a) for selecting an area to be recognized in an image of a subject as a character is executed using a dragging of a touch screen or a pointing device of a mouse. 제6 항에 있어서,The method according to claim 6, 상기 (b) 과정은 사용자가 선택한 문자 영상 내의 영역에 포함된 문자들을 대상으로 인식을 실행하고 개별문자 및 개별 문자의 위치 정보, 개별문자로 구성된 단어 및 단어의 위치 정보, 단어로 구성된 라인 및 라인의 위치 정보, 일련의 라인으로 구성된 블록 및 블록의 위치 정보, 일련의 블록 및 해당 블록의 위치 정보 등의 구조의 형태로 인식 결과를 저장함을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.In the step (b), the recognition is performed on the characters included in the area in the character image selected by the user and the position information of the individual character and the individual character, the position information of the word and the word composed of individual characters, Wherein the recognition result is stored in the form of a structure such as position information of a block and a block composed of a series of lines, position information of a series of blocks and position of the corresponding block, and the like. 제6 항에 있어서,The method according to claim 6, 상기 (d)과정에서 사용자에 의해 선택된 단어의 문자 영상에서의 상대적인 위치 정보는 인식 이전 상태의 문자 영상이 제공되는 화면 상에서 해당 단어를 둘 러싸는 색상이 있는 사각형과 같은 하이라이팅 표시 등이 중복되는 형태로 사용자에게 제공되며,In the step (d), the relative position information in the character image of the word selected by the user may be a form in which a highlighting indication such as a square having a color surrounding the word on the screen provided with the character image in the pre- To the user, 사용자가 전체 문자 영상 중 일부만을 선택한 경우에는 사용자가 선택한 영역의 위치 정보에 포함된 단어 또는 문자들의 위치 정보만을 제공함을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.If the user selects only a part of the entire character images, only the position information of the words or characters included in the position information of the area selected by the user is provided. 제6 항에 있어서, The method according to claim 6, 상기 (d) 과정에서 사용자가 실제 정확하게 번역할 단어의 위치를 지정하지 않더라도 사용자가 선택한 위치와 인식된 단어들의 위치 사이의 거리 차이를 계산해서 가장 짧은 거리에 위치한 단어를 전자사전 연동해서 번역함을 특징으로 하는 카메라 촬영 기반 영상의 문자 인식 및 번역 방법.In step (d), even if the user does not actually specify the position of the word to be translated, the distance difference between the position selected by the user and the position of the recognized word is calculated, and the word located at the shortest distance is translated by the electronic dictionary Character Recognition and Translation Method of Camera Shooting Based Image. 제6 항에 있어서, 번역의 대상이 중국어 또는 일본어와 같이 단어 간 공백이 없는 언어가 대상인 경우에 있어서, 상기 (c) 과정은, 7. The method according to claim 6, wherein if the target of the translation is a target language such as Chinese or Japanese, 상기 문자 영상에 대한 문자 인식 후 저장된 모든 문자열 데이터들을 로딩하는 과정과;Loading all the character string data stored after recognizing the character image; 상기 로딩된 문자열들 속에 포함된 숫자 또는 특수기호들을 필터링하는 과정과;Filtering the numbers or special symbols included in the loaded strings; 상기 필터링하는 과정을 거친 문자열들을 전자사전과 비교해서 검색된 단어들을 분리하는 과정과;Separating the searched words by comparing the strings subjected to the filtering process with an electronic dictionary; 상기 분리된 단어들 중에서 화면을 통해서 사용자가 직접 선택한 단어들에 대해서 전자사전과 연동해서 검색하는 과정을 포함함을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.And searching for the words selected by the user through the screen from among the separated words, in association with the electronic dictionary. 제6 항에 있어서, The method according to claim 6, 상기 (e) 과정에서 제공되는 번역 결과들은 사용자에게 제공되는 다른 영상 정보가 투영될 수 있는 반투명한 형태로 제공하고, 이전의 검색 결과와 중복될 경우에 이전 검색 결과와 중복되지 않도록 화면을 통해 사용자에게 제공됨을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.The translation results provided in the step (e) may be provided in a translucent form in which other image information provided to the user can be projected. If the translation results are overlapped with the previous search results, And a character recognition and translation method of a camera-based image. 제6 항에 있어서, 카메라 기반 영상의 문자 인식 및 번역 방법에 있어서,The method of claim 6, further comprising: (f) 상기 (e) 과정 이후에 전자사전을 구동시키는 과정과;(f) driving the electronic dictionary after the step (e); (g) 상기 (f) 과정에서 상기 전자사전이 구동된 상태에서 번역 결과를 제공하는 화면으로 복귀 여부를 결정하는 과정과;(g) determining whether to return to the screen providing the translation result in the state in which the electronic dictionary is driven in the step (f); (h) 다른 번역 대상의 단어를 선택하는 과정과;(h) selecting a word for another translation target; (i) 상기 (h)과정에서 다른 번역 대상의 단어를 선택하지 않을 경우에 다른 문자 영상 내의 인식 범위을 선택하는 과정과;(i) selecting a recognition range in another character image when a word of another translation target is not selected in the step (h); (j) 상기 (i)과정에서 인식되지 않은 다른 문자 영상 내의 범위를 선택하지 않았을 경우에 다른 문자 영상의 인식 여부를 판단하는 과정을 더 포함하고;(j) determining whether or not another character image is recognized when a range within another character image not recognized in the step (i) is not selected; 상기 (e) 과정 이후에 전자사전을 구동시키기 위한 상기 (f) 과정은 전자사전을 직접 구동시킬 수 있는 수단을 화면을 통해 사용자에게 제공하고, 구동 수단이 선택되면 전자사전이 구동됨을 화면을 통해 사용자에게 제공함을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.In the step (f) for driving the electronic dictionary after the step (e), the means for directly driving the electronic dictionary is provided to the user through the screen, and when the driving means is selected, And a character recognition and translation method of a camera-based image. 제6 항에 있어서, 상기 (c) 과정은,7. The method of claim 6, wherein the step (c) 사용자에 의해 그 위치가 선택된 문자열의 후처리 과정 이후에 문자열의 시작 문자부터 종료 문자까지 순차적으로 휴대 단말기에 내장된 전자사전 데이터 베이스의 표제어 또는 키워드 단어와 직접 연동해서 검색해서 최종 전자사전 데이터 베이스 검색 단어로 선정 가능한 후보 단어들을 획득하여 별도로 저장하는 과정과;After the post-processing process of the character string whose position is selected by the user, the search is performed by directly interrogating the head word or the keyword word of the electronic dictionary database built in the mobile terminal sequentially from the start character to the end character of the character string, Acquiring candidate words that can be selected by words and storing them separately; 상기 과정에서 저장된 복수의 후보 단어들 중에서 사용자가 최초 선택한 위치에 해당하는 위치 정보를 포함하는 후보 단어를 최종 전자사전 데이터 베이스 검색 단어로 선정하는 과정을 포함함을 특징으로 하는 카메라 기반 영상의 문자 인식 및 번역 방법.And selecting a candidate word including positional information corresponding to a first selected position among a plurality of candidate words stored in the process as a final electronic dictionary database search word, And translation methods. 제14 항에 있어서, 중국어 또는 일본어와 같이 개별 단어들 사이를 분리하는 공백이 없는 언어의 문자열에 대한 전자사전 데이터 베이스 검색어 단어를 구성해서 검색하고자 하는 경우에 있어서, 15. The method of claim 14, wherein when searching for an electronic dictionary database search word for a character string of a language having no space for separating individual words such as Chinese or Japanese, 해당 언어의 단어들의 길이별 빈도를 감안해서 최초 전자사전 데이터 베이스를 검색할 후보 문자열의 최대 길이를 설정하는 과정과;Setting a maximum length of a candidate character string to be searched for the first electronic dictionary database in consideration of the frequency of the words in the language; 상기 검색어 후보 문자열이 전자사전 데이터 베이스에 존재하지 않는 경우에 후보 문자열의 길이를 줄여서 포함된 문자열을 변경해서 전자사전 데이터 베이스 검색어 후보 문자열을 갱신하는 과정을 포함함을 특징으로 하는 카메라 촬영 기반 문자 영상 인식 및 번역 방법.And updating the candidate string of the electronic dictionary database query word by changing the string included by reducing the length of the candidate string when the search word candidate string does not exist in the electronic dictionary database. Recognition and translation methods.
KR1020090057266A 2008-07-10 2009-06-25 Method of character recongnition and translation based on camera image KR101588890B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP09165054.9A EP2144189A3 (en) 2008-07-10 2009-07-09 Method for recognizing and translating characters in camera-based image
US12/500,094 US8625899B2 (en) 2008-07-10 2009-07-09 Method for recognizing and translating characters in camera-based image
CN2009102116073A CN101702154B (en) 2008-07-10 2009-07-10 Method of character recognition and translation based on camera image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080067098 2008-07-10
KR1020080067098 2008-07-10

Publications (2)

Publication Number Publication Date
KR20100007722A KR20100007722A (en) 2010-01-22
KR101588890B1 true KR101588890B1 (en) 2016-01-27

Family

ID=41816646

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090057266A KR101588890B1 (en) 2008-07-10 2009-06-25 Method of character recongnition and translation based on camera image

Country Status (2)

Country Link
KR (1) KR101588890B1 (en)
CN (1) CN101702154B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108319592A (en) * 2018-02-08 2018-07-24 广东小天才科技有限公司 A kind of method, apparatus and intelligent terminal of translation
US11440408B2 (en) 2017-11-29 2022-09-13 Samsung Electronics Co., Ltd. Electronic device and text providing method therefor

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102270197A (en) * 2010-06-01 2011-12-07 英业达股份有限公司 Touch translation system and method thereof
EP2593920A4 (en) 2010-07-12 2016-05-04 Google Inc System and method of determining building numbers
CN102737238A (en) * 2011-04-01 2012-10-17 洛阳磊石软件科技有限公司 Gesture motion-based character recognition system and character recognition method, and application thereof
US20130039535A1 (en) * 2011-08-08 2013-02-14 Cheng-Tsai Ho Method and apparatus for reducing complexity of a computer vision system and applying related computer vision applications
KR101329492B1 (en) * 2012-01-25 2013-11-13 한국과학기술원 Apparatus and method for controlling camera for locating scene text to proper position and size
CN103577053B (en) * 2012-07-23 2017-09-29 联想(北京)有限公司 A kind of method for information display and equipment
KR20140030361A (en) * 2012-08-27 2014-03-12 삼성전자주식회사 Apparatus and method for recognizing a character in terminal equipment
CN103678286B (en) * 2012-09-14 2017-06-06 腾讯科技(深圳)有限公司 A kind of interpretation method and system
KR102138277B1 (en) 2013-07-04 2020-07-28 삼성전자 주식회사 Image Recognition Method and apparatus using the same
US9514376B2 (en) * 2014-04-29 2016-12-06 Google Inc. Techniques for distributed optical character recognition and distributed machine language translation
CN104199645B (en) * 2014-08-15 2017-08-22 苏州佳世达电通有限公司 The system and its based reminding method of reminder events
KR101626500B1 (en) 2015-02-09 2016-06-01 동의대학교 산학협력단 System and method for ordering word based on o c r character recognition
CN104881405A (en) * 2015-05-22 2015-09-02 东莞中山大学研究院 Photo translation implementation method based on smart phone and smart phone
CN105607852A (en) * 2015-12-18 2016-05-25 北京奇虎科技有限公司 Text input method and electronic device
CN105975542A (en) * 2016-04-29 2016-09-28 乐视控股(北京)有限公司 Character string input method and apparatus
KR101995540B1 (en) * 2016-06-03 2019-07-15 주식회사 허브케이 Appratus and method of correcting image reading/input error word
KR101688108B1 (en) * 2016-11-18 2016-12-20 경희대학교 산학협력단 Method of providing mother tongue service for multicultural family using communication terminal
KR101954887B1 (en) * 2017-03-30 2019-03-06 주식회사 마이소사이어티 Method, apparatus and computer program for recommending alternative word for muticultural members
JP6888410B2 (en) * 2017-05-15 2021-06-16 富士フイルムビジネスイノベーション株式会社 Information processing equipment and information processing programs
CN107451127B (en) * 2017-07-04 2020-11-06 广东小天才科技有限公司 Word translation method and system based on image and mobile device
CN107766826B (en) * 2017-10-30 2020-11-03 广东小天才科技有限公司 Method for searching word paraphrase and electronic equipment
CN107765949B (en) * 2017-10-30 2019-08-30 广东小天才科技有限公司 A kind of display methods and electronic equipment of word paraphrase frame
KR102592595B1 (en) 2018-12-07 2023-10-23 한국전자통신연구원 System and method for automatically translating character in image
CN111680647A (en) * 2020-06-12 2020-09-18 中华人民共和国杭州海关 Goggles for hazardous chemical substance detection and detection method thereof
CN113435217B (en) * 2021-06-25 2023-12-19 青岛海尔科技有限公司 Language test processing method and device and electronic equipment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100749289B1 (en) * 1998-11-30 2007-08-14 코닌클리케 필립스 일렉트로닉스 엔.브이. Automatic segmentation of a text
US6735347B1 (en) * 2000-08-08 2004-05-11 International Business Machines Corporation Method and apparatus for text extraction from cut image
KR20050082970A (en) * 2004-02-20 2005-08-24 주식회사 해피앤굿 Method and system of providing electronic dictionary contained in a camera mobile phone
CN1606030A (en) * 2004-11-12 2005-04-13 无敌科技(西安)有限公司 Electronic photography translation paraphrasing method and apparatus
JP4428266B2 (en) * 2005-03-22 2010-03-10 富士ゼロックス株式会社 Translation apparatus and program
KR100718139B1 (en) * 2005-11-04 2007-05-14 삼성전자주식회사 Apparatus and method for recognizing character in an image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11440408B2 (en) 2017-11-29 2022-09-13 Samsung Electronics Co., Ltd. Electronic device and text providing method therefor
CN108319592A (en) * 2018-02-08 2018-07-24 广东小天才科技有限公司 A kind of method, apparatus and intelligent terminal of translation
CN108319592B (en) * 2018-02-08 2022-04-19 广东小天才科技有限公司 Translation method and device and intelligent terminal

Also Published As

Publication number Publication date
CN101702154A (en) 2010-05-05
KR20100007722A (en) 2010-01-22
CN101702154B (en) 2012-12-26

Similar Documents

Publication Publication Date Title
KR101588890B1 (en) Method of character recongnition and translation based on camera image
US8625899B2 (en) Method for recognizing and translating characters in camera-based image
US20210034850A1 (en) System and method of character recognition using fully convolutional neural networks with attention
JP4533920B2 (en) Image document processing apparatus, image document processing method, image processing program, and recording medium recording image processing program
KR100292098B1 (en) Character recognition device and method
JP4364914B2 (en) Image document processing apparatus, image document processing method, program, and recording medium
JP4740916B2 (en) Image document processing apparatus, image document processing program, and recording medium recording image document processing program
JP2009026287A (en) Character image extracting apparatus and character image extracting method
Hussain et al. Nastalique segmentation-based approach for Urdu OCR
WO2018090013A1 (en) System and method of character recognition using fully convolutional neural networks with attention
EP2806336A1 (en) Text prediction in a text input associated with an image
JP4772817B2 (en) Image document processing apparatus and image document processing method
KR20100099154A (en) Method for image analysis, especially for mobile stations
US10438097B2 (en) Recognition device, recognition method, and computer program product
RU2259592C2 (en) Method for recognizing graphic objects using integrity principle
JP5488077B2 (en) Character string detection device, character evaluation device, image processing device, character string detection method, character evaluation method, control program, and recording medium
KR101800975B1 (en) Sharing method and apparatus of the handwriting recognition is generated electronic documents
JP7172343B2 (en) Document retrieval program
JP2586372B2 (en) Information retrieval apparatus and information retrieval method
JPH07302306A (en) Character inputting device
JPH07319880A (en) Keyword extraction/retrieval device
US10515297B2 (en) Recognition device, recognition method, and computer program product
Divya et al. DNN based approaches for Segmentation of Handwritten Gujarati Text
JP2006330780A (en) Character recognition device and character recognition program
KR19980078262A (en) Character recognition method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181227

Year of fee payment: 4