JP5150035B2 - Mobile terminal, information processing method, and information processing program - Google Patents

Mobile terminal, information processing method, and information processing program Download PDF

Info

Publication number
JP5150035B2
JP5150035B2 JP2004269950A JP2004269950A JP5150035B2 JP 5150035 B2 JP5150035 B2 JP 5150035B2 JP 2004269950 A JP2004269950 A JP 2004269950A JP 2004269950 A JP2004269950 A JP 2004269950A JP 5150035 B2 JP5150035 B2 JP 5150035B2
Authority
JP
Japan
Prior art keywords
recognition
dictionary
translation
recognition dictionary
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004269950A
Other languages
Japanese (ja)
Other versions
JP2006085461A (en
Inventor
正裕 山崎
英樹 桑本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2004269950A priority Critical patent/JP5150035B2/en
Publication of JP2006085461A publication Critical patent/JP2006085461A/en
Application granted granted Critical
Publication of JP5150035B2 publication Critical patent/JP5150035B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Description

本発明は、例えば、携帯電話、PHS(Personal Handy-phone
System)、PDA(Personal Digital Assistant)、PC(Personal Computer)やデジタルカメラ等に係り、読み取った画像データから文字列のイメージを認識して文字列に変換したり、変換した文字列を所定の言語に翻訳する携帯端末、情報処理方法及び情報処理プログラムに関する。
The present invention is, for example, a mobile phone, PHS (Personal Handy-phone).
System), PDA (Personal Digital Assistant), PC (Personal Computer), digital camera, etc., recognizes the image of the character string from the read image data and converts it into a character string, or converts the converted character string into a predetermined language The present invention relates to a portable terminal , an information processing method, and an information processing program.

従来より、紙面上に印刷された文字列のイメージを読み取り、OCR(Optical Character Recognition)機能を利用して、そのイメージから文字列を認識して文字情報に変換し、翻訳辞書を参照して、その文字列に対応する翻訳を表示部に表示する電子辞書が提案されている(例えば特許文献1参照)。
特開平5−274346号公報
Conventionally, an image of a character string printed on paper is read, and an OCR (Optical Character Recognition) function is used to recognize the character string from the image and convert it into character information. An electronic dictionary that displays a translation corresponding to the character string on a display unit has been proposed (see, for example, Patent Document 1).
JP-A-5-274346

しかしながら、上述した従来技術では、一種類の翻訳辞書を搭載した場合の処理については記載されているが、複数の翻訳辞書を搭載した場合の処理については記載されていない。そのため、読み取った文字列のイメージを、OCR機能を用いて文字情報に変換する際に、複数の認識辞書の中から使用すべき認識辞書を選択する方法などについて何ら記載されていない。同様に、文字認識により読み取った単語の翻訳を取得する際に、複数の翻訳辞書の中から使用すべき翻訳辞書を選択する方法などについても何ら記載されていない。   However, in the above-described conventional technology, the process when one type of translation dictionary is installed is described, but the process when a plurality of translation dictionaries is installed is not described. Therefore, there is no description about a method for selecting a recognition dictionary to be used from among a plurality of recognition dictionaries when an image of a read character string is converted into character information using the OCR function. Similarly, there is no description of a method for selecting a translation dictionary to be used from a plurality of translation dictionaries when acquiring translation of a word read by character recognition.

すなわち、上述した従来技術では、複数言語対応の文字認識、または複数言語対応の翻訳を実現する上での課題や使い勝手については十分な検討がされていない。このため、複数言語対応とした場合、読み取った文字列のイメージに応じて適切な認識辞書を選択することができず、また、読み取った文字列のイメージを、正しい文字情報に変換することができないという問題があった。同様に、認識した文字列に応じて適切な翻訳辞書を選択することができず、また、認識した文字列を正しい言語に翻訳することができないという問題があった。   That is, in the above-described conventional technology, sufficient consideration has not been given to problems and usability in realizing character recognition corresponding to a plurality of languages or translation corresponding to a plurality of languages. For this reason, when multiple languages are supported, an appropriate recognition dictionary cannot be selected according to the read character string image, and the read character string image cannot be converted into correct character information. There was a problem. Similarly, there is a problem that an appropriate translation dictionary cannot be selected according to the recognized character string, and the recognized character string cannot be translated into a correct language.

そこで本発明は、複数言語対応とした場合であっても、読み取った文字列の言語に応じて複数の認識辞書の中から適切な認識辞書を容易に選択することができるとともに、読み取った文字列のイメージを正しい文字情報に変換することができ、また、認識した文字列に応じて複数の翻訳辞書の中から適切な翻訳辞書を容易に選択することができるとともに、認識した文字列を正しい言語に翻訳することができる携帯端末、情報処理方法及び情報処理プログラムを提供することを目的とする。 Therefore, the present invention can easily select an appropriate recognition dictionary from a plurality of recognition dictionaries according to the language of the read character string, even when the read character string is used. Can be converted into correct character information, and an appropriate translation dictionary can be easily selected from multiple translation dictionaries according to the recognized character string. An object of the present invention is to provide a portable terminal , an information processing method, and an information processing program that can be translated into Japanese.

また、上記目的達成のため、請求項1記載の発明による携帯端末は、画像情報を撮像する撮像手段と、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する際に用いられ、複数の言語に対応した認識辞書と、前記複数の言語に対応した認識辞書の使用履歴を記載した認識辞書使用履歴表とを記憶する記憶手段と、前記認識辞書使用履歴表に記載された使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識手段とを具備することを特徴とする。 In order to achieve the above object, the portable terminal according to the first aspect of the present invention is used when recognizing image capturing means for capturing image information and identification information included in the image information captured by the image capturing means. a recognition dictionary corresponding to a plurality of languages, storage means for storing a recognition dictionary used history table describing the use history of the recognition dictionary corresponding to the plurality of languages, history of use described in the recognition dictionary using the history table Recognition means for recognizing identification information included in the image information captured by the imaging means using a recognition dictionary according to the order obtained from the above (in ascending / descending order) .

また、好ましい態様として、例えば請求項2記載のように、請求項1に記載の携帯端末において、前記認識辞書の使用履歴は、それぞれの認識辞書の使用回数であり、前記認識手段は、前記認識辞書の使用回数順に従った認識辞書を用いてもよい。 As a preferred aspect, for example, as in claim 2, in the mobile terminal according to claim 1, the use history of the recognition dictionary is the number of times of use of each recognition dictionary , and the recognition means You may use the recognition dictionary according to the order of use of a dictionary .

また、好ましい態様として、例えば請求項3記載のように、請求項1に記載の携帯端末において、前記認識辞書の使用履歴は、それぞれの認識辞書の最新使用時刻であり、前記認識手段は、前記認識辞書の最新使用時刻の若い順に従った認識辞書を用いてもよい。 As a preferred embodiment, for example, as in claim 3, in the mobile terminal according to claim 1, the use history of the recognition dictionary is the latest use time of each recognition dictionary , and the recognition means You may use the recognition dictionary according to the youngest order of the newest use time of a recognition dictionary .

また、好ましい態様として、例えば請求項4記載のように、請求項1に記載の携帯端末において、前記複数の言語に対応した認識辞書のうち、どの認識辞書を用いるかを指示する認識辞書指示手段を更に具備し、前記認識手段は、前記認識辞書指示手段による指示があった場合には、前記認識辞書指示手段による指示に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識するようにしてもよい。 In a preferable embodiment, for example, good urchin according to claim 4, wherein, in the portable terminal according to claim 1, the recognition dictionary instruction means for instructing whether of recognition dictionary corresponding to the plurality of languages, using any recognition dictionary The recognizing means, when instructed by the recognizing dictionary instruction means, uses the recognition dictionary in accordance with the instruction by the recognizing dictionary instruction means, to convert the image information captured by the imaging means into image information. The included identification information may be recognized.

また、好ましい態様として、例えば請求項5記載のように、請求項1に記載の携帯端末において、前記識別情報に関連する関連情報が記載され、複数の言語に対応した翻訳辞書と、前記認識手段によって用いられた認識辞書に基づいて、前記複数の言語に対応した翻訳辞書の中から、使用する翻訳辞書を決定する翻訳辞書決定手段と、前記翻訳辞書決定手段により決定された翻訳辞書を用いて、前記認識手段により認識された画像情報に含まれる識別情報を翻訳する翻訳手段とを具備するようにしてもよい。 Moreover, as a preferable aspect, for example, as in claim 5, in the portable terminal according to claim 1, related information related to the identification information is described, a translation dictionary corresponding to a plurality of languages, and the recognition unit A translation dictionary determining unit that determines a translation dictionary to be used from among translation dictionaries corresponding to the plurality of languages, and a translation dictionary determined by the translation dictionary determining unit. A translation unit that translates identification information included in the image information recognized by the recognition unit may be provided.

また、好ましい態様として、例えば請求項6記載のように、請求項5に記載の携帯端末において、翻訳言語を特定する翻訳言語特定手段を更に具備し、前記翻訳辞書決定手段は、前記認識辞書に代えて、前記翻訳言語特定手段によって特定された翻訳言語に基づいて、前記複数の言語に対応した翻訳辞書の中から、使用する翻訳辞書を決定するようにしてもよい。 In a preferable embodiment, for example, good urchin of claim 6, wherein, in the portable terminal according to claim 5, further translation language specifying means for specifying a translation language provided, said translation dictionary determining means, the recognition dictionary Instead, a translation dictionary to be used may be determined from the translation dictionaries corresponding to the plurality of languages based on the translation language specified by the translation language specifying means.

また、好ましい態様として、例えば請求項7記載のように、請求項6に記載の携帯端末において、位置情報を取得する位置情報取得手段を具備し、前記翻訳言語特定手段は、前記位置情報取得手段により取得された位置情報に基づいて使用する翻訳言語を特定するようにしてもよい。 Further, as a preferred aspect, for example, as in claim 7, in the mobile terminal according to claim 6, the mobile terminal according to claim 6 includes position information acquisition means for acquiring position information, and the translated language specifying means is configured to acquire the position information acquisition means. The translation language to be used may be specified based on the position information acquired by the above.

また、好ましい態様として、例えば請求項8記載のように、請求項6に記載の携帯端末において、前記複数の言語に対応した翻訳辞書のうち、どの翻訳辞書を用いるかを指示する翻訳辞書指示手段を更に具備し、前記翻訳手段は、前記翻訳辞書指示手段による指示があった場合には、前記翻訳辞書指示手段による指示に従った翻訳辞書を用いて、前記認識手段により認識された画像情報に含まれる識別情報を翻訳するようにしてもよい。 Further, as a preferred aspect, for example, as in claim 8, in the mobile terminal according to claim 6, a translation dictionary instruction means for instructing which translation dictionary to use among the translation dictionaries corresponding to the plurality of languages And the translation means uses the translation dictionary in accordance with the instruction from the translation dictionary instruction means when the instruction is given by the translation dictionary instruction means to convert the image information recognized by the recognition means to the image information recognized by the recognition means. The included identification information may be translated.

また、好ましい態様として、例えば請求項9記載のように、請求項6ないし8のいずれかに記載の携帯端末において、通信手段と、前記認識手段により認識された識別情報に関連した関連情報の参照を指示する関連情報参照指示部と、前記関連情報参照指示部により前記関連情報の参照が指示された場合、前記認識手段により認識された識別情報に基づいて、前記関連情報を前記通信手段を介して取得する関連情報取得手段とを更に具備するようにしてもよい。 Further, as a preferred aspect, for example, as in claim 9, in the mobile terminal according to any of claims 6 to 8, reference to related information related to the identification means recognized by the communication means and the recognition means. And when the reference of the related information is instructed by the related information reference instruction unit, the related information is transmitted via the communication unit based on the identification information recognized by the recognition unit. And related information acquisition means for acquiring the information.

また、上記目的達成のため、請求項10記載の発明による情報処理方法は、画像情報を撮像する撮像ステップと、複数の言語に対応した認識辞書の使用履歴が記載された認識辞書使用履歴表の前記使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識ステップと、前記認識辞書使用履歴表に記載されている、前記複数の言語に対応した認識辞書の使用履歴を更新する更新ステップとを含むことを特徴とする。 In order to achieve the above object, an information processing method according to claim 10 includes an imaging step for capturing image information and a recognition dictionary usage history table in which usage histories of recognition dictionaries corresponding to a plurality of languages are described . A recognition step of recognizing identification information included in image information captured by the imaging means using a recognition dictionary according to the order obtained from the usage history (in ascending / descending order), and the recognition dictionary usage history table An update step of updating a use history of the recognition dictionary corresponding to the plurality of languages.

また、上記目的達成のため、請求項11記載の発明による情報処理プログラムは、コンピュータに、画像情報を撮像する撮像機能、複数の言語に対応した認識辞書の使用履歴が記載された認識辞書使用履歴表の前記使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識機能、前記認識辞書使用履歴表に記載されている、前記複数の言語に対応した認識辞書の使用履歴を更新する更新機能を実行させることを特徴とする。


To achieve the above object, an information processing program according to an eleventh aspect of the present invention is a recognition dictionary usage history in which a computer has an imaging function for capturing image information and a recognition dictionary usage history corresponding to a plurality of languages. A recognition function for recognizing identification information included in image information captured by the imaging unit using a recognition dictionary according to an order (ascending / descending order) obtained from the use history of the table, the recognition dictionary use history table An update function for updating a use history of the recognition dictionary corresponding to the plurality of languages is executed.


の発明によれば、複数言語対応とした場合であっても、読み取った文字列の言語に応じて複数の認識辞書の中から適切な認識辞書を容易に選択することができるとともに、読み取った文字列のイメージを正しい文字情報に変換することができるという利点が得られる。 According to this invention, even when the multiple language support, it is possible to easily select an appropriate recognition dictionary from a plurality of recognition dictionaries in accordance with the language of the read character string, read The advantage is that the character string image can be converted into correct character information.

以下、本発明の実施の形態を、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

A.第1実施形態
A−1.第1実施形態の構成
図1は、本第1実施形態に係る携帯電話の外観を示す模式図である。また、図2は、本発明の第1実施形態に係る携帯電話の構成を示すブロック図である。本第1実施形態においては、携帯電話に搭載された画像認識機能(OCR機能)を利用して、紙面などに記載された英単語を認識して読み取り、その認識結果を出力する場合について説明する。
A. First embodiment A-1. Configuration of First Embodiment FIG. 1 is a schematic diagram showing an appearance of a mobile phone according to the first embodiment. FIG. 2 is a block diagram showing the configuration of the mobile phone according to the first embodiment of the present invention. In the first embodiment, a case will be described in which an image recognition function (OCR function) mounted on a mobile phone is used to recognize and read an English word written on a paper surface and output the recognition result. .

図1に示すように、携帯電話100は、入力部101などが設けられた本体部と表示部107などが設けられた蓋部とからなる。該携帯電話100は、図2に示すように、入力部101、CPU102、撮像部103、記憶部104、画像認識部105、通信部106、表示部107からなる。   As shown in FIG. 1, a mobile phone 100 includes a main body portion provided with an input portion 101 and the like, and a lid portion provided with a display portion 107 and the like. As shown in FIG. 2, the mobile phone 100 includes an input unit 101, a CPU 102, an imaging unit 103, a storage unit 104, an image recognition unit 105, a communication unit 106, and a display unit 107.

入力部101は、キーボード等の電話番号その他の情報を入力する入力部であり、携帯電話の電源をON/OFFするとき、被写体を撮像するときなど、ユーザが携帯電話に入力を与える際に使用するものである。   The input unit 101 is an input unit for inputting a telephone number and other information such as a keyboard, and is used when a user gives an input to the mobile phone, such as when turning on / off the power of the mobile phone, or imaging a subject. To do.

CPU102は、記憶部104に記憶されたプログラムに基づいて動作し、例えば、入力部101からの入力に応じて各部を制御するものである。撮像部103は、例えば、カメラなどで構成されたものであり、被写体である人の顔や、景色、文字などを撮像し、CPU102で扱える画像情報に変換し、変換された画像情報は必要に応じて表示部107等に出力する。ユーザは、表示部107に出力された画像情報をモニタしながら撮像したい画像を選んで、例えば、シャッターキーとして割り当てられた操作キー(以下、シャッターキー)等を押下することにより撮像の指示を行う。シャッターキーが押下されれば、撮像された画像情報は記憶部104に記憶される。   The CPU 102 operates based on a program stored in the storage unit 104, and controls each unit according to an input from the input unit 101, for example. The imaging unit 103 is configured by, for example, a camera, and captures a human face, a scene, characters, and the like as a subject, converts the image into image information that can be handled by the CPU 102, and the converted image information is necessary. In response, the data is output to the display unit 107 or the like. The user selects an image to be captured while monitoring the image information output to the display unit 107, and issues an imaging instruction by pressing an operation key (hereinafter referred to as a shutter key) assigned as a shutter key, for example. . When the shutter key is pressed, the captured image information is stored in the storage unit 104.

また、記憶部104は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)等で構成され、上記画像情報以外に、携帯電話100で扱うデータやソフトウェアなども記憶する。また、該記憶部104は、認識辞書108および言語−認識辞書対応表109を備えている。これら認識辞書108および言語−認識辞書対応表109については後述する。   The storage unit 104 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and stores data and software handled by the mobile phone 100 in addition to the image information. In addition, the storage unit 104 includes a recognition dictionary 108 and a language-recognition dictionary correspondence table 109. The recognition dictionary 108 and the language-recognition dictionary correspondence table 109 will be described later.

画像認識部105は、画像情報に含まれる文字や記号等の識別情報を認識する。ここで、識別情報とは、文字、記号等で表された情報であり、例えば、ホームページのアドレス、メールアドレス、住所、電話番号、地図情報あるいは英語の単語等のように文字や記号等で表現されたものであり、事物を識別できる情報であれば上記例以外のものでも構わない。すなわち、画像認識部105は、OCR機能を備えており、OCR機能を実現する具体的な構成は、例えば、特許文献1に記されている。   The image recognition unit 105 recognizes identification information such as characters and symbols included in the image information. Here, the identification information is information represented by characters, symbols, etc., and is represented by characters, symbols, etc., such as homepage addresses, e-mail addresses, addresses, telephone numbers, map information, or English words. Any information other than the above example may be used as long as the information can identify the thing. In other words, the image recognition unit 105 has an OCR function, and a specific configuration for realizing the OCR function is described in Patent Document 1, for example.

ここで、認識とは、撮像部103により撮像された画像情報に含まれる識別情報を抽出し、その識別情報を所定の領域ごとに分割し、分割された領域を所定のパラメータ値に変換し、そのパラメータ値に基づいて分割された領域がどのような情報であるかを決定することをいう。   Here, recognition refers to extracting identification information included in image information captured by the imaging unit 103, dividing the identification information into predetermined areas, converting the divided areas into predetermined parameter values, It means determining what kind of information the divided area is based on the parameter value.

より具体的にいえば、例えば、画像情報内の「abc」という文字を「認識」する場合を考えると、まず、「abc」が画像情報内のどの位置の情報であるかを特定し(文字列抽出)、次に、「a」「b」「c」に分割し、「a」を所定のパラメータ値(例えば、その文字を縦、横、斜めからの見た線分の構成を、文字の白色部分を「0」、黒色部分を「1」としてパラメータ化された値)に変換する。そして、変換されたパラメータ値に最も類似したパラメータ値に対応付けされた文字(文字コード)を認識辞書108から選び出す。   More specifically, for example, considering the case of “recognizing” the character “abc” in the image information, first, the position of “abc” in the image information is specified (character Column extraction), and then divided into “a”, “b”, and “c”, and “a” is a predetermined parameter value (for example, the structure of the line segment as viewed from the vertical, horizontal, and diagonal lines) The white portion is converted to a parameterized value with “0” and the black portion “1”. Then, the character (character code) associated with the parameter value most similar to the converted parameter value is selected from the recognition dictionary 108.

認識辞書108とは、パラメータ値とそのパラメータ値に対応したアルファベット等の文字(文字コード)とが記述されている表であり、記憶部104に記憶されている。ところで、本発明の携帯電話100は、英語や韓国語、日本語といった複数の言語に対応するために、それぞれの言語に対応した認識辞書を備えている。そして、英語を認識する場合には、アルファベットに対応した認識辞書(英語認識辞書)を用いて認識し、また、韓国語を認識する場合にはハングル文字に対応した認識辞書(韓国語認識辞書)を用いて認識する。   The recognition dictionary 108 is a table in which parameter values and characters such as alphabets (character codes) corresponding to the parameter values are described, and are stored in the storage unit 104. By the way, the mobile phone 100 of the present invention includes a recognition dictionary corresponding to each language in order to support a plurality of languages such as English, Korean, and Japanese. And when recognizing English, it recognizes using the recognition dictionary (English recognition dictionary) corresponding to the alphabet, and when recognizing Korean, the recognition dictionary (Korean recognition dictionary) corresponding to the Hangul character. Recognize using

なお、日本語やハングル文字などのように文字数が多い場合、1つの認識辞書に全ての文字について格納してしまうと、ファイルサイズが増大してしまう。そのため、複数の認識辞書に分割して格納してもよいし、例えば日本語の場合には、JISで定められた第1水準の文字だけを格納してもよい。   If the number of characters is large, such as Japanese or Korean characters, the file size increases if all characters are stored in one recognition dictionary. Therefore, it may be divided and stored in a plurality of recognition dictionaries. For example, in the case of Japanese, only the first level characters defined by JIS may be stored.

ところで、例えば、携帯電話100で、英語認識辞書を用いて認識するように設定していた場合、韓国語は認識できない。そのため、ユーザは、携帯電話100を、韓国語認識辞書を用いて認識するように設定し、もう一度認識し直す必要がある。   By the way, for example, if the mobile phone 100 is set to recognize using an English recognition dictionary, Korean cannot be recognized. Therefore, the user needs to set the mobile phone 100 to be recognized using the Korean language recognition dictionary and recognize it again.

このように、認識する言語が変わるたびに認識辞書を変更し直す必要があるため、例えば、韓国と日本を頻繁に行き来するようなユーザは、韓国に行ったら韓国語認識辞書に設定し、日本に行ったら日本語認識辞書に設定する必要があり、非常に手間がかかる。そこで、本第1実施形態では、携帯電話100の位置情報を取得し、その位置情報から使用されている言語を特定し、当該言語に対応した認識辞書を用いて、撮像部103により撮像された画像情報に含まれる識別情報を認識するように自動的に設定するようにする。なお、携帯電話100の位置情報の取得方法については後述する。   In this way, it is necessary to change the recognition dictionary every time the language to be recognized changes. For example, a user who frequently goes back and forth between Korea and Japan sets the Korean language recognition dictionary when going to Korea. If you go to, you need to set it in the Japanese recognition dictionary, which is very time consuming. Therefore, in the first embodiment, the location information of the mobile phone 100 is acquired, the language used from the location information is specified, and the image is captured by the imaging unit 103 using the recognition dictionary corresponding to the language. It is automatically set to recognize the identification information included in the image information. A method for acquiring the location information of the mobile phone 100 will be described later.

そこで、本第1実施形態では、特定された言語に対して認識に用いるべき認識辞書を自動的に設定するために、前述した言語−認識辞書対応表109を記憶部104に備えている。言語−認識辞書対応表109は、図3に示すように、言語301と該言語に対する認識辞書のファイル名302との対応関係を示した表である。すなわち、言語が特定された場合、言語−認識辞書対応表109を参照することにより、認識に用いるべき認識辞書を一意に決定することができる。   Therefore, in the first embodiment, the storage unit 104 includes the language-recognition dictionary correspondence table 109 described above in order to automatically set a recognition dictionary to be used for recognition for the specified language. As shown in FIG. 3, the language-recognition dictionary correspondence table 109 is a table showing the correspondence between the language 301 and the file name 302 of the recognition dictionary for the language. That is, when a language is specified, the recognition dictionary to be used for recognition can be uniquely determined by referring to the language-recognition dictionary correspondence table 109.

また、認識する前に認識対象となる識別情報を特定する必要があるが、特定する手段として、例えば、表示部107の中心に表示された「+」マークを識別情報の上に持っていけば、「+」マークの位置から近傍のスペース情報からスペース情報までの部分を一区切りの単語として自動的に特定するようにしてもよい。   Further, it is necessary to specify identification information to be recognized before recognition. As a means for specifying, for example, if a “+” mark displayed at the center of the display unit 107 is brought on the identification information. The part from the space information to the space information in the vicinity from the position of the “+” mark may be automatically specified as a single word.

また、ユーザが入力部101を利用して認識対象部分をカーソル等で直接指定できるようにしても構わないし、複数の認識対象を同時に選択できるようにしても構わない。更に、動画の場合には、動画を静止画でコマ送りできるように設定しておき、そのコマ送り画面で認識対象となる識別情報を選択できるようにしても構わない。   In addition, the user may be able to directly specify the recognition target portion with a cursor or the like using the input unit 101, or may be able to select a plurality of recognition targets at the same time. Furthermore, in the case of a moving image, the moving image may be set so that it can be frame-fed as a still image, and identification information to be recognized can be selected on the frame-advancing screen.

更に、認識対象を決定するために、ひとまず対象を決定する「仮決定」と仮決定された対象が間違っていない場合に「本決定」を行うように構成すれば、仮決定の段階で認識対象の特定に誤りがある場合に、容易に対象文字等の変更を行うことができるため、使い勝手を向上させることができる。   Furthermore, in order to determine the recognition target, if the “provisional determination” for determining the target for the time being and “mainly determined” when the target temporarily determined is not wrong, the recognition target is determined at the temporary determination stage. When there is an error in the identification, it is possible to easily change the target character and the like, so that usability can be improved.

次に、表示部107は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)等で構成され、撮像部103により撮像された画像や画像認識部105により認識された識別情報を表示する。その他、表示部107に、例えば、電源状態、電波強度、電池残量、サーバ接続状態もしくは未読メール等の動作状態、入力した電話番号、メール宛先、メール送信文書等や、動画および静止画、着信時の発呼者の電話番号、着信メール文書、接続されたインターネット画面等の受信データの表示、また、携帯電話の機能を利用するために必要な画面を表示する。   Next, the display unit 107 includes, for example, an LCD (Liquid Crystal Display), an organic EL (Electroluminescence), and the like, and displays an image captured by the imaging unit 103 and identification information recognized by the image recognition unit 105. In addition, the display unit 107 displays, for example, power status, radio wave intensity, remaining battery level, server connection status or operating status such as unread mail, input telephone number, mail destination, mail transmission document, video, still image, incoming call, etc. Display the received data such as the telephone number of the calling party, the incoming mail document, the connected internet screen, and the screen necessary for using the functions of the mobile phone.

通信部106は、他の情報処理装置とデータのやり取りを行う。基地局、ロケーションサーバおよびGPS(Global Positioning System)衛星と情報のやり取りを行い、携帯電話の位置座標を緯度・経度で取得する場合にも利用する。また、携帯電話100がインターネットや他の情報処理装置などにアクセスするための通信処理等も行う。また、通信部106は、図1に示すように1つのみを使用する場合に限らず、例えば、CDMA、EV−DO、無線LAN等の複数の通信方式を利用可能にするために複数備えても良い。   The communication unit 106 exchanges data with other information processing apparatuses. It is also used when exchanging information with a base station, a location server, and a GPS (Global Positioning System) satellite to acquire the position coordinates of a mobile phone in latitude and longitude. In addition, the mobile phone 100 also performs communication processing for accessing the Internet, other information processing apparatuses, and the like. Also, the communication unit 106 is not limited to the case where only one is used as shown in FIG. Also good.

言語設定部110は、通信部106によって取得された携帯電話の位置座標を用いて、その場所(国や地域)で使用されている言語を特定し、記憶部104に保存されたソフトウェアプログラム中に存在する言語を表す変数に保存する。言語設定部110は、位置座標と、その位置座標の場所で使用されている言語との対応関係が記載された「位置−言語対応表」を保持している。   The language setting unit 110 uses the position coordinates of the mobile phone acquired by the communication unit 106 to identify the language used in the place (country or region), and in the software program stored in the storage unit 104 Save to a variable that represents the existing language. The language setting unit 110 holds a “position-language correspondence table” that describes the correspondence between the position coordinates and the language used at the location of the position coordinates.

図4(a)に示すように、位置−言語対応表200は、言語201、位置座標(東経)202、位置座標(北緯)203などから構成される。例えば、取得した位置座標が(東経255°20′10″、北緯41°39′10″)であった場合、当該位置座標は位置座標(東経)205と位置座標(北緯)206の範囲内であるから、この場所で使用されている言語は英語204ということになる。なお、この方法だと、細かい長方形の領域で地球上の全ての領域を表現する必要があり、データサイズが大きくなってしまう。そこで、領域を多角形で表現することにより、それぞれ多角形の頂点の位置座標だけあれば地球上全ての領域を表現できるため、データサイズを削減することができる。例えば、図4(b)に示すように、頂点A、B、E、Dで囲まれた領域では独語、頂点B、C、Dで囲まれた領域では仏語というようになる。   As shown in FIG. 4A, the position-language correspondence table 200 includes a language 201, position coordinates (east longitude) 202, position coordinates (north latitude) 203, and the like. For example, if the acquired position coordinates are (East longitude 255 ° 20′10 ″, North latitude 41 ° 39′10 ″), the position coordinates are within the range of the position coordinates (east longitude) 205 and the position coordinates (north latitude) 206. Therefore, the language used in this place is English 204. In this method, it is necessary to represent all areas on the earth with fine rectangular areas, which increases the data size. Therefore, by expressing the area as a polygon, all the areas on the earth can be expressed as long as there are only the position coordinates of the vertexes of the polygon, so that the data size can be reduced. For example, as shown in FIG. 4B, the area surrounded by vertices A, B, E, and D is German, and the area surrounded by vertices B, C, and D is French.

また、言語を特定する方法としては、上記以外にも、携帯電話基地局から送信されてくるLAI(Location Area Identity)信号に基づいて携帯電話の位置を取得し、該携帯電話の位置に基づいて、そこで使用されている言語を特定する方法があり、特開2002−247646号公報に開示されている。   In addition to the above method, the language can be specified by acquiring the location of the mobile phone based on an LAI (Location Area Identity) signal transmitted from the mobile phone base station, and based on the location of the mobile phone. Therefore, there is a method for specifying the language used there, which is disclosed in Japanese Patent Application Laid-Open No. 2002-247646.

また、CPU102は、モード判定フラグを利用して、撮像モードが通常の静止画又は動画を撮像する通常撮像モードであるか、画像認識部105を利用して識別情報を認識する認識モードであるかを判定する。ここで、モード判定フラグは、例えば、記憶部104に記憶されたソフトウェアのプログラム中に存在する変数で、認識モードの場合と通常撮像モードとでは異なる値になるようにし、CPU102は、この変数に基づいて認識モードと通常撮像モードとを、例えば、入力部101による操作により切り換える。   In addition, the CPU 102 uses the mode determination flag to determine whether the imaging mode is a normal imaging mode that captures a normal still image or moving image, or a recognition mode that recognizes identification information using the image recognition unit 105. Determine. Here, the mode determination flag is a variable that exists in the software program stored in the storage unit 104, for example, and is set to a different value between the recognition mode and the normal imaging mode. Based on this, for example, the recognition mode and the normal imaging mode are switched by an operation using the input unit 101.

以下、本第1実施形態では、「認識モード」と「通常撮像モード」との2種類を有する場合を考えるが、これに限定されるものではなく、それ以外にモードがあっても構わない。   Hereinafter, in the first embodiment, a case where there are two types of “recognition mode” and “normal imaging mode” is considered, but the present invention is not limited to this, and there may be other modes.

A−2.第1実施形態の動作
次に、本第1実施形態における携帯電話100の処理手順を図5に示すフローチャートを参照して説明する。
A-2. Operation of the First Embodiment Next, the processing procedure of the mobile phone 100 in the first embodiment will be described with reference to the flowchart shown in FIG.

まず、携帯電話100がキー入力を待つ状態(ステップS501)において、カメラ機能を起動するキー入力をCPU102が検出すると(ステップS502)、記憶部104に保存されているカメラ機能に関する変数の初期化等といったカメラ起動処理を行う(ステップS503)。その後、CPU102は、撮像モードが、「認識モード」、「通常撮像モード」のいずれかであるかを判定する。そして、「認識モード」である場合には、ステップS503において、撮像部103を起動させた後にシャッターキー等が押下されると、撮像対象物の画像データを取得し、取得された画像データを記憶部104に一時的に保存する(ステップS504)。   First, when the mobile phone 100 waits for a key input (step S501) and the CPU 102 detects a key input for starting the camera function (step S502), initialization of variables related to the camera function stored in the storage unit 104, etc. The camera activation process is performed (step S503). Thereafter, the CPU 102 determines whether the imaging mode is “recognition mode” or “normal imaging mode”. In the “recognition mode”, when the shutter key or the like is pressed after starting the imaging unit 103 in step S503, the image data of the imaging target is acquired and the acquired image data is stored. The data is temporarily stored in the unit 104 (step S504).

次に、画像認識部105が上記画像データを読み取る(ステップS505)。その後、言語設定部110が、通信部106によって取得された携帯電話の位置座標を用いて、その場所(国や地域)で使用されている言語を特定し、記憶部104に保存された言語を表す変数に言語種別情報を設定する(ステップS506)。次に、CPU102が変数から言語種別情報を読み取り、言語−認識辞書対応表109を参照して認識辞書ファイル名を特定し、当該認識辞書ファイル名を画像認識部105に渡す(ステップS507)。   Next, the image recognition unit 105 reads the image data (step S505). Thereafter, the language setting unit 110 specifies the language used in the place (country or region) using the position coordinates of the mobile phone acquired by the communication unit 106, and the language stored in the storage unit 104 is determined. Language type information is set in the variable to be represented (step S506). Next, the CPU 102 reads the language type information from the variable, refers to the language-recognition dictionary correspondence table 109, identifies the recognition dictionary file name, and passes the recognition dictionary file name to the image recognition unit 105 (step S507).

次に、画像データに含まれる単語の中から、認識対象とする単語を選択すべく、表示部107の中心に表示された「+」マークに最も近接している単語を認識対象単語とする(ステップS508)。そして、CPU102は、認識対象単語として特定された単語の周囲に枠表示を行い、現在認識対象として特定されている単語が何であるかをユーザに明示する(ステップS509)。その後、画像認識部105が文字認識処理を行う。   Next, in order to select a word to be recognized from words included in the image data, a word closest to the “+” mark displayed at the center of the display unit 107 is set as a recognition target word ( Step S508). Then, the CPU 102 displays a frame around the word specified as the recognition target word, and clearly indicates to the user what the word currently specified as the recognition target is (step S509). Thereafter, the image recognition unit 105 performs character recognition processing.

文字認識処理では、まず、文字行抽出処理によって、画像データのどこに文字行があるかを抽出する。そして、文字行の範囲が決定したら、その文字行の中で黒画素の集合と集合との間隔が所定値以上である場合には、それらの集合はスペースによって区切られた文字列とする。すなわち、単語であると認識される。このように抽出された文字列の範囲の座標は記憶部104に保存される。   In the character recognition process, first, where the character line is in the image data is extracted by the character line extraction process. When the range of the character line is determined, if the interval between the set of black pixels in the character line is greater than or equal to a predetermined value, the set is a character string delimited by a space. That is, it is recognized as a word. The coordinates of the range of the character string extracted in this way are stored in the storage unit 104.

次に、画像認識部105がステップS107で取得した認識辞書ファイル名の認識辞書を用いて、指定された認識対象部分(枠内)の文字認識処理を行い(ステップS510)、認識結果を表示部107に表示する(ステップS511)。   Next, the image recognition unit 105 performs character recognition processing for the designated recognition target portion (inside the frame) using the recognition dictionary with the recognition dictionary file name acquired in step S107 (step S510), and displays the recognition result on the display unit. It is displayed on 107 (step S511).

このように、言語設定部110が特定した言語に従って、認識辞書を選択するため、ユーザが改めて認識辞書を設定する必要がなくなり、読み取った文字列の言語に応じて複数の認識辞書の中から適切な認識辞書を容易に選択することができるとともに、読み取った文字列のイメージを正しい文字情報に変換することができ、使い勝手が向上する。   Thus, since the recognition dictionary is selected according to the language specified by the language setting unit 110, it is not necessary for the user to set the recognition dictionary again, and an appropriate one of the plurality of recognition dictionaries is selected according to the language of the read character string. A simple recognition dictionary can be easily selected, and an image of a read character string can be converted into correct character information, improving usability.

なお、上述した第1実施形態では、例えば、韓国で英単語を認識する場合、自動的に韓国語の認識辞書を用いて認識することになるが、韓国語認識辞書を用いて認識できなかったら、その後に英語認識辞書などの他の言語の認識辞書を用いて認識するようにしてもよい。このようにすれば、ユーザは認識辞書の設定を変更することなく、韓国でも韓国語以外の文字が認識できるため、さらに使い勝手を向上させることができる。   In the first embodiment described above, for example, when an English word is recognized in Korea, it is automatically recognized using a Korean recognition dictionary. However, if recognition is not possible using the Korean recognition dictionary, Then, recognition may be performed using a recognition dictionary of another language such as an English recognition dictionary. In this way, since the user can recognize characters other than Korean in Korea without changing the setting of the recognition dictionary, the usability can be further improved.

B.第2実施形態
次に、本発明の第2実施形態について説明する。本第2実施形態では、図6に示すように、画像認識部105が認識辞書108の各言語に対応する認識辞書を使用した回数303や、使用時刻304を、言語−認識辞書対応表109に記載し、例えば、CPU102は、回数303を参照し、使用回数が多い順番に認識辞書を用いるよう画像認識部105に命令することもできる。同様に、使用時刻304の新しい順番に認識辞書108の各言語に対応する認識辞書を使用するようにしてもよい。こうすることにより、ユーザに最適な認識辞書の選択が可能になり、使い勝手が向上する。
B. Second Embodiment Next, a second embodiment of the present invention will be described. In the second embodiment, as shown in FIG. 6, the number 303 of use of the recognition dictionary corresponding to each language of the recognition dictionary 108 and the use time 304 are stored in the language-recognition dictionary correspondence table 109 as shown in FIG. For example, the CPU 102 can refer to the number of times 303 and instruct the image recognition unit 105 to use the recognition dictionary in the order of the most frequently used times. Similarly, the recognition dictionaries corresponding to the respective languages of the recognition dictionary 108 may be used in the order of use time 304. This makes it possible to select a recognition dictionary that is most suitable for the user, improving usability.

C.第3実施形態
次に、本発明の第3実施形態について説明する。上述した第2実施形態では、回数303や使用時刻304に従って、認識辞書108の各言語に対応する認識辞書の使用順番を設定するようにしたが、この場合、CPU102が言語−認識辞書対応表109の回数303や使用時刻304から決定した、認識辞書108の各言語に対応する認識辞書の使用順番によっては、認識する文字によって認識時間が長くなる可能性がある。例えば、認識辞書108の各言語に対応する認識辞書の使用順番が、1.英語、2.韓国語、3.アラビア語、4.日本語、となっていた場合に、日本語を認識するためには、英語認識辞書、韓国語認識辞書、アラビア語認識辞書を用いて認識が試みられた後に、日本語認識辞書を用いて認識が行われる。
C. Third Embodiment Next, a third embodiment of the present invention will be described. In the second embodiment described above, the use order of the recognition dictionary corresponding to each language of the recognition dictionary 108 is set according to the number of times 303 and the use time 304. In this case, the CPU 102 uses the language-recognition dictionary correspondence table 109. Depending on the recognition character used, the recognition time may be longer depending on the use order of the recognition dictionary corresponding to each language of the recognition dictionary 108 determined from the number of times 303 and the use time 304. For example, the order of use of the recognition dictionary corresponding to each language of the recognition dictionary 108 is 1. English, 2. Korean, 3. Arabic, 4. In order to recognize Japanese when it has become Japanese, after using the English recognition dictionary, the Korean recognition dictionary, and the Arabic recognition dictionary, recognition is attempted using the Japanese recognition dictionary. Is done.

このような余計な処理を省くために、入力部101のキーに、それぞれどの認識辞書を用いて認識するかを予め設定しておくこともできる。すなわち、入力部101のキー入力があった場合には、上記回数303や使用時刻304により設定された使用順番より、キー入力を優先して、使用すべき認識辞書を決定してもよい。例えば、入力部101のうち「1」キーには英語、「2」キーには韓国語、「3」キーには日本語などと設定しておく。具体的には、図6に示すように、言語−認識辞書対応表109にキー割当て305の欄を設け、当該欄にキーの種類を表す番号などの識別子を記載しておく。   In order to omit such extra processing, it is possible to previously set which recognition dictionary is used for each key of the input unit 101. That is, when there is a key input from the input unit 101, the recognition dictionary to be used may be determined by giving priority to the key input over the use order set by the number of times 303 and the use time 304. For example, in the input unit 101, “1” key is set to English, “2” key is set to Korean, “3” key is set to Japanese. Specifically, as shown in FIG. 6, a key assignment 305 field is provided in the language-recognition dictionary correspondence table 109, and an identifier such as a number indicating the type of key is described in the field.

ここで、図7は、キー割当て305欄を設けた言語−認識辞書対応表109を用いて、読み取った文字列のイメージを認識する場合の処理を説明するためのフローチャートである。   Here, FIG. 7 is a flowchart for explaining processing when recognizing an image of a read character string using the language-recognition dictionary correspondence table 109 provided with a key assignment 305 field.

まず、図5に示すステップS501〜ステップS503までと同様の処理を行い、カメラを起動する。この状態で、ユーザによって「1」キーが押下されると、CPU102が「1」キーが押下されたことを検出し(ステップS601)、CPU102は、言語−認識辞書対応表109を参照し(ステップS602)、キー割当て305の欄から「1」キーを表す識別子を検索する(ステップS603)。「1」キーを表す識別子が見つかると、当該識別子に対応付けられた認識辞書ファイル名「OCR_eng.dat」を記憶部104に保存する(ステップS604)。そして、図5のステップS504〜ステップS505と同様の処理を行った後、CPU102は、ステップS605で記憶部104に保存しておいた認識辞書ファイル名を画像認識部105に渡す。その後、図5のステップS508〜ステップS511と同様の処理を行い、認識結果を表示する。   First, processing similar to that in steps S501 to S503 shown in FIG. 5 is performed, and the camera is activated. In this state, when the “1” key is pressed by the user, the CPU 102 detects that the “1” key is pressed (step S601), and the CPU 102 refers to the language-recognition dictionary correspondence table 109 (step S601). In step S602), an identifier representing the “1” key is searched from the key assignment 305 column (step S603). When an identifier representing the “1” key is found, the recognition dictionary file name “OCR_eng.dat” associated with the identifier is stored in the storage unit 104 (step S604). Then, after performing the same processing as steps S504 to S505 in FIG. 5, the CPU 102 passes the recognition dictionary file name saved in the storage unit 104 to the image recognition unit 105 in step S605. Thereafter, processing similar to that in steps S508 to S511 in FIG. 5 is performed, and the recognition result is displayed.

このように、キー割当てを行うことで、認識辞書108の各言語に対応する認識辞書のうち、画像認識部105に使用させる認識辞書をユーザが特定することができる。よって、異なる言語に対応した認識辞書を使用することがないため、認識時間が短縮され、使い勝手が向上する。   Thus, by assigning keys, the user can specify a recognition dictionary to be used by the image recognition unit 105 among recognition dictionaries corresponding to each language of the recognition dictionary 108. Therefore, since the recognition dictionary corresponding to a different language is not used, recognition time is shortened and usability improves.

なお、上述した第3実施形態において、キー割当以外にも、音声認識技術を用いて利用者の発した言葉を検出し、言語を特定するようにしてもよい。   Note that in the third embodiment described above, in addition to key assignment, a language spoken by a user may be detected using voice recognition technology to specify a language.

D.第4実施形態
D−1.第4実施形態の構成
次に、本発明の第4実施形態について説明する。ここで、図8は、本発明の第4実施形態による携帯電話の構成を示すブロック図である。なお、図2に対応する部分には同一の符号を付けて説明を省略する。これまでは、文字を認識してその認識結果を表示することについて述べてきたが、本第4実施形態では、図8に示すように、携帯電話100の記憶部104に、複数の言語のそれぞれに対応する翻訳辞書111を備えることで、認識して読み取った英単語などの外国語を日本語に翻訳して表示させる。
D. Fourth Embodiment D-1. Configuration of Fourth Embodiment Next, a fourth embodiment of the present invention will be described. Here, FIG. 8 is a block diagram showing a configuration of a mobile phone according to the fourth embodiment of the present invention. It should be noted that parts corresponding to those in FIG. So far, it has been described that characters are recognized and the recognition result is displayed. In the fourth embodiment, as shown in FIG. 8, each of a plurality of languages is stored in the storage unit 104 of the mobile phone 100. By providing the translation dictionary 111 corresponding to, foreign languages such as English words recognized and read are translated into Japanese and displayed.

ここでいう、翻訳辞書111には、例えば、外国語(英語やフランス語など)の単語等といった識別情報、該識別情報の日本語訳が含まれる。また、該識別情報の様々な日本語訳や使い方・用例等について詳しく書かれたホームページのURL等が含まれていてもよい。さらに、識別情報の説明であることがわかれば、絵や音などのデータでもよい。   The translation dictionary 111 here includes, for example, identification information such as words of a foreign language (English, French, etc.) and a Japanese translation of the identification information. Further, it may include a URL of a home page in which various details such as various Japanese translations of the identification information, usage / examples, etc. are written. Furthermore, data such as pictures and sounds may be used as long as it is understood that the information is identification information.

本第2実施形態では、画像認識部105が使用する認識辞書と、認識した単語を翻訳するために使用する翻訳辞書との対応関係を示した「認識辞書−翻訳辞書対応表」を記憶部104に保存しておく。   In the second embodiment, the “recognition dictionary-translation dictionary correspondence table” indicating the correspondence between the recognition dictionary used by the image recognition unit 105 and the translation dictionary used to translate the recognized word is stored in the storage unit 104. Save to.

図9に、認識辞書−翻訳辞書対応表400の内容を示す。当該認識辞書−翻訳辞書対応表400には、認識辞書ファイル名302、翻訳辞書ファイル名306の欄が設けられており、例えば、認識辞書ファイル名「OCR_eng.dat」と翻訳辞書ファイル名「TRANS_eng_jap.dic」が対応関係にあることを示している。ここで、「OCR_eng.dat」は、英語の文字(アルファベット)に対応した認識辞書であり、「TRANS_eng_jap.dic」は、英単語とその日本語訳が記載された和辞書である。画像認識部105は、認識した後に当該対応表を参照し、翻訳に使用する翻訳辞書を決定することができ、ユーザの手間を省くことができる。   FIG. 9 shows the contents of the recognition dictionary-translation dictionary correspondence table 400. The recognition dictionary-translation dictionary correspondence table 400 includes columns of a recognition dictionary file name 302 and a translation dictionary file name 306. For example, a recognition dictionary file name “OCR_eng.dat” and a translation dictionary file name “TRANS_eng_jap. “dic” indicates a correspondence relationship. Here, “OCR_eng.dat” is a recognition dictionary corresponding to English letters (alphabet), and “TRANS_eng_jap.dic” is a Japanese dictionary in which English words and their Japanese translations are described. The image recognition unit 105 can determine the translation dictionary to be used for translation by referring to the correspondence table after the recognition, and can save the user's trouble.

D−2.第4実施形態の動作
次に、本第4実施形態における携帯電話の処理手順を図10に示すフローチャートを参照して説明する。まず、図5のステップS501〜ステップS509までと同様の処理を行い、撮像した画像中に含まれる文字の中から認識対象を決定する。その後、画像認識部105が文字認識処理を行い(ステップS701)、認識が成功したかどうかを判定する(ステップS702)。
D-2. Operation of Fourth Embodiment Next, the processing procedure of the mobile phone in the fourth embodiment will be described with reference to the flowchart shown in FIG. First, processing similar to that in steps S501 to S509 in FIG. 5 is performed, and a recognition target is determined from characters included in the captured image. Thereafter, the image recognition unit 105 performs character recognition processing (step S701), and determines whether the recognition is successful (step S702).

判定する方法としては、例えば、認識対象となった文字に対する上述した所定のパラメータ値と、認識辞書108に格納されたパラメータ値との値の差が、予め定められた範囲内であった場合にその文字に対しては認識成功とするなどの方法がある。そして、認識対象として選択された文字列のうち、全ての文字に対して認識成功となれば、ステップS702において認識成功とする。なお、全ての文字が認識成功にならなくても、文字列全体の例えば8割以上の文字が認識成功となればステップS702で認識成功としてもよい。   As a determination method, for example, when the difference between the predetermined parameter value for the character to be recognized and the parameter value stored in the recognition dictionary 108 is within a predetermined range. There is a method such as recognition success for the character. If the recognition is successful for all characters in the character string selected as the recognition target, the recognition is successful in step S702. Even if not all characters are recognized successfully, recognition may be successful in step S702 if, for example, 80% or more of the entire character string is recognized successfully.

ステップS702で認識成功とならなかった場合には、まだ使用していない認識辞書が他にもあるかどうかをCPU102が検索し(ステップS711)、見つかった場合には、その認識辞書を用いて再度文字認識処理を行う(ステップS701)。一方、使用していない認識辞書がなかった場合には、「認識失敗しました。」などといった表示を表示部107に表示する(ステップS712)。   If the recognition is not successful in step S702, the CPU 102 searches for other recognition dictionaries that have not been used yet (step S711). If found, the recognition dictionary is used again. Character recognition processing is performed (step S701). On the other hand, if there is no recognition dictionary that is not used, a display such as “Recognition failed” is displayed on the display unit 107 (step S712).

一方、ステップS702で認識成功となった場合には、CPU102が認識結果を記憶部104に保存する(ステップS703)。また、使用した認識辞書ファイル名をCPU102が記憶部104に保存する(ステップS704)。そして、CPU102は、認識辞書−翻訳辞書対応表400の認識辞書ファイル名302の欄を参照し、記憶部104に保存された認識辞書ファイル名と一致するファイル名を検索し、一致するファイル名が見つかった場合には、当該認識辞書ファイル名に対応付けられた翻訳辞書ファイル名を取得する(ステップS705)。   On the other hand, when the recognition is successful in step S702, the CPU 102 stores the recognition result in the storage unit 104 (step S703). Further, the CPU 102 stores the used recognition dictionary file name in the storage unit 104 (step S704). Then, the CPU 102 refers to the column of the recognition dictionary file name 302 in the recognition dictionary-translation dictionary correspondence table 400, searches for a file name that matches the recognition dictionary file name stored in the storage unit 104, and finds that the matching file name is If found, the translation dictionary file name associated with the recognition dictionary file name is acquired (step S705).

次に、画像認識部105によって認識された認識結果をCPU102が記憶部104から読み取り、CPU102は、ステップS705において取得した翻訳辞書ファイル名のファイルにアクセスする。そして、当該翻訳辞書に含まれる単語データの中から、認識結果と一致する単語を検索する(ステップS706)。   Next, the CPU 102 reads the recognition result recognized by the image recognition unit 105 from the storage unit 104, and the CPU 102 accesses the file having the translation dictionary file name acquired in step S705. Then, a word that matches the recognition result is searched from word data included in the translation dictionary (step S706).

単語を検索する方法としては、まず文字列が完全に一致するものを探し出し、完全に一致するものがなかった場合には、一文字だけ異なるがその他の文字は一致している単語を探し出すという方法が好ましい。この方法を採用することで、画像認識部105が紙面上の文字を誤って認識した場合でも、その文字列に一番近い単語を探し出すことができ、何度も撮像して文字認識をやり直す手間が省くことができる。また、一文字だけ異なる単語もない場合には、二文字だけ異なる単語、三文字だけ異なる単語、というように異なる文字数をだんだん増やして検索してもよく、この場合、認識率が低くても該当する単語を探し出すことができる。   As a method of searching for a word, first, a search is made for a word that matches exactly the character string, and when there is no match, a word that is different by one character but matches the other characters is searched. preferable. By adopting this method, even when the image recognition unit 105 mistakenly recognizes a character on the paper, it is possible to find the word closest to the character string, and it is time-consuming to repeat the character recognition by taking an image many times. Can be omitted. If there is no word that differs only by one character, you can search by increasing the number of different characters, such as a word that differs only by two characters, a word that differs only by three characters, and in this case, even if the recognition rate is low Find words.

上記検索によって翻訳辞書内に一致する単語が見つかった場合には、CPU102は、その単語に対応する日本語訳を、翻訳辞書111の対応する言語の翻訳辞書から読み取って(ステップS708)、表示部107に日本語訳を表示する(ステップS709)。一方、翻訳辞書内に一致する単語が見つからなかった場合には、「該当する単語が見つかりません」などといった表示を表示部107に表示する(ステップS712)。   If a matching word is found in the translation dictionary by the search, the CPU 102 reads the Japanese translation corresponding to the word from the translation dictionary of the corresponding language of the translation dictionary 111 (step S708), and displays the display unit. A Japanese translation is displayed at 107 (step S709). On the other hand, when a matching word is not found in the translation dictionary, a display such as “No matching word found” is displayed on the display unit 107 (step S712).

このようにして、本第4実施形態における携帯電話では、ユーザがいちいち翻訳辞書を設定し直すことなく、複数の言語に対する日本語訳を連続して表示することができる。   In this way, the mobile phone in the fourth embodiment can continuously display Japanese translations for a plurality of languages without the user having to reset the translation dictionary one by one.

なお、認識辞書−翻訳辞書対応表400の翻訳辞書ファイル名331の欄は、言語−認識辞書対応表109に欄を追加して記載してもよい。こうすることで、CPU102が参照する表が少なくなり、記憶部104の容量の削減や、ソフトウェア構造の簡単化ができる。   The translation dictionary file name 331 field in the recognition dictionary-translation dictionary correspondence table 400 may be described by adding a field to the language-recognition dictionary correspondence table 109. By doing so, the number of tables referred to by the CPU 102 is reduced, and the capacity of the storage unit 104 can be reduced and the software structure can be simplified.

また、認識辞書−翻訳辞書対応表400は、携帯電話100の記憶部104に新たに翻訳辞書が保存された際に、翻訳辞書ファイル名331、認識辞書ファイル名302のそれぞれの欄に値が入力されることが好ましい。値の入力は、ユーザによって入力部101から入力されるようにしてもよい。その際、表示部107には、ユーザへの入力を促すメッセージを表示することが好ましい。例えば、図11(a)のように、記憶部104に保存されている認識辞書のファイル名一覧802を表示しておく。ユーザは、ファイル名に対応する番号の数字キーを押下することで、認識辞書を選択できるようにする。ユーザによって、例えば「1」キーが押下されると、図11(b)のように、「TRANS_eng_jap.dic」と「OCR_eng.dat」とを対応付けたことをユーザに知らせるメッセージを表示する。   The recognition dictionary-translation dictionary correspondence table 400 has values entered in the respective fields of the translation dictionary file name 331 and the recognition dictionary file name 302 when a translation dictionary is newly stored in the storage unit 104 of the mobile phone 100. It is preferred that The value may be input from the input unit 101 by the user. At that time, it is preferable to display a message prompting the user to input on the display unit 107. For example, as shown in FIG. 11A, a recognition dictionary file name list 802 stored in the storage unit 104 is displayed. The user can select a recognition dictionary by pressing the number key corresponding to the file name. For example, when the user presses the “1” key, a message notifying the user that “TRANS_eng_jap.dic” and “OCR_eng.dat” are associated is displayed as shown in FIG.

また、翻訳辞書のフォーマットを決めて、予め定められた場所(例えばファイルの先頭など)に対応する認識辞書を現す認識辞書識別子を格納しておく。そして、新たな翻訳辞書が記憶部104に保存された際に、翻訳辞書に格納された当該認識辞書識別子をCPU102が参照し、認識辞書−翻訳辞書対応表400に値の入力を行うようにしてもよい。   Also, the format of the translation dictionary is determined, and a recognition dictionary identifier representing a recognition dictionary corresponding to a predetermined location (for example, the beginning of a file) is stored. Then, when a new translation dictionary is stored in the storage unit 104, the CPU 102 refers to the recognition dictionary identifier stored in the translation dictionary and inputs a value to the recognition dictionary-translation dictionary correspondence table 400. Also good.

E.第5実施形態
次に、本発明の第5実施形態について説明する。上述した第4実施形態では、1つの認識辞書に対して1つの翻訳辞書が決定される場合を考えてきたが、本第5実施形態では、それぞれの認識言語に対して、複数の言語の各々に対応する複数の翻訳辞書を設け、認識した文字列を、複数の翻訳辞書のいずれか1つを用いて翻訳する場合について説明する。どの翻訳辞書を用いるか、すなわちどの言語に翻訳するかは、位置情報に基づいてその場所で用いられる言語を特定し、該言語に対応する翻訳辞書を用いて、認識した文字列を翻訳するようになっている。
E. Fifth Embodiment Next, a fifth embodiment of the present invention will be described. In the fourth embodiment described above, the case where one translation dictionary is determined for one recognition dictionary has been considered. However, in the fifth embodiment, each of a plurality of languages is defined for each recognition language. A case will be described in which a plurality of translation dictionaries corresponding to is provided and the recognized character string is translated using any one of the plurality of translation dictionaries. Which translation dictionary is used, that is, in which language is translated, the language used in the place is specified based on the position information, and the recognized character string is translated using the translation dictionary corresponding to the language. It has become.

例えば、英語を認識した場合には、英語から日本語に翻訳する英和辞書、英語から韓国語に翻訳する英韓辞書、英語からドイツ語に翻訳する英独辞書などがある。そのため、ユーザは、翻訳する際にどの翻訳辞書を用いて翻訳するかを選択する必要がある。また、予め使用する翻訳辞書を設定しておけば、認識する毎に選択する手間は省けるが、上述したように、例えば、韓国・日本間を頻繁に行き来するユーザがいて、頻繁に英韓辞書と英和辞書を使用する場合には、使用する翻訳辞書を頻繁に設定する必要があり、手間がかかってしまう。   For example, when English is recognized, there are an English-Japanese dictionary that translates English to Japanese, an English-Korean dictionary that translates English to Korean, and an English-German dictionary that translates English to German. Therefore, the user needs to select which translation dictionary is used for translation when translating. Also, if you set a translation dictionary to use in advance, you can save time and effort to select it every time you recognize it. However, as mentioned above, for example, there are users who frequently travel between Korea and Japan, and frequently use English-Korean dictionaries. When using an English-Japanese dictionary, it is necessary to frequently set the translation dictionary to be used, which is troublesome.

そこで本第5実施形態では、携帯電話100の位置情報を取得し、該位置情報からその場所で使用されている言語を特定し、認識した文字列を特定した言語に翻訳する。そのために、図12に示すように、翻訳辞書ファイル名901、被翻訳言語902、翻訳言語903を対応付けた対応表900を記憶部104に保持する。そして、CPU102は、言語設定部110によって設定された言語に基づいて対応表900を参照し、使用する翻訳辞書を設定する。ここで、被翻訳言語902とは、翻訳される単語の言語を表す識別子であり、例えば、「英語」905である。また、翻訳言語903とは、翻訳する際に使用する言語を表す識別子であり、例えば、「日本語」906である。翻訳辞書ファイル名901は、被翻訳言語902から翻訳言語903へ翻訳するための翻訳辞書のファイル名であり、例えば、「TRANS_eng_jap.dic」904は、「英語」905の単語と、当該単語に対応する「日本語」906の意味とが記載された辞書である。   Therefore, in the fifth embodiment, the location information of the mobile phone 100 is acquired, the language used at the location is specified from the location information, and the recognized character string is translated into the specified language. For this purpose, as shown in FIG. 12, a correspondence table 900 in which a translation dictionary file name 901, a translated language 902, and a translated language 903 are associated is held in the storage unit 104. Then, the CPU 102 refers to the correspondence table 900 based on the language set by the language setting unit 110 and sets a translation dictionary to be used. Here, the language to be translated 902 is an identifier representing the language of the word to be translated, for example, “English” 905. The translation language 903 is an identifier representing a language used for translation, and is, for example, “Japanese” 906. The translation dictionary file name 901 is a translation dictionary file name for translation from the translated language 902 to the translated language 903. For example, “TRANS_eng_jap.dic” 904 corresponds to the word “English” 905 and the word. This is a dictionary in which the meaning of “Japanese” 906 is described.

本第5実施形態では、画像認識部105がユーザ指定による言語に対応する認識辞書を用いて、読み込んだ文字列のイメージを認識した後、使用した認識辞書と言語−認識辞書対応表109とから、被翻訳言語を決定する。具体的には、被翻訳言語を表すプログラム上の変数Lang_inに認識対象の単語の言語を代入する。例えば、使用した認識辞書がOCR_eng.datであった場合、言語−認識辞書対応表109から言語は「英語」となり、変数Lang_inには英語が代入される。次に、言語設定部110が位置情報に従って設定した言語を、翻訳言語を表すプログラム上の変数Lang_outに代入する。そして、CPU102は、変数Lang_inと変数Lang_outを読み取り、それぞれが対応表900の被翻訳言語902、翻訳言語903と等しくなる翻訳辞書ファイル名を検索する。検索の結果見つかった場合には、その翻訳辞書ファイル名のファイルにアクセスし、単語の翻訳を検索する。こうすることで、ユーザはいちいち設定する手間が省けて、使い勝手が向上する。   In the fifth embodiment, the image recognition unit 105 recognizes the image of the read character string using the recognition dictionary corresponding to the language specified by the user, and then uses the recognition dictionary used and the language-recognition dictionary correspondence table 109. Determine the language to be translated. Specifically, the language of the word to be recognized is substituted into the variable Lang_in on the program representing the language to be translated. For example, the recognition dictionary used is OCR_eng. In the case of dat, the language is “English” from the language-recognition dictionary correspondence table 109, and English is substituted for the variable Lang_in. Next, the language set by the language setting unit 110 according to the position information is substituted into a variable Lang_out on the program representing the translation language. The CPU 102 reads the variable Lang_in and the variable Lang_out, and searches for a translation dictionary file name that is equal to the translated language 902 and the translated language 903 in the correspondence table 900. If it is found as a result of the search, the translation dictionary file name file is accessed to search for a word translation. By doing so, the user can save time and effort for setting, and usability is improved.

なお、対応表900は、携帯電話100の記憶部104に新たに翻訳辞書が保存された際に、翻訳辞書ファイル名901、認識文字言語902、翻訳言語903のそれぞれの欄に値が入力されることが好ましい。値の入力は、ユーザによって入力部101から入力されるようにしてもよい。その際、表示部107にはユーザへの入力を促すメッセージを表示することが好ましい。また、翻訳辞書のフォーマットを決めて、翻訳辞書の予め定められた場所、例えばファイルの先頭などに被翻訳言語と翻訳言語を格納するようにしておき、当該場所をCPU102が参照して、対応表900に値の入力を行うようにしてもよい。   In the correspondence table 900, when a translation dictionary is newly stored in the storage unit 104 of the mobile phone 100, values are input in the respective fields of the translation dictionary file name 901, the recognized character language 902, and the translation language 903. It is preferable. The value may be input from the input unit 101 by the user. At this time, it is preferable to display a message prompting the user to input on the display unit 107. In addition, the translation dictionary format is determined, and the translated language and the translated language are stored in a predetermined location of the translation dictionary, for example, at the top of the file. A value may be input to 900.

図13(a)は、本第5実施形態の携帯電話100で日本語が話されている場所において、英単語を認識し、その翻訳を表示した際の画面表示例である。枠1001によって囲まれた「thank」という英単語が、認識対象の単語であることを示しており、その翻訳結果が結果表示部1002に表示されている。日本語圏であるので、「ありがとう」1003と表示されている。また、図13(b)は、携帯電話100で中国語が話されている場所において、図13(a)と同様に翻訳結果を表示した際の画面表示例である。翻訳結果は、中国語で「謝謝」と表示されている。   FIG. 13A is a screen display example when an English word is recognized and its translation is displayed in a place where Japanese is spoken in the mobile phone 100 of the fifth embodiment. An English word “thank” surrounded by a frame 1001 indicates that it is a recognition target word, and the translation result is displayed on the result display unit 1002. Since it is Japanese-speaking, “Thank you” 1003 is displayed. FIG. 13B is a screen display example when the translation result is displayed in the same manner as in FIG. 13A in a place where the mobile phone 100 is speaking Chinese. The translation result is displayed as “Xie Xie” in Chinese.

また、地域によっては、複数の言語が使用されている。例えば、カナダでは英語とフランス語、インドでは英語とヒンズー語などが使用されている。その場合、どの言語で翻訳するかをユーザに選択させるようにすれば、さらに使い勝手が向上する。なお、この場合、図3に示す位置―言語対応表200において、位置情報に対して、その場所で使用されている少なくとも1つ以上の言語が設定されているものとする。すなわち、複数の言語が使用されている場所を示す位置情報には、複数の言語を設定しておく。   In some regions, a plurality of languages are used. For example, English and French are used in Canada, and English and Hindu are used in India. In that case, if the user selects which language to translate, the usability is further improved. In this case, in the position-language correspondence table 200 shown in FIG. 3, it is assumed that at least one or more languages used in the place are set for the position information. That is, a plurality of languages are set in the position information indicating a place where a plurality of languages are used.

図14にその画面表示例を示す。図14(a)は、「now」という単語が認識対象単語になったことを示している。この状態でユーザが「選択」キーを押下すると、図14(b)に遷移する。図14(b)は、ユーザにどの言語で翻訳するかを選択させる画面である。この状態で、例えば「1」キーを押下すると、日本語に翻訳するように設定され、図14(c)に遷移する。図14(c)は、認識対象の単語「now」を日本語に翻訳した結果を示した画面である。翻訳結果表示部1104に認識対象単語「now」の訳が日本語で表示されている。   FIG. 14 shows an example of the screen display. FIG. 14A shows that the word “now” has become a recognition target word. When the user presses the “select” key in this state, the screen transitions to FIG. FIG. 14B is a screen that allows the user to select which language to translate. In this state, for example, when the “1” key is pressed, the setting is made so as to translate into Japanese, and a transition is made to FIG. FIG. 14C is a screen showing the result of translating the word “now” to be recognized into Japanese. The translation result display unit 1104 displays the translation of the recognition target word “now” in Japanese.

また、認識した単語の翻訳結果を表示したあと、辞書アプリケーションなどのサイトに接続し、認識単語の詳細な意味や様々な使用方法などを閲覧するようにしてもよい。具体的には、翻訳結果が表示部107に表示された状態において、ユーザによって入力部101に入力があったら、サイトに接続してサイトの内容を表示部107に表示する。この場合、接続するサイトのURLを決定する際に、携帯電話100の位置情報を使用してもよい。   In addition, after displaying the translation result of the recognized word, the user may connect to a site such as a dictionary application and browse the detailed meaning of the recognized word and various usages. Specifically, in a state where the translation result is displayed on the display unit 107, if the user inputs to the input unit 101, the user connects to the site and displays the contents of the site on the display unit 107. In this case, the position information of the mobile phone 100 may be used when determining the URL of the site to be connected.

具体的には、対応表900に、サイトURL(図示せず)の欄を追加して、それぞれの翻訳辞書ファイルに対応したURL(の一部)を記載しておく。例えば、翻訳辞書ファイルTRANS_eng_jpa.dicに対応するサイトのURL(の一部)は、「http://xxx.???.com/english-japanese/」とする。そして、当該サイトのURL(の一部)と画像認識部105が認識した単語とを用いて、接続するURLをCPU102が作成する。CPU102によって作成されたURLに通信部106が接続し、当該URLの内容を表示部107に表示する。例えば、「mobile」という単語を認識した場合は、接続するURLは「http://xxx.???.com/english-japanese/mobile.html」などのようになる。   Specifically, a site URL (not shown) column is added to the correspondence table 900, and URLs (parts) corresponding to the respective translation dictionary files are described. For example, the URL (part) of the site corresponding to the translation dictionary file TRANS_eng_jpa.dic is “http://xxx.???.com/english-japanese/”. Then, the CPU 102 creates a URL to be connected using the URL of the site (a part thereof) and the word recognized by the image recognition unit 105. The communication unit 106 connects to the URL created by the CPU 102 and displays the content of the URL on the display unit 107. For example, when the word “mobile” is recognized, the URL to be connected is “http://xxx.???.com/english-japanese/mobile.html”.

なお、上述した実施形態では、認識辞書、翻訳辞書は、1ファイルにつき1つの言語として説明してきたが、複数の言語をまとめて1つのファイルにしてもよい。例えば、先頭から英語認識辞書、日本語認識辞書、韓国語認識辞書、といったようにまとめて1つのファイルとして格納する。そして、対応表には認識辞書の代わりに、ファイルのどの部分に認識辞書が格納されているかを表すデータを記載しておく。例えば、日本語認識辞書がファイルの先頭から1500バイト目から格納されている場合、対応表には、ファイル名と共に「1500」と記載しておく。これで、日本語認識辞書を使用したい場合は、ファイルの1500バイト目からアクセスすればよい。これにより、複数の認識辞書や翻訳辞書がまとめられたファイルにも対応でき、使い勝手が向上する。   In the above-described embodiment, the recognition dictionary and the translation dictionary are described as one language per file, but a plurality of languages may be combined into one file. For example, an English recognition dictionary, a Japanese recognition dictionary, and a Korean recognition dictionary are collectively stored as one file from the top. Then, instead of the recognition dictionary, data indicating in which part of the file the recognition dictionary is stored is described in the correspondence table. For example, when the Japanese recognition dictionary is stored from the 1500th byte from the beginning of the file, “1500” is described in the correspondence table together with the file name. If you want to use the Japanese language recognition dictionary, you can access it from the 1500th byte of the file. As a result, it is possible to handle a file in which a plurality of recognition dictionaries and translation dictionaries are collected, and usability is improved.

なお、上述してきた種々の機能をソフトウェアで実現してもよく、ユーザは、例えば、CD―ROM等の記録媒体やサーバから当該ソフトウェアを受信して当該種々の機能を実現できる。これにより、必要な機能だけを搭載したり、また、好みに応じて色々な機能を追加もしくは削除、あるいは更新したりすることが容易となる。
更に、上述した実施例を組み合わせて新しく実施形態を構成することができることは言うまでもない。
また、本発明は、上記に示された実施例に限定されるものではなく、ここに開示された原理及び特性を用いた多様な実施例が存在する。
Note that the various functions described above may be realized by software, and the user can realize the various functions by receiving the software from a recording medium such as a CD-ROM or a server, for example. This makes it easy to install only necessary functions, and to add, delete, or update various functions according to preference.
Furthermore, it goes without saying that a new embodiment can be configured by combining the above-described examples.
Further, the present invention is not limited to the above-described embodiments, and there are various embodiments using the principles and characteristics disclosed herein.

本発明による携帯電話100の外観を示す模式図である。It is a schematic diagram which shows the external appearance of the mobile telephone 100 by this invention. 本発明の第1実施形態に係る携帯電話の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile telephone which concerns on 1st Embodiment of this invention. 本第1実施形態による言語−認識辞書対応表109の内容を示す概念図である。It is a conceptual diagram which shows the content of the language-recognition dictionary correspondence table | surface 109 by this 1st Embodiment. 本第1実施形態による位置−言語対応表の内容を示す概念図である。It is a conceptual diagram which shows the content of the position-language correspondence table by this 1st Embodiment. 本第1実施形態に係る携帯電話の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process of the mobile telephone which concerns on this 1st Embodiment. 本発明の第2、第3実施形態による言語−認識辞書対応表109の内容を示す概念図である。It is a conceptual diagram which shows the content of the language-recognition dictionary correspondence table 109 by 2nd, 3rd embodiment of this invention. 本第3実施形態に係る携帯電話の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process of the mobile telephone which concerns on this 3rd Embodiment. 本発明の第4実施形態に係る携帯電話の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile telephone which concerns on 4th Embodiment of this invention. 本第4実施形態による認識辞書−翻訳辞書対応表400の内容を示す概念図である。It is a conceptual diagram which shows the content of the recognition dictionary-translation dictionary correspondence table | surface 400 by this 4th Embodiment. 本第4実施形態に係る携帯電話の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process of the mobile telephone which concerns on this 4th Embodiment. 本第4実施形態に係る携帯電話の画面表示例を示す模式図である。It is a schematic diagram which shows the example of a screen display of the mobile telephone which concerns on this 4th Embodiment. 本発明の第5実施形態に係る対応表900の内容を示す概念図である。It is a conceptual diagram which shows the content of the correspondence table 900 which concerns on 5th Embodiment of this invention. 本第5実施形態に係る携帯電話の画面表示例を示す模式図である。It is a schematic diagram which shows the example of a screen display of the mobile telephone which concerns on this 5th Embodiment. 本第5実施形態に係る携帯電話の他の画面表示例を示す模式図である。It is a schematic diagram which shows the other example of a screen display of the mobile telephone which concerns on this 5th Embodiment.

符号の説明Explanation of symbols

100 携帯電話
101 入力部(指示手段)
102 CPU(認識辞書決定手段、翻訳辞書決定手段、翻訳手段)
103 撮像部(撮像手段)
104 記憶部
105 画像認識部(認識手段)
106 通信部(位置情報取得手段)
107 表示部
108 認識辞書
109 言語−認識辞書対応表(認識辞書使用順番表)
110 言語設定部(言語特定手段)
111 翻訳辞書
200 位置−言語対応表
400 認識辞書−翻訳辞書対応表
100 mobile phone 101 input unit (instruction means)
102 CPU (recognition dictionary determination means, translation dictionary determination means, translation means)
103 Imaging unit (imaging means)
104 storage unit 105 image recognition unit (recognition means)
106 Communication unit (location information acquisition means)
107 display unit 108 recognition dictionary 109 language-recognition dictionary correspondence table (recognition dictionary use order table)
110 Language setting part (language identification means)
111 translation dictionary 200 position-language correspondence table 400 recognition dictionary-translation dictionary correspondence table

Claims (11)

画像情報を撮像する撮像手段と、
前記撮像手段により撮像された画像情報に含まれる識別情報を認識する際に用いられ、複数の言語に対応した認識辞書と、前記複数の言語に対応した認識辞書の使用履歴を記載した認識辞書使用履歴表とを記憶する記憶手段と、
前記認識辞書使用履歴表に記載された使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識手段と
を具備することを特徴とする携帯端末。
Imaging means for imaging image information;
Use of a recognition dictionary that is used when recognizing identification information included in image information captured by the imaging unit, and that describes a recognition dictionary corresponding to a plurality of languages and a use history of the recognition dictionary corresponding to the plurality of languages Storage means for storing a history table;
Recognizing means for recognizing identification information included in image information picked up by the image pickup means using a recognition dictionary according to an order (ascending / descending order) obtained from use histories described in the recognition dictionary use history table ; A portable terminal comprising:
前記認識辞書の使用履歴は、それぞれの認識辞書の使用回数であり、
前記認識手段は、前記認識辞書の使用回数順に従った認識辞書を用いることを特徴とする請求項1に記載の携帯端末。
The recognition dictionary usage history is the number of times each recognition dictionary is used ,
The mobile terminal according to claim 1, wherein the recognition unit uses a recognition dictionary according to the order in which the recognition dictionary is used .
前記認識辞書の使用履歴は、それぞれの認識辞書の最新使用時刻であり、
前記認識手段は、前記認識辞書の最新使用時刻の若い順に従った認識辞書を用いることを特徴とする請求項1に記載の携帯端末。
The use history of the recognition dictionary is the latest use time of each recognition dictionary ,
The mobile terminal according to claim 1, wherein the recognition unit uses a recognition dictionary that follows the youngest use time of the recognition dictionary .
前記複数の言語に対応した認識辞書のうち、どの認識辞書を用いるかを指示する認識辞書指示手段を更に具備し、
前記認識手段は、前記認識辞書指示手段による指示があった場合には、前記認識辞書指示手段による指示に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識することを特徴とする請求項1に記載の携帯端末。
A recognition dictionary instructing unit for instructing which recognition dictionary to use among the recognition dictionaries corresponding to the plurality of languages;
When there is an instruction from the recognition dictionary instruction means, the recognition means uses the recognition dictionary according to the instruction from the recognition dictionary instruction means to identify identification information included in the image information captured by the imaging means. The mobile terminal according to claim 1, wherein the mobile terminal is recognized.
前記識別情報に関連する関連情報が記載され、複数の言語に対応した翻訳辞書と、
前記認識手段によって用いられた認識辞書に基づいて、前記複数の言語に対応した翻訳辞書の中から、使用する翻訳辞書を決定する翻訳辞書決定手段と、
前記翻訳辞書決定手段により決定された翻訳辞書を用いて、前記認識手段により認識された画像情報に含まれる識別情報を翻訳する翻訳手段と
を具備することを特徴とする請求項1に記載の携帯端末。
Related information related to the identification information is described, a translation dictionary corresponding to a plurality of languages,
A translation dictionary determining means for determining a translation dictionary to be used from translation dictionaries corresponding to the plurality of languages based on the recognition dictionary used by the recognition means;
The mobile unit according to claim 1, further comprising: a translation unit that translates identification information included in the image information recognized by the recognition unit using the translation dictionary determined by the translation dictionary determination unit. Terminal.
翻訳言語を特定する翻訳言語特定手段を更に具備し、
前記翻訳辞書決定手段は、前記認識辞書に代えて、前記翻訳言語特定手段によって特定された翻訳言語に基づいて、前記複数の言語に対応した翻訳辞書の中から、使用する翻訳辞書を決定することを特徴とする請求項5に記載の携帯端末。
A translation language specifying means for specifying the translation language;
The translation dictionary determining means determines a translation dictionary to be used from among translation dictionaries corresponding to the plurality of languages based on the translation language specified by the translation language specifying means instead of the recognition dictionary. The mobile terminal according to claim 5.
位置情報を取得する位置情報取得手段を具備し、
前記翻訳言語特定手段は、前記位置情報取得手段により取得された位置情報に基づいて使用する翻訳言語を特定することを特徴とする請求項6に記載の携帯端末。
Comprising position information acquisition means for acquiring position information;
The portable terminal according to claim 6, wherein the translation language specifying unit specifies a translation language to be used based on the position information acquired by the position information acquisition unit.
前記複数の言語に対応した翻訳辞書のうち、どの翻訳辞書を用いるかを指示する翻訳辞書指示手段を更に具備し、
前記翻訳手段は、前記翻訳辞書指示手段による指示があった場合には、前記翻訳辞書指示手段による指示に従った翻訳辞書を用いて、前記認識手段により認識された画像情報に含まれる識別情報を翻訳することを特徴とする請求項6に記載の携帯端末。
A translation dictionary instruction means for instructing which translation dictionary to use among the translation dictionaries corresponding to the plurality of languages;
When there is an instruction from the translation dictionary instruction means, the translation means uses the translation dictionary according to the instruction from the translation dictionary instruction means to identify the identification information included in the image information recognized by the recognition means. The mobile terminal according to claim 6, wherein the mobile terminal is translated.
通信手段と、
前記認識手段により認識された識別情報に関連した関連情報の参照を指示する関連情報参照指示部と、
前記関連情報参照指示部により前記関連情報の参照が指示された場合、前記認識手段により認識された識別情報に基づいて、前記関連情報を前記通信手段を介して取得する関連情報取得手段と
を更に具備することを特徴とする請求項6ないし8のいずれかに記載の携帯端末。
Communication means;
A related information reference instruction unit for instructing reference of related information related to the identification information recognized by the recognition unit;
A related information acquisition unit configured to acquire the related information via the communication unit based on the identification information recognized by the recognition unit when the reference of the related information is instructed by the related information reference instruction unit; The mobile terminal according to claim 6, further comprising:
画像情報を撮像する撮像ステップと、
複数の言語に対応した認識辞書の使用履歴が記載された認識辞書使用履歴表の前記使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識ステップと、
前記認識辞書使用履歴表に記載されている、前記複数の言語に対応した認識辞書の使用履歴を更新する更新ステップと
を含むことを特徴とする情報処理方法。
An imaging step for imaging image information;
Image information picked up by the image pickup means using a recognition dictionary according to the order (in ascending / descending order) obtained from the use history of the recognition dictionary use history table in which use histories of recognition dictionaries corresponding to a plurality of languages are described A recognition step for recognizing the identification information contained in
An information processing method comprising: an update step of updating a use history of a recognition dictionary corresponding to the plurality of languages described in the recognition dictionary use history table.
コンピュータに、
画像情報を撮像する撮像機能、
複数の言語に対応した認識辞書の使用履歴が記載された認識辞書使用履歴表の前記使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識機能、
前記認識辞書使用履歴表に記載されている、前記複数の言語に対応した認識辞書の使用履歴を更新する更新機能
を実行させることを特徴とする情報処理プログラム。
On the computer,
An imaging function for imaging image information;
Image information picked up by the image pickup means using a recognition dictionary according to the order (in ascending / descending order) obtained from the use history of the recognition dictionary use history table in which use histories of recognition dictionaries corresponding to a plurality of languages are described Recognition function for recognizing identification information contained in
An information processing program for executing an update function for updating a use history of a recognition dictionary corresponding to the plurality of languages described in the recognition dictionary use history table.
JP2004269950A 2004-09-16 2004-09-16 Mobile terminal, information processing method, and information processing program Expired - Fee Related JP5150035B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004269950A JP5150035B2 (en) 2004-09-16 2004-09-16 Mobile terminal, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004269950A JP5150035B2 (en) 2004-09-16 2004-09-16 Mobile terminal, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2006085461A JP2006085461A (en) 2006-03-30
JP5150035B2 true JP5150035B2 (en) 2013-02-20

Family

ID=36163919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004269950A Expired - Fee Related JP5150035B2 (en) 2004-09-16 2004-09-16 Mobile terminal, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP5150035B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5223739B2 (en) * 2009-03-13 2013-06-26 オムロン株式会社 Portable character recognition device, character recognition program, and character recognition method
JP5316386B2 (en) * 2009-12-01 2013-10-16 ブラザー工業株式会社 Head mounted display and program thereof
JP2011141750A (en) * 2010-01-07 2011-07-21 Nec Corp Device, system, method and program for translating data
JP4923134B2 (en) * 2010-06-08 2012-04-25 株式会社スクウェア・エニックス Real-time camera dictionary
JP4790080B1 (en) * 2010-10-01 2011-10-12 株式会社スクウェア・エニックス Information processing apparatus, information display method, information display program, and recording medium
US8738355B2 (en) * 2011-01-06 2014-05-27 Qualcomm Incorporated Methods and apparatuses for providing predictive translation information services to mobile stations
US8761513B1 (en) * 2013-03-15 2014-06-24 Translate Abroad, Inc. Systems and methods for displaying foreign character sets and their translations in real time on resource-constrained mobile devices

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2662404B2 (en) * 1986-12-19 1997-10-15 株式会社リコー Dictionary creation method for optical character reader
JPH05274346A (en) * 1991-09-13 1993-10-22 Casio Comput Co Ltd Electronic dictionary
JP2004050585A (en) * 2002-07-19 2004-02-19 Canon Inc Printer with built-in gps, and data server
JP4116852B2 (en) * 2002-09-24 2008-07-09 株式会社富士通ソーシアルサイエンスラボラトリ Extracted character string dictionary search apparatus and method, and program

Also Published As

Publication number Publication date
JP2006085461A (en) 2006-03-30

Similar Documents

Publication Publication Date Title
US20050052558A1 (en) Information processing apparatus, information processing method and software product
US7305435B2 (en) Internet access via smartphone camera
KR100664421B1 (en) Portable terminal and method for recognizing name card using having camera
JP4038771B2 (en) Portable information terminal device, information processing method, recording medium, and program
JP2006325185A (en) Wireless telecommunications terminal comprising digital camera for character recognition, and network therefor
JP2008046893A (en) Portable communication terminal, method for acquiring information and information acquisition program
JP5150035B2 (en) Mobile terminal, information processing method, and information processing program
JP2007018166A (en) Information search device, information search system, information search method, and information search program
KR20110074456A (en) Mobile phone apparatus, confirmation information displaying program, confirmation information displaying method and transmitting method of mobile phone apparatus
US20110305406A1 (en) Business card recognition system
JP5242202B2 (en) Mobile communication terminal
JP2016058057A (en) Translation system, translation method, computer program, and storage medium readable by computer
JP4703259B2 (en) Information processing device
JP2010205121A (en) Information processor and portable terminal
JP2008310571A (en) Character string input device, character string input method and program
US8509749B2 (en) Mobile communication apparatus and operating method thereof
JP2006215654A (en) Character information display system and character information display method
JP4802502B2 (en) Word recognition device and word recognition method
JP2003152829A (en) Communication apparatus
JP5670030B2 (en) Portable terminal, car navigation device setting system, and car navigation setting method
JP4404704B2 (en) Multilingual mobile communication terminal
JP6874988B2 (en) How to provide link information
KR100594432B1 (en) A mobile phone for browsing dictionary data and an operating method thereof
JP2006106947A (en) Dictionary retrieval system, portable information terminal and method of retrieving dictionary
JP2012079191A (en) Code reader and navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100607

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110922

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110930

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20111202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121203

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees