JP2005267249A - Data processing system, server and communication device - Google Patents
Data processing system, server and communication device Download PDFInfo
- Publication number
- JP2005267249A JP2005267249A JP2004078651A JP2004078651A JP2005267249A JP 2005267249 A JP2005267249 A JP 2005267249A JP 2004078651 A JP2004078651 A JP 2004078651A JP 2004078651 A JP2004078651 A JP 2004078651A JP 2005267249 A JP2005267249 A JP 2005267249A
- Authority
- JP
- Japan
- Prior art keywords
- server
- character recognition
- image data
- language
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Character Discrimination (AREA)
- Machine Translation (AREA)
Abstract
Description
通信装置で撮影された画像データの文字認識および翻訳をサーバで行うデータ処理システム、サーバおよび通信装置に関する。 The present invention relates to a data processing system, a server, and a communication device that perform character recognition and translation of image data captured by a communication device using a server.
近年の情報通信技術の発達に伴って、携帯端末といった通信装置の高機能化が急速に進んでいる。その高機能化のひとつとして、デジタルカメラ機能を内蔵した携帯端末の普及が挙げられる。また、携帯端末の3G(3rd Generation)化によって、これまで多数存在していた通信方式が統一されつつあり、日常使用している携帯端末を外国でも使用できる可能性が大きくなっている。 With the development of information communication technology in recent years, high functionality of communication devices such as portable terminals is rapidly progressing. One of the enhancements is the popularization of mobile terminals with built-in digital camera functions. In addition, with the 3G (3rd Generation) of mobile terminals, many communication systems that have existed so far are being unified, and the possibility that mobile terminals that are used everyday can be used even in foreign countries is increasing.
このような背景をもとに、旅行などで外国を訪れた際に、表示されている文字を携帯端末に内蔵されているデジタルカメラで撮影して、撮影した画像データの文字を文字認識した後翻訳することができるシステムが数々提案されている。しかし、一般に、文字認識を行うためには、OCR(Optical Character Reader)で代表されるようにかなり高い解像度の画像が要求される。携帯端末に内蔵されるデジタルカメラは、近年、画素数が飛躍的に増えているものの、未だ高精度の文字認識を行うために必要な精度に達していない。また、携帯端末に内蔵されているCPU(Central Processing Unit)の処理能力も文字認識を行うためには十分なものではなく、文字認識のさらなる精度向上が期待されている。 Based on this background, when you visit a foreign country, such as when traveling, you can take a picture of the displayed characters with a digital camera built into your mobile device and recognize the characters in the image data Many systems that can translate are proposed. However, generally, in order to perform character recognition, an image with a considerably high resolution is required as represented by OCR (Optical Character Reader). Although the number of pixels of digital cameras built in portable terminals has increased dramatically in recent years, it has not yet reached the accuracy necessary for highly accurate character recognition. Further, the processing capability of a CPU (Central Processing Unit) built in the portable terminal is not sufficient for character recognition, and further improvement in character recognition is expected.
このような携帯端末の処理能力不足を補い、文字認識の精度向上を図った従来技術として、携帯端末のカメラで撮影した画像をサーバに送信し、サーバで文字認識と翻訳を行う携帯端末型画像処理システムがあり、携帯端末が所在する施設の種類を、GPS(Global Positioning System)機能を備える携帯端末の現在位置と地図データとから特定し、あるいは、ユーザが携帯端末から指示し、特定されたあるいは指示された施設の種類に応じた認識辞書や言語辞書に切り替えることにより、認識精度を向上させている(たとえば、特許文献1参照)。また、この携帯端末型画像処理システムの携帯端末は、撮影された画像データをカラー画像の文字と背景を分離するように白と黒に二値化し、サーバに転送するデータ量を減らし、送信時間の短縮を図っている。 As a conventional technology that compensates for the shortage of processing capability of such portable terminals and improves the accuracy of character recognition, portable terminal type images that transmit images taken with the camera of the portable terminal to the server and perform character recognition and translation on the server There is a processing system, and the type of facility where the mobile terminal is located is specified from the current position and map data of the mobile terminal equipped with the GPS (Global Positioning System) function, or specified by the user instructing from the mobile terminal Alternatively, the recognition accuracy is improved by switching to a recognition dictionary or language dictionary corresponding to the type of facility instructed (see, for example, Patent Document 1). In addition, the portable terminal of this portable terminal type image processing system binarizes captured image data into white and black so as to separate the color image from the background, reducing the amount of data transferred to the server, and the transmission time Is shortened.
上述した従来技術では、携帯端末が所在する施設が特定あるいは指示されないと、認識辞書や言語辞書の範囲を限定できず、認識精度の向上が望めないという問題がある。 The conventional technology described above has a problem that unless the facility where the mobile terminal is located is specified or designated, the range of the recognition dictionary and the language dictionary cannot be limited, and improvement in recognition accuracy cannot be expected.
また、撮影したカラー画像の二値化が正しく行われなかった場合には、文字認識を誤り、正しく翻訳されない可能性が高まるという問題がある。 In addition, when binarization of the photographed color image is not performed correctly, there is a problem that there is an increased possibility that character recognition will be incorrect and not correctly translated.
本発明の目的は、通信装置で撮影した画像データの文字認識の精度を向上することができるデータ処理システム、サーバおよび通信装置を提供することである。 An object of the present invention is to provide a data processing system, a server, and a communication device that can improve the accuracy of character recognition of image data captured by a communication device.
本発明は、文字認識機能および翻訳機能を有するサーバと、文字認識および翻訳のために撮影された画像データを前記サーバに転送し、前記サーバから転送された翻訳結果を表示する機能を有する通信装置とを有するデータ処理システムにおいて、
前記通信装置は、前記通信装置がどこの国に所在するかを示す国情報を前記画像データとともに前記サーバに転送し、
前記サーバは、転送された国情報に基づいて、文字認識に用いる言語に重み付けを与え、言語に与えられた重み付けにしたがって前記画像データの文字認識を行うことを特徴とするデータ処理システムである。
The present invention relates to a server having a character recognition function and a translation function, and a communication device having a function of transferring image data taken for character recognition and translation to the server and displaying the translation result transferred from the server. In a data processing system having
The communication device transfers country information indicating where the communication device is located to the server together with the image data,
The server is a data processing system that assigns a weight to a language used for character recognition based on the transferred country information and performs character recognition of the image data according to the weight given to the language.
また本発明は、文字認識機能および翻訳機能を有するサーバと、文字認識および翻訳のために撮影された画像データを前記サーバに転送し、前記サーバから転送された翻訳結果を表示する機能を有する通信装置とを有するデータ処理システムにおいて、
前記通信装置は、ユーザが指定した言語を示す言語情報を前記画像データとともに前記サーバに転送し、
前記サーバは、転送された言語情報が示す言語を用いて前記画像データの文字認識を行うことを特徴とするデータ処理システムである。
In addition, the present invention provides a server having a character recognition function and a translation function, and a communication having a function of transferring image data taken for character recognition and translation to the server and displaying the translation result transferred from the server. In a data processing system having a device,
The communication device transfers language information indicating a language designated by a user to the server together with the image data,
The server is a data processing system that performs character recognition of the image data using a language indicated by transferred language information.
また本発明は、前記サーバは、文字認識を行う際に、既に文字認識が行われた文字から構成される単語であって文字認識を行う文字の直前の単語または二つ前の単語に基づいて、文字認識を行う文字を含む単語の候補を抽出し、抽出した候補に重み付けを与え、候補の単語に与えられた重み付けにしたがって文字認識することを特徴とする。 Further, according to the present invention, when the server performs character recognition, the server is a word composed of characters that have already been character-recognized, and is based on the word immediately before the character to be character-recognized or the word immediately before it. A candidate for a word including a character for character recognition is extracted, a weight is given to the extracted candidate, and a character is recognized according to the weight given to the candidate word.
また本発明は、前記通信装置は、撮影された画像データに対して減色処理を行った画像データを前記サーバに転送することを特徴とする。 Further, the present invention is characterized in that the communication device transfers image data obtained by performing a color reduction process on photographed image data to the server.
また本発明は、文字認識機能および翻訳機能を有するサーバにおいて、
通信装置から画像データと前記通信装置がどこの国に所在するかを示す国情報とを受信し、受信した国情報に基づいて、文字認識に用いる言語に重み付けを与え、言語に与えられた重み付けにしたがって前記画像データの文字認識を行うことを特徴とするサーバである。
Further, the present invention provides a server having a character recognition function and a translation function.
Receives image data from the communication device and country information indicating in which country the communication device is located, assigns a weight to a language used for character recognition based on the received country information, and assigns a weight to the language The server performs character recognition of the image data according to the above.
また本発明は、文字認識機能および翻訳機能を有するサーバにおいて、
通信装置から画像データとユーザが指定した言語を示す言語情報とを受信し、受信した言語情報が示す言語を用いて前記画像データの文字認識を行うことを特徴とするサーバである。
Further, the present invention provides a server having a character recognition function and a translation function.
A server that receives image data and language information indicating a language designated by a user from a communication device, and performs character recognition of the image data using a language indicated by the received language information.
また本発明は、前記サーバは、文字認識を行う際に、既に文字認識が行われた文字から構成される単語であって文字認識を行う文字の直前の単語または二つ前の単語に基づいて、文字認識を行う文字を含む単語の候補を抽出し、抽出した候補に重み付けを与え、候補の単語に与えられた重み付けにしたがって文字認識することを特徴とする。 Further, according to the present invention, when the server performs character recognition, the server is a word composed of characters that have already been character-recognized, and is based on the word immediately before the character to be character-recognized or the word immediately before it. A candidate for a word including a character for character recognition is extracted, a weight is given to the extracted candidate, and a character is recognized according to the weight given to the candidate word.
また本発明は、文字認識および翻訳のために撮影された画像データをサーバに転送し、前記サーバから転送された翻訳結果を表示する機能を有する通信装置において、
前記通信装置がどこの国に所在するかを示す国情報を前記画像データとともに転送することを特徴とする通信装置である。
Further, the present invention provides a communication device having a function of transferring image data taken for character recognition and translation to a server and displaying a translation result transferred from the server.
Country information indicating in which country the communication apparatus is located is transferred together with the image data.
また本発明は、文字認識および翻訳のために撮影された画像データをサーバに転送し、前記サーバから転送された翻訳結果を表示する機能を有する通信装置において、
ユーザが指定した言語を示す言語情報を前記画像データとともに転送することを特徴とする通信装置である。
Further, the present invention provides a communication device having a function of transferring image data taken for character recognition and translation to a server and displaying a translation result transferred from the server.
A communication apparatus is characterized in that language information indicating a language designated by a user is transferred together with the image data.
また本発明は、前記通信装置は、撮影された画像データに対して減色処理を行った画像データを転送することを特徴とする。 In the invention, it is preferable that the communication device transfers image data obtained by performing a color reduction process on photographed image data.
本発明によれば、通信装置が、通信装置が所在する国の国情報を自動的にサーバに知らせるので、サーバは、その国情報に基づいて、その国で主として用いられる言語に大きな重み付けを与えて認識することができ、また、主として用いられない他の言語にも小さいながらもいくらかの重み付けを行っているので、その国であまり用いられない文字があっても、文字認識可能であり、文字認識の精度を向上することができる。 According to the present invention, since the communication device automatically informs the server of the country information of the country in which the communication device is located, the server gives a large weight to the language mainly used in the country based on the country information. In addition, some other languages that are not mainly used are given some weighting, so even if there is a character that is not used very much in that country, it can be recognized. Recognition accuracy can be improved.
また本発明によれば、ユーザが指定した言語で文字認識を行うので、認識対象の文字と無関係な言語を認識対象から除くことができ、文字認識の精度を向上することができる。 Further, according to the present invention, since character recognition is performed in a language specified by the user, a language unrelated to the character to be recognized can be excluded from the recognition target, and the accuracy of character recognition can be improved.
また本発明によれば、文字認識を行う際に、既に文字認識が行われた文字から構成される単語であって文字認識を行う文字の直前の単語または二つ前の単語に基づいて、文字認識を行う文字を含む単語の候補を抽出し、抽出した候補のうちよく現れる単語に大きな重み付けを与え、候補の単語に与えられた重み付けにしたがって文字認識するので、認識する文字の候補を限定することができ、文字認識の精度を向上することができる。 Further, according to the present invention, when character recognition is performed, a character composed of characters that have already been character-recognized and based on the word immediately before the character to be character-recognized or the two previous words Word candidates including characters to be recognized are extracted, a large weight is given to frequently appearing words among the extracted candidates, and characters are recognized according to the weight given to the candidate words, so that the character candidates to be recognized are limited. And the accuracy of character recognition can be improved.
また本発明によれば、撮影された画像データに対して文字認識の妨げにならない程度に減色処理を行った画像データを転送するので、二値化の場合よりも、文字認識の精度を向上することができ、また、減色処理を行わない場合よりも、サーバに転送するデータ量が少なくなり、送信時間の短縮を図ることができる。 In addition, according to the present invention, since the image data subjected to the color reduction processing is transferred to the captured image data so as not to hinder character recognition, the character recognition accuracy is improved as compared with the case of binarization. In addition, the amount of data transferred to the server is smaller than when no color reduction processing is performed, and the transmission time can be shortened.
また本発明によれば、通信装置から自動的に知らされる国情報に基づいて、その国で主として用いられる言語に大きな重み付けを与えて認識することができ、また、主として用いられない他の言語にも小さいながらもいくらかの重み付けを行っているので、その国であまり用いられない文字があっても、文字認識可能であり、文字認識の精度を向上することができる。 Further, according to the present invention, based on the country information automatically notified from the communication device, the language mainly used in the country can be recognized by giving a large weight, and other languages not mainly used can be recognized. However, although it is small, some weighting is performed, so that even if there is a character that is not frequently used in the country, the character can be recognized, and the accuracy of character recognition can be improved.
また本発明によれば、ユーザが指定した言語で文字認識を行うので、認識対象の文字と無関係な言語を認識対象から除くことができ、文字認識の精度を向上することができる。 Further, according to the present invention, since character recognition is performed in a language specified by the user, a language unrelated to the character to be recognized can be excluded from the recognition target, and the accuracy of character recognition can be improved.
また本発明によれば、文字認識を行う際に、既に文字認識が行われた文字から構成される単語であって文字認識を行う文字の直前の単語または二つ前の単語に基づいて、文字認識を行う文字を含む単語の候補を抽出し、抽出した候補のうちよく現れる単語に大きな重み付けを与え、候補の単語に与えられた重み付けにしたがって文字認識するので、認識する文字の候補を限定することができ、文字認識の精度を向上することができる。 Further, according to the present invention, when character recognition is performed, a character composed of characters that have already been character-recognized and based on the word immediately before the character to be character-recognized or the two previous words Word candidates including characters to be recognized are extracted, a large weight is given to frequently appearing words among the extracted candidates, and characters are recognized according to the weight given to the candidate words, so that the character candidates to be recognized are limited. And the accuracy of character recognition can be improved.
また、本発明によれば、通信装置が所在する国を示す国情報をサーバに提供できるので、文字認識の精度を向上することができる。 Further, according to the present invention, the country information indicating the country in which the communication device is located can be provided to the server, so that the accuracy of character recognition can be improved.
また本発明によれば、ユーザが指定した言語を示す言語情報をサーバに提供できるので、文字認識の精度を向上することができる。 Further, according to the present invention, the language information indicating the language designated by the user can be provided to the server, so that the accuracy of character recognition can be improved.
また本発明によれば、撮影された画像データに対して文字認識の妨げにならない程度に減色処理を行った画像データをサーバに提供できるので、二値化の場合よりも、文字認識の精度を向上することができ、また、減色処理を行わない場合よりも、サーバに転送するデータ量が少なくなり、送信時間の短縮を図ることができる。 In addition, according to the present invention, image data obtained by performing color reduction processing on captured image data to such an extent that does not hinder character recognition can be provided to the server, so that character recognition accuracy can be improved compared to binarization. In addition, the amount of data transferred to the server is smaller than when no color reduction processing is performed, and the transmission time can be shortened.
図1は、本発明の実施の一形態である通信装置の携帯端末10の構成を示すブロック図である。携帯端末10は、たとえば、携帯電話などの通信装置であり、送信部101、受信部102、撮影部103、表示部104、キー入力部105、画像処理部106、表示ドライバ107、メモリ108、および制御部109を含んで構成される。この携帯端末10にはまた、図示されていないが、マイクといった音声入力部やスピーカといった音声出力部が搭載されている。
FIG. 1 is a block diagram illustrating a configuration of a mobile terminal 10 of a communication apparatus according to an embodiment of the present invention. The mobile terminal 10 is a communication device such as a mobile phone, for example, and includes a
制御部109は、携帯端末10全体を制御する制御部で、たとえば、マイクロコンピュータで実現されるCPU(Central Processing Unit)と、プログラムを格納するメモリと、処理に必要な情報を一時的に記憶するためのメモリとにより構成される。
The
キー入力部105は、電話番号の数字や電子メールの文字などを入力するキーや内蔵されたデジタルカメラを操作する操作ボタンなどを備えており、ユーザがキー入力部105から入力した情報や指示は、制御部109に転送される。
The
ユーザが翻訳を希望する場合、ユーザは、まず、被写体に撮影部103を向け、キー入力部105を操作して、文字を含む画像を撮影する。撮影部103は、たとえば、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)を用いたカメラモジュールにより構成される内蔵型のデジタルカメラであり、キー入力部105から受けたユーザの指示を制御部109から受けて、画像を撮影する。撮影された画像は、画像処理部106で画像圧縮や減色処理が行われた後、読み書き可能な記憶媒体、たとえば、半導体メモリといったメモリ108に画像データとして記憶される。
When the user desires translation, the user first points the photographing
撮影を行った後、ユーザは、翻訳する言語と翻訳指示を入力する。入力された翻訳する言語と翻訳指示は、制御部109に通知される。通知を受けた制御部109は、メモリ108に記憶した画像データを、ユーザが入力した翻訳する言語とともにサーバに送信するよう送信部101に指示する。無線通信によりデータを送信する送信部101は、画像データをメモリ108から読み出し、ユーザが入力した翻訳する言語とともに、読み出した画像データをサーバに送信する。
After photographing, the user inputs a language to translate and a translation instruction. The input language to be translated and the translation instruction are notified to the
移動を伴う携帯端末10は、良い通信状態を維持するために、定期的に基地局と通信を行って、どの基地局が近くにあるかを把握している。このとき、携帯端末10は、基地局の所在地情報を基地局から受信し、メモリに保持している。この所在地情報には、基地局が所在する国の情報(以下、国情報という)が含まれている。国情報は、たとえば、国名であっても良いし、国名を特定するための番号であっても良い。また、携帯端末10に差し込んで、利用者を識別するために用いられる、契約者情報が記録されたIC
(Integrated Circuit)カードであるSIM(Subscriber Identity Module)カードの中にも同様の国情報があり、この情報を用いても良い。制御部109は、画像データをサーバに送信する際、この国情報を送信する。
In order to maintain a good communication state, the mobile terminal 10 that accompanies movement periodically communicates with a base station to know which base station is nearby. At this time, the mobile terminal 10 receives the location information of the base station from the base station and holds it in the memory. This location information includes information on the country where the base station is located (hereinafter referred to as country information). The country information may be, for example, a country name or a number for specifying the country name. Also, an IC on which contractor information is recorded, which is used to identify a user by being inserted into the mobile terminal 10
There is similar country information in a SIM (Subscriber Identity Module) card which is an (Integrated Circuit) card, and this information may be used. The
もし、撮影した文字の言語名をユーザが判断できる場合は、その言語名をキー入力部105から指示させ、指示された言語を、国情報の代わりに言語情報としてサーバに転送しても良い。言語情報は、たとえば、言語名であっても良いし、言語名を特定できる言語番号などでも良い。ユーザによる言語の指示方法は、表示部104に言語名の一覧表を表示し、その中からユーザに選択させても良いし、キー入力部105から直接言語名を入力させても良い。
If the user can determine the language name of the photographed characters, the language name may be instructed from the
また、サーバに送信する画像データは、文字認識の認識率を低下させない程度まで減色処理を行い、データ量を減らして送信しても良い。どの程度まで減色できるかについては、撮影する画像の状態や環境により、変化するので、たとえば、明るい場所用、暗い場所用、色が濃い場合用、色が薄い場合用等いくつかの減色段階を用意しておき、翻訳の成否を試しながら、ユーザに選択させても良い。 Further, the image data to be transmitted to the server may be transmitted by performing a color reduction process to such an extent that the recognition rate of character recognition is not lowered, and reducing the data amount. The degree of color reduction can vary depending on the condition and environment of the image being shot.For example, there are several color reduction steps, such as for bright places, dark places, dark colors, and light colors. You may prepare it and let the user select it while trying the success or failure of the translation.
無線通信によりデータを受信する受信部102は、送信した画像データの文字が文字認識された後翻訳された結果をサーバから受信し、受信した翻訳結果をメモリ108に記憶した後、制御部109に翻訳結果を受信した旨を通知する。通知を受けた制御部109は、翻訳結果を表示するように表示ドライバ107に指示する。表示ドライバ107は、液晶ディスプレイといった表示部104を駆動する駆動部であり、翻訳結果をメモリ108から読み出して、表示部104に表示し、ユーザに翻訳結果を示す。
The receiving
図2は、本発明の実施の一形態であるサーバ20の構成を示すブロック図である。サーバ20は、無線通信網やインターネットを介して送受信される電子メールや音声情報などのデータを集配信するデータ処理システムにおけるコンピュータであり、送信部201、受信部202、文字認識部203、確率モデル生成部204、翻訳部205、言語辞書206、翻訳辞書207、メモリ208、および制御部209を含んで構成される。
FIG. 2 is a block diagram showing a configuration of the
無線通信やインターネットを介してデータを受信する受信部202は、携帯端末から送信された画像データを受信すると、読み書き可能な記憶媒体、たとえば、半導体メモリといったメモリ208に受信した画像データを記憶し、画像データを受信した旨を、翻訳する言語、および国情報または言語情報とともに、制御部209に通知する。
When receiving the image data transmitted from the portable terminal, the receiving
制御部209は、サーバ20全体を制御する制御部で、たとえば、マイクロコンピュータで実現されるCPUと、プログラムを格納するメモリと、処理に必要な情報を一時的に記憶するためのメモリとにより構成される。制御部209は、画像データを受信した旨を受信部202から通知されると、国情報または言語情報を文字認識部203に指示する。
The
文字認識部203は、画像データをメモリ208から読み出し、画像データから文字部を抽出し、抽出した文字に対して文字認識を行う。文字認識を行う際、多言語の言語辞書である言語辞書206に登録されている文字の中から一番確率の高い文字を認識後の文字として選択する。文字認識部203は、認識した文字の認識結果を翻訳部205に転送する。翻訳部205は、翻訳辞書207に基づいて、制御部209から指示された翻訳する言語に翻訳し、翻訳結果をメモリ208に記憶し、翻訳が完了したときに、制御部209に翻訳完了を通知する。
The
制御部209は、翻訳完了の通知を受けると、翻訳結果を端末装置10に送信するように、送信部201に指示する。無線通信やインターネットを介してデータを送信する送信部201は、翻訳結果をメモリ208から読み出し、端末装置10に送信する。
When receiving the notification of translation completion, the
画像データとともに国情報が送信されている場合は、確率モデル生成部204は、制御部209から指示された国情報に基づいて、言語辞書206に登録されている言語に対して、国情報が示す国で用いられている言語の割合から算出した重み付けを行う。たとえば、国情報が日本である場合、日本語の重みが0.8、英語の重みが0.1、その他の言語の重みが0.1というように、その国で主に用いられている言語に大きな重みを与える。この言語の確率モデル、つまり、日本語0.8、英語0.1、その他の言語0.1という確立モデルは、確率モデル生成部204から、文字認識部203に通知される。
When the country information is transmitted together with the image data, the probability
文字認識部203は、通知された言語の確率モデル、つまり、日本語0.8、英語0.1、その他の言語0.1という確率モデルが与えられた場合、言語辞書206に登録されている文字の中から一番確率の高い文字を認識後の文字として選択するとき、選択する文字の確率に、その文字の言語の重みを掛けた値をその文字の確率として用いる。
The
たとえば、認識後の文字の候補として、「u」または「い」を考えたときに、重み付けを考慮しない確率が、「い」が0.1、「u」が0.9の場合は、重みを掛けて、つまり、それぞれ、日本語0.8、英語0.1を掛けて、「い」が0.08、「u」が0.09となり、「u」の値が大きいので「u」と認識し、また、重み付けを考慮しない確率が、「い」が0.5、「u」が0.5の場合は、重みを掛けて、「い」が0.4、「u」が0.05となり、「い」の値が大きいので「い」と認識する。 For example, when “u” or “i” is considered as a character candidate after recognition, if the probability of not considering weighting is 0.1 and “u” is 0.9, the weight is In other words, multiplying by 0.8 and Japanese 0.1 respectively, “I” becomes 0.08, “u” becomes 0.09, and the value of “u” is large, so “u” If “i” is 0.5 and “u” is 0.5, the weight is multiplied by “i” is 0.4 and “u” is 0. .05, and the value of “I” is large, so “I” is recognized.
したがって、重みが大きくなればなるほど、その言語であると認識される可能性が高くなる。また、主として用いられない他の言語にも小さいながらもいくらかの重み付けを行っているので、その国であまり用いられない文字があっても、文字認識可能である。複数の公用語が用いられている国であっても、その公用語が用いられている割合に応じて重み付けされるので、対応することができる。 Therefore, the greater the weight, the higher the likelihood that the language is recognized. In addition, since other languages that are not mainly used are given some weighting, they can be recognized even if there are characters that are rarely used in that country. Even in a country where a plurality of official languages are used, weighting is performed according to the proportion of the official languages used, so it is possible to cope with them.
また、国情報の代わりに、言語情報が画像データとともに送信されている場合は、文字認識部203は、言語辞書206のうち、言語情報として指示されている言語の文字の中から認識後の文字を選択する。指示されていない言語の文字は、認識対象から除外して、文字を誤認識する可能性を少なくしている。
In addition, when language information is transmitted together with image data instead of country information, the
また、文字認識を行う文字列が複数の単語から構成される場合、サーバ20は、言語辞書206に基づいて、直前の単語またはその前の単語から次の単語、つまり、認識する文字を含む単語の候補を推測し、文字認識の精度を向上させる。
Further, when the character string for character recognition is composed of a plurality of words, the
確率モデル生成部204は、文字認識部203から転送される認識結果の文字列を単語に区切り、認識する文字の直前の単語、あるいはその前の単語から次に来ると推測される単語の候補を抽出し、よく現れる可能性の高い候補に、大きな重み付けを与え、次に来ると推測される単語の確率モデルを生成し、文字認識部203に通知する。文字認識部203は、言語辞書206に登録されている文字の中から一番確率の高い文字を認識後の文字として選択するとき、選択する文字の確率に、その文字の単語の重みを掛けた値をその文字の確率として用いる。
The probability
たとえば、直前の単語が、日本語の「私」という単語であり、認識対象の文字を含む単語として、よく現れる候補が、「は」または「が」であるとすると、「は」の重みが0.2、「が」の重みが0.2、その他の重みが0.6というように、次によく現れる単語に大きな重み付けを与えた確率モデルを生成する。認識後の文字の候補として、「は」または「に」を考えたときに、重み付けを考慮しない確率が、「は」が0.8、「に」が0.2の場合は、重みを掛けて、つまり、それぞれ、「は」0.2、その他0.6を掛けて、「は」が0.16、「に」が0.12となり、「は」の値が大きいので「は」と認識し、また、重み付けを考慮しない確率が、「は」が0.5、「に」が0.5の場合は、重みを掛けて、「は」が0.1、「に」が0.3となり、「に」の値が大きいので「に」と認識する。 For example, if the immediately preceding word is the word “I” in Japanese and the candidate that frequently appears as a word including the character to be recognized is “ha” or “ga”, the weight of “ha” is A probability model is generated in which a large weight is given to the next frequently occurring word, such as 0.2, the weight of “GA” is 0.2, and the other weights are 0.6. When “ha” or “ni” is considered as a character candidate after recognition, if the probability that weighting is not considered is “ha” is 0.8 and “ni” is 0.2, the weight is multiplied. In other words, “ha” is 0.2 and other 0.6, respectively, “ha” is 0.16, “ni” is 0.12, and “ha” is large. If the probability of recognizing and not considering the weight is “ha” is 0.5 and “ni” is 0.5, the weight is multiplied by “ha” is 0.1, and “ni” is 0. 3. Since the value of “ni” is large, it is recognized as “ni”.
この場合、重み付けをしなければ、常に、「は」としか認識されないが、以前の単語から推測される単語の候補にも重み付けをして候補としているので、「に」と認識できる場合もでてくる。 In this case, if it is not weighted, it will always be recognized only as “ha”, but the word candidate estimated from the previous word is also weighted as a candidate, so it may be recognized as “ni”. Come.
本発明の実施の一形態であるデータ処理システムは、上述した携帯端末10とサーバ20とを組み合わせることにより実現できる。この場合、携帯端末10は、1台に限られず、複数台あっても良い。
A data processing system according to an embodiment of the present invention can be realized by combining the mobile terminal 10 and the
図3は、本発明の実施の一形態であるデータ処理システムにおける画像データの文字認識と翻訳の処理手順を示すフローチャートであり、携帯端末10の処理を左側に、サーバ20の処理を右側に記載している。ユーザが、撮影した画像データに含まれる文字の翻訳を行いたいと考え、携帯端末10の操作を開始したときに処理が開始される。
FIG. 3 is a flowchart showing a character recognition and translation processing procedure of image data in the data processing system according to the embodiment of the present invention. The processing of the mobile terminal 10 is shown on the left side, and the processing of the
ステップS1では、携帯端末10は、ユーザの指示により被写体を撮影し、画像データとして取り込む撮影処理を行う。ステップS2では、ユーザからの翻訳要求を受け付ける。ステップS3では、サーバ10に送信するデータ量を減らすために、画像の圧縮処理が行われるが、文字認識の妨げにならない程度に減色処理を行ってから圧縮処理を行っても良い。 In step S <b> 1, the mobile terminal 10 performs a photographing process of photographing a subject according to a user instruction and taking it as image data. In step S2, a translation request from the user is accepted. In step S3, image compression processing is performed in order to reduce the amount of data transmitted to the server 10. However, the color reduction processing may be performed after the color reduction processing is performed so as not to hinder character recognition.
ステップS4では、撮影した画像データと基地局情報などから入手した携帯端末が所在する国を示す国情報とをサーバ20に送信する。ステップS5では、サーバ20は、送信された画像データと国情報とを受信する。
In step S4, the captured image data and country information indicating the country in which the mobile terminal is obtained from the base station information and the like are transmitted to the
ステップS6では、送信された国情報に基づいて、文字認識に使用する言語に重み付けを行った言語の確率モデル、たとえば、国情報が日本である場合、日本語の重みが0.8、英語の重みが0.1、その他の言語の重みが0.1という確率モデルを生成する。ステップS7では、認識すべき単語が複数かどうか確認し、複数のときは、ステップS8に進み、複数でないときは、ステップS9に進む。 In step S6, a language probability model in which the language used for character recognition is weighted based on the transmitted country information, for example, when the country information is Japan, the Japanese weight is 0.8, A probability model having a weight of 0.1 and other language weights of 0.1 is generated. In step S7, it is confirmed whether or not there are a plurality of words to be recognized. If there are a plurality of words, the process proceeds to step S8, and if not, the process proceeds to step S9.
ステップS8では、言語辞書206に基づいて、直前の単語またはその前の単語から次の単語、つまり、認識する文字を含む単語の候補を抽出し、抽出した単語の候補に重み付けを与え、次に来ると推測される単語の確率モデル、たとえば、直前の単語が、日本語の「私」という単語であり、認識対象の文字を含む単語として、よく現れる候補が、「は」または「が」であるとすると、「は」の重みが0.2、「が」の重みが0.2、その他の重みが0.6というように、次によく現れる単語に大きな重み付けを与えた単語の確率モデルを生成する。
In step S8, based on the
ステップS9では、言語の確率モデルと単語の確率モデル、単語の確率モデルがなければ、言語の確率モデルのみの重み付けを用いて文字認識を行う。ステップS10では、認識結果に基づいて翻訳処理を行う。ステップS11では、翻訳結果を携帯端末10に送信する。 In step S9, if there is no language probability model, word probability model, or word probability model, character recognition is performed using weighting only the language probability model. In step S10, a translation process is performed based on the recognition result. In step S <b> 11, the translation result is transmitted to the mobile terminal 10.
ステップS12では、携帯端末10は、サーバ20から送信された翻訳結果を受信する。ステップS13では、受信した翻訳結果を、液晶ディスプレイなどの表示部にテキストデータとして表示する。
In step S <b> 12, the mobile terminal 10 receives the translation result transmitted from the
図4は、本発明の実施の他の形態であるデータ処理システムにおける画像データの文字認識と翻訳の処理手順を示すフローチャートである。ユーザが、撮影した文字の言語を知っている場合、国情報の代わりに、ユーザにその言語を指定させて、指定された言語を用いて文字認識を行う処理であり、図3の場合と同様に、ユーザの操作により処理が開始される。 FIG. 4 is a flowchart showing processing steps for character recognition and translation of image data in a data processing system according to another embodiment of the present invention. When the user knows the language of the photographed character, instead of country information, the user designates the language and performs character recognition using the designated language, as in FIG. In addition, processing is started by a user operation.
ステップS20では、携帯端末10は、ユーザの指示により被写体を撮影し、画像データとして取り込む撮影処理を行う。ステップS21では、ユーザからの翻訳要求を受け付ける。ステップS22では、ユーザが携帯端末10のキー入力部105から入力した言語名を取り込む。
In step S <b> 20, the mobile terminal 10 captures a subject according to a user instruction, and performs a capturing process for capturing the subject as image data. In step S21, a translation request from the user is accepted. In step S <b> 22, the language name input by the user from the
ステップS23では、サーバ10に送信するデータ量を減らすために、画像の圧縮処理が行われるが、文字認識の妨げにならない程度に減色処理を行ってから圧縮処理を行っても良い。ステップS24では、撮影した画像データとユーザが入力した言語名を示す言語情報とをサーバ20に送信する。ステップS25では、サーバ20は、携帯端末10から送信された画像データと言語情報とを受信する。
In step S23, an image compression process is performed to reduce the amount of data transmitted to the server 10, but the color reduction process may be performed after the color reduction process is performed so as not to hinder character recognition. In step S24, the captured image data and language information indicating the language name input by the user are transmitted to the
ステップS26では、送信された言語情報に基づいて、文字認識に使用する言語辞書を送信された言語情報に対応する言語辞書のみに制限する。ステップS27では、認識すべき単語が複数かどうか確認し、複数のときは、ステップS28に進み、複数でないときは、ステップS29に進む。 In step S26, based on the transmitted language information, the language dictionary used for character recognition is limited to only the language dictionary corresponding to the transmitted language information. In step S27, it is confirmed whether there are a plurality of words to be recognized. If there are a plurality of words, the process proceeds to step S28, and if not, the process proceeds to step S29.
ステップS28では、言語辞書206に基づいて、直前の単語またはその前の単語から次の単語、つまり、認識する文字を含む単語の候補を抽出し、抽出した単語の候補に重み付けを与え、次に来ると推測される単語の確率モデル、たとえば、直前の単語が、日本語の「私」という単語であり、認識対象の文字を含む単語として、よく現れる候補が、「は」または「が」であるとすると、「は」の重みが0.2、「が」の重みが0.2、その他の重みが0.6というように、次によく現れる単語に大きな重み付けを与えた単語の確率モデルを生成する。
In step S28, based on the
ステップS29では、送信された言語情報に対応する言語辞書と単語の確率モデルとを用いて、単語の確率モデルがなければ、送信された言語情報に対応する言語辞書のみを用いて文字認識を行う。ステップS30では、認識結果に基づいて翻訳処理を行う。ステップS31では、翻訳結果を携帯端末10に送信する。 In step S29, using the language dictionary corresponding to the transmitted language information and the word probability model, if there is no word probability model, character recognition is performed using only the language dictionary corresponding to the transmitted language information. . In step S30, a translation process is performed based on the recognition result. In step S31, the translation result is transmitted to the portable terminal 10.
ステップS32では、携帯端末10は、サーバ20から送信された翻訳結果を受信する。ステップS33では、送信された翻訳結果を、液晶ディスプレイなどの表示部にテキストデータとして表示する。
In step S <b> 32, the mobile terminal 10 receives the translation result transmitted from the
10 携帯端末
20 サーバ
101,201 送信部
102,202 受信部
103 撮影部
104 表示部
105 キー入力部
106 画像処理部
107 表示ドライバ
108,208 メモリ
109,209 制御部
203 文字認識部
204 確率モデル生成部
205 翻訳部
206 言語辞書
207 翻訳辞書
DESCRIPTION OF SYMBOLS 10
Claims (10)
前記通信装置は、前記通信装置がどこの国に所在するかを示す国情報を前記画像データとともに前記サーバに転送し、
前記サーバは、転送された国情報に基づいて、文字認識に用いる言語に重み付けを与え、言語に与えられた重み付けにしたがって前記画像データの文字認識を行うことを特徴とするデータ処理システム。 Data having a server having a character recognition function and a translation function, and a communication device having a function of transferring image data taken for character recognition and translation to the server and displaying a translation result transferred from the server In the processing system,
The communication device transfers country information indicating where the communication device is located to the server together with the image data,
The data processing system, wherein the server assigns a weight to a language used for character recognition based on the transferred country information and performs character recognition of the image data according to the weight given to the language.
前記通信装置は、ユーザが指定した言語を示す言語情報を前記画像データとともに前記サーバに転送し、
前記サーバは、転送された言語情報が示す言語を用いて前記画像データの文字認識を行うことを特徴とするデータ処理システム。 Data having a server having a character recognition function and a translation function, and a communication device having a function of transferring image data taken for character recognition and translation to the server and displaying a translation result transferred from the server In the processing system,
The communication device transfers language information indicating a language designated by a user to the server together with the image data,
The data processing system, wherein the server performs character recognition of the image data using a language indicated by the transferred language information.
通信装置から画像データと前記通信装置がどこの国に所在するかを示す国情報とを受信し、受信した国情報に基づいて、文字認識に用いる言語に重み付けを与え、言語に与えられた重み付けにしたがって前記画像データの文字認識を行うことを特徴とするサーバ。 In a server having a character recognition function and a translation function,
Receives image data from the communication device and country information indicating in which country the communication device is located, assigns a weight to a language used for character recognition based on the received country information, and assigns a weight to the language The server performs character recognition of the image data according to the above.
通信装置から画像データとユーザが指定した言語を示す言語情報とを受信し、受信した言語情報が示す言語を用いて前記画像データの文字認識を行うことを特徴とするサーバ。 In a server having a character recognition function and a translation function,
A server which receives image data and language information indicating a language designated by a user from a communication device, and performs character recognition of the image data using a language indicated by the received language information.
前記通信装置がどこの国に所在するかを示す国情報を前記画像データとともに転送することを特徴とする通信装置。 In a communication device having a function of transferring image data taken for character recognition and translation to a server and displaying a translation result transferred from the server,
Country information indicating in which country the communication apparatus is located is transferred together with the image data.
ユーザが指定した言語を示す言語情報を前記画像データとともに転送することを特徴とする通信装置。 In a communication device having a function of transferring image data taken for character recognition and translation to a server and displaying a translation result transferred from the server,
A communication apparatus, wherein language information indicating a language designated by a user is transferred together with the image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004078651A JP2005267249A (en) | 2004-03-18 | 2004-03-18 | Data processing system, server and communication device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004078651A JP2005267249A (en) | 2004-03-18 | 2004-03-18 | Data processing system, server and communication device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005267249A true JP2005267249A (en) | 2005-09-29 |
Family
ID=35091734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004078651A Pending JP2005267249A (en) | 2004-03-18 | 2004-03-18 | Data processing system, server and communication device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005267249A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010511253A (en) * | 2006-11-29 | 2010-04-08 | グーグル・インコーポレーテッド | Digital image archiving and retrieval using mobile device systems |
JP2018005694A (en) * | 2016-07-05 | 2018-01-11 | 株式会社近畿システムサービス | Exemption document data generation device, exemption document creation system, and exemption document creation method using passport information |
CN110245356A (en) * | 2019-06-24 | 2019-09-17 | 付金龙 | Offline translation machine |
-
2004
- 2004-03-18 JP JP2004078651A patent/JP2005267249A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010511253A (en) * | 2006-11-29 | 2010-04-08 | グーグル・インコーポレーテッド | Digital image archiving and retrieval using mobile device systems |
JP2013127815A (en) * | 2006-11-29 | 2013-06-27 | Google Inc | Digital image archiving and retrieval using mobile device system |
JP2018005694A (en) * | 2016-07-05 | 2018-01-11 | 株式会社近畿システムサービス | Exemption document data generation device, exemption document creation system, and exemption document creation method using passport information |
CN110245356A (en) * | 2019-06-24 | 2019-09-17 | 付金龙 | Offline translation machine |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100767921B1 (en) | Portable terminal device and portable cellular phone | |
KR102180962B1 (en) | Display system, display terminal, display method and computer readable recording medium having program thereof | |
US8432455B2 (en) | Method, apparatus and computer program product for automatically taking photos of oneself | |
EP1411460A2 (en) | Portable communication apparatus having a character recognition function | |
JP2007034625A (en) | Information display device | |
JP2003169187A (en) | Information processing terminal | |
US8760486B2 (en) | Method for providing phone book using business card recognition in mobile communication terminal and mobile communication terminal using the method | |
CN105357441B (en) | A kind of image-pickup method and mobile terminal | |
JP2005267249A (en) | Data processing system, server and communication device | |
JP5233474B2 (en) | Portable electronic devices | |
JP2007199908A (en) | Emoticon input apparatus | |
KR20060031769A (en) | Mobile communicatio device having function of voice transformation of photographed character | |
KR20060014228A (en) | Multi focus photographing method and apparatus in a mobile communication terminal having many cameras | |
JP2006268245A (en) | Information acquiring device and program | |
KR20070002209A (en) | Method for providing magnifier by using camera and mobile telecommunication terminal thereof | |
CN116167395B (en) | Code scanning method and electronic equipment | |
JP5115725B2 (en) | Terminal device and program | |
US20230360222A1 (en) | Processing apparatus, processing method, and processing program | |
JP2012014311A (en) | E-mail creation device and program | |
JP2010218041A (en) | Portable character recognition device, character recognition program, and character recognition method | |
WO2016110967A1 (en) | Information processing device, information processing method, and processing program used therefor | |
JP2008021173A (en) | Personal digital assistant and electronic mail system | |
JP2006148776A (en) | Non-contact data transmitting apparatus, non-contact data receiving apparatus and non-contact data transmitting method | |
JP2007122096A (en) | Position specification device, position specification method and position specification program | |
KR100705018B1 (en) | Mobile communication terminal and file display method using it |