JP2010103694A - Camera with translation function, and method of displaying text - Google Patents
Camera with translation function, and method of displaying text Download PDFInfo
- Publication number
- JP2010103694A JP2010103694A JP2008272152A JP2008272152A JP2010103694A JP 2010103694 A JP2010103694 A JP 2010103694A JP 2008272152 A JP2008272152 A JP 2008272152A JP 2008272152 A JP2008272152 A JP 2008272152A JP 2010103694 A JP2010103694 A JP 2010103694A
- Authority
- JP
- Japan
- Prior art keywords
- frame image
- text
- display
- translated
- image captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像中の文字を他の言語に翻訳して表示する技術に関する。 The present invention relates to a technique for translating characters in an image into another language for display.
外国における自動車の運転や歩行の際、標識や看板に記された文字が理解できずしばしば混乱を来たすことがある。特許文献1にはこのような自動車運転時の混乱を回避するため、通り沿いに設けられた標識や他のオブジェクトに記された文字を翻訳し、翻訳した文字を運転手に知らせる車両ナビゲーションシステムが開示されている。この車両ナビゲーションシステムは、カメラで標識や他のオブジェクトに記された文字を撮像し、撮像した画像から文字を抽出、認識して所定の言語に翻訳する。そして、表示装置に撮像した画像とともに翻訳した文字を表示して、自動車の運転を補助する。
When driving or walking in a foreign country, the characters on the signs and signs are often confusing and sometimes confusing.
特許文献1に開示された車両ナビゲーションシステムは、撮像画像からの文字の抽出、翻訳、及び翻訳した文字の表示位置の設定を、連続撮像したフレーム毎に実行する。そのため、車両ナビゲーションシステムを構成する各装置の負荷が大きく、翻訳した文字を表示するまでに時間がかかる。
The vehicle navigation system disclosed in
本発明は、上記問題点を解決するためになされたものであり、所定のテキストをすばやく表示することができる翻訳機能付きカメラ、及びテキストの表示方法を提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object thereof is to provide a camera with a translation function capable of quickly displaying a predetermined text and a text display method.
上記目的を達成するため、本発明に係る翻訳機能付きカメラは、複数のフレーム画像を連続的に撮像する画像撮像手段と、前記画像撮像手段が撮像したフレーム画像から文字を抽出する文字抽出手段と、前記文字抽出手段が抽出した文字を認識する文字認識手段と、前記文字認識手段が認識した文字から構成されたテキストを所定の言語のテキストに翻訳する翻訳手段と、前記フレーム画像に、前記翻訳手段が翻訳したテキストを合成して表示する表示手段と、前記画像撮像手段が撮像したフレーム画像とその直前に撮像したフレーム画像との撮像条件の差を求めるフレーム画像解析手段と、を備え、前記表示手段は、前記フレーム画像解析手段が解析した両フレーム画像の撮像条件の差と、前記直前に撮像したフレーム画像で表示した翻訳したテキストの位置とから、その直後に撮像したフレーム画像における翻訳したテキストの表示位置を特定し、該翻訳したテキストを前記直後に撮像したフレーム画像に合成することを特徴とする。 In order to achieve the above object, a camera with a translation function according to the present invention includes an image capturing unit that continuously captures a plurality of frame images, and a character extraction unit that extracts characters from the frame images captured by the image capturing unit. A character recognition means for recognizing the character extracted by the character extraction means; a translation means for translating a text composed of the characters recognized by the character recognition means into text of a predetermined language; Display means for combining and displaying the text translated by the means; and frame image analysis means for obtaining a difference in imaging condition between the frame image captured by the image capturing means and the frame image captured immediately before the frame image, The display means translates the difference between the imaging conditions of both frame images analyzed by the frame image analysis means and the frame image captured immediately before And a position of the text was to identify the display position of the text translated in the frame image captured immediately thereafter, characterized by combining the text and the translated frame image captured immediately after the.
前記文字認識手段は、さらに、前記画像撮像手段が撮像したフレーム画像に写ったテキストの表示エリアの寸法を特定し、前記表示手段は、前記フレーム画像解析手段が解析した両フレーム画像の撮像条件の差と、前記直前に撮像したフレーム画像において特定した表示エリアの寸法とから、その直後に撮像したフレーム画像における翻訳したテキストの表示エリアの寸法を決定してもよい。 The character recognizing unit further specifies a size of a display area of a text captured in the frame image captured by the image capturing unit, and the display unit is configured to determine an imaging condition of both frame images analyzed by the frame image analyzing unit. From the difference and the dimension of the display area specified in the frame image captured immediately before, the dimension of the display area of the translated text in the frame image captured immediately after that may be determined.
また、前記表示手段は、前記翻訳手段が翻訳したテキストの表示寸法を調整して、前記表示手段が決定した表示エリア内に翻訳したテキストを表示してもよい。 The display means may display the translated text in a display area determined by the display means by adjusting a display size of the text translated by the translation means.
また、前記フレーム画像解析手段は、前記画像撮像手段が撮像したフレーム画像とその直前に撮像したフレーム画像とに共通する特徴あるパターンを検出し、この両フレーム画像において検出したパターンの表示位置の違いから、両フレーム画像における撮像条件の差を求めてもよい。 Further, the frame image analysis unit detects a characteristic pattern common to the frame image captured by the image capturing unit and the frame image captured immediately before the frame image, and the difference in display position of the pattern detected in both the frame images From this, the difference between the imaging conditions in both frame images may be obtained.
また、上記目的を達成するため、本発明に係るテキストの表示方法は、複数のフレーム画像を連続的に撮像する撮像工程と、所定のテキストを付加した前記フレーム画像を連続的に表示する表示工程と、前記撮像工程において撮像したフレーム画像とその直前に撮像したフレーム画像とを比較して、両フレーム画像に写し出された同一の被写体の位置の違い及びズームの差を算出して、該両フレーム画像の撮像条件の差を解析するフレーム画像解析工程と、を備え、 前記表示工程では、前記フレーム画像解析工程において解析した両フレーム画像の撮像条件の差と、前記直前に撮像したフレーム画像で表示した翻訳したテキストの位置とから、その直後に撮像したフレーム画像における翻訳したテキストの表示位置を特定し、該翻訳したテキストを前記直後に撮像したフレーム画像に付加することを特徴とする。 In order to achieve the above object, a text display method according to the present invention includes an imaging step of continuously capturing a plurality of frame images, and a display step of continuously displaying the frame images to which a predetermined text is added. And the frame image captured in the imaging step and the frame image captured immediately before it are calculated to calculate the difference in position and zoom of the same subject imaged in both frame images. A frame image analysis step for analyzing a difference between image capturing conditions, and displaying the difference between the image capturing conditions of both frame images analyzed in the frame image analyzing step and the frame image captured immediately before in the display step From the translated text position, the display position of the translated text in the frame image taken immediately after that is specified, and the translated text Characterized in that it added to the frame image of the captured strike immediately after the.
また、前記撮像工程で撮像したフレーム画像から文字を抽出する文字抽出工程と、前記文字抽出工程で抽出した文字を認識する文字認識工程と、前記文字認識工程で認識した文字から構成されたテキストを所定の言語に翻訳する翻訳工程と、をさらに備え、前記表示工程で表示するテキストを、前記翻訳工程で翻訳したテキストとしてもよい。 Further, a character extraction step for extracting characters from the frame image captured in the imaging step, a character recognition step for recognizing characters extracted in the character extraction step, and a text composed of the characters recognized in the character recognition step A translation step of translating into a predetermined language, and the text displayed in the display step may be a text translated in the translation step.
また、前記文字認識工程では、さらに、前記撮像工程で撮像したフレーム画像に写ったテキストの表示エリアの寸法を特定し、前記表示工程では、前記フレーム画像解析工程で解析した両フレーム画像の撮像条件の差と、前記直前に撮像したフレーム画像において特定した表示エリアの寸法とから、その直後に撮像したフレーム画像における翻訳したテキストの表示エリアの寸法を決定してもよい。 Further, in the character recognition step, the size of the display area of the text shown in the frame image captured in the imaging step is specified, and in the display step, the imaging conditions of both frame images analyzed in the frame image analysis step The size of the display area of the translated text in the frame image captured immediately after that may be determined from the difference between the two and the size of the display area specified in the frame image captured immediately before.
また、前記表示工程では、さらに、前記翻訳工程で翻訳したテキストの表示寸法を調整して、前記表示工程で決定した表示エリア内に翻訳したテキストを表示してもよい。 In the display step, the translated text may be displayed in the display area determined in the display step by adjusting the display size of the text translated in the translation step.
本発明によれば、所定のテキストをすばやく表示することができる。 According to the present invention, it is possible to quickly display a predetermined text.
以下、本発明の実施形態に係る翻訳機能付きカメラ、及びテキストの表示方法を図面を参照して説明する。図1に示すように、本発明の実施形態に係る翻訳機能付きカメラ1は、装置本体10と、カメラ20と、入力部30と、表示部40とを備えている。
A camera with a translation function and a text display method according to embodiments of the present invention will be described below with reference to the drawings. As shown in FIG. 1, the camera with a
また、装置本体10は、テキスト抽出部11と、テキスト読取部12と、翻訳処理部13と、撮像画像解析部14と、表示処理部15と、データベース16とを備えている。装置本体10はこのような構成により、カメラ20が撮像したフレーム画像から文字を抽出、翻訳し、翻訳した文字の表示位置や表示寸法を設定して表示部40に表示する。以下、装置本体10を構成する各部を詳細に説明する。
The
テキスト抽出部11は、文字(数字、記号、符号等を含む)のフォントを予め記憶しており、カメラ20が撮像したフレーム画像に写った文字を、パターンマッチングなどの手法により抽出する。
The text extraction unit 11 stores fonts of characters (including numbers, symbols, codes, and the like) in advance, and extracts characters that appear in a frame image captured by the
テキスト読取部12は、抽出した各文字を文字認識技術を用いて文字情報として認識する。ここで文字認識技術とは、例えば、抽出したテキストを構成する文字の特徴と、データベース16に記憶した文字の特徴(あるいは文字そのもののテンプレート)とが合致するものを探し出し、合致したデータベース16に記憶された文字として認識する技術をいう。
The
翻訳処理部13は、テキスト読取部12が認識した文字から構成されるテキストを所定の言語に翻訳する。例えば翻訳処理部13は、多数の日本語の言葉と、その言葉に対応する複数の言語による言葉とを記憶したデータベース16を検索することで、テキストを所定の言語に翻訳する。
The
撮像画像解析部14は、カメラ20が連続して撮像した異なるフレーム画像間の撮像条件の差異をパターンマッチング法により解析する。ここで撮像条件の差異とは、異なるフレーム画像間の構図やズームの差異を指している。
The captured
具体的に撮像画像解析部14による解析内容について説明すると、まず撮像画像解析部14は、翻訳処理を施すフレーム画像(以下、対象フレーム画像と記載する)と、この対象フレーム画像の直前に撮影したフレーム画像(以下、前フレーム画像と記載する)とに共通するパターンを見つけ出す、いわゆるパターンマッチング法による解析を実行する。このパターンマッチング法は、例えば、前フレーム画像において特徴あるパターン(例えば、彩度が著しく変化する領域等)を検出し、次に、対象フレーム画像において、前フレーム画像で検出したパターンと合致する領域を見つけ出す画像解析手法である。
The analysis contents by the captured
そして図2に示すように、撮像画像解析部14が前フレーム画像41において特徴あるパターンa1(4,3)、b1(0,0)を検出し、対象フレーム画像42においてパターンa1と合致するパターンa1´(6,6)、及びパターンb1と合致するパターンb1´(−2,0)を検出したとする。すると、撮像画像解析部14は各パターンの座標値から、パターンa1とパターンb1との距離“5”と、パターンa1´とパターンb1´との距離“10”とを算出する。続いて、撮像画像解析部14は、算出した距離“5”と“10”とを比較して、対象フレーム画像42が、前フレーム画像41を撮像した状態から2倍にズームアップして撮像した画像であると認識する。なお、図に示したX,Y座標は、前フレーム画像41及び対象フレーム画像42の撮像中心を原点としている。
As shown in FIG. 2, the captured
また、撮像画像解析部14は、前フレーム画像41及び対象フレーム画像42において、共通して写し出された被写体位置の差を算出する。図2で示した画像を用いて説明すると、まず撮像画像解析部14は、前フレーム画像41と対象フレーム画像42とに生じているズームの差を解消するため、前フレーム画像41のパターンa1及びパターンb1の座標値をそれぞれ2倍する。次に、撮像画像解析部14は、乗算後の座標値と、対象フレーム画像42のパターンa1´及びパターンb1´の座標値とを比較する。すなわち、前フレーム画像41の各パターンの座標値を2倍した座標であるパターンa1(8,6)及びパターンb1(0,0)と、対象フレーム画像42のパターンa1´(6,6)及びパターンb1´(−2,0)とを比較すると、パターンa1´及びパターンb1´のX座標は、パターンa1及びパターンb1のX座標と比べてそれぞれ2小さい。これにより撮像画像解析部14は、対象フレーム画像42に映し出された被写体は、前フレーム画像41に映し出された同一の被写体よりもX方向に−2移動した位置にあると認識する。
In addition, the captured
また、撮像画像解析部14は、上記で求めた前フレーム画像41と対象フレーム画像42とにおける同一の被写体位置の違いやズームの差異に基づいて、対象フレーム画像42で新たな被写体が写し出された領域を求める。
In addition, the captured
表示処理部15は、翻訳したテキストの表示位置や表示寸法を設定し、表示部40に対象フレーム画像42とともに翻訳したテキストを表示する。
具体的には、表示処理部15は、フレーム画像において抽出したテキストの位置及びその表示エリアを特定し、抽出したテキストを翻訳後のテキストに書き換える。その際、翻訳後のテキストが抽出したテキストの表示エリアに収まるように、翻訳後のテキストの寸法を適宜変更し、あるいは改行等の処理を施して表示部40に表示する。
The
Specifically, the
カメラ20は、例えば1秒間に数〜数十のフレーム画像を撮像し、撮像毎にフレーム画像を装置本体10に送信する。カメラ20は、撮像したテキストの抽出、認識を容易にするため、シャッタスピードが速く、被写界深度が深いものが好ましい。
For example, the
入力部30は、操作者が翻訳機能付きカメラ1の所望の動作を実行するための各種スイッチから構成されている。例えば、入力部30は、カメラ20で撮像するための撮像スイッチや、翻訳後の言語を選択する言語切替スイッチ等から構成されている。
The
表示部40は、例えば翻訳機能付きカメラ1に搭載された液晶ディスプレイであり、カメラ20が連続的に撮像したフレーム画像をリアルタイムで表示する。また、表示部40は、翻訳前のテキストを翻訳後のテキストに書き換えて表示する。
The
次に、本発明に係る翻訳機能付きカメラ1による撮像したテキストの翻訳語表示処理について、図3及び図4に示したフローチャートを参照して説明する。なお、説明を簡略化するため、撮像したフレーム画像には常にテキストが含まれているものとする。
Next, the translated word display processing of the text captured by the
まず、カメラ20は、フレーム画像を撮像し、撮像したフレーム画像を装置本体10に送信する(ステップS110)。
First, the
次に、テキスト抽出部11は、撮像したフレーム画像に写ったテキストを抽出する(ステップS120)。なお、テキストのフレーム画像からの抽出方法については前述した通りである。 Next, the text extraction unit 11 extracts the text shown in the captured frame image (step S120). The method for extracting the text from the frame image is as described above.
続いて、テキスト読取部12は、ステップS120で抽出したテキストを構成する文字の特徴が、データベース16に記憶された文字の特徴と合致するか調べる(ステップS130)。
Subsequently, the
ステップS130において、テキストを構成する文字の特徴がデータベース16に記憶されている文字の特徴と合致すると(ステップS130:Yes)、テキスト読取部12は、テキストを構成する文字を、特徴が合致したデータベース16に記憶された文字として認識する(ステップS140)。また、テキスト読取部12は、このようにして認識した文字が構成するテキストの表示エリアの寸法を求める。
In step S130, when the characteristics of the characters constituting the text match the characteristics of the characters stored in the database 16 (step S130: Yes), the
次に、翻訳処理部13は、テキスト読取部12が認識した文字から構成されたテキストを所定の言語に翻訳する(ステップS150)。例えば翻訳処理部13は、多数の日本語の言葉と、その言葉に対応する複数の言語による言葉とを記憶したデータベース16を検索することで、テキストを所定の言語に翻訳する。
Next, the
次に、表示処理部15は、翻訳したテキストの表示位置や表示寸法を設定し、表示部40にフレーム画像とともに翻訳したテキストを表示する(ステップS160)。なお前述したように、表示処理部15は、翻訳したテキストが翻訳前のテキストの表示エリアに収まるように表示部40に表示する。
Next, the
ステップS130において、抽出したテキストを構成する文字の特徴が、データベース16に記憶した文字の特徴と合致しないと(ステップS130:No)、表示処理部15は、撮像したフレーム画像を表示部40にそのまま表示する(ステップS180)。そして、ステップをステップS170に進める。
In step S130, if the characteristics of the characters constituting the extracted text do not match the characteristics of the characters stored in the database 16 (step S130: No), the
なお、上述までのステップは、カメラ20により最初のフレーム画像を撮像した際の翻訳語表示処理のステップを示している。ところで、カメラ20は前述したように、1秒間に数〜数十のフレーム画像を撮像する。そこで、このようなフレーム画像の連続的な撮影とその翻訳語表示処理については、ステップS170において実施する。以下、ステップS170については図4に示したフローチャートを参照して説明する。
Note that the steps up to the above show the translated word display processing steps when the first frame image is captured by the
まず、ステップS110と同様に、カメラ20はフレーム画像を撮像し、撮像したフレーム画像を装置本体に送信する(ステップS171)。
First, as in step S110, the
次に、撮像画像解析部14はパターンマッチング法を実行して、前フレーム画像41(ステップS110で撮像)及び対象フレーム画像42(ステップS171で撮像)に共通する特徴あるパターンを検出する。そして、撮像画像解析部14は、前フレーム画像41と対象フレーム画像42とにおける同一の被写体位置の違いやズームの差異を解析する(ステップS172)。そして、この解析結果に基づいて撮像画像解析部14は、対象フレーム画像42において、新たに撮像された領域を求める。なお、これらの具体的な解析方法についは、前述した通りである。
Next, the captured
次に、テキスト抽出部11は、ステップS172で求めた新たに撮像した領域においてテキスト抽出処理を実行する(ステップS173)。 Next, the text extraction unit 11 executes text extraction processing in the newly imaged area obtained in step S172 (step S173).
続いて、テキスト抽出部11は、ステップS173で新たにテキストを抽出したかどうか判断する(ステップS174)。 Subsequently, the text extraction unit 11 determines whether a new text is extracted in step S173 (step S174).
ステップS174において、テキスト抽出部11が新たなテキストを抽出しなければ(ステップS174:No)、表示処理部15は、ステップS172で求めた連続した異なるフレーム画像の撮像条件の差異から、前フレーム画像41で表示済みのテキストを対象フレーム画像42に表示する際の表示位置やテキストの寸法を設定する。そして、表示処理部15は、対象フレーム画像42とともに翻訳したテキストを表示部40に表示する(ステップS175)。なお、前フレーム画像41で表示済みのテキストが対象フレーム画像42の外にある場合、表示処理部15はこのテキストは表示しない。
In step S174, if the text extraction unit 11 does not extract a new text (step S174: No), the
ここで、ステップS175の処理について例を挙げて説明する。例えば、前フレーム画像41と対象フレーム画像42が前述した図2に示した関係にあるとする。また、前フレーム画像41のテキストの表示位置がb1(0,0)であり、テキストの表示エリア43がXY座標上で2×4の大きさであったとする。
まず、表示処理部15は、前フレーム画像41と対象フレーム画像42とに生じているズームの差を解消するため、前フレーム画像41のテキストの表示エリア43を2倍の大きさに拡大して、対象フレーム画像42における表示エリア43´のXY座標上の大きさ4×8を設定する。次に、表示処理部15は、テキストの表示位置b1(0,0)の座標を2倍し、X座標を2減じた座標b1´(−2,0)を対象フレーム画像42におけるテキストの表示位置とする。続いて、表示処理部15は、前フレーム画像41で表示したテキストを2倍の大きさとして、対象フレーム画像42の表示位置b1´(−2.0)に拡大したテキストを表示する。
Here, the process of step S175 will be described with an example. For example, assume that the
First, the
続いて、操作者の入力等に従い、再度フレーム画像を撮像するか否かを判断する(ステップS176)。 Subsequently, it is determined whether or not to capture a frame image again according to the operator's input or the like (step S176).
ステップS176において、フレーム画像を撮像しない場合は(ステップS176:No)、連続翻訳語表示処理を終了して、図3に示した翻訳語表示処理を終了する。 In step S176, when a frame image is not taken (step S176: No), the continuous translation word display process is terminated, and the translation word display process shown in FIG. 3 is terminated.
また、ステップS176において、さらにフレーム画像を撮像する場合は(ステップS176:Yes)、ステップをステップS171に戻して、再度フレーム画像を撮像して上述したステップを繰り返す。 In step S176, when further frame images are to be captured (step S176: Yes), the process returns to step S171, the frame images are captured again, and the above-described steps are repeated.
ステップS174において、テキスト抽出部11が新たなテキストを抽出した場合、(ステップS174:Yes)、ステップS130と同様に、テキスト読取部12は、新たに抽出したテキストを構成する文字の特徴が、データベース16に記憶された文字の特徴と合致するか調べる(ステップS177)。
When the text extraction unit 11 extracts a new text in step S174 (step S174: Yes), the
ステップS177において、テキストを構成する文字の特徴がデータベース16に記憶されている文字の特徴と合致すると(ステップS177:Yes)、テキスト読取部12は、テキストを構成する文字を、特徴が合致したデータベース16に記憶された文字として認識する。そして、翻訳処理部13は、認識した文字から構成されたテキストを所定の言語に翻訳し(ステップS178)、ステップをステップS175に進める。
なお、このようにステップS178で新たに翻訳したテキストは、ステップS175において、表示処理部15により対象フレーム画像42内での表示位置や表示寸法が設定され、表示部40に表示される。
In step S177, when the characteristics of the characters constituting the text match the characteristics of the characters stored in the database 16 (step S177: Yes), the
Note that the text newly translated in step S178 is displayed on the
また、ステップS177において、テキストを構成する文字の特徴がデータベース16に記憶されている文字の特徴と合致しないと(ステップS177:No)、ステップをステップS175に進める。なお、このように、翻訳されなかったテキストは、ステップS175において、表示処理部15により撮像された状態のまま表示部40に表示される。
In step S177, if the character features constituting the text do not match the character features stored in the database 16 (step S177: No), the process proceeds to step S175. In this way, the text that has not been translated is displayed on the
次に、本発明にかかる翻訳機能付きカメラ1が撮像したフレーム画像の概略図を図5及び図6に示し、翻訳したテキストがどのようにフレーム画像に表示されるのか説明する。なお、各図(a)〜(c)は、フレーム画像を撮像順に並べたものである。
Next, schematic diagrams of frame images taken by the camera with a
図5(a)に示すように、フレーム画像50には道路51を中心にして、その両脇に沿って建てられた建物52が写しだされている。この建物52には、ハングルのテキスト55が記載された看板53が設置されている。また、図5(a)に示したフレーム画像50を撮像した状態から、図中左側へ撮像中心を移動させつつズームアップしながら撮像したフレーム画像50が図5(b),(c)である。当然ながら、フレーム画像50に写し出されたテキスト55は、撮像を重ねる度にその位置が変化し、寸法も大きく写し出されることとなる。
As shown in FIG. 5A, the
フレーム画像撮像の際に、翻訳機能付きカメラ1の操作者が日本語への翻訳機能をオンにしておくと、図5に示したテキスト55は、図6に示すように翻訳後のテキスト56に変換されて表示される。例えば、図5(a)の右側に示した表示エリア58内に記されたハングル語のテキスト55を、翻訳後のテキスト56“ソルロンタン”に書き換える場合を例にあげる。翻訳後のテキスト56“ソルロンタン”は、図6に示した他の翻訳後のテキスト56と比べて文字数が多いにもかかわらず、表示エリア58はそれほど大きくない。そのため、図6に示すように、翻訳後のテキスト56“ソルロンタン”は他の翻訳後のテキスト56よりも小さく表示されることとなる。
When the operator of the
また、図6(b),(c)に示すように、連続撮像したフレーム画像50に写し出された同一の被写体の位置の違いやズームの差が生じた場合にも、これらの撮像条件の変化に基づいて、翻訳後のテキストの表示位置及び寸法を決定し、表示することができる。
In addition, as shown in FIGS. 6B and 6C, even when a difference in the position of the same subject and a difference in zoom appear in the continuously captured
以上説明したように、本発明に係る翻訳機能付きカメラ及びテキストの表示方法は、連続撮像したフレーム画像において求めた撮像条件の差から、前フレーム画像において表示したテキストの対象フレーム画像における表示位置を特定する。そのため、一旦、フレーム画像から抽出、認識、翻訳したテキストは、その後に撮像したフレーム画像における表示位置、及び表示寸法を設定するだけで、テキストを適切に表示部に表示し続けることができる。そのため、翻訳したテキストをすばやく表示することが可能となり、フレーム画像の表示と翻訳したテキストの表示とのタイミングがずれるという視覚上のジッタを抑制することができる。 As described above, the camera with a translation function and the text display method according to the present invention determine the display position of the text displayed in the previous frame image in the target frame image from the difference in imaging conditions obtained in the continuously captured frame images. Identify. For this reason, once extracted, recognized, and translated text from the frame image, it is possible to continue displaying the text appropriately on the display unit simply by setting the display position and display size in the captured frame image. Therefore, it is possible to quickly display the translated text, and it is possible to suppress the visual jitter that the timing between the display of the frame image and the display of the translated text is shifted.
また、本発明に係る翻訳機能付きカメラは、フレーム画像に写ったテキストが表示された表示エリアの寸法を特定し、連続撮像したフレーム画像において求めた撮像条件の差から、前フレーム画像において特定した表示エリアの対象フレーム画像における寸法を決定する。そして、翻訳機能付きカメラは、翻訳したテキストを表示エリア内に収まるように表示する。そのため、翻訳したテキストがどこに標記された文字の翻訳であるかが明確になるとともに、翻訳したテキストを重ねて表示することをなくすことができる。 In addition, the camera with a translation function according to the present invention specifies the size of the display area where the text captured in the frame image is displayed, and specifies the previous frame image from the difference in imaging conditions obtained in the continuously captured frame images. The size of the target frame image in the display area is determined. Then, the camera with a translation function displays the translated text so as to be within the display area. Therefore, it becomes clear where the translated text is the translation of the marked character, and the translated text can be prevented from being displayed in an overlapping manner.
本発明は上述した実施形態に限られず、様々な変形及び応用が可能である。
例えば、上述では前フレーム画像と対象フレーム画像とのズームの差を求めるために、特徴ある2点の距離を算出したが、例えば、前フレーム画像と対象フレーム画像とに共通する特徴あるパターンの領域をそれぞれ求め、このパターンの大きさを比較することでズームの差を求めてもよい。
The present invention is not limited to the above-described embodiments, and various modifications and applications are possible.
For example, in the above description, the distance between two characteristic points is calculated in order to obtain the zoom difference between the previous frame image and the target frame image. For example, a characteristic pattern area common to the previous frame image and the target frame image is calculated. May be obtained, and the zoom difference may be obtained by comparing the sizes of the patterns.
また、上記実施形態では、翻訳したテキストを表示する場合について述べたが、図7に示すように、日本語による発音テキスト57をハングルのテキストに併記するようにしてもよい。この場合も、連続撮像したフレーム画像間の撮像条件の差異を求めることで、発音テキスト57の表示位置および表示寸法を適切に設定することができるとともに、上述した視覚上のジッタも抑制することができる。
Moreover, although the case where the translated text was displayed was described in the said embodiment, as shown in FIG. 7, you may make it write together the
1 翻訳機能付きカメラ
10 装置本体
11 テキスト抽出部
12 テキスト読取部
13 翻訳処理部
14 撮像画像解析部
15 表示処理部
16 データベース
20 カメラ
30 入力部
40 表示部
41 前フレーム画像
42 対象フレーム画像
43 表示エリア
DESCRIPTION OF
Claims (8)
前記画像撮像手段が撮像したフレーム画像から文字を抽出する文字抽出手段と、
前記文字抽出手段が抽出した文字を認識する文字認識手段と、
前記文字認識手段が認識した文字から構成されたテキストを所定の言語のテキストに翻訳する翻訳手段と、
前記フレーム画像に、前記翻訳手段が翻訳したテキストを合成して表示する表示手段と、
前記画像撮像手段が撮像したフレーム画像とその直前に撮像したフレーム画像との撮像条件の差を求めるフレーム画像解析手段と、を備え、
前記表示手段は、前記フレーム画像解析手段が解析した両フレーム画像の撮像条件の差と、前記直前に撮像したフレーム画像で表示した翻訳したテキストの位置とから、その直後に撮像したフレーム画像における翻訳したテキストの表示位置を特定し、該翻訳したテキストを前記直後に撮像したフレーム画像に合成することを特徴とする翻訳機能付きカメラ。 Image capturing means for continuously capturing a plurality of frame images;
Character extraction means for extracting characters from a frame image captured by the image capturing means;
Character recognition means for recognizing the character extracted by the character extraction means;
Translation means for translating a text composed of characters recognized by the character recognition means into text in a predetermined language;
Display means for combining and displaying the text translated by the translation means on the frame image;
Frame image analysis means for obtaining a difference in imaging conditions between a frame image captured by the image capturing means and a frame image captured immediately before the frame image;
The display means translates the frame image captured immediately after the difference between the imaging conditions of the two frame images analyzed by the frame image analysis means and the position of the translated text displayed in the frame image captured immediately before. A camera with a translation function, characterized in that the display position of the translated text is specified, and the translated text is synthesized with a frame image captured immediately after the text.
前記表示手段は、前記フレーム画像解析手段が解析した両フレーム画像の撮像条件の差と、前記直前に撮像したフレーム画像において特定した表示エリアの寸法とから、その直後に撮像したフレーム画像における翻訳したテキストの表示エリアの寸法を決定することを特徴とする請求項1に記載の翻訳機能付きカメラ。 The character recognizing unit further specifies a size of a display area of a text captured in a frame image captured by the image capturing unit;
The display means translates the frame image captured immediately after the difference between the imaging conditions of both frame images analyzed by the frame image analysis means and the size of the display area specified in the frame image captured immediately before. The camera with a translation function according to claim 1, wherein a dimension of a text display area is determined.
所定のテキストを付加した前記フレーム画像を連続的に表示する表示工程と、
前記撮像工程において撮像したフレーム画像とその直前に撮像したフレーム画像とを比較して、両フレーム画像に写し出された同一の被写体の位置の違い及びズームの差を算出して、該両フレーム画像の撮像条件の差を解析するフレーム画像解析工程と、を備え、
前記表示工程では、前記フレーム画像解析工程において解析した両フレーム画像の撮像条件の差と、前記直前に撮像したフレーム画像で表示した翻訳したテキストの位置とから、その直後に撮像したフレーム画像における翻訳したテキストの表示位置を特定し、該翻訳したテキストを前記直後に撮像したフレーム画像に付加することを特徴とするテキストの表示方法。 An imaging step of continuously capturing a plurality of frame images;
A display step of continuously displaying the frame image with a predetermined text added thereto;
Comparing the frame image captured in the imaging step with the frame image captured immediately before it, calculating the difference in position and zoom of the same subject imaged in both frame images, A frame image analysis step for analyzing a difference in imaging conditions,
In the display step, the translation in the frame image captured immediately after the difference between the imaging conditions of the both frame images analyzed in the frame image analysis step and the position of the translated text displayed in the frame image captured immediately before A method for displaying a text, wherein the display position of the text is specified and the translated text is added to the frame image captured immediately after the text.
前記文字抽出工程で抽出した文字を認識する文字認識工程と、
前記文字認識工程で認識した文字から構成されたテキストを所定の言語に翻訳する翻訳工程と、をさらに備え、
前記表示工程で表示するテキストを、前記翻訳工程で翻訳したテキストとすることを特徴とする請求項5に記載のテキストの表示方法。 A character extraction step of extracting characters from the frame image captured in the imaging step;
A character recognition step for recognizing the character extracted in the character extraction step;
A translation step of translating the text composed of the characters recognized in the character recognition step into a predetermined language,
The text display method according to claim 5, wherein the text displayed in the display step is a text translated in the translation step.
前記表示工程では、前記フレーム画像解析工程で解析した両フレーム画像の撮像条件の差と、前記直前に撮像したフレーム画像において特定した表示エリアの寸法とから、その直後に撮像したフレーム画像における翻訳したテキストの表示エリアの寸法を決定することを特徴とする請求項6に記載のテキストの表示方法。 In the character recognition step, further specify the size of the display area of the text shown in the frame image captured in the imaging step,
In the display step, the difference between the imaging conditions of both frame images analyzed in the frame image analysis step and the size of the display area specified in the frame image captured immediately before are translated in the frame image captured immediately thereafter. The text display method according to claim 6, wherein the size of the text display area is determined.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008272152A JP2010103694A (en) | 2008-10-22 | 2008-10-22 | Camera with translation function, and method of displaying text |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008272152A JP2010103694A (en) | 2008-10-22 | 2008-10-22 | Camera with translation function, and method of displaying text |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010103694A true JP2010103694A (en) | 2010-05-06 |
Family
ID=42293942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008272152A Pending JP2010103694A (en) | 2008-10-22 | 2008-10-22 | Camera with translation function, and method of displaying text |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010103694A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4790080B1 (en) * | 2010-10-01 | 2011-10-12 | 株式会社スクウェア・エニックス | Information processing apparatus, information display method, information display program, and recording medium |
KR20120103436A (en) * | 2011-03-11 | 2012-09-19 | 후지제롯쿠스 가부시끼가이샤 | Image processing apparatus, non-transitory computer-readable medium, and image processing method |
JP2014215965A (en) * | 2013-04-30 | 2014-11-17 | 株式会社Nttドコモ | Information processing apparatus, information processing method and information processing program |
CN105282455A (en) * | 2014-06-20 | 2016-01-27 | 宇龙计算机通信科技(深圳)有限公司 | Shooting method and device and mobile terminal |
US9826158B2 (en) | 2013-11-27 | 2017-11-21 | Sharp Kabushiki Kaisha | Translation display device, translation display method, and control program |
GB2560877A (en) * | 2017-02-09 | 2018-10-03 | Pye Robert | Improvements in or relating to currency conversion |
KR20190020281A (en) * | 2017-08-20 | 2019-02-28 | 네이버 주식회사 | Processing visual input |
WO2019039799A1 (en) * | 2017-08-20 | 2019-02-28 | 네이버 주식회사 | Processing of visual input |
US10410074B2 (en) | 2016-10-25 | 2019-09-10 | Ford Global Technologies, Llc | Systems and methods for locating target vehicles |
-
2008
- 2008-10-22 JP JP2008272152A patent/JP2010103694A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4790080B1 (en) * | 2010-10-01 | 2011-10-12 | 株式会社スクウェア・エニックス | Information processing apparatus, information display method, information display program, and recording medium |
KR20120103436A (en) * | 2011-03-11 | 2012-09-19 | 후지제롯쿠스 가부시끼가이샤 | Image processing apparatus, non-transitory computer-readable medium, and image processing method |
KR101598789B1 (en) | 2011-03-11 | 2016-03-02 | 후지제롯쿠스 가부시끼가이샤 | Image processing apparatus, non-transitory computer-readable medium, and image processing method |
JP2014215965A (en) * | 2013-04-30 | 2014-11-17 | 株式会社Nttドコモ | Information processing apparatus, information processing method and information processing program |
US9826158B2 (en) | 2013-11-27 | 2017-11-21 | Sharp Kabushiki Kaisha | Translation display device, translation display method, and control program |
CN105282455B (en) * | 2014-06-20 | 2018-06-19 | 宇龙计算机通信科技(深圳)有限公司 | A kind of photographic method, device and mobile terminal |
CN105282455A (en) * | 2014-06-20 | 2016-01-27 | 宇龙计算机通信科技(深圳)有限公司 | Shooting method and device and mobile terminal |
US10410074B2 (en) | 2016-10-25 | 2019-09-10 | Ford Global Technologies, Llc | Systems and methods for locating target vehicles |
US11093765B2 (en) | 2016-10-25 | 2021-08-17 | Ford Global Technologies, Llc | Systems and methods for locating target vehicles |
GB2560877A (en) * | 2017-02-09 | 2018-10-03 | Pye Robert | Improvements in or relating to currency conversion |
KR20190020281A (en) * | 2017-08-20 | 2019-02-28 | 네이버 주식회사 | Processing visual input |
WO2019039799A1 (en) * | 2017-08-20 | 2019-02-28 | 네이버 주식회사 | Processing of visual input |
KR102026475B1 (en) * | 2017-08-20 | 2019-09-30 | 네이버 주식회사 | Processing visual input |
JP2020534590A (en) * | 2017-08-20 | 2020-11-26 | ネイバー コーポレーションNAVER Corporation | Processing of visual input |
JP7027524B2 (en) | 2017-08-20 | 2022-03-01 | ネイバー コーポレーション | Processing of visual input |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010103694A (en) | Camera with translation function, and method of displaying text | |
JP4553072B1 (en) | Image integration apparatus and image integration method | |
JP5480777B2 (en) | Object display device and object display method | |
JP4622001B2 (en) | Road lane marking detection apparatus and road lane marking detection method | |
WO2019042426A1 (en) | Augmented reality scene processing method and apparatus, and computer storage medium | |
JP6141787B2 (en) | Lane mark recognition device | |
JP4609603B2 (en) | 3D information display device and 3D information display method | |
JP2007265038A (en) | Road image analysis device and road image analysis method | |
JP6515704B2 (en) | Lane detection device and lane detection method | |
US20160012307A1 (en) | Road sign recognition device | |
JP2016111509A (en) | Image processing device for vehicle, image processing method for vehicle and program | |
JP2009217832A (en) | Method and device for automatically recognizing road sign in video image, and storage medium which stores program of road sign automatic recognition | |
JP4762026B2 (en) | Road sign database construction device | |
JP5100688B2 (en) | Object detection apparatus and program | |
JP4553071B1 (en) | 3D information display device and 3D information display method | |
JP5155204B2 (en) | White line detector | |
JP2005352705A (en) | Device and method for pattern recognition, and character recognizing method | |
JP5020920B2 (en) | Pedestrian detection device and program | |
JP2012160116A (en) | Object identification device | |
JP3872061B2 (en) | Image processing device | |
JP2010191767A (en) | Device and method for recognizing character | |
JP2005216200A (en) | Other vehicle detecting apparatus and method | |
JP2010015235A (en) | Pedestrian detector and program | |
JP5256508B2 (en) | 3D information calculation apparatus and 3D information calculation method | |
JP6060612B2 (en) | Moving surface situation recognition device, moving object, and program |