JP4759638B2 - リアルタイムなカメラ辞書 - Google Patents

リアルタイムなカメラ辞書 Download PDF

Info

Publication number
JP4759638B2
JP4759638B2 JP2009293667A JP2009293667A JP4759638B2 JP 4759638 B2 JP4759638 B2 JP 4759638B2 JP 2009293667 A JP2009293667 A JP 2009293667A JP 2009293667 A JP2009293667 A JP 2009293667A JP 4759638 B2 JP4759638 B2 JP 4759638B2
Authority
JP
Japan
Prior art keywords
character
unit
information
display
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009293667A
Other languages
English (en)
Other versions
JP2011134144A (ja
Inventor
亮太 青海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2009293667A priority Critical patent/JP4759638B2/ja
Priority to KR1020127007995A priority patent/KR20120069699A/ko
Priority to EP10838888.5A priority patent/EP2518605A4/en
Priority to PCT/JP2010/007101 priority patent/WO2011077648A1/ja
Priority to US13/497,360 priority patent/US8903131B2/en
Publication of JP2011134144A publication Critical patent/JP2011134144A/ja
Application granted granted Critical
Publication of JP4759638B2 publication Critical patent/JP4759638B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)
  • Input From Keyboards Or The Like (AREA)

Description

本発明は,リアルタイムに辞書表示を行うことができるカメラ辞書に関するものである。より詳しく説明すると,本発明は,カメラが捉える画像が変化した瞬間に自動的に新しい翻訳語を連続的に表示できるリアルタイムレスポンスが可能なカメラ辞書に関する。
特開2000−152125号公報(特許文献1)には,ヘッドマウントディスプレイ装置が開示されている。この装置は,ユーザの目の前にある文章をCCDカメラにより撮影し,得られた画像情報から文章又は単語を判読し,翻訳してディスプレイに表示する。
特開2007−280166号公報(特許文献2)には,電子辞書が開示されている。この電子辞書は,視野内の中心部分にある単語または文章を他の形態の単語または文章に変換して,ユーザの視野内に表示する。
携帯電話W31SAの取り扱い説明書160ページ(非特許文献1)には,「カメラde辞書」サービスが掲載されている。このカメラde辞書サービスは,携帯電話にOCR機能を付加したものである。そして,この携帯電話は,撮影した写真に基づいてOCRで用語を読み出し,読み出した用語を翻訳する機能を有するものである。
特開2000−152125号公報 特開2007−280166号公報
携帯電話W31SAの取り扱い説明書160ページ
特許文献1及び特許文献2に開示された装置は,いずれもある文章やある単語を撮影し,それに基づいてその翻訳文や翻訳語をモニタに表示するものである。一方,ある単語は複数の意味を有するものがある。そのため,これらの装置では,誤訳が生じやすいという問題がある。
また,特許文献1及び特許文献2に開示された装置は,いずれも翻訳語を所定の表示領域に表示する。このため,ユーザの視野に複数の文字がある場合,どの文字を翻訳したかわかりにくいという問題がある。
非特許文献1に開示されたOCR機能つき携帯電話は,撮影した写真(静止画)に基づいてOCRで用語を読み出し,読み出した用語を翻訳する。この携帯電話は,静止画に基づいて翻訳処理を行うため,リアルタイムに適切な用語を翻訳して表示することができないという問題がある。
そこで本発明は,状況に応じて適切な対応情報(翻訳語,翻訳情報)をリアルタイムに次々と表示できるリアルタイムレスポンスが可能な情報表示装置を提供することを目的とする。
また本発明は,翻訳対象を容易に把握できる情報表示装置を提供することを目的とする。
さらに本発明は,新たな撮影対象に関する対応情報(翻訳語,翻訳情報)を絶え間なく瞬間的に表示できる情報表示装置を提供することを目的とする。
本発明は,翻訳対象物の種類を把握した上で翻訳作業を行うことで,状況に応じて適切な対応情報を表示できるという知見に基づくものである。
本発明の情報表示装置は,リアルタイムに辞書表示を行うことができるカメラ辞書に関する。また,この装置は,撮影部11で撮影された対象物に含まれるキャラクタを判別する。そして,この装置は,辞書12からこのキャラクタに対応した情報を抽出する。キャラクタに対応した情報の例は,ある用語に対する翻訳語や用例である。そして,表示部12が,キャラクタに対応した情報を表示する。キャラクタは,一般的には文字である。しかし,キャラクタは,絵文字,コード情報,記号であってもよい。また,この装置の対象物判別部13は,撮影部11で撮影された対象物の種類(たとえば,書類,看板)を判別する。そして,情報抽出部15が,辞書12からキャラクタに対応した情報を抽出する際に,キャラクタに関する情報に加えて,対象物の種類に関する情報をも用いる。そうすることで,例えば,本を撮影した場合は学習用辞書に掲載された辞書情報を表示するといったように,状況に応じて適切な対応情報を抽出することができる。
以下に本発明の好ましい例を説明する。本発明は以下に説明する例に限定されるものではない。本発明の情報表示装置の好ましい例は,対象物の種類に応じて適切な辞書を選択するものである。そして,この例では,例えば,文字の背景部分(書籍における紙の部分)のような対象物のうちキャラクタ以外の部分の色情報を用いて,対象物の種類を判別する。たとえば,キャラクタが黒で,背景部分が白,またはクリーム色であれば,対象物は本である可能性が高い。その場合,例えば,対象物が書籍であるという情報に基づいて,学習用の辞書を選択する。そうすることで,この装置は,例えば,知りたい用語に関する辞書情報を抽出して,表示することができる。
本発明の情報表示装置の好ましい例は,情報抽出部15が,対象物判別部(13)により判別された対象物の種類及びキャラクタ判別部12により判別されたキャラクタに基づいて,辞書12から,キャラクタに対応した最適語を1つ抽出するものである。そして,表示部16は,最適語を表示するとともに,表示された最適語が誤っている場合に,表示された最適語が誤っていることの入力を促す表示を行う。そして,情報表示装置に表示された最適語が誤っていることの入力がなされた場合は,情報抽出部15は,辞書12から,キャラクタに対応した最適語とは別の語を抽出する。そして,表示部16は,その別の語を表示する。
このようにすることで,上記の情報表示装置は,(仮に対象語の訳が誤っていても構わずに)最適な訳であると情報表示装置が判断した最適語を表示部に表示する。このような情報処理を行うことで,時々刻々変化する対象語についての最適語をリアルタイムレスポンスにより表示することができることとなる。具体的には,撮影部が連続的に被写体を撮影し,撮影が行われてから次の撮影が行われるより前に,対象語の最適語を求めて表示部に表示する。これにより,撮影対象が変化した瞬間に,最適語を表示することができる。
本発明の情報表示装置の好ましい例は,撮影部の向きにより対象物の種類を判別するものである。例えば,撮影部が水平方向または水平方向より上向きである場合,ユーザは書籍ではなく,風景や看板の翻訳を要求すると考えられる。その場合,地名事典,名称事典に基づいて選択された情報が表示される。
本発明の情報表示装置の好ましい例は,ユーザからの入力により対象物の種類を判別するものである。例えば,ユーザが英和辞書モードを選択した場合,特定された英語の和訳を含む辞書情報が表示される。
本発明の情報表示装置の好ましい例は,撮影された対象物を画面に表示するとともに,翻訳された文字を対象物に重ねて表示するものである。この具体的な例は,外国語表記された看板を撮影すると,その外国語表記に置き換わって和文がモニタに表示されるものである。
この例では,キャラクタの色を判別するとともに,キャラクタの表示部16における位置,大きさ,及び角度を判別する。また,この例は,キャラクタの周辺の色を判別する。そして,翻訳前のキャラクタが表示部に表示されないように,翻訳前のキャラクタの周辺の色で,翻訳前のキャラクタを覆う。その上で,翻訳された語を,キャラクタの表示部16における位置,大きさ,及び角度,及びキャラクタの色に基づいてキャラクタに対応させて表示する。このようにすることで,翻訳後の語が撮影された画面に重畳して表示される。
本発明の情報表示装置の好ましい例は,表示部16が,タッチパネルのものである。そして,この装置は,表示部16が対象物を表示して,タッチパネルに表示された対象物に含まれるキャラクタをユーザが指示すると,その指示情報に基づいてキャラクタを特定して判別する。
本発明の情報表示装置は,翻訳対象物の種類を把握した上で翻訳作業を行うことで,状況に応じて適切な対応情報をリアルタイムに次々と表示でき,リアルタイムレスポンスが可能となる。
また本発明の情報表示装置の好ましい例は,翻訳対象となる語に重畳して翻訳後の語を表示できるので,翻訳対象を容易に把握できる。
さらに本発明の情報表示装置の好ましい例は,写真に基づきユーザに翻訳対象語を指定させる必要がないので,新たな撮影対象に関する対応情報を絶え間なく瞬間的に表示できる。
さらに本発明の情報表示装置の好ましい例は,翻訳語として最も適していると考えられる1語を表示し,表示された語が訳語として誤っていれば,誤りであることを示唆する入力を促すようにするため,新たな撮影対象に関する対応情報を絶え間なく瞬間的に表示できる。
図1は,本発明の情報表示装置を説明するためのブロック図である。 図2は,情報表示装置を用いた表示例を示す図である。 図3は,情報表示装置を用いた表示例を示す図である。 図4は,上記とは別の本発明の情報表示装置を説明するためのブロック図である。 図5は,重畳表示を説明するための図である。図5(a)は情報表示装置を介さない表示板を示す。図5(b)はキャラクタを背景色で覆った際の概念図である。図5(c)は,表示板における“China”に変えて,“中国”の文字が表示される様子を示す図である。図5(d)は,表示板におけるキャラクタが翻訳された様子を示す図である。 図6は,情報表示装置を用いた表示例を示す図である。 図7は,上記とは別の本発明の情報表示装置の動作例を説明するための図である。 図8は,上記とは別の本発明の情報表示装置の動作例を説明するための図である。
以下,図面に基づいて本発明を実施するための形態について説明する。本発明は,以下の説明に限定されることなく,当業者に自明な範囲で適宜修正を加えたものも含む。
図1は,本発明の情報表示装置を説明するためのブロック図である。図1に示されるように,本発明の情報表示装置1は,撮影部11と,辞書12と,対象物判別部13と,キャラクタ判別部14と,情報抽出部15と,表示部16と,を含む。
情報表示装置は,撮影部11及び表示部16を有するものであればどのような形態のものであってもよい。また,情報表示装置は,撮影部11が情報表示装置から離れた位置に存在し,撮影部11が撮影した情報を受信して表示部16に表示するものであってもよい。さらに,情報表示装置は,表示部16が情報表示装置から離れた位置に存在するものであってもよい。情報表示装置の例は,2画面式携帯用ゲーム機,1画面式携帯用ゲーム機,携帯電話,カメラ,携帯型パーソナルコンピュータ,及び携帯端末である。
撮影部11は,対象物を撮影するための装置である。撮影部11の例は,カメラである。カメラの例は,CCDカメラである。CCDカメラは,たとえば,動画撮影モードを用いる。この場合,たとえば1/30秒ごとに被写体を捕らえて,ビデオメモリなどの画像記憶部へ連続的に記憶させる。
辞書12は,複数のキャラクタに関連した情報を記憶する電子的な辞書である。辞書の例は,英和辞書,和英辞書,国語辞典,地名事典,及び名称事典である。
辞書12は,対象物の種類に応じたデータベースを有することが好ましい。対象物の種類の例は,書籍,ノート,ポスター,地図,ゲーム画面,人形,表札及び看板である。
対象物判別部13は,撮影部11で撮影された対象物の種類を判別するための装置である。
対象物判別部13は,対象物のうちキャラクタ以外の部分の色情報を用いて,対象物の種類を判別するものであってもよい。対象物判別部13は,対象物のうちキャラクタ以外の部分の色情報と,キャラクタの色情報とを用いて,対象物の種類を判別するものであってもよい。
この対象物判別部13は,例えば,キャラクタ以外の部分の色と対象物の種類とを関連付けたテーブルを有する。そして,キャラクタ以外の部分の色情報に基づいて,そのテーブルから対象物の種類に関する情報を読み出す。また,この対象物判別部13の別の例は,キャラクタの色及びキャラクタ以外の部分の色と対象物の種類とを関連付けたテーブルを有する。この場合も,撮影部11が撮影した対象物からキャラクタ部分を判別し,その上でキャラクタ部分の色及びキャラクタ以外の部分の色を判別する。そして,得られた色情報を用いてテーブルから対象物の種類に関する情報を抽出する。
対象物判別部13は,撮影部11の向きに基づいて,対象物の種類を判別するものであってもよい。たとえば,情報表示装置は,コンパスを有している。コンパスは,情報表示装置の向きを把握するものである。情報表示装置の向きを把握できれば,撮影部11の向きをも把握することができる。すなわち,この対象物判別部13は,コンパスと,コンパスからの情報に基づいて撮影部11の向きを判断する向き判断部と,撮影部11の向きと対象物の種類とを関連付けて記憶するテーブルを有するものである。コンパスからの情報を受け取った向き判断部が情報表示装置の向き及び撮影部の向きを判別する。そして,この対象物判別部13は,求められた撮影部の向きに基づいてテーブルから対象物の種類を判別する。このようにして,容易に対象物を推測することができる。
対象物判別部13は,入力情報に基づいて,対象物の種類を判別するものであってもよい。たとえば,表示部16に,対象物の種類を選択させる表示が表示される。そして,表示部16がタッチパネルである。そして,ユーザがタッチパネルを用いて対象物の種類を選択する。すると,タッチパネルから対象物の種類に関する情報が情報表示装置に入力される。そして,情報表示装置は,入力された対象物の種類に関する情報を用いて後述する処理を行う。
対象物判別部13は,撮影部11と,対象物との距離に基づいて,対象物の種類を判別するものであってもよい。カメラは通常対象物との距離を測定するための距離測定手段を有している。そして,この対象物判別部13は,そのような距離測定手段を有する。距離測定手段を有するため,たとえば,遠方にある対象物は看板であるといったように対象物の種類を判別できる。
キャラクタ判別部14は,撮影部11で撮影された対象物に含まれるキャラクタを判別するための装置である。キャラクタ判別部14の例は,OCR又はOMRである。
情報抽出部15は,対象物の種類及びキャラクタに基づいて,辞書12から,このキャラクタに対応した情報を抽出するための装置である。
表示部16は,情報抽出部15により抽出されたキャラクタに対応した情報を表示するための装置である。
次に,上記した情報表示装置の動作例について説明する。まず,撮影部11が対象物を撮影する。この撮影は,連続的に行われる。撮影頻度は,たとえば1/30秒である。このため,撮影部11は,情報表示装置がわずかでも移動した瞬間に,被写体の異なる部分を撮影することとなる。すると,撮影部11が撮影した画像は,画像処理部31へ伝えられる。画像処理部31は,撮影部11から受け取った情報を分析して,表示部16に表示できる画像となるよう処理を行う。画像処理部31は,撮影部11から受領した画像情報を連続的にビデオメモリなどの画像記憶部32に伝え,画像記憶部32は画像情報を一時的に記憶する。
一方,画像処理部31が処理を行った画像は,判別部33へ伝えられる。判別部33には,OCR及びOMRが含まれている。そして,OCR又はOMRが,画像に含まれるキャラクタを判別する。OCR及びOMRによるキャラクタ判別処理は既に知られている。
また,判別部33は,対象物の種類を判別する。判別部33に含まれる対象物判別部13は,例えば,対象物のうちキャラクタ以外の部分の色情報と,テーブルとを用いて対象物の種類を判別する。対象物のうちキャラクタ以外の部分の例は,キャラクタの背景色である。この場合,判別部33は,対象物のうちキャラクタ以外の部分の色情報と対象物の種類とを関連付けたテーブルを有する。そして,キャラクタ以外の部分の色情報に基づいて,そのテーブルから対象物の種類に関する情報を読み出す。この例は,キャラクタの背景が白〜クリーム色であれば,対象物は書類というものである。判別部33で判別された情報は適宜,判別情報記憶部34に記憶される。
情報抽出部15は,対象物の種類に関する情報を用いて,辞書12のうち対象物の種類に応じたデータベースを選択する。すなわち,辞書は,対象物の種類に対応した複数のデータベースを有している。情報抽出部15は,対象物の種類に関する情報を用いて,辞書12のうち対象物の種類に応じたデータベースを選択する。その上で,情報抽出部15は,キャラクタに基づいて,選択されたデータベースから,このキャラクタに対応した情報を抽出する。
情報抽出部15が抽出した情報は,画像調整部34にて表示部16に表示されるものに調整される。そして,画像調整部34から表示情報を受け取った表示部16は,次の撮影画像が撮影される前に所定の情報を表示する。これにより,この情報表示装置は,対象語について適切な対応情報(訳など)をリアルタイムに次々と表示でき,リアルタイムレスポンスが可能となる。
上記の動作は,制御部41からの制御指令に基づいて行われる。例えば,入力部42から所定の情報が制御部41に入力されると,制御部41は主記憶部43に記憶されたメインメモリから制御プログラムを読み出す。そして,制御部41は,読み出した制御プログラムからの指令に基づいて各種演算部に所定の演算処理を行わせる。そして,制御部41は,得られた演算結果を表示部16や出力部44から出力する。
図2は,情報表示装置を用いた表示例を示す図である。この例は,情報表示装置が2画面携帯型ゲーム機の場合のものである。この例では,ゲーム機のカメラを用いて英語の本を写している。すると,情報表示装置は,撮影対象が書籍であると認識する。右画面に,カメラから撮影された英語の本のページが表示される。そして,右画面には,翻訳対象となる語を抽出するため翻訳対象語指示表示がなされている。
そして,左画面には,右画面において指定された翻訳対象語に対応する英和辞書の該当部分が表示されている。図2に示す例では,特に翻訳語を指定する必要がなく,カメラで英語の本を連続的に撮影している間に翻訳領域に存在する語が自動的に翻訳される。一方,情報表示装置が移動すると翻訳対象語が変化するため,入力ボタンのいずれかを押すことで,翻訳対象語が変化する事態を防止するようにしてもよい。この場合,いずれかのボタンから入力を受けた情報表示装置は,現在表示されている語(図2の場合では“dustpan”を表示させ続けるように処理すればよい。
図2に示す例では,右画面に翻訳対象領域が指定されている。一方,翻訳対象領域は,図2に示される十字キーを用いて適宜移動できるものであってもよい。この場合,十字キーから翻訳対象領域が移動する旨の指令が情報表示装置に入力される。すると,情報表示装置は,制御プログラムからの指令に基づいて,翻訳対象領域を移動させるための演算処理を行うとともに,モニタが移動した後の翻訳対象領域を表示するように表示処理を行う。
図3は,情報表示装置を用いた表示例を示す図である。この例は,ゲーム機のカメラを用いて空港の表示板を写している。この例では,右画面の選択語“China”に対応する英和辞書の部分が左画面に表示されている。この例では,ユーザは表示板を撮影するため,撮影部を下向きではなく,上方に向ける。そして,情報表示装置に内蔵されるコンパスは,撮影部の向きが上方であることを感知し,制御部へ伝える。すると,制御部は,制御プログラムの指令を受け,対象物判別部13に対象物を判別させる。その結果,対象物判別部13は,撮影部の角度が所定値以上であるという情報に基づいて,対象物が書籍ではないと判断する。そして,情報抽出部15は,対象物が書籍ではないという情報に基づいて辞書12中のデータベースを選択する。その上で,適切な辞書部分を抽出し,表示してもよい。
図4は,上記とは別の本発明の情報表示装置を説明するためのブロック図である。図4に示されるように,この情報表示装置1は,撮影部11と,辞書12と,対象物判別部13と,キャラクタ判別部14と,情報抽出部15と,表示部16と,キャラクタ色判別部17と,キャラクタ背景判別部18と,キャラクタ表示判別部19と,重畳表示制御部20とを含む。
図4に示される情報表示装置のうち図1と同じ要素については,記載を引用することで説明を省略する。ただし,この情報表示装置は,対象物の種類に基づいてキャラクタ情報が抽出されてもされなくてもよい。
キャラクタ色判別部17は,キャラクタの色を判別するための装置である。例えば,カラーコードはコード情報の色を判別する識別手段である。本発明では,例えば,カラーコードに用いられている色判別装置を用いることで,キャラクタの色を判別することができる。
キャラクタ背景判別部18は,対象物のうちキャラクタの周辺の色を判別するための装置である。OCM又はOMRを用いてキャラクタを推測した場合,対象物のうちキャラクタを除いた部分が発生する。この対象物のうちキャラクタを除いた部分がキャラクタの周辺の色である。このキャラクタの周辺の色も既に知られた装置を用いて判別することができる。
キャラクタ表示判別部19は,キャラクタの表示部16における位置,大きさ,及び角度を判別するための装置である。OCR及びOMRは,通常キャラクタを判別できればよいため,キャラクタの位置,大きさ,角度に関する情報を求めた後,これらの情報を捨てる。本発明では,キャラクタの位置,大きさ,角度に関する情報を求めて記憶部に記憶する。そして,キャラクタに翻訳語の語を重畳させる際に,翻訳前のキャラクタの位置,大きさ,角度に関する情報を用いる。
重畳表示制御部20は,キャラクタに対応した情報を表示部16に表示される対象物に重畳して表示するための装置である。
図5は,重畳表示を説明するための図である。図5(a)は情報表示装置を介さない表示板を示す。この表示板が存在する空港における風景を情報表示装置が撮影する。すると,情報表示装置が,表示板に含まれるキャラクタ“China”を認識する。情報表示装置はさらに,この文字の表示部16における位置,大きさ,及び角度を把握する。これらの情報を一時記憶部35に記憶する。そして,情報表示装置は,情報表示装置の向きから撮影対象が書籍ではないと判断し,翻訳用の辞書として地名事典及び名称事典を選択する。その上で,情報表示装置は,地名事典から,用語“China”に対応する翻訳語として“中国”を選択する。通常の辞書を用いるとChinaからは磁器,瀬戸物という意味も生ずる。この場合に,地名事典から用語を選択したために,“China”の訳語として磁器と表示される事態を防止できる。
次に,重畳表示制御部20は,このキャラクタ“China”が消えるように“China”の部分を含む領域を表示板の色で覆う。この場合,重畳画像制御部20は,キャラクタ背景判別部18から,キャラクタ背景(対象物のうちキャラクタの周辺部分)の色情報を得る。そして,記憶部からキャラクタを覆うための適切な色情報を得る。さらに,重畳画像制御部20は,キャラクタ表示判別部から表示部16におけるキャラクタの位置や大きさに関する情報を得る。そして,重畳画像制御部20は,表示部16におけるキャラクタの位置や大きさに関する情報を用いて,そのキャラクタを覆うような多角形を求めて,先に求めた色の多角形をキャラクタに重畳する。このようにすると,キャラクタが擬似的に消滅する。図5(b)はキャラクタを背景色で覆った際の概念図である。
そして,重畳表示制御部20は,表示板における“China”の位置,大きさ,及び角度に関する情報を用いて,表示板に“China”の位置,大きさ,及び角度に対応した“中国”の文字を表示する。図5(c)は,表示板における“China”に変えて,“中国”の文字が表示される様子を示す図である。先に説明したようにして,“China”の訳語として中国が選択される。そして,重畳画像制御部20は,キャラクタ表示判別部から表示部16におけるキャラクタの位置や大きさに関する情報を得る。重畳画像制御部20は,“中国”の語が,得られたキャラクタの位置や角度に一致するよう演算処理を行う。さらに重畳画像制御部20は,先にキャラクタと覆うために用いた多角形に“中国”の語が収まるように演算処理をする。このようにすることで,違和感のない状態で翻訳語を表示させることができる。図5(d)は,表示板におけるキャラクタが翻訳された様子を示す図である。なお,図5に示す例では,一語のみが翻訳されている。しかし,たとえば,モニタに表示されるすべての語について翻訳語がモニタに表示されるようにしてもよい。この場合も,先に説明したと同様の処理を行うことで,すべての語の翻訳語をモニタに表示できる。
図6は,本発明の情報表示装置が携帯電話により実装された例を示す。この例では,文章中のdustpanが“ちりとり”に訳されて表示されている。なお,この処理は上記した図5の処理と同様である。
図7は,上記とは別の本発明の情報表示装置の動作例を説明するための図である。この情報表示装置における表示部16は,タッチパネルである。図2と同様に2画面用ゲーム機の右側の画面に英文が表示される。この際,撮影部が撮影した静止画を記憶して,静止画を右画面に表示してもよい。この例では,英文の一部が表示される。そして,ユーザがタッチペンを用いてタッチパネルをタッチする。すると,タッチペンにより指示された語が選択される。図7に示されるように,選択された文字部分には選択マーカーが表示される。英文中の文字が選択されると,その英単語に対応する英和辞書の該当部分が左画面に表示される。
図8は,上記とは別の本発明の情報表示装置の動作例を説明するための図である。この情報表示装置は,情報抽出部15が,辞書12から,キャラクタに対応した最適語を1つ抽出するものである。最適語は,先に説明したとおり,対象物の種類に関する情報を用いて辞書12を選択し,抽出してもよい。たとえば,対象物が書物以外であれば,辞書12として地名辞書に対応する語があれば,その語を他の辞書から得られる語より優先させて,最適語と判断するようにしてもよい。この態様の情報表示装置は,対象物の種類に関する情報を用いることなく,最適語を抽出してもよい。
辞書12は,たとえば,ある単語に関連した複数の訳語を有しており,それぞれの訳語を使用頻度とともに記憶しているものであってもよい。たとえば,ある単語「A」について,辞書には,訳として,「あ」,「い」,及び「う」が格納されているとする。この場合,「あ」,「い」及び「う」についてそれぞれ1位,2位,及び3位が振られている。そして,たとえば,本発明の情報表示装置が,単語「A」を訳す場合,辞書にアクセスし,最も順位の高い「あ」を最適語として,表示部に表示させるようにすればよい。なお,後述するように「あ」が誤っていることが情報表示装置へ入力された場合は,辞書にアクセスして,「あ」の次の順位である「い」を読み出して,表示部に表示するようにしてもよい。
本発明の情報表示装置は,単語の訳と,文章に含まれる頻度の高い語とを関連付けて記憶した共起データベースを有するものであってもよい。たとえば,単語「prescription」は,「処方箋」,「助言」,「規則」,及び「時効」といった訳が存在する。共起データベースは,たとえば,単語「prescription」に関連する「処方箋」と関連させて,疾患,薬又は薬局に関する語(「diabetes」,「drag」,「medicament」,「pharmacie」)を格納すればよい。このようにすれば,たとえば,訳の対象語が「prescription」であり,「prescription」の前後に,疾患,薬又は薬局に関する語が存在すれば,本発明の情報表示装置は,「処方箋」を最適語として抽出する。他の語も同様である。たとえば,「時効」と関連して,「damage」,「account of profit」,「criminal offence」などの語を格納すればよい。
図8に示す例は,対象語としての「prescription」という語をカメラが撮影した部分に含まれた単語「diadetes」を用いて,「処方箋」と訳して表示したものである。
この情報表示装置は,対象語を翻訳する際に,対象語と同一の行にある語,又はカメラにより撮影された箇所に含まれる語を記憶部に記憶する。そして,情報表示装置は,辞書に記憶されている対象語の訳の関連語をも読み出す。その上で,記憶部に記憶された語に関連語が含まれているか否か判断する演算処理を行う。このようにすることで,訳語を選択するための共起判断処理を行うことができる。
これにより,この情報表示装置は,対象語の翻訳を1つだけ適切に表示できる。このため,対象語が変化した瞬間に,変化後の対象語に適切に対応した翻訳語を1つリアルタイムに表示することができることとなる。
図8に示されるように,この態様の情報表示装置は,最適語を表示するとともに,表示された最適語が誤っている場合に表示された最適語が誤っていることの入力を促す表示を行う。図中,符号21は,最適語が誤っていることの入力を促すための表示である。
先に説明した処理により,情報表示装置の表示部に,最適語が表示される。一方,ユーザがこの訳は適切ではないと判断した場合,次の訳語候補を表示させたいと考える。このユーザは,たとえば,最適語が誤っていることの入力を促すための表示21をタッチする。すると,表示部がタッチパネル式の入力部となっているため,最適語が誤っていることについての情報が情報表示装置へ入力される。この入力情報を受け取った情報表示装置の制御部は,改めて辞書2にアクセスし,2番目に順位の高かった訳語を読み出して,表示部に表示する。
なお,本発明は,コンピュータを上記した情報表示装置として機能させるためのプログラムも提供し,さらにそのプログラムを格納したコンピュータ読み取り可能な情報記録媒体をも提供する。また,本発明は,上記した情報処理装置による情報処理方法も提供する。
本発明は,学習用機器や旅行用ツールとして有効に利用されうる。
1 情報表示装置
11 撮影部
12 辞書
13 対象物判別部
14 キャラクタ判別部
15 情報抽出部
16 表示部
17 キャラクタ色判別部
18 キャラクタ背景判別部
19 キャラクタ表示判別部
31 画像処理部
32 画像記憶部
33 判別部
34 画像調整部
35 一時記憶部
41 制御部
42 入力部
43 主記憶部
44 出力部

Claims (1)

  1. 対象物を撮影するための撮影部(11)と,
    複数のキャラクタに関連した情報を記憶する辞書(12)と,
    前記撮影部(11)で撮影された対象物の種類を判別するための対象物判別部(13)と,
    前記撮影部(11)で撮影された対象物に含まれるキャラクタを判別するためのキャラクタ判別部(14)と,
    前記対象物判別部(13)により判別された対象物の種類及び前記キャラクタ判別部(12)により判別されたキャラクタに基づいて,前記辞書(12)から,このキャラクタに対応した情報を抽出する情報抽出部(15)と,
    前記情報抽出部(15)により抽出されたキャラクタに対応した情報を表示するための表示部(16)と,を含む情報表示装置であって,
    前記対象物判別部(13)は,
    前記撮影部(11)の向きを把握するコンパスと,前記コンパスからの情報に基づいて前記撮影部(11)の向きを判断する向き判断部と,前記撮影部(11)の向きと対象物の種類とを関連付けて記憶するテーブルを有し,前記撮影部(11)の向きに基づいて,対象物の種類を判別するものであり,
    前記辞書(12)は,
    対象物の種類に応じたデータベースを有する辞書であり,
    前記情報抽出部(15)は,
    前記対象物判別部(13)により判別された対象物の種類を用いて前記辞書(12)に含まれる対象物の種類に応じたデータベースを選択し,
    前記キャラクタ判別部(12)により判別されたキャラクタに基づいて,選択されたデータベースから,このキャラクタに対応した情報を抽出するものであり,
    前記表示部(16)は,前記撮影部(11)により撮影された対象物を表示するものであり,
    前記キャラクタの色を判別するキャラクタ色判別部(17)と,
    前記対象物のうち前記キャラクタの周辺の色を判別するキャラクタ背景判別部(18)と,
    前記キャラクタの前記表示部(16)における位置,大きさ,及び角度を判別するキャラクタ表示判別部(19)と,
    前記キャラクタに対応した情報を前記表示部(16)に表示される対象物に重畳して表示するための重畳表示制御部(20)と,
    を含み,
    前記重畳表示制御部(20)は,
    前記キャラクタ表示判別部(19)が判別した前記キャラクタの前記表示部(16)における位置,大きさ,及び角度と,前記キャラクタ色判別部(17)が判別した前記キャラクタの色とに基づいて前記キャラクタに対応した情報を表示し,
    前記キャラクタ背景判別部(18)が判別した前記対象物のうち前記キャラクタの周辺の色に基づいて,前記キャラクタが前記表示部に表示されないように前記キャラクタの周辺の色を,前記キャラクタに重畳して表示する
    情報表示装置。
JP2009293667A 2009-12-25 2009-12-25 リアルタイムなカメラ辞書 Active JP4759638B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009293667A JP4759638B2 (ja) 2009-12-25 2009-12-25 リアルタイムなカメラ辞書
KR1020127007995A KR20120069699A (ko) 2009-12-25 2010-12-07 정보 표시 장치
EP10838888.5A EP2518605A4 (en) 2009-12-25 2010-12-07 Real-time camera dictionary
PCT/JP2010/007101 WO2011077648A1 (ja) 2009-12-25 2010-12-07 リアルタイムなカメラ辞書
US13/497,360 US8903131B2 (en) 2009-12-25 2010-12-07 Real-time camera dictionary

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009293667A JP4759638B2 (ja) 2009-12-25 2009-12-25 リアルタイムなカメラ辞書

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010131545A Division JP4923134B2 (ja) 2010-06-08 2010-06-08 リアルタイムなカメラ辞書

Publications (2)

Publication Number Publication Date
JP2011134144A JP2011134144A (ja) 2011-07-07
JP4759638B2 true JP4759638B2 (ja) 2011-08-31

Family

ID=44195202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009293667A Active JP4759638B2 (ja) 2009-12-25 2009-12-25 リアルタイムなカメラ辞書

Country Status (5)

Country Link
US (1) US8903131B2 (ja)
EP (1) EP2518605A4 (ja)
JP (1) JP4759638B2 (ja)
KR (1) KR20120069699A (ja)
WO (1) WO2011077648A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9082035B2 (en) * 2011-08-29 2015-07-14 Qualcomm Incorporated Camera OCR with context information
JP5620414B2 (ja) 2012-01-18 2014-11-05 株式会社スクウェア・エニックス ゲーム装置
WO2013114988A1 (ja) * 2012-02-03 2013-08-08 日本電気株式会社 情報表示装置、情報表示システム、情報表示方法およびプログラム
JP2014174974A (ja) * 2013-03-07 2014-09-22 Yukinaga Honda カメラつき電子辞書
JP6317772B2 (ja) * 2013-03-15 2018-04-25 トランスレート アブロード,インコーポレイテッド 外国語の文字セットおよびそれらの翻訳を資源に制約のあるモバイル機器上にリアルタイムで表示するためのシステムおよび方法
CN105308535A (zh) * 2013-07-15 2016-02-03 英特尔公司 无需用手的协助
JP2015069234A (ja) * 2013-09-26 2015-04-13 シャープ株式会社 表示処理装置、並びにその制御方法および制御プログラム
JP2015069365A (ja) 2013-09-27 2015-04-13 シャープ株式会社 情報処理装置、および制御プログラム
JP6234188B2 (ja) 2013-11-27 2017-11-22 シャープ株式会社 翻訳表示装置、翻訳表示方法、および制御プログラム
JP6364182B2 (ja) 2013-11-28 2018-07-25 シャープ株式会社 文字列認識装置および文字列認識方法
US9607015B2 (en) 2013-12-20 2017-03-28 Qualcomm Incorporated Systems, methods, and apparatus for encoding object formations
JP6812387B2 (ja) * 2018-07-02 2021-01-13 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
WO2024194936A1 (ja) * 2023-03-17 2024-09-26 マクセル株式会社 携帯情報端末及び仮想現実オブジェクトの表示方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212992A (ja) * 1998-01-27 1999-08-06 Sharp Corp 画像ファイリングシステムおよび画像ファイリングシステムを制御するプログラムを記録した記録媒体
JP3383228B2 (ja) 1998-11-09 2003-03-04 シャープ株式会社 ヘッドマウントディスプレイ装置
JP2003010543A (ja) 2001-06-29 2003-01-14 Square Co Ltd ビデオゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体及びビデオゲームのプログラム及びビデオゲーム処理方法及びビデオゲーム処理装置
JP2003302996A (ja) * 2002-04-11 2003-10-24 Yamagata Univ Research Institute 情報処理システム
JP2005044052A (ja) * 2003-07-25 2005-02-17 Hitachi Ltd 携帯型文字認識装置
US7916948B2 (en) * 2004-01-08 2011-03-29 Nec Corporation Character recognition device, mobile communication system, mobile terminal device, fixed station device, character recognition method and character recognition program
US20060083431A1 (en) * 2004-10-20 2006-04-20 Bliss Harry M Electronic device and method for visual text interpretation
JP2006146454A (ja) * 2004-11-18 2006-06-08 Sony Corp 情報変換装置および情報変換方法
JP2006309314A (ja) * 2005-04-26 2006-11-09 Konica Minolta Photo Imaging Inc 翻訳装置
JP2007280166A (ja) * 2006-04-10 2007-10-25 Nikon Corp 電子辞書
US20080317346A1 (en) * 2007-06-21 2008-12-25 Microsoft Corporation Character and Object Recognition with a Mobile Photographic Device
JP5338063B2 (ja) * 2007-10-31 2013-11-13 富士通株式会社 画像認識プログラム、画像認識装置および画像認識方法
JP3164748U (ja) * 2010-10-01 2010-12-16 株式会社スクウェア・エニックス 情報処理装置

Also Published As

Publication number Publication date
EP2518605A1 (en) 2012-10-31
KR20120069699A (ko) 2012-06-28
WO2011077648A1 (ja) 2011-06-30
EP2518605A4 (en) 2018-01-17
US8903131B2 (en) 2014-12-02
JP2011134144A (ja) 2011-07-07
US20120250943A1 (en) 2012-10-04

Similar Documents

Publication Publication Date Title
JP4759638B2 (ja) リアルタイムなカメラ辞書
TW201322050A (zh) 電子設備及其文本導讀方法
CN103294766B (zh) 基于文档图像将文档与笔划进行关联
TW201322049A (zh) 電子設備及其文本導讀方法
CN111160333A (zh) Ar眼镜及其文本翻译方法、装置和计算机可读存储介质
JP4790080B1 (ja) 情報処理装置,情報表示方法,情報表示プログラム,及び記録媒体
JP4443194B2 (ja) 携帯端末の文字認識における処理対象選択方法および携帯端末
US5887086A (en) Image pick-up apparatus
JP4923134B2 (ja) リアルタイムなカメラ辞書
JP2003345335A (ja) 読取補助画像表示装置
JP3164748U (ja) 情報処理装置
JP5991323B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP6399371B1 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP4474231B2 (ja) 文書リンク情報取得システム
JP2023048730A (ja) 情報処理装置およびプログラム
JP6408055B2 (ja) 情報処理装置、方法及びプログラム
JP2006145988A (ja) 情報重畳表示装置及び情報重畳表示システム
JP5605208B2 (ja) 辞書機能を備えた電子機器およびプログラム
JP5220684B2 (ja) 感覚情報表現サーバ、感覚情報表現システム、及び感情表現方法
JP7231529B2 (ja) 情報端末装置、サーバ及びプログラム
JP2007241370A (ja) 携帯装置及び撮像装置
JP6677410B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
KR100983779B1 (ko) 도서 정보 서비스 장치 및 방법
JP6424920B2 (ja) 情報処理装置、情報検索方法、及びプログラム
JP2005352249A (ja) 資料提示装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110526

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110606

R150 Certificate of patent or registration of utility model

Ref document number: 4759638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250