JP2005267380A - 表示文字翻訳装置及びコンピュータプログラム - Google Patents

表示文字翻訳装置及びコンピュータプログラム Download PDF

Info

Publication number
JP2005267380A
JP2005267380A JP2004080644A JP2004080644A JP2005267380A JP 2005267380 A JP2005267380 A JP 2005267380A JP 2004080644 A JP2004080644 A JP 2004080644A JP 2004080644 A JP2004080644 A JP 2004080644A JP 2005267380 A JP2005267380 A JP 2005267380A
Authority
JP
Japan
Prior art keywords
character
user
translation
display
eyeball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004080644A
Other languages
English (en)
Inventor
Tanev Ivan
タネ イワン
Katsunori Shimohara
勝憲 下原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004080644A priority Critical patent/JP2005267380A/ja
Publication of JP2005267380A publication Critical patent/JP2005267380A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Machine Translation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 使用者の注視点を検出しつつ、表示画面上の文字と認識すべき対象物が映っている領域を容易に特定することができ、認識文字を正確に翻訳することが可能な表示文字翻訳装置及びコンピュータプログラムを提供する。
【解決手段】 使用者の顔面に対して照射した赤外線光の反射光に基づいて使用者の眼球の位置を特定し、該眼球の位置に基づいて使用者の表示画面上の注視点位置を検出し、検出した注視点位置に表示されている表示文字と文字パターン辞書とを照合し、一又は複数の認識候補文字を抽出し、抽出した一又は複数の認識候補文字と翻訳辞書とを照合して翻訳結果を表示出力する。認識候補文字については翻訳前の言語の読みで音声出力する。
【選択図】 図4

Description

本発明は、撮影された画像に映っている文字を、使用者の注視点に応じて文字認識し、認識した文字について翻訳して画面上に表示する表示文字翻訳装置及びコンピュータプログラムに関する。
従来、画面上に表示された画像に映っている文字を認識するためには、使用者が、表示されている画面から文字と認識すべき対象物が映っている領域を特定し、特定した領域内に表示されている対象物を辞書に登録してある文字パターンと照合することにより、認識文字を特定していた。したがって、文字と認識すべく対象物を含む領域を使用者がマウス、タブレット等のデバイスを介して特定する必要があり、文字認識を即時的に行うことができなかった。
また、文字の存在を認識した場合であっても、認識した文字が使用者にとって馴染みのない言語である場合、辞書を用いるために必要な情報である読み、特徴(例えば漢字の辺や作り等)を抽出することができず、文字の意味を知ることは困難であった。
斯かる課題に対応すべく、使用者の注視点を検出することで、文字認識を行う対象物を特定し、文字認識処理を行う文字認識装置が多々開発されている。例えば、眼球の位置の検出装置をカメラのファインダーなどに固定し、眼球に赤外光等を照射し視線方向を得ることにより注視点を検出し、注視点に基づいて文字認識の対象を特定しようというものである。
また、文字パターンを登録する辞書に、文字の意味情報を登録した辞書を連携させ、文字認識を終了した時点で、認識文字の意味を検出することができる表示文字翻訳装置も開発されている。
しかし、上述した方法では、使用者の注視点を検出することはできるものの、使用者の体が固定されない限り注視点を特定することは困難であり、特に変動しやすい頭部の動きに連動する注視点に対して、文字と認識すべき対象物が映っている画像と連携させることが困難となり、実用化の観点から問題があった。
すなわち、オフィス、家庭等における通常の作業環境では、使用者は多種多様な姿勢で作業を行う。したがって、斯かる姿勢それぞれに対応した眼球位置の特定は困難であることから、注視点を定めること、すなわち表示画面上のどこを注視しているのか特定することが困難となる。
また、ヘルメット型のセンサを装着することで、眼球位置の移動の相対位置を制限することはできるが、表示画面を見ながら何らかの操作を行う場合、必ずしも表示画面を正視しているとは限らず、頭の位置が常時ゆれ動き、位置を特定することができないという問題点もあった。
本発明は斯かる事情に鑑みてなされたものであり、使用者の注視点を検出しつつ、表示画面上の文字と認識すべき対象物を容易に特定することができ、認識文字を正確に翻訳することが可能な表示文字翻訳装置及びコンピュータプログラムを提供することを目的とする。
上記目的を達成するために第1発明に係る表示文字翻訳装置は、使用者による表示画面上の注視点に存在する表示文字を文字パターン辞書と照合して文字認識し、認識した文字を翻訳辞書と照合して翻訳結果を出力することを特徴とする。
第1発明に係る表示文字翻訳装置では、使用者による表示画面上の注視点に存在する表示文字を検出し、検出した表示文字を文字パターン辞書と照合して文字認識し、認識した文字を翻訳辞書と照合することにより翻訳結果を出力する。これにより、使用者が表示画面上の所定の位置に表示されている文字を注視した場合、表示文字につき文字認識することで、略即時的に使用者が注視した表示文字を認識することができるとともに、認識した文字に対する翻訳結果を出力することが可能となる。
また、第2発明に係る表示文字翻訳装置は、使用者の顔面に対して照射した赤外線光の反射光に基づいて前記使用者の眼球の位置を特定し、該眼球の位置に基づいて前記使用者の表示画面上の注視点位置を検出する注視点位置検出手段と、該注視点位置検出手段で検出した注視点位置に表示されている表示文字と文字パターン辞書とを照合し、一又は複数の認識候補文字を抽出する認識候補文字抽出手段と、該認識候補文字抽出手段で抽出した一又は複数の認識候補文字と翻訳辞書とを照合して翻訳結果を出力する翻訳結果出力手段と、該翻訳結果出力手段で出力した翻訳結果を表示する文字表示手段とを備えることを特徴とする。
第2発明に係る表示文字翻訳装置では、使用者の顔面に対して照射した赤外線光の反射光に基づいて使用者の眼球の位置を特定し、該眼球の位置に基づいて使用者の表示画面上の注視点位置を検出し、検出した注視点位置に表示されている表示文字と文字パターン辞書とを照合し、一又は複数の認識候補文字を抽出し、抽出した一又は複数の認識候補文字と翻訳辞書とを照合して翻訳結果を表示する。これにより、使用者の頭の動きに伴って使用者の眼球の位置が少々動いた場合であっても、表示画面上の注視点位置は大きく変動することなく表示文字を特定することができ、注視点位置に表示されている文字を文字認識するとともに、認識した文字に対する翻訳結果を表示出力することで、使用者の注視点に対応する位置に表示されている表示文字に対して略即時的に文字認識処理及び翻訳処理を行うことが可能となる。
また、第3発明に係る表示文字翻訳装置は、第2発明において、前記注視点位置検出手段は、第1の方向に関する眼球の位置を表す第1の位置情報と、前記第1の方向と異なる第2の方向に関する眼球の位置を表す第2の位置情報とを用いて前記使用者の注視点位置を特定すべくなしてあることを特徴とする。
第3発明に係る表示文字翻訳装置では、第1の方向に関する眼球の位置を表す第1の位置情報と、第1の方向と異なる第2の方向に関する眼球の位置を表す第2の位置情報とを用いて使用者の注視点位置を特定している。これにより、複数の方向から眼球の位置を特定することができ、例えば表示画像の上下方向及び左右方向に対応した眼球の位置をより正確に特定することにより、使用者の注視点をより正確に特定することが可能となる。
また、第4発明に係る表示文字翻訳装置は、第2又は第3発明において、前記認識候補文字抽出手段で抽出した一又は複数の認識候補文字を読み上げた音声を出力する音声出力手段を備えることを特徴とする。
第4発明に係る表示文字翻訳装置では、翻訳結果を表示出力するだけでなく、合成音声等により一又は複数の認識候補文字を読み上げた音声を出力する。これにより、使用者は、未知の言語表記が画面に表示されている場合であっても、その読み方について知ることが可能となる。
また、第5発明に係るコンピュータプログラムは、使用者による表示画面上の注視点に存在する表示文字を文字パターン辞書と照合して文字認識するステップと、認識した文字を翻訳辞書と照合して翻訳結果を出力するステップとを含むことを特徴とする。
第5発明に係るコンピュータプログラムでは、使用者による表示画面上の注視点に存在する表示文字を検出し、検出した表示文字を文字パターン辞書と照合して文字認識し、認識した文字を翻訳辞書と照合することにより翻訳結果を出力する。これにより、使用者が表示画面上の所定の位置に表示されている文字を注視した場合、表示文字につき文字認識することで、略即時的に使用者が注視した表示文字を認識することができるとともに、認識した文字に対する翻訳結果を出力することが可能となる。
また、第6発明に係るコンピュータプログラムは、使用者の顔面に対して照射した赤外線光の反射光に基づいて前記使用者の眼球の位置を特定し、該眼球の位置に基づいて前記使用者の表示画面上の注視点位置を検出する注視点位置検出ステップと、該注視点位置検出ステップで検出した注視点位置に表示されている表示文字と文字パターン辞書とを照合し、一又は複数の認識候補文字を抽出する認識候補文字抽出ステップと、該認識候補文字抽出ステップで抽出した一又は複数の認識候補文字と翻訳辞書とを照合して翻訳結果を出力する翻訳結果出力ステップと、該翻訳結果出力ステップで出力した翻訳結果を表示する文字表示ステップとを含むことを特徴とする。
第6発明に係るコンピュータプログラムでは、使用者の顔面に対して照射した赤外線光の反射光に基づいて使用者の眼球の位置を特定し、該眼球の位置に基づいて使用者の表示画面上の注視点位置を検出し、検出した注視点位置に表示されている表示文字と文字パターン辞書とを照合し、一又は複数の認識候補文字を抽出し、抽出した一又は複数の認識候補文字と翻訳辞書とを照合して翻訳結果を表示する。これにより、使用者の頭の動きに伴って使用者の眼球の位置が少々動いた場合であっても、表示画面上の注視点位置は大きく変動することなく表示文字を特定することができ、注視点位置に表示されている文字を文字認識するとともに、認識した文字に対する翻訳結果を表示出力することで、使用者の注視点に対応する位置に表示されている表示文字に対して略即時的に文字認識処理及び翻訳処理を行うことが可能となる。
また、第7発明に係るコンピュータプログラムは、第6発明において、前記注視点位置検出ステップは、第1の方向に関する眼球の位置を表す第1の位置情報と、前記第1の方向と異なる第2の方向に関する眼球の位置を表す第2の位置情報とを用いて前記使用者の注視点位置を特定すべくなしてあることを特徴とする。
第7発明に係るコンピュータプログラムでは、第1の方向に関する眼球の位置を表す第1の位置情報と、第1の方向と異なる第2の方向に関する眼球の位置を表す第2の位置情報とを用いて使用者の注視点位置を特定している。これにより、複数の方向から眼球の位置を特定することができ、例えば表示画像の上下方向及び左右方向に対応した眼球の位置をより正確に特定することにより、使用者の注視点をより正確に特定することが可能となる。
第1発明及び第5発明によれば、使用者が表示画面上の所定の位置に表示されている文字を注視した場合、表示文字につき文字認識することで、略即時的に使用者が注視した表示文字を認識することができるとともに、認識した文字に対する翻訳結果を出力することが可能となる。
第2発明及び第6発明によれば、使用者の頭の動きに伴って使用者の眼球の位置が少々動いた場合であっても、表示画面上の注視点位置は大きく変動することなく表示文字を特定することができ、注視点位置に表示されている文字を文字認識するとともに、認識した文字に対する翻訳結果を表示出力することで、使用者の注視点に対応する位置に表示されている表示文字に対して略即時的に文字認識処理及び翻訳処理を行うことが可能となる。
第3発明及び第7発明によれば、複数の方向から眼球の位置を特定することができ、例えば表示画像の上下方向及び左右方向に対応した眼球の位置をより正確に特定することにより、使用者の注視点をより正確に特定することが可能となる。
第4発明によれば、使用者は、使用者は、未知の言語表記が画面に表示されている場合であっても、その読み方について知ることが可能となる。
以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。図1は、本発明の実施の形態に係る表示文字翻訳装置を構成するコンピュータの構成を示すブロック図である。図1で、1は表示文字翻訳装置であり、少なくとも、CPU(中央演算装置)11、ROM12、RAM13、記憶手段14、外部の通信手段と接続する通信インタフェース15、マウス、キーボード等と接続する入力手段16、スチルカメラ、ビデオカメラ等の撮像装置2、3と接続する画像取得手段17、使用者の眼球の位置を特定すべく使用者の顔の近傍を撮影するカメラと接続するLCD、モニタ等の表示装置181又はスピーカ等の音声出力装置182と接続する出力手段18で構成される。
CPU11は、バス19を介して表示文字翻訳装置1のハードウェア各部を制御すると共に、ROM12に記憶されたコンピュータプログラムに従って、種々のソフトウェア的機能を実行する。
ROM12は、表示文字翻訳装置1の動作に必要な種々のコンピュータプログラムを予め記憶している。RAM13は、SRAM、DRAM等を用いて構成され、コンピュータプログラムの実行時に発生する一時的なデータを記憶する。例えば、累計カウンタとして印刷枚数の累計値を記憶する。
記憶手段14は、ハードディスクに代表される固定型記録媒体、又はDVD、CD−ROM等の可搬型記録媒体であり、実行するプログラムの他、文字パターンを登録してある文字パターン辞書141、及び認識文字を所定の言語に翻訳する翻訳用辞書142を記憶してある。なお、上述した辞書が記憶されているのは、記憶手段14に限定されるものではなく、CPU11がアクセス可能でありさえすれば良く、例えばネットワークを介して接続されている他のコンピュータ上の記憶手段であってもよい。
通信インタフェース15は、外部の通信手段と接続し、必要な情報を送受信する。例えばネットワークを介して接続されている他のコンピュータ上の記憶手段に、文字パターンを登録してある文字パターン辞書、及び認識文字を所定の言語に翻訳する翻訳用辞書等が記憶されている場合、これらを照会するキー情報を送信して、照会結果に関する情報を受信する。
入力手段16は、表示文字翻訳装置1を操作するために必要な情報をマウス、キーボード等を介して入力する。
画像取得手段17は、スチルカメラ、ビデオカメラ等からなる撮像装置2、3と接続してあり、撮像装置2からは翻訳対象を含む画像を取得し、撮像装置3からは使用者の眼球の位置を特定すべく使用者の顔の近傍を撮影した画像を取得する。
出力手段18は、表示装置181又はスピーカ等の音声出力装置182からなる。表示装置181は、液晶表示装置、CRTディスプレイ等の表示装置であり、撮像装置2から取得した翻訳対象を含む画像の表示、翻訳対象となる文字を認識し翻訳した翻訳結果の表示等を行う。音声出力装置182は、翻訳結果を読み上げた音声等を出力する。
図2は、撮像装置3の構成例を示すブロック図である。撮像装置3は、赤外線を検出すべく構成されており、少なくとも発光タイミング指定部31、赤外線発光部32、広範囲撮像用センサ33、眼球撮像部34からなる。
撮像装置3は、表示文字翻訳装置1とデータ送受信することにより、使用者の注視点を特定する注視点位置検出手段として機能する。すなわち、発光タイミング指定部31及び赤外線発光部32は、使用者の顔に対して所定の赤外線を発光照射する。照射された赤外線に基づいて、広範囲撮像用センサ33が、顔全体及びその周りを撮像するとともに距離を測定する。
具体的には、広範囲撮像用センサ33は、発光タイミング指定部31からの指示に基づいて、赤外線発光部32が周期的(少なくとも30Hz以上)に発する赤外線の反射光を測定し、使用者の顔に関する濃淡画像を生成するとともに、発光時点からピーク点を受光するまでの時間を測定し、濃淡画像及びピーク点受光時間を、表示文字翻訳装置1へ送信する。
表示文字翻訳装置1は、受信した濃淡画像及びピーク点受光時間に基づいて眼球の位置を算出し、眼球撮像部34に対して、眼球の存在する位置を撮像するよう駆動指示信号を送信する。図3は、眼球撮像部34の構成例を示すブロック図である。眼球撮像部34は、左右両眼に対応する2系統の駆動部341、追尾用ミラー342、342、2系統の光軸を1つの光軸とするための複数のミラー及びハーフミラー、及び狭範囲撮像用センサ343からなる。
眼球撮像部34は、駆動部341で表示文字翻訳装置1からの駆動指示信号を受信する。駆動部341は、追尾用ミラー342を使用者の眼球に向けるよう駆動し、狭範囲撮像用センサ343は、追尾用ミラー342により導かれた反射波に基づいて使用者の眼球に関する精密な濃淡画像を生成し、表示文字翻訳装置1へ送信する。
表示文字翻訳装置1は、使用者の眼球に関する精密な濃淡画像を受信し、CPU11は受信した濃淡画像に対する解析処理を行って、使用者の注視点位置を検出する。これにより、表示画面のどこを使用者が注視しているのか検出することが可能となる。なお、本実施の形態では、左右両眼に対応する構成について説明しているが、機構の簡素化を図るべく、左右いずれかに対応する構成であってもよい。
上述した構成の表示文字翻訳装置1の動作について説明する。図4は、本発明の実施の形態に係る表示文字翻訳装置1のCPU11の処理手順を示すフローチャートである。表示文字翻訳装置1のCPU11は、撮像装置2で撮影した撮影画像から文字領域を抽出する(ステップS401)。そして、上述した処理を用いてCPU11は、使用者による表示画面上の注視点位置を検出する(ステップS402)。
次に、CPU11は、注視点位置に基づいて、抽出した文字領域に含まれる表示文字について、文字パターン辞書141に登録されている文字パターン画像と照合し(ステップS403)、一又は複数の認識候補文字を抽出して、抽出した認識候補文字毎に評価値を算出する(ステップS404)。
CPU11は、一又は複数の認識候補文字毎に算出した評価値が最も大きいか否かを判断し(ステップS405)、CPU11が、評価値が最も大きいと判断した認識候補文字を認識結果として抽出して(ステップS406)、単語単位で翻訳用辞書142と照合する(ステップS407)。CPU11は、単語単位での翻訳結果を、認識結果とともに表示装置181へ表示出力する(ステップS408)。
図5は、表示装置181での表示画面の具体例を示す図である。図5では、文字領域51として、表示画像上に所定の矩形領域を抽出している。使用者は、上下方向のスクロールバー52、左右方向のスクロールバー53を操作して、翻訳対象となる画像が表示されている部分を文字領域51へ移動する。図6は、上下方向のスクロールバー52、左右方向のスクロールバー53を操作して、翻訳対象となる画像が表示されている部分を文字領域51へ移動した状態を示す図である。図6に示す状態で、使用者の注視点の存在位置を検出して、注視点が文字領域51内に存在するか否かを判別する。
注視点が文字領域51内に存在すると判別した場合、該文字領域に含まれる画像について、文字パターン辞書141に登録されている文字パターン画像と照合し、一又は複数の認識候補文字を抽出して、評価値が最も大きい認識候補文字を認識結果として結果表示領域54に表示する。また、認識結果について、翻訳用辞書142と照合して、翻訳結果についても結果表示領域54に表示する。結果表示領域54は、図6のようにポップアップウィンドウとして表示する形態に限定されるものではなく、認識結果と翻訳結果とを同時に表示できる形態であれば何でもよい。
一般に、スクロールバー52、53を用いた画像移動により、翻訳対象となる画像を文字領域51まで移動させた場合、使用者の注視点は文字領域51内に存在することから、使用者が注視している近傍の画像に基づいて文字認識し、翻訳結果とともに表示することが可能となる。
なお、結果表示領域54には、「音声出力」ボタン55を設け、認識文字の読み方で読み上げる音声を出力してもよい。これにより、使用者は、未知の言語表記が画面に表示されている場合であっても、その読み方について知ることが可能となる。
以上説明したように、本発明ではセキュアモジュールを利用し、プログラムを動的にRAM上に書き込み又はプログラムの呼び出しアドレスを動的に変更することにより、悪意ある第三者にとって解析が困難な形態でプログラムを実行することが可能となる。
本発明の実施の形態に係る表示文字翻訳装置を構成するコンピュータの構成を示すブロック図である。 撮像装置の構成例を示すブロック図である。 眼球撮像部の構成例を示すブロック図である。 本発明の実施の形態に係る表示文字翻訳装置1のCPU11の処理手順を示すフローチャートである。 表示装置での表示画面の具体例を示す図である。 上下方向のスクロールバー、左右方向のスクロールバーを操作して、翻訳対象となる画像が表示されている部分を文字領域へ移動した状態を示す図である。
符号の説明
1 表示文字翻訳装置
2、3 撮像装置
11 CPU
12 ROM
13 RAM
14 記憶手段
15 通信インタフェース
16 入力手段
17 画像取得手段
18 出力手段
141 文字パターン辞書
142 翻訳用辞書

Claims (7)

  1. 使用者による表示画面上の注視点に存在する表示文字を文字パターン辞書と照合して文字認識し、認識した文字を翻訳辞書と照合して翻訳結果を出力することを特徴とする表示文字翻訳装置。
  2. 使用者の顔面に対して照射した赤外線光の反射光に基づいて前記使用者の眼球の位置を特定し、該眼球の位置に基づいて前記使用者の表示画面上の注視点位置を検出する注視点位置検出手段と、該注視点位置検出手段で検出した注視点位置に表示されている表示文字と文字パターン辞書とを照合し、一又は複数の認識候補文字を抽出する認識候補文字抽出手段と、該認識候補文字抽出手段で抽出した一又は複数の認識候補文字と翻訳辞書とを照合して翻訳結果を出力する翻訳結果出力手段と、該翻訳結果出力手段で出力した翻訳結果を表示する文字表示手段とを備えることを特徴とする表示文字翻訳装置。
  3. 前記注視点位置検出手段は、
    第1の方向に関する眼球の位置を表す第1の位置情報と、前記第1の方向と異なる第2の方向に関する眼球の位置を表す第2の位置情報とを用いて前記使用者の注視点位置を特定すべくなしてあることを特徴とする請求項2に記載の表示文字翻訳装置。
  4. 前記認識候補文字抽出手段で抽出した一又は複数の認識候補文字を読み上げた音声を出力する音声出力手段を備えることを特徴とする請求項2又は3記載の表示文字翻訳装置。
  5. 使用者による表示画面上の注視点に存在する表示文字を文字パターン辞書と照合して文字認識するステップと、認識した文字を翻訳辞書と照合して翻訳結果を出力するステップとを含むことを特徴とするコンピュータプログラム。
  6. 使用者の顔面に対して照射した赤外線光の反射光に基づいて前記使用者の眼球の位置を特定し、該眼球の位置に基づいて前記使用者の表示画面上の注視点位置を検出する注視点位置検出ステップと、該注視点位置検出ステップで検出した注視点位置に表示されている表示文字と文字パターン辞書とを照合し、一又は複数の認識候補文字を抽出する認識候補文字抽出ステップと、該認識候補文字抽出ステップで抽出した一又は複数の認識候補文字と翻訳辞書とを照合して翻訳結果を出力する翻訳結果出力ステップと、該翻訳結果出力ステップで出力した翻訳結果を表示する文字表示ステップとを含むことを特徴とするコンピュータプログラム。
  7. 前記注視点位置検出ステップは、
    第1の方向に関する眼球の位置を表す第1の位置情報と、前記第1の方向と異なる第2の方向に関する眼球の位置を表す第2の位置情報とを用いて前記使用者の注視点位置を特定すべくなしてあることを特徴とする請求項6に記載のコンピュータプログラム。
JP2004080644A 2004-03-19 2004-03-19 表示文字翻訳装置及びコンピュータプログラム Pending JP2005267380A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004080644A JP2005267380A (ja) 2004-03-19 2004-03-19 表示文字翻訳装置及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004080644A JP2005267380A (ja) 2004-03-19 2004-03-19 表示文字翻訳装置及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2005267380A true JP2005267380A (ja) 2005-09-29

Family

ID=35091852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004080644A Pending JP2005267380A (ja) 2004-03-19 2004-03-19 表示文字翻訳装置及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2005267380A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020622A (ja) * 2008-07-11 2010-01-28 Panasonic Corp 画像処理装置及び画像処理方法
US8509571B2 (en) 2008-06-11 2013-08-13 Panasonic Corporation Pattern recognition apparatus, pattern recognition method, image processing apparatus, and image processing method
JP2019537103A (ja) * 2016-09-28 2019-12-19 シストラン インターナショナル カンパニー.,リミテッド.Systran International Co.,Ltd. 文字を翻訳する方法及びその装置
WO2020170758A1 (ja) * 2019-02-18 2020-08-27 株式会社ロゼッタ 認識装置、ウェアラブル文字認識デバイス、認識方法および認識プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509571B2 (en) 2008-06-11 2013-08-13 Panasonic Corporation Pattern recognition apparatus, pattern recognition method, image processing apparatus, and image processing method
US8620094B2 (en) 2008-06-11 2013-12-31 Panasonic Corporation Pattern recognition apparatus, pattern recogntion method, image processing apparatus, and image processing method
JP2010020622A (ja) * 2008-07-11 2010-01-28 Panasonic Corp 画像処理装置及び画像処理方法
JP2019537103A (ja) * 2016-09-28 2019-12-19 シストラン インターナショナル カンパニー.,リミテッド.Systran International Co.,Ltd. 文字を翻訳する方法及びその装置
WO2020170758A1 (ja) * 2019-02-18 2020-08-27 株式会社ロゼッタ 認識装置、ウェアラブル文字認識デバイス、認識方法および認識プログラム

Similar Documents

Publication Publication Date Title
EP3467707B1 (en) System and method for deep learning based hand gesture recognition in first person view
US9489574B2 (en) Apparatus and method for enhancing user recognition
US6345111B1 (en) Multi-modal interface apparatus and method
JP3834766B2 (ja) マンマシーン・インターフェース・システム
US9134800B2 (en) Gesture input device and gesture input method
JP4537901B2 (ja) 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム
KR101455200B1 (ko) 학습 모니터링 장치 및 학습 모니터링 방법
US11397320B2 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium
US10788902B2 (en) Information processing device and information processing method
JP2006107048A (ja) 視線対応制御装置および視線対応制御方法
JP2007272534A (ja) 省略語補完装置、省略語補完方法、及びプログラム
US11900931B2 (en) Information processing apparatus and information processing method
JP2000187553A (ja) 入力装置および入力装置用ヘッドマウントディスプレイ
KR102330218B1 (ko) 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법
JP6225612B2 (ja) プログラム、情報処理装置、および方法
US20180126561A1 (en) Generation device, control method, robot device, call system, and computer-readable recording medium
KR20200079748A (ko) 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법
JP2005267380A (ja) 表示文字翻訳装置及びコンピュータプログラム
KR20160024733A (ko) 글라스형 웨어러블 디바이스를 이용한 실내 전자기기 제어방법 및 제어프로그램
WO2020075358A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2009194697A (ja) 指示システム、指示プログラム及び指示装置
JP6374203B2 (ja) 表示システム及びプログラム
KR101629758B1 (ko) 글라스형 웨어러블 디바이스의 잠금해제 방법 및 프로그램
KR101911676B1 (ko) 지시체의 움직임을 고려한 프리젠테이션 영상 처리장치 및 방법
KR101499044B1 (ko) 사용자의 손동작 및 음성에 기초하여 사용자가 의도한 텍스트를 취득하는 웨어러블 컴퓨터 및 사용자가 의도한 텍스트를 취득하는 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070410