JP2007280164A - 電子辞書 - Google Patents

電子辞書 Download PDF

Info

Publication number
JP2007280164A
JP2007280164A JP2006107276A JP2006107276A JP2007280164A JP 2007280164 A JP2007280164 A JP 2007280164A JP 2006107276 A JP2006107276 A JP 2006107276A JP 2006107276 A JP2006107276 A JP 2006107276A JP 2007280164 A JP2007280164 A JP 2007280164A
Authority
JP
Japan
Prior art keywords
unit
character string
electronic dictionary
character
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006107276A
Other languages
English (en)
Inventor
Masahide Tanaka
雅英 田中
Akihiko Kohama
昭彦 小濱
Muneki Hamashima
宗樹 浜島
Kunio Konno
邦男 今野
Masahiko Yomoto
雅彦 與本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006107276A priority Critical patent/JP2007280164A/ja
Publication of JP2007280164A publication Critical patent/JP2007280164A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Position Input By Displaying (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】違和感なく、常時、頭部に装着することができ、簡単な操作で、視野内にある単語または文章を他の形態の単語または文章に変換し、変換された単語または文章を、視野内に表示することができる電子辞書を提供する。
【解決手段】眼鏡ユニット10の視野内にある単語または文章よりなる文字列を撮像可能なカメラ12とカメラによって撮像された文字列の画像信号を、信号伝達線路を介して、翻訳ユニット20に出力する制御部11とを備え、翻訳ユニットが、眼鏡ユニットの制御部から出力される文字列の画像信号を文字認識するOCR24と、OCRによって文字認識された文字列を、信号伝達線路を介して、眼鏡ユニットに出力する制御部21を備え、翻訳ユニットの制御部が、眼鏡ユニットの表示部に表示された文字列を翻訳すべき旨の指示があったときに、文字列を翻訳して、信号伝達線路を介して、眼鏡ユニットに出力するように構成された電子辞書。
【選択図】図3

Description

本発明は、電子辞書に関するものであり、さらに詳細には、違和感なく、常時、頭部に装着することができ、簡単な操作で、視野内にある単語または文章を他の形態の単語または文章に変換し、変換された単語または文章を、視野内に重畳表示することができる電子辞書に関するものである。
意味の分からない言葉を入力して、平易な言葉や同意語に変換し、あるいは、異なる言語に翻訳するために、電子辞書が広く用いられている。
従来の電子辞書は、通常、電卓型などの携帯端末機器として構成され、その原語表示と訳語表示が液晶などのディスプレイに表示されるように構成されているが、特許文献1は、原語表示と訳語表示を、人間の頭部に装着されるヘッドマウントの前方視野に重畳表示させるように構成され、電子辞書機能を有するヘッドマウントディスプレイ装置を提案している。
特許文献1に開示されたヘッドマウントディスプレイ装置によれば、外視野を観察できるとともに、必要に応じて、原語表示と訳語表示を、ヘッドマウントの前方視野に重畳表示させることができ、また、原語表示と訳語表示の選択が、主として視線入力方式によって切り換えられているので、いわゆるハンズフリーな状態で、電子辞書機能を利用することが可能になる。
特開2001−56446号公報
しかしながら、特許文献1に開示されたヘッドマウントディスプレイ装置は大型であるため、頭部に装着した場合に、非常に違和感があり、また、電子辞書機能を利用しない場合には、視野を遮られてしまうため、電子辞書機能を利用しないときは、ヘッドマウントディスプレイ装置を取り外す必要があり、勝手が非常に悪いという問題があった。
また、特許文献1に記載されたヘッドマウントディスプレイ装置においては、原語表示と訳語表示が、主として視線入力方式によって選択されるように構成されているので、電子辞書として利用するためには、熟練を要するという問題もあった。
したがって、本発明は、違和感なく、常時、頭部に装着することができ、簡単な操作で、視野内にある単語または文章を他の形態の単語または文章に変換し、変換された単語または文章を、視野内に表示することができる電子辞書を提供することを目的とするものである。
本発明のかかる目的は、眼鏡ユニットと、前記眼鏡ユニットと別体に形成された文字列変換ユニットと、前記眼鏡ユニットと前記文字列変換ユニットとの間で、信号の授受が可能な信号伝達線路とを備え、前記眼鏡ユニットが、眼鏡レンズと、前記眼鏡ユニットの視野内にある単語または文章よりなる文字列を画像入力する画像入力部と、前記眼鏡ユニットの視野内に、前記文字列変換ユニットから入力された単語または文章よりなる文字列を表示する表示部を形成する表示素子と、前記表示素子を制御するとともに、前記画像入力部によって画像入力された前記文字列の画像信号を、前記信号伝達線路を介して、前記文字列変換ユニットに出力する制御部とを備え、前記文字列変換ユニットが、前記眼鏡ユニットの前記制御部から出力される前記文字列の画像信号を文字認識する文字認識部と、前記文字認識部によって文字認識された前記文字列を、前記信号伝達線路を介して、前記眼鏡ユニットに出力する文字列変換処理部を備え、前記文字列変換ユニットの前記文字列変換処理部が、前記眼鏡ユニットの前記表示部に表示された前記文字列を変換すべき旨の指示があったときに、前記文字列を変換して、前記信号伝達線路を介して、前記眼鏡ユニットに出力するように構成されたことを特徴とする電子辞書によって達成される。
本明細書において、「単語または文章よりなる文字列を変換する」とは、単語または文章よりなる文字列を他の言語に翻訳する場合、単語または文章よりなる文字列をわかりやすい言葉に言い換える場合、単語を同義語に置き換える場合など、単語または文章よりなる文字列を他の形態の単語または文章よりなる文字列に変換することを言う。
本発明によれば、電子辞書は、眼鏡ユニットと、眼鏡ユニットと別体に形成された文字列変換ユニットを備え、眼鏡ユニットの視野内にある単語または文章よりなる文字列を変換する文字列変換処理部は、文字列変換ユニットに設けられているから、眼鏡ユニットは、眼鏡ユニットの視野内にある単語または文章よりなる文字列を画像入力する画像入力部と、眼鏡ユニットの視野内に、文字列変換ユニットから入力された単語または文章よりなる文字列を表示する表示部を形成する表示素子と制御部を備えていればよく、したがって、頭部に装着される眼鏡ユニットのサイズは、通常の眼鏡とほとんど変わらないから、眼鏡ユニットを装着していても、ユーザーが違和感を抱くことはない。したがって、歩行中にも、眼鏡ユニットを装着することができ、眼鏡ユニットを、常時、装着して、電子辞書機能を利用することができる。
また、本発明によれば、変換の対象となる単語または文章よりなる文字列が、眼鏡ユニットの表示部に表示され、眼鏡ユニットの表示部に表示された単語または文章よりなる文字列を変換すべき旨の指示があったときに、単語または文章よりなる文字列を変換するように構成されているから、視線入力方式によって、変換すべき単語または文章よりなる文字列を指定する場合のように、熟練を要することなく、所望の単語または文章よりなる文字列を変換することが可能になる。
以下、添付図面に基づいて、本発明の好ましい実施形態につき、詳細に説明を加える。
図1は、本発明の好ましい実施形態にかかる電子辞書の略斜視図である。
図1に示されるように、本実施形態にかかる電子辞書は、単語または文章の翻訳のための電子辞書として構成され、眼鏡レンズ10aを備えた眼鏡ユニット10と、翻訳ユニット20と、イヤホーン30とを備えている。
翻訳ユニット20は、ペンダント状に形成されており、したがって、本実施形態にかかる電子辞書は、眼鏡ユニット10を、通常の眼鏡と同様に、頭部に装着するとともに、イヤホーン30を耳に装着し、翻訳ユニット20を首にかけた状態で使用することができる。
図1には図示されていないが、眼鏡ユニット10の眼鏡レンズ10aの上側のフレーム10c内には、眼鏡ユニット10の動作を制御する制御ブロックが取り付けられている。制御ブロックには、第1のケーブル36が接続され、第1のケーブル36は、眼鏡ユニット10のつる10b内を通って、つる10bの先端部から延出され、イヤホーン30の接続部31に着脱可能に接続されている。
一方、イヤホーン30の接続部32と翻訳ユニット20の接続部27との間は、第2のケーブル37によって接続されており、したがって、眼鏡ユニット10は、第1のケーブル36、イヤホーン30および第2のケーブル37を介して、翻訳ユニット20に接続されている。
図2は、眼鏡ユニット10の略縦断面図である。
図2に示されるように、眼鏡ユニット10は、眼鏡レンズ10aの略中央部に埋め込まれたホログラムミラー10dと、眼鏡レンズ10aのほぼ全面に、表示素子50(図示せず)を備え、眼鏡レンズ10aの上側のフレーム10c内に取り付けられた制御ブロック40内に、カメラ12を備えている。カメラ12は、モノクロタイプの撮像素子を有している。
図3は、図1に示された電子辞書の電気的構成を示すブロックダイアグラムである。
図3に示されるように、眼鏡ユニット10は、眼鏡レンズ10aの上側のフレーム10cに取り付けられた制御ブロック40と、つる10bの基部に取り付けられた手動操作部45と、眼鏡レンズ10aのほぼ全面に取り付けられた表示素子50と、鼻パッド10eに取り付けられた太陽電池41を備えている。
図3に示されるように、制御ブロック40は、眼鏡ユニット10全体の動作を制御する制御部11と、眼鏡の視野内の翻訳すべき単語または文章を含む文字列を撮像し、文字列の画像信号を生成するカメラ12と、カメラ12によって生成された翻訳すべき単語または文章を含む文字列の画像信号を格納する画像メモリ13と、カメラ12によって生成された文字列の画像信号を、第1のケーブル36および第2のケーブル37によって通信可能な信号形式に処理する信号処理部14と、翻訳すべき単語または文章からなる文字列を記憶する文字列メモリ15と、翻訳された単語または文章からなる文字列を記憶する翻訳文字列メモリ16と、蓄電池を備えた補助電源部18を備えている。
図3に示されるように、蓄電池を備えた補助電源部18は、充電制御回路(図示せず)を介して、眼鏡ユニット10の鼻パッド10eに取り付けられた太陽電池41に接続され、補助電源部18の蓄電池が、太陽電池41によって、充電可能に構成されている。
眼鏡ユニット10の手動操作部45は、ユーザーが、眼鏡のずれを直す際に、自然と手が触れるつる10bの基部に設けられており、図3に示されるように、手動操作部45は、制御ブロック40の制御部11に接続され、電子辞書を起動させる際に操作される電源スイッチ45aと、電子辞書に、眼鏡ユニット10の表示部に表示された翻訳すべき単語または文章からなる文字列の翻訳を開始させる翻訳開始スイッチ45bと、翻訳すべき単語または文章からなる文字列を指定する文字列指定部45cとを備えている。
後述するように、表示素子50は、眼鏡ユニット10の視野内に、単語または文章からなる文字列を特定するための視線マークを形成するととともに、単語または文章からなる文字列を表示し、単語または文章からなる文字列の翻訳結果を表示する表示部を形成する機能を有している。
図3に示されるように、翻訳ユニット20は、翻訳ユニット20全体の動作を制御する制御部21と、ユーザーによって操作可能に構成された手動操作部22と、辞書データベース23と、眼鏡ユニット10から入力された翻訳すべき単語または文章を含む文字列の画像信号を文字認識するOCR24と、眼鏡ユニット10から入力された翻訳すべき単語または文章を含む文字列の画像信号を格納する画像メモリ25と、翻訳すべき単語または文章からなる文字列およびOCR24によって判定された文字列の向きについての判定結果を記憶するメモリ26と、第2のケーブル37が接続される接続部27と、電源部28と、タイマー29と、音声信号を生成して、イヤホーン30に出力する音声変換部35とを備えている。
図3に示されるように、翻訳ユニット20の手動操作部22は、電子辞書を起動させる際に操作される電源スイッチ22aと、制御部21に、眼鏡ユニットの表示部に表示された翻訳すべき単語または文章からなる文字列の翻訳を開始させる翻訳開始スイッチ22bと、翻訳に用いる辞書を指定する辞書指定部22cとを備えている。
辞書データベース23は、辞書を格納したメモリカードなどを、翻訳ユニット20に差し込むことによって、辞書の追加ができるように構成されている。
図3に示されるように、イヤホーン30は、眼鏡ユニット10のつる10bの先端部から延びる第1のケーブル36が接続された接続部31と、第2のケーブル37が接続された接続部32と、音声を発する音声発生部33とを備えている。
図3に示されるように、第1のケーブル36は、眼鏡ユニット10の補助電源部18への充電電源供給ライン36aと、眼鏡ユニット10の信号処理部14の出力信号ライン36bと、眼鏡ユニット10の制御部11と翻訳ユニット20の制御部21との間の入出力信号ライン36cを備え、一方、第2のケーブル37は、眼鏡ユニット10の補助電源部18への充電電源供給ライン37aと、眼鏡ユニット10の信号処理部14の出力信号ライン37bと、眼鏡ユニット10の制御部11と翻訳ユニット20の制御部21との間の入出力信号ライン37cと、イヤホーン30への音声信号出力ライン37dを備えている。
したがって、眼鏡ユニット10の補助電源部18の蓄電池を、翻訳ユニット20の電源部28からの電力によって、充電することができ、翻訳ユニット20からの電源供給が切断されたときにも、眼鏡ユニット10を作動させることができ、たとえば、以前に翻訳され、翻訳文字列メモリ16に保存されている単語または文章からなる文字列の翻訳を、後述する表示部50bに表示させることができる。
以上のように構成された本実施形態にかかる電子辞書は、以下のようにして、文字または文章を翻訳する。
まず、眼鏡ユニット10が、通常の眼鏡と同様に、ユーザーの頭部に装着されるとともに、イヤホーン30が耳に装着され、翻訳ユニット20がユーザーの首にかけられる。
次いで、ユーザーによって、眼鏡ユニット10の手動操作部45の電源スイッチ45aまたは翻訳ユニット20の手動操作部22の電源スイッチ22aが操作されて、電子辞書が起動される。
電子辞書が起動されると、眼鏡ユニット10の制御部11から、表示素子50に表示信号が出力され、図4(A)に示されるように、眼鏡ユニット10の表示素子50により、眼鏡ユニット10の眼鏡視野55のほぼ中央部に、翻訳すべき単語または文章からなる文字列を特定するための十字状の視線マーク50aが形成されるととともに、眼鏡ユニット10の眼鏡視野55の下方に、翻訳すべき単語または文章からなる文字列を表示し、翻訳すべき単語または文章からなる文字列の翻訳結果を表示する表示部50bが形成される。図4(A)において、56は、カメラ12の撮影範囲を示している。
眼鏡ユニット10の眼鏡視野55のほぼ中央部に形成される視線マーク50aの位置と、カメラ12の画面内の位置は、あらかじめ対応付けられており、ユーザーが頭部を動かして、翻訳すべき単語または文章からなる文字列に、視線マーク50aを合わせることによって、翻訳すべき単語または文章からなる文字列を含む画像の範囲が特定される。
翻訳に先立って、ユーザーによって、翻訳ユニット20の手動操作部22の辞書指定部22cが操作されて、翻訳に用いられる辞書が指定される。
図2に示されるように、ユーザーが特定した翻訳すべき単語または文章からなる文字列を含む文字列から、眼鏡レンズ10aに入射した光の一部は、眼鏡レンズ10aの略中央部に設けられたホログラムミラー10dによって、上方に反射され、制御ブロック40のカメラ12に入射し、翻訳すべき単語または文章からなる文字列を含む所望の範囲の画像が、カメラ12によって撮像される。
ここに、ユーザーが両眼で翻訳すべき単語または文章からなる文字列を見ている場合には、翻訳すべき単語または文章からなる文字列までの距離に応じて、眼が輻輳調節をおこなうため、視線の方向が微妙に変化するので、カメラ12に距離測定機能を持たせ、翻訳すべき単語または文章からなる文字列までの距離に応じて、視線マーク50aの位置を変化させるようにすることが好ましい。
カメラ12によって生成された翻訳すべき単語または文章からなる文字列を含む文字列の画像信号は、画像メモリ13に格納された後、信号処理部14によって、通信可能な信号形式に処理されて、第1のケーブル36、イヤホーン30および第2のケーブル37を介して、翻訳ユニット20に送られる。
翻訳ユニット20に送られた翻訳すべき単語または文章からなる文字列を含む文字列の画像信号は、制御部21に入力され、制御部21は、眼鏡ユニット10から画像信号を受けると、翻訳すべき単語または文章からなる文字列を含む文字列の画像信号を画像メモリ25に格納した後、OCR24に転送する。
同時に、翻訳ユニット20の制御部21は、タイマー29を起動させる。
翻訳すべき単語または文章からなる文字列を含む文字列の画像信号が入力されると、OCR24は、視線マーク50aに対応した画像内の位置を中心として、余白までの範囲の画像信号を文字認識し、翻訳すべき単語または文章からなる文字列を含む文字列認識信号を生成して、文字列認識信号を制御部21に出力する。
同時に、OCR24は、翻訳すべき単語または文章を含む文字列が、横書きか、縦書きか、すなわち、翻訳すべき単語または文章を含む文字列の向きを判定し、翻訳すべき単語または文章からなる文字列を含む文字列認識信号とともに、翻訳すべき文字列の向きについての判定信号を制御部21に出力する。
制御部21は、OCR24から、翻訳すべき単語または文章を含む文字列および文字列の向きについての判定信号を受けると、翻訳すべき単語または文章を含む文字列および文字列の向きについての判定結果をメモリ26に保存するとともに、接続部27を介して、翻訳すべき単語または文章からなる文字列を含む文字列認識信号および翻訳すべき文字列の向きについての判定信号を、眼鏡ユニット10に出力する。
翻訳すべき単語または文章からなる文字列を含む文字列認識信号および翻訳すべき文字列の向きについての判定信号は、第2のケーブル37、イヤホーン30および第1のケーブル36を通って、眼鏡ユニット10の制御ブロック40の制御部11に送られる。
制御ブロック40の制御部11は、文字列認識信号を文字列メモリ15に出力し、翻訳すべき単語または文章を含む文字列を、文字列メモリ15に保存する。
さらに、制御ブロック40の制御部11は、文字列の向きについての判定信号に基づき、翻訳ユニット20のOCR24が文字認識した文字列が横書きかである場合には、横書き表示信号とともに、翻訳すべき単語または文章を含む文字列を、表示素子50に出力する。
眼鏡ユニット10の表示素子50は、制御部11から、横書き表示信号とともに、翻訳すべき単語または文章を含む文字列を受けると、文字列を図4(A)に示される眼鏡ユニット10の眼鏡視野55内の表示部50bに表示する。
この時点では、表示部50bに表示された単語または文章からなる文字列が、ユーザーが翻訳したいと考えている文字列であるということは確定していないので、表示素子50は、文字列を点滅させる。
これに対して、翻訳ユニット20のOCR24が文字認識した文字列が縦書きであると判定したときは、制御ブロック40の制御部11は、縦書き表示信号とともに、翻訳すべき単語または文章を含む文字列を、表示素子50に出力する。
表示素子50は、制御ブロック40の制御部11から、翻訳すべき単語または文章を含む文字列とともに、縦書き表示信号を受けると、図4(B)に示されるように、表示部50bを、眼鏡ユニット10の眼鏡視野55の内方の位置に、縦方向に形成し、文字列を、こうして形成した表示部50bに表示させ、点滅させる。図4(B)において、56は、カメラ12の撮影範囲を示している。
その結果、表示部50bに表示された文字列が、翻訳したい単語または文章からなる文字列であるときは、ユーザーによって、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bまたは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作される。
眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bが操作されると、翻訳開始信号が、眼鏡ユニット10の制御部11に入力され、第1のケーブル36、イヤホーン30、第2のケーブル37を介して、翻訳ユニット20に送られ、翻訳ユニット20の制御部21に入力される。
一方、翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作されると、翻訳開始信号が、翻訳ユニット20の制御部21に入力される。翻訳開始信号は、さらに、制御ブロック40の制御部11に転送される。
翻訳開始信号を受けると、制御ブロック40の制御部11は、表示素子50に文字列確定信号を出力して、表示部50bに表示された文字列の点滅を停止させる。
翻訳開始信号を受けると、翻訳ユニット20の制御部21は、メモリ26に記憶されている単語または文章からなる文字列を読み出し、辞書データベースにアクセスして、あらかじめ選択された辞書を用いて、文字列を翻訳し、第2のケーブル37、イヤホーン30および第1のケーブル36を介して、眼鏡ユニット10の制御ブロック40に出力する。翻訳された単語または文章からなる文字列は、制御ブロック40の制御部11に入力されるとともに、翻訳文字列メモリ16に記憶される。
同時に、制御部11は、翻訳された単語または文章からなる文字列を、表示素子50に出力する。
表示素子50は、制御ブロック40の制御部11から、翻訳された単語または文章からなる文字列を受けると、その文字列を表示部50bに表示する。
さらに、翻訳ユニット20の制御部21は、単語または文章からなる文字列を翻訳し、第2のケーブル37、イヤホーン30および第1のケーブル36を介して、眼鏡ユニット10の制御ブロック40に出力するのと同時に、翻訳した文字列を、音声変換部35に出力する。音声変換部35は、入力された文字列を音声信号に変換し、第2のケーブル37を介して、イヤホーン30に出力し、その結果、イヤホーン30から、翻訳された単語または文章からなる文字列に対応する音声が発せられる。
これに対して、表示部50bに表示された文字列が、翻訳すべき単語または文章からなる文字列を含んでいるが、翻訳すべき単語または文章からなる文字列以外の文字列も含んでいるときは、ユーザーは、眼鏡ユニット10に設けられた手動操作部45の文字列指定部45cを操作して、たとえば、視線マーク50aを、翻訳すべき単語または文章からなる文字列の始点から終点まで移動させ、翻訳すべき単語または文章からなる文字列を指定する。
ユーザーによって指定された文字列は、眼鏡ユニット10の制御部11に入力され、制御部11は、ユーザーによって指定された文字列を受けると、文字列メモリ15に保存されている文字列に上書きするとともに、表示素子50に出力する。
その結果、表示素子50によって、表示部50bに、ユーザーによって指定された文字列が表示される。
この時点では、表示部50bに表示された文字列が、ユーザーが翻訳したいと考えている文字列であるということは確定していないので、表示素子50は、文字列を点滅させる。
こうして、表示部50bに表示された文字列が、翻訳したい単語または文章からなる文字列であるときは、ユーザーによって、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bまたは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作され、上述したのと同様にして、翻訳ユニット20によって、単語または文章からなる文字列が翻訳されて、眼鏡ユニット10の表示部50bに表示されるとともに、イヤホーン30から、翻訳された単語または文章からなる文字列に対応する音声が発せられる。
一方、表示部50bに表示された文字列が、依然として、翻訳すべき単語または文章からなる文字列以外の文字列も含んでいるときは、ユーザーは、眼鏡ユニット10に設けられた手動操作部45の文字列指定部45cを操作して、翻訳すべき単語または文章からなる文字列を指定し、上述したのと同様の処理が繰り返される。
これに対して、眼鏡ユニット10の表示部50bに表示された文字列に、ユーザーが翻訳したいと考えている単語または文章からなる文字列が含まれていないときは、ユーザーは首を振って、視線マーク50aを動かし、翻訳すべき単語または文章からなる文字列を含む文字列の範囲を所望の範囲に変化させる。
その結果、ユーザーが特定した翻訳すべき単語または文章からなる文字列を含む文字列の画像が、制御ブロック40のカメラ12によって撮像されて、翻訳すべき単語または文章からなる文字列を含む文字列の画像信号が生成され、画像信号は、画像メモリ13に格納された後、信号処理部14によって、第1のケーブル36および第2のケーブル37により通信可能な信号形式に処理されて、第1のケーブル36、イヤホーン30および第2のケーブル37を介して、翻訳ユニット20の接続部27に送られる。
翻訳ユニット20に入力された翻訳すべき単語または文章からなる文字列を含む文字列の画像信号は、制御部21に入力され、制御部21は、眼鏡ユニット10から画像信号を受けると、画像信号を画像メモリ25に格納した後、OCR24に転送するとともに、タイマー29をリセットして、再起動させる。
同時に、制御部21は、前回に、メモリ26に記憶した文字列を消去するとともに、文字列の向きについての判定結果を読み出して、OCR24に出力する。
翻訳すべき単語または文章からなる文字列を含む文字列の画像信号および文字列の向きについての判定結果を受けると、OCR24は、視線マーク50aに対応した画像内の位置を中心として、余白までの範囲の画像信号を、文字列の向きについての判定結果にしたがって、横方向あるいは縦方向に、順次、文字認識し、翻訳すべき単語または文章からなる文字列を含む文字列認識信号を生成して、文字列認識信号を眼鏡ユニット10の制御部11に出力する。
文字列認識信号を受けると、上述したのと同様にして、文字列認識信号が処理され、表示部50bに、文字列が表示され、翻訳ユニット20によって、ユーザーが翻訳したいと考えている単語または文章からなる文字列が翻訳されて、眼鏡ユニット10の表示部50bに表示されるとともに、イヤホーン30から、翻訳された単語または文章からなる文字列に対応する音声が発せられる。
一方、タイマー29が起動されてから、所定の時間が経過したとき、すなわち、眼鏡ユニット10の表示部50bに、翻訳すべき単語または文章からなる文字列が表示されてから、ユーザーが、翻訳すべき文字列を選択し直すことなく、同じ単語または文章からなる文字列が表示部50bに表示されたまま、所定の時間が経過したときは、タイマー29から、翻訳開始信号が、翻訳ユニット20の制御部21に出力される。
これは、翻訳すべき単語または文章からなる文字列が表示されてから、所定の時間にわたって、ユーザーが、翻訳すべき文字列を選択し直さず、同じ単語または文章からなる文字列が表示部50bに表示されているときは、ユーザーは、表示部50bに表示された単語または文章からなる文字列を翻訳することに異議を有していないと認められるからである。
タイマー29から、翻訳開始信号が入力されると、制御部21は、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bまたは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作された場合と同様にして、眼鏡ユニット10の表示部50bに表示された文字列を翻訳して、翻訳した文字列を眼鏡ユニット10に送り、眼鏡ユニット10の制御部11によって、翻訳された単語または文章からなる文字列が、表示部50bに表示される。
本実施形態によれば、電子辞書は、眼鏡ユニット10と、眼鏡ユニット10と別体に形成された翻訳ユニット20と、イヤホーン30によって構成され、単語または文章よりなる文字列を翻訳するための機構はすべて、翻訳ユニット20に設けられており、眼鏡ユニット10は、単に、カメラ12、制御部11、表示素子50および手動操作部45など最小限の機構を含む制御ブロック40を、眼鏡レンズ10aの上側のフレーム10c内に備えているに過ぎないから、眼鏡ユニット10のサイズは、通常の眼鏡とほとんど変わらず、したがって、眼鏡ユニット10を装着していても、ユーザーが違和感を抱くことはないから、歩行中にも、眼鏡ユニットを装着することができ、眼鏡ユニットを、常時、装着して、電子辞書機能を利用することができる。
また、本実施形態によれば、電子辞書は、眼鏡ユニット10と、ペンダント状に形成された翻訳ユニット20と、イヤホーン30により構成されているから、眼鏡ユニット10を頭部に装着するとともに、イヤホーン30を耳に装着し、翻訳ユニット20を首にかけた状態で使用することができ、さらに、第1のケーブル36は、単に、眼鏡ユニット10のつる10bの先端部とイヤホーン30を接続しているに過ぎず、また、イヤホーン30と翻訳ユニット20を接続する第2のケーブル37はペンダントの鎖のように見えるから、電子辞書を使用中に、周囲に違和感を与えることもない。
さらに、本実施形態によれば、ユーザーが、翻訳をしたい単語または文章よりなる文字列に視線マーク50aを合わせるだけで、翻訳の対象となる単語または文章よりなる文字列が、眼鏡ユニット10の表示部50bに表示され、ユーザーが、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bもしくは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bを操作したとき、または、翻訳の対象となる単語または文章よりなる文字列が、眼鏡ユニット10の表示部50bに表示されてから、所定の時間が経過するまで、視線マーク50aを動かして、翻訳すべき単語または文章からなる文字列を含む文字列の範囲を変化させなかったときに、単語または文章よりなる文字列を翻訳するように構成されているから、熟練を要することなく、所望の単語または文章よりなる文字列を翻訳することは可能になる。
また、本実施形態によれば、OCR24が、翻訳すべき単語または文章からなる文字列を含む文字列の画像信号を文字認識する際に、文字列が横書きか、縦書きかを判定し、その判定結果に基づいて、文字列が横書きの場合には、図4(A)に示されるように、眼鏡ユニット10の眼鏡視野55の下方に、表示部50bが横方向に形成され、一方、文字列が縦書きの場合には、図4(A)に示されるように、眼鏡視野55の内方に、表示部50bが縦方向に形成されるから、ユーザーの視野を妨げることなく、翻訳すべき単語または文章からなる文字列および翻訳をした単語または文章からなる文字列を、眼鏡ユニット10の視野内に表示することが可能になる。
さらに、本実施形態によれば、OCR24が、翻訳すべき単語または文章からなる文字列を含む文字列の画像信号を文字認識する際に、文字列が横書きか、縦書きかを判定し、その判定結果が、翻訳ユニット20の制御部21のメモリ26に保存され、次に、OCR24が翻訳すべき単語または文章からなる文字列を含む文字列の画像信号を文字認識するにあたって、制御部22から、文字列の向きについての判定結果が、OCR24に出力され、OCR24が、翻訳すべき単語または文章からなる文字列を含む文字列の画像信号を文字認識する方向が指定されるから、翻訳すべき単語または文章からなる文字列を含む文字列認識信号を生成する時間を短縮することが可能になる。
本発明は、以上の実施形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることはいうまでもない。
たとえば、前記実施形態においては、電子辞書は、単語または文章を翻訳するための電子辞書として構成されているが、本発明にかかる電子辞書は、単語または文章を異なる言語に翻訳する機能のみを有するものに限定されるものではなく、ユーザーが指定した単語の平易な言葉へ置き換えて、表示する機能、ユーザーが指定した単語の同義語を表示する機能、ユーザーが指定した単語の反意語を表示する機能などを有していてもよい。
また、前記実施形態においては、翻訳ユニット20はペンダント状に形成されているが、翻訳ユニット20の形状は限定されるものではなく、任意の形状に形成することができる。
さらに、前記実施形態においては、眼鏡ユニット10の眼鏡視野内に、十字状の視線マーク50aが形成されているが、視線マーク50aは十字状であることは必ずしも、必要でなく、図5(A)および図5(B)に示されるように、矩形状であってもよく、また、翻訳すべき単語または文章を含む文字列が横書きであると判定したときに、図5(A)に示されるように、横長の矩形状視線マーク50aを形成し、翻訳すべき単語または文章を含む文字列が縦書きであると判定したときに、図5(B)に示されるように、縦長の矩形状視線マーク50aを形成するようにしてもよい。
また、前記実施形態においては、表示部50bに表示された文字列が、翻訳すべき単語または文章からなる文字列を含んでいるが、翻訳すべき単語または文章からなる文字列以外の文字列も含んでいるときに、ユーザーが、眼鏡ユニット10に設けられた手動操作部45の文字列指定部45cを操作して、視線マーク50aを、翻訳すべき単語または文章からなる文字列の始点から終点まで移動させ、翻訳すべき単語または文章からなる文字列を指定するように構成されているが、図5(A)または図5(B)に示されるように、矩形状視線マーク50aを表示するように構成されている場合には、手動操作部45の文字列指定部45cを操作することによって、矩形状視線マーク50aの長さを変化させ、翻訳すべき単語または文章からなる文字列が、矩形状視線マーク50aによって画定されるようにして、翻訳すべき単語または文章からなる文字列を指定するようにすることもできる。
さらに、前記実施形態においては、表示部50bに、翻訳すべき単語もしくは文章を含む文字列または翻訳された文字列を表示するように構成されているが、翻訳前の文字列と翻訳された文字列を、同時に、表示部50bに表示することもでき、たとえば、表示部50bの上側の行に、翻訳前の文字列を表示し、下側の行に、翻訳された文字列を表示するようにしてもよい。
また、前記実施形態においては、OCR24が、翻訳すべき単語または文章を含む文字列が横書きか、縦書きかを判定しているが、あらかじめ、ユーザーが手動によって、翻訳すべき単語または文章を含む文字列が横書きか、縦書きかを指定するようにしてもよい。
さらに、前記実施形態においては、翻訳した単語または文章からなる文字列をイヤホーン30から音声出力するように構成されているが、翻訳した単語または文章からなる文字列をイヤホーン30から音声出力することは必ずしも必要でなく、さらには、電子辞書がイヤホーン30を備えていることも必ずしも必要でない。
また、前記実施形態においては、第1のケーブル36が、眼鏡ユニット10のつる10bの先端部から、延出しているが、つる10bの途中から、延出していてもよい。
さらに、前記実施形態においては、翻訳開始前に、表示部50bに表示された文字列を点滅させているが、点滅に代えて、下線付きで文字列を表示しても、色を変えて、文字列を表示してもよく、さらには、これらを組み合わせて、文字列が未確定であることを表示するようにしてもよい。
また、前記実施形態においては、眼鏡ユニット10、翻訳ユニット20およびイヤホーン30との間を、有線で通信しているが、無線で通信するようにしてもよい。
さらに、前記実施形態の眼鏡ユニット10に時計を内蔵させ、補助電源部18によって、眼鏡レンズ10aの視野内に、時刻を表示させることもできる。
図1は、本発明の好ましい実施形態にかかる電子辞書の略斜視図である。 図2は、眼鏡ユニットの略縦断面図である。 図3は、図1に示された電子辞書の電気的構成を示すブロックダイアグラムである。 図4は、眼鏡ユニットの眼鏡視野を示す略正面図である。 図5は、眼鏡ユニットの眼鏡視野の他の例を示す略正面図である。
符号の説明
10 眼鏡ユニット
10a 眼鏡レンズ
10b 上側のフレーム
10c つる
10d ホログラムミラー
10e 鼻パッド
11 制御部
12 カメラ
13 画像メモリ
14 信号処理部
15 文字列メモリ
16 翻訳文字列メモリ
18 補助電源部
20 翻訳ユニット
21 制御部
22 手動操作部
22a 電源スイッチ
22b 翻訳開始スイッチ
22c 辞書指定部
23 辞書データベース
24 OCR
25 画像メモリ
26 メモリ
28 電源部
29 タイマー
30 イヤホーン
33 音声発生部
35 音声変換部
36 第1のケーブル
37 第2のケーブル
40 制御ブロック
41 太陽電池
45 手動操作部
45a 電源スイッチ
45b 翻訳開始スイッチ
45c 文字列指定部
50 表示素子
50a 視線マーク
50b 表示部

Claims (11)

  1. 眼鏡ユニットと、前記眼鏡ユニットと別体に形成された文字列変換ユニットと、前記眼鏡ユニットと前記文字列変換ユニットとの間で、信号の授受が可能な信号伝達線路とを備え、
    前記眼鏡ユニットが、眼鏡レンズと、前記眼鏡ユニットの視野内にある単語または文章よりなる文字列を画像入力する画像入力部と、前記眼鏡ユニットの視野内に、前記文字列変換ユニットから入力された単語または文章よりなる文字列を表示する表示部を形成する表示素子と、前記表示素子を制御するとともに、前記画像入力部によって画像入力された前記文字列の画像信号を、前記信号伝達線路を介して、前記文字列変換ユニットに出力する制御部とを備え、
    前記文字列変換ユニットが、前記眼鏡ユニットの前記制御部から出力される前記文字列の画像信号を文字認識する文字認識部と、前記文字認識部によって文字認識された前記文字列を、前記信号伝達線路を介して、前記眼鏡ユニットに出力する文字列変換処理部を備え、
    前記文字列変換ユニットの前記文字列変換処理部が、前記眼鏡ユニットの前記表示部に表示された前記文字列を変換すべき旨の指示があったときに、前記文字列を変換して、前記信号伝達線路を介して、前記眼鏡ユニットに出力するように構成されたことを特徴とする電子辞書。
  2. 前記画像入力部が、撮像素子によって構成されたことを特徴とする請求項1に記載の電子辞書。
  3. 前記眼鏡ユニットが、さらに、前記眼鏡ユニットの前記表示部に表示された前記文字列を変換すべき旨の指示を、前記文字列変換ユニットの前記文字列変換処理部に出力する変換開始指示部を備えたことを特徴とする請求項1または2に記載の電子辞書。
  4. 前記眼鏡ユニットが、さらに、手動操作部を備え、前記手動操作部が、前記変換開始指示部と、前記眼鏡ユニットの前記表示部に表示された前記文字列に基づいて、変換すべき単語または文章よりなる文字列を確定する文字列確定部を備えたことを特徴とする請求項3に記載の電子辞書。
  5. 前記文字列変換ユニットが、さらに、前記眼鏡ユニットの前記表示部に表示された前記文字列を変換すべき旨の指示を、前記文字列変換ユニットの前記文字列変換処理部に出力する変換開始指示部を備えたことを特徴とする請求項1または2に記載の電子辞書。
  6. 前記文字列変換ユニットが、さらに、手動操作部を備え、前記手動操作部が、前記変換開始指示部と、前記眼鏡ユニットの前記表示部に表示された前記文字列に基づいて、変換すべき単語または文章よりなる文字列を確定する文字列確定部を備えたことを特徴とする請求項5に記載の電子辞書。
  7. さらに、タイマーを備え、前記文字列変換処理部によって文字認識され、前記眼鏡ユニットの前記表示部に表示された前記文字列が、所定時間にわたり、変化しないときに、前記文字列変換処理部に、前記表示部に表示された前記文字列を変換すべき旨の指示が出力されるように構成されたことを特徴とする請求項1ないし6のいずれか1項に記載の電子辞書。
  8. 前記文字認識部が、さらに、文字認識した前記文字列が、縦書きであるか横書きであるかを判定するように構成されたことを特徴とする請求項1ないし7のいずれか1項に記載の電子辞書。
  9. 前記文字認識部が、最初に判定した文字列の向きについての判定結果にしたがって、次回以降、単語または文章よりなる文字列を文字認識するように構成されたことを特徴とする請求項8に記載の電子辞書。
  10. 前記文字認識部の文字列の向きの判定結果にしたがって、前記眼鏡ユニットの前記制御部が、前記表示素子に、前記眼鏡ユニットの視野内に形成される前記表示部の位置を変化させるように構成されたことを特徴とする請求項8または9に記載の電子辞書。
  11. 前記文字認識部が、文字認識した前記文字列が縦書きであると判定したときに、前記眼鏡ユニットの前記制御部が、前記表示素子に、前記表示部を、前記眼鏡ユニットの視野内の内方寄りの位置に、縦方向に形成させるように構成されたことを特徴とする請求項10に記載の電子辞書。
JP2006107276A 2006-04-10 2006-04-10 電子辞書 Pending JP2007280164A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006107276A JP2007280164A (ja) 2006-04-10 2006-04-10 電子辞書

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006107276A JP2007280164A (ja) 2006-04-10 2006-04-10 電子辞書

Publications (1)

Publication Number Publication Date
JP2007280164A true JP2007280164A (ja) 2007-10-25

Family

ID=38681535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006107276A Pending JP2007280164A (ja) 2006-04-10 2006-04-10 電子辞書

Country Status (1)

Country Link
JP (1) JP2007280164A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012158047A1 (en) * 2011-05-19 2012-11-22 Trustper As Apparatus for translating written text in real time
JP2018525651A (ja) * 2015-05-13 2018-09-06 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. スマートグラス
US10872605B2 (en) 2016-07-08 2020-12-22 Panasonic Intellectual Property Management Co., Ltd. Translation device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012158047A1 (en) * 2011-05-19 2012-11-22 Trustper As Apparatus for translating written text in real time
AU2012256465B2 (en) * 2011-05-19 2015-05-14 Trustper As Apparatus for translating written text in real time
JP2018525651A (ja) * 2015-05-13 2018-09-06 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. スマートグラス
US10872605B2 (en) 2016-07-08 2020-12-22 Panasonic Intellectual Property Management Co., Ltd. Translation device

Similar Documents

Publication Publication Date Title
US10747315B2 (en) Communication and control system and method
JP6459711B2 (ja) 表示装置、及び、表示装置の制御方法
US20190146753A1 (en) Automatic Speech Recognition (ASR) Feedback For Head Mounted Displays (HMD)
US8902303B2 (en) Apparatus connectable to glasses
EP3220372B1 (en) Wearable device, display control method, and display control program
WO2001006298A1 (en) Integrated method and system for communication
WO2016075782A1 (ja) ウェアラブルデバイス、表示制御方法、及び表示制御プログラム
CN103777351A (zh) 多媒体眼镜
JP2007280165A (ja) 電子辞書
WO2013146862A1 (ja) ヘッドマウントディスプレイ及びコンピュータプログラム
US20160291348A1 (en) Eyeglasses Structure Enabling Image Enhancement
JP6123180B2 (ja) 表示装置
JPWO2016075780A1 (ja) ウェアラブルデバイス、表示制御方法、及び表示制御プログラム
JP2016085350A (ja) 表示装置、及び、表示装置の制御方法
KR20170140277A (ko) 이미지 향상을 가능하게 하는 안경 구조체
JP2007280164A (ja) 電子辞書
CN106842565A (zh) 一种分离式可穿戴智能视觉增强设备
JP2007280166A (ja) 電子辞書
JP7247519B2 (ja) 表示装置、及び、表示装置の制御方法
JP2014021272A (ja) 情報入出力装置、及び情報入出力方法
JP2007280163A (ja) 電子辞書
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP2014022937A (ja) 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法
KR100846355B1 (ko) 두부 장착식 디스플레이 장치의 시력 보조 방법 및 그 두부장착식 디스플레이 장치
JP7031112B1 (ja) 眼鏡型端末