JP2007280166A - 電子辞書 - Google Patents

電子辞書 Download PDF

Info

Publication number
JP2007280166A
JP2007280166A JP2006107278A JP2006107278A JP2007280166A JP 2007280166 A JP2007280166 A JP 2007280166A JP 2006107278 A JP2006107278 A JP 2006107278A JP 2006107278 A JP2006107278 A JP 2006107278A JP 2007280166 A JP2007280166 A JP 2007280166A
Authority
JP
Japan
Prior art keywords
unit
character string
word
sentence
spectacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006107278A
Other languages
English (en)
Inventor
Masahide Tanaka
雅英 田中
Akihiko Kohama
昭彦 小濱
Muneki Hamashima
宗樹 浜島
Kunio Konno
邦男 今野
Masahiko Yomoto
雅彦 與本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006107278A priority Critical patent/JP2007280166A/ja
Publication of JP2007280166A publication Critical patent/JP2007280166A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eyeglasses (AREA)
  • Character Discrimination (AREA)

Abstract

【課題】 簡単な操作で、視野内にある単語または文章を他の形態の単語または文章に変換し、変換された単語または文章を、視野内に表示することができる電子辞書を提供する。
【解決手段】 カメラ12によって撮像された文字列の画像信号を、信号伝達線路を介して、翻訳ユニットに出力する制御部11とを備え、翻訳ユニットが、眼鏡ユニットの制御部から出力される文字列の画像信号を文字認識するOCR24と、OCRが文字認識した文字列を翻訳して、翻訳結果を、信号伝達線路を介して、眼鏡ユニットに出力する制御部21を備え、眼鏡ユニットの表示素子が、翻訳結果を表示部に表示するように構成された電子辞書。
【選択図】 図3

Description

本発明は、電子辞書に関するものであり、さらに詳細には、違和感なく、常時、頭部に装着することができ、簡単な操作で、視野内にある単語または文章を他の形態の単語または文章に変換し、変換された単語または文章を、視野内に重畳表示することができる電子辞書に関するものである。
意味の分からない言葉を入力して、平易な言葉や同意語に変換し、あるいは、異なる言語に翻訳するために、電子辞書が広く用いられている。
従来の電子辞書は、通常、電卓型などの携帯端末機器として構成され、その原語表示と訳語表示が液晶などのディスプレイに表示されるように構成されているが、特許文献1は、原語表示と訳語表示を、人間の頭部に装着されるヘッドマウントの前方視野に重畳表示させるように構成され、電子辞書機能を有するヘッドマウントディスプレイ装置を提案している。
特許文献1に開示されたヘッドマウントディスプレイ装置によれば、外視野を観察できるとともに、必要に応じて、原語表示と訳語表示を、ヘッドマウントの前方視野に重畳表示させることができ、また、原語表示と訳語表示の選択が、主として視線入力方式によって切り換えられているので、いわゆるハンズフリーな状態で、電子辞書機能を利用することが可能になる。
特開2001−56446号公報
しかしながら、特許文献1に開示されたヘッドマウントディスプレイ装置は大型であるため、頭部に装着した場合に、非常に違和感があり、また、電子辞書機能を利用しない場合には、視野を遮られてしまうため、電子辞書機能を利用しないときは、ヘッドマウントディスプレイ装置を取り外す必要があり、勝手が非常に悪いという問題があった。
また、特許文献1に記載されたヘッドマウントディスプレイ装置においては、原語表示と訳語表示が、主として視線入力方式によって選択されるように構成されているので、電子辞書として利用するためには、熟練を要するという問題もあった。
したがって、本発明は、違和感なく、常時、頭部に装着することができ、簡単な操作で、視野内にある単語または文章を他の形態の単語または文章に変換し、変換された単語または文章を、視野内に表示することができる電子辞書を提供することを目的とするものである。
本発明のかかる目的は、眼鏡ユニットと、前記眼鏡ユニットと別体に形成された文字列変換ユニットと、前記眼鏡ユニットと前記文字列変換ユニットとの間で、信号の授受が可能な信号伝達線路とを備え、前記眼鏡ユニットが、眼鏡レンズと、前記眼鏡ユニットの視野内にある単語または文章よりなる文字列を画像入力可能な画像入力部と、前記眼鏡レンズの視野の中央部分に存在する単語または文章よりなる文字列を画像入力すべき文字列として指定する文字列指定部および前記眼鏡レンズの視野の中央部分以外の位置に、単語または文章よりなる文字列を表示する表示部を形成する表示素子と、前記表示素子を制御するとともに、前記画像入力部によって入力された前記文字列の画像信号を、前記信号伝達線路を介して、前記文字列変換ユニットに出力する制御部とを備え、前記文字列変換ユニットが、前記眼鏡ユニットの前記制御部から出力される前記文字列の前記画像信号を文字認識する文字認識部と、前記文字認識部が文字認識した前記文字列を変換して、前記文字列の変換結果を、前記信号伝達線路を介して、前記眼鏡ユニットに出力する文字列変換処理部を備え、前記眼鏡ユニットの前記表示素子が、前記文字列の変換結果を前記表示部に表示するように構成されたことを特徴とする電子辞書によって達成される。
本明細書において、「単語または文章よりなる文字列を変換する」とは、単語または文章よりなる文字列を他の言語に翻訳する場合、単語または文章よりなる文字列をわかりやすい言葉に言い換える場合、単語を同義語に置き換える場合など、単語または文章よりなる文字列を他の形態の単語または文章よりなる文字列に変換することを言う。
本発明によれば、電子辞書は、眼鏡ユニットと、眼鏡ユニットと別体に形成された文字列変換ユニットを主たる構成要素とし、文字列変換ユニットによって、単語または文章よりなる文字列が変換されるように構成されているから、眼鏡ユニットは、眼鏡ユニットの視野内にある単語または文章よりなる文字列を画像入力する画像入力部と、前記眼鏡レンズの眼鏡視野の中央部分に存在する単語または文章よりなる文字列を画像入力すべき文字列として指定する文字列指定部および眼鏡ユニットの視野の中央部分以外の位置に、単語または文章よりなる文字列を表示する表示部を形成する表示素子と、制御部を備えていればよく、したがって、頭部に装着される眼鏡ユニットのサイズは、通常の眼鏡とほとんど変わらないから、眼鏡ユニットを装着していても、ユーザーが違和感を抱くことはない。したがって、歩行中にも、眼鏡ユニットを装着することができ、眼鏡ユニットを、常時、装着して、電子辞書機能を利用することができる。
また、本発明によれば、文字列指定部によって、変換の対象となる単語または文章よりなる文字列を指定して、画像入力し、変換するように構成されているから、視線入力方式によって、変換すべき単語または文章よりなる文字列を指定する場合のように、熟練を要することなく、所望の単語または文章よりなる文字列を変換することが可能になる。
本発明の前記目的はまた、眼鏡ユニットと、前記眼鏡ユニットと別体に形成された文字列変換ユニットと、前記眼鏡ユニットと前記文字列変換ユニットとの間で、信号の授受が可能な信号伝達線路とを備え、前記眼鏡ユニットが、眼鏡レンズと、前記眼鏡レンズの視野内の単語または文章よりなる文字列を画像入力する画像入力部と、前記画像入力部によって画像入力すべき前記眼鏡ユニットの視野内の単語または文章よりなる文字列を指定する文字列指定部および前記眼鏡ユニットの眼鏡視野内に、単語または文章よりなる文字列を表示する表示部を形成する表示素子と、前記表示素子を制御するとともに、前記画像入力部によって入力された前記文字列の画像信号を、前記信号伝達線路を介して、前記文字列変換ユニットに出力する制御部と、前記眼鏡レンズの近傍に設けられた手動操作部を備え、前記文字列変換ユニットが、前記眼鏡ユニットの前記制御部から出力される前記文字列の前記画像信号を文字認識する文字認識部と、前記文字認識部が文字認識した前記文字列を変換して、前記文字列の変換結果を、前記信号伝達線路を介して、前記眼鏡ユニットに出力する文字列変換処理部を備え、前記眼鏡ユニットの前記表示素子が、前記文字列の変換結果を前記表示部に表示するように構成されたことを特徴とする電子辞書によって達成される。
本発明によれば、電子辞書は、眼鏡ユニットと、眼鏡ユニットと別体に形成された文字列変換ユニットを主たる構成要素とし、文字列変換ユニットによって、単語または文章よりなる文字列が変換されるように構成されているから、眼鏡ユニットは、眼鏡レンズの視野内の単語または文章よりなる文字列を画像入力する画像入力部と、画像入力部によって画像入力すべき眼鏡ユニットの視野内の単語または文章よりなる文字列を指定する文字列指定部および眼鏡ユニットの眼鏡視野内に、単語または文章よりなる文字列を表示する表示部を形成する表示素子と、制御部を備えていればよく、したがって、頭部に装着される眼鏡ユニットのサイズは、通常の眼鏡とほとんど変わらないから、眼鏡ユニットを装着していても、ユーザーが違和感を抱くことはない。したがって、歩行中にも、眼鏡ユニットを装着することができ、眼鏡ユニットを、常時、装着して、電子辞書機能を利用することができる。
また、本発明によれば、文字列指定部によって、変換の対象となる単語または文章よりなる文字列を指定して、画像入力し、変換するように構成されているから、視線入力方式によって、変換すべき単語または文章よりなる文字列を指定する場合のように、熟練を要することなく、所望の単語または文章よりなる文字列を変換することが可能になる。
さらに、本発明によれば、眼鏡レンズの近傍に、手動操作部が設けられているから、手動操作部に、単語または文章よりなる文字列の変換開始を指示する文字列変換開始指示機能や、変換すべき単語または文章よりなる文字列を確定する文字列確定機能を付与することができ、したがって、より簡単な操作で、所望の単語または文章よりなる文字列を変換することが可能になる。
本発明によれば、違和感なく、常時、頭部に装着することができ、簡単な操作で、視野内にある単語または文章を他の形態の単語または文章に変換し、変換された単語または文章を、視野内に表示することができる電子辞書が提供される。
以下、添付図面に基づいて、本発明の好ましい実施形態につき、詳細に説明を加える。
図1は、本発明の第一の実施形態にかかる電子辞書の略斜視図である。
図1に示されるように、本実施形態にかかる電子辞書は、単語または文章の翻訳のための電子辞書として構成され、眼鏡レンズ10aを備えた眼鏡ユニット10と、翻訳ユニット20と、イヤホーン30とを備えている。
翻訳ユニット20は、ペンダント状に形成されており、したがって、本実施形態にかかる電子辞書は、眼鏡ユニット10を、通常の眼鏡と同様に、頭部に装着するとともに、イヤホーン30を耳に装着し、翻訳ユニット20を首にかけた状態で使用することができる。
図1には図示されていないが、眼鏡ユニット10の眼鏡レンズ10aの上側のフレーム10c内には、眼鏡ユニット10の動作を制御する制御ブロックが取り付けられている。制御ブロックには、第1のケーブル36が接続され、第1のケーブル36は、眼鏡ユニット10のつる10b内を通って、つる10bの先端部から延出され、イヤホーン30の接続部31に着脱可能に接続されている。
一方、イヤホーン30の接続部32と翻訳ユニット20の接続部27との間は、第2のケーブル37によって接続されており、したがって、眼鏡ユニット10は、第1のケーブル36、イヤホーン30および第2のケーブル37を介して、翻訳ユニット20に接続されている。
図2は、眼鏡ユニット10の略縦断面図である。
図2に示されるように、眼鏡ユニット10は、眼鏡レンズ10aの略中央部に埋め込まれたホログラムミラー10dと、眼鏡レンズ10aのほぼ全面に、表示素子50(図示せず)を備え、眼鏡レンズ10aの上側のフレーム10c内に取り付けられた制御ブロック40内に、カメラ12を備えている。カメラ12は、モノクロタイプの撮像素子を有している。
図3は、図1に示された電子辞書の電気的構成を示すブロックダイアグラムである。
図3に示されるように、眼鏡ユニット10は、眼鏡レンズ10aの上側のフレーム10cに取り付けられた制御ブロック40と、つる10bの基部に取り付けられた手動操作部45と、眼鏡レンズ10aのほぼ全面に取り付けられた表示素子50と、鼻パッド10eに取り付けられた太陽電池41を備えている。
図3に示されるように、制御ブロック40は、眼鏡ユニット10全体の動作を制御する制御部11と、眼鏡の視野内の翻訳すべき単語または文章を含む文字列を撮像し、文字列の画像信号を生成するカメラ12と、カメラ12によって生成された翻訳すべき単語または文章を含む文字列の画像信号を格納する画像メモリ13と、カメラ12によって生成された文字列の画像信号を、第1のケーブル36および第2のケーブル37によって通信可能な信号形式に処理する信号処理部14と、翻訳すべき単語または文章からなる文字列を記憶する文字列メモリ15と、翻訳された単語または文章からなる文字列を記憶する翻訳文字列メモリ16と、蓄電池を備えた補助電源部18を備えている。
図3に示されるように、蓄電池を備えた補助電源部18は、充電制御回路(図示せず)を介して、眼鏡ユニット10の鼻パッド10eに取り付けられた太陽電池41に接続され、補助電源部18の蓄電池が、太陽電池41によって、充電可能に構成されている。
眼鏡ユニット10の手動操作部45は、ユーザーが、眼鏡のずれを直す際に、自然と手が触れるつる10bの基部に設けられており、図3に示されるように、手動操作部45は、制御ブロック40の制御部11に接続され、電子辞書を起動させる際に操作される電源スイッチ45aと、電子辞書に、眼鏡ユニット10の表示部に表示された翻訳すべき単語または文章からなる文字列の翻訳を開始させる翻訳開始スイッチ45bと、翻訳すべき単語または文章からなる文字列を指定する文字列指定部45cとを備えている。
後述するように、表示素子50は、眼鏡ユニット10の視野内に、単語または文章からなる文字列を特定するための視線マークを形成するととともに、単語または文章からなる文字列を表示し、単語または文章からなる文字列の翻訳結果を表示する表示部を形成する機能を有している。
図3に示されるように、翻訳ユニット20は、翻訳ユニット20全体の動作を制御する制御部21と、ユーザーによって操作可能に構成された手動操作部22と、辞書データベース23と、眼鏡ユニット10から入力された翻訳すべき単語または文章を含む文字列の画像信号を文字認識するOCR24と、眼鏡ユニット10から入力された翻訳すべき単語または文章を含む文字列の画像信号を格納する画像メモリ25と、翻訳すべき単語または文章からなる文字列およびOCR24によって判定された文字列の向きについての判定結果を記憶するメモリ26と、第2のケーブル37が接続される接続部27と、電源部28と、タイマー29と、音声信号を生成して、イヤホーン30に出力する音声変換部35とを備えている。
図3に示されるように、翻訳ユニット20の手動操作部22は、電子辞書を起動させる際に操作される電源スイッチ22aと、制御部21に、眼鏡ユニットの表示部に表示された翻訳すべき単語または文章からなる文字列の翻訳を開始させる翻訳開始スイッチ22bと、翻訳に用いる辞書を指定する辞書指定部22cとを備えている。
辞書データベース23は、辞書を格納したメモリカードなどを、翻訳ユニット20に差し込むことによって、辞書の追加ができるように構成されている。
図3に示されるように、イヤホーン30は、眼鏡ユニット10のつる10bの先端部から延びる第1のケーブル36が接続された接続部31と、第2のケーブル37が接続された接続部32と、音声を発する音声発生部33とを備えている。
図3に示されるように、第1のケーブル36は、眼鏡ユニット10の補助電源部18への充電電源供給ライン36aと、眼鏡ユニット10の信号処理部14の出力信号ライン36bと、眼鏡ユニット10の制御部11と翻訳ユニット20の制御部21との間の入出力信号ライン36cを備え、一方、第2のケーブル37は、眼鏡ユニット10の補助電源部18への充電電源供給ライン37aと、眼鏡ユニット10の信号処理部14の出力信号ライン37bと、眼鏡ユニット10の制御部11と翻訳ユニット20の制御部21との間の入出力信号ライン37cと、イヤホーン30への音声信号出力ライン37dを備えている。
したがって、眼鏡ユニット10の補助電源部18の蓄電池を、翻訳ユニット20の電源部28からの電力によって、充電することができ、翻訳ユニット20からの電源供給が切断されたときにも、眼鏡ユニット10を作動させることができ、たとえば、以前に翻訳され、翻訳文字列メモリ16に保存されている単語または文章からなる文字列の翻訳を、後述する表示部50bに表示させることができる。
以上のように構成された本実施形態にかかる電子辞書は、以下のようにして、文字または文章を翻訳する。
まず、眼鏡ユニット10が、通常の眼鏡と同様に、ユーザーの頭部に装着されるとともに、イヤホーン30が耳に装着され、翻訳ユニット20がユーザーの首にかけられる。
次いで、ユーザーによって、眼鏡ユニット10の手動操作部45の電源スイッチ45aまたは翻訳ユニット20の手動操作部22の電源スイッチ22aが操作されて、電子辞書が起動される。
電子辞書が起動されると、眼鏡ユニット10の制御部11から、表示素子50に表示信号が出力され、図4(A)に示されるように、眼鏡ユニット10の表示素子50により、眼鏡ユニット10の眼鏡視野55のほぼ中央部に、翻訳すべき単語または文章からなる文字列を特定するための十字状の視線マーク50aが形成されるととともに、眼鏡ユニット10の眼鏡視野55の下方に、翻訳すべき単語または文章からなる文字列を表示し、翻訳すべき単語または文章からなる文字列の翻訳結果を表示する表示部50bが形成される。図4(A)において、56は、カメラ12の撮影範囲を示している。
眼鏡ユニット10の眼鏡視野55のほぼ中央部に形成される視線マーク50aの位置と、カメラ12の画面内の位置は、あらかじめ対応付けられており、ユーザーが頭部を動かして、翻訳すべき単語または文章からなる文字列に、視線マーク50aを合わせることによって、翻訳すべき単語または文章からなる文字列を含む画像の範囲が特定される。
翻訳に先立って、ユーザーによって、翻訳ユニット20の手動操作部22の辞書指定部22cが操作されて、翻訳に用いられる辞書が指定される。
図2に示されるように、ユーザーが特定した翻訳すべき単語または文章からなる文字列を含む文字列から、眼鏡レンズ10aに入射した光の一部は、眼鏡レンズ10aの略中央部に設けられたホログラムミラー10dによって、上方に反射され、制御ブロック40のカメラ12に入射し、翻訳すべき単語または文章からなる文字列を含む所望の範囲の画像が、カメラ12によって撮像される。
ここに、ユーザーが両眼で翻訳すべき単語または文章からなる文字列を見ている場合には、翻訳すべき単語または文章からなる文字列までの距離に応じて、眼が輻輳調節をおこなうため、視線の方向が微妙に変化するので、カメラ12に距離測定機能を持たせ、翻訳すべき単語または文章からなる文字列までの距離に応じて、視線マーク50aの位置を変化させるようにすることが好ましい。
カメラ12によって生成された翻訳すべき単語または文章からなる文字列を含む文字列の画像信号は、画像メモリ13に格納された後、信号処理部14によって、通信可能な信号形式に処理されて、第1のケーブル36、イヤホーン30および第2のケーブル37を介して、翻訳ユニット20に送られる。
翻訳ユニット20に送られた翻訳すべき単語または文章からなる文字列を含む文字列の画像信号は、制御部21に入力され、制御部21は、眼鏡ユニット10から画像信号を受けると、翻訳すべき単語または文章からなる文字列を含む文字列の画像信号を画像メモリ25に格納した後、OCR24に転送する。
同時に、翻訳ユニット20の制御部21は、タイマー29を起動させる。
翻訳すべき単語または文章からなる文字列を含む文字列の画像信号が入力されると、OCR24は、視線マーク50aに対応した画像内の位置を中心として、余白までの範囲の画像信号を文字認識し、翻訳すべき単語または文章からなる文字列を含む文字列認識信号を生成して、文字列認識信号を制御部21に出力する。
同時に、OCR24は、翻訳すべき単語または文章を含む文字列が、横書きか、縦書きか、すなわち、翻訳すべき単語または文章を含む文字列の向きを判定し、翻訳すべき単語または文章からなる文字列を含む文字列認識信号とともに、翻訳すべき文字列の向きについての判定信号を制御部21に出力する。
制御部21は、OCR24から、翻訳すべき単語または文章を含む文字列および文字列の向きについての判定信号を受けると、翻訳すべき単語または文章を含む文字列および文字列の向きについての判定結果をメモリ26に保存するとともに、接続部27を介して、翻訳すべき単語または文章からなる文字列を含む文字列認識信号および翻訳すべき文字列の向きについての判定信号を、眼鏡ユニット10に出力する。
翻訳すべき単語または文章からなる文字列を含む文字列認識信号および翻訳すべき文字列の向きについての判定信号は、第2のケーブル37、イヤホーン30および第1のケーブル36を通って、眼鏡ユニット10の制御ブロック40の制御部11に送られる。
制御ブロック40の制御部11は、文字列認識信号を文字列メモリ15に出力し、翻訳すべき単語または文章を含む文字列を、文字列メモリ15に保存する。
さらに、制御ブロック40の制御部11は、文字列の向きについての判定信号に基づき、翻訳ユニット20のOCR24が文字認識した文字列が横書きかである場合には、横書き表示信号とともに、翻訳すべき単語または文章を含む文字列を、表示素子50に出力する。
眼鏡ユニット10の表示素子50は、制御部11から、横書き表示信号とともに、翻訳すべき単語または文章を含む文字列を受けると、文字列を図4(A)に示される眼鏡ユニット10の眼鏡視野55内の表示部50bに表示する。
この時点では、表示部50bに表示された単語または文章からなる文字列が、ユーザーが翻訳したいと考えている文字列であるということは確定していないので、表示素子50は、文字列を点滅させる。
これに対して、翻訳ユニット20のOCR24が文字認識した文字列が縦書きであると判定したときは、制御ブロック40の制御部11は、縦書き表示信号とともに、翻訳すべき単語または文章を含む文字列を、表示素子50に出力する。
表示素子50は、制御ブロック40の制御部11から、翻訳すべき単語または文章を含む文字列とともに、縦書き表示信号を受けると、図4(B)に示されるように、表示部50bを、眼鏡ユニット10の眼鏡視野55の内方の位置に、縦方向に形成し、文字列を、こうして形成した表示部50bに表示させ、点滅させる。図4(B)において、56は、カメラ12の撮影範囲を示している。
その結果、表示部50bに表示された文字列が、翻訳したい単語または文章からなる文字列であるときは、ユーザーによって、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bまたは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作される。
眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bが操作されると、翻訳開始信号が、眼鏡ユニット10の制御部11に入力され、第1のケーブル36、イヤホーン30、第2のケーブル37を介して、翻訳ユニット20に送られ、翻訳ユニット20の制御部21に入力される。
一方、翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作されると、翻訳開始信号が、翻訳ユニット20の制御部21に入力される。翻訳開始信号は、さらに、制御ブロック40の制御部11に転送される。
翻訳開始信号を受けると、制御ブロック40の制御部11は、表示素子50に文字列確定信号を出力して、表示部50bに表示された文字列の点滅を停止させる。
翻訳開始信号を受けると、翻訳ユニット20の制御部21は、メモリ26に記憶されている単語または文章からなる文字列を読み出し、辞書データベースにアクセスして、あらかじめ選択された辞書を用いて、文字列を翻訳し、第2のケーブル37、イヤホーン30および第1のケーブル36を介して、眼鏡ユニット10の制御ブロック40に出力する。翻訳された単語または文章からなる文字列は、制御ブロック40の制御部11に入力されるとともに、翻訳文字列メモリ16に記憶される。
同時に、制御部11は、翻訳された単語または文章からなる文字列を、表示素子50に出力する。
表示素子50は、制御ブロック40の制御部11から、翻訳された単語または文章からなる文字列を受けると、その文字列を表示部50bに表示する。
さらに、翻訳ユニット20の制御部21は、単語または文章からなる文字列を翻訳し、第2のケーブル37、イヤホーン30および第1のケーブル36を介して、眼鏡ユニット10の制御ブロック40に出力するのと同時に、翻訳した文字列を、音声変換部35に出力する。音声変換部35は、入力された文字列を音声信号に変換し、第2のケーブル37を介して、イヤホーン30に出力し、その結果、イヤホーン30から、翻訳された単語または文章からなる文字列に対応する音声が発せられる。
これに対して、表示部50bに表示された文字列が、翻訳すべき単語または文章からなる文字列を含んでいるが、翻訳すべき単語または文章からなる文字列以外の文字列も含んでいるときは、ユーザーは、眼鏡ユニット10に設けられた手動操作部45の文字列指定部45cを操作して、たとえば、視線マーク50aを、翻訳すべき単語または文章からなる文字列の始点から終点まで移動させ、翻訳すべき単語または文章からなる文字列を指定する。
ユーザーによって指定された文字列は、眼鏡ユニット10の制御部11に入力され、制御部11は、ユーザーによって指定された文字列を受けると、文字列メモリ15に保存されている文字列に上書きするとともに、表示素子50に出力する。
その結果、表示素子50によって、表示部50bに、ユーザーによって指定された文字列が表示される。
この時点では、表示部50bに表示された文字列が、ユーザーが翻訳したいと考えている文字列であるということは確定していないので、表示素子50は、文字列を点滅させる。
こうして、表示部50bに表示された文字列が、翻訳したい単語または文章からなる文字列であるときは、ユーザーによって、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bまたは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作され、上述したのと同様にして、翻訳ユニット20によって、単語または文章からなる文字列が翻訳されて、眼鏡ユニット10の表示部50bに表示されるとともに、イヤホーン30から、翻訳された単語または文章からなる文字列に対応する音声が発せられる。
一方、表示部50bに表示された文字列が、依然として、翻訳すべき単語または文章からなる文字列以外の文字列も含んでいるときは、ユーザーは、眼鏡ユニット10に設けられた手動操作部45の文字列指定部45cを操作して、翻訳すべき単語または文章からなる文字列を指定し、上述したのと同様の処理が繰り返される。
これに対して、眼鏡ユニット10の表示部50bに表示された文字列に、ユーザーが翻訳したいと考えている単語または文章からなる文字列が含まれていないときは、ユーザーは首を振って、視線マーク50aを動かし、翻訳すべき単語または文章からなる文字列を含む文字列の範囲を所望の範囲に変化させる。
その結果、ユーザーが特定した翻訳すべき単語または文章からなる文字列を含む文字列の画像が、制御ブロック40のカメラ12によって撮像されて、翻訳すべき単語または文章からなる文字列を含む文字列の画像信号が生成され、画像信号は、画像メモリ13に格納された後、信号処理部14によって、第1のケーブル36および第2のケーブル37により通信可能な信号形式に処理されて、第1のケーブル36、イヤホーン30および第2のケーブル37を介して、翻訳ユニット20の接続部27に送られる。
翻訳ユニット20に入力された翻訳すべき単語または文章からなる文字列を含む文字列の画像信号は、制御部21に入力され、制御部21は、眼鏡ユニット10から画像信号を受けると、画像信号を画像メモリ25に格納した後、OCR24に転送するとともに、タイマー29をリセットして、再起動させる。
同時に、制御部21は、前回に、メモリ26に記憶した文字列を消去するとともに、文字列の向きについての判定結果を読み出して、OCR24に出力する。
翻訳すべき単語または文章からなる文字列を含む文字列の画像信号および文字列の向きについての判定結果を受けると、OCR24は、視線マーク50aに対応した画像内の位置を中心として、余白までの範囲の画像信号を、文字列の向きについての判定結果にしたがって、横方向あるいは縦方向に、順次、文字認識し、翻訳すべき単語または文章からなる文字列を含む文字列認識信号を生成して、文字列認識信号を眼鏡ユニット10の制御部11に出力する。
文字列認識信号を受けると、上述したのと同様にして、文字列認識信号が処理され、表示部50bに、文字列が表示され、翻訳ユニット20によって、ユーザーが翻訳したいと考えている単語または文章からなる文字列が翻訳されて、眼鏡ユニット10の表示部50bに表示されるとともに、イヤホーン30から、翻訳された単語または文章からなる文字列に対応する音声が発せられる。
一方、タイマー29が起動されてから、所定の時間が経過したとき、すなわち、眼鏡ユニット10の表示部50bに、翻訳すべき単語または文章からなる文字列が表示されてから、ユーザーが、翻訳すべき文字列を選択し直すことなく、同じ単語または文章からなる文字列が表示部50bに表示されたまま、所定の時間が経過したときは、タイマー29から、翻訳開始信号が、翻訳ユニット20の制御部21に出力される。
これは、翻訳すべき単語または文章からなる文字列が表示されてから、所定の時間にわたって、ユーザーが、翻訳すべき文字列を選択し直さず、同じ単語または文章からなる文字列が表示部50bに表示されているときは、ユーザーは、表示部50bに表示された単語または文章からなる文字列を翻訳することに異議を有していないと認められるからである。
タイマー29から、翻訳開始信号が入力されると、制御部21は、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bまたは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作された場合と同様にして、眼鏡ユニット10の表示部50bに表示された文字列を翻訳して、翻訳した文字列を眼鏡ユニット10に送り、眼鏡ユニット10の制御部11によって、翻訳された単語または文章からなる文字列が、表示部50bに表示される。
本実施形態によれば、電子辞書は、眼鏡ユニット10と、眼鏡ユニット10と別体に形成された翻訳ユニット20と、イヤホーン30によって構成され、単語または文章よりなる文字列を翻訳するための機構はすべて、翻訳ユニット20に設けられており、眼鏡ユニット10は、単に、カメラ12、制御部11、表示素子50および手動操作部45など最小限の機構を含む制御ブロック40を、眼鏡レンズ10aの上側のフレーム10c内に備えているに過ぎないから、眼鏡ユニット10のサイズは、通常の眼鏡とほとんど変わらず、したがって、眼鏡ユニット10を装着していても、ユーザーが違和感を抱くことはないから、歩行中にも、眼鏡ユニットを装着することができ、眼鏡ユニットを、常時、装着して、電子辞書機能を利用することができる。
また、本実施形態によれば、電子辞書は、眼鏡ユニット10と、ペンダント状に形成された翻訳ユニット20と、イヤホーン30により構成されているから、眼鏡ユニット10を頭部に装着するとともに、イヤホーン30を耳に装着し、翻訳ユニット20を首にかけた状態で使用することができ、さらに、第1のケーブル36は、単に、眼鏡ユニット10のつる10bの先端部とイヤホーン30を接続しているに過ぎず、また、イヤホーン30と翻訳ユニット20を接続する第2のケーブル37はペンダントの鎖のように見えるから、電子辞書を使用中に、周囲に違和感を与えることもない。
さらに、本実施形態によれば、ユーザーが、翻訳をしたい単語または文章よりなる文字列に視線マーク50aを合わせるだけで、翻訳の対象となる単語または文章よりなる文字列が、眼鏡ユニット10の表示部50bに表示され、ユーザーが、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bもしくは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bを操作したとき、または、翻訳の対象となる単語または文章よりなる文字列が、眼鏡ユニット10の表示部50bに表示されてから、所定の時間が経過するまで、視線マーク50aを動かして、翻訳すべき単語または文章からなる文字列を含む文字列の範囲を変化させなかったときに、単語または文章よりなる文字列を翻訳するように構成されているから、熟練を要することなく、所望の単語または文章よりなる文字列を翻訳することは可能になる。
また、本実施形態によれば、OCR24が、翻訳すべき単語または文章からなる文字列を含む文字列の画像信号を文字認識する際に、文字列が横書きか、縦書きかを判定し、その判定結果に基づいて、文字列が横書きの場合には、図4(A)に示されるように、眼鏡ユニット10の眼鏡視野55の下方に、表示部50bが横方向に形成され、一方、文字列が縦書きの場合には、図4(A)に示されるように、眼鏡視野55の内方に、表示部50bが縦方向に形成されるから、ユーザーの視野を妨げることなく、翻訳すべき単語または文章からなる文字列および翻訳をした単語または文章からなる文字列を、眼鏡ユニット10の視野内に表示することが可能になる。
さらに、本実施形態によれば、OCR24が、翻訳すべき単語または文章からなる文字列を含む文字列の画像信号を文字認識する際に、文字列が横書きか、縦書きかを判定し、その判定結果が、翻訳ユニット20の制御部21のメモリ26に保存され、次に、OCR24が翻訳すべき単語または文章からなる文字列を含む文字列の画像信号を文字認識するにあたって、制御部22から、文字列の向きについての判定結果が、OCR24に出力され、OCR24が、翻訳すべき単語または文章からなる文字列を含む文字列の画像信号を文字認識する方向が指定されるから、翻訳すべき単語または文章からなる文字列を含む文字列認識信号を生成する時間を短縮することが可能になる。
図5は、本発明の第二の実施形態にかかる電子辞書の略斜視図である。
図5に示されるように、本実施形態にかかる電子辞書は、単語または文章の翻訳のための電子辞書として構成され、眼鏡レンズ10aを備えた眼鏡ユニット10と、翻訳ユニット20と、イヤホーン30と、マイクロフォン60とを備えている。
本実施形態においても、翻訳ユニット20は、ペンダント状に形成されており、したがって、電子辞書は、眼鏡ユニット10を、通常の眼鏡と同様に、頭部に装着するとともに、イヤホーン30を耳に装着し、翻訳ユニット20を首にかけた状態で使用することができる。
図5には図示されていないが、眼鏡ユニット10の眼鏡レンズ10aの上側のフレーム10c内には、眼鏡ユニット10の動作を制御する制御ブロックが取り付けられている。制御ブロックには、第1のケーブル36が接続され、第1のケーブル36は、眼鏡ユニット10のつる10b内を通って、つる10bの先端部から延出され、イヤホーン30の接続部31に着脱可能に接続されている。
イヤホーン30の接続部32からは、第2のケーブル37が延び、マイクロフォン60に接続され、マイクロフォン60と翻訳ユニット20の接続部27との間は、第3のケーブル38によって接続されている。
図6は、眼鏡ユニット10の略縦断面図である。
図6に示されるように、本実施形態においては、眼鏡ユニット10は、眼鏡レンズ10aのほぼ全面に取り付けられた表示素子50(図示せず)と、眼鏡レンズ10aの上側のフレーム10c内に取り付けられた制御ブロック40を備えている。
図7は、図5に示された電子辞書の電気的構成を示すブロックダイアグラムである。
図7に示されるように、眼鏡ユニット10は、眼鏡レンズ10aの上側のフレーム10c内に取り付けられた制御ブロック40と、つる10bの基部に取り付けられた手動操作部45と、眼鏡レンズ10aのほぼ全面に取り付けられた表示素子50と、鼻パッド10eに取り付けられた太陽電池41を備えている。
図7に示されるように、制御ブロック40は、眼鏡ユニット10全体の動作を制御する制御部11と、翻訳すべき単語または文章からなる文字列を記憶する文字列メモリ15と、翻訳された単語または文章からなる文字列を記憶する翻訳文字列メモリ16と、蓄電池を備えた補助電源部18を備えている。
眼鏡ユニット10の手動操作部45は、ユーザーが、眼鏡のずれを直す際に、自然と手が触れるつる10bの基部に設けられており、図7に示されるように、手動操作部45は、制御ブロック40の制御部11に接続され、電子辞書を起動させる際に操作される電源スイッチ45aと、電子辞書に、眼鏡ユニット10の表示部に表示された翻訳すべき単語または文章からなる文字列の翻訳を開始させる翻訳開始スイッチ45bとを備えている。
図7に示されるように、蓄電池を備えた補助電源部18は、充電制御回路(図示せず)を介して、眼鏡ユニット10の鼻パッド10eに取り付けられた太陽電池41に接続され、補助電源部18の蓄電池が、太陽電池41によって、充電可能に構成されている。
表示素子50は、眼鏡ユニット10の眼鏡視野内に、翻訳すべき文字列を表示し、翻訳結果を表示する表示部50bを形成する機能を有している。
図7に示されるように、翻訳ユニット20は、翻訳ユニット20全体の動作を制御する制御部21と、ユーザーによって操作可能に構成された手動操作部22と、辞書データベース23と、マイクロフォン60から入力された翻訳すべき単語または文章からなる文字列の音声信号を記憶する音声メモリ65と、マイクロフォン60から入力された翻訳すべき単語または文章からなる文字列の音声信号を、通信可能な信号形式に処理し、翻訳すべき単語または文章の文字列信号を生成する信号処理部66と、翻訳すべき単語または文章の文字列信号を記憶する文字列メモリ67と、音声信号を生成して、イヤホーン30に出力する音声変換部35と、第3のケーブル38が接続される接続部27と、電源部28と、タイマー29とを備えている。
図7に示されるように、翻訳ユニット20の手動操作部22は、電子辞書を起動させる際に操作される電源スイッチ22aと、制御部21に、眼鏡ユニットの表示部に表示された翻訳すべき単語または文章からなる文字列の翻訳を開始させる翻訳開始スイッチ22bと、翻訳に用いる辞書を指定する辞書指定部22cとを備えている。
辞書データベース23は、辞書を格納したメモリカードなどを、翻訳ユニット20に差し込むことによって、辞書の追加ができるように構成されている。
図7に示されるように、イヤホーン30は、眼鏡ユニット10のつる10bの先端部から延びる第1のケーブル36が接続される接続部31と、第2のケーブル37が接続された接続部32と、音声を発する音声発生部33とを備えている。
図7に示されるように、第1のケーブル36は、眼鏡ユニット10の補助電源部18への充電電源供給ライン36aと、眼鏡ユニット10の制御部11への入力信号ライン36cを備え、一方、第2のケーブル37は、眼鏡ユニット10の補助電源部18への充電電源供給ライン37aと、眼鏡ユニット10の制御部11への入力信号ライン37cと、イヤホーン30への音声信号出力ライン37dを備えている。また、第3のケーブル38は、眼鏡ユニット10の補助電源部18への充電電源供給ライン38aと、眼鏡ユニット10の制御部11への入力信号ライン38bと、マイクロフォン60からの音声信号入力ライン38cと、イヤホーン30への音声信号出力ライン38dを備えている。
以上のように構成された本実施形態にかかる電子辞書は、以下のようにして、文字または文章を翻訳する。
まず、眼鏡ユニット10が、通常の眼鏡と同様に、ユーザーの頭部に装着されるとともに、イヤホーン30が耳に装着され、翻訳ユニット20がユーザーの首にかけられる。
次いで、ユーザーによって、眼鏡ユニット10の手動操作部45の電源スイッチ45aまたは翻訳ユニット20の手動操作部22の電源スイッチ22aが操作されて、電子辞書が起動される。
電子辞書が起動されると、眼鏡ユニット10の制御部11から、表示素子50に表示信号が出力され、眼鏡ユニット10の表示素子50により、眼鏡ユニット10の眼鏡視野55の下方に、翻訳すべき単語または文章からなる文字列を表示し、単語または文章からなる文字列の翻訳結果を表示する表示部50bが形成される。
翻訳に先立って、ユーザーによって、翻訳ユニット20の手動操作部22の辞書指定部22cが操作されて、翻訳に用いられる辞書が指定される。
単語または文章からなる文字列の翻訳にあたっては、ユーザーによって、翻訳すべき単語または文章からなる文字列が、マイクロフォン60に音声入力される。
マイクロフォンに音声入力された翻訳すべき単語または文章からなる文字列の音声信号は、翻訳ユニット20に入力され、音声メモリ65に記憶される。
次いで、翻訳すべき単語または文章からなる文字列の音声信号は、信号処理部66に出力され、通信可能な信号形式に処理されて、翻訳すべき単語または文章からなる文字列の文字列信号が生成され、制御部21に出力される。
制御部21は、文字列信号を受けると、翻訳すべき単語または文章からなる文字列を、文字列メモリ67に保存するとともに、眼鏡ユニット10に出力する。
同時に、翻訳ユニット20の制御部21は、タイマー29を起動させる。
文字列信号は、第3のケーブル38、マイクロフォン60、第2のケーブル37、イヤホーン30および第1のケーブル36を通って、眼鏡ユニット10の制御ブロック40の制御部11に送られる。
制御ブロック40の制御部11は、文字列信号を文字列メモリ15に出力し、翻訳すべき単語または文章からなる文字列を、文字列メモリ15に保存するとともに、翻訳すべき単語または文章からなる文字列を、表示素子50に出力する。
眼鏡ユニット10の表示素子50は、制御部11から、翻訳すべき単語または文章からなる文字列を受けると、文字列を、眼鏡ユニット10の眼鏡視野55内の表示部50bに表示する。
この時点では、表示部50bに表示された単語または文章からなる文字列が、ユーザーが翻訳したいと考えている文字列であるということは確定していないので、表示素子50は、文字列を点滅させる。
その結果、表示部50bに表示された文字列が、翻訳したい文字列であるときは、ユーザーによって、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bまたは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作される。
眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bが操作されると、翻訳開始信号が、眼鏡ユニット10の制御部11に入力され、第1のケーブル36、イヤホーン30、第2のケーブル37、マイクロフォン60および第3のケーブル38を介して、翻訳ユニット20に送られ、翻訳ユニット20の制御部21に入力される。
一方、翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作されると、翻訳開始信号が、翻訳ユニット20の制御部21に入力される。翻訳開始信号は、さらに、制御ブロック40の制御部11に転送される。
翻訳開始信号を受けると、制御ブロック40の制御部11は、表示素子50に文字列確定信号を出力して、表示部50bに表示された文字列の点滅を停止させる。
翻訳開始信号を受けると、翻訳ユニット20の制御部21は、文字列メモリ67に記憶されている文字列を読み出し、辞書データベースにアクセスして、あらかじめ選択された辞書を用いて、文字列を翻訳し、第3のケーブル38、マイクロフォン60、第2のケーブル37、イヤホーン30および第1のケーブル36を介して、眼鏡ユニット10の制御ブロック40に出力する。翻訳された単語または文章からなる文字列は、制御ブロック40の制御部11に入力され、翻訳文字列メモリ16に記憶される。
同時に、制御部11は、翻訳された単語または文章からなる文字列を、表示素子50に出力する。
表示素子50は、制御ブロック40の制御部11から、翻訳された単語または文章からなる文字列を受けると、文字列を表示部50bに表示する。
さらに、翻訳ユニット20の制御部21は、文字列を翻訳し、眼鏡ユニット10の制御ブロック40に出力するのと同時に、翻訳した単語または文章からなる文字列を、音声変換部35に出力する。音声変換部35は、入力された文字列を音声信号に変換し、第3のケーブル38、マイクロフォン60および第2のケーブル37を介して、イヤホーン30に出力し、その結果、イヤホーン30から、翻訳された文字列に対応する音声が発せられる。
これに対して、眼鏡ユニット10の表示部50bに表示された単語または文章からなる文字列が、ユーザーが翻訳したいと考えている文字列でないときは、ユーザーは、再度、マイクロフォン60に、翻訳すべき単語または文章からなる文字列を音声入力する。
マイクロフォンに音声入力された翻訳すべき単語または文章からなる文字列の音声信号は、翻訳ユニット20に入力され、音声メモリ65に記憶された音声信号に上書きされる。
次いで、翻訳すべき単語または文章からなる文字列の音声信号は、信号処理部66に出力され、通信可能な信号形式に処理されて、翻訳すべき単語または文章からなる文字列の文字列信号が生成され、制御部21に出力される。
制御部21は、文字列信号を受けると、翻訳すべき単語または文章からなる文字列を、文字列メモリ67に保存するとともに、眼鏡ユニット10に出力する。
同時に、翻訳ユニット20の制御部21は、タイマー29をリセットして、再起動させる。
制御ブロック40の制御部11は、文字列信号を文字列メモリ15に出力し、文字列メモリ15に保存されている文字列に、ユーザーによって、再度、入力された翻訳すべき単語または文章からなる文字列を上書きして、文字列メモリ15に保存するとともに、翻訳すべき単語または文章からなる文字列を、表示素子50に出力する。
眼鏡ユニット10の表示素子50は、制御部11から、翻訳すべき単語または文章からなる文字列を受けると、文字列を、眼鏡ユニット10の眼鏡視野55内の表示部50bに表示する。
ユーザーは、表示部50bに表示された文字列が、翻訳したい文字列であるときは、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bまたは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bを操作し、上述したのと同様にして、翻訳ユニット20によって、文字列が翻訳されて、眼鏡ユニット10の表示部50bに表示される。
これに対して、表示部50bに表示された文字列が、ユーザーが翻訳したいと考えている文字列でないときは、ユーザーは、再度、マイクロフォン60に、翻訳すべき単語または文章からなる文字列を音声入力し、上述したのと同様にして、翻訳ユニット20によって、別の文字列が生成され、眼鏡ユニット10の表示部50bに表示される。
一方、タイマー29が起動されてから、所定の時間が経過したとき、すなわち、眼鏡ユニット10の表示部50bに、翻訳すべき文字列が表示されてから、ユーザーが、再度、翻訳すべき単語または文章からなる文字列を音声入力することなく、所定の時間が経過したときは、翻訳ユニット20の制御部21は、タイマー29からの計時信号に基づいて、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bまたは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bが操作された場合と同様にして、文字列メモリに記憶されている単語または文章からなる文字列の翻訳を開始する。
これは、翻訳すべき文字列が表示されてから、所定の時間にわたって、ユーザーが、再度、翻訳すべき単語または文章からなる文字列を音声入力しないときは、ユーザーは、表示部50bに表示された文字列を翻訳することに異議を有していないと認められるからである。
翻訳ユニット20の制御部21は、辞書データベース23にアクセスして、眼鏡ユニット10の表示部50bに表示された文字列を翻訳し、翻訳した文字列を眼鏡ユニット10に送り、眼鏡ユニット10の制御部11によって、翻訳された文字列が、表示部50bに表示される。
本実施形態によれば、電子辞書は、眼鏡ユニット10と、眼鏡ユニット10と別体に形成された翻訳ユニット20と、イヤホーン30によって構成され、単語または文章よりなる文字列を翻訳するための機構はすべて、翻訳ユニット20に設けられており、眼鏡ユニット10は、単に、制御部11、表示素子50および手動操作部45など最小限の機構を備えているに過ぎないから、眼鏡ユニット10のサイズは、通常の眼鏡とほとんど変わらず、したがって、眼鏡ユニット10を装着していても、ユーザーが違和感を抱くことはないから、歩行中にも、眼鏡ユニットを装着することができ、眼鏡ユニットを、常時、装着して、電子辞書機能を利用することができる。
また、本実施態様によれば、電子辞書は、眼鏡ユニット10と、ペンダント状に形成された翻訳ユニット20と、イヤホーン30と、マイクロフォン60によって構成されているから、眼鏡ユニット10を頭部に装着するとともに、イヤホーン30を耳に装着し、翻訳ユニット20を首にかけた状態で使用することができ、さらに、第1のケーブル36は、単に、眼鏡ユニット10のつる10bの先端部とイヤホーン30を接続しているに過ぎず、また、イヤホーン30と翻訳ユニット20を接続する第2のケーブル37および第3のケーブル38はペンダントの鎖のように見えるから、電子辞書を使用中に、周囲に違和感を与えることもない。
さらに、本実施形態によれば、ユーザーが、翻訳をしたい単語または文章よりなる文字列を、マイクロフォン60に音声入力するだけで、翻訳の対象となる単語または文章よりなる文字列が、眼鏡ユニット10の表示部50bに表示され、ユーザーが、眼鏡ユニット10の手動操作部45に設けられた翻訳開始スイッチ45bもしくは翻訳ユニット20の手動操作部22に設けられた翻訳開始スイッチ22bを操作したとき、または、翻訳の対象となる単語または文章よりなる文字列が、眼鏡ユニット10の表示部50bに表示されてから、所定の時間が経過するまで、再度、翻訳すべき単語または文章よりなる文字列を、マイクロフォン60に音声入力しなかったときに、単語または文章よりなる文字列が翻訳させるように構成されているから、熟練を要することなく、所望の単語または文章よりなる文字列を翻訳することは可能になる。
本発明は、以上の実施形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることはいうまでもない。
たとえば、前記実施形態においては、電子辞書は、単語または文章を翻訳するための電子辞書として構成されているが、本発明にかかる電子辞書は、単語または文章を異なる言語に翻訳する機能のみを有するものに限定されるものではなく、ユーザーが指定した単語の平易な言葉へ置き換えて、表示する機能、ユーザーが指定した単語の同義語を表示する機能、ユーザーが指定した単語の反意語を表示する機能などを有していてもよい。
また、前記実施形態においては、翻訳ユニット20はペンダント状に形成されているが、翻訳ユニット20の形状は限定されるものではなく、任意の形状に形成することができる。
さらに、図1ないし図4に示された第一の実施形態においては、眼鏡ユニット10の眼鏡視野内に、十字状の視線マーク50aが形成されているが、視線マーク50aは十字状であることは必ずしも、必要でなく、図8(A)および図8(B)に示されるように、矩形状であってもよく、また、翻訳すべき単語または文章を含む文字列が横書きであると判定したときに、図8(A)に示されるように、横長の矩形状視線マーク50aを形成し、翻訳すべき単語または文章を含む文字列が縦書きであると判定したときに、図8(B)に示されるように、縦長の矩形状視線マーク50aを形成するようにしてもよい。
また、図1ないし図4に示された実施形態においては、表示部50bに表示された文字列が、翻訳すべき単語または文章からなる文字列を含んでいるが、翻訳すべき単語または文章からなる文字列以外の文字列も含んでいるときに、ユーザーが、眼鏡ユニット10に設けられた手動操作部45の文字列指定部45cを操作して、視線マーク50aを、翻訳すべき単語または文章からなる文字列の始点から終点まで移動させ、翻訳すべき単語または文章からなる文字列を指定するように構成されているが、図8(A)または図8(B)に示されるように、矩形状視線マーク50aを表示するように構成されている場合には、手動操作部45の文字列指定部45cを操作することによって、矩形状視線マーク50aの長さを変化させ、翻訳すべき単語または文章からなる文字列が、矩形状視線マーク50aによって画定されるようにして、翻訳すべき単語または文章からなる文字列を指定するようにすることもできる。
さらに、前記実施形態においては、表示部50bに、翻訳すべき単語もしくは文章を含む文字列または翻訳された文字列を表示するように構成されているが、翻訳前の文字列と翻訳された文字列を、同時に、表示部50bに表示することもでき、たとえば、表示部50bの上側の行に、翻訳前の文字列を表示し、下側の行に、翻訳された文字列を表示するようにしてもよい。
また、図1ないし図4に示された第一の実施形態においては、OCR24が、翻訳すべき単語または文章を含む文字列が横書きか、縦書きかを判定しているが、あらかじめ、ユーザーが手動によって、翻訳すべき単語または文章を含む文字列が横書きか、縦書きかを指定するようにしてもよい。
さらに、前記実施形態においては、翻訳した単語または文章からなる文字列をイヤホーン30から音声出力するように構成されているが、翻訳した単語または文章からなる文字列をイヤホーン30から音声出力することは必ずしも必要でなく、さらには、電子辞書がイヤホーン30を備えていることも必ずしも必要でない。
また、前記実施形態においては、第1のケーブル36が、眼鏡ユニット10のつる10bの先端部から、延出しているが、つる10bの途中から、延出していてもよい。
また、前記実施形態においては、翻訳開始前に、表示部50bに表示された文字列を点滅させているが、点滅に代えて、下線付きで文字列を表示しても、色を変えて、文字列を表示してもよく、さらには、これらを組み合わせて、文字列が未確定であることを表示するようにしてもよい。
さらに、前記実施形態においては、眼鏡ユニット10、翻訳ユニット20、イヤホーン30およびマイクロフォン60との間を、有線で通信しているが、無線で通信するようにしてもよい。
また、前記実施形態の眼鏡ユニット10に時計を内蔵させ、補助電源部18によって、眼鏡レンズ10aの視野内に、時刻を表示させることもできる。
図1は、本発明の第一の実施形態にかかる電子辞書の略斜視図である。 図2は、眼鏡ユニットの略縦断面図である。 図3は、図1に示された電子辞書の電気的構成を示すブロックダイアグラムである。 図4は、眼鏡ユニットの眼鏡視野を示す略正面図である。 図5は、本発明の第二の実施形態にかかる電子辞書の略斜視図である。 図6は、図5に示される電子辞書の眼鏡ユニットの略縦断面図である。 図7は、図5に示された電子辞書の電気的構成を示すブロックダイアグラムである。 図8は、眼鏡ユニットの眼鏡視野の他の例を示す略正面図である。
符号の説明
10 眼鏡ユニット
10a 眼鏡レンズ
10b 上側のフレーム
10c つる
10d ホログラムミラー
11 制御部
12 カメラ
13 画像メモリ
14 信号処理部
15 文字列メモリ
16 翻訳文字列メモリ
18 補助電源部
20 翻訳ユニット
21 制御部
22 手動操作部
22a 電源スイッチ
22b 翻訳開始スイッチ
22c 辞書指定部
23 辞書データベース
24 OCR
25 画像メモリ
26 音声変換部
28 電源部
29 タイマー
30 イヤホーン
33 音声発生部
36 第1のケーブル
37 第2のケーブル
38 第3のケーブル
40 制御ブロック
41 太陽電池
45 手動操作部
45a 電源スイッチ
45b 翻訳開始スイッチ
45c 文字列指定部
50 表示素子
50a 視線マーク
50b 表示部
60 マイクロフォン
65 音声メモリ
66 信号処理部
67 文字列メモリ

Claims (6)

  1. 眼鏡ユニットと、前記眼鏡ユニットと別体に形成された文字列変換ユニットと、前記眼鏡ユニットと前記文字列変換ユニットとの間で、信号の授受が可能な信号伝達線路とを備え、
    前記眼鏡ユニットが、眼鏡レンズと、前記眼鏡ユニットの視野内にある単語または文章よりなる文字列を画像入力可能な画像入力部と、前記眼鏡レンズの視野の中央部分に存在する単語または文章よりなる文字列を画像入力すべき文字列として指定する文字列指定部および前記眼鏡レンズの視野の中央部分以外の位置に、単語または文章よりなる文字列を表示する表示部を形成する表示素子と、前記表示素子を制御するとともに、前記画像入力部によって入力された前記文字列の画像信号を、前記信号伝達線路を介して、前記文字列変換ユニットに出力する制御部とを備え、
    前記文字列変換ユニットが、前記眼鏡ユニットの前記制御部から出力される前記文字列の前記画像信号を文字認識する文字認識部と、前記文字認識部が文字認識した前記文字列を変換して、前記文字列の変換結果を、前記信号伝達線路を介して、前記眼鏡ユニットに出力する文字列変換処理部を備え、
    前記眼鏡ユニットの前記表示素子が、前記文字列の変換結果を前記表示部に表示するように構成されたことを特徴とする電子辞書。
  2. 前記画像入力部が、撮像素子によって構成されたことを特徴とする請求項1に記載の電子辞書。
  3. 眼鏡ユニットと、前記眼鏡ユニットと別体に形成された文字列変換ユニットと、前記眼鏡ユニットと前記文字列変換ユニットとの間で、信号の授受が可能な信号伝達線路とを備え、
    前記眼鏡ユニットが、眼鏡レンズと、前記眼鏡レンズの視野内の単語または文章よりなる文字列を画像入力する画像入力部と、前記画像入力部によって画像入力すべき前記眼鏡ユニットの視野内の単語または文章よりなる文字列を指定する文字列指定部および前記眼鏡ユニットの眼鏡視野内に、単語または文章よりなる文字列を表示する表示部を形成する表示素子と、前記表示素子を制御するとともに、前記画像入力部によって入力された前記文字列の画像信号を、前記信号伝達線路を介して、前記文字列変換ユニットに出力する制御部と、前記眼鏡レンズの近傍に設けられた手動操作部を備え、
    前記文字列変換ユニットが、前記眼鏡ユニットの前記制御部から出力される前記文字列の前記画像信号を文字認識する文字認識部と、前記文字認識部が文字認識した前記文字列を変換して、前記文字列の変換結果を、前記信号伝達線路を介して、前記眼鏡ユニットに出力する文字列変換処理部を備え、
    前記眼鏡ユニットの前記表示素子が、前記文字列の変換結果を前記表示部に表示するように構成されたことを特徴とする電子辞書。
  4. 前記画像入力部が、撮像素子によって構成されたことを特徴とする請求項3に記載の電子辞書。
  5. 前記眼鏡ユニットの前記手動操作部が、単語または文章よりなる文字列の変換開始を指示する文字列変換開始指示部と、変換すべき単語または文章よりなる文字列を確定する文字列確定部を備えたことを特徴とする請求項3または4に記載の電子辞書。
  6. 前記眼鏡ユニットの前記手動操作部が、つるの基部に設けられたことを特徴とする請求項3ないし5のいずれか1項に記載の電子辞書。
JP2006107278A 2006-04-10 2006-04-10 電子辞書 Pending JP2007280166A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006107278A JP2007280166A (ja) 2006-04-10 2006-04-10 電子辞書

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006107278A JP2007280166A (ja) 2006-04-10 2006-04-10 電子辞書

Publications (1)

Publication Number Publication Date
JP2007280166A true JP2007280166A (ja) 2007-10-25

Family

ID=38681537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006107278A Pending JP2007280166A (ja) 2006-04-10 2006-04-10 電子辞書

Country Status (1)

Country Link
JP (1) JP2007280166A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011077648A1 (ja) 2009-12-25 2011-06-30 株式会社スクウェア・エニックス リアルタイムなカメラ辞書
JP2011138473A (ja) * 2010-06-08 2011-07-14 Square Enix Co Ltd リアルタイムなカメラ辞書
US9384557B2 (en) 2014-09-17 2016-07-05 Kabushiki Kaisha Toshiba Information processing device, image modification method, and computer program product

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011077648A1 (ja) 2009-12-25 2011-06-30 株式会社スクウェア・エニックス リアルタイムなカメラ辞書
JP2011134144A (ja) * 2009-12-25 2011-07-07 Square Enix Co Ltd リアルタイムなカメラ辞書
US8903131B2 (en) 2009-12-25 2014-12-02 Kabushiki Kaisha Square Enix Real-time camera dictionary
JP2011138473A (ja) * 2010-06-08 2011-07-14 Square Enix Co Ltd リアルタイムなカメラ辞書
US9384557B2 (en) 2014-09-17 2016-07-05 Kabushiki Kaisha Toshiba Information processing device, image modification method, and computer program product

Similar Documents

Publication Publication Date Title
US10747315B2 (en) Communication and control system and method
JP6459711B2 (ja) 表示装置、及び、表示装置の制御方法
US20190146753A1 (en) Automatic Speech Recognition (ASR) Feedback For Head Mounted Displays (HMD)
US8902303B2 (en) Apparatus connectable to glasses
EP3525031B1 (en) Display device
US9830909B2 (en) User configurable speech commands
EP1196807A1 (en) Integrated method and system for communication
CN106471435A (zh) 检测可穿戴装置的状态
JP6447636B2 (ja) ウェアラブルデバイス、表示制御方法、及び表示制御プログラム
WO2016075782A1 (ja) ウェアラブルデバイス、表示制御方法、及び表示制御プログラム
JP2007280165A (ja) 電子辞書
US20160291348A1 (en) Eyeglasses Structure Enabling Image Enhancement
WO2013146862A1 (ja) ヘッドマウントディスプレイ及びコンピュータプログラム
JPWO2016075781A1 (ja) ウェアラブルデバイス、表示制御方法、及び表示制御プログラム
KR20170140277A (ko) 이미지 향상을 가능하게 하는 안경 구조체
CN106842565A (zh) 一种分离式可穿戴智能视觉增强设备
JP2007280166A (ja) 電子辞書
JP2007280164A (ja) 電子辞書
JP7247519B2 (ja) 表示装置、及び、表示装置の制御方法
JP2007280163A (ja) 電子辞書
CN213876195U (zh) 一种眼镜框架及智能导航眼镜
US20200265839A1 (en) Glasses with subtitles
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
TWM506974U (zh) 無線充電頭戴式顯示裝置
JP7031112B1 (ja) 眼鏡型端末