JP7031112B1 - 眼鏡型端末 - Google Patents

眼鏡型端末 Download PDF

Info

Publication number
JP7031112B1
JP7031112B1 JP2021118164A JP2021118164A JP7031112B1 JP 7031112 B1 JP7031112 B1 JP 7031112B1 JP 2021118164 A JP2021118164 A JP 2021118164A JP 2021118164 A JP2021118164 A JP 2021118164A JP 7031112 B1 JP7031112 B1 JP 7031112B1
Authority
JP
Japan
Prior art keywords
image
unit
screen
display device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021118164A
Other languages
English (en)
Other versions
JP2022064283A (ja
Inventor
裕行 池田
Original Assignee
裕行 池田
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 裕行 池田 filed Critical 裕行 池田
Priority to EP21201733.9A priority Critical patent/EP3985486B1/en
Priority to US17/450,599 priority patent/US11429200B2/en
Application granted granted Critical
Publication of JP7031112B1 publication Critical patent/JP7031112B1/ja
Publication of JP2022064283A publication Critical patent/JP2022064283A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】視野内に表示される画面に対して文字入力等の操作を容易且つ正確に行うことができる眼鏡型端末を提供する。【解決手段】眼鏡型端末1において、ユーザの目に映り込んだ元画面及び指を撮像装置30が撮像したときに、操作判定部73は、その撮像して得られた画像データに基づいて当該指による操作の内容を判定し、操作位置特定部74は、その撮像して得られた画像データに基づいて当該元画面内における当該指の位置を表すデータを生成する。入力制御部75は、操作判定部73で判定して得られた操作の内容に関するデータ及び操作位置特定部74で生成された位置を表すデータと、記憶部90に記憶されている当該元画面に関するデータとに基づいて、当該指による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、ディスプレイ装置20に表示する元画面の制御を行う。【選択図】図3

Description

本発明は、身に着けて使用する眼鏡型端末に関するものである。
近年、身に着けて使用する端末、例えばグーグル社のグーグルグラスのような眼鏡型端末が開発・販売されている(例えば、特許文献1参照。)。このグーグルグラスは、眼鏡本体の右眼ガラスの眼前にプリズムを使用した極小型ディスプレイが配置されている。グーグルグラスのユーザは現実の周囲の景色とともに、同時に、このディスプレイに表示される画面を視認することができる。この眼鏡型端末を着用して、例えば街を歩くと、ユーザは右目の視野内に浮かんでいるように見える画面に表示される情報、例えば近辺の地図を見ることができる。また、例えば、そのユーザの近辺にある商店やレストラン等は、そのユーザに対してその画面に広告を表示することも可能である。この眼鏡型端末を使用することにより、新たなデジタルライフが始まろうとしている。
特開平11-98227号公報
ところで、現在、開発・販売されている眼鏡型端末では、眼鏡型端末のユーザが表示される画面を操作するときには、音声により指示したり、或いは、眼鏡の柄の根元部分に設けられたタッチパッドをタップしたりしている。しかしながら、ユーザが視野内に浮かんでいるように見える画面(視認画面)に対して文字入力を行う場合、例えば音声による操作では、言葉には同音異義語が多々あり、また発音には個人差があるので、誰でもが正確な文字入力を行うことができるわけではない。また、音声による操作では、外部の雑音等により、眼鏡型端末がその音声の内容を正確に認識できないことがある。更に、眼鏡の柄の部分に設けられたタッチパッドは、文字入力を行うことができるほど大きくはない。このため、従来の眼鏡型端末は視野内に表示される画面を用いて、例えばメールの文字入力等を行うことが困難であるという問題があった。
本発明は上記事情に基づいてなされたものであり、視野内に表示される画面に対して文字入力等の操作を容易且つ正確に行うことができる眼鏡型端末を提供することを目的とするものである。
上記の目的を達成するための本発明は、使用者によって眼鏡のように装着される本体部と、本体部に設けられた、使用者に空中に浮かんでいるように見える視認画面に対応する元画面を表示する表示装置とを有し、使用者が本体部を装着して視認画面に対して各種の操作を行うために使用される眼鏡型端末において、元画面に関するデータを含む各種のデータを記憶する記憶部と、本体部に設けられた、使用者の目を撮像することにより、使用者が視認画面に対して指又は所定の入力指示具で操作を行ったときに使用者の目に映り込んだ元画面及び当該指又は入力指示具についての画像を取得するための撮像装置と、使用者の目に映り込んだ元画面及び指又は入力指示具を撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて当該指又は入力指示具による操作が各種の操作のうちどのような内容の操作であるのかを判定する操作判定部と、使用者の目に映り込んだ元画面及び指又は入力指示具を撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて当該指又は入力指示具による操作の対象となった位置が当該元画面内におけるどの位置であるのかを特定する操作位置特定部と、使用者が視認画面に対して指又は入力指示具で操作を行ったときに、操作判定部で得られた当該指又は入力指示具による操作の内容に関するデータと、操作位置特定部で得られた当該元画面内における当該指又は入力指示具による操作の対象となった位置を表すデータと、記憶部に記憶されている当該元画面に関するデータとに基づいて、当該視認画面に対して行われた当該指又は入力指示具による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、表示装置に表示する元画面の制御を行う入力制御部と、を備えることを特徴とするものである。
このように、本発明の眼鏡型端末では、使用者の目を撮像することにより使用者が視認画面に対して指又は所定の入力指示具で操作を行ったときに使用者の目に映り込んだ元画面及び当該指又は入力指示具についての画像を取得するための撮像装置が本体部に設けられており、操作判定部は、使用者の目に映り込んだ元画面及び指又は入力指示具を撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて当該指又は入力指示具による操作が各種の操作のうちどのような内容の操作であるのかを判定し、操作位置特定部は、使用者の目に映り込んだ元画面及び指又は入力指示具を撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて当該指又は入力指示具による操作の対象となった位置が当該元画面内におけるどの位置であるのかを特定する。そして、入力制御部は、使用者が視認画面に対して指又は入力指示具で操作を行ったときに、操作判定部で得られた当該指又は入力指示具による操作の内容に関するデータと、操作位置特定部で得られた当該元画面内における当該指又は入力指示具による操作の対象となった位置を表すデータと、記憶部に記憶されている当該元画面に関するデータとに基づいて、当該視認画面に対して行われた当該指又は入力指示具による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、表示装置に表示する元画面の制御を行う。このため、使用者は、空中に浮かんでいるように見える視認画面に対して、通常のタッチパネルに表示された画面に対して操作するのと同様の操作を行うことにより、当該操作に対応する指示を入力することができる。したがって、本発明の眼鏡型端末を用いると、使用者は、通常のスマートフォン端末やタブレット端末と同様に、視認画面に対して操作を行うことにより、文字入力の操作や拡大・縮小等の各種の画面操作を容易且つ正確に行うことができる。
ここで、操作位置特定部は、使用者の目に映り込んだ元画面及び指又は入力指示具を撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて、撮像装置が撮像することができる範囲である撮像範囲内における当該元画面の範囲及び撮像範囲内における当該指又は入力指示具の位置を求め、その求めた撮像範囲内における当該元画面の範囲及び撮像範囲内における当該指又は入力指示具の位置に基づいて当該元画面内における当該指又は入力指示具による操作の対象となった位置を特定するようにしてもよい。
また、本発明の眼鏡型端末において、撮像装置は予め使用者の目にピントが合うように構成されていてもよく、又は、撮像装置は使用者の目に自動的にピントを合わせるオートフォーカス制御部を有するものであってもよい。いずれの場合でも、撮像装置は、使用者の目に映り込んだ元画面及び指又は入力指示具をピントが合った状態で撮像することができる。
また、本発明の眼鏡型端末には、撮像装置で撮像して得られた一連の画像データの中から、指又は入力指示具が存在している画像データを抽出する画像データ抽出部が更に備えられており、操作判定部は、画像データ抽出部で抽出された一連の画像データに基づいて当該指又は入力指示具による操作が各種の操作のうちどのような内容の操作であるのかを判定し、操作位置特定部は、画像データ抽出部で抽出された一連の画像データに基づいて当該元画面内における当該指又は入力指示具による操作の対象となった位置を特定することが望ましい。これにより、画像データ抽出部によって抽出される一連の画像データには、指又は指示具が存在している画像データだけが含まれるので、操作判定部及び操作位置特定部はそれぞれ、その処理を効率よく行うことができる。
この場合、本発明の眼鏡型端末には、表示装置に元画面を表示する前に使用者の目を撮像装置で撮像したときに、その撮像して得られた画像データに基づいて虹彩及び瞳孔の画像データを生成して記憶部に記憶する虹彩・瞳孔画像データ生成部と、使用者の目に映り込んだ元画面及び指又は入力指示具を撮像装置が撮像したときに、その撮像して得られた画像データと記憶部に記憶されている虹彩及び瞳孔の画像データとに基づいてそれらの差分を抽出する処理を行うことにより、虹彩及び瞳孔の画像が取り除かれた画像データを生成する画像差分抽出部と、が更に備えられており、画像データ抽出部は、画像差分抽出部で生成された一連の画像データを用いて画像データの抽出処理を行うようにしてもよい。これにより、画像差分抽出部で生成された画像データからは、虹彩及び瞳孔の画像が取り除かれているので、画像データ抽出部は、指又は入力指示具が存在している画像データを抽出する処理を容易に行うことができる。
特に、使用者がコンタクトレンズを装着している場合、画像差分抽出部は虹彩及び瞳孔の画像に加えてコンタクトレンズの画像が取り除かれた画像データを生成することが好ましい。すなわち、本発明の眼鏡型端末には、表示装置に元画面を表示する前に、コンタクトレンズを装着している使用者の目を撮像装置で撮像したときに、その撮像して得られた画像データに基づいてコンタクトレンズ、虹彩及び瞳孔の画像データを生成して記憶部に記憶する虹彩・瞳孔画像データ生成部と、使用者の目に映り込んだ元画面及び指又は入力指示具を撮像装置が撮像したときに、その撮像して得られた画像データと記憶部に記憶されているコンタクトレンズ、虹彩及び瞳孔の画像データとに基づいてそれらの差分を抽出する処理を行うことにより、コンタクトレンズ、虹彩及び瞳孔の画像が取り除かれた画像データを生成する画像差分抽出部と、が更に備えられており、画像データ抽出部は、画像差分抽出部で生成された一連の画像データを用いて画像データの抽出処理を行うようにしてもよい。これにより、画像差分抽出部で生成された画像データからは、コンタクトレンズ、虹彩及び瞳孔の画像が取り除かれているので、画像データ抽出部は、指又は入力指示具が存在している画像データを抽出する処理を容易に行うことができる。
また、本発明の眼鏡型端末には、本来球面の形状を持つ使用者の目に映り込んだ元画面及び指又は入力指示具についての画像が平面上に映り込んだ画像となるように、撮像装置で撮像して得られた画像データに対して画像変換を行う画像変換部が更に備えられており、画像データ抽出部は、画像変換部で画像変換が行われた一連の画像データを用いて画像データの抽出処理を行うことが望ましい。これにより、画像データ抽出部によって抽出される一連の画像データでは、歪みが補正されているので、操作位置特定部は、元画面内における指又は入力指示具による操作の対象となった位置を正確に特定することができる。
更に、本発明の眼鏡型端末には、撮像装置で撮像して得られた画像データに使用者の目の画像が存在しているかどうかを判定し、使用者の目の画像が存在していない画像データが撮像装置で一定時間継続して取得されたことを検知する目存在・不存在判定部と、目不存在判定部により使用者の目の画像が存在していない画像データが撮像装置で一定時間継続して取得されたことが検知されたときに、報知装置を制御して報知装置から音又は振動を発生させる報知制御部とが更に備えられていることが望ましい。これにより、例えば、自動車の運転者が本発明の眼鏡型端末を装着する場合、報知制御部は、目存在・不存在判定部によりその運転者の目の画像が存在していない画像データが撮像装置で一定時間継続して取得されたことが検知されたときに、運転者が寝ていると判断して、報知装置からアラームやバイブレーションを発生させることによって居眠り運転を防止することができる。
また、本発明の眼鏡型端末は、表示装置に表示される元画面には遠隔制御可能な装置についてのリモートコントローラの操作部に対応する画面が含まれており、リモートコントローラの操作部に対応する画面を元画面として表示装置に表示させ、その元画面に対応する視認画面に対して操作が行われたときに、その操作の内容を示す指令信号を生成し、その生成した指令信号を遠隔制御可能な装置に無線送信する遠隔制御部を更に備えていてもよい。
また、本発明の眼鏡型端末において、表示装置は透過型又は透明型の表示デバイスであり、その表示デバイスは使用者の顔の前側であって使用者の視野の範囲内に配置されるようにしてもよい。
本発明の眼鏡型端末において、表示装置は、表示デバイスを有するプロジェクタと、光学系と、その表示デバイスに表示された元画面が光学系を介して投影される投影部とを備えるものであってもよく、この場合、投影部としては、例えば、半透明スクリーン、透過型スクリーン、ホログラムシート、ホログラムフィルム、ホログラム光学素子又はハーフミラーを用いることができる。
また、本発明の眼鏡型端末において、表示装置は、表示デバイスを有するプロジェクタと、光学系と、その表示デバイスに表示された元画面が光学系を介して投影される投影部とを備えるものであってもよく、この場合、光学系としては、例えば、プリズム、導光板又は導波路を用いることができる。
また、本発明の眼鏡型端末において、通常、本体部としては眼鏡が用いられるが、本体部は眼鏡に限らず、フェイスシールドであってもよい。更に、本体部は使用者が眼鏡のように耳にかけて使用するのではなく、使用者が耳以外の頭部のいずれかの部位に装着して使用するものであってもよい。
更に、本発明の眼鏡型端末は、本体部と別体に構成された、表示部を搭載する端末装置を更に備えており、その端末装置が、表示装置と無線又は有線で接続されており、表示部に表示されている画面を元画面として表示装置に表示するように表示装置を制御する機能を有していてもよい。このように、本体部と端末装置とを別体に構成することにより、端末装置として、例えばスマートフォンやタブレット端末等の既存の携帯端末等を用いることができる。このように端末装置として既存の携帯端末等を用いることにより、本体部の部品点数を少なくして、本体部の構成を簡易なものとすることができる。また、端末装置として例えば市販のスマートフォン等を用いることにより、使い慣れているスマートフォン等を使用して操作することができるので、操作性の向上を図ることができる。
また、端末装置には、表示部の画面に対して接触操作が行われたときにその接触した位置を検知し、その検知した位置を示す接触位置情報を入力制御部に出力する位置検知部が備えられており、表示部に表示されるタッチパッドの画像に関するデータが記憶部に記憶されており、入力制御部は、表示装置に元画面が表示されている場合、表示部にタッチパッドの画像が表示され、使用者がタッチパッドの画像上で接触操作を行ったときに、位置検知部から送られる当該接触操作に対する接触位置情報及び記憶部に記憶されているタッチパッドの画像に関するデータに基づいて当該接触操作の内容を認識し、その認識した接触操作の内容にしたがって、表示装置に表示されている元画面の制御を行うようにしてもよい。
更に、端末装置には、当該端末装置の移動方向を検知すると共に当該端末装置の移動量を計測し、その検知した移動方向及びその計測した移動量を示す移動情報を入力制御部に出力する移動情報出力部が備えられており、端末装置の移動情報と表示装置上に表示されるカーソルに関連する操作との対応関係を表すデータが記憶部に記憶されており、入力制御部は、表示装置に元画面が表示されている場合、使用者が端末装置を移動させたときに、移動情報出力部から送られる当該移動に対する移動情報及び記憶部に記憶されている対応関係を表すデータに基づいてカーソルに関連する操作の内容を認識し、その認識した操作の内容にしたがって、表示装置に表示されている元画面の制御を行うようにしてもよい。
本発明に係る眼鏡型端末では、使用者の目を撮像することにより使用者が視認画面に対して指又は所定の入力指示具で操作を行ったときに使用者の目に映り込んだ元画面及び当該指又は入力指示具についての画像を取得するための撮像装置が本体部に設けられており、操作判定部は、撮像装置で得られた一連の画像データに基づいて当該指又は入力指示具による操作が各種の操作のうちどのような内容の操作であるのかを判定し、操作位置特定部は、撮像装置で得られた一連の画像データに基づいて当該指又は入力指示具による操作の対象となった位置が当該元画面内におけるどの位置であるのかを特定し、そして、入力制御部は、操作判定部で得られた当該指又は入力指示具による操作の内容に関するデータと、操作位置特定部で得られた当該元画面内における当該指又は入力指示具による操作の対象となった位置を表すデータと、記憶部に記憶されている当該元画面に関するデータとに基づいて、当該視認画面に対して行われた当該指又は入力指示具による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、表示装置に表示する元画面の制御を行う。このため、使用者は、空中に浮かんでいるように見える視認画面に対して、通常のタッチパネルに表示された画面に対して操作するのと同様の操作を行うことにより、当該操作に対応する指示を入力することができる。したがって、本発明の眼鏡型端末を用いると、使用者は、通常のスマートフォン端末やタブレット端末と同様に、視認画面に対して操作を行うことにより、文字入力の操作や拡大・縮小等の各種の画面操作を容易且つ正確に行うことができる。
図1(a)は本発明の第一実施形態である眼鏡型端末の概略平面図、同図(b)はその眼鏡型端末の概略右側面図である。 図2(a)は第一実施形態の眼鏡型端末の概略斜視図、図2(b)はその眼鏡型端末においてディスプレイ装置に元画面を投影している様子を説明するための概略図である。 図3は第一実施形態の眼鏡型端末の概略ブロック図である。 図4は文字入力画面の一例を示す図である。 図5は文字入力画面に表示される検索画面の一例を示す図である。 図6(a)は目に映り込んだ元画面の例を示す図、図6(b)は撮像装置の撮像範囲の例を示す図である。 図7はタッチパッド部の取付け場所を説明するための図である。 図8はタッチパッド部の構成を説明するための図である。 図9は視認画面に対して行われるタッチ操作の態様を説明するための図である。 図10は視認画面に対して行われるタッチ操作の態様を説明するための図である。 図11は第一実施形態の眼鏡型端末における文字入力の処理の手順を説明するためのフローチャートである。 図12は第一実施形態の眼鏡型端末における画面表示の処理の手順を説明するためのフローチャートである。 図13は本発明の第二実施形態である眼鏡型端末の概略ブロック図である。 図14は第二実施形態の眼鏡型端末における文字入力の処理の手順を説明するためのフローチャートである。 図15は第一実施形態の眼鏡型端末における画面表示の処理の手順を説明するためのフローチャートである。 図16は本発明の第三実施形態である眼鏡型端末の概略ブロック図である。 図17は第三実施形態の眼鏡型端末における文字入力の処理の手順を説明するためのフローチャートである。 図18は第三実施形態の眼鏡型端末における画面表示の処理の手順を説明するためのフローチャートである。 図19は本発明の第四実施形態である眼鏡型端末の概略ブロック図である。 図20は第四実施形態の眼鏡型端末における文字入力の処理の手順を説明するためのフローチャートである。 図21は第四実施形態の眼鏡型端末における画面表示の処理の手順を説明するためのフローチャートである。 図22は本発明の眼鏡型端末における本体部のレンズ部に貼り付けられるホログラムシートの例を示す図である。 図23は本発明の眼鏡型端末においてオートフォーカス機能を有する撮像装置の概略ブロック図である。 図24は操作位置特定部が元画面の範囲を特定する上で望ましい元画面の例を示す図である。 図25(a)は画像をハーフミラーに投影するディスプレイ装置を備える眼鏡型端末の概略平面図、図25(b)はそのディスプレイ装置を備える眼鏡型端末の概略右側面図である。 図26は図25に示す眼鏡型端末の概略斜視図である。 図27(a)は撮像レンズがハーフミラーの近傍に取り付けられた眼鏡型端末の概略平面図、図27(b)はその眼鏡型端末の概略右側面図である。 図28は図27に示す眼鏡型端末の概略斜視図である。 図29(a)はホログラムシートを有するタイプの二つのディスプレイ装置を備える眼鏡型端末の概略斜視図、図29(b)はハーフミラーを有するタイプの二つのディスプレイ装置を備える眼鏡型端末の概略斜視図である。 図30は二つのディスプレイ装置を備える眼鏡型端末における本体部のレンズ部に貼り付けられるホログラムシートの例を示す図である。 図31は元画面としてエアコンのリモコン画面を用い、そのリモコン画面に対応する視認画面に対してユーザが操作を行うときの様子を示す図である。 図32は携帯電話で電話をかける際の操作画面についての元画面の例を示す図である。 図33は本体部がフェイスシールドである眼鏡型端末の概略斜視図である。 図34(a)は本発明の第五実施形態である眼鏡型端末の概略平面図、図34(b)はその眼鏡型端末の概略右側面図である。 図35は第五実施形態の眼鏡型端末の概略斜視図である。 図36は第五実施形態の眼鏡型端末の概略ブロック図である。 図37は第五実施形態の眼鏡型端末においてディスプレイ装置制御用プログラムにしたがってディスプレイ装置に画面を表示する処理の手順を説明するためのフローチャートである。 図38は表示部の画面の一部をディスプレイ装置に表示する場合の視認画面の例を示す図である。 図39は表示部の画面に表示されている文字を拡大して得られる画面をディスプレイ装置に表示する場合の視認画面の例を示す図である。 図40は道案内用アプリケーションプログラムの画面をディスプレイ装置に元画面として表示した場合の視認画面の例を示す図である。 図41は本発明の第六実施形態である眼鏡型端末の概略斜視図である。 図42は第六実施形態の眼鏡型端末の概略ブロック図である。 図43は第六実施形態の眼鏡型端末においてディスプレイ装置制御用プログラムにしたがってディスプレイ装置に画面を表示する処理の手順を説明するためのフローチャートである。 図44は第五実施形態において端末装置としてスマートフォンを用いている場合にその端末装置の画面をタッチパッド部として使用している様子を示す図である。 図45は第五実施形態において端末装置としてスマートフォンを用いている場合にその端末装置をマウスとして使用してカーソルの移動を指示している様子を示す図である。
以下に、図面を参照して、本願に係る発明を実施するための形態について説明する。
[第一実施形態]
まず、本発明の第一実施形態である眼鏡型端末について説明する。図1(a)は本発明の第一実施形態である眼鏡型端末の概略平面図、同図(b)はその眼鏡型端末の概略右側面図である。図2(a)は第一実施形態の眼鏡型端末の概略斜視図、図2(b)はその眼鏡型端末においてディスプレイ装置に元画面を投影している様子を説明するための概略図である。また、図3は第一実施形態の眼鏡型端末の概略ブロック図である。
第一実施形態の眼鏡型端末は、ユーザ(使用者)が眼鏡のように装着して使用する、例えばグーグル社のグーグルグラスのようなウェアラブル端末である。この眼鏡型端末1は、図1、図2(a)及び図3に示すように、レンズが取り付けられるレンズ部を備える本体部(眼鏡)10と、本体部10に設けられたディスプレイ装置(表示装置)20と、ユーザの目を撮像するための撮像装置30と、タッチパッド部40と、マイク部50と、スピーカ部60と、制御部70と、通信部80と、記憶部90とを備える。
本体部10は、図1及び図2(a)に示すように、二つのレンズ部11,11を有する一般的な眼鏡である。レンズ部11に取り付けるレンズは、視力を矯正するための凸レンズや凹レンズであってもよいし、視力矯正機能を持たないただのガラスやプラスチック等であってもよいし、また、太陽光から目を保護するためのサングラス用のレンズであってもよい。
ディスプレイ装置20は、図1及び図2(a)に示すように、例えば、液晶パネル(表示デバイス)を有する小型プロジェクタ21と、光学系22と、光(映像)の一部を反射するホログラムシート(又はホログラムフィルム)23とを備える。ここで、ホログラムシート(又はホログラムフィルム)23は、液晶パネルに表示された画像が光学系22を介して投影される投影部としての役割を果たす。小型プロジェクタ21及び光学系22は一つの筐体100の中に配設され、その筐体100は本体部10の柄の部分に取り付けられている。また、この筐体100の中には撮像装置30も配設されている。第一実施形態では、筐体100は本体部10に着脱可能である。すなわち、小型プロジェクタ21、光学系22、撮像装置30は本体部10に着脱可能に構成されている。
小型プロジェクタ21としては、例えば、透過型液晶方式(LCD)プロジェクタ又は反射型液晶方式(LCOS)プロジェクタを用いることができる。ホログラムシート23は、本体部10における右眼用のレンズ部11に貼り付けられている。ここでは、ホログラムシート23としては長方形状(例えば縦1cm、横1.5cm)のものを用い、そのホログラムシート23を横長の状態にしてレンズ部11の上部であってやや右側に貼り付けている。小型プロジェクタ21の液晶パネルに表示された画像や映像は、図2(b)に示すように、光学系22を介してホログラムシート23に投影される。特に、第一実施形態では、ホログラムシート23の全体に小型プロジェクタ21の液晶パネルに表示された画像や映像を投影することにしている。すなわち、ホログラムシート23それ自体が小型プロジェクタ21による画像等の投影範囲となっている。図1に示すように、ユーザはホログラムシート23によって反射された画像や映像を見ることができる。実際、このホログラムシート23には極小な画面が表示される。ユーザは、眼鏡型端末1を使用すると、ホログラムシート23に表示される極小な画面の像である半透明の画面を空中に浮かんでいるように見ることができる。この浮かんでいるように見える半透明の画面は、ユーザにとっては、8フィート離れて視る25インチの画面に相当するものである。第一実施形態では、この浮かんでいるように見える画面が半透明である場合について説明するが、一般に、この画面は半透明でなくてもよい。また、第一実施形態では、この浮かんでいるように見える画面が、図1及び図2に示すようにユーザの視野の右上の位置に表示される場合について説明するが、一般に、この画面は、ユーザの視野の中央や左上や右下等の位置に表示するようにしてもよい。尚、以下では、このホログラムシート23に表示される極小の画面のことを「元画面」、眼鏡型端末1を使用するユーザに空中に浮かんでいるように見える画面のことを「視認画面」とも称する。
尚、一般には、ホログラムシート(又はホログラムフィルム)23の代わりに、例えば、半透明スクリーンや透過型スクリーンを用いることも可能である。
具体的に、ディスプレイ装置20には、文字入力画面等の各種の画面が表示される。図4は文字入力画面の一例を示す図である。図4に示すように、文字入力画面200は、キーボード画像210と、入力した文字等を表示するための表示領域220とを有する。キーボード画像210には、各文字(記号を含む)と対応付けられた複数の文字キー画像と、特定の機能が付与された複数の機能キー画像とが設けられている。図4の例では、キーボード画像210における文字キー画像の配列として、QWERTY配列を採用している。尚、キーボード画像210は、ひらがな50音配列のキーボード画像、各国の言語のキーボード画像、テンキー画像、又は、携帯電話或いはスマートフォンのキー配列と同様のキー画像等であってもよい。また、表示領域220には、例えば検索画面が表示される。図5は文字入力画面200の表示領域220に表示される検索画面の一例を示す図である。この検索画面221は、インターネットのサイトを検索するためのものであり、キーワード入力部2211と、検索結果を表示する検索結果表示部2212とを有する。ユーザは、文字入力画面200を視認画面Sとして見ているときに、そのキーボード画像210のキー画像を利用して、キーワード入力部2211にキーワードを入力することができる。
第一実施形態の眼鏡型端末では、後に詳述するように、ユーザは視認画面Sに対して指でタッチ操作を行うことにより、各種の指示を制御部70に与えることができる。そして、制御部70は、その指示の内容を認識し、その認識した指示の内容に応じて、ディスプレイ装置20に表示する元画面Mの制御を行うことになる。ここで、第一実施形態では、タッチ操作とは、通常のタッチパネルに対して行われるタッチ操作と同様に、タップ操作、ダブルタップ操作、長押し操作(ロングタップ)、ドラッグ操作、フリック操作、ピンチイン操作、ピンチアウト操作等の各種の操作をいうものとする。
撮像装置30は、図1及び図2に示すように、本体部10の柄の部分に設けられている。第一実施形態では、撮像装置30は、ディスプレイ装置20の小型プロジェクタ21及び光学系22とともに筐体100の中に配設されている。この撮像装置30は、図3に示すように、カメラ部31と、画像処理部32と、カメラ制御部33とを備える。カメラ部31はレンズや撮像素子を有するものである。画像処理部32は、カメラ部31で撮像して得られた画像データに基づいてその撮像した画像の色や階調の補正処理を行ったり、画像データの圧縮等の画像処理を行ったりするものである。カメラ制御部33は、画像処理部32を制御したり、制御部70との間で画像データのやり取りを制御したりする。尚、本実施形態では、画像処理部32は撮像装置30に設けられている場合について説明するが、この画像処理部32は、撮像装置30ではなく、制御部70に設けるようにしてもよい。
また、撮像装置30は、ユーザの目(少なくともその一部)を撮像することにより、ユーザが視認画面Sに対して指で操作を行ったときにユーザの目に映り込んだ元画面及び当該指についての画像を取得するためのものである。ここで、ディスプレイ装置20に表示される元画面や、視認画面に対して操作を行っているユーザの指は、通常、外部から見える目の部分であって、色の付いた虹彩と瞳孔からなる部分に映り込む。このため、実際、撮像装置30は、ユーザの目のうち虹彩と瞳孔からなる部分(又はその一部)を撮像して、元画面及び指についての画像を取得している。第一実施形態では、撮像装置30は、予めユーザの目にピントが合うように構成されている。具体的に、カメラ部31のレンズの光軸上にユーザの目が位置するように撮像装置30を本体部10に取り付け、その目にピントが合うようにピントの位置を調整している。また、この撮像装置30が撮像することができる範囲である撮像範囲は、目の少なくとも一部を含む範囲である。図6(a)は目に映り込んだ元画面の例を示す図、図6(b)は撮像装置30の撮像範囲の例を示す図である。したがって、ユーザが視認画面Sに対して指で操作を行っている場合、撮像装置30は、ユーザの目に映り込んだ元画面及び当該指をピントが合った状態で撮像することができる。撮像装置30で撮像して得られた画像データは制御部70に送られ、制御部70により記憶部90に記憶される。また、第一実施形態の撮像装置30は、静止画像の撮影機能と動画像の撮影機能とを備えており、制御部70は必要に応じて画像データとして静止画像データを取得したり、動画像データを取得したりすることができる。
本体部10には、図3に示すように、タッチパッド部40、マイク部50、骨伝導型のスピーカ部60、各種のセンサ部、及びバッテリー部等が設けられている。図1及び図2では、図を簡略化するため、これら各部は省略して示している。タッチパッド部40は、ユーザがタッチ操作を行うことにより、制御部70に各種の指示を与えるものである。マイク部50は、眼鏡型端末1を音声による指示で操作するために、ユーザの音声を入力するものである。マイク部50から入力された音声情報は、制御部70に送られ、制御部70がその音声情報を解析することになる。また、スピーカ部60は、骨の振動を利用してユーザに音声情報を伝えるものである。一般に、スピーカ部60としては、骨の振動を利用してユーザに音声情報を伝えるものに限らず、通常のスピーカ、イヤホン、ヘッドホン等を用いるようにしてもよい。各種のセンサ部及びバッテリー部等は本願発明とは直接関係がないので、本実施形態ではこれらについての詳細な説明は省略する。
ここで、第一実施形態の眼鏡型端末で使用するタッチパッド部40について詳しく説明する。図7はタッチパッド部40の取付け場所を説明するための図であり、図8はタッチパッド部40の構成を説明するための図である。タッチパッド部40は、図7(a)及び(b)に示すように本体部10の右側の柄に取り付けられ、又は、図7(c)に示すように右眼用レンズ部11の下部に取り付けられる。ここで、図7(a)は柄に取り付けられたタッチパッド部40を有する眼鏡型端末の概略斜視図、図7(b)はその眼鏡型端末の概略側面図である。また、図7(c)はレンズ部に取り付けられたタッチパッド部40を有する眼鏡型端末の概略斜視図である。このタッチパッド部40は当該部分に固定して取り付けられるが、着脱可能に構成してもよい。また、タッチパッド部40としては、図8(a)に示すようにマウス機能を有するものを用いることができるが、図8(b)に示すように簡易キーボード機能を有するものを用いてもよい。更に、タッチパッド部40としては、これらに限らず、番号パネルや操作パネル等を有するものを用いてもよい。
第一実施形態の眼鏡型端末1では、制御部70、通信部80及び記憶部90を、撮像装置30とともに筐体100の中に配設し、その筐体100を本体部10に取り付けている。また、詳しくは後述するが、記憶部90には、元画面に関するデータを含む各種のデータが記憶される。尚、第一実施形態では、制御部70、通信部80、記憶部90及び撮像装置30を筐体100の中に配設し、その筐体100を本体部10に取り付けている場合について説明するが、制御部70、通信部80、記憶部90及び撮像装置30は筐体を介さずに直接、本体部10に取り付けるようにしてもよい。また、制御部70、通信部80、記憶部90及び撮像装置30のうち一部を筐体100の中に配設してその筐体100を本体部10に取り付け、残りを直接、本体部10に取り付けるようにしてもよい。
制御部70は、中央演算処理装置(CPU)等を備えており、眼鏡型端末1の全般を制御する。例えば、制御部70は、元画面Mをディスプレイ装置20に表示するのを制御したり、撮像装置30による撮像を制御したりする。また、制御部70は、タッチパッド部40が操作されたときに、その操作により指示された内容を認識し、その認識した内容に応じた処理を実行したり、マイク部50から音声が入力されたときに、その入力された音声情報の内容を認識し、その認識した内容に応じた処理を実行したりする。更に、制御部70は、スピーカ部60により発する音声情報を制御する。具体的に、この制御部70は、図3に示すように、表示制御部71と、画像データ抽出部72と、操作判定部73と、操作位置特定部74と、入力制御部75とを備える。
表示制御部71は、ユーザがマイク部50による音声指示、或いはタッチパッド部40の操作による指示を行ったときに、その指示の内容に応じて、ディスプレイ装置20に表示すべき元画面Mの内容を選択し、その選択した元画面Mの表示を制御する。これにより、ディスプレイ装置20にはユーザの指示した元画面Mが表示され、ユーザはその元画面Mに対応する視認画面Sを、空中に浮かんでいるように見ることができる。
画像データ抽出部72は、ユーザの目に映り込んだ元画面Mを撮像装置30が撮像したときに、その撮像して得られた一連の画像データの中から、指が存在している画像データを抽出するものである。画像データの中に指が存在しているかどうかの判断には、一般の画像認識の手法が用いられる。また、操作判定部73、操作位置特定部74では、画像データ抽出部72で抽出された画像データに基づいて処理が行われることになる。
操作判定部73は、ユーザの目に映り込んだ元画面M及び指を撮像装置30が撮像したときに、その撮像して得られた一連の画像データであって画像データ抽出部72で抽出されたものに基づいて当該指による操作が各種の操作のうちどのような内容の操作であるのかを判定するものである。この判定に際しては、例えば一般の画像認識の手法が用いられる。これにより、操作判定部73は、当該指による操作が、タップ操作、ダブルタップ操作、長押し操作等のうちいずれの操作であるかを認識することができる。その認識した当該指による操作の内容に関するデータは記憶部90に記憶される。尚、操作判定部73が操作内容を正確に認識できるようにするためには、ユーザは視認画面S上で各種のタッチ操作をゆっくりと且つオーバーアクション気味に行うことが望ましい。
操作位置特定部74は、ユーザの目に映り込んだ元画面M及び指を撮像装置30が撮像したときに、その撮像して得られた一連の画像データであって画像データ抽出部72で抽出されたものに基づいて当該指による操作の対象となった位置が当該元画面M内におけるどの位置であるのかを特定するものである。具体的に、本実施形態では、操作位置特定部74は、まず、一般の画像認識の手法を用い、画像データに基づいて当該画像に含まれる元画面M及び指を特定する。次に、その特定した元画面Mの範囲内のどこに指が位置しているのかを調べることにより、元画面M内における当該指による操作の対象となった位置を表すデータを作成する。この作成したデータは記憶部90に記憶される。
入力制御部75は、ユーザが視認画面Sに対して指で操作を行ったときに、操作判定部73で判定して得られた当該指による操作の内容に関するデータと、操作位置特定部74で得られた当該元画面M内における当該指による操作の対象となった位置を表すデータと、記憶部90に記憶されている当該元画面Mに関するデータとに基づいて、当該指による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、ディスプレイ装置20に表示する元画面Mの制御を行うものである。
実際、入力制御部75は、ユーザが視認画面Sに対して指でタッチ操作を行うと、その視認画面Sがタッチパネルに表示されているときと同様に、当該タッチ操作に対応する指示を認識する。例えば、視認画面Sが図4に示す文字入力画面200である場合、ユーザがその文字入力画面200に対して指で所望の文字キー画像をタップする操作を行ったものとする。この場合、入力制御部75は、操作判定部73で得られた当該指による操作の内容に関するデータに基づいて、今回の操作がタップ操作であると認識する。また、入力制御部75は、その文字入力画面200に対応する元画面Mに関するデータに基づいて、当該文字入力画面200の内容(例えば、当該文字入力画面200におけるキーボード画像210の構成や、各文字キー画像の配置等)を認識することができる。このため、入力制御部75は、操作位置特定部74で得られた当該元画面M内における当該指による操作の対象となった位置を表すデータに基づいて、そのデータが表す位置が、文字入力画面200におけるどの位置に対応するのかを調べることにより、操作された文字キーを特定することができる。こうして、入力制御部75は、ユーザによりタップ操作が行われたこと、及び、その操作の対象が上記特定した文字キーであることから、今回の操作では、当該文字キーが表す文字を入力するという指示が行われたと認識することができる。この結果、入力制御部75は、文字入力画面200の表示領域220に当該文字キーが表す文字を入力された元画面Mをティスプレイ装置20に表示することになる。
また、入力制御部75は、ユーザが視認画面Sに対して指でダブルタップ操作を行ったときに、その視認画面Sに対応する元画面Mを拡大又は縮小するという指示を認識し、ユーザが視認画面Sに対して指で長押し操作を行うと、元画面Mとしてオプションメニューの画面を表示するという指示を認識し、そして、ユーザが視認画面Sに対して指でドラッグ操作又はフリック操作を行うと、元画面Mをスクロールして表示するという指示を認識する。
このように、第一実施形態の眼鏡型端末1では、ユーザは、自己が見ている視認画面Sに対して、通常のタッチパネルに表示された画面に対して操作するのと同様の操作を行うことにより、当該操作に対応する指示を入力することができる。
尚、第一実施形態では、ユーザは、空中に浮いているように見える視認画面Sに対して指でタッチ操作を行うので、通常のタッチパネルに表示された画面に対してタッチ操作する場合には行うことのできない態様でタッチ操作を行うこともできる。図9及び図10は視認画面Sに対して行われるタッチ操作の態様を説明するための図である。通常、ユーザは、図9(a)に示すように、視認画面Sの正面側から一本の指でタッチ操作を行うが、図9(b)に示すように、視認画面Sの裏面側から一本の指でタッチ操作を行うことができる。また、ユーザは、図10(a)に示すように、視認画面Sの正面側から複数の指でタッチ操作を行ったり、図10(b)に示すように、視認画面Sの裏面側から複数の指でタッチ操作を行ったりすることができる。
通信部80は、外部との間で情報の通信を行うものである。記憶部90には、各種のプログラムやデータ等が記憶されている。記憶部90に記憶されているプログラムには、例えば、元画面Mが文字入力画面200である場合にその文字入力画面200に対して行われた操作に基づいて文字入力の処理を行うための文字入力処理用プログラムと、視認画面Sに対して行われた操作に基づいて視認画面Sに対応する元画像Mの拡大・縮小や切替等の画面表示の処理を行うための画面表示処理用プログラムとが含まれている。また、記憶部90に記憶されているデータには、例えば、各種の元画面Mの画像データや、各元画面Mに関するデータ(具体的には、当該元画面Mの大きさ、形状、内容、構成等を示すデータ)が含まれる。更に、この記憶部90は作業用のメモリとしても使用される。
次に、第一実施形態の眼鏡型端末1における文字入力の処理について説明する。図11は第一実施形態の眼鏡型端末1における文字入力の処理の手順を説明するためのフローチャートである。ここでは、予めディスプレイ装置20に元画面Mとして文字入力画面200が表示されているものとする。
ユーザは、マイク部50から音声で文字入力を行う旨を指示するか、或いはタッチパッド部40を用いた操作等により文字入力を行う旨を指示する。制御部70は、その指示を受けると、文字入力処理用プログラムを記憶部90から読み出し、図11に示す処理フローにしたがって文字入力の処理を行う。尚、この文字入力の処理は、元画面Mとして文字入力画面200がディスプレイ装置20に表示されたときに手動により又は自動的に開始されるようにしてもよい。
図11に示す処理フローにしたがい、まず、制御部70は、撮像装置30を制御してユーザの目を撮像する撮像動作を開始する(S21)。ユーザは、現在、ディスプレイ装置20に表示されている元画面Mに対応する視認画面Sである文字入力画面200のキーボード画像210に対して指で所定の操作、例えばタップ操作を行う。ここで、ユーザが所定の操作を行うのは、制御部70に対してユーザが操作している位置を知らせるためである。かかるユーザによる操作の際、ユーザの目には元画面M、又は元画面M及び操作を行っている指が映り込むことになる。そして、そのユーザの目は撮像装置30で撮像され、その撮像装置30で得られた画像データが画像処理部32に送られる。そして、画像処理部32が画像データに対して所定の画像処理を施し、その画像処理を施した画像データが制御部70に送られる(S22)。
次に、画像データ抽出部72は、その送られた画像データについて、一般の画像認識の手法を用いて指が存在しているかどうかを判断し、撮像装置30で撮像して得られた一連の画像データの中から指が存在している画像データを抽出する(S23)。すなわち、画像データ抽出部72は、ユーザが指で操作を行っている内容を表す画像データだけを抽出する。次に、操作判定部73は、画像データ抽出部72で抽出された画像データに基づいて当該指による操作が所定の操作(ここでは、タップ操作)であるかどうかを判定する。この判定は予め定めた所定の時間内に行われる。そして、操作判定部73は、当該指による操作がタップ操作であれば、文字入力のための操作が正常に認識されたと判断し、一方、当該指による操作がタップ操作でなければ、文字入力のための操作が正常に認識されなかったと判断する(S24)。操作判定部73は、文字入力のための操作が正常に認識されたと判断すると、当該指による操作の内容に関するデータを記憶部90に記憶すると共に、文字入力のための操作が正常に認識された旨の信号を表示制御部71に送る。表示制御部71は、その信号を受けると、文字入力のための操作が正常に認識されたことを意味する緑色ランプを示す画像を元画面Mに追加して、ディスプレイ装置20に表示する(S26)。尚、表示制御部71は、緑色ランプを示す画像とともに、或いはその画像に代えて、文字入力のための操作が正常に認識されたことを意味する文字や図形を示す画像を元画面Mに追加するようにしてもよい。或いは、制御部70は、文字入力のための操作が正常に認識されたことを意味する画像の表示とともに、若しくは当該画像の表示に代えて、特定の報知音をスピーカ部60から発するようにしてもよい。
一方、操作判定部73は、ステップS24の処理において、予め定めた所定の時間内に文字入力のための操作が正常に認識されなかったと判断すると、その旨の信号を表示制御部71に送る。このとき例えば、予め定めた所定の時間内に画像データ抽出部72から指が存在している画像データが送られてこなかった場合にも、操作判定部73は、タップ操作が正常に認識されなかったと判断する。表示制御部71は、その信号を受けると、文字入力のための操作が正常に認識されなかったことを意味する赤色ランプを示す画像を元画面Mに追加して、ディスプレイ装置20に表示する(S25)。その後は、ステップS30に移行する。尚、このとき、表示制御部71は、赤色ランプを示す画像とともに、或いはその画像に代えて、文字入力のための操作が正常に認識されなかったことを意味する文字や図形を示す画像を元画面Mに追加するようにしてもよい。或いは、制御部70は、文字入力のための操作が正常に認識されなかったことを意味する画像の表示とともに、若しくは当該画像の表示に代えて、特定の報知音をスピーカ部60から発するようにしてもよい。
ステップS26の処理の後、操作位置特定部74は、操作判定部73で指による操作がタップ操作であると判定された画像データに基づいて、当該指による操作の対象となった位置が当該元画面M内におけるどの位置であるのかを特定し、当該元画面内における当該指による操作の対象となった位置を表すデータを生成する(S27)。こうして生成された操作の対象となった位置を表すデータは記憶部90に記憶される。
次に、入力制御部75は、操作判定部73で判定して得られた当該指による操作の内容に関するデータと、操作位置特定部74で得られた当該元画面M内における当該指による操作の対象となった位置を表すデータと、記憶部90に記憶されている当該元画面Mに関するデータとに基づいて、当該指による操作に対応する入力指示の内容を認識する(S28)。例えば、ユーザがキーボード画像210における文字キー画像に対して指でタップ操作を行った場合には、入力制御部75は、その指による操作の対象となった位置を表すデータから得られる指の位置が、キーボード画像210におけるどの文字キー画像の領域に対応するのかを調べることにより、今回のタップ操作が行われた文字キーを特定し、その特定した文字キーの入力が指示されたことを認識することができる。その後、入力制御部75は、認識した入力指示の内容に関する信号を表示制御部71に送り、表示制御部71はその入力指示の内容に応じた元画面Mをディスプレイ装置20に表示する(S29)。
ステップS29又はステップS25の処理の後、制御部70は、ユーザから文字入力を終了する旨の指示を受けたかどうかを判断する(S30)。文字入力を終了する旨の指示を受けていれば、文字入力の処理が終了する。これに対し、文字入力を終了する旨の指示を受けていなければ、ステップS21に移行し、文字入力の処理を継続する。尚、ユーザは、文字入力を終了する旨の指示を、例えば音声やタッチパッド部40のタッチ操作により行う。
次に、第一実施形態の眼鏡型端末1における画面表示の処理について説明する。図12は第一実施形態の眼鏡型端末1における画面表示の処理の手順を説明するためのフローチャートである。
ユーザは、マイク部50から音声で画面表示のための操作を行う旨を指示するか、或いはタッチパッド部40を用いた操作等により画面表示のための操作を行う旨を指示する。制御部70は、その指示を受けると、画面表示処理用プログラムを記憶部90から読み出し、図12に示す処理フローにしたがって画面表示の処理を行う。尚、この画面表示の処理は、元画面Mがディスプレイ装置20に表示されたときに手動により又は自動的に開始されるようにしてもよい。
図12に示す処理フローにしたがい、まず、制御部70は、撮像装置30を制御してユーザの目を撮像する撮像動作を開始する(S41)。ユーザは、現在、ディスプレイ装置20に表示されている元画面Mに対応する視認画面Sに対して指で所望の操作を行う。かかるユーザによる操作の際、ユーザの目には元画面M、又は元画面M及び操作を行っている指が映り込むことになる。そして、そのユーザの目は撮像装置30で撮像され、その撮像装置30で得られた画像データが画像処理部32に送られる。そして、画像処理部32が画像データに対して所定の画像処理を施し、その画像処理を施した画像データが制御部70に送られる(S42)。
次に、画像データ抽出部72は、その送られた画像データについて、一般の画像認識の手法を用いて指が存在しているかどうかを判断し、撮像装置30で撮像して得られた一連の画像データの中から指が存在している画像データを抽出する(S43)。すなわち、画像データ抽出部72は、ユーザが指で操作を行っている内容を表す画像データだけを抽出する。次に、操作判定部73は、画像データ抽出部72で抽出された画像データに基づいて当該指による操作の内容を判定する。この判定は予め定めた所定の時間内に行われる。そして、操作判定部73は、当該指による操作が正常に認識されたかどうかを判断する(S44)。操作判定部73は、当該指による操作が正常に認識されたと判断すると、当該指による操作の内容に関するデータを記憶部90に記憶すると共に、当該指による操作が正常に認識された旨の信号を表示制御部71に送る。表示制御部71は、その信号を受けると、指による操作が正常に認識されたことを意味する緑色ランプを示す画像を元画面Mに追加して、ディスプレイ装置20に表示する(S46)。尚、表示制御部71は、緑色ランプを示す画像とともに、或いはその画像に代えて、指による操作が正常に認識されたことを意味する文字や図形を示す画像を元画面Mに追加するようにしてもよい。或いは、制御部70は、指による操作が正常に認識されたことを意味する画像の表示とともに、若しくは当該画像の表示に代えて、特定の報知音をスピーカ部60から発するようにしてもよい。
一方、操作判定部73は、ステップS44の処理において、指による操作が正常に認識されなかったと判断すると、その旨の信号を表示制御部71に送る。このとき例えば、予め定めた所定の時間内に画像データ抽出部72から指が存在している画像データが送られてこなかった場合にも、操作判定部73は、指による操作が正常に認識されなかったと判断する。表示制御部71は、その信号を受けると、指による操作が正常に認識されなかったことを意味する赤色ランプを示す画像を元画面Mに追加して、ディスプレイ装置20に表示する(S45)。その後は、ステップS50に移行する。尚、このとき、表示制御部71は、赤色ランプを示す画像とともに、或いはその画像に代えて、指による操作が正常に認識されなかったことを意味する文字や図形を示す画像を元画面Mに追加するようにしてもよい。或いは、制御部70は、指による操作が正常に認識されなかったことを意味する画像の表示とともに、若しくは当該画像の表示に代えて、特定の報知音をスピーカ部60から発するようにしてもよい。
ステップS46の処理の後、操作位置特定部74は、操作判定部73で指による操作の内容が判定された画像データに基づいて、当該指による操作の対象となった位置が当該元画面M内におけるどの位置であるのかを特定し、当該元画面M内における当該指による操作の対象となった位置を表すデータを生成する(S47)。こうして生成された操作の対象となった位置を表すデータは記憶部90に記憶される。
次に、入力制御部75は、操作判定部73で判定して得られた当該指による操作の内容に関するデータと、操作位置特定部74で得られた当該元画面M内における当該指による操作の対象となった位置を表すデータと、記憶部90に記憶されている当該元画面Mに関するデータとに基づいて、当該指による操作に対応する指示の内容を認識する(S48)。例えば、ユーザが視認画面Sに対して指でダブルタップ操作を行った場合には、入力制御部75は、今回の操作がダブルタップ操作であることを特定し、元画面Mを拡大(又は縮小)する旨の指示を受けたことを認識する。その後、入力制御部75は、認識した指示の内容に関する信号を表示制御部71に送り、表示制御部71はその指示の内容に応じた元画面Mをディスプレイ装置20に表示する(S49)。
ステップS49又はステップS45の処理の後、制御部70は、ユーザから画面表示のための操作を終了する旨の指示を受けたかどうかを判断する(S50)。画面表示のための操作を終了する旨の指示を受けていれば、画面表示の処理が終了する。これに対し、画面表示のための操作を終了する旨の指示を受けていなければ、ステップS41に移行し、画面表示の処理を継続する。尚、ユーザは、画面表示のための操作を終了する旨の指示を、例えば音声やタッチパッド部40のタッチ操作により行う。
尚、上記の例では、ユーザが文字入力を行う旨を指示することにより制御部70が文字入力の処理を行い、また、ユーザが画面表示のための操作を行う旨を指示することにより制御部70が画面表示の処理を行う場合について説明したが、制御部は、文字入力の処理と画面表示の処理とを自動的に切り替えて行うようにしてもよい。
第一実施形態の眼鏡型端末では、ユーザの目を撮像することによりユーザが視認画面に対して指で操作を行ったときにユーザの目に映り込んだ元画面及び当該指についての画像を取得するための撮像装置が本体部に設けられており、操作判定部は、ユーザの目に映り込んだ元画面及び指を撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて当該指による操作が各種の操作のうちどのような内容の操作であるのかを判定し、操作位置特定部は、ユーザの目に映り込んだ元画面及び指を撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて当該指による操作の対象となった位置が当該元画面内におけるどの位置であるのかを特定する。そして、入力制御部は、ユーザが視認画面に対して指で操作を行ったときに、操作判定部で得られた当該指による操作の内容に関するデータと、操作位置特定部で得られた当該元画面内における当該指による操作の対象となった位置を表すデータと、記憶部に記憶されている当該元画面に関するデータとに基づいて、当該視認画面に対して行われた当該指による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、ディスプレイ装置に表示する元画面の制御を行う。このため、ユーザは、空中に浮かんでいるように見える視認画面に対して、通常のタッチパネルに表示された画面に対して操作するのと同様の操作を行うことにより、当該操作に対応する指示を入力することができる。したがって、第一実施形態の眼鏡型端末を用いると、ユーザは、通常のスマートフォン端末やタブレット端末と同様に、視認画面に対して操作を行うことにより、文字入力の操作や拡大・縮小等の各種の画面操作を容易且つ正確に行うことができる。
[第二実施形態]
次に、本発明の第二実施形態である眼鏡型端末について説明する。図13は本発明の第二実施形態である眼鏡型端末の概略ブロック図である。尚、本第二実施形態において、上述した第一実施形態のものと同一の機能を有するものには、同一の符号を付すことにより、その詳細な説明を省略する。
第二実施形態である眼鏡型端末1aは、図13に示すように、レンズが取り付けられるレンズ部を備える本体部10と、本体部10に設けられたディスプレイ装置20と、ユーザの目を撮像するための撮像装置30と、タッチパッド部40と、マイク部50と、スピーカ部60と、制御部70aと、通信部80と、記憶部90とを備える。また、制御部70aは、表示制御部71と、虹彩・瞳孔画像データ生成部701と、画像差分抽出部702と、画像データ抽出部72と、操作判定部73と、操作位置特定部74と、入力制御部75とを有する。
この第二実施形態の眼鏡型端末1aが第一実施形態の眼鏡型端末1と異なる主な点は、制御部70aが虹彩・瞳孔画像データ生成部701及び画像差分抽出部702を備えている点である。
虹彩・瞳孔画像データ生成部701は、ディスプレイ装置20に元画面Mを表示する前にユーザの目を撮像装置30で撮像したときに、その撮像して得られた画像データに基づいて虹彩及び瞳孔の画像データを生成して記憶部90に記憶するものである。ここで、撮像装置30が画像データを撮像するタイミングは、元画面Mがディスプレイ装置20に表示される直前であるのが望ましい。虹彩・瞳孔画像データ生成部701が生成する虹彩及び瞳孔の画像データに含まれるユーザの虹彩及び瞳孔の状態は、ユーザが視認画面Sに対して操作を行うときの状態とほぼ同じであるようにする必要があるからである。また、画像差分抽出部702は、ユーザの目に映り込んだ元画面M及び指を撮像装置30が撮像したときに、その撮像して得られた画像データと、記憶部90に記憶されている虹彩及び瞳孔の画像データとに基づいて、それらの差分を抽出する処理を行うことにより、虹彩及び瞳孔の画像が取り除かれた画像データを生成するものである。すなわち、差分を抽出した画像データは、画像認識を行う上で不要となるユーザの虹彩や瞳孔の画像が除去され、元画面Mと指だけの画像データとなる。第二実施形態では、画像データ抽出部72は、画像差分抽出部702で生成された一連の画像データを用いて画像データの抽出処理を行う。
次に、第二実施形態の眼鏡型端末1aにおける文字入力の処理について説明する。図14は第二実施形態の眼鏡型端末1aにおける文字入力の処理の手順を説明するためのフローチャートである。尚、この図14のフローチャートにおいて、上述した第一実施形態における図11のフローチャートと同一内容を表す処理については、同一のステップ符号を付すことにより、その詳細な説明を省略する。
ユーザは、マイク部50から音声で文字入力を行う旨を指示するか、或いはタッチパッド部40を用いた操作等により文字入力を行う旨を指示する。制御部70aは、その指示を受けると、文字入力処理用プログラムを記憶部90から読み出し、図14に示す処理フローにしたがって文字入力の処理を行う。
図14に示す処理フローにしたがい、まず、制御部70aは、スピーカ部60から「数秒間、元画面が表示される方向を見て下さい。」という音声を発生させる。これにより、ユーザがその音声による指示にしたがい、元画面が表示される方向を見ることになる。このとき、制御部70aは、撮像装置30を制御して撮像装置30でユーザの目を撮像する。そして、虹彩・瞳孔画像データ生成部701は、撮像装置30によりユーザの目を撮像して得られた画像データに基づいて、虹彩及び瞳孔の画像データを生成する(S201)。この生成された虹彩及び瞳孔の画像データは、記憶部90に記憶される。こうして虹彩及び瞳孔の画像データが作成されると、表示制御部71は、ディスプレイ装置20に元画面Mとして文字入力画面200を表示する(S202)。これにより、ユーザはその元画面Mに対応する視認画面Sを、空中に浮かんでいるように見ることができる。その後、制御部70aは、撮像装置30を制御してユーザの目を撮像する撮像動作を開始する(S21)。ユーザは、視認画面Sである文字入力画面200のキーボード画像210に対して指で所定の操作、例えばタップ操作を行う。かかるユーザによる操作の際、ユーザの目には元画面M、又は元画面M及び操作を行っている指が映り込むことになる。そして、そのユーザの目は撮像装置30で撮像され、その撮像装置30で得られた画像データが画像処理部32に送られる。そして、画像処理部32が画像データに対して所定の画像処理を施し、その画像処理を施した画像データが制御部70aに送られる(S22)。
次に、画像差分抽出部702は、撮像装置30で撮像して得られた画像データと、記憶部90に記憶されている虹彩及び瞳孔の画像データとに基づいて、それらの差分を抽出する処理を行う(S203)。これにより、虹彩及び瞳孔の画像が取り除かれた画像データが得られる。次に、画像データ抽出部72は、画像差分抽出部702で作成された画像データについて、一般の画像認識の手法を用いて指が存在しているかどうかを判断し、撮像装置30で撮像して得られた一連の画像データの中から指が存在している画像データを抽出する(S23)。ここで、画像データ抽出部72で抽出された画像データには指が存在しているので、その画像データは、ユーザの目に映り込んだ元画面M及び指についての画像を含んでいる。その後は、ステップS24に移行する。ステップS24以降の処理は、第一実施形態における図11のフローチャートによる処理と同様である。
次に、第二実施形態の眼鏡型端末1aにおける画面表示の処理について説明する。図15は第二実施形態の眼鏡型端末1aにおける画面表示の処理の手順を説明するためのフローチャートである。尚、この図15のフローチャートにおいて、上述した第一実施形態における図12のフローチャートと同一内容を表す処理については、同一のステップ符号を付すことにより、その詳細な説明を省略する。
ユーザは、マイク部50から音声で画面表示のための操作を行う旨を指示するか、或いはタッチパッド部40を用いた操作等により画面表示のための操作を行う旨を指示する。制御部70aは、その指示を受けると、画面表示処理用プログラムを記憶部90から読み出し、図15に示す処理フローにしたがって画面表示の処理を行う。
図15に示す処理フローにしたがい、まず、制御部70aは、スピーカ部60から「数秒間、元画面が表示される方向を見て下さい。」という音声を発生させる。これにより、ユーザがその音声による指示にしたがい、元画面が表示される方向を見ることになる。このとき、制御部70aは、撮像装置30を制御して撮像装置30でユーザの目を撮像する。そして、虹彩・瞳孔画像データ生成部701は、撮像装置30によりユーザの目を撮像して得られた画像データに基づいて、虹彩及び瞳孔の画像データを生成する(S401)。この生成された虹彩及び瞳孔の画像データは、記憶部90に記憶される。こうして虹彩及び瞳孔の画像データが作成されると、表示制御部71は、ディスプレイ装置20に元画面Mを表示する(S402)。これにより、ユーザはその元画面Mに対応する視認画面Sを、空中に浮かんでいるように見ることができる。その後、制御部70aは、撮像装置30を制御してユーザの目を撮像する撮像動作を開始する(S41)。ユーザは、視認画面Sに対して指で所望の操作を行う。かかるユーザによる操作の際、ユーザの目には元画面M、又は元画面M及び操作を行っている指が映り込むことになる。そして、そのユーザの目は撮像装置30で撮像され、その撮像装置30で得られた画像データが画像処理部32に送られる。そして、画像処理部32が画像データに対して所定の画像処理を施し、その画像処理を施した画像データが制御部70aに送られる(S42)。
次に、画像差分抽出部702は、撮像装置30で撮像して得られた画像データと、記憶部90に記憶されている虹彩及び瞳孔の画像データとに基づいて、それらの差分を抽出する処理を行う(S403)。これにより、虹彩及び瞳孔の画像が取り除かれた画像データが得られる。次に、画像データ抽出部72は、画像差分抽出部702で作成された画像データについて、一般の画像認識の手法を用いて指が存在しているかどうかを判断し、撮像装置30で撮像して得られた一連の画像データの中から指が存在している画像データを抽出する(S43)。ここで、画像データ抽出部72で抽出された画像データには指が存在しているので、その画像データは、ユーザの目に映り込んだ元画面M及び指についての画像を含んでいる。その後は、ステップS44に移行する。ステップS44以降の処理は、第一実施形態における図12のフローチャートによる処理と同様である。
第二実施形態の眼鏡型端末では、上記第一実施形態のものと同様の効果を奏する。すなわち、第二実施形態の眼鏡型端末を用いると、ユーザは、通常のスマートフォン端末やタブレット端末と同様に、視認画面に対して操作を行うことにより、文字入力の操作や拡大・縮小等の各種の画面操作を容易且つ正確に行うことができる。
特に、第二実施形態の眼鏡型端末には、ディスプレイ装置に元画面を表示する前にユーザの目を撮像装置で撮像したときに、その撮像して得られた画像データに基づいて虹彩及び瞳孔の画像データを生成して記憶部に記憶する虹彩・瞳孔画像データ生成部と、ユーザの目に映り込んだ元画面及び指を撮像装置が撮像したときに、その撮像して得られた画像データと記憶部に記憶されている虹彩及び瞳孔の画像データとに基づいてそれらの差分を抽出する処理を行うことにより、虹彩及び瞳孔の画像が取り除かれた画像データを生成する画像差分抽出部とが備えられており、画像データ抽出部は、その画像差分抽出部で生成された一連の画像データを用いて画像データの抽出処理を行う。これにより、画像差分抽出部で生成された画像データからは、虹彩及び瞳孔の画像が取り除かれているので、画像データ抽出部は、指が存在している画像データを抽出する処理を容易に行うことができる。
ところで、ユーザがコンタクトレンズを装着している場合、画像差分抽出部は虹彩及び瞳孔の画像に加えてコンタクトレンズの画像が取り除かれた画像データを生成するようにしてもよい。すなわち、虹彩・瞳孔画像データ生成部として、ディスプレイ装置に元画面を表示する前に、コンタクトレンズを装着しているユーザの目を撮像装置で撮像したときに、その撮像して得られた画像データに基づいてコンタクトレンズ、虹彩及び瞳孔の画像データを生成して記憶部に記憶するものを用い、画像差分抽出部としては、ユーザの目に映り込んだ元画面及び指を撮像装置が撮像したときに、その撮像して得られた画像データと記憶部に記憶されているコンタクトレンズ、虹彩及び瞳孔の画像データとに基づいてそれらの差分を抽出する処理を行うことにより、コンタクトレンズ、虹彩及び瞳孔の画像が取り除かれた画像データを生成するものを用いるようにしてもよい。これにより、画像差分抽出部で生成された画像データからは、コンタクトレンズ、虹彩及び瞳孔の画像が取り除かれているので、画像データ抽出部は、指が存在している画像データを抽出する処理を容易に行うことができる。
[第三実施形態]
次に、本発明の第三実施形態である眼鏡型端末について説明する。図16は本発明の第三実施形態である眼鏡型端末の概略ブロック図である。尚、本第三実施形態において、上述した第一実施形態のものと同一の機能を有するものには、同一の符号を付すことにより、その詳細な説明を省略する。
第三実施形態である眼鏡型端末1bは、図16に示すように、レンズが取り付けられるレンズ部を備える本体部10と、本体部10に設けられたディスプレイ装置20と、ユーザの目を撮像するための撮像装置30と、タッチパッド部40と、マイク部50と、スピーカ部60と、制御部70bと、通信部80と、記憶部90とを備える。また、制御部70bは、表示制御部71と、画像変換部703と、画像データ抽出部72と、操作判定部73と、操作位置特定部74と、入力制御部75とを有する。
この第三実施形態の眼鏡型端末1bが第一実施形態の眼鏡型端末1と異なる主な点は、制御部70bが画像変換部703を備えている点である。
画像変換部703は、本来球面の形状を持つユーザの目に映り込んだ元画面M及び指についての画像が平面上に映り込んだ画像となるように、撮像装置30で撮像して得られた画像データに対して画像変換を行うものである。例えば、この画像変換は、目(眼球表面)の曲率等を用いて予め作成された画像変換式により行われる。第三実施形態では、画像データ抽出部72は、画像変換部703で画像変換が行われた後の一連の画像データを用いて所定の処理を行う。
次に、第三実施形態の眼鏡型端末1bにおける文字入力の処理について説明する。図17は第三実施形態の眼鏡型端末1bにおける文字入力の処理の手順を説明するためのフローチャートである。尚、この図17のフローチャートにおいて、上述した第一実施形態における図11のフローチャートと同一内容を表す処理については、同一のステップ符号を付すことにより、その詳細な説明を省略する。
ディスプレイ装置20には、元画面Mとして文字入力画面200が予め表示されているものとする。ユーザは、マイク部50から音声で文字入力を行う旨を指示するか、或いはタッチパッド部40を用いた操作等により文字入力を行う旨を指示する。制御部70bは、その指示を受けると、文字入力処理用プログラムを記憶部90から読み出し、図17に示す処理フローにしたがって文字入力の処理を行う。
図17に示す処理フローにしたがい、まず、制御部70bは、撮像装置30を制御してユーザの目を撮像する撮像動作を開始する(S21)。ユーザは、現在、ディスプレイ装置20に表示されている元画面Mに対応する視認画面Sである文字入力画面200のキーボード画像210に対して指で所定の操作、例えばタップ操作を行う。かかるユーザによる操作の際、ユーザの目には元画面M、又は元画面M及び操作を行っている指が映り込むことになる。そして、ユーザの目は撮像装置30で撮像され、その撮像装置30で得られた画像データが画像処理部32に送られる。そして、画像処理部32が画像データに対して所定の画像処理を施し、その画像処理を施した画像データが制御部70bに送られる(S22)。
次に、画像変換部703は、撮像装置30で撮像して得られた画像データに対して、本来球面の形状を持つユーザの目に映り込んだ元画面M及び指についての画像が平面上に映り込んだ画像となるように画像変換を行う(S204)。この画像変換後の画像データは画像データ抽出部72に送られる。そして、画像データ抽出部72は、その送られた画像データについて、一般の画像認識の手法を用いて指が存在しているかどうかを判断し、撮像装置30で撮像して得られた一連の画像データの中から指が存在している画像データを抽出する(S23)。その後は、ステップS24に移行する。ステップS24以降の処理は、第一実施形態における図11のフローチャートによる処理と同様である。
次に、第三実施形態の眼鏡型端末1bにおける画面表示の処理について説明する。図18は第三実施形態の眼鏡型端末1bにおける画面表示の処理の手順を説明するためのフローチャートである。尚、この図18のフローチャートにおいて、上述した第一実施形態における図12のフローチャートと同一内容を表す処理については、同一のステップ符号を付すことにより、その詳細な説明を省略する。
ディスプレイ装置20には、元画面Mが予め表示されているものとする。ユーザは、マイク部50から音声で画面表示のための操作を行う旨を指示するか、或いはタッチパッド部40を用いた操作等により画面表示のための操作を行う旨を指示する。制御部70bは、その指示を受けると、画面表示処理用プログラムを記憶部90から読み出し、図18に示す処理フローにしたがって画面表示の処理を行う。
図18に示す処理フローにしたがい、まず、制御部70bは、撮像装置30を制御してユーザの目を撮像する撮像動作を開始する(S41)。ユーザは、現在、ディスプレイ装置20に表示されている元画面Mに対応する視認画面Sに対して指で所望の操作を行う。かかるユーザによる操作の際、ユーザの目には元画面M、又は元画面M及び操作を行っている指が映り込むことになる。そして、ユーザの目は撮像装置30で撮像され、その撮像装置30で得られた画像データが画像処理部32に送られる。そして、画像処理部32が画像データに対して所定の画像処理を施し、その画像処理を施した画像データが制御部70bに送られる(S42)。
次に、画像変換部703は、撮像装置30で撮像して得られた画像データに対して、本来球面の形状を持つユーザの目に映り込んだ元画面M及び指についての画像が平面上に映り込んだ画像となるように画像変換を行う(S404)。この画像変換後の画像データは画像データ抽出部72に送られる。そして、画像データ抽出部72は、その送られた画像データについて、一般の画像認識の手法を用いて指が存在しているかどうかを判断し、撮像装置30で撮像して得られた一連の画像データの中から指が存在している画像データを抽出する(S43)。その後は、ステップS44に移行する。ステップS44以降の処理は、第一実施形態における図12のフローチャートによる処理と同様である。
第三実施形態の眼鏡型端末では、上記第一実施形態のものと同様の効果を奏する。すなわち、第三実施形態の眼鏡型端末を用いると、ユーザは、通常のスマートフォン端末やタブレット端末と同様に、視認画面に対して操作を行うことにより、文字入力の操作や拡大・縮小等の各種の画面操作を容易且つ正確に行うことができる。
特に、第三実施形態の眼鏡型端末には、本来球面の形状を持つユーザの目に映り込んだ元画面及び指についての画像が平面上に映り込んだ画像となるように、撮像装置で撮像して得られた画像データに対して画像変換を行う画像変換部が備えられており、画像データ抽出部は、画像変換部で画像変換が行われた一連の画像データを用いて画像データの抽出処理を行う。これにより、画像データ抽出部によって抽出される一連の画像データでは、歪みが補正されているので、操作位置特定部は、元画面内における指による操作の対象となった位置を正確に特定することができるという利点がある。
[第四実施形態]
次に、本発明の第四実施形態である眼鏡型端末について説明する。図19は本発明の第四実施形態である眼鏡型端末の概略ブロック図である。尚、本第四実施形態において、上述した第一実施形態のものと同一の機能を有するものには、同一の符号を付すことにより、その詳細な説明を省略する。
第四実施形態である眼鏡型端末1cは、図19に示すように、レンズが取り付けられるレンズ部を備える本体部10と、本体部10に設けられたディスプレイ装置20と、ユーザの目を撮像するための撮像装置30と、タッチパッド部40と、マイク部50と、スピーカ部60と、制御部70cと、通信部80と、記憶部90とを備える。また、制御部70cは、表示制御部71と、目存在・不存在判定部704と、報知制御部705と、画像データ抽出部72と、操作判定部73と、操作位置特定部74と、入力制御部75とを有する。
この第四実施形態の眼鏡型端末1cが第一実施形態の眼鏡型端末1と異なる主な点は、制御部70cが目存在・不存在判定部704と報知制御部705とを備えている点である。
目存在・不存在判定部704は、一般の画像認識の手法を用いて撮像装置30で撮像して得られた画像データにユーザの目の画像が存在しているかどうかを判定し、ユーザの目の画像が存在していない画像データが撮像装置30で一定時間継続して取得されたことを検知するものである。また、報知制御部705は、目存在・不存在判定部704によりユーザの目の画像が存在していない画像データが撮像装置30で一定時間継続して取得されたことが検知されたときに、スピーカ部(報知装置)60を制御してそのスピーカ部60から音を発生させるものである。ユーザの目が存在していない画像データが撮像装置30で一定時間継続して取得されたということは、ユーザが目を閉じている、例えば寝ていると考えられる。このため、例えばユーザが自動車を運転している場合、報知制御部705は、目存在・不存在判定部704での検知結果に基づいてユーザの居眠りを認識し、スピーカ部60から警報音を発生させることにより、居眠り運転防止を図ることができる。
次に、第四実施形態の眼鏡型端末1cにおける文字入力の処理について説明する。図20は第四実施形態の眼鏡型端末1cにおける文字入力の処理の手順を説明するためのフローチャートである。尚、この図20のフローチャートにおいて、上述した第一実施形態における図11のフローチャートと同一内容を表す処理については、同一のステップ符号を付すことにより、その詳細な説明を省略する。
ディスプレイ装置20には、元画面Mとして文字入力画面200が予め表示されているものとする。ユーザは、マイク部50から音声で文字入力を行う旨を指示するか、或いはタッチパッド部40を用いた操作等により文字入力を行う旨を指示する。制御部70cは、その指示を受けると、文字入力処理用プログラムを記憶部90から読み出し、図20に示す処理フローにしたがって文字入力の処理を行う。
図20に示す処理フローにしたがい、まず、制御部70cは、撮像装置30を制御してユーザの目を撮像する撮像動作を開始する(S21)。ユーザは、現在、ディスプレイ装置20に表示されている元画面Mに対応する視認画面Sである文字入力画面200のキーボード画像210に対して指で所定の操作、例えばタップ操作を行う。かかるユーザによる操作の際、ユーザの目には元画面M、又は元画面M及び操作を行っている指が映り込むことになる。そして、ユーザの目は撮像装置30で撮像され、その撮像装置30で得られた画像データが画像処理部32に送られる。そして、画像処理部32が画像データに対して所定の画像処理を施し、その画像処理を施した画像データが制御部70cに送られる(S22)。
次に、目存在・不存在判定部704は、その送られた画像データについて、一般の画像認識の手法を用いて目の画像が存在しているかどうかを判断する(S205)。目存在・不存在判定部704は、目の画像が画像データに存在していると判定すると、当該画像データを画像データ抽出部72に送出する。その後は、ステップS23に移行する。一方、目存在・不存在判定部704は、目の画像が画像データに存在していないと判定すると、当該画像データを画像データ抽出部72に送出しない。そして、この場合、目存在・不存在判定部704は、ユーザの目の画像が存在していない画像データが撮像装置30で一定時間継続して取得されたかどうかを判断する(S206)。ユーザの目の画像が存在していない画像データが撮像装置30で一定時間継続して取得されていなければ、ステップS205に移行する。一方、目存在・不存在判定部704は、ユーザの目の画像が存在していない画像データが撮像装置30で一定時間継続して取得されたと判定すると、その旨の信号を報知制御部705に送信する。報知制御部705は、その信号を受け取ると、ユーザが居眠りをしていると認識し、スピーカ部60を制御してスピーカ部60から所定の警告音を発生させる(S207)。その後は、ステップS204に移行する。
ステップS23では、画像データ抽出部72は、目存在・不存在判定部704から送られた画像データ(ユーザの目の画像が存在している画像データ)について、一般の画像認識の手法を用いて指が存在しているかどうかを判断し、撮像装置30で撮像して得られた一連の画像データの中から指が存在している画像データを抽出する。その後は、ステップS24に移行する。ステップS24以降の処理は、第一実施形態における図11のフローチャートによる処理と同様である。
次に、第四実施形態の眼鏡型端末1cにおける画面表示の処理について説明する。図21は第四実施形態の眼鏡型端末1cにおける画面表示の処理の手順を説明するためのフローチャートである。尚、この図21のフローチャートにおいて、上述した第一実施形態における図12のフローチャートと同一内容を表す処理については、同一のステップ符号を付すことにより、その詳細な説明を省略する。
ディスプレイ装置20には、元画面Mが予め表示されているものとする。ユーザは、マイク部50から音声で画面表示のための操作を行う旨を指示するか、或いはタッチパッド部40を用いた操作等により画面表示のための操作を行う旨を指示する。制御部70cは、その指示を受けると、画面表示処理用プログラムを記憶部90から読み出し、図21に示す処理フローにしたがって画面表示の処理を行う。
図21に示す処理フローにしたがい、まず、制御部70cは、撮像装置30を制御してユーザの目を撮像する撮像動作を開始する(S41)。ユーザは、現在、ディスプレイ装置20に表示されている元画面Mに対応する視認画面Sに対して指で所望の操作を行う。かかるユーザによる操作の際、ユーザの目には元画面M、又は元画面M及び操作を行っている指が映り込むことになる。そして、そのユーザの目は撮像装置30で撮像され、その撮像装置30で得られた画像データが画像処理部32に送られる。そして、画像処理部32が画像データに対して所定の画像処理を施し、その画像処理を施した画像データが制御部70cに送られる(S42)。
次に、目存在・不存在判定部704は、その送られた画像データについて、一般の画像認識の手法を用いて目の画像が存在しているかどうかを判断する(S405)。目存在・不存在判定部704は、目の画像が画像データに存在していると判定すると、当該画像データを画像データ抽出部72に送出する。その後は、ステップS43に移行する。一方、目存在・不存在判定部704は、目の画像が画像データに存在していないと判定すると、当該画像データを画像データ抽出部72に送出しない。そして、この場合、目存在・不存在判定部704は、ユーザの目の画像が存在していない画像データが撮像装置30で一定時間継続して取得されたかどうかを判断する(S406)。ユーザの目の画像が存在していない画像データが撮像装置30で一定時間継続して取得されていなければ、ステップS405に移行する。一方、目存在・不存在判定部704は、ユーザの目の画像が存在していない画像データが撮像装置30で一定時間継続して取得されたと判定すると、その旨の信号を報知制御部705に送信する。報知制御部705は、その信号を受け取ると、ユーザが居眠りをしていると認識し、スピーカ部60を制御してスピーカ部60から所定の警告音を発生させる(S407)。その後は、ステップS404に移行する。
ステップS43では、画像データ抽出部72は、目存在・不存在判定部704から送られた画像データ(ユーザの目の画像が存在している画像データ)について、一般の画像認識の手法を用いて指が存在しているかどうかを判断し、撮像装置30で撮像して得られた一連の画像データの中から指が存在している画像データを抽出する。その後は、ステップS44に移行する。ステップS44以降の処理は、第一実施形態における図12のフローチャートによる処理と同様である。
第四実施形態の眼鏡型端末では、上記第一実施形態のものと同様の効果を奏する。すなわち、第四実施形態の眼鏡型端末を用いると、ユーザは、通常のスマートフォン端末やタブレット端末と同様に、視認画面に対して操作を行うことにより、文字入力の操作や拡大・縮小等の各種の画面操作を容易且つ正確に行うことができる。
特に、第四実施形態の眼鏡型端末には、撮像装置で撮像して得られた画像データにユーザの目の画像が存在しているかどうかを判定し、ユーザの目の画像が存在していない画像データが撮像装置で一定時間継続して取得されたことを検知する目存在・不存在判定部と、目存在・不存在判定部がユーザの目の画像が存在していない画像データが撮像装置で一定時間継続して取得されたことを検知したときに、スピーカ部を制御してそのスピーカ部から音を発生させる報知制御部とが備えられている。これにより、例えば、自動車の運転者が本第四実施形態の眼鏡型端末を装着する場合、報知制御部は、目存在・不存在判定部によりその運転者の目の画像が存在していない画像データが撮像装置で一定時間継続して取得されたことが検知されたときに、スピーカ部からアラームを発生させることによって居眠り運転を防止することができる。
[第五実施形態]
次に、本発明の第五実施形態である眼鏡型端末について説明する。図34(a)は本発明の第五実施形態である眼鏡型端末の概略平面図、図34(b)はその眼鏡型端末の概略右側面図である。図35は第五実施形態の眼鏡型端末の概略斜視図である。また、図36は第五実施形態の眼鏡型端末の概略ブロック図である。尚、第五実施形態において、上述した第一実施形態のものと同一の機能を有するものには、同一の符号を付すことにより、その詳細な説明を省略する。
第五実施形態の眼鏡型端末1dは、図34、図35及び図36に示すように、レンズが取り付けられるレンズ部11を備える本体部(眼鏡)10と、本体部10に設けられたディスプレイ装置20と、ユーザの目を撮像するための撮像装置30と、タッチパッド部40と、マイク部50と、スピーカ部60と、通信部80と、本体部10と別体に構成された、表示部310を有する端末装置300とを備える。ここで、端末装置300は、ディスプレイ装置20や撮像装置30等の各部と無線で接続されている。尚、端末装置300については、その説明を簡略化するために、本発明と直接的に関係のある部分を詳述し、それ以外の部分の説明を省略する。
この第五実施形態の眼鏡型端末1dが第一実施形態の眼鏡型端末1と異なる主な点は、眼鏡型端末1dが、本体部10と別体に構成された、表示部310を有する端末装置300を備えている点、端末装置300が、ディスプレイ装置20、撮像装置30、タッチパッド部40、マイク部50及びスピーカ部60を制御する点、そして、端末装置300が、表示部310に表示されている画面を元画面としてディスプレイ装置20に表示するようにディスプレイ装置20を制御する機能を有する点である。第五実施形態の眼鏡型端末1dのその他の構成は、第一実施形態の眼鏡型端末1のものと同様である。
ディスプレイ装置20は、図34及び図35に示すように、例えば、液晶パネル(表示デバイス)を有する小型プロジェクタ21と、光学系22と、光(映像)の一部を反射するホログラムシート(又はホログラムフィルム)23とを備える。小型プロジェクタ21及び光学系22は一つの筐体100の中に配設され、その筐体100は眼鏡(本体部10)の柄の部分に取り付けられている。また、この筐体100の中には撮像装置30も配設されている。ここで、撮像装置30は、図36に示すように、カメラ部31と、画像処理部32と、カメラ制御部33とを備える。筐体100は本体部10に着脱可能である。すなわち、小型プロジェクタ21、光学系22、撮像装置30は本体部10に着脱可能に構成されている。
また、筐体100には、通信部80と、電池等の電源部(不図示)と、電源スイッチ(不図示)とが設けられている。通信部80は、本体部10に設けられた各種の装置(ディスプレイ装置20、撮像装置30、タッチパッド部40、マイク部50及びスピーカ部60)が端末装置300との間で無線通信を行うためのものである。ディスプレイ装置20、撮像装置30、タッチパッド部40、マイク部50及びスピーカ部60の制御は無線通信で端末装置300によって行われる。このため、第五実施形態では、第一実施形態と異なり、筐体100に制御部等を設けていない。電源部は、本体部10に設けられた各種の装置(ディスプレイ装置20、撮像装置30、タッチパッド部40、マイク部50、スピーカ部60及び通信部80)に電力を供給するためのものである。また、電源スイッチは電源部からディスプレイ装置20や撮像装置30等の各部への電力供給をオン・オフするものである。この電源スイッチは筐体100表面の所定箇所に取り付けられている。
第五実施形態では、端末装置300が、ディスプレイ装置20、撮像装置30、タッチパッド部40、マイク部50及びスピーカ部60を制御する。ここでは、端末装置300として、スマートフォンやタブレット端末等の既存の携帯端末を用いることにする。端末装置300は、図36に示すように、表示部310と、通信部320と、制御部700と、記憶部900とを有する。表示部310は端末装置300の表面に設けられた液晶表示装置である。また、表示部310の画面にはタッチパネルが設けられている。このタッチパネルには、表示部310の画面に対して接触操作(タッチ操作)が行われたときにその接触した位置を検知し、その検知した位置を示す接触位置情報を制御部700に出力する位置検知部が備えられている。表示部310の画面上には、ホーム画面、メニュー画面、アプリケーション画面、文字入力画面等の各種の画面が表示される。ユーザはこれらの画面上でタッチ操作を行うことにより、各種の指示を端末装置300に与えることができる。
また、端末装置300は外部との間で無線通信を行う機能を有しており、この機能は通信部320によって実現される。もちろん、端末装置300は、この通信部320及び筐体100に設けられた通信部80を介してディスプレイ装置20や撮像装置30等と無線通信を行うことができる。この点で、端末装置300はディスプレイ装置20や撮像装置30等と無線で接続されている。ここで、端末装置300とディスプレイ装置20や撮像装置30等との間の無線通信の方式としては、例えばBluetooth(登録商標)を用いることができる。また、セキュリティ確保の観点から、端末装置300、ディスプレイ装置20及び撮像装置30はそれぞれ、無線通信を行う際に相手から送られる識別情報に基づいて認証を行った後にデータの通信を行うことにしている。
端末装置300の記憶部900には、各種のプログラムやデータ等が記憶されている。記憶部900に記憶されているプログラムには、例えば、元画面Mが文字入力画面である場合にその文字入力画面に対して行われた操作に基づいて文字入力の処理を行うための文字入力処理用プログラムと、視認画面Sに対して行われた操作に基づいて視認画面Sに対応する元画像Mの拡大・縮小や切替等の画面表示の処理を行うための画面表示処理用プログラムとが含まれている。また、記憶部900に記憶されているデータには、例えば、各種の元画面Mの画像データ、各元画面Mに関するデータ(具体的には、当該元画面Mの大きさ、形状、内容、構成等を示すデータ)が含まれる。
特に、第五実施形態では、例えば、端末装置300がディスプレイ装置20を制御するための特別なディスプレイ装置制御用プログラムが記憶部900に記憶されている。このディスプレイ装置制御用プログラムは、表示部310に表示されている画面を元画面Mとしてディスプレイ装置20に表示するようにディスプレイ装置20を制御する機能を制御部700に実現させるためのアプリケーションプログラムである。ディスプレイ装置制御用プログラムが制御部700によって実行されると、表示部310に表示されている画面がその表示部310だけでなくディスプレイ装置20にも表示されることになる。
また、ディスプレイ装置制御用プログラムが実行されたときには、当該プログラムの設定画面が表示部310に表示される。この設定画面には、ディスプレイ装置20の画面表示に関する設定を行うための複数のボタンが設けられている。具体的に、ディスプレイ装置20の画面表示に関する設定を行うためのボタンとしては、表示部310に表示されている画面を簡略化した画面をディスプレイ装置20に表示すべきことを指示するボタンB1と、表示部310に表示されている画面の一部をディスプレイ装置20に表示すべきことを指示するボタンB2と、表示部310に表示されている画面において文字や図表(図、写真、表等)を拡大した画面をディスプレイ装置20に表示すべきことを指示するボタンB3とがある。また、ディスプレイ装置制御用プログラムの設定画面には、表示部310に表示されている画面を元画面Mとしてディスプレイ装置20に表示する際に表示部310を消灯すべきことを設定するボタンB4と、当該プログラムを終了することを指示するボタンB5とが設けられている。ボタンB4を用いることにより、表示部310に表示されている画面の内容をディスプレイ装置20に表示する際に、表示部310における当該画面の表示をそのまま維持するか、表示部310を消灯するかを設定することができる。尚、端末装置300の表示部310が点灯している場合に、ユーザは、端末装置300の電源ボタンを押すことによって、表示部310を消灯することができる。逆に、端末装置300の表示部310が消灯している場合、ユーザは、端末装置300の電源ボタンを押すことによって、表示部310の消灯状態を解除することができる。
このように、ディスプレイ装置制御用プログラムが実行されると、ディスプレイ装置20には、表示部310に表示されている画面が表示されるので、結果として、表示部310とディスプレイ装置20には同じ画面が表示されることになる。しかしながら、ディスプレイ装置制御用プログラムの設定画面を使用すると、ユーザは、ディスプレイ装置20に、表示部310に表示されている画面の内容と異なる内容の画面を表示すべきことを指定することが可能である。例えば、ディスプレイ装置制御用プログラムの設定画面には、ディスプレイ装置20に表示すべき画面を指定する欄が設けられている。ユーザがこの欄を利用してディスプレイ装置20に表示すべき画面を指定すると、制御部700は、表示部310に現在表示されている画面とは別に、ユーザが指定した画面をディスプレイ装置20に表示する。すなわち、この場合、表示部310とディスプレイ装置20にはそれぞれ異なる画面が表示される。
制御部700は、中央演算処理装置(CPU)等を備えており、端末装置300の全般を制御すると共に、ディスプレイ装置20、撮像装置30、タッチパッド部40、マイク部50、スピーカ部60をも制御する。例えば、制御部700は、ユーザにより表示部310においてタッチ操作がなされたときに、その操作により指示された内容を認識し、その認識した内容に応じた処理を実行する。また、制御部700は、上記ディスプレイ装置制御用プログラムを実行することにより、表示部310に表示されている画面を元画面Mとしてディスプレイ装置20に表示するようにディスプレイ装置20を制御する。更に、制御部700は、元画面Mをディスプレイ装置20に表示するのを制御したり、撮像装置30による撮像を制御したりする。
具体的に、制御部700は、図36に示すように、表示制御部710と、画像データ抽出部72と、操作判定部73と、操作位置特定部74と、入力制御部75とを備える。第五実施形態の眼鏡型端末1dでも、第一実施形態の眼鏡型端末1と同様に、ユーザが視認画面Sに対して指で操作を行ったときに、入力制御部75は、操作判定部73で判定して得られた当該指による操作の内容に関するデータと、操作位置特定部74で得られた当該元画面M内における当該指による操作の対象となった位置を表すデータと、記憶部90に記憶されている当該元画面Mに関するデータとに基づいて、当該指による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、表示部310に表示する画面の制御及びディスプレイ装置20に表示する元画面Mの制御を行う。このため、ユーザは、自己が見ている視認画面Sに対して、通常のタッチパネルに表示された画面に対して操作するのと同様の操作を行うことにより、当該操作に対応する指示を入力することができる。
表示制御部710は、表示部310及びディスプレイ装置20での表示に関する制御を行う。具体的に、ユーザがディスプレイ装置制御用プログラムの起動を指示すると、表示制御部710は、記憶部900に記憶されているディスプレイ装置制御用プログラムを実行して、表示部310に表示されている画面を元画面Mとしてディスプレイ装置20に表示する。これにより、ユーザは、第五実施形態の眼鏡型端末1dを使用すると、その元画面Mに対応する視認画面Sを、空中に浮かんでいるように見ることができる。但し、ユーザがディスプレイ装置制御用プログラムの設定画面で各種の設定を行った場合には、表示制御部710はその設定にしたがって表示部310及びディスプレイ装置20の制御を行う。
第五実施形態の眼鏡型端末1dでは、表示部310の画面にはタッチパネルが設けられているので、ユーザは表示部310の画面に対して指でタッチ操作を行うことにより、各種の指示を端末装置300の制御部700に与えることができる。また、ディスプレイ装置制御用プログラムが実行されて、表示部310に表示されている画面がディスプレイ装置20に表示された場合、ユーザは、その視認画面Sに対して指でタッチ操作を行うことにより、各種の指示を端末装置300の制御部700に与えることができる。
次に、第五実施形態の眼鏡型端末1dにおいてディスプレイ装置制御用プログラムにしたがってディスプレイ装置20に画面を表示する処理について説明する。図37は第五実施形態の眼鏡型端末1dにおいてディスプレイ装置制御用プログラムにしたがってディスプレイ装置20に画面を表示する処理の手順を説明するためのフローチャートである。
まず、ユーザは、筐体100に設けられた電源スイッチをオンにする。これにより、ディスプレイ装置20及び通信部80は電源オンの状態になる。ここでは、ユーザは眼鏡(本体部10)をかけた状態で操作を行うものとする。次に、ユーザは、端末装置300を操作して表示部310にメニュー画面を表示させる。そして、ユーザは、そのメニュー画面においてディスプレイ装置制御用プログラムのアイコンをタップし、そのディスプレイ装置制御用プログラムを選択する。端末装置300の制御部700は、ディスプレイ装置制御用プログラムが選択された旨の信号を受けると、ディスプレイ装置制御用プログラムを起動する(S61)。ディスプレイ装置制御用プログラムが起動すると、制御部700は、そのディスプレイ装置制御用プログラムにしたがって処理を行う。具体的に、制御部700は、まず、端末装置300とディスプレイ装置20との接続状態を確認する処理を行う(S62)。接続が確認されると、制御部700は、ディスプレイ装置20に対して識別情報の送信を要求し、ディスプレイ装置20から送られる識別情報に基づいて認証処理を行う(S63)。こうして、ディスプレイ装置20に対する認証がなされると、制御部700は、ディスプレイ装置制御用プログラムの設定画面を表示部310に表示する。そして、現在、表示部310に表示されている画面に関するデータを無線でディスプレイ装置20に送信し、その表示部310に表示されている画面を元画面Mとしてディスプレイ装置20に表示させる(S64)。これにより、ユーザは、眼鏡(本体部10)を通してその元画面Mに対応する視認画面Sを空中に浮かんでいるような感覚で見ることができる。その後、ユーザが端末装置300を操作して、例えば、所望のアプリケーションプログラムを選択すると、制御部700はそのアプリケーションプログラムを実行し、そのアプリケーションプログラムの画面を表示部310に表示すると共に、その画面に関するデータを無線でディスプレイ装置20に送信して、表示部310に表示されている画面と同じ画面をディスプレイ装置20に表示する。こうして、ユーザは、眼鏡(本体部10)を通してそのアプリケーションプログラムの画面に対する視認画面Sを、空中に浮かんでいるように見ることができる。
ところで、表示部310に表示されている画面をディスプレイ装置20に表示したときに、例えば、ユーザは元画面Mに表示された文字等が細かくて、その元画面Mに対応する視認画面Sの内容を認識し難いと感じることがある。この場合、ユーザは、ディスプレイ装置制御用プログラムの設定画面を表示部310に表示し、その設定画面においてボタンB2又はボタンB3をタップすることができる。ユーザがボタンB2をタップすると、制御部700は、表示部310に表示されている画面の一部に関するデータをディスプレイ装置20に送信し、これにより、その表示部310に表示されている画面の一部がディスプレイ装置20に表示されるようになる。図38は表示部310の画面の一部をディスプレイ装置20に表示する場合の視認画面Sの例を示す図である。図38の例では、表示部310に表示されている画面の略半分をディスプレイ装置20に表示しており、ユーザはディスプレイ装置20に表示された略半分の画面を見ると、その略半分の画面に対応する視認画面Sを認識することができる。この場合、ディスプレイ装置20に表示された略半分の画面は、画面の全体がディスプレイ装置20に表示された場合におけるその略半分の画面に比べて大きく表示されるので、ユーザは視認画面Sの内容を認識し易くなる。一方、表示部310に文字や図表を含む画面が表示されている場合、ユーザがボタンB3をタップすると、制御部700は、表示部310に表示されている画面において文字や図表を拡大した画面に関するデータをディスプレイ装置20に送信し、これにより、その表示部310に表示されている画面において文字や図表が拡大された画面がディスプレイ装置20に表示されるようになる。図39は表示部310の画面に表示されている文字を拡大して得られる画面をディスプレイ装置20に表示する場合の視認画面Sの例を示す図である。この場合、図39に示すように、ユーザは、文字が拡大された画面を視認画面Sとして見ることができるので、その画面の文字を正確に認識することができる。尚、図39では文字だけを含む画面の例を示しているが、図表を含む画面が表示部310に表示されている場合には、ユーザは、文字だけでなく図表も拡大された画面を視認画面Sとして見ることができるので、文字と図表の内容を正確に認識することができる。
また、図38及び図39の例において、ユーザが視認画面Sに対して指で所定の操作、例えばドラッグ操作又はフリック操作を行ったときに、制御部700は、撮像装置30で撮像された画像データ等に基づいてドラッグ操作又はフリック操作が行われたことを認識すると、表示部310に表示されている画面をスクロールするという内容の画面をディスプレイ装置20に表示するようにしてもよい。ユーザは、そのスクロールする画面を見ることにより、それまでディスプレイ装置20に表示されていなかった画面の他の部分を見ることができる。
ディスプレイ装置20への画面表示を終了する場合、ユーザは、端末装置300の表示部310にディスプレイ装置制御用プログラムの設定画面を表示し、その設定画面上に設けられた、ディスプレイ装置制御用プログラムを終了すべきことを指示するボタンB5をタップする。制御部700は、ディスプレイ装置制御用プログラムを終了する旨の信号を受けると(S65)、そのディスプレイ装置制御用プログラムを終了する(S66)。あるいは、ユーザが視認画面S(ディスプレイ装置制御用プログラムの設定画面)に対して指でボタンB5をタップ操作したときに、制御部700はボタンB5でタッチ操作が行われたことを認識して、ディスプレイ装置制御用プログラムを終了するようにしてもよい。これにより、制御部700は画面に関するデータをディスプレイ装置20に送信するのを停止し、ディスプレイ装置20の画面には何も表示されなくなる。最後に、ユーザは筐体100に設けられた電源スイッチをオフにする。尚、アプリケーションプログラムの画面上の所定箇所(例えば下の隅の位置)に所定のアイコンを表示しておき、ユーザが視認画面Sに対して指でそのアイコンをタップ操作したときに、制御部700が当該アイコンに対してタップ操作が行われたことを認識して、ディスプレイ装置制御用プログラムを終了するようにしてもよい。
次に、第五実施形態の端末装置1dの具体的な使用例を説明する。ここでは、端末装置300が携帯端末であり、その端末装置300には自らの位置に関する位置情報を取得するGPS(Global Positioning System)機能が備わっている場合を考える。
最初の例では、記憶部900に記憶された地図情報及び上記GPS機能で得られた位置情報に基づいて、ユーザの現在の位置からユーザが設定した目的地に導くための画面を作成して表示部310に表示する機能を制御部700に実現させるための道案内用アプリケーションプログラムが端末装置300にインストールされているものとする。この場合、ディスプレイ装置制御用プログラムの実行中に、ユーザが端末装置300を操作して上記道案内用アプリケーションプログラムの実行を指示すると、制御部700は、上記道案内用アプリケーションプログラムを起動し、その道案内用アプリケーションプログラムの画面としてユーザをユーザが設定した目的地に導くための画面を表示部310に表示すると共にディスプレイ装置20に元画面Mとして表示する。図40は道案内用アプリケーションプログラムの画面をディスプレイ装置20に元画面Mとして表示した場合の視認画面Sの例を示す図である。この図40は、ユーザを目的地に導くための画面として、ユーザが進むべき方向を示す矢印の画像が表示される。ユーザは視認画面Sを見て、そこに表示された矢印の向きにしたがって進むことにより目的地に到達することができる。
また、上記の例では、制御部700が、道案内用アプリケーションプログラムを実行した際に、ユーザを目的地に導くための画面(例えば矢印画像の画面)を表示部310及びディスプレイ装置20に表示する場合について説明したが、制御部700は、道案内用アプリケーションプログラムを実行した際に、ユーザの現在地を記した地図情報、又は、ユーザの現在地及び目的地を記した地図情報を表示部310に表示し、ユーザを目的地に導くための画面(例えば矢印画像の画面)をディスプレイ装置20に表示するようにしてもよい。
次の例では、記憶部900に記憶された地図情報及び上記GPS機能で得られた位置情報に基づいて現在の位置の周辺にある店舗を検索し、その検索して得られた店舗に関する情報を表示部310に表示する機能を制御部700に実現させるための店舗検索用アプリケーションプログラムが端末装置300にインストールされているものとする。この場合、ディスプレイ装置制御用プログラムの実行中に、ユーザが端末装置300を操作して上記店舗検索用アプリケーションプログラムの実行を指示すると、制御部700は、上記店舗検索用アプリケーションプログラムを起動し、その店舗検索用アプリケーションプログラムの画面として現在位置の周囲にある店舗に関する情報を含む画面を表示部310に表示すると共にディスプレイ装置20に元画面Mとして表示する。ユーザはその元画面Mに対応する視認画面Sを見て、現在位置の周辺にある店舗に関する情報を得ることができる。
尚、上記の各例において、地図情報は必ずしも予め記憶部900に記憶しておく必要はない。例えば、制御部700は、道案内用アプリケーションプログラム又は店舗検索用アプリケーションプログラムを起動した際に、インターネット上の所定のサイトにアクセスして、そのサイトにある地図情報を利用するようにしてもよい。
第五実施形態の眼鏡型端末では、上記第一実施形態のものと同様の効果を奏する。すなわち、第五実施形態の眼鏡型端末を用いると、ユーザは、通常のスマートフォン端末やタブレット端末と同様に、視認画面に対して操作を行うことにより、文字入力の操作や拡大・縮小等の各種の画面操作を容易且つ正確に行うことができる。
特に、第五実施形態の眼鏡型端末では、眼鏡としての本体部とその本体部に設けられたディスプレイ装置や撮像装置等の各部を制御する制御部を有する端末装置とを別体に構成したので、端末装置として、例えばスマートフォンやタブレット端末等の既存の携帯端末等を用いることができる。このように端末装置として既存の携帯端末等を用いることにより、眼鏡としての本体部の部品点数を少なくして、本体部の構成を簡易なものとすることができる。また、端末装置として例えば市販のスマートフォン等を用いることにより、使い慣れているスマートフォン等を使用して操作することができるので、操作性の向上を図ることができる。
尚、第五実施形態で説明した、本体部と端末装置とを別体に構成すると共に端末装置とディスプレイ装置や撮像装置等の各部とを無線で接続するという構成は、第一実施形態の眼鏡型端末に限らず、上述した他の実施形態(第二実施形態、第三実施形態、第四実施形態)の眼鏡型端末にも適用することができる。
[第六実施形態]
次に、本発明の第六実施形態である眼鏡型端末について説明する。図41は本発明の第六実施形態である眼鏡型端末の概略斜視図、図42は第六実施形態の眼鏡型端末の概略ブロック図である。尚、第六実施形態において、上述した第五実施形態のものと同一の機能を有するものには、同一の符号を付すことにより、その詳細な説明を省略する。
第六実施形態である眼鏡型端末1eは、図41及び図42に示すように、レンズが取り付けられるレンズ部11を備える本体部(眼鏡)10と、本体部10に設けられたディスプレイ装置20と、ユーザの目を撮像するための撮像装置30と、タッチパッド部40と、マイク部50と、スピーカ部60と、本体部10と別体に構成された、表示部310を有する端末装置300と、ディスプレイ装置20と端末装置300との間を接続するケーブル500とを備える。尚、端末装置300については、その説明を簡略化するために、本発明と直接的に関係のある部分を詳述し、それ以外の部分の説明を省略する。
第六実施形態の眼鏡型端末1eが第五実施形態の眼鏡型端末1dと異なる主な点は、ディスプレイ装置20と端末装置300とを、ケーブル500を用いて有線で接続している点である。第六実施形態の眼鏡型端末1eのその他の構成は、第五実施形態の眼鏡型端末1dのものと同様である。
ディスプレイ装置20は、図41に示すように、小型プロジェクタ21と、光学系22と、ホログラムシート23とを備える。小型プロジェクタ21及び光学系22は筐体100の中に配設され、その筐体100は眼鏡(本体部10)の柄の部分に取り付けられている。筐体100は眼鏡に着脱可能である。また、筐体100表面の所定箇所には、ディスプレイ装置20にケーブル500を接続するための接続端子(不図示)が設けられている。第六実施形態では、ディスプレイ装置20の制御は、ケーブル500を用いた有線通信で端末装置300によって行われる。また、ディスプレイ装置20への電力は、ケーブル500を介して端末装置300から供給される。このため、第六実施形態では、上記第五実施形態における電源部及び電源スイッチは筐体100に設けられていない。尚、この場合であっても、電源部を筐体100に設けるようにしてもよい。
端末装置300は、図42に示すように、表示部310と、通信部320と、制御部700と、記憶部900と、インターフェースとしての接続端子(不図示)とを有する。表示部310の画面にはタッチパネルが設けられている。端末装置300の接続端子にはケーブル500が接続される。ディスプレイ装置20と端末装置300とはケーブル500で接続されており、端末装置300はこのケーブル500を介してディスプレイ装置20、撮像装置30、タッチパッド部40と、マイク部50と、スピーカ部60と通信することができる。例えば、端末装置300の接続端子及び筐体100に設けられた接続端子としてはHDMI(登録商標)端子を、ケーブル500としてはHDMI(登録商標)ケーブルを用いることができる。また、端末装置300の接続端子及び筐体100に設けられた接続端子としてはUSB端子を、ケーブル500としてはUSBケーブルを用いることができる。
記憶部900には、各種のプログラムやデータ等が記憶されている。例えば、文字入力処理用プログラム、画面表示処理用プログラム、各種の元画面Mの画像データ、各元画面Mに関するデータ(具体的には、当該元画面Mの大きさ、形状、内容、構成等を示すデータ)が記憶部900に記憶されている。また、上記第五実施形態と同様に、端末装置300がディスプレイ装置20を制御するための特別なディスプレイ装置制御用プログラムが記憶部900に記憶されている。このディスプレイ装置制御用プログラムが制御部700によって実行されると、表示部310に表示されている画面がその表示部310だけでなくディスプレイ装置20にも表示されることになる。尚、ディスプレイ装置制御用プログラムの設定画面は、上記第五実施形態におけるものと同様であるので、ここでは、その詳細な説明を省略する。
制御部700は、端末装置300の全般を制御すると共に、ディスプレイ装置20、撮像装置30、タッチパッド部40、マイク部50、スピーカ部60をも制御する。この制御部700は、図42に示すように、表示制御部710と、画像データ抽出部72と、操作判定部73と、操作位置特定部74と、入力制御部75とを備える。表示制御部710は、表示部310及びディスプレイ装置20での表示に関する制御を行う。具体的に、ユーザがディスプレイ装置制御用プログラムの起動を指示すると、表示制御部710は、記憶部900に記憶されているディスプレイ装置制御用プログラムを実行して、表示部310に表示されている画面の内容を元画面Mの内容としてディスプレイ装置20に表示する。これにより、眼鏡(本体部10)をかけたユーザはその元画面Mに対応する視認画面Sを、空中に浮かんでいるように見ることができる。
次に、第六実施形態の眼鏡型端末1eにおいてディスプレイ装置制御用プログラムにしたがってディスプレイ装置20に画面を表示する処理について説明する。図43は第六実施形態の眼鏡型端末1eにおいてディスプレイ装置制御用プログラムにしたがってディスプレイ装置20に画面を表示する処理の手順を説明するためのフローチャートである。
ユーザは眼鏡(本体部10)をかけた状態で次の操作を行う。まず、ユーザは、端末装置300のホーム画面よりディスプレイ装置20への電力供給を開始するための設定を行う。これにより、端末装置300からケーブル500を介してディスプレイ装置20へ電力が供給され、ディスプレイ装置20の電源がオンになる。尚、筐体100に電源部が設けられている場合には、筐体100に設けられた電源部が、ディスプレイ装置20に供給する電力の全部又は一部を賄うことになる。その場合には、電源スイッチを筐体100に設け、その電源スイッチを押すとディスプレイ装置20の電源がオンの状態になるようにしてもよい。次に、ユーザは、端末装置300を操作して表示部310にメニュー画面を表示させる。そして、ユーザは、そのメニュー画面においてディスプレイ装置制御用プログラムのアイコンをタップし、そのディスプレイ装置制御用プログラムを選択する。端末装置300の制御部700は、ディスプレイ装置制御用プログラムが選択された旨の信号を受けると、ディスプレイ装置制御用プログラムを起動する(S71)。ディスプレイ装置制御用プログラムが起動すると、制御部700は、そのディスプレイ装置制御用プログラムにしたがって処理を行う。具体的に、制御部700は、まず、端末装置300とディスプレイ装置20との接続状態を確認する処理を行う(S72)。接続が確認されると、制御部700は、ディスプレイ装置制御用プログラムの設定画面を表示部310に表示する。そして、現在、表示部310に表示されている画面に関するデータを、ケーブル500を介してディスプレイ装置20に送信し、その表示部310に表示されている画面の内容を元画面Mの内容としてディスプレイ装置20に表示させる(S73)。これにより、ユーザは、眼鏡(本体部10)を通してその元画面Mに対応する視認画面Sを空中に浮かんでいるような感覚で見ることができる。その後、ユーザが端末装置300を操作して、例えば、所望のアプリケーションプログラムを選択すると、制御部700はそのアプリケーションプログラムを実行し、そのアプリケーションプログラムの画面を表示部310に表示すると共に、その画面に関するデータを、ケーブル500を介してディスプレイ装置20に送信して、表示部310に表示されている画面と同じ画面をディスプレイ装置20に表示する。こうして、ユーザは、眼鏡(本体部10)を通してそのアプリケーションプログラムの画面に対する視認画面Sを、空中に浮かんでいるように見ることができる。
ディスプレイ装置20への画面表示を終了する場合、ユーザは、端末装置300の表示部310にディスプレイ装置制御用プログラムの設定画面を表示し、その設定画面上に設けられた、ディスプレイ装置制御用プログラムを終了する旨のボタンB5をタップする。制御部700は、ディスプレイ装置制御用プログラムを終了する旨の信号を受けると(S74)、そのディスプレイ装置制御用プログラムを終了する(S75)。あるいは、ユーザが視認画面S(ディスプレイ装置制御用プログラムの設定画面)に対して指でボタンB5をタップ操作したときに、制御部700はボタンB5でタッチ操作が行われたことを認識して、ディスプレイ装置制御用プログラムを終了するようにしてもよい。これにより、制御部700は画面に関するデータをディスプレイ装置20に送信するのを停止し、ディスプレイ装置20の画面には何も表示されなくなる。最後に、ユーザは端末装置300のホーム画面よりディスプレイ装置20への電力供給を停止するための設定を行う。これにより、ディスプレイ装置20の電源がオフになる。尚、アプリケーションプログラムの画面上の所定箇所(例えば下の隅の位置)に所定のアイコンを表示しておき、ユーザが視認画面Sに対して指でそのアイコンをタップ操作したときに、制御部700が当該アイコンに対してタップ操作が行われたことを認識して、ディスプレイ装置制御用プログラムを終了するようにしてもよい。
第六実施形態の眼鏡型端末は、上記第五実施形態のものと同様の効果を奏する。すなわち、第六実施形態の眼鏡型端末を用いると、ユーザは、通常のスマートフォン端末やタブレット端末と同様に、視認画面に対して操作を行うことにより、文字入力の操作や拡大・縮小等の各種の画面操作を容易且つ正確に行うことができる。また、眼鏡としての本体部とその本体部に設けられたディスプレイ装置や撮像装置等の各部を制御する制御部を有する端末装置とを別体に構成したことにより、端末装置として、例えばスマートフォンやタブレット端末等の既存の携帯端末等を用いることができるので、本体部の部品点数を少なくして、本体部の構成を簡易なものとすることができると共に、操作性の向上を図ることができる。
尚、第六実施形態で説明した、本体部と端末装置とを別体に構成すると共に端末装置とディスプレイ装置や撮像装置等の各部とを有線で接続するという構成は、第一実施形態の眼鏡型端末に限らず、上述した他の実施形態(第二実施形態、第三実施形態、第四実施形態)の眼鏡型端末にも適用することができる。
[他の実施形態]
尚、本発明は上記の各実施形態に限定されるものではなく、その要旨の範囲内において種々の変形が可能である。
例えば、第三実施形態における画像変換部を第二実施形態の眼鏡型端末に設けるようにしてもよい。また、第四実施形態における目存在・不存在判定部及び報知制御部を第二実施形態の眼鏡型端末、又は第三実施形態の眼鏡型端末に設けるようにしてもよい。更に、第三実施形態における画像変換部と第四実施形態における目存在・不存在判定部及び報知制御部とを第二実施形態の眼鏡型端末に設けるようにしてもよい。
上記の第五実施形態及び第六実施形態では、端末装置としてスマートフォンやタブレット端末等の携帯端末を用いた場合について説明したが、本発明の眼鏡型端末では、端末装置として、スマートフォンやタブレット端末に限らず、例えば、スマートウォッチ、デジタルオーディオプレイヤー、パーソナルコンピュータ、カーナビゲーション、車載AV機器、専用端末等を用いるようにしてもよい。
上記の各実施形態では、ユーザが視認画面に対して指で操作を行う場合について説明したが、例えば、ユーザはスタイラスやペン等の入力指示具を用いて視認画面に対して操作を行うようにしてもよい。この場合、操作判定部は、ユーザの目に映り込んだ元画面及び入力指示具を撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて当該入力指示具による操作が各種の操作のうちどのような内容の操作であるのかを判定し、操作位置特定部は、ユーザの目に映り込んだ元画面及び入力指示具を撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて当該入力指示具による操作の対象となった位置が当該元画面内におけるどの位置であるのかを特定することになる。
上記の各実施形態において、ユーザは、視認画面に対して指でタッチ操作を行う場合に、指先に所定のマークを付しておくようにしてもよい。マークとしては、円や四角形等の単純な図形や記号等を用いることができる。ここで、指先にマークを付す方法としては、マークを直接、指先に描く方法だけでなく、マークを記したシールを指先に貼り付ける方法、マークを記したサック又はリングを指先に装着する方法等を用いることができる。具体的に、図9(a),図10(a)に示すように、視認画面の表側から指でタッチ操作を行う場合には、マークを指の爪側に付しておくようにすればよい。一方、図9(b),図10(b)に示すように、視認画面の表側だけでなく裏側からも指でタッチ操作する場合には、マークを指の爪側と、指先又は指の腹側(指紋のある部分)との両側に付しておくようにすればよい。尚、視認画面の裏側からのみ指でタッチ操作を行う場合には、マークを指先又は指の腹側にだけ付しておくようにしてもよい。この場合、画像データ抽出部は、マークが存在している画像データを、指が存在している画像データとして抽出する。そして、操作判定部は、マークの動きに基づいて指による操作がどのような内容の操作であるかを判定し、操作位置特定部は、マークの位置を指による操作の対象となった位置として特定する。実際、画像データの解析・処理に際しては、指自体の認識よりも単純な図形等のマークの認識の方が容易且つ正確に行うことができるので、画像認識の精度の向上を図ることができる。
上記の各実施形態では、ディスプレイ装置が、表示デバイスを有する小型プロジェクタと、光学系と、プロジェクタの表示デバイスに表示された元画面が光学系を介して投影される投影部としてのホログラムシート(又はホログラムフィルム)とを備え、ホログラムシートが本体部のレンズ部に貼り付けられている場合について説明したが、ホログラムシートは、レンズ部に埋め込まれ若しくは一体化されていてもよい。
上記の各実施形態では、ディスプレイ装置におけるホログラムシート(又はホログラムフィルム)として小さな長方形状のものを用い、そのホログラムシートを横長の状態にしてレンズ部の上部であってやや右側に貼り付けており、そして、そのホログラムシートの全体に小型プロジェクタの液晶パネルに表示された画像や映像を投影する場合について説明したが、ホログラムシートとしては、様々な大きさ・形状のものを用いることができる。図22は本発明の眼鏡型端末における本体部のレンズ部に貼り付けられるホログラムシートの例を示す図である。図22(a)に示す例では、ホログラムシートとして小さな長方形状のものを用いて、そのホログラムシートを縦長の状態にしてレンズ部の上部であってやや右側に貼り付けている。図22(b)に示す例では、ホログラムシートとして大きな長方形状(例えば縦1.5cm、横2.5cm)のものを用いて、そのホログラムシートを横長の状態にしてレンズ部の上部であってやや右側に貼り付けている。また、図22(c)に示す例では、ホログラムシートをレンズ部の全面に貼り付けている。これらの例においても、当該ホログラムシートの全体に小型プロジェクタの液晶パネルに表示された画像や映像が投影される。もちろん、例えば、図22(c)に示すようにホログラムシートをレンズ部の全面に貼り付け、そのホログラムシートの一部に画像や映像を投影するようにしてもよい。
上記の各実施形態では、撮像装置が予めユーザの目にピントが合うように構成されている場合について説明したが、撮像装置としてはオートフォーカス機能を有するものを用いてもよい。図23は本発明の眼鏡型端末においてオートフォーカス機能を有する撮像装置の概略ブロック図である。オートフォーカス機能を有する撮像装置30aは、図23に示すように、カメラ部31と、画像処理部32と、カメラ制御部33aとを備える。カメラ部31及び画像処理部32は上記の各実施形態におけるものと同様である。カメラ制御部33aは、ユーザの目に自動的にピントを合わせるオートフォーカス制御部331を有する。
このオートフォーカス制御部331は、一般に、撮像範囲内における所定の位置にある被写体に自動的にピントを合わせるようにカメラ部31を制御するものである。この場合、例えば、撮像装置30aのカメラ部31としては、撮像範囲の中央に一つのフォーカスポイントを有するものを用いる。そして、カメラ部31のレンズの光軸上にユーザの目が位置するように撮像装置30aを本体部10に取り付ける。オートフォーカス制御部331は、撮像が開始されると、フォーカスポイント上の被写体、すなわち、ユーザの目にピントが合うようにピントを合わせる。このため、撮像装置30aは、ユーザの目にピントが合った状態で画像を取得することができる。また、オートフォーカス制御部331は、被写体である目を認識し、その認識した目に自動的にピントを合わせるようにしてもよい。尚、オートフォーカスの方式としては、被写体に赤外線・超音波などを照射し、その反射波が戻るまでの時間や照射角度により距離を検出するアクティブ方式、或いは、カメラ部31のレンズで捉えた画像を利用して測距を行う位相差検出方式やコントラスト検出方式等のパッシブ方式のいずれであってもよい。
また、上記の各実施形態では、操作位置特定部が、一般の画像認識の手法を用いて、画像データに基づいて当該画像に含まれる元画面及び指を特定し、次に、その特定した元画面の範囲内のどこに指が位置しているのかを調べることにより、元画面内における当該指による操作の対象となった位置を表すデータを作成する場合について説明した。しかしながら、操作位置特定部としては、次のような処理を行うものを用いることもできる。すなわち、操作位置特定部は、ユーザの目に映り込んだ元画面及び指を撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて、撮像装置が撮像することができる範囲である撮像範囲内における当該元画面の範囲及び撮像範囲内における当該指の位置を求め、その求めた撮像範囲内における当該元画面の範囲及び撮像範囲内における当該指の位置に基づいて当該元画面内における当該指による操作の対象となった位置を特定するようにしてもよい。
この操作位置特定部が行う処理の内容を詳しく説明する。この場合、撮像装置の撮像範囲内において、図6に示すように、左右方向をX軸方向、上下方向をY軸方向としてXY座標系が設定される。このXY座標系の原点は任意の位置に取られる。操作位置特定部は、まず、画像データに基づいて元画面の画像を認識し、XY座標系において元画面の画像の四隅の各位置についての位置データを取得する。この取得した四隅の各位置についての位置データは撮像範囲内における元画面の範囲を表すデータとなる。ここで、図24に操作位置特定部が元画面の範囲を特定する上で望ましい元画面の例を示す。元画面としては、図24(a)に示すように予め四隅の位置に大きな丸印等を表示したものや、図24(b)に示すように枠を太線で表したものを用いることにより、操作位置特定部が元画面の画像を認識し易くなる。次に、操作位置特定部は、画像データに基づいてユーザの指を認識し、XY座標系におけるユーザの指の位置データを取得する。その後、操作位置特定部は、XY座標系における四隅の各位置についての位置データと、XY座標系におけるユーザの指の位置データとに基づいて、例えば元画面の左下の点を原点とするxy座標系におけるユーザの指の位置データを算出する。こうして算出されたxy座標系におけるユーザの指の位置データが元画面内における指による操作の対象となった位置を特定するデータとなる。
上記の各実施形態では、ディスプレイ装置が、表示デバイスを有する小型プロジェクタと、光学系と、プロジェクタの表示デバイスに表示された元画面が光学系を介して投影される投影部としてのホログラムシート(又はホログラムフィルム)とを備える場合について説明したが、ホログラムシート(又はホログラムフィルム)の代わりに、例えば、半透明スクリーンや透過型スクリーンを用いるようにしてもよい。
上記の各実施形態では、ディスプレイ装置が、表示デバイスを有する小型プロジェクタと、光学系と、プロジェクタの表示デバイスに表示された元画面が光学系を介して投影される投影部としてのホログラムシート(又はホログラムフィルム)とを備える場合について説明したが、ホログラムシート(又はホログラムフィルム)の代わりに、例えば、ホログラム光学素子を用いるようにしてもよい。
上記の各実施形態では、ディスプレイ装置が、液晶パネル(表示デバイス)を有する小型プロジェクタと、光学系と、光(映像)の一部を反射するホログラムシート(又はホログラムフィルム)とを備える場合について説明したが、例えば、ディスプレイ装置としては、画像をハーフミラーに投影するものを用いてもよい。図25(a)は画像をハーフミラーに投影するディスプレイ装置を備える眼鏡型端末の概略平面図、図25(b)はそのディスプレイ装置を備える眼鏡型端末の概略右側面図である。図26は図25に示す眼鏡型端末の概略斜視図である。図25及び図26に示す眼鏡型端末が上記の第一実施形態の眼鏡型端末と異なる点は、ディスプレイ装置の構成だけであり、その他の点については、図25及び図26に示す眼鏡型端末は第一実施形態の眼鏡型端末と全く同じである。図25及び図26においては、上述した第一実施形態のものと同一の機能を有するものには、同一の符号を付している。
図25及び図26に示すディスプレイ装置20aは、表示デバイスを有する小型プロジェクタと、光学系と、小型プロジェクタの表示デバイスに表示された元画面が光学系を介して投影される投影部としてのハーフミラーとを備える。この場合、ハーフミラーは、本体部10のレンズ部11の前に配置されたプリズム(光学系)の中に埋め込まれている。また、ディスプレイ装置20aと撮像装置30はそれぞれ、本体部10に着脱可能に構成することができる。尚、ハーフミラーを、本体部10のレンズ部11の前に配置されたプリズムと一体化し、又は本体部10のレンズ部11の前に配置されたプリズムに貼り付けるようにしてもよい。また、ハーフミラーは、本体部10のレンズ部11に貼り付けられ、又は本体部10のレンズ部11に埋め込まれ若しくは一体化されていてもよい。
また、ディスプレイ装置として画像をハーフミラーに投影するものを用いる場合には、撮像装置30の撮像レンズを、ディスプレイ装置20aのハーフミラーの近傍に取り付けるようにしてもよい。図27(a)は撮像レンズがハーフミラーの近傍に取り付けられた眼鏡型端末の概略平面図、図27(b)はその眼鏡型端末の概略右側面図である。図28は図27に示す眼鏡型端末の概略斜視図である。この場合、ユーザの目に向かう撮像レンズの光軸の方向と、ユーザが元画面Mを見るときの視線方向とのずれを最小限に抑えることができる。これにより、操作位置特定部による元画面M内における操作位置の特定を正確に行うことができる。尚、この場合も、ディスプレイ装置20aと撮像装置30は、本体部10に着脱可能に構成することができる。
尚、上記図25、図26及び図27に示すディスプレイ装置20aにおいて、光学系は、プリズムに限られず、導光板や導波路であってもよい。また、導光板や導波路の代わりに、その他の光学系を用いてもよい。
また、上記図25、図26及び図27に示すディスプレイ装置20aにおいて、ハーフミラーの代わりに、例えば、半透明スクリーン、透過型スクリーン、ホログラム光学素子を用いてもよい。
上記の各実施形態では、ディスプレイ装置が、液晶パネル(表示デバイス)を有する小型プロジェクタと、光学系と、光(映像)の一部を反射するホログラムシート(又はホログラムフィルム)とを備える場合について説明したが、この場合、ディスプレイ装置と撮像装置はそれぞれ、本体部に着脱可能に構成するようにしてもよい。
上記の各実施形態では、ディスプレイ装置の小型プロジェクタとして液晶パネルを有するものを用いた場合について説明したが、小型プロジェクタとしては、液晶パネルの代わりに、有機EL(Electro-Luminescence)ディスプレイや無機ELディスプレイ等の表示デバイスを有するものを用いてもよい。
また、上記の各実施形態では、ディスプレイ装置として、小型プロジェクタ、光学系、ホログラムシート等を有するものを用いた場合について説明したが、ディスプレイ装置は、小型プロジェクタ、光学系、ホログラムシート等を含まず、透過型又は透明型の表示デバイスのみで構成されていてもよい。この透過型又は透明型の表示デバイスは、ユーザの顔の前側であってユーザの視野の範囲内に配置される。透過型又は透明型の表示デバイスとしては、例えば、透過型若しくは透明型の液晶パネル、透過型若しくは透明型の有機ELパネル、又は、透過型若しくは透明型の無機ELパネルを用いることができる。この場合でも、ユーザは透過型又は透明型の表示デバイスに表示された元画面そのものを見ると、その元画面に対応する視認画面を空中に浮かんでいるように認識することになる。
また、上記の各実施形態では、ディスプレイ装置として、小型プロジェクタ、光学系、ホログラムシート等を有するものを用いた場合について説明したが、ディスプレイ装置は、小型プロジェクタ、光学系、ホログラムシート等を含まず、透明型又は透過型ではない表示デバイスのみで構成されていてもよい。この表示デバイスは、ユーザの顔の前側であってユーザの視野の範囲内に配置される。透明型又は透過型ではない表示デバイスとしては、例えば、通常の液晶パネル、有機ELディスプレイ、無機ELディスプレイを用いることができる。
尚、上述したように、ディスプレイ装置が、有機ELディスプレイや無機ELディスプレイ等(表示デバイス)を有する小型プロジェクタと、光学系と、光(映像)の一部を反射するホログラムシート(又はホログラムフィルム)とを備える場合、ディスプレイ装置が透過型又は透明型の表示デバイスのみで構成されている場合、ディスプレイ装置が透過型又は透明型ではない表示デバイスのみで構成されている場合、ディスプレイ装置と撮像装置をそれぞれ、本体部に着脱可能に構成するようにしてもよい。
上記の各実施形態では、ディスプレイ装置に一つの元画面を表示する場合について説明したが、本発明は、これに限定されるものではなく、ディスプレイ装置に二つの元画面を表示するようにしてもよい。この場合、ユーザは二つの視認画面を空中に浮かんでいるように見ることになる。例えば、文字入力画面のキーボード画像を二つに分け、キーボード画像を右側キーボード画像と左側キーボード画像とから構成する場合には、ユーザは、右側キーボード画像と左側キーボード画像を空中に浮かんでいるように認識し、両手の指で文字の入力を行うことができる。
上記の各実施形態では、本発明の眼鏡型端末が一つのディスプレイ装置を備える場合について説明したが、本発明の眼鏡型端末は二つのディスプレイ装置を備えていてもよい。図29(a)はホログラムシートを有するタイプの二つのディスプレイ装置を備える眼鏡型端末の概略斜視図、図29(b)はハーフミラーを有するタイプの二つのディスプレイ装置を備える眼鏡型端末の概略斜視図である。図29(a)では、一方のディスプレイ装置20におけるプロジェクタ21及び光学系22を本体部10の右側の柄に取り付け、そのディスプレイ装置20におけるホログラムシート23を右眼用のレンズ部11に貼り付けている。そして、他方のディスプレイ装置20におけるプロジェクタ21及び光学系22を本体部10の左側の柄に取り付け、そのディスプレイ装置20におけるホログラムシート23を左眼用のレンズ部11に貼り付けている。ここで、ホログラムシート23としては小さな長方形状のものを用い、二つのホログラムシート23,23をそれぞれ、横長の状態にしてレンズ部11の右上部、左上部に貼り付けている。また、図29(b)では、一方のディスプレイ装置20aにおけるハーフミラーは、本体部10の右側のレンズ部11の前に配置されたプリズムの中に埋め込まれ、他方のディスプレイ装置20aにおけるハーフミラーは、本体部10の左側のレンズ部11の前に配置されたプリズムの中に埋め込まれている。図29(a)及び(b)のいずれの眼鏡型端末でも、ユーザは、一方のディスプレイ装置による視認画面を右眼で認識し、他方のディスプレイ装置による視認画面を左目で認識することになる。また、各ディスプレイ装置に対応して撮像装置を設けており、各撮像装置30はそれぞれの側の目を撮像することになる。尚、二つのディスプレイ装置を備える眼鏡型端末では、タッチパッド部を、簡易キーボード機能を有するものと、操作パネル等の機能を有するものとの二つに分け、それらをそれぞれ、本体部の左側の柄、右側の柄に取り付けるようにしてもよい。
また、ディスプレイ装置が二つ設けられている場合、各ディスプレイ装置におけるホログラムシートとしては、様々な大きさ・形状のものを用いることができる。図30は二つのディスプレイ装置を備える眼鏡型端末における本体部のレンズ部に貼り付けられるホログラムシートの例を示す図である。図30(a)に示す例では、ホログラムシートとして小さな長方形状のものを用いて、二つのホログラムシートをそれぞれ、縦長の状態にしてレンズ部の右上部又は左上部に貼り付けている。図30(b)に示す例では、ホログラムシートとして大きな長方形状のものを用いて、二つのホログラムシートをそれぞれ、横長の状態にしてレンズ部の右上部又は左上部に貼り付けている。また、図30(c)に示す例では、二つのホログラムシートをそれぞれ、右眼用レンズ部又は左眼用レンズ部の全面に貼り付けている。
また、上記の各実施形態では、眼鏡型端末がタッチパッド部、マイク部及びスピーカ部を備えている場合について説明したが、眼鏡型端末は、タッチパッド部、マイク部及びスピーカ部の全部又は一部を備えていなくてもよい。
また、上記の各実施形態において、記憶部に、携帯電話、スマートフォン、タブレット端末、デジタルオーディオプレイヤーやラップトップコンピュータ等の携帯端末についての操作画面や、パーソナルコンピュータ等の情報端末についての操作画面や、照明、テレビ、エアコンやセキュリティシステム等の家庭電気製品についてのリモコン画面や、カーステレオ、カーナビゲーション、車載AV機器やエアコン等の電装装置についてのコントロールパネル画面を元画面として記憶しておくようにしてもよい。この場合、ユーザが、音声により又はタッチパッド部を用いた操作等を行うことにより元画面として上記操作画面等をディスプレイ装置に表示させ、その元画面に対応する視認画面に対して指で操作を行ったときに、制御部(遠隔制御部)はその操作の内容を示す指令信号(コマンド)を生成し、通信部を介してその生成した指令信号を上記携帯端末等に無線送信する。これにより、上記携帯端末等をリモートで操作することができる。すなわち、本発明の眼鏡型端末はエアコン等の遠隔制御可能な装置についてのリモートコントローラ(リモコン)として使用することもできる。図31は元画面としてエアコンについてのリモートコントローラの操作部に対応する画面(リモコン画面)を用い、そのリモコン画面に対応する視認画面に対してユーザが操作を行うときの様子を示す図である。図31に示すように、ユーザがその視認画面に対して設定温度を下げることを指示するボタンを指で操作すると、制御部は設定温度を下げる旨のコマンドを生成し、通信部を介してそのコマンドを赤外線通信によりエアコンに送信し、これにより、ユーザはエアコンの設定温度を容易に下げることができる。また、図32は、携帯電話で電話をかける際の操作画面についての元画面の例を示す図である。ユーザは、図32(a)又は(b)に示すような電話番号を入力するための元画面に対応する視認画面に対して、所望の電話番号を入力すると、制御部は当該電話番号に対して電話をかける旨のコマンドを生成し、通信部を介してそのコマンドを携帯電話に送信し、これにより、ユーザは携帯電話を手で持たずに電話をかけることができる。
上記の各実施形態では、本体部が眼鏡である場合について説明したが、本体部はフェイスシールドであってもよい。図33は本体部がフェイスシールドである眼鏡型端末の概略斜視図である。図33に示すように、本体部10aとしてのフェイスシールドは、ユーザの顔の表面の一部又は全部を覆うように構成された透明なシールド部12と、そのシールド部12を固定するフレーム13とを有する。この場合、ディスプレイ装置のホログラムシート23は、例えば、シールド部12の所定箇所に貼り付けられ、又はシールド部12に埋め込まれ若しくは一体化される。また、タッチパッド部40は、図33(a)に示すように右側のフレーム13に取り付けたり、図33(b)に示すようにシールド部の右下側に取り付けたりすることができる。
上記の第五実施形態又は第六実施形態において、端末装置を、ディスプレイ装置の画面上での各種の操作(例えば、ポインタの動作、文字の入力等)を指示するためのタッチパッド部として使用するようにしてもよい。すなわち、端末装置にタッチパッド機能を持たせるようにしてもよい。例えば、端末装置としてスマートフォンやタブレット端末を用いている場合には、その端末装置の表示部にタッチパッドの画像を表示し、表示部の画面自体をタッチパッド部として使用することができる。図44は第五実施形態において端末装置としてスマートフォンを用いている場合にその端末装置の画面をタッチパッド部として使用している様子を示す図である。ここで、ユーザは、指や入力指示具を用いて表示部310の画面(タッチパッド部)を操作する。具体的に、端末装置300には、表示部310の画面に対して接触操作が行われたときにその接触した位置を検知し、その検知した位置を示す接触位置情報を入力制御部75に出力する位置検知部が備えられている。また、端末装置300の記憶部900には、表示部310に表示されるタッチパッドの画像に関するデータが記憶されている。入力制御部75は、ディスプレイ装置20に元画面Mが表示されている場合、表示部310にタッチパッドの画像が表示され、ユーザがタッチパッドの画像上で接触操作を行ったときに、位置検知部から送られる当該接触操作に対する接触位置情報及び記憶部900に記憶されているタッチパッドの画像に関するデータに基づいて当該接触操作の内容を認識し、その認識した接触操作の内容にしたがって、ディスプレイ装置20に表示されている元画面Mの制御を行う。また、端末装置としてパーソナルコンピュータを用いている場合には、そのパーソナルコンピュータに付帯するタッチパッドやキーボードをタッチパッド部として使用することができる。尚、タッチパッド部としては、マウス機能を有するもの、簡易キーボード機能を有するもの、又は、マウス機能と簡易キーボード機能の両方を有するものを用いることができる。また、タッチパッド部としては、これらに限らず、番号パネルや操作パネル等を有するものを用いてもよい。
上記の第五実施形態又は第六実施形態において、端末装置を、ディスプレイ装置の画面上に表示されたカーソルを移動したりその画面上に表示された対象を選択したりするマウスとして使用するようにしてもよい。すなわち、端末装置にマウス機能を持たせるようにしてもよい。この場合、端末装置には、当該端末装置の移動方向を検知すると共に当該端末装置の移動量を計測し、その検知した移動方向及びその計測した移動量を示す移動情報を入力制御部に出力する移動情報出力部が備えられている。また、端末装置の記憶部には、端末装置の移動情報とディスプレイ装置に表示されるカーソルに関連する操作との対応関係を表すデータが記憶されている。入力制御部は、ディスプレイ装置に元画面が表示されている場合、ユーザが端末装置を移動させたときに、移動情報出力部から送られる当該移動に対する移動情報及び記憶部に記憶されている上記対応関係を表すデータに基づいてカーソルに関連する操作の内容を認識し、その認識した操作の内容にしたがって、ディスプレイ装置に表示されている元画面の制御を行う。例えば、上記対応関係を表すデータには、端末装置を表示部の画面の右(左)方向に動かすことがカーソルを右(左)方向に移動させることに対応すること、端末装置を表示部の画面の上(下)方向に動かすことがカーソルを上(下)方向に移動させることに対応すること、端末装置を表示部の画面の垂直方向に短く一回動かすことがタップ操作を行うことに対応すること、端末装置を表示部の画面の垂直方向に短く二回動かすことがダブルタップ操作を行うことに対応すること、端末装置を表示部の画面の垂直方向に長く動かすことがスワイプ操作を行うことに対応すること等の内容が含まれている。これにより、ユーザは、端末装置をその画面の右(左)方向に動かすことにより、カーソルが右(左)方向に移動すべきことを端末装置に指示し、端末装置をその画面の上(下)方向に動かことにより、カーソルが上(下)方向に移動すべきことを端末装置に指示することができる。図45は第五実施形態において端末装置としてスマートフォンを用いている場合にその端末装置をマウスとして使用してカーソルの移動を指示している様子を示す図である。尚、端末装置がマウス機能だけでなく、上述のタッチパッド機能を有する場合には、ユーザは、マウス機能を利用してカーソルの移動を端末装置に指示し、タッチパッド機能を利用してタップ、ダブルタップ、スワイプ、ドラッグ等を端末装置に指示することも可能である。
上記の各実施形態では、本発明の眼鏡型端末を、ユーザが眼鏡をかけるように頭部に装着する場合について説明したが、本発明の眼鏡型端末は、ディスプレイ装置や撮像装置等を備えるものであれば、耳にかけて使用する端末に限られるものではなく、頭部の例えば、後頭部、前頭部或いは頭頂部にかけて使用するもの、具体的には、ヘッドセット型端末、ヘッドマウンテッドディスプレイ(HMD)型端末、ゴーグル型端末であってもよい。この点で、本発明の眼鏡型端末とは、広い意味で、ユーザが頭部に装着して使用する端末のことである。
以上説明したように、本発明の眼鏡型端末では、使用者の目を撮像することにより使用者が視認画面に対して指又は所定の入力指示具で操作を行ったときに使用者の目に映り込んだ元画面及び当該指又は入力指示具についての画像を取得するための撮像装置が本体部に設けられており、操作判定部は、撮像装置で得られた一連の画像データに基づいて当該指又は入力指示具による操作が各種の操作のうちどのような内容の操作であるのかを判定し、操作位置特定部は、撮像装置で得られた一連の画像データに基づいて当該指又は入力指示具による操作の対象となった位置が当該元画面内におけるどの位置であるのかを特定し、そして、入力制御部は、操作判定部で得られた当該指又は入力指示具による操作の内容に関するデータと、操作位置特定部で得られた当該元画面内における当該指又は入力指示具による操作の対象となった位置を表すデータと、記憶部に記憶されている当該元画面に関するデータとに基づいて、当該視認画面に対して行われた当該指又は入力指示具による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、表示装置に表示する元画面の制御を行う。このため、本発明の眼鏡型端末を用いると、使用者は、通常のスマートフォン端末やタブレット端末と同様に、視認画面に対して操作を行うことにより、文字入力の操作や拡大・縮小等の各種の画面操作を容易且つ正確に行うことができる。したがって、本発明は、使用者が眼鏡のように装着して使用する眼鏡型端末に適用することができる。
1,1a,1b,1c,1d,1e 眼鏡型端末
10,10a 本体部
11 レンズ部
12 シールド部
13 フレーム
20,20a ディスプレイ装置(表示装置)
21 小型プロジェクタ
22 光学系
23 ホログラムシート(又はホログラムフィルム)
30,30a 撮像装置
31 カメラ部
32 画像処理部
33,33a カメラ制御部
331 オートフォーカス制御部
40 タッチパッド部
50 マイク部
60 スピーカ部(報知装置)
70,70a,70b,70c,700 制御部
71,710 表示制御部
72 画像データ抽出部
73 操作判定部
74 操作位置特定部
75 入力制御部
701 虹彩・瞳孔画像データ生成部
702 画像差分抽出部
703 画像変換部
704 目存在・不存在判定部
705 報知制御部
80 通信部
90,900 記憶部
100 筐体
200 文字入力画面
210 キーボード画像
220 表示領域
221 検索画面
2211 キーワード入力部
2212 検索結果表示部
300 端末装置
310 表示部
320 通信部
500 ケーブル
M 元画面
S 視認画面



Claims (24)

  1. 使用者によって眼鏡のように装着される本体部と、前記本体部に設けられた、前記使用者に空中に浮かんでいるように見える視認画面に対応する元画面を表示する表示装置とを有し、前記使用者が前記本体部を装着して前記視認画面に対して各種の操作を行うために使用される眼鏡型端末において、
    前記元画面に関するデータを含む各種のデータを記憶する記憶部と、
    前記本体部に設けられた、前記使用者の目を撮像することにより、前記使用者が前記視認画面に対して指又は所定の入力指示具で操作を行ったときに前記使用者の目に映り込んだ前記元画面及び当該指又は入力指示具についての画像を取得するための撮像装置と、
    前記使用者の目に映り込んだ前記元画面及び前記指又は入力指示具を前記撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて当該指又は入力指示具による操作が各種の操作のうちどのような内容の操作であるのかを判定する操作判定部と、
    前記使用者の目に映り込んだ前記元画面及び前記指又は入力指示具を前記撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて当該指又は入力指示具による操作の対象となった位置が当該元画面内におけるどの位置であるのかを特定する操作位置特定部と、
    前記使用者が前記視認画面に対して前記指又は入力指示具で操作を行ったときに、前記操作判定部で得られた当該指又は入力指示具による操作の内容に関するデータと、前記操作位置特定部で得られた当該元画面内における当該指又は入力指示具による操作の対象となった位置を表すデータと、前記記憶部に記憶されている当該元画面に関するデータとに基づいて、当該視認画面に対して行われた当該指又は入力指示具による操作に対応する入力指示の内容を認識し、その認識した入力指示の内容に応じて、前記表示装置に表示する前記元画面の制御を行う入力制御部と、
    を備えることを特徴とする眼鏡型端末。
  2. 前記操作位置特定部は、前記使用者の目に映り込んだ前記元画面及び前記指又は入力指示具を前記撮像装置が撮像したときに、その撮像して得られた一連の画像データに基づいて、前記撮像装置が撮像することができる範囲である撮像範囲内における当該元画面の範囲及び前記撮像範囲内における当該指又は入力指示具の位置を求め、その求めた前記撮像範囲内における当該元画面の範囲及び前記撮像範囲内における当該指又は入力指示具の位置に基づいて当該元画面内における当該指又は入力指示具による操作の対象となった位置を特定することを特徴とする請求項1記載の眼鏡型端末。
  3. 前記撮像装置は予め前記使用者の目にピントが合うように構成されていることを特徴とする請求項1又は2記載の眼鏡型端末。
  4. 前記撮像装置は前記使用者の目に自動的にピントを合わせるオートフォーカス制御部を有することを特徴とする請求項1又は2記載の眼鏡型端末。
  5. 前記撮像装置で撮像して得られた一連の画像データの中から、前記指又は入力指示具が存在している画像データを抽出する画像データ抽出部が更に備えられており、
    前記操作判定部は、前記画像データ抽出部で抽出された一連の画像データに基づいて当該指又は入力指示具による操作が各種の操作のうちどのような内容の操作であるのかを判定し、前記操作位置特定部は、前記画像データ抽出部で抽出された一連の画像データに基づいて当該元画面内における当該指又は入力指示具による操作の対象となった位置を特定することを特徴とする請求項1、2、3又は4記載の眼鏡型端末。
  6. 前記表示装置に前記元画面を表示する前に前記使用者の目を前記撮像装置で撮像したときに、その撮像して得られた画像データに基づいて虹彩及び瞳孔の画像データを生成して前記記憶部に記憶する虹彩・瞳孔画像データ生成部と、
    前記使用者の目に映り込んだ前記元画面及び前記指又は入力指示具を前記撮像装置が撮像したときに、その撮像して得られた画像データと前記記憶部に記憶されている前記虹彩及び瞳孔の画像データとに基づいてそれらの差分を抽出する処理を行うことにより、前記虹彩及び瞳孔の画像が取り除かれた画像データを生成する画像差分抽出部と、
    が更に備えられており、
    前記画像データ抽出部は、前記画像差分抽出部で生成された一連の画像データを用いて画像データの抽出処理を行うことを特徴とする請求項5記載の眼鏡型端末。
  7. 前記表示装置に前記元画面を表示する前に、コンタクトレンズを装着している前記使用者の目を前記撮像装置で撮像したときに、その撮像して得られた画像データに基づいてコンタクトレンズ、虹彩及び瞳孔の画像データを生成して前記記憶部に記憶する虹彩・瞳孔画像データ生成部と、
    前記使用者の目に映り込んだ前記元画面及び前記指又は入力指示具を前記撮像装置が撮像したときに、その撮像して得られた画像データと前記記憶部に記憶されている前記コンタクトレンズ、虹彩及び瞳孔の画像データとに基づいてそれらの差分を抽出する処理を行うことにより、前記コンタクトレンズ、虹彩及び瞳孔の画像が取り除かれた画像データを生成する画像差分抽出部と、
    が更に備えられており、
    前記画像データ抽出部は、前記画像差分抽出部で生成された一連の画像データを用いて画像データの抽出処理を行うことを特徴とする請求項5記載の眼鏡型端末。
  8. 本来球面の形状を持つ前記使用者の目に映り込んだ前記元画面及び前記指又は入力指示具についての画像が平面上に映り込んだ画像となるように、前記撮像装置で撮像して得られた画像データに対して画像変換を行う画像変換部が更に備えられており、
    前記画像データ抽出部は、前記画像変換部で画像変換が行われた一連の画像データを用いて画像データの抽出処理を行うことを特徴とする請求項5、6又は7記載の眼鏡型端末。
  9. 前記撮像装置で撮像して得られた画像データに前記使用者の目の画像が存在しているかどうかを判定し、前記使用者の目の画像が存在していない画像データが前記撮像装置で一定時間継続して取得されたことを検知する目存在・不存在判定部と、
    前記目存在・不存在判定部により前記使用者の目の画像が存在していない画像データが前記撮像装置で前記一定時間継続して取得されたことが検知されたときに、報知装置を制御して前記報知装置から音又は振動を発生させる報知制御部と、
    が更に備えられていることを特徴とする請求項1乃至8の何れか一項記載の眼鏡型端末。
  10. 前記表示装置に表示される元画面には遠隔制御可能な装置についてのリモートコントローラの操作部に対応する画面が含まれており、
    前記リモートコントローラの操作部に対応する画面を元画面として前記表示装置に表示させ、その元画面に対応する視認画面に対して操作が行われたときに、その操作の内容を示す指令信号を生成し、その生成した指令信号を前記遠隔制御可能な装置に無線送信する遠隔制御部を更に備えることを特徴とする請求項1乃至9の何れか一項記載の眼鏡型端末。
  11. 前記表示装置は、表示デバイスを有するプロジェクタと、光学系と、前記表示デバイスに表示された前記元画面が前記光学系を介して投影される投影部とを備えており、
    前記投影部は、半透明スクリーン、透過型スクリーン、ホログラムシート、ホログラムフィルム、ホログラム光学素子又はハーフミラーであることを特徴とする請求項1乃至10の何れか一項記載の眼鏡型端末。
  12. 前記表示装置は、表示デバイスを有するプロジェクタと、光学系と、前記表示デバイスに表示された前記元画面が前記光学系を介して投影される投影部とを備えており、
    前記光学系は、プリズム、導光板又は導波路であることを特徴とする請求項1乃至11の何れか一項記載の眼鏡型端末。
  13. 前記表示装置は透過型又は透明型の表示デバイスであり、前記表示デバイスは前記使用者の顔の前側であって前記使用者の視野の範囲内に配置されていることを特徴とする請求項1乃至10の何れか一項記載の眼鏡型端末。
  14. 前記本体部は眼鏡であり、
    前記表示装置は、表示デバイスを有するプロジェクタと、光学系と、前記表示デバイスに表示された前記元画面が前記光学系を介して投影されるホログラムシート又はホログラムフィルムとを備え、前記ホログラムシート又はホログラムフィルムは、前記本体部においてレンズが取り付けられるレンズ部に貼り付けられ、又は前記本体部の前記レンズ部に埋め込まれ若しくは一体化されていることを特徴とする請求項1乃至10の何れか一項記載の眼鏡型端末。
  15. 前記本体部は眼鏡であり、
    前記表示装置は、表示デバイスを有するプロジェクタと、光学系と、前記表示デバイスに表示された前記元画面が前記光学系を介して投影されるハーフミラーとを備え、前記ハーフミラーは、前記本体部においてレンズが取り付けられるレンズ部の前に配置されたプリズムの中に埋め込まれ若しくは一体化され、又は前記本体部の前記レンズ部の前に配置されたプリズムに貼り付けられていることを特徴とする請求項1乃至10の何れか一項記載の眼鏡型端末。
  16. 前記本体部は眼鏡であり、
    前記表示装置は、表示デバイスを有するプロジェクタと、光学系と、前記表示デバイスに表示された前記元画面が前記光学系を介して投影されるハーフミラーとを備え、前記ハーフミラーは、前記本体部においてレンズが取り付けられるレンズ部に貼り付けられ、又は前記本体部の前記レンズ部に埋め込まれ若しくは一体化されていることを特徴とする請求項1乃至10の何れか一項記載の眼鏡型端末。
  17. 前記プロジェクタ、前記光学系、及び前記撮像装置は、前記本体部に着脱可能に構成されていることを特徴とする請求項11、12、14乃至16の何れか一項記載の眼鏡型端末。
  18. 前記本体部はフェイスシールドであることを特徴とする請求項1乃至13の何れか一項記載の眼鏡型端末。
  19. 前記本体部は前記使用者が眼鏡のように耳にかけて使用するのではなく、前記使用者が耳以外の頭部のいずれかの部位に装着して使用することを特徴とする請求項1乃至18の何れか一項記載の眼鏡型端末。
  20. 前記使用者がタッチ操作を行うことにより各種の指示を入力するためのタッチパッド部が前記本体部に取り付けられていることを特徴とする請求項1乃至19の何れか一項記載の眼鏡型端末。
  21. 前記本体部と別体に構成された、表示部を搭載する端末装置を更に備えており、
    前記端末装置が、前記表示装置と無線又は有線で接続されており、前記表示部に表示されている画面を前記元画面として前記表示装置に表示するように前記表示装置を制御する機能を有することを特徴とする請求項1乃至20の何れか一項記載の眼鏡型端末。
  22. 前記表示装置及び前記撮像装置は、前記本体部に着脱可能に構成されていることを特徴とする請求項1乃至21の何れか一項記載の眼鏡型端末。
  23. 前記端末装置には、前記表示部の画面に対して接触操作が行われたときにその接触した位置を検知し、その検知した位置を示す接触位置情報を前記入力制御部に出力する位置検知部が備えられており、
    前記表示部に表示されるタッチパッドの画像に関するデータが前記記憶部に記憶されており、
    前記入力制御部は、前記表示装置に元画面が表示されている場合、前記表示部に前記タッチパッドの画像が表示され、前記使用者が前記タッチパッドの画像上で接触操作を行ったときに、前記位置検知部から送られる当該接触操作に対する接触位置情報及び前記記憶部に記憶されている前記タッチパッドの画像に関するデータに基づいて当該接触操作の内容を認識し、その認識した接触操作の内容にしたがって、前記表示装置に表示されている元画面の制御を行うことを特徴とする請求項21記載の眼鏡型端末。
  24. 前記端末装置には、当該端末装置の移動方向を検知すると共に当該端末装置の移動量を計測し、その検知した移動方向及びその計測した移動量を示す移動情報を前記入力制御部に出力する移動情報出力部が備えられており、
    前記端末装置の移動情報と前記表示装置上に表示されるカーソルに関連する操作との対応関係を表すデータが前記記憶部に記憶されており、
    前記入力制御部は、前記表示装置に元画面が表示されている場合、前記使用者が前記端末装置を移動させたときに、前記移動情報出力部から送られる当該移動に対する移動情報及び前記記憶部に記憶されている前記対応関係を表すデータに基づいて前記カーソルに関連する操作の内容を認識し、その認識した操作の内容にしたがって、前記表示装置に表示されている元画面の制御を行うことを特徴とする請求項21又は23記載の眼鏡型端末。
JP2021118164A 2020-10-13 2021-07-16 眼鏡型端末 Active JP7031112B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP21201733.9A EP3985486B1 (en) 2020-10-13 2021-10-08 Glasses-type terminal
US17/450,599 US11429200B2 (en) 2020-10-13 2021-10-12 Glasses-type terminal

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020172691 2020-10-13
JP2020172691 2020-10-13
JP2021072057 2021-04-21
JP2021072057 2021-04-21

Publications (2)

Publication Number Publication Date
JP7031112B1 true JP7031112B1 (ja) 2022-03-08
JP2022064283A JP2022064283A (ja) 2022-04-25

Family

ID=81212889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021118164A Active JP7031112B1 (ja) 2020-10-13 2021-07-16 眼鏡型端末

Country Status (1)

Country Link
JP (1) JP7031112B1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114375A (ja) 2011-11-28 2013-06-10 Seiko Epson Corp 表示システム、及び操作入力方法
JP2016031761A (ja) 2014-07-25 2016-03-07 裕行 池田 眼鏡型端末
WO2016139850A1 (ja) 2015-03-05 2016-09-09 ソニー株式会社 情報処理装置、制御方法、およびプログラム
WO2017018388A1 (ja) 2015-07-29 2017-02-02 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JP2019121191A (ja) 2018-01-05 2019-07-22 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114375A (ja) 2011-11-28 2013-06-10 Seiko Epson Corp 表示システム、及び操作入力方法
JP2016031761A (ja) 2014-07-25 2016-03-07 裕行 池田 眼鏡型端末
WO2016139850A1 (ja) 2015-03-05 2016-09-09 ソニー株式会社 情報処理装置、制御方法、およびプログラム
WO2017018388A1 (ja) 2015-07-29 2017-02-02 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JP2019121191A (ja) 2018-01-05 2019-07-22 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法

Also Published As

Publication number Publication date
JP2022064283A (ja) 2022-04-25

Similar Documents

Publication Publication Date Title
US10585288B2 (en) Computer display device mounted on eyeglasses
US10133407B2 (en) Display apparatus, display system, method for controlling display apparatus, and program
CN105319718B (zh) 可穿戴眼镜和经由可穿戴眼镜显示图像的方法
US9904360B2 (en) Head tracking based gesture control techniques for head mounted displays
US10495878B2 (en) Mobile terminal and controlling method thereof
KR102361025B1 (ko) 웨어러블 글래스 및 웨어러블 글래스를 통하여 영상을 디스플레이하는 방법
KR102110208B1 (ko) 안경형 단말기 및 이의 제어방법
JP2018082363A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
EP3985486B1 (en) Glasses-type terminal
KR20160056133A (ko) 이미지 표시 제어 방법 및 이를 지원하는 장치
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
US10884498B2 (en) Display device and method for controlling display device
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP7031112B1 (ja) 眼鏡型端末
JP7080448B1 (ja) 端末装置
US11854444B2 (en) Display device and display method
KR20240009984A (ko) 전자 안경류 디바이스로부터 맥락에 맞는 시각 및 음성 검색
KR20160027813A (ko) 글래스형 단말기
CN112219179A (zh) 视线输入装置、视线输入方法、视线输入程序以及视线输入系统
JP2018107823A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2018081415A (ja) 入力装置、入力方法、コンピュータープログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211008

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220206

R150 Certificate of patent or registration of utility model

Ref document number: 7031112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150