JP6149403B2 - 表示装置、および、表示装置の制御方法 - Google Patents
表示装置、および、表示装置の制御方法 Download PDFInfo
- Publication number
- JP6149403B2 JP6149403B2 JP2013000363A JP2013000363A JP6149403B2 JP 6149403 B2 JP6149403 B2 JP 6149403B2 JP 2013000363 A JP2013000363 A JP 2013000363A JP 2013000363 A JP2013000363 A JP 2013000363A JP 6149403 B2 JP6149403 B2 JP 6149403B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- display device
- image
- input
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Description
また、ユーザーが装着する表示装置に限らず、表示される画像以外の景色等を視認できるように画像を表示する表示装置では、表示画像以外の景色等の視認性を損なわないように入力操作を行うことが望まれていた。
本発明は、上述した事情に鑑みてなされたものであり、表示装置において、手軽に利用可能な操作方法の使用を可能とし、操作性の向上を図ることを目的とする。
本発明によれば、ユーザーが視認している画像に対応する範囲に、予め設定した所定の光を検出させると、表示装置が入力操作を検出するので、ユーザーは所定の光を発する何らかの装置を発光させるだけで入力操作を検出させることができる。予め設定された光が検出されるように、例えば発光デバイス等により光を発することで入力操作が可能となるため、ユーザーが視認している光景に与える影響が小さく、例えばユーザーが視認している景色の視認性を損なわないように、入力操作を行うことが可能となる。
本発明によれば、ユーザーが視認している画像に対応する範囲に、予め設定した所定の光を検出させると、頭部装着型の表示装置が入力操作を検出するので、ユーザーは所定の光を発する何らかの装置を発光させるだけで入力操作を検出させることができる。この操作はユーザーの周囲の人に奇異な印象を与える心配がないので、ユーザーが周囲を気遣うことなく手軽に実行できる。また、ユーザーが使用する装置は、表示装置に電気的に接続されていなくてもよく、予め設定された光を発することが可能であれば制限なく使用できる。例えば他の用途に使用される装置を流用することもできる。このため、専用の装置を必要としないことから、より手軽に操作を行うことができる。さらに、予め設定された光により入力操作を検出する位置が、ユーザーが視認している画像に対応する範囲となっているため、無関係な環境光により入力操作を検出してしまうことがなく、正確な入力操作が可能となる。従って、頭部装着型の表示装置の操作性の向上を図ることができる。
本発明によれば、単純な機構によってユーザーの操作により発光した光を速やかに検出できるので、より一層の操作性の向上を図ることができる。
本発明によれば、入力操作を検出する場合が、予め設定された光が入力検出領域に対応する位置で検出された場合となっているので、無関係な環境光により入力操作を検出してしまうことがなく、より正確な入力操作が可能となる。
本発明によれば、予め設定された光により入力操作を検出する複数の操作対象が配置されているため、ユーザーは、この光を発光させる位置により複数種類の入力操作を行うことができ、より一層の操作性の向上を図ることができる。
本発明によれば、入力操作を行うために発光させる光をユーザー自身が視認できるので、より手軽に、正確な操作を行うことができる。
本発明によれば、複数の波長域の光により入力操作を検出するので、無関係な環境光により入力操作を検出してしまう可能性が低くなり、より正確な入力操作が可能となる。
本発明によれば、入力操作が検出されたことをユーザーが視認できるので、より手軽に、正確な操作を行うことができる。
本発明によれば、光学部材により使用者の眼に画像光を導くとともに、この光学部材を透過して外光を使用者の眼に導く頭部装着型の表示装置によって、外光に予め設定された光を検出した場合に、入力操作を検出する。このため、ユーザーに外光が見える範囲において予め設定した光を検出させると、頭部装着型の表示装置が入力操作を検出するので、ユーザーは所定の光を発する何らかの装置を発光させるだけで入力操作を検出させることができる。そして、シースルー型の表示装置により表示を行うことにより、高い操作性を実現できる。
本発明によれば、ユーザーが視認している画像に対応する範囲に、予め設定した所定の光を検出させると、表示装置が入力操作を検出するので、ユーザーは所定の光を発する何らかの装置を発光させるだけで入力操作を検出させることができる。予め設定された光が検出されるように、例えば発光デバイス等により光を発することで入力操作が可能となるため、ユーザーが視認している光景に与える影響が小さく、例えばユーザーが視認している景色の視認性を損なわないように、入力操作を行うことが可能となる。
本発明によれば、ユーザーが視認している画像に対応する範囲に予め設定された所定の光を検出させると、頭部装着型の表示装置が入力操作を検出するので、ユーザーは所定の光を発する何らかの装置を発光させるだけで入力操作を検出させることができる。この操作はユーザーの周囲の人に奇異な印象を与える心配がないので、ユーザーが周囲を気遣うことなく手軽に実行できる。また、ユーザーが使用する装置は、表示装置に電気的に接続されていなくてもよく、予め設定された光を発することが可能であれば制限なく使用できる。例えば他の用途に使用される装置を流用することもできる。このため、専用の装置を必要としないことから、より手軽に操作を行うことができる。さらに、予め設定された光により入力操作を検出する位置が、ユーザーが視認している画像に対応する範囲となっているため、無関係な環境光により入力操作を検出してしまうことがなく、正確な入力操作が可能となる。従って、頭部装着型の表示装置の操作性の向上を図ることができる。
図1は、本発明の実施形態に係る頭部装着型表示装置の外観図である。
頭部装着型表示装置HMは、ユーザーの頭部に装着される頭部装着型表示装置であり、ヘッドマウントディスプレイ(HMD:Head Mounted Display)と呼ばれる。本実施形態の頭部装着型表示装置HMは、ユーザーが、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。
右光学像表示部26および左光学像表示部28は、それぞれユーザーの右眼および左眼の眼前に位置し、ユーザーの眉間に対応する位置で相互に接続されて一体となっている。右光学像表示部26の端部ERからは右保持部21が延伸し、左光学像表示部28の端部ELからは左保持部23が延伸している。
右保持部21の基端部には右表示駆動部22が内蔵され、左保持部23の基端部には左表示駆動部24が内蔵される。これら右表示駆動部22および左表示駆動部24により、頭部装着型表示装置HMはユーザーの右眼と左眼の各々に画像を視認させる。
また、頭部装着型表示装置HMの前面において右光学像表示部26と左光学像表示部28の境目部分には、カメラ61(撮影手段)が配置されている。カメラ61の位置は頭部装着型表示装置HMの前面のほぼ中央であり、ユーザーの左右の眼の中間位置となっている。
カメラ61は、静止画像の間欠撮影または動画像を撮影して撮影画像データを出力する。なお、本実施形態においてカメラ61は、1つのデジタルカメラとして例示するが、複数のデジタルカメラからなるステレオビデオカメラを採用してもよい。
画像表示部20の左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD(Liquid Crystal Display:液晶ディスプレイ)242、および、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備えている。
左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズによって構成される。左投写光学系252を経た画像光Lは左導光板262に入射する。左導光板262は画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。そして、左眼LEの眼前に位置する面262Aで反射した画像光Lは左眼LEに向けて右光学像表示部26から射出され、この画像光Lが左眼LEの網膜に像を結び、ユーザーに画像を視認させる。
なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。この導光部は、画像光を用いてユーザーの眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
画像表示部20と制御装置10とは、接続部40を介して各種信号の伝送を行う。右コード42、左コード44、および本体コード48には、例えば、金属ケーブルや、光ファイバーを採用することができる。
点灯部12は、LED等からなるインジケーターを備え、頭部装着型表示装置HMの動作状態(例えば、電源のON/OFF等)を、その発光状態によって通知する。タッチパッド14は、ユーザーの指による接触操作を検出して、検出内容に応じた信号を出力する。十字キー16は、上下左右方向に対応するキーであり、押下操作に応じた信号を出力する。電源スイッチ18は、頭部装着型表示装置HMの電源状態を切り替えるスイッチである。
制御装置10は、入力情報取得部110と、記憶部120と、電源130と、制御部140と、通信インターフェイス185と、送信部(Tx)51、52と、を備える。前述の各部はバス(図示省略)により相互に接続されている。
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFF、などを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。
表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。
通信インターフェイス185は、外部の通信回線5に接続され、この通信回線5を介して外部のサーバー6との間で通信を実行する。通信インターフェイス185は、制御部140の制御に従ってサーバー6との間で各種データを送受信する。通信インターフェイス185と通信回線5との間、および通信回線5を構成する具体的な通信回線は、有線であっても無線であってもよい。
また、通信インターフェイス185は、パーソナルコンピューター、携帯電話端末、ゲーム機、DVDプレイヤー等の映像再生機器などの外部の機器に接続され、これらの各機器から入力される各種コンテンツのアナログ映像信号または画像データを、表示制御部190に出力する。通信インターフェイス185は上記機器と有線接続されるコネクターやインターフェイス回路、或いは、無線LANやBluetooth(登録商標)等の近距離無線通信インターフェイスを備えていてもよい。
右表示駆動部22は、受信部(Rx)53と、右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを備える。
受信部53は、送信部51から入力される信号を受信する。右バックライト制御部201は、受信部53に入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53に入力されたクロック信号と、垂直同期信号と、水平同期信号と、右眼用の画像データとに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルであり、右LCD制御部211により駆動されて各種画像を描画する。
なお、右バックライト制御部201、右LCD制御部211、右バックライト221、および右LCD241を総称して右側の「画像光生成部」と呼び、左バックライト制御部202、左LCD制御部212、左バックライト222、および左LCD242を総称して、左側の「画像光生成部」と呼ぶ。また、右保持部21および左保持部23を総称して単に「保持部」と、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」と、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
そして、これら表示駆動部と、画像光生成部とによって本発明の表示手段が構成される。表示手段には、光学像表示部を含んでもよいし、導光部を含んでもよい。
以下の説明では、頭部装着型表示装置HMによりユーザーが視認する虚像を「画像」と呼ぶ。この画像は、右LCD241、左LCD242に形成される画像がユーザーの網膜に結像して認識されるものである。また、頭部装着型表示装置HMがユーザーに虚像を視認させることを「表示」と呼ぶ。
この操作は、カメラ61の撮影範囲内において、ユーザーの手指、ペン型や棒形状の操作デバイス、或いはレーザーポインターやLED等の光源等の指示体を動かすことにより行われる。
入力補助画像は、指示体により文字や図形を入力するために画像表示部20が表示する画像であり、例えば文字が配列された仮想キーボードや手書き文字入力を行うための罫線等である。入力補助画像については後述する。
記憶部120には、指示体の形状や色の特徴を含む操作検出用データ122が記憶されている。画像解析部166は、操作検出用データ122に基づいて撮影画像データから指示体の画像を抽出し、この抽出された画像に基づいて位置検出部167が指示体の指示位置を検出する。指示体の指示位置は、例えば、ユーザーの指の先端、操作デバイスの先端、光源の発光位置等である。さらに、位置検出部167は、連続して撮影された複数の静止画像の撮影画像データ、または、動画像データを構成する複数のフレームから指示体の指示位置を検出し、これら複数の指示位置を比較することによって、指示位置の計時的変化、換言すれば指示位置の動きまたは軌跡を検出する。そして、これらの指示位置の動きまたは軌跡に基づき、操作内容判定部168が、入力された内容、すなわち図形や文字を特定する。
操作検出用データ122には、指示位置の動きまたは軌跡の条件を示すデータが含まれている。このデータは、例えば、指示位置の動きの方向、動きの大きさ、動きの速度、一続きの動きの時間、軌跡の形状を示すデータ等である。操作内容判定部168は、位置検出部167が検出した指示位置の動きまたは軌跡が操作検出用データ122に含まれる条件に該当する場合に、この条件に対応する内容が入力されたものとして検出する。操作内容判定部168は、操作検出用データ122に含まれる複数の異なる条件を用いて、複数種類の入力内容を判別し、特定するものであってもよい。
記憶部120には、例えば上記の仮想キーボードや罫線を表示するための画像データやベクトルデータを含む入力補助画像データ124が記憶されている。入力補助画像データ124には、複数種類の入力補助画像を表示するためのデータが含まれていてもよく、この場合、補助画像処理部169は入力補助画像データ124からデータを選択して使用する。
図4(A)に示す例では、補助画像処理部169の制御により仮想キーボード330が表示されている。仮想キーボード330は、文字を選択するためのキー配列部331と、選択された文字が表示される入力文字表示部332とを有する入力補助画像である。キー配列部331には、一般的なQWERTYキーボードと同様に文字が配列され、各文字を選択するための枠が表示されている。図に示すように仮想キーボード330は線や文字で構成され、その背景色は外光OLの透過性を損なわない色となっている。このため、ユーザーには、仮想キーボード330と外景とが重ねて視認される。
ユーザーは、例えば手指を指示体として用いる場合、自分の手指がキー配列部331上の所望の文字に重なるように操作を行う。すなわち、指示体とキー配列部331とが重なるように操作する。入力検出部165は、画像解析部166によりユーザーの指示体を検出し、位置検出部167により指示体による指示位置を検出する。そして、操作内容判定部168が、ユーザーの視界における仮想キーボード330の表示位置(ユーザーが視認する位置)と、位置検出部167により検出された指示位置とを比較対照することにより、ユーザーの操作により選択された文字を特定する。
そして、制御部140は、操作内容判定部168により特定された文字を、入力された文字として入力文字表示部332に表示する。
図4(A)の例では、ユーザーの手指等の指示体により選択指定された文字「W」、「O」、「O」、「D」の4つの文字が入力文字表示部332に表示されている。
図4(B)の例では、入力エリア336の罫線が形成するマスに文字が1文字ずつ入力される。入力エリア336が表示された場合、ユーザーは、仮想入力ボード335に重ねて視認される指示体をマスの中で移動させて文字や図形を描く。入力検出部165は、画像解析部166により指示体を検出し、位置検出部167により指示体の指示位置を検出し、操作内容判定部168が仮想入力ボード335の表示位置と指示位置とを照合し、1つのマスの中における指示体の軌跡が特定の文字を示していると判定した場合には、その文字を入力された文字として判定する。図4(B)の例では入力内容表示部337に、入力された文字「W」、「O」、「O」、「D」が表示されている。
さらに、頭部装着型表示装置HMは、カメラ61の撮像可能範囲において予め設定された検出領域(入力検出領域)内で所定の波長の光を検出した場合に、仮想キーボード330または仮想入力ボード335を表示して、入力操作が可能な状態に移行する。従って、ユーザーは、所定の波長の光を発する装置(発光デバイス)を検出領域内で発光させることで、入力操作を開始できる。
なお、入力検出部165が検出する光は、予め設定された光であればよい。予め設定された光とは、例えば、予め設定された1または複数の波長の光が挙げられる。また、予め設定された周期またはパターンで周期的に発光する光、すなわちパルス状の光であってもよいし、予め設定された周期またはパターンで周期的に光量が変化する光であってもよい。また、光の波長が周期的にまたは予め設定されたパターンで変化する態様、例えば、異なる色の光が順に発光する態様を含んでもよい。また、これらの態様の光が組み合わされた態様を含んでもよい。また、予め設定された光がレーザー光であってもよく、可視光であっても、赤外光であっても紫外光であってもよい。入力検出部165がカメラ61の撮影画像データから予め設定された光を検出する構成においては、カメラ61の撮像素子が、予め設定された光を受光し検出可能なものであればよい。また、入力検出部165は、カメラ61に限らず、その他の受光素子を利用するものであってもよい。
制御部140は、操作検出用データ122や入力補助画像データ124をサーバー6から取得し、記憶部120に記憶させることが可能である。
入力検出部165が検出する光の上記所定の波長は、ユーザーの利便性が高くなるように任意に設定できる。例えば、カメラ61が赤外光や可視光を検出するイメージセンサーを備えた構成であれば、上記所定の波長として、赤外領域や可視領域の波長を設定できる。また、可視光においても特に、赤色、緑色など任意の波長を設定でき、ユーザーが使用する発光デバイスの光源の色に合わせればよい。さらに、上記所定の波長に幅を持たせて、所定の波長域に属する光を検出するように設定してもよい。
また、外光OLに含まれる環境光や、ユーザーが利用する発光デバイス以外の装置が発した光による動作を確実に防止したい場合、上記所定の波長を、複数の波長または波長域に設定してもよい。この場合、設定された波長または波長域に属する複数の波長の光を同時に発する装置を発光デバイスとして利用可能となり、いずれか一つの波長の光のみとは明らかに区別できるので、ユーザーが意図しない動作を防止できる。
図5、および、後述する図7中の符号VAは、頭部装着型表示装置HMを装着したユーザーの視野(視界)を示し、DAは画像表示部20による表示可能領域を示す。表示可能領域DAは、画像光Lにより画像が視認される範囲を指し、右LCD241および左LCD242の表示可能範囲、右バックライト221および左バックライト222のサイズ、右投写光学系251、左投写光学系252、右導光板261、および左導光板262の光学特性等により決定される。本実施形態では視野VAのほぼ中央に矩形の表示可能領域DAが存在する。頭部装着型表示装置HMは、表示可能領域DAの中において画像を表示できる。
以下の例では、発光デバイスとして制御装置10が使用される。
ユーザーが制御装置10を手に持って、検出領域である視野VAに重なる位置で点灯部12を点灯させると、点灯部12が発する光が入力検出部165により検出される。この例では、点灯部12は、例えば光源として赤色LEDを備えており、入力検出部165は、カメラ61の撮影画像から赤色LEDの発光色を含む波長域の光を検出するよう設定されている。入力検出部165は、光を検出した位置が設定された検出範囲であると判別して、補助画像処理部169を制御し、入力補助画像としての仮想キーボード330または仮想入力ボード335を表示する。その後、入力検出部165は、仮想キーボード330または仮想入力ボード335に重なる位置でユーザーの手指等の指示体を検出して、入力操作を受け付ける。
図5(B)の例では、カメラ61が視野VAの周囲を含む範囲を撮影可能であり、視野VAの周囲に、検出領域IAが設定されている。図5(B)に例示する検出領域IAは、視野VAの周囲に配置されて、視野VAを含まない領域であり、図中に斜線を付して示す。この検出領域IAにおいて点灯部12が光を発すると、入力検出部165がこの光を検出し、入力補助画像が表示される。図5(B)の例では検出領域IAが視野VAを含まないため、ユーザーに点灯部12の光が見えず、ユーザーが点灯部12の光を煩わしいと感じる場合には有用である。また、検出領域IAを、視野VAを含む広い範囲とすることも勿論可能である。
頭部装着型表示装置HMは、電源がオンされて動作を開始すると、発光デバイス、すなわち設定された波長の光による操作に対し、待機する(ステップS11)。
入力検出部165は、カメラ61の撮影画像データを取得し(ステップS12)、この撮影画像データに基づき、画像解析部166により設定された波長の光を検出する(ステップS13)。ここで、設定された波長の光が検出されない場合(ステップS13;No)、入力検出部165はステップS12に戻る。一方、画像解析部166により設定された波長の光が検出された場合(ステップS13;Yes)、位置検出部167が、検出された光の位置を特定する(ステップS14)。さらに、操作内容判定部168は、位置検出部167が特定した位置と検出領域とを比較する(ステップS15)。
ここで、発光デバイスの光を検出した位置が検出領域内でない場合(ステップS16;No)、入力検出部165はステップS12に戻る。一方、発光デバイスの光を検出した位置が検出領域内であった場合(ステップS16;Yes)、制御部140は、補助画像処理部169により入力補助画像を表示し(ステップS17)、この入力補助画像を用いた入力操作(例えば、文字入力操作)を検出して(ステップS18)、その後に動作を終了する。
また、頭部装着型表示装置HMでは、発光デバイスが発する光を指示体として、頭部装着型表示装置HMを操作できる。
図7は、頭部装着型表示装置HMの動作の説明図であり、発光デバイスを利用した操作の様子を示す。(A)は発光デバイスによる操作の例を示し、(B)は発光デバイスの操作を検出する検出領域を変更した例を示す。
表示可能領域DAには、発光デバイスにより頭部装着型表示装置HMの機能を制御するためのアイコン341、342、343が表示されている。アイコン341、342、343はGUI(Graphical User Interface)を構成し、いずれかのアイコンが選択指定されると、頭部装着型表示装置HMは指定されたアイコンに対応づけられた機能を実行する。図7(A)の例では、アイコン341は音楽再生機能に対応づけられ、アイコン342はナビゲーション機能の開始指示に対応づけられ、アイコン343はナビゲーション機能の終了指示に対応づけられている。ユーザーは、制御装置10の点灯部12をアイコン341、342、343のいずれかに重なる位置で点灯させることにより、上記機能を実行させることができる。
図7(B)の例では、視野VAの周囲に配置された検出領域IAが4つの検出領域IA1、IA2、IA3、IA4に分割され、分割された検出領域IA1、IA2、IA3はそれぞれ、アイコン341、342、343に対応している。この例では検出領域IA4に対応するアイコンは配置されていない。
この図7(B)の例では、点灯部12が発した光がアイコン341上ではなく検出領域IA1で検出された場合に、制御部140が、アイコン341に対応付けられた機能を実行する。同様に、検出領域IA2、IA3において点灯部12の光が検出された場合も同様に、アイコン342、343に対応する機能が実行される。この図7(B)の例では検出領域IAが視野VAを含まないため、ユーザーに点灯部12の光が見えず、ユーザーが点灯部12の光を煩わしいと感じる場合には有用である。さらに、例えば点灯部12が点灯した状態で、検出領域IAの外から視野VAに向けて移動すると、点灯部12が検出領域IAに達したときに光が検出される。この場合、ユーザーは、制御装置10を移動させる操作によってアイコン341、342、343に対応する機能を実行させることができ、点灯部12の位置をアイコン341、342、343に合わせる必要がないので、より簡単に頭部装着型表示装置HMを操作できる。
図8のステップS11〜S14の動作は図6と共通であるため説明を省略する。
操作内容判定部168は、位置検出部167がステップS14で特定した位置を、検出領域内に設けられたアイコンの位置またはアイコンに対応する位置(例えば、検出領域IA1〜IA3)と比較する(ステップS21)。ここで、特定された位置が検出領域内でない場合(ステップS22;No)、入力検出部165はステップS12に戻る。一方、特定された位置が検出領域内である場合(ステップS;Yes)、操作内容判定部168は、検出された位置に対応する機能が設定されているか否かを判定する(ステップS23)。ここで、対応する機能がある場合、すなわち、位置検出部167がステップS14で特定した位置が、検出領域内に設けられたアイコンの位置またはアイコンに対応する位置に重なる場合(ステップS23;Yes)、制御部140は対応する機能を実行し(ステップS24)、本処理を終了する。
これに対し、位置検出部167がステップS14で特定した位置が、検出領域内に設けられたアイコンの位置またはアイコンに対応する位置に該当しない場合、対応する機能が設定されていないと判定して(ステップS23;No)、通常の入力操作が可能な状態に移行する。すなわち、制御部140は、補助画像処理部169により入力補助画像を表示し(ステップS17)、この入力補助画像を用いた入力操作(例えば、文字入力操作)を検出して(ステップS18)、その後に動作を終了する。
また、ユーザーが使用する発光デバイスは、頭部装着型表示装置HMに電気的に接続されていなくてもよく、頭部装着型表示装置HMの動作に連動する制御を必要とせず、予め設定された波長の光を発することが可能であれば制限なく使用できる。例えば他の用途に使用される装置を流用することもできる。このため、専用の装置を必要としないことから、より手軽に操作を行うことができる。さらに、予め設定された波長の光を検出する検出領域が、ユーザーが視認している画像の表示可能領域DAや視野VAに対応する範囲となっているため、無関係な環境光により入力操作を検出してしまうことがなく、正確な入力操作が可能となる。従って、頭部装着型の表示装置の操作性の向上を図ることができる。
また、頭部装着型表示装置HMは、補助画像処理部169によって、入力検出部165により検出された入力操作を示す表示を行うので、より手軽に、正確な操作を行うことができる。
予め設定された波長の光は可視光であってもよく、この場合は入力操作を行うために発光させる光をユーザー自身が視認できるので、より手軽に、正確な操作を行うことができる。
さらに、予め設定された波長の光は複数の波長域の光を含むようにしてもよく、この場合、複数の波長域の光により入力操作を検出するので、無関係な環境光により入力操作を検出してしまう可能性が低くなり、より正確な入力操作が可能となる。
このため、右導光板261及び左導光板262により右眼RE、左眼LEに画像光を導くとともに、右導光板261及び左導光板262を透過して、外景の光を右眼RE、左眼LEに導く頭部装着型の表示装置によって、外光に予め設定された光を検出させることで、入力操作を検出させることができる。
また、上記実施形態では、頭部装着型表示装置の一例として、ユーザーが眼鏡のように装着する画像表示部20を備えた構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、画像表示部20に代えて、例えば帽子のように装着する画像表示部や、ヘルメット等に組み込まれた画像表示部を備えた構成としてもよい。また、イヤホン32、34は耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。
また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、画像生成部が、レーザー光源と、レーザー光源をユーザーの眼に導く光学系とを備え、レーザー光をユーザーの眼に入射させて網膜上を走査し、網膜に結像させることにより、ユーザーに画像を視認させる構成を採用してもよい。レーザー網膜投影型のヘッドマウントディスプレイを採用する場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。
さらに、本発明は、ユーザーに見える範囲に表示面となる光学部材を配置し、この光学部材に画像光により画像を視認させるヘッドマウントディスプレイ等にも勿論適用可能である。
上記実施形態の頭部装着型表示装置HMは、左右のバックライト221、222と、左右のバックライト制御部201、202と、左右のLCD241、242と、左右のLCD制御部211、212とを備える画像光生成部を用い、画像光生成部が生成した光を右導光板261及び左導光板262によりユーザーの眼に導く構成とした。
これに対し、MEMSミラーを用いた走査光学系を採用してもよい。すなわち、画像表示素子として、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像をユーザーが眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、虚像形成面は、面262Aのようにハーフミラー面となっていてもよい。
Claims (13)
- 表示装置であって、
画像光を出力することにより前記画像光以外の光により視認される景色と前記画像光による画像とを視認させる表示手段と、
入力操作を検出する操作検出手段と、
設定された入力検出領域に対応する位置で予め設定された光を検出する入力検出部と、を備え、
前記表示手段は、前記予め設定された光を前記入力検出部で検出した場合に、前記画像を表示し、
前記操作検出手段は、前記予め設定された光を前記入力検出部で検出した場合に、前記入力操作を検出することを特徴とする表示装置。 - 頭部装着型の表示装置であって、
外光に重ねて画像光を出力し、画像を視認させる表示手段と、
入力操作を検出する操作検出手段と、
設定された入力検出領域に対応する位置で予め設定された光を検出する入力検出部と、を備え、
前記表示手段は、前記予め設定された光を前記入力検出部で検出した場合に、前記画像を表示し、
前記操作検出手段は、前記予め設定された光を前記入力検出部で検出した場合に、前記入力操作を検出することを特徴とする表示装置。 - 請求項2記載の表示装置であって、
前記入力検出領域は、前記表示装置のユーザーの視野に対応する領域であることを特徴とする表示装置。 - 請求項2記載の表示装置であって、
前記入力検出領域は、前記表示装置のユーザーの視野に対応する領域よりも広い領域であることを特徴とする表示装置。 - 請求項2記載の表示装置であって、
前記入力検出領域は、前記表示装置のユーザーの視野に対応する領域の周囲に位置することを特徴とする表示装置。 - 請求項4または5記載の表示装置であって、
前記入力検出領域には複数の操作対象が配置され、
前記操作検出手段は、前記予め設定された光を検出した位置に対応する前記操作対象が操作されたと判定することを特徴とする表示装置。 - 請求項2ないし6のいずれか一項記載の表示装置であって、
前記表示装置は、使用者に画像を視認させる頭部装着型表示装置であり、
前記表示手段は、
表示用画像データを用いて画像を表す画像光を生成し射出させる画像光生成部と、
射出された前記画像光を前記使用者の眼に導く光学部材と、
を含み、
前記外光は前記光学部材を透過して前記画像光とともに前記使用者の眼に入射することを特徴とする表示装置。 - 請求項1ないし7のいずれか一項記載の表示装置であって、
前記予め設定された光は可視光であることを特徴とする表示装置。 - 請求項1ないし8のいずれか一項記載の表示装置であって、
前記予め設定された光は複数の波長域の光を含むことを特徴とする表示装置。 - 請求項1ないし9のいずれか一項記載の表示装置であって、
前記画像に、前記操作検出手段により検出された入力操作を示す表示を行う表示制御手
段を備えたことを特徴とする表示装置。 - 請求項1ないし10のいずれか一項記載の表示装置であって、
前記操作検出手段は、前記予め設定された光を指示体として検出することを特徴とする表示装置。 - 表示装置の制御方法であって、
設定された入力検出領域に対応する位置で予め設定された光を検出した場合に、
画像光を出力することにより前記画像光以外の光により視認される景色と前記画像光による画像とを視認させ、
入力操作を検出すること、
を特徴とする表示装置の制御方法。 - 画像を視認させる表示手段を備え、頭部に装着される表示装置の制御方法であって、
設定された入力検出領域に対応する位置で予め設定された光を検出した場合に、外光に重ねて画像光を出力し、
入力操作を検出すること、
を特徴とする表示装置の制御方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013000363A JP6149403B2 (ja) | 2013-01-07 | 2013-01-07 | 表示装置、および、表示装置の制御方法 |
US14/109,568 US9348144B2 (en) | 2013-01-07 | 2013-12-17 | Display device and control method thereof |
CN201410003313.2A CN103913841B (zh) | 2013-01-07 | 2014-01-03 | 显示装置以及显示装置的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013000363A JP6149403B2 (ja) | 2013-01-07 | 2013-01-07 | 表示装置、および、表示装置の制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014132719A JP2014132719A (ja) | 2014-07-17 |
JP6149403B2 true JP6149403B2 (ja) | 2017-06-21 |
Family
ID=51039650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013000363A Active JP6149403B2 (ja) | 2013-01-07 | 2013-01-07 | 表示装置、および、表示装置の制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9348144B2 (ja) |
JP (1) | JP6149403B2 (ja) |
CN (1) | CN103913841B (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US11205305B2 (en) * | 2014-09-22 | 2021-12-21 | Samsung Electronics Company, Ltd. | Presentation of three-dimensional video |
JP6483514B2 (ja) * | 2015-04-28 | 2019-03-13 | 京セラ株式会社 | ウェアラブル装置、制御方法及び制御プログラム |
US10139966B2 (en) | 2015-07-22 | 2018-11-27 | Osterhout Group, Inc. | External user interface for head worn computing |
US11003246B2 (en) | 2015-07-22 | 2021-05-11 | Mentor Acquisition One, Llc | External user interface for head worn computing |
JP6593028B2 (ja) * | 2015-08-24 | 2019-10-23 | セイコーエプソン株式会社 | 透過型表示装置 |
US10824253B2 (en) | 2016-05-09 | 2020-11-03 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10684478B2 (en) | 2016-05-09 | 2020-06-16 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10466491B2 (en) | 2016-06-01 | 2019-11-05 | Mentor Acquisition One, Llc | Modular systems for head-worn computers |
JP6919222B2 (ja) * | 2017-02-27 | 2021-08-18 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
US10152141B1 (en) | 2017-08-18 | 2018-12-11 | Osterhout Group, Inc. | Controller movement tracking with light emitters |
JP2019048577A (ja) * | 2017-09-11 | 2019-03-28 | 本田技研工業株式会社 | 車両用外板パネル、車両用表示カーテン、車両用表示幌及び車両用表示システム |
US11341940B2 (en) | 2018-07-04 | 2022-05-24 | Maxell, Ltd. | Head mounted display and setting method |
CN112423190A (zh) | 2019-08-20 | 2021-02-26 | 苹果公司 | 用于头戴式设备的基于音频的反馈 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000029619A (ja) | 1998-07-10 | 2000-01-28 | Sony Corp | コンピュータ装置 |
JP2000102036A (ja) * | 1998-09-22 | 2000-04-07 | Mr System Kenkyusho:Kk | 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法 |
JP2000284886A (ja) | 1999-03-31 | 2000-10-13 | Canon Inc | テキスト入力システム、テキスト入力方法、メニュー選択方法及び記憶媒体 |
JP2001142605A (ja) * | 1999-11-10 | 2001-05-25 | Shimadzu Corp | 入力システム |
JP2001356875A (ja) * | 2000-06-13 | 2001-12-26 | Toshiba Corp | ポインタ表示システム |
US20020071287A1 (en) * | 2000-12-13 | 2002-06-13 | 3M Innovative Properties Company | Laser pointer with multiple color beams |
JP2002259046A (ja) | 2001-02-28 | 2002-09-13 | Tomoya Sonoda | 空中で手描きした文字・記号入力システム |
JP4777182B2 (ja) * | 2006-08-01 | 2011-09-21 | キヤノン株式会社 | 複合現実感提示装置及びその制御方法、プログラム |
JP4203863B2 (ja) | 2007-07-27 | 2009-01-07 | 富士フイルム株式会社 | 電子カメラ |
KR101284797B1 (ko) * | 2008-10-29 | 2013-07-10 | 한국전자통신연구원 | 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법 |
US20100103104A1 (en) * | 2008-10-29 | 2010-04-29 | Electronics And Telecommunications Research Institute | Apparatus for user interface based on wearable computing environment and method thereof |
JP5262681B2 (ja) * | 2008-12-22 | 2013-08-14 | ブラザー工業株式会社 | ヘッドマウントディスプレイ及びそのプログラム |
US8964298B2 (en) * | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
US9217867B2 (en) * | 2011-03-24 | 2015-12-22 | Seiko Epson Corporation | Head-mounted display device and control method for the head-mounted display device |
US20130093661A1 (en) * | 2011-10-17 | 2013-04-18 | Nokia Corporation | Methods and apparatus for facilitating user interaction with a see-through display |
US8854452B1 (en) * | 2012-05-16 | 2014-10-07 | Google Inc. | Functionality of a multi-state button of a computing device |
-
2013
- 2013-01-07 JP JP2013000363A patent/JP6149403B2/ja active Active
- 2013-12-17 US US14/109,568 patent/US9348144B2/en active Active
-
2014
- 2014-01-03 CN CN201410003313.2A patent/CN103913841B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN103913841A (zh) | 2014-07-09 |
US20140191942A1 (en) | 2014-07-10 |
CN103913841B (zh) | 2018-10-09 |
US9348144B2 (en) | 2016-05-24 |
JP2014132719A (ja) | 2014-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6149403B2 (ja) | 表示装置、および、表示装置の制御方法 | |
JP6089705B2 (ja) | 表示装置、および、表示装置の制御方法 | |
US9959591B2 (en) | Display apparatus, method for controlling display apparatus, and program | |
US10133407B2 (en) | Display apparatus, display system, method for controlling display apparatus, and program | |
TWI615631B (zh) | 頭部配戴型顯示裝置及頭部配戴型顯示裝置之控制方法 | |
US10642564B2 (en) | Display system, display device, information display method, and program | |
JP6364715B2 (ja) | 透過型表示装置および透過型表示装置の制御方法 | |
JP6111659B2 (ja) | 表示装置、および、表示装置の制御方法 | |
US20160110921A1 (en) | Head mounted display, method of controlling head mounted display, and computer program | |
TW201506444A (zh) | 顯示裝置、頭部配戴型顯示裝置、顯示系統及顯示裝置之控制方法 | |
US9870048B2 (en) | Head-mounted display device, method of controlling the same, and computer program | |
US9846305B2 (en) | Head mounted display, method for controlling head mounted display, and computer program | |
US20160021360A1 (en) | Display device, method of controlling display device, and program | |
JP2014106698A (ja) | 表示装置、頭部装着型表示装置および表示装置の制御方法 | |
JP6303274B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6776578B2 (ja) | 入力装置、入力方法、コンピュータープログラム | |
JP6740613B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
US20170285765A1 (en) | Input apparatus, input method, and computer program | |
JP6394108B2 (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP2018018315A (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
JP6350705B2 (ja) | 表示装置、および、表示装置の制御方法 | |
JP6669183B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6268704B2 (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
JP2016212769A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2018081415A (ja) | 入力装置、入力方法、コンピュータープログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151125 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160610 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20160624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160927 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6149403 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |