JP2018042004A - 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 - Google Patents
表示装置、頭部装着型表示装置、及び、表示装置の制御方法 Download PDFInfo
- Publication number
- JP2018042004A JP2018042004A JP2016172430A JP2016172430A JP2018042004A JP 2018042004 A JP2018042004 A JP 2018042004A JP 2016172430 A JP2016172430 A JP 2016172430A JP 2016172430 A JP2016172430 A JP 2016172430A JP 2018042004 A JP2018042004 A JP 2018042004A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- user
- image
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】表示装置を操作する使用者が、視線や眼球の動きによって操作を行う場合に、使用者の負荷を抑え、より短時間で簡単に操作できるようにする。【解決手段】HMD100は、使用者の身体に装着して使用される表示装置であって、画像を表示する表示部を備える。HMD100は、使用者の眼球の動きを検出する眼球運動検出部152と、眼球運動検出部152により検出される使用者の眼球の動きを判定する眼球運動判定部154と、画像表示部20における表示を制御する表示制御部147と、を備える。表示制御部147は、眼球運動判定部154の判定結果に応じて、表示部の表示を変化させ、その後に予め設定された復元条件をトリガーとして表示部の表示を復元させる。【選択図】図5
Description
本発明は、表示装置、頭部装着型表示装置、及び、表示装置の制御方法に関する。
従来、使用者の操作に応じて表示を変化させる表示装置が知られている(例えば、特許文献1〜4参照)。特許文献1記載の画像表示装置は、使用者の視線とトラックボールの操作に応じて、ポインターを表示し、ポインターを移動させる。また、特許文献2記載のHMD(Head Mount Display:頭部装着型表示装置)は、キーボードの操作に対応して、HMDが表示する仮想キーボードの表示を変化させる。これらの表示装置は入力デバイスを手等によって操作する必要があるが、例えば、特許文献3記載の視線入力装置は、複数の仮想ディスプレイ画面を表示し、使用者の視線入力を検知して、仮想ディスプレイ画面を半透明表示させる。また、例えば、特許文献4記載のヘッドマウントディスプレイは、ユーザーの眼球運動や瞼の動きを検出して、コンテンツの表示のスクロール等を行う。
特許文献1〜4に記載されたように、表示装置を操作する使用者が、視線、眼球運動あるいは瞼の動きを利用して操作を行う構成では、操作性を高めることが可能である。しかしながら、視線、眼球、及び瞼は生理的な要因によって動くことがあり、また、動き方の個人差も大きい。このため、視線や眼球の動きによる操作を検出することにより、使用者が意図しない操作が検出されてしまう可能性がある。従って、使用者は操作が誤検出されないように、視線や眼球の動きに注意を払う必要があり、使用者の負荷が増える可能性があった。さらに、操作を行うために視線や眼球を動かす間は、使用者が画像を視認することに集中することは難しい。このため、視線や眼球の動きによる操作は、短時間で済ませられることが望まれる。
本発明は、表示装置を操作する使用者が、視線や眼球の動きによって操作を行う場合に、使用者の負荷を抑え、より短時間で簡単に操作できるようにすることを目的とする。
本発明は、表示装置を操作する使用者が、視線や眼球の動きによって操作を行う場合に、使用者の負荷を抑え、より短時間で簡単に操作できるようにすることを目的とする。
上記課題を解決するため、本発明は、使用者の身体に装着して使用される表示装置であって、画像を表示する表示部と、前記使用者の眼球の動きを検出する検出部と、前記検出部により検出される前記使用者の眼球の動きを判定する判定部と、前記表示部における表示を制御する制御部と、を備え、前記制御部は、前記判定部の判定結果に応じて、前記表示部の表示を変化させ、その後に予め設定された復元条件をトリガーとして前記表示部の表示を復元させる。
本発明によれば、使用者の眼球の動きに応じて表示部の表示を変化させることができ、変化させた表示を、復元条件に従って復元させることができる。このため、使用者は、表示部が表示する画像に対して簡単に操作を行うことができる。また、誤操作が検出された場合であっても表示を容易に復元させることができるので、誤操作の検出を防止するための使用者の負荷を軽減できる。
本発明によれば、使用者の眼球の動きに応じて表示部の表示を変化させることができ、変化させた表示を、復元条件に従って復元させることができる。このため、使用者は、表示部が表示する画像に対して簡単に操作を行うことができる。また、誤操作が検出された場合であっても表示を容易に復元させることができるので、誤操作の検出を防止するための使用者の負荷を軽減できる。
また、本発明は、前記判定部の判定結果に対応付けて、前記表示部に表示する情報を記憶する記憶部を備え、前記制御部は、前記判定部が判定を行った場合に、前記判定部の判定結果に対応付けて前記記憶部に記憶される情報の表示を開始させ、前記復元条件をトリガーとして前記情報の表示を終了させる。
本発明によれば、使用者の眼球の動きに対応する情報を表示部に情報を表示させることができる。これにより、使用者が望む情報を、簡単な操作によって表示させることができ、より一層の操作性の向上を図ることができる。また、誤操作の検出を防止するための使用者の負荷を軽減できる。
本発明によれば、使用者の眼球の動きに対応する情報を表示部に情報を表示させることができる。これにより、使用者が望む情報を、簡単な操作によって表示させることができ、より一層の操作性の向上を図ることができる。また、誤操作の検出を防止するための使用者の負荷を軽減できる。
また、本発明は、前記制御部は、前記情報の表示を開始する際、及び、前記情報の表示を終了させる際に、前記表示部に前記情報をアニメーション表示させる。
本発明によれば、表示部における表示の急激な変化を緩和し、表示される情報の視認性を高めることができるので、より一層の操作性の向上を図ることができる。
本発明によれば、表示部における表示の急激な変化を緩和し、表示される情報の視認性を高めることができるので、より一層の操作性の向上を図ることができる。
また、本発明は、前記制御部は、前記情報の表示を開始する際のアニメーション表示の変化速度と、前記情報の表示を終了させる際のアニメーション表示の変化速度とを対応させる。
本発明によれば、表示部により情報の表示を開始するときと表示を終了するときの表示の変化の速度を対応させることで、表示される情報の視認性を高めることができ、より一層の操作性の向上を図ることができる。
本発明によれば、表示部により情報の表示を開始するときと表示を終了するときの表示の変化の速度を対応させることで、表示される情報の視認性を高めることができ、より一層の操作性の向上を図ることができる。
また、本発明は、前記判定部は、前記検出部が検出する前記使用者の眼球の動きに基づき、前記使用者の視線方向を判定し、前記制御部は、前記判定部が判定する前記使用者の視線方向に対応して前記表示部の表示を変化させる。
本発明によれば、使用者が視線の方向を動かすことにより、表示部の表示を変化させることができる。
本発明によれば、使用者が視線の方向を動かすことにより、表示部の表示を変化させることができる。
また、本発明は、前記制御部は、前記判定部が判定する前記使用者の視線方向に対応する情報を前記表示部に表示させる。
本発明によれば、使用者が視線の方向を動かすことにより、視線の方向に対応する情報を表示部に表示させることができる。このため、表示させる情報を選択する操作と、情報を表示させる操作とを、簡単に行うことができる。
本発明によれば、使用者が視線の方向を動かすことにより、視線の方向に対応する情報を表示部に表示させることができる。このため、表示させる情報を選択する操作と、情報を表示させる操作とを、簡単に行うことができる。
また、本発明は、前記使用者による操作を検出する操作検出部を備え、前記制御部は、前記判定部が判定する前記使用者の視線方向に対応する情報を、前記操作検出部が検出する操作に応じて、前記表示部に表示させる。
本発明によれば、使用者が眼球の動きとその他の操作とを組み合わせて、表示装置を操作することができ、例えば複雑な内容の操作を簡単に行うことができる。これにより、より一層の操作性の向上を図ることができる。
本発明によれば、使用者が眼球の動きとその他の操作とを組み合わせて、表示装置を操作することができ、例えば複雑な内容の操作を簡単に行うことができる。これにより、より一層の操作性の向上を図ることができる。
また、本発明は、前記制御部は、前記判定部が判定する前記使用者の視線方向が予め設定された変化をした場合に、前記復元条件が成立したと判定して前記表示部に表示させた情報の表示を終了させる。
本発明によれば、使用者が視線方向を変化させることにより、容易に、表示を復元させることができる。
本発明によれば、使用者が視線方向を変化させることにより、容易に、表示を復元させることができる。
また、本発明は、前記使用者の眼瞼の動きを検出する眼瞼運動検出部を備え、前記制御部は、前記眼瞼運動検出部により、予め設定された態様の前記使用者の眼瞼の動きが検出された場合に、前記復元条件が成立したと判定して前記表示部に表示させた情報の表示を終了させる。
本発明によれば、使用者が瞼を動かすことにより、易に、表示を復元させることができる。
本発明によれば、使用者が瞼を動かすことにより、易に、表示を復元させることができる。
また、本発明は、前記制御部は、前記表示部の表示を変化させてから、予め設定された時間が経過したときに前記復元条件が成立したと判定して前記表示部に表示させた情報の表示を終了させる。
本発明によれば、表示部の表示が変化してから、予め設定された時間が経過したときに表示が復元されるので、表示を復元させる操作が不要である。このため、使用者に要求される操作を、より簡易化できる。
本発明によれば、表示部の表示が変化してから、予め設定された時間が経過したときに表示が復元されるので、表示を復元させる操作が不要である。このため、使用者に要求される操作を、より簡易化できる。
また、本発明は、前記検出部は前記使用者の視線方向を検出し、前記制御部は、前記検出部により検出される前記使用者の視線方向に基づき前記使用者の視線の輻輳角を判定し、前記使用者の視線の輻輳角が予め設定された条件に該当する場合に、前記復元条件が成立したと判定して前記表示部に表示させた情報の表示を終了させる。
本発明によれば、使用者の視線の輻輳角に対応して、表示部の表示を復元させることができる。
本発明によれば、使用者の視線の輻輳角に対応して、表示部の表示を復元させることができる。
また、本発明は、前記制御部は、前記使用者の視線の輻輳角が予め設定された条件に該当する可能性がある場合に、前記表示部により報知の表示をさせる。
本発明によれば、使用者の視線の輻輳角に対応して表示部の表示を復元させる可能性がある場合に、報知を行う。これにより、誤操作を容易に防止でき、表示の変化を事前に報知できるので、より一層の操作性の向上を図ることができる。
本発明によれば、使用者の視線の輻輳角に対応して表示部の表示を復元させる可能性がある場合に、報知を行う。これにより、誤操作を容易に防止でき、表示の変化を事前に報知できるので、より一層の操作性の向上を図ることができる。
また、本発明は、前記表示部は、外景を透過し、前記外景とともに視認できるように画像を表示する透過型の表示部であり、前記制御部は、前記判定部の判定結果に応じて、前記外景と重畳して視認される位置に画像を表示させ、その後に予め設定された復元条件をトリガーとして、前記外景と重畳して視認される位置から画像を待避させる。
本発明によれば、外景を透過して視認可能に画像を表示する場合に、使用者の眼の動きに基づいて画像を表示させることができる。また、外景と重畳して視認される位置を利用して画像を表示でき、この画像が外景の視認の障害にならないよう待避させることができる。これにより、外景の視認性を損なうことなく、簡単な操作によって、表示部が画像を表示可能な領域を効率よく利用して、表示を行うことができる。
本発明によれば、外景を透過して視認可能に画像を表示する場合に、使用者の眼の動きに基づいて画像を表示させることができる。また、外景と重畳して視認される位置を利用して画像を表示でき、この画像が外景の視認の障害にならないよう待避させることができる。これにより、外景の視認性を損なうことなく、簡単な操作によって、表示部が画像を表示可能な領域を効率よく利用して、表示を行うことができる。
上記課題を解決するため、本発明は、使用者の頭部に装着され、外景と画像とを重ねて視認可能に表示する表示部と、前記使用者の眼球の動きを検出する検出部と、前記検出部により検出される前記使用者の眼球の動きを判定する判定部と、前記表示部における表示を制御する制御部と、を備え、前記制御部は、前記判定部の判定結果に応じて、前記表示部の表示を変化させ、その後に予め設定された復元条件をトリガーとして前記表示部の表示を復元させる。
本発明によれば、使用者が頭部に装着する表示部の表示を、使用者の眼球の動きに応じて変化させることができ、変化させた表示を、復元条件に従って復元させることができる。このため、使用者は、表示部が表示する画像に対して簡単に操作を行うことができる。また、誤操作が検出された場合であっても表示を容易に復元させることができるので、誤操作の検出を防止するための使用者の負荷を軽減できる。
本発明によれば、使用者が頭部に装着する表示部の表示を、使用者の眼球の動きに応じて変化させることができ、変化させた表示を、復元条件に従って復元させることができる。このため、使用者は、表示部が表示する画像に対して簡単に操作を行うことができる。また、誤操作が検出された場合であっても表示を容易に復元させることができるので、誤操作の検出を防止するための使用者の負荷を軽減できる。
上記課題を解決するため、本発明は、使用者の身体に装着して使用され、画像を表示する表示部と、前記使用者の眼球の動きを検出する検出部と、を備える表示装置を制御して、前記検出部により検出される前記使用者の眼球の動きを判定するステップと、判定結果に応じて、前記表示部の表示を変化させるステップと、予め設定された復元条件をトリガーとして前記表示部の表示を復元させるステップと、を有する。
本発明によれば、使用者の眼球の動きに応じて表示部の表示を変化させることができ、変化させた表示を、復元条件に従って復元させることができる。このため、使用者は、表示部が表示する画像に対して簡単に操作を行うことができる。また、誤操作が検出された場合であっても表示を容易に復元させることができるので、誤操作の検出を防止するための使用者の負荷を軽減できる。
本発明によれば、使用者の眼球の動きに応じて表示部の表示を変化させることができ、変化させた表示を、復元条件に従って復元させることができる。このため、使用者は、表示部が表示する画像に対して簡単に操作を行うことができる。また、誤操作が検出された場合であっても表示を容易に復元させることができるので、誤操作の検出を防止するための使用者の負荷を軽減できる。
本発明において、復元とは、表示部の表示を変化させる前の状態と完全に同一の表示に戻すことに限定されない。例えば、制御部が表示部の表示を、変化させる前の状態と近似する状態に変化させることも、復元に含まれる。また、例えば、制御部が表示部の表示について複数の変化をさせた場合に、これら複数の表示変化のいずれかを元の状態にすることを、復元に含めてもよい。
本発明は、上述した表示装置、及び表示装置の制御方法以外の種々の形態で実現することも可能である。例えば、上記の表示装置を含む表示システムを構成することも可能である。また、上記の制御方法を実行するために制御部やコンピューターが実行するプログラムとして実現してもよい。また、上記プログラムを記録した記録媒体、プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。
本発明は、上述した表示装置、及び表示装置の制御方法以外の種々の形態で実現することも可能である。例えば、上記の表示装置を含む表示システムを構成することも可能である。また、上記の制御方法を実行するために制御部やコンピューターが実行するプログラムとして実現してもよい。また、上記プログラムを記録した記録媒体、プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。
図1は、本発明を適用した実施形態に係るHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す説明図である。
HMD100は、使用者(ユーザー)の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、図1に示すように、平たい箱形のケース10A(筐体、あるいは本体ともいえる)を備え、ケース10Aに後述する各部を備える。ケース10Aの表面には、使用者の操作を受け付ける各種のボタン11、スイッチ、トラックパッド14等が設けられる。これらを使用者が操作することによって、制御装置10は、HMD100のコントローラーとして機能する。
HMD100は、使用者(ユーザー)の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、図1に示すように、平たい箱形のケース10A(筐体、あるいは本体ともいえる)を備え、ケース10Aに後述する各部を備える。ケース10Aの表面には、使用者の操作を受け付ける各種のボタン11、スイッチ、トラックパッド14等が設けられる。これらを使用者が操作することによって、制御装置10は、HMD100のコントローラーとして機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26、及び左導光板28を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。
右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示ユニット22及び左表示ユニット24を総称して単に「表示駆動部」とも呼ぶ。
本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。
また、右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
また、右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像を使用者に視認させることによって、画像を表示する。使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光および外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、或いは、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。
カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置される。カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。
カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように、カメラ61の撮像範囲が設定される。
カメラ61は、制御部150(図5)が備える撮像制御部149の制御に従って撮像を実行し、撮像画像データを撮像制御部149に出力する。
カメラ61は、制御部150(図5)が備える撮像制御部149の制御に従って撮像を実行し、撮像画像データを撮像制御部149に出力する。
HMD100は、距離センサー64を備える。距離センサー64は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、距離センサー64の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。
距離センサー64は、予め設定された測定方向に位置する測定対象物までの距離を検出する。距離センサー64は、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する。この場合、距離センサー64は、後述する制御部150の制御に従い、三角測距処理や時間差に基づく測距処理を実行する。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサー64は、制御部150の制御に従い、超音波の反射までの時間差に基づき測距処理を実行する。なお、距離センサー64は光源や受光部、或いは音源と検出部とを備え、測距処理を制御部150が行ってもよい。本実施形態の距離センサー64の測定方向は、頭部装着型表示装置100の表側方向であり、カメラ61の撮像方向と重複する。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
また、使用者の左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図5)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図1に戻り、制御装置10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及び、マイク63を有するヘッドセット30が、コネクター46に接続される。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
制御装置10は、使用者により操作される被操作部として、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18を備える。これらの被操作部はケース10Aの表面に配置される。
ボタン11は、制御装置10が実行するオペレーティングシステム143(図5)の操作等を行うためのメニューキー、ホームキー、戻るキー等を含み、特に、これらのキーやスイッチのうち押圧操作により変位するものを含む。LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
ボタン11は、制御装置10が実行するオペレーティングシステム143(図5)の操作等を行うためのメニューキー、ホームキー、戻るキー等を含み、特に、これらのキーやスイッチのうち押圧操作により変位するものを含む。LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。トラックパッド14への接触(タッチ操作)は、後述するタッチセンサー13(図4)により検出される。
また、図1に破線で示すように、トラックパッド14にはLED表示部17が設置される。LED表示部17は複数のLEDを備え、それぞれのLEDの点灯によりLED表示部17に操作部が視認可能となる。図1の例では、3つの記号△(三角形)、○(丸)、□(四角形)が、LED表示部17のLEDの点灯時に現れる。LED表示部17が消灯している状態では、これらの記号は視認できない状態となる。この構成は、例えば、トラックパッド14を、透光性を有する有色または無色透明の平板で構成し、この平板の直下にLEDを配置することで、実現できる。
また、図1に破線で示すように、トラックパッド14にはLED表示部17が設置される。LED表示部17は複数のLEDを備え、それぞれのLEDの点灯によりLED表示部17に操作部が視認可能となる。図1の例では、3つの記号△(三角形)、○(丸)、□(四角形)が、LED表示部17のLEDの点灯時に現れる。LED表示部17が消灯している状態では、これらの記号は視認できない状態となる。この構成は、例えば、トラックパッド14を、透光性を有する有色または無色透明の平板で構成し、この平板の直下にLEDを配置することで、実現できる。
LED表示部17はソフトウェアボタンとして機能する。例えば、LED表示部17が点灯中においては、記号の点灯位置(表示位置)が、記号に対応する指示を行うボタンとして機能する。図1の例で、記号○(丸)はホームボタンとして機能し、記号○(丸)の位置に接触する操作が行われると、後述する制御部150は、タッチセンサー13の検出値に基づき、ホームボタンの操作を検出する。また、記号□(四角形)は履歴ボタンとして機能する。記号□(四角形)の位置に接触する操作が行われると、後述する制御部150は、タッチセンサー13の検出値に基づき、履歴ボタンの操作を検出する。また、記号△(三角形形)は戻るボタンとして機能する。記号△(三角形)の位置に接触する操作が行われると、後述する制御部150は、タッチセンサー13の検出値に基づき、戻るボタンの操作を検出する。
図3は、画像表示部20の要部構成を示す図であり、(A)は画像表示部20を使用者の頭部側から見た要部斜視図、(B)はカメラ61の画角の説明図である。なお、図3(A)では接続ケーブル40の図示を省略する。
図3(A)は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
カメラ61は、上記のように画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。図3(B)は、カメラ61の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。カメラ61の画角(撮像範囲)をCで示す。なお、図3(B)には水平方向の画角Cを示すが、カメラ61の実際の画角は一般的なデジタルカメラと同様に上下方向にも拡がる。
カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば図3(B)に示すように、使用者が両眼で対象物OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物OBまでの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物OBが画角に含まれるように、設定されることが好ましい。
また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が、図3(B)の対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
カメラ61の画角Cは、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角Cが、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角Cが、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、使用者の安定注視野よりも広く、最も好ましくは、画角Cが使用者の両眼の視野角よりも広い。
カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
また、距離センサー64は、右光学像表示部26と左光学像表示部28との中央において、前方を向いて配置される。
図3(B)には、距離センサー64の検出方向を符号64Aで示す。本実施形態で、距離センサー64は、画像表示部20の中央位置から正面方向に位置する物体までの距離を検出可能に構成され、例えば対象物OBまでの距離を検出する。頭部装着型表示装置100を装着した使用者は、注視する方向に頭を向けるので、注視する対象は画像表示部20の正面にあると考えることができる。このため、画像表示部20の中央に配置された距離センサー64が、画像表示部20の正面を検出方向64Aとすれば、使用者が注視する対象までの距離を検出できる。
また、図3(A)に示すように、画像表示部20の使用者側には内側カメラ68が配置される。内側カメラ68は、使用者の右眼RE、及び、左眼LEのそれぞれに対応するように、右光学像表示部26と左光学像表示部28との中央位置に一対、設けられる。内側カメラ68は、使用者の右眼REと左眼LEとをそれぞれ撮像する一対のカメラである。内側カメラ68は、制御部150(図5)の制御に従って撮像を行う。制御部150は、内側カメラ68の撮像画像データを解析する。例えば、制御部150は、内側カメラ68の撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、使用者の視線方向を特定する。また、制御部150は、使用者の視線方向の変化を求めることができ、右眼RE及び左眼LEのそれぞれの眼球運動を検出してもよい。
ここで、使用者の視線の移動は、使用者の仮想視点の移動とみることもできる。
ここで、使用者の視線の移動は、使用者の仮想視点の移動とみることもできる。
また、制御部150は、内側カメラ68の撮像画像データから使用者の右眼RE及び左眼LEの瞼(眼瞼)の画像を抽出して、眼瞼運動を検出してもよく、眼瞼の状態を検出してもよい。本実施形態では画像表示部20が一対の内側カメラ68、68を備える構成を例示するが、例えば、1つの内側カメラ68を、画像表示部20の中央位置に設けてもよい。この場合、1つの内側カメラ68が、右眼RE及び左眼LEを撮像できる画角を有することが好ましいが、例えば、右眼REまたは左眼LEの一方のみを内側カメラ68により撮像してもよい。すなわち、右眼REまたは左眼LEのいずれか一方の視線方向、眼球運動、眼瞼運動、眼瞼の状態等を制御部150が検出する構成としてもよい。
また、制御部150は、内側カメラ68の撮像画像から右眼RE及び左眼LEの視線方向を検出した場合に、右眼RE及び左眼LEの輻輳角を求めることができる。図3(B)には輻輳角を符号PAで示す。輻輳角PAは、使用者が注視する対象物OBまでの距離に対応する。すなわち、使用者が立体的に画像や物体を視認する場合、視認する対象までの距離に対応して、右眼RE及び左眼LEの輻輳角が定まる。従って、輻輳角を検出することで、使用者が注視する距離を求めることができる。また、使用者の輻輳角を誘導するように画像を表示することにより、立体視を誘導できる。
輻輳角は、例えば、内側カメラ68の撮像画像データから求めることができる。例えば、内側カメラ68に撮像画像データから右眼REの視線方向を求め、この視線方向から、右眼REの正面方向に対する右眼REの視線方向の角度LAを求める。同様に、内側カメラ68の撮像画像データから左眼LEの視線方向を求め、この視線方向に基づき、左眼LEの正面方向に対する左眼LEの視線方向の角度RAを求める。輻輳角PAは、角度LA、RAの和に等しく、容易に輻輳角PAを求めることができる。
図4は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。
メモリー118は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。
メインプロセッサー140は、トラックパッド14から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、トラックパッド14へのタッチ操作を検出し、検出したタッチ操作の操作位置を特定する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、トラックパッド14(図1)の直下に配置されLED(図示略)、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、トラックパッド14へのタッチ操作を検出し、検出したタッチ操作の操作位置を特定する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、トラックパッド14(図1)の直下に配置されLED(図示略)、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
通信部117は、外部の機器との間で無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信を行う。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
また、HMD100は、バイブレーター19を備える。バイブレーター19は、モーター(図示略)、偏心した回転子(図示略)等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン/オフされる場合等に、所定の振動パターンでバイブレーター19により振動を発生する。
センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及び、インターフェイス196を介した伝送を実行する。
画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図1に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215(記憶部)が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
EEPROM(Electrically Erasable Programmable Read-Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。
カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。
内側カメラ68は、インターフェイス211を介して制御装置10から入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。図4には1つの内側カメラ68を図示するが、図3(A)に示す一対の内側カメラ68、68が同時に動作してもよい。また、一対の内側カメラ68、68のそれぞれが、インターフェイス211に接続され、独立して動作する構成であってもよい。
距離センサー64は、インターフェイス211を介して制御装置10から入力される信号に従って距離検出を実行し、検出結果を示す信号を制御装置10に出力する。図4には1つの距離センサー64を図示するが、図3(A)に示す一対の距離センサー64、64が同時に動作してもよい。また、一対の距離センサー64、64のそれぞれが、インターフェイス211に接続され、独立して動作する構成であってもよい。
受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。
左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235、及び、磁気センサー237が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
磁気センサー237は、例えば、3軸の地磁気センサーである。
温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
右表示ユニット22が備えるカメラ61、距離センサー64、照度センサー65、内側カメラ68、温度センサー217、及び、左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132、及び、バッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、或いは電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。
HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。
図5は、制御装置10の制御系を構成する記憶部122、及び制御部150の機能ブロック図である。図5に示す記憶部122は、不揮発性記憶部121(図4)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。また、制御部150、及び、制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、メモリー118、及び不揮発性記憶部121により構成される。
制御部150は、記憶部122が記憶するデータを利用して各種処理を実行し、HMD100を制御する。
記憶部122は、制御部150が処理する各種のデータを記憶する。記憶部122は、設定データ123、コンテンツデータ124、呼出表示データ125、及び表示復元設定データ126を記憶する。設定データ123は、HMD100の動作に係る各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。
記憶部122は、制御部150が処理する各種のデータを記憶する。記憶部122は、設定データ123、コンテンツデータ124、呼出表示データ125、及び表示復元設定データ126を記憶する。設定データ123は、HMD100の動作に係る各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。
コンテンツデータ124は、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータであり、画像データ、或いは映像データを含む。また、コンテンツデータ124は、音声データを含んでもよい。また、コンテンツデータ124は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
呼出表示データ125は、画像表示部20により表示する画像に関するデータであり、詳細には、使用者の操作に従って画像表示部20の表示領域に出現し、その後に表示領域から待避する画像の表示に関するデータである。呼出表示データ125は、表示される画像の画像データを含んでもよい。呼出表示データ125は、メニュー画面のように、特定の機能が割り当てられた画像や領域を含み、GUI(Graphical User Interface)として機能する画像のデータを含んでもよい。また、呼出表示データ125は、特定の機能が割り当てられた画像データに対応付けて、割り当てられた機能や処理を示すデータ、或いは、割り当てられた機能や処理に関するデータを含んでもよい。また、呼出表示データ125が含む画像を表示領域に出現させる動作を、以下では呼び出し動作と呼ぶ。呼出表示データ125は、呼び出し動作を実行させるために画像表示部20の表示領域に表示される画像を含んでもよい。また、呼出表示データ125は、呼び出し動作により画像を表示した状態で、制御部150が操作を検出した場合に、この操作に従って表示中の画像を変化させるためのデータを含んでもよい。
表示復元設定データ126は、呼び出し動作により呼出表示データ125に含まれる画像を表示した場合に、呼び出し動作を行う前の状態に復元する処理に関するデータを含む。表示復元設定データ126は、呼び出し動作を行う前の状態に復元する処理を実行するトリガーに関するデータを含む。
ここで、表示を復元するとは、呼出表示データ125に含まれる画像を表示した場合に、呼出表示データ125に含まれる画像を完全に消去することに限定されない。つまり、呼出表示データ125に基づき画像表示部20の表示を変化させる前の状態を完全に再現することに限定されない。言い換えれば、表示を復元するとは、呼出表示データ125に含まれる画像を表示した場合に、この画像を表示する前と全く同一の表示状態にすることに限定されない。例えば、制御部150が画像表示部20の表示について複数の変化をさせた場合に、これら複数の表示変化のいずれかを元の状態にすることを、復元に含めてもよい。具体的には、呼出表示データ125に含まれる画像を表示した場合に、表示した画像の少なくとも一部の表示を停止することや、表示した画像の少なくとも一部について、表示の大きさを小さくする等、表示前に近い状態に表示を変化させることを含んでもよい。
ここで、表示を復元するとは、呼出表示データ125に含まれる画像を表示した場合に、呼出表示データ125に含まれる画像を完全に消去することに限定されない。つまり、呼出表示データ125に基づき画像表示部20の表示を変化させる前の状態を完全に再現することに限定されない。言い換えれば、表示を復元するとは、呼出表示データ125に含まれる画像を表示した場合に、この画像を表示する前と全く同一の表示状態にすることに限定されない。例えば、制御部150が画像表示部20の表示について複数の変化をさせた場合に、これら複数の表示変化のいずれかを元の状態にすることを、復元に含めてもよい。具体的には、呼出表示データ125に含まれる画像を表示した場合に、表示した画像の少なくとも一部の表示を停止することや、表示した画像の少なくとも一部について、表示の大きさを小さくする等、表示前に近い状態に表示を変化させることを含んでもよい。
図6は、表示復元設定データ126の構成例を示す模式図である。図6に示す例では、表示復元設定データ126は、復元条件に関するテーブルを含む。
図6のテーブルは、呼び出し動作に従って呼出表示データ125に基づき表示される画像を特定する呼出画像IDと、復元条件とを対応付けて含む。復元条件は、表示を復元するトリガーの種類を示す「復元トリガー種別と、具体的な復元条件とを含む。また、本実施形態では、復元条件に対応付けて報知条件が表示復元設定データ126に含まれる。
復元するトリガーの種類が、制御部150が検出する検出結果である場合、予め、検出を実行する期間(時間)が定められる。つまり、設定された期間に制御部150が復元条件に該当する検出をした場合に、復元条件が成立する。報知条件についても同様である。
図6のテーブルは、呼び出し動作に従って呼出表示データ125に基づき表示される画像を特定する呼出画像IDと、復元条件とを対応付けて含む。復元条件は、表示を復元するトリガーの種類を示す「復元トリガー種別と、具体的な復元条件とを含む。また、本実施形態では、復元条件に対応付けて報知条件が表示復元設定データ126に含まれる。
復元するトリガーの種類が、制御部150が検出する検出結果である場合、予め、検出を実行する期間(時間)が定められる。つまり、設定された期間に制御部150が復元条件に該当する検出をした場合に、復元条件が成立する。報知条件についても同様である。
報知条件は、復元条件が成立する可能性がある、或いは、可能性が高いことを使用者に報知する、報知動作を実行する条件である。報知動作は、例えば、復元条件が成立する可能性があることを示す画像を画像表示部20により表示する処理や、音声コーデック180により音声を右イヤホン32、左イヤホン34から出力させる処理である。
図6の例で、呼出画像ID「1」の画像を表示した場合の復元条件は、後述する眼瞼運動検出部156が検出する眼瞼運動であり、具体的には、所定時間内にまばたきを3回検出することである。この呼出画像には報知条件として、所定時間内にまばたきを2回検出することが設定される。
また、復元するトリガーの種類を眼球運動に設定することもできる。図6の例では、具体的な復元条件として図3(B)に示した輻輳角PAの大きさが設定され、輻輳角PAが10度以下であることを制御部150が検出した場合に復元条件が成立する。また、輻輳角PAが15度以下であることを制御部150が検出した場合に報知条件が成立する。
輻輳角PAが小さいほど使用者の注視方向が遠いといえる。従って、呼出画像の表示中に使用者の輻輳角PAが小さくなることは、使用者の注視点が、呼出画像から、呼出画像の背景として視認される外景に移動したことを示す。従って、HMD100は、輻輳角PAが設定された角度以下となった場合に呼出画像の表示を終了し、表示を復元する。
輻輳角PAが小さいほど使用者の注視方向が遠いといえる。従って、呼出画像の表示中に使用者の輻輳角PAが小さくなることは、使用者の注視点が、呼出画像から、呼出画像の背景として視認される外景に移動したことを示す。従って、HMD100は、輻輳角PAが設定された角度以下となった場合に呼出画像の表示を終了し、表示を復元する。
また、復元するトリガーの種類を使用者の身体の動きである体動に設定することもできる。図6の例では、具体的な復元条件として、予め設定されたパターン(A)の体動が設定される。制御部150が検出する使用者の身体の動きについては後述する。
また、復元するトリガーの種類を、呼び出し動作に従って画像を表示してからの経過時間とすることもできる。図6の例では、呼出画像ID「4」の画像を表示した場合、表示開始から10秒が経過すると復元条件が成立するよう設定されている。また、画像の表示開始から7秒が経過すると報知条件が成立するよう設定されている。
制御部150は、オペレーティングシステム(OS)143、画像処理部145、表示制御部147、撮像制御部149、眼球運動検出部152、眼球運動判定部154、眼瞼運動検出部156、身体動作検出部158、及び、検出制御部160の機能を有する。
オペレーティングシステム143の機能は、記憶部122が記憶する制御プログラムの機能であり、その他の制御部150の各部は、オペレーティングシステム143上で実行されるアプリケーションプログラムの機能である。
オペレーティングシステム143の機能は、記憶部122が記憶する制御プログラムの機能であり、その他の制御部150の各部は、オペレーティングシステム143上で実行されるアプリケーションプログラムの機能である。
画像処理部145は、画像表示部20により表示する画像または映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
表示制御部147(制御部)は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。
また、表示制御部147は、眼球運動検出部152の検出結果、眼球運動判定部154の判定結果、及び、身体動作検出部158の検出結果に基づいて、画像表示部20に表示する画像等の表示態様を変化させる。
撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部122に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は撮像画像データをカメラ61から取得して、記憶部122に一時的に記憶する。
眼球運動検出部152(検出部)は、撮像制御部149の制御に従って内側カメラ68が撮像する撮像画像データを解析して、使用者の右眼RE及び左眼LEの運動を検出する。眼球運動検出部152は、右眼RE及び左眼LEのそれぞれ、或いは、いずれか一方について、動き方向、及び、動き量を求める。
眼球運動判定部154(判定部)は、眼球運動検出部152が検出した右眼RE及び左眼LEの眼球運動について、予め設定された動きに該当するか否かを判定する。また、予め設定された動きが複数ある場合、眼球運動判定部154は、眼球運動検出部152が検出した眼球運動に対応する動きを判定する。例えば、眼球運動判定部154は、眼球運動検出部152が判定した眼球運動が、図7(B)〜(E)のいずれかの動きに該当するか否かを判定する。
図7は、制御部150が内側カメラ68の撮像画像に基づき検出する使用者の眼球運動の例を示す模式図である。図7(A)〜(E)は使用者の右眼RE及び左眼LEを正面から見た状態を示す。
図7(A)には使用者が正面を注視する状態を示す。図7(B)は、使用者が視線を上に向けた状態を示し、右眼RE及び左眼LEが上を向いている。図7(C)は使用者が視線を下に向けた状態を示し、右眼RE及び左眼LEが下を向いている。図7(D)は使用者が視線を左に向けた状態を示し、右眼RE及び左眼LEが左を向いている。図7(E)は使用者が視線を右に向けた状態を示し、右眼RE及び左眼LEが右を向いている。
眼球運動検出部152は、内側カメラ68の撮像画像から右眼RE及び左眼LEの瞳を検出できる。具体的には、眼球の瞳に反射する反射光、強膜と虹彩あるいは瞳孔の境界等を検出する。これにより、眼球運動検出部152は、制御部150は右眼REと左眼LEのそれぞれについて、眼球の動きを検出し、視線方向を検出できる。そして、眼球運動判定部154は、眼球運動検出部152の検出結果に基づき、眼球の動きを判定し、使用者が意図的に視線を上下左右に向ける操作の有無を判定できる。
眼球運動判定部154は、眼球運動検出部152が検出する眼球運動について、生理的な視線の揺らぎ、眼振、固視微動等による影響を除く処理を行って、使用者が意図して行う眼球運動を抽出してもよい。例えば、人間の生理的な眼球運動の一種として、サッケードが知られている。サッケード眼球運動は、人間が興味の対象に視線を向けて、興味の対象の像を視力の高い中心窩で捉える役割を果たす。また、他の生理的な眼球運動として、前庭性眼球運動が知られる。前庭性眼球運動は、頭部が動いた時に網膜上で像がぶれるのを防ぐ役割を果たすと考えられている。また、興味の対象を注視して、対象に眼の焦点が合っている状態において、固視微動と呼ばれる小さな視線の揺らぎが生じることが知られている。これらの眼球運動の影響を除くための演算処理も知られている。例えば、眼球運動判定部154は、使用者の視線(視点)の移動について、変化量に閾値を設け、定常状態から次の定常状態に移動するまでの時間を抽出し、この変化量が一定値以下の時間域を視点移動域と定義する手法を用いることができる。
眼瞼運動検出部156(操作検出部)は、撮像制御部149の制御に従って内側カメラ68が撮像する撮像画像データを解析して、使用者の右眼REの眼瞼及び左眼LEの眼瞼の状態、及び/または眼瞼の運動を検出する。例えば、眼瞼運動検出部156は、右眼REと左眼LEのいずれか一方、或いはそれぞれについて、眼瞼が閉じているか、開いているかを検出できる。また、この検出結果を時間の経過とともに比較することで、右眼REと左眼LEのいずれか一方、或いはそれぞれについて、眼瞼を閉じる動き及び眼瞼を開く動きを検出できる。
なお、眼球運動検出部152は、内側カメラ68の撮像画像データに基づき眼球運動を検出する構成に限定されない。例えば、HMD100が、内側カメラ68だけでなく、瞳孔を撮像する瞳孔撮像カメラと眼瞼動作検出用のカメラとを用いてもよく、カメラの数は任意である。これらのカメラは画像表示部20の内側に、内側カメラ68と同様に設けてもよいし、その他の構成であってもよい。この場合、眼球運動検出部152は、複数のカメラの撮像画像データに基づいて眼球運動を検出してもよい。
身体動作検出部158は、画像表示部20を装着する使用者の身体の動きを検出する。
図8は、HMD100が検出する体動の例を示す模式図である。図8(A)、(B)では使用者の身体HUを模式的に示す。図8(A)、(B)では、図示はしないが、使用者が画像表示部20を頭部に装着した状態を示す。
図8は、HMD100が検出する体動の例を示す模式図である。図8(A)、(B)では使用者の身体HUを模式的に示す。図8(A)、(B)では、図示はしないが、使用者が画像表示部20を頭部に装着した状態を示す。
図8(A)は使用者が、首を中心として頭を前方に傾ける動作を示す。図8(A)は身体HUを右側から見た図であり、使用者の頭部が身体HUに対しまっすぐな位置(0°)にある状態を破線で示し、頭部を45°傾けた状態を実線で示す。図中に鉛直方向を符号PLで示す。
図8(B)は使用者が首を中心として頭を水平方向に回動させる動作を示す。図8(B)は身体HUを正面から見た図であり、使用者の頭部が正面を向いた位置を0°とした場合に、使用者が頭部を右に70°回動させた状態を示す。図中に水平方向を符号HLで示す。
図8(B)は使用者が首を中心として頭を水平方向に回動させる動作を示す。図8(B)は身体HUを正面から見た図であり、使用者の頭部が正面を向いた位置を0°とした場合に、使用者が頭部を右に70°回動させた状態を示す。図中に水平方向を符号HLで示す。
画像表示部20は6軸センサー235を備える。6軸センサー235が有する3軸加速度センサー、及び、3軸ジャイロセンサーにより、身体動作検出部158は、使用者が装着する画像表示部20の動きを検出できる。また、身体動作検出部158は、6軸センサー235の検出値を積分することにより、画像表示部20の移動量及び移動方向を求めることができる。これにより、身体動作検出部158は、使用者の体動を検出できる。
従って、使用者が図8(A)の動作を行った場合、及び、図8(B)の動作を行った場合のいずれも、身体動作検出部158は、使用者の頭部の動きの方向、及び、動き量を求めることができる。また、複数の方向への動作が複合して行われた場合、例えば、図8(A)、(B)に示す動作が複合して行われた場合に、身体動作検出部158は、これらの複合した動きを総合して、動き方向と動き量とを求めてもよい。また、身体動作検出部158は動き方向ごとに、動き成分を抽出し分離して、動き量を算出してもよい。
身体動作検出部158は、6軸センサー235の検出値のほか、カメラ61の撮像画像を利用して画像表示部20の動きを検出してもよい。例えば、身体動作検出部158は、カメラ61が所定時間毎に撮像する撮像画像の変化に基づき、カメラ61の画角の変化の方向、変化量あるいは変化速度を求めることができる。これにより、身体動作検出部158は、画像表示部20を装着した使用者の顔(頭部)の動きを検出できる。また、身体動作検出部158は、6軸センサー235の検出値と、カメラ61の撮像画像に基づき検出結果とを総合して、使用者の身体の動きを検出してもよい。
検出制御部160は、HMD100が備える各種センサーを制御する。検出制御部160は、各センサーの初期化を実行し、各センサーにより検出を実行させ、検出値あるいは検出結果を取得する。例えば、検出制御部160は、6軸センサー111、磁気センサー113、GPS115、及び操作部110における検出を制御する。また、検出制御部160は、画像表示部20が備える温度センサー217、6軸センサー235、磁気センサー237、温度センサー239を制御して検出結果を取得する。また、検出制御部160は、距離センサー64及び照度センサー65を制御して、検出結果を取得する。
また、検出制御部160は、マイク63により音声を検出してもよく、マイク63が検出する音声を解析して、音声コマンドの入力を検出してもよい。ここで、HMD100は、マイク63に加えて、或いはマイク63の代わりに、使用者の音声を検出する骨伝導マイク、内耳マイク等を備えてもよい。この場合、極めて小さい声による音声コマンドの入力が可能となり、また、無声音、舌打ち音、歯ぎしり音を音声入力または音声コマンドの入力として検出してもよい。
また、HMD100は、使用者の身体に装着される筋電位センサーを備え、筋電位饒辺かを検出することにより、使用者の筋肉の動きを検出する構成であってもよい。この場合、検出制御部160は、筋電位センサーの検出値を取得して、使用者の筋肉の動きを検出する。例えば、検出制御部160は、使用者の眼筋の動きを検出し、検出結果を眼球運動検出部152により解析させて、眼球運動を検出してもよい。また、検出制御部160は、顎の筋肉の動きを検出し、検出結果を身体動作検出部158により解析させて、使用者が口を開閉する動きを身体の動きとして検出してもよい。
図9はHMD100の動作を示すフローチャートである。図10〜図14は、画像表示部20が表示する表示例を示す。これらの図を参照してHMD100の動作を説明する。
図10は、図9の動作を開始する時点における画像表示部20の表示例を示す。図中、符号VRは、画像表示部20を装着する使用者の視野を示す。符号Vはハーフミラー261、281により画像を使用者に視認させることが可能な領域であり、言い換えれば画像表示部20が画像を表示できる表示可能領域である。
図10の表示例は、HMD100の初期状態あるいは通常状態の表示を示し、使用者の視線運動を含む動きによって操作可能な、操作対象のオブジェクトが配置される。操作対象のオブジェクトとしては、表示可能領域Vの右端に配置されるタブTR1、TR2、TR3と、表示可能領域Vの上端に配置されるタブTUと、表示可能領域Vの下端に配置されるタブTBとが挙げられる。また、表示可能領域Vの左端に配置されるメニュータブTM、及び、表示可能領域Vの右下隅に配置される仮想ボタンVBも操作対象のオブジェクトに含まれる。
制御部150は、内側カメラ68を制御して撮像を実行させ、撮像画像データを取得する(図9のステップS11)。制御部150は、ステップS11で取得した撮像画像データを解析することにより、使用者の眼球運動を検出し、眼球運動の方向、種類等を判定する(ステップS12)。
制御部150は、ステップS12で判定した眼球運動が呼び出し動作に該当するか否かを判定する(ステップS13)。呼び出し動作に該当しない場合(ステップS13;No)、制御部150はステップS11に戻る。また、呼び出し動作に該当する場合(ステップS13;Yes)、制御部150は、使用者の身体の動きを検出する(ステップS14)。ここで、制御部150は、ステップS14で検出した身体の動きが、ステップS13の呼び出し動作と組合せ可能な動きであり、画像を選択する操作に該当するか否かを判定する(ステップS15)。
画像を選択する操作に該当する体動でない場合(ステップS15;No)、制御部150は、ステップS13で判定した呼び出し動作に対応する画像の画像データを、呼出表示データ125から取得する(ステップS16)。制御部150は、ステップS16で取得した画像データに基づき、画像表示部20により表示する画像を生成する(ステップS17)。
また、体動により画像を選択する操作が必要ない場合、制御部150は、ステップS14及びステップS15をスキップしてステップS16に移行する。
また、体動により画像を選択する操作が必要ない場合、制御部150は、ステップS14及びステップS15をスキップしてステップS16に移行する。
図10の表示例において、使用者が視線を上に向ける眼球運動(例えば図7(B))を検出した場合、制御部150は、タブTUを指定する呼び出し動作を検出する。この場合、制御部150は、タブTUに対応する画像を呼出表示データ125から取得して、表示可能領域Vの中央に表示させる。また、使用者が視線を下に向ける眼球運動(例えば図7(C))を検出した場合、制御部150は、タブTBを指定する呼び出し動作を検出する。この場合、制御部150は、タブTBに対応する画像を呼出表示データ125から取得して、表示可能領域Vの中央に表示させる。これらタブTB、TUを選択する場合、制御部150は、ステップS14、S15で体動を検出することなく、画像を表示すればよい。
一方、画像を選択する操作に該当する体動である場合(ステップS15;Yes)、制御部150は、体動に基づく選択内容を確定する(ステップS18)。
ステップS14で、制御部150が検出する体動は、身体動作検出部158が検出する身体の動作であってもよいし、眼瞼運動検出部156が検出する眼瞼の動作であってもよい。
ステップS14で、制御部150が検出する体動は、身体動作検出部158が検出する身体の動作であってもよいし、眼瞼運動検出部156が検出する眼瞼の動作であってもよい。
図10の例において、使用者が視線を右に向ける眼球運動(例えば図7(E))を検出した場合、制御部150は、タブTR1〜TR3のいずれかを選択可能な状態に移行する。ここで、使用者は、頭部を動かす操作を行うことにより、タブTR1〜TR3のいずれか1つを選択し、指定できる。例えば、使用者が頭を傾ける動き(うなずく動作)を1回行う毎に、タブTR1、タブTR2、タブTR3が順に選択される。また、例えば、使用者が瞼を開閉する動き(瞬きに類似する動き)を1回行う毎に、タブTR1、タブTR2、タブTR3が順に選択されるようにしてもよい。
その後、制御部150は、ステップS18で確定した選択内容に従って、呼び出し動作に対応する画像の画像データを、呼出表示データ125から取得する(ステップS19)。制御部150は、ステップS18で取得した画像データに基づき、画像表示部20により表示する画像を生成する(ステップS20)。
例えば、進退の動作によりタブTR1が選択された場合、制御部150はタブTR1に対応する画像を呼出表示データ125から取得して、表示可能領域Vの中央に表示させる。
例えば、進退の動作によりタブTR1が選択された場合、制御部150はタブTR1に対応する画像を呼出表示データ125から取得して、表示可能領域Vの中央に表示させる。
ステップS17、及び、ステップS20の後、制御部150は、表示復元設定データ126を参照し、表示する画像に対応する復元条件及び報知条件を取得する(ステップS21)。制御部150は、ステップS17またはステップS20で生成した表示画像を、表示可能領域Vにアニメーション表示させる(ステップS22)。
アニメーション表示は、表示可能領域Vに新たな画像を表示する際に、表示可能領域Vの端から少しずつ画像が表示され、表示画像の大きさが経時的に増大して、設定された時間が経過した後に画像全体を表示する表示方法である。この設定された時間において、画像の表示の拡大は、スムーズに拡大して見えるように変化する。
図11は、眼球運動に応じてメニュー画像を表示した表示例を示す。
図10のメニュータブTMが眼球運動により選択された場合に、制御部150は、表示可能領域Vにメニュー画像G1を表示させる。メニュー画像G1は、表示可能領域Vの左端から徐々に表示可能領域Vの中央に進出するようにアニメーション表示され、最終的に図11に示す表示状態となる。メニュー画像G1は、処理の実行を指示する操作用の画像を含む。具体的には、ブラウザーの起動を指示するボタンの画像、カメラの起動を指示するボタンの画像、設定開始を指示するボタンの画像を含む。これらのいずれかのボタンを選択する操作を検出すると、制御部150は、選択されたボタンに対応する処理を実行する。
図10のメニュータブTMが眼球運動により選択された場合に、制御部150は、表示可能領域Vにメニュー画像G1を表示させる。メニュー画像G1は、表示可能領域Vの左端から徐々に表示可能領域Vの中央に進出するようにアニメーション表示され、最終的に図11に示す表示状態となる。メニュー画像G1は、処理の実行を指示する操作用の画像を含む。具体的には、ブラウザーの起動を指示するボタンの画像、カメラの起動を指示するボタンの画像、設定開始を指示するボタンの画像を含む。これらのいずれかのボタンを選択する操作を検出すると、制御部150は、選択されたボタンに対応する処理を実行する。
すなわち、制御部150は、アニメーション表示が完了した後、操作を検出する(ステップS23)。ステップS23で制御部150が検出する操作は、操作部110における操作であってもよい。また、6軸センサー235や6軸センサー111が検出する動きによる操作や、カメラ61の撮像画像で検出可能なジェスチャーによる操作を含んでもよい。また、マイク63或いは上述した内耳マイクや骨伝導マイクによる音声入力を検出してもよい。これらの操作を、例えば、図11に例示したメニュー画像G1のボタンを選択する操作として受け付ける。制御部150は、ステップS23で検出した操作に対応する処理を実行する(ステップS24)。ステップS23において特に操作を検出しない場合、制御部150は、処理を実行せずステップS25に移行してもよい。
図12は、眼球運動に応じて仮想キーボードVKBを表示した例を示す。
例えば図10で眼球運動によりタブTBが選択された場合、制御部150は、仮想キーボードVKBの画像を呼び出し表示する。仮想キーボードVKBは、複数の入力キーを含むキーボード形状の画像であり、画像表示部20が表示可能領域Vに表示する。使用者が、仮想キーボードVKBを視認可能な状態で、表示可能領域Vにおける位置入力操作を行うと、入力された位置にポインターVPが表示される。ここで、使用者により確定操作が行われると、ポインターVPに重なる位置のキーが選択され、文字が入力される。ポインターVPの位置を指定する操作は、ステップS23で検出される操作である。
例えば図10で眼球運動によりタブTBが選択された場合、制御部150は、仮想キーボードVKBの画像を呼び出し表示する。仮想キーボードVKBは、複数の入力キーを含むキーボード形状の画像であり、画像表示部20が表示可能領域Vに表示する。使用者が、仮想キーボードVKBを視認可能な状態で、表示可能領域Vにおける位置入力操作を行うと、入力された位置にポインターVPが表示される。ここで、使用者により確定操作が行われると、ポインターVPに重なる位置のキーが選択され、文字が入力される。ポインターVPの位置を指定する操作は、ステップS23で検出される操作である。
図13は、仮想キーボードVKBとともにアプリケーション画面VAPを表示した例を示す。アプリケーション画面VAPは、制御部150が実行するアプリケーションプログラムにより、例えば文書編集を行う画面である。アプリケーション画面VAPはアプリケーションプログラムで使用者が実行する処理に対応する画面である。アプリケーションプログラムがGUIによる操作を可能とする場合、例えば、アイコン配置部IAに配置されたアイコンを選択する操作が行われる。
図13の例では、仮想キーボードVKBのキーを選択する操作、及び、アプリケーション画面VAPのアイコン配置部IAに配置されたアイコンを選択する操作が行われる。これらはいずれも位置入力操作を利用できる。また、仮想キーボードVKBを操作する第1状態と、アプリケーション画面VAPを操作する第2状態とを、ステップS23で検出される操作により切り替えさせることができる。
制御部150は、表示可能領域Vに画像を呼び出し表示してから、使用者の眼球運動、眼瞼運動、及び、体動の検出を実行する(ステップS25)。制御部150は、ステップS25で検出した使用者の眼球運動、眼瞼運動、及び、体動が、ステップS21で取得した復元条件に該当するか否かを判定する(ステップS26)。
ステップS25で検出した使用者の眼球運動、眼瞼運動、及び、体動が、復元条件に該当しない場合(ステップS26;No)、制御部150は、報知条件に該当するか否かを判定する(ステップS27)。報知条件に該当しない場合は(ステップS27;No)、制御部150はステップS23に戻る。また、報知条件に該当する場合(ステップS27;Yes)、制御部150は、報知用の画像を表示可能領域Vに表示させる等、報知を実行して(ステップS28)、ステップS23に戻る。
ステップS25で検出した使用者の眼球運動、眼瞼運動、及び、体動が、復元条件に該当する場合(ステップS26;Yes)、制御部150は、表示可能領域Vに呼び出し表示した画像について、表示を終了するアニメーション表示を行う(ステップS29)。ステップS29のアニメーション表示は、例えば、ステップS22のアニメーション表示の逆の表示動作とし、アニメーションの変化速度も対応させるとよい。
アニメーションの変化速度は、アニメーションの変化の最中において一定であってもよいし、アニメーション表示の間に速度を変化させてもよい。変化速度を決定するパラメーターとして、例えば、慣性力、時定数等を用いてもよい。慣性力はアニメーションの変化中にアニメーションの変化速度を変更するパラメーターであり、制御部150が検出する使用者の視線方向の変化速度(眼球運動の速度)に対応して決定すればよい。また、時定数はアニメーションの変化速度を決定するパラメーターであり、制御部150が検出する使用者の視線方向の変化速度(眼球運動の速度)に対応して決定すればよい。
例えば、使用者の視線方向の変化速度を制御部150が検出して時定数を決定し、この時定数に応じた速度でアニメーションを変化させる。そして、アニメーションの変化の間に、使用者の視線方向の変化速度を制御部150が検出して、慣性力を決定する。制御部150は、決定した慣性力に基づき、アニメーションの変化速度を変更する。時定数、及び、慣性力は、アニメーションの変化を開始する前に、予め設定されてもよい。また、アニメーションを変化させるときとは異なるタイミングで使用者の視線方向の変化速度を制御部150が検出して、時定数及び/又は慣性力を決定してもよい。
例えば、使用者の視線方向の変化速度を制御部150が検出して時定数を決定し、この時定数に応じた速度でアニメーションを変化させる。そして、アニメーションの変化の間に、使用者の視線方向の変化速度を制御部150が検出して、慣性力を決定する。制御部150は、決定した慣性力に基づき、アニメーションの変化速度を変更する。時定数、及び、慣性力は、アニメーションの変化を開始する前に、予め設定されてもよい。また、アニメーションを変化させるときとは異なるタイミングで使用者の視線方向の変化速度を制御部150が検出して、時定数及び/又は慣性力を決定してもよい。
その後、制御部150は、HMD100の動作停止が指示されたか否かを判定し(ステップS30)、動作停止が指示された場合は(ステップS30;Yes)、本処理を終了する。また、動作停止が指示されていない場合(ステップS30;No)、ステップS11に戻る。
図9の動作において、制御部150は、右表示ユニット22と左表示ユニット24の両方に画像を表示してもよいが、いずれか一方にのみ画像を表示してもよい。
また、右表示ユニット22及び左表示ユニット24に画像を表示する場合に、右表示ユニット22が表示する画像と左表示ユニット24が表示する画像とに視差を持たせて、3D(立体)表示用の画像を表示してもよい。
また、右表示ユニット22及び左表示ユニット24に画像を表示する場合に、右表示ユニット22が表示する画像と左表示ユニット24が表示する画像とに視差を持たせて、3D(立体)表示用の画像を表示してもよい。
図14は、呼び出し動作により表示する画像を3D画像とする処理を示すフローチャートである。図14の動作は、例えば、ステップS17、S20(図9)で表示画像を生成する処理と組み合わせて実行できる。
制御部150は、3D表示のための初期化を実行する(ステップS41)。この初期化の処理では、使用者の右眼RE及び左眼LEの視点と画像との3次元的な位置を求めるための3Dモデル空間を設定する。
制御部150は、使用者と画像表示部20の表示可能領域Vとの相対位置を補正する視野移動情報の有無を判定する(ステップS43)。使用者の瞳孔間距離や画像表示部20の装着位置に対応して、使用者の右眼RE及び左眼LEと表示可能領域Vとの相対位置を、標準的な相対位置から補正する必要がある場合、設定データ123に視野移動情報が含まれる。
制御部150は、使用者と画像表示部20の表示可能領域Vとの相対位置を補正する視野移動情報の有無を判定する(ステップS43)。使用者の瞳孔間距離や画像表示部20の装着位置に対応して、使用者の右眼RE及び左眼LEと表示可能領域Vとの相対位置を、標準的な相対位置から補正する必要がある場合、設定データ123に視野移動情報が含まれる。
視野移動情報がある場合(ステップS43;Yes)、制御部150は、視野移動情報を取得して、取得した情報に基づき、3Dモデル空間における右眼RE及び左眼LEの仮想視点の位置を調整する(ステップS44)。
視野移動情報がない場合(ステップS43;No)、及び、仮想視点の位置の調整が済んだ場合(ステップS44)、制御部150は、3Dモデル空間における仮想視点に他覆うする仮想カメラL及び仮想カメラRを設定する(ステップS45)。仮想カメラL、Rは、3Dモデル空間において左眼LEと右眼REが視認する範囲を仮想的に撮像するカメラである。すなわち、仮想カメラLは左眼LEの視野に相当する撮像範囲(画角)を有し、仮想カメラRは右眼REの視野に相当する撮像範囲(画角)を有する。
制御部150は、使用者に対応付けて設定された使用者設定情報の有無を判定する(ステップS46)。使用者の好み等により、視野の大きさ等を標準的な設定値から補正する必要がある場合、設定データ123に使用者設定情報が含まれる。使用者設定情報がある場合(ステップS46;Yes)、制御部150は、使用者設定情報を取得して、取得した情報に基づき、仮想カメラL、Rの位置を調整する(ステップS47)。
使用者設定情報がない場合(ステップS46;No)、及び、仮想カメラL、Rの位置の調整が済んだ場合(ステップS47)、制御部150は、左表示ユニット24及び右表示ユニット22のそれぞれに対応する処理を実行する。
すなわち、制御部150は、仮想カメラLの設定情報をもとに表示対象の2D画像を射影変換して、3D表示を行うための左眼用の画像を生成する(ステップS48)。制御部150は、左表示ユニット24の表示解像度に合わせてスケーリングを行い(ステップS49)、スケーリングした画像を左表示ユニット24により表示する(ステップS50)。また、ステップS48〜S50の処理と並行して、制御部150は、右眼用の処理を行う。すなわち、制御部150は、仮想カメラRの設定情報をもとに表示対象の2D画像を射影変換して、3D表示を行うための右眼用の画像を生成する(ステップS51)。制御部150は、右表示ユニット22の表示解像度に合わせてスケーリングを行い(ステップS52)、スケーリングした画像を右表示ユニット22により表示する(ステップS53)。
すなわち、制御部150は、仮想カメラLの設定情報をもとに表示対象の2D画像を射影変換して、3D表示を行うための左眼用の画像を生成する(ステップS48)。制御部150は、左表示ユニット24の表示解像度に合わせてスケーリングを行い(ステップS49)、スケーリングした画像を左表示ユニット24により表示する(ステップS50)。また、ステップS48〜S50の処理と並行して、制御部150は、右眼用の処理を行う。すなわち、制御部150は、仮想カメラRの設定情報をもとに表示対象の2D画像を射影変換して、3D表示を行うための右眼用の画像を生成する(ステップS51)。制御部150は、右表示ユニット22の表示解像度に合わせてスケーリングを行い(ステップS52)、スケーリングした画像を右表示ユニット22により表示する(ステップS53)。
このように3D表示を行う場合、右表示ユニット22が表示する画像と左表示ユニット24が表示する画像との視差は一定でなくてもよい。例えば、表示可能領域Vの左端から画像をアニメーション表示により出現させる場合、この画像を見る使用者の視線方向は、左から正面に移動する。この場合、3Dモデル空間における画像(3Dオブジェクト)と右眼RE及び左眼LEの相対位置が、アニメーション表示中に変化する。制御部150は、アニメーション表示中に、使用者の視線の変化に対応して、3D表示する画像の視差を変化させてもよい。具体的には、視差が異なる画像を順次生成して表示すればよい。
図15は、HMD100の動作を示す説明図である。図15には、使用者の右眼RE及び左眼LEの方向と、使用者が視認する視野VRにおける表示状態とを模式的に示す。図15は使用者の右眼RE及び左眼LEを正面から見た状態を示している。この例では、仮想線で示す視野VRに画像表示部20の表示領域(図示略)がある。
図15(A)はアニメーション表示の前の状態を示し、図15(B)は使用者の眼球運動の例を示し、図15(C)は使用者の眼球運動に応じてCGが表示された状態を示す。
図15(A)はアニメーション表示の前の状態を示し、図15(B)は使用者の眼球運動の例を示し、図15(C)は使用者の眼球運動に応じてCGが表示された状態を示す。
図15(A)の例では、図10と同様に図9の動作を開始する時点において、視野VRの左端、右端、下端、上端のそれぞれに、タブT11、T21、T31、T41が表示される。タブT11、T21、T31、T41は、それぞれ、視線を左、右、下、上の各方向に向けた場合に引き出して表示される内容を示す文字や画像を含んでもよい。タブT11、T21、T31、T41は、使用者の視線運動を含む動きによって操作可能な、操作対象のオブジェクトに相当する。
使用者が視線を左に向ける眼球運動を制御部150が検出した場合、制御部150は、タブT11に対応する第1段オブジェクトT12を視野VRに引き出すように表示する。詳細には、使用者の視線が左を向く状態が設定された時間(例えば、時間L1)以上継続すると、制御部150は操作として検出し、画像表示部20により第1段オブジェクトT12を表示させる。第1段オブジェクトT12は、CGの表示の指示であることを示す文字や画像を含む。第1段オブジェクトT12はCGの表示を指示できる。第1段オブジェクトT12が表示された状態で、図15(B)のように視線が正面を向くと、CGの表示が指示され、この指示に従って、図15(C)に示すようにCGが表示される。
第1段オブジェクトT12が画像表示部20により表示された状態で、使用者の視線がさらに左を向くと、第2段オブジェクトT13、T14のいずれかが表示される。第2段オブジェクトT13は視線が左下を向いた場合に表示され、第2段オブジェクトT14は視線が左上を向いた場合に表示される。制御部150は、視線が左下または左上を向く状態が設定された時間(例えば、時間L2)以上継続した場合に、視線による操作を検出し、画像表示部20により第2段オブジェクトT13、T14を表示させる。この場合、タブT11、第1段オブジェクトT12が視野VRに進出するようにアニメーション表示がされ、このアニメーション表示に繋がって、第2段オブジェクトT13またはT14が表示される。第2段オブジェクトT13、T14は、それぞれ、CGを簡易表示するか、細部を高精細に表示するかを指定できる。第2段オブジェクトT13またはT14が表示された状態で、図15(B)のように視線が正面を向くと、CGを簡易表示するか、細部を高精細に表示するかが指定され、指定に従って、図15(C)に示すようにCGが表示される。
第2段オブジェクトT13またはT14が画像表示部20により表示された状態で、使用者の視線がさらに左を向くと、第3段オブジェクトT15、T16、T17、T18のいずれかが表示される。第3段オブジェクトT15は第2段オブジェクトT14の表示中に視線が左上を向いた場合に表示され、第3段オブジェクトT16は第2段オブジェクトT14の表示中に視線が左下を向いた場合に表示される。第3段オブジェクトT17は第2段オブジェクトT13の表示中に視線が左上を向いた場合に表示され、第3段オブジェクトT18は第2段オブジェクトT13の表示中に視線が左上を向いた場合に表示される。
制御部150は、第2段オブジェクトT13またはT14が画像表示部20により表示された状態で、視線が左下または左上を向く状態が設定された時間(例えば、時間L3)以上継続した場合に、視線による操作を検出する。制御部150は、画像表示部20により第3段オブジェクトT15、T16、T17、T18のいずれかを表示させる。この場合、タブT11、第1段オブジェクトT12、第2段オブジェクトT13またはT14が視野VRに進出するようにアニメーション表示がされ、このアニメーション表示に繋がって、第3段オブジェクトT15、T16、T17、T18のいずれかが表示される。
使用者は、第3段オブジェクトT15、T16、T17、T18により、CGの表示属性や表示態様として、白黒表示、外形(輪郭)表示、拡大表示等を指定できる。
使用者は、第3段オブジェクトT15、T16、T17、T18により、CGの表示属性や表示態様として、白黒表示、外形(輪郭)表示、拡大表示等を指定できる。
また、視線が下方を向いたことを制御部150が検出した場合、タブT31が選択され、さらに視線による操作が検出されると、第1段オブジェクトT32が表示される。さらなる視線による操作が検出されると、第2段オブジェクトT33またはT34が表示される。第1段オブジェクトT32によれば、使用者はユーザーインターフェース(UI)の表示を指示することができ、第2段オブジェクトT33、T34により、ホーム画面用のUIと専用アプリ用のUIとを選択し、指定できる。
視線が上方を向いたことを制御部150が検出した場合、タブT41が選択され、さらに視線による操作が検出されると、第1段オブジェクトT42が表示される。さらなる視線による操作が検出されると、第2段オブジェクトT43またはT44が表示される。第1段オブジェクトT42によれば、使用者は説明書の表示を指示することができ、第2段オブジェクトT43、T44により、ビギナー用の説明書とプロ用の説明書とを選択し、指定できる。
視線が右方を向いたことを制御部150が検出した場合、タブT21が選択され、さらに視線による操作が検出されると、第1段オブジェクトT22が表示される。さらなる視線による操作が検出されると、第2段オブジェクトT23またはT24が表示される。そして、さらなる視線による操作が検出されると、制御部150は、画像表示部20により第3段オブジェクトT25、T26、T27、T28のいずれかを表示させる。使用者は、第1段オブジェクトT22により図面の表示を指示できる。また、第2段オブジェクトT23、T24により、図面を3D(3次元)表示するか、2D(2次元)表示するかを指定できる。また、使用者は、第3段オブジェクトT25、T26、T27、T28により、図面の表示属性や表示態様として、白黒表示、カラー表示を指定できる。
第1段オブジェクトを表示させる場合に、視線による操作を検出する閾値である時間L1と、第2段オブジェクトを表示させる場合の閾値である時間L2と、第3段オブジェクトを表示させる場合の閾値である時間L3とは、異なる時間とすることができる。例えば、時間L1を5秒、時間L2を8秒、時間L3を10秒とし、表示の引き出しの段階に従って閾値の時間が長くなるようにしてもよい。
制御部150は、図15(C)に示す表示を復元する場合、視野VRのCG(符号G1)が視野VRにおいて見えなくなるようにしてもよい。また、CGが視野VRにおいて、使用者が外景を視認する領域(例えば、視野VRの中央を含む、設定された広さの領域)に重ならない位置及びサイズで表示されることを、復元としてもよい。第1段、第2段、第3段オブジェクトを表示した状態から表示を復元する場合も同様である。
また、タブT11、T21、T31、T41或いは第1段、第2段、第3段オブジェクトを選択する場合において、視線すなわち眼球運動に、眼瞼運動や体動を組み合わせて選択してもよい。
また、タブT11、T21、T31、T41或いは第1段、第2段、第3段オブジェクトを選択する場合において、視線すなわち眼球運動に、眼瞼運動や体動を組み合わせて選択してもよい。
以上説明したように、本発明を適用した実施形態のHMD100は、使用者の身体に装着して使用される表示装置であって、画像を表示する画像表示部20を備える。HMD100は、使用者の眼球の動きを検出する眼球運動検出部152と、眼球運動検出部152により検出される使用者の眼球の動きを判定する眼球運動判定部154と、画像表示部20における表示を制御する表示制御部147と、を備える。表示制御部147は、眼球運動判定部154の判定結果に応じて、画像表示部20の表示を変化させ、その後に予め設定された復元条件をトリガーとして画像表示部20の表示を復元させる。このように、本発明の表示装置、及び、表示装置の制御方法を適用したHMD100によれば、使用者の眼球の動きに応じて画像表示部20の表示を変化させることができ、変化させた表示を、復元条件に従って復元させることができる。このため、使用者は、画像表示部20が表示する画像に対して簡単に操作を行うことができる。また、誤操作が検出された場合であっても表示を容易に復元させることができるので、誤操作の検出を防止するための使用者の負荷を軽減できる。この場合、設定された復元条件が成立したことを検出して、この検出をトリガーとしてもよい。
例えば、制御部150は、図11に示すメニュー画像G1や図12に示す仮想キーボードVKBを、表示可能領域Vの中央に表示する。表示可能領域Vを広く使用して画像を表示することで、使用者に視認しやすいように画像を表示できる。また、これらメニュー画像G1や仮想キーボードVKBは、復元条件が成立すると表示が終了するので、使用者が表示可能領域Vを透過して外景を視認することを妨げない。このように、表示トリガーとなる簡単な眼球の動きにより、実視野を視認するときに影響しないように、画像を表示させることができる。
また、HMD100は、眼球運動判定部154の判定結果に対応付けて、画像表示部20に表示する情報を記憶する記憶部122を備える。表示制御部147は、眼球運動判定部154が判定を行った場合に、眼球運動判定部154の判定結果に対応付けて記憶部122に記憶される情報の表示を開始させ、復元条件をトリガーとして情報の表示を終了させる。これにより、使用者の眼球の動きに対応する情報を画像表示部20に情報を表示させることができる。これにより、使用者が望む情報を、簡単な操作によって表示させることができ、より一層の操作性の向上を図ることができる。また、誤操作の検出を防止するための使用者の負荷を軽減できる。
また、表示制御部147は、情報の表示を開始する際、及び、情報の表示を終了させる際に、画像表示部20に情報をアニメーション表示させる。これにより、画像表示部20における表示の急激な変化を緩和し、表示される情報の視認性を高めることができるので、より一層の操作性の向上を図ることができる。
また、表示制御部147は、情報の表示を開始する際のアニメーション表示の変化速度と、情報の表示を終了させる際のアニメーション表示の変化速度とを対応させる。これにより、画像表示部20により情報の表示を開始するときと表示を終了するときの表示の変化の速度を対応させることで、表示される情報の視認性を高めることができ、より一層の操作性の向上を図ることができる。
また、眼球運動判定部154は、眼球運動検出部152が検出する使用者の眼球の動きに基づき、使用者の視線方向を判定し、表示制御部147は、眼球運動判定部154が判定する使用者の視線方向に対応して画像表示部20の表示を変化させる。これにより、使用者が視線の方向を動かすことにより、画像表示部20の表示を変化させることができる。
また、表示制御部147は、眼球運動判定部154が判定する使用者の視線方向に対応する情報を画像表示部20に表示させる。これにより、使用者が視線の方向を動かすことにより、視線の方向に対応する情報を画像表示部20に表示させることができる。このため、表示させる情報を選択する操作と、情報を表示させる操作とを、簡単に行うことができる。
また、使用者による操作を検出する身体動作検出部158を備え、表示制御部147は、眼球運動判定部154が判定する使用者の視線方向に対応する情報を、身体動作検出部158が検出する操作に応じて、画像表示部20に表示させる。これにより、使用者が眼球の動きとその他の操作とを組み合わせて、表示装置を操作することができ、例えば複雑な内容の操作を簡単に行うことができる。これにより、より一層の操作性の向上を図ることができる。
また、表示制御部147は、眼球運動判定部154が判定する使用者の視線方向が予め設定された変化をした場合に、復元条件が成立したと判定して画像表示部20に表示させた情報の表示を終了させる。これにより、使用者が視線方向を変化させることにより、容易に、表示を復元させることができる。
また、使用者の眼瞼の動きを検出する眼瞼運動検出部156を備え、表示制御部147は、眼瞼運動検出部156により、予め設定された態様の使用者の眼瞼の動きが検出された場合に、復元条件が成立したと判定して画像表示部20に表示させた情報の表示を終了させる。これにより、使用者が瞼を動かすことにより、易に、表示を復元させることができる。
また、表示制御部147は、画像表示部20の表示を変化させてから、予め設定された時間が経過したときに復元条件が成立したと判定して画像表示部20に表示させた情報の表示を終了させる。これにより、画像表示部20の表示が変化してから、予め設定された時間が経過したときに表示が復元されるので、表示を復元させる操作が不要である。このため、使用者に要求される操作を、より簡易化できる。
また、眼球運動検出部152は使用者の視線方向を検出し、表示制御部147は、眼球運動検出部152により検出される使用者の視線方向に基づき使用者の視線の輻輳角を判定し、使用者の視線の輻輳角が予め設定された条件に該当する場合に、復元条件が成立したと判定して画像表示部20に表示させた情報の表示を終了させる。これにより、使用者の視線の輻輳角に対応して、画像表示部20の表示を復元させることができる。
また、表示制御部147は、使用者の視線の輻輳角が予め設定された条件に該当する可能性がある場合に、画像表示部20により報知の表示をさせる。これにより、使用者の視線の輻輳角に対応して画像表示部20の表示を復元させる可能性がある場合に、報知を行う。これにより、誤操作を容易に防止でき、表示の変化を事前に報知できるので、より一層の操作性の向上を図ることができる。
また、画像表示部20は、外景を透過し、外景とともに視認できるように画像を表示する透過型の画像表示部20であり、表示制御部147は、眼球運動判定部154の判定結果に応じて、外景と重畳して視認される位置に画像を表示させ、その後に予め設定された復元条件をトリガーとして、外景と重畳して視認される位置から画像を待避させる。
これにより、外景を透過して視認可能に画像を表示する場合に、使用者の眼の動きに基づいて画像を表示させることができる。また、外景と重畳して視認される位置を利用して画像を表示でき、この画像が外景の視認の障害にならないよう待避させることができる。これにより、外景の視認性を損なうことなく、簡単な操作によって、画像表示部20が画像を表示可能な領域を効率よく利用して、表示を行うことができる。
これにより、外景を透過して視認可能に画像を表示する場合に、使用者の眼の動きに基づいて画像を表示させることができる。また、外景と重畳して視認される位置を利用して画像を表示でき、この画像が外景の視認の障害にならないよう待避させることができる。これにより、外景の視認性を損なうことなく、簡単な操作によって、画像表示部20が画像を表示可能な領域を効率よく利用して、表示を行うことができる。
なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態において。制御部150は、内側カメラ68の撮像画像データから検出する眼球運動が、呼び出し動作に該当する場合に、画像を呼び出して表示する構成として説明した。本発明はこれに限定されず、例えば、操作部110の操作、カメラ61の撮像画像データから検出されるジェスチャー操作、画像表示部20の動きによる操作などと、眼球運動との組合せを、呼び出し動作として検出してもよい。
例えば、上記実施形態において。制御部150は、内側カメラ68の撮像画像データから検出する眼球運動が、呼び出し動作に該当する場合に、画像を呼び出して表示する構成として説明した。本発明はこれに限定されず、例えば、操作部110の操作、カメラ61の撮像画像データから検出されるジェスチャー操作、画像表示部20の動きによる操作などと、眼球運動との組合せを、呼び出し動作として検出してもよい。
例えば、上記実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。例えば、制御装置10に代えて、使用者の身体、着衣、或いは、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。例えば、カメラ61により撮像する外景の画像と、表示画像とを合成した合成画像を画像表示部20により表示する構成とすれば、画像表示部20が外光を透過しなくても、使用者に外景と画像とを視認可能に表示できる。このような、いわゆるビデオシースルー型の表示装置に本発明を適用することも勿論可能である。
また、上記実施形態で説明したように実空間に重ねて画像を表示するAR表示や、撮像した実空間の画像と仮想画像とを組み合わせるMR(Mixed Reality)表示、或いは仮想画像を表示するVR(Virtual Reality)表示といった処理を行わない表示装置にも適用できる。例えば、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図4、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121または制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110が使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー140と同様のプロセッサーが画像表示部20に配置されてもよいし、制御装置10が備えるメインプロセッサー140と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
10…制御装置、20…画像表示部(表示部)、22…右表示ユニット、24…左表示ユニット、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、61…カメラ、63…マイク、64…距離センサー、64A…検出方向、65…照度センサー、68…内側カメラ、100…HMD(表示装置、頭部装着型表示装置)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPS、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶部、123…設定データ、124…コンテンツデータ、125…呼出表示データ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、143…オペレーティングシステム、145…画像処理部、147…表示制御部(制御部)、149…撮像制御部、150…制御部、152…眼球運動検出部(検出部)、154…眼球運動判定部(判定部)、156…眼瞼運動検出部、158…身体動作検出部(操作判定部)、160…検出制御部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196…インターフェイス、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット。
Claims (15)
- 使用者の身体に装着して使用される表示装置であって、
画像を表示する表示部と、
前記使用者の眼球の動きを検出する検出部と、
前記検出部により検出される前記使用者の眼球の動きを判定する判定部と、
前記表示部における表示を制御する制御部と、を備え、
前記制御部は、前記判定部の判定結果に応じて、前記表示部の表示を変化させ、その後に予め設定された復元条件をトリガーとして前記表示部の表示を復元させる表示装置。 - 前記判定部の判定結果に対応付けて、前記表示部に表示する情報を記憶する記憶部を備え、
前記制御部は、前記判定部が判定を行った場合に、前記判定部の判定結果に対応付けて前記記憶部に記憶される情報の表示を開始させ、前記復元条件をトリガーとして前記情報の表示を終了させる請求項1記載の表示装置。 - 前記制御部は、前記情報の表示を開始する際、及び、前記情報の表示を終了させる際に、前記表示部に前記情報をアニメーション表示させる請求項2記載の表示装置。
- 前記制御部は、前記情報の表示を開始する際のアニメーション表示の変化速度と、前記情報の表示を終了させる際のアニメーション表示の変化速度とを対応させる請求項3記載の表示装置。
- 前記判定部は、前記検出部が検出する前記使用者の眼球の動きに基づき、前記使用者の視線方向を判定し、
前記制御部は、前記判定部が判定する前記使用者の視線方向に対応して前記表示部の表示を変化させる請求項1から4のいずれか1項に記載の表示装置。 - 前記制御部は、前記判定部が判定する前記使用者の視線方向に対応する情報を前記表示部に表示させる請求項1から4のいずれか1項に記載の表示装置。
- 前記使用者による操作を検出する操作検出部を備え、
前記制御部は、前記判定部が判定する前記使用者の視線方向に対応する情報を、前記操作検出部が検出する操作に応じて、前記表示部に表示させる請求項6記載の表示装置。 - 前記制御部は、前記判定部が判定する前記使用者の視線方向が予め設定された変化をした場合に、前記復元条件が成立したと判定して前記表示部に表示させた情報の表示を終了させる請求項6または7記載の表示装置。
- 前記使用者の眼瞼の動きを検出する眼瞼運動検出部を備え、
前記制御部は、前記眼瞼運動検出部により、予め設定された態様の前記使用者の眼瞼の動きが検出された場合に、前記復元条件が成立したと判定して前記表示部に表示させた情報の表示を終了させる請求項6または7記載の表示装置。 - 前記制御部は、前記表示部の表示を変化させてから、予め設定された時間が経過したときに前記復元条件が成立したと判定して前記表示部に表示させた情報の表示を終了させる請求項6または7記載の表示装置。
- 前記検出部は前記使用者の視線方向を検出し、
前記制御部は、前記検出部により検出される前記使用者の視線方向に基づき前記使用者の視線の輻輳角を判定し、前記使用者の視線の輻輳角が予め設定された条件に該当する場合に、前記復元条件が成立したと判定して前記表示部に表示させた情報の表示を終了させる請求項6または7記載の表示装置。 - 前記制御部は、前記使用者の視線の輻輳角が予め設定された条件に該当する可能性がある場合に、前記表示部により報知の表示をさせる請求項11記載の表示装置。
- 前記表示部は、外景を透過し、前記外景とともに視認できるように画像を表示する透過型の表示部であり、
前記制御部は、前記判定部の判定結果に応じて、前記外景と重畳して視認される位置に画像を表示させ、その後に予め設定された復元条件をトリガーとして、前記外景と重畳して視認される位置から画像を待避させる請求項1から12のいずれか1項に記載の表示装置。 - 使用者の頭部に装着され、外景と画像とを重ねて視認可能に表示する表示部と、
前記使用者の眼球の動きを検出する検出部と、
前記検出部により検出される前記使用者の眼球の動きを判定する判定部と、
前記表示部における表示を制御する制御部と、を備え、
前記制御部は、前記判定部の判定結果に応じて、前記表示部の表示を変化させ、その後に予め設定された復元条件をトリガーとして前記表示部の表示を復元させる頭部装着型表示装置。 - 使用者の身体に装着して使用され、画像を表示する表示部と、前記使用者の眼球の動きを検出する検出部と、を備える表示装置を制御して、
前記検出部により検出される前記使用者の眼球の動きを判定するステップと、
判定結果に応じて、前記表示部の表示を変化させるステップと、
予め設定された復元条件をトリガーとして前記表示部の表示を復元させるステップと、を有する表示装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016172430A JP2018042004A (ja) | 2016-09-05 | 2016-09-05 | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016172430A JP2018042004A (ja) | 2016-09-05 | 2016-09-05 | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018042004A true JP2018042004A (ja) | 2018-03-15 |
Family
ID=61624107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016172430A Pending JP2018042004A (ja) | 2016-09-05 | 2016-09-05 | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018042004A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021009719A (ja) * | 2020-10-01 | 2021-01-28 | 株式会社東芝 | 電子機器及び表示方法 |
JP2022059595A (ja) * | 2020-10-01 | 2022-04-13 | 株式会社東芝 | 電子機器及び表示方法 |
-
2016
- 2016-09-05 JP JP2016172430A patent/JP2018042004A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021009719A (ja) * | 2020-10-01 | 2021-01-28 | 株式会社東芝 | 電子機器及び表示方法 |
JP2022059595A (ja) * | 2020-10-01 | 2022-04-13 | 株式会社東芝 | 電子機器及び表示方法 |
JP7309830B2 (ja) | 2020-10-01 | 2023-07-18 | 株式会社東芝 | 電子機器及び表示方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9959591B2 (en) | Display apparatus, method for controlling display apparatus, and program | |
CN108508603B (zh) | 头部佩戴型显示装置及其控制方法、以及记录介质 | |
JP7087481B2 (ja) | 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム | |
CN108535868B (zh) | 头部佩戴型显示装置及其控制方法 | |
JP6828465B2 (ja) | 内視鏡操作支援システム | |
JP2018142857A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
US10567730B2 (en) | Display device and control method therefor | |
JP2018160735A (ja) | 透過型表示装置、表示制御方法、およびコンピュータープログラム | |
JP2019128693A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP2018124651A (ja) | 表示システム | |
JP6303274B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6776578B2 (ja) | 入力装置、入力方法、コンピュータープログラム | |
JP2017116562A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2017146726A (ja) | 移動支援装置、及び、移動支援方法 | |
JP2020071587A (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6740613B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP6620417B2 (ja) | 表示装置およびその制御方法、並びにコンピュータープログラム | |
JP2018042004A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP6932917B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2016033763A (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
JP6582374B2 (ja) | 表示装置およびその制御方法、並びにコンピュータープログラム | |
JP6638195B2 (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
JP2017134630A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2017182460A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
JP2020119391A (ja) | 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム |