JP5655674B2 - ヘッドマウントディスプレイ及びこれに用いられるプログラム - Google Patents

ヘッドマウントディスプレイ及びこれに用いられるプログラム Download PDF

Info

Publication number
JP5655674B2
JP5655674B2 JP2011081764A JP2011081764A JP5655674B2 JP 5655674 B2 JP5655674 B2 JP 5655674B2 JP 2011081764 A JP2011081764 A JP 2011081764A JP 2011081764 A JP2011081764 A JP 2011081764A JP 5655674 B2 JP5655674 B2 JP 5655674B2
Authority
JP
Japan
Prior art keywords
line
sight
marker
movement
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011081764A
Other languages
English (en)
Other versions
JP2012216123A (ja
Inventor
知裕 佐藤
知裕 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2011081764A priority Critical patent/JP5655674B2/ja
Publication of JP2012216123A publication Critical patent/JP2012216123A/ja
Application granted granted Critical
Publication of JP5655674B2 publication Critical patent/JP5655674B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、視線入力可能なヘッドマウントディスプレイの改良に関する。
特許文献1には、視線入力により操作を行うことができるヘッドマウントディスプレイが提案されている。このようなヘッドマウントディスプレイは、操作内容に対応するマーカーが表示され、マーカーに対するユーザの一定時間以上の注視が検出された場合に、マーカーに対応する操作が実行されるようになっている。
特開2004−180208号公報
ところが、ユーザがマーカーを注視しても、眼球は固定されているわけでなく、自律的な動き等により眼球が移動してしまうことから、誤検出されてしまうという問題があった。また、多くの場合、このようなヘッドマウントディスプレイでは、マーカーが表示される表示領域上におけるユーザの視線の座標を検出し、ユーザの視線の座標とマーカーの座標とが一致した場合に、ユーザの視線入力が検出されるようになっていた。このため、ユーザの視線座標とマーカー座標を一致させる必要があり、個人ごとにユーザの視線の座標の原点を定義するためのキャリブレーションが必要であった。
本発明は、上記問題を解決し、視線入力可能なヘッドマウントディスプレイにおいて、誤検出の発生を防止する技術を提供することを目的とする。
上記課題を解決するためになされた請求項1に記載の発明は、
ユーザの頭部に装着される頭部装着部と、
前記頭部装着部に取り付けられ、ユーザに画像を視認させる画像表示部と、
ユーザの視線の向きを検出する視線検出部と、
前記画像表示部に、動くマーカーを表示させるマーカー表示手段と、
前記視線検出部によって検出された視線の座標の時間微分により、視線の相対的な運動特徴を算出する算出手段と、
前記算出手段によって算出された前記視線の相対的な運動特徴と前記マーカーの運動特徴との関連があるか否かを判断することにより、ユーザの視線入力を検出する視線動解析手段と、
前記視線動解析手段が検出した前記視線入力に対応する操作を実行させる操作実行手段を有することを特徴とする。
請求項2に記載の発明は、請求項1に記載の発明において、
前記算出手段は、前記視線検出部によって検出された視線の座標の時間微分により、視線の相対的な運動特徴として、視線速度、及び視線加速度を算出することを特徴とする。
請求項3に記載の発明は、請求項1又は請求項2に記載の発明において、
前記マーカー表示手段は、前記画像表示部に、一方向に動くマーカーを表示させることを特徴とする。
これにより、ユーザに負担を与えず、視線入力を検出することが可能となる。
請求項4に記載の発明は、請求項1〜請求項3に記載の発明において、
前記マーカー表示手段は、前記画像表示部に、異なる方向に動く複数のマーカーを表示させることを特徴とする。
これにより、複数の操作を選択的に実行させることが可能となる。
請求項5に記載の発明は、請求項1〜請求項4に記載の発明において、
前記マーカー表示手段は、前記画像表示部に、移動方向が途中で変化するマーカーを表示させることを特徴とする。
これにより、ユーザが、移動方向が途中で変化する前後のマーカーを目で追い続けなければ、ユーザの視線入力が検出されないので、視線入力の誤検出がより確実に防止される。
請求項6に記載の発明は、請求項1〜請求項5に記載の発明において、
前記視線動解析手段は、マーカーの動きと相似的な視線の動きを検出することにより、ユーザの視線入力を検出することを特徴とする。
これにより、視線の動きがマーカーの動きに対して相似的であれば、その移動量に関らずユーザの視線入力が検出される。これによって、同一のマーカーの動きに対して、視線の移動量に個人差がある場合であっても、ユーザの視線入力が検出されないという誤検出を防止することが可能となる。
請求項7に記載の発明は、請求項1〜請求項6に記載の発明において、
アプリケーションへの視線入力を受け付けないロック状態にある場合において、前記視線動解析手段が、マーカーの動きと関連している視線の動きを検出した場合に、前記操作実行手段は、前記ロック状態から、前記アプリケーションソフトへの視線入力を受け付けるロック解除状態に変更し、
ロック解除状態にある場合において、前記視線動解析手段が、マーカーの動きと関連している視線の動きを検出した場合に、前記操作実行手段は、前記アプリケーションソフトの操作を実行させることを特徴とする。
これにより、ロック状態に有る場合には、アプリケーションソフトへの不用意な操作が防止される一方で、ユーザの視線入力により、ロック解除状態に変更することができ、ユーザの意図に沿った操作を視線入力により実現することが可能となる。
請求項8に記載の発明は、
ユーザの頭部に装着される頭部装着部と、
前記頭部装着部に取り付けられ、ユーザに画像を視認させる画像表示部と、
ユーザの視線の向きを検出する視線検出部を有するヘッドマウントディスプレイで実行されるプログラムであって、
前記画像表示部に、動くマーカーを表示させるマーカー表示ステップと、
前記視線検出部によって検出された視線の座標の時間微分により、視線の相対的な運動特徴を算出する算出ステップと、
前記算出ステップで算出された前記視線の相対的な運動特徴と前記マーカーの運動特徴との関連があるか否かを判断することにより、ユーザの視線入力を検出する視線動解析ステップと、
前記視線解析ステップで検出された前記視線入力に対応する操作を実行させる操作実行ステップを有することを特徴とする。
本発明によれば、マーカー表示手段が画像表示部に動くマーカーを表示させ、視線動解析手段が、マーカーの動きと関連している視線の動きを検出することにより、ユーザの視線入力を検出する。このため、ユーザが一方向に動くマーカーを目で追うと、ユーザの視線入力が検出されるので、眼球の自律的な動きに起因する誤検出を防止することが可能となる。
本発明の実施の形態を示すヘッドマウントディスプレイの斜視図である。 図1の上面図である。 第1の実施形態の視線入力画面の説明図である。 ヘッドマウントディスプレイのブロック図である。 第1の実施形態の視線入力検出処理のフロー図である。 視線の運動特徴を表した説明図である。 第2の実施形態の視線入力検出処理のフロー図である。 第2の実施形態の視線入力画面の説明図である。 移動方向が途中で変化するマーカーが表示される視線入力画面の説明図である。 パターンデータの説明図である。 マーカーに対する視線の相似的な動きを上方から見た説明図である。
(本発明の概要)
図3を用いて、本発明の概要について説明する。図3の(A)に示されるように、本発明のヘッドマウントディスプレイ100の画像表示部30(図1、図2に示す)は、一方向に動くマーカー801を繰り返し表示する。なお、図3の(B)〜(F)は、マーカー801の移動の遷移状態を表した図である。ユーザが動くマーカー801を目で追うと、視線検出部60(図1、図2に示す)でユーザの視線の動きが検出される。そして、マーカー801の動きと、視線検出部60で検出された視線の動きとが関連していると判断された場合に、ユーザの視線による入力操作(視線入力)が検出される。このように、本発明では、ユーザが一方向に動くマーカー801を目で追うと、ユーザの視線入力が検出されるように構成されているので、眼球999の自律的な動きに起因する誤検出を防止することが可能となる。従来では、表示領域800上のユーザの視線の絶対位置によりユーザの視線入力が検出されていたため、使用前に、マーカー801の座標とユーザの視線の座標を一致させる必要があり、個人ごとに視線座標の原点を定義するためのキャリブレーションが必要であった。本発明では、ユーザの視線の視線座標上の絶対位置で無く、ユーザの視線の相対的な動きにより、ユーザの視線入力が検出されるように構成したので、前記キャリブレーションが不要となる。以下に、本発明の視線入力を可能とする具体的な構成について説明する。
(本発明のヘッドマウントディスプレイの構造)
本発明のヘッドマウントディスプレイ100は、図1や図2に示されるように、頭部装着部10、取付部材20、画像表示部30とから構成されている。図1や図2に示される実施形態では、頭部装着部10は、横長の前フレーム12と、前フレーム12の両端から後方に延出するテンプル13とから構成された眼鏡のフレーム形状であり、ユーザの頭部に装着される。前フレーム12の中央には、ノーズパッド11が設けられている。なお、頭部装着部10は、眼鏡のフレーム形状に限定されず、例えば、ヘルメット形状等であっても差し支え無い。なお、図1、図2において、999はユーザの眼球位置を仮想的に表したものである。
画像表示部30は、頭部装着部10に、取付部材20を介して取り付けられている。画像表示部30は、画像をユーザに視認させるものである。図1や図2に示されるように、画像表示部30は、内部に表示部33(図4に示す)と接眼レンズを有している。また、画像表示部30の先端部には、ハーフミラー35が取り付けられている。なお、ハーフミラー35は、接眼レンズと対面する位置に配設され、ハーフミラー35の反射面は、接眼レンズの光軸に対して傾斜している。また、ヘッドマウントディスプレイ100がユーザの頭部に装着された状態では、ハーフミラー35はユーザの眼球999の直前に位置している。
表示部33が画像光を照射すると、画像光が接眼レンズで集光又は平行化され、この画像光がハーフミラー35で反射されてユーザの眼球999に到達する。ユーザには、所定の距離先に、所定サイズの虚像が提示されているように見える。ユーザは、ハーフミラー35を通して外界も視認することができる。
図1や図2に示されるように、頭部装着部10の両側部(本実施形態では、両テンプル13の前端)には、視線検出部60が取り付けられている。図2に示されるように、ヘッドマウントディスプレイ100がユーザの頭部に装着された状態では、ユーザの眼球999の外側に、一対の視線検出部60が位置している。図2に示されるように、眼球999は網膜999aと角膜999bを有しているが、網膜999aはマイナスに帯電している一方で、角膜999bはプラスに帯電している。そして、角膜999bから網膜999aに向かって電場が生じている。眼球999の動きに伴って、電場の向きも変わる。視線検出部60は、眼球999の電場の向き(つまり、眼球999の向き)を検出する電極を有している。眼球999の向きが視線検出部60で検出されることにより、ユーザの視線方向が検出されるようになっている。
(ヘッドマウントディスプレイのブロック図の説明)
図4を用いて、ヘッドマウントディスプレイ100のブロック図について説明する。ヘッドマウントディスプレイ100は、制御部50を有している。制御部50は、画像表示部30内、或いは、画像表示部30とは別体に設けられている。
制御部50は、CPU51、RAM52、記憶装置53、インターフェース54、画像処理部55を有していて、これらの構成要素は相互にバス59で接続されている。インターフェース54には、視線検出部60が接続されている。また、画像処理部55には、表示部33が接続されている。
CPU51は、RAM52、記憶装置53と協動して、各種演算、処理を行う。
RAM52は、CPU51で処理されるプログラムや、CPU51が処理するデータを、そのアドレス空間に一時的に記憶する。
RAM52は、視線座標ログ記憶領域52aと運動特徴記憶領域52bを有している。
視線座標ログ記憶領域52aには、視線座標算出プログラム53aにより算出された視線座標のログが記憶される。
運動特徴記憶領域52bには、視線動解析プログラム53cにより算出された視線の運動特徴が記憶される。
記憶装置53には、不揮発性メモリー、ハードディスク等の補助記憶装置が含まれる。記憶装置53には、本体部50を制御する各種プログラムやパラメータが記憶されている。当該各種プログラムが、CPU51で処理されることにより、各種機能が実現される。
記憶装置53には、視線座標算出プログラム53a、マーカー表示プログラム53b、視線動解析プログラム53c、操作実行プログラム53d、各種アプリケーションソフト53eが記憶されている。
視線座標算出プログラム53aは、視線検出部60からインターフェース54を介してバス59に入力された視線情報に基づき、視線座標を算出するプログラムである。マーカー表示プログラム53bは、画像処理部55に描画命令を出力し、表示領域800(図3に示す)に、動くマーカー801を表示させるプログラムである。
視線動解析プログラム53cは、マーカー801の動きと関連している視線の動きを検出することにより、ユーザの視線入力を検出するプログラムである。
操作実行プログラム53dは、視線動解析プログラム53cが検出した視線入力に対応する操作を実行させるプログラムである。
アプリケーションソフト53eは、制御部50で実行され、画像表示部30で表示される。アプリケーションソフト53eには、作業の確認項目についてハンズフリーでチェック入力する作業確認入力ソフトや、状況に応じてユーザが必要とすると推測される情報を、キャラクターを通して提供したり、ユーザが質問を行ったりすることができるコンシェルジュソフトが含まれる。なお、後述する第2の形態の視線入力検出処理において、ユーザは視線入力によりアプリケーションソフト53eを操作することができる。
インターフェース54は、視線検出部60が検出した信号の物理的・論理的な形式を変換し、視線情報として、バス59に出力するものである
画像処理部55は、画像処理回路及びビデオメモリを有し、表示部33に出力する画像信号を生成するものである。
表示部33は、画像処理部55から出力された画像信号に基づいて、画像光を生成するものである。表示部33には、液晶ディスプレイ、有機ELディスプレイ、デジタルミラーデバイス(Digital Mirror Device)などの空間光変調素子や、網膜走査ディスプレイなどが含まれる。
(第1の実施形態の視線入力検出処理の説明)
以下に、図5及び図6を用いて、第1の実施形態の視線入力検出処理について説明する。
なお、第1の実施形態の視線入力検出処理は、初期状態では視線入力を受け付けないロック状態にあるアプリケーションソフトを、視線入力を受け付けるロック解除状態にする実施形態である。
第1の実施形態の視線入力検出処理が開始すると、S11の処理に進む。
S11「マーカー更新表示」の処理において、マーカー表示プログラム53bは、描画命令を画像処理部55に出力し、表示領域800(図3に示す)に、マーカー801を更新表示させる。最初にS11の処理が実行される場合には、図3の(B)に示されるように、表示領域800の一端(始点)にマーカー801が表示される。次に、S11の処理が実行される場合には、図3の(C)に示されるように、表示領域800の他端側に僅かに移動した位置に、マーカー801が更新表示される。このように、S11の処理が実行される度に、表示領域800の他端側に僅かに移動した位置にマーカー801が更新表示される。そして、表示領域800の他端(終点)にマーカー801が到達した場合には(図3の(E))、再び、始点にマーカー801が表示される(図3の(F))。本実施形態では、マーカー801は、表示領域800を、等速度直線運動する。なお、このS11の処理は、所定時間(例えば、数十ミリ秒)毎に実行される。
S11の処理が終了すると、S12の処理に進む。
S12「視線検出」の処理において、視線座標算出プログラム53aは、バス59に入力された、視線情報に基づき、視線座標を算出する。このS12の処理もまた、所定時間(例えば、数十ミリ秒)毎に実行される。S12の処理が終了すると、S13の処理に進む。
S13「視線座標をログに追加」の処理において、視線座標算出プログラム53aは、S12の処理で算出された視線座標を、視線座標ログ記憶領域52aに追加記憶させる。S13の処理が終了すると、S14の判断処理に進む。
S14「マーカーが終点で表示」の判断処理において、CPU51は、マーカー801が終点に表示されたか否かを判断する。CPU51が、マーカー801が終点に表示されたと判断した場合には(S14の判断処理がYES)、S15の処理に進む。一方で、CPU51が、マーカー801が終点に表示されたと判断しない場合には(S14の判断処理がNO)、S11の処理に戻る。
S15「視線の運動特徴を算出」の処理において、視線動解析プログラム53cは、視線座標ログ記憶領域52aに記憶されている視線座標のログから、ユーザの視線の運動特徴を算出する。
具体的には、図6に示されるように、視線動解析プログラム53cは、視線座標のX座標とY座標のそれぞれについて、時間微分をして視線速度vを算出する。なお、視線座標のX座標とは、ユーザから見て水平方向の座標をいう。また、視線座標のY座標とは、ユーザから見て垂直方向の座標をいう。
更に、視線運動解析プログラム53cは、視線座標のX座標とY座標のそれぞれについて、時間微分を2回して視線加速度aを算出する。
算出された運動特徴は、RAM12の運動特徴記憶領域52bに記憶される。
S15の処理が終了すると、S16の判断処理に進む。
S16「視線の運動特徴とマーカーの運動特徴と関連有り」の判断処理において、視線動解析プログラム53cは、運動特徴記憶領域52bに記憶されている視線の運動特徴とマーカー801の運動特徴とが関連があるか否かを判断する。
具体的には、視線動解析プログラム53cは、以下の(1)〜(5)の条件に合致しているか否かを判断することにより、視線の運動特徴とマーカー801の運動特徴とが関連があるか否かを判断する。
(1)マーカー801が動き出してから所定時間A以内に、視線速度vや視線加速度aが所定値以上に達したか。
(2)マーカー801が動き出してから所定時間B経過後のX座標方向の視線速度vが、マーカー801の速度に対して、所定の誤差Cの範囲内にある時間が、所定時間Lt1以上か。
(3)マーカー801が動き出してから所定時間B経過後のX座標方向の視線加速度aが、0から所定値Dの誤差の範囲内にあるか。
(4)Y座標方向の視線速度vが、0から所定の誤差Eの範囲内にある時間が、時間が、所定時間Lt2以上か。
(5)Y座標方向の視線加速度aが、0から所定の誤差Fの範囲内にあるか。
なお、視線速度が安定するまでの時間である前記所定時間Bが、視線加速度aの値から動的に算出される実施形態であっても差し支え無い。具体的には、視線加速度aが所定の誤差の範囲内で0となった時点で、視線速度が安定したと判断され、前記所定時間Bが経過したと判断される。
視線動解析プログラム53cは、上記(1)〜(5)の条件に全て合致する場合に、視線の運動特徴とマーカー801の運動特徴とが関連があると判断する。
視線動解析プログラム53cが、視線の運動特徴とマーカー801の運動特徴とが関連があると判断した場合には(S16の判断処理がYES)、S17の処理に進む。一方で、視線動解析プログラム53cが、視線の運動特徴とマーカー801の運動特徴とが関連が無いと判断した場合には(S16の判断処理がNO)、S11の処理に戻る。
S17「ロックを解除」の処理において、操作実行プログラム53dは、ロック状態にあるアプリケーションソフトを、視線入力可能なロック解除状態にする。
S17の処理が終了すると。視線入力処理が終了する。
このように本発明では、S15の処理において、視線の座標から時間微分により運動特徴が算出され、S16の判断処理において、算出された運動特徴とマーカー801の運動特徴とが関連があるか否かが判断されることにより、ユーザの視線入力が検出されるようになっている。つまり、ユーザの視線の絶対的な位置で無く、ユーザの視線の相対的な動きにより、ユーザの視線入力が検出されるので、キャリブレーションが不要となる。
このように、第1の実施形態の視線入力検出処理では、ユーザの視線入力が検出されない限り、ロック状態が維持されるので、アプリケーションソフトへの不用意な操作が防止される一方で、ユーザは視線入力により、アプリケーションソフトへの視線入力を受け付けるロック解除状態に変更することができ、ユーザの意図に沿った操作を視線入力により実現することが可能となる。
(第2の実施形態の視線入力検出処理の説明)
以下に、図7及び図8を用いて、第2の実施形態の視線入力検出処理について説明する。
なお、第2の実施形態の視線入力検出処理は、前記した第1の実施形態において、アプリケ−ションソフトが視線入力可能なロック解除状態になった場合(S17の処理)に、視線入力によりアプリケ−ションを操作する実施形態であり、図8に示されるように、複数の動くマーカー802〜805が表示画面800に表示される。そして、ユーザが、ある特定のマーカー802〜805を目で追った場合に、ユーザの視線の動きが検出され、特定のマーカー802〜805に対応する操作(図8に示されるA〜Dのいずれか)が実行される実施形態である。
第2の実施形態の視線入力検出処理が開始すると、S21の処理に進む。
S21「マーカー更新表示」の処理において、マーカー表示プログラム53bは、描画命令を画像処理部55に出力し、表示領域800に、複数のマーカー802〜805を更新表示させる。
本実施形態では、表示領域800の4辺の内側に、この4辺に沿って、それぞれのマーカー802〜805が移動する。それぞれのマーカー802〜805は、表示領域800の4辺の一端(始点)から他端(終点)に向けて移動する。そして、それぞれのマーカー802〜805がそれぞれの終点に到達した場合には、それぞれのマーカー802〜805はそれぞれの始点に戻り、再びそれぞれの終点に向けて移動するという動作を繰り返す。
最初にS21の処理が実行される場合には、図8に示されるように、それぞれの始点にマーカー802〜805がそれぞれ表示される。次に、S21の処理が実行される場合には、それぞれの終点側に僅かに移動した位置に、マーカー802〜805が更新表示される。このように、S21の処理が実行される度に、それぞれの終点側に僅かに移動した位置にマーカー802〜805が更新表示される。本実施形態では、それぞれのマーカー802〜805は、表示領域800を、等速度直線運動する。なお、このS21の処理は、所定時間(例えば、数十ミリ秒)毎に実行される。
S21の処理が終了すると、S22の処理に進む。
S22〜S25の処理は、それぞれ、第1の実施形態のS12〜S15の処理と同一である。
S26の判断処理も、第1の実施形態のS16の判断処理と同様である。第2の実施形態では、視線動解析プログラム53cは、運動特徴記憶領域52bに記憶されている視線の運動特徴と関連がある運動特徴のマーカー802〜805が有るか否かを判断する。視線動解析プログラム53cが、視線の運動特徴と関連がある運動特徴のマーカー802〜805が有ると判断した場合には(S26の判断処理がYES)、S27の処理に進む。一方で、視線動解析プログラム53cが、視線の運動特徴と関連がある運動特徴のマーカー802〜805が無いと判断した場合には(S26の判断処理がNO)、S21の処理に戻る。
S27「操作実行」の処理において、操作実行プログラム53dは、S26の判断処理で、視線の運動特徴と関連があると判断された運動特徴のマーカー802〜805に対応するアプリケーションの操作(図8に示されるA〜Dのいずれか)を実行する。S27の処理が終了すると、S21の処理に戻る。
(総括)
なお、S11やS21の処理において、図9に示されるように、マーカー表示プログラム53bが、移動方向が途中で変化するマーカー806を表示領域800に表示させる実施形態であっても差し支え無い。図9で示される実施形態では、マーカー806は水平方向に移動した後に、垂直方向に向きを変えて移動する。このような実施形態であっても、S16やS26の判断処理において、視線動解析プログラム53cは、視線の運動特徴とマーカー806の運動特徴とが関連があるか否かを判断し、関連があると判断された場合には、S17やS27の処理において、関連があると判断されたマーカーに対応する視線入力が実行される。この実施形態の場合には、ユーザが、移動方向が途中で変化する前後のマーカー806を目で追い続けなければ、視線の運動特徴とマーカー806の運動特徴とが関連があると判断されず、ユーザの視線入力が検出されないので、視線入力の誤検出がより確実に防止される。
以上説明した実施形態では、マーカー801〜806は、直線運動で表示領域800内を移動しているが、マーカーが曲線運動や円運動をする実施形態であっても差し支え無い。また、マーカーが、表示領域800内を、等速運動でなく、等加速運動や、不規則な速度変化をする実施形態であっても差し支え無い。これらの実施であっても、視線動解析プログラム53cは、視線の運動特徴とマーカーの運動特徴とが関連があるか否かを判断し、関連があると判断された場合には、S17やS27の処理において、関連があると判断されたマーカーに対応する視線入力が実行される。
なお、S16の判断処理において、視線動解析プログラム53cは、上記(1)〜(5)の条件のいずれかを選択して、視線の運動特徴とマーカー801の運動特徴とが関連があるか否かを判断することにしても差し支え無い。
或いは、視線動解析プログラム53cは、視線速度v及び視線加速度aの経時変化が、図10の(A)や(B)に示されるような所定の範囲をもったパターン(図10に示される一点鎖線)の範囲内であるか否かを判断することにより、視線の運動特徴とマーカー801(802〜805)の運動特徴とが関連があるか否かを判断することにしても差し支え無い。この実施形態の場合には、記憶装置53には、図10に示されるようなパターンデータが記憶されている。
なお、図11に示されるように、マーカーの動きはじめに対して、視線の動きはじめが遅れ、視線の移動開始位置がマーカーの移動開始位置に対してずれてしまう場合がある。或いは、マーカーが終点に達する前に、視線の動きが停止してしまう場合がある。このような場合であっても、ユーザの視線入力が検出されるように、S16やS26の判断処理において、視線動解析プログラム53cは、マーカーの動きと視線の動きが相似的か否かを判断することにより、視線の運動特徴とマーカーの運動特徴とが関連があるか否かを判断することにしても差し支え無い。具体的には、視線動解析プログラム53cは、図10の(C)や(D)に示されるように、前記したパターンを時間座標方向(t)にシフトさせた場合に、視線速度v及び視線加速度aの経時変化が、前記シフトさせたパターンの範囲内であるか否かを判断する。この実施形態であれば、視線の動きがマーカーの動きに対して相似的であれば、ユーザの視線入力が検出され、ユーザの視線入力が検出されないという誤検出を防止することが可能となる。
また、図11に示されるような、ユーザの視線の動きの場合には、ユーザの視線の速度もまた、マーカーの速度に比べて小さくなってしまう場合がある。この場合であっても、ユーザの視線入力が検出されるように、視線動解析プログラム53cは、図10の(A)や(C)に示されるパターンを速度座標方向(v)方向にシフトさせ、視線速度vの経時変化が、シフトされた前記パターンの範囲内にあると判断した場合に、ユーザの視線入力を検出することにしても差し支え無い。
以上説明した実施形態の視線検出部60は、眼球999の電場の向きを検出して、ユーザの視線の向きを検出する構造のものであるが、視線検出部はこれに限定されず、例えば、ユーザの眼球を正面から撮像し、撮像された画像から、ユーザの視線の向きが検出される視線検出部であっても差し支え無い。
以上、現時点において、もっとも、実践的であり、かつ好ましいと思われる実施形態に関連して本発明を説明したが、本発明は、本願明細書中に開示された実施形態に限定されるものではなく、請求の範囲および明細書全体から読み取れる発明の要旨あるいは思想に反しない範囲で適宜変更可能であり、そのような変更を伴うヘッドマウントディスプレイもまた技術的範囲に包含されるものとして理解されなければならない。
10 頭部装着部
20 取付部材
30 画像表示部
50 制御部
60 視線検出部
100 ヘッドマウントディスプレイ
800 表示領域
801 マーカー
900 ユーザ
999 眼球

Claims (8)

  1. ユーザの頭部に装着される頭部装着部と、
    前記頭部装着部に取り付けられ、ユーザに画像を視認させる画像表示部と、
    ユーザの視線の向きを検出する視線検出部と、
    前記画像表示部に、動くマーカーを表示させるマーカー表示手段と、
    前記視線検出部によって検出された視線の座標の時間微分により、視線の相対的な運動特徴を算出する算出手段と、
    前記算出手段によって算出された前記視線の相対的な運動特徴と前記マーカーの運動特徴との関連があるか否かを判断することにより、ユーザの視線入力を検出する視線動解析手段と、
    前記視線動解析手段が検出した前記視線入力に対応する操作を実行させる操作実行手段を有することを特徴とするヘッドマウントディスプレイ。
  2. 前記算出手段は、前記視線検出部によって検出された視線の座標の時間微分により、視線の相対的な運動特徴として、視線速度、及び視線加速度を算出することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3. 前記マーカー表示手段は、前記画像表示部に、一方向に動くマーカーを表示させることを特徴とする請求項1又は請求項2に記載のヘッドマウントディスプレイ。
  4. 前記マーカー表示手段は、前記画像表示部に、異なる方向に動く複数のマーカーを表示させることを特徴とする請求項1〜請求項3のいずれかに記載のヘッドマウントディスプレイ。
  5. 前記マーカー表示手段は、前記画像表示部に、移動方向が途中で変化するマーカーを表示させることを特徴とする請求項1〜請求項4のいずれかに記載のヘッドマウントディスプレイ。
  6. 前記視線動解析手段は、マーカーの動きと相似的な視線の動きを検出することにより、ユーザの視線入力を検出することを特徴とする請求項1〜請求項5のいずれかに記載のヘッドマウントディスプレイ。
  7. アプリケーションへの視線入力を受け付けないロック状態にある場合において、前記視線動解析手段が、マーカーの動きと関連している視線の動きを検出した場合に、前記操作実行手段は、前記ロック状態から、前記アプリケーションソフトへの視線入力を受け付けるロック解除状態に変更し、
    ロック解除状態にある場合において、前記視線動解析手段が、マーカーの動きと関連している視線の動きを検出した場合に、前記操作実行手段は、前記アプリケーションソフトの操作を実行させることを特徴とする請求項1〜請求項6のいずれかに記載のヘッドマウントディスプレイ。
  8. ユーザの頭部に装着される頭部装着部と、
    前記頭部装着部に取り付けられ、ユーザに画像を視認させる画像表示部と、
    ユーザの視線の向きを検出する視線検出部を有するヘッドマウントディスプレイで実行されるプログラムであって、
    前記画像表示部に、動くマーカーを表示させるマーカー表示ステップと、
    前記視線検出部によって検出された視線の座標の時間微分により、視線の相対的な運動特徴を算出する算出ステップと、
    前記算出ステップで算出された前記視線の相対的な運動特徴と前記マーカーの運動特徴との関連があるか否かを判断することにより、ユーザの視線入力を検出する視線動解析ステップと、
    前記視線解析ステップで検出された前記視線入力に対応する操作を実行させる操作実行ステップを有することを特徴とするプログラム。
JP2011081764A 2011-04-01 2011-04-01 ヘッドマウントディスプレイ及びこれに用いられるプログラム Active JP5655674B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011081764A JP5655674B2 (ja) 2011-04-01 2011-04-01 ヘッドマウントディスプレイ及びこれに用いられるプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011081764A JP5655674B2 (ja) 2011-04-01 2011-04-01 ヘッドマウントディスプレイ及びこれに用いられるプログラム

Publications (2)

Publication Number Publication Date
JP2012216123A JP2012216123A (ja) 2012-11-08
JP5655674B2 true JP5655674B2 (ja) 2015-01-21

Family

ID=47268822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011081764A Active JP5655674B2 (ja) 2011-04-01 2011-04-01 ヘッドマウントディスプレイ及びこれに用いられるプログラム

Country Status (1)

Country Link
JP (1) JP5655674B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9529197B2 (en) 2012-03-21 2016-12-27 Google Inc. Wearable device with input and output structures
US9277334B1 (en) 2012-03-21 2016-03-01 Google Inc. Wearable computing device authentication using bone conduction
US20140218269A1 (en) * 2013-02-07 2014-08-07 Google Inc., Modular frame construction for head mountable display
JP6134235B2 (ja) * 2013-08-30 2017-05-24 Kddi株式会社 制御装置、電子制御システム、制御方法、およびプログラム
JP2016207042A (ja) * 2015-04-24 2016-12-08 株式会社コーエーテクモゲームス プログラム及び記録媒体
JP6295995B2 (ja) 2015-04-28 2018-03-20 京セラドキュメントソリューションズ株式会社 情報処理装置、画像処理装置へのジョブ指示方法
JP6304145B2 (ja) 2015-06-30 2018-04-04 京セラドキュメントソリューションズ株式会社 情報処理装置、画像形成装置の設定条件指定方法
US20170344112A1 (en) * 2016-05-31 2017-11-30 Fove, Inc. Gaze detection device
JP2017215928A (ja) * 2016-05-31 2017-12-07 フォーブ インコーポレーテッド 視線検出システム
JP6958507B2 (ja) * 2018-07-31 2021-11-02 株式会社Jvcケンウッド 視線検出装置、視線検出方法及び視線検出プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2009150747A1 (ja) * 2008-06-13 2011-11-10 パイオニア株式会社 視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体
JP5295714B2 (ja) * 2008-10-27 2013-09-18 株式会社ソニー・コンピュータエンタテインメント 表示装置、画像処理方法、及びコンピュータプログラム
JP5262681B2 (ja) * 2008-12-22 2013-08-14 ブラザー工業株式会社 ヘッドマウントディスプレイ及びそのプログラム
JP5163535B2 (ja) * 2009-02-24 2013-03-13 ブラザー工業株式会社 ヘッドマウントディスプレイ

Also Published As

Publication number Publication date
JP2012216123A (ja) 2012-11-08

Similar Documents

Publication Publication Date Title
JP5655674B2 (ja) ヘッドマウントディスプレイ及びこれに用いられるプログラム
AU2015320043B2 (en) Display visibility based on eye convergence
US9043042B2 (en) Method to map gaze position to information display in vehicle
KR101663452B1 (ko) 화면 조작장치 및 화면 조작방법
EP3092546B1 (en) Target positioning with gaze tracking
JP5528476B2 (ja) 電子データ入力システム
JP2019083033A (ja) 仮想現実環境においてナビゲートする方法、システム、および装置
JP6002286B1 (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
US20190385372A1 (en) Positioning a virtual reality passthrough region at a known distance
KR20200029631A (ko) 머리-장착형 디스플레이에서의 메뉴 내비게이션
KR20220120649A (ko) 인공 현실 콘텐츠의 가변 초점 디스플레이를 갖는 인공 현실 시스템
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
CN108027987B (zh) 信息处理方法、信息处理装置及信息处理系统
KR101709611B1 (ko) 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법
KR20160109443A (ko) 시선 추적을 이용한 디스플레이 장치 및 방법
US20190019308A1 (en) Image display device
KR102233481B1 (ko) 화면 제어 방법 및 표시 장치
US20210389595A1 (en) Display apparatus, display control method, and program
CN108604015B (zh) 图像显示方法和头戴显示设备
KR102108962B1 (ko) 전방향 가상현실 네비게이션을 위한 제자리 걸음을 이용한 인터랙션 장치 및 방법
CN115598842A (zh) 提升用户体验和注视互动准确度的光学系统和相关方法
JPH09204287A (ja) 処理選択方法及び装置
JP6670965B2 (ja) 表示システム及び表示方法
US11874961B2 (en) Managing display of an icon in an eye tracking augmented reality device
KR20210017165A (ko) 중첩된 가상 오브젝트의 용이하고 정확한 선택을 지원하는 사용자 인터페이스 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5655674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150