JP6399692B2 - ヘッドマウントディスプレイ、画像表示方法及びプログラム - Google Patents

ヘッドマウントディスプレイ、画像表示方法及びプログラム Download PDF

Info

Publication number
JP6399692B2
JP6399692B2 JP2014212248A JP2014212248A JP6399692B2 JP 6399692 B2 JP6399692 B2 JP 6399692B2 JP 2014212248 A JP2014212248 A JP 2014212248A JP 2014212248 A JP2014212248 A JP 2014212248A JP 6399692 B2 JP6399692 B2 JP 6399692B2
Authority
JP
Japan
Prior art keywords
display
wearer
image
walking
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014212248A
Other languages
English (en)
Other versions
JP2016082411A (ja
Inventor
英嗣 入江
英嗣 入江
航平 千竃
航平 千竃
央 岩崎
央 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Original Assignee
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE UNIVERSITY OF ELECTRO-COMUNICATINS filed Critical THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority to JP2014212248A priority Critical patent/JP6399692B2/ja
Publication of JP2016082411A publication Critical patent/JP2016082411A/ja
Application granted granted Critical
Publication of JP6399692B2 publication Critical patent/JP6399692B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像を表示するヘッドマウントディスプレイ、及びそのヘッドマウントディスプレイを使用して画像を表示する画像表示方法、並びにその画像表示方法を実行させるプログラムに関する。
画像表示装置として、ユーザの頭部に装着するヘッドマウントディスプレイが各種実用化されており、普及しつつある。ヘッドマウントディスプレイには、シースルー型と称される、外界光が透過した状態で、画像を表示するものがある。このシースルー型のヘッドマウントディスプレイの場合には、ユーザ(装着者)が周囲を見通せる状況とした上で画像を表示することができ、ヘッドマウントディスプレイの適用範囲を広げることができる。例えば、屋外を歩行中のユーザに対して、その歩行中の箇所の周囲の地図などの案内を、ユーザの視野の一部に表示するようなことができる。
特許文献1には、ヘッドマウントディスプレイに歩数計を備え、歩数計から取得した歩数情報に基づいてユーザの歩行の有無を検出し、歩行中には、ユーザの視界の邪魔にならないようなヘッドマウントディスプレイの位置に画像を表示する技術が記載されている。
特開2011−91789号公報
ところで、ヘッドマウントディスプレイを使用した画像の表示形態として、ユーザの周囲を囲むように多数の画像を仮想的に配置し、その中からユーザが選択した画像を表示する形態が知られている。本明細書では、ユーザの周囲を囲むように多数の画像を仮想的に配置した状態を、インフォメーションベルトと述べる。このインフォメーションベルトを設定して表示したときには、例えばユーザが正面を向いたとき、ヘッドマウントディスプレイは、インフォメーションベルト内の正面に配置された画像を表示する。そして、ユーザが左側を向いたときには、ヘッドマウントディスプレイは、インフォメーションベルト内の左横に配置された画像を表示するように変化する。つまり、ユーザの頭部の動きに連動して、インフォメーションベルト上に表示される画像が変化する。
このように、ヘッドマウントディスプレイの画像表示としてインフォメーションベルトを配置することで、様々な情報を効率よく表示可能とし、ユーザは簡単な操作で必要な情報を選択して表示することができる。
ところで、インフォメーションベルトを適用した表示を行っている際に、ユーザが歩行中か否かの検出を行うことによって表示形態を制限してしまうと、表示形態が不適切な状態になってしまう場合がある。すなわち、特許文献1に記載に記載されるように、歩行中にユーザの視界を邪魔しない位置だけで限られた情報の表示を行うようにすると、その表示形態はインフォメーションベルトを使った表示形態とは異なることになる。このため、特許文献1に記載されるような従来技術をヘッドマウントディスプレイに適用した場合、ユーザが歩行中でない場合は、インフォメーションベルトを使った表示が行われるが、ユーザが歩行中である場合は、インフォメーションベルトの表示とは異なる表示形態になってしまう。つまり、視野の一部だけを使った表示形態となり、歩行中にはインフォメーションベルトの良さが生かされないという問題が発生する。
本発明は、歩行中でない場合は勿論、歩行中であっても、装着者の周囲にインフォメーションベルトのような多数の画像を仮想的に配置した情報の表示を、適切に行うことのできるヘッドマウントディスプレイ、画像表示方法及びプログラムを提供することを目的とする。
本発明のヘッドマウントディスプレイは、
表示された画像が装着者の眼で認識可能な表示部と、
装着者の周囲の仮想空間に配置された複数の表示オブジェクトを描画し、表示部に表示させる画像描画部と、
装着者の動きを検出するモーションセンサと、
モーションセンサの出力に基づいて、装着者が歩行中であることを検出したとき、表示部に表示される表示オブジェクトを、仮想空間の特定の範囲に配置された表示オブジェクトに固定し、装着者が歩行中でないことを検出したとき、仮想空間における複数の表示オブジェクトの配置座標が固定されるように、モーションセンサが検出した装着者の頭部の動きに連動して表示部に表示される表示オブジェクトを変更するコントローラとを備える。
また本発明の画像表示方法は、
装着者の眼で認識可能な画像を表示するヘッドマウントディスプレイを使用して画像表示を行う画像表示方法において、
装着者の周囲の仮想空間に配置された複数の表示オブジェクトを描画し、描画した画像をヘッドマウントディスプレイで表示させる描画処理ステップと、
装着者の動きを検出する動き検出処理ステップと、
動き検出処理で装着者が歩行中であることを検出したとき、表示部に表示される表示オブジェクトを、仮想空間の特定の範囲に配置された表示オブジェクトに固定し、装着者が歩行中でないことを検出したとき、仮想空間における複数の表示オブジェクトの配置座標が固定されるように、動き検出処理ステップで検出した装着者の頭部の動きに連動して表示部に表示される表示オブジェクトを変更する制御処理ステップと、を含む。
また本発明のプログラムは、上述した画像表示方法の各処理ステップを実行する手順を含むプログラムである。
本発明によると、装着者が歩行中でない場合には、装着者の周囲の空間に仮想的に配置された複数の表示オブジェクトの内から選択された特定の表示オブジェクトの画像を表示できるようになる。また、装着者が歩行中の場合には、装着者の周囲の空間に仮想的に複数の表示オブジェクトが配置された状態を維持しながら、表示する表示オブジェクトが、特定位置に配置された表示オブジェクトに固定されるようになる。したがって、装着者が歩行中であっても、常に装着者にとって適切な表示ができるようになる。
例えば、装着者が歩行中に頭部を左又は右に振ったとしても、表示画像が変化せず、歩行による装着者の頭部の動きが、表示範囲の選択状況に影響を与えないようにすることができる。このため、歩行による装着者の頭部の動きに連動して、表示画像の表示位置が変化することがなく、歩行中であっても装着者にとって常に適切な表示形態になる。
本発明の一実施の形態例によるヘッドマウントディスプレイを示す概略図である。 本発明の一実施の形態例によるヘッドマウントディスプレイの内部構成を示すブロック図である。 本発明の一実施の形態例によるヘッドマウントディスプレイのデータ処理機能から見た機能ブロック図である。 本発明の一実施の形態例による相対移動量計算処理例を示すフローチャートである。 本発明の一実施の形態例による歩行検知処理例を示すフローチャートである。 本発明の一実施の形態例によるインフォメーションベルトの例を示す図である。 本発明の一実施の形態例による表示オブジェクトの座標設定処理例を示すフローチャートである。 本発明の一実施の形態例によるインフォメーションベルトの表示処理例を示すフローチャートである。 本発明の一実施の形態例による歩行時のインフォメーションベルトの表示変化の例を示す図である。 本発明の一実施の形態例のジェスチャーによる操作例を示すフローチャートである。 本発明の一実施の形態例による表示オブジェクトの操作例(例1)を示す図である。 本発明の一実施の形態例による表示オブジェクトの操作例(例2)を示す図である。 本発明の一実施の形態例による表示オブジェクトの操作例(例3)を示す図である。
以下、本発明の一実施の形態例を、添付図面を参照して説明する。
[1.ヘッドマウントディスプレイの全体構成例]
図1は、ヘッドマウントディスプレイの例を示す。
ヘッドマウントディスプレイ10は、例えば眼鏡型に構成され、フレーム11によりユーザ(装着者)の頭部に装着される。以下の説明では、ユーザを表す言葉として「装着者」という用語を使うこととする。フレーム11の正面には、左ハーフミラー12と右ハーフミラー13とが取り付けられている。左ハーフミラー12の中央には、画像を表示する左表示部14が配置され、右ハーフミラー13の中央には、画像を表示する右表示部15が配置されている。
表示部14,15に画像が表示されることで、表示された画像が装着者の左眼及び右眼で認識され、装着者の前面に画像が表示された状態となる。また、左右のハーフミラー12,13に配置された表示部14,15に画像が表示されない状態では、外界光がそのままハーフミラー12,13を透過するので、装着者はその左眼及び右眼で周囲の状況を確認することができる。したがって、ヘッドマウントディスプレイ10は、外界光を透過しながら画像を表示できる、いわゆるシースルー型ヘッドマウントディスプレイとして機能する。
ヘッドマウントディスプレイ10のフレーム11には、モーションセンサ16が内蔵されている。このモーションセンサ16は、装着者の頭部の動き検出の処理を行うセンサである。また、フレーム11には、カメラ17が取り付けられており、このカメラ17によって装着者の前面の様子が撮影される。
また、ヘッドマウントディスプレイ10には、ケーブル27を介してアダプタ20が取り付けられる。アダプタ20は、表示部14,15が表示する画像の処理を行う。
[2.ヘッドマウントディスプレイの内部構成例]
図2は、ヘッドマウントディスプレイ10とアダプタ20の内部構成例を示す。アダプタ20は、コントローラ21と画像描画部22と画像メモリ23と操作部24と画像解析部25と動き解析部26とを備える。コントローラ21は、画像描画部22における画像の描画を制御する。画像描画部22は、画像メモリ23に記憶されている表示オブジェクトの画像データから、必要な画像データを取り出す。そして、画像描画部22は、取り出した画像データから、表示用の画像を描画する処理を行う。そして、画像描画部22での描画処理で得られた画像データが、左表示部14及び右表示部15に供給される。
左表示部14に表示される画像と、右表示部15に表示される画像は、基本的に同一の画像である。但し、装着者が画像を立体視できるようにするために、左表示部14に表示される画像および右表示部15に表示される画像のそれぞれを、互いに視差のある立体視用左画像および立体視用右画像としてもよい。
また、コントローラ21には、操作部24が接続される。そして、この操作部24が受け付けた操作に基づいて、コントローラ21は、画像描画部22に対して対応する種類の画像の描画を指示する。
また、ヘッドマウントディスプレイ10に取り付けられたモーションセンサ16の検出データは、動き解析部26に供給される。モーションセンサ16としては、加速度センサやジャイロスコープなどが使用される。動き解析部26は、モーションセンサ16の検出データに基づいて、ヘッドマウントディスプレイ10の装着者の動きを検出する。ここで検出する装着者の動きとしては、例えば頭部の水平又は垂直の動きの他に、装着者自身が歩行などで移動する動きがあり、動き解析部26は、これらの動きを検出する。
動き解析部26が検出した動きの解析データは、コントローラ21に供給される。コントローラ21は、これらの動き解析データに基づいて、表示画像の表示範囲の切り替えや変更などの指示を、画像描画部22に対して行う。
さらに、ヘッドマウントディスプレイ10に取り付けられたカメラ17が撮影した画像データは、画像解析部25に供給される。カメラ17は、一定のフレーム周期で画像の撮影を行い、画像解析部25は、カメラ17が撮影した画像の内容の解析を行う。具体的には、画像解析部25は、装着者の手指の動きを検出して、装着者が手又は指で行ったジェスチャーを判別する処理を行う。ジェスチャーの具体的な例については後述する。
そして、画像解析部25は、判別したジェスチャーに基づいて、表示画像の座標を変更するコマンドを作成し、その作成したコマンドをコントローラ21に供給する。コントローラ21では、供給されるコマンドに基づいて、表示画像の座標変更の処理を行う。
[3.ジェスチャーにより指示を行う構成例]
図3は、ヘッドマウントディスプレイ10に取り付けられたカメラ17が撮影した画像から、ジェスチャー解析を行い、そのジェスチャー解析結果に基づいて表示画像の座標を制御する処理の流れを示す機能ブロックである。図3に示す画像解析部25内の各処理部251〜257は、ハードウェアで構成されるようにしてもよいが、ソフトウェアの演算処理によって同様の処理を行うようにしてもよい。
カメラ17が撮影した画像データは、フレーム取得部251に供給され、このフレーム取得部251で1フレームごとの画像データが取得される。
フレーム取得部251が新しいフレームの画像データを取得すると、取得した画像データが指先座標検出部252に供給される。指先座標検出部252は、画像に含まれる指先の座標位置を検出する。画像に含まれる指先は、例えば画像中の手指の色(肌色)の領域を抽出すると共に、その抽出した手指の色の領域の形状が、手指の形状であるとき、指先などを検出する。検出した座標位置のデータは、座標履歴記憶部253に供給され、記憶される。そして、ジェスチャー解析部254は、座標履歴記憶部253に記憶された過去の一定期間(例えば1秒から数秒程度の期間)の座標履歴を読み出し、一定期間内の座標変化から、ジェスチャーを判別する。
さらに、ジェスチャー解析部254で判別したジェスチャーと、基準座標設定部255で設定されている座標データとが座標変換部256に供給される。座標変換部256では、ジェスチャーの指示が座標のデータに変換処理される。
座標変換部256で変換された座標データは表示座標設定部257に供給され、この表示座標設定部257で表示座標の変更を指示設定するコマンドが作成される。この表示座標設定部257で作成されたコマンドはコントローラ21に供給される。コントローラ21は、座標の変更を指示するコマンドに基づいて、画像描画部22で描画させる表示オブジェクトの座標の変更などを指示する。
以上説明したように、画像解析部25では、フレーム取得部251での1フレームごとの画像の取得から表示座標設定部257でのコマンドの出力処理が繰り返し実行される。
[4.動き解析部での移動量の計算例]
図4は、動き解析部26が行う、装着者の頭部の動きによる移動量の計算方法を示すフローチャートである。
まず、動き解析部26は、モーションセンサ16内のジャイロスコープが出力する角加速度のデータを取得する(ステップS11)。ここで取得される角加速度は、ジャイロスコープが検出する3軸(x軸、y軸、z軸)の内のx軸とy軸の2軸の角加速度である。なお、ここでジャイロスコープが検出する3軸とは、例えば図1に示すように、表示部14,15に表示される画像の水平方向x軸、垂直方向y軸、及び表示部14,15に表示される画像と直交する方向であるz軸をいう。
そして、動き解析部26は、x軸とy軸の2軸の角加速度の値から、頭部の移動角度を計算する(ステップS12)。さらに、動き解析部26は、検出した2軸の移動角度から、頭部の相対移動量を計算する(ステップS13)。ここでは、x軸方向の相対移動量とy軸方向の相対移動量を、例えば次式による算出する。
x軸方向相対移動量=x軸移動角度*30
y軸方向相対移動量=y軸移動角度*30
なお、これらの式の各軸移動角度に乗算される値30は、ジャイロスコープの特性と想定している画面サイズ(装着者から画面までの距離)で決まるパラメータであり、1つの例である。
そして、ステップS13での相対移動量の計算を行った後、動き解析部26は一定時間待機し(ステップS14)、ステップS11の角加速度のデータの取得処理に戻る。このようにして、動き解析部26は、一定時間ごとに繰り返しステップS11からステップS13の処理を行って、一定時間ごとにx軸方向の相対移動量とy軸方向の相対移動量を取得する。
このようにして得られた相対移動量のデータは、動き解析部26からコントローラ21に伝送される。コントローラ21は、表示画像の表示範囲の移動が必要であると判断すると、この相対移動量のデータを、画像描画部22に送る。そして、画像描画部22が描画する範囲、つまり表示部14,15に表示される範囲を変更する。
[5.動き解析部での歩行検知処理例]
図5は、動き解析部26が行う、装着者の歩行検知処理の例を示すフローチャートである。
まず、動き解析部26は、モーションセンサ16内の加速度センサが出力する加速度のデータを取得する(ステップS21)。ここでは、加速度センサが検出する3軸(x軸、y軸、z軸)の内で、地面と垂直なy軸の加速度データを取得する。そして、動き解析部26は、加速度値から装着者の移動平均値を算出する(ステップS22)。
次に、動き解析部26は、ステップS22で算出した移動平均値が、予め決められた閾値を越えるか否かを判断する(ステップS23)。ここで、移動平均値が閾値を越える場合、動き解析部26は、歩行検知フラグを「true」の値とし、歩行中とする(ステップS24)。また、ステップS23の判断で、移動平均値が閾値を越えない場合、動き解析部26は、歩行検知フラグを「false」の値とし、歩行中でないとする(ステップS25)。
そして、ステップS24,S25で歩行検知フラグを設定した後、動き解析部26は一定時間待機し(ステップS26)、ステップS21の処理に戻る。
このようにして、動き解析部26では、モーションセンサ16の出力から装着者が歩行中か否かを判別し、その判別結果に基づいて歩行検知フラグを「true」又は「false」の値とする処理が行われる。この歩行検知フラグは、ヘッドマウントディスプレイ10がインフォメーションベルトを表示する際に使用される。
[6.インフォメーションベルトの表示例]
図6は、ヘッドマウントディスプレイ10が、装着者の周囲に仮想的に配置した表示オブジェクトを表示する例を示す。
ここでは、ヘッドマウントディスプレイ10の表示部14,15が表示する表示オブジェクトで、装着者の水平方向の周囲を360°囲むように、仮想的なベルト100を設定する。この円形のベルト100がインフォメーションベルトである。
このインフォメーションベルト100のそれぞれの位置には、コントローラ21の制御で、複数の表示オブジェクトが配置される。例えば、インフォメーションベルト100の正面には、メインとなる表示オブジェクト101が配置され、インフォメーションベルト100の左脇には、それとは別の表示オブジェクト102〜107などが配置される。さらに、インフォメーションベルト100の右脇には、各種操作を指示するアイコンなどの表示オブジェクト111〜114などが配置される。これらの配置例は一例であり、インフォメーションベルト100には、その他の各種表示オブジェクトが、様々な形態で配置されるようにしてもよい。
これらの表示オブジェクト101〜107,111〜114は、コントローラ21が表示オブジェクトとして管理する。すなわち、コントローラ21は、インフォメーションベルト100内の仮想オブジェクトリスト200を持つ。仮想オブジェクトリスト200は、オブジェクト番号毎に、x座標の値とy座標の値を持つ。x座標は、表示オブジェクトのインフォメーションベルト100内の水平方向(円周方向)の位置を示し、y座標は、インフォメーションベルト100内の垂直方向の位置を示す。
このようなインフォメーションベルト100を設定した状態では、装着者が頭部を水平方向に動かすことで、ヘッドマウントディスプレイ10に表示される範囲が、その動かした方向の範囲になり、表示部14,15に表示される表示オブジェクトが変化する。
例えば、装着者が正面を向いたときには、インフォメーションベルト100上の正面の表示オブジェクト101が表示され、装着者が左方向を向いたときには、インフォメーションベルト100上の左脇の表示オブジェクト102〜107などが表示されるようになる。これらの表示を行うために、動き解析部26では、図4のフローチャートで説明した移動量の計算処理が行われる。但し、装着者が歩行中である場合には、コントローラ21は、この頭部の動きによる表示範囲の変更を行わないように制御する。この歩行中の処理の詳細は後述する。
また、ヘッドマウントディスプレイ10がインフォメーションベルト100を表示した状態では、図6に示すように、装着者の手指fの動きによるジェスチャーで、表示内容や位置を変更する操作が行われる。この操作を行うためのジェスチャーの判別処理が、図3に示した画像解析部25での解析で行われる。ジェスチャーの具体的な例については後述する。
[7.インフォメーションベルトの座標設定例]
図7は、装着者の頭部の動きに連動して、インフォメーションベルト100の表示座標が変化する処理の例を示すフローチャートである。
コントローラ21は、図4のフローチャートで説明した相対移動量のデータを取得する(ステップS41)。このとき、コントローラ21は、仮想オブジェクトリスト200内のそれぞれの表示オブジェクトの座標データに、ステップS41で取得した相対移動量を加算する(ステップS42)。
この仮想オブジェクトリスト200内のそれぞれの表示オブジェクトの座標データが変更されることで、コントローラ21の指示で画像描画部22が描画する画像についても、対応した座標位置に配置された表示オブジェクトを描画した画像になる。
なお、このインフォメーションベルト内の表示範囲を移動させる処理は、図5のフローチャートで説明した歩行検知フラグが「false」の値のときだけ行われ、歩行検知フラグが「true」の場合には行われない。この歩行検知フラグによる制御例は、次の図8のフローチャートで説明する。
[8.インフォメーションベルトを表示した際の制御例]
図8は、ヘッドマウントディスプレイ10がインフォメーションベルト100を表示した状態でのコントローラ21による制御例を示すフローチャートである。
まず、コントローラ21は、モーションセンサ16の出力による動きの解析を動き解析部26で実行させ、その解析結果を取得する(ステップS31)。そして、コントローラ21は、歩行検知フラグが「true」の値か、あるいは「false」の値であるかを判断する(ステップS32)。
この判断で装着者が歩行中であり、歩行検知フラグが「true」の値である場合には、コントローラ21は、インフォメーションベルト100を、正面の表示オブジェクト101を表示した状態に固定する(ステップS33)。このインフォメーションベルト100を固定した状態では、装着者の頭部の水平方向の動きがあっても、コントローラ21は、その動きに連動した表示範囲の変更処理は行わない。
また、ステップS32の判断で、装着者が歩行中でなく、歩行検知フラグが「false」の値である場合には、コントローラ21は、動き解析部26で頭部の水平方向と垂直方向の向きの変化を検出したか否かを判断する(ステップS34)。この判断で頭部の水平方向と垂直方向の少なくともいずれかの方向の変化を検出した場合には、コントローラ21は、仮想空間上の表示オブジェクトの配置座標を固定した上で、検出した動きの角度に対応した座標の変更処理を行う。水平方向の動きと垂直方向の動きを同時に検出した場合には、水平方向と垂直方向の2つの動きに対応した座標の変更処理を行う。この座標の変更処理が行われることで、コントローラ21が画像描画部22に対して指示する描画範囲が対応して変更され、インフォメーションベルト100が移動する(ステップS35)。
そして、ステップS33でインフォメーションベルト100を固定した処理を行った後と、ステップS35でインフォメーションベルト100を移動させた処理を行った後と、ステップS34で頭部の水平方向と垂直方向の向きの変化がない場合には、コントローラ21は、ステップS31の解析結果の取得処理に戻る。
[9.歩行時のインフォメーションベルトの表示イメージ例]
図9は、歩行時のインフォメーションベルト100の表示イメージを示す。
図9の左側に示すように、装着者が立ち止まっている場合には、インフォメーションベルト100が周囲の空間に対して固定された状態になる。つまり、仮想空間の表示オブジェクトの配置座標が固定された状態である。このときには、装着者の頭部の回転やジェスチャーでの指示に基づいて、インフォメーションベルト100の表示を行う座標位置が変化して、ヘッドマウントディスプレイ10は、任意の位置に配置された表示オブジェクトを表示することができる。なお、装着者が立ち止まっている状態での頭部の回転には、体の向きを固定した状態で頭部だけを回転させる場合と、体と頭部が一体となって向きを変えて回転させる場合とがあるが、いずれの状態での頭部の回転があった場合でも、その回転に応じてインフォメーションベルト100の表示を行う座標位置が変化して、表示範囲が変化する。
これに対して、装着者が歩行している間には、装着者の頭部に対するインフォメーションベルト100の座標位置が固定される。したがって、歩行中には、装着者の頭部が左右に動いたとしても、ヘッドマウントディスプレイ10が表示する表示オブジェクトが変化しない。
なお、装着者が歩行している間には、インフォメーションベルト100の座標位置を固定して、ヘッドマウントディスプレイ10が表示する表示オブジェクトとして、例えば歩行中の装着者を支援する案内画像を表示するようにしてもよい。この歩行中の装着者を支援する案内画像としては、歩行中の箇所の周囲の地図や、周囲の状況などを説明する画像などが考えられる。
[10.ジェスチャー判定例]
図10は、ジェスチャー判定を行う場合の例を示すフローチャートである。
コントローラ21は、画像解析部25内のジェスチャー解析部254(図3)でジェスチャーを判別したか否かを判断する(ステップS51)。ここで、ジェスチャーを判別しない場合には、コントローラ21は、ジェスチャーを判定するまで待機する。そして、コントローラ21は、判別したジェスチャーが予め決められた特定種類のジェスチャーか否かを判断する(ステップS52)。ここで、予め決められた特定種類のジェスチャーである場合には、コントローラ21は、そのジェスチャーの指示の実行を許可する(ステップS53)。また、ステップS52の判断で、予め決められた特定種類のジェスチャーでない場合には、コントローラ21は、ステップS51の判断に戻る。
ステップS53で実行を許可する特定種類のジェスチャーとしては、例えば、インフォメーションベルト100全体を回転させるジェスチャーや、表示中の表示オブジェクトの配置位置を移動させるジェスチャーなど、様々なジェスチャーが想定される。
[11.ジェスチャーによる操作例]
図11〜図13は、装着者の手指の動きによるジェスチャーで、インフォメーションベルト100内の表示オブジェクトの操作を行う例を示す。図11〜図13は、いずれも装着者の眼から見た状態を示す。なお、図11〜図13の例では、説明のために手指を手前の位置に示すが、画像の表示状態によっては、装着者から見て、表示画像が手指よりも手前に見える場合がある。
図11の例は、インフォメーションベルト100内の表示オブジェクト121が正面に表示された状態を示す。図11に示す表示オブジェクト121は、歩行中の装着者の目的地へのルートを説明する案内画像の例である。また、表示オブジェクト121には、SNSやメールの着信などの装着者への告知を示す文字が含まれる。
この例では、装着者の視野範囲には、表示オブジェクト121以外のその他の表示オブジェクトも配置されているが、表示オブジェクト121を除く表示オブジェクトは、例えば輝度を落とした半透明状態で表示される。
この状態で、例えば装着者は、5本の指を伸ばした状態の手指f1を水平方向又は垂直方向に動かすジェスチャーを行ったとする。
このとき、その手指f1の動きM1に連動して、インフォメーションベルト100全体の表示座標が変化する。例えば、手指f1を水平に動かしたとき、その水平の手指f1の動きに連動して、水平方向にインフォメーションベルト100全体の表示座標が変化する。
図12の例は、インフォメーションベルト100内の表示オブジェクト121が正面に表示された状態で、装着者が2本の指を伸ばした手指f2の形状と動きM2で、その手指f2の位置と重なった位置の表示オブジェクト121の移動拡大又は縮小を指示するジェスチャーを行ったとする。このとき、表示オブジェクト121は、拡大された表示状態又は縮小された表示状態となる。
図13の例は、インフォメーションベルト100内のそれぞれの表示オブジェクトが、左上にボタンを表示する。例えば、表示オブジェクト121は、ボタン121aを表示する。この状態で、装着者は、手指f3で、その表示オブジェクト121のボタン121aを押すジェスチャーを行う。このとき、その押されたボタン121aの表示オブジェクト121が選ばれ、その表示オブジェクト121が手指f3の動きでインフォメーションベルト100内の任意の位置に移動させることができる。
ここでは、表示オブジェクトを移動させる例としたが、例えばボタン121aが押されるジェスチャーにより、その表示オブジェクトが手前に表示されたり、あるいは、ボタンが押された際に、該当する表示オブジェクトがインフォメーションベルト100から消去される等のその他の処理が行われるようにしてもよい。
この図11〜図13に示すジェスチャーは、多数用意されたジェスチャーの内の3つの例を示すものである。この3つの例以外のジェスチャーにより、表示オブジェクトの移動、選択、変形などの様々な指示を行うようにしてもよい。
[12.変形例]
なお、各図に示すヘッドマウントディスプレイの形状や構成は、一例を示すものであり、本発明は、各図に示すヘッドマウントディスプレイとは異なる形状や構成のものに適用してもよい。例えば、図1に示すヘッドマウントディスプレイ10では、左右の眼に対応した2つの表示部14,15を備える構成としたが、1つの表示部だけを備えたヘッドマウントディスプレイに本発明を適用してもよい。
また、上述した実施の形態では、ユーザの周囲に複数の画像を配置する例として、図6のインフォメーションベルト100の例を示した。このインフォメーションベルト100のような仮想的な表示オブジェクトの配置状態は一例を示すものであり、その他の配置状態を適用してもよい。例えば、ユーザの周囲に半球状に表示オブジェクトを配置するようにしてもよい。
また、上述した実施の形態では、表示部14,15が表示する画像は、画像メモリ23が記憶したデータから作成した画像としたが、例えばヘッドマウントディスプレイ10が受信部を備えて、外部から伝送された画像をヘッドマウントディスプレイ10が表示してもよい。
また、上述した実施の形態では、表示部はハーフミラー上に画像を表示する構成とし、外界光が透過した状態で画像を表示するヘッドマウントディスプレイとした例を示した。これに対して、例えば表示部は、外界光が透過しない状態で、表示を行うようにしてもよい。この場合には、例えばカメラが撮影した周囲の状況の画像を、表示画像に重畳することで、外界光が透過した状態で画像を表示する表示部とほぼ同様の表示が可能になる。
また、表示部として、画像を表示する表示パネルを備えた表示部とは異なるものを適用してもよい。例えば、装着者の眼の網膜上に、画像を投射する投射型の表示部を備えたヘッドマウントディスプレイに適用してもよい。
10…ヘッドマウントディスプレイ、11…フレーム、12…左ハーフミラー、13…右ハーフミラー、14…左表示部、15…右表示部、16…モーションセンサ、17…カメラ、20…アダプタ、21…コントローラ、22…画像描画部、23…画像メモリ、24…操作部、25…画像解析部、26…動き解析部、27…ケーブル、100…インフォメーションベルト、101〜107,111〜114,121…表示オブジェクト、251…フレーム取得部、252…指先座標検出部、253…座標履歴記憶部、254…ジェスチャー解析部、255…基準座標設定部、256…座標変換部、257…表示座標設定部

Claims (7)

  1. 表示された画像が装着者の眼で認識可能な表示部と、
    前記装着者の周囲の仮想空間に配置された複数の表示オブジェクトを描画し、前記表示部に表示させる画像描画部と、
    前記装着者の動きを検出するモーションセンサと、
    前記モーションセンサの出力に基づいて、前記装着者が歩行中であることを検出したとき、前記表示部に表示される表示オブジェクトを、前記仮想空間の特定の範囲に配置された表示オブジェクトに固定し、前記装着者が歩行中でないことを検出したとき、前記仮想空間における前記複数の表示オブジェクトの配置座標が固定されるように、前記モーションセンサが検出した前記装着者の頭部の動きに連動して前記表示部に表示される表示オブジェクトを変更するコントローラと、
    を備えるヘッドマウントディスプレイ。
  2. 前記表示部は、外界光が透過した状態で画像を表示する
    請求項1に記載のヘッドマウントディスプレイ。
  3. さらに、前記装着者の周囲を撮影するカメラと、
    前記カメラが撮影した画像から、前記装着者の手又は指の動きによるジェスチャーを検出する画像解析部と、を備え、
    前記コントローラは、前記画像解析部が検出したジェスチャーに応じて、そのジェスチャーに割り当てられた機能を実行することで、記表示部に表示される表示オブジェクトの選択又は変更を指示すると共に、前記モーションセンサの出力に基づいて、前記装着者が歩行中であることを検出したとき、前記ジェスチャーによる表示オブジェクトの選択又は変更を制限する
    請求項1又は2に記載のヘッドマウントディスプレイ。
  4. 前記コントローラは、前記画像の選択又は変更を制限する処理として、前記画像解析部が検出したジェスチャーの内で、特定のジェスチャーに割り当てられた機能だけを実行し、特定のジェスチャー以外のジェスチャーに割り当てられた機能を実行しないようにした
    請求項3に記載のヘッドマウントディスプレイ。
  5. 前記コントローラは、前記装着者が歩行中であることを検出したとき、前記表示部に表示される表示オブジェクトは、歩行中の前記装着者を支援する案内画像の表示オブジェクトとした
    請求項1〜4のいずれか1項に記載のヘッドマウントディスプレイ。
  6. 装着者の眼で認識可能な画像を表示するヘッドマウントディスプレイを使用して画像表示を行う画像表示方法において、
    前記装着者の周囲の仮想空間に配置された複数の表示オブジェクトを描画し、描画した画像を前記ヘッドマウントディスプレイで表示させる描画処理ステップと、
    前記装着者の動きを検出する動き検出処理ステップと、
    前記動き検出処理で前記装着者が歩行中であることを検出したとき、表示部に表示される表示オブジェクトを、前記仮想空間の特定の範囲に配置された表示オブジェクトに固定し、前記装着者が歩行中でないことを検出したとき、前記仮想空間における前記複数の表示オブジェクトの配置座標が固定されるように、前記動き検出処理ステップで検出した前記装着者の頭部の動きに連動して前記表示部に表示される表示オブジェクトを変更する制御処理ステップと、
    を含む画像表示方法。
  7. 装着者の眼で認識可能な画像を表示するヘッドマウントディスプレイに、画像を表示させる処理を情報処理装置に実行させるプログラムであって、
    前記装着者の周囲の仮想空間に配置された複数の表示オブジェクトを描画し、描画した画像を前記ヘッドマウントディスプレイで表示させる手順と、
    前記装着者の動きを検出する手順と、
    前記動きを検出する手順で前記装着者が歩行中であることを検出したとき、表示部に表示される表示オブジェクトを、前記仮想空間の特定の範囲に配置された表示オブジェクトに固定し、前記装着者が歩行中でないことを検出したとき、前記仮想空間における前記複数の表示オブジェクトの配置座標が固定されるように、前記動きを検出する手順で検出した前記装着者の頭部の動きに連動して前記表示部に表示される表示オブジェクトを変更する手順と、
    を情報処理装置に実行させるプログラム。
JP2014212248A 2014-10-17 2014-10-17 ヘッドマウントディスプレイ、画像表示方法及びプログラム Active JP6399692B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014212248A JP6399692B2 (ja) 2014-10-17 2014-10-17 ヘッドマウントディスプレイ、画像表示方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014212248A JP6399692B2 (ja) 2014-10-17 2014-10-17 ヘッドマウントディスプレイ、画像表示方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016082411A JP2016082411A (ja) 2016-05-16
JP6399692B2 true JP6399692B2 (ja) 2018-10-03

Family

ID=55959223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014212248A Active JP6399692B2 (ja) 2014-10-17 2014-10-17 ヘッドマウントディスプレイ、画像表示方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6399692B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6207685B1 (ja) * 2016-07-25 2017-10-04 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
US9971157B2 (en) 2016-07-25 2018-05-15 Colopl, Inc. Display control method and system for executing the display control method
US10665206B2 (en) 2018-07-30 2020-05-26 Honeywell International Inc. Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance
WO2020059028A1 (ja) * 2018-09-18 2020-03-26 マクセル株式会社 ヘッドマウントディスプレイ及びオブジェクトの表示方法
KR20200039195A (ko) * 2018-10-05 2020-04-16 최해용 접이식 가상현실 디스플레이 장치
WO2020166582A1 (ja) 2019-02-15 2020-08-20 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
JP7247636B2 (ja) * 2019-02-15 2023-03-29 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
WO2023026798A1 (ja) * 2021-08-23 2023-03-02 株式会社Nttドコモ 表示制御装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090040233A1 (en) * 2004-06-10 2009-02-12 Kakuya Yamamoto Wearable Type Information Presentation Device
JP5036177B2 (ja) * 2005-12-12 2012-09-26 オリンパス株式会社 情報表示装置
JP5228305B2 (ja) * 2006-09-08 2013-07-03 ソニー株式会社 表示装置、表示方法
JP2011091789A (ja) * 2009-09-24 2011-05-06 Brother Industries Ltd ヘッドマウントディスプレイ
JP2013025220A (ja) * 2011-07-25 2013-02-04 Nec Corp 安全確保システム、装置、方法及びプログラム
JP6051522B2 (ja) * 2011-12-28 2016-12-27 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5990998B2 (ja) * 2012-04-23 2016-09-14 セイコーエプソン株式会社 虚像表示装置
JP2014106445A (ja) * 2012-11-29 2014-06-09 Toshiba Corp 電子機器および表示制御方法
CN104246864B (zh) * 2013-02-22 2016-06-29 索尼公司 头戴式显示器和图像显示装置

Also Published As

Publication number Publication date
JP2016082411A (ja) 2016-05-16

Similar Documents

Publication Publication Date Title
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
US10664950B2 (en) Information processing method and system for executing the information processing method
US10438411B2 (en) Display control method for displaying a virtual reality menu and system for executing the display control method
US11835727B2 (en) Information processing apparatus and information processing method for controlling gesture operations based on postures of user
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP2018072992A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP6220937B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
WO2017122270A1 (ja) 画像表示装置
KR20130018004A (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
JP6227732B1 (ja) 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム
JP6446465B2 (ja) 入出力装置、入出力プログラム、および入出力方法
JP2019040303A (ja) ヘッドマウントデバイスを介して仮想空間をユーザに提供するための方法、プログラム及びコンピュータ
JP2018049629A (ja) 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム
JP6535699B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
KR20180060403A (ko) 영상 기반의 드론 제어장치
JP6966336B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020154792A (ja) 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法
JP7300569B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2018029969A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP7492497B2 (ja) プログラム、情報処理方法、及び情報処理装置
WO2022208612A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法
JP6941130B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP6876639B2 (ja) 表示制御装置、表示制御方法及びプログラム
WO2022208600A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180903

R150 Certificate of patent or registration of utility model

Ref document number: 6399692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150