JP6051522B2 - ヘッドマウントディスプレイ - Google Patents

ヘッドマウントディスプレイ Download PDF

Info

Publication number
JP6051522B2
JP6051522B2 JP2011288148A JP2011288148A JP6051522B2 JP 6051522 B2 JP6051522 B2 JP 6051522B2 JP 2011288148 A JP2011288148 A JP 2011288148A JP 2011288148 A JP2011288148 A JP 2011288148A JP 6051522 B2 JP6051522 B2 JP 6051522B2
Authority
JP
Japan
Prior art keywords
user
content
moving
image
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011288148A
Other languages
English (en)
Other versions
JP2013137413A (ja
Inventor
邦宏 伊藤
邦宏 伊藤
範巳 安江
範巳 安江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2011288148A priority Critical patent/JP6051522B2/ja
Publication of JP2013137413A publication Critical patent/JP2013137413A/ja
Application granted granted Critical
Publication of JP6051522B2 publication Critical patent/JP6051522B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、ユーザの頭部に装着される投影装置、および投影装置を制御する制御装置を備えたヘッドマウントディスプレイに関する。
ユーザの頭部に装着され、ユーザの網膜に画像光を投影することによって画像を認識させる投影装置と、投影装置を制御する制御装置とを備えたヘッドマウントディスプレイが知られている。このようなヘッドマウントディスプレイのうち、投影装置がシースルー方式で駆動するヘッドマウントディスプレイは、ユーザの眼前の景色に表示画像を重ねることで、眼前の景色と表示画像とを同時にユーザに認識させることができる。
しかしながら、投影装置を介してユーザに認識させた表示画像が、ユーザの行動の妨げになる場合がある。例えば、歩行中のユーザの眼前の景色に重ねた表示画像が、眼前にある障害物を見にくくしてしまう可能性があり、ユーザは障害物を認識できず、障害物を回避できない場合がある。これに対し、ユーザの歩行状態に応じて表示画像をユーザに認識させるか否かを切り替える技術(例えば特許文献1参照)を適用し、ユーザが歩行中である場合には画像光を投影しないことによって、ユーザに認識させた表示画像が行動の妨げになることを抑止できる。
特開平9−211382号公報
しかしながら、歩行中のユーザに対して表示画像を認識させたい場合もある。例えば、ユーザを目的地に導くためのナビゲーションシステムにヘッドマウントディスプレイが適用される場合、歩行中のユーザに、行き先を案内するための案内画像を認識させる必要があるが、上述の技術が用いられた場合、ユーザが歩行中である場合に画像光は網膜に投影されないので、歩行中のユーザに案内画像を認識させることができない。従って、歩行中のユーザが必要とする情報を提供できないという問題点がある。
本発明の目的は、ユーザの行動を妨げることなく、且つ、ユーザが必要とする画像をユーザに提供するヘッドマウントディスプレイを提供することにある。
上記目的を達成するために、本発明のヘッドマウントディスプレイは、外景を視認可能なシースルー型のヘッドマウントディスプレイであって、ユーザの網膜上に画像信号に応じた画像光を投影表示する投影装置と、前記投影装置を制御する制御装置とを備え、前記投影装置の動きを少なくとも検出し、検出された動きに応じて、現実の環境の少なくとも一部に対応して、または、関連付けられて提示される表示画像を表示させることが可能なヘッドマウントディスプレイであって、前記表示画像が、前記ユーザが移動中にも利用することを想定しているARコンテンツであるか、又は、前記表示画像が、前記ユーザが移動中にも利用することを想定しているARコンテンツでないかを判定する判定手段と、前記投影装置を装着した前記ユーザが移動中であるか否かを特定する移動状態特定手段と、前記移動状態特定手段によって前記ユーザが移動中であると特定された場合において、前記判定手段によって、前記ユーザが移動中にも利用することを想定しているARコンテンツでないと判定された場合には、前記網膜上への前記画像光の投影表示が制限され、前記ユーザが移動中にも利用することを想定しているARコンテンツであると判定された場合には投影表示の制限を行わないように前記投影装置を制御する制御手段とを備えている。
本発明によれば、ヘッドマウントディスプレイは、ユーザが移動中である場合且つARコンテンツでない場合、網膜に画像光を投影することを制限できる。この場合、網膜に投影した画像光がユーザの移動の障害となることが抑止されるので、ユーザは投影装置を安全に使用できる。なお、ARコンテンツである場合、従来通り、ユーザが移動中であっても画像光はユーザの網膜に投影されるので、ヘッドマウントディスプレイは、移動中のユーザが必要とする情報を、適切にユーザに認識させることができる。
本発明において、前記判定手段は、前記表示画像を表示するための所定のプログラムの起動状態に基づいて、前記ユーザが移動中にも利用することを想定しているARコンテンツであるか否かを判定してもよい。これによってヘッドマウントディスプレイは、ARコンテンツであるか否かを容易に特定できる。
本発明において、前記判定手段は、前記表示画像を表示するか否かを示す情報が、前記画像信号または画像信号に関連する情報に予め対応づけられて記憶された記憶手段を参照することによって、前記ユーザが移動中にも利用することを想定しているARコンテンツであるか否かを判定してもよい。これによってヘッドマウントディスプレイは、ARコンテンツであるか否かを容易に特定できる。
本発明において、前記判定手段は、前記ユーザから受け付けた指示に基づいて、前記ユーザが移動中にも利用することを想定しているARコンテンツであるか否かを判定してもよい。これによってヘッドマウントディスプレイは、ARコンテンツであるか否かを容易に特定できる。


本発明において、前記移動状態特定手段は、前記ユーザの頭部の動きを検出するセンサ、および胴部の動きを検出するセンサの少なくとも一方に基づいて、前記ユーザが移動中であるか否かを特定してもよい。これによってヘッドマウントディスプレイは、ユーザが移動中であるか否かを適切に特定できる。


本発明において、前記制御装置は、前記ユーザの胴部に装着され、前記胴部の動きを検出するセンサは、前記制御装置に設けられており、前記移動状態特定手段は、検出された前記胴部の動きに基づいて、前記ユーザが移動中であるか否かを特定してもよい。これによってヘッドマウントディスプレイは、胴部のセンサをユーザに容易に取り付けることができる。
本発明において、前記投影装置は、前記ユーザの頭部に装着され、前記頭部の動きを検出するセンサは、前記投影装置に設けられており、前記移動状態特定手段は、検出された前記頭部の動きより前記ユーザの位置の情報を抽出し、その位置の情報に基づいて、前記ユーザが移動中であるか否かを特定してもよい。これによってヘッドマウントディスプレイは、ユーザが移動中であるか否かを高い精度で特定できる。
ヘッドマウントディスプレイ5の概要を示す図である。 ヘッドマウントディスプレイ5の電気的構成を示すブロック図である。 テーブル141を示す模式図である。 メイン処理を示すフローチャートである。
以下、本発明の一実施形態について、図面を参照して説明する。これらの図面は、本発明が採用しうる技術的特徴を説明するために用いられるものである。記載されている装置の構成、各種処理のフローチャート等は、それのみに限定する趣旨ではなく、単なる説明例である。
図1を参照し、ヘッドマウントディスプレイ5の概要について説明する。ヘッドマウントディスプレイ5は、投影装置200および制御装置100を備えている。投影装置200は、ユーザの眼鏡220に装着されて使用される。投影装置200は、ユーザの眼の近傍から瞳孔に向けて光を照射することで、ユーザに画像を認識させることができる。制御装置100は、ユーザの腰部に取り付けられる。制御装置100は、投影装置200を制御する。制御装置100は、ケーブル190を介して投影装置200と着脱可能に接続される。
投影装置200は、出射装置210およびハーフミラー250を備えている。出射装置210は、ユーザに認識させる画像を示す画像信号を制御装置100から受信し、受信した画像信号に応じて、画像光を生成する。生成された画像光は、出射装置210からハーフミラー250に向けて出力される。ハーフミラー250は、出射装置210から出力された画像光を、ユーザの瞳孔に向かって反射させる。ハーフミラー250は、所定の反射率(例えば50%)を有している。ハーフミラー250は、外界からの外光の一部を透過させてユーザの瞳孔に導く。つまりハーフミラー250は、ユーザの側方から入射した画像光と、外界からの外光とを、ユーザの瞳孔に導く。これによってユーザは、実際の視界にある外景と、画像信号に応じた画像光に基づく画像とを認識することが可能となる。なお、ハーフミラー250はプリズムであってもよい。出射装置210は、眼鏡220と一体となっていてもよい。
制御装置100は、ケーブル190を介して出射装置210に実際にユーザに表示する表示用画像信号や指示信号を送信する。これによって制御装置100は、出射装置210から出力される画像光を制御する。制御装置100は、図示しないPCと接続するためのコネクタ207を備えている。コネクタ207として、例えばUSB(登録商標)コネクタが挙げられる。ユーザは、PCを操作することで、PCと接続した制御装置100に操作に対応した新たな表示画像を示す画像信号を入力させることができる。
なお上述の構成は一例であり、他の構成であってもよい。例えば、投影装置200と制御装置100とは光ファイバーケーブルによって接続されてもよい。制御装置100は、画像信号に応じた強度のレーザ光をRGB各色毎に出射し、それを合波して画像光とし、光ファイバーケーブルを介して投影装置200に出力してもよい。投影装置200は、制御装置100から出力された画像光を走査ミラーなどで2次元方向に走査したうえでハーフミラー250に出力してもよい。
図2を参照し、ヘッドマウントディスプレイ5が備える制御装置100および投影装置200の電気的構成について説明する。制御装置100は、CPU11、RAM12、フラッシュROM13、プログラムROM14、画像処理部15、インタフェース(以下「I/F」という)コントローラ16、ビデオRAM17、周辺I/F18、モーションセンサ19、およびI/Fコントローラ22を備えている。
CPU11は、プログラムROM14に記憶された各種プログラムを読み出すことで、メイン処理(図4参照、後述)を実行する。RAM12には、CPU11が処理を実行するために必要なデータが一時的に記憶される。フラッシュROM13には、テーブル141(図3参照、後述)等が記憶される。I/Fコントローラ22は、PCとデータの送受信を行うためのデバイスである。ビデオRAM17は、I/Fコントローラ22を介してPCから受信した画像データを一時的に記憶する。画像処理部15は、ビデオRAM17に記憶された画像データに基づき、投影装置200を介してユーザに認識させる表示画像の画像データを生成する。I/Fコントローラ16は、画像処理部15において生成された画像データを読み出し、表示用画像信号として、ケーブル190(図1参照)を介して投影装置200に送信するためのデバイスである。周辺I/F18は、モーションセンサ19とCPU11との間でデータや制御信号を伝達するためのデバイスである。モーションセンサ19は、制御装置100に加わる加速度を検出する加速度センサである。
投影装置200は、CPU31、RAM32、プログラムROM33、周辺I/F34、モーションセンサ35、カメラ36、画像表示部37、およびI/Fコントローラ39を備えている。
CPU31は、RAM32、ROM33と共同して、該ROM33に記憶されたプログラムに基づいて、図示しない投影装置200に設けられた各種スィッチによる指示やI/Fコントローラ39で受信した制御装置100からの指示信号に応じて、画像表示部37を制御する。RAM32は、CPU31が処理を実行するために必要なデータが一時的に記憶される。周辺I/F34は、モーションセンサ35およびカメラ36とCPU31との間でデータや制御信号を伝達するためのデバイスである。モーションセンサ35は、投影装置200に加わる加速度を検出するための加速度センサである。カメラ36は、周知の撮像素子である。画像表示部37は、I/Fコントローラ39を介して入力された表示用画像信号に基づいて、CPU31の指示の基で画像光をハーフミラー250に向けて出力する。I/Fコントローラ39は、ケーブル190を介して制御装置100から画像信号や画像表示部37などに関する各種指示信号を受信するためのデバイスである。
一般的なヘッドマウントディスプレイの動作の概要について説明する。ヘッドマウントディスプレイの応用例として、拡張現実(Augmented Reality、以下ARという)コンテンツを表示する場合がある。この場合のヘッドマウントディスプレイは、該ヘッドマウントディスプレイの位置や向きの情報を検出できる手段を備えている必要がある。ARコンテンツは、現実の環境の少なくとも一部に対応して、または、関連付けられた付加情報(付加画像)として合成提示される、バーチャルな電子情報(表示画像)である。ARコンテンツは、現実の環境中の特定の物体に関する説明や関連情報を含み、説明対象となる実物体に対応づけてその近くに提示される。このため、ヘッドマウントディスプレイがARコンテンツを表示する場合、ヘッドマウントディスプレイの動きに応じて表示内容や表示位置を決めたり補正したりすることによって、表示内容や表示位置を実物体に追従させる処理が実行されることになる。以下、この補正を「表示補正」ともいう。ARコンテンツの一例として、道案内情報が挙げられる。例えばARコンテンツとして道案内情報を示す画像の画像光をユーザの網膜に投影し、ユーザに道案内情報を認識させる場合を想定する。この場合、ユーザが移動中にも利用することを想定しているので、ヘッドマウントディスプレイは、ユーザが移動しているか否かに関わらず、画像表示の表示を継続することが好ましい。尚、ARコンテンツの別の一例として、実空間上に、仮想の物体等の表示を行い、其の合成空間上で、其の物体等を操作して楽しむVR(バーチャルリアリティ)型ゲームなども挙げられる。
ARコンテンツを表示可能なヘッドマウントディスプレイであっても、ARコンテンツ以外の画像を表示できるようにすることが望ましい。例えばユーザが移動中(歩行中や、自動車および自転車で移動中など)である場合に、ヘッドマウントディスプレイがARコンテンツ以外の画像をユーザの網膜に投影し、ユーザに画像を認識させたとする。移動方向に障害物等が存在し、この障害物に画像が重なってしまった場合、ユーザは障害物を認識しにくくなる。このような場合、ユーザは障害物等と衝突してしまう可能性などがあり、危険である。従ってヘッドマウントディスプレイは、ユーザが移動中である場合には、ARコンテンツ以外の画像をユーザに認識させないことが好ましい。
そこで本発明のヘッドマウントディスプレイ5は、ユーザが移動している場合には、ARコンテンツ以外のコンテンツ(例えば、通常のPCやビデオ機器から入力される映像信号など)の出力を制限し、ユーザにコンテンツを認識させないようにする。これによってヘッドマウントディスプレイ5は、出力した画像光がユーザの移動の障害となることを抑止できる。従ってユーザは、ヘッドマウントディスプレイ5を安全に使用することができる。以上のようにヘッドマウントディスプレイ5は、ユーザの動作状態、および、ARコンテンツを表示するか否かに応じて、画像光を出力するか否かを切り替え、適切な画像を適切なタイミングでユーザに認識させることができる。
ユーザの動作状態を特定する方法について詳細に説明する。制御装置100のCPU11は、制御装置100に設けられたモーションセンサ19、および、投影装置200に設けられたモーションセンサ35によって検出される加速度に基づき、テーブル141(図3参照)を参照することによって、ユーザの動作状態を特定する。具体的には以下の通りである。
CPU11は、モーションセンサ19によって検出された加速度を、周辺I/F18を介して取得する。またCPU11は、モーションセンサ35によって検出された加速度を、ケーブル190を介して投影装置200から取得する。通常は、この取得した加速度に、積分などの処理を施し、速度を算出し、この速度を使用して判断を行う。CPU11は、モーションセンサ35によって検出された加速度から算出した速度と、所定の第一閾値とを比較することによって、投影装置200が取り付けられたユーザの頭部の動きの大きさを判断する。またCPU11は、モーションセンサ19によって検出された加速度から算出した速度と、所定の第二閾値とを比較することによって、制御装置100が取り付けられたユーザの腰部の動きの大きさを判断する。算出された速度が閾値よりも大きい場合、頭部または腰部の動きは大きいと判断され、算出された速度が閾値以下である場合、頭部又は腰部の動きは小さいと判断される。
図3は、フラッシュROM13に記憶されたテーブル141を示している。上述のようにして判断された頭部および腰部の動きの大きさが、テーブル141に適用される。具体的には次の通りである。例えば、頭部および腰部の動きが大きいと判断された場合、双方に対応する「移動中」がユーザの動作状態として特定される。ユーザの移動中には、頭部及び腰部は大きく動き、双方の速度が大きくなるためである。また例えば、頭部の動きが大きく、腰部の動きが小さいと判断された場合、双方に対応する「首振り状態」がユーザの動作状態として特定される。ユーザが止まった状態で首を上下左右に動かした場合、頭部の動きのみ大きくなり、腰部の動きは小さい状態で維持されるためである。また例えば、頭部および腰部の動きが小さいと判断された場合、双方に対応する「静止状態」がユーザの動作状態として特定される。
このようにCPU11は、ユーザの頭部の動きを検出するモーションセンサ35、および、ユーザの腰部の動きを検出するモーションセンサ19によって検出された動きに基づいて、ユーザの動作状態を「移動中」「首振り状態」「静止状態」の何れかに特定することができる。従ってCPU11は、ユーザの動作状態を正確かつ詳細に特定できる。
なおヘッドマウントディスプレイ5は、ユーザの動作状態を「移動中」と特定した場合、ARコンテンツの画像光をそのまま継続して出力するが、ARコンテンツ以外のコンテンツの画像光であれば、その出力を制限するものである。またヘッドマウントディスプレイ5は、ユーザの移動状態を「首振り状態」「静止状態」と特定した場合は、画像光を出力しても危険は無いと考えられるので、ARコンテンツであるか否かに関わらず画像光を出力する。このようにヘッドマウントディスプレイ5は、ARコンテンツであるか否かの判断と、ユーザの動作状態を正確かつ詳細に特定することによって、適切な画像を必要に応じてユーザに提供することができる。
図4を参照し、制御装置100のCPU11によって実行されるメイン処理について説明する。メイン処理は、ヘッドマウントディスプレイ5に対してユーザがプログラムを起動する指示を入力した場合に、CPU11において起動され実行される。プログラムは、特定の情報をユーザに提供する処理をCPU11が実行するためのものである。一例として、道案内情報をユーザに提供する道案内プログラム、移動中のユーザに危険物を通知する危険物通知プログラム、メンテナンス情報を作業者に通知するメンテナンス情報通知プログラム、医者の手術や治療を補助する医療補助プログラム等が挙げられる。ユーザは、ヘッドマウントディスプレイ5の用途に応じて、実行を指示するプログラムを選択することになる。
メイン処理が開始されると、CPU11は、はじめにモーションセンサ19、35(図2参照)によって検出された加速度を取得する(S11)。CPU11は、テーブル141(図3参照)を参照することによって、ユーザの動作状態を特定する(S13、S15)。CPU11は、モーションセンサ35によって検出された投影装置200の加速度に基づき、ユーザの頭部の動きが大きいかを判断する(S13)。検出された加速度から算出された速度が第一閾値以下である場合、投影装置200の動きは小さいので、CPU11は、ユーザの頭部の動きが小さいと判断する(S13:NO)。CPU11は、テーブル141に基づいてユーザの動作状態を「静止状態」と特定する。この場合、ユーザは移動していないため、ユーザに認識させた画像がユーザの移動の障害になることはない。CPU11は、ARコンテンツであるか否かにかかわらず、画像をユーザに認識させるために、投影装置200を制御して画像光を出力させる(S25)。具体的には以下の通りである。
ビデオRAM17に記憶された画像データに基づき、制御装置100の画像処理部15等において実際にユーザに表示する表示用画像信号が生成される。生成された表示用画像信号が、ケーブル190(図1参照)を介して投影装置200に送信される。投影装置200は、制御装置100から受信した表示用画像信号を所定のタイミングで画像表示部37(図2参照)へ出力し、表示用画像信号に基づく画像光が、画像表示部37から出力される。これによって移動中でないユーザは、様々な表示画像を認識できる。処理はS27に進む。
一方、モーションセンサ35によって検出された加速度から算出された速度が第一閾値よりも大きい場合、投影装置200の動きは大きいので、CPU11は、ユーザの頭部の動きが大きいと判断する(S13:YES)。次にCPU11は、モーションセンサ19によって検出された加速度から算出された速度に基づき、ユーザの腰部の動きが大きいかを判断する(S15)。検出された加速度から算出された速度が、第二閾値以下である場合、制御装置100の動きは小さいので、CPU11は、ユーザの腰部の動きが小さいと判断する(S15:NO)。CPU11は、テーブル141に基づいてユーザの動作状態を「首振り状態」と特定する。この場合、ユーザは視点を移動させているのみで移動していないことになるので、ユーザに認識させた画像がユーザの移動の障害になることはない。CPU11は、表示画像がARコンテンツであるか否かにかかわらず、表示画像をユーザに認識させるために、投影装置200を制御して画像光を出力させる(S25)。これによって、頭部が動いていても、静止している状態のユーザは、様々な表示画像を認識できる。処理はS27に進む。
他方、モーションセンサ35によって検出された加速度から算出された速度が、第二閾値よりも大きい場合、制御装置100の動きは大きいので、CPU11は、ユーザの腰部の動きが大きいと判断する(S15:YES)。ユーザの頭部および腰部の動きはいずれも大きい状態であることになるので、CPU11は、テーブル141に基づいてユーザの動作状態を「移動中」と特定する。
CPU11は、ARコンテンツであるか否かを特定し(S19)、投影装置200から画像光を出力させるか否かを判断する。CPU11は、(1)画像信号が示す属性情報の内容、(2)ユーザが起動を指示したプログラム、および、(3)ユーザがARコンテンツの表示を指示する入力操作を行ったか、のうち少なくともいずれかによって、表示補正が行われるか否か、即ち、ARコンテンツであるか否かを判定する。具体的には以下のとおりである。
(1)については、PCやビデオ機器等から入力される画像信号を直接解析することによって、CPU11は、表示画像がARコンテンツであるか否かを判断する。なお、情報の内容を示すヘッダ情報が画像信号に予め含められている場合、このヘッダ情報を参照することによって、画像データを直接解析することなく、表示画像がARコンテンツであるかを判断できる。例えば道案内情報や、移動中の作業者に通知する危険物情報等を示す表示画像である場合、ARコンテンツであると判定される。一方、医療補助情報やメンテナンス情報等を示す表示画像である場合、ARコンテンツではないと判定される。
なお上述の判断は、例えば、フラッシュROM13に予め記憶されたテーブルであって、情報のファイルフォーマットや内容と、ARコンテンツであるか否かを示すフラグ情報とが対応付けられたテーブルを参照することによって行われてもよい。具体的には、画像データから得られた情報のファイルフォーマットや内容に対応するフラグ情報を、テーブルを参照することによって特定し、特定したフラグ情報に基づいて、ARコンテンツであるか否かを判定してもよい。また例えば、予めフラッシュROM13に記憶されたARコンテンツのリストを参照することによって行われてもよい。具体的には、画像データから得られた情報のファイルフォーマットや内容がリストに含まれている場合、ARコンテンツであると判定してもよい。
(2)については、ユーザが最初に起動を指示したプログラムが、ARコンテンツをユーザに提供するためのプログラムであるか否かによって、CPU11は、ARコンテンツであるか否かを判定する。例えば道案内プログラムがユーザの指示によって起動されている場合、道案内情報がARコンテンツとしてユーザに提供されるので、CPU11は、ARコンテンツであると判定する。一方、医療補助プログラムがユーザの指示によって起動されている場合、医療補助情報がユーザに提供されるので、CPU11は、ARコンテンツではないと判定する。
(3)については、ユーザがPCを介してARコンテンツである旨を指示する操作を制御装置100に予め設定しているか否かによって、CPU11は、表示画像がARコンテンツであるかを判定する。なお、ユーザがPCを介してARコンテンツである旨を指示する操作を設定した場合、制御装置100のフラッシュROM13に、表示画像がARコンテンツである旨を示すフラグ情報が記憶される。CPU11は、このフラグ情報を参照することによって、表示画像がARコンテンツであるか否かを判定することができる。
上述の結果、(1)(2)(3)のうちいずれによっても、ARコンテンツではないと判定された場合(S21:NO)、移動中のユーザに表示画像を認識させた場合にユーザの移動の障害となる可能性がある。このためCPU11は、投影装置200から画像光が出力されないか、または、外景の視認の邪魔にならないように投影装置200を制御する。投影装置200から既に画像光が出力されている場合には、CPU11は、画像光の出力が停止されるように投影装置200を制御する(S23)。これによって移動中のユーザは、周囲の状況を良好に視認することができるので、安全に行動できる。処理はS27に進む。
一方、(1)(2)(3)のうち少なくともいずれかによって、ARコンテンツであると判定された場合(S21:YES)、ARコンテンツは移動中のユーザが必要としている情報を含んでいる可能性がある。CPU11は、ARコンテンツをユーザに認識させるために、投影装置200を制御してARコンテンツの画像光を出力させる(S25)。これによってユーザは、移動中に必要なARコンテンツの情報を入手できる。処理はS27に進む。
CPU11は、起動中のプログラムを終了させる指示がユーザによって入力されたかを判断する(S27)。プログラムを終了させる指示が入力されていない場合(S27:NO)、処理はS11に戻る。一方、プログラムを終了させる指示が入力された場合(S27:YES)、メイン処理は終了する。
以上説明したように、ヘッドマウントディスプレイ5は、ユーザの動作状態、および、表示補正が行われるか否か、即ちARコンテンツであるか否かに応じて、画像光を出力したり、画像光の出力を制限したりできる。ヘッドマウントディスプレイ5は、ユーザが移動中であっても、移動中のユーザが必要とするARコンテンツの画像光は出力する。このためユーザは、ヘッドマウントディスプレイ5を有効的に使用することができる。一方、ヘッドマウントディスプレイ5は、ユーザが移動中である場合には、ARコンテンツ以外のコンテンツの画像光の出力を制限することによって、ユーザの移動の障害となることを抑止する。従ってユーザは、ヘッドマウントディスプレイ5を安全に使用できる。
なお本発明は上述の実施形態に限定されず、種々の変更が可能である。上述では、投影装置200に設けられたモーションセンサ35、および、制御装置100に設けられたモーションセンサ19によって検出される加速度に基づいて、ヘッドマウントディスプレイ5のユーザの動作状態が判断されていたが、例えばCPU11は、モーションセンサ19およびモーションセンサ35の何れか一方によって検出される加速度のみに基づいてユーザの動作状態を特定してもよい。
例えば、投影装置200に設けられたモーションセンサ35のみによってユーザの動作状態を特定する場合、次のようにして特定してもよい。CPU11は、モーションセンサ35によって検出された加速度を積分してまず速度を算出し、その速度に基づいて特定してもよい。または、更にその速度を積分して位置を算出し、その算出された速度または位置に基づいてユーザの動作状態を特定してもよい。具体的には、算出された速度や位置が所定の範囲外である場合に、CPU11は、ユーザが移動中であると判断してもよい。一方、算出された速度や位置が所定の範囲内であれば、ユーザは、静止か静止に近い状態であるか、又はユーザ自体が移動をしていない首振り状態であると判断してもよい。これによってヘッドマウントディスプレイ5は、より少ないモーションセンサによってユーザの動作状態を適切に特定できる。また、ヘッドマウントディスプレイ5は、制御装置100が、投影装置200に一体化されるような形態であってもよい。この場合、前述した方法によると、頭部のセンサのみでも判断できるので実施がし易くなる。
上述の実施例では、モーションセンサ19、35によってユーザの動作状態を特定していたが、モーションセンサ19、35の代わりにGPSセンサ等の別のセンサが使用されてもよい。この場合、GPSセンサによって検出される位置情報が変化している場合に、CPU11はユーザが移動中であると判断してもよい。また、モーションセンサ35の代わりにカメラ36が使用されてもよい。この場合、カメラ36によって撮影された撮影画像の変化を抽出して解析することによって、ユーザが移動中であるかを判断してもよい。なお、撮影画像の静止部分と変化部分とを抽出し、静止部分と変化部分の位置がほぼ固定している場合などは、例えばユーザが車両の助手席や電車に乗っている場合と判断することも可能となる。この場合、ユーザ自体は、乗り物に乗っており、安全と考えて、画像表示を継続してもよい。従ってヘッドマウントディスプレイ5は、より正確にユーザの動作状態を特定することができる。
上述では、ユーザの動作状態が移動中であると特定された場合であって、且つ、表示画像がARコンテンツ以外である場合、投影装置200からの画像光の出力が停止されていた。これに対し、ユーザに認識させる画像がユーザの移動の障害にならないように画像光を調整し、投影装置200から出力してもよい。例えば、ユーザに認識させる画像の大きさを小さくし、中心部から外景の視認に影響の少ない周辺部に移動させたり、画像を半透明にしたりしてもよい。これによって、ユーザに認識させた画像が移動の妨げとなることを抑止しつつ、ユーザに対して画像を継続して認識させることができる。
道案内プログラムが起動された場合であって、ヘッドマウントディスプレイ5の現在位置を特定するためのGPSセンサが用いられている場合、ユーザに認識させる表示画像がARコンテンツであるか否かは、そのGPSセンサが起動しているか否かによって判断されてもよい。GPSセンサが起動している場合、道案内プログラムが同時に実行中であることになるので、ARコンテンツ(道案内情報)であると判断してもよい。尚、GPSセンサが起動していてもARコンテンツが表示されているとは言い切れない場合があるので、GPSセンサで検出された位置のデータが表示画像の位置や内容の変更に利用されているか否かで判断される方が好ましいといえる。なお道案内プログラムにおいて、GPSセンサの代わりにモーションセンサが使用される場合、モーションセンサが起動しているか否かによって道案内プログラムが起動しているか否かを判断できることになる。このためこのような場合、モーションセンサが起動している場合にARコンテンツであると判断してもよい。
上述では、制御装置100のCPU11がユーザの動作状態を判断し、投影装置200からの画像光の出力制御を行なっていた。これに対し、投影装置200のCPU31がユーザの動作状態を判断すると同時に、画像光の出力制御を行なってもよい。モーションセンサ19の取り付けられる場所は、ユーザの腰部に限定されず、胴部であればいずれの場所であってもよい。例えば制御装置100がユーザの胸ポケットに入れられて使用される場合、モーションセンサ19はユーザの胸部の加速度を検出することになる。
上述の実施例では、制御装置100や投影装置200の動きを判断してから、ARコンテンツであるか否かを判断し、ユーザへ投影するか否かを決めている。これに対し、ARコンテンツであるか否かを先に判断し、ARコンテンツでない場合、制御装置100や投影装置200の動きを判断してもよい。そして移動中であれば、ユーザへの投影表示を制限し、ARコンテンツであれば、移動中であるか否かによらず、表示してもよい。
なお、S19、S21の処理を行うCPU11が本発明の「判定手段」に相当する。S13、S15の処理を行うCPU11が本発明の「動作状態特定手段」に相当する。S23、S25の処理を行うCPU11が本発明の「制御手段」に相当する。


5 ヘッドマウントディスプレイ
19、35 モーションセンサ
37 画像表示部
100 制御装置
141 テーブル
200 投影装置

Claims (7)

  1. 外景を視認可能なシースルー型のヘッドマウントディスプレイであって、ユーザの網膜上に画像信号に応じた画像光を投影表示する投影装置と、前記投影装置を制御する制御装置とを備え、前記投影装置の動きを少なくとも検出し、検出された動きに応じて、現実の環境の少なくとも一部に対応して、または、関連付けられて提示される表示画像を表示させることが可能なヘッドマウントディスプレイであって、
    前記表示画像が、前記ユーザが移動中にも利用することを想定しているARコンテンツであるか、又は、前記表示画像が、前記ユーザが移動中にも利用することを想定しているARコンテンツでないかを判定する判定手段と、
    前記投影装置を装着した前記ユーザが移動中であるか否かを特定する移動状態特定手段と、
    前記移動状態特定手段によって前記ユーザが移動中であると特定された場合において、前記判定手段によって、前記ユーザが移動中にも利用することを想定しているARコンテンツでないと判定された場合には、前記網膜上への前記画像光の投影表示が制限され、前記ユーザが移動中にも利用することを想定しているARコンテンツであると判定された場合には投影表示の制限を行わないように前記投影装置を制御する制御手段と
    を備えたことを特徴とするヘッドマウントディスプレイ。
  2. 前記判定手段は、
    前記表示画像を表示するための所定のプログラムの起動状態に基づいて、前記ユーザが移動中にも利用することを想定しているARコンテンツであるか否かを判定することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3. 前記判定手段は、
    前記表示画像を表示するか否かを示す情報が、前記画像信号または画像信号に関連する情報に予め対応づけられて記憶された記憶手段を参照することによって、前記ユーザが移動中にも利用することを想定しているARコンテンツであるか否かを判定することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  4. 前記判定手段は、
    前記ユーザから受け付けた指示に基づいて、前記ユーザが移動中にも利用することを想定しているARコンテンツであるか否かを判定することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  5. 前記移動状態特定手段は、
    前記ユーザの頭部の動きを検出するセンサ、および、胴部の動きを検出するセンサの少なくとも一方に基づいて、前記ユーザが移動中であるか否かを特定することを特徴とする請求項1から4のいずれかに記載のヘッドマウントディスプレイ。
  6. 前記制御装置は、前記ユーザの胴部に装着され、前記胴部の動きを検出するセンサは、前記制御装置に設けられており、
    前記移動状態特定手段は、
    検出された前記胴部の動きに基づいて、前記ユーザが移動中であるか否かを特定することを特徴とする請求項5に記載のヘッドマウントディスプレイ。
  7. 前記投影装置は、前記ユーザの頭部に装着され、前記頭部の動きを検出するセンサは、前記投影装置に設けられており、
    前記移動状態特定手段は、
    検出された前記頭部の動きより前記ユーザの位置の情報を抽出し、その位置の情報に基づいて、前記ユーザが移動中であるか否かを特定することを特徴とする請求項5又は6に記載のヘッドマウントディスプレイ。
JP2011288148A 2011-12-28 2011-12-28 ヘッドマウントディスプレイ Active JP6051522B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011288148A JP6051522B2 (ja) 2011-12-28 2011-12-28 ヘッドマウントディスプレイ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011288148A JP6051522B2 (ja) 2011-12-28 2011-12-28 ヘッドマウントディスプレイ

Publications (2)

Publication Number Publication Date
JP2013137413A JP2013137413A (ja) 2013-07-11
JP6051522B2 true JP6051522B2 (ja) 2016-12-27

Family

ID=48913197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011288148A Active JP6051522B2 (ja) 2011-12-28 2011-12-28 ヘッドマウントディスプレイ

Country Status (1)

Country Link
JP (1) JP6051522B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6492330B2 (ja) * 2014-02-21 2019-04-03 ソニー株式会社 電子機器、および画像の提供方法
WO2015125364A1 (ja) * 2014-02-21 2015-08-27 ソニー株式会社 電子機器、および画像の提供方法
JP6376807B2 (ja) * 2014-04-02 2018-08-22 キヤノン株式会社 表示装置、表示制御方法及びプログラム
JP2015213226A (ja) * 2014-05-02 2015-11-26 コニカミノルタ株式会社 ウエアラブルディスプレイ及びその表示制御プログラム
JP2016048301A (ja) * 2014-08-27 2016-04-07 株式会社ニコン 電子機器
WO2016052061A1 (ja) * 2014-09-30 2016-04-07 コニカミノルタ株式会社 ヘッドマウントディスプレイ
JP6399692B2 (ja) * 2014-10-17 2018-10-03 国立大学法人電気通信大学 ヘッドマウントディスプレイ、画像表示方法及びプログラム
WO2016190057A1 (ja) * 2015-05-22 2016-12-01 コニカミノルタ株式会社 ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法
CN106303467B (zh) * 2016-10-31 2022-08-16 陈童 一种智能穿戴设备及数据传输方法
CN108600367A (zh) * 2018-04-24 2018-09-28 上海奥孛睿斯科技有限公司 物联网系统及方法
JP7453192B2 (ja) 2021-09-27 2024-03-19 Kddi株式会社 ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161190A (ja) * 1997-11-25 1999-06-18 Seiko Epson Corp 頭部装着型表示装置
JP5036177B2 (ja) * 2005-12-12 2012-09-26 オリンパス株式会社 情報表示装置
JP2011091789A (ja) * 2009-09-24 2011-05-06 Brother Industries Ltd ヘッドマウントディスプレイ

Also Published As

Publication number Publication date
JP2013137413A (ja) 2013-07-11

Similar Documents

Publication Publication Date Title
JP6051522B2 (ja) ヘッドマウントディスプレイ
US11765331B2 (en) Immersive display and method of operating immersive display for real-world object alert
US10474411B2 (en) System and method for alerting VR headset user to real-world objects
US11202008B2 (en) Head mounted display having a plurality of display modes
EP3163407B1 (en) Method and apparatus for alerting to head mounted display user
JP6645142B2 (ja) ロボット安全システム
EP3449859A1 (en) Control device, control method and surgical system
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
US20110316763A1 (en) Head-mounted display apparatus, image control method and image control program
JP5949501B2 (ja) 作業補助システムおよびプログラム
JP2010102215A (ja) 表示装置、画像処理方法、及びコンピュータプログラム
JP2016224086A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2013206412A (ja) ヘッドマウントディスプレイ及びコンピュータプログラム
US10585476B2 (en) Apparatus operation device, apparatus operation method, and electronic apparatus system
JP2016206617A (ja) 表示システム
JP2019515361A5 (ja)
JP2018151742A (ja) 情報表示システム
JP2019006183A (ja) 操縦支援装置、操縦支援方法、プログラム
JP2022122936A (ja) 情報表示システム
JP2018156391A (ja) 情報表示システム
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP2019184758A (ja) ヘッドマウントディスプレイ、ヘッドマウントディスプレイの画像表示方法及びヘッドマウントディスプレイの制御プログラム
JP2016158160A (ja) 撮影装置、制御方法、プログラム及び記憶媒体
US11573634B2 (en) Display method, display device, and program
JP2019151205A (ja) 車載表示装置、車載表示装置を制御する方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6051522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150