A.第1実施形態:
A−1.頭部装着型表示装置の構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のヘッドマウントディスプレイ100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。
ヘッドマウントディスプレイ100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、瞳孔間距離測定部62と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22は、右保持部21の内側、換言すれば、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。また、左表示駆動部24は、左保持部23の内側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部は、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)241、242や投写光学系251、252等を含む(図2参照)。表示駆動部の構成の詳細は後述する。光学部材としての光学像表示部は、導光板261、262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261、262を保護し、導光板261、262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。
カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。カメラ61は、画像表示部20の表側方向、換言すれば、ヘッドマウントディスプレイ100を装着した状態における使用者の視界方向の外景(外部の景色)を撮像し、外景画像を取得する。カメラ61はいわゆる可視光カメラであり、カメラ61により取得される外景画像は、物体から放射される可視光から物体の形状を表す画像である。本実施形態におけるカメラ61は単眼カメラであるが、ステレオカメラとしてもよい。カメラ61は「画像取得部」として機能する。
瞳孔間距離測定部62は、使用者の瞳孔間距離を測定する。瞳孔間距離とは、使用者の右眼REの虹彩の中心と使用者の左眼LEの虹彩の中心との間の距離である。瞳孔間距離測定部62は、図1に示すように画像表示部20の内面に配置されて、使用者の右眼REおよび左眼LEの画像を撮影する2つのカメラと、撮影された画像を例えば3角測量による方法を用いて解析し、左右の眼の虹彩の中心間の距離を計算する処理部とからなる。なお、瞳孔間距離測定部62は、カメラに代えて、超音波や赤外線を用いて、使用者の瞳孔間距離を測定してもよい。また、瞳孔間距離測定部62は、上述した方法を複数組み合わせて、使用者の瞳孔間距離を測定することもできる。
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。
画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46とは反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。
制御部10は、ヘッドマウントディスプレイ100を制御するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、ヘッドマウントディスプレイ100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、ヘッドマウントディスプレイ100の電源の状態を切り替える。
図2は、ヘッドマウントディスプレイ100の構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。
入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18などに対する操作入力に応じた信号を取得する。記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部120は、眼間距離122と、画素視差角124とを含んでいる。詳細は後述する。電源130は、ヘッドマウントディスプレイ100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って、他の機器との間で無線通信を行う。GPSモジュール134は、GPS衛生からの信号を受信することにより、自身の現在位置を検出する。
CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(ОS)150、画像処理部160、音声処理部170、表示制御部190、AR処理部142として機能する。AR処理部142は、OS150や、特定のアプリケーションからの処理開始要求をトリガーとして、拡張現実感を実現させるための処理(以降、「拡張現実処理」とも呼ぶ。)を実行する。詳細は後述する。なお、AR処理部142は、特許請求の範囲における「拡張現実処理部」に相当する。
画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。そして、画像処理部160は、生成した信号を、接続部40を介して画像表示部20に供給する。画像表示部20に供給するための信号は、アナログ形式とディジタル形式の場合で異なる。アナログ形式の場合、画像処理部160は、クロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、画像データーDataとを生成・送信する。具体的には、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離し、それらの周期に応じて、PLL回路等によりクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、RGBデーターの画像データーDataとして、1フレームごとに記憶部120内のDRAMに格納する。一方、ディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データーDataとを生成・送信する。具体的には、コンテンツがディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とが不要となる。なお、画像処理部160は、記憶部120に格納された画像データーDataに対して、解像度変換処理や、輝度・彩度の調整といった種々の色調補正処理や、キーストーン補正処理等の画像処理を実行してもよい。
画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データーDataとを、送信部51、52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFFなどを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。また、表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス等を用いることができる。
画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、9軸センサー66とを備えている。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する動き検出部として機能する。ここで、頭部の動きとは、頭部の速度・加速度・角速度・向き・向きの変化を含む。
右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データーData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光を、画像を表す有効な画像光へと変調する。なお、本実施形態ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出してもよい。
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。光学像表示部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
左表示駆動部24は、右表示駆動部22と同様の構成を有している。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。
図3は、使用者に視認される虚像の一例を示す説明図である。図3(A)は、通常の表示処理中の使用者の視野VRを例示している。上述のようにして、ヘッドマウントディスプレイ100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は虚像VIを視認する。図3(A)の例では、虚像VIは、ヘッドマウントディスプレイ100のOSの待ち受け画面である。また、使用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。このように、本実施形態のヘッドマウントディスプレイ100の使用者は、視野VRのうち虚像VIが表示された部分については、虚像VIと、虚像VIの背後に外景SCとを見ることができる。また、視野VRのうち虚像VIが表示されていない部分については、光学像表示部を透過して、外景SCを直接見ることができる。なお、本明細書において、「ヘッドマウントディスプレイ100が画像を表示する」ことには、上述のように、ヘッドマウントディスプレイ100の使用者に対して虚像を視認させることも含む。
図3(B)は、拡張現実処理中の使用者の視野VRを例示している。拡張現実処理において、ヘッドマウントディスプレイ100のAR処理部142は、使用者が知覚する外景SCを拡張するための仮想オブジェクトであって、使用者の視覚的な違和感が緩和された仮想オブジェクトを表す虚像を画像表示部20に形成させる。具体的には、AR処理部142は、仮想オブジェクトに対して、使用者の視覚的な違和感を緩和可能な視覚効果を加えた画像データーを生成し、生成した画像データーを画像表示部20へ送信する。なお、「外景SCを拡張する」とは、使用者が眼にする現実環境、すなわち外景SCに対して情報を付加、削除、強調、減衰させることを意味する。第1実施形態の拡張現実処理では、AR処理部142は、外景SCに仮想オブジェクトを融像させるために、異なる右眼用画像データーData1と左眼用画像データーData2とを生成することで、仮想オブジェクトの立体視を可能にするための視覚効果を加える。「外景に仮想オブジェクトを融像させる」とは、使用者が実際目にする外景SCのうちの、使用者から所定の距離(以降、「目標距離」とも呼ぶ)だけ離れた位置に対して、仮想オブジェクトが存在するかのような感覚を使用者に対して与える虚像VIを表示することを意味する。図3(B)の例では、外景SCに含まれる現実の道の上に重なるように、リンゴを表す画像が虚像VIとして表示されている。これにより、使用者は、あたかも何もない道の上に、リンゴが落ちているような感覚を得ることができる。図3(B)の例では、使用者の位置と、使用者が「リンゴが落ちている」と感じる位置と、の間の距離が目標距離に相当する。図3(B)の例では、リンゴが仮想オブジェクトOBに相当する。
A−2.拡張現実処理(第1実施例):
AR処理部142は、以下の手順a1〜a3によって拡張現実処理を実行する。
(a1)仮想オブジェクトを視認させる目標距離を決定する。
(a2)仮想オブジェクトを表す画像データーを生成する。
(a3)画像データーから右眼用画像データーData1と左眼用画像データーData2を生成する。
図4は、拡張現実処理の手順を説明するための説明図である。画像処理部160が同一の右眼用画像データーData1と左眼用画像データーData2とを画像表示部20へ供給した場合、使用者は、使用者から初期結像距離Laだけ離れた位置CO1に物体を認識する。この際の輻輳角を「初期輻輳角θa」と呼ぶ。手順a1においてAR処理部142は、遠近感を持たせた仮想オブジェクトOBの表示を可能とするために、使用者に仮想オブジェクトOBを視認させる目標距離Lbを決定する。AR処理部142は、例えば、以下のいずれかの方法で、目標距離Lbを決定することができる。
・カメラ61によって取得された使用者の視界方向の外景画像を解析する。
・使用者の現在位置座標と頭の動きとを解析する。この場合、使用者の現在位置座標は、GPSモジュール134により検出された制御部10の位置情報により取得する。使用者の頭の動きは、9軸センサー66により検出された動き情報により取得する。
手順a2においてAR処理部142は、仮想オブジェクトOBを表す画像データーを生成する。第1実施例の拡張現実処理では、AR処理部142は、記憶部120内に予め記憶されている複数の画像データーから、手順a1の解析結果に応じた画像データーを取得する。
手順a3においてAR処理部142は、手順a2で生成した画像データーから、右眼用画像データーData1と左眼用画像データーData2を生成する。この際、AR処理部142は、記憶部120に記憶されている画素視差角124を用いる。
図5は、眼間距離122と画素視差角124について説明するための説明図である。本実施形態では、眼間距離122は、光学像表示部26の中心と左光学像表示部28の中心との間の距離を、使用者の右眼REと左眼LEとの間の距離DLとみなしている。このため、眼間距離122には、ヘッドマウントディスプレイ100の設計値に基づいた、右光学像表示部26の中心と左光学像表示部28の中心との間の距離(例えば、65mm)が予め格納されている。なお、眼間距離122には、使用者の右眼REと左眼LEとの間の実際の距離DLが格納されていてもよい。詳細は拡張現実処理の第2実施例で説明する。また、眼間距離122は、使用者の好みに応じて調整可能としてもよい。眼間距離122は特許請求の範囲における「眼間距離記憶部」に相当する。
画素視差角124は、左右に1画素(ピクセル)ずれた画像データーによって実現される視差角であり、θpix(°)で表される。画素視差角124は、具体的には、左右同一の画像データーに基づいて表示された虚像の輻輳角と、左右で1画素(ピクセル)ずらした画像データーに基づいて表示された虚像との輻輳角の差分である。θpixは以下のようにして求められ、画素視差角124に予め格納されている。
・同一の右眼用画像データーData1と左眼用画像データーData2とに基づいて右LCD241と左LCD242とが駆動された場合の初期輻輳角θaを測定する。
・1画素ずらした右眼用画像データーData1と左眼用画像データーData2とに基づいて右LCD241と左LCD242とが駆動された場合の輻輳角θcを測定する。
・初期輻輳角θaと輻輳角θcとの差分を求める(θc−θa)。なお、通常はθc>θaとなることが想定されるため、ここでは、輻輳角θcから初期輻輳角θaを減ずることとする。
・片眼あたりの輻輳角の差分とするため、初期輻輳角θaと輻輳角θcとの差分を2で除する。
すなわち、θpix=(θc−θa)/2 と表すことができる。なお、初期輻輳角θaは特許請求の範囲における「第1の輻輳角」に相当し、輻輳角θcは特許請求の範囲における「第2の輻輳角」に相当し、画素視差角124は特許請求の範囲における「画素視差角記憶部」に相当する。
図4に戻り拡張現実処理の手順の説明を続ける。手順a1で決定した目標距離Lb(使用者に仮想オブジェクトOBを視認させる距離)と、その際の輻輳角θbと、眼間距離122(DL/2)は、三角関数を用いて以下の式1で表すことができる。このため、AR処理部142は、手順a1で決定した目標距離Lbと、眼間距離122とを式1に当てはめ、目標輻輳角θbを算出する。
tan(θb/2)=(DL/2)/Lb
tan(θb/2)=DL/(2×Lb)
θb/2=arctan{DL/(2×Lb)}
θb=2×arctan{DL/(2×Lb)} ・・・(1)
AR処理部142は、求めた目標輻輳角θbと初期輻輳角θaとを用いて、目標距離Lb(使用者に仮想オブジェクトOBを視認させる距離)における視差角である目標視差角θxを算出する。具体的には、AR処理部142は、式2に初期輻輳角θaと目標輻輳角θbとの値を当てはめ、目標視差角θxを算出する。
θx=(θb−θa)/2 ・・・(2)
式2において、例えば、設定位置を無限遠にした場合、θxは、θx=−θa/2として表される。
AR処理部142は、求めた目標視差角θxと、画素視差角124とを用いて、手順a2の画像データーを加工し、右眼用画像データーData1と左眼用画像データーData2とを生成する。具体的には、画素視差角124に格納されているθpixは、左右に1画素ずれた画像データーによって実現される視差角である。従って、目標視差角θxを実現するための右眼用画像データーData1を生成するためには、元となる画像データーを左方向へθx/θpix画素ずらせばよい。同様に、目標視差角θxを実現するための左眼用画像データーData2を生成するためには、元となる画像データーを右方向へθx/θpix画素ずらせばよい。
図6は、上述のようにして、AR処理部142が、画像データーDTから、右眼用画像データーData1と左眼用画像データーData2とを生成する様子を示している。
AR処理部142は、上記のようにして生成した右眼用画像データーData1と左眼用画像データーData2とを、画像処理部160へ送信する。画像処理部160は、受信した右眼用画像データーData1を、送信部51を介して画像表示部20へ送信する。同様に、受信した左眼用画像データーData2を、送信部52を介して画像表示部20へ送信する。その後、図2で説明した表示処理を実行する。図3(B)に示すように、ヘッドマウントディスプレイ100の使用者は、視野VRに、立体的な仮想オブジェクトOBを視認することができる。
なお、視力1.0である場合の人間の分解能はarctan(1.5mm/5000mm)で表すことができ、約0.017°となる。従って、右眼用画像データーData1および左眼用画像データーData2により表示される虚像VIと、外景SCとの誤差を0.017°以下に設計すれば、外景SCにあわせた実寸サイズの虚像VIの表示が可能となる。
以上のように、第1実施例の拡張現実処理によれば、拡張現実処理部(AR処理部142)は、画像データー(右眼用画像データーData1および左眼用画像データーData2)の生成の際、虚像VIの表示環境に関する種々の条件(右LCD241および左LCD242の大きさ、使用者の左右の眼前に表示される虚像VI間の距離)を考慮して外景SCに仮想オブジェクトOBを融像させるため、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な頭部装着型表示装置(ヘッドマウントディスプレイ100)を実現することができる。具体的には、画素視差角記憶部(画素視差角124)に記憶されている差分(θpix)は、同一の右眼用画像データーData1と左眼用画像データーData2とに基づいて表示された虚像VIの第1の輻輳角θa(初期輻輳角θa)と、左右に1画素ずらした右眼用画像データーData1と左眼用画像データーData2とに基づいて表示された虚像の第2の輻輳角θcとの差分である。このため、画素視差角記憶部(画素視差角124)に記憶されている差分(θpix)は、左右に1画素ずれた画像データーによって実現される視差角であって、虚像VIの表示環境に関する種々の条件、すなわち、右LCD241および左LCD242の大きさや使用者の左右の眼前に表示される虚像VI間の距離といった条件を考慮して定められた視差角であると言える。従って、拡張現実処理部(AR処理部142)は、画素視差角記憶部(画素視差角124)に記憶されている画素視差角記憶部(画素視差角124)を用いて、虚像VIの表示環境に関する種々の条件を考慮して、外景SCに仮想オブジェクトOBを融像させるための右眼用画像データーData1と左眼用画像データーData2とを生成することができる。
さらに、第1実施例の拡張現実処理によれば、拡張現実処理部(AR処理部142)は、使用者に仮想オブジェクトOBを視認させる目標距離Lbを決定し、決定した目標距離Lbから目標距離Lbにおける輻輳角である目標輻輳角θbを算出し、算出した目標輻輳角θbと第1の輻輳角θa(初期輻輳角θa)とを用いて、目標距離Lbにおける視差角である目標視差角θxを算出する。拡張現実処理部(AR処理部142)は、このようにして算出した目標視差角θxと、画素視差角記憶部(画素視差角124)に記憶されている差分(θpix)とを用いることで、仮想オブジェクトOBを表す単一の画像データーDT(図6)から、異なる右眼用画像データーData1と左眼用画像データーData2とを生成することができる。
A−3.拡張現実処理(第2実施例):
第2実施例の拡張現実処理では、AR処理部142は、3D(Three Dimensions)モデル空間内の仮想的な立体物から使用者の動きに応じた仮想オブジェクトを表す画像データーを生成し、生成した画像データーから右眼用画像データーData1と左眼用画像データーData2を生成する。第1実施例の拡張現実処理との相違は、手順a2、a3に代えて、図7の手順を実行する点である。なお、手順a1は第1実施例と同様であるため、説明を省略する。
図7は、第2実施例における拡張現実処理の手順を表すフローチャートである。AR処理部142は、眼間距離122の初期設定を行う(ステップS102)。具体的には、AR処理部142は、瞳孔間距離測定部62(図2)により測定された使用者の瞳孔間距離を取得し、取得した距離を眼間距離122に記憶させる。このように、ステップS102によれば、使用者に応じた瞳孔間距離を、眼間距離122に記憶させることができる。
図8は、第2実施例における拡張現実処理の詳細を説明するための説明図である。図7のステップS104において、AR処理部142は、3Dモデル空間上の所定位置に仮想視点を設定する。具体的には、AR処理部142は、3Dモデル空間上の仮想オブジェクトOB1から手順a1で求めた距離Lb離れた位置に、仮想視点IVを設定する(図8)。仮想視点IVは、使用者のこめかみに相当する位置であり、仮想視点IVの向き(視点方向VD)は、仮想オブジェクトOB1方向を向いている。なお、仮想視点IVの位置は、3Dモデル空間の原点座標に対する移動量(x,y,z)によって定義される。視点方向VDは、仮想視点IVに対する角度(θx,θy,θz)によって定義される。なお、(θx,θy,θz)は、(ロール角、ピッチ角、ヨー角)=(φ,θ,ψ)とも表される。仮想視点IVを設定後、AR処理部142は、ステップS110〜S116の処理と、ステップS120〜S126の処理とを並行して実行する。
仮想視点IVを設定後、AR処理部142は、仮想視点IVの位置および向きに基づいて、左眼相当の位置に仮想カメラCMLを設定する(ステップS110)。具体的には、AR処理部142は、仮想視点IVから左側に(眼間距離122/2)離れた位置に、視点方向VDを向いた仮想カメラCMLを設定する。同様に、AR処理部142は、仮想視点IVの位置および向きに基づいて、右眼相当の位置に仮想カメラCMRを設定する(ステップS120)。具体的には、AR処理部142は、仮想視点IVから右側に(眼間距離122/2)離れた位置に、視点方向VDを向いた仮想カメラCMRを設定する。図8では、上記のようにして設定された仮想カメラCML、CMRを表している。
仮想カメラを設定後、AR処理部142は、仮想カメラCMLの2D(Two Dimensions)投影を行う(ステップS112)。具体的には、AR処理部142は、3Dモデル空間内の立体物(仮想オブジェクトOB1、OB2)を、仮想カメラCMLによって得られた2次元である平面状の情報に変換し、奥行き感のある画像を生成する。同様に、AR処理部142は、仮想カメラCMRの2D投影を行う(ステップS122)。具体的には、AR処理部142は、3Dモデル空間上の立体物を、仮想カメラCMRによって得られた2次元である平面上の情報に変換し、奥行き感のある画像を生成する。
仮想カメラCMLの2D投影後、AR処理部142は、投影により得られた画像をスケーリングする(ステップS114)。具体的には、AR処理部142は、以下の手順b1〜b3を実行する。
(b1)AR処理部142は、手順a1で決定した目標距離Lbを上記式1に当てはめ、目標輻輳角θbを算出する。
(b2)AR処理部142は、求めた目標輻輳角θbと初期輻輳角θaとを上記式2に当てはめ、目標視差角θxを算出する。
(b3)ステップS112により得られた仮想カメラCMLの2D投影画像と、仮想視点IVに配置された仮想カメラCMの2D投影画像とが、θx/θpix画素ずれるように、ステップS112により得られた仮想カメラCMLの2D投影画像を拡大/縮小する。この際、AR処理部142は、右LCD241の解像度を考慮する。
同様に、仮想カメラCMRの2D投影後、AR処理部142は、投影により得られた画像をスケーリングする(ステップS124)。具体的には、AR処理部142は、上記手順b1、b2、および、以下手順c3を実行する。
(b3)ステップS122により得られた仮想カメラCMRの2D投影画像と、仮想視点IVに配置された仮想カメラCMの2D投影画像とが、θx/θpix画素ずれるように、ステップS122により得られた仮想カメラCMRの2D投影画像を拡大/縮小する。この際、AR処理部142は、左LCD242の解像度を考慮する。
図9は、上述のようにして、AR処理部142が、仮想視点IVに配置された仮想カメラCMの2D投影画像DTを用いて、投影により得られた画像をスケーリングする様子を示している。なお、上記例では、仮想カメラCMRは右眼相当の位置に設定され、仮想カメラCMLは左眼相当の位置に設定されるとした。しかし、設定される仮想カメラの位置および個数は変更可能である。その後、AR処理部142は、上記のようにして生成した右眼用画像データーData1と左眼用画像データーData2とを、画像処理部160へ送信する(ステップS116、S126)。その後、図2で説明した表示処理が実行されることで、ヘッドマウントディスプレイ100の使用者は、視野VRに、立体的な仮想オブジェクトOBを視認することができる。
以上のように、第2実施例の拡張現実処理によっても、拡張現実処理部(AR処理部142)は、画像データー(右眼用画像データーData1および左眼用画像データーData2)の生成の際、虚像VIの表示環境に関する種々の条件(右LCD241および左LCD242の大きさ、使用者の左右の眼前に表示される虚像VI間の距離)を考慮して外景SCに仮想オブジェクトOB1,OB2を融像させるため、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な頭部装着型表示装置(ヘッドマウントディスプレイ100)を実現することができる。
さらに、第2実施例の拡張現実処理によれば、拡張現実処理部(AR処理部142)は、使用者に仮想オブジェクトOB1,OB2を視認させる目標距離Lbを決定し、決定した目標距離Lbから目標距離Lbにおける輻輳角である目標輻輳角θbを算出し、算出した目標輻輳角θbと第1の輻輳角θa(初期輻輳角θa)とを用いて、目標距離Lbにおける視差角である目標視差角θxを算出する。拡張現実処理部(AR処理部142)は、このようにして算出した目標視差角θxと、画素視差角記憶部(画素視差角124)に記憶されている差分(θpix)とを用いることで、2箇所の仮想カメラ(仮想カメラCMR,CML)による2D投影画像をそれぞれスケーリングして、右眼用画像データーData1と左眼用画像データーData2とを生成することができる。
さらに、第2実施例の拡張現実処理によれば、拡張現実処理部(AR処理部142)は、3Dモデル空間上に仮想カメラ(仮想カメラCMR,CML)を設定する際、まず、使用者に仮想オブジェクトを視認させる目標距離Lbに基づいて仮想視点IVを配置する。そして、拡張現実処理部(AR処理部142)は、配置された仮想視点IVから眼間距離/2離れた位置に一方の仮想カメラ(仮想カメラCMR)を配置し、配置された仮想視点から眼間距離/2離れた位置に他方の仮想カメラ(仮想カメラCML)を配置する。この結果、仮想カメラ(仮想カメラCMR,CML)は、使用者に仮想オブジェクトOB1,OB2を視認させる目標距離Lbと、使用者の眼間距離(眼間距離122)との両方を考慮した2D投影画像を取得することができる。
A−4.拡張現実処理(第3実施例):
第3実施例の拡張現実処理では、第2実施例の拡張現実処理において、使用者の移動に伴って外景SCに融像させるための仮想オブジェクトを変化させることができる。以下では、第2実施例の拡張現実処理と異なる手順についてのみ説明する。なお、図中において第2実施例と同様の部分については先に説明した第2実施例と同様の符号を付し、その詳細な説明を省略する。
図10は、第3実施例における拡張現実処理の手順を表すフローチャートである。図7に示した第2実施例との違いは、ステップS104の後にステップS202とS204とを実行する点と、ステップS116およびS126の終了後に処理をステップS202へ遷移させる点である。
ステップS202においてAR処理部142は、使用者の視点が移動したか否かを判定する。具体的には、AR処理部142は、使用者の現在位置座標と頭の動きとの少なくともいずれか一方に変化があった場合、使用者の視点が移動したと判定する。なお、使用者の現在位置座標は、GPSモジュール134により検出された制御部10の位置情報により取得する。使用者の頭の動きは、9軸センサー66により検出された動き情報により取得する。使用者の視点が移動していない場合(ステップS202:NO)、AR処理部142は、処理をステップS110およびS120へ遷移させる。
使用者の視点が移動した場合(ステップS202:YES)、AR処理部142は、ステップS202で検出した使用者の現在位置座標と頭の動きに基づいて、3Dモデル空間上の所定位置に仮想視点を設定する。詳細は、図7のステップS104と同様である。
以上のように、第3実施例の拡張現実処理によれば、使用者の視点の移動に伴って、すなわち、使用者の現在位置座標と頭の動きとの少なくともいずれか一方の変化に伴って、仮想カメラCMLの2D投影画像と仮想カメラCMRの2D投影画像とを生成、スケーリングし、右眼用画像データーData1と左眼用画像データーData2とを生成することができる。この結果、第2実施例での効果に加えて、使用者の視点の移動に伴って外景SCに融像させるための仮想オブジェクトを変化させることができる。
このように、第1実施形態の頭部装着型表示装置(ヘッドマウントディスプレイ100)によれば、画像表示部20は、使用者の視覚的な違和感を緩和可能な視覚効果(すなわち、仮想オブジェクトの立体視を可能にするための視覚効果)が付された仮想オブジェクトOBを虚像VIとして使用者に視認させる。このため、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な光学透過型の頭部装着型表示装置を提供することができる。
B.第2実施形態:
本発明の第2実施形態では、「使用者の視覚的な違和感を緩和可能な視覚効果」として、第1実施形態で例示した「仮想オブジェクトの立体視を可能にするための視覚効果」に代えて、「仮想オブジェクトを使用者の周囲の環境に調和させるための視覚効果」を採用する場合の構成について説明する。以下では、第1実施形態と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施形態と同様の構成部分については先に説明した第1実施形態と同様の符号を付し、その詳細な説明を省略する。
B−1.頭部装着型表示装置の構成:
図11は、第2実施形態におけるヘッドマウントディスプレイ100aの構成を機能的に示すブロック図である。図2に示した第1実施形態との違いは、制御部10に代えて制御部10aを備える点である。制御部10aの記憶部120には、領域情報122と識別画像記憶部124と(図2)が含まれていない。また、制御部10aは、AR処理部142に代えてAR処理部142aを備える。AR処理部142aは、実行する「拡張現実処理」の処理内容が、第1実施形態とは異なる。具体的には、AR処理部142aは、第1〜第3実施例として説明した第1実施形態の拡張現実処理に代えて、次に説明する拡張現実処理を実行する。
B−2.拡張現実処理:
図12は、第2実施形態における拡張現実処理の手順を示すフローチャートである。ステップS302においてAR処理部142aは、使用者の周囲の環境を3次元空間内の仮想的な立体物として表現した3次元情報を取得する。この3次元情報は、使用者の周囲の環境を表現した、いわゆる「3Dモデル」である。AR処理部142aは、3次元情報を、以下のc1〜c3に示すいずれかの方法を用いて取得することができる。
(c1)AR処理部142aは、ヘッドマウントディスプレイ100aに接続されているクラウドサーバー等の外部装置から3次元情報を取得する。
(c2)3次元情報が予め記憶部120に記憶されている場合、AR処理部142aは、記憶部120から3次元情報を取得する。
(c3)AR処理部142aは、カメラ61により撮影された外景画像や、使用者の眼前への赤外光の照射等の手段を用いて、使用者の周囲の環境を表現した3次元情報を生成し、生成した3次元情報を取得する。
方法c1、c2の場合、AR処理部142aは、GPSモジュール134により検出された使用者の現在位置座標に基づいて、3次元情報の取得範囲を決定することができる。また、方法c3においてカメラ61を用いて3次元情報を生成する場合、AR処理部142aは、カメラ61に連続的に角度を変えた複数の外景画像を取得させる。そして、AR処理部142aは、n(nは任意の整数)枚目に撮影された外景画像と、n+1枚目に撮影された外景画像との差分情報に基づいて、3次元情報を生成することができる。このとき使用するカメラ61は、撮像領域が交差するように配置された複数のカメラであることが好ましい。さらに、複数のカメラのうちの少なくとも1つは、使用者の視線方向に対応した位置に固定されていることが好ましい。カメラ61に連続的に角度を変えた外景画像を取得させるため、AR処理部142aは、9軸センサー66によって検知された使用者の動きが所定の閾値を超える大きさである場合に、カメラ61へ外景画像の撮像指示を出してもよい。
ステップS304においてAR処理部142aは、現実空間での使用者の現在位置および視線方向に対応した、3次元情報内での位置および方向を特定する。換言すれば、ステップS304においてAR処理部142aは、3次元情報内の仮想的な使用者の現在位置および視線方向を特定するとも言える。具体的には、AR処理部142aは、以下のd1〜d3に示すいずれかの方法を用いる。
(d1)AR処理部142aは、ステップS302で取得された3次元情報と、ステップS304の時点でカメラ61によって取得された使用者の視線方向の外景画像とを比較することで、3次元情報内の仮想的な使用者の現在位置および視線方向を特定する。
(d2)AR処理部142aは、ステップS302で取得された3次元情報に含まれる緯度経度の情報と、ステップS304の時点でGPSモジュール134によって取得された使用者の現在位置座標(緯度経度)を比較することで、3次元情報内の仮想的な使用者の現在位置を特定する。また、AR処理部142aは、9軸センサー66によって取得された使用者の頭部の動きを用いて、3次元情報内の仮想的な使用者の視線方向を特定する。
(d3)現実空間上に予め信号発生装置が複数配置されている場合、AR処理部142aは、信号発生装置から受信する電波や超音波の受信強度を用いて、3次元情報内の仮想的な使用者の現在位置および視線方向を特定する。
ステップS306においてAR処理部142aは、マスクオブジェクトを生成する。「マスクオブジェクト」とは、現実空間の使用者の現在位置および視線方向に対応した位置および方向から見た3次元情報、換言すれば、仮想的な使用者の現在位置および視線方向から見た3次元情報である。AR処理部142aは、ステップS302で取得した3次元情報と、ステップS304で特定した3次元情報内での位置および方向とを用いて、マスクオブジェクトを生成する。
図13は、マスクオブジェクトの一例を示す説明図である。図13(A)は、現実空間での使用者の現在位置および視線方向から見た外景SCを示している。外景SCは、ビルが立ち並ぶオフィス街の風景である。図13(B)は、現実空間での使用者の現在位置および視線方向に対応した、3次元情報内での位置および方向から見たマスクオブジェクトVMを示している。マスクオブジェクトVMは、図13(A)に示した使用者の周囲の環境(外景SC)が3次元空間内で仮想的に表現された「ビル」、「道路」、「木立」、「電柱」の立体物を含んでいる。
このマスクオブジェクトは、仮想オブジェクトに視覚効果を加えるために使用され、画像としては表示されない。なお、図12のステップS306では、ステップS304で特定した3次元情報内での位置および方向に基づいて、ヘッドマウントディスプレイ100aに接続されているクラウドサーバー等の外部装置から3次元情報を取得して、マスクオブジェクトの補完を行ってもよい。
図12のステップS306においてAR処理部142aは、拡張現実処理において、AR処理部142aが虚像VIとして表示させる仮想オブジェクトを表す画像データーを生成する。具体的には、例えば、AR処理部142aは、記憶部120内に予め記憶されている複数の画像データーから、使用者の要求または処理の目的に沿った任意の画像データーを取得する。
ステップS310においてAR処理部142aは、ステップS306で生成したマスクオブジェクト内にステップS308で生成した仮想オブジェクトを配置する。この配置の際、AR処理部142aは、遠近感を持たせた仮想オブジェクトOBの表示を可能とするために、仮想オブジェクトを配置する目標距離を考慮してもよい。目標距離は、例えば、以下のいずれかの方法で決定することができる。
・カメラ61によって取得された使用者の視界方向の外景画像を解析する。
・GPSモジュール134によって取得された使用者の現在位置座標と、9軸センサー66によって取得された使用者の頭の動きとを解析する。
図14は、マスクオブジェクトVMに対する仮想オブジェクトOBの配置の一例を示す説明図である。図14で例示する仮想オブジェクトOBは「自転車」である。マスクオブジェクトVM内において、仮想オブジェクトOBが配置されている位置は、「木立の前にある歩道の脇」である。ここで、ステップS304で特定した3次元情報内での位置および方向(仮想的な使用者の現在位置および視線方向)からすると、マスクオブジェクト内に配置された仮想オブジェクト(自転車)と、使用者との間には、マスクオブジェクトの一部である「電柱」が配置されている。
図12のステップS312においてAR処理部142aは、仮想オブジェクトOBが配置された状態のマスクオブジェクトVMに対して、周囲の環境に応じた効果を付与する。本実施形態において「周囲の環境に応じた効果」とは、少なくとも、以下のe1〜e3に示すいずれかの効果を意味する。なお、効果e1〜e3は、単独で採用されてもよいし、組み合わせて採用されてもよい。
(e1)AR処理部142aは、仮想オブジェクトOBのうち、マスクオブジェクトVMに含まれる立体物の陰になる部分のトリミングを実施する。例えば、図14の例の場合、AR処理部142aは、自転車(仮想オブジェクトOB)のうち、電柱(マスクオブジェクトVMに含まれる立体物)の陰になる部分、すなわち、図14のように仮想的な使用者の現在位置および視線方向から見た場合に、自転車が電柱の陰になって見えない部分をトリミングする。このように、効果e1によれば、AR処理部142aは、仮想オブジェクトOBが現実空間に存在する立体物(図の例では電柱)の影にあるように見えるように、仮想オブジェクトOBの一部をトリミングすることができる。このため、画像表示部20は、仮想オブジェクトOBが、あたかも現実空間に存在する物(電柱)の背後にあるような虚像を、使用者に視認させることができる。
(e2)AR処理部142aは、周囲の環境に準じたライティングを実施する。具体的には、AR処理部142aは、カメラ61により撮影された外景画像を画像認識することによって、マスクオブジェクトVMの各領域の輝度情報を収集する。輝度情報には、例えば、影領域と、鏡面反射と、拡散反射とが含まれる。AR処理部142aは、収集した輝度情報に基づいて、マスクオブジェクトVMに追加する光源の種類、光源の色温度、光源の強さ等を決定する。ここで、光源の種類には、例えば、点光源(Point Light)、スポットライト(Spot Light)、平行光源(Directional Light)、環境光(Ambient Light)、天空光(Hemisphere Light)、IBL(Image Based Light)等がある。そして、AR処理部142aは、決定した種類、色温度、強さを持つ光源をマスクオブジェクトVMに配置することで、仮想オブジェクトOBのライティングを実施する。
図15は、ライティング実施後の仮想オブジェクトOBの様子を示す説明図である。図15の例では、平行光源DLにより仮想オブジェクトOBのライティングが実施された結果、仮想オブジェクトOBの影OBSが生成されている。このように、効果e2によれば、AR処理部142aは、仮想オブジェクトOBが現実空間に合わせた明暗を持つように、仮想オブジェクトOBを補正することができる。このため、画像表示部20は、仮想オブジェクトOBが、あたかも現実空間に存在する物と混在しているかのような虚像を、使用者に視認させることができる。なお、図12のステップS312において例示した光源は、単独で付与されてもいいし、組み合わせて付与されてもよい。また、AR処理部142aは、マスクオブジェクトVMの各領域の輝度情報を、外景画像の画像解析以外の方法(例えば、現在時刻と方角に基づく演算)で収集してもよい。
(e3)AR処理部142aは、マスクオブジェクトVMに含まれる立体物の反発係数と摩擦係数との少なくとも一方に基づく、仮想オブジェクトOBの挙動の調整を実施する。具体的には、AR処理部142aは、カメラ61により撮影された外景画像を画像認識することによって、マスクオブジェクトVMに含まれる立体物の表面の反発係数と摩擦係数とのうちの少なくとも一方を求める。この際、AR処理部142aは、立体物1つに対しての平均反発係数や平均摩擦係数を求めてもよいし、立体物が有する領域ごとに反発係数や摩擦係数を求めてもよい。AR処理部142aは、求めた反発係数または摩擦係数、もしくはその両方に基づいて、経時的に変化する仮想オブジェクトOBの挙動を調整する。
図16は、反発係数と摩擦係数とに基づいて仮想オブジェクトOBの挙動が調整される様子を示す説明図である。図16の例では、マスクオブジェクトVMに含まれる立体物が有する領域ごとに、反発係数XX(Xは任意の数字)と、摩擦係数XXとが求められ、記憶されている。AR処理部142aは、ボール形状の仮想オブジェクトOBの動きDIを、動きDI上にある立体物の反発係数XXと摩擦係数XXとに応じて変更する。図の例では、AR処理部142aは、3車線ある道路の中央車線の反発係数と摩擦係数とに応じて、仮想オブジェクトOBが跳ねる大きさを調整する。このように、効果e3によれば、AR処理部142aは、仮想オブジェクトOBの挙動を、現実空間に存在する物の反発係数と摩擦係数との少なくとも一方に応じて調整することができる。このため、画像表示部20は、仮想オブジェクトOBが、あたかも現実空間に存在する物の影響を受けて動いているような虚像を、使用者に視認させることができる。
図12のステップS314においてAR処理部142aは、仮想カメラの設定と、仮想カメラによる2D投影を行う。具体的には、AR処理部142aは、現実空間での使用者の現在位置および視線方向に対応したマスクオブジェクトVM内での位置および方向(換言すれば、マスクオブジェクトVM内の仮想的な使用者の現在位置および視線方向)に仮想カメラを設定する。そして、AR処理部142aは、マスクオブジェクトVM内の仮想オブジェクトOBを、仮想カメラによって得られた2次元である平面状の情報に変換する。これにより、AR処理部142aは、マスクオブジェクトVM内の仮想オブジェクトOBを2次元化して、視覚効果が加えられた仮想オブジェクトOBの画像データーを得ることができる。
図17は、仮想カメラの2D投影により得られた画像データーを示す説明図である。図17の例では、画像データーDTには、効果e1が加えられた結果として前輪の一部がトリミングされ、効果e2が加えられた結果として影OBSが付された仮想オブジェクト(自転車)が含まれている。なお、ステップS314の仮想カメラ設定の際、AR処理部142aは、使用者の眼から使用者の注視点までの間の距離に応じて、仮想カメラの被写界深度等の設定を実施することが好ましい。そうすれば、仮想カメラの2D投影によって得られた仮想オブジェクトOBの画像データーにおいて、仮想オブジェクトOBにピンボケ効果を追加することができる。また、ステップS314において設定される仮想カメラは、1つでもよいし、使用者の左右の眼に対応した2つの仮想カメラでもよいし、3つ以上の複数の仮想カメラでもよい。
図18は、第2実施形態の拡張現実処理において、使用者に視認される虚像VIの一例を示す説明図である。図12のステップS316においてAR処理部142aは、上記のようにして生成された画像データーDTを、画像処理部160へ送信する。その後、図2で説明した表示処理が実行されることで、ヘッドマウントディスプレイ100aの使用者は、視野VRに、視覚効果(トリミング、および、影OBS)が加えられた仮想オブジェクトOBを視認することができる。
以上のように、第2実施形態の頭部装着型表示装置(ヘッドマウントディスプレイ100a)によれば、画像表示部20は、使用者の視覚的な違和感が緩和された仮想オブジェクトOB、すなわち、使用者の視覚的な違和感を緩和可能な視覚効果(すなわち、仮想オブジェクトを周囲の環境に調和させるための視覚効果)が付された仮想オブジェクトOB、を虚像VIとして使用者に視認させる。このため、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な光学透過型の頭部装着型表示装置を提供することができる。また、拡張現実処理部(AR処理部142a)は、3次元情報から生成されたマスクオブジェクトVMを用いて仮想オブジェクトOBに視覚効果を加え、仮想オブジェクトOBを周囲の環境に調和させる。このため、従来のように、カメラで撮影された画像に基づいて仮想オブジェクトに視覚効果を加えて仮想オブジェクトを周囲の環境に調和させる場合と比較して、調和の精度を向上させることができる。
また、第2実施形態の頭部装着型表示装置(ヘッドマウントディスプレイ100a)によれば、拡張現実処理部(AR処理部142a)は、仮想オブジェクトOBに対して、環境に準じたトリミング(効果e1)、環境に準じたライティング(効果e2)、環境に準じた挙動の調整(効果e3)のうち、少なくともいずれかの視覚効果を加えることができる。さらに、拡張現実処理部(AR処理部142a)は、画像取得部(カメラ61)により撮影された外景画像(使用者の視界方向の画像)を画像認識することで、自動的に、使用者の周囲の環境(具体的には、効果e2の輝度情報、効果e3の場合の反発係数と摩擦係数)を推定することができる。
C.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
・変形例1:
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線通信かつワイヤレス給電可能な構成とすることにより接続部(コード)を廃した態様。
上記実施形態では、説明の便宜上、制御部が送信部を備え、画像表示部が受信部を備えるものとした。しかし、上記実施形態の送信部および受信部は、いずれも、双方向通信が可能な機能を備えており、送受信部として機能することができる。また、例えば、図2に示した制御部は、有線の信号伝送路を介して画像表示部と接続されているものとした。しかし、制御部と、画像表示部とは、無線LANや赤外線通信やBluetooth(登録商標)等の無線の信号伝送路を介した接続により接続されていてもよい。
例えば、図2に示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、制御部からタッチパッドを省略し、十字キーのみで操作する構成としてもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えても良い。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。また、例えば、タッチパッドや十字キーによる操作入力のほか、フットスイッチ(使用者の足により操作するスイッチ)による操作入力を取得してもよい。例えば、画像表示部に赤外線センサー等の視線検知部を設けた上で、使用者の視線を検知し、視線の動きに対応付けられたコマンドによる操作入力を取得してもよい。例えば、カメラを用いて使用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、使用者の指先や、使用者の手に付けられた指輪や、使用者の手にする医療器具等を動き検出のための目印にすることができる。フットスイッチや視線による操作入力を取得可能とすれば、使用者が手を離すことが困難である作業においても、入力情報取得部は、使用者からの操作入力を取得することができる。
例えば、ヘッドマウントディスプレイは、両眼タイプの透過型ヘッドマウントディスプレイであるものとしたが、単眼タイプのヘッドマウントディスプレイとしてもよい。また、使用者がヘッドマウントディスプレイを装着した状態において外景の透過が遮断される非透過型ヘッドマウントディスプレイとして構成してもよい。
図19は、変形例におけるヘッドマウントディスプレイの外観の構成を示す説明図である。図19(A)の例の場合、図1に示したヘッドマウントディスプレイ100との違いは、画像表示部20aが、右光学像表示部26に代えて右光学像表示部26aを備える点と、左光学像表示部28に代えて左光学像表示部28aを備える点である。右光学像表示部26aは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28aは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め上に配置されている。図19(B)の例の場合、図1に示したヘッドマウントディスプレイ100との違いは、画像表示部20bが、右光学像表示部26に代えて右光学像表示部26bを備える点と、左光学像表示部28に代えて左光学像表示部28bを備える点である。右光学像表示部26bは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28bは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとして実現することもできる。
例えば、画像処理部、表示制御部、AR処理部、音声処理部等の機能部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。
例えば、上記実施形態では、画像表示部を眼鏡のように装着するヘッドマウントディスプレイであるとしているが、画像表示部が通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)であるとしてもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。
また、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。
例えば、上記実施形態では、電源として二次電池を用いることしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。
例えば、上記実施形態では、画像光生成部は、バックライトと、バックライト制御部と、LCDと、LCD制御部とを用いて構成されるものとした。しかし、上記の態様はあくまで例示である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えてデジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。
・変形例2:
上記第1実施形態では、拡張現実処理の一例を示した。しかし、上記拡張現実処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
上記実施形態では、画素視差角は、左右同一の画像データーに基づいて表示された虚像の輻輳角と、左右で1画素(ピクセル)ずらした画像データーに基づいて表示された虚像との輻輳角の差分であるとした。しかし、画素視差角は、左右同一の画像データーに基づいて表示された虚像の輻輳角と、左右でずらした画像データーに基づいて表示された虚像との輻輳角の差分であればよく、左右の画像データーのずらし量は1画素(ピクセル)に限られない。
例えば、拡張現実処理において、算出した目標視差角θxが平行より大きくなる場合(すなわちθx<−θa/2となる場合)、AR処理部は、このような目標視差角θxを実現するための画像データーの生成を抑制することができる。そうすれば、使用者が感じる違和感を緩和することができる。
視差角が過度に大きすぎると、使用者は違和感を覚えやすくなる。このため、例えば、拡張現実処理において、算出した目標視差角θxが所定の閾値以上となる場合(すなわちθx>θlimとなる場合)、AR処理部は、このような目標視差角θxを実現するための画像データーの生成を抑制することができる。なお、所定の閾値(θlim)は、「当該利用者にとって、物体が二重に見える視差と一重に見える視差との境界」とすることが好ましい。所定の閾値(θlim)は、使用者の好みに応じて調整可能としてもよい。
AR処理部は、決定した目標距離Lbの大きさ、または、算出した目標視差角θxの大きさに応じて、右眼用画像データーおよび左眼用画像データーの彩度、明度、コントラストを調整してもよい。例えば、遠方に表示させる仮想オブジェクトを表す画像データーの場合、彩度、明度、コントラストのうちの少なくともいずれかを低下させることによって、使用者が感じる遠近感を強調することができる。
画素視差角に記憶されている視差角θpixは、使用者の好みに応じて調整可能としてもよい。利用者は、遠近感を強調したい場合視差角θpixを小さく調整し、遠近感を緩和したい場合視差角θpixを大きく調整することができる。
・変形例3:
上記第1実施形態において、AR処理部は、カメラによって取得された使用者の視界方向の外景画像を、画素視差角によりパターンマッチングさせて、拡張現実処理を実現してもよい。具体的には、画像表示部は、右眼用カメラと、左眼用カメラとを備える構成とする。右眼用カメラは、画像表示部の使用者の右眼に対応する位置に配置され、画像表示部の表側方向の外景を撮像可能なカメラである。左眼用カメラは、画像表示部の使用者の左眼に対応する位置に配置され、画像表示部の表側方向の外景を撮像可能なカメラである。AR処理部は、右眼用カメラにより撮像された画像に含まれる対象物体(仮想オブジェクトを近傍に表示させる対象となる物体)と、左眼用カメラにより撮像された画像に含まれる対象物体との間のずれ量を求め、当該ずれ量と画素視差角とを用いて、拡張現実処理における「目標距離」を決定してもよい。
・変形例4:
上記第1実施形態において、AR処理部は、上記の拡張現実処理を、所定の条件が満足される場合に限って実行してもよい。例えば、画像表示部に対して使用者の視線の方向を検出可能な構成を備えたうえで、AR処理部は、検出された視線の方向が以下の条件のうちの少なくともいずれか1つを満たす場合に限って、上記の拡張現実処理を実行してもよい。
・水平約200°、垂直約125°(例えば、下方向75°、上方向50°)の視野角の範囲内であるとき。
・情報受容能力に優れる有効視野である、水平約30°、垂直約20°の範囲内であるとき。
・注視点が迅速に安定して見える安定注視野である、水平60°〜90°、垂直45°〜70°の範囲内であるとき。
・映像に誘発される自己運動感覚(ベクション)の誘発が起こりはじめる水平約20°から、自己運動感覚が飽和する約110°の範囲内であるとき。
・変形例5:
上記第2実施形態では、拡張現実処理の一例を示した。しかし、上記拡張現実処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
第2実施形態の拡張現実処理は、第1実施形態の拡張現実処理の代替処理であるとして説明した。しかし、第2実施形態の拡張現実処理は、第1実施形態の拡張現実処理と並列に実行されてもよい。
第2実施形態の拡張現実処理のステップS302では、3次元情報取得の方法c1〜c3を例示した。しかし、上記方法はあくまで例示であり、AR処理部は、方法c1〜c3以外の他の方法を用いて3次元情報を取得してもよい。また、AR処理部は、一の方法(例えば方法c3)を用いて取得した3次元情報を、他の方法(例えば方法c1)を用いて取得した情報によって補正してもよい。
第2実施形態の拡張現実処理において、さらに、現実空間の大きさと仮想オブジェクトの大きさとのバランスを調整するために、カメラで撮像可能な領域の大きさと、使用者の眼前に虚像として投写される領域の大きさとを、擬似的に一致させる(キャリブレーションする)処理を実施してもよい。
第2実施形態の拡張現実処理のステップS312における効果e1〜e3はあくまで例示であり、AR処理部が加える効果は任意に定めることができる。例えば、AR処理部は、効果e1〜e3に代えて、または効果e1〜e3と共に、次の効果を加えてもよい。具体的には、AR処理部は、仮想オブジェクトを配置する目標距離に応じて、仮想オブジェクトに対して、遠近感を付与するための効果を加える。遠近感を付与するための効果としては、例えば、目標距離が遠い場合はフォグ効果を採用することができ、目標距離が近い場合はシャープネス効果を採用することができる。
・変形例6:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。