以下、本発明を適用した頭部装着型映像表示システムの実施の形態について図面を参照しながら詳細に説明する。
図1は、本発明を適用した頭部装着型映像表示システム1の全体構成図を示している。この頭部装着型映像表示システム1は、制御装置2を中心とし、これに接続された録画モジュール3と、頭部装着型映像表示装置4とを備え、更に制御装置2を介して通信網5に接続されている。
制御装置2は、この頭部装着型映像表示システム1の全体を制御する、いわゆる中央制御機器としての役割を担う。この制御装置2は、例えばパーソナルコンピュータ(PC)として具現化されるが、これに限定されるものではなく、サーバや専用の機器に具現化される場合もあれば、携帯情報端末、或いはタブレット型端末等に具現化されるものであってもよい。
録画モジュール3は、現実の事象とは別に、過去の事象に基づく代替映像を予め録画するために使用されるものであり、パノラマビデオカメラ31とマイク32とを備えている。
パノラマビデオカメラ31は、例えば図2に示すように、基台311と、この基台311上に設けられたカメラアレイ312とを有している。基台311は、必要に応じて高さ調整が可能とされ、所望の映像を録画する上でふさわしい高さに随時設定される。カメラアレイ312は、本体320と、この本体320の内部に実装された複数の撮像装置321とを備えている。本体320には形成された開口にはそれぞれ撮像装置321が実装されており、当該開口を介して事物を撮像可能とされている。これら複数の撮像装置321は、互いに異なる方向を撮像可能とするため、その画角及び撮像方向がそれぞれ設定されている。また、各撮像装置321は、例えば図2に示すように本体320における全ての方向(水平方向に360°、鉛直方向に360°)を洩れなく撮像可能なように実装されていてもよい。しかも、この撮像装置321によれば、全ての方向について同時に撮像を行うことが可能となる。このため、部屋の中に居る人を撮像する際において、人が移動した場合には、その移動した人をカメラ本体内に構築される仮想的な一つの視点を中心とした全周囲で撮像した映像が生成されることとなる。
撮像装置321は、このようにして撮像した映像をそれぞれCCD(Charge Coupled Device )等の固体撮像素子を利用し、レンズを介して入射される被写体像を撮像面上に結像させ、光電変換により映像信号を生成し、これをインターフェース330を介して制御装置2へと送信する。
マイク32は、周辺の音声を集音し、音声信号に変換する。このマイク32は、変換したこの音声信号をインターフェース330を介して制御装置2へと送信する。マイク32は、ライブ映像再生時に頭部を中心とした音像を再現するために、頭部装着型映像表示装置4に装着されることもある。
頭部装着型映像表示装置4は、図3の斜視図に示すような、いわゆる視聴者に頭部に装着可能ないわゆるヘッドマウントディスプレイとして構成される。この頭部装着型映像表示装置4は、メガネ型又はゴーグル型の表示装置であり、頭部装着部41と、映像表示部42と、ヘッドホン43と、撮像部44と、動きセンサ59と、マイク60を備えている。頭部装着型映像表示装置4をゴーグル型で構成する場合には、外部の視覚刺激を完全に遮断するためのシールドをもたせることが望ましい。
頭部装着部41は、右フレーム41aと左フレーム41bが互いに内側方向に近接する方向へ付勢されており、装着者は、この右フレーム41aと左フレーム41bを押し広げて頭部への装着、又は取り外しを自在に行うことが可能となる。これら右フレーム41a、左フレーム41bの終端にヘッドホン43が取り付けられている。頭部装着部41は、装着後に後頭部に伸びるループを締めることで全体を頭部に固定可能とされている。
映像表示部42は、装着者の網膜に映像を直接投影して映像を視認させることを目的としたものである。この映像表示部42には、頭部装着型映像表示装置4による映像表示や音声出力等を制御するためのユニットが内部に実装されることとなる。またこの映像表示部42の下端には、装着者の鼻に載せることで安定した装着を実現するための鼻当て部42aが設けられていてもよい。
ヘッドホン43は、装着者の耳に装着可能とされている。このヘッドホン43は、装着者の耳を完全に被包するような形状、サイズで構成される場合に限定されるものではなく、小型のイヤホン式で構成されていてもよい。また、このヘッドホン43の構成は必須ではなく、必要に応じて省略するようにしてもよいが、使用時にはノイズキャンセリング機能を持つものが望ましい。
撮像部44は、映像表示部42の略中央部近傍に設けられている。これにより、撮像部44は、装着者と略同一の視点で現実空間をライブ映像として撮像することが可能となる。動きセンサ59は、撮像部44のように映像表示部42と一体として固定される。またマイク60は、ヘッドホン43の近傍に設けられているが、これに限定されるものではなく、いかなる箇所に設けられていてもよい。
図4は、この制御装置2並びに頭部装着型映像表示装置4のブロック構成を示している。頭部装着型映像表示装置4は、動きセンサ59、マイク60、映像表示部42、ヘッドホン43、撮像部44を有し、この映像表示部42は、更にアイトラッカー61と表示パネル62とを有している。制御装置2は、周辺インターフェース(I/F)57と制御アプリケーション20とを備えている。電源スイッチ58、操作部65はこの周辺I/F57に接続されている。動きセンサ59、マイク60、アイトラッカー61、表示パネル62、ヘッドホン43、撮像部44はそれぞれ周辺I/F57に接続されている。
表示パネル62は、撮像部44により撮像された映像、又は制御アプリケーション20から送信されてくる映像を表示する。この表示パネル62は、映像信号が入力された場合に、当該映像信号に基づいて画像を生成するための要素となる各信号(R,G,Bの3原色の信号)を発生する。また、発生した各RGB信号に基づく光を出射して合波し、その光を2次元に走査する。2次元に走査された光は、その中心線が装着者の瞳孔に収束するように変換され、装着者の眼の網膜に投影される。
ヘッドホン43は、制御装置2から送信されてくる音声信号が入力される。ヘッドホン43は、この入力されてくる音声信号に基づいた音声を出力する。
周辺I/F57は、動きセンサ59やマイク60、操作部65等から取得した情報を制御アプリケーション20へ伝達するための各種情報の送受信を中継する役割を担うインターフェースである。
電源スイッチ58は、例えば外部に露出した押圧可能なボタン型のスイッチで構成され、装着者がこれを押圧することで、頭部装着型映像表示装置4による処理動作を開始し、或いは当該処理動作を終了させる。電源スイッチ58の押圧が行われた場合には、周辺I/F57を介して頭部装着型映像表示装置4のON/OFFが切り換えられる。
動きセンサ59は、装着者の頭部の動きを検出する。この動きセンサ59は、ジャイロセンサ、加速度センサ、地磁気センサ等が用いられ、装着者の頭部の角度や傾きを検出する。この動きセンサ59は、頭部の位置そのものを検出するものであってもよい。また動きセンサ59は、体験環境に設置した図示しないカメラによるモーションキャプチャーシステムに置換するようにしてもよい。この動きセンサ59により取得された装着者の頭部の動きに関するデータは、周辺I/F57を介して制御アプリケーション20へと送信される。
マイク60は、周囲の音声を集音し、これを音声信号に変換する。マイク60は、この変換した音声信号を周辺I/F57を介してヘッドホン43へと送信する。この送信される過程で、音声信号に何らかの処理が施されるようにしてもよい。
アイトラッカー61は、装着者が表示パネル62において何れの方向を視認しているかを検出するため、装着者の視線方向を計測する。このアイトラッカー61は、例えば装着者の目の画像を撮像し、その画像を解析して瞳の方向を検出することで視線方向を特定するようにしてもよい。アイトラッカー61は、この特定した視線方向に関するデータを周辺I/F57を介して制御アプリケーション20へと送信する。
操作部65は、装着者が自らの意思に基づく入力を行うためのいわゆるユーザインターフェースである。この操作部65は、ボタン、キーボード、マウス、あるいはタッチスクリーン等で構成され、装着者がこれを介して入力を行う。この操作部65において何らかの入力が行われた場合、その情報は、周辺I/F57を介して制御アプリケーション20へと送信される。
制御アプリケーション20は、頭部装着型映像表示システム1全体を制御するためのアプリケーションソフトウェアである。
図5は、制御装置2における制御アプリケーション20のブロック構成を示している。制御装置2は、再生制御部28にそれぞれ接続された映像蓄積部22と、ライブ映像取得部23と、映像切出し方向更新部25と、視線映像制御部27と、映像出力部29と、音声データ取得部35と、音声出力部37とを備えている。映像蓄積部22には代替映像取得部21が接続され、映像切出し方向更新部25には頭部方向特定部24が接続され、視線映像制御部27には視線方向特定部26がそれぞれ接続されている。
制御装置2は、PC等で構成されることから、これらの構成に加えて各構成要素を制御するためのいわゆる中央演算ユニットとしてのCPU(Central Processing Unit)、制御装置2全体のハードウェア資源を制御するためのプログラムが格納されているROM(Read Only Memory)、データの蓄積や展開等に使用する作業領域として用いられるRAM(Random Access Memory)、表示パネル62においてコンテンツを表示するための画像処理を行うための画像処理部等を別途有している。
代替映像取得部21は、パノラマビデオカメラ31により撮像された映像を代替映像として取得する。また、この代替映像取得部21は、通信網5を介して取得した各種情報やデータに基づいて加工した代替映像を取得する。さらには、この代替映像取得部21は、フラッシュメモリや記録媒体を介して入力されてくる情報も代替映像として取得するようにしてもよいし、制御装置2における図示しないユーザインターフェースを介して入力された情報に基づくものであってもよい。代替映像取得部21は、取得した代替映像を映像蓄積部22へ出力する。
映像蓄積部22は、代替映像取得部21から出力されてくる代替映像を蓄積する。なお、この映像蓄積部22は、この代替映像取得部21からの代替映像のみならず、当初から予め各種コンテンツや情報を蓄積しておき、これを代替映像として記憶するようにしてもよい。この映像蓄積部22は、蓄積した代替映像を、再生制御部28による制御の下で読み出し、これを当該再生制御部28へと出力する。
ライブ映像取得部23は、撮像部44により撮像された映像信号を取得する。このライブ映像取得部23は、取得した映像信号を再生制御部28へと出力する。
頭部方向特定部24は、頭部装着型映像表示装置4における動きセンサ59により検出された装着者の頭部の動きに関するデータを取得する。この頭部方向特定部24は、取得した装着者の頭部の動きに関するデータから、実際に装着者の頭部の方向を特定する。頭部方向特定部24は、特定した装着者の頭部の方向を映像切出し方向更新部25へと通知する。
映像切出し方向更新部25は、頭部方向特定部24によって特定された装着者の頭部の方向に基づいて、頭部装着型映像表示装置4における表示パネル62に表示すべき映像の切出し方向を更新する。
視線方向特定部26は、頭部装着型映像表示装置4におけるアイトラッカー61より、装着者の視線方向に関するデータを取得する。この視線方向特定部26は、装着者の視線が映像空間内のどの方向にあるのかを画像情報解析を通じて特定する。視線方向特定部26は、特定した装着者の視線方向を視線映像制御部27へと通知する。
視線映像制御部27は、頭部装着型映像表示装置4における表示パネル62に表示すべき映像について、視線方向特定部26から通知される装着者の視線方向に関する情報に基づいて制御を行う。ここでいう映像の制御の例としては、ライブ映像取得部23により取得されたライブ映像と、映像蓄積部22において蓄積された代替映像との切替表示や、これらを互いに重ね合わせて表示する重畳表示等が先ず考えられる。またこの視線映像制御部27は、この装着者の視線方向に関する情報から、再生すべき情報に関するあらゆる制御や処理動作を実行するようにしてもよい。
音声データ取得部35は、外部から音声を取得し、これを蓄積する。外部からの音声の取得方法としては、例えば公衆通信網から有線、無線を介して取得するようにしてもよいし、記録媒体に記録された音声データを読み出してこれを記録するようにしてもよい。ちなみに、この音声データ取得部35は、一度取得した音声データを蓄積し、これを音声出力部37による制御の下で読み出す場合に限定されるものではなく、外部から取得した音声データをそのままリアルタイムに音声出力部37へ出力するようにしてもよい。
再生制御部28は、映像蓄積部22に蓄積されている代替映像や、ライブ映像取得部23において取得されているライブ映像を再生する。再生制御部28は、自らの再生動作において、映像切出し方向更新部25や視線映像制御部27による情報を用いて映像再生の制御を行う。
映像出力部29は、再生制御部28により再生されている映像をこれに接続されている周辺I/F57を介して頭部装着型映像表示装置4へ出力する。
音声出力部37は、音声データ取得部35により取得された音声データ、或いは外部から取得した音声データをそのままリアルタイムに周辺I/F57を介して頭部装着型映像表示装置4へ出力する。
通信網5は、有線又は無線による通信ネットワークであればいかなるものであってもよく、例えばインターネット、イントラネット、エキストラネット、LAN(Local Area Network)、ISDN(Integrated Services Digital Network)、VAN(value added network)、CATV(Community Antenna Television)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等である。
なお、本発明は、上述した頭部装着型映像表示システム1として具現化される場合に限定されるものではなく、ブレインマシンインターフェイス技術を用いて脳に直接情報を与えることでもよく、またこれを実現するためのプログラムとして具現化されるものであってもよい。
次に、本発明を適用した頭部装着型映像表示システム1について、制御装置2による処理動作を図6に示すフローチャートを用いて詳細に説明する。
ステップS11において、制御装置2は、ライブ映像表示を行う。このライブ映像表示では、撮像部44により撮像を行う。撮像部44は、映像表示部42の略中央部近傍に設けられていることから、当該撮像部44に撮像されるライブ映像は、映像表示部42の方向や位置に応じたものとなる。実際には、この映像表示部42は装着者に装着されるため、装着者の頭の向きや位置に応じたライブ映像がこの撮像部44を介して撮像される。撮像部44を介して撮像された被写体像は、撮像素子、レンズを介して撮像面上に結像され、光電変換により映像信号が生成される。この生成されたライブ映像に基づく映像信号は、制御装置2へと送信される。
制御装置2は、このような映像信号を、ライブ映像取得部23で受信し、これを再生制御部28へ出力する。再生制御部28に出力された映像信号は、当該再生制御部28により、ライブ映像として再生されるための処理が施される。このライブ映像は、映像出力部29を介して再び頭部装着型映像表示装置4へ出力される。
撮像されたライブ映像は、制御装置2を介して表示パネル62へ送信される。
表示パネル62へ送られたライブ映像は、その映像信号に基づいて画像を生成するための要素となる各RGB信号に基づく光として出射され2次元的に走査される。これにより装着者の眼の網膜には撮像部44により撮像されたライブ映像が投影される。
上述したように、この撮像部44による撮影範囲は、装着者の頭部の動きに応じたものなっている。このため、装着者は、自らの頭部の動きに応じたライブ映像を表示パネル62を介して視認することが可能となるため、あたかも表示パネル62を介して装着者と略同一の視点で現実空間を視認しているのと同様の感覚を覚えさせることが可能となる。
このようなステップS11におけるライブ映像表示を連続して実行していく過程で、制御装置2は、代替映像の表示機会を常に、或いは間隔をおいて検出する。この代替映像の表示機会の検出の意味するところは、装着者が代替映像の表示に関して何らかの意思を示した場合、或いは、装着者の意思に関わらずに代替映像を表示する何らかの機会を捉えた場合を示すものである。
この装着者の意思に基づく代替映像の表示機会の検出は、例えば動きセンサ59により検出された装着者の頭部の動きに基づくものであってもよいし、アイトラッカー61を介して検出された装着者の視線の動きに基づくものであってもよい。更には、代替映像の表示機会の検出は、操作部65を介して装着者からの何らかの意思表示が行われた場合であってもよいし、マイク60を介した音声入力を介して検出されるものであってもよく、さらには脳波、振動、運動、位置情報等、装着者から取得したあらゆる情報に基づくものであってもよい。或いは装着者を含めて周囲の環境、例えば、何らかの匂いや熱、触感に基づいて代替映像の表示機会を検出してもよい。
なお、上述した操作部65を介した入力や、マイク60を介した音声入力があった場合には、その入力タイミングと同時に代替映像を表示する場合に加え、表示タイミングと入力タイミングとの間で時間的なタイムラグを意図的に発生させるようにしてもよい。これにより、装着者に対して代替映像の表示を自分の感覚に基づいて行っているものと認識させることができ、当該代替映像の再生表示をより違和感無く実現できる。
また装着者の意思に基づかない代替映像の表示機会の検出としては、例えば間隔をおいて代替映像の表示に強制移行するものであってもよいし、或いは通信網5から受信した情報に基づいて代替映像の表示機会を検出するようにしてもよい。また、制御装置2内に組み込まれた所定のプログラムやアルゴリズムに基づいて発生させたイベントを、代替映像の表示機会と捉えるようにしてもよい。
ステップS12において、実際にこのような代替映像の表示機会を検出し続ける。その結果、代替映像の表示機会を検出できた場合には、ステップS13へ移行する。これに対して、代替映像の表示機会を検出できない場合には、ステップS11へ戻り、ライブ映像の表示を続ける。
ステップS13では、表示パネル62を介したライブ映像の表示に加え、代替映像を表示するモードに移行する。このステップS13では、表示パネル62上で表示されている図7(a)に示すようなライブ映像に対して、同じく図7(a)に示す代替映像を組み合わせて表示する。この代替映像は、ライブ映像に示されている建物や道路等の地理的な表示を指し示すものである。代替映像を組み合わせ表示する際には、例えば図7(b)に示すように、ライブ映像に代替映像を重ね合わせて表示するようにしてもよい。かかる場合には、再生制御部28は、ライブ映像の透明度を制御する。具体的には、ライブ映像の不透明度(不透過度)を下降させ、代替映像をこれに重畳させるようにしてもよい。当初ライブ映像の不透明度を100%としておくことで、ライブ映像のみ表示される状態となっており、それ以外の代替映像の不透明度は0%となっている。これに対して、代替映像を重ね合わせて表示する場合には、ライブ映像の不透明度を例えば50%とし、代替映像の不透明度も50%とすることで、現実空間の情報を殆ど失う事なく重ね合わせて表示することができる。これにより、不透明度が低下したライブ映像に代替映像が重畳されて、当該代替映像がユーザにより視認可能となる。このとき、代替映像のみ表示するモードに移行してもよく、係る場合にはライブ映像の不透明度を0%とし、代替映像の不透明度を100%に設定する。
また、ライブ映像に代替映像を組み合わせて表示する際には、互いに重ね合わせて表示する場合に限定されるものではなく、例えば図8に示すように互いに別画面で並列させて表示させるようにしてもよい。この図8(a)の例では、装着者に対して表示する表示パネル62における画面を2つに区切り、片側にライブ映像を表示し、他方にライブ映像を表示させるものである。ちなみに、この代替映像は、ライブ映像に表示されている建物に関する情報を表示している場合を例に挙げている。
また、かかる表示例以外には、アイトラッカー61や動きセンサ59により検出された情報に基づいて画面を切り替えるようにしてもよい。例えば図8(b)に示すように、アイトラッカー61や動きセンサ59を介して装着者が正面を向いているものと判別した合には、ライブ映像を表示する。そして、アイトラッカー61や動きセンサ59を介して装着者が側面を向いているものと判別した場合には、代替映像を表示するようにしてもよい。
ちなみに、制御装置2側において複数に亘り取得されている代替映像のうちいずれの代替映像を再生すべきかは、ステップS12において検出された代替映像の表示機会の種別に基づいて選択するようにしてもよい。代替映像の表示機会の種別とは、上述した、動きセンサ59により検出された装着者の頭部の動き、アイトラッカー61を介して検出された装着者の視線の動き、操作部65を介して装着者からの何らかの意思表示、マイク60を介した音声入力等の種別を意味する。例えば、アイトラッカー61を介して装着者の視線が右方向を視認した場合には、代替映像としてメールに関するコンテンツを、マイク60を介した入力で「ニュース」という音声の場合には代替映像としてニュースを再生するようにしてもよい。
このようなステップS13を終了後、再び通常のライブ映像のみの表示に戻るか、或いはライブ映像と代替映像とを組み合わせて表示することを継続して行う。このライブ映像に戻る場合には、上述した代替映像の表示機会として検出する各種イベントを検出したことを期に行うようにしてもよい。
なお本発明では、代替映像取得部21において、2以上の代替映像を取得することを前提とする。つまり、この代替映像取得部21では、予め2層以上に亘る、いわゆるマルチレイヤに亘る代替映像を取得し、これを映像蓄積部22へと記録しておく。そして、再生制御部28による制御の下で、このマルチレイヤの代替映像の中から、1以上の代替映像を選択し、これをライブ映像と並列させて、或いは重ね合わせて再生する。
また、代替映像とライブ映像を組み合わせて表示する際に、これらを互いに重ね合わせて表示する場合には、少なくとも一方の映像に対して背景を除去したり、人物を抽出したりする等の加工を施すようにしてもよい。これにより、現実に存在するものと認識されていた人物や自分自身の身体等の対象物を過去映像に対しても表示することができ、代替映像の現実感をより向上させることが可能となる。
また、例えば、代替映像とライブ映像の画質が、同一又は近似するものとして設定してもよい。これにより、装着者は、ライブ映像と代替映像を重ね合わせて再生しても、違和感を覚えなくなる。これらの効果は、代替映像とライブ映像を重ね合わせる場合のみならず、これらを互いに切り換えて表示する場合や、互いに並列させて表示する場合も同様の効果を得ることが可能となる。
また、代替映像とライブ映像との重ね合わせの映像を生成する上で、その代替映像の不透明度と、ライブ映像の不透明度は、再生制御部28においてそれぞれ調整する。例えば、ライブ映像の透明度のみを制御するようにしてもよいし、ライブ映像のみならず代替映像の不透明度も制御するようにしてもよい。これにより、ライブ映像による映像表示を薄く残しつつ、代替映像を表示させることも可能となる。このときライブ映像に対して代替映像がフェードイン又はフェードアウトするような構成を採用するようにしてもよい。これにより、ライブ画像には存在しない人物、建物、情報等が出現又は消滅しても、装着者は違和感を覚えることが無くなる。
なお、代替映像とライブ映像の不透明度は、表示パネル62の画素毎に設定することが可能である。代替映像とライブ映像を常時重ね合わせる場合においても、実際に重ね合わせが起きているのは、空間全体の一部だけに留めることも可能となる。また、画素単位で代替映像とライブ映像の不透明度を自由に設定することにより、代替映像とライブ映像が互いに混合する環境空間の範囲や、その形状を自由に変化させることが可能である。更にその画素毎の不透明度の変化を時系列的に変化させたり、動きセンサ59やアイトラッカー61等、装着者のアクションのあらゆるアクションに基づいて動的に変化させるようにしてもよい。
また、本発明では、代替映像を表示する際において、匂い、熱、振動、触覚、音声の少なくとも1つを装着者に対して及ぼすための手段を別途設けるようにしてもよい。例えば、代替映像として、天災に関する緊急速報を流す場合において、装着者に注意喚起するために振動や音声でそれを通知するようにしてもよい。
更に、本発明では、一の代替映像をライブ映像と重ね合わせて、或いは並行して再生する場合に限定されるものではない。映像蓄積部22には2以上の代替映像が蓄積されていることから、2以上の代替映像をライブ映像と重ね合わせて、或いは並行して再生するようにしてもよい。
かかる場合には、例えば図7(b)に示すような、ライブ映像と、地理的な表示を指し示す代替映像を重ね合わせて表示する場合に加え、更にその地域における天気予報等を始めとした他のコンテンツからなる代替映像を表示するようにしてもよい。このとき、ライブ映像と、地理的な表示を示す第1の代替映像と、天気予報からなる第2の代替映像を重ね合わせて表示する場合には、これら3つの映像の不透明度を調整することで、いずれの映像も装着者が視認可能となる。また、これら3つの映像のうち、何れか1以上を、図8に示すように重ね合わせて表示するのではなく、別画面で並行して表示するようにしてもよい。
ちなみに2以上の代替映像を同時に表示する場合には、ライブ映像の表示は必須とならない。かかる場合においてライブ映像の不透明度は0%とすることで、2以上の代替映像が重ねて表示されることとなる。
なお、透明度の調整については、動きセンサ59により検出した頭部の動き、又はアイトラッカー61により検出した視線の動き、さらには操作部65、マイク60を介した音声入力等、あらゆる手段を用いて実行してもよい。
このように、本発明では、代替映像を2つ以上に予めマルチレイヤ化しておき、このうち所望の1以上の代替映像を選んでライブ映像と組み合わせて表示させることが可能となる。また、本発明によれば、この表示すべき代替映像のうち、所望のものを順次切り換えることもできる。
所望の代替映像の選択や切替は、装着者の視線又は頭部の動きに基づいて実行するようにしてもよい。かかる場合には、動きセンサ59により検出した頭部の動き、又はアイトラッカー61により検出した視線の動きに基づいて、切替を行うようにしてもよい。またこれに限定されるものではなく、操作部65を介して装着者からの何らかの意思表示が行われた場合であってもよいし、マイク60を介した音声入力を介して検出されるものであってもよく、さらには脳波、振動、位置情報等、装着者から取得したあらゆる情報に基づくものであってもよい。或いは装着者を含めて周囲の環境、例えば、何らかの匂いや熱、触感に基づいて代替映像の表示機会を検出してもよい。
また装着者からのアクション以外の他の要因に基づいて2以上の代替映像間の表示を切り換えるようにしてもよい。この切り換えについては、例えば制御装置2において記録されているプログラムに沿って行うようにしてもよいし、通信網5から取得した情報に基づいて切り換えるようにしてもよい。
また、上述した実施の形態においては、2以上の代替映像を代替映像取得部21が事前に取得してこれを映像蓄積部22に蓄積し、必要に応じてこの映像蓄積部22から代替映像を読み出す場合を例にとり説明をしたが、これに限定されるものでない。例えば、ライブ映像の表示時において、代替映像が新たに必要となった場合、その新たに必要となる代替映像を、その都度通信網5から取得し、これを頭部装着型映像表示装置4へ出力するようにしてもよい。
本発明によれば、代替現実技術(現在と過去の映像を切り目無く、現実の延長として体験する技術)を利用することにより、いわば視覚情報空間を拡張することができる。特に本発明によれば、現実と過去という2枚で構成するのではなく、多種に亘る代替映像を複数レイヤに亘り形成しておくことにより、更にその複数レイヤへのアクセシビリティを透明度というパラメータ操作によってユーザである装着者自身が自らの意思に基づいて操作することができる。
このような視覚情報空間の拡張により、装着者が主体的に情報空間を操作し、代替映像を表示させて必要な情報にアクセスすることが可能となる。従来システムによれば、デバイスの持つスクリーンを通じてしか情報にアクセスすることができなかったため、アクセシビリティが低かった。これに対して本発明によれば、ライブ映像として表示されている現実空間に、代替映像を介して様々な情報を埋め込むことが可能となり、視覚情報を階層的に構築し、与えることが出来るため、まるで現実の視覚情報空間の情報量が拡大したかのような印象を装着者に与えることが可能となる。
以下の実施例1〜10において、代替映像の例について説明をする。但し、この代替映像は以下の実施例に限定されるものではなく、他のいかなるコンテンツ、データを代替映像化するようにしてもよい。
また本発明では、以下の実施例1〜10のうち、2以上をマルチレイヤ化して映像蓄積部22に蓄積しておくことで、装着者は多種に亘る代替映像コンテンツを視聴することが可能となる。
更に本発明によれば、音声データ取得部35において取得した音声データを一緒に再生するようにしてもよい。かかる場合には、制御装置2は、再生すべき代替映像に連動させてこの音声データを再生するようにしてもよい。例えば、再生すべき映像が地図情報であるのであれば、これに連動したアナウンスを音声データとして連動させて再生するようにしてもよい。また再生すべき映像がゲームに関するコンテンツ映像であれば、当該コンテンツに連動させた効果音や音楽を音声データとして連動させて再生するようにしてもよい。
代替映像の例としては、先ず通信網5から取得したあらゆる情報を用いることができる。上述の例では、制御装置2は、装着者の位置情報を取得して、その位置情報に対応する、建物や道路等の地理的な表示(地図情報)を通信網5から取得する。そして、ライブ映像に表示されている事象に合わせてその地図情報を表示する。例えば図7(b)に示すように代替映像を重畳させて表示する際には、ライブ映像に表示されている対象と位置合わせをするために、アイトラッカー61や動きセンサ59を介して装着者の視線方向や頭部の向き等を検出し、これらに基づいて微調整を行うようにしてもよい。
この代替映像としては、過去に撮像した過去映像を適用するようにしてもよい。この過去映像の撮影は、録画モジュール3を用いて行う。具体的には、この録画モジュール3におけるパノラマビデオカメラ31により、全方位に向けて時系列的に撮像を行う。図9(a)の平面図は、位置Pに配置されたパノラマビデオカメラ31により、全方位に向けて映像を撮影している状態を示している。パノラマビデオカメラ31における撮像装置321により、水平方向に向けて360°に亘り洩れなく撮像を行う。この撮像は、垂直方向に向けても同時に撮像されるが、以下の例では、この水平方向への撮像を例にとり説明をする。
このようにして、過去映像の撮像が行われると、複数の撮像装置321により各方向に対して時系列的に順次画像が撮像される。そして撮像された画像は、制御装置2へと送られることとなる。このため、過去映像の撮像が終了した段階で、制御装置2における映像蓄積部22には、位置Pを中心にして水平方向全方位に亘って撮像された動画像が蓄積されている状態となる。このとき、マイク32により音声を同時に収録しておいてもよい。
次にこの過去映像を代替映像として撮像する場合には、図9(b)に示すように、かつて過去映像の撮影を行った、同じ位置Pに頭部装着型映像表示装置4を装着した装着者が存在するものとする。過去映像を表示パネル62上に表示させる際には、制御装置2は、映像蓄積部22において蓄積されている過去映像を読み出し、これを頭部装着型映像表示装置4へと送信する。頭部装着型映像表示装置4は、かかる過去映像を受信し、上述の同様のプロセスで表示パネル62上にこれを表示する。
このとき、頭部装着型映像表示装置4における動きセンサ59により検出した頭部の動きや、アイトラッカー61により検出した視線方向を、表示パネル62上の表示に反映させるようにしてもよい。制御装置2には、アイトラッカー61や動きセンサ59を介して検出された、装着者の頭部の向きや視線方向に関する情報を送られてくる。動きセンサ59による頭部方向に関する情報は、頭部方向特定部24により、実際の装着者の頭部方向が特定され、またアイトラッカー61による視線方向に関する情報は、視線方向特定部26により装着者の視線方向が実際に特定されることとなる。
次に頭部方向特定部24や視線方向特定部26を介して、実際に装着者が捉らえようとする視角を特定する。仮に装着者が正面を向いている場合を特定した場合には、図9(b)の実線で示す範囲の視角に反映される映像を切り出せばよい。しかしながら、頭部方向特定部24や視線方向特定部26により、装着者が点線で示される領域を視覚として捉えている場合には、映像切出し方向更新部25により、切り出すべき映像の範囲を矢印方向へとシフトさせる。再生制御部28は、このようにシフトさせた範囲の映像を映像蓄積部22に記録されている映像から切り出し、これを代替映像として頭部装着型映像表示装置4へ送信する。このとき、過去映像は時系列的に録画されているものであるから、この切り出すタイミングもかかる時系列に沿って切り出すことが望ましい。頭部装着型映像表示装置4における表示パネル62に、このようにシフトした範囲で切り出した映像を表示することで、装着者に対して、あたかも自らの頭部の向きや視線方向に応じた視角で映像を視認している現実感覚を持たせることが可能となる。過去映像を撮像したパノラマビデオカメラ31の位置Pと、頭部装着型映像表示装置4を装着した装着者の頭部の位置Pが同一であることから、そのような感覚を植え付けることが可能となる。
このような過去映像としての代替映像も、ライブ映像と組み合わせて表示させることが可能となる。装着者は、当初ライブ映像を視認しているが、気づかぬ間にこの過去映像に切り換えられる。しかし、装着者は、当初からライブ映像を視認していることから、過去映像に切り換えられていても、自分自身はライブ映像を視認している意識のままでいる。つまり、当初にあえてライブ映像を装着者に視認させることで、過去映像への切り替えに気づかせ難くさせている。このとき、代替映像の表示に切り替わった後に、マイク32により録音した音声もヘッドホン43を介して流すことで、より装着者に対し、ライブ映像をあたかも視認している感覚を与えることができる。
なお、過去映像を代替映像として表示する際には、上述した実施の形態に限定されるものではない。例えば、過去映像を撮像したパノラマビデオカメラ31の位置Pと、頭部装着型映像表示装置4を装着した装着者の頭部の位置Pが同一である場合に限定されず、互いに異なる位置であってもよい。また、頭部方向や視線方向の双方を識別して過去映像の切り出しを行う場合に限定されず、頭部方向、視線方向の何れか一方を識別して過去映像の切り出しを行うようにしてもよい。
なお、この過去映像を代替映像として表示する際には、以下に説明するような各種工夫を盛り込むようにしてもよい。
例えば、過去映像とライブ映像の画質が、同一又は近似するものとして設定してもよい。かかる場合には、制御装置2は、ライブ映像、過去映像のそれぞれを撮像した撮像素子の特性データから求められた調整値を介して画質調整を行う。或いはこの制御装置2は、予め画質標準を定めておき、これにライブ映像、過去映像の画質が近似するように自動的に画質調整を行うようにしてもよい。これにより、装着者は、ライブ映像から過去映像への切り替わりにつき違和感を覚えなくなり、過去映像をあたかもライブ映像を視認しているような感覚を味合わせることが可能となる。これらの効果は、過去映像とライブ映像を切り換えて表示する場合のみならず、互いに並列させて表示する場合、或いは互いに重ね合わせて表示する場合も同様の効果を得ることが可能となる。
特に代替映像を過去映像とする場合において、過去映像に表示される対象物とライブ映像に表示される対象物を混在させるようにしてもよい。これにより、過去映像と現在映像との区別をより難しくすることが可能となる。
実施例2において説明したように代替映像を過去映像とする場合、以下に説明するような、時間のみならず、空間の次元も入れることで、あたかも過去の世界にタイムスリップしたかのような感覚をユーザに与えるようにしてもよい。
このようなタイムスリップ体験システムとして本発明を応用する場合には、図10に示すような座標系を考える。この座標系は横軸の座標が仮に1〜5からなり、縦軸の座標が仮にa〜eからなる5×5の座標系とされている。この座標系が存在する位置は、地球上のいかなる箇所であってもよく、例えば有名なストリートや建築構造物の付近であってもよい。
この座標系における座標点の数は、複数であればいかなるものであってもよい。座標系について、座標点の間隔も数cm〜数km等、いかなる長さで構成されていてもよい。このような各座標点において、代替映像として過去映像を撮影する。過去映像の撮影は、上述した録画モジュール3を用いて行う。即ち、録画モジュール3におけるパノラマビデオカメラ31により、全方位に向けて撮像を行う。
パノラマビデオカメラ31における中心位置Pを各座標点に載置し、全方位に向けて映像を撮影する。パノラマビデオカメラ31における撮像装置321により、水平方向に向けて360°に亘り洩れなく撮像を行う。この撮像は、上述と同様に垂直方向に向けても撮像するようにしてもよい。撮像された画像は、順次制御装置2へと送られることとなる。
このようにして、過去映像の撮像が行われると、他の座標点にパノラマビデオカメラ31における中心位置Pを移し、同様に全方位に向けて映像を撮影する。撮像した画像は、順次制御装置2へと送られることとなる。このような撮像を、5×5の座標系における座標点全てについて行う。その結果、全ての各座標点について、360°に亘り洩れなく撮像されたパノラマ画像が、制御装置2へ送られることとなる。5×5の座標系における座標点全てについて、過去映像の撮像が終了した段階で、制御装置2における映像蓄積部22には、位置Pを中心にして水平方向全方位に亘って撮像された動画像が5×5の座標系における座標点全てについて蓄積されている状態となる。このとき、マイク32により音声を同時に収録しておいてもよい。
上述した映像の撮像が、タイムスリップする過去の映像の撮像に相当する。このような画像を撮像することで、その撮影した当時の5×5の座標系における座標点全てについて、映像が座標点毎に水平方向全方位に亘り記録されている。5×5の座標系以外に、更にこれを拡張し、m×n(m、nは、ともに正の整数)であれば、m、nがいかなる大数で構成されていてもよい。
このような過去映像は、図11に示す時間軸に応じて、順次取得するようにしてもよい。例えばy1年において、上述した座標系における座標点全てについて水平方向全方位に亘り映像を取得する。次にy1年から所定年数経過したy2年においても同様に、上述した座標系における座標点全てについて水平方向全方位に亘り映像を取得する。y2年から同様に所定年数経過したy3年も同様に撮像を行う。その結果、図12に示すように各年代(y1年〜y3年)において、それぞれ座標系における座標点全てについて水平方向全方位に亘り映像を取得されている状態となる。実際には、制御装置2における映像蓄積部22において、これら各年代における各座標点について取得された映像が、当該各座標点と関連付けて記録されている。即ち、空間軸のみならず、時間軸の両方において映像が蓄積された状態となる。
次に、本実施例において、実際にタイムスリップをユーザに体験させる例について説明をする。このタイムスリップ体験を行う時点は、過去に映像が取得された時点(y1年〜y3年)よりも時間が経過したy4年(換言すれば現在)である。つまり現在であるy4年から、これよりも過去であるy1年〜y3年の何れかの年代にタイムスリップすることをユーザに体験させるものである。
かかる場合には、y4年において同様の座標軸で処理を行う。図13は、y4年における5×5の座標系である。この5×5の座標系は、上述した各年代(y1年〜y3年)において画像を撮像した5×5の座標系に対応している。
ユーザは、上述した頭部装着型映像表示装置4を被り、この5×5の座標系の領域を自由に動き、また自由に様々な方向へ向いたりする。仮に、ユーザが座標2−aに位置し、その視角が図13に示すような範囲にあるときに、過去映像を表示パネル62上に表示させる。このとき、ユーザは、y1年〜y3年の何れの年代にタイムスリップするかを予め選択する。このとき、ユーザは自ら何れの年代にタイムスリップするかを自身が入力して決めるようにしてもよい。仮にy1年にタイムスリップする場合には、制御装置2は、映像蓄積部22において蓄積されている過去映像のうち、y1年でしかも座標が2−aの過去映像を読み出し、これを頭部装着型映像表示装置4へと送信する。
このとき、ユーザの視角についても動きセンサ59やアイトラッカー61により検出し、それに対応した映像を切り出す。かかる場合には、実施例2と同様に、頭部方向特定部24や視線方向特定部26を介して、実際に装着者が捉らえようとする視角を特定する。仮に装着者が実線で示される方向に視角が有る場合には、当該範囲の視角に反映される映像を切り出せばよい。頭部装着型映像表示装置4は、切り出した過去映像を受信し、上述の同様のプロセスで表示パネル62上にこれを表示する。
このとき、頭部装着型映像表示装置4における動きセンサ59により検出した頭部の動きや、アイトラッカー61により検出した視線方向を、表示パネル62上の表示に反映させるようにしてもよい。例えばユーザが、この座標2−aにおいて、実線で示される視角から点線で示される視角まで動いたものと仮定する。この視角の動きは、アイトラッカー61や動きセンサ59等を介して検出される。そして、当該視角に応じた範囲の映像を切り出し、上述の同様のプロセスで表示パネル62上にこれを表示する。画像の切り出し方法やその詳細な制御は、実施例2の説明を引用することで、以下での説明を省略する。
次にユーザが座標2−aから座標3−bに移動したものとする。この移動における位置情報の取得については、例えば、頭部装着型映像表示装置4に設けられたGPS(Global Positioning System)を利用するようにしてもよい。そして制御装置2がユーザが座標3−bに移動したことをGPS等を通じて識別した場合、制御装置2は、映像蓄積部22において蓄積されている過去映像のうち、y1年でしかも座標が3−bの過去映像を読み出し、これを頭部装着型映像表示装置4へと送信する。このとき、アイトラッカー61や動きセンサ59等を介して検出されるユーザの視角の変化に応じて切り出す映像の範囲を変更するようにしてもよい。
次にユーザが座標3−bから座標3−cに移動したものとする。係る場合も同様に、制御装置2は、映像蓄積部22において蓄積されている過去映像のうち、y1年でしかも座標が3−cの過去映像を読み出し、これを頭部装着型映像表示装置4へと送信する。このとき、アイトラッカー61や動きセンサ59等を介して検出されるユーザの視角の変化に応じて切り出す映像の範囲を変更するようにしてもよい。座標3−cから座標4−dへ移動した場合においても同様の処理を行う。その後も上述の処理を繰り返し実行していく。
この過程においてユーザは、座標2−aから座標4−dまで移動し、好みの方向に視角を変化させているが、常にそのユーザの移動や視角の変化に追随させて、過去映像が読み出され、これが表示パネル62上に表示される。このため、ユーザは、あたかも過去にタイムスリップしたかのような間隔を味わうことが可能となる。
ユーザは、y1年における映像を堪能した後、他の年代にも自由に移行してその時代の映像を堪能することもできる。また各年代に擬似的にタイムスリップすることに加え、その年代における空間を自由に歩き回って楽しむことができ、より臨場感のある時間旅行を味わうことが可能となる。即ち、時間軸のみならず空間軸も自由に移動できる本実施例において、ユーザは、目の前に起きている現実のイベントとして体験を行うことができる。
このような過去映像としての代替映像も、ライブ映像と組み合わせて表示させることが可能となる。装着者は、当初ライブ映像を視認しているが、気づかぬ間にこの過去映像に切り換えられる。しかし、装着者は、当初からライブ映像を視認していることから、過去映像に切り換えられていても、自分自身はライブ映像を視認している意識のままでいる。つまり、当初にあえてライブ映像を装着者に視認させることで、過去映像への切り替えに気づかせ難くさせている。このとき、代替映像の表示に切り替わった後に、マイク32により録音した音声もヘッドホン43を介して流すことで、より装着者に対し、ライブ映像をあたかも視認している感覚を与えることができる。
本実施例では、m×nの座標系における歴史情報を構築することも可能となる。例えば数十年に亘り同じ場所でパノラマビデオカメラ31の撮像をし続けることができれば、m×nの座標系の地点限定のいわゆるタイムマシンとして機能させることができる。これを、m×nの座標系の地点のみならず、世界中の至る箇所でこれを行うことで、時間と空間を移動することができる、真の意味でのタイムマシンが実現可能となる。そして、図12に示すように、過去から現在に至るまでの時空間を基準点として、意味情報があたかも七夕の短冊のようにぶら下がる構造を作ることができる。そして、その意味情報が時間の変化に応じて変化することを許容するイベントドリブンな動的なデータベースを作ることが可能となる。また、本実施例の今後の発展としては、人類の歴史そのものを記録、検索、追体験する技術であり、これまでにない全く新しいサービスイノベーションであるといえる。
なお、上述した実施例では、位置情報として座標系を用いる場合を例にとり説明をしたが、これに限定されるものではなく、極座標で体系化されていてもよいし、また座標とは異なるあらゆる位置情報で体系化されるものであってもよい。そして、その位置情報に関連させて過去映像をそれぞれ取得しておき、これを事後的に読み出してタイムスリップ追体験が実現できるものであればいかなるシステムで構成されていてもよい。
また、本実施例では、座標系全ての座標点について代替映像を取得する必要はなく、代替映像を2箇所以上に亘り、その位置情報と関連させて取得するものであればよい。
代替映像としては、例えばゲームに関するコンテンツ映像を当てはめるようにしてもよい。近年は、ヘッドマウントディスプレイを利用したゲームが制作されているが、これらを代替映像に当てはめ、プレイヤーとしての装着者からのアクション(動きセンサ59、アイトラッカー61、操作部65等による入力に基づく)をそのゲームに反映させる。代替映像は、複数に亘りレイヤ化されていることから、ゲームコンテンツに関する映像も複数に亘りレイヤ化しておき、場面に応じてこれらを順次読み出して表示する。このときレイヤ化されているゲームコンテンツ映像を互いに重ね合わせ、或いはこれらを互いにフェードアウト、フェードインさせることで装着者に対して、違和感の無い代替画像間の移り変わりを表現することが可能となる。
代替映像として、例えば映画等を始めとした映像コンテンツを再生するようにしてもよい。係る場合には、第1の代替映像として通常の映画コンテンツを再生し、第2の代替映像として、その映画コンテンツに関する付随情報を再生するようにしてもよい。この付随情報としては、例えば映画コンテンツに関する視聴者からのコメントを通信網から取得して流すようにしてもよいし、キャストや今までのあらすじ、人物関係等を表示するようにしてもよい。また、第3の代替映像には、映画と関係の無いニュースや天気予報等を再生するようにしてもよい。
代替映像として、投資情報(株、為替、債権、先物取引)をリアルタイムに再生するようにしてもよい。かかる場合には、第1の代替映像において、ある銘柄の5分足のチャートを、また第2の代替映像では、その銘柄の日足のチャートを表示するようにしてもよい。また第1の代替映像には、日足、月足のチャートを並べて表示し、第2の代替映像には、為替のチャートを載せてもよいし、或いはリアルタイムに取得したニュース、さらには気配値を表示するようにしてもよい。何れの場合においても、通信網5からリアルタイムに投資情報を取得して、これを複数レイヤに亘る代替情報とする。装着者は、この複数レイヤからなる代替情報のうち、自らが確認したい投資情報を指定することで、これらが読み出されて表示パネル62上に表示されることとなる。
携帯情報端末(携帯電話、スマートフォン)や、タブレット型端末、PC等に適用される各種アプリケーションを代替映像として再生するようにしてもよい。かかる場合には、これらのアプリケーションを通信網5から取得して映像蓄積部22に蓄積しておく。必要に応じてアプリケーションが映像蓄積部22から読み出され、代替映像として再生されることとなる。
装着者が実際にライブ映像や代替映像を視聴している地点と異なる地点で撮像された映像、代替映像としてこれを再生するようにしてもよい。かかる場合には、異なる場所に設置した録画モジュール3により、事前に又はリアルタイムに映像を撮像し、これを制御装置2へと送信する。制御装置2における代替映像取得部21は、この送信されてくる映像を代替映像として取得し、事前に撮像した映像であれば、これを映像蓄積部22に一度蓄積し、リアルタイムの映像を送る場合にはそのまま、映像出力部29を介して頭部装着型映像表示装置4へと送信する。ライブ映像の背景を取り除き、上記代替映像と重ねて表示する事で、離れた場所に自分自身がいるかのような感覚を作り出す事が可能である。
ライブ映像として劇場で観劇をする場合、或いは競技場等でスポーツ観戦をする場合に、これに関する付随情報を代替映像として再生するようにしてもよい。例えば頭部装着型映像表示装置4の位置情報等を取得した上で、その位置が競技場であればその時間帯において行われる競技の情報を、またその位置が劇場であればその時間帯において公演予定の劇に関する情報を通信網5から取得する。そして、この通信網5から取得した情報を代替映像として再生する。もしくは、複数のパノラマカメラからとった映像を複数の代替映像としてもよく、それらを使用者の意図に応じて切り替える事もできる。
電子メールの画面を代替映像として表示するようにしてもよい。制御装置2は、通信網5を介して受信したメール又はこれに関する情報を代替映像として、これを再生する。
代替映像としては、テレビジョン放送を適用するようにしてもよい。これにより、装着者は、ライブ映像と組み合わせて代替映像からテレビジョン放送を視聴することも可能となる。