JP2018056924A - 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス - Google Patents

画像表示装置、及びこれを用いた仮想現実インタフェースデバイス Download PDF

Info

Publication number
JP2018056924A
JP2018056924A JP2016193921A JP2016193921A JP2018056924A JP 2018056924 A JP2018056924 A JP 2018056924A JP 2016193921 A JP2016193921 A JP 2016193921A JP 2016193921 A JP2016193921 A JP 2016193921A JP 2018056924 A JP2018056924 A JP 2018056924A
Authority
JP
Japan
Prior art keywords
projector
image
virtual
user
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016193921A
Other languages
English (en)
Inventor
匡佑 安本
Kyosuke Yasumoto
匡佑 安本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2016193921A priority Critical patent/JP2018056924A/ja
Publication of JP2018056924A publication Critical patent/JP2018056924A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

【課題】HDMを用いずに、ユーザの移動に追従して、より自然な態様で仮想現実空間を創出する技術を提供する。
【解決手段】画像表示装置は、仮想世界の空間のデータを用いて仮想世界の空間に設定された仮想カメラにより撮影された前記仮想世界の一部の画像を生成する画像生成部と、前記生成された画像を現実世界の空間に投影するプロジェクタと、前記プロジェクタの投影方向、および該プロジェクタの位置を検出する検出部と、を有し、前記画像生成部は、前記検出部により前記プロジェクタの移動が検出された場合、前記検出部の検出結果に基づき、前記プロジェクタの移動に応じて前記仮想世界の空間において前記仮想カメラを移動させ、移動後のプロジェクタの投影方向に応じた方向が撮影方向となるように前記仮想カメラを設定し、該設定された仮想カメラにて前記画像を生成する。
【選択図】図3

Description

本発明は、仮想現実環境を作り出す画像表示技術と、これを利用した仮想現実インタフェースデバイスに関する。
近年、コンピュータで生成した仮想世界を体験する仮想現実(VR:Virtual Reality)ディスプレイが開発されている。特に、個々のユーザが仮想現実を楽しむことのできる表示システムとして、頭部装着型の表示装置(HMD:Head Mount Display)が商業化されつつある。HMDに設けられた運動検出装置で操作者の頭部の動きの変化を計測して画像の切り出しと表示を行う装置が知られている(特許文献1参照)。また、仮想のぞき穴画像生成システムで、固定位置にあるAR(Augmented Reality:拡張現実)マーカと、このARマークを読み取るWEBカメラとの相対位置関係(WEBカメラの視角)に応じて、WEBカメラを有する端末に表示させる画像の見える範囲を変える技術が知られている(特許文献2参照)。
特開2007−213407号公報 特開2014−106556号公報
HMDは、直接人体に装着されるため、ユーザに対して煩わしさや不快感を与えることがある。従って、HMDを用いなくてもVR体験ができることを望む声もあるであろう。
また、VR体験のコンテンツによっては、実際にユーザが動き回れると、よりその世界観に没入できたり、動けることによる多様性も産まれ、その体験の質の向上に繋がる。このような状況をHMDを用いないVR体験に適用できれば、HMDを用いることに躊躇している人にも受け入れられ易く、かつ今までに無いVRコンテンツの提供ができるかもしれない。
そこで、本発明は、HMDを用いず、ユーザが移動してもその移動に応じたVR体験を実現可能な画像表示装置と、これを用いた仮想現実インタフェースデバイスを提供することを目的とする。
本発明の一つの態様では、画像表示装置は、
仮想世界の空間のデータを用いて仮想世界の空間に設定された仮想カメラにより撮影された前記仮想世界の一部の画像を生成する画像生成部と、
前記生成された画像を現実世界の空間に投影するプロジェクタと、
前記プロジェクタの投影方向、および該プロジェクタの位置を検出する検出部と、
を有し、
前記画像生成部は、前記検出部により前記プロジェクタの移動が検出された場合、前記検出部の検出結果に基づき、前記プロジェクタの投影方向に応じた方向が撮影方向となるように前記仮想カメラを設定し、前記設定された仮想カメラにて前記画像を生成する。
本発明によれば、HMDを用いず、ユーザが移動してもその移動に応じたVR体験を実現することができる。
本発明の一実施形態に係る画像表示装置の適用例を示す図である。 本発明の一実施形態に係る画像表示装置のハードウェア構成図である。 本発明の一実施形態に係る画像表示装置の機能ブロック図である。 本発明の一実施形態に係る画像表示装置における画像生成を説明する図である。 本発明の一実施形態に係る、ユーザの位置移動に応じた画像生成を説明する図である。 本発明の一実施形態に係る、ユーザの位置移動に応じた画像生成を説明する図である。 本発明の一実施形態に係る、ユーザの位置移動に応じた画像生成を説明する図である。 プロジェクタから被投影面までの距離と、投影される画像の関係を説明する図である。 本発明の一実施形態に係る、画像表示装置で行われる処理のフローチャートである。 本発明の一実施形態に係る、視点の方向とプロジェクタクタの方向が一致しない例を説明する図である。 本発明の一実施形態に係る、視点の方向とプロジェクタクタの方向が一致しない別の例を示す図である。 本発明の一実施形態に係る、投影画像の補正例を示す図である。 本発明の一実施形態に係る、投影画像の補正例を示す図である。
本発明の実施形態について、図面を参照して説明する。以下の記載は、本発明を実現する構成と手法の一例であり、発明の範囲を限定するものではない。
図1は、実施形態の画像表示装置10の適用例を示す図である。図1(A)は画像表示装置10を用いた仮想現実インタフェースデバイス100の外観図、図1(B)は仮想現実インタフェースデバイス100の使用状況を示す図である。
図1(A)で、仮想現実インタフェースデバイス100は弓型デバイスであり、画像表示装置10と、弓本体105を有する。弓本体105は、グリップ101、リム102、弦103を有し、実際の弓と同じ質感と形状を有する。画像表示装置10は、プロジェクタ16の投射レンズが露出するように、グリップ101の先端部に内蔵または取り付けられている。
図1(B)に示すように、ユーザU1は現実世界の空間に位置し、仮想現実インタフェースデバイス100を保持している。空間内には実在する壁W1が存在し、画像表示装置10のプロジェクタ16から投射される画像が、投影領域A1に表示される。投影領域A1は、プロジェクタ16の映像光の出射方向の移動に応じて、壁W1上、または実在する物体上を移動する。本実施形態では、ユーザU1の周囲には仮想世界の空間(現実世界では当然見えない)が広がっており、プロジェクタ16による投影領域A1にのみ、上記仮想世界の空間の一部が出現することになる。すなわち、プロジェクタ16が向いた方向における仮想世界の空間が投影されることにより、ユーザU1は、ある意味現実世界に重畳して存在していると仮定された仮想世界の空間の一部を見ることができる。よって、プロジェクタ16による投影画像(投影領域A1)は、仮想世界の空間と現実世界との移動可能なインタフェースとして機能し、現実世界での投影領域A1の位置に応じてその位置に対応する仮想世界における映像が投影領域A1を介してユーザは見ることになる。投射される画像は、静止画像であってもよいし、動画像であってもよい。
ユーザU1は、投影領域A1に向けて弓を構え、弦103を引いて離すことで、投影方向に仮想的な矢を打つことができる。弓本体105の質感、弦を弾く音や反動により、仮想現実への没入感を得ることができる。ユーザU1は全方向に体の向きを変えるだけでなく、空間内を自由に移動することができる。後述するように、画像表示装置10はポジショントラッキング機能を有し、ユーザU1の位置移動(すなわち、プロジェクタ16の位置移動)に追従して仮想世界の空間における該当する領域の画像を動的に生成(レンダリング)し、該画像を投影することにより、現実世界に投影される仮想オブジェクトの見え方を3次元的に変化させる。この処理の詳細については後述する。
図2は、画像表示装置10のハードウェア構成図である。画像表示装置10は、プロセッサ11、通信インタフェース12、補助記憶装置13、バッテリ14、センサ15、プロジェクタ16、メモリ17、ドライブ18を有し、これらはバス19で相互に接続されている。画像表示装置10に外部記録媒体21が着脱可能に装着されてもよい。プロセッサ11とメモリ17は、スティックPCで実現されてもよい。
プロセッサ11は、画像表示装置10の全体の動作を制御し、一般的な情報処理制御を行うマイクロプロセッサ11aと、画像生成を制御するグラフィックプロセッサ11bを含む。プロセッサ11は、補助記憶装置13またはメモリ17に保存されたプログラムを実行して、画像表示装置10の画像生成と出力を制御する。通信インタフェース12は所定のプロトコルで外部装置との通信を行う。画像表示装置10が外部装置と協働してポジショントラッキングを行う場合は、通信インタフェース12を介した送受信が行われてもよい。補助記憶装置13は、SSD(Solid State Drive)、HDD(Hard Disk Drive)などの記憶装置であり、たとえば、画像表示装置10の動作を制御する制御プログラムや仮想世界画像を生成する画像生成プログラム、仮想現実インタフェースデバイス100によって実施されるゲームの制御プログラム等を格納する。補助記憶装置13はまた、画像表示装置10の動作に必要な各種のデータ、ファイル等を格納する。各種データには、仮想世界の空間データ(当該空間に存在するオブジェクトデータを含む)などが含まれる。バッテリ14は、画像表示装置に駆動電力を供給する電源であり、リチウムイオン電池、ニッケル水素バッテリ等を用いることができる。
センサ15は、画像表示装置10の位置及び状態を検知する各種のセンサを含む。センサ15は、例えば、10軸センサ(3基の加速度センサ、3基のジャイロセンサ、3基の電子コンパス、及び1基の気圧センサ)、歪センサ(歪ゲージ)、位置センサ等を含む。10軸センサは、画像表示装置10の向き、より正確には、プロジェクタ16の光出射面の向きを検出する。歪センサはリム102の歪みを検知して、弦103が引かれたこと、及び弦103が放されたことを検知する。プロセッサ11は、歪センサの出力により、ユーザU1による矢を射る動作を特定し、仮想矢が射られる画像を生成し出力する。歪みセンサの出力はリム102の歪みの大きさと相関し、射られた仮想矢の速度が特定可能である。位置センサは、画像表示装置10の現在位置を検出する。センサ15には、センサ15(又はプロジェクタ16)から周辺のオブジェクト(例えば壁)までの距離を測定可能な距離センサなどの他のセンサが含まれてもよい。
プロジェクタ16は、たとえばレーザ光源を含む投影光学系を有し、グラフィックプロセッサ11bにより生成された画像を、壁W1など、スクリーンになり得る任意の場所に投射する。プロジェクタ16の投影画角は投影光学系によって決まり、固定である。メモリ17は、ROM(Read Only Memory:リードオンリーメモリ)、及びRAM(Random Access Memory:ランダムアクセルメモリ)を含む。ROMは、プログラムの起動指示に応じて補助記憶装置13から読み出されたプログラムを格納する。RAMは、プロセッサ11のワークエリアとして用いられる。ドライブ18は、外部から記録媒体21がセットされたときに記録媒体21に記録された情報を読み出して、補助記憶装置に書き込む。
図3は、画像表示装置10の機能ブロック図である。画像表示装置10は、状態検出部110と、ポジショントラッキング部111と、画像生成部112と、投影制御部113を有する。状態検出部110、ポジショントラッキング部111、及び投影制御部113の機能は、図2のマイクロプロセッサ11aにより実現される。画像生成部112の機能は、図2のグラフィックプロセッサ11bにより実現される。
状態検出部110は、センサ15の出力に基づいて、プロジェクタ16の光出射面が向いている仰角方向と方位角方向の向き(すなわち、プロジェクタ16による投影方向)、及びプロジェクタ16の高さを検知する。
ポジショントラッキング部111は、プロジェクタ16の平面位置を検出する。あるいはプロジェクタ16の高さ位置と合わせて、3次元座標で表される空間位置を検出してもよい。ポジショントラッキング部111によるプロジェクタ16の位置検出は、任意の手法で行うことができる。たとえば、仮想現実インタフェースデバイス100を使用する空間(部屋等)の形状情報をあらかじめメモリ17または補助記憶装置13に記憶しておき、センサ15でプロジェクタ16の周囲に存在する実オブジェクト(壁など)までの距離を測定する。センサ15とプロジェクタ16の光出射面との位置関係はあらかじめわかっているので、空間の形状情報と測距結果に基づいて、プロジェクタ16の光出射面の位置を検出することができる。他の方法として、例えば、仮想現実インタフェースデバイス100が使用される場所に、ユーザU1の動きを検知可能なモーションセンサを配置してもよい。画像表示装置10は、通信インタフェース12を介してモーションセンサから検出結果を受信し、受信結果に基づいて画像表示装置10の位置を検出する。
さらに別の方法として、仮想現実インタフェースデバイス100を使用する空間に、一定の出力パターンで光または電波を送信する小型基地局を設置し、通信インタフェース12または光センサによる受信または受光結果に基づいて画像表示装置10の位置を計算してもよい。受信結果には、受信タイミング、受信信号の到来方向、基地局ID等が含まれる。この手法で画像表示装置10の位置を特定する場合は、空間内に少なくとも2つの基地局が設置されることが望ましい。画像表示装置10には、あらかじめ2つの基地局の位置情報と識別情報が入力され、2つの基地局のそれぞれに対する相対位置から位置を特定する。仮想現実インタフェースデバイス100が、たとえば屋外のテント内の空間で使用される場合は、GPS機能を利用してもよい。本実施形態で重要なことは、プロジェクタ16の位置を推定(特定)、すなわちポジショントラッキングすることにあり、その方法は本質ではない。従って、プロジェクタ16のポジショントラッキングが実現できれば、いずれの構成を用いても良いことは言うまでも無い。
ポジショントラッキング部111は、センサ15によって一定の時間間隔で検出される位置情報に基づいて、画像表示装置10(より正確にはプロジェクタ16の光出射面)の移動の方向、移動後の位置、移動量等を算出し、ユーザU1の移動を追跡する。移動は、回転移動、並進移動、上下移動など、任意の方向への移動を含む。
画像生成部112は、補助記憶装置13またはメモリ17に記憶されている仮想世界の空間のデータと、状態検出部110により検知された画像表示装置10の向きと、ポジショントラッキング部111により得られたユーザU1(すなわちプロジェクタ16)の移動情報に基づいて、プロジェクタ16の位置および方向の変化に応じて、仮想世界の空間に設置された仮想カメラが撮影した画像(視界画像)を生成(レンダリング)する。すなわち、仮想世界の空間内の仮想カメラは、現実世界内のプロジェクタ16に対応付けられており、プロジェクタ16(すなわち、ユーザU1)が所定距離だけ移動すると、その距離分だけ、またはその距離に比例する距離だけ同様に仮想カメラも仮想世界に空間内を移動するように構成されている。本明細書において、「仮想カメラ」とは、仮想世界内の様子を映し出すものであって、所定の仮想世界の空間内の所定の位置に設置された仮想カメラで撮影された画像(視界画像)をプロジェクタ16により表示される。画像生成部112は、仮想現実インタフェースデバイス100を使用するユーザU1の視点から見た仮想現実空間が、より現実世界での視界画像に近似するように、画像生成を行うことが好ましい。たとえば、プロジェクタ16の光出射面とユーザU1の視点位置が必ずしも一致しないことを前提として、ユーザU1の視点から見たときの仮想世界の空間の視界画像を生成してもよい。
上述のように、プロジェクタ16(すなわち、プロジェクタ16を持つユーザU1)の自由な位置移動にともなって、対応する仮想世界の空間内に設置された仮想カメラも移動するので、上記プロジェクタ16により現実世界に投影されるオブジェクトの見え方が変わってくるはずである。たとえば、ユーザU1がXY面内で走りながら仮想の獲物オブジェクトに弓で狙いをつけるときや、身を低くしながら木の枝にとまる仮想の鳥オブジェクトに狙いをつけるとき、同じオブジェクトであってもユーザU1の位置によって見え方が変わるはずである。そこで、画像表示装置10の位置移動に応じて、投影されるオブジェクト画像を異なる位置と角度から生成する。なお、後述するように、画像表示装置10を弓型の仮想現実インタフェースデバイス100に適用する場合は、プロジェクタ16の光出射面とユーザU1の視点の位置関係は、所定の関係にあると推定されるものとする。なお、画像生成部112は、補正部114を有し、プロジェクタの光出射面の方向とユーザU1の視点の方向がずれているときに補正を行う構成としてもよい。この補正については、発展例として後述する。
投影制御部113は、プロジェクタ16による仮想世界画像の投影を制御する。なお、本明細書では、「仮想世界画像」とは、対象の仮想世界の空間内で仮想カメラが撮影した画像をプロジェクタ16にて被投影物(例えば、壁等)に投影し、その被投影物に形成された画像である。仮想カメラにて撮影された画像である視界画像をプロジェクタ16により投影されるので、視界画像と仮想世界画像とは同一の場面を表現しているので実質的に同じ画像であると言えるであろう。よって、これら2つの画像は、捉える側面によって呼び方が変わるものと言える。
投影制御部113は、プロジェクタ16の投射位置と、仮想世界の仮想カメラ視点の位置に応じて、仮想世界画像に含まれる任意の点が、現実世界の空間の対応する点に投影されるように、投影を制御する。本実施形態に係る弓型の仮想現実インタフェースデバイス100では、仮想カメラの視点はユーザU1の視点に対応する。画像生成部112で生成された視界画像に含まれるオブジェクトのサイズとオブジェクト間の距離が、現実空間に投影された画像におけるオブジェクトのサイズとオブジェクト間の距離に対応(又は一致)するように、生成された画像は拡大されて投影される。
図4は画像生成部112による仮想世界画像(視界画像)の生成を説明する図である。図4(A)は、仮想現実インタフェースデバイス100を使用するユーザの姿勢推定を説明する図、図4(B)はプロジェクタ16による仮想世界画像の投影を示す図である。図4(A)において、現実空間に投影されたオブジェクトを弓で狙うという動作の性質上、グリップ101の先端に配置されたプロジェクタ16の投射方向と、ユーザU1の視線の方向はほぼ一致すると仮定できる。プロジェクタ16の光出射面の位置をPp、ユーザU1の視点位置をPe、プロジェクタの光出射面の向きをVp(プロジェクタの撮影方向)、視線の向きをVeとすると、VpとVeがほぼ一致すると仮定するのである。
図4(A)では、コンピュータグラフィック(CG)やゲームでの座標系に合わせて、高さ方向をY方向、視線の奥行方向をZ方向としている。プロジェクタ16の光の投射方向が床面(XZ面)とほぼ平行と仮定すると、仮想世界の視界画像をレンダリングする仮想カメラの視点、すなわちユーザU1の視点位置Peは、XZ面と平行な面内で、プロジェクタ16の位置Ppから距離nだけ後方にある。本実施形態では、距離nは、ユーザU1が弓型の仮想現実インタフェースデバイス100を正しく構えた時のプロジェクタ16の光出射面の位置Ppと視線位置Peとの間の距離である。プロジェクタ16の投射方向がXZ面と水平でない場合(たとえば斜め上方を狙う場合)も、ユーザU1が仮想現実インタフェースデバイス100を正しく構えていることを前提とするなら、プロジェクタ16の光出射面の位置PpとユーザU1の視点位置Peとの間は距離nだけ離れている。距離nは、ユーザU1の腕の長さと仮定してもよい。nの値は、ユーザの体型によって異なるので、あらかじめユーザの身長に対応して複数種類の仮想現実インタフェースデバイス100を用意しておいてもよいし、画像表示装置10にユーザインタフェースを設けて、身長等の情報を入力する構成としてもよい。これら腕の長さにさらに手からプロジェクタまでの距離や肩から視点までの距離などを考慮しても良い。あるいは、nの値を、所定の体形(例えば、平均的な体形)に基づく固定値としても良い。
ユーザU1が、同じ位置で体の向きを変えたとき(Y軸周りに回転したとき)、あるいは、仰角方向に弓を向ける方向を変えたときは、プロジェクタ16の光出射面の向きとユーザU1の視線の向きも変わる。プロジェクタ16の方位角方向及び/または仰角方向のプロジェクタ16の向き、すなわちユーザU1の向きと視線の方向に応じて、仮想世界の空間内に配置された仮想カメラの向きが変わるので、画像表示装置10で生成されプロジェクタ16から投影される仮想世界画像は変わる。
ユーザU1が弓を引くと、センサ15に含まれる歪センサでリム102の歪みが検知されユーザU1による矢を射る動作が特定される。リム102の歪みの大きさから、射られた矢の速度が推定される。画像生成部112は、推定された矢の速度と、プロジェクタ16の向き(すなわち視線の向き)に応じて、矢が飛ぶ画像を生成する。仮想矢は、周囲の仮想世界画像に重畳されてプロジェクタ16から投影される。
図4(B)は、仮想カメラVC1で取得した画像(映像)をプロジェクタ16で投影するときの画像生成を説明する図である。本発明は、ユーザU1の移動に応じた視点で視界画像を生成して壁等の被投影面に投射することで、ユーザU1に違和感なく仮想現実空間を体感させるものであるが、まず、ある時点における位置関係に着目して説明する。図4(B)で仮想カメラVC1の位置はユーザの視点の位置に対応する。仮想視点(すなわちユーザU1の視点)P2の視野内に、オブジェクトOB1が含まれている。仮想視点P2の視野の中心(正面方向)と、オブジェクトOB1の方向の間の角度をθ1とする。この角度θ1は仮想カメラVC1のレンダリング画角(θ1*2(水平画角))であり、調整可能である。仮想視点P2からプロジェクタ16の光出射面までの距離はn、プロジェクタ16の出射面からスクリーンSまでの距離をlとする。仮想視点P2の視野の中心線とスクリーンSとの交点をP3とし、P3からオブジェクトOB1までの距離をwとする。
プロジェクタ16の投影画角の中心線(P1からP3への線分)と、P1とオブジェクトOB1を結ぶ線分の間の角度をθ2とすると、θ1<θ2となる。画像生成部112は、プロジェクタ16で角度θ2の方向に投影される画像が、ユーザU1の視野角で見たときに歪みを感じさせず自然に見えるように、角度θ1で画像をレンダリングする。図4(B)の例では、θ1は式(1)で表される。
w=l×tanθ2=(l+n)tanθ1
θ1=Arctan{(l/(l+n))tanθ2} (1)
ここで、lは可変であるが、センサ15と壁の形状データから計算可能である。nがlに対して十分に小さい場合は、θ1とθ2は近似し、θ1を固定値θ2に近似できる。
仮想カメラの視点P2では、視界の中心から角度θ1の方向にオブジェクトOB1が見える。ユーザU1が角度θ1だけ右方向に回転すると、オブジェクトOB1は視界の中心に来るように画像が生成されてスクリーンSに投影される。ユーザU1にとって、視覚の情報(すなわち、オブジェクトOB1が見える方向)と、運動量(すなわち、オブジェクトOB1の方向を向くための回転角度)との間に齟齬がないため、仮想世界の空間に存在するオブジェクトがあたかも現実世界に存在するかのように見える。このように投影される画像を制御することで、仮想世界のオブジェクトを現実環境に存在するオブジェクトのように投影し、ユーザU1の仮想現実世界に対する没入感が増大する。
実施形態では、このような画像生成と投影制御に加えて、ユーザU1の位置移動に追従して画像生成と投影制御を行う。図5、図6A及び図6Bは、ユーザU1の位置移動に応じた最適画像の生成を説明する図である。図5は、画像生成部112により生成された視界画像を、現実世界の空間に投影した状態を示す。プロジェクタ16(すなわちユーザU1)の位置移動に伴って、ユーザの視点に対応する仮想カメラがとらえる視界画像でオブジェクトの見え方を変化させる。この見え方の変化が違和感なく被投影面に映し出されるように視界画像(仮想世界画像)を投影することで、あたかも現実世界に存在する物体を目にしているような感覚をユーザU1に与えることができる。たとえば、ユーザU1が被投影面としての壁に近づくと、仮想空間で壁際に位置するオブジェクトが相対的にユーザU1近づき、壁から少し手前に位置するオブジェクトがユーザU1の斜め手前にくるように視界画像がレンダリングされ、投射される。図5の例では、仮想世界の空間に存在する敵オブジェクト51、階段オブジェクト52、及び柱オブジェクト53が描かれている。これらの仮想世界の空間のうち、投影領域A1(図1(B)参照)と重なる領域が、仮想カメラVCにより所定位置(P2)を視点として撮像される視界画像、すなわちユーザU1の視界内に写る画像である。
図5においてユーザU1が矢印の方向に移動すると、画像生成部112は、ポジショントラッキング部111で得られた上記ユーザU1の移動情報に基づいて、該移動に応じた角度で見えるように画像をレンダリングする。たとえば、ユーザU1の矢印の方向への移動により、仮想世界の空間内に配置された仮想カメラにより敵オブジェクト51の見える面が変化し、上記仮想カメラは敵オブジェクトの背後に階段オブジェクト52の側面が入ってくるような場面を撮影することになる。よって、画像生成部112は、視界画像として、敵オブジェクト51の背後に階段オブジェクト52の側面が見えるような画像を生成する。
図6A及び図6Bは、ポジショントラッキングに基づく画像生成を説明する図である。図6Aは単純化のため、プロジェクタ16が被投影面(スクリーンS)に対する向きを変えずに移動する場合を示す。プロジェクタ16とユーザU1の視点と仮想カメラVCを含むプロジェクタ系が、ベクトルDmで表される矢印の方向に移動したとする。ユーザU1の視点及び視線の方向と仮想カメラVCの位置及び撮像方向は一致するものと仮定する。この場合、投影される仮想オブジェクトOを、固定位置での全方向のパノラマを描くのと同様の手法で描画すると、移動後の位置で仮想オブジェクトOが見えるはずの状態と異なる状態の画像が生成されて投射され、不自然である。そこで、ユーザU1が移動したときに、移動に応じて仮想オブジェクトOを描画する角度及び/またはサイズを変化させる。オブジェクトOが静止オブジェクトだとすると、ユーザU1がベクトルDmで示される矢印の方向に移動すると、オブジェクトOが後方に遠ざかるとともに、ユーザU1から見えるオブジェクトOの面が変化するように画像をレンダリングする。これにより、ユーザU1はオブジェクトOがあたかもその場に実在するかのような感覚を得ることができる。
まずは、図6Aでは、プロジェクタ16の角度が不変の場合を説明する。移動前のプロジェクタ16の位置をPp、その位置座標を(x,y,z)、移動後のプロジェクタ16の位置をPp'、その位置座標を(x',y',z')、移動前のユーザの視点位置をPe、移動後のユーザの視点位置をPe'とする。ユーザU1の視点位置とプロジェクタ16との相対的位置関係は移動前も移動後も同じである。すなわち、視線の方向とプロジェクタ16の投射方向が一致し、かつ視点とプロジェクタ16の投射面との間の間隔がnに保たれている。仮想カメラVCからプロジェクタ16への単位ベクトルをV(ハット)、移動後の仮想カメラVCからプロジェクタ16への単位ベクトルをV'(ハット)とすると、
Pe=Pp−V(ハット)*n
Pe'=Pp'−V'(ハット)*n
Dm=(Δx,Δy、Δz)=Pe'−Pe
=Pp'−V'(ハット)*n−Pp+V(ハット)*n
=Pp'−Pp−n*(V(ハット)−V'(ハット)) (2)
となる。弓型デバイスのような射的型のデバイスの場合は、仮想カメラVCが向く方向(すなわち視線の方向)とプロジェクタ16の投影方向は一致すると仮定される。V(ハット)とV'(ハット)はプロジェクタ16の投影方向の単位ベクトルと同じであり、センサ15から取得可能である。図6Aのように、スクリーンSに対するプロジェクタ16の角度が変わらない場合は、式(2)でV(ハット)=V'(ハット)であり、Dm=Pp'−Ppとなる。
他方、プロジェクタ16の移動後の位置Pp'におけるプロジェクタ16のベクトルをVp'(プロジェクタの投影方向)、その単位ベクトルをv(ハット)とすると、プロジェクタ16の投射面と視点の間の距離はnなので、移動後の仮想カメラVCの位置Pc'とベクトルVc'(仮想カメラの撮影方向と一致)は、
Pc'=Pe'=Pp'−n*v(ハット)
Vc'=Ve'=Vp' (3)
となる。すなわち、移動後の仮想カメラVCの撮影方向を、移動後のプロジェクタ16の投影方向と一致させる。これは、プロジェクタ16の単位ベクトルを用いる方法である。式(2)及び(3)の「n」は、プロジェクタ16の投射面と視点(すなわち仮想カメラVC)の間の間隔であり既知である。移動後の仮想カメラVCの位置Pc'は、式(2)または式(3)を用いて求めることができる。プロジェクタ16の投影方向の単位ベクトルv(ハット)は、センサ15によって取得可能である。
移動後の仮想カメラVCの位置Pc'(すなわち視点位置)での画角または視野角を表わすθ1'は、式(1)を用いて算出することができる。このとき、
プロジェクタ16からスクリーンSまでの距離はlからl'に変化しているので、仮想カメラVCの移動後の視野角θ1'は式(4)で表される。
θ1'=Arctan{(l'/(l'+n))tanθ2} (4)
距離l'は移動後のプロジェクタ16の位置Pp'と、壁等の形状情報から計算可能である。すなわち、本実施形態では、現実世界のユーザの視点位置を仮想世界の仮想カメラVCの位置(撮影部分の位置)と一致させるように設定し、仮想カメラVCとプロジェクタ16との位置関係が所定の関係(ここでは、距離n離間している)に設定して、θ1'を算出するように、画像生成部112は構成されている。なお、プロジェクタ16にタイムオブフライト方式等による測距センサを設け、該センサにより距離l'、さらには距離lを求めても良い。
画像生成部112は、ユーザU1の移動後の位置から視野角θ1'で画像をレンダリングする。上述のように、距離l'に対してnが十分に小さいときは、θ1'=θ2となり、プロジェクタ16の視野角に近似される。たとえば、ユーザU1が被投影面である壁またはスクリーンSから離れた状態で位置移動する場合は、仮想カメラVCの視野角θ1'を求めなくても、移動後の仮想カメラの位置Pc'と既知であるプロジェクタ16の視野角θ2を用いて視界画像をレンダリングしてもよい。計算コストを低減する観点からは、仮想カメラVCの視野角算出用の閾値を設定するのが望ましい。たとえば、移動後のプロジェクタ16の被投影面からの距離l'に対するnの割合が所定の閾値Thを超えた場合に、式(4)を用いて移動後の仮想カメラVCの視野角θ1'を計算する構成としてもよい。距離l'に対するnの割合が閾値Thを超えるということは、ユーザU1が壁またはスクリーンに近づく方向に移動していることを意味する。この場合は、ユーザU1にとってのオブジェクトOの見え方の変化が相対的に大きくなるため、式(4)を用いて、正確な視野角から視界画像をレンダリングする。閾値Thは、スクリーンSに投影されるオブジェクトの形状、種類等に応じて、可変の値としてもよい。
上記では、オブジェクトOが静止オブジェクトである場合を例にしているが、オブジェクトOが移動体の場合も同じ手法が適用される。オブジェクトOが移動体である場合は、仮想世界の空間のデータで定義されているオブジェクトOの移動速度とユーザU1の移動速度及び方向に応じて、同じく移動後の仮想カメラVCの位置と画角で視界画像がレンダリングされる。ユーザU1の移動速度と仮想世界の空間のデータで定義されたオブジェクトOの移動速度が異なる場合は、移動速度の差に応じた速度でオブジェクトOがゆっくりとユーザU1の視界内で移動しながら少しずつ見える角度が変わっていく視界画像が生成され、投影される。投影画像により、ユーザU1は、仮想現実空間でオブジェクトOの移動と競いながら移動する状態を体感することができる。
図6Bは、ユーザU1の移動にともなってスクリーンSに対するプロジェクタ16の向きが変化した例を示す。図6Aと同様に、移動後の仮想カメラVCの位置Pc'とベクトルVc'は、移動前と移動後の仮想カメラVCからプロジェクタ16への単位ベクトルV(ハット)およびV'(ハット)、移動後の視点位置Pe'とプロジェクタ16の位置Pp'、その位置での投影方向の単位ベクトルv(ハット)を用いて、
Pe=Pp−V(ハット)*n
Pe'=Pp'−V'(ハット)*n
Dm=(Δx,Δy,Δz)=Pe'−Pe
=Pp'−V'(ハット)*n−Pp+V(ハット)*n
=Pp'−Pp−n*(V(ハット)−V'(ハット) (2)
および、
Pc'=Pe'=Pp'−n*v(ハット)
Vc'=Ve'=Vp' (3)
で表される。図6Bの場合はV(ハット)≠V'(ハット)である。
移動後の視覚画像は、移動後のプロジェクタ16の位置とプロジェクタ16の回転量(センサ15により取得可能)に基づいて、式(4)のθ1'の視野角で生成される。移動後のプロジェクタ16からスクリーンSまでの距離l'は、プロジェクタ16から、投影の中心線とスクリーンSとの交点P4までの距離になる。この場合、プロジェクタ16のベクトルVp'を法線ベクトルとする面S'上に存在するオブジェクトが、最も歪みの少ない状態でスクリーンSに投影される。視界画像中の主要オブジェクトがスクリーンSと面S'が交わる領域の近傍に位置する限り、スクリーンSに投影された画像の歪みは小さい。
図7は、プロジェクタ16からスクリーンSまでの距離と、投影される画像の関係を説明する図である。ユーザU1の移動に伴って、プロジェクタ16とスクリーンSとの間の距離は常に変化し得る。プロジェクタ16の画角θ2は固定であるため、スクリーンSに近づいたり遠のいたりする場合は、視界画像をレンダリングする際の視野角θ1'をスクリーンSまでの距離に合わせて変化させて、投影されるオブジェクトOを一定の大きさに見せる。図7の下段では、上段の構図と比較して、投影領域全体に対するオブジェクトOの割合が小さくなっている。ユーザU1がスクリーンから遠ざかっているにもかかわらず上段と同じ割合でオブジェクトOを投影すると、ユーザU1にとってオブジェクトOが大きくなったように見えてしまう。そこで、ユーザU1の位置(スクリーンSからの距離)に応じて、仮想カメラVCの視野角θ1'を変化させてユーザU1にとってのオブジェクトOの見え方を変化させ、ユーザU1が移動した場合でもオブジェクトOがあたかも現実世界に同じ大きさで存在する物であるように見せる。
視野角θ1'は、図6Aを参照して説明したとおり、プロジェクタ16の移動後の距離l'とプロジェクタ16の画角θ2を用いて、式(4)で計算される。投影制御部113は、角度θ1'でレンダリングされた視界画像(仮想世界画像)を投射する。この仮想世界画像(視界画像)は、オブジェクトOと背景画像の位置関係、相対距離、大きさ等が、移動後の位置から見るはずの角度で生成されており、壁面等に実際に映し出されたときに、ユーザU1にとって自然な画像として表示される。なお、投影領域A1の大きさが所定のサイズに制限される場合は、投影制御部113は、レンダリングされた画像に含まれるオブジェクトの配置関係や大きさの関係を維持したまま、投影領域A1内に収まるように縮尺を制御してもよい。図7の下段の構図を例にとると、θ1'でレンダリングされて相対的に小さくなったオブジェクトOの背景全体に対する割合を維持したまま、仮想世界画像全体を投影領域A1(図7では、投影領域の幅方向のサイズA1w)に合わせ縮小してもよい。
このような画像生成と投影制御により、ユーザU1が現実空間を自由に移動する場合でも、該移動に応じた違和感のない仮想現実空間が現実世界に重畳して形成することができる。すなわち、HMDを装着しないユーザU1が、動き回っても該動きに沿った仮想現実を体験することができる。
図8は、画像表示装置10で行われる制御フローである。この制御フローは、プロセッサ11がメモリ17または補助記憶装置13に格納された所定のプログラムを実行することで実現される。なお、以下に説明する処理フローに含まれる各処理ステップは、各処理ステップ間に他のステップを追加してもよい。便宜上1つのステップとして記載されているステップは、複数ステップに分けて実行されてもよいし、複数ステップに分けて記載されているステップを、1つのステップとして実行されてもよい。
ステップS11で、マイクロプロセッサ11aは、センサ15による検知結果に基づいて、プロジェクタ16の光出射面が向いている仰角方向と方位角方向の向き(プロジェクタ16の投影方向)と、プロジェクタ16の位置を検出する。
ステップS12で、グラフィックプロセッサ11bは、補助記憶装置13またはメモリ17に記憶された仮想世界の空間のデータと、ステップS11で検知されたプロジェクタ16の投影方向及び位置に基づいて、プロジェクタ16の光出射面よりも所定の距離(n)だけ投影方向の後方にある仮想世界空間の位置に仮想カメラVCを設定し、撮像位置である該仮想カメラVCを視点として、仮想世界空間の視界画像を生成(レンダリング)する。
ステップS13で、プロセッサ11aは、生成された視界画像を仮想世界画像としてプロジェクタ16の光出射面から投射させる。仮想世界画像(視界画像)は、プロジェクタ16の光投射面よりも一定距離(n)だけ後方にある仮想カメラの視点と視野角で生成されているので、投影される画像はユーザの眼でみたときに、違和感のない自然な態様で映し出される。
ステップS14で、プロジェクタ16の位置移動が有るか否かが判断される。位置移動がない場合は、ステップS11に戻ってS11〜S13を繰り返す。位置移動がある場合は、ステップS15に進み、センサ15による位置検出結果に基づいて、プロジェクタ16の移動後の位置情報を計算する。プロジェクタの移動後の位置情報には、プロジェクタ16の位置、移動方向、光出射面の向き(投影方向)、プロジェクタ16から周囲の壁、スクリーン等の被投影面までの距離の変化等が含まれる。センサ15の測定結果から、移動後のプロジェクタ16の投射中心軸が向かう方向の単位ベクトルがわかる。また、画像表示装置10が用いられる空間の形状等の情報はあらかじめ既知なので、センサ15で検出された位置情報と、空間情報から、プロジェクタ16の光出射面から被投影面までの距離も求まる。また、本ステップでは、上記プロジェクタ16の移動後の位置に基づいて、移動後のプロジェクタ16に対応する仮想カメラVCの位置を算出する。
ステップS16で、グラフィックプロセッサ11bは、S15で算出された移動後の仮想カメラVCの位置情報に基づいて、仮想世界空間において仮想カメラVCを上記位置情報にて特定される位置に移動させ、かつ移動後のプロジェクタ16の投影方向を撮影方向となるように仮想カメラVCを設定し、移動後の仮想カメラVCの位置から見た画角で仮想世界空間の視界画像をレンダリングする。画像表示装置10が弓型の仮想現実インタフェースデバイス100に適用される場合は、仮想カメラVCの位置がユーザの視点位置に相当し、プロジェクタ16の光出射面と仮想カメラVCの位置関係は、所定の間隔をおいて同軸上にあると仮定される。ユーザがどこに移動しようとも、プロジェクタ16の光投射面から壁などの被投影面までの距離とプロジェクタ16の画角を用いて、ユーザの視点位置と視野角に相当する角度で、視界画像がレンダリングされる。ステップ17で、マイクロプロセッサ11aはプロジェクタ16を制御して、移動後の位置と視野角でレンダリングされた視界画像を仮想世界画像として現実世界の空間に投影させる。投影される画像は、移動後の仮想カメラの位置(すなわちユーザの視点位置)と視野角で生成されているので、ユーザがその位置でその角度からみたときに認識されるであろう態様で仮想オブジェクトが被投影面に映し出される。投影領域が制限されている場合は、生成された視界画像がオブジェクト相互間の距離や位置関係が維持されたまま投影領域に投射されるように縮尺が制御されてもよい。ステップS17の後、ステップS14に戻って、位置移動の有無を判断する。
ステップ11〜S17は、仮想現実インタフェースデバイス100を用いたゲームが終了するまで繰り返される。
本実施形態では、現実世界の一部において、そこに広がっていると仮定される仮想世界と現実世界とのインタフェース(投影領域A1)の位置に応じた上記仮想世界の一部を形成するようにプロジェクタ16により仮想世界画像を投影させている。さらに、上記仮想世界と現実世界とのインタフェースを形成するように機能するプロジェクタ16を移動(そこからさらに回転)させても、該プロジェクタ16の移動に応じて仮想世界中の仮想カメラVCを移動させ、移動後のプロジェクタ16の向きに対応させて仮想カメラVCの撮影方向を設定し、このような移動後の仮想カメラから撮影した画像をレンダリングしてプロジェクタ16より投影している。すなわち、プロジェクタ16により投影される上記インタフェースとなる画像を、プロジェクタ16を保持する現実世界のユーザU1の移動に応じて動的に生成して現実世界に投影している。
従って、たとえば仮想現実インタフェースデバイス100を持ったユーザが現実世界空間で歩く、走る等の動作を行った場合でも、移動に応じた自然な態様で仮想現実画像が生成され、現実世界に存在する壁等の被投影面に投射される。よって、仮想現実インタフェースデバイス100を使用するユーザにとって、視覚の情報(例えば、オブジェクトが見える方向)と、運動量(向きの回転と、面内での並進移動の双方を含む)の間に齟齬がない、あるいは該齟齬が低減されているため、仮想世界の空間に存在するオブジェクトがあたかも現実世界に存在するかのように見える。これによりHMDを装着しなくても、現実世界空間の一部において仮想空間の一部を再現することができ、かつユーザが動き回り、現実世界と仮想世界とのインタフェース(仮想世界画像の投影部分)を形成するプロジェクタを移動および/または回転させても、とのインタラクションでユーザの没入感を高めることができる。
なお、実施形態の画像表示装置10を用いた移動プロジェクタからの投影を、空間内に設置された固定プロジェクタからの投影映像と組み合わせてもよい。
<発展例>
上述した実施形態では、プロジェクタ16の光出射面の方向とユーザU1の視線の方向がほぼ一致することを前提とした。実際、弓型、あるいは他の射的型(スリングショットや射撃)の仮想現実ゲームでは、的オブジェクトを狙うという性質から、プロジェクタの投射方向と視線の方向が一致する場合が多い。
画像表示装置10を他の仮想現実ゲームに適用する場合は、プロジェクタ16の光出射面の方向とユーザU1の視線の方向が必ずしも一致するとは限らない。他の適用例とは、たとえば画像表示装置10を懐中電灯型あるいはトーチ型の仮想現実インタフェースデバイス100に組み込んで、暗闇探検、洞窟探検、お化け屋敷等の仮想現実ゲームを行う場合である。そこで、プロジェクタ16の光出射面の方向と視線の方向が一致しない場合の画像生成処理を説明する。
図9は、プロジェクタ16の光出射面の方向(以下、適宜「プロジェクタ16の方向」と省略する)と視点の方向が一致しない例を示す図である。プロジェクタ16と仮想カメラ、及び視点が同一直線状にない場合、スクリーンSの位置、レンダリングするオブジェクトOの位置、プロジェクタ16の位置Ppと方向Vp、視点の位置Peと方向Veを考慮して、ユーザにとって違和感のない映像を生成し投影する制御を行う。
本実施形態では、視点の位置Peと方向Veを推定するために、画像表示装置10の他に、視線推定のためのツールを用いる。たとえば、視線の方向は通常、額の向きと一致することが多い。そこで、粘着シートを用いたシール型の位置・方向センサを額の中央に貼る、ヘアバンド型の位置・方向センサを装着する、等が考えられる。シール型センサやヘアバンド型センサは、視界全体を覆う頭部装着型ディスプレイとは異なり、装着の不快感は非常に小さい。近年は有機半導体材料等を用いて印刷で形成される安価なセンサ回路やアンテナ回路の作製が可能なため、使い捨てのシール型センサを仮想現実インタフェースデバイス100と組み合わせて用いることが可能である。
あるいは、現実空間に設置したモーションセンサでユーザの額または眼の位置を検出して、モーションセンサから画像表示装置10に検出結果を送信してもよい。
図9では、図4と異なり、プロジェクタ16の位置Ppと仮想カメラVCの位置またはユーザU1の視点の位置Peが直線上に揃っていない。ユーザの視線がプロジェクタ16の投射軸の左側からオブジェクトOに向いている場合は、点線のサークルCで示すオブジェクトOの側面が見えなければならない。逆に、視線がプロジェクタ16の投射軸の右側からオブジェクトOに向かう場合は、オブジェクトの反対側の側面が見えなければならない。
この場合、画像表示装置10の画像生成部112は、シール型センサで得られた、あるいはモーションセンサから受信した視点の位置及び方向情報に基づいて、視線位置PeからオブジェクトOに向かう方向で画像をレンダリングする。
図10は、プロジェクタ16の方向Vpと視線の方向Veが一致しない別の例を示す。図10のように、視点位置Peでの視野内にプロジェクタ16から投影される画像がない場合、画像表示装置10は描画すべき画像を決定することができない。この場合、シール型センサまたはモーションセンサからの情報によって視点の位置Peと方向Veは推定され得るが、推定された視線の方向に拠らずに仮想カメラVCの方向を決定しなければならない。
第1の手法として、プロジェクタ16の方向Vp(すなわち投影画角の中心線)とスクリーンSの交点をPwとし、視点位置PeからPwへ向かうベクトルを仮想カメラが向く方向ベクトルVcとして決定し、ベクトルVcの方向から画像をレンダリングする。この場合、少なくともユーザ側に向けられたオブジェクトOの側面が描画され、ユーザが現実世界空間に投影される画像の方向に視線を戻したときに、違和感のないオブジェクト画像を認識することができる。また、新たな視線の方向でレンダリングされる画像の変更量が少なくて済む。
第2の手法として、プロジェクタ16からスクリーンSに投影される画像の水平方向の端部の位置をPl、Prとして、PeからPlへの単位ベクトルと、PeからPrへの谷ベクトルを足して2で割ったものを仮想カメラの方向ベクトルVcとする。第2の手法でも、ユーザが現実世界空間に投影される画像の方向に視線を戻したときに、違和感のないオブジェクト画像を認識することができる。また、新たな視線の方向でレンダリングされる画像の変更量が少なくて済む。
図11は、上述した第1の手法での補正例を示す。第1の手法は、仮想カメラ(仮想視点)の中心とプロジェクタ16の投影面の中心を合わせることで、中心でのずれを低減することを主眼とする。この場合、投影点Pwでのプロジェクタ16から投影された画像の高さhと、仮想視点(仮想カメラ)からの画角での高さhを一致させる補正を行う。たとえば、画像生成部112で仮想視点位置Pcから所定の視野角で視界画像をレンダリングした後に補正部114で台形補正をかけて、プロジェクタ16から投影する。模式的にいうと、領域Lの映像が領域Mに投影されたときに、Pw点で高さhが一致する。これにより、投影された画像の歪を低減する。
図12は、上述した第2の手法での補正例を示す。第2の手法は、投影範囲を一致させて、周辺領域でのずれを最小にすることを主眼とする。この場合、画像生成部112で仮想視点位置Pcから所定の視野角で視界画像をレンダリングした後に、補正部114で両端部を合わせる台形補正をかけて、プロジェクタ16から投影する。この場合、投影点Pwで投影画像の高さと仮想視点からの画角で見た画像の高さは必ずしも一致しないが、投影された画像全体が同じ範囲で仮想視点から認識される。
発展例の手法では、プロジェクタ16の位置トラッキングに加えて、視点の位置もトラッキングすることにより、実際の物理空間に近い映像を生成して投影することができる。また画像表示装置10の適用範囲が広がる。特に、同じ空間内で、画像表示装置10を組み込んだ仮想現実インタフェースデバイスを複数用いて、各ユーザが仮想現実とのインタラクションを楽しむことができる。
実施形態の画像表示装置10における視界画像の生成は、補助記憶装置13またはメモリ17に格納された画像生成プログラムによって実現されてもよい。この場合、プログラムはプロセッサ11に、例えば、メモリ17、補助記憶装置13、または記録媒体21に格納された図8に示す画像生成プログラムを実行させれば良い。
画像生成プログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体21を通じて、又は通信ネットワークなどを介してダウンロードすることにより、画像表示装置10にインストール又はロードされてもよい。このようなプログラムを用いることで、ユーザの移動位置に追従して、よりリアリティのある仮想現実空間を創出することができる。
10 画像表示装置
11 プロセッサ
11a マイクロプロセッサ
11b グラフィックプロセッサ
15 センサ
16 プロジェクタ
100 仮想現実インタフェースデバイス
110 状態検出部
111 ポジショントラッキング部
112 画像生成部
113 投影制御部

Claims (5)

  1. 仮想世界の空間のデータを用いて仮想世界の空間に設定された仮想カメラにより撮影された前記仮想世界の一部の画像を生成する画像生成部と、
    前記生成された画像を現実世界の空間に投影するプロジェクタと、
    前記プロジェクタの投影方向、および該プロジェクタの位置を検出する検出部と、
    を有し、
    前記画像生成部は、前記検出部により前記プロジェクタの移動が検出された場合、前記検出部の検出結果に基づき、前記プロジェクタの移動に応じて前記仮想世界の空間において前記仮想カメラを移動させ、移動後のプロジェクタの投影方向に応じた方向が撮影方向となるように前記仮想カメラを設定し、該設定された仮想カメラにて前記画像を生成することを特徴とする画像表示装置。
  2. 前記画像生成部は、前記プロジェクタの投影方向と前記移動後の位置で決まる前記プロジェクタの光投射面から被投影面までの距離と、前記プロジェクタの画角とに基づいて仮想カメラの視野角を決定し、前記仮想カメラの視野角で前記画像を生成することを特徴とする請求項1に記載の画像表示装置。
  3. 前記画像生成部は、前記仮想カメラの視野の方向が、前記プロジェクタの投影方向と一致または重複する条件で、前記画像を生成することを特徴とする請求項1または2に記載の画像表示装置。
  4. 前記画像生成部は、前記仮想カメラの視野の方向が、前記プロジェクタの投影方向と一致しない条件で、前記画像を生成することを特徴とする請求項1または2に記載の画像表示装置。
  5. 請求項1乃至4のいずれか一項の画像表示装置と、
    前記画像表示装置を保持する遊戯具本体と、
    を有する仮想現実インタフェースデバイス。
JP2016193921A 2016-09-30 2016-09-30 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス Pending JP2018056924A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016193921A JP2018056924A (ja) 2016-09-30 2016-09-30 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016193921A JP2018056924A (ja) 2016-09-30 2016-09-30 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス

Publications (1)

Publication Number Publication Date
JP2018056924A true JP2018056924A (ja) 2018-04-05

Family

ID=61834251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016193921A Pending JP2018056924A (ja) 2016-09-30 2016-09-30 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス

Country Status (1)

Country Link
JP (1) JP2018056924A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020218368A1 (ja) * 2019-04-26 2020-10-29 塁 佐藤 運動用設備
CN115842905A (zh) * 2021-09-21 2023-03-24 精工爱普生株式会社 投射方法以及投射系统
JP7281576B1 (ja) 2022-03-31 2023-05-25 Kddi株式会社 映像投影システム及び映像投影方法
CN117974865A (zh) * 2024-03-28 2024-05-03 山东捷瑞信息技术产业研究院有限公司 基于相机视角的轻量化场景模型渲染方法、装置及设备
US12033283B2 (en) 2021-07-12 2024-07-09 Toyota Jidosha Kabushiki Kaisha Virtual reality simulator and virtual reality simulation program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020218368A1 (ja) * 2019-04-26 2020-10-29 塁 佐藤 運動用設備
JP2020178973A (ja) * 2019-04-26 2020-11-05 塁 佐藤 運動用設備
US12033283B2 (en) 2021-07-12 2024-07-09 Toyota Jidosha Kabushiki Kaisha Virtual reality simulator and virtual reality simulation program
US12033269B2 (en) 2021-07-12 2024-07-09 Toyota Jidosha Kabushiki Kaisha Virtual reality simulator and virtual reality simulation program
CN115842905A (zh) * 2021-09-21 2023-03-24 精工爱普生株式会社 投射方法以及投射系统
CN115842905B (zh) * 2021-09-21 2024-05-28 精工爱普生株式会社 投射方法以及投射系统
JP7281576B1 (ja) 2022-03-31 2023-05-25 Kddi株式会社 映像投影システム及び映像投影方法
JP2023151126A (ja) * 2022-03-31 2023-10-16 Kddi株式会社 映像投影システム及び映像投影方法
CN117974865A (zh) * 2024-03-28 2024-05-03 山东捷瑞信息技术产业研究院有限公司 基于相机视角的轻量化场景模型渲染方法、装置及设备

Similar Documents

Publication Publication Date Title
JP7283506B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
CN108139815B (zh) 用于虚拟现实内容的显示的场景和对象的分立时间扭曲
US10444502B1 (en) Method and apparatus for multiple user self-relative tracking for augmented reality systems using magnetic tracking
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
US8556716B2 (en) Image generation system, image generation method, and information storage medium
US10755486B2 (en) Occlusion using pre-generated 3D models for augmented reality
US11032537B2 (en) Movable display for viewing and interacting with computer generated environments
JP6470859B1 (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP2018056924A (ja) 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス
WO2019142560A1 (ja) 視線を誘導する情報処理装置
JP6257825B1 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019211864A (ja) コンピュータプログラム、情報処理装置および情報処理方法
WO2022075152A1 (ja) 情報処理装置、情報処理方法及び情報配信システム
JP2019160295A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
WO2021153413A1 (ja) 情報処理装置、情報処理システム及び情報処理方法
WO2022124135A1 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
US20240078767A1 (en) Information processing apparatus and information processing method
JP7325833B2 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP7319686B2 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
WO2023238678A1 (ja) 情報処理装置、コントローラ表示方法およびコンピュータプログラム
JP6983639B2 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6332658B1 (ja) 表示制御装置、及びプログラム
GB2614330A (en) Peripheral tracking system and method
JP2017167717A (ja) 投影装置、投影方法及びプログラム