JP6772424B2 - 投影装置、投影方法及びプログラム - Google Patents

投影装置、投影方法及びプログラム Download PDF

Info

Publication number
JP6772424B2
JP6772424B2 JP2016050869A JP2016050869A JP6772424B2 JP 6772424 B2 JP6772424 B2 JP 6772424B2 JP 2016050869 A JP2016050869 A JP 2016050869A JP 2016050869 A JP2016050869 A JP 2016050869A JP 6772424 B2 JP6772424 B2 JP 6772424B2
Authority
JP
Japan
Prior art keywords
space
projector
virtual world
projection
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016050869A
Other languages
English (en)
Other versions
JP2017167717A (ja
Inventor
匡佑 安本
匡佑 安本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cenote
Original Assignee
Cenote
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cenote filed Critical Cenote
Priority to JP2016050869A priority Critical patent/JP6772424B2/ja
Publication of JP2017167717A publication Critical patent/JP2017167717A/ja
Application granted granted Critical
Publication of JP6772424B2 publication Critical patent/JP6772424B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Projection Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、情報処理技術に関する。
近年、コンピュータで生成した仮想世界におけるオブジェクトを現実環境において可視可能なように投影する技術が知られている。特許文献1には、ユーザの正面、左側および右側の3面のスクリーンにコンピュータにより作成した交通環境の映像をプロジェクタにより投影する技術について開示されている。
特開2008−292643号公報
コンピュータで生成された仮想世界のオブジェクトの現実環境への投影において、当該オブジェクトがあたかも現実環境に存在するかのように投影されることが求められている。
本発明は上記に鑑みてなされたものであり、その目的は、仮想世界のオブジェクトをより現実環境に存在するオブジェクトのように見えるように投影させる技術を提供することにある。
本発明に係る投影装置は、仮想世界の空間のデータを記憶する記憶手段と、プロジェクタと、前記プロジェクタによる投影方向を検知する検知手段と、位置が現実世界の空間と対応付けられた前記仮想世界の空間のデータと、前記検知された投影方向とに基づいて、前記プロジェクタの位置よりも前記プロジェクタの投影方向後方に対応する前記仮想世界の空間における位置を視点として、前記仮想世界の空間の視界画像を取得する取得手段と、前記プロジェクタの位置及び前記仮想世界の空間の前記視点の位置に応じて、前記視界画像上の任意の点が、現実世界の空間において対応付けられた点に投影されるように、前記視界画像を拡大して前記プロジェクタにより投影するように制御する制御手段とを備える。
本発明に係る投影方法は、仮想世界の空間のデータを記憶する記憶手段と、プロジェクタとを備えた投影装置において実施される方法であって、前記プロジェクタによる投影方向を検知するステップと、位置が現実世界の空間と対応付けられた前記仮想世界の空間のデータと、前記検知された投影方向とに基づいて、前記プロジェクタの位置よりも前記プロジェクタの投影方向後方に対応する前記仮想世界の空間における位置を視点として、前記仮想世界の空間の視界画像を取得するステップと、前記プロジェクタの位置及び前記仮想世界の空間の前記視点の位置に応じて、前記視界画像上の任意の点が、現実世界の空間において対応付けられた点に投影されるように、前記視界画像を拡大して前記プロジェクタにより投影するように制御するステップとを備える。
本発明に係るプログラムは、仮想世界の空間のデータを記憶する記憶手段と、プロジェクタを備えたコンピュータを、前記プロジェクタによる投影方向を検知する検知手段、位置が現実世界の空間と対応付けられた前記仮想世界の空間のデータと、前記検知された投影方向とに基づいて、前記プロジェクタの位置よりも前記プロジェクタの投影方向後方に対応する前記仮想世界の空間における位置を視点として、前記仮想世界の空間の視界画像を取得する取得手段、前記プロジェクタの位置及び前記仮想世界の空間の前記視点の位置に応じて、前記視界画像上の任意の点が、現実世界の空間において対応付けられた点に投影されるように、前記視界画像を拡大して前記プロジェクタにより投影するように制御する制御手段、として機能させる。
また、本発明のプログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。
本発明によれば、仮想世界のオブジェクトをより現実環境に存在するオブジェクトのように見えるように投影させる技術を提供することができる。
一実施形態における投影装置の概略的な外観を示す図である。 一実施形態における投影装置の概略的なハードウェア構成を示す図である。 一実施形態における投影装置の機能構成を示す図である。 一実施形態において仮想世界の視界映像の取得方法の例を説明するための概念図である。 一実施形態において仮想世界の視界映像の取得方法の例を説明するための概念図である。 一実施形態において仮想世界の視界視点の例を説明するための概念図である。 一実施形態において視界画像の投影のための制御方法の例を説明するための概念図である。 一実施形態において視界画像の投影のための制御方法の例を説明するための概念図である。 一実施形態において投影装置により実行される処理の例を示すフローチャートである。
以下、本発明の実施形態について、図面を参照しつつ詳細に説明する。ただし、発明の範囲をこれらに限定するものではない。
[外観及びハードウェア構成]
まず、図1及び図2を参照して、一実施形態に係る投影装置の外観及びハードウェア構成について説明する。投影装置は、一実施形態において、仮想世界の映像を投影可能な弓形状の投影装置であり、当該投影装置のユーザは、投影された映像に向かって弓を射るゲームをプレイすることができる。
図1に示すように、投影装置10は、外観上、プロジェクタ16、リム17、弦18、及びグリップ19を備える。図2に示すように、投影装置10は、全体的なハードウェア構成として、主に、制御部11、通信部12、記憶部13、バッテリ14、センサ15、プロジェクタ16、リム17、弦18、及びグリップ19を備える。
制御部11は、CPU(Central Processing Unit)11a及びメモリ11bを主に備えて構成される。制御部11は、例えば、CPU11aがメモリ11b等に格納された所定のプログラムを実行することにより、投影装置10が有する各構成による処理を制御する。
通信部12は、投影装置10が外部装置と通信するための通信インタフェースである。記憶部13は、ハードディスク又は半導体記憶装置等によって構成され、投影装置10における処理の実行に必要な各種プログラム及び各種情報、並びに処理結果の情報を記憶する。バッテリ14は、投影装置10の駆動電力を供給する電源であり、例えば、リチウムイオン電池、又はニッケル水素バッテリなどにより構成される。
センサ15は、投影装置10の状態や位置を検知するための各種のセンサにより構成される。センサ15は、例えば、10軸センサ(3基の加速度センサー、3基のジャイロセンサー、3基の電子コンパス、及び1基の気圧センサー)及び歪ゲージを含む。センサ15は、センサ15(又は投影装置10)から周辺のオブジェクト(例えば壁)までの距離を測定可能な距離センサなどの他のセンサを含むことも可能である。
プロジェクタ16は、記憶部13に記憶されたデータ等に基づいて生成された映像光をスクリーン(壁などのスクリーンになりうる任意の場所)に投射することにより、映像及び画像を投影する装置である。プロジェクタ16は、例えば、レーザープロジェクタにより構成される。
リム17は、グリップ19の上側及び下側に設けられた棒状部材であり、カーボンなどの弾性部材で構成される。リム17は湾曲部分を有し、リム17の上端及び下端の間には、弦18が張設されている。なお、投影装置10は、主に、リム17、弦18、及びグリップ19により弓型形状を構成する。
投影装置10のユーザは、グリップ19を握った状態で弦18を指で引き、その後弦18を放すことにより、矢を射る操作を実施できる。また、プロジェクタ16は、ユーザがこのように矢を射る操作を実施している状態であるときに、ユーザの前方に映像光を投射可能な位置及び角度で設けられている。
なお、投影装置10に対して、矢に該当する構成を使用せずに矢を射る操作を実施可能である。すなわち、投影装置10は、センサ15に含まれる歪センサによるリム17の歪みの検知に応じて弦18が引かれたこと、及び弦18が放されたことを検知することにより、ユーザによる矢を射る操作を特定する。また、投影装置10は、リム17の歪みの大きさに応じて、射られた矢の速度を特定可能である。なお、矢を射る操作の特定、及び射られた矢の速度の特定の処理は、センサ15から出力されたリム17の歪みの検知結果に基づいて制御部11により実施される。
[機能構成]
図3を参照して、一実施形態において投影装置10が有する機能構成について説明する。同図に示すように、投影装置10は、主な機能構成として、データベース110、検知部111、映像取得部112、及び投影制御部113を備える。投影装置10は、例えば、ユーザによる投影装置10に対する操作、及びセンサ15により検知された投影装置10の状態に応じて、CPU11aがメモリ11b等に格納された所定のプログラムを実行し、投影装置10が有する各構成の動作及び処理を制御することにより、図3に示す各機能構成を実現する。以下に各機能構成の詳細を説明する。
データベース110は、投影装置10において実行される処理に必要なデータ、及び当該処理により生成されたデータなど、各種データを記憶する。データベース120は、例えば、仮想世界の空間データ(当該空間に存在するオブジェクトデータを含む。)及び投影装置10によりプレイ可能なゲームの制御プログラム等を記憶する。仮想世界の空間データは、例えば、弓矢により敵を倒す(又は獲物をハントする)ゲーム内における仮想世界の3次元空間の形状のデータを含む。仮想世界の空間に存在するオブジェクトデータは、例えば、弓矢により敵を倒すゲームにおける敵オブジェクトのデータを含む。
検知部111は、センサ15による検知結果に基づいて、プロジェクタ16の投射部が向いている仰角方向及び方位角方向の向き(すなわち、プロジェクタ16による投影方向)、並びにプロジェクタ16の高さを検知する。また、検知部111は、投影装置10の位置(現実世界におけるXY座標上の位置)を検知可能である。
検知部111による投影装置10の位置の検知は、任意の方法を採用可能である。例えば、まず、投影装置10を使用する場所の空間の形状情報(例えば、部屋の形状情報)を予め記憶部13に記憶しておき、センサ15により投影装置10の周りに存在する壁などのオブジェクトまでの距離を測定する。検知部111は、空間の形状情報及び距離の測定の結果に基づいて投影装置10の位置を検出可能である。他の方法として、例えば、投影装置10を使用する場所に投影装置10のユーザの動きを検知可能なモーションセンサを配置し、投影装置10は、当該モーションセンサからの検出結果を通信部12を介して受信し、当該検出結果に基づいて投影装置10の位置を検知することも可能である。
映像取得部112は、データベース110に記憶された仮想世界の空間のデータと、検知部111により検知された投影方向とに基づいて、プロジェクタ16の位置よりも所定の距離だけプロジェクタ16の投影方向後方の位置に対応する仮想世界の空間における位置を視点として、仮想世界の空間の視界画像(視界映像)を取得(レンダリング)する。なお、現実世界の空間における位置及び方向と仮想世界の空間の位置及び方向との間は予め対応付けられている。
また、映像取得部112は、検知部111により検知された高さ及び位置にさらに基づいて、上記の視界画像を取得可能である。なお、プロジェクタ16の高さは、検知部111による検知結果の値ではなく、定数(例えば、1.5m)を用いてもよい。
図4から図6を参照して、映像取得部112による仮想世界の視界映像の取得方法の例を説明する。図4には、現実世界の空間に存在する投影装置10と、そのユーザU1が示されている。また、現実世界の空間に存在する壁W1に対して、投影装置10が備えるプロジェクタ16から映像光を投射したときの投影領域A1が示されている。投影領域A1は、プロジェクタ16の映像光の出射部が向いている方向及び位置に応じて、壁W1上又は現実世界における他のオブジェクト上を移動する。
図5には、データベース110に記憶されたデータに基づいて映像取得部112により取得された仮想世界の空間の画像を、図4に示した現実世界の空間に対して概念的に重ね合わせた様子が示されている。当該重ね合わせは、予め設定された現実世界の空間における位置及び方向と仮想世界の空間の位置及び方向との間の対応関係に基づいて行われている。図5には、仮想世界の空間に存在する敵オブジェクト51、階段オブジェクト52、及び柱オブジェクト53が示されている。
図5の例において、仮想世界の空間の画像のうち投影領域A1と重なる領域が、仮想世界の空間における仮想カメラにより所定位置を視点として撮像される仮想世界の視界画像(視界映像)である。映像取得部112は、このように特定される視界画像のデータを取得する。仮想カメラの視点の位置の説明については後述する。また、映像取得部112により取得された仮想世界の視界映像は、制御部11に保持される。
なお、仮想世界の空間には初期位置が設定されており、当該初期位置と、現実世界の空間における投影装置10のユーザU1の位置とが対応付けられる。投影装置10のユーザU1が現実世界において移動又は向きを変えると、それに応じて仮想世界におけるユーザU1の位置及び向いている方向も変化するように映像取得部112により制御される。
図6を参照して、仮想世界の空間における仮想カメラの位置について説明する。図6には、図5に示した例におけるユーザU1、投影装置10、プロジェクタ16、仮想世界の空間における仮想カメラVC1、及びユーザU1の向いている方向が変わる(回転する)ときの回転軸ax1が示されている。さらに、プロジェクタ16の映像光の出射位置P1、及び仮想カメラVC1の仮想視点P2が示されている。
仮想カメラVC1の仮想視点P2の位置は、プロジェクタ16の位置よりもプロジェクタ16の投影方向後方であるユーザU1の位置(より正確には、ユーザU1の視点位置)に配置されている。すなわち、仮想視点P2の位置は、現実世界の空間においてユーザU1が存在する位置に対応する仮想世界の空間における位置に設定される。出射位置P1から仮想視点P2までの距離はNである。距離Nは、例えば、ユーザの腕の長さに応じて設定された定数(例えば、70cm)としても良いし、センサ15により検知されたプロジェクタ16からユーザU1までの距離に応じて設定されてもよい。
現実世界でユーザU1が軸ax1を中心に回転したときに、その回転及び視点を起点とした視線方向に応じて図5に示した仮想世界における視界も変化する。
なお、映像取得部112により取得される視界画像のニアクリッピングプレーンは、仮想視点P2からユーザU1の腕の長さに応じた距離だけ視野方向前方の位置に設定することができる。このようにニアクリッピングプレーンを設定することにより、ユーザU1が腕を前方に伸ばしたときに腕及びその付近に存在するオブジェクトがプロジェクタ16により投影されないため、ユーザU1の視野と、プロジェクタ16による投影内容が重複しないため、プロジェクタ16による投影内容により臨場感を持たせることができる。
また、前述のとおり、投影装置10は、センサ15に含まれる歪センサによるリム17の歪みの検知に応じて弦18が引かれたこと、及び弦18が放されたことを検知することにより、ユーザによる矢を射る操作を特定する。また、投影装置10は、リム17の歪みの大きさに応じて、射られた矢の速度を特定(設定)可能である。映像取得部112は、検知されたリム17の歪の変化と、射られた矢の速度と、矢を射る操作が特定されたときの投影装置10の投影方向等に応じて、矢が飛ぶ画像を表示した視界画像を取得することが可能である。
図3の説明に戻る。投影制御部113は、映像取得部112により取得された仮想世界の空間の視界画像のプロジェクタ16による投影を制御する。具体的には、投影制御部113は、プロジェクタ16の位置及び仮想世界の空間の視点(図6の例における仮想視点P2)の位置に応じて、視界画像上の任意の点が、現実世界の空間において対応付けられた点に投影されるように、視界画像を拡大してプロジェクタ16により投影するように制御する。すなわち、映像取得部112により取得された視界画像は、映像取得部112により取得された仮想世界の空間の視界画像におけるオブジェクトのサイズ及びオブジェクト間の距離と、プロジェクタ16により投影される画像におけるオブジェクトのサイズ及びオブジェクト間の距離とが対応(又は一致)するような尺度に拡大されて投影される。
図7を参照して、仮想カメラVC1で取得した画像(映像)をプロジェクタ16で投影するときの投影制御部113による制御の例について説明する。この例において、仮想カメラVC1の視野にオブジェクトOB1が含まれており、仮想視点P2の正面方向と、仮想視点P2からオブジェクトOB1の方向との間の角度はθ1であるとする。仮想視点P2(又はユーザU1の位置)からプロジェクタ16までの距離はNであり、プロジェクタ16からスクリーンSまでの距離がIであるとする。また、スクリーンSにおける仮想視点P2の正面位置P3からオブジェクトOB1までの距離をWとする。
このとき、投影制御部113は、仮想カメラVC1により取得された画像内における、例えばオブジェクトOB1が位置P3から距離Wだけ離れた位置に投影されるように、画像を拡大してスクリーンSに投影されるように制御する。このとき、プロジェクタ16の出射位置P1から位置P3の方向と、出射位置P1からオブジェクトOB1の方向との間の角度をθ2とすると、θ1<θ2となる。
このように投影される画像を制御することで、仮想世界のオブジェクトをより現実環境に存在するオブジェクトのように見えるように投影することができる。すなわち、ユーザU1(仮想視点P2)の位置から角度θ1の方向にオブジェクトOB1が見え、ユーザU1が角度θ1の方向を見るためには、角度θ1だけ右方向に回転する必要がある。つまり、ユーザU1が位置P3の方向を向いているときに、オブジェクトOB1が見える方向の角度と、ユーザU1がオブジェクトOB1の方向を向くために回転する必要がある角度とが一致する。従って、ユーザU1にとって、視覚の情報(すなわち、オブジェクトOB1が見える方向)と、運動量(すなわち、オブジェクトOB1の方向を向くために回転する必要がある角度)との間に齟齬がないため、仮想世界の空間に存在するオブジェクトがあたかも現実世界に存在するかのように見え、ユーザU1の仮想世界に対する没入感が増大する。
一方、もし、プロジェクタ16の出射位置P1と仮想視点P2の位置が一致する場合、投影された画像についての視覚の情報と、ユーザU1の運動量との間に齟齬が生じるため、投影された仮想世界のオブジェクトが現実世界に存在するようには見えにくくなる。
図8を参照して、プロジェクタ16の出射位置P1と仮想視点P2の位置が一致する場合に、視覚の情報と、運動量との間に生じる齟齬の例を説明する。図8には、仮想視点P2が、ユーザU1(の視点)の位置ではなく、出射位置P1の位置に存在することが示されている。
この例において、ユーザU1の位置からオブジェクトOB1は、オブジェクトOB2と同じ方向に見え、オブジェクトOB3の左側に見える。しかしながら、仮想視点P2の位置からは、オブジェクトOB1は、オブジェクトOB2の左側に見え、オブジェクトOB3と同じ方向に見える。このような現象が生じる結果、投影された画像についての視覚の情報と、ユーザU1の運動量との間に齟齬が生じる。
[処理フロー]
次に、図9を参照して、投影装置10において実行される処理のフローを説明する。この処理は、例えば、投影装置10の制御部11において、CPU11aがメモリ11bなどの記憶手段に格納された所定のプログラムを実行することにより、実現される。なお、以下に説明する処理フローに含まれる各処理ステップは、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。なお、各処理ステップの処理の詳細は、既に説明しているためここでは省略する。
まず、ステップS11において、制御部11は、センサ15による検知結果に基づいて、プロジェクタ16の投射部が向いている仰角方向及び方位角方向の向き(すなわち、プロジェクタ16による投影方向)を検出する。制御部11は、プロジェクタ16の高さ及び位置を検知することもできる。その後処理はステップS12へ進む。
ステップS12において、制御部11は、記憶部13に記憶された仮想世界の空間のデータと、ステップS11により検知された投影方向とに基づいて、プロジェクタ16の位置よりも所定の距離だけプロジェクタ16の投影方向後方の位置に対応する仮想世界の空間における位置を視点として、仮想世界の空間の視界画像(視界映像)を取得(レンダリング)する。その後処理はステップS13へ進む。なお、現実世界の空間における位置及び方向と仮想世界の空間の位置及び方向との間は予め対応付けられている。
ステップS13において、制御部11は、プロジェクタ16の位置及び仮想世界の空間の視点の位置に応じて、視界画像上の任意の点が、現実世界の空間において対応付けられた点に投影されるように、視界画像を拡大してプロジェクタ16により投影するように制御する。その後、図9に示す処理は終了する。
以上のように本実施形態によれば、仮想世界のオブジェクトをより現実環境に存在するオブジェクトのように見えるように投影することができる。すなわち、投影装置10のユーザにとって、視覚の情報(例えば、オブジェクトが見える方向)と、運動量(例えば、オブジェクトの方向を向くために回転する必要がある角度)との間に齟齬がないため、仮想世界の空間に存在するオブジェクトがあたかも現実世界に存在するかのように見え、ユーザの仮想世界に対する没入感が増大する。
[変形例]
上記の実施形態は例にすぎず、各種の変形を適用することができる。
例えば、上記の実施形態において、投影装置10は弓型の装置としたがこれに限定せず、他の形態とすることができる。具体的には、投影装置10を携帯型ライト(懐中電灯)の形状とすることができる。このとき投影装置10は、リム17及び弦18を含まない。ユーザは、投影装置10を使用して暗闇で仮想世界におけるお化けオブジェクトや建物オブジェクトを投影することにより、お化け屋敷のゲームをプレイすることができる。
また、他の変形例として、投影装置10を銃形状に構成することができる。このとき、ユーザは、投影装置10を使用して射撃対象のオブジェクトを投影することにより、射撃ゲームをプレイすることができる。
10 投影装置、11 制御部、11a CPU、11b メモリ、12 通信部、13 記憶部、14 バッテリ、15 センサ、16 プロジェクタ、17 リム、18 弦、19 グリップ

Claims (7)

  1. 仮想世界の空間のデータを記憶する記憶手段と、
    プロジェクタと、
    前記プロジェクタによる投影方向を検知する検知手段と、
    位置が現実世界の空間と対応付けられた前記仮想世界の空間のデータと、前記検知された投影方向とに基づいて、前記プロジェクタの位置よりも前記プロジェクタの投影方向後方に対応する前記仮想世界の空間における位置を視点として、前記仮想世界の空間の視界画像を取得する取得手段と、
    前記プロジェクタの位置及び前記仮想世界の空間の前記視点の位置に応じて、前記視界画像上の任意の点が、現実世界の空間において対応付けられた点に投影されるように、前記視界画像を拡大して前記プロジェクタにより投影するように制御する制御手段と
    を備え
    前記取得手段は、前記視点から人の腕の長さに応じた距離だけ視野方向前方位置に、ニアクリッピングプレーンを設定して前記仮想世界の視界画像を取得する、投影装置。
  2. 前記視点は、現実世界の空間においてユーザが存在する位置に対応する前記仮想世界の空間における位置に設定される、請求項1に記載の投影装置。
  3. 前記検知手段は、現実世界の空間におけるユーザの位置をさらに検知し、
    前記取得手段は、前記検知された位置にさらに基づいて、前記仮想世界の視界画像を取得する、請求項1からのいずれか一項に記載の投影装置。
  4. 弓形状のリム部材と、
    前記リム部材の歪を検知する歪センサと
    を備え、
    前記取得手段は、前記検知された歪の変化に応じて、矢が飛ぶ画像を表示した前記視界画像を取得する、請求項1からのいずれか一項に記載の投影装置。
  5. 前記矢の飛ぶ速度は、前記検知された歪に応じて設定される、請求項4に記載の投影装置。
  6. 仮想世界の空間のデータを記憶する記憶手段と、プロジェクタとを備えた投影装置において実施される方法であって、
    前記プロジェクタによる投影方向を検知するステップと、
    位置が現実世界の空間と対応付けられた前記仮想世界の空間のデータと、前記検知された投影方向とに基づいて、前記プロジェクタの位置よりも前記プロジェクタの投影方向後方に対応する前記仮想世界の空間における位置を視点として、前記仮想世界の空間の視界画像を取得するステップと、
    前記プロジェクタの位置及び前記仮想世界の空間の前記視点の位置に応じて、前記視界画像上の任意の点が、現実世界の空間において対応付けられた点に投影されるように、前記視界画像を拡大して前記プロジェクタにより投影するように制御するステップと
    を備え
    前記取得するステップは、前記視点から人の腕の長さに応じた距離だけ視野方向前方位置に、ニアクリッピングプレーンを設定して前記仮想世界の視界画像を取得する、投影方法。
  7. 仮想世界の空間のデータを記憶する記憶手段と、プロジェクタを備えたコンピュータを、
    前記プロジェクタによる投影方向を検知する検知手段、
    位置が現実世界の空間と対応付けられた前記仮想世界の空間のデータと、前記検知された投影方向とに基づいて、前記プロジェクタの位置よりも前記プロジェクタの投影方向後方に対応する前記仮想世界の空間における位置を視点として、前記仮想世界の空間の視界画像を取得する取得手段、
    前記プロジェクタの位置及び前記仮想世界の空間の前記視点の位置に応じて、前記視界画像上の任意の点が、現実世界の空間において対応付けられた点に投影されるように、前記視界画像を拡大して前記プロジェクタにより投影するように制御する制御手段、
    として機能させ
    前記取得手段は、前記視点から人の腕の長さに応じた距離だけ視野方向前方位置に、ニアクリッピングプレーンを設定して前記仮想世界の視界画像を取得する、ためのプログラム。
JP2016050869A 2016-03-15 2016-03-15 投影装置、投影方法及びプログラム Active JP6772424B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016050869A JP6772424B2 (ja) 2016-03-15 2016-03-15 投影装置、投影方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016050869A JP6772424B2 (ja) 2016-03-15 2016-03-15 投影装置、投影方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017167717A JP2017167717A (ja) 2017-09-21
JP6772424B2 true JP6772424B2 (ja) 2020-10-21

Family

ID=59913887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016050869A Active JP6772424B2 (ja) 2016-03-15 2016-03-15 投影装置、投影方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6772424B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230012029A1 (en) * 2021-07-12 2023-01-12 Toyota Jidosha Kabushiki Kaisha Virtual reality simulator and virtual reality simulation program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007143632A2 (en) * 2006-06-03 2007-12-13 Eric Argentar Video game controller
WO2008004438A1 (fr) * 2006-07-03 2008-01-10 Panasonic Corporation Système de projecteur et procédé de projection d'image video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230012029A1 (en) * 2021-07-12 2023-01-12 Toyota Jidosha Kabushiki Kaisha Virtual reality simulator and virtual reality simulation program

Also Published As

Publication number Publication date
JP2017167717A (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
US9703102B2 (en) Information processing device including head mounted display
JP6298558B1 (ja) 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US9330478B2 (en) Augmented reality creation using a real scene
JP5891125B2 (ja) 映像処理装置、映像処理方法、および映像処理システム
US10922889B2 (en) Directing user attention
WO2018103635A1 (zh) 一种vr场景下的攀爬操作处理方法、装置及可读存储介质
US10755486B2 (en) Occlusion using pre-generated 3D models for augmented reality
CN108958475B (zh) 虚拟对象控制方法、装置及设备
JP6392911B2 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
US11100713B2 (en) System and method for aligning virtual objects on peripheral devices in low-cost augmented reality/virtual reality slip-in systems
US10685485B2 (en) Navigation in augmented reality environment
EP3156110A1 (en) Information processing device provided with head-mounted display
JP2018514836A (ja) バーチャル及びオーグメンテッドリアリティ環境におけるコントローラ可視化
KR20210148074A (ko) Ar 시나리오 콘텐츠의 생성 방법, 전시 방법, 장치 및 저장 매체
JP6470374B1 (ja) 仮想現実を提供するためにコンピュータで実行されるプログラムおよび情報処理装置
JP6227732B1 (ja) 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム
JP6161749B2 (ja) 映像処理装置、映像処理方法、および映像処理システム
JP6772424B2 (ja) 投影装置、投影方法及びプログラム
JP2018056924A (ja) 画像表示装置、及びこれを用いた仮想現実インタフェースデバイス
JP2018049629A (ja) 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム
US10653948B2 (en) Calibration of a magnetometer for augmented reality experience
JP2019168962A (ja) プログラム、情報処理装置、及び情報処理方法
JP2021101358A (ja) 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
CN109716395B (zh) 在虚拟现实中保持对象稳定性
JP2019179434A (ja) プログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20160412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190314

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200908

R150 Certificate of patent or registration of utility model

Ref document number: 6772424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150