JPWO2006134778A1 - 位置検出装置、位置検出方法、位置検出プログラム及び複合現実提供システム - Google Patents
位置検出装置、位置検出方法、位置検出プログラム及び複合現実提供システム Download PDFInfo
- Publication number
- JPWO2006134778A1 JPWO2006134778A1 JP2007521241A JP2007521241A JPWO2006134778A1 JP WO2006134778 A1 JPWO2006134778 A1 JP WO2006134778A1 JP 2007521241 A JP2007521241 A JP 2007521241A JP 2007521241 A JP2007521241 A JP 2007521241A JP WO2006134778 A1 JPWO2006134778 A1 JP WO2006134778A1
- Authority
- JP
- Japan
- Prior art keywords
- index image
- target object
- moving body
- image
- luminance level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H17/00—Toy vehicles, e.g. with self-drive; ; Cranes, winches or the like; Accessories therefor
- A63H17/26—Details; Accessories
- A63H17/36—Steering-mechanisms for toy vehicles
- A63H17/395—Steering-mechanisms for toy vehicles steered by program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
そこで光学系の位置検出装置では、輝度情報やマーカーの形状情報を併せて用いることにより検出精度を向上させるようになされている(例えば、特許文献1参照)。
また磁気センサ系の位置検出装置では、計測空間に傾斜した静磁場を発生させ、その静磁場中に置かれたセンサユニットの位置と姿勢の6自由度を計測するものである。この位置検出装置では、1つのセンサで6自由度の計測ができ、演算処理をほとんど必要しないためリアルタイムな計測が可能である。
従って磁気センサ系の位置検出装置は、光学系の位置検出装置に比べると、光に対する遮蔽物があっても計測することが可能であるが、同時に計測可能なセンサ数を増やすことが困難であり、また計測対象空間の磁性体や誘電体の影響を受け易く、更には計測対象空間内に金属が多い場合は検出精度が大きく劣化するという種々の問題がある。
さらに超音波センサ系の位置検出装置は、超音波発信器を計測物体に取り付け、空間に固定した受信機との距離関係に基づいて計測物体の位置を検出するようになされているが、ジャイロセンサや加速度計を併用して計測物体の姿勢を検出するものもある。
この超音波センサ系の位置検出装置では、超音波を用いているため、カメラよりは遮蔽物に強いが、その遮蔽物が発信機と受信機の間に存在するときは計測が困難な場合もある。
かかる課題を解決するため本発明の位置検出装置、位置検出方法及び位置検出プログラムにおいては、表示部上の第1の方向(X軸方向)及び第2の方向(Y軸方向、X軸とは直交関係にあるがこの関係に限るものではない)へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成し、表示部上の移動体と対向した位置に当該指標画像を表示し、当該指標画像の複数の領域におけるX軸方向及びY軸方向の輝度レベル変化をそれぞれ検出するため移動体に設けられた輝度レベル検出手段により輝度レベル変化を検出し、その輝度レベル変化に基づいて指標画像と移動体との相対的位置関係の変化を算出することにより表示部上での位置を検出するようにする。
これにより、指標画像のグラデーション化された複数の領域の輝度レベル変化に基づいて、表示部上に載置された移動体の移動に伴う指標画像と当該移動体との相対的位置関係の変化を算出することができるので、その算出結果を基に移動体の表示部上における移動に伴う位置を正確に検出することができる。
また本発明の位置検出装置においては、表示対象上で移動する移動体の位置を検出する位置検出装置であって、表示対象上のX軸方向及びY軸方向へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成し、表示対象上を移動する移動体の上面に対して表示する指標画像生成手段と、指標画像の複数の領域におけるX軸方向及びY軸方向の輝度レベル変化をそれぞれ検出するため移動体の上面に設けられた輝度レベル検出手段と、輝度レベル検出手段によって検出した検出結果に基づいて指標画像と移動体との相対的位置関係の変化を算出することにより表示対象上での位置を検出する位置検出手段とを設けるようにする。
これにより、表示対象上を移動する移動体の上面に対して表示される指標画像のグラデーション化された複数の領域の輝度レベル変化に基づいて、移動体の移動に伴う指標画像と当該移動体との相対的位置関係の変化を算出することができるので、その算出結果を基に移動体の移動に伴う表示対象上における位置を正確に検出することができる。
また本発明においては、情報処理装置によって表示部の画面上に表示される映像と、当該画面上に載置された移動体とを対応させながら当該移動体の動きを制御することにより、映像と移動体とが融合された複合現実感を提供する複合現実提供システムであって、情報処理装置は、画面上のX軸方向及びY軸方向へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成し、表示部上の移動体と対向した位置に映像の一部として指標画像を表示する指標画像生成手段と、予め定められた移動命令又は所定の入力手段を介して入力された移動命令に従って指標画像を画面上で移動させる指標画像移動手段とを具え、移動体は、指標画像の複数の領域におけるX軸方向及びY軸方向の輝度レベル変化をそれぞれ検出するため移動体に設けられた輝度レベル検出手段と、指標画像移動手段によって移動された指標画像に対し、輝度レベル検出手段によって検出した輝度レベル変化に基づいて指標画像と移動体との相対的位置関係の変化を算出することにより表示部上における移動体の現在位置を検出する位置検出手段と、移動体の現在位置と移動後の指標画像の位置との差分を無くすように追従させることにより、指標画像に合わせて移動体を移動させる移動制御手段とを設けるようにする。
これにより複合現実提供システムでは、情報処理装置が表示部の画面上に表示した指標画像を当該画面上で動かしたときに、その指標画像に表示部の画面上に載置された移動体を追従させることができるので、指標画像を介して移動体を間接的に移動制御することができる。
さらに本発明においては、情報処理装置によって表示対象上に表示される映像と、当該表示対象上に載置された移動体とを対応させながら当該移動体の動きを制御することにより、映像と移動体とが融合された複合現実感を提供する複合現実提供システムであって、情報処理装置は、表示対象上のX軸方向及びY軸方向へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成し、表示対象上を移動する移動体の上面に対して表示する指標画像生成手段と、予め定められた移動命令又は所定の入力手段を介して入力された移動命令に従って指標画像を表示対象上で移動させる指標画像移動手段とを具え、移動体は、指標画像の複数の領域におけるX軸方向及びY軸方向の輝度レベル変化をそれぞれ検出するため移動体の上面に設けられた輝度レベル検出手段と、指標画像移動手段によって移動された指標画像に対し、輝度レベル検出手段によって検出した輝度レベル変化に基づいて指標画像と移動体との相対的位置関係の変化を算出することにより表示対象上における移動体の現在位置を検出する位置検出手段と、移動体の現在位置と移動後の指標画像の位置との差分を無くすように追従させることにより、指標画像に合わせて移動体を移動させる移動制御手段とを設けるようにする。
これにより複合現実提供システムでは、情報処理装置が移動体の上面に表示した指標画像を動かしたときに、その指標画像に移動体を追従させることができるので、移動体の載置場所を選ぶことなく、表示対象を選ぶことなく何れの場所であっても指標画像を介して移動体を間接的に移動制御することができる。
本発明によれば、指標画像のグラデーション化された複数の領域の輝度レベル変化に基づいて移動体の移動に伴う指標画像と当該移動体との相対的位置関係の変化を算出することができるので、移動体の表示部上における移動に伴う位置を正確に検出することができ、かくして従来に比して簡易な構成で対象物の画面上における位置を高精度に検出し得る位置検出装置、位置検出方法及び位置検出プログラムを実現することができる。
また本発明によれば、表示対象上を移動する移動体の上面に対して表示される指標画像のグラデーション化された複数の領域の輝度レベル変化に基づいて、移動体の移動に伴う指標画像と当該移動体との相対的位置関係の変化を算出することができるので、その算出結果を基に移動体の移動に伴う表示対象上における位置を正確に検出し得る位置検出装置、位置検出方法及び位置検出プログラムを実現することができる。
さらに本発明によれば、情報処理装置が表示部の画面上に表示した指標画像を当該画面上で動かしたときに、その指標画像に表示部の画面上に載置された移動体を追従させることができるので、指標画像を介して移動体を間接的に移動制御し得る複合現実提供システムを実現することができる。
さらに本発明によれば、情報処理装置が移動体の上面に表示した指標画像を動かしたときに、その指標画像に移動体を追従させることができるので、移動体の載置場所を選ぶことなく、表示対象を選ぶことなく何れの場所であっても指標画像を介して移動体を間接的に移動制御し得る複合現実提供システムを実現することができる。
図2は、自動車形状ロボットの構成(1)を示す略線的斜視図である。
図3は、基本マーカー画像を示す略線図である。
図4は、基本マーカー画像を用いた位置検出方法及び姿勢検出方法の説明に供する略線図である。
図5は、センサのサンプリングレートの説明に供する略線図である。
図6は、特殊マーカー画像を示す略線図である。
図7は、特殊マーカー画像の輝度レベル分布を示す略線図である。
図8は、特殊マーカー画像を用いた位置検出方法及び姿勢検出方法の説明に供する略線図である。
図9は、対象物体主導型の複合現実表現システムを示す略線図である。
図10は、コンピュータ装置の構成を示す略線的ブロック図である。
図11は、対象物体主導型の複合現実表現処理シーケンスの説明に供するシーケンスチャートである。
図12は、現実世界の対象物体と仮想世界のCG映像とが融合した擬似3次元空間を示す略線図である。
図13は、仮想物体モデル主導型の複合現実表現システムを示す略線図である。
図14は、仮想物体モデル主導型の複合現実表現処理シーケンスを示すシーケンスチャートである。
図15は、変形例としての複合現実表現システムを示す略線図である。
図16は、変形例としてのハーフミラーを用いた複合現実表現システムを示す略線図である。
図17は、変形例としての現実世界の対象物体に対する移動制御の説明に供する略線図である。
図18は、上面照射型の複合現実提供装置を示す略線図である。
図19は、特殊マーカー画像付きCG映像を示す略線図である。
図20は、自動車形状ロボットの構成(2)を示す略線図である。
図21は、ノートPCの回路構成を示す略線的ブロック図である。
図22は、自動車形状ロボットの構成を示す略線的ブロック図である。
図23は、光通信時の特殊マーカー画像を示す略線図である。
図24は、アーム部の動作の説明に供する略線図である。
図25は、上面照射型の複合現実提供装置を示す略線図である。
図26は、応用例の説明に供する略線的斜視図である。
図27は、他の実施の形態におけるマーカー画像を示す略線図である。
(1)位置検出原理
(1−1)位置検出装置
本実施の形態では、本発明における位置検出装置の基本となる位置検出原理について最初に説明する。図1に示すように、位置検出装置として用いられるノートブック型パーソナルコンピュータ(以下、これをノートPCと呼ぶ)1では、その液晶ディスプレイ2の画面上に載置された自動車形状ロボット3の当該画面上における位置変化を検出するため、当該自動車形状ロボット3と対向する画面上に対して基本マーカー画像MK(後述する)を表示するようになされている。
自動車形状ロボット3は、図2(A)に示すように、略直方体形状でなる本体部3Aの左右両側に4個の車輪が設けられていると共に、前面部には物を掴むためのアーム部3Bが設けられた構造を有しており、外部のリモートコントローラ(図示せず)による無線操作に応じて液晶ディスプレイ2の画面上を移動し得るようになされている。
また自動車形状ロボット3は、図2(B)に示すように、その底面の所定位置に、液晶ディスプレイ2の画面上に映し出される基本マーカー画像MK(図1)と対応すべき5個のフォトトランジスタでなるセンサSR1〜SR5が設けられており、センサSR1及びSR2が本体部3Aの先端側及び後端側に配置されると共に、センサSR3及びSR4が本体部3Aの左右両側に配置され、センサSR5が本体部3Aのほぼ中心に配置されている。
ノートPC1(図1)は、所定の位置検出プログラムに従い、自動車形状ロボット3のセンサSR1〜SR5によって受光した基本マーカー画像MKの輝度レベルデータを無線又は有線により当該自動車形状ロボット3から受け取り、それに基づいて自動車形状ロボット3の画面上における位置変化を算出し、現在位置や自動車形状ロボット3の向き(姿勢)を検出し得るようになされている。
(1−2)基本マーカー画像を用いた位置検出方法
ここで、図3に示すように基本マーカー画像MKは、水平方向及び垂直方向から45度ずれた位置に設けられた境界線を介して90度の範囲により区分けされた扇形状でなる位置検出領域PD1〜PD4及び、当該基本マーカー画像MKの中心に設けられた円形状でなるリファレンス領域RFによって構成されている。
位置検出領域PD1〜PD4は、その領域内で輝度レベルが0%〜100%まで線形的(リニア)に変化するようにグラデーション化されており、この場合、位置検出領域PD1〜PD4の全てにおいて反時計回り方向へ輝度レベルが0%〜100%まで次第に変化するようになされている。但し、位置検出領域PD1〜PD4においては、これに限るものではなく、時計回り方向へ輝度レベルが0%〜100%まで次第に変化するようになされていても良い。
因みに、基本マーカー画像MKにおける位置検出領域PD1〜PD4の各輝度レベルは全て0%〜100%まで線形的(リニア)に変化するようにグラデーション化されている必要は必ずしもなく、例えばS字状カーブを描くように非線形的に変化するようにグラデーション化されていても良い。
リファレンス領域RFは、その輝度レベルが位置検出領域PD1〜PD4とは異なった50%に固定されており、ノートPC1による自動車形状ロボット3に対する位置検出計算の際に環境光や外乱光の影響を取り除くために輝度レベルの参照領域として設けられている。
実際上、図4(A)真中に示すように、自動車形状ロボット3の底面に設けられたセンサSR1〜SR5と、基本マーカー画像MKの位置検出領域PD1〜PD4及びリファレンス領域RFのほぼ中央とがそれぞれ対向するように当該基本マーカー画像MKが液晶ディスプレイ2に表示されたニュートラル状態(各輝度レベルが50%の「中」状態)を基本として、当該自動車形状ロボット3がX軸に沿って右方向へ並進した場合、図4(A)右に示すようにセンサSR1の輝度レベルa1が「中」状態から「暗」状態へ変化すると共に、センサSR2の輝度レベルa2が「中」状態から「明」状態へ変化する。
また、自動車形状ロボット3がX軸に沿って左方向へ並進した場合も同様に、図4(A)左に示すようにセンサSR1の輝度レベルa1が「中」状態から「明」状態へ変化すると共に、センサSR2の輝度レベルa2が「中」状態から「暗」状態へ変化する。但し、センサSR3の輝度レベルa3、センサSR4の輝度レベルa4及びセンサSR5の輝度レベルa5については一切変化しない。
従ってノートPC1は、自動車形状ロボット3から供給されるセンサSR1の輝度レベルa1及びセンサSR2の輝度レベルa2を参照することによりx方向のずれdxを、次式
dx=p1(a2−a1) ……(1)
によって求めることが出来る。ここで、p1は比例係数であり、位置検出空間における環境光やキャリブレーションに応じてダイナミックに変化させることが可能な値である。因みに、図4(A)真中に示すように、x方向に一切ずれのない状態では、(1)式の(a2−a1)が「0」になるので、ずれdxの値も当然「0」となる。
同様にノートPC1は、自動車形状ロボット3から供給されるセンサSR3の輝度レベルa3及びセンサSR4の輝度レベルa4を参照することによりy方向のずれdyを、次式
dy=p2(a4−a3) ……(2)
によって求めることが出来る。ここで、p2もP1と同様に比例係数であり、位置検出空間における環境光やキャリブレーションに応じてダイナミックに変化させることが可能な値である。因みに、y方向に一切ずれのない状態では、(2)式の(a4−a3)が「0」になるので、ずれdyの値も当然「0」となる。
一方、図4(B)真中に示すように、自動車形状ロボット3の底面に設けられたセンサSR1〜SR5と、基本マーカー画像MKの位置検出領域PD1〜PD4及びリファレンス領域RFのほぼ中央とがそれぞれ対向するように当該基本マーカー画像MKが液晶ディスプレイ2に表示されたニュートラル状態(各輝度レベルが50%の「中」状態)を基本として、自動車形状ロボット3が基本マーカー画像MKに対して中心軸を動かすことなく右旋回した場合、図4(B)右に示すようにセンサSR1の輝度レベルa1、センサSR2の輝度レベルa2、センサSR3の輝度レベルa3、センサSR4の輝度レベルa4が全て「中」状態から「暗」状態へ変化する。但し、センサSR5の輝度レベルa5については一切変化していない。
同様に、自動車形状ロボット3が基本マーカー画像MKに対して中心軸を動かすことなく左旋回した場合、図4(B)左に示すようにセンサSR1の輝度レベルa1、センサSR2の輝度レベルa2、センサSR3の輝度レベルa3、センサSR4の輝度レベルa4が全て「中」状態から「明」状態へ変化する。但し、この場合もセンサSR5の輝度レベルa5については一切変化していない。
従ってノートPC1は、自動車形状ロボット3から供給されるセンサSR1〜SR4の輝度レベルa1〜a4及びリファレンス領域RFに対応したセンサSR5の輝度レベルa5をそれぞれ参照することにより自動車形状ロボット3の旋回角度θを、次式
sinθ=p3((a1+a2+a3+a4)−4×(a5))…(3)
によって求めることが出来る。ここで(3)式では、リファレンス領域RFの輝度レベルa5を4倍して減算していることにより、基本マーカー画像MK以外の環境光による影響を排除して、正確な旋回角度θを求めることができるように配慮されている。
この場合も、p3は比例係数であり、位置検出空間における環境光やキャリブレーションに応じてダイナミックに変化させることが可能な値である。因みに、自動車形状ロボット3が左右いずれにも旋回していない状態では、(3)式の((a1+a2+a3+a4)−4×(a5))が「0」になるため、自動車形状ロボット3の旋回角度θは0度になる。
なおノートPC1では、自動車形状ロボット3のずれdx、dy及び旋回角度θについては、それぞれ同時に独立して計算することができるので、例えば自動車形状ロボット3が右方向へ並進しながら左方向へ旋回した場合であっても、当該自動車形状ロボット3の現在位置及び自動車形状ロボット3の向き(姿勢)を算出し得るようになされている。
更にノートPC1は、液晶ディスプレイ2の画面上に載置された自動車形状ロボット3の本体部3Aが上下にその高さを変化させるための機構が搭載されている場合、その高さZについても検出し得るようになされており、次式
Z=p4×√(a1+a2+a3+a4) ……(4)
によって求めることができる。この場合も、p4は比例係数であり、位置検出空間における環境光やキャリブレーションに応じてダイナミックに変化させることが出来る。
すなわち、自動車形状ロボット3の高さZが変化すると、センサSR1〜SR4の輝度レベルa1〜a4が全て変化するので、(4)式によって自動車形状ロボット3の高さZを求めることができるのである。因みに、(4)式では、点光源の場合に距離の2乗で輝度レベルが減衰することから平方根が用いられている。
このようにノートPC1は、自動車形状ロボット3が液晶ディスプレイ2の画面上で移動したときのずれdx、dy及び旋回角度θに基づいて現在位置及び姿勢を検出し、移動前後における現在位置の差分に応じて基本マーカー画像MKを自動車形状ロボット3の底面と対向するように移動させることにより、液晶ディスプレイ2の画面上であれば自動車形状ロボット3を終始追従しながら現在位置及び姿勢を検出し得るようになされている。
ところでノートPC1では、図5に示すように基本マーカー画像MKを液晶ディスプレイ2の画面上に表示するフレーム周波数又はフィールド周波数よりも、センサSR1〜SR5による輝度レベルa1〜a5のサンプリング周波数の方が高いため、当該フレーム周波数又はフィールド周波数には依存することなく自動車形状ロボット3の現在位置及び姿勢を高速に検出し得るようになされている。
実際上、ノートPC1は、例えばフレーム周波数がX(=30)[Hz]の場合、画面が更新される1/X秒の間であっても自動車形状ロボット3は液晶ディスプレイ2の画面上を移動しているが、そのときであってもセンサSR1〜SR5によるサンプリング周波数ΔDがフレーム周波数X[Hz]よりも高いので、位置検出を行う際の追従可能速度Vとしては、次式
V=X+ΔD ……(5)
によって表され、自動車形状ロボット3が高速移動中であってもフレーム周波数又はフィールド周波数に依存することなく高精度に現在位置を検出し得るようになされている。
(1−3)特殊マーカー画像を用いた位置検出方法
上述のような基本マーカー画像MKを用いた位置検出方法では、上述したニュートラル状態から左右方向へ自動車形状ロボット3が高速に旋回し、センサSR1、センサSR2、センサSR3及びセンサSR4が位置検出領域PD1〜PD4を乗り越えてしまった場合、例えば旋回角度θ=+46度を旋回角度θ=−44度と誤検出してしまい、自動車形状ロボット3に対して基本マーカー画像MKをニュートラル状態に戻す際に逆方向へ補正してしまうことが起こりえる。
また基本マーカー画像MKでは、位置検出領域PD1〜PD4との境界部分で輝度レベルが0%から100%又は100%から0%へ急激に変化するため、輝度レベル100%の部分の光が輝度レベル0%の部分に漏れ込んで誤検出の要因にもなる。
そこでノートPC1では、図6に示すように基本マーカー画像MKをもう一段階発展させた特殊マーカー画像MKZを用いるようになされている。この特殊マーカー画像MKZは、図7に示すように基本マーカー画像MK(図6)の位置検出領域PD3及びPD4をそのままにして、基本マーカー画像MKの位置検出領域PD1及びPD2の輝度レベルを逆時計回り方向ではなく、時計回り方向へ0%〜100%まで線形的(リニア)に変化するようにグラデーション化させた位置検出領域PD1A及びPD2Aを用いたものである。
従って特殊マーカー画像MKZは、基本マーカー画像MKとは異なり、輝度レベルが0%から100%へ急激に変化する部分が一切ないように全体的にグレデーション化されており、基本マーカー画像MKのように輝度レベル100%の部分の光が輝度レベル0%の部分に漏れ込むといった事態を予め回避するようになされている。
また特殊マーカー画像MKZは、自動車形状ロボット3の動きに応じて、位置検出領域PD1A、PD2A、PD3及びPD4の範囲内でセンサSR1、センサSR2、センサSR3及びセンサSR4が移動するx軸方向及びy軸方向に対してその輝度レベルa1、a2、a3、a4が0%〜100%の間を線形的に変化するようになされている。
更に特殊マーカー画像MKZは、自動車形状ロボット3の旋回に応じて、位置検出領域PD1A、PD2A、PD3及びPD4の範囲内でセンサSR1、センサSR2、センサSR3及びセンサSR4が移動する円周方向に対してその輝度レベルa1、a2、a3、a4が0%〜100%〜0%〜100%〜0%へ360度の範囲で線形的に変化するようになされている。
因みに、特殊マーカー画像MKZにおける位置検出領域PD1A、PD2A、PD3、PD4の各輝度レベルは全て0%〜100%まで線形的に変化するようにグラデーション化されている必要は必ずしもなく、例えばS字状カーブを描くように非線形的に変化するようにグラデーション化されていても良い。
また特殊マーカー画像MKZは、自動車形状ロボット3がニュートラル状態から旋回し、センサSR1、センサSR2、センサSR3及びセンサSR4が位置検出領域PD1A、PD2A、PD3及びPD4の範囲から乗り越えてしまったときであっても、例えば旋回角度θ=+46度を、旋回角度θ=+44度として検出する程度の誤差で済み、基本マーカー画像MKに比べて検出誤差を低減することが出来ると共に、自動車形状ロボット3に対する追従性能をも向上させ得るようになされている。
従ってノートPC1では、移動した自動車形状ロボット3に対して移動分のずれが生じた特殊マーカー画像MKZを当該自動車形状ロボット3の底面に設けられたセンサSR1〜SR5と対向させるようにニュートラル状態へ戻す際、基本マーカー画像MKのときのような符号誤りにより逆方向へ動かしてしまうような事態を回避し得るようになされている。
実際上、自動車形状ロボット3がニュートラル状態から右方向へ並進した場合、図8(A)右に示すようにセンサSR1の輝度レベルa1が「中」状態から「明」状態へ変化すると共に、センサSR2の輝度レベルa2が「中」状態から「暗」状態へ変化する。
また、自動車形状ロボット3がニュートラル状態から左方向へ並進した場合も同様に、図8(A)左に示すように「センサSR1の輝度レベルa1が「中」状態から「暗」状態へ変化すると共に、センサSR2の輝度レベルa2が「中」状態から「明」状態へ変化する。但し、この場合もセンサSR3の輝度レベルa3、センサSR4の輝度レベルa4及びセンサSR5の輝度レベルa5については一切変化しない。
従ってノートPC1は、自動車形状ロボット3から供給されるセンサSR1の輝度レベルa1及びセンサSR2の輝度レベルa2を参照することにより、上述した(1)式に従って、x方向のずれdxを求めることが出来る。
同様にノートPC1は、自動車形状ロボット3から供給されるセンサSR3の輝度レベルa3及びセンサSR4の輝度レベルa4を参照することにより、y方向のずれdyを上述した(2)式に従って求めることが出来る。
一方、図8(B)真中に示すように、自動車形状ロボット3の底面に設けられたセンサSR1〜SR4と、特殊マーカー画像MKZの位置検出領域PD1A、PD2A、PD3、PD4のほぼ中央とが対向するように当該特殊マーカー画像MKZが液晶ディスプレイ2に表示されたニュートラル状態(各輝度レベルが50%の「中」状態)を基本として、自動車形状ロボット3が特殊マーカー画像MKZに対して中心軸をそのままにニュートラル状態から右旋回した場合、図8(B)右に示すようにセンサSR1の輝度レベルa1、センサSR2の輝度レベルa2が「中」状態から「明」状態へ変化するものの、センサSR3の輝度レベルa3、センサSR4の輝度レベルa4については「中」状態から「暗」状態へ変化する。
同様に、自動車形状ロボット3が特殊マーカー画像MKZに対して中心軸をそのままにニュートラル状態から左旋回した場合、図8(B)左に示すようにセンサSR1の輝度レベルa1、センサSR2の輝度レベルa2が「中」状態から「暗」状態へ変化するものの、センサSR3の輝度レベルa3、センサSR4の輝度レベルa4が「中」状態から「明」状態へ変化する。
従ってノートPC1は、自動車形状ロボット3から供給されるセンサSR1〜センサSR4の輝度レベルa1〜輝度レベルa4をそれぞれ参照することにより、旋回角度dθを次式
sin dθ=p6((a3+a4)−(a1+a2)) ……(6)
によって求めることが出来る。この場合も、p6は比例係数であり、位置検出空間における環境光やキャリブレーションに応じてダイナミックに変化させることが出来る。すなわち、旋回していない状態では、(6)式の((a3+a4)−(a1+a2))が「0」になるため旋回角度dθは0度になる。ここで、(6)式では((a3+a4)−(a1+a2))の符号によって右旋回であるか左旋回であるかを判別し得るようになされている。
この場合、基本マーカー画像MKのときの(3)式と比較すると、特殊マーカー画像MKZのときの(6)式では、((a3+a4)−(a1+a2))のように減算処理を行っていることから、基本マーカー画像MKのリファレンス領域RFに対する輝度レベルa5を用いる必要がない。従って基本マーカー画像MKでは、仮に輝度レベルa5にセンサSR5固有の誤差が生じていた場合には、その誤差も4倍されてしまうが、特殊マーカー画像MKZの場合はそのようなことがない。
またノートPC1は、特殊マーカー画像MKZのときの(6)式を用いた場合、基本マーカー画像MKのときの(3)式のように輝度レベルa1、a2、a3、a4を全て加算するのではなく、(6)式の((a3+a4)−(a1+a2))のように減算することにより、輝度レベルa1、a2、a3、a4の全てに対して外乱光等による均一な誤差が生じていても、それを減算により相殺することができる分だけ、簡易な計算式により旋回角度dθを高精度に検出することが出来るようになされている。
なおノートPC1では、自動車形状ロボット3のずれdx、dy及び旋回角度dθについては、それぞれ同時に独立して計算することができるので、例えば自動車形状ロボット3が右方向へ並進しながら左方向へ旋回した場合であっても、当該自動車形状ロボット3の現在位置及び自動車形状ロボット3の向き(姿勢)を算出することが可能である。
更にノートPC1は、液晶ディスプレイ2の画面上に載置された自動車形状ロボット3の本体部3Aが上下にその高さを変化させるための機構が搭載されている場合、基本マーカー画像MKのときと同様に特殊マーカー画像MKZを用いた場合にも、その高さZについて検出し得るようになされており、上述の(4)式に従って求めることができる。
このようにノートPC1は、自動車形状ロボット3が液晶ディスプレイ2の画面上で移動したときのずれdx、dy及び旋回角度dθに基づいて現在位置及び姿勢を検出し、移動前後における現在位置の差分に応じて特殊マーカー画像MKZを自動車形状ロボット3の底面と対向するように移動させることにより、液晶ディスプレイ2の画面上であれば自動車形状ロボット3の現在位置を追従させながらリアルタイムに終始検出し得るようになされている。
ところで、この場合もノートPC1では、特殊マーカー画像MKZを液晶ディスプレイ2の画面に表示するフレーム周波数又はフィールド周波数よりも、センサSR1〜SR4による輝度レベルのサンプリング周波数の方が高いため、当該フレーム周波数又はフィールド周波数には依存することなく自動車形状ロボット3の現在位置及び姿勢を高速に検出し得るようになされている。
上述したような位置検出原理を基本的な考え方として応用した具体的な複合現実提供システムを次に説明するが、その前に、液晶ディスプレイ2の画面上に載置した自動車形状ロボット3を物理的な現実世界の対象物体とし、その対象物体を画面上で動かしたとき、その実際の動きに連動させて画面上の背景画像を動かしたり、対象物体の動きに合わせて仮想物体モデルの付加画像を生成して画面上に表示する複合現実表現システムの基本概念について最初に説明する。
(2)複合現実表現システムの基本概念
この複合現実表現システムでは、基本的に2通りの考え方がある。第1には、液晶ディスプレイやスクリーン等でなる種々の表示手段に表示された映像に重ねるように配置されている現実世界の対象物体をユーザが動かしたとき、その実際の動きに連動させて背景画像を動かしたり、その動きに合わせて付加すべき仮想物体モデルの付加画像を生成して表示する対象物体主導型の複合現実表現システムである。
また第2には、液晶ディスプレイ等の表示手段に表示された映像に重ねるように配置されている現実世界の対象物体に対して、その現実世界の対象物体に対応した仮想世界の対象物体モデルをコンピュータ上で動かしたとき、その仮想世界の対象物体モデルの動きに連動させて現実世界の対象物体を実際に動かしたり、その仮想世界の対象物体モデルの動きに合わせて付加すべき仮想物体モデルの付加画像を生成して表示する仮想物体モデル主導型の複合現実表現システムである。
これら2通り存在する対象物体主導型の複合現実表現システムと、仮想物体モデル主導型の複合現実表現システムについて以下具体的に説明する。
(2−1)対象物体主導型の複合現実表現システムにおける全体構成
図9において、100は全体として対象物体主導型の複合現実表現システムを示し、コンピュータ装置102から供給される仮想世界のコンピュータグラフィクス(CG)映像V1をプロジェクタ103からスクリーン104上に投影する。
仮想世界のCG映像V1が投影されたスクリーン104上には、ユーザ106がラジオコントローラ(以下、これを単にラジコンと呼ぶ)107を介して遠隔操作するための例えば戦車の模型等でなる現実世界の対象物体105が載置され、スクリーン104上のCG映像V1に対して現実世界の対象物体105が重ねられるように位置付けられる。
現実世界の対象物体105は、ユーザ106のラジコン107に対する操作に応じてスクリーン104上を自在に動くことができるようになされており、そのとき複合現実表現システム100ではスクリーン104上における現実世界の対象物体105の2次元的な位置や3次元的な姿勢(この場合は、動き)を磁気式又は光学式の計測装置108により動き情報S1として取得し、その動き情報S1をコンピュータ装置102の仮想空間構築部109へ送出する。
また、ユーザ106のラジコン107に対する操作に応じて例えば現実世界の対象物体105から仮想世界のCG映像V1を通してミサイルやレーザを発射するとか、バリアーを展開するとか、或いは機雷を設置する等を行わせるための命令が出されると、当該ラジコン107からその命令に応じた制御信号S2がコンピュータ装置102の仮想空間構築部109へ送出される。
仮想空間構築部109は、スクリーン104上を動き回る現実世界の対象物体105に対応した仮想世界の対象物体モデルをコンピュータ装置102上で生成する対象物体モデル生成部110、ラジコン107からの制御信号S2に応じて現実世界の対象物体105に仮想世界のCG映像V1を介して付与すべき仮想物体モデル(例えばミサイル、レーザ、バリアー及び機雷等)を生成する仮想物体モデル生成部111、スクリーン104に表示する背景画像を生成する背景画像生成部112、ユーザ106のラジコン操作に応じて動かす対象物体105に合わせて背景画像を変化させたり、対象物体105の動きに合わせて仮想物体モデルを付与する等の種々の物理計算を行う物理計算部113によって構成されている。
従って仮想空間構築部109は、物理計算部113により、現実世界の対象物体105から直接取得した動き情報S1に基づいて仮想世界の対象物体モデルをコンピュータ装置102が作る情報世界の中で仮想的に動かし、その動きに応じて変化させた背景画像や、対象物体モデルに付与する仮想物体モデル等のデータD1を映像信号生成部114へ送出する。
ここで背景画像の表示内容としては、現実世界の対象物体105の進行方向に合わせて矢印マークを表示したり、現実世界の対象物体105における画面上の動きに応じて周りの景色を変化させて表示することが考えられる。
映像信号生成部114は、背景画像及び仮想物体モデル等のデータD1を基に現実世界の対象物体105に対して背景画像を連動させ、かつ仮想物体モデルを付与するためのCG映像信号S3を生成し、そのCG映像信号S3に応じた仮想世界のCG映像V1をプロジェクタ103からスクリーン104上に投影することにより、当該仮想世界のCG映像V1と現実世界の対象物体105とをスクリーン104上で融合した擬似3次元空間からなる複合現実感をユーザに体感させ得るようになされている。
因みに、映像信号生成部114では、仮想世界のCG映像V1をスクリーン104上に投影する際、現実世界の対象物体105における表面部分に対してCG映像V1の一部が投影されてしまうことを回避するために、現実世界の対象物体105に対応する対象物体モデルの位置及び大きさに基づいて当該対象物体105に相当する箇所の映像だけを抜き取り、かつ対象物体105の周囲に影が付与されるようなCG映像信号S3を生成するようになされている。
なお複合現実表現システム100では、プロジェクタ103からスクリーン104上に投影した仮想世界のCG映像V1と現実世界の対象物体105とが重ねられることにより形成される擬似3次元空間を、スクリーン104を肉眼で目視確認することが可能な全てのユーザ106に対して提供し得るようになされている。
その意味では対象物体主導型の複合現実表現システム100は、いわゆるビデオシースルータイプというよりは、外界の光が直接ユーザ106に届く光学シースルータイプと呼ばれる範疇に属するものといえる。
(2−1−1)コンピュータ装置の構成
このような対象物体主導型の複合現実表現システム100を実現するためのコンピュータ装置102としては、図10に示すように、全体を統括制御するCPU(Central Processing Unit)121に対し、バス129を介してROM(Read Only Memory)122、RAM(Random Access Memory)123、ハードディスクドライブ124、映像信号生成部114、LCD(Liquid Crystal Display)でなるディスプレイ125、動き情報S1や制御信号S2を受け取ったり、現実世界の対象物体105を動かすための動作命令を与えるインタフェース126及びキーボード等の入力部127が接続された構成を有し、ハードディスクドライブ124から読み出してRAM123上に展開した基本プログラム及び複合現実表現プログラムに従ってCPU121が所定の処理を実行することにより仮想空間構築部109をソフトウェア的に実現するようになされている。
(2−1−2)対象物体主導型の複合現実表現処理シーケンス
次に、対象物体主導型の複合現実表現システム100において現実世界の対象物体105の動きに連動させて仮想世界のCG映像V1を変化させる対象物体主導型の複合現実表現処理シーケンスについて説明する。
図11に示すように、対象物体主導型の複合現実表現処理シーケンスでは、現実世界における処理の流れと、コンピュータ装置102が行う仮想世界の処理の流れに大きく分けることができ、それぞれの処理結果をスクリーン104上で融合するようになされている。
具体的に、ユーザ106はステップSP1においてラジコン107に対する操作を行い、次のステップSP2へ移る。この場合、スクリーン104上に載置された現実世界の対象物体105を移動させるための命令を与えたり、現実世界の対象物体105に仮想物体モデルとしてのミサイルやレーザーを付加するための命令を与える等の種々の操作が考えられる。
現実世界の対象物体105は、ステップSP2においてラジコン107からの命令を受けてユーザのラジコン107に対する操作に応じた動作をスクリーン104上で実際に実行する。このとき計測装置108は、ステップSP3において、スクリーン104上を実際に動いた現実世界の対象物体105の当該スクリーン104上における2次元的な位置や3次元的な姿勢を計測し、その動き情報S1を計測結果として仮想空間構築部109へ送出する。
一方、仮想空間構築部109では、ステップSP4において、ユーザ106のラジコン操作に応じてラジコン107から供給された制御信号S2(図9)がスクリーン104上の2次元的な位置を示すものであった場合、当該制御信号S2に応じて仮想物体モデル生成部111により仮想世界の対象物体モデルを生成し、それを仮想空間上で2次元的に移動させる。
また仮想空間構築部109では、ステップSP4において、ラジコン操作により供給された制御信号S2が3次元的な姿勢(動き)を示すものであった場合、当該制御信号S2に応じて仮想物体モデル生成部111により仮想世界の対象物体モデルを生成し、それを仮想空間上で3次元的に動かす。
続いて仮想空間構築部109は、ステップSP5において、計測装置108から供給された動き情報S1を物理計算部113で読み込み、ステップSP6において、動き情報S1を基に仮想世界上の対象物体モデルを動かすときの背景画像や、対象物体モデルに付与する仮想物体モデル等のデータD1を算出する。
そして仮想空間構築部109は、ステップSP7において、物理計算部113における算出結果であるデータD1を仮想世界のCG映像V1に反映させるように信号処理する。コンピュータ装置102の映像信号生成部114は、ステップSP8において、ステップSP7の反映結果として現実世界の対象物体105に連動させるようにしたCG映像信号S3を生成し、当該CG映像信号S3をプロジェクタ103へ出力する。
プロジェクタ103は、ステップSP9において、そのCG映像信号S3に応じた図12に示すような仮想世界のCG映像V1をプロジェクタ103からスクリーン104上に投影する。この仮想世界のCG映像V1は、森、ビルディング等の背景画像に現実世界の対象物体105を見かけ上融合させ、ユーザ106の遠隔操作による現実世界の対象物体105の動きを契機として当該現実世界の対象物体105(右側)から他のユーザが遠隔操作する現実世界の対象物体105(左側)へレーザビーム等の仮想物体モデルVM1が付与された瞬間である。
従ってプロジェクタ103は、ユーザ106が遠隔操作する現実世界の対象物体105の動きに背景画像や仮想物体モデルを連動させた状態の仮想世界のCG映像V1をスクリーン104上で現実世界の対象物体105にオーバーラップさせることにより、現実世界の対象物体105と仮想世界のCG映像V1とをスクリーン104上でユーザに違相感を生じさせることがないように融合させ得るようになされている。
このとき現実世界の対象物体105は、スクリーン104上に仮想世界のCG映像V1が投影された場合、当該現実世界の対象物体105における表面部分に対して仮想世界のCG映像V1の一部が投影されてしまうことがなく、かつ現実世界の対象物体105の周囲に対して影105Aが画像として付与されることになるため、現実世界の対象物体105と仮想世界のCG映像V1とが融合することによって一段と臨場感に溢れた擬似3次元空間が構築される。
これによりユーザ106は、ステップSP10(図11)において、スクリーン104上に表示された仮想世界のCG映像V1と現実世界の対象物体105とが融合された擬似3次元空間を目視確認することにより、従来に比して一段と機能拡張された臨場感に溢れた複合現実感を体感することができるようになされている。
(2−1−3)対象物体主導型の複合現実表現システムにおける動作及び効果
以上の構成において、対象物体主導型の複合現実表現システム100では、ユーザ106により実際に動かされた現実世界の対象物体105と連動した仮想世界のCG映像V1をスクリーン104に投影することにより、当該現実世界の対象物体105と仮想世界のCG映像V1とをスクリーン104上でオーバーラップさせる。
このように対象物体主導型の複合現実表現システム100では、現実世界の対象物体105における動きに合わせた仮想世界のCG映像V1をスクリーン104に投影することにより、現実世界の対象物体105における2次元的な位置の変化に合わせて動く背景画像や、また現実世界の対象物体105における3次元的な姿勢(動き)等に合わせて付与されたレーザ等の仮想物体モデルを介して、現実世界の対象物体105と仮想世界のCG映像V1とを同一空間上で融合した擬似3次元空間を提供することができる。
これによりユーザ106は、現実世界の対象物体105をスクリーン104上でラジコン操作しながら動かしたときに、現実世界の対象物体105に連動した背景画像の変化や、付与される仮想物体モデルを目視確認することにより、従来のような2次元的な映像だけを用いたMR(Mixed Reality)技術による複合現実感よりも一段と臨場感に溢れた3次元的な複合現実感を体感することができる。
また対象物体主導型の複合現実表現システム100では、現実世界の対象物体105における実際の動きに背景画像や仮想物体モデルを追従させた仮想世界のCG映像V1を当該現実世界の対象物体105に対して重畳させることにより、現実世界と仮想世界との対話を具現化させることができ、従来よりもエンターテインメント性を一段と向上させることができる。
以上の構成によれば、対象物体主導型の複合現実表現システム100では現実世界の対象物体105と、当該現実世界の対象物体105における実際の動きと連動した仮想世界のCG映像V1とをスクリーン104上で混合させることにより、現実世界と仮想世界とを融合した擬似3次元空間を当該スクリーン104上で表現し、当該擬似3次元空間を介して従来よりも一段と臨場感に優れた複合現実空間をユーザ106に対して体感させることができる。
(2−2)仮想物体モデル主導型の複合現実表現システムにおける全体構成
図9との対応部分に同一符号を付して示す図13において、200は全体として仮想物体モデル主導型の複合現実表現システムを示し、コンピュータ装置102から供給される仮想世界のCG映像V2をプロジェクタ103からスクリーン104上に投影する。
仮想世界のCG映像V2が投影されたスクリーン104上には、ユーザ106が入力部127を介して間接的に遠隔操作するための現実世界の対象物体105が載置され、スクリーン104上のCG映像V2に対して現実世界の対象物体105が重ねられるように位置付けられる。
この仮想物体モデル主導型の複合現実表現システム200においても、コンピュータ装置102の具体的構成については、対象物体主導型の複合現実表現システム100におけるコンピュータ装置102(図10)と同一であるため、ここではその構成について説明を省略する。なお、基本プログラム及び複合現実表現プログラムに従ってCPU121が所定の処理を実行することにより仮想空間構築部109をソフトウェア的に実現する点についても対象物体主導型の複合現実表現システム100におけるコンピュータ装置102と同様である。
仮想物体モデル主導型の複合現実表現システム200では、対象物体主導型の複合現実表現システム100とは異なり、ユーザ106が現実世界の対象物体105を直接動かすのではなく、当該現実世界の対象物体105に相当する仮想世界の対象物体モデルを介して間接的に現実世界の対象物体105を動かすようになされている。
すなわち仮想物体モデル主導型の複合現実表現システム200では、入力部127に対するユーザ106の操作に応じて現実世界の対象物体105に相当する仮想世界の対象物体モデルをコンピュータ装置102上で仮想的に動かすことが可能であり、その対象物体モデルを動かすときの指令信号S12を当該対象物体モデルにおける変化情報として仮想空間構築部109へ送出するようになされている。
すなわちコンピュータ装置102は、仮想空間構築部109の物理計算部113によりユーザ106からの指令信号S12に応じて仮想世界の対象物体モデルを当該仮想的に動かし、その場合の仮想世界の対象物体モデルの動きに連動して背景画像を動かしたり、付与すべき仮想物体モデルを生成し、仮想世界の対象物体モデルの動きに連動して変化させた背景画像や、仮想世界の対象物体モデルに付与すべき仮想物体モデル等のデータD1を映像信号生成部114へ送出する。
このとき同時に仮想空間構築部109の物理計算部113では、仮想世界の中で動かした対象物体モデルの位置や動きに応じて生成した制御信号S14を現実世界の対象物体105へ供給することによって、仮想世界の対象物体モデルの動きに現実世界の対象物体105を連動させながら動かし得るようになされている。
また、このとき映像信号生成部114は、背景画像及び仮想物体モデル等のデータD1を基にCG映像信号S13を生成し、そのCG映像信号S13に応じた仮想世界のCG映像V2をプロジェクタ103からスクリーン104上に投影することにより、仮想世界の対象物体モデルに連動した動きを有する現実世界の対象物体105に合わせて背景画像を変化させかつ仮想物体モデルを付与することができるので、当該仮想世界のCG映像V2と現実世界の対象物体105とを融合した擬似3次元空間からなる複合現実感をユーザに体感させ得るようになされている。
因みに、この場合の映像信号生成部114においても、仮想世界のCG映像V2をスクリーン104上に投影する際、現実世界の対象物体105における表面部分に対して仮想世界のCG映像V2の一部が投影されてしまうことを回避し得るために、現実世界の対象物体105に対応する仮想世界の対象物体モデルの位置及び大きさに基づいて当該対象物体モデルに相当する箇所の映像だけを抜き取り、かつ対象物体モデルの周囲に影が付与されたCG映像信号S13を生成するようになされている。
なお仮想物体モデル主導型の複合現実表現システム200では、プロジェクタ103からスクリーン104上に投影した仮想世界のCG映像V2と現実世界の対象物体105とが重ねられるようにして形成される擬似3次元空間を、スクリーン104を肉眼で目視確認することが可能な全てのユーザ106に対して提供し得るようになされており、対象物体主導型の複合現実表現システム100と同様に外界の光が直接ユーザ106に届く光学シースルータイプと呼ばれる範疇に属するものである。
(2−2−1)仮想物体モデル主導型の複合現実表現処理シーケンス
次に、仮想物体モデル主導型の複合現実表現システム200において仮想世界の対象物体モデルの動きに連動させて現実世界の対象物体105を実際に動かす仮想物体モデル主導型の複合現実表現処理シーケンスについて説明する。
図14に示すように、仮想物体モデル主導型の複合現実表現処理シーケンスにおいても、現実世界における処理の流れと、コンピュータ装置102が行う仮想世界の処理の流れに大きく分けることができ、それぞれの処理結果をスクリーン104上で融合するようになされている。
具体的に、ユーザ106はステップSP21においてコンピュータ装置102の入力部127に対する操作を行い、次のステップSP22へ移る。この場合、現実世界の対象物体105ではなく、コンピュータ装置102が作り出す仮想世界に存在する対象物体モデルを移動又は動作させるための命令を与える種々の操作が考えられる。
仮想空間構築部109では、ステップSP22において、コンピュータ装置102の入力部127に対する入力操作に応じて仮想物体モデル生成部111により生成した仮想世界の対象物体モデルを動かす。
仮想空間構築部109は、ステップSP23において、物理計算部113により仮想世界の対象物体モデルの動きに合わせて変化させる背景画像や、当該対象物体モデルに付与する仮想物体モデル等のデータD1を算出し、かつ仮想世界の対象物体モデルの動きに合わせて現実世界の対象物体105をスクリーン104上で実際に動かすための制御信号S14(図13)を生成する。
そして仮想空間構築部109は、ステップSP24において、物理計算部113における算出結果であるデータD1及び制御信号S14を仮想世界のCG映像V1に反映させるように信号処理する。
そして映像信号生成部114は、ステップSP25において、その反映結果として仮想世界の対象物体モデルの動きに合わせたCG映像信号S13を生成し、当該CG映像信号S13をプロジェクタ103へ出力する。
プロジェクタ103は、ステップSP26において、そのCG映像信号S13に基づいて、図12に示したようなCG映像V1と同様のCG映像V2をプロジェクタ103からスクリーン104上に投影する。
仮想空間構築部109は、ステップSP27において、ステップSP23の物理計算部113により算出した制御信号S14を現実世界の対象物体105へ供給する。現実世界の対象物体105は、ステップSP28において、仮想空間構築部109から供給された制御信号S14に従ってスクリーン104上を移動したり、その姿勢(動き)を変化させることにより、ユーザ106の意図に従った動きを表現する。
従って仮想物体モデル主導型の複合現実表現システム200においても、当該物理計算部113により仮想世界の対象物体モデルの位置や動きに応じて生成した制御信号S14を現実世界の対象物体105へ供給することによって、仮想世界の対象物体モデルの動きに現実世界の対象物体105を連動させて動かし、かつ仮想世界の対象物体モデルの動きに連動して変化する仮想世界のCG映像V2を現実世界の対象物体105にオーバーラップさせることができるので、対象物体主導型の複合現実表現システム100と同様に、図12に示したような擬似3次元空間を構築し得るようになされている。
このとき現実世界の対象物体105は、スクリーン104上に仮想世界のCG映像V2が投影された場合に、当該現実世界の対象物体105における表面部分に対して仮想世界のCG映像V2の一部が投影されてしまうことがなく、かつ現実世界の対象物体105の周囲に対して影が画像として付与されることになるため、現実世界の対象物体105と仮想世界のCG映像V2とが融合することによって一段と臨場感の溢れた擬似3次元空間が構築される。
これによりユーザ106は、ステップSP29において、スクリーン104上に表示された仮想空間のCG映像V2と現実世界の対象物体105とが融合された擬似3次元空間を目視確認することにより、従来に比して一段と機能拡張された臨場感に溢れた複合現実感を体感することができるようになされている。
(2−2−2)仮想物体モデル主導型の複合現実表現システムにおける動作及び効果
以上の構成において、仮想物体モデル主導型の複合現実表現システム200では、ユーザ106により動かされた仮想世界の対象物体モデルに連動した仮想世界のCG映像V2をスクリーン104上に投影すると共に、仮想世界の対象物体モデルにおける動きに合わせて現実世界の対象物体105を実際に動かすことができる。
このように仮想物体モデル主導型の複合現実表現システム200では、現実世界の対象物体105に相当する仮想世界の対象物体モデルをユーザが動かしたことに連動して、現実世界の対象物体105及び仮想世界のCG映像V2を変化させることにより、当該現実世界の対象物体105と仮想世界のCG映像V2とを同一空間上で融合した擬似3次元空間を構築することができる。
これによりユーザ106は、現実世界の対象物体105を直接操作しなくても、仮想世界の対象物体モデルを入力部127により操作して動かしたことに連動させて現実世界の対象物体105を動かすと同時に、仮想世界の対象物体モデルの動きに連動したCG映像V2を目視確認することができるので、従来のような2次元的な映像だけを用いたMR技術による複合現実感よりも一段と臨場感に溢れた3次元的な複合現実感を体感することができる。
また仮想物体モデル主導型の複合現実表現システム200では、仮想世界の対象物体モデルにおける動きに合わせて現実世界の対象物体105を実際に動かし、かつ仮想世界の対象物体モデルにおける動きに合わせて背景画像や仮想物体モデルを追従させた仮想世界のCG映像V2を当該現実世界の対象物体105に対して重畳させることにより、現実世界と仮想世界との対話を具現化させることができ、従来よりもエンターテインメント性を一段と向上させることができる。
以上の構成によれば、仮想物体モデル主導型の複合現実表現システム200では仮想世界の対象物体モデルを介して現実世界の対象物体105を間接的に動かし、その動きに連動した仮想世界のCG映像V2と現実世界の対象物体105とをスクリーン104上で混合させることにより、現実世界と仮想世界とを融合した擬似3次元空間をスクリーン104上で表現し、当該擬似3次元空間を介して従来よりも一段と臨場感に優れた複合現実感をユーザ106に対して体感させることができる。
(2−3)適用対象
ところで対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、その適用対象として上述した現実世界の対象物体105を戦車等の模型に割り当てたゲーム装置に用いるようにした場合を一例として説明したが、それだけではなく種々の適用対象が考えられる。
(2−3−1)都市災害シミュレータへの適用例
具体的には、対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200において、例えば現実世界の対象物体105に都市を構築するビルディング等の建築模型を割り当て、仮想空間構築部109の背景画像生成部112によって都市の背景画像を生成し、仮想物体モデル生成部111によって災害時に発生する火事の炎等を仮想物体モデルとして付与することによる仮想世界のCG映像V1又はV2をスクリーン104上に投影することにより、都市災害シミュレータに適用することができる。
特に、この場合の対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200では、現実世界の対象物体105である建築模型に計測装置108を埋め込み、ラジコン107の操作により建築模型に埋め込まれた偏心モータを介して揺れさせたり、動かしたり、ときには倒壊させることによって例えば地震を表現した場合、その現実世界の対象物体105の動きに合わせて変化する仮想世界のCG映像V1又はV2を投影することにより地震の揺れ、火災、建物の倒壊といった状態変化を提示する。
このシミュレートした結果を基にコンピュータ装置102が、揺れの大きさに応じた破壊力の算出や、建物の強度計算、火災の広がりを予測し、その結果を仮想世界のCG映像V1として投影しながら、現実世界の対象物体105である建築模型に対しても制御信号S14によりフィードバックして現実世界の対象物体105を再度動かすことにより、ユーザ106に対して現実世界と仮想世界とにより融合される擬似3次元空間を視覚的に提示することができる。
(2−3−2)音楽ダンスゲームへの適用例
また対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、例えば現実世界の対象物体105に人間を割り当て、仮想世界のCG映像V1又はV2を表示する対象としてディスコ或いはクラブ等のホールの床に敷き詰められた大型のディスプレイを用い、その大型のディスプレイの上を人間が踊るときの動きを、ディスプレイ表面に貼り付けられた透明電極を利用したタッチパネル等の感圧デバイスによりリアルタイムに取得し、その動き情報S1をコンピュータ装置102の仮想空間構築部109へ送出し、人間が踊る動きに対してリアルタイムに反応して変化する仮想世界のCG映像V1又はV2を表示することにより、人間が実際に踊って楽しむことができる音楽ダンスゲーム装置に適用することができる。
これによりユーザ106は、人間が踊る動きに連動して変化する仮想世界のCG映像V1又はV2を介して提供される擬似3次元空間を介して、一段と臨場感に溢れかつ仮想世界のCG映像V1又はV2の中で実際に踊っているかのような感覚を体感することができる。
なお、このときユーザ106の好みの色やキャラクターを決めてもらい、ユーザ106が踊っている最中にその動きに連動してキャラクターがユーザ106の影のようになって一緒に踊るような仮想世界のCG映像V1又はV2を仮想空間構築部109により生成して表示することや、ユーザ106の血液型や年齢、星座等のユーザ106の好みによって選択される項目に合わせて仮想世界のCG映像V1又はV2の具体的内容を決定することも可能であり、種々のバリエーションを展開することができる。
(2−4)変形例
なお上述の対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、現実世界の対象物体105として戦車の模型を用いるようにした場合について述べたが、本発明はこれに限らず、現実世界の対象物体105として人間や動物を用いて、その人間や動物における実際の動きに合わせてスクリーン104上の仮想世界のCG映像V1、V2を変化させることにより擬似3次元空間からなる複合現実感を提供するようにしても良い。
また上述の対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、現実世界の対象物体105の2次元的な位置や3次元的な姿勢(動き)を磁気式又は光学式の計測装置108により動き情報S1として取得し、その動き情報S1をコンピュータ装置102の仮想空間構築部109へ送出するようにした場合について述べてが、本発明はこれに限らず、図9との対応部分に同一符号を付した図15に示すように、磁気式又は光学式の計測装置108を用いるのではなく、スクリーン104上に位置する現実世界の対象物体105を計測カメラ130によって一定時間間隔毎に順次撮像することにより、連続する2枚の画像を比較して現実世界の対象物体105におけるスクリーン104上の2次元的な位置や姿勢(動き)等の動き情報S1を判知するようにしても良い。
さらに上述の対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、現実世界の対象物体105の2次元的な位置や3次元的な姿勢(動き)を磁気式又は光学式の計測装置108によって動き情報S1として取得し、その動き情報S1をコンピュータ装置102の仮想空間構築部109へ送出するようにした場合について述べたが、本発明はこれに限らず、スクリーン104の代わりのディスプレイにCG映像信号S3及びS13に基づく仮想世界のCG映像V1及びV2を表示し、その上に重ねるように現実世界の対象物体105を載置させると共に、ディスプレイの表面に貼り付けられた透明電極を利用したタッチパネル等の感圧デバイスにより現実世界の対象物体105に関する動きの変化を動き情報S1としてリアルタイムに取得し、その動き情報S1をコンピュータ装置102の仮想空間構築部109へ送出するようにしても良い。
さらに上述の対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、スクリーン104を用いるようにした場合について述べたが、本発明はこれに限らず、CRT(Cathode Ray Tube Display)、LCD(Liquid Crystal Display)、複数の表示素子の集合体であるジャンボトロン(登録商標)のような大型スクリーンディスプレイ等の種々の表示手段を用いるようにしても良い。
さらに上述の対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、スクリーン104に上方向からプロジェクタ103によって仮想世界のCG映像V1及びV2を投影するようにした場合について述べたが、本発明はこれに限らず、下方向からプロジェクタ103によって仮想世界のCG映像V1及びV2をスクリーン104に投影したり、又はプロジェクタ103から投影される仮想世界のCG映像V1及びV2をハーフミラーを介して現実世界の対象物体105の前面側もしくは背面側に虚像として投影するようにしても良い。
具体的には図9との対応部分に同一符号を付した図16に示すように、対象物体主導型の複合現実表現システム150ではコンピュータ装置102の映像信号生成部114から出力されるCG映像信号S3に基づく仮想世界のCG映像V1をハーフミラー151を介して現実世界の対象物体105の前面又は背面(図示せず)に虚像として投影し、当該現実世界の対象物体105の動きをハーフミラー151を介して計測カメラ130で取り込むことにより取得した動き情報S1をコンピュータ装置102の仮想空間構築部109へ送出する。
これにより対象物体主導型の複合現実表現システム150は、現実世界の対象物体105における実際の動きに連動したCG映像信号S3を仮想空間構築部109にて生成し、そのCG映像信号S3に応じた仮想世界のCG映像V1をプロジェクタ103及びハーフミラー151を介して現実世界の対象物体105に重ねて投影することができるので、この場合にも現実世界の対象物体105と仮想世界のCG映像V1とを同一空間上で融合した擬似3次元空間を構築し、当該擬似3次元空間を介して一段と臨場感に溢れた複合現実感をユーザ106に体感させることができる。
さらに上述した仮想物体モデル主導型の複合現実表現システム200においては、ユーザ106が入力部127を操作することにより仮想世界の対象物体モデルを介して現実世界の対象物体105を間接的に動かすようにした場合について述べたが、本発明はこれに限らず、仮想世界の対象物体モデルを介して現実世界の対象物体105を動かすのではなく、例えばディスプレイ125上に現実世界の対象物体105が載置され、入力部127を操作することにより当該現実世界の対象物体105を移動させるための指示情報をディスプレイ125上に表示させ、その指示情報を現実世界の対象物体105に追従させることにより動かすようにしても良い。
具体的には図17に示すように、ディスプレイ125上に載置された現実世界の対象物体105の真下に、コンピュータ装置102が表示する仮想世界のCG映像V2の絵柄とは無関係の例えば市松模様でなる4画素構成の指示情報S10を入力部127からの命令に合わせて所定時間間隔毎に矢印方向へ順次動かして表示する。
現実世界の対象物体105には、ディスプレイ125上で所定時間間隔毎に順次動きながら表示される指示情報S10を検出可能なセンサが対象物体105の下面に設けられており、そのセンサによってディスプレイ125上の指示情報S10を変化情報として検出し、その指示情報S10を追従させるようにする。
これにより、コンピュータ装置102は、仮想世界の対象物体モデルを動かすことにより現実世界の対象物体105を間接的に動かすのではなく、ディスプレイ125上の指示情報S10を指定することにより現実世界の対象物体105を動かすことができる。
さらに上述した仮想物体モデル主導型の複合現実表現システム200においては、入力部127を操作することにより得られた指令信号S12を仮想空間構築部109へ出力することにより仮想世界の対象物体モデルを介して現実世界の対象物体105を間接的に動かすようにした場合について述べたが、本発明はこれに限らず、カメラを介してスクリーン104上に投影された仮想世界のCG映像V2を撮像し、その撮像結果に基づいて現実世界の対象物体105に制御信号S14を供給することにより、当該現実世界の対象物体105を動かして仮想世界のCG映像V2と連動させるようにしても良い。
さらに上述の対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、現実世界の対象物体105の状況を判知した結果の状況判知として、現実世界の対象物体105の2次元的な位置や3次元的な姿勢(動き)を示す動き情報S1を取得するようにした場合について述べたが、本発明はこれに限らず、例えば現実世界の対象物体105がロボットであるときには当該ロボットの表情の変化についても状況判知として取得し、表情の変化に仮想世界のCG映像V1を連動させて変化させるようにしても良い。
さらに上述の対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、現実世界の対象物体105に対する実際の動きに連動して背景画像を変化させたり、仮想物体モデルを付与した仮想世界のCG映像V1及びV2を生成するようにした場合について述べたが、本発明はこれに限らず、現実世界の対象物体105に対する実際の動きに連動して背景画像だけを変化させたり、或いは仮想物体モデルだけを付与するようにした仮想世界のCG映像V1及びV2を生成するようにしても良い。
さらに上述の対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、ユーザ106が遠隔操作する現実世界の対象物体105と仮想世界のCG映像V1及びV2との関係について述べたが、本発明はこれに限らず、ユーザ106が有する現実世界の対象物体105と他人が有する現実世界の対象物体105との関係において、両者が衝突したようなときに衝突したことを検出できるようにセンサを搭載しておき、衝突判定の結果として衝突したことを認識したときには、そのことをトリガーとして現実世界の対象物体105に制御信号S14を出力して振動させたり、仮想世界のCG映像V1及びV2を変化させるようにしても良い。
さらに上述の対象物体主導型の複合現実表現システム100においては、現実世界の対象物体105における動き情報S1に連動させて仮想世界のCG映像V1を変化させるようにした場合について述べたが、本発明はこれに限らず、現実世界の対象物体105に取り付け又は取り外し可能なパーツの装着状態又は非装着状態を検出し、その検出結果に連動させて仮想世界のCG映像V1を変化させるようにしても良い。
(3)位置検出原理を応用した具体的な複合現実提供システム
上述したように、ここまでの説明では、対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200を通して、現実世界の対象物体105と、仮想世界のCG映像V1、V2とを同一空間上で融合した擬似3次元空間を構築し、3次元的な複合現実感を表現するための基本概念について詳述したが、(1)の位置検出原理を基本的な考え方として応用した一層具体的な複合現実提供システムについて、2通り説明する。
(3−1)上面照射型の複合現実提供システム
図18に示すように上面照射型の複合現実提供システム300では、スクリーン301に対して自動車形状ロボット304が載置された状態で、ノートPC302によって生成された特殊マーカー画像付きCG映像V10をプロジェクタ303経由で当該スクリーン301に対して投影させるようになされている。
この特殊マーカー画像付きCG映像V10は、図19に示すように、そのほぼ中央部分に上述した特殊マーカー画像MKZ(図7)が配置され、周囲にはビル等の背景画像が配置されており、スクリーン301のほぼ中央に自動車形状ロボット304が載置された場合、当該自動車形状ロボット304の上面に相当する背中部分に特殊マーカー画像MKZが投影されるようになされている。
図20に示すように自動車形状ロボット304は、自動車形状ロボット3(図2)と同様に、略直方体形状でなる本体部304Aの左右両側に4個の車輪が設けられていると共に、前面部には物を掴むためのアーム部304Bが設けられた構造を有しており、その背中部分に投影される特殊マーカー画像MKZに追従してスクリーン301上を移動し得るようになされている。
また自動車形状ロボット304は、その背中部分の所定位置に、特殊マーカー画像付きCG映像V10の特殊マーカー画像MKZと対応付けられた5個のフォトトランジスタでなるセンサSR1〜SR5が設けられており、センサSR1及びSR2が本体部304Aの先端側及び後端側に配置されると共に、センサSR3及びSR4が本体部304Aの左右両側に配置され、センサSR5が本体部304Aのほぼ中心に配置されている。
従って自動車形状ロボット304は、その背中部分のセンサSR1〜SR5が、図7に示したように、特殊マーカー画像MKZにおける位置検出領域PD1A、PD2A、PD3及びPD4の中心に位置しているニュートラル状態を基本として、特殊マーカー画像付きCG映像V10のフレーム又はフィールドが更新される度に特殊マーカー画像MKZの位置が動いていくと、図8(A)及び(B)に示したように、センサSR1〜センサSR4の輝度レベルが変化し、その輝度レベル変化に基づいて特殊マーカー画像MKZと当該自動車形状ロボット304との相対的位置変化を算出するようになされている。
そして自動車形状ロボット304は、特殊マーカー画像MKZと当該自動車形状ロボット304との相対的位置変化を「0」にするように当該自動車形状ロボット304が進行すべき方向及び座標を算出し、その算出結果に従ってスクリーン301上を移動するようになされている。
ここでノートPC302は、図21に示すように、CPU(Central Processing Unit)310が全体を統括制御し、ノースブリッジ311経由でメモリ312から読み出した基本プログラム及び複合現実提供プログラム等のアプリケーションプログラムに従って上述した特殊マーカー画像付きCG映像V10をGPU(Graphical Processing Unit)314によって生成させ得るようになされている。
またノートPC302のCPU310は、コントローラ313を介してユーザの入力操作をノースブリッジ311経由で受け付け、それが例えば特殊マーカー画像MKZを動かすための方向及び量を意味するものであった場合、その入力操作に応じて特殊マーカー画像MKZを画面中央から所定方向へ所定量だけ動かした特殊マーカー画像付きCG映像V10を生成するための命令をGPU314へ供給する。
なおノートPC302のCPU310は、コントローラ313を介してユーザの入力操作を受け付けたとき以外で、一連のシーケンスのなかで特殊マーカー画像MKZを動かすための方向及び量を意味するプログラムを読み出したときにも、当該特殊マーカー画像MKZを画面中央から所定方向へ所定量だけ動かした特殊マーカー画像付きCG映像V10を生成するための命令をGPU314へ供給する。
GPU314は、CPU310から供給された命令に従って特殊マーカー画像MKZを画面中央から所定方向へ所定量だけ動かした特殊マーカー画像付きCG映像V10を生成し、これをプロジェクタ303経由でスクリーン301上に投影するようになされている。
一方、自動車形状ロボット304は、図22に示すように、その背中部分に設けられたセンサSR1〜SR5によって特殊マーカー画像MKZの輝度レベルを当該センサSR1〜SR5のサンプリング周波数に従って常時検出しており、その輝度レベル情報をアナログディジタル変換回路322へ送出する。
アナログディジタル変換回路322は、センサSR1〜SR5からそれぞれ供給されるアナログの輝度レベル情報をディジタルの輝度レベルデータに変換し、これをMCU(Micro computer Unit)321へ供給する。
MCU321は、上述した(1)式に従ってx方向のずれdx、(2)式に従ってy方向のずれdy、(6)式に従って旋回角度dθを求めることが出来るので、ずれdx、dy及び旋回角度dθを「0」にするための駆動信号を生成し、それをモータドライバ323及び324経由で車輪用モータ325〜328へ送出することにより、本体部304Aの左右両側に設けられた4個の車輪を所定方向へ所定量だけ回転させるようになされている。
因みに自動車形状ロボット304は、ワイヤレスLAN(Local Area Net−work)ユニット329を搭載しており、ノートPC302のLANカード316(図21)との間で無線通信することができるようになされている。従って自動車形状ロボット304は、MCU321によって算出したx方向のずれdx、y方向のずれdy、旋回角度dθに基づく現在位置及び向き(姿勢)をワイヤレスLANユニット329によりノートPC302へ無線送信することが可能である。
ノートPC302(図21)では、自動車形状ロボット304から無線送信されてきた現在位置を2次元座標値としてLCD315に数値表示し、自動車形状ロボット304の向き(姿勢)を表すベクトルをLCD315にアイコン表示することにより、ユーザのコントローラ313に対する入力操作に応じて移動させた特殊マーカー画像MKZに自動車形状ロボット304が正確に追従してきているか否かを視覚的に目視確認させ得るようになされている。
またノートPC302は、図23に示すように特殊マーカー画像MKZの中心部分に所定径でなる点滅領域Q1を設けた特殊マーカー画像付きCG映像V10をスクリーン301上に投影し得るようになされており、この点滅領域Q1を所定周波数で点滅させることによりコントローラ313を介してユーザによって入力された命令を光変調信号として自動車形状ロボット304へ光通信するようになされている。
このとき自動車形状ロボット304のMCU321は、特殊マーカー画像付きCG映像V10の特殊マーカー画像MKZにおける点滅領域Q1の輝度レベル変化を当該自動車形状ロボット304の背中部分に設けられたセンサSR5によって検出し得るようになされており、その輝度レベル変化に基づいてノートPC302からの命令を認識し得るようになされている。
例えば、ノートPC302からの命令が自動車形状ロボット304のアーム部304Bを動作させることを意味するものであった場合、当該自動車形状ロボット304のMCU321は、その命令に応じたモータ制御信号を生成してサーボモータ330及び331(図22)を駆動することによりアーム部304Bを動作させるようになされている。
実際上、自動車形状ロボット304はノートPC302からの命令に従ってアーム部304Bを動作させることにより、図24に示すように、例えばその目前にある缶をアーム部304Bによって保持することが可能となる。
すなわちノートPC302は、特殊マーカー画像付きCG映像V10における特殊マーカー画像MKZを介してスクリーン301上の自動車形状ロボット304を間接的に移動制御し得ると共に、当該特殊マーカー画像MKZの点滅領域Q1を介して自動車形状ロボット304の動作をも間接的に制御し得るようになされている。
因みにノートPC302のCPU310は、LANカード316を介して自動車形状ロボット304へ無線通信することにより、特殊マーカー画像MKZを介することなく、当該自動車形状ロボット304の移動及び動作を直接コントロールすることも可能であり、また上述の位置検出原理を用いて自動車形状ロボット304のスクリーン301上の現在位置を検出することも可能である。
さらにノートPC302では、自動車形状ロボット304から無線送信されてきた現在位置を認識し、かつ特殊マーカー画像付きCG映像V10の表示内容についても認識しているため、例えば特殊マーカー画像付きCG映像V10の表示内容として映し出されているビル等の障害物と、自動車形状ロボット304とがスクリーン301の座標上で衝突したと判断した場合、特殊マーカー画像MKZの動きを停止すると共に、当該特殊マーカー画像MKZの点滅領域Q1を介して自動車形状ロボット304に振動を生じさせる命令を供給し得るようになされている。
これにより自動車形状ロボット304のMCU321は、特殊マーカー画像MKZの動きの停止に併せて移動を停止すると共に、特殊マーカー画像MKZの点滅領域Q1を介して供給された命令に応じて内部モータを動作させることにより、本体部304Aに振動を生じさせ、あたかも特殊マーカー画像付きCG映像V10に映し出されたビル等の障害物に自動車形状ロボット304が衝突して衝撃を受けたかのような印象をユーザに与え、現実世界の自動車形状ロボット304と仮想世界の特殊マーカー画像付きCG映像V10とを同一空間上で融合した擬似3次元空間を構築することができる。
その結果ユーザは、現実世界の自動車形状ロボット304を直接操作しなくても、仮想世界の特殊マーカー画像付きCG映像V10における特殊マーカー画像MKZを介して自動車形状ロボット304を間接的に移動制御することができると同時に、特殊マーカー画像付きCG映像V10の表示内容と自動車形状ロボット304とを擬似的に融合した一段と臨場感に溢れた3次元的な複合現実感を体感することができる。
なお上面照射型の複合現実提供システム300では、プロジェクタ303により特殊マーカー画像付きCG映像V10の特殊マーカー画像MKZを自動車形状ロボット304の背中部分に投射するようになされているため、プロジェクタ303により特殊マーカー画像MKZを自動車形状ロボット304の背中部分に投影することが出来れば、特殊マーカー画像MKZの動きに伴って自動車形状ロボット304を移動させる際の場所を選ばず、床や道路の上で自動車形状ロボット304を移動制御することもできる。
例えば、上面照射型の複合現実提供システム300では、仮に壁掛け式のスクリーン301を用いた場合、壁掛け式スクリーン301の背後に設けられた金属板と、自動車形状ロボット304の底面に設けられた磁石とを介して、壁掛け式スクリーン301上に自動車形状ロボット304を載置させ、特殊マーカー画像付きCG映像V10の特殊マーカー画像MKZを介して当該自動車形状ロボット304を間接的に移動制御することも可能である。
(3−2)下面照射型の複合現実提供システム
上述の上面照射型の複合現実提供システム300(図18)とは逆に、図1及び図18との対応部分に同一符号を付した図25に示すように、下面照射型の複合現実提供システム400では、大型LCD401の画面上に自動車形状ロボット3が載置された状態で、ノートPC302によって生成された特殊マーカー画像付きCG映像V10を当該大型LCD401に自動車形状ロボット3の下方から表示させるようになされている。
この特殊マーカー画像付きCG映像V10は、図19に示したように、そのほぼ中央部分に上述した特殊マーカー画像MKZが配置され、周囲にはビル等の背景画像が配置されており、大型LCD401のほぼ中央に自動車形状ロボット304が載置された場合、当該自動車形状ロボット3の底面部分と特殊マーカー画像MKZとが対向するようになされている。
ここで自動車形状ロボット3の構造としては、上述した図2に示した通りであるため、その説明については省略するが、大型LCD401に表示された特殊マーカー画像付きCG映像V10の特殊マーカー画像MKZ(図7)における位置検出領域PD1A、PD2A、PD3及びPD4の中心にセンサSR1〜SR4が位置しているニュートラル状態を基本として、持殊マーカー画像付きCG映像V10のフレーム又はフィールドが更新される度に特殊マーカー画像MKZの位置が少しずつ動いていくと、図8(A)及び(B)に示したように、センサSR1〜センサSR4の輝度レベルが変化し、その輝度レベル変化に基づいて特殊マーカー画像MKZと当該自動車形状ロボット3との相対的位置変化を算出する。
そして自動車形状ロボット3は、特殊マーカー画像MKZと当該自動車形状ロボット3との相対的位置変化を「0」にするように当該自動車形状ロボット3が進行すべき方向及び座標を算出し、その算出結果に従って大型LCD401上を移動するようになされている。
ここでノートPC302(図21)のCPU310は、コントローラ313及びノースブリッジ311経由で受け付けたユーザの入力操作が特殊マーカー画像MKZを動かすための方向及び量を意味するものであった場合、その入力操作に応じて特殊マーカー画像MKZを画面中央から所定方向へ所定量だけ動かした特殊マーカー画像付きCG映像V10を生成するための命令をGPU314へ供給する。
この場合もノートPC302のCPU310は、コントローラ313を介してユーザの入力操作を受け付けたとき以外で、一連のシーケンスのなかで特殊マーカー画像MKZを動かすための方向及び量を意味するプログラムを読み出したときにも、当該特殊マーカー画像MKZを画面中央から所定方向へ所定量だけ動かした特殊マーカー画像付きCG映像V10を生成するための命令をGPU314へ供給する。
GPU314は、CPU310から供給された命令に従って特殊マーカー画像MKZを画面中央から所定方向へ所定量だけ動かした特殊マーカー画像付きCG映像V10を生成し、これを大型LCD401に表示するようになされている。
一方、自動車形状ロボット3は、底面部分に設けられたセンサSR1〜SR5によって特殊マーカー画像MKZの輝度レベルを所定のサンプリング周波数に従って常時検出しており、その輝度レベル情報をアナログディジタル変換回路322へ送出する。
アナログディジタル変換回路322は、センサSR1〜SR5からそれぞれ供給されるアナログの輝度レベル情報をディジタルの輝度レベルデータに変換し、これをMCU321へ供給する。
MCU321は、上述した(1)式に従ってx方向のずれdx、(2)式に従ってy方向のずれdy、(6)式に従って旋回角度dθを求めることが出来るので、ずれdx、dy及び旋回角度dθを「0」にするための駆動信号を生成し、それをモータドライバ323及び324経由で車輪用モータ325〜328へ送出することにより、本体部3Aの左右両側に設けられた4個の車輪を所定方向へ所定量だけ回転させるようになされている。
この自動車形状ロボット3の場合も、ワイヤレスLANユニット329を搭載しており、ノートPC302との間で無線通信し得、MCU321によって算出したx方向のずれdx、y方向のずれdy、旋回角度dθに基づく現在位置及び向き(姿勢)をノートPC302へ無線送信し得るようになされている。
これによりノートPC302(図21)では、自動車形状ロボット3から無線送信されてきた現在位置を2次元座標値としてLCD315に数値表示し、自動車形状ロボット3の向き(姿勢)を表したベクトルをLCD315にアイコン表示することにより、ユーザのコントローラ313に対する入力操作に応じて移動させた特殊マーカー画像MKZに自動車形状ロボット3が正確に追従してきているか否かを視覚的に目視確認させ得るようになされている。
またノートPC302は、図23に示したように特殊マーカー画像MKZの中心部分に所定径でなる点滅領域Q1を設けた特殊マーカー画像付きCG映像V10を大型LCD401に表示し得るようになされており、この点滅領域Q1を所定周波数で点滅させることによりコントローラ313を介してユーザによって入力された命令を光変調信号として自動車形状ロボット3へ光通信するようになされている。
このとき自動車形状ロボット3のMCU321は、特殊マーカー画像付きCG映像V10の特殊マーカー画像MKZにおける点滅領域Q1の輝度レベル変化を当該自動車形状ロボット3の底面に設けられたセンサSR5によって検出し得るようになされており、その輝度レベル変化に基づいてノートPC302からの命令を認識し得るようになされている。
例えば、ノートPC302からの命令が自動車形状ロボット3のアーム部3Bを動作させることを意味するものであった場合、当該自動車形状ロボット3のMCU321は、その命令に応じたモータ制御信号を生成してサーボモータ330及び331を駆動することによりアーム部3Bを動作させるようになされている。
実際上、自動車形状ロボット3はノートPC302からの命令に従ってアーム部3Bを動作させることにより、例えばその目前にある缶をアーム部3Bにより保持することができる。
すなわちノートPC302は、自動車形状ロボット3を特殊マーカー画像付きCG映像V10の特殊マーカー画像MKZを介して大型LCD401上を間接的に移動制御し得ると共に、特殊マーカー画像MKZの点滅領域Q1を介して自動車形状ロボット3の動作をも間接的に制御し得るようになされている。
さらにノートPC302では、自動車形状ロボット3から無線送信されてきた現在位置を認識し、かつ特殊マーカー画像付きCG映像V10の表示内容についても認識しているため、例えば特殊マーカー画像付きCG映像V10の表示内容として映し出されているビル等の障害物と、自動車形状ロボット3とが大型LCD401の画面の座標上で衝突したと判断した場合、特殊マーカー画像MKZの動きを停止すると共に、当該特殊マーカー画像MKZの点滅領域Q1を介して自動車形状ロボット3に振動を生じさせる命令を供給するようになされている。
これにより自動車形状ロボット3のMCU321は、特殊マーカー画像MKZの動きの停止に併せて移動を停止すると共に、特殊マーカー画像MKZの点滅領域Q1を介して供給された命令に応じて内部モータを動作させることにより、本体部3Aに振動を生じさせ、あたかも特殊マーカー画像付きCG映像V10に映し出されたビル等の障害物に自動車形状ロボット3が衝突して衝撃を受けたかのような印象をユーザに与え、現実世界の自動車形状ロボット3と仮想世界の特殊マーカー画像付きCG映像V10とを同一空間上で融合した擬似3次元空間を構築することができる。
その結果ユーザは、現実世界の自動車形状ロボット3を直接操作しなくても、仮想世界の特殊マーカー画像付きCG映像V10における特殊マーカー画像MKZを介して自動車形状ロボット3を間接的に移動制御することができると同時に、特殊マーカー画像付きCG映像V10の表示内容と自動車形状ロボット3とを擬似的に融合した一段と臨場感に溢れた3次元的な複合現実感を体感することができる。
なお下面照射型の複合現実提供システム400では、上面照射型の複合現実提供システム300とは異なり、大型LCD401に対して特殊マーカー画像付きCG映像V10を直接表示し、特殊マーカー画像MKZと自動車形状ロボット3の底面とを対向させるように載置していることにより、特殊マーカー画像MKZが自動車形状ロボット3の本体部3Aによって遮られて環境光による影響を受けずに済み、高精度に自動車形状ロボット3を特殊マーカー画像MKZに追従させ得るようになされている。
(4)本実施の形態における動作及び効果
以上の構成において、上述した位置検出原理を用いた位置検出装置としてのノートPC1(図1)では、液晶ディスプレイ2の画面上に載置された自動車形状ロボット3と対向するように基本マーカー画像MK又は特殊マーカー画像MKZを表示し、移動中の自動車形状ロボット3のセンサSR1〜SR5によって検出された基本マーカー画像MK又は特殊マーカー画像MKZに対する輝度レベル変化に基づいて自動車形状ロボット3の現在位置を算出することができる。
そのときノートPC1は、移動後の自動車形状ロボット3の現在位置と基本マーカー画像MK又は特殊マーカー画像MKZとの相対的位置関係の変化が生じる前のニュートラル状態に戻すように基本マーカー画像MK又は特殊マーカー画像MKZを移動表示させることにより、移動中の自動車形状ロボット3に基本マーカー画像MK又は特殊マーカー画像MKZを追従させながら液晶ディスプレイ2の画面上を移動する自動車形状ロボット3の現在位置をリアルタイムに検出することができる。
特にノートPC1は、輝度レベルが0%〜100%まで線形的に変化する基本マーカー画像MK又は特殊マーカー画像MKZを自動車形状ロボット3の位置検出に用いるようにしたことにより、高精度に自動車形状ロボット3の現在位置を算出することができる。
またノートPC1は、特殊マーカー画像MKZ(図7)を用いた場合、位置検出領域PD1A、PD2A、PD3及びPD4の境界部分における輝度レベル変化が基本マーカー画像MKのように急激ではなくグラデーション化されているため、基本マーカー画像MK(図3)のときのように位置検出領域PD1〜PD4間で輝度レベル0%の部分に対して輝度レベル100%の部分の光が漏れ込むことがなく、一段と高精度に自動車形状ロボット3の現在位置及び姿勢を検出することができる。
このような位置検出原理を利用した上面照射型の複合現実提供システム300及び下面照射型の複合現実提供システム400では、当該位置検出原理による計算を自動車形状ロボット304及び自動車形状ロボット3に実行させることにより、特殊マーカー画像付きCG映像V10の特殊マーカー画像MKZの動きに当該自動車形状ロボット304及び自動車形状ロボット3を正確に追従させることが出来る。
従って上面照射型の複合現実提供システム300及び下面照射型の複合現実提供システム400では、ユーザが自動車形状ロボット304及び自動車形状ロボット3を直接コントロールする必要がなく、ノートPC302のコントローラ313を介して特殊マーカー画像MKZを動かすだけで自動車形状ロボット304及び自動車形状ロボット3を間接的に移動制御することができる。
その際、ノートPC302のCPU310は、特殊マーカー画像MKZの点滅領域Q1を介して自動車形状ロボット304、自動車形状ロボット3と光通信することができるので、特殊マーカー画像MKZを介して自動車形状ロボット304、自動車形状ロボット3を移動制御するだけでなく、点滅領域Q1を介して自動車形状ロボット304、自動車形状ロボット3に対してアーム部3Bを動かす等の具体的な動作についても制御することができる。
特に、ノートPC302では、自動車形状ロボット304、自動車形状ロボット3から無線送信されてきた現在位置と、特殊マーカー画像付きCG映像V10の表示内容の双方について認識しているため、特殊マーカー画像付きCG映像V10の表示内容として映し出されている障害物と、自動車形状ロボット304、自動車形状ロボット3とが衝突したと座標計算により判断し得た場合、特殊マーカー画像MKZの動きを停止して自動車形状ロボット304、自動車形状ロボット3の移動を停止させると共に、当該特殊マーカー画像MKZの点滅領域Q1を介して自動車形状ロボット304、自動車形状ロボット3に振動を生じさせることができるので、現実世界の自動車形状ロボット304、自動車形状ロボット3と仮想世界の特殊マーカー画像付きCG映像V10とを同一空間上で融合した臨場感のある複合現実感をユーザに提供することができる。
実際上、下面照射型の複合現実提供システム400では、図26に示すように大型LCD401の画面上にユーザRU1が所有する自動車形状ロボット3を載置し、ユーザRU2が所有する自動車形状ロボット450を載置した場合、ユーザRU1及びユーザRU2はノートPC302をそれぞれ操作して特殊マーカー画像付きCG映像V10の特殊マーカー画像MKZをそれぞれ動かすことにより、自動車形状ロボット3及び自動車形状ロボット450をそれぞれ移動制御しながら対戦させることができる。
このとき大型LCD401の画面上に表示された特殊マーカー画像付きCG映像V10には、例えばインターネット接続された遠隔地のリモートユーザVU1及びVU2によってその動きが制御された自動車形状ロボット画像VV1及びVV2が表示されており、現実世界の自動車形状ロボット3及び450と仮想世界の自動車形状ロボット画像VV1及びVV2とを特殊マーカー画像付きCG映像V10を介して擬似的に対戦させ、例えば画面上で自動車形状ロボット3と自動車形状ロボット画像VV1とが衝突したときには、当該自動車形状ロボット3に振動を生じさせて臨場感を醸し出させることが可能となる。
(5)他の実施の形態
なお上述の実施の形態においては、基本マーカー画像MKや特殊マーカー画像MKZを用いてスクリーン301上を移動する自動車形状ロボット304や、液晶ディスプレイ2や大型LCD401の画面上を移動する自動車形状ロボット3の現在位置や姿勢を検出するようにした場合について述べたが、本発明はこれに限らず、例えば図27に示すように、輝度レベルが0%から100%まで線形的に変化する縦縞を複数並べた位置検出領域PD11からなるマーカー画像を自動車形状ロボット3のセンサSR1及びSR2と対向するように表示すると共に、輝度レベルが0%から100%まで線形的に変化する横縞を複数並べた位置検出領域PD12からなるマーカー画像を自動車形状ロボット3のセンサSR3及びSR4と対向するように表示し、当該センサSR1〜SR4による輝度レベル変化と縦縞や横縞を横切った数の変化とに基づいて画面上での現在位置や姿勢を検出するようにしても良い。
また上述の実施の形態においては、輝度レベルが0%〜100%まで線形的に変化するようにグラデーション化された基本マーカー画像MKや特殊マーカー画像MKZを用いてスクリーン301上を移動する自動車形状ロボット304や、液晶ディスプレイ2及び大型LCD401の画面上を移動する自動車形状ロボット3の現在位置や姿勢を検出するようにした場合について述べたが、本発明はこれに限らず、輝度レベルを一定にしたまま、色相環上で反対色にある2色(例えば青色と黄色)を用いてグラデーション化させたマーカー画像に対する色相の変化に基づいて自動車形状ロボット3の現在位置や姿勢を検出するようにしても良い。
さらに上述の実施の形態においては、液晶ディスプレイ2の画面上に載置された自動車形状ロボット3の底面に設けられたセンサSR1〜SR5によって検出した基本マーカー画像MK又は特殊マーカー画像MKZの輝度レベル変化に基づいて自動車形状ロボット3の現在位置や姿勢を算出するようにした場合について述べたが、本発明はこれに限らず、自動車形状ロボット304の上面に対してプロジェクタ303により基本マーカー画像MK又は特殊マーカー画像MKZを投影し、その自動車形状ロボット304のセンサSR1〜SR5によって検出した輝度レベル変化に基づいて自動車形状ロボット304の現在位置や姿勢を算出するようにしても良い。
さらに上述の実施の形態においては、液晶ディスプレイ2の画面上に載置された自動車形状ロボット3の移動に基本マーカー画像MK又は特殊マーカー画像MKZを追従させながら現在位置を検出するようにした場合について述べたが、本発明はこれに限らず、例えばペン型デバイスの先端を画面上の特殊マーカー画像MKZに当接させた状態のまま、ユーザによって画面をなぞられるように動かされたときの輝度レベル変化を当該ペン型デバイスの先端に埋め込まれた複数のセンサによって検出し、それをノートPC1に無線送信することにより、当該ノートPC1によってペン型デバイスの現在位置を検出するようにしても良い。これによりノートPC1は、ペン型デバイスによって文字がなぞられたときには、その軌跡に従って忠実にその文字を再現することが可能になる。
さらに上述の実施の形態においては、ノートPC1が位置検出プログラムに従って自動車形状ロボット3の現在位置を検出し、ノートPC302が複合現実提供プログラムに従って自動車形状ロボット304や自動車形状ロボット3を間接的に移動制御するようにした場合について述べたが、本発明はこれに限らず、当該位置検出プログラムや複合現実提供プログラムが格納されたCD−ROM(Compact Disc−Read Only Memory)、DVD−ROM(Digital Versatile Disc−Read Only Memory)、半導体メモリ等の種々の記憶媒体を介してノートPC1及びノートPC302にインストールすることにより上述の現在位置検出処理や自動車形状ロボット304や自動車形状ロボット3に対する間接的な移動制御処理を実行するようにしても良い。
さらに上述の実施の形態においては、位置検出装置を構成するノートPC1、ノートPC302及び自動車形状ロボット3、自動車形状ロボット304を、指標画像としての基本マーカー画像MKや特殊マーカー画像MKZを生成する指標画像生成手段としてのCPU310及びGPU314と、輝度レベル検出手段としてのセンサSR1〜SR5及び位置検出手段としてのCPU310とによって構成するようにした場合について述べたが、本発明はこれに限らず、その他種々の回路構成又はソフトウェア構成でなる指標画像生成手段、輝度レベル検出手段及び位置検出手段によって上述の位置検出装置を構成するようにしても良い。
さらに上述の実施の形態においては、複合現実提供システムを構築する情報処理装置としてのノートPC302を、指標画像生成手段及び指標画像移動手段としてのCPU310及びGPU314によって構成し、移動体としての自動車形状ロボット3及び304は、輝度レベル検出手段としてのセンサSR1〜SR5、位置検出手段としてのMCU321と、移動制御手段としてのMCU321、モータドライバ323、324及び車輪用モータ325〜328によって構成するようにした場合について述べたが、本発明はこれに限らず、その他種々の回路構成又はソフトウェア構成でなる指標画像生成手段及び指標画像移動手段からなる情報処理装置、輝度レベル検出手段、位置検出手段及び移動制御手段からなる移動体によって上述の複合現実提供システムを構成するようにしても良い。
(1−1)位置検出装置
本実施の形態では、本発明における位置検出装置の基本となる位置検出原理について最初に説明する。図1に示すように、位置検出装置として用いられるノートブック型パーソナルコンピュータ(以下、これをノートPCと呼ぶ)1では、その液晶ディスプレイ2の画面上に載置された自動車形状ロボット3の当該画面上における位置変化を検出するため、当該自動車形状ロボット3と対向する画面上に対して基本マーカー画像MK(後述する)を表示するようになされている。
ここで、図3に示すように基本マーカー画像MKは、水平方向及び垂直方向から45度ずれた位置に設けられた境界線を介して90度の範囲により区分けされた扇形状でなる位置検出領域PD1〜PD4及び、当該基本マーカー画像MKの中心に設けられた円形状でなるリファレンス領域RFによって構成されている。
上述のような基本マーカー画像MKを用いた位置検出方法では、上述したニュートラル状態から左右方向へ自動車形状ロボット3が高速に旋回し、センサSR1、センサSR2、センサSR3及びセンサSR4が位置検出領域PD1〜PD4を乗り越えてしまった場合、例えば旋回角度θ=+46度を旋回角度θ=−44度と誤検出してしまい、自動車形状ロボット3に対して基本マーカー画像MKをニュートラル状態に戻す際に逆方向へ補正してしまうことが起こりえる。
この複合現実表現システムでは、基本的に2通りの考え方がある。第1には、液晶ディスプレイやスクリーン等でなる種々の表示手段に表示された映像に重ねるように配置されている現実世界の対象物体をユーザが動かしたとき、その実際の動きに連動させて背景画像を動かしたり、その動きに合わせて付加すべき仮想物体モデルの付加画像を生成して表示する対象物体主導型の複合現実表現システムである。
図9において、100は全体として対象物体主導型の複合現実表現システムを示し、コンピュータ装置102から供給される仮想世界のコンピュータグラフィクス(CG)映像V1をプロジェクタ103からスクリーン104上に投影する。
このような対象物体主導型の複合現実表現システム100を実現するためのコンピュータ装置102としては、図10に示すように、全体を統括制御するCPU(Central Processing Unit)121に対し、バス129を介してROM(Read Only Memory)122、RAM(Random Access Memory)123、ハードディスクドライブ124、映像信号生成部114、LCD(Liquid Crystal Display)でなるディスプレイ125、動き情報S1や制御信号S2を受け取ったり、現実世界の対象物体105を動かすための動作命令を与えるインタフェース126及びキーボード等の入力部127が接続された構成を有し、ハードディスクドライブ124から読み出してRAM123上に展開した基本プログラム及び複合現実表現プログラムに従ってCPU121が所定の処理を実行することにより仮想空間構築部109をソフトウェア的に実現するようになされている。
次に、対象物体主導型の複合現実表現システム100において現実世界の対象物体105の動きに連動させて仮想世界のCG映像V1を変化させる対象物体主導型の複合現実表現処理シーケンスについて説明する。
以上の構成において、対象物体主導型の複合現実表現システム100では、ユーザ106により実際に動かされた現実世界の対象物体105と連動した仮想世界のCG映像V1をスクリーン104に投影することにより、当該現実世界の対象物体105と仮想世界のCG映像V1とをスクリーン104上でオーバーラップさせる。
Reality)技術による複合現実感よりも一段と臨場感に溢れた3次元的な複合現実感を体感することができる。
図9との対応部分に同一符号を付して示す図13において、200は全体として仮想物体モデル主導型の複合現実表現システムを示し、コンピュータ装置102から供給される仮想世界のCG映像V2をプロジェクタ103からスクリーン104上に投影する。
次に、仮想物体モデル主導型の複合現実表現システム200において仮想世界の対象物体モデルの動きに連動させて現実世界の対象物体105を実際に動かす仮想物体モデル主導型の複合現実表現処理シーケンスについて説明する。
以上の構成において、仮想物体モデル主導型の複合現実表現システム200では、ユーザ106により動かされた仮想世界の対象物体モデルに連動した仮想世界のCG映像V2をスクリーン104上に投影すると共に、仮想世界の対象物体モデルにおける動きに合わせて現実世界の対象物体105を実際に動かすことができる。
ところで対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、その適用対象として上述した現実世界の対象物体105を戦車等の模型に割り当てたゲーム装置に用いるようにした場合を一例として説明したが、それだけではなく種々の適用対象が考えられる。
具体的には、対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200において、例えば現実世界の対象物体105に都市を構築するビルディング等の建築模型を割り当て、仮想空間構築部109の背景画像生成部112によって都市の背景画像を生成し、仮想物体モデル生成部111によって災害時に発生する火事の炎等を仮想物体モデルとして付与することによる仮想世界のCG映像V1又はV2をスクリーン104上に投影することにより、都市災害シミュレータに適用することができる。
また対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、例えば現実世界の対象物体105に人間を割り当て、仮想世界のCG映像V1又はV2を表示する対象としてディスコ或いはクラブ等のホールの床に敷き詰められた大型のディスプレイを用い、その大型のディスプレイの上を人間が踊るときの動きを、ディスプレイ表面に貼り付けられた透明電極を利用したタッチパネル等の感圧デバイスによりリアルタイムに取得し、その動き情報S1をコンピュータ装置102の仮想空間構築部109へ送出し、人間が踊る動きに対してリアルタイムに反応して変化する仮想世界のCG映像V1又はV2を表示することにより、人間が実際に踊って楽しむことができる音楽ダンスゲーム装置に適用することができる。
なお上述の対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200においては、現実世界の対象物体105として戦車の模型を用いるようにした場合について述べたが、本発明はこれに限らず、現実世界の対象物体105として人間や動物を用いて、その人間や動物における実際の動きに合わせてスクリーン104上の仮想世界のCG映像V1、V2を変化させることにより擬似3次元空間からなる複合現実感を提供するようにしても良い。
上述したように、ここまでの説明では、対象物体主導型の複合現実表現システム100及び仮想物体モデル主導型の複合現実表現システム200を通して、現実世界の対象物体105と、仮想世界のCG映像V1、V2とを同一空間上で融合した擬似3次元空間を構築し、3次元的な複合現実感を表現するための基本概念について詳述したが、(1)の位置検出原理を基本的な考え方として応用した一層具体的な複合現実提供システムについて、2通り説明する。
図18に示すように上面照射型の複合現実提供システム300では、スクリーン301に対して自動車形状ロボット304が載置された状態で、ノートPC302によって生成された特殊マーカー画像付きCG映像V10をプロジェクタ303経由で当該スクリーン301に対して投影させるようになされている。
上述の上面照射型の複合現実提供システム300(図18)とは逆に、図1及び図18との対応部分に同一符号を付した図25に示すように、下面照射型の複合現実提供システム400では、大型LCD401の画面上に自動車形状ロボット3が載置された状態で、ノートPC302によって生成された特殊マーカー画像付きCG映像V10を当該大型LCD401に自動車形状ロボット3の下方から表示させるようになされている。
以上の構成において、上述した位置検出原理を用いた位置検出装置としてのノートPC1(図1)では、液晶ディスプレイ2の画面上に載置された自動車形状ロボット3と対向するように基本マーカー画像MK又は特殊マーカー画像MKZを表示し、移動中の自動車形状ロボット3のセンサSR1〜SR5によって検出された基本マーカー画像MK又は特殊マーカー画像MKZに対する輝度レベル変化に基づいて自動車形状ロボット3の現在位置を算出することができる。
なお上述の実施の形態においては、基本マーカー画像MKや特殊マーカー画像MKZを用いてスクリーン301上を移動する自動車形状ロボット304や、液晶ディスプレイ2や大型LCD401の画面上を移動する自動車形状ロボット3の現在位置や姿勢を検出するようにした場合について述べたが、本発明はこれに限らず、例えば図27に示すように、輝度レベルが0%から100%まで線形的に変化する縦縞を複数並べた位置検出領域PD11からなるマーカー画像を自動車形状ロボット3のセンサSR1及びSR2と対向するように表示すると共に、輝度レベルが0%から100%まで線形的に変化する横縞を複数並べた位置検出領域PD12からなるマーカー画像を自動車形状ロボット3のセンサSR3及びSR4と対向するように表示し、当該センサSR1〜SR4による輝度レベル変化と縦縞や横縞を横切った数の変化とに基づいて画面上での現在位置や姿勢を検出するようにしても良い。
Claims (14)
- 表示部上を移動する移動体の位置を検出する位置検出装置であって、
第1の方向及び第2の方向へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成し、上記表示部上の上記移動体と対向した位置に表示するための指標画像生成手段と、
上記指標画像の複数の領域における上記第1の方向及び上記第2の方向の輝度レベル変化を検出するため上記移動体に設けられた輝度レベル検出手段と、
上記輝度レベル検出手段によって検出した検出結果に基づいて上記指標画像と上記移動体との相対的位置関係の変化を算出することにより上記表示部上における位置を検出する位置検出手段と
を具えることを特徴とする位置検出装置。 - 上記位置検出手段は、上記移動体が上記表示部上を移動することに対応して上記輝度レベル検出手段によって検出された上記指標画像における複数の領域の輝度レベルに基づいて位置検出を行う
ことを特徴とする請求項1に記載の位置検出装置。 - 上記指標画像には輝度レベルの参照領域が設けられており、上記位置検出手段は、上記移動体が上記表示部上を移動することに対応して上記輝度レベル検出手段によって検出された上記指標画像における複数の領域の輝度レベルと上記参照領域の輝度レベルとに基づいて上記移動体が旋回したときの上記表示部上における位置検出を行う
ことを特徴とする請求項1に記載の位置検出装置。 - 上記指標画像生成手段は、上記第1の方向と上記第1の方向と直交する第2の方向へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成し、上記表示部上の上記移動体と対向した位置に表示する
ことを特徴とする請求項1に記載の位置検出装置。 - 上記位置検出手段は、上記移動体が上記記表示部上を移動することに対応して上記輝度レベル検出手段によって検出された上記指標画像における複数の領域の輝度レベルの加算値の変化によって上記移動体の上記表示部における高さを検出するようにした
ことを特徴とする請求項1に記載の位置検出装置。 - 上記指標画像生成手段は、上記輝度レベルが線形的に変化するようにグラデーション化する
ことを特徴とする請求項1に記載の位置検出装置。 - 上記指標画像生成手段は、上記指標画像の輝度レベルが非線形的に変化するようにグラデーション化する
ことを特徴とする請求項1に記載の位置検出装置。 - 表示対象上で移動する移動体の位置を検出する位置検出装置であって、
上記表示対象上の第1の方向及び第2の方向へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成し、上記表示対象上を移動する上記移動体の上面に対して表示する指標画像生成手段と、
上記指標画像の上記複数の領域における上記第1の方向及び上記第2の方向の輝度レベル変化を検出するため上記移動体の上記上面に設けられた輝度レベル検出手段と、
上記輝度レベル検出手段によって検出した検出結果に基づいて上記指標画像と上記移動体との相対的位置関係の変化を算出することにより上記表示対象上における位置を検出する位置検出手段と
を具えることを特徴とする位置検出装置。 - 表示部上で移動する移動体の位置を検出する位置検出方法であって、
上記表示部上の第1の方向及び第2の方向へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成する指標画像生成ステップと、
上記表示部上の上記移動体と対向した位置に上記指標画像を表示する指標画像表示ステップと、
上記指標画像の上記複数の領域における上記第1の方向及び上記第2の方向の輝度レベル変化をそれぞれ検出するため上記移動体に設けられた輝度レベル検出手段により上記輝度レベル変化を検出する輝度レベル変化検出ステップと、
上記輝度レベル変化に基づいて上記指標画像と上記移動体との相対的位置関係の変化を算出することにより上記表示部上における位置を検出する位置検出ステップと
を具えることを特徴とする位置検出方法。 - 表示部上で移動する移動体の位置を検出するための情報処理装置に対して、
表示部上の第1の方向及び第2の方向へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成する指標画像生成ステップと、
上記表示部上の上記移動体と対向した位置に上記指標画像を表示する指標画像表示ステップと、
上記指標画像の上記複数の領域における上記第1の方向及び上記第2の方向の輝度レベル変化をそれぞれ検出するため上記移動体に設けられた輝度レベル検出手段により上記輝度レベル変化を検出する輝度レベル変化検出ステップと、
上記輝度レベル変化に基づいて上記指標画像と上記移動体との相対的位置関係の変化を算出することにより上記表示部上における位置を検出する位置検出ステップと
を実行させることを特徴とする位置検出プログラム。 - 情報処理装置によって表示部の画面上に表示される映像と、当該画面上に載置された移動体とを対応させながら当該移動体の動きを制御することにより、上記映像と上記移動体とが融合された複合現実感を提供する複合現実提供システムであって、
上記情報処理装置は、
上記画面上の第1の方向及び第2の方向へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成し、上記表示部上の上記移動体と対向した位置に上記映像の位置部として上記指標画像を表示する指標画像生成手段と、
予め定められた移動命令又は所定の入力手段を介して入力された移動命令に従って上記指標画像を上記画面上で移動させる指標画像移動手段と
を具え、
上記移動体は、
上記指標画像の上記複数の領域における上記第1の方向及び上記第2の方向の輝度レベル変化をそれぞれ検出するため上記移動体に設けられた輝度レベル検出手段と、
上記指標画像移動手段によって移動された上記指標画像に対し、上記輝度レベル検出手段によって検出した上記輝度レベル変化に基づいて上記指標画像と上記移動体との相対的位置関係の変化を算出することにより上記表示部上における上記移動体の現在位置を検出する位置検出手段と、
上記移動体の現在位置と移動後の上記指標画像の位置との差分を無くすように追従させることにより、上記指標画像に合わせて上記移動体を移動させる移動制御手段と
を具えることを特徴とする複合現実提供システム。 - 上記情報処理装置の上記指標画像生成手段は、上記指標画像の一部分を点滅させることにより上記移動体に対して所定の動作を実行させるための動作命令を光通信により供給し、
上記移動体の上記移動制御手段は、上記輝度レベル検出手段により検出した上記指標画像の一部分に対する上記点滅による輝度レベル変化に基づいて上記動作命令を認識し、当該動作命令に対応した上記所定の動作を実行させる
ことを特徴とする請求項11に記載の複合現実提供システム。 - 情報処理装置によって表示対象上に表示される映像と、当該表示対象上に載置された移動体とを対応させながら当該移動体の動きを制御することにより、上記映像と上記移動体とが融合された複合現実感を提供する複合現実提供システムであって、
上記情報処理装置は、
上記表示対象上の第1の方向及び第2の方向へ輝度レベルが次第に変化するようにグラデーション化された複数の領域からなる指標画像を生成し、上記表示対象上を移動する上記移動体の上面に対して表示する指標画像生成手段と、
予め定められた移動命令又は所定の入力手段を介して入力された移動命令に従って上記指標画像を上記表示対象上で移動させる指標画像移動手段と
を具え、
上記移動体は、
上記指標画像の上記複数の領域における上記第1の方向及び上記第2の方向の輝度レベル変化をそれぞれ検出するため上記移動体の上記上面に設けられた輝度レベル検出手段と、
上記指標画像移動手段によって移動された上記指標画像に対し、上記輝度レベル検出手段によって検出した上記輝度レベル変化に基づいて上記指標画像と上記移動体との相対的位置関係の変化を算出することにより上記表示対象上における上記移動体の現在位置を検出する位置検出手段と、
上記移動体の現在位置と移動後の上記指標画像の位置との差分を無くすように追従させることにより、上記指標画像に合わせて上記移動体を移動させる移動制御手段と
を具えることを特徴とする複合現実提供システム。 - 上記情報処理装置の上記指標画像生成手段は、上記指標画像の一部分を点滅させることにより上記移動体に対して所定の動作を実行させるための動作命令を光通信により供給し、
上記移動体の上記移動制御は、上記輝度レベル検出手段により検出した上記指標画像の一部分に対する上記点滅により輝度レベル変化に基づいて上記動作命令を認識し、当該動作命令に対応した上記所定の動作を実行させる
ことを特徴とする請求項13に記載の複合現実提供システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005174257 | 2005-06-14 | ||
JP2005174257 | 2005-06-14 | ||
PCT/JP2006/310950 WO2006134778A1 (ja) | 2005-06-14 | 2006-05-25 | 位置検出装置、位置検出方法、位置検出プログラム及び複合現実提供システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2006134778A1 true JPWO2006134778A1 (ja) | 2009-01-08 |
Family
ID=37532143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007521241A Pending JPWO2006134778A1 (ja) | 2005-06-14 | 2006-05-25 | 位置検出装置、位置検出方法、位置検出プログラム及び複合現実提供システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20080267450A1 (ja) |
JP (1) | JPWO2006134778A1 (ja) |
KR (1) | KR20080024476A (ja) |
WO (1) | WO2006134778A1 (ja) |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7920071B2 (en) * | 2006-05-26 | 2011-04-05 | Itt Manufacturing Enterprises, Inc. | Augmented reality-based system and method providing status and control of unmanned vehicles |
FR2911211B1 (fr) * | 2007-01-05 | 2009-06-12 | Total Immersion Sa | Procede et dispositifs pour inserer en temps reel des objets virtuels dans un flux d'images a partir de donnees issues de la scene reelle representee par ces images |
US9649551B2 (en) | 2008-06-03 | 2017-05-16 | Tweedletech, Llc | Furniture and building structures comprising sensors for determining the position of one or more objects |
US10265609B2 (en) | 2008-06-03 | 2019-04-23 | Tweedletech, Llc | Intelligent game system for putting intelligence into board and tabletop games including miniatures |
US8602857B2 (en) | 2008-06-03 | 2013-12-10 | Tweedletech, Llc | Intelligent board game system with visual marker based game object tracking and identification |
US8974295B2 (en) | 2008-06-03 | 2015-03-10 | Tweedletech, Llc | Intelligent game system including intelligent foldable three-dimensional terrain |
US10155156B2 (en) | 2008-06-03 | 2018-12-18 | Tweedletech, Llc | Multi-dimensional game comprising interactive physical and virtual components |
EP2193825B1 (en) * | 2008-12-03 | 2017-03-22 | Alcatel Lucent | Mobile device for augmented reality applications |
US8817078B2 (en) * | 2009-11-30 | 2014-08-26 | Disney Enterprises, Inc. | Augmented reality videogame broadcast programming |
US8803951B2 (en) * | 2010-01-04 | 2014-08-12 | Disney Enterprises, Inc. | Video capture system control using virtual cameras for augmented reality |
US8947455B2 (en) * | 2010-02-22 | 2015-02-03 | Nike, Inc. | Augmented reality design system |
KR101335391B1 (ko) * | 2010-04-12 | 2013-12-03 | 한국전자통신연구원 | 영상 합성 장치 및 그 방법 |
JP5993856B2 (ja) | 2010-09-09 | 2016-09-14 | トウィードルテック リミテッド ライアビリティ カンパニー | 動的特徴追跡を有するボードゲーム |
WO2012094349A2 (en) | 2011-01-05 | 2012-07-12 | Orbotix, Inc. | Self-propelled device with actively engaged drive system |
US9090214B2 (en) | 2011-01-05 | 2015-07-28 | Orbotix, Inc. | Magnetically coupled accessory for a self-propelled device |
US10281915B2 (en) | 2011-01-05 | 2019-05-07 | Sphero, Inc. | Multi-purposed self-propelled device |
US9429940B2 (en) | 2011-01-05 | 2016-08-30 | Sphero, Inc. | Self propelled device with magnetic coupling |
US9218316B2 (en) | 2011-01-05 | 2015-12-22 | Sphero, Inc. | Remotely controlling a self-propelled device in a virtualized environment |
US20120244969A1 (en) | 2011-03-25 | 2012-09-27 | May Patents Ltd. | System and Method for a Motion Sensing Device |
EP2749144A2 (en) | 2011-12-14 | 2014-07-02 | Koninklijke Philips N.V. | Methods and apparatus for controlling lighting |
JP5912059B2 (ja) * | 2012-04-06 | 2016-04-27 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
US9292758B2 (en) | 2012-05-14 | 2016-03-22 | Sphero, Inc. | Augmentation of elements in data content |
US9827487B2 (en) | 2012-05-14 | 2017-11-28 | Sphero, Inc. | Interactive augmented reality using a self-propelled device |
WO2013173389A1 (en) | 2012-05-14 | 2013-11-21 | Orbotix, Inc. | Operating a computing device by detecting rounded objects in an image |
US10056791B2 (en) | 2012-07-13 | 2018-08-21 | Sphero, Inc. | Self-optimizing power transfer |
JP6143469B2 (ja) * | 2013-01-17 | 2017-06-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN104052913B (zh) * | 2013-03-15 | 2019-04-16 | 博世(中国)投资有限公司 | 提供光绘效果的方法以及实现该方法的设备 |
CA2906934C (en) * | 2013-03-15 | 2021-11-16 | Mtd Products Inc | Autonomous mobile work system comprising a variable reflectivity base station |
EP2869023B1 (en) | 2013-10-30 | 2018-06-13 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and corresponding computer program |
JP6005299B2 (ja) * | 2013-11-28 | 2016-10-12 | 三菱電機株式会社 | ロボットシステムおよびロボットシステムの制御方法 |
US9829882B2 (en) | 2013-12-20 | 2017-11-28 | Sphero, Inc. | Self-propelled device with center of mass drive system |
JP5850958B2 (ja) * | 2014-01-24 | 2016-02-03 | ファナック株式会社 | ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置 |
JP6290651B2 (ja) * | 2014-02-27 | 2018-03-07 | 株式会社キーエンス | 画像測定器 |
JP6278741B2 (ja) * | 2014-02-27 | 2018-02-14 | 株式会社キーエンス | 画像測定器 |
JP6380828B2 (ja) * | 2014-03-07 | 2018-08-29 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
US10181193B2 (en) * | 2014-03-10 | 2019-01-15 | Microsoft Technology Licensing, Llc | Latency reduction in camera-projection systems |
US10310054B2 (en) * | 2014-03-21 | 2019-06-04 | The Boeing Company | Relative object localization process for local positioning system |
JP6352151B2 (ja) * | 2014-11-07 | 2018-07-04 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法 |
US11250630B2 (en) | 2014-11-18 | 2022-02-15 | Hallmark Cards, Incorporated | Immersive story creation |
JP2017196705A (ja) * | 2016-04-28 | 2017-11-02 | セイコーエプソン株式会社 | ロボット、及びロボットシステム |
BR112019001591A2 (pt) * | 2016-08-04 | 2019-05-07 | Sony Interactive Entertainment Inc. | aparelho e método de processamento de informação, e, mídia de informação |
US10286556B2 (en) * | 2016-10-16 | 2019-05-14 | The Boeing Company | Method and apparatus for compliant robotic end-effector |
JP6484603B2 (ja) * | 2016-12-26 | 2019-03-13 | 新日鉄住金ソリューションズ株式会社 | 情報処理装置、システム、情報処理方法、及び、プログラム |
US11331803B2 (en) * | 2017-04-17 | 2022-05-17 | Siemens Aktiengesellschaft | Mixed reality assisted spatial programming of robotic systems |
JP6881188B2 (ja) * | 2017-09-27 | 2021-06-02 | オムロン株式会社 | 位置検出装置およびプログラム |
US10633066B2 (en) | 2018-03-27 | 2020-04-28 | The Boeing Company | Apparatus and methods for measuring positions of points on submerged surfaces |
US20200265644A1 (en) * | 2018-09-12 | 2020-08-20 | Limited Liability Company "Transinzhkom" | Method and system for generating merged reality images |
US11785176B1 (en) | 2020-02-28 | 2023-10-10 | Apple Inc. | Ambient light sensor-based localization |
CN111885358B (zh) * | 2020-07-24 | 2022-05-17 | 广东讯飞启明科技发展有限公司 | 考试终端定位及监控方法、装置、系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002099383A (ja) * | 2000-09-26 | 2002-04-05 | Nippon Telegr & Teleph Corp <Ntt> | 非接触型位置測定方法および非接触型位置測定システム |
JP2002247602A (ja) * | 2001-02-15 | 2002-08-30 | Mixed Reality Systems Laboratory Inc | 画像生成装置及びその制御方法並びにそのコンピュータプログラム |
JP2004141544A (ja) * | 2002-10-28 | 2004-05-20 | Atlus Co Ltd | バーチャルペットシステム |
JP2004280380A (ja) * | 2003-03-14 | 2004-10-07 | Matsushita Electric Ind Co Ltd | 移動体誘導システム、移動体誘導方法および移動体 |
-
2006
- 2006-05-25 US US11/922,256 patent/US20080267450A1/en not_active Abandoned
- 2006-05-25 WO PCT/JP2006/310950 patent/WO2006134778A1/ja active Application Filing
- 2006-05-25 KR KR1020077029340A patent/KR20080024476A/ko not_active Application Discontinuation
- 2006-05-25 JP JP2007521241A patent/JPWO2006134778A1/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002099383A (ja) * | 2000-09-26 | 2002-04-05 | Nippon Telegr & Teleph Corp <Ntt> | 非接触型位置測定方法および非接触型位置測定システム |
JP2002247602A (ja) * | 2001-02-15 | 2002-08-30 | Mixed Reality Systems Laboratory Inc | 画像生成装置及びその制御方法並びにそのコンピュータプログラム |
JP2004141544A (ja) * | 2002-10-28 | 2004-05-20 | Atlus Co Ltd | バーチャルペットシステム |
JP2004280380A (ja) * | 2003-03-14 | 2004-10-07 | Matsushita Electric Ind Co Ltd | 移動体誘導システム、移動体誘導方法および移動体 |
Also Published As
Publication number | Publication date |
---|---|
KR20080024476A (ko) | 2008-03-18 |
US20080267450A1 (en) | 2008-10-30 |
WO2006134778A1 (ja) | 2006-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2006134778A1 (ja) | 位置検出装置、位置検出方法、位置検出プログラム及び複合現実提供システム | |
US10510189B2 (en) | Information processing apparatus, information processing system, and information processing method | |
JP6355978B2 (ja) | プログラムおよび画像生成装置 | |
Thomas et al. | ARQuake: An outdoor/indoor augmented reality first person application | |
US20150348330A1 (en) | Dynamic environment and location based augmented reality (ar) systems | |
US7268781B2 (en) | Image display control method | |
JP7374313B2 (ja) | 仮想環境における乗り物の運転方法、装置、端末及びプログラム | |
CN103930854B (zh) | 借助指示器的姿态的测量控制光标的方法及实施所述方法的指示器 | |
CN109643014A (zh) | 头戴式显示器追踪 | |
JP6629499B2 (ja) | プログラムおよび画像生成装置 | |
US20110250962A1 (en) | System and method for a 3d computer game with true vector of gravity | |
US10146332B2 (en) | Information processing device, information processing system, block system, and information processing method | |
US20050024360A1 (en) | Three-dimensional-model processing apparatus, three-dimensional-model processing method, and computer program | |
KR101734520B1 (ko) | 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템 | |
EP3109833B1 (en) | Information processing device and information processing method | |
JP2000207575A (ja) | 空間融合装置及びこれを適用した応用装置 | |
CN105359061A (zh) | 计算机图形显示系统及方法 | |
US20110109628A1 (en) | Method for producing an effect on virtual objects | |
US10471343B2 (en) | Information processing apparatus, information processing system, assembled device, and information processing method | |
Williamson et al. | Natural full body interaction for navigation in dismounted soldier training | |
US6149435A (en) | Simulation method of a radio-controlled model airplane and its system | |
US10130883B2 (en) | Information processing device and information processing method | |
KR101076263B1 (ko) | 체감형 시뮬레이터 기반의 대규모 인터랙티브 게임 시스템 및 그 방법 | |
JP3200592B2 (ja) | 歩行感覚生成装置 | |
Costa et al. | A mixed reality game using 3Pi robots—“PiTanks” |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090513 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120918 |