JP3413127B2 - 複合現実感装置及び複合現実感提示方法 - Google Patents

複合現実感装置及び複合現実感提示方法

Info

Publication number
JP3413127B2
JP3413127B2 JP16471899A JP16471899A JP3413127B2 JP 3413127 B2 JP3413127 B2 JP 3413127B2 JP 16471899 A JP16471899 A JP 16471899A JP 16471899 A JP16471899 A JP 16471899A JP 3413127 B2 JP3413127 B2 JP 3413127B2
Authority
JP
Japan
Prior art keywords
image
player
mixed reality
virtual
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16471899A
Other languages
English (en)
Other versions
JP2000353248A (ja
Inventor
登志一 大島
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP16471899A priority Critical patent/JP3413127B2/ja
Priority to US09/510,232 priority patent/US6972734B1/en
Priority to EP00103876A priority patent/EP1060772B1/en
Priority to AT00103876T priority patent/ATE543546T1/de
Publication of JP2000353248A publication Critical patent/JP2000353248A/ja
Application granted granted Critical
Publication of JP3413127B2 publication Critical patent/JP3413127B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、複数操作者が複合
現実空間を共有しながら所定の動作を行う際、操作者が
他の操作者の状態を容易に把握可能な複合現実感装置及
び複合現実感提示方法に関する。
【0002】
【0003】
【従来の技術】近年、現実空間と仮想空間の継ぎ目のな
い結合を目的とした複合現実感(Mixed Reality、M
R)に関する研究が盛んになっている。MRは従来、現
実空間と切り離された状況でのみ体験可能であったバー
チャルリアリティ(VR)の世界と現実空間との共存を
目的とし、VRを増強する技術として注目されている。
【0004】複合現実感を実現する装置として代表的な
ものは、ヘッドマウントディスプレイ(HMD)であ
る。すなわち、現実空間と仮想空間をHMDに合成して
表示することにより、複合現実感を実現するものであ
る。また、HMDを用いたMRの方式としては、半透過
型(シースルー型)のヘッドマウントディスプレイ(H
MD)にCG等の画像を重畳する光学シースルー方式
と、HMDに装着したビデオカメラで撮影した画像デー
タにCG等の画像を合成した後、HMDに表示するビデ
オシースルー方式がある。
【0005】MRの用途としては、患者の体内の様子を
透過しているように医師に提示する医療補助の用途や、
工場において製品の組み立て手順を実物に重ねて表示す
る作業補助の用途など、今までのVRとは質的に全く異
なった新たな分野が期待されている。
【0006】(ゲームアプリケーション)一方、MRを
用いて複数人が同じ空間を共有し、協調して動作を行う
例として、例えば特開平11−84307号公報に示さ
れるようなゲームがある。特開平11−84307号公
報には、MRを利用したゲーム装置として、図15に示
すようなエアホッケー装置が開示されている。
【0007】エアホッケーゲームはテーブルを挟んで通
常二人が対峙し、テーブル盤面に設けられた微細な穴か
ら供給される圧縮空気によって浮上したパックを、プレ
ーヤが手で操作するマレットで打ち返し、相手のゴール
にパックを入れあうゲームである。
【0008】MRを適用したエアホッケーゲームは、パ
ックを仮想物体として現実空間に重畳してプレーヤーの
HMDに表示して、エアホッケーゲームを行うものであ
る。
【0009】(ゲーム装置の構成)図15は、MRエア
ホッケーゲーム装置を側面から見た図である。複合現実
感のエアホッケーゲームは、テープル1000を挟ん
で、二人の対戦者2000,3000が手にマレットと
して用いるコントロールボックス(260L,260
R)を持って向かい合う。二人の対戦者2000,30
00は頭部にヘッドマウントデイスプレイ(以下HMD
と略す)210L,210Rを装着する。
【0010】コントロールボックス(260L、260
R)はその先端に赤外線発光器を有しており、テーブル
上部に設けられた赤外線を検出するCCDカメラ230
によって取得した画像を処理することにより、その二次
元平面位置を知ることができる。コントロールボックス
の形状や色に特徴があるのであれば、それらの特徴を用
いたパターン認識による検出も可能である。
【0011】HMD210は、例えばシースルー型であ
る。両対戦者2000,3000は、HMD210L,
210Rを装着していても、テープル1000の表面を
直接観察することができる。HMD210には図示しな
い画像処理システムから二次元仮想画像が入力される。
従って、対戦者2000,3000は、HMD210の
光学系(図15には不図示)を通して観察される現実空
間に重ねて、HMD210の表示画面に表示された二次
元画像を見ることとなる。
【0012】図16は、左側プレーヤ2000が自身の
HMD210Lを通して観察する複合現実空間を示す。
図16において、現実空間として認識されるのは対戦す
るプレーヤ3000及びテーブル1000と、視野に入
る自分の体、特にコントロールボックスを持った手であ
る。一方、相手ゴール1200R、パック1500は仮
想空間に表示される。
【0013】そして、二人のプレーヤは、各自が手に持
った現実のコントロールボックスを、画像処理システム
が表示する仮想のパック1500に当たるように移動
し、仮想のパックを打ち合う。仮想のパックの位置は画
像処理システムが演算し、両プレイヤーのHMDにおい
てテーブル上でパックがマレット及び周囲の壁面にはじ
かれて移動するように観察されるよう表示を行う。
【0014】プレーヤが装着するHMD210は、例え
ば特開平7−333551号に開示されるHMDの本体
に、磁気センサ220を支柱221を介して取り付けた
ものである。HMDに磁気センサ及び(又は)カメラを
取り付ける構成は、ビデオシースルー方式のHMDに限
られず、光学シースルー方式のHMDであっても、頭部
位置及び姿勢を正確に検出する目的で採用することがで
きる。
【0015】夫々のHMD210はバンド(不図示)に
よってプレーヤの頭部に固定される。プレーヤの夫々の
頭部には、磁気センサ(220L,220R)及びCC
Dカメラ240(240L,240R)が、それぞれ固
定されている。カメラ240の視界はプレーヤの前方に
設定されている。エアホッケーゲームの場合には、それ
ぞれテープル1000の上面を見ることとなるので、カ
メラ240もテーブル1000の表面の画像を撮像す
る。磁気センサ220(220L, 220R)は、交
流磁界発生源250が発する交流磁界の変化をセンスす
る。
【0016】プレーヤがテープル1000の表面を見る
ために斜め下方を向くと、HMD210を通した視界に
は、テーブル1000の表面と、前述の仮想のパック1
500、現実のマレット(コントロールボックス26
0)、仮想のゴール1200(1200L,1200
R)が見える。また、プレーヤが、頭部を、水平二次元
平面内において水平移動させ、あるいはティルティング
運動、ヨー運動、ローリング運動を行わせると、その変
化は先ず磁気センサ220によって検出され、併せて、
頭部の姿勢変化に伴ってCCDカメラ240が撮像する
画像の変化として観測される。
【0017】そして、検出された頭部の姿勢変化を用い
て、HMDに表示する仮想空間の画像データの表示位置
を変化させる。マーカをテーブル上に配置し、カメラ2
40が撮影したマーカ画像から姿勢変化を示す信号を補
正することも可能である。
【0018】(指示表示)一方、複合現実空間において
所定の位置、あるいは物体等を指し示したい場合には、
現実空間において用いられているような指示棒や単なる
棒を模した3次元画像など、面を組み合わせて構成され
た画像を複合現実空間における指示棒として用いてい
た。
【0019】
【発明が解決しようとする課題】上述のMRエアホッケ
ーゲームにおいては、プレーヤーがいずれもHMDを装
着しており、相手プレーヤーの視線の方向がわからな
い。また、装着している機器がそのまま見えるため、臨
場感に乏しい。
【0020】また、表示される仮想空間画像もマレット
とパック、ゴールのみであり、その表示内容(表示効
果)や画像がほとんど変化しない。
【0021】さらに、相手プレーヤーの名前や、これま
での成績、現在の得点状況といったような、情報表示が
行われていなかったため、ゲームの状況や相手プレーヤ
ーのレベルなどを把握することが困難であった。
【0022】加えて、3人以上のプレーヤーで同じ仮想
現実感空間を共有する場合の処理については何ら示唆さ
れていない。
【0023】
【0024】本発明の目的は、上述の課題を解決し、複
数プレーヤにより共通の複合現実空間を共有する場合で
も、臨場感を損なわない仮想現実感装置及び仮想現実感
空間画像表示方法を提供することにある。
【0025】また、本発明の別の目的は、他プレーヤー
の視線方向が容易に識別できる仮想現実感装置及び仮想
現実感空間画像表示方法を提供することにある。
【0026】また、本発明の別の目的はプレーヤーの状
態やコマンドの入力等によって、表示する内容が変化す
る仮想現実感装置及び仮想現実感空間画像表示方法を提
供することにある。
【0027】
【0028】
【0029】
【課題を解決するための手段】すなわち、本発明の要旨
は、第1のプレーヤのカメラで撮影された撮影画像を入
力する撮影画像入力手段と、第1のプレーヤの複数の部
位の位置・姿勢を示す第1の位置・姿勢情報を取得する
第1の取得手段と、第2のプレーヤの複数の部位の位置
・姿勢を示す第2の位置・姿勢情報を取得する第2の取
得手段と、第1および第2の位置・姿勢情報とプレーヤ
モデルを用いて、撮影画像における第2のプレーヤの画
像に重畳する仮想画像を生成する画像生成手段と、仮想
画像と撮影画像とを合成し、第1のプレーヤに提示する
複合現実感を示す画像を生成する画像合成手段とを有す
ることを特徴とする複合現実感装置に存する。
【0030】また、本発明の別の要旨は、第1のプレー
ヤのカメラで撮影された撮影画像を入力する撮影画像入
力ステップと、第1のプレーヤの複数の部位の位置・姿
勢を示す第1の位置・姿勢情報を取得する第1の取得ス
テップと、第2のプレーヤの複数の部位の位置・姿勢を
示す第2の位置・姿勢情報を取得する第2の取得ステッ
プと、第1および第2の位置・姿勢情報とプレーヤモデ
ルを用いて、撮影画像における第2のプレーヤの画像に
重畳する仮想画像を生成する画像生成ステップと、仮想
画像と撮影画像とを合成し、第1のプレーヤに提示する
複合現実感を示す画像を生成する画像合成ステップとを
有することを特徴とする複合現実感提示方法に存する。
【0031】
【0032】
【0033】また、本発明の別の要旨は、本発明による
複合現実感提示方法をコンピュータ装置が実行可能なプ
ログラムとして格納した記憶媒体に存する。
【0034】
【0035】
【発明の実施の形態】以下、図面を参照して本発明の好
ましい実施形態について説明する。本実施形態は、3人
のプレーヤーが同一仮想空間を共有して行うゲームであ
るが、本発明による複合現実感装置は、その他任意の用
途に適用することができる。
【0036】図1は、本発明の複合現実感装置の構成を
示す図である。図1は、プレーヤが3人の場合の構成を
示している。複合現実感装置は、各プレーヤごとに設け
られたプレーヤ処理部100〜300と、各プレーヤ処
理部に接続された制御部400とから構成されており、
プレーヤの増減によって制御部400に接続されるプレ
ーヤ処理部も増減する。
【0037】プレーヤ処理部100〜300はそれぞれ
同一の構成を有しており、プレーヤの体に装着されたセ
ンサや表示装置などの入出力部分(102、103、1
05、1011、1021、1022)と、センサから
収集した信号処理及びこの信号処理結果と制御部から供
給される他プレーヤの情報を元にして表示装置に表示す
べき画像を生成する回路部分(101、104、10
6、107)とから構成される。
【0038】以下、図1と本実施形態において各プレー
ヤが装着する入出力機器の種類と装着場所を示す図2を
参照して、プレーヤ処理部の構成を説明する。図2に示
すように、本実施形態において各プレーヤは、頭部に現
実空間と仮想空間とを合成して表示するための表示装置
である頭部装着型画像表示装置(以下HMDと言う)1
05を装着する。本発明においてHMDはビデオシース
ルー型でも光学シースルー型でもよいが、以下の説明で
はビデオシースルー型HMDを用いた場合を例にして説
明する。
【0039】HMD105の目に近い部分には、2つの
小型ビデオカメラ103が設けられている。このビデオ
カメラ103で撮影された、プレーヤの視点とほぼ同一
の視点による映像は、画像入力部104を介して後述す
る画像合成部106に供給され、仮想空間画像と重畳さ
れてプレーヤのHMD105に表示される。
【0040】また、プレーヤの頭部にはさらに、例えば
磁気センサからなる頭部位置姿勢センサ1011が装着
されている。頭部位置センサ1011は、例えばHMD
105を利用して装着することができる。頭部位置セン
サ1011の出力信号は頭部位置姿勢計測部101が処
理し、プレーヤの頭部位置及び姿勢(傾き方向及び量)
の情報を得る。
【0041】一方、プレーヤの腕には、対話操作入力装
置102が装着されている。対話操作入力装置102
は、装着された部位の位置、姿勢を検出する位置姿勢セ
ンサ1021と、プレーヤがオン・オフ可能なスイッチ
(トリガ)1022とを有し、プレーヤが所定の動作を
行うことによってコマンド入力を行うための装置であ
る。
【0042】以下の説明においては、複数のプレーヤ
(本実施形態では3人)が同一の複合現実空間を共有
し、複合現実空間上に出現する敵からの攻撃を避けなが
ら、敵を撃破し、時間あるいは敵の攻撃によるダメージ
が所定量に達するまでに撃破した敵の数あるいは点数を
競うゲームであって、対話操作入力装置102を用いて
以下のようなコマンド入力が可能な場合を例にして説明
する。
【0043】・コマンド1(照準コマンド) 照準位置を仮想空間上で指し示す照準線を表示するコマ
ンド。手の甲を上にした状態で、肘よりも手首を上方に
位置させることにより入力する。 ・コマンド2(射撃コマンド) 照準線が示す照準位置を射撃するコマンド。照準コマン
ドにより照準線が表示された状態で、一定の加速度以上
で腕(肘から手のひらにかけて)を前後に往復移動させ
ることにより入力する。 ・コマンド3(防御コマンド) 相手方の攻撃を防御するコマンド。手の甲を相手方に向
けた状態で、指先を上方に向けることにより入力する。 ・コマンド4(リセットコマンド) 射撃コマンドを入力した後、再度照準コマンドを入力す
る際に入力するコマンド。腕を下に垂らした状態にする
ことで入力する。
【0044】すなわち、本実施形態のゲームにおけるプ
レーヤの動作としては通常、照準コマンド→射撃コマン
ド→リセットコマンド→照準コマンドというサイクルで
コマンドの入力を繰り返し、このサイクルの中で必要に
応じて防御コマンドを入力することになる。
【0045】対話操作入力装置102によって入力され
たコマンドは、画像生成部107に供給される。
【0046】画像生成部107は、頭部位置姿勢計測部
101から供給されるプレーヤの頭部位置及び姿勢情報
と対話操作入力装置102から供給されるコマンド情報
を制御部400へ転送する。また、プレーヤの頭部位置
・姿勢情報及びコマンド情報と、制御部400から受信
した他プレーヤの頭部位置・姿勢情報並びにコマンド情
報とモデル情報、敵キャラクタの位置、移動方向、状態
情報、空間内に配置された障害物の位置、形状などの情
報を用いて、対応するプレーヤのHMD105に表示す
べき仮想空間画像を作成し、画像合成部106へ出力す
る。
【0047】画像合成部106は、プレーヤの視点に近
い位置に取り付けられたビデオカメラ103の画像(実
空間画像)と、画像生成部107が作成した仮想空間画
像とを合成し、プレーヤのHMD105に供給する。
【0048】制御部400は、上述のようなプレーヤ処
理部100〜300が接続された複合現実空間管理部1
と、現実物体位置計測部2とから構成されている。複合
現実空間管理部1は、各プレーヤ処理部100〜300
から受信したプレーヤの頭部位置、姿勢に関する情報
と、対話操作入力装置102の位置、姿勢及びコマンド
情報とを配信するとともに、仮想空間上に表示する敵キ
ャラクタの生成、消滅、制御及び射撃コマンドによる射
撃の当たり判定等のゲーム処理を行う。敵キャラクタの
モデルや位置、移動方向及び、状態(撃破されたか等)
の情報も各プレーヤの情報とともに接続される全てのユ
ーザに配信される。
【0049】また、図3に示すように、ゲームの難易度
を調整するために射撃の障害となるような現実物体31
〜33を配置する様な場合には、この現実物体31〜3
3の形状及び位置に関する情報も複合現実空間管理部1
が管理する。
【0050】図3(a)はあるプレーヤから見たゲーム
フィールド(複合現実空間)の斜視図、図3(b)はそ
の上面図をそれぞれ示す。図3においては、(現実空間
の)テーブル30の上に、3つの現実空間物体31〜3
3を障害物として配置した場合を示す。本実施形態にお
いては、上述のように対話操作入力装置102を用いた
照準コマンドの入力動作が、肘より手首を高くする動作
であるため、一般的な体型において腰の高さ程度の高さ
を有するテーブル30の上に現実空間物体を配置してい
るが、対話操作入力装置によるコマンド入力動作によっ
てはテーブルが不要であることは言うまでもない。
【0051】図3において、現実空間物体31、32は
固定、33は可動とされている。可動の現実空間物体が
あると、ゲームの難易度を動的に変化させることができ
る。例えば、可動現実物体33がランダムなスピードで
左右に移動すれば、標的である敵キャラクタの射撃は静
的な現実物体31、32のみが配置されている場合より
も更に難しくなる。可動現実物体の移動制御は、複合現
実空間管理部1が行っても、他の制御回路によって行っ
てもよい。この場合、可動物体のモデルは複合現実空間
管理部1が管理し、またその位置は可動物体33に設け
た物体位置センサ331を現実物体位置計測部2によっ
て計測することになる。
【0052】以上説明したような複合現実感装置は、制
御部400をサーバー、プレーヤ処理部100〜300
(の回路部分)をクライアントとするクライアント=サ
ーバーシステムによって実現することができる。個々の
プレーヤに関する処理をクライアントで分散して処理す
ることにより、プレーヤの増減に柔軟に対処可能であ
る。より具体的に述べれば、プレーヤ処理部はビデオ入
出力機能及び各種センサからの信号受信機能を有する汎
用コンピュータ装置により、制御部400も各プレーヤ
処理部と通信可能なインタフェースと、物体位置計測部
2からの計測信号受信機能を有する汎用コンピュータ装
置により実現できる。
【0053】ただし、3次元の画像表示に関する演算を
実時間で行う必要があるため、この様な演算に特化した
アクセラレータ(いわゆる3Dアクセラレータ)等を有
する比較的高速なコンピュータ装置を用いることが好ま
しい。また、制御部400とプレーヤ処理部100〜3
00との通信も100BASE−Tなど容量の大きな回
線による接続が好ましい。通信回線の容量が小さいとプ
レーヤ数の増加に伴い処理速度の低下が大きくなる。
【0054】(コマンド入力による表示)次に、対話操
作入力部のコマンド入力による表示動作について図4を
用いて説明する。図4は、射撃コマンドの入力時に行わ
れる表示処理を示すフローチャートである。まず、射撃
コマンドの入力を判定し(ステップS101)、射撃コ
マンドが入力された場合には射撃表示を開始する(ステ
ップS103)。
【0055】また、射撃方向に物体が存在するかを調べ
(ステップS104)、何もない場合にはあらかじめ定
めた射程距離に達するまで表示を行い(ステップS10
6)、所定時間後に表示を消去して射撃表示を終了する
(ステップS107)。一方、射程距離内に物体が存在
する場合には、標的であるかどうかを検出し(ステップ
S105)、標的である場合には射撃表示を終了して
(ステップS108)、標的表示を爆発表示等射撃が当
たったことがプレーヤに認識できるような表示に変更あ
るいは変形する(ステップS109)。一方、標的以外
の物体が射程距離内に存在する場合には、そこで射撃が
遮られるため、射撃表示を終了する(ステップS10
7)。標的以外の物体を射撃した場合には、「mis
s」等、ゲーム演出上の表示を行っても良い。
【0056】射撃の弾道上に物体が存在するか否か、存
在する場合には位置及びその種類等の検出は、射撃表示
を行う前に行い、その結果に基づき表示を行うようにし
ても良い。
【0057】(プレーヤに重畳した表示)本発明におけ
る複合現実感装置は、プレーヤに重畳して仮想空間画像
を表示し、またその表示内容を条件に応じて動的に変更
可能としたことを特徴とする。
【0058】複合現実感装置にはプレーヤに仮想空間と
現実空間とを合成して視認させるため、HMDなどの表
示装置の装着が不可欠である。さらに、複合現実空間に
おいて何らかの動作を行うためには、プレーヤの動作を
検出するためのセンサや、スイッチなどの装着も行われ
る。たとえば、本実施形態のゲームにおいては、プレー
ヤの頭部にはHMD等、腕には対話操作入力装置がそれ
ぞれ装着されている。このようなプレーヤに装着する装
置(装着デバイス)は、プレーヤが1人であれば余り意
識することはないが、プレーヤーが複数存在する場合に
は他のプレーヤの装着デバイスが見えることになる。そ
のため、特にゲームのようなアプリケーションにおいて
は、臨場感に欠け、プレーヤのゲームに対する感情移入
の妨げになる場合がある。
【0059】そのため、本発明では各プレーヤの少なく
とも装着デバイスを仮想空間画像によって覆い隠すこと
で、よりエンタテイメント性の高いアプリケーションを
可能としたものである。そして、表示する仮想空間画像
をアプリケーションによってふさわしい内容とすること
で、プレーヤの感情移入が促進される上、表示画像を動
的に変化させることによって新たな演出効果を付加する
ことが可能となる。
【0060】図5は、プレーヤの全身に仮想空間画像を
重畳した場合の表示例を示す図である。プレーヤの頭部
には仮想ヘルメット41が、両腕、両足、胴部にはそれ
ぞれ仮想のパーツ42〜46がそれぞれ重畳されてい
る。このような重畳表示を行う場合には、プレーヤを図
に示すような円柱や直方体など単純な形状で近似したモ
デルで管理するとプレーヤ処理部及び複合現実空間管理
部の処理負荷が軽減できる上、体型の異なるプレーヤに
も共通して使用することができる。プレーヤの装着デバ
イスを隠せばよい場合には、対応する部分のみに仮想画
像を重畳するようにすればよい。すなわち、本実施形態
の場合であればHMDを隠すための仮想ヘルメット41
と、左右いずれかの腕に装着された対話操作入力装置を
隠すための仮想パーツ42あるいは43のみでよい。
【0061】このような表示制御は、例えば他のプレー
ヤの頭部位置姿勢センサ1011や対話操作入力装置に
設けられた位置姿勢センサ1021により検出された位
置、姿勢情報と、前述のプレーヤモデルとを用い、重畳
する仮想物体を描画して画像生成を行うことにより実現
できる。
【0062】対話操作入力装置が装着された腕に重畳す
る仮想物体としては、単に腕部分を覆う物体とすること
もできるが、ゲームにおける機能を表す物体とすること
により、装着デバイスを隠す以上の効果を得ることがで
きる。すなわち、対話操作入力装置を隠す仮想物体にゲ
ーム中で使用する武器などの物体を含ませる(あるいは
武器などの物体で装着デバイスを隠す)ことにより、特
に複数種の武器を選択して使用できる場合など、プレー
ヤは自分の腕を見ることにより現在使用中の武器を容易
に確認する事が可能になる上、他のプレーヤがどのよう
な武器を選択しているかが判別できる。
【0063】また、対話操作入力装置によって入力され
るコマンドに応じて表示する仮想物体を変化させたり、
変形することもできる。図6は、上述の防御コマンドが
入力された際に仮想物体を武器から楯に変化させる例を
示す図である。すなわち、リセットコマンド入力動作で
ある図6(a)の状態において、敵からの攻撃あるいは
敵の接近に備え、手の甲を外側にして指先を上方に向け
る防御コマンド入力動作をとると(図6(b))、武器
47の表示がなくなり、かわりに楯47’を含む仮想物
体が表示される(図6(c))。
【0064】図6は防御コマンドを入力したプレーヤを
他のプレーヤから見た場合を示すものであるが、防御コ
マンドを入力したプレーヤ自身も楯’47の仮想物体を
裏から見ることになり、実際に楯を用いて防御している
ような感覚を味わうことができる。図7は、選択された
武器の種類(剣と銃)によって表示する仮想物体を変化
させた場合の表示例を示す。
【0065】表示内容を変化させる条件としてはコマン
ドの入力というプレーヤの能動的なゲーム操作だけでは
なく、プレーヤの移動などによる位置変化入力部の位置
情報なども用いることができる。図8は、プレーヤの視
線方向情報を用いて表示を変化させる場合の例を示す図
である。
【0066】図8の例では仮想ヘルメット中に表示する
仮想の目の位置及び大きさ、それに付随する表示上の効
果などを変化させている。 具体的には、プレーヤの視
線方向にしたがって仮想の目を移動させる(図8
(a),(b))ことが考えられる。このような表示変
化を採用することにより、他のプレーヤが注視している
方向をプレーヤが認知することが可能となる。また、プ
レーヤの視線方向が他のプレーヤの方向に近づくに連れ
て仮想の目の表示を大きくしたり(図8(c))、視線
方向と他のプレーヤの方向が一致した場合には仮想の目
の表示輝度を上げる、あるいは点滅させる(図8
(d))などが考えられる。このような表示変化を採用
することにより、他のプレーヤが自分を見ているプレー
ヤを認知する事が可能となり、本実施形態のように照準
を定めるようなゲームでは、視線方向と照準方向は通常
接近しているため、ゲームの戦略を立てる上で有用な情
報となる。
【0067】このような表示変化を行うには、例えば図
9に示すように、表示を変化させる対象であるプレーヤ
1の、プレーヤ2に対する方向と視線方向とのずれ角a
の大きさを、各プレーヤの位置情報及びプレーヤ1の視
線情報から求め、角aの変化に応じて表示を変化させる
ことで実現できる。
【0068】また、一般にプレーヤは照準方向を見るた
め、視線方向を検出しなくても、対話操作入力装置で照
準を定めている方向の情報に基づいて図8に示したよう
な表示制御を行うように構成することもできる。
【0069】具体的な表示制御について、図10を参照
して説明する。図10は、視線情報及び位置情報を用い
て図9に示した条件に基づいて、図8の(a)→(c)
→(d)という表示を行う場合の処理を示すフローチャ
ートである。まず、他プレーヤ(図9におけるプレーヤ
1)並びに自分(図9におけるプレーヤ2)の頭部位置
姿勢情報及び視点位置情報を取得する(ステップS20
1、S202)。次に、他プレーヤとの距離が最短とな
る方向を検出する(ステップS203)。
【0070】そして、他プレーヤの視線方向を求め(ス
テップS204)、ステップS203で求めた方向との
角度差(図9における角度a)を得る(ステップS20
5)。この角度差とあらかじめ画像生成部107に記憶
してある、角度差と仮想の目の大きさとのテーブルとを
比較し、仮想の目の大きさを取得する(ステップS20
6)。
【0071】仮想の目の大きさを取得したら、重畳表示
している仮想の目の大きさを更新し、再度表示を行う
(ステップS207)。そして、角度差が所定の値以下
かどうかを調べ(ステップS208)、所定角度以下で
あった場合には、図8(d)の効果を追加表示する(ス
テップS209)。
【0072】重畳表示される仮想物体やプレーヤのモデ
ルは、複合現実空間管理部1が管理する。仮想物体のモ
デルは3次元モデルであり、視点位置によって見え方が
変化する。すなわち、横を向いているプレーヤを見た場
合には仮想ヘルメットの側面が見えることになる。
【0073】(指示表示)図11は、本実施形態におい
て、照準を定めるための指示表示の例を示す図である。
複数プレーヤで共有する空間上の1点を指し示す必要が
ある場合、どこを指しているかが指している本人はもち
ろんのこと、他のプレーヤからも明確に認識されること
が必要である。さらに、指示表示が大きかったり太かっ
たりすると、視界が非常に煩雑になり、ゲームの進行が
妨げられる可能性がある。また、空間上の一点を指示す
るため、距離感がつかみにくい。
【0074】本発明において、指示表示は互いに等間隔
となるように配置した複数本の平行線を用いて行う。図
11(a)には、プレーヤが装着する対話操作入力装置
を覆って表示される仮想パーツ43のほぼ先端部分を視
点にした所定長さの3本の平行線91〜93を指示表示
として用いた場合を示す。平行線91〜93は、図11
(b)に示すように、正面から見ると正三角形の頂点を
通るように配置されている。平行線91〜93の間隔d
は、指示しうる空間の広さによって適宜定めればよい
が、後述するように指示方向が明確になるよう、数セン
チメートル程度(3〜5cm程度)の間隔は必要であ
る。
【0075】このような指示表示を行うことにより、指
示表示と重なった部分(仮想空間、現実空間を問わず)
も指示表示に隠されることがない上、距離感や指示方向
が認識しやすくなる。すなわち、図12(a)〜(c)
に示すように、指示を行うプレーヤからは図12(a)
の様に見え、空間のどの一点を指しているかがわかりや
すい。また、逆に指示をしているプレーヤの正面近傍に
いる他のプレーヤからは図12(b)の様に見えるた
め、手前に向かって指示がなされていることが認識でき
る。さらに、真正面からは図12(c)の様に見えるた
め、たとえば指示表示によって対戦するプレーヤに照準
を定めるようなゲームアプリケーションにおいては、ね
らわれたプレーヤがそれを認識することが可能となる。
【0076】指示表示は空間中の一点を指すだけでな
く、物体の存在をより明確にするためにも用いることが
できる。図13は、指示表示の線を物体11(仮想物体
でも実空間に配置された物体でもよい)に接する位置ま
でのみ表示することにより、そこに物体があることがよ
り明確にプレーヤに認識される。
【0077】また、図14に示すように、所定の間隔で
指示表示の線に目盛り121、122を加えれば、より
明確に距離を把握することができる。この場合、目盛り
の間隔は等間隔である必要はなく、対数目盛などであっ
てもよい。
【0078】
【他の実施形態】上述の実施形態においては、プレーヤ
に対する物理的なフィードバックを与える手段を有して
いないが、例えばHMDを固定するためのバンドや、対
話操作入力装置に振動子などの物理的な刺激を与えるデ
バイスを内蔵させ、ゲームの状況に応じてプレーヤにフ
ィードバックを与えることも可能である。たとえば、敵
の攻撃を防御した場合やプレーヤの近傍で敵が撃破され
た場合に、衝撃としての振動をプレーヤに与えることに
より、よりリアルな演出効果を与えることができる。
【0079】また、制御部は全てのデータを全プレーヤ
処理部に配信しても、そのプレーヤ処理部に必要なデー
タのみを配信するようにしてもよい。全てのデータを配
信する場合には、プレーヤ処理部において必要なものの
みを選択して使用する。
【0080】また、実施形態の構成においてはビデオカ
メラ103の出力が画像入力部104にのみ入力されて
いるが、頭部位置姿勢センサ1011の情報補正用とし
て頭部位置姿勢計測部101へも供給することができ
る。この場合、テーブルや障害物として配置された現実
空間物体など、絶対座標が変化しない物体に、画像処理
により検出しやすい色でマーキングしておくと、補正が
容易である。
【0081】また、指示表示に用いる平行線の数は3つ
に限定されず、任意の数から選択することができる。但
し、遠近感を認識しやすくするため、3本以上の線を用
いることが好ましい。一方、線の数を多くしすぎると指
示表示と重なった部分が見づらくなったり、プレーヤの
数が多くなると煩雑さが増すので、空間の大きさやプレ
ーヤの人数によって適宜定めればよい。
【0082】また、上述の実施形態においては、トリガ
1022を使用せず、対話操作入力装置の動きを検出し
てコマンドを入力したが、プレーヤがトリガ1022を
用いて各種コマンドを入力するようにしても、動作検出
とトリガのオン・オフとを組み合わせても良い。さら
に、対話操作入力装置に、プレーヤの動作に応じてオン
・オフするようなスイッチを組み込んでトリガとして用
いることもできる。
【0083】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることは言うまでもない。この場合、記憶媒体から読
み出されたプログラムコード自体が前述した実施形態の
機能を実現することになり、そのプログラムコードを記
憶した記憶媒体は本発明を構成することになる。また、
コンピュータが読み出したプログラムコードを実行する
ことにより、前述した実施形態の機能が実現されるだけ
でなく、そのプログラムコードの指示に基づき、コンピ
ュータ上で稼働しているオペレーティングシステム(OS)
などが実際の処理の一部または全部を行い、その処理に
よって前述した実施形態の機能が実現される場合も含ま
れることは言うまでもない。
【0084】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
【0085】
【発明の効果】以上説明したように、本発明によれば、
各プレーヤの複数の部位の位置・姿勢情報とプレーヤモ
デルを用いて、各プレーヤに提示する他のプレーヤの画
像に重畳する仮想画像を生成することにより、高精度か
つ柔軟に仮想画像を生成することが可能となる。
【0086】
【0087】
【図面の簡単な説明】
【図1】本発明による複合現実感装置の構成例を示すブ
ロック図である。
【図2】プレーヤが装着する装置の種類と装着部位を説
明する図である。
【図3】本発明の実施形態におけるゲームを説明する図
である。
【図4】コマンド入力による射撃表示処理を説明するフ
ローチャートである。
【図5】プレーヤの全身に仮想物体を重畳した場合の例
を示す図である。
【図6】対話操作入力装置によるコマンド入力により表
示画像を変化させる場合の例を説明する図である。
【図7】プレーヤの選択に応じて表示画像を変化させる
場合の例を示す図である。
【図8】他プレーヤの視線方向に応じて表示画像を変化
させる場合の例を示す図である。
【図9】図8の表示変化を実現する際の条件の例を説明
する図である。
【図10】図9に示す条件に従った表示処理を示すフロ
ーチャートである。
【図11】本発明における指示表示方法を説明する図で
ある。
【図12】本発明における指示表示方法を用いた際の、
表示開始点に応じた見え方の変化を説明する図である。
【図13】本発明における指示表示方法を用いて物体の
存在をより明確に認識させる例を示す図である。
【図14】本発明における指示表示方法の別の例を示す
図である。
【図15】従来の複合現実感を利用したホッケーゲーム
を説明する図である。
【図16】従来の複合現実感を利用したホッケーゲーム
を説明する図である。
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 17/00 - 17/50 A63F 13/00 - 13/12 H04N 5/262

Claims (8)

    (57)【特許請求の範囲】
  1. 【請求項1】 第1のプレーヤのカメラで撮影された撮
    影画像を入力する撮影画像入力手段と、 前記第1のプレーヤの複数の部位の位置・姿勢を示す第
    1の位置・姿勢情報を取得する第1の取得手段と、 第2のプレーヤの複数の部位の位置・姿勢を示す第2の
    位置・姿勢情報を取得する第2の取得手段と、 前記第1および前記第2の位置・姿勢情報とプレーヤモ
    デルを用いて、前記撮影画像における前記第2のプレー
    ヤの画像に重畳する仮想画像を生成する画像生成手段
    と、 前記仮想画像と前記撮影画像とを合成し、前記第1のプ
    レーヤに提示する複合現実感を示す画像を生成する画像
    合成手段とを有することを特徴とする複合現実感装置。
  2. 【請求項2】 前記複数の部位には、前記第1及び前記
    第2のプレーヤが複合現実感を体感するための表示装置
    を装着する頭部が含まれていることを特徴とする請求項
    1記載の複合現実感装置。
  3. 【請求項3】 前記第2の取得手段は、さらに、コマン
    ド情報を取得し、 前記画像生成手段は、前記コマンド情報に応じて前記仮
    想画像を変化させることを特徴とする請求項1記載の複
    合現実感装置。
  4. 【請求項4】 前記プレーヤモデルは、プレーヤを単純
    な形状で近似したモデルであることを特徴とする請求項
    1記載の複合現実感装置。
  5. 【請求項5】 前記第1のプレーヤと前記第2のプレー
    ヤの相互の位置情報と視線方向との関係に応じて、前記
    仮想画像を変化させることを特徴とする請求項1記載の
    複合現実感装置。
  6. 【請求項6】 第1のプレーヤのカメラで撮影された撮
    影画像を入力する撮影画像入力ステップと、 前記第1のプレーヤの複数の部位の位置・姿勢を示す第
    1の位置・姿勢情報を取得する第1の取得ステップと、 第2のプレーヤの複数の部位の位置・姿勢を示す第2の
    位置・姿勢情報を取得 する第2の取得ステップと、 前記第1および前記第2の位置・姿勢情報とプレーヤモ
    デルを用いて、前記撮影画像における前記第2のプレー
    ヤの画像に重畳する仮想画像を生成する画像生成ステッ
    プと、 前記仮想画像と前記撮影画像とを合成し、前記第1のプ
    レーヤに提示する複合現実感を示す画像を生成する画像
    合成ステップとを有することを特徴とする複合現実感提
    示方法。
  7. 【請求項7】 前記第1のプレーヤと前記第2のプレー
    ヤの相互の位置情報と視線方向との関係に応じて、前記
    仮想画像を変化させることを特徴とする請求項6記載の
    複合現実感提示方法。
  8. 【請求項8】 請求項6記載の複合現実感呈示方法をコ
    ンピュータ装置に実行させるコンピュータプログラムを
    格納したコンピュータ読み取り可能な記憶媒体。
JP16471899A 1999-06-11 1999-06-11 複合現実感装置及び複合現実感提示方法 Expired - Fee Related JP3413127B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP16471899A JP3413127B2 (ja) 1999-06-11 1999-06-11 複合現実感装置及び複合現実感提示方法
US09/510,232 US6972734B1 (en) 1999-06-11 2000-02-22 Mixed reality apparatus and mixed reality presentation method
EP00103876A EP1060772B1 (en) 1999-06-11 2000-02-24 Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof
AT00103876T ATE543546T1 (de) 1999-06-11 2000-02-24 Vorrichtung und verfahren zur darstellung eines von mehreren benutzern geteilten raumes, wo wirklichkeit zum teil einbezogen wird, entsprechende spielvorrichtung und entsprechendes schnittstellenverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16471899A JP3413127B2 (ja) 1999-06-11 1999-06-11 複合現実感装置及び複合現実感提示方法

Publications (2)

Publication Number Publication Date
JP2000353248A JP2000353248A (ja) 2000-12-19
JP3413127B2 true JP3413127B2 (ja) 2003-06-03

Family

ID=15798582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16471899A Expired - Fee Related JP3413127B2 (ja) 1999-06-11 1999-06-11 複合現実感装置及び複合現実感提示方法

Country Status (1)

Country Link
JP (1) JP3413127B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9557955B2 (en) 2014-05-21 2017-01-31 International Business Machines Corporation Sharing of target objects
US9948729B1 (en) 2016-10-15 2018-04-17 International Business Machines Corporation Browsing session transfer using QR codes
US10178150B2 (en) 2015-08-07 2019-01-08 International Business Machines Corporation Eye contact-based information transfer

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002073955A1 (en) * 2001-03-13 2002-09-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, studio apparatus, storage medium, and program
WO2003000367A1 (en) * 2001-06-19 2003-01-03 Faeger Jan G A device and a method for creating an environment for a creature
US7084888B2 (en) 2001-08-09 2006-08-01 Konami Corporation Orientation detection marker, orientation detection device and video game device
JP3470119B2 (ja) * 2002-02-14 2003-11-25 コナミ株式会社 コントローラ、コントローラの姿勢遠隔測定装置及びビデオゲーム装置
JP3584229B2 (ja) * 2001-09-28 2004-11-04 キヤノン株式会社 映像体験システムおよび情報処理方法
US20030210259A1 (en) * 2001-11-14 2003-11-13 Liu Alan V. Multi-tactile display haptic interface device
JP2003305276A (ja) * 2002-02-18 2003-10-28 Space Tag Inc ゲームシステム、ゲーム装置、および記録媒体
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
JP3913076B2 (ja) * 2002-02-20 2007-05-09 キヤノン株式会社 画像合成処理装置
JP2004038470A (ja) * 2002-07-02 2004-02-05 Canon Inc 複合現実感装置および情報処理方法
JP4262011B2 (ja) 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
JP2005108108A (ja) 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
US7532230B2 (en) * 2004-01-29 2009-05-12 Hewlett-Packard Development Company, L.P. Method and system for communicating gaze in an immersive virtual environment
JP2005339377A (ja) 2004-05-28 2005-12-08 Canon Inc 画像処理方法、画像処理装置
WO2006025137A1 (ja) * 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. 画像処理装置、ゲーム装置および画像処理方法
EP1686554A3 (en) 2005-01-31 2008-06-18 Canon Kabushiki Kaisha Virtual space generating system, image processing apparatus and information processing method
JP4677269B2 (ja) * 2005-04-08 2011-04-27 キヤノン株式会社 情報処理方法およびシステム
JP4726194B2 (ja) 2005-04-01 2011-07-20 キヤノン株式会社 キャリブレーション方法及び装置
JP4689344B2 (ja) * 2005-05-11 2011-05-25 キヤノン株式会社 情報処理方法、情報処理装置
US9648907B2 (en) 2005-05-31 2017-05-16 Philip Morris Usa Inc. Virtual reality smoking system
JP4757115B2 (ja) 2006-06-28 2011-08-24 キヤノン株式会社 画像処理装置、画像処理方法
JP4950834B2 (ja) 2007-10-19 2012-06-13 キヤノン株式会社 画像処理装置、画像処理方法
JP4933406B2 (ja) 2007-11-15 2012-05-16 キヤノン株式会社 画像処理装置、画像処理方法
JP2009211251A (ja) * 2008-03-03 2009-09-17 Dainippon Printing Co Ltd 拡張現実感表示装置
JP2010217719A (ja) * 2009-03-18 2010-09-30 Ricoh Co Ltd 装着型表示装置、その制御方法及びプログラム
JP4816789B2 (ja) 2009-11-16 2011-11-16 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
JP5423406B2 (ja) * 2010-01-08 2014-02-19 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法
CN107656615B (zh) 2011-05-06 2021-09-14 奇跃公司 大量同时远程数字呈现世界
JP5521134B2 (ja) * 2011-08-12 2014-06-11 新日鉄住金ソリューションズ株式会社 情報処理システム、情報処理方法及びプログラム
JP2013178639A (ja) * 2012-02-28 2013-09-09 Seiko Epson Corp 頭部装着型表示装置および画像表示システム
JP5891125B2 (ja) * 2012-06-29 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
JP5891131B2 (ja) 2012-07-11 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP6309779B2 (ja) * 2014-02-12 2018-04-11 株式会社バンダイナムコエンターテインメント プログラム、ゲーム装置およびゲームシステム
JP2017027477A (ja) * 2015-07-24 2017-02-02 株式会社オプティム 3次元出力サーバ、3次元出力方法及び3次元出力サーバ用プログラム。
JP6735077B2 (ja) * 2015-09-25 2020-08-05 株式会社コロプラ システム、方法及びプログラム
JP2017086542A (ja) * 2015-11-11 2017-05-25 株式会社コロプラ 画像変更システム、方法、及びプログラム
JP6362631B2 (ja) * 2016-01-15 2018-07-25 株式会社meleap 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ
JP6216398B2 (ja) * 2016-02-22 2017-10-18 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP6161749B2 (ja) * 2016-02-22 2017-07-12 株式会社ソニー・インタラクティブエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
JP6668811B2 (ja) 2016-02-23 2020-03-18 セイコーエプソン株式会社 訓練装置、訓練方法、プログラム
JP6739254B2 (ja) * 2016-07-01 2020-08-12 株式会社コーエーテクモゲームス プログラム、情報処理装置、情報処理方法、及びサーバ装置
JP2018064836A (ja) * 2016-10-20 2018-04-26 株式会社Bbq バーチャルゲーム装置
JP6410378B1 (ja) * 2017-06-30 2018-10-24 Mxモバイリング株式会社 Vrを用いた消火体験シミュレーションシステム、体験用消火器、及びプログラム
JP6811323B2 (ja) * 2017-07-04 2021-01-13 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、プレイヤ側装置、制御方法、及びプログラム
TWI663546B (zh) * 2017-10-02 2019-06-21 宏碁股份有限公司 可支援虛擬實境應用程式的混合實境系統及其顯示方法
US11284646B2 (en) 2018-03-22 2022-03-29 Altria Client Services Llc Augmented reality and/or virtual reality based e-vaping device vapor simulation systems and methods
JP7138483B2 (ja) * 2018-05-31 2022-09-16 株式会社コロプラ コンピュータプログラム、情報処理装置および情報処理方法
CN110072046B (zh) * 2018-08-24 2020-07-31 北京微播视界科技有限公司 图像合成方法和装置
CN111318008A (zh) * 2018-12-14 2020-06-23 宏碁股份有限公司 应用于虚拟现实的操作平台
JP6928802B2 (ja) * 2019-09-26 2021-09-01 東芝プラントシステム株式会社 危険体感用のヘルメット及び危険体感方法
KR102212511B1 (ko) * 2019-10-23 2021-02-04 (주)스코넥엔터테인먼트 가상 현실 제어 시스템
CN113713392B (zh) * 2021-08-27 2023-07-14 腾讯科技(深圳)有限公司 虚拟角色的控制方法和装置、存储介质及电子设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9557955B2 (en) 2014-05-21 2017-01-31 International Business Machines Corporation Sharing of target objects
US10178150B2 (en) 2015-08-07 2019-01-08 International Business Machines Corporation Eye contact-based information transfer
US9948729B1 (en) 2016-10-15 2018-04-17 International Business Machines Corporation Browsing session transfer using QR codes

Also Published As

Publication number Publication date
JP2000353248A (ja) 2000-12-19

Similar Documents

Publication Publication Date Title
JP3413127B2 (ja) 複合現実感装置及び複合現実感提示方法
US6972734B1 (en) Mixed reality apparatus and mixed reality presentation method
US9779633B2 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
CN109568944B (zh) 游戏处理方法、游戏处理装置、游戏处理系统及记录介质
US6951515B2 (en) Game apparatus for mixed reality space, image processing method thereof, and program storage medium
EP1060772B1 (en) Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof
US9599821B2 (en) Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
US8834245B2 (en) System and method for lock on target tracking with free targeting capability
CN100542645C (zh) 图像生成装置和图像显示方法
US11517821B2 (en) Virtual reality control system
US20060223635A1 (en) method and apparatus for an on-screen/off-screen first person gaming experience
JP2019122496A (ja) シミュレーションシステム及びプログラム
JP3413128B2 (ja) 複合現実感提示方法
JP2000033184A (ja) 全身動作入力型のゲ―ム及びイベント装置
JP2000350860A (ja) 複合現実感装置及び複合現実空間画像の生成方法
JP2000350859A (ja) マーカ配置方法及び複合現実感装置
JP2008272123A (ja) プログラム、情報記憶媒体及びゲーム装置
JP7071823B2 (ja) シミュレーションシステム及びプログラム
CN110448907B (zh) 虚拟环境中虚拟元素的显示方法、装置及可读存储介质
JP5433318B2 (ja) ビデオゲーム装置
KR20190014422A (ko) 모션 인식 기반의 일인칭 슈팅 시뮬레이션 게임에서 화면 고정모드를 처리할 수 있는 게임 시스템 및 그 처리방법
JP2018097517A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP7213013B2 (ja) プログラム、コンピュータシステム及びゲーム実行制御方法
Tedjokusumo et al. Immersive multiplayer games with tangible and physical interaction
JP7064265B2 (ja) 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090328

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100328

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100328

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120328

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140328

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees