JP2004030666A - 仮想空間表示方法 - Google Patents

仮想空間表示方法 Download PDF

Info

Publication number
JP2004030666A
JP2004030666A JP2003177663A JP2003177663A JP2004030666A JP 2004030666 A JP2004030666 A JP 2004030666A JP 2003177663 A JP2003177663 A JP 2003177663A JP 2003177663 A JP2003177663 A JP 2003177663A JP 2004030666 A JP2004030666 A JP 2004030666A
Authority
JP
Japan
Prior art keywords
human body
display
movement
screen
walking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003177663A
Other languages
English (en)
Other versions
JP3830922B2 (ja
Inventor
Naoko Umeki
梅木 直子
Miwako Doi
土井 美和子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003177663A priority Critical patent/JP3830922B2/ja
Publication of JP2004030666A publication Critical patent/JP2004030666A/ja
Application granted granted Critical
Publication of JP3830922B2 publication Critical patent/JP3830922B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】従来のウォークスルーでは、移動方向と視点方向が一致しているため、周囲のものを見ながら歩くということができなかった。
【解決手段】移動する人体の表示により空間の大きさの把握が容易になる。また、歩いて移動する人体の視点を参照して画面表示位置を決定するため、画面がわずかに揺れて、歩行による移動の臨場感が高まる。その結果、特別なデバイスを用いないで、実際の空間に近い移動距離感覚を与えることができる低コストなシステムを実現できる。さらに、注視物体を設定し、それを常に表示することにより、仮想空間中の何かを見ながら歩いて移動することが可能になり、より実際の空間における動作に近い、自然な表示を実現できる。
【選択図】   図1

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータグラフィックスにより生成される3次元仮想空間内の移動における仮想空間表示方法に関する。
【0002】
【従来の技術】
従来、コンピュータグラフィックスにより生成される3次元仮想空間内の移動は、指示した目的物まであるいは指示方向に向かって、直線補間によるに滑らかな移動が行われていた。
【0003】
また、その表示はユーザの視野に相当する視点位置の画面が表示されていた(図17)。さらに、移動中は移動方向と視野の方向は一致している、あるいは視線方向はそのままで左右に平行移動するといった画面表示が行われていた。しかし、直線的で滑らかな移動では、歩行による移動の臨場感が乏しい。また、ユーザの視野としての表示では、見慣れない空間、あまり物の無い空間においては、空間の大きさを認知することが非常に難しい。従って、目標物までの移動距離を把握することが困難であるという問題があった。
【0004】
また、移動方向と視野の方向を一致させる、あるいは左右の平行移動といった方法では、ユーザは何かを注視しながら移動することができないという問題があった。
一方、岩田洋夫他:“ウォークスルー・シミュレータにおける動歩行の現実と解析”,ヒューマン・インタフェースN&R 、 Vol.8, No.2, pp.199−204 (1993) や、廣瀬通孝他:“移動距離感覚の合成に関する研究”,ヒューマン・インタフェースN&R 、Vol.8,No.2, pp.277−282 (1995) にあるように、特別な装置を用いて歩行運動を入力し、移動距離感覚を与える方法が取られてきた。
【0005】
しかし、そのような特別な装置を用いることは、空間的にも、価格的にもコストが高くなるという問題があった。
さらに、歩行する人物を常に表示する方法では、描画速度が遅くなるという問題があった。
また、最近ではwebspace  のようなWorld Wide Webのための3D Viewer があり、各サイトがVRML(Virtual Reality Modeling Language) によって構築した3 次元空間を、ウォークスルーすることが出来る。しかし、そのウォークスルーのためのインタフェースは、ハンドル等のコントロール用オブジェクトを操作するといったものであり、空間の中をユーザが歩いて回っているという感覚とは程遠いものであった(図18)。
【0006】
【発明が解決しようとする課題】
本発明は、この様な問題に対して考案されたものである。コンピュータグラフィックスにより生成された3次元仮想空間内を単に移動するだけでは、充分な距離感が生成されないという問題があった。
【0007】
従来のウォークスルーでは、移動方向と視点方向が一致しているため、周囲のものを見ながら歩くということができなかった。描画を高速化し、実際の空間に近い移動感覚を与えることのできる低コストなシステムの実現を目的としている。
【0008】
【課題を解決するための手段】
上記の課題を解決するために、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、あらかじめ記憶された物体の部品の位置をもとに、移動すべき物体の重心の位置の変化を求め、求めた前記物体重心の位置の変化をもとに、移動すべき前記物体の揺れを生成し、生成した前記物体の揺れをもとに、移動すべき前記物体を表示することを特徴とする。
【0009】
また、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、移動すべき物体の注目すべき物体を設定し、設定した前記注目すべき物体の位置と前記移動すべき物体の位置をもとに、設定した第1の注目すべき物体から第2の注目すべき物体に移動すべき物体の視点を移動し、移動した前記物体の視点に応じて、移動すべき物体を表示することを特徴とする。
【0010】
さらに、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、移動すべき物体の3次元空間内の向きおよび移動方向を設定し、設定した前記物体の向きをもとに、前記移動すべき物体の回転角度を求め、求めた前記回転角度と設定した前記移動方向をもとに、前記移動すべき物体を表示することを特徴とする。
【0011】
その結果、本発明の仮想空間表示方式は、移動する人体の表示により空間の大きさの把握が容易になる。また、歩いて移動する人体の視点を参照して画面表示位置を決定するため、画面がわずかに揺れて、歩行による移動の臨場感が高まる。その結果、特別なデバイスを用いないで、実際の空間に近い移動距離感覚を与えることができる低コストなシステムを実現できる。
【0012】
さらに、注視物体を設定し、それを常に表示することにより、仮想空間中の何かを見ながら歩いて移動することが可能になり、より実際の空間における動作に近い、自然な表示を実現できる。
【0013】
【発明の実施の形態】
以下、本発明の実施例を図面に基づいて詳細に説明する。
(第1実施例の構成)
図1は、本発明の第1実施例の全体構成図である。
図1は、本発明の第1実施例が、入力部10,形状記憶部11,位置記憶部12,キーフレーム記憶部13,揺れ算出部14,画面表示位置設定部15,表示制御部16,ディスプレイ17とから構成されることを示す。
【0014】
本発明の第1実施例を構成する各部を簡単に説明する。入力部10は、ユーザが移動の開始、終了命令を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。
【0015】
しかし、その他の入力デバイス(ジョイスティック、データグローブ、キーボード)を使った方法でも本発明を実施することができる。形状記憶部11は、各物体の形状に関するデータを格納している部分である。
【0016】
図2は形状記憶部11における物体の形状に関するデータの記憶例である。各物体ごとの名称と、id番号、中心座標と、3次元形状に外接する直方体(バウンディング・ボックス)の6つの頂点座標、および実際の3次元形状データが格納されている場所を示すポインタが記憶されている。位置記憶部12は、各物体の位置に関するデータを格納している部分である。
【0017】
図3は、位置記憶部12における物体の位置に関するデータの記憶例である。3次元空間における物体のid番号と、形状データのID番号と、位置座標値と回転角の情報が格納されている。キーフレーム記憶部13は、歩行における人体の各部位の角度のデータを格納している部分である。
【0018】
図4は、キーフレーム記憶部13におけるキーフレームデータの記憶例である。歩く、座るといった動作の種類と、1回の動作の開始から終了までのサンプルデータセット数と、個々のデータセットが格納されている。揺れ算出部14は、入力部10からの入力を受けて、人体が移動する際の位置を算出し、重心の移動により生ずる身体の揺れを模擬するための、視点位置を算出する部分である。画面表示位置設定部15は、揺れ算出部14により算出された人体の視点位置を参照し、画面の表示位置を設定する部分である。表示制御部16は、画面表示位置設定部15により設定された表示位置で、3次元仮想環境の画像と人体を生成し、ディスプレイ17に表示する。
【0019】
図5は、表示画面例である。ディスプレイは、CRT以外にもヘッドマウントディスプレイや大型スクリーンなどほかのデバイスを利用することが可能である。
(第1実施例の作用)
上記のような構成を有する第1実施例は、次のような作用を有する(図8、図6、図1)。
すなわち構成図2の入力部10で、ユーザは移動の命令を入力する(20)。入力を受け、目的地点方向にそって人体を歩行させるために、現在の基準点、目的地点と予め設定された一歩幅に基づき、次の人体の基準点、目的地点を設定する(21,図1−14)。
【0020】
図7は基準点設定の例を示す流れ図である。例えば、予め設定された、歩行動作のキーフレームデータ(図1−13、図4)を元に設定する。歩行の時の重心が右足にある時には、キーフレームデータに設定された右足の各部位の角度データから、基準位置である腰の位置を算出する。キーフレームデータは人間の動きを一定時間隔でサンプリングしたものである。
【0021】
従って、その人体の基準となる点を座標を時間軸上に並べると、緩やかな波形を描く。この過程で設定される基準点、目的地点は、図8におけるPとAである。
次に、人体の視点は、この基準点からD(mm)高い位置として算出する。(22,図1−14)。また、人体の参照点は前記の目的地点からD(mm)高い地点として算出する。この過程で設定される人体の視点、参照点は、図8におけるEとR、視点と中心点の差はDである。
【0022】
次に、揺れ算出22の結果の人体の視点を参照し、人体の視点よりも、予め設定されたB(mm)後ろで、H(mm)高い位置に、画面の表示位置を設定する(23,図1−15)。
【0023】
画面の参照点は、人体の参照点の値を設定する。例えば、B=2000(mm),H=300(mm)であれば、人物の2(m) 後ろで、人物の目の高さより30(cm)高い位置から、人物を追いかけるような画面表示位置になる(図5)。
【0024】
また、B=0(mm),H=0(mm)であれば、画面は人物の視点と一致する。この過程で設定される画面の表示位置、画面の参照点は、図8におけるVとR、視点と表示位置の距離はB、高さの差はHである。このように設定された画面の表示位置からの仮想空間と人体の画像を表示する(24,図1−16, 17)。入力部10で停止の命令が来ないかぎり繰り返す。
【0025】
表示に関しては、1:人間モデルを揺らす、2:表示画面を揺らす、3:人間モデルおよび表示画面を揺らすことが考えられる。本願発明においてどのケースに関しても、臨場感ある表示画面を生成することができるが、3次元空間内に人間モデルを表示する場合は、人間モデルを揺らすことで、外部から観察する際には見やすい画像が作れ、人間モデルを表示せずに人間モデルの視点を表示する場合は、表示画面を揺らすことで、より臨場感のある画面が表示できる。
【0026】
(第1実施例の効果)
上記のような方法によれば、表示画面の微小な揺れを表現でき、ユーザは歩行による移動の臨場感を得ることができる。また、人体の背後に画面の表示位置を取ることにより、人体が表示され、仮想空間の大きさを把握しやすくなる。これらの結果、ユーザの仮想空間中の移動距離感を、実際の空間における移動距離感に近付けることができる。
【0027】
(変形例)
1;前記の実施例では、歩行する人体の描画を行っていたが、これを省略し、人体の描画を行わないことも出来る。それにより、描画速度を高速に保つことができ、かつ歩行による臨場感を高めることができる。
【0028】
2;また、上半身のみなど簡略化した人物像を描画することもできる。これにより、描画速度を高速に保ちつつ、ユーザの仮想空間の大きさ把握も助けることができる。
【0029】
3;本発明の構成を図9のように変形し、位置算出部43と揺れ算出部44をわけ、位置算出部43で移動方向、位置を設定し、揺れ算出部44で表示画面の揺れを算出することもできる。揺れの算出は、波形の関数によって模擬することもできる。
【0030】
例えば、y=a・cos(2π・t/T)+h,(a:振幅幅 t:時間 T:一歩にかかる時間)といった式で、上下の揺れを模擬することが出来る。
4;構成図2のキーフレーム記憶部13は、複数のサンプルデータを用意しておけば、様々な歩き方、身長に対応した表示ができる。
(第2実施例の構成)
図10は、本発明の第2実施例の全体構成図である。図10は、本発明の第2実施例が、入力部100、形状記憶部101、位置記憶部102、位置算出部103、注視物体記憶部104、注視物体選択部105、注視物体表示設定部106、画面表示位置設定部107、表示制御部108、ディスプレイ109とから構成されることを示す。
【0031】
本発明の第2実施例を構成する各部を簡単に説明する。入力部100は、ユーザが移動方向および移動の開始、終了命令を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。形状記憶部101は、各物体の形状に関するデータを格納している部分である。
【0032】
位置記憶部102は、各物体の位置に関するデータを格納している部分である。位置算出部103は、入力部10からの入力を受けて仮想空間における現在位置を算出する部分である。注視物体記憶部104は、位置記憶部102にある物体のうち、ユーザが注視することが出来る物体をリストアップしたデータであり、位置に関するデータのID番号が格納されている。
【0033】
注視物体選択部105は、注視物体記憶部104の中で、現在地点から最も近い物体で、かつ進行方向とその物体の位置関係が設定範囲を越えないかをチェックして、選択する部分である。注視物体表示設定部106は、注視物体選択部105で選択された物体の位置データを位置記憶部102から得て、表示画面の参照点として設定する部分である。画面表示位置設定部107は、位置算出部103により設定された現在位置を参照し、画面の表示位置を設定する部分である。表示制御部108は、画面表示位置設定部107により設定された表示位置で、3次元仮想環境の画像を生成し、ディスプレイ109に表示する。
【0034】
(第2実施例の作用)
上記のような構成を有する第2実施例は、次のような作用を有する(図11、図10)。
すなわち構成図である図10の入力部100でユーザは移動の命令を入力する(120)。入力部100の入力を受けて、現在位置の3次元座標を算出する(121,図10−103)。
【0035】
図12は、現在位置の算出過程をあらわした流れ図である。次に、図10の注視物体記憶部104の中から、現在の位置から最も近い物体を選択する(123,図10−105)。
【0036】
そして、選択した物体と進行方向との角度θが、予め設定された範囲αを越えていないかをチェックする(125,図10−105)。θ<αならば、その物体を注視物体として選択し、その座標を表示画面の参照点として設定する(126,図10−注視物体表示設定部106)。
【0037】
θ>αならば、121における結果から、127を行う。図13は、注視物体の選択の過程を図示したものである。t0の時点では、物体1,2,3までの距離がd1t0<d2t0<d3t0であり、かつ物体1は進行方向に対しての角度θ1t0 が設定された範囲αより小さいので、物体1が選択される。
【0038】
一方、t1の時点では、d2t1<d1t1<d3t1、角度はθ2t1 <αであるので、物体2が選択される。次に、画面参照点設定126と121の結果から、画面の表示位置を設定する(127、図10−107)。
【0039】
このように設定された表示位置からの画像を表示する(128、図10−108、109)。入力部100で停止の命令が来ないかぎり繰り返す。
(第2実施例の効果)
上記のような方法によれば、ユーザは任意の物体を注視しながら移動することが可能になる。したがって、より実際の空間における移動感覚に近付けることができる。
【0040】
(変形例)
上記の第2実施例では、注視物体記憶部104(図10)を使用し、注視物体を選択しているが、これを使用せず、表示画面中で最も大きく描画されている物体を選択し、その物体を注視物体として設定することもできる。例えば、視野中にある物体の現在位置からの距離算出を行う。また、その物体のバウンディング・ボックス・データ(図2)から、どの物体の大きさを求める。
【0041】
そして、距離と大きさとの比をとり、その比がもっとも大きいものを注視物体とする。このような方法によれば、ユーザは予め注視物体のリストアップデータを作成することなく、任意の物体を注視しながら移動することが可能になる。したがって、データ入力の作業時間が短縮でき、実際の空間における移動感覚に近いウォークスルーが可能となる。
【0042】
また、本願発明の第1実施例と第2実施例を組み合わせた構成を有することにより、人間モデルの動きによる揺れと人間モデルの視点の移動を忠実に再現することができる。
【0043】
(第3実施例の構成)
図14は、本発明の第3実施例の全体構成図である。図14は、本発明の第3実施例が、入力部50、空間構成記憶部51、人体形状記憶部52、人体位置算出部53、頭部回転角算出部54、画面表示位置設定部55、表示制御部56、ディスプレイ57とから構成されることを示す。
【0044】
本発明の第3実施例を構成する各部を簡単に説明する。
入力部50は、ユーザが視点の移動を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。
空間構成記憶部51は、仮想空間を構成する各物体の形状および位置に関するデータを格納している部分である。人体形状記憶部52は、人体の形状データを格納している部分である。
【0045】
人体位置算出部53は、人体形状記憶部52のデータと入力部50の視点の移動の入力とから、人体の位置を算出し設定する部分である。頭部回転角算出部54は、人体形状記憶部52のデータと入力部50の視点の移動の入力とから、人体の頭部の回転角度を設定する部分である。
【0046】
画面表示位置設定部55は、入力部50から入力された視点変更の入力値を参照し、画面の表示位置を設定する部分である。表示制御部56は、画面表示位置設定部55により設定された表示位置で、空間構成記憶部51と人体形状記憶部52と画面表示位置設定部55を参照して3次元仮想環境の画像と人体を生成し、ディスプレイ57に表示する。ディスプレイは、CRT以外にも大型スクリーンなどほかのデバイスを利用することが可能である。図16は、表示画面例である。
【0047】
(第3実施例の作用)
上記のような構成を有する第3実施例は、次のような作用を有する(図14,図15)。図15はマウスのボタンを押すことにより移動開始命令を、またマウスのx軸方向の移動によって左右の回転を行う場合の流れ図である。構成図である図14の入力部50で、ユーザは移動命令と視線方向の入力を行なう。例えば、マウスのボタンを押す事によって移動開始命令を入力し(150)、画面中心を(x,y)=(0,0)として、マウスのx,y座標値を視線方向の変更値とする(153)。
【0048】
移動開始命令が入力された時、人体の向き(vec)を算出し確保する(151)。移動開始命令が来ないかぎり、人体の向き(vec)は変わらない。
次に人体の位置(pos) を画面の視点位置より予め設定した値分だけ人体の向いている方向(vec) でかつ下に設定する(152)。
また、入力されたx,y座標値から、目的方向への人体頭部の回転角度を算出する(図14−54,図15−154)。図15の154では、回転角度(yow)の最大、最小値を予め設定しておき、その範囲でマウスのx軸方向の動きに対応したyow を設定する。
【0049】
次に、図14の55で、画面の表示位置を設定する。図15の155では、人体方向算出部151で設定した人体の向き(vec)の方向に、予め設定した移動量だけ更新して新たな視点(view)を設定する。また、頭部回転角度設定部154で設定した回転角度(yow)により、新たな参照点(ref)の算出を行なっている。
【0050】
このように設定された画面の表示位置と、人体の位置と向き、人体頭部の角度、および空間構成記憶部51、人体形状記憶部52のデータにより、仮想空間と人体の画像を表示する(図6−24,図1−16,17)。空間構成記憶部51は、例えばVRMLのようなオブジェト化されたデータベースである。
【0051】
(第3実施例の効果)
上記のような方法によれば、ユーザはVRMLのようなオブジェクト化されたデータベースによって構築された3次元空間を、ウォークスルーするような場合に、人体を表示することによって仮想の空間を歩いて回っている臨場感をえることが出来る。また、空間を見回す操作を人体の頭部をまわす動作に対応させたことによって、ユーザは操作結果を直観的に分かりやすくなる。また、カメラのパンにあたる視点の回転と、カメラの移動にあたる視点の移動とを、人体の頭部と胴体に別個に割り振っているので、操作が容易にできる。また、第1、第2、第3の実施例において、人体の表示を透明にすることにより、見易い画面表示を提供することができる。
【0052】
【発明の効果】
以上のように、本発明によれば、ユーザは仮想空間をウォークスルーする際に、人体大きさと背景により、空間の大きさの把握が容易になり、かつ歩いて移動している臨場感を持つことができる。そして、その結果、特別なデバイスを用いないで、実際の空間における移動距離感覚に近いものをえることができる低コストなシステムを実現できる。
このような仮想空間表示方式は、実際の空間を模して作成した仮想空間で、パトロール訓練や道案内を行うような場合に有効となる。
さらに、本発明によれば、ユーザは仮想空間中を任意の物体を注視しながらウォークスルーすることができ、より実際の空間での移動に近い臨場感を与えられる。このような仮想空間表示方式は、バーチャルモールをウィンドウショッピングして歩くような場合に有効となる。
【図面の簡単な説明】
【図1】本願発明の第1実施例の全体構成図である。
【図2】本願発明の物体の形状に関するデータの記憶形式の一例を示した図である。
【図3】本願発明の物体の位置に関するデータの記憶形式の一例を示した図である。
【図4】本願発明のキーフレームデータの記憶例を示した図である。
【図5】本願発明の人体を描画した表示画面を示した図である。
【図6】本願発明の第1実施例の全体の流れ図である。
【図7】本願発明の基準位置設定の流れ図である。
【図8】本願発明の歩行による揺れ算出の概念図である。
【図9】本願発明の第1実施例の変形例の全体構成図である。
【図10】本願発明の第2実施例の全体構成図である。
【図11】本願発明の第2実施例の全体の流れ図である。
【図12】本願発明の第2実施例の現在位置算出の流れ図である。
【図13】本願発明の注視物体選択の概念図である。
【図14】本願発明の第3実施例の全体構成図である。
【図15】本願発明の第3実施例の全体の流れ図である。
【図16】本願発明の第3実施例の人体を描画した表示画面を示した図である。
【図17】従来例の画面表示例を示した図である。
【図18】従来例の画面表示例を示した図である。
【符号の説明】
10,40,100  入力部
11,41,101  形状記憶部
12,42,102 位置記憶部
13 キーフレーム記憶部
14,44 揺れ算出部
15,45,107  画面表示位置設定部
16,46,108  表示制御部
17,47,109  ディスプレイ
43,103  位置算出部
104  注視物体記憶部
105  注視物体選択部
106  注視物体表示設定部

Claims (2)

  1. コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、移動すべき物体の注目すべき物体を設定し、設定した前記注目すべき物体の位置と前記移動すべき物体の位置をもとに、設定した第1の注目すべき物体から第2の注目すべき物体に移動すべき物体の視点を移動し、移動した前記物体の視点に応じて、移動すべき物体を表示することを特徴とする仮想空間表示方法。
  2. 前記移動すべき物体は人体モデルであることを特徴とする請求項1記載の仮想空間表示方法。
JP2003177663A 1995-09-28 2003-06-23 仮想空間表示方法及び仮想空間表示装置 Expired - Fee Related JP3830922B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003177663A JP3830922B2 (ja) 1995-09-28 2003-06-23 仮想空間表示方法及び仮想空間表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP25040395 1995-09-28
JP2003177663A JP3830922B2 (ja) 1995-09-28 2003-06-23 仮想空間表示方法及び仮想空間表示装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP8054301A Division JPH09153146A (ja) 1995-09-28 1996-03-12 仮想空間表示方法

Publications (2)

Publication Number Publication Date
JP2004030666A true JP2004030666A (ja) 2004-01-29
JP3830922B2 JP3830922B2 (ja) 2006-10-11

Family

ID=31189777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003177663A Expired - Fee Related JP3830922B2 (ja) 1995-09-28 2003-06-23 仮想空間表示方法及び仮想空間表示装置

Country Status (1)

Country Link
JP (1) JP3830922B2 (ja)

Also Published As

Publication number Publication date
JP3830922B2 (ja) 2006-10-11

Similar Documents

Publication Publication Date Title
JPH09153146A (ja) 仮想空間表示方法
US10928974B1 (en) System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface
US20230087230A1 (en) Virtual reality system and method
US10521028B2 (en) System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
JP4413203B2 (ja) 画像呈示装置
JP3862348B2 (ja) モーションキャプチャシステム
JPH1118025A (ja) 画像呈示装置
JPH09152954A (ja) 情報提示方法及び情報提示装置
Webel et al. Immersive experience of current and ancient reconstructed cultural attractions
US6384820B2 (en) Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization
Elvezio et al. Travel in large-scale head-worn VR: Pre-oriented teleportation with WIMs and previews
JP3830923B2 (ja) 仮想空間表示方法及び仮想空間表示装置
JP3830922B2 (ja) 仮想空間表示方法及び仮想空間表示装置
JP2004253009A (ja) 仮想空間表示装置
JP2000090285A (ja) 映像表示装置
Beimler et al. Smurvebox: A smart multi-user real-time virtual environment for generating character animations
JP3939444B2 (ja) 映像表示装置
Beimler et al. Immersive guided tours for virtual tourism through 3D city models
WO2024131405A1 (zh) 对象移动控制方法、装置、设备及介质
US20220032196A1 (en) Animation production system
GB2605302A (en) Virtual reality system and method
Bauer Virtual reality: A general overview
von Tenspolde et al. Painting with the Watching Window: Design and Implementation of
Blakney et al. Sounds in Space: 3D Audio Experiences through Tangible Navigation
GB2605298A (en) Virtual reality system and method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060712

LAPS Cancellation because of no payment of annual fees