JP3830922B2 - Virtual space display method and virtual space display device - Google Patents

Virtual space display method and virtual space display device Download PDF

Info

Publication number
JP3830922B2
JP3830922B2 JP2003177663A JP2003177663A JP3830922B2 JP 3830922 B2 JP3830922 B2 JP 3830922B2 JP 2003177663 A JP2003177663 A JP 2003177663A JP 2003177663 A JP2003177663 A JP 2003177663A JP 3830922 B2 JP3830922 B2 JP 3830922B2
Authority
JP
Japan
Prior art keywords
display
virtual space
gaze
unit
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003177663A
Other languages
Japanese (ja)
Other versions
JP2004030666A (en
Inventor
直子 梅木
美和子 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003177663A priority Critical patent/JP3830922B2/en
Publication of JP2004030666A publication Critical patent/JP2004030666A/en
Application granted granted Critical
Publication of JP3830922B2 publication Critical patent/JP3830922B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータグラフィックスにより生成される3次元仮想空間内の移動における仮想空間表示方法に関する。
【0002】
【従来の技術】
従来、コンピュータグラフィックスにより生成される3次元仮想空間内の移動は、指示した目的物まであるいは指示方向に向かって、直線補間によるに滑らかな移動が行われていた。
【0003】
また、その表示はユーザの視野に相当する視点位置の画面が表示されていた(図17)。さらに、移動中は移動方向と視野の方向は一致している、あるいは視線方向はそのままで左右に平行移動するといった画面表示が行われていた。しかし、直線的で滑らかな移動では、歩行による移動の臨場感が乏しい。また、ユーザの視野としての表示では、見慣れない空間、あまり物の無い空間においては、空間の大きさを認知することが非常に難しい。従って、目標物までの移動距離を把握することが困難であるという問題があった。
【0004】
また、移動方向と視野の方向を一致させる、あるいは左右の平行移動といった方法では、ユーザは何かを注視しながら移動することができないという問題があった。
一方、岩田洋夫他:“ウォークスルー・シミュレータにおける動歩行の現実と解析”,ヒューマン・インタフェースN&R 、 Vol.8, No.2, pp.199−204 (1993) や、廣瀬通孝他:“移動距離感覚の合成に関する研究”,ヒューマン・インタフェースN&R 、Vol.8,No.2, pp.277−282 (1995) にあるように、特別な装置を用いて歩行運動を入力し、移動距離感覚を与える方法が取られてきた。
【0005】
しかし、そのような特別な装置を用いることは、空間的にも、価格的にもコストが高くなるという問題があった。
さらに、歩行する人物を常に表示する方法では、描画速度が遅くなるという問題があった。
また、最近ではwebspace のようなWorld Wide Webのための3D Viewer があり、各サイトがVRML(Virtual Reality Modeling Language) によって構築した3 次元空間を、ウォークスルーすることが出来る。しかし、そのウォークスルーのためのインタフェースは、ハンドル等のコントロール用オブジェクトを操作するといったものであり、空間の中をユーザが歩いて回っているという感覚とは程遠いものであった(図18)。
【0006】
【発明が解決しようとする課題】
本発明は、この様な問題に対して考案されたものである。コンピュータグラフィックスにより生成された3次元仮想空間内を単に移動するだけでは、充分な距離感が生成されないという問題があった。
【0007】
従来のウォークスルーでは、移動方向と視点方向が一致しているため、周囲のものを見ながら歩くということができなかった。描画を高速化し、実際の空間に近い移動感覚を与えることのできる低コストなシステムの実現を目的としている。
【0008】
【課題を解決するための手段】
上記お課題を解決するために、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、前記移動物体の位置を位置算出部により算出し、前記移動物体の移動方向、及び注視することができる物体と前記移動物体の位置関係をもとに、前記3次元仮想空間内での注視することができる物体の位置を記憶した注視物体記憶部から注視物体を選択し、前記選択された注視物体の位置から表示画面の参照点を視物体表示設定部で設定し、算出した移動物体の位置と設定した参照点から画面の表示位置を画面表示位置設定部で設定し、設定した表示位置で3次元仮想空間の画像を表示部で表示することを特徴とする。
【0012】
その結果、本発明の仮想空間表示方法は、注視物体を設定し、それを常に表示することにより、仮想空間中の何かを見ながら歩いて移動することが可能になり、より実際の空間における動作に近い、自然な表示を実現できる。
【0013】
【発明の実施の形態】
以下、本発明の実施例を図面に基づいて詳細に説明する。
(第1実施例の構成)
図1は、本発明の第1実施例の全体構成図である。
図1は、本発明の第1実施例が、入力部10,形状記憶部11,位置記憶部12,キーフレーム記憶部13,揺れ算出部14,画面表示位置設定部15,表示制御部16,ディスプレイ17とから構成されることを示す。
【0014】
本発明の第1実施例を構成する各部を簡単に説明する。入力部10は、ユーザが移動の開始、終了命令を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。
【0015】
しかし、その他の入力デバイス(ジョイスティック、データグローブ、キーボード)を使った方法でも本発明を実施することができる。形状記憶部11は、各物体の形状に関するデータを格納している部分である。
【0016】
図2は形状記憶部11における物体の形状に関するデータの記憶例である。各物体ごとの名称と、id番号、中心座標と、3次元形状に外接する直方体(バウンディング・ボックス)の6つの頂点座標、および実際の3次元形状データが格納されている場所を示すポインタが記憶されている。位置記憶部12は、各物体の位置に関するデータを格納している部分である。
【0017】
図3は、位置記憶部12における物体の位置に関するデータの記憶例である。3次元空間における物体のid番号と、形状データのID番号と、位置座標値と回転角の情報が格納されている。キーフレーム記憶部13は、歩行における人体の各部位の角度のデータを格納している部分である。
【0018】
図4は、キーフレーム記憶部13におけるキーフレームデータの記憶例である。歩く、座るといった動作の種類と、1回の動作の開始から終了までのサンプルデータセット数と、個々のデータセットが格納されている。揺れ算出部14は、入力部10からの入力を受けて、人体が移動する際の位置を算出し、重心の移動により生ずる身体の揺れを模擬するための、視点位置を算出する部分である。画面表示位置設定部15は、揺れ算出部14により算出された人体の視点位置を参照し、画面の表示位置を設定する部分である。表示制御部16は、画面表示位置設定部15により設定された表示位置で、3次元仮想環境の画像と人体を生成し、ディスプレイ17に表示する。
【0019】
図5は、表示画面例である。ディスプレイは、CRT以外にもヘッドマウントディスプレイや大型スクリーンなどほかのデバイスを利用することが可能である。
(第1実施例の作用)
上記のような構成を有する第1実施例は、次のような作用を有する(図8、図6、図1)。
すなわち構成図2の入力部10で、ユーザは移動の命令を入力する(20)。入力を受け、目的地点方向にそって人体を歩行させるために、現在の基準点、目的地点と予め設定された一歩幅に基づき、次の人体の基準点、目的地点を設定する(21,図1−14)。
【0020】
図7は基準点設定の例を示す流れ図である。例えば、予め設定された、歩行動作のキーフレームデータ(図1−13、図4)を元に設定する。歩行の時の重心が右足にある時には、キーフレームデータに設定された右足の各部位の角度データから、基準位置である腰の位置を算出する。キーフレームデータは人間の動きを一定時間隔でサンプリングしたものである。
【0021】
従って、その人体の基準となる点を座標を時間軸上に並べると、緩やかな波形を描く。この過程で設定される基準点、目的地点は、図8におけるPとAである。
次に、人体の視点は、この基準点からD(mm)高い位置として算出する。(22,図1−14)。また、人体の参照点は前記の目的地点からD(mm)高い地点として算出する。この過程で設定される人体の視点、参照点は、図8におけるEとR、視点と中心点の差はDである。
【0022】
次に、揺れ算出22の結果の人体の視点を参照し、人体の視点よりも、予め設定されたB(mm)後ろで、H(mm)高い位置に、画面の表示位置を設定する(23,図1−15)。
【0023】
画面の参照点は、人体の参照点の値を設定する。例えば、B=2000(mm),H=300(mm)であれば、人物の2(m) 後ろで、人物の目の高さより30(cm)高い位置から、人物を追いかけるような画面表示位置になる(図5)。
【0024】
また、B=0(mm),H=0(mm)であれば、画面は人物の視点と一致する。この過程で設定される画面の表示位置、画面の参照点は、図8におけるVとR、視点と表示位置の距離はB、高さの差はHである。このように設定された画面の表示位置からの仮想空間と人体の画像を表示する(24,図1−16, 17)。入力部10で停止の命令が来ないかぎり繰り返す。
【0025】
表示に関しては、1:人間モデルを揺らす、2:表示画面を揺らす、3:人間モデルおよび表示画面を揺らすことが考えられる。本願発明においてどのケースに関しても、臨場感ある表示画面を生成することができるが、3次元空間内に人間モデルを表示する場合は、人間モデルを揺らすことで、外部から観察する際には見やすい画像が作れ、人間モデルを表示せずに人間モデルの視点を表示する場合は、表示画面を揺らすことで、より臨場感のある画面が表示できる。
【0026】
(第1実施例の効果)
上記のような方法によれば、表示画面の微小な揺れを表現でき、ユーザは歩行による移動の臨場感を得ることができる。また、人体の背後に画面の表示位置を取ることにより、人体が表示され、仮想空間の大きさを把握しやすくなる。これらの結果、ユーザの仮想空間中の移動距離感を、実際の空間における移動距離感に近付けることができる。
【0027】
(変形例)
1;前記の実施例では、歩行する人体の描画を行っていたが、これを省略し、人体の描画を行わないことも出来る。それにより、描画速度を高速に保つことができ、かつ歩行による臨場感を高めることができる。
【0028】
2;また、上半身のみなど簡略化した人物像を描画することもできる。これにより、描画速度を高速に保ちつつ、ユーザの仮想空間の大きさ把握も助けることができる。
【0029】
3;本発明の構成を図9のように変形し、位置算出部43と揺れ算出部44をわけ、位置算出部43で移動方向、位置を設定し、揺れ算出部44で表示画面の揺れを算出することもできる。揺れの算出は、波形の関数によって模擬することもできる。
【0030】
例えば、y=a・cos(2π・t/T)+h,(a:振幅幅 t:時間 T:一歩にかかる時間)といった式で、上下の揺れを模擬することが出来る。
4;構成図2のキーフレーム記憶部13は、複数のサンプルデータを用意しておけば、様々な歩き方、身長に対応した表示ができる。
(第2実施例の構成)
図10は、本発明の第2実施例の全体構成図である。図10は、本発明の第2実施例が、入力部100、形状記憶部101、位置記憶部102、位置算出部103、注視物体記憶部104、注視物体選択部105、注視物体表示設定部106、画面表示位置設定部107、表示制御部108、ディスプレイ109とから構成されることを示す。
【0031】
本発明の第2実施例を構成する各部を簡単に説明する。入力部100は、ユーザが移動方向および移動の開始、終了命令を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。形状記憶部101は、各物体の形状に関するデータを格納している部分である。
【0032】
位置記憶部102は、各物体の位置に関するデータを格納している部分である。位置算出部103は、入力部10からの入力を受けて仮想空間における現在位置を算出する部分である。注視物体記憶部104は、位置記憶部102にある物体のうち、ユーザが注視することが出来る物体をリストアップしたデータであり、位置に関するデータのID番号が格納されている。
【0033】
注視物体選択部105は、注視物体記憶部104の中で、現在地点から最も近い物体で、かつ進行方向とその物体の位置関係が設定範囲を越えないかをチェックして、選択する部分である。注視物体表示設定部106は、注視物体選択部105で選択された物体の位置データを位置記憶部102から得て、表示画面の参照点として設定する部分である。画面表示位置設定部107は、位置算出部103により設定された現在位置を参照し、画面の表示位置を設定する部分である。表示制御部108は、画面表示位置設定部107により設定された表示位置で、3次元仮想環境の画像を生成し、ディスプレイ109に表示する。
【0034】
(第2実施例の作用)
上記のような構成を有する第2実施例は、次のような作用を有する(図11、図10)。
すなわち構成図である図10の入力部100でユーザは移動の命令を入力する(120)。入力部100の入力を受けて、現在位置の3次元座標を算出する(121,図10−103)。
【0035】
図12は、現在位置の算出過程をあらわした流れ図である。次に、図10の注視物体記憶部104の中から、現在の位置から最も近い物体を選択する(123,図10−105)。
【0036】
そして、選択した物体と進行方向との角度θが、予め設定された範囲αを越えていないかをチェックする(125,図10−105)。θ<αならば、その物体を注視物体として選択し、その座標を表示画面の参照点として設定する(126,図10−注視物体表示設定部106)。
【0037】
θ>αならば、121における結果から、127を行う。図13は、注視物体の選択の過程を図示したものである。t0の時点では、物体1,2,3までの距離がd1t0<d2t0<d3t0であり、かつ物体1は進行方向に対しての角度θ1t0 が設定された範囲αより小さいので、物体1が選択される。
【0038】
一方、t1の時点では、d2t1<d1t1<d3t1、角度はθ2t1 <αであるので、物体2が選択される。次に、画面参照点設定126と121の結果から、画面の表示位置を設定する(127、図10−107)。
【0039】
このように設定された表示位置からの画像を表示する(128、図10−108、109)。入力部100で停止の命令が来ないかぎり繰り返す。
(第2実施例の効果)
上記のような方法によれば、ユーザは任意の物体を注視しながら移動することが可能になる。したがって、より実際の空間における移動感覚に近付けることができる。
【0040】
(変形例)
上記の第2実施例では、注視物体記憶部104(図10)を使用し、注視物体を選択しているが、これを使用せず、表示画面中で最も大きく描画されている物体を選択し、その物体を注視物体として設定することもできる。例えば、視野中にある物体の現在位置からの距離算出を行う。また、その物体のバウンディング・ボックス・データ(図2)から、どの物体の大きさを求める。
【0041】
そして、距離と大きさとの比をとり、その比がもっとも大きいものを注視物体とする。このような方法によれば、ユーザは予め注視物体のリストアップデータを作成することなく、任意の物体を注視しながら移動することが可能になる。したがって、データ入力の作業時間が短縮でき、実際の空間における移動感覚に近いウォークスルーが可能となる。
【0042】
また、本願発明の第1実施例と第2実施例を組み合わせた構成を有することにより、人間モデルの動きによる揺れと人間モデルの視点の移動を忠実に再現することができる。
【0043】
(第3実施例の構成)
図14は、本発明の第3実施例の全体構成図である。図14は、本発明の第3実施例が、入力部50、空間構成記憶部51、人体形状記憶部52、人体位置算出部53、頭部回転角算出部54、画面表示位置設定部55、表示制御部56、ディスプレイ57とから構成されることを示す。
【0044】
本発明の第3実施例を構成する各部を簡単に説明する。
入力部50は、ユーザが視点の移動を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。
空間構成記憶部51は、仮想空間を構成する各物体の形状および位置に関するデータを格納している部分である。人体形状記憶部52は、人体の形状データを格納している部分である。
【0045】
人体位置算出部53は、人体形状記憶部52のデータと入力部50の視点の移動の入力とから、人体の位置を算出し設定する部分である。頭部回転角算出部54は、人体形状記憶部52のデータと入力部50の視点の移動の入力とから、人体の頭部の回転角度を設定する部分である。
【0046】
画面表示位置設定部55は、入力部50から入力された視点変更の入力値を参照し、画面の表示位置を設定する部分である。表示制御部56は、画面表示位置設定部55により設定された表示位置で、空間構成記憶部51と人体形状記憶部52と画面表示位置設定部55を参照して3次元仮想環境の画像と人体を生成し、ディスプレイ57に表示する。ディスプレイは、CRT以外にも大型スクリーンなどほかのデバイスを利用することが可能である。図16は、表示画面例である。
【0047】
(第3実施例の作用)
上記のような構成を有する第3実施例は、次のような作用を有する(図14,図15)。図15はマウスのボタンを押すことにより移動開始命令を、またマウスのx軸方向の移動によって左右の回転を行う場合の流れ図である。構成図である図14の入力部50で、ユーザは移動命令と視線方向の入力を行なう。例えば、マウスのボタンを押す事によって移動開始命令を入力し(150)、画面中心を(x,y)=(0,0)として、マウスのx,y座標値を視線方向の変更値とする(153)。
【0048】
移動開始命令が入力された時、人体の向き(vec)を算出し確保する(151)。移動開始命令が来ないかぎり、人体の向き(vec)は変わらない。
次に人体の位置(pos) を画面の視点位置より予め設定した値分だけ人体の向いている方向(vec) でかつ下に設定する(152)。
また、入力されたx,y座標値から、目的方向への人体頭部の回転角度を算出する(図14−54,図15−154)。図15の154では、回転角度(yow)の最大、最小値を予め設定しておき、その範囲でマウスのx軸方向の動きに対応したyow を設定する。
【0049】
次に、図14の55で、画面の表示位置を設定する。図15の155では、人体方向算出部151で設定した人体の向き(vec)の方向に、予め設定した移動量だけ更新して新たな視点(view)を設定する。また、頭部回転角度設定部154で設定した回転角度(yow)により、新たな参照点(ref)の算出を行なっている。
【0050】
このように設定された画面の表示位置と、人体の位置と向き、人体頭部の角度、および空間構成記憶部51、人体形状記憶部52のデータにより、仮想空間と人体の画像を表示する(図6−24,図1−16,17)。空間構成記憶部51は、例えばVRMLのようなオブジェト化されたデータベースである。
【0051】
(第3実施例の効果)
上記のような方法によれば、ユーザはVRMLのようなオブジェクト化されたデータベースによって構築された3次元空間を、ウォークスルーするような場合に、人体を表示することによって仮想の空間を歩いて回っている臨場感をえることが出来る。また、空間を見回す操作を人体の頭部をまわす動作に対応させたことによって、ユーザは操作結果を直観的に分かりやすくなる。また、カメラのパンにあたる視点の回転と、カメラの移動にあたる視点の移動とを、人体の頭部と胴体に別個に割り振っているので、操作が容易にできる。また、第1、第2、第3の実施例において、人体の表示を透明にすることにより、見易い画面表示を提供することができる。
【0052】
【発明の効果】
以上のように、本発明によれば、ユーザは仮想空間をウォークスルーする際に、人体大きさと背景により、空間の大きさの把握が容易になり、かつ歩いて移動している臨場感を持つことができる。そして、その結果、特別なデバイスを用いないで、実際の空間における移動距離感覚に近いものをえることができる低コストなシステムを実現できる。
このような仮想空間表示方式は、実際の空間を模して作成した仮想空間で、パトロール訓練や道案内を行うような場合に有効となる。
さらに、本発明によれば、ユーザは仮想空間中を任意の物体を注視しながらウォークスルーすることができ、より実際の空間での移動に近い臨場感を与えられる。このような仮想空間表示方式は、バーチャルモールをウィンドウショッピングして歩くような場合に有効となる。
【図面の簡単な説明】
【図1】 本願発明の第1実施例の全体構成図である。
【図2】 本願発明の物体の形状に関するデータの記憶形式の一例を示した図である。
【図3】 本願発明の物体の位置に関するデータの記憶形式の一例を示した図である。
【図4】 本願発明のキーフレームデータの記憶例を示した図である。
【図5】 本願発明の人体を描画した表示画面を示した図である。
【図6】 本願発明の第1実施例の全体の流れ図である。
【図7】 本願発明の基準位置設定の流れ図である。
【図8】 本願発明の歩行による揺れ算出の概念図である。
【図9】 本願発明の第1実施例の変形例の全体構成図である。
【図10】 本願発明の第2実施例の全体構成図である。
【図11】 本願発明の第2実施例の全体の流れ図である。
【図12】 本願発明の第2実施例の現在位置算出の流れ図である。
【図13】 本願発明の注視物体選択の概念図である。
【図14】 本願発明の第3実施例の全体構成図である。
【図15】 本願発明の第3実施例の全体の流れ図である。
【図16】 本願発明の第3実施例の人体を描画した表示画面を示した図である。
【図17】 従来例の画面表示例を示した図である。
【図18】 従来例の画面表示例を示した図である。
【符号の説明】
10,40,100 入力部
11,41,101 形状記憶部
12,42,102 位置記憶部
13 キーフレーム記憶部
14,44 揺れ算出部
15,45,107 画面表示位置設定部
16,46,108 表示制御部
17,47,109 ディスプレイ
43,103 位置算出部
104 注視物体記憶部
105 注視物体選択部
106 注視物体表示設定部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a virtual space display method in movement in a three-dimensional virtual space generated by computer graphics.
[0002]
[Prior art]
Conventionally, the movement in the three-dimensional virtual space generated by computer graphics has been performed smoothly by linear interpolation to the designated object or in the designated direction.
[0003]
In addition, the screen of the viewpoint position corresponding to the visual field of the user was displayed (FIG. 17). Further, during the movement, a screen display is performed in which the moving direction and the visual field direction coincide with each other, or the line-of-sight direction remains the same and the left and right are translated. However, in the case of linear and smooth movement, the realistic feeling of movement by walking is poor. Further, in the display as the user's field of view, it is very difficult to recognize the size of the space in an unfamiliar space or a space with few things. Therefore, there is a problem that it is difficult to grasp the moving distance to the target.
[0004]
In addition, there is a problem that the user cannot move while gazing at something by the method of matching the direction of movement and the direction of the field of view, or parallel movement of left and right.
On the other hand, Hiroo Iwata et al .: “Reality and analysis of dynamic walking in walk-through simulator”, Human Interface N & R, Vol. 8, no. 2, pp. 199-204 (1993) and Michitaka Hirose et al .: “Research on the Synthesis of Sensation of Moving Distance”, Human Interface N & R, Vol. 8, no. 2, pp. 277-282 (1995), a method of inputting a walking motion using a special device and giving a sense of moving distance has been taken.
[0005]
However, the use of such a special device has a problem that the cost is high both in terms of space and price.
Furthermore, the method of always displaying a walking person has a problem that the drawing speed becomes slow.
Recently, there is a 3D Viewer for World Wide Web such as webspace, and each site can walk through a 3D space constructed by VRML (Virtual Reality Modeling Language). However, the interface for the walk-through is to operate a control object such as a handle, which is far from the sense that the user is walking around the space (FIG. 18).
[0006]
[Problems to be solved by the invention]
The present invention has been devised for such a problem. There is a problem in that a sufficient sense of distance cannot be generated simply by moving within a three-dimensional virtual space generated by computer graphics.
[0007]
In the conventional walkthrough, the movement direction and the viewpoint direction coincide, so it was impossible to walk while looking at the surroundings. The purpose is to realize a low-cost system that can speed drawing and give a sense of movement close to the actual space.
[0008]
[Means for Solving the Problems]
In order to solve the above problem, in a virtual space display method for displaying movement of an object in a three-dimensional virtual space generated by computer graphics, a position calculation unit calculates the position of the moving object, and the movement Based on the moving direction of the object and the positional relationship between the object that can be watched and the moving object, the watched object storage unit that stores the position of the object that can be watched in the three-dimensional virtual space And the reference point of the display screen is set by the visual object display setting unit from the position of the selected gaze object, and the display position of the screen is set from the calculated position of the moving object and the set reference point. And a three-dimensional virtual space image is displayed on the display unit at the set display position.
[0012]
As a result, in the virtual space display method of the present invention, it is possible to walk and move while looking at something in the virtual space by setting a gaze object and always displaying it, and in a more actual space. Natural display close to operation can be realized.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Configuration of the first embodiment)
FIG. 1 is an overall configuration diagram of a first embodiment of the present invention.
1 shows a first embodiment of the present invention in which an input unit 10, a shape storage unit 11, a position storage unit 12, a key frame storage unit 13, a shake calculation unit 14, a screen display position setting unit 15, a display control unit 16, It shows that it is composed of a display 17.
[0014]
Each part which comprises 1st Example of this invention is demonstrated easily. The input unit 10 is a part where the user inputs a movement start / end command. As an input device, a mouse is used in this embodiment.
[0015]
However, the present invention can also be implemented by a method using other input devices (joystick, data glove, keyboard). The shape storage unit 11 is a part that stores data relating to the shape of each object.
[0016]
FIG. 2 is a storage example of data related to the shape of the object in the shape storage unit 11. A name indicating each object, an id number, center coordinates, six vertex coordinates of a cuboid (bounding box) circumscribing the three-dimensional shape, and a pointer indicating the location where the actual three-dimensional shape data is stored are stored. Has been. The position storage unit 12 is a part that stores data relating to the position of each object.
[0017]
FIG. 3 is a storage example of data related to the position of the object in the position storage unit 12. Information on the id number of the object in the three-dimensional space, the ID number of the shape data, the position coordinate value, and the rotation angle is stored. The key frame storage unit 13 is a part that stores angle data of each part of the human body during walking.
[0018]
FIG. 4 shows an example of key frame data stored in the key frame storage unit 13. The type of operation such as walking and sitting, the number of sample data sets from the start to the end of one operation, and individual data sets are stored. The shake calculation unit 14 is a part that receives an input from the input unit 10, calculates a position when the human body moves, and calculates a viewpoint position for simulating the shake of the body caused by the movement of the center of gravity. The screen display position setting unit 15 is a part for setting the display position of the screen with reference to the viewpoint position of the human body calculated by the shaking calculation unit 14. The display control unit 16 generates an image and a human body of the three-dimensional virtual environment at the display position set by the screen display position setting unit 15 and displays the generated image on the display 17.
[0019]
FIG. 5 is an example of a display screen. In addition to the CRT, other devices such as a head mounted display and a large screen can be used as the display.
(Operation of the first embodiment)
The first embodiment having the above-described configuration has the following operation (FIGS. 8, 6, and 1).
That is, at the input unit 10 of the configuration diagram 2, the user inputs a movement command (20). In order to walk the human body along the direction of the destination according to the input, the next reference point and destination point of the next human body are set based on the current reference point and destination point and a preset step length (21, FIG. 1-14).
[0020]
FIG. 7 is a flowchart showing an example of reference point setting. For example, it is set based on preset key frame data (FIGS. 1-13 and 4) for walking motion. When the center of gravity at the time of walking is on the right foot, the position of the waist which is the reference position is calculated from the angle data of each part of the right foot set in the key frame data. The key frame data is obtained by sampling human movements at regular intervals.
[0021]
Therefore, a gentle waveform is drawn when the coordinates of the reference points of the human body are arranged on the time axis. Reference points and destination points set in this process are P and A in FIG.
Next, the viewpoint of the human body is calculated as a position D (mm) higher than this reference point. (22, FIGS. 1-14). The reference point of the human body is calculated as a point that is D (mm) higher than the destination point. The viewpoints and reference points of the human body set in this process are E and R in FIG. 8, and the difference between the viewpoint and the center point is D.
[0022]
Next, with reference to the viewpoint of the human body as a result of the shake calculation 22, the display position of the screen is set at a position higher by H (mm) after a preset B (mm) than the viewpoint of the human body (23 1-15).
[0023]
As the reference point of the screen, the value of the reference point of the human body is set. For example, if B = 2000 (mm) and H = 300 (mm), a screen display position that follows a person from a position that is 2 (m) behind the person and 30 (cm) higher than the height of the person's eyes (FIG. 5).
[0024]
If B = 0 (mm) and H = 0 (mm), the screen matches the viewpoint of the person. The screen display position and the screen reference point set in this process are V and R in FIG. 8, the distance between the viewpoint and the display position is B, and the height difference is H. The virtual space and the human body image from the display position set in this way are displayed (24, FIGS. 1-16 and 17). It is repeated unless a stop command is received at the input unit 10.
[0025]
Regarding display, it is conceivable to 1: shake the human model, 2: shake the display screen, and 3: shake the human model and the display screen. In any case in the present invention, a realistic display screen can be generated. However, when a human model is displayed in a three-dimensional space, an image that is easy to see when observing from the outside by shaking the human model. If the human model viewpoint is displayed without displaying the human model, a more realistic screen can be displayed by shaking the display screen.
[0026]
(Effects of the first embodiment)
According to the method as described above, a minute shaking of the display screen can be expressed, and the user can obtain a realistic feeling of movement by walking. Further, by taking the display position of the screen behind the human body, the human body is displayed and it becomes easy to grasp the size of the virtual space. As a result, it is possible to bring the sense of movement distance in the virtual space of the user closer to the sense of movement distance in the actual space.
[0027]
(Modification)
1: In the above embodiment, the drawing of the walking human body is performed, but this can be omitted and the drawing of the human body can be omitted. As a result, the drawing speed can be kept high, and the realistic sensation by walking can be enhanced.
[0028]
2; It is also possible to draw a simplified person image such as only the upper body. Thereby, it is possible to help the user grasp the size of the virtual space while keeping the drawing speed high.
[0029]
3: The configuration of the present invention is modified as shown in FIG. 9, and the position calculation unit 43 and the shake calculation unit 44 are separated. It can also be calculated. The calculation of shaking can also be simulated by a waveform function.
[0030]
For example, the vertical swing can be simulated by an equation such as y = a · cos (2π · t / T) + h, (a: amplitude width t: time T: time taken for one step).
4: Configuration If the key frame storage unit 13 in FIG. 2 prepares a plurality of sample data, display corresponding to various ways of walking and height can be performed.
(Configuration of the second embodiment)
FIG. 10 is an overall configuration diagram of the second embodiment of the present invention. FIG. 10 shows a second embodiment of the present invention in which an input unit 100, a shape storage unit 101, a position storage unit 102, a position calculation unit 103, a gaze object storage unit 104, a gaze object selection unit 105, and a gaze object display setting unit 106 are shown. , A screen display position setting unit 107, a display control unit 108, and a display 109.
[0031]
Each part which comprises 2nd Example of this invention is demonstrated easily. The input unit 100 is a part where the user inputs a movement direction and a movement start / end command. As an input device, a mouse is used in this embodiment. The shape storage unit 101 is a part that stores data related to the shape of each object.
[0032]
The position storage unit 102 is a part that stores data related to the position of each object. The position calculation unit 103 is a part that receives the input from the input unit 10 and calculates the current position in the virtual space. The gaze object storage unit 104 is a list of objects that can be watched by the user among the objects in the position storage unit 102, and stores ID numbers of data related to positions.
[0033]
The gaze object selection unit 105 is a part of the gaze object storage unit 104 that checks and selects whether the object is closest to the current point and the positional relationship between the traveling direction and the object does not exceed the set range. . The gaze object display setting unit 106 is a part that obtains the position data of the object selected by the gaze object selection unit 105 from the position storage unit 102 and sets it as a reference point on the display screen. The screen display position setting unit 107 is a part for setting the display position of the screen with reference to the current position set by the position calculation unit 103. The display control unit 108 generates a three-dimensional virtual environment image at the display position set by the screen display position setting unit 107 and displays it on the display 109.
[0034]
(Operation of the second embodiment)
The second embodiment having the above configuration has the following operation (FIGS. 11 and 10).
That is, the user inputs a movement command at the input unit 100 of FIG. 10 which is a configuration diagram (120). In response to an input from the input unit 100, the three-dimensional coordinates of the current position are calculated (121, FIGS. 10-103).
[0035]
FIG. 12 is a flowchart showing the process of calculating the current position. Next, an object closest to the current position is selected from the gaze object storage unit 104 in FIG. 10 (123, FIGS. 10-105).
[0036]
Then, it is checked whether or not the angle θ between the selected object and the traveling direction exceeds a preset range α (125, FIG. 10-105). If θ <α, the object is selected as a gaze object, and its coordinates are set as a reference point on the display screen (126, FIG. 10-gaze object display setting unit 106).
[0037]
If θ> α, 127 is performed from the result in 121. FIG. 13 illustrates a process of selecting a gaze object. At time t0, the distance to the objects 1, 2 and 3 is d1t0 <d2t0 <d3t0, and the object 1 is smaller than the range α in which the angle θ1t0 with respect to the traveling direction is set, so the object 1 is selected. The
[0038]
On the other hand, at time t1, d2t1 <d1t1 <d3t1 and the angle is θ2t1 <α, so the object 2 is selected. Next, the display position of the screen is set from the results of the screen reference point settings 126 and 121 (127, FIG. 10-107).
[0039]
An image from the display position set in this way is displayed (128, FIGS. 10-108, 109). The process is repeated unless a stop command is received from the input unit 100.
(Effect of the second embodiment)
According to the method as described above, the user can move while gazing at an arbitrary object. Therefore, it is possible to approach the sense of movement in an actual space.
[0040]
(Modification)
In the second embodiment described above, the gaze object storage unit 104 (FIG. 10) is used to select the gaze object, but this is not used and the object that is drawn the largest on the display screen is selected. The object can be set as a gaze object. For example, the distance from the current position of the object in the field of view is calculated. Further, the size of which object is obtained from the bounding box data (FIG. 2) of the object.
[0041]
Then, the ratio between the distance and the size is taken, and the object with the largest ratio is set as the gaze object. According to such a method, the user can move while gazing at an arbitrary object without creating list-up data of the gazing object in advance. Therefore, the work time for data input can be shortened, and a walk-through close to the sense of movement in an actual space is possible.
[0042]
Further, by having a configuration in which the first embodiment and the second embodiment of the present invention are combined, it is possible to faithfully reproduce the shaking caused by the movement of the human model and the movement of the viewpoint of the human model.
[0043]
(Configuration of the third embodiment)
FIG. 14 is an overall configuration diagram of the third embodiment of the present invention. FIG. 14 shows a third embodiment of the present invention in which an input unit 50, a space configuration storage unit 51, a human body shape storage unit 52, a human body position calculation unit 53, a head rotation angle calculation unit 54, a screen display position setting unit 55, It shows that it is comprised from the display control part 56 and the display 57. FIG.
[0044]
Each part constituting the third embodiment of the present invention will be briefly described.
The input unit 50 is a part where the user inputs viewpoint movement. As an input device, a mouse is used in this embodiment.
The space configuration storage unit 51 is a part that stores data relating to the shape and position of each object constituting the virtual space. The human body shape storage unit 52 is a part that stores human body shape data.
[0045]
The human body position calculation unit 53 is a part that calculates and sets the position of the human body from the data in the human body shape storage unit 52 and the input of the viewpoint movement of the input unit 50. The head rotation angle calculation unit 54 is a part that sets the rotation angle of the human head from the data in the human body shape storage unit 52 and the input of the viewpoint movement of the input unit 50.
[0046]
The screen display position setting unit 55 refers to the viewpoint change input value input from the input unit 50 and is a part for setting the display position of the screen. The display control unit 56 refers to the space configuration storage unit 51, the human body shape storage unit 52, and the screen display position setting unit 55 at the display position set by the screen display position setting unit 55. Is generated and displayed on the display 57. In addition to the CRT, other devices such as a large screen can be used as the display. FIG. 16 is an example of a display screen.
[0047]
(Operation of the third embodiment)
The third embodiment having the above configuration has the following operation (FIGS. 14 and 15). FIG. 15 is a flowchart in the case where a movement start command is issued by pressing a mouse button, and a left-right rotation is performed by moving the mouse in the x-axis direction. The user inputs a movement command and a line-of-sight direction using the input unit 50 in FIG. For example, a movement start command is input by pressing a mouse button (150), the center of the screen is set to (x, y) = (0, 0), and the x and y coordinate values of the mouse are used as change values of the line-of-sight direction. (153).
[0048]
When the movement start command is input, the direction (vec) of the human body is calculated and secured (151). Unless a movement start command is received, the direction (vec) of the human body does not change.
Next, the position (pos) of the human body is set in the direction (vec) in which the human body is facing by a predetermined value from the viewpoint position on the screen and below (152).
Further, the rotation angle of the human head in the target direction is calculated from the input x and y coordinate values (FIGS. 14-54 and 15-154). In 154 of FIG. 15, the maximum and minimum values of the rotation angle (yow) are set in advance, and within the range, youw is set corresponding to the movement of the mouse in the x-axis direction.
[0049]
Next, at 55 in FIG. 14, the display position of the screen is set. In 155 of FIG. 15, a new viewpoint (view) is set by updating the amount of movement set in advance in the direction of the human body direction (vec) set by the human body direction calculation unit 151. Also, a new reference point (ref) is calculated based on the rotation angle (yow) set by the head rotation angle setting unit 154.
[0050]
The image of the virtual space and the human body is displayed based on the display position set in this way, the position and orientation of the human body, the angle of the human head, and the data of the space configuration storage unit 51 and the human body shape storage unit 52 ( Fig. 6-24, Fig. 1-16, 17). The space configuration storage unit 51 is an objectized database such as VRML.
[0051]
(Effect of the third embodiment)
According to the method described above, when a user walks through a three-dimensional space constructed by an objectized database such as VRML, the user walks around the virtual space by displaying the human body. You can get a sense of realism. Further, by making the operation of looking around the space correspond to the operation of turning the head of the human body, the user can easily understand the operation result intuitively. In addition, since the rotation of the viewpoint corresponding to the pan of the camera and the movement of the viewpoint corresponding to the movement of the camera are separately assigned to the head and torso of the human body, the operation can be facilitated. Further, in the first, second, and third embodiments, it is possible to provide an easy-to-see screen display by making the human body display transparent.
[0052]
【The invention's effect】
As described above, according to the present invention, when a user walks through a virtual space, the user can easily grasp the size of the space based on the size of the human body and the background, and has a sense of presence that is moving while walking. be able to. As a result, it is possible to realize a low-cost system that can provide a device close to the sense of moving distance in an actual space without using a special device.
Such a virtual space display method is effective when performing patrol training or route guidance in a virtual space created by imitating an actual space.
Furthermore, according to the present invention, the user can walk through while gazing at an arbitrary object in the virtual space, and is given a sense of realism that is closer to movement in an actual space. Such a virtual space display method is effective when a virtual mall is window-shopped for walking.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram of a first embodiment of the present invention.
FIG. 2 is a diagram showing an example of a data storage format related to the shape of an object according to the present invention.
FIG. 3 is a diagram showing an example of a data storage format related to the position of an object according to the present invention.
FIG. 4 is a diagram showing a storage example of key frame data according to the present invention.
FIG. 5 is a view showing a display screen on which a human body of the present invention is drawn.
FIG. 6 is an overall flowchart of the first embodiment of the present invention.
FIG. 7 is a flowchart of reference position setting according to the present invention.
FIG. 8 is a conceptual diagram of shake calculation by walking according to the present invention.
FIG. 9 is an overall configuration diagram of a modification of the first embodiment of the present invention.
FIG. 10 is an overall configuration diagram of a second embodiment of the present invention.
FIG. 11 is an overall flowchart of a second embodiment of the present invention.
FIG. 12 is a flowchart for calculating a current position according to the second embodiment of the present invention.
FIG. 13 is a conceptual diagram of gaze object selection according to the present invention.
FIG. 14 is an overall configuration diagram of a third embodiment of the present invention.
FIG. 15 is an overall flowchart of a third embodiment of the present invention.
FIG. 16 is a diagram showing a display screen on which a human body according to a third embodiment of the present invention is drawn.
FIG. 17 is a diagram illustrating a screen display example of a conventional example.
FIG. 18 is a diagram illustrating a screen display example of a conventional example.
[Explanation of symbols]
10, 40, 100 Input unit 11, 41, 101 Shape storage unit 12, 42, 102 Position storage unit 13 Key frame storage unit 14, 44 Shake calculation unit 15, 45, 107 Screen display position setting unit 16, 46, 108 Display Control unit 17, 47, 109 Display 43, 103 Position calculation unit 104 Gaze object storage unit 105 Gaze object selection unit 106 Gaze object display setting unit

Claims (4)

コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、
前記移動物体の位置を位置算出部により算出し、
前記移動物体の移動方向、及び注視することができる物体と前記移動物体の位置関係をもとに、前記3次元仮想空間内での注視することができる物体の位置を記憶した注視物体記憶部から注視物体を選択し、
前記選択された注視物体の位置から表示画面の参照点を視物体表示設定部で設定し、
算出した移動物体の位置と設定した参照点から画面の表示位置を画面表示位置設定部で設定し、
設定した表示位置で3次元仮想空間の画像を表示部で表示することを特徴とする仮想空間表示方法。
In a virtual space display method for displaying movement of an object in a three-dimensional virtual space generated by computer graphics,
Calculate the position of the moving object by a position calculation unit,
Based on the moving direction of the moving object and the positional relationship between the object that can be watched and the moving object, from a gaze object storage unit that stores the position of the object that can be gaze in the three-dimensional virtual space Select the gaze object,
The reference point of the display screen is set by the visual object display setting unit from the position of the selected gaze object,
Set the display position of the screen from the calculated position of the moving object and the set reference point in the screen display position setting section,
A virtual space display method, wherein an image of a three-dimensional virtual space is displayed on a display unit at a set display position .
前記移動物体は人体モデルであることを特徴とする請求項1記載の仮想空間表示方法。  The virtual space display method according to claim 1, wherein the moving object is a human body model. コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示装置において、In a virtual space display device for displaying movement of an object in a three-dimensional virtual space generated by computer graphics,
前記移動物体の位置を算出する位置算出部と、A position calculation unit for calculating the position of the moving object;
前記3次元仮想空間内での注視することができる物体の位置を記憶した注視物体記憶部と、A gaze object storage unit that stores a position of an object that can be gazed in the three-dimensional virtual space;
前記移動物体の移動方向、及び前記注視物体記憶部に記憶された注視物体と前記移動物体との位置関係をもとに注視物体を選択する注視物体選択部と、A gaze object selecting unit that selects a gaze object based on a moving direction of the moving object and a positional relationship between the gaze object and the moving object stored in the gaze object storage unit;
前記注視物体選択部で選択された注視物体の位置から表示画面の参照点を設定する注視物体表示設定部と、A gaze object display setting unit that sets a reference point of the display screen from the position of the gaze object selected by the gaze object selection unit;
前記位置算出部で算出した移動物体の位置と前記注視物体表示設定部で設定した参照点から画面の表示位置を設定する画面表示位置設定部と、A screen display position setting unit for setting the display position of the screen from the position of the moving object calculated by the position calculation unit and the reference point set by the gaze object display setting unit;
前記画面表示位置設定部で設定した表示位置で3次元仮想空間の画像を表示する表示部を具備することを特徴とする仮想空間表示装置。A virtual space display device comprising: a display unit that displays an image of a three-dimensional virtual space at a display position set by the screen display position setting unit.
前記注視物体選択部は、前記移動物体と前記注視物体記憶部に記憶された注視物体との距離と、当該注視物体と前記移動物体との角度をもとに注視物体を選択することを特徴とする請求項3記載の仮想空間表示装置。The gaze object selecting unit selects a gaze object based on a distance between the moving object and the gaze object stored in the gaze object storage unit and an angle between the gaze object and the moving object. The virtual space display device according to claim 3.
JP2003177663A 1995-09-28 2003-06-23 Virtual space display method and virtual space display device Expired - Fee Related JP3830922B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003177663A JP3830922B2 (en) 1995-09-28 2003-06-23 Virtual space display method and virtual space display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP25040395 1995-09-28
JP2003177663A JP3830922B2 (en) 1995-09-28 2003-06-23 Virtual space display method and virtual space display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP8054301A Division JPH09153146A (en) 1995-09-28 1996-03-12 Virtual space display method

Publications (2)

Publication Number Publication Date
JP2004030666A JP2004030666A (en) 2004-01-29
JP3830922B2 true JP3830922B2 (en) 2006-10-11

Family

ID=31189777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003177663A Expired - Fee Related JP3830922B2 (en) 1995-09-28 2003-06-23 Virtual space display method and virtual space display device

Country Status (1)

Country Link
JP (1) JP3830922B2 (en)

Also Published As

Publication number Publication date
JP2004030666A (en) 2004-01-29

Similar Documents

Publication Publication Date Title
JPH09153146A (en) Virtual space display method
US10928974B1 (en) System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface
CN113096252B (en) Multi-movement mechanism fusion method in hybrid enhanced teaching scene
US20230093676A1 (en) Virtual reality system and method
US10521028B2 (en) System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
JPH09152954A (en) Method and device for presenting information
JPH10261090A (en) Motion capture system
JP2006301654A (en) Image presentation apparatus
JP7060544B6 (en) Exercise equipment
Webel et al. Immersive experience of current and ancient reconstructed cultural attractions
US6384820B2 (en) Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization
Lou et al. Reducing cybersickness by geometry deformation
CN108830944A (en) Optical perspective formula three-dimensional near-eye display system and display methods
JP3830923B2 (en) Virtual space display method and virtual space display device
JP3341734B2 (en) Video display device
JP3830922B2 (en) Virtual space display method and virtual space display device
JP2004253009A (en) Virtual space display apparatus
JP3939444B2 (en) Video display device
Beimler et al. Immersive guided tours for virtual tourism through 3D city models
Gurau Virtual reality applications in tourism
GB2605302A (en) Virtual reality system and method
JP3289940B2 (en) Computer graphics and image viewing condition determination support method
JP3865879B2 (en) Virtual space display device
von Tenspolde et al. Painting with the Watching Window: Design and Implementation of
Bauer Virtual reality: A general overview

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060712

LAPS Cancellation because of no payment of annual fees