JP2004030667A - Virtual space display method - Google Patents

Virtual space display method Download PDF

Info

Publication number
JP2004030667A
JP2004030667A JP2003177664A JP2003177664A JP2004030667A JP 2004030667 A JP2004030667 A JP 2004030667A JP 2003177664 A JP2003177664 A JP 2003177664A JP 2003177664 A JP2003177664 A JP 2003177664A JP 2004030667 A JP2004030667 A JP 2004030667A
Authority
JP
Japan
Prior art keywords
human body
display
movement
screen
walking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003177664A
Other languages
Japanese (ja)
Other versions
JP3830923B2 (en
Inventor
Naoko Umeki
梅木 直子
Miwako Doi
土井 美和子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003177664A priority Critical patent/JP3830923B2/en
Publication of JP2004030667A publication Critical patent/JP2004030667A/en
Application granted granted Critical
Publication of JP3830923B2 publication Critical patent/JP3830923B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem that walking is not possible while watching the surroundings since a moving direction is matched with a viewpoint direction in conventional walk-through. <P>SOLUTION: A size of a space is easily grasped by displaying a moving human body. Besides, since a screen display position is determined by referring to a point of view of the human body moving by walking, a screen is fluctuated a little so that presence of movement by walking is improved. As a result, a low-cost system is realized to impart a moving distance sense close to a real space without using a special device. Further, a gazing object is set and displayed at all the time, the movement by walking is made possible while watching something in a virtual space. Thus, natural display closer to the action in the real space is realized. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータグラフィックスにより生成される3次元仮想空間内の移動における仮想空間表示方法に関する。
【0002】
【従来の技術】
従来、コンピュータグラフィックスにより生成される3次元仮想空間内の移動は、指示した目的物まであるいは指示方向に向かって、直線補間によるに滑らかな移動が行われていた。
【0003】
また、その表示はユーザの視野に相当する視点位置の画面が表示されていた(図17)。さらに、移動中は移動方向と視野の方向は一致している、あるいは視線方向はそのままで左右に平行移動するといった画面表示が行われていた。しかし、直線的で滑らかな移動では、歩行による移動の臨場感が乏しい。また、ユーザの視野としての表示では、見慣れない空間、あまり物の無い空間においては、空間の大きさを認知することが非常に難しい。従って、目標物までの移動距離を把握することが困難であるという問題があった。
【0004】
また、移動方向と視野の方向を一致させる、あるいは左右の平行移動といった方法では、ユーザは何かを注視しながら移動することができないという問題があった。
一方、岩田洋夫他:“ウォークスルー・シミュレータにおける動歩行の現実と解析”,ヒューマン・インタフェースN&R 、 Vol.8, No.2, pp.199−204 (1993) や、廣瀬通孝他:“移動距離感覚の合成に関する研究”,ヒューマン・インタフェースN&R 、Vol.8,No.2, pp.277−282 (1995) にあるように、特別な装置を用いて歩行運動を入力し、移動距離感覚を与える方法が取られてきた。
【0005】
しかし、そのような特別な装置を用いることは、空間的にも、価格的にもコストが高くなるという問題があった。
さらに、歩行する人物を常に表示する方法では、描画速度が遅くなるという問題があった。
また、最近ではwebspace  のようなWorld Wide Webのための3D Viewer があり、各サイトがVRML(Virtual Reality Modeling Language) によって構築した3 次元空間を、ウォークスルーすることが出来る。しかし、そのウォークスルーのためのインタフェースは、ハンドル等のコントロール用オブジェクトを操作するといったものであり、空間の中をユーザが歩いて回っているという感覚とは程遠いものであった(図18)。
【0006】
【発明が解決しようとする課題】
本発明は、この様な問題に対して考案されたものである。コンピュータグラフィックスにより生成された3次元仮想空間内を単に移動するだけでは、充分な距離感が生成されないという問題があった。
【0007】
従来のウォークスルーでは、移動方向と視点方向が一致しているため、周囲のものを見ながら歩くということができなかった。描画を高速化し、実際の空間に近い移動感覚を与えることのできる低コストなシステムの実現を目的としている。
【0008】
【課題を解決するための手段】
上記の課題を解決するために、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、あらかじめ記憶された物体の部品の位置をもとに、移動すべき物体の重心の位置の変化を求め、求めた前記物体重心の位置の変化をもとに、移動すべき前記物体の揺れを生成し、生成した前記物体の揺れをもとに、移動すべき前記物体を表示することを特徴とする。
【0009】
また、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、移動すべき物体の注目すべき物体を設定し、設定した前記注目すべき物体の位置と前記移動すべき物体の位置をもとに、設定した第1の注目すべき物体から第2の注目すべき物体に移動すべき物体の視点を移動し、移動した前記物体の視点に応じて、移動すべき物体を表示することを特徴とする。
【0010】
さらに、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、移動すべき物体の3次元空間内の向きおよび移動方向を設定し、設定した前記物体の向きをもとに、前記移動すべき物体の回転角度を求め、求めた前記回転角度と設定した前記移動方向をもとに、前記移動すべき物体を表示することを特徴とする。
【0011】
その結果、本発明の仮想空間表示方式は、移動する人体の表示により空間の大きさの把握が容易になる。また、歩いて移動する人体の視点を参照して画面表示位置を決定するため、画面がわずかに揺れて、歩行による移動の臨場感が高まる。その結果、特別なデバイスを用いないで、実際の空間に近い移動距離感覚を与えることができる低コストなシステムを実現できる。
【0012】
さらに、注視物体を設定し、それを常に表示することにより、仮想空間中の何かを見ながら歩いて移動することが可能になり、より実際の空間における動作に近い、自然な表示を実現できる。
【0013】
【発明の実施の形態】
以下、本発明の実施例を図面に基づいて詳細に説明する。
(第1実施例の構成)
図1は、本発明の第1実施例の全体構成図である。
図1は、本発明の第1実施例が、入力部10,形状記憶部11,位置記憶部12,キーフレーム記憶部13,揺れ算出部14,画面表示位置設定部15,表示制御部16,ディスプレイ17とから構成されることを示す。
【0014】
本発明の第1実施例を構成する各部を簡単に説明する。入力部10は、ユーザが移動の開始、終了命令を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。
【0015】
しかし、その他の入力デバイス(ジョイスティック、データグローブ、キーボード)を使った方法でも本発明を実施することができる。形状記憶部11は、各物体の形状に関するデータを格納している部分である。
【0016】
図2は形状記憶部11における物体の形状に関するデータの記憶例である。各物体ごとの名称と、id番号、中心座標と、3次元形状に外接する直方体(バウンディング・ボックス)の6つの頂点座標、および実際の3次元形状データが格納されている場所を示すポインタが記憶されている。位置記憶部12は、各物体の位置に関するデータを格納している部分である。
【0017】
図3は、位置記憶部12における物体の位置に関するデータの記憶例である。3次元空間における物体のid番号と、形状データのID番号と、位置座標値と回転角の情報が格納されている。キーフレーム記憶部13は、歩行における人体の各部位の角度のデータを格納している部分である。
【0018】
図4は、キーフレーム記憶部13におけるキーフレームデータの記憶例である。歩く、座るといった動作の種類と、1回の動作の開始から終了までのサンプルデータセット数と、個々のデータセットが格納されている。揺れ算出部14は、入力部10からの入力を受けて、人体が移動する際の位置を算出し、重心の移動により生ずる身体の揺れを模擬するための、視点位置を算出する部分である。画面表示位置設定部15は、揺れ算出部14により算出された人体の視点位置を参照し、画面の表示位置を設定する部分である。表示制御部16は、画面表示位置設定部15により設定された表示位置で、3次元仮想環境の画像と人体を生成し、ディスプレイ17に表示する。
【0019】
図5は、表示画面例である。ディスプレイは、CRT以外にもヘッドマウントディスプレイや大型スクリーンなどほかのデバイスを利用することが可能である。
(第1実施例の作用)
上記のような構成を有する第1実施例は、次のような作用を有する(図8、図6、図1)。
すなわち構成図2の入力部10で、ユーザは移動の命令を入力する(20)。入力を受け、目的地点方向にそって人体を歩行させるために、現在の基準点、目的地点と予め設定された一歩幅に基づき、次の人体の基準点、目的地点を設定する(21,図1−14)。
【0020】
図7は基準点設定の例を示す流れ図である。例えば、予め設定された、歩行動作のキーフレームデータ(図1−13、図4)を元に設定する。歩行の時の重心が右足にある時には、キーフレームデータに設定された右足の各部位の角度データから、基準位置である腰の位置を算出する。キーフレームデータは人間の動きを一定時間隔でサンプリングしたものである。
【0021】
従って、その人体の基準となる点を座標を時間軸上に並べると、緩やかな波形を描く。この過程で設定される基準点、目的地点は、図8におけるPとAである。
次に、人体の視点は、この基準点からD(mm)高い位置として算出する。(22,図1−14)。また、人体の参照点は前記の目的地点からD(mm)高い地点として算出する。この過程で設定される人体の視点、参照点は、図8におけるEとR、視点と中心点の差はDである。
【0022】
次に、揺れ算出22の結果の人体の視点を参照し、人体の視点よりも、予め設定されたB(mm)後ろで、H(mm)高い位置に、画面の表示位置を設定する(23,図1−15)。
【0023】
画面の参照点は、人体の参照点の値を設定する。例えば、B=2000(mm),H=300(mm)であれば、人物の2(m) 後ろで、人物の目の高さより30(cm)高い位置から、人物を追いかけるような画面表示位置になる(図5)。
【0024】
また、B=0(mm),H=0(mm)であれば、画面は人物の視点と一致する。この過程で設定される画面の表示位置、画面の参照点は、図8におけるVとR、視点と表示位置の距離はB、高さの差はHである。このように設定された画面の表示位置からの仮想空間と人体の画像を表示する(24,図1−16, 17)。入力部10で停止の命令が来ないかぎり繰り返す。
【0025】
表示に関しては、1:人間モデルを揺らす、2:表示画面を揺らす、3:人間モデルおよび表示画面を揺らすことが考えられる。本願発明においてどのケースに関しても、臨場感ある表示画面を生成することができるが、3次元空間内に人間モデルを表示する場合は、人間モデルを揺らすことで、外部から観察する際には見やすい画像が作れ、人間モデルを表示せずに人間モデルの視点を表示する場合は、表示画面を揺らすことで、より臨場感のある画面が表示できる。
【0026】
(第1実施例の効果)
上記のような方法によれば、表示画面の微小な揺れを表現でき、ユーザは歩行による移動の臨場感を得ることができる。また、人体の背後に画面の表示位置を取ることにより、人体が表示され、仮想空間の大きさを把握しやすくなる。これらの結果、ユーザの仮想空間中の移動距離感を、実際の空間における移動距離感に近付けることができる。
【0027】
(変形例)
1;前記の実施例では、歩行する人体の描画を行っていたが、これを省略し、人体の描画を行わないことも出来る。それにより、描画速度を高速に保つことができ、かつ歩行による臨場感を高めることができる。
【0028】
2;また、上半身のみなど簡略化した人物像を描画することもできる。これにより、描画速度を高速に保ちつつ、ユーザの仮想空間の大きさ把握も助けることができる。
【0029】
3;本発明の構成を図9のように変形し、位置算出部43と揺れ算出部44をわけ、位置算出部43で移動方向、位置を設定し、揺れ算出部44で表示画面の揺れを算出することもできる。揺れの算出は、波形の関数によって模擬することもできる。
【0030】
例えば、y=a・cos(2π・t/T)+h,(a:振幅幅 t:時間 T:一歩にかかる時間)といった式で、上下の揺れを模擬することが出来る。
4;構成図2のキーフレーム記憶部13は、複数のサンプルデータを用意しておけば、様々な歩き方、身長に対応した表示ができる。
(第2実施例の構成)
図10は、本発明の第2実施例の全体構成図である。図10は、本発明の第2実施例が、入力部100、形状記憶部101、位置記憶部102、位置算出部103、注視物体記憶部104、注視物体選択部105、注視物体表示設定部106、画面表示位置設定部107、表示制御部108、ディスプレイ109とから構成されることを示す。
【0031】
本発明の第2実施例を構成する各部を簡単に説明する。入力部100は、ユーザが移動方向および移動の開始、終了命令を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。形状記憶部101は、各物体の形状に関するデータを格納している部分である。
【0032】
位置記憶部102は、各物体の位置に関するデータを格納している部分である。位置算出部103は、入力部10からの入力を受けて仮想空間における現在位置を算出する部分である。注視物体記憶部104は、位置記憶部102にある物体のうち、ユーザが注視することが出来る物体をリストアップしたデータであり、位置に関するデータのID番号が格納されている。
【0033】
注視物体選択部105は、注視物体記憶部104の中で、現在地点から最も近い物体で、かつ進行方向とその物体の位置関係が設定範囲を越えないかをチェックして、選択する部分である。注視物体表示設定部106は、注視物体選択部105で選択された物体の位置データを位置記憶部102から得て、表示画面の参照点として設定する部分である。画面表示位置設定部107は、位置算出部103により設定された現在位置を参照し、画面の表示位置を設定する部分である。表示制御部108は、画面表示位置設定部107により設定された表示位置で、3次元仮想環境の画像を生成し、ディスプレイ109に表示する。
【0034】
(第2実施例の作用)
上記のような構成を有する第2実施例は、次のような作用を有する(図11、図10)。
すなわち構成図である図10の入力部100でユーザは移動の命令を入力する(120)。入力部100の入力を受けて、現在位置の3次元座標を算出する(121,図10−103)。
【0035】
図12は、現在位置の算出過程をあらわした流れ図である。次に、図10の注視物体記憶部104の中から、現在の位置から最も近い物体を選択する(123,図10−105)。
【0036】
そして、選択した物体と進行方向との角度θが、予め設定された範囲αを越えていないかをチェックする(125,図10−105)。θ<αならば、その物体を注視物体として選択し、その座標を表示画面の参照点として設定する(126,図10−注視物体表示設定部106)。
【0037】
θ>αならば、121における結果から、127を行う。図13は、注視物体の選択の過程を図示したものである。t0の時点では、物体1,2,3までの距離がd1t0<d2t0<d3t0であり、かつ物体1は進行方向に対しての角度θ1t0 が設定された範囲αより小さいので、物体1が選択される。
【0038】
一方、t1の時点では、d2t1<d1t1<d3t1、角度はθ2t1 <αであるので、物体2が選択される。次に、画面参照点設定126と121の結果から、画面の表示位置を設定する(127、図10−107)。
【0039】
このように設定された表示位置からの画像を表示する(128、図10−108、109)。入力部100で停止の命令が来ないかぎり繰り返す。
(第2実施例の効果)
上記のような方法によれば、ユーザは任意の物体を注視しながら移動することが可能になる。したがって、より実際の空間における移動感覚に近付けることができる。
【0040】
(変形例)
上記の第2実施例では、注視物体記憶部104(図10)を使用し、注視物体を選択しているが、これを使用せず、表示画面中で最も大きく描画されている物体を選択し、その物体を注視物体として設定することもできる。例えば、視野中にある物体の現在位置からの距離算出を行う。また、その物体のバウンディング・ボックス・データ(図2)から、どの物体の大きさを求める。
【0041】
そして、距離と大きさとの比をとり、その比がもっとも大きいものを注視物体とする。このような方法によれば、ユーザは予め注視物体のリストアップデータを作成することなく、任意の物体を注視しながら移動することが可能になる。したがって、データ入力の作業時間が短縮でき、実際の空間における移動感覚に近いウォークスルーが可能となる。
【0042】
また、本願発明の第1実施例と第2実施例を組み合わせた構成を有することにより、人間モデルの動きによる揺れと人間モデルの視点の移動を忠実に再現することができる。
【0043】
(第3実施例の構成)
図14は、本発明の第3実施例の全体構成図である。図14は、本発明の第3実施例が、入力部50、空間構成記憶部51、人体形状記憶部52、人体位置算出部53、頭部回転角算出部54、画面表示位置設定部55、表示制御部56、ディスプレイ57とから構成されることを示す。
【0044】
本発明の第3実施例を構成する各部を簡単に説明する。
入力部50は、ユーザが視点の移動を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。
空間構成記憶部51は、仮想空間を構成する各物体の形状および位置に関するデータを格納している部分である。人体形状記憶部52は、人体の形状データを格納している部分である。
【0045】
人体位置算出部53は、人体形状記憶部52のデータと入力部50の視点の移動の入力とから、人体の位置を算出し設定する部分である。頭部回転角算出部54は、人体形状記憶部52のデータと入力部50の視点の移動の入力とから、人体の頭部の回転角度を設定する部分である。
【0046】
画面表示位置設定部55は、入力部50から入力された視点変更の入力値を参照し、画面の表示位置を設定する部分である。表示制御部56は、画面表示位置設定部55により設定された表示位置で、空間構成記憶部51と人体形状記憶部52と画面表示位置設定部55を参照して3次元仮想環境の画像と人体を生成し、ディスプレイ57に表示する。ディスプレイは、CRT以外にも大型スクリーンなどほかのデバイスを利用することが可能である。図16は、表示画面例である。
【0047】
(第3実施例の作用)
上記のような構成を有する第3実施例は、次のような作用を有する(図14,図15)。図15はマウスのボタンを押すことにより移動開始命令を、またマウスのx軸方向の移動によって左右の回転を行う場合の流れ図である。構成図である図14の入力部50で、ユーザは移動命令と視線方向の入力を行なう。例えば、マウスのボタンを押す事によって移動開始命令を入力し(150)、画面中心を(x,y)=(0,0)として、マウスのx,y座標値を視線方向の変更値とする(153)。
【0048】
移動開始命令が入力された時、人体の向き(vec)を算出し確保する(151)。移動開始命令が来ないかぎり、人体の向き(vec)は変わらない。
次に人体の位置(pos) を画面の視点位置より予め設定した値分だけ人体の向いている方向(vec) でかつ下に設定する(152)。
また、入力されたx,y座標値から、目的方向への人体頭部の回転角度を算出する(図14−54,図15−154)。図15の154では、回転角度(yow)の最大、最小値を予め設定しておき、その範囲でマウスのx軸方向の動きに対応したyow を設定する。
【0049】
次に、図14の55で、画面の表示位置を設定する。図15の155では、人体方向算出部151で設定した人体の向き(vec)の方向に、予め設定した移動量だけ更新して新たな視点(view)を設定する。また、頭部回転角度設定部154で設定した回転角度(yow)により、新たな参照点(ref)の算出を行なっている。
【0050】
このように設定された画面の表示位置と、人体の位置と向き、人体頭部の角度、および空間構成記憶部51、人体形状記憶部52のデータにより、仮想空間と人体の画像を表示する(図6−24,図1−16,17)。空間構成記憶部51は、例えばVRMLのようなオブジェト化されたデータベースである。
【0051】
(第3実施例の効果)
上記のような方法によれば、ユーザはVRMLのようなオブジェクト化されたデータベースによって構築された3次元空間を、ウォークスルーするような場合に、人体を表示することによって仮想の空間を歩いて回っている臨場感をえることが出来る。また、空間を見回す操作を人体の頭部をまわす動作に対応させたことによって、ユーザは操作結果を直観的に分かりやすくなる。また、カメラのパンにあたる視点の回転と、カメラの移動にあたる視点の移動とを、人体の頭部と胴体に別個に割り振っているので、操作が容易にできる。また、第1、第2、第3の実施例において、人体の表示を透明にすることにより、見易い画面表示を提供することができる。
【0052】
【発明の効果】
以上のように、本発明によれば、ユーザは仮想空間をウォークスルーする際に、人体大きさと背景により、空間の大きさの把握が容易になり、かつ歩いて移動している臨場感を持つことができる。そして、その結果、特別なデバイスを用いないで、実際の空間における移動距離感覚に近いものをえることができる低コストなシステムを実現できる。
このような仮想空間表示方式は、実際の空間を模して作成した仮想空間で、パトロール訓練や道案内を行うような場合に有効となる。
さらに、本発明によれば、ユーザは仮想空間中を任意の物体を注視しながらウォークスルーすることができ、より実際の空間での移動に近い臨場感を与えられる。このような仮想空間表示方式は、バーチャルモールをウィンドウショッピングして歩くような場合に有効となる。
【図面の簡単な説明】
【図1】本願発明の第1実施例の全体構成図である。
【図2】本願発明の物体の形状に関するデータの記憶形式の一例を示した図である。
【図3】本願発明の物体の位置に関するデータの記憶形式の一例を示した図である。
【図4】本願発明のキーフレームデータの記憶例を示した図である。
【図5】本願発明の人体を描画した表示画面を示した図である。
【図6】本願発明の第1実施例の全体の流れ図である。
【図7】本願発明の基準位置設定の流れ図である。
【図8】本願発明の歩行による揺れ算出の概念図である。
【図9】本願発明の第1実施例の変形例の全体構成図である。
【図10】本願発明の第2実施例の全体構成図である。
【図11】本願発明の第2実施例の全体の流れ図である。
【図12】本願発明の第2実施例の現在位置算出の流れ図である。
【図13】本願発明の注視物体選択の概念図である。
【図14】本願発明の第3実施例の全体構成図である。
【図15】本願発明の第3実施例の全体の流れ図である。
【図16】本願発明の第3実施例の人体を描画した表示画面を示した図である。
【図17】従来例の画面表示例を示した図である。
【図18】従来例の画面表示例を示した図である。
【符号の説明】
10,40,100  入力部
11,41,101  形状記憶部
12,42,102 位置記憶部
13 キーフレーム記憶部
14,44 揺れ算出部
15,45,107  画面表示位置設定部
16,46,108  表示制御部
17,47,109  ディスプレイ
43,103  位置算出部
104  注視物体記憶部
105  注視物体選択部
106  注視物体表示設定部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a virtual space display method for movement in a three-dimensional virtual space generated by computer graphics.
[0002]
[Prior art]
Conventionally, movement in a three-dimensional virtual space generated by computer graphics has been performed smoothly by linear interpolation to a designated target or in a designated direction.
[0003]
In addition, a screen at a viewpoint position corresponding to the user's field of view was displayed (FIG. 17). Further, during the movement, a screen display has been performed in which the moving direction and the direction of the visual field coincide with each other, or the screen moves parallel to the left and right while keeping the line of sight. However, in the case of linear and smooth movement, the sense of presence of movement by walking is poor. In addition, in the display as the user's visual field, it is very difficult to recognize the size of the space in a space that is unfamiliar or in a space with few objects. Therefore, there is a problem that it is difficult to grasp the moving distance to the target.
[0004]
In addition, the method of matching the moving direction with the direction of the field of view or the parallel movement of the left and right has a problem in that the user cannot move while gazing at something.
On the other hand, Hiroo Iwata et al .: "The Reality and Analysis of Dynamic Walking in a Walkthrough Simulator", Human Interface N & R, Vol. 8, No. 2, pp. 199-204 (1993) and Michitaka Hirose et al .: "Study on Synthesis of Sense of Moving Distance", Human Interface N & R, Vol. 8, No. 2, pp. 277-282 (1995), a method has been adopted in which a walking motion is input using a special device to give a sense of moving distance.
[0005]
However, the use of such a special device has a problem that the cost is high both spatially and costly.
Further, the method of always displaying a walking person has a problem that the drawing speed is slow.
Also, recently, there is a 3D viewer for the World Wide Web such as webspace, and each site can walk through a three-dimensional space constructed by VRML (Virtual Reality Modeling Language). However, the interface for the walk-through is such as operating a control object such as a steering wheel, which is far from the feeling that a user is walking around in a space (FIG. 18).
[0006]
[Problems to be solved by the invention]
The present invention has been devised for such a problem. There is a problem that simply moving in the three-dimensional virtual space generated by computer graphics does not generate a sufficient sense of distance.
[0007]
In the conventional walk-through, since the moving direction and the viewpoint direction match, it was not possible to walk while looking at surrounding objects. It aims at realizing a low-cost system that can speed up drawing and give a feeling of movement close to the real space.
[0008]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, in a virtual space display method for displaying the movement of an object in a three-dimensional virtual space generated by computer graphics, the movement is performed based on the positions of parts of the object stored in advance. A change in the position of the center of gravity of the object to be obtained is obtained, a shake of the object to be moved is generated based on the obtained change in the position of the center of gravity of the object, and the object is moved based on the generated shake of the object. The object to be powered is displayed.
[0009]
In a virtual space display method for displaying movement of an object in a three-dimensional virtual space generated by computer graphics, a notable object of an object to be moved is set, and a position of the set notable object is set. And moving the viewpoint of the object to be moved from the first object of interest to the second object of interest based on the position of the object to be moved, and according to the viewpoint of the moved object. And displaying an object to be moved.
[0010]
Further, in a virtual space display method for displaying a movement of an object in a three-dimensional virtual space generated by computer graphics, an orientation and a movement direction of the object to be moved in the three-dimensional space are set, and the set object is set. The rotation angle of the object to be moved is calculated based on the direction of the movement, and the object to be moved is displayed based on the obtained rotation angle and the set movement direction.
[0011]
As a result, according to the virtual space display method of the present invention, it is easy to grasp the size of the space by displaying the moving human body. In addition, since the screen display position is determined with reference to the viewpoint of the human body that moves while walking, the screen slightly shakes, and the sense of presence of the movement by walking increases. As a result, it is possible to realize a low-cost system that can provide a sense of moving distance close to an actual space without using a special device.
[0012]
Furthermore, by setting a gaze object and displaying it constantly, it is possible to move while walking while seeing something in the virtual space, realizing a natural display that is closer to operation in a real space. .
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Configuration of First Embodiment)
FIG. 1 is an overall configuration diagram of a first embodiment of the present invention.
FIG. 1 shows an input unit 10, a shape storage unit 11, a position storage unit 12, a key frame storage unit 13, a swing calculation unit 14, a screen display position setting unit 15, a display control unit 16, And the display 17.
[0014]
Each part constituting the first embodiment of the present invention will be briefly described. The input unit 10 is a part where the user inputs a movement start and end command. In this embodiment, a mouse is used as an input device.
[0015]
However, the present invention can be implemented by a method using other input devices (joystick, data glove, keyboard). The shape storage unit 11 is a part that stores data on the shape of each object.
[0016]
FIG. 2 is an example of storing data on the shape of an object in the shape storage unit 11. A name for each object, an id number, center coordinates, six vertex coordinates of a cuboid (bounding box) circumscribing the three-dimensional shape, and a pointer indicating a location where actual three-dimensional shape data is stored are stored. Have been. The position storage unit 12 is a part that stores data relating to the position of each object.
[0017]
FIG. 3 is a storage example of data relating to the position of the object in the position storage unit 12. The id number of the object in the three-dimensional space, the ID number of the shape data, and information on the position coordinate value and the rotation angle are stored. The key frame storage unit 13 is a part that stores data on angles of various parts of the human body during walking.
[0018]
FIG. 4 is an example of storage of key frame data in the key frame storage unit 13. The types of motions such as walking and sitting, the number of sample data sets from the start to the end of one motion, and individual data sets are stored. The shake calculating unit 14 is a part that receives an input from the input unit 10, calculates a position when the human body moves, and calculates a viewpoint position for simulating the body shake caused by the movement of the center of gravity. The screen display position setting unit 15 is a unit that sets the display position of the screen with reference to the viewpoint position of the human body calculated by the shaking calculation unit 14. The display control unit 16 generates an image of a three-dimensional virtual environment and a human body at the display position set by the screen display position setting unit 15 and displays the image on the display 17.
[0019]
FIG. 5 is an example of a display screen. As the display, other devices such as a head-mounted display and a large screen can be used in addition to the CRT.
(Operation of the First Embodiment)
The first embodiment having the above configuration has the following operation (FIGS. 8, 6, and 1).
That is, the user inputs a movement command through the input unit 10 of the configuration diagram 2 (20). Upon receiving the input, the reference point and the destination point of the next human body are set based on the current reference point, the destination point, and a preset step length so that the human body walks in the direction of the destination point (21, FIG. 1-14).
[0020]
FIG. 7 is a flowchart showing an example of setting a reference point. For example, it is set based on preset key frame data of the walking motion (FIGS. 1-13 and 4). When the center of gravity during walking is on the right foot, the waist position as a reference position is calculated from the angle data of each part of the right foot set in the key frame data. The key frame data is obtained by sampling the movement of a human at regular time intervals.
[0021]
Therefore, when the coordinates of the reference point of the human body are arranged on the time axis, a gentle waveform is drawn. The reference points and destination points set in this process are P and A in FIG.
Next, the viewpoint of the human body is calculated as a position higher by D (mm) from this reference point. (22, FIGS. 1-14). The reference point of the human body is calculated as a point higher by D (mm) from the destination point. The viewpoint and reference point of the human body set in this process are E and R in FIG. 8, and the difference between the viewpoint and the center point is D.
[0022]
Next, the display position of the screen is set at a position H (mm) higher than the viewpoint of the human body by a predetermined B (mm) and higher by H (mm) than the viewpoint of the human body as a result of the shake calculation 22 (23). , Figures 1-15).
[0023]
The reference point on the screen sets the value of the reference point of the human body. For example, if B = 2000 (mm) and H = 300 (mm), a screen display position that follows a person from a position 2 (m) behind the person and 30 (cm) higher than the height of the eyes of the person (FIG. 5).
[0024]
If B = 0 (mm) and H = 0 (mm), the screen matches the viewpoint of the person. The display position of the screen and the reference point of the screen set in this process are V and R in FIG. 8, the distance between the viewpoint and the display position is B, and the difference in height is H. The virtual space and the image of the human body from the display position of the screen set in this way are displayed (24, FIGS. 1-16, 17). This operation is repeated unless a stop command is input from the input unit 10.
[0025]
Regarding the display, it is conceivable that 1: the human model is shaken, 2: the display screen is shaken, 3: the human model and the display screen are shaken. In any case in the present invention, a realistic display screen can be generated. However, when a human model is displayed in a three-dimensional space, the human model is shaken so that an image which is easy to see when viewed from outside is displayed. When the viewpoint of the human model is displayed without displaying the human model, a more realistic screen can be displayed by shaking the display screen.
[0026]
(Effect of the first embodiment)
According to the method as described above, a slight shaking of the display screen can be expressed, and the user can obtain a sense of realism of movement by walking. Further, by taking the display position of the screen behind the human body, the human body is displayed, and the size of the virtual space can be easily grasped. As a result, the user's feeling of moving distance in the virtual space can be made closer to the feeling of moving distance in the actual space.
[0027]
(Modification)
1: In the above-described embodiment, the drawing of the walking human body is performed. However, this may be omitted and the drawing of the human body may not be performed. Thereby, the drawing speed can be kept high, and the sense of presence due to walking can be enhanced.
[0028]
2: It is also possible to draw a simplified human image such as only the upper body. This can help the user to grasp the size of the virtual space while keeping the drawing speed high.
[0029]
3: The configuration of the present invention is modified as shown in FIG. 9, the position calculating unit 43 and the shaking calculating unit 44 are divided, the moving direction and the position are set by the position calculating unit 43, and It can also be calculated. The calculation of the swing can be simulated by a function of the waveform.
[0030]
For example, a vertical swing can be simulated by an expression such as y = a · cos (2π · t / T) + h, (a: amplitude width t: time T: time required for one step).
4: If the key frame storage unit 13 of FIG. 2 prepares a plurality of sample data, a display corresponding to various walking styles and heights can be performed.
(Configuration of Second Embodiment)
FIG. 10 is an overall configuration diagram of the second embodiment of the present invention. FIG. 10 shows that the input unit 100, the shape storage unit 101, the position storage unit 102, the position calculation unit 103, the gazing object storage unit 104, the gazing object selection unit 105, and the gazing object display setting unit 106 correspond to the second embodiment of the present invention. , A screen display position setting unit 107, a display control unit 108, and a display 109.
[0031]
Each part constituting the second embodiment of the present invention will be briefly described. The input unit 100 is a part where the user inputs a moving direction and a start and end command of the movement. In this embodiment, a mouse is used as an input device. The shape storage unit 101 is a part that stores data on the shape of each object.
[0032]
The position storage unit 102 is a part that stores data on the position of each object. The position calculation unit 103 is a unit that receives an input from the input unit 10 and calculates the current position in the virtual space. The gazing object storage unit 104 is data that lists objects that the user can gaze out of the objects in the position storage unit 102, and stores an ID number of data relating to the position.
[0033]
The gazing object selection unit 105 is a unit for checking and selecting whether the gazing object storage unit 104 is an object closest to the current position, and whether the traveling direction and the positional relationship of the object do not exceed a set range. . The gazing object display setting unit 106 is a part that obtains the position data of the object selected by the gazing object selection unit 105 from the position storage unit 102 and sets it as a reference point on the display screen. The screen display position setting unit 107 is a unit that sets the display position of the screen with reference to the current position set by the position calculation unit 103. The display control unit 108 generates an image of the three-dimensional virtual environment at the display position set by the screen display position setting unit 107, and displays the image on the display 109.
[0034]
(Operation of the Second Embodiment)
The second embodiment having the above configuration has the following operation (FIGS. 11 and 10).
That is, the user inputs a movement command using the input unit 100 of FIG. 10 which is a configuration diagram (120). In response to the input from the input unit 100, three-dimensional coordinates of the current position are calculated (121, FIGS. 10-103).
[0035]
FIG. 12 is a flowchart showing the process of calculating the current position. Next, the object closest to the current position is selected from the watched object storage unit 104 in FIG. 10 (123, FIGS. 10-105).
[0036]
Then, it is checked whether the angle θ between the selected object and the traveling direction does not exceed a preset range α (125, FIGS. 10-105). If θ <α, the object is selected as a gazing object, and its coordinates are set as reference points on the display screen (126, FIG. 10-gazing object display setting unit 106).
[0037]
If θ> α, 127 is performed from the result at 121. FIG. 13 illustrates a process of selecting a gazing object. At time t0, the distance to the objects 1, 2, 3 is d1t0 <d2t0 <d3t0, and the object 1 is selected because the angle θ1t0 with respect to the traveling direction is smaller than the set range α. You.
[0038]
On the other hand, at time t1, d2t1 <d1t1 <d3t1 and the angle θ2t1 <α, so that the object 2 is selected. Next, the display position of the screen is set from the results of the screen reference point settings 126 and 121 (127, FIGS. 10-107).
[0039]
The image from the display position thus set is displayed (128, FIGS. 10-108, 109). This operation is repeated unless a stop command is input from the input unit 100.
(Effect of Second Embodiment)
According to the above method, the user can move while gazing at an arbitrary object. Therefore, the movement sensation in the actual space can be more approximated.
[0040]
(Modification)
In the above-described second embodiment, the gazing object storage unit 104 (FIG. 10) is used to select the gazing object. However, without using the gazing object, the object drawn the largest in the display screen is selected. , The object can be set as a gaze object. For example, the distance from the current position of the object in the field of view is calculated. Further, the size of any object is determined from the bounding box data of the object (FIG. 2).
[0041]
Then, the ratio between the distance and the size is determined, and the object having the largest ratio is determined as the gazing object. According to such a method, the user can move while gazing at an arbitrary object without creating list-up data of the gazing object in advance. Therefore, the work time for data input can be shortened, and a walk-through that is close to a sense of movement in an actual space can be performed.
[0042]
Further, by having a configuration in which the first embodiment and the second embodiment of the present invention are combined, it is possible to faithfully reproduce the shaking caused by the movement of the human model and the movement of the viewpoint of the human model.
[0043]
(Configuration of Third Embodiment)
FIG. 14 is an overall configuration diagram of the third embodiment of the present invention. FIG. 14 shows a third embodiment of the present invention in which an input unit 50, a spatial configuration storage unit 51, a human body shape storage unit 52, a human body position calculation unit 53, a head rotation angle calculation unit 54, a screen display position setting unit 55, This shows that the display control unit 56 and the display 57 are configured.
[0044]
Each part constituting the third embodiment of the present invention will be briefly described.
The input unit 50 is a part where the user inputs the movement of the viewpoint. In this embodiment, a mouse is used as an input device.
The space configuration storage unit 51 is a part that stores data relating to the shape and position of each object constituting the virtual space. The human body shape storage unit 52 is a part that stores human body shape data.
[0045]
The human body position calculation unit 53 is a part that calculates and sets the position of the human body from the data of the human body shape storage unit 52 and the input of the movement of the viewpoint of the input unit 50. The head rotation angle calculation unit 54 is a part that sets the rotation angle of the head of the human body based on the data of the human body shape storage unit 52 and the input of the movement of the viewpoint of the input unit 50.
[0046]
The screen display position setting unit 55 is a part that sets the display position of the screen with reference to the input value of the viewpoint change input from the input unit 50. The display control unit 56 refers to the space configuration storage unit 51, the human body shape storage unit 52, and the screen display position setting unit 55 at the display position set by the screen display position setting unit 55, and displays the image of the three-dimensional virtual environment and the human body. Is generated and displayed on the display 57. The display can use other devices such as a large screen other than the CRT. FIG. 16 is an example of a display screen.
[0047]
(Operation of Third Embodiment)
The third embodiment having the above configuration has the following operation (FIGS. 14 and 15). FIG. 15 is a flowchart in the case where a movement start command is issued by pressing a mouse button, and the mouse is rotated left and right by moving in the x-axis direction. The user inputs a movement command and a line-of-sight direction using the input unit 50 shown in FIG. For example, a movement start command is input by pressing a mouse button (150), the center of the screen is set to (x, y) = (0, 0), and the x, y coordinate values of the mouse are set as the line-of-sight direction change values. (153).
[0048]
When a movement start command is input, the orientation (vec) of the human body is calculated and secured (151). Unless a movement start command is received, the direction (vec) of the human body does not change.
Next, the position (pos) of the human body is set in the direction (vec) in which the human body is facing and below by a preset value from the viewpoint position on the screen (152).
Further, the rotation angle of the human head in the target direction is calculated from the input x, y coordinate values (FIGS. 14-54, 15-154). In 154 of FIG. 15, the maximum and minimum values of the rotation angle (you) are set in advance, and within that range, the value corresponding to the movement of the mouse in the x-axis direction is set.
[0049]
Next, the display position of the screen is set at 55 in FIG. In 155 of FIG. 15, a new viewpoint (view) is set by updating the movement amount set in advance in the direction of the human body direction (vec) set by the human body direction calculation unit 151. Further, a new reference point (ref) is calculated based on the rotation angle (you) set by the head rotation angle setting unit 154.
[0050]
The virtual space and the image of the human body are displayed based on the display position of the screen set in this way, the position and orientation of the human body, the angle of the human head, and the data of the space configuration storage unit 51 and the human body shape storage unit 52 ( 6-24, 1-16, 17). The space configuration storage unit 51 is an objectized database such as VRML, for example.
[0051]
(Effect of Third Embodiment)
According to the method as described above, a user walks around a virtual space by displaying a human body when walking through a three-dimensional space constructed by an objectized database such as VRML. You can get a sense of presence. In addition, by making the operation of looking around the space correspond to the operation of turning the head of the human body, the user can intuitively understand the operation result. Further, since the rotation of the viewpoint corresponding to the panning of the camera and the movement of the viewpoint corresponding to the movement of the camera are separately allocated to the head and the body of the human body, the operation can be easily performed. In the first, second, and third embodiments, by making the display of the human body transparent, it is possible to provide a screen display that is easy to see.
[0052]
【The invention's effect】
As described above, according to the present invention, when a user walks through a virtual space, the user can easily grasp the size of the space due to the human body size and the background, and has a sense of realism while walking and moving. be able to. As a result, it is possible to realize a low-cost system that can obtain an object close to the sense of moving distance in an actual space without using a special device.
Such a virtual space display method is effective when performing patrol training and route guidance in a virtual space created by imitating an actual space.
Further, according to the present invention, the user can walk through the virtual space while gazing at an arbitrary object, thereby giving a sense of realism closer to movement in an actual space. Such a virtual space display method is effective in a case where a user walks through a virtual mall by window shopping.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram of a first embodiment of the present invention.
FIG. 2 is a diagram showing an example of a storage format of data relating to the shape of an object according to the present invention.
FIG. 3 is a diagram showing an example of a storage format of data relating to the position of an object according to the present invention.
FIG. 4 is a diagram showing a storage example of key frame data according to the present invention.
FIG. 5 is a view showing a display screen of the present invention in which a human body is drawn.
FIG. 6 is an overall flowchart of the first embodiment of the present invention.
FIG. 7 is a flowchart for setting a reference position according to the present invention;
FIG. 8 is a conceptual diagram of calculation of shaking due to walking according to the present invention.
FIG. 9 is an overall configuration diagram of a modification of the first embodiment of the present invention.
FIG. 10 is an overall configuration diagram of a second embodiment of the present invention.
FIG. 11 is an overall flowchart of a second embodiment of the present invention.
FIG. 12 is a flowchart of a current position calculation according to the second embodiment of the present invention.
FIG. 13 is a conceptual diagram of gaze object selection according to the present invention.
FIG. 14 is an overall configuration diagram of a third embodiment of the present invention.
FIG. 15 is an overall flowchart of a third embodiment of the present invention.
FIG. 16 is a diagram showing a display screen on which a human body is drawn according to a third embodiment of the present invention.
FIG. 17 is a diagram showing a screen display example of a conventional example.
FIG. 18 is a diagram showing a screen display example of a conventional example.
[Explanation of symbols]
10, 40, 100 Input unit 11, 41, 101 Shape storage unit 12, 42, 102 Position storage unit 13 Key frame storage unit 14, 44 Shake calculation unit 15, 45, 107 Screen display position setting unit 16, 46, 108 Display Control units 17, 47, 109 Displays 43, 103 Position calculation unit 104 Gaze object storage unit 105 Gaze object selection unit 106 Gaze object display setting unit

Claims (2)

コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、移動すべき物体の3次元空間内の向きおよび移動方向を設定し、設定した前記物体の向きをもとに、前記移動すべき物体の回転角度を求め、求めた前記回転角度と設定した前記移動方向をもとに、前記移動すべき物体を表示することを特徴とする仮想空間表示方法。In a virtual space display method for displaying a movement of an object in a three-dimensional virtual space generated by computer graphics, a direction and a movement direction of the object to be moved in the three-dimensional space are set, and the set direction of the object is set. A rotation angle of the object to be moved, and displaying the object to be moved based on the obtained rotation angle and the set movement direction. 前記移動すべき物体は人体モデルであることを特徴とする請求項1記載の仮想空間表示方法。The virtual space display method according to claim 1, wherein the object to be moved is a human body model.
JP2003177664A 1995-09-28 2003-06-23 Virtual space display method and virtual space display device Expired - Fee Related JP3830923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003177664A JP3830923B2 (en) 1995-09-28 2003-06-23 Virtual space display method and virtual space display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP25040395 1995-09-28
JP2003177664A JP3830923B2 (en) 1995-09-28 2003-06-23 Virtual space display method and virtual space display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP8054301A Division JPH09153146A (en) 1995-09-28 1996-03-12 Virtual space display method

Publications (2)

Publication Number Publication Date
JP2004030667A true JP2004030667A (en) 2004-01-29
JP3830923B2 JP3830923B2 (en) 2006-10-11

Family

ID=31189778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003177664A Expired - Fee Related JP3830923B2 (en) 1995-09-28 2003-06-23 Virtual space display method and virtual space display device

Country Status (1)

Country Link
JP (1) JP3830923B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013232205A (en) * 2013-06-13 2013-11-14 Sega Corp Image processing program and computer-readable recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013232205A (en) * 2013-06-13 2013-11-14 Sega Corp Image processing program and computer-readable recording medium

Also Published As

Publication number Publication date
JP3830923B2 (en) 2006-10-11

Similar Documents

Publication Publication Date Title
JPH09153146A (en) Virtual space display method
US10928974B1 (en) System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface
US20230090043A1 (en) Virtual reality system and method
CN113096252B (en) Multi-movement mechanism fusion method in hybrid enhanced teaching scene
US10521028B2 (en) System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
JP4413203B2 (en) Image presentation device
JPH1118025A (en) Image display device
JPH09152954A (en) Method and device for presenting information
JPH10261090A (en) Motion capture system
Webel et al. Immersive experience of current and ancient reconstructed cultural attractions
US6384820B2 (en) Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization
Elvezio et al. Travel in large-scale head-worn VR: Pre-oriented teleportation with WIMs and previews
CN108830944A (en) Optical perspective formula three-dimensional near-eye display system and display methods
JP3341734B2 (en) Video display device
JP3830923B2 (en) Virtual space display method and virtual space display device
JP3830922B2 (en) Virtual space display method and virtual space display device
JP2004253009A (en) Virtual space display apparatus
Beimler et al. Smurvebox: A smart multi-user real-time virtual environment for generating character animations
JP3939444B2 (en) Video display device
Beimler et al. Immersive guided tours for virtual tourism through 3D city models
US20220032196A1 (en) Animation production system
GB2605302A (en) Virtual reality system and method
von Tenspolde et al. Painting with the Watching Window: Design and Implementation of
Blakney et al. Sounds in Space: 3D Audio Experiences through Tangible Navigation
GB2605298A (en) Virtual reality system and method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060712

LAPS Cancellation because of no payment of annual fees