JP2004253009A - Virtual space display apparatus - Google Patents
Virtual space display apparatus Download PDFInfo
- Publication number
- JP2004253009A JP2004253009A JP2004168145A JP2004168145A JP2004253009A JP 2004253009 A JP2004253009 A JP 2004253009A JP 2004168145 A JP2004168145 A JP 2004168145A JP 2004168145 A JP2004168145 A JP 2004168145A JP 2004253009 A JP2004253009 A JP 2004253009A
- Authority
- JP
- Japan
- Prior art keywords
- display
- virtual space
- movement
- screen
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、コンピュータグラフィックスにより生成される3次元仮想空間内の移動における仮想空間表示方法に関する。 The present invention relates to a virtual space display method for movement in a three-dimensional virtual space generated by computer graphics.
従来、コンピュータグラフィックスにより生成される3次元仮想空間内の移動は、指示した目的物まであるいは指示方向に向かって、直線補間によるに滑らかな移動が行われていた。 Conventionally, movement in a three-dimensional virtual space generated by computer graphics has been performed smoothly by linear interpolation to a designated target or in a designated direction.
また、その表示はユーザの視野に相当する視点位置の画面が表示されていた(図17)。
さらに、移動中は移動方向と視野の方向は一致している、あるいは視線方向はそのままで左右に平行移動するといった画面表示が行われていた。しかし、直線的で滑らかな移動では、歩行による移動の臨場感が乏しい。また、ユーザの視野としての表示では、見慣れない空間、あまり物の無い空間においては、空間の大きさを認知することが非常に難しい。従って、目標物までの移動距離を把握することが困難であるという問題があった。
In addition, a screen at a viewpoint position corresponding to the user's field of view was displayed (FIG. 17).
Further, during the movement, a screen display has been performed in which the moving direction and the direction of the visual field coincide with each other, or the screen moves parallel to the left and right while keeping the line of sight. However, in the case of linear and smooth movement, the sense of presence of movement by walking is poor. In addition, in the display as the user's visual field, it is very difficult to recognize the size of the space in a space that is unfamiliar or in a space with few objects. Therefore, there is a problem that it is difficult to grasp the moving distance to the target.
また、移動方向と視野の方向を一致させる、あるいは左右の平行移動といった方法では、ユーザは何かを注視しながら移動することができないという問題があった。
一方、岩田洋夫他:“ウォークスルー・シミュレータにおける動歩行の現実と解析”,ヒューマン・インタフェースN&R、Vol.8, No.2, pp.199−204 (1993)や、廣瀬通孝他:“移動距離感覚の合成に関する研究”,ヒューマン・インタフェースN&R、Vol.8,No.2,pp.277−282(1995)にあるように、特別な装置を用いて歩行運動を入力し、移動距離感覚を与える方法が取られてきた。
In addition, the method of matching the moving direction with the direction of the field of view or the parallel movement of the left and right has a problem in that the user cannot move while gazing at something.
On the other hand, Hiroo Iwata et al .: "The Reality and Analysis of Dynamic Walking in a Walkthrough Simulator", Human Interface N & R, Vol. 8, No. 2, pp. 199-204 (1993), Michitaka Hirose et al .: "Study on Synthesis of Moving Distance Sense", Human Interface N & R, Vol. 8, No. 2, pp. As described in 277-282 (1995), a method has been adopted in which a walking motion is input using a special device to give a sense of moving distance.
しかし、そのような特別な装置を用いることは、空間的にも、価格的にもコストが高くなるという問題があった。さらに、歩行する人物を常に表示する方法では、描画速度が遅くなるという問題があった。 However, the use of such a special device has a problem that the cost is high both spatially and costly. Further, the method of always displaying a walking person has a problem that the drawing speed is slow.
また、最近ではwebspaceのようなWorld Wide Webのための3D Viewer があり、各サイトがVRML(Virtual Reality Modeling Language)によって構築した3次元空間を、ウォークスルーすることが出来る。しかし、そのウォークスルーのためのインタフェースは、ハンドル等のコントロール用オブジェクトを操作するといったものであり、空間の中をユーザが歩いて回っているという感覚とは程遠いものであった(図18)。 Recently, there is a 3D viewer for the World Wide Web such as webspace, and each site can walk through a three-dimensional space constructed by VRML (Virtual Reality Modeling Language). However, the interface for the walk-through is such as operating a control object such as a steering wheel, which is far from the feeling that a user is walking around in a space (FIG. 18).
本発明は、この様な問題に対して考案されたものである。コンピュータグラフィックスにより生成された3次元仮想空間内を単に移動するだけでは、充分な距離感が生成されないという問題があった。 The present invention has been devised for such a problem. There is a problem that simply moving in the three-dimensional virtual space generated by computer graphics does not generate a sufficient sense of distance.
従来のウォークスルーでは、移動方向と視点方向が一致しているため、周囲のものを見ながら歩くということができなかった。描画を高速化し、実際の空間に近い移動感覚を与えることのできる低コストなシステムの実現を目的としている。 In the conventional walk-through, since the moving direction and the viewpoint direction match, it was not possible to walk while looking at surrounding objects. It aims at realizing a low-cost system that can speed up drawing and give a feeling of movement close to the real space.
上記の課題を解決するために、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示装置において、動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、前記揺れ算出部で算出した位置をもとに、前記移動物体の移動を表示するディスプレイとを具備したことを特徴とする。 In order to solve the above-mentioned problem, in a virtual space display device for displaying the movement of an object in a three-dimensional virtual space generated by computer graphics, a moving object And a swing calculation unit that calculates a preset position of the moving object based on the change in the reference position, and the movement based on the position calculated by the shake calculation unit. A display for displaying the movement of the object.
また、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示方法において、動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、前記揺れ算出部で算出した位置をもとに、画面に表示される前記移動物体の表示位置を設定する画面表示位置設定部と、前記画面表示設定部で設定された表示位置で前記物体の移動を表示するディスプレイとを具備したことを特徴とする。 In a virtual space display method for displaying a movement of an object in a three-dimensional virtual space generated by computer graphics, a change in a reference position of the moving object is obtained from an operation of key frame data storing data of an operation part. A swing calculating unit that calculates a preset position of the moving object based on the change in the reference position, and a position of the moving object displayed on a screen based on the position calculated by the swing calculating unit. A screen display position setting unit for setting a display position, and a display for displaying the movement of the object at the display position set by the screen display setting unit are provided.
さらに、コンピュータグラフィックスにより生成される3次元仮想空間内での物体の移動を表示する仮想空間表示装置において、動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、前記揺れ算出部で算出した位置をもとに、画面表示位置を設定する画面表示位置設定部と、前記画面表示設定部で設定された画面表示位置から前記移動物体の移動を表示するディスプレイとを具備したことを特徴とする。 Further, in a virtual space display device for displaying the movement of an object in a three-dimensional virtual space generated by computer graphics, a change in a reference position of the moving object is obtained from the operation of the key frame data storing the data of the operation part. A swing calculation unit that calculates a preset position of the moving object based on the change in the reference position, and a screen display position that sets a screen display position based on the position calculated by the shake calculation unit. And a display for displaying the movement of the moving object from the screen display position set by the screen display setting unit.
その結果、本発明の仮想空間表示方式は、移動する人体の表示により空間の大きさの把握が容易になる。また、歩いて移動する人体の視点を参照して画面表示位置を決定するため、画面がわずかに揺れて、歩行による移動の臨場感が高まる。その結果、特別なデバイスを用いないで、実際の空間に近い移動距離感覚を与えることができる低コストなシステムを実現できる。 As a result, according to the virtual space display method of the present invention, it is easy to grasp the size of the space by displaying the moving human body. In addition, since the screen display position is determined with reference to the viewpoint of the human body that moves while walking, the screen slightly shakes, and the sense of presence of the movement by walking increases. As a result, it is possible to realize a low-cost system that can provide a sense of moving distance close to an actual space without using a special device.
さらに、注視物体を設定し、それを常に表示することにより、仮想空間中の何かを見ながら歩いて移動することが可能になり、より実際の空間における動作に近い、自然な表示を実現できる。 Furthermore, by setting a gaze object and displaying it constantly, it is possible to move while walking while seeing something in the virtual space, realizing a natural display that is closer to operation in a real space. .
以上のように、本発明によれば、ユーザは仮想空間をウォークスルーする際に、人体大きさと背景により、空間の大きさの把握が容易になり、かつ歩いて移動している臨場感を持つことができる。そして、その結果、特別なデバイスを用いないで、実際の空間における移動距離感覚に近いものをえることができる低コストなシステムを実現できる。 As described above, according to the present invention, when a user walks through a virtual space, the user can easily grasp the size of the space due to the human body size and the background, and has a sense of realism while walking and moving. be able to. As a result, it is possible to realize a low-cost system that can obtain an object close to the sense of moving distance in an actual space without using a special device.
このような仮想空間表示方式は、実際の空間を模して作成した仮想空間で、パトロール訓練や道案内を行うような場合に有効となる。
さらに、本発明によれば、ユーザは仮想空間中を任意の物体を注視しながらウォークスルーすることができ、より実際の空間での移動に近い臨場感を与えられる。このような仮想空間表示方式は、バーチャルモールをウィンドウショッピングして歩くような場合に有効となる。
Such a virtual space display method is effective when performing patrol training and route guidance in a virtual space created by imitating an actual space.
Further, according to the present invention, the user can walk through the virtual space while gazing at an arbitrary object, thereby giving a sense of realism closer to movement in an actual space. Such a virtual space display method is effective in a case where a user walks through a virtual mall by window shopping.
以下、本発明の実施例を図面に基づいて詳細に説明する。
(第1実施例の構成)
図1は、本発明の第1実施例の全体構成図である。
図1は、本発明の第1実施例が、入力部10,形状記憶部11,位置記憶部12,キーフレーム記憶部13,揺れ算出部14,画面表示位置設定部15,表示制御部16,ディスプレイ17とから構成されることを示す。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Configuration of First Embodiment)
FIG. 1 is an overall configuration diagram of a first embodiment of the present invention.
FIG. 1 shows an
本発明の第1実施例を構成する各部を簡単に説明する。
入力部10は、ユーザが移動の開始、終了命令を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。
しかし、その他の入力デバイス(ジョイスティック、データグローブ、キーボード)を使った方法でも本発明を実施することができる。形状記憶部11は、各物体の形状に関するデータを格納している部分である。
Each part constituting the first embodiment of the present invention will be briefly described.
The
However, the present invention can be implemented by a method using other input devices (joystick, data glove, keyboard). The
図2は形状記憶部11における物体の形状に関するデータの記憶例である。各物体ごとの名称と、id番号、中心座標と、3次元形状に外接する直方体(バウンディング・ボックス)の6つの頂点座標、および実際の3次元形状データが格納されている場所を示すポインタが記憶されている。位置記憶部12は、各物体の位置に関するデータを格納している部分である。
FIG. 2 is an example of storing data on the shape of an object in the
図3は、位置記憶部12における物体の位置に関するデータの記憶例である。3次元空間における物体のid番号と、形状データのID番号と、位置座標値と回転角の情報が格納されている。キーフレーム記憶部13は、歩行における人体の各部位の角度のデータを格納している部分である。
FIG. 3 is a storage example of data relating to the position of the object in the
図4は、キーフレーム記憶部13におけるキーフレームデータの記憶例である。歩く、座るといった動作の種類と、1回の動作の開始から終了までのサンプルデータセット数と、個々のデータセットが格納されている。揺れ算出部14は、入力部10からの入力を受けて、人体が移動する際の位置を算出し、重心の移動により生ずる身体の揺れを模擬するための、視点位置を算出する部分である。画面表示位置設定部15は、揺れ算出部14により算出された人体の視点位置を参照し、画面の表示位置を設定する部分である。表示制御部16は、画面表示位置設定部15により設定された表示位置で、3次元仮想環境の画像と人体を生成し、ディスプレイ17 に表示する。
FIG. 4 is an example of storage of key frame data in the key
図5は、表示画面例である。ディスプレイは、CRT以外にもヘッドマウントディスプレイや大型スクリーンなどほかのデバイスを利用することが可能である。
(第1実施例の作用)
上記のような構成を有する第1実施例は、次のような作用を有する(図8、図6、図1)。
すなわち構成図2の入力部10で、ユーザは移動の命令を入力する(20)。入力を受け、目的地点方向にそって人体を歩行させるために、現在の基準点、目的地点と予め設定された一歩幅に基づき、次の人体の基準点、目的地点を設定する(21,図1−14)。
FIG. 5 is an example of a display screen. As the display, other devices such as a head-mounted display and a large screen can be used in addition to the CRT.
(Operation of the First Embodiment)
The first embodiment having the above configuration has the following operation (FIGS. 8, 6, and 1).
That is, the user inputs a movement command through the
図7は基準点設定の例を示す流れ図である。例えば、予め設定された、歩行動作のキーフレームデータ(図1−13、図4)を元に設定する。歩行の時の重心が右足にある時には、キーフレームデータに設定された右足の各部位の角度データから、基準位置である腰の位置を算出する。キーフレームデータは人間の動きを一定時間隔でサンプリングしたものである。 FIG. 7 is a flowchart showing an example of setting a reference point. For example, it is set based on preset key frame data of the walking motion (FIGS. 1-13 and 4). When the center of gravity during walking is on the right foot, the waist position as a reference position is calculated from the angle data of each part of the right foot set in the key frame data. The key frame data is obtained by sampling the movement of a human at regular time intervals.
従って、その人体の基準となる点を座標を時間軸上に並べると、緩やかな波形を描く。この過程で設定される基準点、目的地点は、図8におけるPとAである。
次に、人体の視点は、この基準点からD(mm)高い位置として算出する。(22,図1−14)。また、人体の参照点は前記の目的地点からD(mm)高い地点として算出する。この過程で設定される人体の視点、参照点は、図8におけるEとR、視点と中心点の差はDである。
Therefore, when the coordinates of the reference point of the human body are arranged on the time axis, a gentle waveform is drawn. The reference points and destination points set in this process are P and A in FIG.
Next, the viewpoint of the human body is calculated as a position higher by D (mm) from this reference point. (22, FIGS. 1-14). The reference point of the human body is calculated as a point higher by D (mm) from the destination point. The viewpoint and reference point of the human body set in this process are E and R in FIG. 8, and the difference between the viewpoint and the center point is D.
次に、揺れ算出22の結果の人体の視点を参照し、人体の視点よりも、予め設定されたB(mm)後ろで、H(mm)高い位置に、画面の表示位置を設定する(23,図1−15)。 Next, the display position of the screen is set at a position H (mm) higher than the viewpoint of the human body by a predetermined B (mm) and higher by H (mm) than the viewpoint of the human body as a result of the shake calculation 22 (23). , Figures 1-15).
画面の参照点は、人体の参照点の値を設定する。例えば、B=2000(mm),H=300(mm)であれば、人物の2(m) 後ろで、人物の目の高さより30(cm)高い位置から、人物を追いかけるような画面表示位置になる(図5)。 The reference point on the screen sets the value of the reference point of the human body. For example, if B = 2000 (mm) and H = 300 (mm), a screen display position that follows a person from a position 2 (m) behind the person and 30 (cm) higher than the height of the eyes of the person (FIG. 5).
また、B=0(mm),H=0(mm)であれば、画面は人物の視点と一致する。この過程で設定される画面の表示位置、画面の参照点は、図8におけるVとR、視点と表示位置の距離はB、高さの差はHである。このように設定された画面の表示位置からの仮想空間と人体の画像を表示する(24,図1−16, 17)。入力部10で停止の命令が来ないかぎり繰り返す。
If B = 0 (mm) and H = 0 (mm), the screen matches the viewpoint of the person. The display position of the screen and the reference point of the screen set in this process are V and R in FIG. 8, the distance between the viewpoint and the display position is B, and the difference in height is H. The virtual space and the image of the human body from the display position of the screen set in this way are displayed (24, FIGS. 1-16, 17). This operation is repeated unless a stop command is input from the
表示に関しては、1:人間モデルを揺らす、2:表示画面を揺らす、3:人間モデルおよび表示画面を揺らすことが考えられる。本願発明においてどのケースに関しても、臨場感ある表示画面を生成することができるが、3次元空間内に人間モデルを表示する場合は、人間モデルを揺らすことで、外部から観察する際には見やすい画像が作れ、人間モデルを表示せずに人間モデルの視点を表示する場合は、表示画面を揺らすことで、より臨場感のある画面が表示できる。 Regarding the display, it is conceivable that 1: the human model is shaken, 2: the display screen is shaken, 3: the human model and the display screen are shaken. In any case in the present invention, a realistic display screen can be generated. However, when a human model is displayed in a three-dimensional space, the human model is shaken so that an image which is easy to see when viewed from outside is displayed. When the viewpoint of the human model is displayed without displaying the human model, a more realistic screen can be displayed by shaking the display screen.
(第1実施例の効果)
上記のような方法によれば、表示画面の微小な揺れを表現でき、ユーザは歩行による移動の臨場感を得ることができる。また、人体の背後に画面の表示位置を取ることにより、人体が表示され、仮想空間の大きさを把握しやすくなる。これらの結果、ユーザの仮想空間中の移動距離感を、実際の空間における移動距離感に近付けることができる。
(Effect of the first embodiment)
According to the method as described above, a slight shaking of the display screen can be expressed, and the user can obtain a sense of realism of movement by walking. Further, by taking the display position of the screen behind the human body, the human body is displayed, and the size of the virtual space can be easily grasped. As a result, the user's feeling of moving distance in the virtual space can be made closer to the feeling of moving distance in the actual space.
(変形例)
1;前記の実施例では、歩行する人体の描画を行っていたが、これを省略し、人体の描画を行わないことも出来る。それにより、描画速度を高速に保つことができ、かつ歩行による臨場感を高めることができる。
(Modification)
1: In the above-described embodiment, the drawing of the walking human body is performed. However, this may be omitted and the drawing of the human body may not be performed. Thereby, the drawing speed can be kept high, and the sense of presence due to walking can be enhanced.
2;また、上半身のみなど簡略化した人物像を描画することもできる。これにより、描画速度を高速に保ちつつ、ユーザの仮想空間の大きさ把握も助けることができる。 2: It is also possible to draw a simplified human image such as only the upper body. This can help the user to grasp the size of the virtual space while keeping the drawing speed high.
3;本発明の構成を図9のように変形し、位置算出部43と揺れ算出部44をわけ、位置算出部43で移動方向、位置を設定し、揺れ算出部44で表示画面の揺れを算出することもできる。揺れの算出は、波形の関数によって模擬することもできる。
3: The configuration of the present invention is modified as shown in FIG. 9, the
例えば、y=a・cos(2π・t/T)+h,(a:振幅幅 t:時間 T:一歩にかかる時間)といった式で、上下の揺れを模擬することが出来る。
4;構成図2のキーフレーム記憶部13は、複数のサンプルデータを用意しておけば、様々な歩き方、身長に対応した表示ができる。
(第2実施例の構成)
図10は、本発明の第2実施例の全体構成図である。
図10は、本発明の第2実施例が、入力部100、形状記憶部101、位置記憶部102、位置算出部103、注視物体記憶部104、注視物体選択部105、注視物体表示設定部106、画面表示位置設定部107、表示制御部108、ディスプレイ109とから構成されることを示す。
For example, a vertical swing can be simulated by an expression such as y = a · cos (2π · t / T) + h, (a: amplitude width t: time T: time required for one step).
4: If the key
(Configuration of Second Embodiment)
FIG. 10 is an overall configuration diagram of the second embodiment of the present invention.
FIG. 10 shows that the
本発明の第2実施例を構成する各部を簡単に説明する。
入力部100は、ユーザが移動方向および移動の開始、終了命令を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。形状記憶部101は、各物体の形状に関するデータを格納している部分である。
Each part constituting the second embodiment of the present invention will be briefly described.
The
位置記憶部102は、各物体の位置に関するデータを格納している部分である。位置算出部103は、入力部10からの入力を受けて仮想空間における現在位置を算出する部分である。注視物体記憶部104は、位置記憶部102にある物体のうち、ユーザが注視することが出来る物体をリストアップしたデータであり、位置に関するデータのID番号が格納されている。
The
注視物体選択部105は、注視物体記憶部104の中で、現在地点から最も近い物体で、かつ進行方向とその物体の位置関係が設定範囲を越えないかをチェックして、選択する部分である。注視物体表示設定部106は、注視物体選択部105で選択された物体の位置データを位置記憶部102から得て、表示画面の参照点として設定する部分である。画面表示位置設定部107は、位置算出部103により設定された現在位置を参照し、画面の表示位置を設定する部分である。表示制御部108は、画面表示位置設定部107により設定された表示位置で、3次元仮想環境の画像を生成し、ディスプレイ109に表示する。
The gazing
(第2実施例の作用)
上記のような構成を有する第2実施例は、次のような作用を有する(図11、図10)。すなわち構成図である図10の入力部100でユーザは移動の命令を入力する(120)。入力部100の入力を受けて、現在位置の3次元座標を算出する(121,図10−103)。
(Operation of the Second Embodiment)
The second embodiment having the above configuration has the following operation (FIGS. 11 and 10). That is, the user inputs a movement command using the
図12は、現在位置の算出過程をあらわした流れ図である。次に、図10の注視物体記憶部104の中から、現在の位置から最も近い物体を選択する(123,図10−105)。
FIG. 12 is a flowchart showing the process of calculating the current position. Next, the object closest to the current position is selected from the watched
そして、選択した物体と進行方向との角度θが、予め設定された範囲αを越えていないかをチェックする(125,図10−105)。θ<αならば、その物体を注視物体として選択し、その座標を表示画面の参照点として設定する(126,図10−注視物体表示設定部106)。θ>αならば、121における結果から、127を行う。図13は、注視物体の選択の過程を図示したものである。 Then, it is checked whether the angle θ between the selected object and the traveling direction does not exceed a preset range α (125, FIGS. 10-105). If θ <α, the object is selected as a gazing object, and its coordinates are set as reference points on the display screen (126, FIG. 10-gazing object display setting unit 106). If θ> α, 127 is performed from the result at 121. FIG. 13 illustrates a process of selecting a gazing object.
t0の時点では、物体1,2,3までの距離がd1t0<d2t0<d3t0であり、かつ物体1は進行方向に対しての角度θ1t0 が設定された範囲αより小さいので、物体1が選択される。一方、t1の時点では、d2t1<d1t1<d3t1、角度はθ2t1 <αであるので、物体2が選択される。
At time t0, the distance to the
次に、画面参照点設定126と121の結果から、画面の表示位置を設定する
(127、図10−107)。
このように設定された表示位置からの画像を表示する(128、図10−108、109)。入力部100で停止の命令が来ないかぎり繰り返す。
(第2実施例の効果)
上記のような方法によれば、ユーザは任意の物体を注視しながら移動することが可能になる。したがって、より実際の空間における移動感覚に近付けることができる。
Next, the display position of the screen is set from the results of the screen
The image from the display position thus set is displayed (128, FIGS. 10-108, 109). This operation is repeated unless a stop command is input from the
(Effect of Second Embodiment)
According to the above method, the user can move while gazing at an arbitrary object. Therefore, the movement sensation in the actual space can be more approximated.
(変形例)
上記の第2実施例では、注視物体記憶部104(図10)を使用し、注視物体を選択しているが、これを使用せず、表示画面中で最も大きく描画されている物体を選択し、その物体を注視物体として設定することもできる。例えば、視野中にある物体の現在位置からの距離算出を行う。また、その物体のバウンディング・ボックス・データ(図2)から、どの物体の大きさを求める。
(Modification)
In the above-described second embodiment, the gazing object storage unit 104 (FIG. 10) is used to select the gazing object. However, without using the gazing object, the object drawn the largest in the display screen is selected. , The object can be set as a gaze object. For example, the distance from the current position of the object in the field of view is calculated. Further, the size of any object is determined from the bounding box data of the object (FIG. 2).
そして、距離と大きさとの比をとり、その比がもっとも大きいものを注視物体とする。
このような方法によれば、ユーザは予め注視物体のリストアップデータを作成することなく、任意の物体を注視しながら移動することが可能になる。したがって、データ入力の作業時間が短縮でき、実際の空間における移動感覚に近いウォークスルーが可能となる。
Then, the ratio between the distance and the size is determined, and the object having the largest ratio is determined as the gazing object.
According to such a method, the user can move while gazing at an arbitrary object without creating list-up data of the gazing object in advance. Therefore, the work time for data input can be shortened, and a walk-through that is close to a sense of movement in an actual space can be performed.
また、本願発明の第1実施例と第2実施例を組み合わせた構成を有することにより、人間モデルの動きによる揺れと人間モデルの視点の移動を忠実に再現することができる。 Further, by having a configuration in which the first embodiment and the second embodiment of the present invention are combined, it is possible to faithfully reproduce the shaking caused by the movement of the human model and the movement of the viewpoint of the human model.
(第3実施例の構成)
図14は、本発明の第3実施例の全体構成図である。図14は、本発明の第3実施例が、入力部50、空間構成記憶部51、人体形状記憶部52、人体位置算出部53、頭部回転角算出部54、画面表示位置設定部55、表示制御部56、ディスプレイ57とから構成されることを示す。
(Configuration of Third Embodiment)
FIG. 14 is an overall configuration diagram of the third embodiment of the present invention. FIG. 14 shows a third embodiment of the present invention in which an
本発明の第3実施例を構成する各部を簡単に説明する。入力部50は、ユーザが視点の移動を入力する部分である。入力デバイスとしては、本実施例ではマウスを用いる。空間構成記憶部51は、仮想空間を構成する各物体の形状および位置に関するデータを格納している部分である。人体形状記憶部52は、人体の形状データを格納している部分である。
Each part constituting the third embodiment of the present invention will be briefly described. The
人体位置算出部53は、人体形状記憶部52のデータと入力部50の視点の移動の入力とから、人体の位置を算出し設定する部分である。頭部回転角算出部54は、人体形状記憶部52のデータと入力部50の視点の移動の入力とから、人体の頭部の回転角度を設定する部分である。
The human body
画面表示位置設定部55は、入力部50から入力された視点変更の入力値を参照し、画面の表示位置を設定する部分である。表示制御部56は、画面表示位置設定部55により設定された表示位置で、空間構成記憶部51と人体形状記憶部52と画面表示位置設定部55を参照して3次元仮想環境の画像と人体を生成し、ディスプレイ57に表示する。ディスプレイは、CRT以外にも大型スクリーンなどほかのデバイスを利用することが可能である。図16は、表示画面例である。
The screen display
(第3実施例の作用)
上記のような構成を有する第3実施例は、次のような作用を有する(図14,図15)。図15はマウスのボタンを押すことにより移動開始命令を、またマウスのx軸方向の移動によって左右の回転を行う場合の流れ図である。構成図である図14の入力部50で、ユーザは移動命令と視線方向の入力を行なう。例えば、マウスのボタンを押す事によって移動開始命令を入力し(150)、画面中心を(x,y)=(0,0)として、マウスのx,y座標値を視線方向の変更値とする(153)。
(Operation of Third Embodiment)
The third embodiment having the above configuration has the following operation (FIGS. 14 and 15). FIG. 15 is a flowchart in the case where a movement start command is issued by pressing a mouse button, and the mouse is rotated left and right by moving in the x-axis direction. The user inputs a movement command and a line-of-sight direction using the
移動開始命令が入力された時、人体の向き(vec)を算出し確保する(151)。移動開始命令が来ないかぎり、人体の向き(vec)は変わらない。次に人体の位置(pos) を画面の視点位置より予め設定した値分だけ人体の向いている方向(vec)でかつ下に設定する(152)。 When a movement start command is input, the orientation (vec) of the human body is calculated and secured (151). Unless a movement start command is received, the direction (vec) of the human body does not change. Next, the position (pos) of the human body is set in the direction (vec) in which the human body is facing and below by a preset value from the viewpoint position on the screen (152).
また、入力されたx,y座標値から、目的方向への人体頭部の回転角度を算出する(図14−54,図15−154)。図15の154では、回転角度(yow)の最大、最小値を予め設定しておき、その範囲でマウスのx軸方向の動きに対応したyowを設定する。 Further, the rotation angle of the human head in the target direction is calculated from the input x, y coordinate values (FIGS. 14-54, 15-154). In 154 of FIG. 15, the maximum and minimum values of the rotation angle (you) are set in advance, and within that range, youw corresponding to the movement of the mouse in the x-axis direction is set.
次に、図14の55で、画面の表示位置を設定する。図15の155では、人体方向算出部151で設定した人体の向き(vec)の方向に、予め設定した移動量だけ更新して新たな視点(view)を設定する。また、頭部回転角度設定部154で設定した回転角度(yow)により、新たな参照点(ref)の算出を行なっている。
Next, the display position of the screen is set at 55 in FIG. In 155 of FIG. 15, a new viewpoint (view) is set by updating the movement amount set in advance in the direction of the human body direction (vec) set by the human body
このように設定された画面の表示位置と、人体の位置と向き、人体頭部の角度、および空間構成記憶部51、人体形状記憶部52のデータにより、仮想空間と人体の画像を表示する(図6−24,図1−16,17)。空間構成記憶部51は、例えばVRMLのようなオブジェト化されたデータベースである。
The virtual space and the image of the human body are displayed based on the display position of the screen set in this way, the position and orientation of the human body, the angle of the human head, and the data of the space
(第3実施例の効果)
上記のような方法によれば、ユーザはVRMLのようなオブジェクト化されたデータベースによって構築された3次元空間を、ウォークスルーするような場合に、人体を表示することによって仮想の空間を歩いて回っている臨場感をえることが出来る。また、空間を見回す操作を人体の頭部をまわす動作に対応させたことによって、ユーザは操作結果を直観的に分かりやすくなる。また、カメラのパンにあたる視点の回転と、カメラの移動にあたる視点の移動とを、人体の頭部と胴体に別個に割り振っているので、操作が容易にできる。また、第1、第2、第3の実施例において、人体の表示を透明にすることにより、見易い画面表示を提供することができる。
(Effect of Third Embodiment)
According to the method as described above, a user walks around a virtual space by displaying a human body when walking through a three-dimensional space constructed by an objectized database such as VRML. You can get a sense of presence. In addition, by making the operation of looking around the space correspond to the operation of turning the head of the human body, the user can intuitively understand the operation result. Further, since the rotation of the viewpoint corresponding to the panning of the camera and the movement of the viewpoint corresponding to the movement of the camera are separately allocated to the head and the body of the human body, the operation can be easily performed. In the first, second, and third embodiments, by making the display of the human body transparent, it is possible to provide a screen display that is easy to see.
10,40,100 入力部
11,41,101 形状記憶部
12,42,102 位置記憶部
13 キーフレーム記憶部
14,44 揺れ算出部
15,45,107 画面表示位置設定部
16,46,108 表示制御部
17,47,109 ディスプレイ
43,103 位置算出部
104 注視物体記憶部
105 注視物体選択部
106 注視物体表示設定部
10, 40, 100
Claims (5)
動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、
前記揺れ算出部で算出した位置をもとに、前記移動物体の移動を表示するディスプレイとを具備したことを特徴とする仮想空間表示装置。 In a virtual space display device for displaying the movement of an object in a three-dimensional virtual space generated by computer graphics,
A swing calculation unit that calculates a change in the reference position of the moving object from the operation of the key frame data storing the data of the operation part, and calculates a preset position of the moving object based on the change in the reference position,
A display for displaying the movement of the moving object based on the position calculated by the shaking calculation unit.
動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、
前記揺れ算出部で算出した位置をもとに、画面に表示される前記移動物体の表示位置を設定する画面表示位置設定部と、
前記画面表示設定部で設定された表示位置で前記物体の移動を表示するディスプレイとを具備したことを特徴とする仮想空間表示装置。 In a virtual space display method for displaying a movement of an object in a three-dimensional virtual space generated by computer graphics,
A swing calculation unit that calculates a change in the reference position of the moving object from the operation of the key frame data storing the data of the operation part, and calculates a preset position of the moving object based on the change in the reference position,
A screen display position setting unit that sets a display position of the moving object displayed on a screen based on the position calculated by the shaking calculation unit,
A display for displaying the movement of the object at a display position set by the screen display setting unit.
動作部位のデータを格納したキーフレームデータの動作から移動物体の基準位置の変化を求め、この基準位置の変化をもとに、前記移動物体のあらかじめ設定された位置を算出する揺れ算出部と、
前記揺れ算出部で算出した位置をもとに、画面表示位置を設定する画面表示位置設定部と、
前記画面表示設定部で設定された画面表示位置から前記移動物体の移動を表示するディスプレイとを具備したことを特徴とする仮想空間表示装置。 In a virtual space display device for displaying the movement of an object in a three-dimensional virtual space generated by computer graphics,
A swing calculation unit that calculates a change in the reference position of the moving object from the operation of the key frame data storing the data of the operation part, and calculates a preset position of the moving object based on the change in the reference position,
A screen display position setting unit that sets a screen display position based on the position calculated by the shake calculation unit,
A display for displaying movement of the moving object from a screen display position set by the screen display setting unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004168145A JP2004253009A (en) | 1995-09-28 | 2004-06-07 | Virtual space display apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25040395 | 1995-09-28 | ||
JP2004168145A JP2004253009A (en) | 1995-09-28 | 2004-06-07 | Virtual space display apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8054301A Division JPH09153146A (en) | 1995-09-28 | 1996-03-12 | Virtual space display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004253009A true JP2004253009A (en) | 2004-09-09 |
Family
ID=33031602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004168145A Pending JP2004253009A (en) | 1995-09-28 | 2004-06-07 | Virtual space display apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004253009A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009069278A1 (en) * | 2007-11-30 | 2009-06-04 | Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co. Ltd.) | Image generation device, image generation program, image generation program recording medium, and image generation method |
JP2019015814A (en) * | 2017-07-05 | 2019-01-31 | 日本電信電話株式会社 | Walk-through display device, walk-through display method, and walk-through display program |
-
2004
- 2004-06-07 JP JP2004168145A patent/JP2004253009A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009069278A1 (en) * | 2007-11-30 | 2009-06-04 | Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co. Ltd.) | Image generation device, image generation program, image generation program recording medium, and image generation method |
JP2009131436A (en) * | 2007-11-30 | 2009-06-18 | Square Enix Co Ltd | Image generation device, image generation program, image generation program recording medium, and image generation method |
JP4662495B2 (en) * | 2007-11-30 | 2011-03-30 | 株式会社スクウェア・エニックス | Image generation apparatus, image generation program, image generation program recording medium, and image generation method |
US8194073B2 (en) | 2007-11-30 | 2012-06-05 | Square Enix Co., Ltd. | Image generation apparatus, image generation program, medium that records the program, and image generation method |
JP2019015814A (en) * | 2017-07-05 | 2019-01-31 | 日本電信電話株式会社 | Walk-through display device, walk-through display method, and walk-through display program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH09153146A (en) | Virtual space display method | |
US10928974B1 (en) | System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface | |
Anthes et al. | State of the art of virtual reality technology | |
US20230090043A1 (en) | Virtual reality system and method | |
CN113096252B (en) | Multi-movement mechanism fusion method in hybrid enhanced teaching scene | |
US10521028B2 (en) | System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors | |
JP3503982B2 (en) | Viewpoint setting device | |
JPH09152954A (en) | Method and device for presenting information | |
JPH10261090A (en) | Motion capture system | |
JP2006301654A (en) | Image presentation apparatus | |
Webel et al. | Immersive experience of current and ancient reconstructed cultural attractions | |
Chen et al. | Urbanrama: Navigating cities in virtual reality | |
US6384820B2 (en) | Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization | |
Chong et al. | Challenges in virtual reality system: A review | |
JP3830923B2 (en) | Virtual space display method and virtual space display device | |
JP2004253009A (en) | Virtual space display apparatus | |
JP2000090285A (en) | Video display device | |
JP3830922B2 (en) | Virtual space display method and virtual space display device | |
Lacolina et al. | Natural exploration of 3D models | |
Beimler et al. | Smurvebox: A smart multi-user real-time virtual environment for generating character animations | |
JP3939444B2 (en) | Video display device | |
Beimler et al. | Immersive guided tours for virtual tourism through 3D city models | |
Wu et al. | Quantifiable fine-grain occlusion removal assistance for efficient vr exploration | |
GB2605302A (en) | Virtual reality system and method | |
Bauer | Virtual reality: A general overview |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040607 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050415 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061017 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070227 |