JPH09138637A - Pseudo visibility device - Google Patents

Pseudo visibility device

Info

Publication number
JPH09138637A
JPH09138637A JP7294121A JP29412195A JPH09138637A JP H09138637 A JPH09138637 A JP H09138637A JP 7294121 A JP7294121 A JP 7294121A JP 29412195 A JP29412195 A JP 29412195A JP H09138637 A JPH09138637 A JP H09138637A
Authority
JP
Japan
Prior art keywords
viewpoint
visual field
user
virtual space
simulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7294121A
Other languages
Japanese (ja)
Inventor
Kinuko Konno
絹子 近野
Koji Kachi
広次 加地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP7294121A priority Critical patent/JPH09138637A/en
Publication of JPH09138637A publication Critical patent/JPH09138637A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a sense similar to real experience for a user when it is applied to a simulator, etc., by calculating respective information related to a position of a viewpoint, a visual field and posture in a virtual space based on the position of the head in a rear space, using these information and generating a pseudo visibity image observed from the viewpoint of the user in the virtual space. SOLUTION: An on-head sensor 1 detects magnetism generated from a magnetic source 6 by a magnetic sensor 5 to output the head position data 100 of the head of the user 11. A visibility display information calculation par 2 is provided with a simulation part 7, a viewpoint position calculation part 8, visual field calculation part 9 and a viewpoint posture calculation part 10, and the simulation part 7 outputs the pseudo calculation result data 101 to a pseudo visibility generation part 3. Further, the part 7 calculates a three- dimensional position of an image display part of a CRT display 4 in the virtual space based on the pseudo calculation result to output the virtual position data 102 to the viewpoint position calculation part 8, the visual field calculation part 9 and the viewpoint posture calculation part 10 respectively.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば各種のシミ
ュレータもしくは娯楽用の遊具に適用する模擬視界装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a simulated visual field device applied to, for example, various simulators or playground equipment for entertainment.

【0002】[0002]

【従来の技術】近年、例えば自動車や航空機の運転シミ
ュレータやビデオゲーム装置に適用する模擬視界装置が
開発されている。このような模擬視界装置には、使用者
の操作に応じてあたかも実際の経験と同等の感覚を得る
ことのできる機能が求められる。このための方法の一つ
として、計算機によって目的とする仮想空間を作成し、
使用者の操作に応じて変化する模擬計算処理の結果を模
擬視界画像に変換して表すことが行われている。
2. Description of the Related Art In recent years, a simulated field-of-view device applied to, for example, a driving simulator of an automobile or an aircraft or a video game device has been developed. Such a simulated field-of-view device is required to have a function capable of obtaining a feeling equivalent to that of actual experience according to the operation of the user. As one of the methods to do this, create a target virtual space with a computer,
The result of the simulation calculation process that changes according to the user's operation is converted into a simulated field-of-view image and displayed.

【0003】このような模擬視界装置では、例えば以下
のように模擬視界画像が生成される。すなわち、実空間
における使用者の視点および表示画面の三次元的な位置
関係に基づいて、仮想空間における使用者の視点および
表示画面の三次元的な位置が予め設定される。この設定
された位置に基づいて、例えば仮想空間において使用者
の視点から表示画面を見た場合の視点の位置、仮想空間
において視点から表示画面を見た場合の視野の広さ、お
よび仮想空間において視点から表示画面を見た場合の視
点の姿勢に関する各情報が算出される。これらの視点の
位置、視野の広さ、および視点の姿勢に関する各情報に
基づいて、仮想空間における使用者の視点から観測され
る模擬視界画像が生成される。
In such a simulated visual field device, a simulated visual field image is generated as follows, for example. That is, the three-dimensional position of the user's viewpoint and the display screen in the virtual space is preset based on the three-dimensional positional relationship between the user's viewpoint and the display screen in the real space. Based on the set position, for example, the position of the viewpoint when the display screen is viewed from the user's viewpoint in the virtual space, the width of the visual field when the display screen is viewed from the viewpoint in the virtual space, and the virtual space Each piece of information regarding the posture of the viewpoint when the display screen is viewed from the viewpoint is calculated. Based on these pieces of information on the position of the viewpoint, the width of the field of view, and the posture of the viewpoint, a simulated visual field image observed from the viewpoint of the user in the virtual space is generated.

【0004】この結果、従来の模擬視界装置を例えば自
動車の運転のシミュレータに適用すると、仮想空間の自
動車の模擬的進行と共に仮想空間における視点および表
示画面が進行する。従って、表示画面に写しだされる模
擬視界画像が更新され、使用者はあたかも実際に自動車
に乗って進行しているかのように感じることになる。
As a result, when the conventional simulated field-of-view device is applied to, for example, a simulator for driving a car, the viewpoint and the display screen in the virtual space advance along with the simulated progress of the car in the virtual space. Therefore, the simulated visual field image displayed on the display screen is updated, and the user feels as if he / she is actually riding in a car.

【0005】ところで、従来の模擬視界装置において
は、仮想空間における使用者の視点の位置、視野の広
さ、および視点の姿勢に関する各情報の値はそれぞれ一
定値として設定される。つまり、従来の模擬視界装置に
おいては、仮想空間の視点と表示画面との三次元的な位
置関係は常に一定であった。
By the way, in the conventional simulated visual field device, the value of each information regarding the position of the user's viewpoint, the width of the visual field, and the posture of the viewpoint in the virtual space is set as a constant value. That is, in the conventional simulated vision device, the three-dimensional positional relationship between the viewpoint of the virtual space and the display screen is always constant.

【0006】ところで、一般に使用者は頭を動かしたり
首を振ったりするために、実空間においては使用者の視
点と表示装置との三次元的な位置関係が変動することが
ある。ここで、仮想空間において使用者の視点から表示
画面を見るということを、例えば実空間において人が窓
から景色を見ることと同等であると仮定してみる。人が
窓から景色を見ているときに視点の位置を変化させる
と、窓から見える景色はそれに応じて変化し、窓から近
い位置の景色ほど変化は大きくなる。すなわち、仮想空
間において視点の位置が変化すると、表示画面の模擬視
界画像はそれに応じて変化し、その変化は仮想空間にお
いて表示画面に近いところほど大きくなると考えられ
る。
By the way, in general, since the user moves his head or shakes his neck, the three-dimensional positional relationship between the user's viewpoint and the display device may change in the real space. Here, it is assumed that viewing the display screen from the viewpoint of the user in the virtual space is equivalent to, for example, a person viewing a view through a window in the real space. When a person changes the position of the viewpoint while looking at the scenery from the window, the scenery seen from the window changes accordingly, and the closer the scenery is to the window, the greater the change. That is, it is considered that when the position of the viewpoint changes in the virtual space, the simulated visual field image on the display screen changes accordingly, and the change becomes larger as the position is closer to the display screen in the virtual space.

【0007】しかし、上述したように従来の模擬視界装
置においては、仮想空間の視点と表示画面との三次元的
な位置関係は常に一定であり、実空間の視点の位置が変
化しても表示画面の模擬視界画像が変化することはな
く、使用者に実際の経験とは異なる感覚を与えてしまっ
ていた。
However, as described above, in the conventional simulated visual field device, the three-dimensional positional relationship between the viewpoint of the virtual space and the display screen is always constant, and the display is performed even if the position of the viewpoint of the real space changes. The simulated field-of-view image on the screen did not change, giving the user a feeling different from the actual experience.

【0008】[0008]

【発明が解決しようとする課題】上述したように従来の
模擬視界装置においては、仮想空間における使用者の視
点と表示画面との三次元的な位置関係は常に一定である
ため、実空間において使用者の視点が移動しても仮想空
間の模擬視界画像は変化しないという問題点があった。
本発明は、実空間の使用者の視点の移動と連動して仮想
空間における模擬視界画像が変化する模擬視界装置を提
供することを目的とする。
As described above, in the conventional simulated visual field device, since the three-dimensional positional relationship between the user's viewpoint and the display screen in the virtual space is always constant, it is used in the real space. There is a problem that the simulated visual field image in the virtual space does not change even if the person's viewpoint moves.
It is an object of the present invention to provide a simulated field-of-view device in which a simulated field-of-view image in a virtual space changes in conjunction with movement of a user's viewpoint in the real space.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するため
本発明は、実空間の視点の変化に連動して仮想空間の視
点を変化させて、模擬視界画像を生成することを骨子と
している。すなわち本発明は、予め設定されている仮想
空間において使用者の操作に応じた模擬視界画像を生成
する模擬視界装置において、実空間における使用者の頭
部の位置および姿勢を検出する頭部位置検出手段と、頭
部位置検出手段によって検出された実空間における使用
者の頭部の位置および姿勢に基づいて、仮想空間におけ
る使用者の視点の位置、視野、および姿勢に関する各情
報を算出する視界表示情報算出手段と、視界表示情報算
出手段によって算出された仮想空間における視点の位
置、視野、および姿勢に関する各情報を使用して、仮想
空間における使用者の視点から観測される模擬視界画像
を生成する模擬視界生成手段と、模擬視界画像生成手段
によって生成された模擬視界画像を表示する模擬視界表
示手段とを有する。
SUMMARY OF THE INVENTION In order to solve the above problems, the present invention is directed to changing the viewpoint of the virtual space in conjunction with the change of the viewpoint of the real space to generate a simulated visual field image. That is, the present invention is a head position detection for detecting a position and a posture of a user's head in a real space in a simulated visual field device that generates a simulated visual field image according to a user's operation in a preset virtual space. Means and the display for calculating each information regarding the position, field of view, and posture of the user's viewpoint in the virtual space based on the position and posture of the user's head in the real space detected by the head position detection unit. A simulated field-of-view image observed from the user's viewpoint in the virtual space is generated by using the information calculating unit and each piece of information regarding the position, field of view, and orientation of the viewpoint in the virtual space calculated by the view display information calculating unit. It has a simulated visual field generating means and a simulated visual field display means for displaying the simulated visual field image generated by the simulated visual field image generating means.

【0010】このような構成の模擬視界装置において
は、実空間における頭部の位置および姿勢に基づいて仮
想空間における視点の位置、視野、および姿勢に関する
各情報が算出される。そして、算出された各情報を使用
して、仮想空間における使用者の視点から観測される模
擬視界画像が生成される。
In the simulated field-of-view device having such a configuration, each piece of information regarding the position, visual field, and posture of the viewpoint in the virtual space is calculated based on the position and posture of the head in the real space. Then, using each calculated information, a simulated visual field image observed from the user's viewpoint in the virtual space is generated.

【0011】そのため、実空間において使用者が例えば
頭を動かすなどして視点が移動した場合でも、その実空
間の視点の変化に応じて仮想空間の視点が変化する。そ
して、変化した仮想空間の視点と表示画面との三次元的
な位置関係に基づいて、模擬視界画像が生成される。つ
まり、実空間の使用者の視点の移動にともなって模擬視
界画像も変化するので、使用者はより現実に近い感覚を
得ることが可能となる。
Therefore, even if the user moves his or her viewpoint in the real space, for example, by moving his head, the viewpoint of the virtual space changes according to the change of the viewpoint of the real space. Then, the simulated view field image is generated based on the changed three-dimensional positional relationship between the viewpoint of the virtual space and the display screen. In other words, the simulated field-of-view image changes as the user's viewpoint moves in the real space, so that the user can get a more realistic feeling.

【0012】ここで、仮想空間における視点の位置と
は、例えば仮想空間における視点の三次元的な座標であ
る。また、仮想空間における視点の視野とは、例えば仮
想空間に模擬視界表示手段の位置を仮定した場合に、視
点から模擬視界表示手段を見た場合に観測される仮想空
間の広さである。さらに、仮想空間における視点の姿勢
とは、仮想空間の視点から模擬視界表示手段を見た場合
の姿勢、すなわち使用者の視線方向と左右の傾きであ
る。
Here, the position of the viewpoint in the virtual space is, for example, three-dimensional coordinates of the viewpoint in the virtual space. In addition, the visual field of the viewpoint in the virtual space is, for example, the size of the virtual space observed when the simulated visual field display means is viewed from the viewpoint, assuming the position of the simulated visual field display means in the virtual space. Further, the posture of the viewpoint in the virtual space is the posture when the simulated visual field display means is viewed from the viewpoint of the virtual space, that is, the user's line-of-sight direction and the inclination to the left and right.

【0013】[0013]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(装置の構成)図1は、本発明の実施形態に係る模擬視
界装置の構成を示すブロック図である。この模擬視界装
置は大別して、頭部センサ1、視点表示情報算出部2、
模擬視界生成部3、およびCRTディスプレイ4を有し
ている。
(Device Configuration) FIG. 1 is a block diagram showing the configuration of a simulated field-of-view device according to an embodiment of the present invention. This simulated visual field device is roughly classified into a head sensor 1, a viewpoint display information calculation unit 2,
It has a simulated visual field generator 3 and a CRT display 4.

【0014】頭部センサ1は、磁気センサ5および磁気
源6を有し、磁気センサ5によって磁気源6から発生す
る磁気を検知し、使用者11の頭部の三次元的な位置で
ある頭部位置データ100を出力するものである。
The head sensor 1 has a magnetic sensor 5 and a magnetic source 6, detects the magnetism generated from the magnetic source 6 by the magnetic sensor 5, and is the head which is the three-dimensional position of the head of the user 11. The copy position data 100 is output.

【0015】磁気センサ5は、例えばホール素子、磁気
抵抗素子などから構成されており、磁気源6から発生す
る磁気を十分検知できる範囲で、磁気源6に対して三次
元的な相対位置を変化させることができる場所に設置す
るものである。具体的には、磁気センサ5は使用者11
の被るヘルメット等に設置される。
The magnetic sensor 5 is composed of, for example, a Hall element, a magnetoresistive element, etc., and changes its three-dimensional relative position with respect to the magnetic source 6 within a range in which the magnetism generated by the magnetic source 6 can be sufficiently detected. It is installed in a place where it can be done. Specifically, the magnetic sensor 5 is used by the user 11
It is installed on a helmet worn by.

【0016】磁気源6は、CRTディスプレイ4に対す
る三次元的な相対位置が一定であるように構成される。
具体的には、磁気源6は使用者11が座る座席に設置さ
れ、この座席とCRTディスプレイ4とが結合して構成
される。
The magnetic source 6 is constructed so that its three-dimensional relative position with respect to the CRT display 4 is constant.
Specifically, the magnetic source 6 is installed in a seat on which the user 11 sits, and the seat and the CRT display 4 are combined and configured.

【0017】本実施形態の視界表示情報算出部2は、シ
ミュレーション部7、視点位置算出部8、視野算出部
9、および視点姿勢算出部10を有しており、通常では
汎用計算機により構成されるものである。
The visual field display information calculation unit 2 of this embodiment has a simulation unit 7, a viewpoint position calculation unit 8, a visual field calculation unit 9, and a viewpoint posture calculation unit 10, and is usually composed of a general-purpose computer. It is a thing.

【0018】シミュレーション部7は、目的とする仮想
空間が予め設定されていて、この仮想空間において使用
者の操作に応じた模擬計算処理を実行し、さらに模擬計
算の処理結果に基づいて仮想空間における表示画面の位
置を算出するものである。
The simulation unit 7 has a target virtual space set in advance, executes a simulation calculation process in accordance with a user's operation in this virtual space, and further, in the virtual space based on the result of the simulation calculation process. The position of the display screen is calculated.

【0019】具体的には、シミュレーション部7は、仮
想空間において使用者の操作に応じた所定の模擬計算処
理を実行し、この処理結果である模擬計算結果データ1
01を模擬視界生成部3に出力する。次に、シミュレー
ション部7は、模擬計算の結果に基づいて、仮想空間に
おけるCRTディスプレイ4の画像表示部の三次元的な
位置を算出し、この処理結果である仮想位置データ10
2を視点位置算出部7、視野算出部7、および視点姿勢
算出部10のそれぞれに出力する。
Specifically, the simulation section 7 executes a predetermined simulation calculation process according to a user's operation in the virtual space, and the simulation calculation result data 1 which is the process result.
01 is output to the simulated visual field generation unit 3. Next, the simulation unit 7 calculates the three-dimensional position of the image display unit of the CRT display 4 in the virtual space based on the result of the simulation calculation, and the virtual position data 10 that is the processing result.
2 is output to each of the viewpoint position calculation unit 7, the visual field calculation unit 7, and the viewpoint posture calculation unit 10.

【0020】ここで、例えば本実施形態を自動車の運転
シミュレータに適用する場合、シミュレーション部7は
自動車の走行を模擬する計算処理を実行し、仮想空間に
おける表示画面(実際の自動車ではフロントガラスに相
当する)の中心位置について、模擬されている仮想空間
における三次元的な位置を算出する。
Here, for example, when the present embodiment is applied to an automobile driving simulator, the simulation unit 7 executes a calculation process for simulating the running of the automobile, and a display screen in a virtual space (corresponding to a windshield in an actual automobile). 3D position in the simulated virtual space is calculated.

【0021】視点位置算出部8は、頭部センサ1から出
力される頭部位置データ100と予め定められた磁気源
6とCRTディスプレイ4との三次元的な位置関係に基
づいて、使用者11の頭部におけるCRTディスプレイ
4に対する三次元的な位置を算出するものである。
The viewpoint position calculation unit 8 uses the head position data 100 output from the head sensor 1 and a predetermined three-dimensional positional relationship between the magnetic source 6 and the CRT display 4 for the user 11 The three-dimensional position of the head of the player with respect to the CRT display 4 is calculated.

【0022】視点位置算出部8は、さらに、使用者11
の頭部におけるCRTディスプレイ4に対する三次元的
な位置、予め設定されている使用者11の頭部と視点と
の三次元的な位置関係、およびシミュレーション部7か
ら出力される仮想位置データ102のそれぞれに基づい
て、仮想空間における使用者11の視点の三次元的な位
置を算出し、この処理結果である視点位置データ103
を、模擬視界画像生成部3、視野算出部9、および視点
姿勢算出部10のそれぞれに出力するものである。
The viewpoint position calculation unit 8 further includes a user 11
Three-dimensional position of the head of the user with respect to the CRT display 4, a three-dimensional positional relationship between the head and the viewpoint of the user 11 set in advance, and virtual position data 102 output from the simulation unit 7. Based on the above, the three-dimensional position of the viewpoint of the user 11 in the virtual space is calculated, and the viewpoint position data 103 that is the processing result is calculated.
Is output to each of the simulated visual field image generation unit 3, the visual field calculation unit 9, and the viewpoint posture calculation unit 10.

【0023】ここで、視点位置算出部8は、上述した仮
想空間における使用者11の三次元的な位置の算出にお
いて、例えば使用者11の両眼の中心位置を使用者11
の視点とし、使用者11はCRTディスプレイ4に対し
てある方向に顔を向けていると仮定して幾何学的に視点
位置を算出する。なお、使用者11の頭部と視点との三
次元的な位置関係は、予めカメラ等で使用者11を撮影
して個別に位置のデータをとり、このデータに基づいて
設定するようにしてもよい。
Here, in the calculation of the three-dimensional position of the user 11 in the virtual space described above, the viewpoint position calculation unit 8 determines, for example, the center positions of both eyes of the user 11 as the user 11.
Assuming that the user 11 faces his / her face in a certain direction with respect to the CRT display 4, the viewpoint position is calculated geometrically. It should be noted that the three-dimensional positional relationship between the head and the viewpoint of the user 11 may be set on the basis of the data of the position of the user 11 obtained by photographing the user 11 with a camera in advance. Good.

【0024】視野算出部9は、シミュレーション部7か
ら出力される仮想位置データ102と、視点位置算出部
8から出力される視点位置データ103とに基づいて、
仮想空間において使用者11の視点からCRTディスプ
レイ4の表示画面を見た場合に、仮想空間の画像がどの
程度の視野で見えるかを算出し、例えば視野角や、仮想
空間の座標範囲で示して、視野データ104として出力
するものである。
The field-of-view calculation unit 9 is based on the virtual position data 102 output from the simulation unit 7 and the viewpoint position data 103 output from the viewpoint position calculation unit 8.
When the display screen of the CRT display 4 is viewed from the viewpoint of the user 11 in the virtual space, it is calculated how much field of view the image of the virtual space can be seen, for example, the viewing angle or the coordinate range of the virtual space is displayed. , The visual field data 104 is output.

【0025】視点姿勢算出部10は、シミュレーション
部7から出力される仮想位置データ102と、視点位置
算出部8から出力される視点位置データ103とに基づ
いて、使用者11の視点の姿勢、すなわち使用者11の
視線方向と左右の傾きとを算出し、例えばマトリクスや
角度などで示して、視点姿勢データ105として出力す
るものである。
Based on the virtual position data 102 output from the simulation unit 7 and the viewpoint position data 103 output from the viewpoint position calculation unit 8, the viewpoint posture calculation unit 10 determines the viewpoint posture of the user 11, that is, The line-of-sight direction of the user 11 and the inclination to the left and right are calculated, indicated by, for example, a matrix or an angle, and output as the viewpoint orientation data 105.

【0026】図2は、同実施形態における視点位置デー
タ103、視野データ104、および視点姿勢データ1
05の例を示した図である。今、仮想空間において使用
者11の視点12からCRTディスプレイ4の表示画面
13を見ることを想定する。この場合、視点12の視点
位置データ103が仮想空間の座標(x,y,z)によ
って示されている。また、視点12の位置から表示画面
13を見たときの仮想空間の視野データ104が、視点
12と表示画面13の中心14とを結んだ直線と、視点
12と表示画面13の右上端15とを接続した直線との
角度である視野角θによって示されている。さらに、視
点12の視点姿勢データ105が、視点12に対する表
示画面の中心14についてのベクトルα,β,γとして
示されている。
FIG. 2 is a view point position data 103, a view field data 104, and a view point posture data 1 in the embodiment.
It is the figure which showed the example of 05. Now, it is assumed that the display screen 13 of the CRT display 4 is viewed from the viewpoint 12 of the user 11 in the virtual space. In this case, the viewpoint position data 103 of the viewpoint 12 is indicated by the coordinates (x, y, z) in the virtual space. Further, the visual field data 104 of the virtual space when the display screen 13 is seen from the position of the viewpoint 12 is a straight line connecting the viewpoint 12 and the center 14 of the display screen 13, and the viewpoint 12 and the upper right end 15 of the display screen 13. Is indicated by the viewing angle θ which is the angle with the straight line connecting Further, the viewpoint posture data 105 of the viewpoint 12 is shown as vectors α, β, γ about the center 14 of the display screen for the viewpoint 12.

【0027】模擬視界生成装置3は、シミュレーション
部から出力される模擬計算結果データ101、視点位置
算出部8から出力される視点位置データ103、視野算
出部9から出力される視野データ104、および視点姿
勢算出部10から出力される視点姿勢データ105のそ
れぞれに基づいて模擬視界画像106を生成してCRT
ディスプレイ4に出力するものである。
The simulated visual field generating device 3 includes simulated calculation result data 101 output from the simulation unit, viewpoint position data 103 output from the viewpoint position calculation unit 8, visual field data 104 output from the visual field calculation unit 9, and a viewpoint. A simulated field-of-view image 106 is generated based on each of the viewpoint posture data 105 output from the posture calculation unit 10, and the CRT is generated.
It is output to the display 4.

【0028】CRTディスプレイ4は、模擬視界生成装
置3の生成した模擬視界画像106を使用者11に対し
て表示するものである。次に、本実施形態の動作につい
て以下に説明する。
The CRT display 4 displays the simulated visual field image 106 generated by the simulated visual field generator 3 to the user 11. Next, the operation of this embodiment will be described below.

【0029】(本実施形態の動作)まず、使用者11が
磁気センサ5の設けられたヘルメット等を被り、装置を
起動したと想定する。磁気センサ5は磁気源6の磁気を
検知し、使用者11の頭部のの三次元的位置を算出し
て、頭部位置データ100として視点位置算出部8に出
力する。
(Operation of this Embodiment) First, it is assumed that the user 11 wears a helmet or the like provided with the magnetic sensor 5 and starts the apparatus. The magnetic sensor 5 detects the magnetism of the magnetic source 6, calculates the three-dimensional position of the head of the user 11, and outputs it as the head position data 100 to the viewpoint position calculation unit 8.

【0030】一方、磁気センサ1における頭部の位置検
出処理とは独立して、シミュレーション部8は所定の模
擬計算処理を実行し、この処理結果である模擬計算結果
データ101を出力する。この模擬計算結果データ10
1は、模擬視界生成部3に入力される。
On the other hand, the simulation section 8 executes a predetermined simulation calculation process independently of the head position detection process in the magnetic sensor 1, and outputs the simulation calculation result data 101 which is the result of this process. This simulated calculation result data 10
1 is input to the simulated visual field generation unit 3.

【0031】さらに、シミュレーション部8は、模擬計
算の処理結果に基づいて、仮想空間におけるCRTディ
スプレイ4の表示画面の三次元的な位置を算出し、この
算出結果である仮想位置データ102を出力する。この
仮想位置データ102は、視点位置算出部8、視野算出
部9、および視点位置算出部10のそれぞれに入力され
る。
Further, the simulation section 8 calculates the three-dimensional position of the display screen of the CRT display 4 in the virtual space based on the processing result of the simulation calculation, and outputs the virtual position data 102 which is the calculation result. . The virtual position data 102 is input to each of the viewpoint position calculation unit 8, the visual field calculation unit 9, and the viewpoint position calculation unit 10.

【0032】次に、視点位置算出部8は、頭部位置デー
タ100および仮想位置データ102に基づいて、仮想
空間における使用者11の視点の三次元的位置を算出
し、この算出結果である視点位置データを103を出力
する。この視点位置データ103は、模擬視界生成部
3、視野算出部9、および視点姿勢算出部10のそれぞ
れに入力される。
Next, the viewpoint position calculation unit 8 calculates the three-dimensional position of the viewpoint of the user 11 in the virtual space based on the head position data 100 and the virtual position data 102, and the calculated viewpoint is the viewpoint. The position data 103 is output. The viewpoint position data 103 is input to each of the simulated visual field generation unit 3, the visual field calculation unit 9, and the viewpoint posture calculation unit 10.

【0033】次に、視野算出部9は、仮想位置データ1
01および視点位置データ103に基づいて、仮想空間
における使用者の視点位置からCRTディスプレイ4の
表示画面を見た場合の仮想空間の視野を算出し、この算
出結果である視野データ104を出力する。この視野デ
ータ104は模擬視界生成部3に入力される。
Next, the field-of-view calculation unit 9 uses the virtual position data 1
01 and the visual point position data 103, the visual field of the virtual space when the display screen of the CRT display 4 is viewed from the visual point position of the user in the virtual space is calculated, and the visual field data 104 which is the calculation result is output. The visual field data 104 is input to the simulated visual field generator 3.

【0034】一方、上述した視野算出部9とは別に、視
点姿勢算出部10は、仮想位置データ101および視点
位置データ103に基づいて、仮想空間における使用者
11の視点の姿勢を算出し、この算出結果である視点姿
勢データ105を出力する。この視点姿勢データ105
は模擬視界生成部3に入力される。
On the other hand, in addition to the visual field calculation unit 9 described above, the viewpoint posture calculation unit 10 calculates the posture of the viewpoint of the user 11 in the virtual space based on the virtual position data 101 and the viewpoint position data 103. The viewpoint posture data 105, which is the calculation result, is output. This viewpoint posture data 105
Is input to the simulated visual field generator 3.

【0035】次に、模擬視界生成部3は、視点位置デー
タを103、視野データ104、および視点姿勢データ
105のそれぞれに基づいて、模擬視界画像106を生
成して出力する。この模擬視界画像106はCRTディ
スプレイ4に表示される。
Next, the simulated visual field generator 3 generates and outputs the simulated visual field image 106 based on the viewpoint position data 103, the visual field data 104, and the viewpoint posture data 105. This simulated visual field image 106 is displayed on the CRT display 4.

【0036】上述した通り本実施形態においては、実空
間における使用者11の視点の移動と連動して、仮想空
間の使用者11の視点が変化し、その結果が考慮されて
仮想空間における模擬視界画像106が生成される。そ
のため、実空間の使用者11の視点の動きに応じて仮想
空間における模擬視界画像106が変化する。
As described above, in the present embodiment, the viewpoint of the user 11 in the virtual space changes in conjunction with the movement of the viewpoint of the user 11 in the real space, and the result is taken into consideration in the simulated visual field in the virtual space. Image 106 is generated. Therefore, the simulated visual field image 106 in the virtual space changes according to the movement of the viewpoint of the user 11 in the real space.

【0037】図3は、同実施形態における視点の移動に
ともなう模擬視界画像106の変化の例を示す図であ
る。ここで、視点16からCRTディスプレイ4の表示
画面13を見ているときは、表示画面13には仮想空間
の木18が画像20のように表示される。今、例えば実
空間において使用者11が身を乗り出すなどして、使用
者11の視点が視点16から視点17に移ったと想定す
る。この場合、仮想空間において視点17からは木18
の他に石19を見ることができるので、表示画面13に
は画像21が表示される。
FIG. 3 is a diagram showing an example of changes in the simulated visual field image 106 due to the movement of the viewpoint in the same embodiment. Here, when the display screen 13 of the CRT display 4 is viewed from the viewpoint 16, a tree 18 in the virtual space is displayed on the display screen 13 like an image 20. Now, it is assumed that the viewpoint of the user 11 has changed from the viewpoint 16 to the viewpoint 17, for example, when the user 11 leans forward in the real space. In this case, the tree 18 is seen from the viewpoint 17 in the virtual space.
Since the stone 19 can be seen in addition to the above, the image 21 is displayed on the display screen 13.

【0038】以上のように本実施形態は、実空間におい
て使用者が頭を動かすなどして視点が移動しても、それ
に応じてその視点から見えるべき模擬視界画像が表示さ
れる。そのため、使用者にはCRTディスプレイを見る
ことがあたかも現実の窓を介して景色を観察するかのよ
うに感じられて、より現実に近い感覚を得ることが可能
となる。
As described above, in the present embodiment, even if the user moves his or her head in the real space, the simulated field-of-view image that should be seen from that viewpoint is displayed accordingly. Therefore, the user sees the CRT display as if he or she were observing the scenery through a real window, and can obtain a more realistic feeling.

【0039】本発明は上記実施形態に限定されるもので
はなく、次のように種々変形して実施することができ
る。 (1)上記実施形態では、頭部の位置検出処理は、磁気
センサ5および磁気源6を有する頭部センサ1によって
行われたが、ジャイロセンサ、超音波センサ、レーザ方
式のセンサ、もしくはレーダ方式のセンサ、もしくは頭
部をカメラ等で撮影した画像における画像処理によって
行われてもよい。例えば、ジャイロセンサを用いる場合
は、頭部の位置だけでなく頭部の傾きも三次元的に検出
できるので、より正確な視点位置の算出が可能になる。
また、これらを個別にもしくは組み合わせて実施しても
よい。 (2)上記実施形態では、頭部の位置検出の結果に基づ
いて視点姿勢を算出したが、眼球動作を検知するアイト
レーサ装置を用いて、眼球動作を直接検出してもよい。
このようにすると、使用者の視線の方向が直接的に検出
できるので、上記実施形態のように使用者がCRTディ
スプレイの表示画面の中央を見ていると仮定して視点姿
勢を計算する必要がなくなり、より正確な視点姿勢が算
出できる。 (3)上記実施形態では、視線表示情報算出部2は、汎
用計算機により構成されたが、視線表示情報算出部2の
各機能を複数の汎用計算機に分割してもよく、また各機
能の一部を専用の制御装置などの置き換えてもよい。さ
らに、模擬視界生成装置3の内部に視界情報算出装置2
の各機能の一部もしくは全部を組み込んでもよい。 (4)上記実施形態ではCRTディスプレイ4を用いて
模擬視界画像の表示が行われたが、プロジェクタなどの
各種の表示装置に置き換えてもよい。
The present invention is not limited to the above embodiment, but can be carried out in various modified forms as follows. (1) In the above embodiment, the head position detection processing is performed by the head sensor 1 having the magnetic sensor 5 and the magnetic source 6, but a gyro sensor, an ultrasonic sensor, a laser sensor, or a radar method. It may be performed by image processing on the image of the sensor or the head captured by a camera or the like. For example, when a gyro sensor is used, not only the position of the head but also the tilt of the head can be detected three-dimensionally, so that the viewpoint position can be calculated more accurately.
In addition, these may be implemented individually or in combination. (2) In the above embodiment, the viewpoint posture is calculated based on the result of the position detection of the head, but the eye tracer device that detects the eye movement may be used to directly detect the eye movement.
By doing so, the direction of the user's line of sight can be detected directly, and therefore it is necessary to calculate the viewpoint posture on the assumption that the user is looking at the center of the display screen of the CRT display as in the above embodiment. Therefore, the more accurate viewpoint posture can be calculated. (3) In the above embodiment, the line-of-sight display information calculation unit 2 is composed of a general-purpose computer, but each function of the line-of-sight display information calculation unit 2 may be divided into a plurality of general-purpose computers, or one of the functions may be divided. The unit may be replaced with a dedicated control device or the like. Further, the visual field information calculation device 2 is provided inside the simulated visual field generation device 3.
Part or all of the respective functions of may be incorporated. (4) Although the simulated field-of-view image is displayed using the CRT display 4 in the above embodiment, it may be replaced with various display devices such as a projector.

【0040】[0040]

【発明の効果】以上のように本発明によれば、実空間の
視点の移動と連動して仮想空間における模擬視界画像が
変化する模擬視界装置を提供できる。従って、本発明を
シミュレータ等に適用した場合に、使用者は実際の経験
に類似した感覚を得ることができる。
As described above, according to the present invention, it is possible to provide a simulated field-of-view device in which the simulated field-of-view image in the virtual space changes in conjunction with the movement of the viewpoint in the real space. Therefore, when the present invention is applied to a simulator or the like, the user can obtain a feeling similar to actual experience.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態に係る模擬視界装置の構成を
示すブロック図
FIG. 1 is a block diagram showing the configuration of a simulated field-of-view device according to an embodiment of the present invention.

【図2】同実施形態における視点位置データ、視野デー
タ、および視点姿勢データの例を示した図
FIG. 2 is a diagram showing an example of viewpoint position data, field of view data, and viewpoint posture data in the same embodiment.

【図3】同実施形態における視点の移動にともなう模擬
視界画像の変化の例を示す図
FIG. 3 is a diagram showing an example of a change in the simulated visual field image with the movement of the viewpoint in the same embodiment.

【符号の説明】[Explanation of symbols]

1…頭部センサ 2…視点表示情報算出部 3…模擬視界生成部 4…CRTディスプレイ 5…磁気センサ 6…磁気源 7…シミュレーション部 8…視点位置算出部 9…視野算出部 10…視点姿勢算出部 11…使用者 12…視点 13…表示画面 14…中心 15…右上端 16,17…視点 18…木 19…石 20,21…画像 100…頭部位置データ 101…模擬計算結果データ 102…仮想位置データ 103…視点位置データ 104…視野データ 105…視点姿勢データ 106…模擬視界画像 x,y,z…視点位置の座標 θ…視野角 α,β,γ…視点姿勢のベクトル DESCRIPTION OF SYMBOLS 1 ... Head sensor 2 ... Viewpoint display information calculation unit 3 ... Simulated visual field generation unit 4 ... CRT display 5 ... Magnetic sensor 6 ... Magnetic source 7 ... Simulation unit 8 ... Viewpoint position calculation unit 9 ... Field of view calculation unit 10 ... Viewpoint posture calculation Part 11 ... User 12 ... Viewpoint 13 ... Display screen 14 ... Center 15 ... Upper right edge 16,17 ... Viewpoint 18 ... Tree 19 ... Stone 20,21 ... Image 100 ... Head position data 101 ... Simulation calculation result data 102 ... Virtual Position data 103 ... Viewpoint position data 104 ... Viewpoint data 105 ... Viewpoint orientation data 106 ... Simulated view image x, y, z ... Viewpoint position coordinates θ ... View angle α, β, γ ... Viewpoint attitude vector

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G09B 9/34 F41G 3/26 A // F41G 3/26 G06F 15/62 360 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G09B 9/34 F41G 3/26 A // F41G 3/26 G06F 15/62 360

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】予め設定されている仮想空間において使用
者の操作に応じた模擬視界画像を生成する模擬視界装置
において、 実空間における使用者の頭部の位置および姿勢を検出す
る頭部位置検出手段と、 前記頭部位置検出手段によって検出された実空間におけ
る使用者の頭部の位置および姿勢に基づいて、仮想空間
における使用者の視点の位置、視野、および姿勢に関す
る各情報を算出する視界表示情報算出手段と、 前記視界表示情報算出手段によって算出された仮想空間
における視点の位置、視野、および姿勢に関する各情報
を使用して、仮想空間における使用者の視点から観測さ
れる模擬視界画像を生成する模擬視界生成手段と、 前記模擬視界画像生成手段によって生成された模擬視界
画像を表示する模擬視界表示手段とを有することを特徴
とする模擬視界装置。
1. A head position detection for detecting a position and a posture of a user's head in a real space in a simulated visual field device for generating a simulated visual field image according to a user's operation in a preset virtual space. And a field of view for calculating each information regarding the position, the visual field, and the posture of the viewpoint of the user in the virtual space, based on the position and the posture of the head of the user in the real space detected by the head position detection unit. Using the display information calculation means and each piece of information regarding the position, field of view, and orientation of the viewpoint in the virtual space calculated by the view display information calculation means, a simulated field-of-view image observed from the viewpoint of the user in the virtual space is displayed. A simulated visual field generating means for generating the simulated visual field image; and a simulated visual field display means for displaying the simulated visual field image generated by the simulated visual field image generating means. A simulated field of view device.
JP7294121A 1995-11-13 1995-11-13 Pseudo visibility device Withdrawn JPH09138637A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7294121A JPH09138637A (en) 1995-11-13 1995-11-13 Pseudo visibility device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7294121A JPH09138637A (en) 1995-11-13 1995-11-13 Pseudo visibility device

Publications (1)

Publication Number Publication Date
JPH09138637A true JPH09138637A (en) 1997-05-27

Family

ID=17803570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7294121A Withdrawn JPH09138637A (en) 1995-11-13 1995-11-13 Pseudo visibility device

Country Status (1)

Country Link
JP (1) JPH09138637A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149089A (en) * 1996-09-20 1998-06-02 Hitachi Software Eng Co Ltd Multiamusement system
FR2772908A1 (en) * 1997-12-24 1999-06-25 Aerospatiale Missile firing simulator system
JP2001197598A (en) * 2000-01-05 2001-07-19 Mitsubishi Electric Corp Video audio reproducing device
EP1180384A3 (en) * 2000-08-11 2002-10-30 Konami Corporation Method for controlling movement of viewing point of simulated camera in 3D video game, and 3D video game machine
EP1206950A3 (en) * 2000-11-16 2003-01-08 Konami Corporation Match-style 3D video game device and controller therefor
JP2003058039A (en) * 2001-08-09 2003-02-28 Shimadzu Corp Simulator
EP1279425A3 (en) * 2001-07-19 2003-03-26 Konami Corporation Video game apparatus, method and recording medium storing program for controlling movement of simulated camera in video game
US6918829B2 (en) 2000-08-11 2005-07-19 Konami Corporation Fighting video game machine
JP2007052304A (en) * 2005-08-19 2007-03-01 Mitsubishi Electric Corp Video display system
JP2007102099A (en) * 2005-10-07 2007-04-19 Sony Corp Electronic equipment, image processing method, and program
JP2007299062A (en) * 2006-04-27 2007-11-15 Canon Inc Information processing method, and information processing device
JP2009082645A (en) * 2007-10-03 2009-04-23 Taito Corp Motorcycle game machine
KR20100048747A (en) * 2008-10-31 2010-05-11 한국과학기술원 User interface mobile device using face interaction
TWI426224B (en) * 2010-05-12 2014-02-11 Nat Univ Chin Yi Technology Invisible wall
JP2015018074A (en) * 2013-07-10 2015-01-29 トヨタ紡織株式会社 Vehicle drive simulation device
JP2016506528A (en) * 2012-11-16 2016-03-03 グレンツェバッハ・マシーネンバウ・ゲーエムベーハー Method and apparatus for combined simulation and control of a remotely operated vehicle
WO2017199460A1 (en) * 2016-05-18 2017-11-23 株式会社スクウェア・エニックス Program, computer device, program execution method, and computer system
WO2024166207A1 (en) * 2023-02-07 2024-08-15 日本電信電話株式会社 Vibration control device, vr device, vibration control method, and computer program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149089A (en) * 1996-09-20 1998-06-02 Hitachi Software Eng Co Ltd Multiamusement system
FR2772908A1 (en) * 1997-12-24 1999-06-25 Aerospatiale Missile firing simulator system
WO1999034163A1 (en) * 1997-12-24 1999-07-08 Aerospatiale Societe Nationale Industrielle Missile firing simulator with the gunner immersed in a virtual space
JP2001197598A (en) * 2000-01-05 2001-07-19 Mitsubishi Electric Corp Video audio reproducing device
US6918829B2 (en) 2000-08-11 2005-07-19 Konami Corporation Fighting video game machine
EP1180384A3 (en) * 2000-08-11 2002-10-30 Konami Corporation Method for controlling movement of viewing point of simulated camera in 3D video game, and 3D video game machine
US6863609B2 (en) 2000-08-11 2005-03-08 Konami Corporation Method for controlling movement of viewing point of simulated camera in 3D video game, and 3D video game machine
EP1206950A3 (en) * 2000-11-16 2003-01-08 Konami Corporation Match-style 3D video game device and controller therefor
US6921332B2 (en) 2000-11-16 2005-07-26 Konami Corporation Match-style 3D video game device and controller therefor
US6890262B2 (en) 2001-07-19 2005-05-10 Konami Corporation Video game apparatus, method and recording medium storing program for controlling viewpoint movement of simulated camera in video game
EP1279425A3 (en) * 2001-07-19 2003-03-26 Konami Corporation Video game apparatus, method and recording medium storing program for controlling movement of simulated camera in video game
JP4506927B2 (en) * 2001-08-09 2010-07-21 株式会社島津製作所 Simulator
JP2003058039A (en) * 2001-08-09 2003-02-28 Shimadzu Corp Simulator
JP2007052304A (en) * 2005-08-19 2007-03-01 Mitsubishi Electric Corp Video display system
JP2007102099A (en) * 2005-10-07 2007-04-19 Sony Corp Electronic equipment, image processing method, and program
JP2007299062A (en) * 2006-04-27 2007-11-15 Canon Inc Information processing method, and information processing device
JP2009082645A (en) * 2007-10-03 2009-04-23 Taito Corp Motorcycle game machine
KR20100048747A (en) * 2008-10-31 2010-05-11 한국과학기술원 User interface mobile device using face interaction
TWI426224B (en) * 2010-05-12 2014-02-11 Nat Univ Chin Yi Technology Invisible wall
JP2016506528A (en) * 2012-11-16 2016-03-03 グレンツェバッハ・マシーネンバウ・ゲーエムベーハー Method and apparatus for combined simulation and control of a remotely operated vehicle
JP2015018074A (en) * 2013-07-10 2015-01-29 トヨタ紡織株式会社 Vehicle drive simulation device
WO2017199460A1 (en) * 2016-05-18 2017-11-23 株式会社スクウェア・エニックス Program, computer device, program execution method, and computer system
JP2017208688A (en) * 2016-05-18 2017-11-24 株式会社スクウェア・エニックス Program, computer device, program execution method, and computer system
CN109155835A (en) * 2016-05-18 2019-01-04 史克威尔·艾尼克斯有限公司 Program, computer installation, program excutive method and computer system
US10960310B2 (en) 2016-05-18 2021-03-30 Square Enix Co., Ltd. Program, computer apparatus, program execution method, and computer system
WO2024166207A1 (en) * 2023-02-07 2024-08-15 日本電信電話株式会社 Vibration control device, vr device, vibration control method, and computer program

Similar Documents

Publication Publication Date Title
US4984179A (en) Method and apparatus for the perception of computer-generated imagery
JPH09138637A (en) Pseudo visibility device
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
JP3769747B2 (en) Virtual image generation apparatus and method
US5388990A (en) Virtual reality flight control display with six-degree-of-freedom controller and spherical orientation overlay
KR101480994B1 (en) Method and system for generating augmented reality with a display of a moter vehicle
Deering High resolution virtual reality
EP1521482B1 (en) Image display apparatus and method
US8368721B2 (en) Apparatus and method for on-field virtual reality simulation of US football and other sports
US5320538A (en) Interactive aircraft training system and method
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
JP4251673B2 (en) Image presentation device
JP4871270B2 (en) System and method for operating in a virtual three-dimensional space and system for selecting operations via a visualization system
JP2020527432A (en) Racing simulation
GB2376397A (en) Virtual or augmented reality
JPH07311857A (en) Picture compositing and display device and simulation system
KR20120044461A (en) The simulated training apparatus and method using mixed reality
Williams et al. Torso versus gaze direction to navigate a ve by walking in place
KR102188313B1 (en) Multi-model flight training simulator using VR
JP2023501079A (en) Co-located Pose Estimation in a Shared Artificial Reality Environment
JP3026716B2 (en) 3D display
KR101507014B1 (en) Vehicle simulation system and method to control thereof
Lou et al. Reducing cybersickness by geometry deformation
US6149435A (en) Simulation method of a radio-controlled model airplane and its system
Jaekl et al. Perceptual stability during head movement in virtual reality

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030204