JPH06274094A - Simulation device - Google Patents

Simulation device

Info

Publication number
JPH06274094A
JPH06274094A JP6064393A JP6064393A JPH06274094A JP H06274094 A JPH06274094 A JP H06274094A JP 6064393 A JP6064393 A JP 6064393A JP 6064393 A JP6064393 A JP 6064393A JP H06274094 A JPH06274094 A JP H06274094A
Authority
JP
Japan
Prior art keywords
virtual
virtual space
space
person
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6064393A
Other languages
Japanese (ja)
Inventor
Seiya Shimizu
誠也 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP6064393A priority Critical patent/JPH06274094A/en
Publication of JPH06274094A publication Critical patent/JPH06274094A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PURPOSE:To provide the simulation device which an artificial experience with reality is performed by using an artificial by corresponding to a virtual body in a virtual space as to a simulation device which uses virtual reality. CONSTITUTION:The simulation device which operates the virtual body arranged in the virtual space according to a 1st means for detecting the position of an experienced person in a real space and embodies the motion of the virtual body to the experienced person is equipped with the artificial body 10 which has the same feeling of touching as the virtual body in the virtual space, a 2nd means 11 which detects the position of the artificial body, and a means 12 which controls the arrangement of the virtual body in the virtual space corresponding to the artificial body corresponding to the output of the 2nd detecting means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、仮想現実を用いたシミ
ュレーション装置に関するものである。この種の装置と
しては、建物内部のレイアウト決定用シミュレーション
装置が挙げられ、被体験者の視覚に建物の内部のコンピ
ュータグラフィックス(CG)画像を提示し、被体験者
の動作に従ってCG画像を変化させることで、被体験者
はあたかも仮想的に作られた建物内に居ると感じること
ができ、建物を建築する前に建物のレイアウト検討が容
易となる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a simulation device using virtual reality. An example of this type of device is a simulation device for determining the layout inside a building, which presents a computer graphics (CG) image of the inside of the building to the visual sense of the person who experiences it, and changes the CG image according to the action of the person undergoing experience. By doing so, the experienced person can feel as if he / she is in a virtually created building, and it becomes easy to study the layout of the building before constructing the building.

【0002】また、CG画像により実在しない空間(例
えば、物語の世界等)や現実に到達困難な空間(例え
ば、他の天体等)も表示できるため、娯楽施設としても
利用できる。
Since a CG image can also display a space that does not exist (for example, the world of a story) or a space that is difficult to reach in reality (for example, another celestial body), it can be used as an entertainment facility.

【0003】[0003]

【従来の技術】図8は従来の仮想現実シミュレーション
装置の構成を示すブロック図である。図において、80
0は人体センサ、801はデータベース、802仮想物
体配置部は、803はモデル操作部、804は仮想空間
メモリ、805は干渉チェック部、806は仮想空間操
作部、807はCG画像生成部、808はディスプレ
イ、809は被体験者、810aと810bは仮想物
体、811は人体モデルである。
2. Description of the Related Art FIG. 8 is a block diagram showing a configuration of a conventional virtual reality simulation apparatus. In the figure, 80
0 is a human body sensor, 801 is a database, 802 is a virtual object placement unit, 803 is a model operation unit, 804 is a virtual space memory, 805 is an interference check unit, 806 is a virtual space operation unit, 807 is a CG image generation unit, and 808 is A display, 809 is a person to be experienced, 810a and 810b are virtual objects, and 811 is a human body model.

【0004】まず、被体験者809の関節の角度と位置
が被体験者の体に固定された人体センサ800により検
出され、モデル操作部803に送られる。モデル操作部
803では、データベース801に格納されている人体
モデル811を、検出された被体験者809の関節の角
度と等しい関節角度を取るように変形し、計算機内部に
仮想的に設けたxyz座標を有する仮想空間に配属す
る。
First, the angle and position of the joint of the person to be experienced 809 are detected by the human body sensor 800 fixed to the body of the person to be experienced and sent to the model operation unit 803. In the model operation unit 803, the human body model 811 stored in the database 801 is transformed so as to have a joint angle equal to the detected joint angle of the person to be experienced 809, and xyz coordinates virtually provided inside the computer. Be assigned to a virtual space having.

【0005】仮想物体配置部802では、データベース
801に格納されている仮想物体810aと810bを
移動・回転し、仮想空間に配置する。そして、仮想空間
における人体モデルや仮想物体について、その形状や位
置情報は仮想空間メモリ804に記憶され、その際、干
渉チェック部805は仮想空間メモリ上に記憶された人
体モデルと仮想物体とが同じ空間に重なって存在し、干
渉していないかを常時監視しており、仮想空間操作部8
06では、人体モデルと干渉する仮想物体の位置関係に
応じて仮想物体の移動を行う。
The virtual object placement unit 802 moves and rotates the virtual objects 810a and 810b stored in the database 801 and places them in the virtual space. The shape and position information of the human body model or virtual object in the virtual space is stored in the virtual space memory 804, and at that time, the interference check unit 805 determines that the human body model and the virtual object stored in the virtual space memory are the same. The virtual space operation unit 8 is constantly monitored for the presence of interference in the space.
In 06, the virtual object is moved according to the positional relationship of the virtual object that interferes with the human body model.

【0006】例えば、仮想物体810aが人体モデルの
掌の中にあるときは仮想物体が仮想空間の中で掴まれた
とみなし、人体モデルの掌の移動に伴い仮想物体810
aの座標位置を移動させる。CG画像生成部807では
仮想空間メモリ804をアクセスし、仮想空間中の人体
モデル811の頭部正面方向を視線方向とした仮想空間
のCG画像を作成する。
For example, when the virtual object 810a is in the palm of the human body model, it is considered that the virtual object is caught in the virtual space, and the virtual object 810 is moved as the palm of the human body model moves.
The coordinate position of a is moved. The CG image generation unit 807 accesses the virtual space memory 804 and creates a CG image of the virtual space in which the front direction of the head of the human body model 811 in the virtual space is the line-of-sight direction.

【0007】CG画像は被体験者の頭部に固定したディ
スプレイ808により被体験者809に提示される。こ
のとき、被体験者は被体験者自身の動作により仮想空間
の物体を操作でき、また仮想空間を人体モデルの視点で
見ることができるため、あたかも仮想空間の中に居るよ
うな感覚を覚えることができる。
The CG image is presented to the experienced person 809 by the display 808 fixed to the experienced person's head. At this time, the experienced person can operate the object in the virtual space by the movement of the experienced person and can see the virtual space from the viewpoint of the human body model, so that the person feels as if he / she were in the virtual space. You can

【0008】[0008]

【発明が解決しようとする課題】しかしながら、従来の
仮想現実シミュレーション装置では、仮想空間で仮想物
体を把持したり接触したときに、現実の物体を掴んでい
るわけではないため、物体の重さや物体に力を加えたと
きの反力を感じることができない。そのため従来の仮想
現実のシミュレータでは、被体験者が仮想空間内の物体
に接触したり、物体を把持しようとすると、著しく現実
感を削ぐことになる。
However, in the conventional virtual reality simulation device, when the virtual object is grasped or touched in the virtual space, the actual object is not grasped. I can't feel the reaction force when I apply force to. Therefore, in the conventional virtual reality simulator, when the person to be contacted with the object in the virtual space tries to hold the object, the sense of reality is significantly reduced.

【0009】また、干渉チェック部805は仮想空間内
の全ての干渉をチェックしなくてはならないが、仮想物
体が多くなるほど膨大な処理が必要となるため、あまり
複雑な仮想空間は実現できない。そこで本発明は、仮想
空間中の仮想物体に対応する疑似物体を用いて現実感の
ある疑似体験が行えるシミュレーション装置を提供する
ことを目的とする。
Further, the interference check unit 805 must check all interferences in the virtual space, but as the number of virtual objects increases, a huge amount of processing is required, so that a very complicated virtual space cannot be realized. Therefore, it is an object of the present invention to provide a simulation device that can perform a realistic simulated experience by using a pseudo object corresponding to a virtual object in a virtual space.

【0010】[0010]

【課題を解決するための手段】本発明において、上記の
課題を解決するための第1の手段は、図1に示すよう
に、仮想空間中に配置した仮想物体を実空間中の被体験
者の位置を検出する第1の手段に基づいて操作し、当該
仮想物体の動きを前記被体験者に具現するシミュレーシ
ョン装置において、仮想空間中の仮想物体と同じ触感を
有する疑似物体10と、前記疑似物体の位置を検出する
第2の手段11と、前記第2の検出手段の出力に応じ、
前記疑似物体に対応する仮想空間中の仮想物体の配置を
制御する手段12とを備えることである。
In the present invention, the first means for solving the above-mentioned problems is, as shown in FIG. 1, a virtual object arranged in a virtual space, which is an experienced person in a real space. In the simulation device which operates based on the first means for detecting the position of the virtual object, the movement of the virtual object is embodied in the experienced person, the pseudo object 10 having the same tactile sensation as the virtual object in the virtual space, and the pseudo object. According to the second means 11 for detecting the position of the object and the output of the second detecting means,
And means 12 for controlling the arrangement of the virtual object in the virtual space corresponding to the pseudo object.

【0011】[0011]

【作用】本発明のシミュレーション装置によれば、疑似
物体の位置を検出し、疑似物体に対応する仮想物体を仮
想空間に配置するので、被体験者が疑似物体に接触する
と、仮想空間では被体験者の人体モデルが疑似物体に対
応する仮想物体に接触する。
According to the simulation apparatus of the present invention, the position of the pseudo object is detected and the virtual object corresponding to the pseudo object is arranged in the virtual space. Therefore, when the person in contact with the pseudo object experiences in the virtual space. The human body model of the person contacts a virtual object corresponding to the pseudo object.

【0012】そのために、仮想空間で仮想物体に接触す
るように被体験者が操作を行うと、現実世界では被体験
者が疑似物体に接触し、疑似物体からの反力や重さを体
感することができる。また、疑似物体の実空間内の配置
状態により実空間内の全ての干渉をチェックするので、
疑似物体の位置を検出して仮想空間に配置される仮想物
体の仮想空間内の干渉をチェックする必要がない。
For this reason, when a person to be operated operates in a virtual space so as to come into contact with a virtual object, the person to be contacted with the pseudo object in the real world experiences the reaction force and the weight from the pseudo object. be able to. Also, because all interference in the real space is checked by the arrangement state of the pseudo object in the real space,
It is not necessary to detect the position of the pseudo object and check the interference in the virtual space of the virtual object arranged in the virtual space.

【0013】[0013]

【実施例】以下本発明の実施例を図面に基づいて説明す
る。図2は本発明の一実施例で、仮想現実シミュレーシ
ョン装置の構成を示すブロック図である。図2におい
て、200は人体センサ、201は物体センサ、202
はデータベース、203は仮想物体配置部、204はモ
デル操作部、205は仮想空間メモリ、206はCG画
像生成部、207はディスプレイ、208aと208b
は疑似物体、209は被体験者、210aと210bは
仮想物体、211は人体モデルである。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 is a block diagram showing the configuration of a virtual reality simulation apparatus according to an embodiment of the present invention. In FIG. 2, 200 is a human body sensor, 201 is an object sensor, 202
Is a database, 203 is a virtual object placement unit, 204 is a model operation unit, 205 is a virtual space memory, 206 is a CG image generation unit, 207 is a display, and 208a and 208b.
Is a pseudo object, 209 is a person to be experienced, 210a and 210b are virtual objects, and 211 is a human body model.

【0014】ここで、図1における疑似物体10に対応
するのが疑似物体208aと208bであり、また図1
における疑似物体の位置を検出する手段11として物体
センサ201が設けられ、更に仮想物体の配置を制御す
る手段12が仮想物体配置部203に対応している。な
お、疑似物体208aに対応する仮想物体が210aで
あり、疑似物体208bに対応する仮想物体が210b
である。
Here, the pseudo objects 208a and 208b correspond to the pseudo object 10 in FIG.
The object sensor 201 is provided as the means 11 for detecting the position of the pseudo object in the above, and the means 12 for controlling the placement of the virtual object corresponds to the virtual object placement unit 203. The virtual object corresponding to the pseudo object 208a is 210a, and the virtual object corresponding to the pseudo object 208b is 210b.
Is.

【0015】また、実空間は原点をOとするXYZ座標
系をもち、仮想空間は原点oとするxyz座標系をもつ
ものとする。人体センサ200は、実空間における被体
験者209のXYZ座標を計測する位置センサと、実空
間における被体験者209の向きを計測する向きセンサ
と、実空間における被体験者209の関節角度を計測す
る角度センサから構成され、実空間における被体験者の
体の位置座標と向きと関節角度とを検出する。
Further, it is assumed that the real space has an XYZ coordinate system whose origin is O and the virtual space has an xyz coordinate system whose origin is o. The human body sensor 200 measures a position sensor that measures the XYZ coordinates of the experienced person 209 in the real space, an orientation sensor that measures the orientation of the experienced person 209 in the real space, and a joint angle of the experienced person 209 in the real space. It is composed of an angle sensor for detecting the position coordinates, orientation and joint angle of the body of the person to be experienced in the real space.

【0016】人体センサとしては、被体験者が装着する
データグローブやデータスーツ等の従来周知のものを用
いるが、その他にも被体験者の体の動きを検知する三次
元センサであればこれに限られるものではない。物体セ
ンサ201は疑似物体208aと208bの実空間での
位置座標と向きを検出する。
As the human body sensor, a conventionally known one such as a data glove or a data suit worn by the person to be experienced is used, but in addition to this, if it is a three-dimensional sensor for detecting the movement of the body of the person to be experienced. It is not limited. The object sensor 201 detects the position coordinates and orientations of the pseudo objects 208a and 208b in the real space.

【0017】図4は実空間での疑似物体の配置を説明す
る図である。図4の(a)に示すように、原点OAの局
所座標系XA,YA,ZA上で形状定義された疑似物体
Aの位置と向きは、図4の(b)に示すように、実空間
座標系における原点OAの位置座標(XOA,YOA
OA)(単位:m)と、実空間座標系に対する疑似物体
Aの局所座標系のオイラー角(θA , φA ,χA )(単
位:rad)で表される。
FIG. 4 is a view for explaining the arrangement of pseudo objects in the real space. As shown in (a) of FIG. 4, the position and orientation of the pseudo object A whose shape is defined on the local coordinate system XA, YA, ZA of the origin OA is as shown in (b) of FIG. The position coordinates of the origin OA in the coordinate system (X OA , Y OA ,
Z OA ) (unit: m) and Euler angles (θ A , φ A , χ A ) (unit: rad) of the local coordinate system of the pseudo object A with respect to the real space coordinate system.

【0018】物体センサとしては、疑似物体からの磁界
の出力変化により疑似物体の三次元位置を検出する磁気
センサ等の従来周知のものを用いるが、その他にも疑似
物体の位置を検知する三次元センサであればこれに限ら
れるものではない。また、本実施例では、二つの疑似物
体208aと208bを位置を一つの物体センサ201
で検出する構成にしているが、各疑似物体に対してそれ
ぞれ物体センサを設ける構成にしてもよい。
As the object sensor, a conventionally known one such as a magnetic sensor for detecting the three-dimensional position of the pseudo object by changing the output of the magnetic field from the pseudo object is used. In addition, a three-dimensional sensor for detecting the position of the pseudo object is used. The sensor is not limited to this. Further, in this embodiment, the positions of the two pseudo objects 208a and 208b are set to the one object sensor 201.
However, the object sensor may be provided for each pseudo object.

【0019】データベース202は、実空間にある疑似
物体と被体験者にそれぞれ対応する仮想物体と人体モデ
ルの情報として形状、材質、色情報等を格納している。
図5は仮想空間での仮想物体の配置を説明する図であ
る。例えば、図5の(a)に示すように、仮想物体aは
原点oaの局所座標系xa,ya,za上で形状定義さ
れてデータベース202に格納されている。
The database 202 stores shape, material, color information and the like as information of a virtual object and a human body model corresponding to a simulated object in the real space and an experienced person, respectively.
FIG. 5 is a diagram illustrating the arrangement of virtual objects in a virtual space. For example, as shown in FIG. 5A, the shape of the virtual object a is defined on the local coordinate system xa, ya, za of the origin oa and stored in the database 202.

【0020】仮想物体配置部203は、仮想物体aの局
所座標系上の任意の点(xan,yan,zan)(単位:
m)を次式によって移動・回転し、図5の(b)に示す
ように仮想空間上の点(xan’,yan’,zan’)(単
位:m)に写像する。
The virtual object placement unit 203 has arbitrary points (x an , y an , z an ) (unit: on the local coordinate system of the virtual object a).
m) is moved / rotated by the following equation, and is mapped to a point (x an ', y an ', z an ') (unit: m) in the virtual space as shown in FIG.

【0021】[0021]

【数1】 ここで、rは仮想空間座標系の実空間座標系に対する尺
度(単位:なし)であり、Rは次式で表される回転行列
である。
[Equation 1] Here, r is a scale (unit: none) of the virtual space coordinate system with respect to the real space coordinate system, and R is a rotation matrix represented by the following equation.

【0022】[0022]

【数2】 ただし、式中のSは正弦演算子(sin)、Cは余弦演
算子(cos)をそれぞれ表している。モデル操作部2
04は、データベース202に格納されている人体モデ
ルの情報を取りだし、仮想物体配置部203で処理され
た仮想物体と同様に、人体モデルの局所座標系の任意の
点を、人体センサ200で検出された被体験者209の
実空間中の位置に応じて移動・回転させ、仮想空間上に
写像する。
[Equation 2] However, S in the formula represents a sine operator (sin), and C represents a cosine operator (cos). Model operation part 2
Reference numeral 04 retrieves the information of the human body model stored in the database 202, and like the virtual object processed by the virtual object placement unit 203, the human body sensor 200 detects an arbitrary point in the local coordinate system of the human body model. The experienced person 209 is moved / rotated according to the position in the real space, and is mapped in the virtual space.

【0023】仮想空間メモリ205は、仮想物体配置部
203によって仮想空間に配置された仮想物体の位置や
形状等の仮想物体配置情報と、モデル操作部204によ
って仮想空間に配置された人体モデルの位置や状態等の
人体モデル配置情報とを記憶する。CG画像生成部20
6は、仮想空間メモリ205に格納された仮想物体及び
人体モデルの形状や色情報等の数値情報を可視化したC
G画像を作成する。
The virtual space memory 205 stores virtual object placement information such as the position and shape of the virtual object placed in the virtual space by the virtual object placement unit 203, and the position of the human body model placed in the virtual space by the model operation unit 204. The human body model arrangement information such as the state and the state is stored. CG image generator 20
6 is a C that visualizes the numerical information such as the shape and color information of the virtual object and the human body model stored in the virtual space memory 205.
Create a G image.

【0024】図6は、CG画像の作成を説明する図であ
る。CG画像は、図6に示すように、仮想空間中の人体
モデルの頭部にある眼球位置座標を視点とし、頭部前面
への法線方向を視線方向ベクトルとし、仮想物体及び人
体モデルの一部分を投影面上に投影した画像であり、こ
の投影はレイトレーシング等の従来周知のCG技法によ
り行うことができる。
FIG. 6 is a diagram for explaining the creation of a CG image. As shown in FIG. 6, the CG image has the eyeball position coordinates on the head of the human body model in the virtual space as the viewpoint, the normal direction to the front of the head as the line-of-sight vector, and the virtual object and a part of the human body model. Is an image projected on a projection surface, and this projection can be performed by a well-known CG technique such as ray tracing.

【0025】図7は、作成されたCG画像を示す図であ
る。ディスプレイ207は、作成した仮想空間のCG画
像を被体験者209に提示するもので、被体験者の頭部
に固定する頭部搭載式立体ディスプレイ等である。以上
の構成を有する仮想現実シミュレーション装置の動作に
ついて説明する。図3は、本発明の一実施例で、仮想現
実シミュレーション装置の動作フロー図である。
FIG. 7 is a diagram showing the created CG image. The display 207 presents the created CG image of the virtual space to the person to be experienced 209, and is, for example, a head-mounted stereoscopic display fixed to the person's head. The operation of the virtual reality simulation device having the above configuration will be described. FIG. 3 is an operation flow diagram of the virtual reality simulation apparatus according to the embodiment of the present invention.

【0026】まず、シミュレーション装置の動作を開始
させると、人体センサ200が被体験者209の三次元
位置や顔面の方向を検出する(ステップ30A)。そし
て、モデル操作部204が、人体センサ200における
検出結果に基づいてデータベース202に格納されてい
る人体モデル211を仮想空間に配置し(ステップ31
A)、仮想空間に配置された人体モデルの配置情報は仮
想空間メモリ205に記憶される(ステップ32A)。
First, when the operation of the simulation apparatus is started, the human body sensor 200 detects the three-dimensional position and the face direction of the person to be experienced 209 (step 30A). Then, the model operating unit 204 arranges the human body model 211 stored in the database 202 in the virtual space based on the detection result of the human body sensor 200 (step 31).
A), the placement information of the human body model placed in the virtual space is stored in the virtual space memory 205 (step 32A).

【0027】一方、シミュレーション装置の動作が開始
されると、上記処理ステップと同時に、物体センサ20
1が疑似物体208aの三次元位置を検出する(ステッ
プ30B)。次に、仮想物体配置部203が、物体セン
サ201における検出結果にもとづいてデータベース2
02に格納されている仮想物体210aを仮想空間に配
置し(ステップ41B)、仮想空間に配置された仮想物
体の配置情報は仮想空間メモリ205に記憶される(ス
テップ42B)。
On the other hand, when the operation of the simulation apparatus is started, the object sensor 20 is simultaneously operated at the same time as the above processing steps.
1 detects the three-dimensional position of the pseudo object 208a (step 30B). Next, the virtual object placement unit 203 uses the database 2 based on the detection result of the object sensor 201.
The virtual object 210a stored in 02 is placed in the virtual space (step 41B), and the placement information of the virtual object placed in the virtual space is stored in the virtual space memory 205 (step 42B).

【0028】なお、疑似物体208bに対しても同様に
物体センサ201で三次元位置が検出され、仮想空間メ
モリに仮想物体210bの配置情報が記憶される処理が
同時に行われる。人体モデルと仮想物体の配置情報が仮
想空間メモリ205に格納されると、CG画像生成部2
06が仮想空間メモリ205をアクセスし、人体モデル
の配置情報から仮想空間CG画像を作成し(ステップ3
3)、CG画像がディスプレイ207に表示される(ス
テップ34)。
Incidentally, also for the pseudo object 208b, the three-dimensional position is similarly detected by the object sensor 201, and the processing of storing the arrangement information of the virtual object 210b in the virtual space memory is simultaneously performed. When the placement information of the human body model and the virtual object is stored in the virtual space memory 205, the CG image generation unit 2
06 accesses the virtual space memory 205 and creates a virtual space CG image from the placement information of the human body model (step 3
3), the CG image is displayed on the display 207 (step 34).

【0029】このようにして被体験者の動きに応じて仮
想空間に被体験者に対応する人体モデルを配置するとと
もに、疑似物体の状態に応じて仮想空間に疑似物体に対
応する仮想物体を配置する。したがって、被体験者が実
際に疑似物体を直接操作すると、ディスプレイ上におい
て人体モデルが仮想物体を操作することになるので、被
体験者は仮想空間内の仮想物体を実際に操作している様
な体験が得られる。
In this way, the human body model corresponding to the experienced person is arranged in the virtual space according to the movement of the experienced person, and the virtual object corresponding to the pseudo object is arranged in the virtual space according to the state of the pseudo object. To do. Therefore, when the person actually operates the pseudo object directly, the human body model operates the virtual object on the display. Therefore, it seems that the person actually operates the virtual object in the virtual space. Experience is gained.

【0030】[0030]

【発明の効果】以上説明したように本発明によれば、仮
想空間中の仮想物体に対応する疑似物体を実空間上に用
意し、疑似物体の位置と向きに対応するように仮想空間
中に仮想物体を配置するため、被体験者が仮想空間内で
仮想物体に触ったり把持すると、実空間で疑似物体を触
ったり把持することになる。そのため被体験者は疑似物
体の触覚を仮想物体の触覚と錯覚するため、現実感の伴
った仮想現実シミュレーションを実現できる効果があ
る。
As described above, according to the present invention, the pseudo object corresponding to the virtual object in the virtual space is prepared in the real space, and the pseudo object is provided in the virtual space so as to correspond to the position and the direction of the pseudo object. Since the virtual object is arranged, when the person to be experienced touches or grips the virtual object in the virtual space, the virtual object is touched or gripped in the real space. Therefore, the person experiencing the image illusions the tactile sensation of the pseudo object to the tactile sensation of the virtual object, so that there is an effect that a virtual reality simulation with a sense of reality can be realized.

【0031】また、現実世界では物体同士が重なって存
在することはないので、疑似物体の位置に基づいて仮想
空間中に仮想物体を配置する本発明のシミュレーション
装置では、仮想空間で仮想物体同士の干渉チェック処理
を省略することができ、仮想現実シミュレーション処理
が迅速に行えるという効果がある。
Further, since objects do not exist in the real world in an overlapping manner, the simulation apparatus of the present invention for arranging virtual objects in the virtual space based on the position of the pseudo object allows the virtual objects to be arranged in the virtual space. The interference check process can be omitted, and the virtual reality simulation process can be performed quickly.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明の一実施例で、仮想現実シミュレーショ
ン装置の構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a virtual reality simulation device according to an embodiment of the present invention.

【図3】本発明の一実施例で、仮想現実シミュレーショ
ン装置の動作フロー図である。
FIG. 3 is an operation flow diagram of the virtual reality simulation apparatus according to the embodiment of the present invention.

【図4】実空間での疑似物体の配置を説明する図であ
る。
FIG. 4 is a diagram illustrating the placement of pseudo objects in a real space.

【図5】仮想空間での仮想物体の配置を説明する図であ
る。
FIG. 5 is a diagram illustrating the arrangement of virtual objects in a virtual space.

【図6】CG画像の作成を説明する図である。FIG. 6 is a diagram illustrating creation of a CG image.

【図7】作成されたCG画像を示す図である。FIG. 7 is a diagram showing a created CG image.

【図8】従来の仮想現実シミュレーション装置の構成を
示すブロック図である。
FIG. 8 is a block diagram showing a configuration of a conventional virtual reality simulation device.

【符号の説明】[Explanation of symbols]

10・・・疑似物体 11・・・疑似物体位置検出手段 12・・・仮想物体配置制御手段 10 ... Pseudo object 11 ... Pseudo object position detection means 12 ... Virtual object placement control means

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成5年12月6日[Submission date] December 6, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図1[Name of item to be corrected] Figure 1

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図1】 [Figure 1]

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図4[Name of item to be corrected] Figure 4

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図4】 [Figure 4]

【手続補正3】[Procedure 3]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図5[Name of item to be corrected] Figure 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図5】 [Figure 5]

【手続補正4】[Procedure amendment 4]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図6[Name of item to be corrected] Figure 6

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図6】 [Figure 6]

【手続補正5】[Procedure Amendment 5]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図7[Name of item to be corrected] Figure 7

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図7】 [Figure 7]

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 仮想空間中に配置した仮想物体を実空間
中の被体験者の位置を検出する第1の手段に基づいて操
作し、当該仮想物体の動きを前記被体験者に具現するシ
ミュレーション装置において、 仮想空間中の仮想物体と同じ触感を有する疑似物体(1
0)と、 前記疑似物体の位置を検出する第2の手段(11)と、 前記第2の検出手段の出力に応じ、前記疑似物体に対応
する仮想空間中の仮想物体の配置を制御する手段(1
2)とを備えることを特徴とするシミュレーション装
置。
1. A simulation in which a virtual object placed in a virtual space is operated based on a first means for detecting the position of the person being experienced in the real space, and the movement of the virtual object is embodied in the person being experienced. In the apparatus, a pseudo object (1 having the same tactile sensation as a virtual object in a virtual space
0), second means (11) for detecting the position of the pseudo object, and means for controlling the arrangement of the virtual object in the virtual space corresponding to the pseudo object according to the output of the second detection means. (1
2) A simulation device comprising:
JP6064393A 1993-03-19 1993-03-19 Simulation device Withdrawn JPH06274094A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6064393A JPH06274094A (en) 1993-03-19 1993-03-19 Simulation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6064393A JPH06274094A (en) 1993-03-19 1993-03-19 Simulation device

Publications (1)

Publication Number Publication Date
JPH06274094A true JPH06274094A (en) 1994-09-30

Family

ID=13148216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6064393A Withdrawn JPH06274094A (en) 1993-03-19 1993-03-19 Simulation device

Country Status (1)

Country Link
JP (1) JPH06274094A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003063087A1 (en) * 2002-01-25 2003-07-31 Iwane Laboratories, Ltd. Automatic working system
US8570291B2 (en) 2009-05-21 2013-10-29 Panasonic Corporation Tactile processing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003063087A1 (en) * 2002-01-25 2003-07-31 Iwane Laboratories, Ltd. Automatic working system
US8570291B2 (en) 2009-05-21 2013-10-29 Panasonic Corporation Tactile processing device

Similar Documents

Publication Publication Date Title
Evans et al. Tablet-based valuators that provide one, two, or three degrees of freedom
US3919691A (en) Tactile man-machine communication system
US7312786B2 (en) Three dimensional human-computer interface
US20090177452A1 (en) Virtual Tool Manipulation System
US20060017654A1 (en) Virtual reality interactivity system and method
WO2000038117B1 (en) Method and system for a virtual assembly design environment
EP0846286B1 (en) Virtual environment interaction and navigation device
JP4272711B2 (en) Image generation method and apparatus
Horie et al. Encounteredlimbs: A room-scale encountered-type haptic presentation using wearable robotic arms
Yang et al. An augmented reality-based training system with a natural user interface for manual milling operations
KR100934391B1 (en) Hand-based Grabbing Interaction System Using 6-DOF Haptic Devices
JPH09138637A (en) Pseudo visibility device
Cousins et al. Development of a mixed reality based interface for human robot interaciotn
Akahane et al. Two-handed multi-finger string-based haptic interface SPIDAR-8
CN113129678A (en) Virtual reality-based general operation simulation training system
KR102164371B1 (en) Interaction implementing method of virtual object for virtual maintenance training
Arévalo Arboleda et al. Exploring the visual space to improve depth perception in robot teleoperation using augmented reality: the role of distance and target’s pose in time, success, and certainty
JPH06274094A (en) Simulation device
CN110363841B (en) Hand motion tracking method in virtual driving environment
CN112527109B (en) VR whole body action control method and system based on sitting posture and computer readable medium
JPH09330016A (en) Virtual object operating method and virtual object display device
Lee et al. Visual guidance for a spatial discrepancy problem of in encountered-type haptic display
JP2000047563A (en) Holding action simulation device for object
JP2020077069A (en) Feedback generating device
NL2025627B1 (en) A virtual or augmented reality training system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000530