JPH09311948A - Virtual space generation and motion ride system - Google Patents

Virtual space generation and motion ride system

Info

Publication number
JPH09311948A
JPH09311948A JP12959496A JP12959496A JPH09311948A JP H09311948 A JPH09311948 A JP H09311948A JP 12959496 A JP12959496 A JP 12959496A JP 12959496 A JP12959496 A JP 12959496A JP H09311948 A JPH09311948 A JP H09311948A
Authority
JP
Japan
Prior art keywords
virtual world
motion
virtual
input
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP12959496A
Other languages
Japanese (ja)
Inventor
Seiichi Akaha
誠一 赤羽
Nobuhiko Matsukuma
信彦 松隈
Manabu Yanagimoto
学 柳本
Tsuneya Kurihara
恒弥 栗原
Haruichi Yano
晴一 矢野
Shunji Hamano
俊二 浜野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP12959496A priority Critical patent/JPH09311948A/en
Publication of JPH09311948A publication Critical patent/JPH09311948A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain the real performance by recognizing the contents of instructions based on the contact frequency and the contact impact force caused between an input device and an instruction input measurement means and communicating these recognized contents to a virtual expression system. SOLUTION: A virtual world expression system 200 of a virtual space generation/motion ride system generates the images, the operations of a motion ride device, the sounds and the control rules of peripheral devices. An input system 100 inputs the instructions, and an output system 300 visualizes the images generated by the system 200 and turns the sounds produced by the system 200 into the audible sounds. At the same time, the system 300 drives the motion ride device and operates the peripheral devices. In such a way, a virtual world is created in the system 200. In other words, the contact frequency and the contact impact force which are caused between an input device and an instruction input measurement device are detected as the input of instructions. Then the contents of instructions are recognized, based on a prescribed standard of evaluation, and these contents are communicated to the system 200.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、仮想空間生成/モ
ーションライドシステムに係わり、特に、少なくともひ
とつのオブジェクトと、そのオブジェクトが存在する環
境とを含む仮想世界を構築すると共に、その少なくとも
一部を可視的に表示するための画像を生成し、さらにオ
ブジェクトの動作に対応するモーションライド装置の動
作を生成して仮想空間を構築する仮想空間生成/モーシ
ョンライドシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual space generation / motion ride system, and more particularly to constructing a virtual world including at least one object and an environment in which the object exists, and at least a part of the virtual world. The present invention relates to a virtual space generation / motion ride system that generates an image to be visually displayed and further generates a motion of a motion ride device corresponding to a motion of an object to build a virtual space.

【0002】[0002]

【従来の技術】画像を生成して表示する仮想空間生成装
置には、オブジェクトを含む仮想世界で生じる種々の事
象に応じて画像を生成して表示する装置、実世界で生じ
た事象がオブジェクトを含む仮想世界に作用して仮想世
界を変化させ、その仮想世界の画像を生成して表示する
装置、実世界で生じた事象を、実世界をモデル化した仮
想世界での事象として生成して表示する装置等がある。
例えば、これらの装置として、特開平6−161477号公報
にある仮想環境生成装置や特開平7−8632号公報にある
3次元ゲーム装置等が挙げられる。
2. Description of the Related Art A virtual space generation device for generating and displaying an image is a device for generating and displaying an image according to various events occurring in a virtual world including an object, and an event occurring in the real world indicates an object. A device that acts on the virtual world to change the virtual world, generates and displays an image of the virtual world, and an event that occurred in the real world is generated and displayed as an event in the virtual world that models the real world. There is a device to do.
For example, as these devices, a virtual environment generation device disclosed in JP-A-6-161477 and a three-dimensional game device disclosed in JP-A-7-8632 can be cited.

【0003】これらの装置では、実世界から仮想世界へ
の入力を行うために、方向指示による入力装置、ボタン
による接触による入力装置が用いられてる。
In these devices, in order to input data from the real world to the virtual world, an input device for indicating a direction and an input device for touching with a button are used.

【0004】一方、モーションライド装置は、少なくと
も1名の人間(体験者)が搭乗し、予め与えられた指示
入力、体験者からの指示入力、実世界で生じた事象にし
たがって、モーションライド装置への動作指示が生成さ
れ、その動作指示によって生成される制御入力によって
駆動装置が作動し、少なくとも1自由度方向の動作をす
る装置である。
On the other hand, in the motion ride device, at least one person (experienced person) is boarded, and the motion ride device is connected to the motion ride device in accordance with a predetermined instruction input, an instruction input from the experience person, and an event occurring in the real world. Is generated, and the drive device is actuated by the control input generated by the operation instruction, and operates in at least one degree of freedom direction.

【0005】これは、例えば上記仮想空間生成装置と共
に、バーチャルリアリティシステム,アミューズメント
システム,災害シミュレータとして使用されている。
This is used as, for example, a virtual reality system, an amusement system, and a disaster simulator together with the above-mentioned virtual space generation device.

【0006】[0006]

【発明が解決しようとする課題】しかし、仮想世界のオ
ブジェクトによっては、従来のモーションライド装置の
ような方向指示,ボタン等の入力装置では、指示入力手
段として適していない場合がある。例えば、オブジェク
トが馬で、乗馬体験を模擬する場合、上記のような方向
指示,ボタン等の入力装置では、実世界における馬への
指示入力手段とは大きくかけ離れているため、体験者が
仮想的な現実感を体験することは困難である。
However, depending on the object in the virtual world, the input device such as the direction indication and button like the conventional motion ride device may not be suitable as the instruction input means. For example, when the object is a horse and a horse riding experience is simulated, the input device such as the direction instruction and the button as described above is far from the instruction input means to the horse in the real world, and therefore the experience person is a virtual person. It is difficult to experience such a real feeling.

【0007】本発明の第1の目的は、オブジェクトの形
態によって、体験者が仮想世界に指示入力を行う際に、
よりリアルに演出することができる指示入力手段を提供
することにある。
[0007] A first object of the present invention is to allow an experience person to input an instruction in a virtual world depending on the form of an object.
It is to provide an instruction input means capable of producing a more realistic effect.

【0008】また、これまでのバーチャルリアリティシ
ステムでは、オブジェクトが属する仮想世界において、
仮想世界外部からの上記オブジェクトへの指示入力によ
らず、仮想世界の環境に対応して上記オブジェクトが自
律的に自身の状態を設定する手段は存在しなかった。例
えば、オブジェクトが馬で、走行中に前方に障害物が存
在する時、体験者が、障害物を回避するための指示入力
を行わずに、馬が障害物を回避することはない。
Further, in the virtual reality system so far, in the virtual world to which the object belongs,
There is no means for the object to autonomously set its own state in response to the environment of the virtual world, regardless of the instruction input to the object from outside the virtual world. For example, when the object is a horse and there is an obstacle ahead while the vehicle is running, the horse does not avoid the obstacle without the user inputting an instruction for avoiding the obstacle.

【0009】本発明の第2の目的は、仮想世界の環境に
対応してオブジェクトが自律的に自身の状態を設定する
状態設定手段を提供することにある。
A second object of the present invention is to provide a state setting means for an object to autonomously set its own state corresponding to the environment of the virtual world.

【0010】また、これまでのバーチャルリアリティシ
ステムでは、仮想世界内のオブジェクトは、システム内
に予め設定された形態及び動態に関する情報に従い、体
験者が所望するようにオブジェクトの形態及び動態を設
定することは容易ではない。本発明の第3の目的は、仮
想世界におけるオブジェクトの形態及び動態に関して、
体験者もしくは体験者以外の第3者が自由に設定できる
ような指示入力手段を提供することにある。
Further, in the conventional virtual reality system, the object in the virtual world is set with the shape and the movement of the object as desired by the user according to the information regarding the shape and the movement set in advance in the system. Is not easy. The third object of the present invention relates to the shape and dynamics of objects in the virtual world.
It is to provide an instruction input means that can be freely set by an experienced person or a third party other than the experienced person.

【0011】また、これまでのバーチャルリアリティシ
ステムでは、体験者以外の人間が所望する画像を表示す
ることができず、予め与えられた視点から仮想世界を描
写した画像しか観察することができなかった。例えば、
HMD(ヘッドマウントディスプレイ)によって表示さ
れる画像は、上記HMDを装着している体験者しか観察
することができない。
Further, in the conventional virtual reality system, it is impossible to display an image desired by a person other than the experiencer, and only an image depicting the virtual world can be observed from a given viewpoint. . For example,
The image displayed by the HMD (head mounted display) can be observed only by the experienced person who wears the HMD.

【0012】本発明の第4の目的は、体験者以外の第3
者が、所望する視点から所望する画像を指示選択できる
ような指示入力設定手段を提供することにある。
[0012] A fourth object of the present invention is to provide a third object other than that of an experienced person.
Another object of the present invention is to provide an instruction input setting means that enables a person to instruct and select a desired image from a desired viewpoint.

【0013】また、実世界での乗馬体験において、体験
者はオブジェクトの動きだけでなく周囲の環境、例えば
気温,天候,風等の影響を受けているが、これらの影響
による効果を、画像生成装置によって生成された仮想世
界の画像と同期して演出してリアリティを向上させるこ
とは容易ではない。
Further, in a horse riding experience in the real world, the experience person is affected by not only the movement of the object but also the surrounding environment such as temperature, weather and wind. It is not easy to produce reality in synchronization with the image of the virtual world generated by the device to improve the reality.

【0014】本発明の第5の目的は、オブジェクトを含
む仮想世界の環境属性情報に基づいて、オブジェクトの
周囲の環境を表現する周辺機器を提供し、体験者のリア
リティを向上することにある。
A fifth object of the present invention is to provide a peripheral device that expresses the environment around the object based on the environment attribute information of the virtual world including the object, and improve the reality of the experience person.

【0015】[0015]

【課題を解決するための手段】上記第1の目的は指示入
力システムが、モーションライド装置表面の少なくとも
一部分で、入力装置と指示入力測定手段との間の接触回
数および、接触の際の衝撃力を指示入力として検出し
て、それを予め設定した評価基準にしたがって指示の内
容を認識し、その指示内容を上記仮想世界表現システム
に通信する指示内容認識手段を有する第1の態様により
達成することができる。
A first object of the present invention is to provide an instruction input system in which at least a part of a surface of a motion ride device is contacted between an input device and an instruction input measuring means and an impact force at the time of contact. Is recognized as an instruction input, the content of the instruction is recognized in accordance with a preset evaluation standard, and the instruction content is communicated to the virtual world representation system by the first aspect. You can

【0016】上記第2の目的は、上記第1の態様におい
て、仮想世界に含まれるオブジェクトの状態に関する情
報を蓄積する仮想世界データベースを備え、予め上記仮
想世界データベースに蓄積された情報にしたがって仮想
世界に含まれるオブジェクトの状態を設定する状態設定
手段を備える第2の態様により達成することができる。
The second object is, in the first aspect, provided with a virtual world database for accumulating information about states of objects included in the virtual world, and according to the information previously accumulated in the virtual world database. Can be achieved by the second aspect, which comprises a state setting means for setting the state of the object included in.

【0017】また上記第3の目的は、上記第2の態様に
おいて、更に予め仮想世界に含まれるオブジェクトと、
仮想世界内の環境の状態に関する情報を仮想世界データ
ベースに蓄積することができる指示入力手段を備える第
3の態様により達成することができる。
Further, the third object is that in the second aspect, the object further included in the virtual world in advance,
This can be achieved by the third aspect including an instruction input means capable of accumulating information about the state of the environment in the virtual world in the virtual world database.

【0018】また上記第4の目的は、上記第3の態様に
おいて、上記仮想世界に含まれるオブジェクトと、仮想
世界の画像を表示する際の視点と、仮想世界内の環境の
状態の少なくとも一部を予め設定し、また、上記状態の
少なくとも一部をシステム稼働中に変更するための指示
入力設定手段を有する第4の態様により達成することが
できる。
The fourth object is, in the third aspect, an object included in the virtual world, a viewpoint when an image of the virtual world is displayed, and at least a part of a state of an environment in the virtual world. Can be achieved in advance by the fourth aspect, and further has an instruction input setting means for changing at least a part of the above-mentioned state during system operation.

【0019】上記第5の目的は、上記第4の態様におけ
る仮想世界表現システムにおいて、上記仮想世界データ
ベースに蓄積された情報に基づいて、モーションライド
装置に設置された送風装置の制御則を生成する送風機制
御手段を有し、仮想世界データベースに蓄積された情報
に基づいて、上記モーションライド装置の動作を生成す
る動作生成手段を備える第5の態様により達成すること
ができる。
A fifth object of the present invention is, in the virtual world expression system according to the fourth aspect, to generate a control law for a blower installed in a motion ride device based on information stored in the virtual world database. This can be achieved by the fifth aspect, which has a blower control means and is provided with a motion generation means for generating a motion of the motion ride device based on the information accumulated in the virtual world database.

【0020】[0020]

【発明の実施の形態】以下、本発明の実施例について、
図面を用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below.
This will be described with reference to the drawings.

【0021】本発明の仮想空間生成/モーションライド
システムにおけるフローチャートを図1に示す。仮想空
間生成/モーションライドシステムは、画像の生成,モ
ーションライド装置の動作生成,音響の生成、及び周辺
機器の制御則の生成を行う仮想世界表現システム200
と、指示を入力するための入力システム100,仮想世
界表現システム200で生成された、画像の可視化,音
の可聴化,モーションライド装置の駆動,周辺機器の運
転を行う出力システム300から構成される。仮想世界
表現システム200において仮想世界が生成される。
A flowchart of the virtual space generation / motion ride system of the present invention is shown in FIG. The virtual space generation / motion ride system is a virtual world representation system 200 that generates images, motion ride device motions, sounds, and peripheral device control laws.
And an input system 100 for inputting instructions, and an output system 300 generated by the virtual world representation system 200 for visualizing images, making sounds audible, driving a motion ride device, and driving peripheral devices. . A virtual world is generated in the virtual world representation system 200.

【0022】仮想世界の例を図2に示す。仮想世界はオ
ブジェクト,環境,カメラにより構成されている。
An example of the virtual world is shown in FIG. The virtual world is composed of objects, environments, and cameras.

【0023】オブジェクトとは、仮想世界における動作
主体である。例えば人間,動物,植物等の有機物,乗り
物,建築物等の構造物、実世界では存在しない創造物等
のいずれであっても良い。またこれらのオブジェクトが
同一仮想世界内に複数存在しても良い。図2では、オブ
ジェクトとして3頭の馬が示されている。
An object is a subject of motion in the virtual world. For example, it may be any of organic substances such as humans, animals and plants, structures such as vehicles and buildings, and creations that do not exist in the real world. Also, a plurality of these objects may exist in the same virtual world. In FIG. 2, three horses are shown as objects.

【0024】環境とは、上記オブジェクトが存在する空
間である。例えば、宇宙,地球,空,森林,都市,建築
物内部等が挙げられる。環境はまったくの想像上のもの
であってもよく、実世界の物理法則等に従っている必要
もない、またこれらの環境が同一仮想世界内に複数存在
しても良い。図2では、環境として、空と競馬場による
空間が示されている。なお、環境には時間の概念を含ま
せることもできる。例えば、経年変化,季節の変化等が
ある。
The environment is a space where the above objects exist. For example, the space, the earth, the sky, forests, cities, the inside of buildings, and the like. The environment may be completely imaginary, it is not necessary to follow the physical laws of the real world, and a plurality of these environments may exist in the same virtual world. In FIG. 2, as the environment, the sky and the space formed by the racetrack are shown. The environment can also include the concept of time. For example, there are changes over time and seasons.

【0025】カメラは、仮想世界内のオブジェクトと環
境の一方、もしくは両方の画像を可視化する際に、オブ
ジェクトの一部もしくは全体の領域を指定するための仮
想デバイスである。図3にカメラの設定例を示す。図3
の例では演出カメラ,ジョッキー視点カメラ,オブジェ
クト視点カメラ,オブジェクト中心カメラ,オブジェク
ト追尾カメラの5種類のカメラが設定されている。
The camera is a virtual device for designating a part or the whole area of the object when visualizing an image of one or both of the object and the environment in the virtual world. FIG. 3 shows an example of camera settings. FIG.
In the example, five types of cameras, that is, a production camera, a jockey viewpoint camera, an object viewpoint camera, an object center camera, and an object tracking camera are set.

【0026】演出カメラは、図中の原点0を中心とする
仮想世界座標上で位置が固定されており撮影方向のみを
変化させることができる。その他のカメラはオブジェク
トの位置の変化に対応して仮想世界上での位置と撮影方
向を変化させる。
The production camera has a fixed position on the virtual world coordinates centered on the origin 0 in the figure, and can change only the photographing direction. Other cameras change the position and the shooting direction in the virtual world in response to the change in the position of the object.

【0027】ジョッキー視点カメラは体験者の視点から
観察される仮想世界画像を指定するもので、HMDから
のカメラ位置入力により、仮想世界内における位置,撮
影方向が決定される。
The jockey viewpoint camera designates a virtual world image observed from the viewpoint of the experience person, and the position and photographing direction in the virtual world are determined by the camera position input from the HMD.

【0028】オブジェクト視点カメラは、オブジェクト
の視点位置(図の例では馬の目の位置)におかれ、オブ
ジェクトの進行方向の仮想世界を指定する。
The object viewpoint camera is located at the viewpoint position of the object (the position of the horse's eyes in the example of the figure) and specifies the virtual world in the traveling direction of the object.

【0029】オブジェクト中心カメラは、オブジェクト
の中心位置から一定距離の位置に設定されたカメラで常
にオブジェクト中心方向に視点が設定されている。
The object center camera is a camera set at a position at a constant distance from the center position of the object, and the viewpoint is always set in the object center direction.

【0030】オブジェクト追尾カメラは、オブジェクト
が時間dtだけ過去の、時刻(t−dt)におけるオブ
ジェクトの中心位置から、時刻tにおけるオブジェクト
の中心方向を指定するものである。
The object tracking camera designates the center direction of the object at time t from the center position of the object at time (t-dt), which is past by time dt.

【0031】本システムでは、体験者以外の第3者がデ
ィスプレイ切り換え端末を使用して上記カメラのいずれ
かを指定し、所望する仮想世界画像を選択することがで
きる。
In this system, a third party other than the experienced person can specify any one of the above cameras using the display switching terminal and select a desired virtual world image.

【0032】本発明では画像の他に、音響を併せて出力
するように構成することができる。音響は、環境の状態
によって生じる背景音,オブジェクト自身が発する音,
オブジェクトと環境の相互作用によって生じる音,解説
者の声,音楽,仮想世界の説明を行うためのナレーショ
ン,操作方法を伝えるガイドメッセージ等が挙げられ
る。オブジェクト自身が発する音には、例えば、台詞,
鳴き声,鼻息,オブジェクトへの指示に応答する際の応
答音等がある。オブジェクトと環境の相互作用によって
生じる音には、オブジェクトが環境に作用した時の衝撃
音、例えば馬が地面を蹴る際の衝撃音が挙げられる。
In the present invention, it is possible to output not only images but also sounds. Sound is the background sound generated by the state of the environment, the sound emitted by the object itself,
Sounds generated by the interaction between objects and the environment, voices of commentators, music, narration for explaining the virtual world, guide messages that convey operating methods, and the like. The sound emitted by the object itself includes, for example, dialogue,
There are calls, noses, and response sounds when responding to instructions to the object. The sound generated by the interaction between the object and the environment includes an impact sound when the object acts on the environment, for example, an impact sound when the horse kicks the ground.

【0033】次に、本発明の各部の概要について説明す
る。
Next, the outline of each part of the present invention will be described.

【0034】仮想世界表現システム200は、仮想世界
に含まれる各オブジェクト,環境、およびそれらを臨む
カメラについて、それらの状態を設定する状態設定手段
210と、状態設定手段によって設定された仮想世界の情
報を蓄える仮想世界データベース220から成る。これ
らに加え、仮想世界表現システム200は、仮想世界デ
ータベース220の情報に基づいてオブジェクトと環境
の相互作用によって付随的に生じる効果を生成する付随
効果生成手段230,仮想世界データベース220の情
報に基づいて音響を生成するための音響生成手段24
0,仮想世界データベース220の情報に基づいて仮想
世界の画像を生成する画像生成手段250,仮想世界デー
タベース220の情報に基づいて周辺機器の制御則を生
成する周辺機器制御手段260,仮想世界データベース
220の情報に基づいてモーションライド装置の動作を
生成する動作生成手段270を備える。
The virtual world representation system 200 is a state setting means for setting the states of objects, environments, and cameras facing them included in the virtual world.
210 and a virtual world database 220 that stores information on the virtual world set by the state setting means. In addition to these, the virtual world representation system 200 is based on the information of the virtual world database 220 and the incidental effect generation means 230 that generates an effect incidentally caused by the interaction between the object and the environment based on the information of the virtual world database 220. Sound generating means 24 for generating sound
0, image generation means 250 for generating an image of the virtual world based on the information in the virtual world database 220, peripheral equipment control means 260 for generating a control law for the peripheral equipment based on the information in the virtual world database 220, virtual world database 220 And a motion generation unit 270 that generates a motion of the motion ride device based on the information of 1.

【0035】状態設定手段210は、例えば、指示入力
システム100から送信されるデータを受け取ると、そ
のデータの内容を解釈してそのデータがオブジェクト,
カメラ,環境のいずれのものであるかを判断し、そのデ
ータがオブジェクトに関するものであるならば、オブジ
ェクト設定部211により、オブジェクトを特定の状態
とするためのオブジェクト属性情報、例えば位置,運動
の種別等の設定を行い出力し、そのデータがカメラの設
定に関するものであるならば、カメラ設定部212によ
り、カメラの位置および、方向を設定して出力し、その
データが環境設定に関するものであれば、環境設定部2
13により背景,時刻,天候等の環境の状態を設定して
出力する。
For example, when the state setting means 210 receives data transmitted from the instruction input system 100, the state setting means 210 interprets the content of the data and the data is an object,
It is determined whether the object is a camera or an environment, and if the data is related to the object, the object setting unit 211 causes the object attribute information for setting the object in a specific state, for example, the type of position and movement. If the data is related to camera settings, the camera setting unit 212 sets and outputs the position and direction of the camera, and if the data is related to environment settings. , Environment setting section 2
The state of the environment such as background, time and weather is set and output by 13.

【0036】オブジェクト設定部211は、オブジェク
トごとに、それぞれがとるべき状態を記述するためのオ
ブジェクトの情報の設定および変更を行う。この情報
は、新しい設定がされた時と設定された状態が実行され
たとき更新されるように設定することができる。ただ
し、新たに設定された状態がそれまでに設定されている
状態の実行に支障を与えないものであるときは、その新
しい状態設定がそれまでに設定されているそれ以前に設
定された状態と併存するようにしてもよい。逆に、新た
に設定された状態がそれまでに設定されている状態の実
行に支障を与えるときは、オブジェクトの状態は新しく
設定されたものに更新される。
The object setting section 211 sets and changes the information of the object for describing the state that each object should take. This information can be set to be updated when a new setting is made and when the set state is executed. However, if the newly set state does not interfere with the execution of the previously set state, then the new state setting will not be compared to the previously set state. You may make it exist together. On the contrary, when the newly set state interferes with the execution of the previously set states, the state of the object is updated to the newly set state.

【0037】カメラ設定部212は、仮想世界を観察す
る際のカメラ位置およびカメラの方向を設定する。この
カメラ位置は上述のように、仮想世界の座標系を構成す
るx−y−z軸から成る3次元空間上における位置とそ
の位置における方向(θxc,θyc,θzc)によって設定
される。
The camera setting unit 212 sets the camera position and the camera direction when observing the virtual world. As described above, this camera position is set by the position in the three-dimensional space consisting of the xyz axes forming the coordinate system of the virtual world and the direction (θ xc , θ yc , θ zc ) at that position. .

【0038】環境設定部213は、場所,背景,時刻,
天候等を設定する。
The environment setting unit 213 has a place, background, time,
Set the weather etc.

【0039】状態設定手段210によって出力された情
報はすべて、仮想世界データベース220に蓄積され
る。
All the information output by the state setting means 210 is stored in the virtual world database 220.

【0040】カメラ情報は、上述したように、カメラ位
置及び、方向ベクトルに関する情報である。
The camera information is information on the camera position and the direction vector, as described above.

【0041】環境情報は、当該仮想世界の時刻を表す時
刻情報,環境における自然現象を表す情報,環境の経時
変化を表す情報、それらの情報に応じて環境をどのよう
な画像に表現すべきかを示す画像変化情報,付随効果に
関する情報が挙げられる。自然現象に関する情報として
は例えば、気象等の時々刻々変化する現象の情報,地震
等稀に生じる現象の情報,季節の変化,1日の変化等、
周期性を示す情報がある。付随効果に関する情報として
は、オブジェクトの動作に伴って生じるべき環境の局部
変化についての変化パターン,局部変化を発生させるた
めの画像要素,付随効果を発生させるための物理法則等
が挙げられる。画像要素としては図4に示すような、跳
ね石,土煙等を発生させるための基本的な画像データが
挙げられる。物理法則としては、例えば、落下に関する
運動方程式等が挙げられる。
The environment information includes time information representing the time of the virtual world, information representing a natural phenomenon in the environment, information representing a change with time of the environment, and what kind of image the environment should be represented in accordance with the information. The image change information to be shown and the information about the accompanying effect can be given. The information on natural phenomena includes, for example, information on phenomena that change from moment to moment such as weather, information on rare phenomena such as earthquakes, seasonal changes, daily changes, etc.
There is information indicating the periodicity. The information about the incidental effect includes a change pattern regarding a local change of the environment that should occur with the movement of the object, an image element for causing the local change, a physical law for generating the incidental effect, and the like. As the image element, basic image data for generating shrapnel, dirt and the like as shown in FIG. 4 can be mentioned. As the physical law, for example, a motion equation related to falling can be cited.

【0042】オブジェクト属性情報は、各オブジェクト
の基本的な形態および運動を示すためのデータ、例えば
外形,骨格等の形態データおよび、運動時の各部の動き
を示すモーションデータと、そのオブジェクトの持つ性
質、例えば重量,色,性格,経時変化情報がある。経時
変化情報としては例えば、オブジェクトの能力の低下等
が挙げられる。具体的には、時間変化に対応させてオブ
ジェクトの能力を更新するため情報、および、それに伴
って変化する事項を定めた情報等がある。オブジェクト
の能力の低下に伴って変化する事項としては例えばオブ
ジェクトの速度等が挙げられる。
The object attribute information is data for indicating the basic form and motion of each object, for example, form data such as outer shape and skeleton, motion data indicating the movement of each part during motion, and the property of the object. For example, there are weight, color, personality, and change information over time. Examples of the temporal change information include a decrease in the ability of the object. Specifically, there are information for updating the ability of an object in response to a change with time, information for defining matters that change with it, and the like. Items that change as the ability of the object decreases include, for example, the speed of the object.

【0043】形態データとしては、例えば図5(a),
図6(a)に示すようにオブジェクトの外面を多角形で
近似して表現した形状データと、図5(b)に示すよう
に、オブジェクトのスケルトンを規定するスケルトンデ
ータとが挙げられる。形状データは図6(b)に示すよ
うに、多角形p1,p2,p3,p4…のようにそれぞ
れを構成する頂点の定義と、当該オブジェクトのローカ
ル座標系で表記される各頂点の座標と、各頂点のスケル
トンを構成する各骨についての動きに対する関係率を表
すデータから成る。
As the morphological data, for example, as shown in FIG.
As shown in FIG. 6A, shape data in which the outer surface of an object is approximated by a polygon is represented, and as shown in FIG. 5B, skeleton data that defines the skeleton of the object. As shown in FIG. 6B, the shape data includes the definitions of the vertices that make up each of the polygons p1, p2, p3, p4 ... And the coordinates of each vertex expressed in the local coordinate system of the object. , The data representing the relation rate with respect to the movement of each bone constituting the skeleton of each vertex.

【0044】モーションデータに関しては、図7に示す
ように、オブジェクトの動きに対するスケルトンの各骨
(スケルトン1,……,スケルトンn)の角度の時間変
化を示す情報が挙げられる。
Regarding the motion data, as shown in FIG. 7, there is information indicating the time change of the angle of each bone (skeleton 1, ..., Skeleton n) of the skeleton with respect to the movement of the object.

【0045】付随効果生成手段230は、仮想世界デー
タベース220のオブジェクト情報及び、環境情報を受
けて、オブジェクトの動きが環境の一部分に与える変化
を生成する。例えば、オブジェクトが馬である場合、馬
が土の地面の上を走る際に馬の足が地面を蹴ることによ
って図4に示すように地上の石が跳ね上げられ、土煙が
発生する。
The incidental effect generating means 230 receives the object information of the virtual world database 220 and the environment information, and generates a change caused by the movement of the object to a part of the environment. For example, when the object is a horse, when the horse runs on the dirt ground, the horse's foot kicks the ground, so that the stones on the ground are flipped up, and dust is generated.

【0046】音響生成手段240は、オブジェクトの状
態に併せて、オブジェクトが発する音,背景音,ナレー
ション,ガイドメッセージ,音楽等の音響情報を生成す
る。オブジェクトが発生する音,ナレーション,ガイド
メッセージについては、例えば予め録音または合成して
生成した音素片データと、台詞,感情表現音,応答音,
ナレーション,ガイドメッセージ等の表現に応じた音響
を生成すべき音素片の組み合わせを指定するデータとを
ライブラリに記憶しておく。背景音および音楽は予め環
境に存在する音を記録しておき、これを音響のライブラ
リとして保存しておき、必要に応じて再生することがで
きる。なお、音の発生源に位置が関係する場合にはその
位置を示すデータも併せて記録しておく。これらは仮想
世界データベース220内に構築してもよい。
The sound generation means 240 generates sound information such as a sound emitted by the object, a background sound, narration, a guide message, and music in accordance with the state of the object. As for sounds, narrations, and guide messages generated by objects, for example, phoneme piece data generated in advance by recording or synthesizing, speech, emotion expression sound, response sound,
Data specifying a combination of phoneme pieces that should generate a sound according to the expression such as narration and guide message is stored in the library. For the background sound and music, sounds existing in the environment can be recorded in advance, stored as a sound library, and reproduced as necessary. If the position of the sound source is related, the data indicating the position is also recorded. These may be built in the virtual world database 220.

【0047】画像生成手段250は、オブジェクト,環
境、及び、付随効果について、それぞれの情報を基に、
仮想世界の近い将来の状態を求め、求められた状態に基
づいて時々刻々画像を生成し、それらを合成する。画像
は逐次生成され、全体として動画像を形成する。なお、
制止画像を形成するようにしてもよい。画像生成手段2
50は仮想世界データベース220の保存されているオ
ブジェクト情報に基づいて、オブジェクトの近い将来の
状態を求める。そして、この近い将来の情報と、カメラ
属性情報とを参照してオブジェクトの画像を生成する。
これには、HMDを出力とする画像も含まれる。また、仮
想世界データベース220の環境情報によって指定され
る次の環境の状態を、仮想世界データベース220のカ
メラ設定情報を参照して環境の画像を生成する。さら
に、付随効果生成手段230によって生成された付随効
果について、カメラ情報を参照して画像を生成する。
The image generating means 250 uses the respective information regarding the object, environment and incidental effect, and
The state of the virtual world in the near future is sought, images are generated momentarily based on the sought state, and they are combined. The images are sequentially generated to form a moving image as a whole. In addition,
You may make it form a stop image. Image generation means 2
50 obtains the near future state of the object based on the object information stored in the virtual world database 220. Then, an image of the object is generated by referring to this near future information and the camera attribute information.
This includes images with HMD output. Further, an image of the environment is generated by referring to the camera setting information of the virtual world database 220 for the state of the next environment specified by the environment information of the virtual world database 220. Further, for the incidental effect generated by the incidental effect generating means 230, an image is generated by referring to the camera information.

【0048】動作生成手段260は、仮想世界データベ
ース220のオブジェクト情報および環境情報に基づい
てオブジェクトの近い将来の状態を求め、求められた状
態に基づいて、時々刻々モーションライド装置の動作に
関する制御則を生成する。
The motion generating means 260 obtains the near future state of the object based on the object information and the environment information of the virtual world database 220, and based on the obtained state, the control rule regarding the motion of the motion ride device is added momentarily. To generate.

【0049】周辺機器制御手段270は、仮想世界デー
タベース220のオブジェクト情報、及び環境情報に基
づいて、周辺機器の制御を行う。例えば周辺機器として
送風機を制御する際には、オブジェクト属性情報として
オブジェクトの設定速度等に関する情報を参照し、環境
属性情報として天候,気温等の情報によって、送風機か
ら送り出す空気の温度,風量,湿度等を調節する。
The peripheral device control means 270 controls the peripheral device based on the object information of the virtual world database 220 and the environment information. For example, when controlling a blower as a peripheral device, the information about the set speed of the object is referred to as the object attribute information, and the temperature, air volume, humidity, etc. of the air sent from the blower are determined by the information such as weather and temperature as the environmental attribute information. Adjust.

【0050】出力システム300は、音を出力するため
の音響装置310,画像を表示するための表示装置32
0,駆動装置330,周辺機器340を備える。
The output system 300 includes a sound device 310 for outputting sound and a display device 32 for displaying an image.
0, a drive device 330, and a peripheral device 340.

【0051】音響装置310はステレオ再生が可能なよ
うに少なくとも2チャンネルのオーディオアンプとスピ
ーカとで構成される。また、立体的な音響再生を行うた
めに、マルチチャンネルのオーディオアンプ及びスピー
カを用いることもできる。また、ヘッドホンを用いるこ
ともできる。
The audio device 310 is composed of at least two channels of audio amplifiers and speakers so that stereo reproduction is possible. In addition, a multi-channel audio amplifier and speaker can be used to perform stereophonic sound reproduction. Alternatively, headphones can be used.

【0052】表示装置320は、大画面を実現するに
は、高精細大画面CRTディスプレイ,大型スクリーン
へのプロジェクタによる投影,複数の表示装置を配置し
たマルチビジョン等を使用することができる。また、複
数の表示装置を用いることによって多くの異なる画像を
提供することができる。また、表示装置としてディスプ
レイと併用してHMDを使用することもできる。このよ
うな出力装置を用いると体験者があたかも馬に騎乗して
いるかのような存在感をもたせることができ、臨場感を
高めることができる。
To realize a large screen, the display device 320 can use a high-definition large-screen CRT display, projection on a large screen by a projector, multi-vision in which a plurality of display devices are arranged, and the like. Also, many different images can be provided by using multiple display devices. Further, an HMD can be used in combination with a display as a display device. By using such an output device, it is possible to give the experience person a presence as if he / she was riding a horse, and enhance the sense of presence.

【0053】駆動装置330はモーションライド装置に
より構成される。モーションライド装置は複数の体験者
が同時に搭乗できてもよく、また、駆動部は多自由度の
運動をモーションライド本体に与えることができる。
The drive device 330 is composed of a motion ride device. The motion ride device may allow a plurality of passengers to board at the same time, and the drive unit may give motions of multiple degrees of freedom to the motion ride body.

【0054】周辺機器340としては、風を送風するこ
とができる送風機だけでなく、スモークを出すことがで
きる噴霧機,臭気を散布することができる臭気生成機,
スポットライトやストロボライト等の照明を生成できる
照明機器等が挙げられる。
As the peripheral equipment 340, not only a blower capable of blowing air, but also a sprayer capable of producing smoke, an odor generator capable of dispersing odor,
Illumination devices and the like that can generate illumination such as spotlights and strobe lights are included.

【0055】指示入力システム100は、指示入力手段
110と指示入力設定手段120によって構成される。
The instruction input system 100 comprises an instruction input means 110 and an instruction input setting means 120.

【0056】指示入力手段110では、センサに伝えら
れた指示入力情報を検知し、量,回数,方向等を予め設
定されたデータ形式に変換する。また、HMDを使用す
る際には、体験者の頭部の位置情報及び首の方向に関す
る情報も同様に扱われる。センサの例としては、張力セ
ンサ,接触センサ等が挙げられる。張力センサでは引張
の方向を検知するために複数のセンサを使用することも
できる。接触センサも複数使用して入力部を複数設けて
もよい。具体的には、馬を模擬したモーションライド装
置の左右に張力センサに接続した紐を手綱として、図8
のように体験者の手によって方向,引張力,引張頻度を
調節して入力を行う。接触センサでは必ずしもムチを使
用する必要はなく、接触における接触力,接触頻度等を
接触センサに伝えることができるものならよい。また体
験者の手などの身体の一部による入力も可能である。ム
チによる入力と出力の関係を図9に示す。これらのオブ
ジェクトへの指示入力とオブジェクトの状態の変化の関
係の例を図10に示す。図10の例では馬へのムチもし
くは手綱による指示入力が行われた際の馬の状態変化が
示されている。また、HMD内には予め、体験者の頭部
の位置情報及び首の方向を検知するためのセンサが組み
込まれている。
The instruction input means 110 detects the instruction input information transmitted to the sensor and converts the amount, the number of times, the direction, etc. into a preset data format. In addition, when using the HMD, the position information of the head and the direction of the neck of the experiencer are handled in the same manner. Examples of the sensor include a tension sensor and a contact sensor. A tension sensor can also use multiple sensors to detect the direction of tension. A plurality of contact sensors may also be used to provide a plurality of input units. Specifically, the cords connected to the tension sensors on the left and right of the motion ride device simulating a horse are used as the reins, and FIG.
As shown in, the user's hand adjusts the direction, pulling force, and pulling frequency to input. The contact sensor does not necessarily need to use the whip, and any contact force, contact frequency, and the like can be transmitted to the contact sensor. It is also possible to input with a part of the body such as the hands of the experience person. The relationship between the input and output by the whip is shown in FIG. FIG. 10 shows an example of the relationship between instruction inputs to these objects and changes in the state of the objects. In the example of FIG. 10, a state change of the horse when a whip or a rein instruction is input to the horse is shown. In addition, a sensor for detecting the positional information of the head and the direction of the neck of the experience person is built in the HMD in advance.

【0057】指示入力設定手段では、仮想世界を構築す
るために予め設定しておかなければない初期設定を入力
するための初期設定入力部と、体験者以外の第3者が表
示装置に表示する仮想世界の画像を選択するためのカメ
ラ位置入力部から構成される。
In the instruction input setting means, an initial setting input section for inputting an initial setting that must be set in advance for constructing a virtual world, and a third party other than the experienced person displays it on the display device. It is composed of a camera position input unit for selecting an image of the virtual world.

【0058】初期設定入力としては、体験者によるオブ
ジェクトの設定,環境の設定等がある。オブジェクトの
設定の例としては、予め仮想世界データベースに設定さ
れている過去の名馬の選択,競技場のレイアウト,天候
等が挙げられる。
The initial setting input includes the setting of an object and the setting of an environment by the experiencer. Examples of the setting of the object include selection of past famous horses set in the virtual world database in advance, layout of the stadium, weather, and the like.

【0059】カメラ位置入力部では、システムが静止も
しくは稼働中に、体験者以外の第3者が、例えばディス
プレイ切り換え端末を使用して、表示装置に表示する仮
想世界の画像を選択できる。ここでは、体験者が見てい
るHMD内の画像をディスプレイに表示して楽しむこと
もできる。
In the camera position input section, a third person other than the experience person can select an image of the virtual world to be displayed on the display device, for example, by using a display switching terminal while the system is stationary or in operation. Here, it is also possible to display the image in the HMD that the experience person is viewing on the display and enjoy it.

【0060】次に本発明についてより具体的に説明す
る。
Next, the present invention will be described more specifically.

【0061】図11に本発明を適用したシステムの機器
構成図を示す。
FIG. 11 shows a device configuration diagram of a system to which the present invention is applied.

【0062】図11に示すように本システムは機器別に
体験者用入出力システム400,観客用入力システム5
00,仮想世界表現システム600,出力システム70
0に分類することができる。これらの機器はEthernet等
のネットワーク800を通して相互に通信を行うことが
できる。
As shown in FIG. 11, this system is an input / output system 400 for the experience person and an input system 5 for the audience by device.
00, virtual world representation system 600, output system 70
It can be classified into 0. These devices can communicate with each other through a network 800 such as Ethernet.

【0063】体験者用入出力システム400は、体験者
に仮想世界の画像を表示するHMD装置410と、体験
者が搭乗して仮想世界と対話を行うモーションライド装
置420、及び上記モーションライド装置へ入力を行う
ためのムチ430から構成される。
The input / output system 400 for the experience person is provided to the HMD device 410 for displaying the image of the virtual world to the experience person, the motion ride device 420 for the experience person to board and interact with the virtual world, and the motion ride device. It is composed of a whip 430 for inputting.

【0064】観客用入力システム500は、体験者以外
の第3者が出力システムにより映し出される画像の中か
ら所望の画像を選択するために使用されるディスプレイ
切り換え端末510により構成される。
The spectator input system 500 is composed of a display switching terminal 510 which is used by a third party other than the experience person to select a desired image from the images displayed by the output system.

【0065】仮想世界表現システム600は、観客用入
力システム500、及び体験者用入出力システム400
からの情報を元に、仮想世界を構築し、この仮想世界の
情報を体験者入出力システム400及び出力システム7
00に送信する。
The virtual world representation system 600 includes an audience input system 500 and an experience input / output system 400.
The virtual world is constructed based on the information from the virtual world, and the information of this virtual world is used by the experience person input / output system 400 and the output system 7.
Send to 00.

【0066】出力システム700は仮想世界表現システ
ム600からの音の情報および画像情報をそれぞれ立体
音響システムおよび複数のディスプレイに出力する。
The output system 700 outputs sound information and image information from the virtual world representation system 600 to a stereophonic sound system and a plurality of displays, respectively.

【0067】体験者用入出力システム400は、仮想世
界表現システム600とのインターフェースである計算
機640によって制御される。これを図12を参照しな
がら説明する。具体的にはこのシステムは、モーション
ライド装置の構成要素であるモーションライド駆動部4
21,送風機制御部422,張力センサ423,接触セ
ンサ424,HMD装置410,HMD内に設けられて
いる頭部位置センサ411,仮想世界の情報を蓄積する
仮想世界データベース220,A/Dコンバータ80
1,D/Aコンバータ802,計算機の内部CPU641,シ
ステムの全体を制御するための制御手順を格納する全体
制御手段格納部643,HMDの画像生成するための画
像生成手順格納部644,モーションライド装置の動作
を生成するための動作生成手順格納部645,このPC
のメモリ上の作業領域646,頭部位置データ格納領域
647,グラフィックアクセラレータ660から成り、
これらが上記PCのバス642によって接続されてい
る。
The experience input / output system 400 is controlled by a computer 640 which is an interface with the virtual world representation system 600. This will be described with reference to FIG. Specifically, this system includes a motion ride driving unit 4 which is a component of the motion ride device.
21, blower controller 422, tension sensor 423, contact sensor 424, HMD device 410, head position sensor 411 provided in the HMD, virtual world database 220 for accumulating virtual world information, A / D converter 80
1, a D / A converter 802, an internal CPU 641 of a computer, an overall control means storage unit 643 for storing a control procedure for controlling the entire system, an image generation procedure storage unit 644 for generating an image of an HMD, a motion ride device Motion generation procedure storage unit 645 for generating the motion of
Of the work area 646, the head position data storage area 647, and the graphic accelerator 660 on the memory of
These are connected by the bus 642 of the PC.

【0068】音響生成に関する機器構成は、仮想世界表
現システム600の構成要素である計算機630,出力
システムの構成要素であるマルチチャンネルアンプ71
0,スピーカ・ヘッドホン等の音響装置720から成
る。より具体的に説明すると図13に示すように、計算
機620の指示入力処理を実行するための処理を行うCP
U621,外部記憶装置上に構築された音響ライブラリ62
7,システムの全体を制御するための制御手順を格納す
る全体制御手段格納部623,音響発生手順格納部62
4,CPU621が実行各種命令を実行するためのメモリ上の
作業領域625,楽器デジタルインターフェース(MI
DI I/F)626,仮想世界データベース220か
ら成り、これらが上記計算機のバス622によって接続
されている。
The equipment configuration relating to sound generation is the computer 630 which is a component of the virtual world representation system 600, and the multi-channel amplifier 71 which is a component of the output system.
0, an audio device 720 such as a speaker and headphones. More specifically, as shown in FIG. 13, a CP that performs processing for executing the instruction input processing of the computer 620.
U621, acoustic library 62 built on external storage device
7. Overall control means storage unit 623 for storing control procedures for controlling the entire system, sound generation procedure storage unit 62
4, CPU 621 is a work area 625 on the memory for executing various instructions, and musical instrument digital interface (MI
DI I / F) 626 and virtual world database 220, which are connected by the bus 622 of the computer.

【0069】ディスプレイに画像を表示するための機器
構成は、仮想世界表現システム600の構成要素である計
算機610と、大画面ディスプレイを含むディスプレイ
一式730から成る。より具体的に説明すると、図14
に示すように計算機内部CPU611,システムの全体を制御
するための制御手順を格納する全体制御手段格納部61
3,仮想世界の状態を時々刻々設定するための手順が格
納されている状態設定手順格納部614,画像を生成す
るための手順が格納されている画像生成手順格納部61
5,CPU611が実行各種命令を実行するためのメモリ上の
作業領域616,付随効果を生成するための手順が格納
されているメモリ上の作業領域617,画像を生成する
ためのデータを格納するためのメモリ上の画像生成デー
タ格納領域618,ディスプレイ指定情報格納部61
9,仮想世界データベース220から成り、これらが上
記PCのバス612によって接続されている。
The device configuration for displaying an image on the display comprises a computer 610, which is a component of the virtual world representation system 600, and a set of displays 730 including a large screen display. More specifically, referring to FIG.
As shown in FIG. 1, the computer internal CPU 611, the overall control means storage unit 61 for storing the control procedure for controlling the entire system
3, a state setting procedure storage unit 614 that stores a procedure for setting the state of the virtual world every moment, and an image generation procedure storage unit 61 that stores a procedure for generating an image
5, a work area 616 on the memory for executing various instructions executed by the CPU 611, a work area 617 on the memory in which a procedure for generating an incidental effect is stored, and for storing data for generating an image Image generation data storage area 618 and display designation information storage unit 61 on the memory
9. A virtual world database 220, which is connected by a bus 612 of the PC.

【0070】次に、本発明の仮想空間生成/モーション
ライドシステムについて、その動作について説明する。
ここでは、オブジェクトを馬、環境を競馬場として説明
を行う。
Next, the operation of the virtual space generation / motion ride system of the present invention will be described.
Here, the object will be described as a horse and the environment as a racetrack.

【0071】まず、指示入力システムについて説明す
る。
First, the instruction input system will be described.

【0072】指示入力システムは、より具体的に言えば
図15の手綱、図16のムチ、図17のHMD装置、仮
想世界データベース220,各モーションライド装置用
の計算機640,図18の画面切り換え端末510によ
って構成される。
More specifically, the instruction input system includes the reins of FIG. 15, the whip of FIG. 16, the HMD device of FIG. 17, the virtual world database 220, the computer 640 for each motion ride device, and the screen switching terminal of FIG. And 510.

【0073】手綱は図15に示すように手綱、および左
右の手綱センサから成り、左右のセンサに加えられる引
張力および引張方向を検出する。このデータは図12の
A/Dコンバータ801に送信されデジタルデータに変
換され、仮想世界データベース220に格納される。
As shown in FIG. 15, the reins consist of reins and left and right reins sensors, and detect the pulling force and the pulling direction applied to the left and right sensors. This data is transmitted to the A / D converter 801 in FIG. 12, converted into digital data, and stored in the virtual world database 220.

【0074】図9に示すようにムチによる入力は、ムチ
およびムチセンサから成り、圧力センサによって接触
力,接触時刻を検出し、このデータは図12のA/Dコ
ンバータ801に送信されてデジタルデータに変換さ
れ、仮想世界データベース220に格納される。
As shown in FIG. 9, the whip input is composed of a whip and a whip sensor, and the pressure sensor detects the contact force and the contact time. This data is transmitted to the A / D converter 801 in FIG. 12 and converted into digital data. It is converted and stored in the virtual world database 220.

【0075】HMDによる入力については、HMD内部
の頭部位置センサによって得られる頭部位置、および操
作者の首の方向に関するデータが、図12のA/Dコン
バータ801に送信されてデジタルデータに変換され、
仮想世界データベース220に格納される。
Regarding the input by the HMD, the data on the head position obtained by the head position sensor inside the HMD and the direction of the operator's neck is transmitted to the A / D converter 801 in FIG. 12 and converted into digital data. Is
It is stored in the virtual world database 220.

【0076】また、画面切り換え端末510によって指
定されるカメラ設定に関する情報は、図14のディスプ
レイ指定情報格納部619に格納される。これらの作業
は全体制御手段格納部643に納められている全体制御
手順をCPU641が実行することにより行われる。
Information relating to camera settings designated by the screen switching terminal 510 is stored in the display designation information storage section 619 shown in FIG. These operations are performed by the CPU 641 executing the overall control procedure stored in the overall control means storage unit 643.

【0077】次に、仮想世界表現システム200につい
て説明する。
Next, the virtual world representation system 200 will be described.

【0078】図19に仮想世界表現システムで行われる
状態設定の概要を示す。仮想世界の状態の設定は計算機
610によって行われる。図14の全体制御手段格納部
613に納められている全体制御手段がCPU611によって実
行され、状態設定手順格納部614に納められている状
態設定手順が実行される。
FIG. 19 shows an outline of state setting performed in the virtual world representation system. The setting of the state of the virtual world is performed by the computer 610. Overall control means storage section of FIG.
The overall control means stored in 613 is executed by the CPU 611, and the state setting procedure stored in the state setting procedure storage unit 614 is executed.

【0079】まず状態設定手段はオブジェクト設定21
1を行う。
First, the state setting means is the object setting 21.
Do one.

【0080】指示入力処理では、先に仮想世界データベ
ースに入力された各モーションライド装置のムチ入力,
手綱入力に関する情報を引き出し、これらの入力パター
ンから指示内容を認識する。これ以降の作業は作業領域
616上で行われる。
In the instruction input process, the whip input of each motion ride device previously input to the virtual world database,
Information regarding the input of the reins is extracted, and the instruction content is recognized from these input patterns. Subsequent work is performed on the work area 616.

【0081】図20にマクロ処理の概要を示す。マクロ
動作処理ではまず、仮想世界における衝突可能性の判断
を行う。衝突可能性は、相互オブジェクト間の距離と、
相対速度を用いて判定する。衝突の可能性がある場合
は、衝突を回避するために回転処理により進行方向を転
換する。衝突可能性がない場合には、オブジェクトにつ
いて、どの指示が設定されているかを調べる。ここで何
も入力がない場合にはデフォルトの指示を適用すること
ができる。そしてその指示に関する処理である走行処理
を行う。走行処理には、減速,加速,直進,ジャンプ等
がある。
FIG. 20 shows an outline of macro processing. In the macro operation processing, first, the possibility of collision in the virtual world is judged. Collision probability depends on the distance between mutual objects,
Determine using relative speed. When there is a possibility of collision, the traveling direction is changed by a rotation process in order to avoid the collision. If there is no possibility of collision, check which instruction is set for the object. If nothing is entered here, the default instructions can be applied. Then, a traveling process that is a process related to the instruction is performed. The traveling processing includes deceleration, acceleration, straight ahead, jump and the like.

【0082】走行処理については、図21を参照して説
明を行う。図21はオブジェクトである馬の走行運動に
関する処理を行う。この例では馬の目標とする走行速度
が与えられている。そして常に馬の蹴り込み速度を調節
する。蹴り込みの最初のタイミング毎に、蹴り込みの強
さ、周期を決める。通常の蹴り込み(強さ1,周期T)
で、速度V0になるとして、目標速度がVの場合には、
補正係数cを求める。この時周期は、T/c、強さはC
とする。1回の蹴り込みの動きは、モーション基本デー
タを参照して求める。これを強さ、周期に従って修正す
る。θは関節角度である。
The traveling processing will be described with reference to FIG. FIG. 21 performs processing relating to the running motion of the horse, which is an object. In this example, the target traveling speed of the horse is given. And always adjust the kicking speed of the horse. The strength and cycle of kicking are decided at each initial timing of kicking. Normal kicking (strength 1, cycle T)
Then, assuming that the speed becomes V0 and the target speed is V,
The correction coefficient c is calculated. At this time, the cycle is T / c, the strength is C
And A single kicking motion is obtained by referring to the motion basic data. This is corrected according to strength and cycle. θ is the joint angle.

【0083】図21において状態設定手段は、蹴り込み
の開始t=0、または、t>T/cであるか否か判断
し、該当する場合は、希望速度から蹴り込みの補正係数
を算出する。そして、経過時間をクリアする。その後、
時刻の正規化を行う。すなわち、t′=t/cとする。
次に各関節について走行モーションの取り出しを行う。
この走行モーションは図5(b)に示すように、スケル
トンの各部の角度の時間変化で与えられる。そこで、こ
の走行モーションを関節の角度を変えて修正する。これ
により、走行状態が変化することになる。この状態で、
加速度を設定する。この加速度は、初期加速度a0に補
正係数cの2乗を乗じたものである。ここで時刻を更新
する。そして回転の指示入力があるかどうかを調べ、あ
る場合には回転処理を行い、ない場合には運動処理に移
行する。
In FIG. 21, the state setting means determines whether or not the start of kicking t = 0, or t> T / c, and if so, calculates a correction coefficient for kicking from the desired speed. . Then, the elapsed time is cleared. afterwards,
Normalize the time. That is, t '= t / c.
Next, the running motion is extracted for each joint.
This running motion is given by the time change of the angle of each part of the skeleton, as shown in FIG. Therefore, this running motion is corrected by changing the angle of the joint. As a result, the traveling state changes. In this state,
Set the acceleration. This acceleration is obtained by multiplying the initial acceleration a0 by the square of the correction coefficient c. Update the time here. Then, it is checked whether or not there is a rotation instruction input, and if there is rotation input, rotation processing is carried out.

【0084】回転処理については図22を参照して説明
する。
The rotation process will be described with reference to FIG.

【0085】オブジェクトである馬は、目標とする方向
転換の角度とそれに要する時間が与えられている。方向
転換をするためには身体を曲げる必要がある。身体を曲
げる関数についてはモーションの基本データを参照して
決める。図22では、まず回転の開始がt=0であるか
否かを調べる。該当する場合は、回転時間Tの設定、回
転角度α0,β0,γ0の設定を行う。その後、経過時
間tのクリアを行う。次に回転モーションの取り出しを
行う。ここで回転モーションは、図5(b)に示すよう
に、スケルトンの各部の角度の時間変化の関数である。
ここでも上記走行の場合と同様に、関節の角度を変更し
て、オブジェクトの方向の修正を行う。そして、時刻の
更新をおこなう。
The horse, which is an object, is given a target angle of direction change and the time required for it. It is necessary to bend the body to change direction. The function of bending the body is decided by referring to the basic data of motion. In FIG. 22, first, it is checked whether the start of rotation is t = 0. If applicable, the rotation time T is set and the rotation angles α0, β0, γ0 are set. After that, the elapsed time t is cleared. Next, the rotational motion is taken out. Here, the rotational motion is a function of the time change of the angle of each part of the skeleton, as shown in FIG.
Here, as in the case of traveling, the angle of the joint is changed to correct the direction of the object. Then, the time is updated.

【0086】運動処理では、環境における物理法則に従
って、馬の運動を記述する。具体的には、運動方程式に
従って馬の位置を変更する。また、これに伴って、音響
処理、後述する付随効果のための情報を出力する。図2
3において、まず通常状態での推進力をf0としたとき
速度を変えるための蹴り込みによる推進力fを補正係数
cを用いて算出する。また、オブジェクトが進行するこ
とに対するダンピング力dをダンピング係数をγとし
て、d=γ・vにより求める。次に加速度aを求める。
加速度aはオブジェクトの質量をmとすると推進力fと
ダンピング力dとの差から求めることができる。この加
速度aとタイムステップ△tと現在の速度vとから、速
度v′を求める。さらに、現在の位置Pと速度vとから
1タイムステップ後の位置P′を求める。
In the motion processing, the motion of the horse is described according to the physical laws in the environment. Specifically, the position of the horse is changed according to the equation of motion. In addition, along with this, information for acoustic processing and an after-mentioned ancillary effect is output. FIG.
In 3, the driving force f by kicking for changing the speed is calculated using the correction coefficient c when the driving force in the normal state is f0. Further, the damping force d with respect to the progress of the object is obtained by d = γ · v, where the damping coefficient is γ. Next, the acceleration a is obtained.
The acceleration a can be calculated from the difference between the propulsive force f and the damping force d, where m is the mass of the object. A speed v'is obtained from the acceleration a, the time step Δt and the current speed v. Further, a position P'after one time step is obtained from the current position P and the speed v.

【0087】次に状態設定手順はカメラ設定を行う。図
24においてカメラはカメラ位置Cp,カメラ撮影角度
Cθにより設定しこの情報を仮想世界データベース22
0に保存する。図7に示したようにカメラの撮影形態
は、演出カメラ,ジョッキー視点カメラ,オブジェクト
視点カメラ,オブジェクト中心カメラ,オブジェクト追
尾カメラの5つの設定が可能である。なお、ここでPは
予め設定されたオブジェクトの位置、Opはオブジェク
トの中心位置、Oθはオブジェクトの方向である。
Next, in the state setting procedure, camera setting is performed. In FIG. 24, the camera is set by the camera position Cp and the camera shooting angle Cθ, and this information is set in the virtual world database 22.
Store to 0. As shown in FIG. 7, the camera can be set in five shooting modes: effect camera, jockey viewpoint camera, object viewpoint camera, object center camera, and object tracking camera. Here, P is the preset position of the object, Op is the center position of the object, and Oθ is the direction of the object.

【0088】最後に状態設定手順は環境の設定を行う。
環境は、例えば経時変化や、先に更新されたオブジェク
トの状態変化により新たに更新される。
Finally, the state setting procedure sets the environment.
The environment is newly updated due to, for example, a change over time or a change in the state of an object that was previously updated.

【0089】以上、状態設定手段によって設定された仮
想世界の状態に関するデータは、仮想世界データベース
220に保存される。
The data relating to the state of the virtual world set by the state setting means is stored in the virtual world database 220.

【0090】次に付随効果の設定について説明する。Next, the setting of the incidental effect will be described.

【0091】付随効果の生成については上記仮想世界デ
ータベース220に保存された仮想世界の状態に関する
データを使用して、付随効果生成手順格納部617にあ
る付随効果生成手順がCPU611により生成する。以下の説
明では、付随効果として馬が地面を蹴り込む際に地上に
与える影響を例として説明する。具体的には地上から跳
ね上がる砂,石,芝,水等の跳ね上げ物、及び土煙等を
取り扱う。これらを図25に示す。ここではそれらをど
のように発生させるかについて説明する。
Regarding the generation of the incidental effect, the CPU 611 generates the incidental effect generation procedure in the incidental effect generation procedure storage unit 617 using the data on the state of the virtual world stored in the virtual world database 220. In the following description, as an incidental effect, the influence on the ground when the horse kicks the ground will be described as an example. Specifically, it handles sand, stones, turf, splashed objects such as water, and dirt that are splashed from the ground. These are shown in FIG. Here, how to generate them will be described.

【0092】小石等の跳ね上げ物については、付随効果
生成手段はオブジェクトである馬が地面を蹴り込む位置
から、蹴り込みによる推進力fおよび地面の環境に従
い、予め設定される方向θへ、初速度vで一定量の小石
等を発射する。これらが重力加速度,風等の物理法則に
従って地面に落下するまでの運動の軌跡表現する。
For a bounced object such as a pebbles, the incidental effect generating means starts from the position where the horse, which is an object, kicks the ground to the preset direction θ according to the propulsive force f by the kicking and the environment of the ground. Fire a certain amount of pebbles, etc. at speed v. The locus of movement of these until they fall to the ground according to physical laws such as gravitational acceleration and wind.

【0093】また煙等の表現に関しては、オブジェクト
の走行速度v,環境等に従って、馬の後方に一定時間だ
けこれらの表現を行うように設定する。
Regarding the expression of smoke and the like, the expression is set to be performed behind the horse for a certain period of time according to the running speed v of the object, the environment, and the like.

【0094】上記付随効果に関するデータは仮想世界デ
ータベース220に蓄積される。
Data relating to the above-mentioned incidental effect is stored in the virtual world database 220.

【0095】次に画像の生成について説明する。Next, generation of an image will be described.

【0096】ディスプレイの画像の生成については、計
算機610で行う。
The computer 610 generates an image on the display.

【0097】具体的には、図14の画像生成手順格納部
615に納められている画像生成手順がCPU611によって
実行され、仮想世界データベース220に収納されてい
る仮想世界の状態に関するデータ、及び付随効果に関す
るデータを参照して生成される。この際、座標変換等の
計算についてはグラフィックアクセラレータ620を使
用することにより、高速に画像を生成することが可能と
なる。生成された画像はRGB変換機を通してディスプ
レイに表示される。
Specifically, the image generation procedure stored in the image generation procedure storage unit 615 of FIG. 14 is executed by the CPU 611, and the data regarding the state of the virtual world stored in the virtual world database 220 and the accompanying effect. It is generated by referring to the data regarding. At this time, for the calculation such as coordinate conversion, the graphic accelerator 620 is used, whereby an image can be generated at high speed. The generated image is displayed on the display through the RGB converter.

【0098】HMD内の画像の生成については、各モー
ションライド装置用の計算機640で行う。具体的に
は、図12の全体制御手段格納部643に納められてい
る全体制御手段がCPU641によって実行され、画像生成手
段格納部644に納められている画像生成手順が実行さ
れる。これが仮想世界データベース220に納められて
いる他のモーションライド装置の位置、頭部位置データ
格納領域647にそれぞれ保存されている張力データ格
納を参照して画像を生成する。ここでも、座標変換等の
計算についてはグラフィックアクセラレータ660を使
用することにより、高速に画像を生成している。
Generation of the image in the HMD is performed by the computer 640 for each motion ride device. Specifically, the overall control means stored in the overall control means storage unit 643 of FIG. 12 is executed by the CPU 641, and the image generation procedure stored in the image generation means storage unit 644 is executed. This generates an image by referring to the positions of the other motion ride devices stored in the virtual world database 220 and the tension data stored in the head position data storage area 647, respectively. Also in this case, for the calculation such as coordinate conversion, the image is generated at high speed by using the graphic accelerator 660.

【0099】次にモーションライド装置の動作の生成に
関して説明する。
Next, generation of motion of the motion ride device will be described.

【0100】モーションライド装置の動作の生成は、各
モーションライド装置用の計算機640で行う。具体的
には、図12の動作生成手順格納部に納められている動
作制御手順644がCPU641によって実行され、仮想世界
データベース220に納められているオブジェクトの位
置データ,速度,加速度等の動作に関するデータを参照
して生成する。生成されたモーションライドの動作はデ
ジタル/アナログコンバータ802を経由してモーショ
ンライド駆動部に送信される。
Generation of the motion of the motion ride device is performed by the computer 640 for each motion ride device. Specifically, the motion control procedure 644 stored in the motion generation procedure storage unit of FIG. 12 is executed by the CPU 641, and data relating to the position data, speed, acceleration, etc. of the object stored in the virtual world database 220. To generate. The generated motion ride operation is transmitted to the motion ride driver via the digital / analog converter 802.

【0101】次に、送風機の制御について説明する。Next, the control of the blower will be described.

【0102】送風機の制御則の生成は、各モーションラ
イド装置用の計算機640で行う。具体的には、図12
の周辺機器制御手段格納部に納められている周辺機器制
御手段がCPU641によって実行され、仮想世界データベー
ス220に納められている環境に関するデータ、及びオ
ブジェクトの速度等のデータを参照して生成する。生成
された制御則はデジタル/アナログコンバータ802を
経由して送風機の制御部422に送信される。
The control law of the blower is generated by the computer 640 for each motion ride device. Specifically, FIG.
The peripheral device control means stored in the peripheral device control means storage unit is executed by the CPU 641 to generate by referring to the data related to the environment stored in the virtual world database 220 and the data such as the speed of the object. The generated control law is transmitted to the control unit 422 of the blower via the digital / analog converter 802.

【0103】最後に、出力システムのうちモーションラ
イド装置100について説明を行う。
Finally, the motion ride device 100 of the output system will be described.

【0104】このモーションライド装置は図26に示す
ように、3自由度をもつ4つのアクチュエータからなる
モーションライド駆動部によって動作する。つまり体験
者が搭乗するモーションライド本体部は6自由度を有
し、アクチュエータの動作範囲内で自由に運動すること
ができる。
As shown in FIG. 26, this motion ride device is operated by a motion ride drive unit composed of four actuators having three degrees of freedom. In other words, the motion ride main body part on which the passenger rides has 6 degrees of freedom, and can freely move within the operation range of the actuator.

【0105】[0105]

【発明の効果】以上説明したように、本発明では、オブ
ジェクトの形態および動態に適した指示入力システム
と、オブジェクトの動態にしたがって体験者に空気流を
送風する送風機を備えることにより体験者の臨場感を向
上することができる。また、体験者以外の第3者が仮想
世界の画像を観察する際に所望の視点を設定できるた
め、体験者以外の第3者も仮想空間生成/モーションラ
イドシステムによって生成される仮想空間を楽しむこと
ができる。さらに、体験者による指示入力なしに、オブ
ジェクトが仮想世界における環境の変化に対応して自律
的にオブジェクト自身の状態を変化することができ、よ
りリアルな仮想世界を構築することができる。
As described above, according to the present invention, by providing an instruction input system suitable for the shape and movement of an object and a blower for blowing an air flow to the experience person according to the movement of the object, the experience person's presence can be improved. The feeling can be improved. In addition, since a third person other than the experienced person can set a desired viewpoint when observing the image of the virtual world, the third person other than the experienced person also enjoys the virtual space generated by the virtual space generation / motion ride system. be able to. Further, the object can autonomously change the state of the object itself in response to the change of the environment in the virtual world without inputting the instruction by the experience person, and a more realistic virtual world can be constructed.

【図面の簡単な説明】[Brief description of drawings]

【図1】仮想空間生成/モーションライドシステムにお
けるフローチャート。
FIG. 1 is a flowchart of a virtual space generation / motion ride system.

【図2】仮想世界イメージ図。FIG. 2 is a virtual world image diagram.

【図3】カメラ設定説明図。FIG. 3 is an explanatory diagram of camera settings.

【図4】付随効果説明図。FIG. 4 is an explanatory diagram of an accompanying effect.

【図5】オブジェクト形態データ説明図(1)。FIG. 5 is an explanatory diagram (1) of object form data.

【図6】オブジェクト形態データ説明図(2)。FIG. 6 is an explanatory diagram (2) of object form data.

【図7】オブジェクトモーションデータ説明図。FIG. 7 is an explanatory diagram of object motion data.

【図8】手綱による指示入力の説明図。FIG. 8 is an explanatory diagram of instruction input by a reins.

【図9】ムチによる指示入力の説明図。FIG. 9 is an explanatory diagram of instruction input by a whip.

【図10】オブジェクトの状態遷移図。FIG. 10 is a state transition diagram of an object.

【図11】機器構成図。FIG. 11 is a device configuration diagram.

【図12】体験者用入出力システム説明図。FIG. 12 is an explanatory diagram of an input / output system for experience users.

【図13】出力システムにおける音響機器説明図。FIG. 13 is an explanatory diagram of audio equipment in the output system.

【図14】ディスプレイ用の画像生成機器説明図。FIG. 14 is an explanatory diagram of an image generating device for a display.

【図15】手綱部説明図。FIG. 15 is an explanatory view of a reins portion.

【図16】ムチ説明図。FIG. 16 is an explanatory diagram of a whip.

【図17】HMD装置説明図。FIG. 17 is an explanatory diagram of an HMD device.

【図18】画面切り換え端末説明図。FIG. 18 is an explanatory diagram of a screen switching terminal.

【図19】仮想世界表現システムで行われる状態設定の
概要説明図。
FIG. 19 is a schematic explanatory diagram of state setting performed in the virtual world representation system.

【図20】マクロ処理の概要説明図。FIG. 20 is a schematic explanatory diagram of macro processing.

【図21】走行処理説明図。FIG. 21 is an explanatory diagram of traveling processing.

【図22】回転処理説明図。FIG. 22 is an explanatory diagram of rotation processing.

【図23】運動処理説明図。FIG. 23 is an explanatory diagram of exercise processing.

【図24】カメラ設定説明図。FIG. 24 is an explanatory diagram of camera settings.

【図25】付随効果生成説明図。FIG. 25 is an explanatory diagram of incidental effect generation.

【図26】モーションライド駆動部説明図。FIG. 26 is an explanatory diagram of a motion ride driving unit.

【符号の説明】[Explanation of symbols]

410…HMD装置、420…モーションライド装置、
430…ムチ、500…観客用入力システム、600…
仮想世界表現システム、720…音響装置、730…デ
ィスプレイセット。
410 ... HMD device, 420 ... Motion ride device,
430 ... Whip, 500 ... Spectator input system, 600 ...
Virtual world expression system, 720 ... Acoustic device, 730 ... Display set.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 栗原 恒弥 東京都国分寺市東恋ケ窪一丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 矢野 晴一 東京都千代田区神田駿河台四丁目6番地 株式会社日立製作所内 (72)発明者 浜野 俊二 東京都国分寺市東恋ケ窪一丁目280番地 株式会社日立製作所デザイン研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Tsuneya Kurihara 1-280 Higashi Koigokubo, Kokubunji, Tokyo Inside Central Research Laboratory, Hitachi, Ltd. (72) Inventor Haruichi Yano 4-6 Kanda Surugadai, Chiyoda-ku, Tokyo Inside Hitachi (72) Inventor Shunji Hamano 1-280, Higashi Koikekubo, Kokubunji, Tokyo Inside Hitachi Design Laboratory

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】画像を生成して表示する仮想空間生成装置
と、人間を搭乗して3次元方向に動作するモーションラ
イド装置において、 少なくともひとつのオブジェクトと、そのオブジェクト
が存在する環境とを含む仮想世界を構築すると共に、そ
の少なくとも一部を可視的に表示するための画像を生成
し、さらにオブジェクトの動作に対応するモーションラ
イド装置の動作を生成する仮想世界表現システムと、上
記仮想世界表現システムによって生成された画像を可視
的に出力し、上記仮想世界表現システムによって生成さ
れた動作を実行する出力システムと、上記仮想世界表現
システムに対して指示を入力するための指示入力システ
ムを備え、 上記指示入力システムは、 モーションライド装置表面の少なくとも一部分で、入力
装置と指示入力測定手段との間の接触回数および、接触
の際の衝撃力を指示入力として検出して、それを予め設
定した評価基準にしたがって指示の内容を認識し、その
指示内容を上記仮想世界表現システムに通信する指示内
容認識手段を有することを特徴とする仮想空間生成/モ
ーションライドシステム。
1. A virtual space generation device for generating and displaying an image, and a motion ride device for moving a human in a three-dimensional direction. A virtual space including at least one object and an environment in which the object exists. A virtual world representation system that constructs a world, generates an image for visually displaying at least a part of the world, and further generates a motion of a motion ride device corresponding to the motion of an object, and the virtual world representation system. An output system that visually outputs the generated image and executes the operation generated by the virtual world representation system, and an instruction input system for inputting an instruction to the virtual world representation system, The input system is at least a portion of the surface of the motion ride device and the input device and the pointing device. The number of times of contact with the measuring means and the impact force at the time of contact are detected as an instruction input, the content of the instruction is recognized according to a preset evaluation standard, and the instruction content is displayed in the virtual world representation system. A virtual space generation / motion ride system having an instruction content recognition means for communication.
【請求項2】請求項1の仮想空間生成/モーションライ
ドシステムにおいて、モーションライド装置に設置され
た指示入力測定手段によって、入力装置により入力され
た張力およびその方向を指示入力として検出し、その指
示内容を上記仮想世界表現システムに通信する指示内容
認識手段を有することを特徴とする仮想空間生成/モー
ションライドシステム。
2. The virtual space generation / motion ride system according to claim 1, wherein the instruction input measuring means installed in the motion ride device detects the tension input by the input device and its direction as an instruction input, and gives the instruction. A virtual space generation / motion ride system having an instruction content recognition means for communicating content to the virtual world expression system.
【請求項3】請求項1の仮想世界表現システムにおい
て、仮想世界に含まれるオブジェクトと、仮想世界の画
像を表示する際の視点と、仮想世界内の環境の状態に関
する情報を蓄積する仮想世界データベースを備え、指示
入力もしくは予め上記仮想世界データベースに蓄積され
た情報にしたがって仮想世界に含まれるオブジェクト
と、仮想世界の画像を表示する際の視点と、仮想世界内
の環境の状態を設定する状態設定手段を備えることを特
徴とする仮想空間生成/モーションライドシステム。
3. The virtual world representation system according to claim 1, wherein a virtual world database that stores objects included in the virtual world, viewpoints when displaying an image of the virtual world, and information about the state of the environment in the virtual world. The object is included in the virtual world according to the instruction input or the information accumulated in advance in the virtual world database, the viewpoint when displaying the image of the virtual world, and the state setting for setting the state of the environment in the virtual world. A virtual space generation / motion ride system comprising means.
【請求項4】請求項3の仮想世界表現システムにおい
て、予め仮想世界に含まれるオブジェクトと、仮想世界
内の環境の状態に関する情報を仮想世界データベースに
蓄積することができる指示入力手段を備えることを特徴
とする仮想空間生成/モーションライドシステム。
4. The virtual world representation system according to claim 3, further comprising: an object included in the virtual world in advance; and an instruction input means capable of accumulating information about the state of the environment in the virtual world in the virtual world database. Characteristic virtual space generation / motion ride system.
【請求項5】請求項4の仮想世界表現システムにおい
て、上記仮想世界に含まれるオブジェクトと、仮想世界
の画像を表示する際の視点と、仮想世界内の環境の状態
の少なくとも一部を予め設定し、また、上記状態の少な
くとも一部をシステム稼働中に変更するための指示入力
設定手段を有することを特徴とする仮想空間生成/モー
ションライドシステム。
5. The virtual world representation system according to claim 4, wherein an object included in the virtual world, a viewpoint for displaying an image of the virtual world, and at least a part of an environment state in the virtual world are preset. In addition, the virtual space generation / motion ride system is characterized by further having an instruction input setting means for changing at least a part of the above state while the system is in operation.
【請求項6】請求項5の仮想世界表現システムにおい
て、上記仮想世界データベースに蓄積された情報に基づ
いて、モーションライド装置に設置された送風装置の制
御則を生成する送風機制御手段を有し、仮想世界データ
ベースに蓄積された情報に基づいて、上記モーションラ
イド装置の動作を生成する動作生成手段を備えることを
特徴とする仮想空間生成/モーションライドシステム。
6. The virtual world expression system according to claim 5, further comprising blower control means for generating a control law of a blower installed in the motion ride device based on the information accumulated in the virtual world database, A virtual space generation / motion ride system comprising: a motion generation unit that generates a motion of the motion ride device based on information accumulated in a virtual world database.
JP12959496A 1996-05-24 1996-05-24 Virtual space generation and motion ride system Pending JPH09311948A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12959496A JPH09311948A (en) 1996-05-24 1996-05-24 Virtual space generation and motion ride system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12959496A JPH09311948A (en) 1996-05-24 1996-05-24 Virtual space generation and motion ride system

Publications (1)

Publication Number Publication Date
JPH09311948A true JPH09311948A (en) 1997-12-02

Family

ID=15013315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12959496A Pending JPH09311948A (en) 1996-05-24 1996-05-24 Virtual space generation and motion ride system

Country Status (1)

Country Link
JP (1) JPH09311948A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018229996A1 (en) * 2017-06-16 2018-12-20 株式会社ハシラス Vr amusement ride apparatus
JP2020018791A (en) * 2018-08-03 2020-02-06 株式会社コーエーテクモゲームス Information processing apparatus, arrangement method, and arrangement program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018229996A1 (en) * 2017-06-16 2018-12-20 株式会社ハシラス Vr amusement ride apparatus
JP2020018791A (en) * 2018-08-03 2020-02-06 株式会社コーエーテクモゲームス Information processing apparatus, arrangement method, and arrangement program

Similar Documents

Publication Publication Date Title
US10671152B2 (en) Massive simultaneous remote digital presence world
JP3745802B2 (en) Image generation / display device
US10528123B2 (en) Augmented ride system and method
KR102354274B1 (en) Role play simulation method and terminal device in VR scenario
US9417762B2 (en) System and method for providing a virtual immersive environment
Craig et al. Developing virtual reality applications: Foundations of effective design
US6507353B1 (en) Influencing virtual actors in an interactive environment
Noser et al. Synthetic vision and audition for digital actors
US5999185A (en) Virtual reality control using image, model and control data to manipulate interactions
CN107277736B (en) Simulation system, sound processing method, and information storage medium
JP2020527432A (en) Racing simulation
Magnenat-Thalmann et al. Believability and interaction in virtual worlds
CN106652625A (en) Interactive virtual reality fire training system
JPH0792981A (en) Method and equipment to provide virtual world sound system
WO1999012129A1 (en) Image processing system and image processing method
JP6515057B2 (en) Simulation system, simulation apparatus and program
NZ273893A (en) Computer generated three dimensional virtual reality system including virtual beings corresponding to each user
JP2017119032A (en) Game device and program
JPH09311948A (en) Virtual space generation and motion ride system
KR20160099075A (en) Image Simulating System, Apparatus for Controlling Platform and Method for Controlling Platform
JPWO2005066918A1 (en) Simulation device
KR20020050073A (en) method for making simulator program and simulator system using the method
JP2001134362A (en) Doll type interface virtual space walking through system
JP4057760B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4477053B2 (en) Information storage medium and game device