JP3273017B2 - Image synthesis device and virtual experience device using the same - Google Patents

Image synthesis device and virtual experience device using the same

Info

Publication number
JP3273017B2
JP3273017B2 JP11785598A JP11785598A JP3273017B2 JP 3273017 B2 JP3273017 B2 JP 3273017B2 JP 11785598 A JP11785598 A JP 11785598A JP 11785598 A JP11785598 A JP 11785598A JP 3273017 B2 JP3273017 B2 JP 3273017B2
Authority
JP
Japan
Prior art keywords
image
virtual
real
space
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11785598A
Other languages
Japanese (ja)
Other versions
JPH10277261A (en
Inventor
隆 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP11785598A priority Critical patent/JP3273017B2/en
Publication of JPH10277261A publication Critical patent/JPH10277261A/en
Application granted granted Critical
Publication of JP3273017B2 publication Critical patent/JP3273017B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、実空間映像と仮想
空間画像とを合成表示する画像合成装置及びこれを用い
た仮想体験装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image synthesizing apparatus for synthesizing and displaying a real space image and a virtual space image, and a virtual experience device using the same.

【0002】[0002]

【背景技術】近年、ドライブシミュレータ、フライトシ
ミュレータ、ゲーム装置、システムキッチンの疑似体験
システム等の分野で、いわゆる仮想現実と呼ばれるシス
テムを用いた各種の仮想体験装置が提案されている。そ
して、この種の仮想体験装置いおいては、いかにして仮
想世界を現実の世界に近づけるかが、最も大きな技術的
課題となっている。
2. Description of the Related Art In recent years, in the fields of a drive simulator, a flight simulator, a game device, a system kitchen simulated experience system, and the like, various virtual experience devices using a so-called virtual reality system have been proposed. In this type of virtual experience device, how to bring the virtual world closer to the real world is the biggest technical problem.

【0003】ところで、この仮想現実と呼ばれる世界を
体験させるための画像表示装置として、例えば頭部装着
型ディスプレーと称される装置が知られている。この頭
部装着型ディスプレーと呼ばれる装置は、液晶ディスプ
レー等の表示装置を操作者、例えばゲームにおけるプレ
ーヤの視野を覆うようにプレーヤの目の前に取り付ける
ことで構成される。そして、この頭部装着型ディスプレ
ーには、空間センサと呼ばれる装置が取り付けられ、こ
れによりプレーヤの3次元情報を検出させる。そして、
この空間センサからの検出信号に応じた映像を生成し、
これを頭部装着型ディスプレーの表示装置に表示してや
ることで、例えば普段何気なく行っている見回すという
ような動作を、仮想空間において、現実空間と同じよう
な臨場感で体験することができることとなる。
[0003] As an image display device for experiencing the world called virtual reality, for example, a device called a head mounted display is known. This device called a head-mounted display is configured by attaching a display device such as a liquid crystal display in front of a player so as to cover an operator, for example, a player's field of view in a game. Then, a device called a space sensor is attached to the head-mounted display, thereby detecting three-dimensional information of the player. And
Generate an image according to the detection signal from this space sensor,
By displaying this on the display device of the head-mounted display, it is possible to experience, for example, an operation of casually looking around in a virtual space with the same sense of reality as in a real space.

【0004】しかし、この頭部装着型ディスプレーと呼
ばれる装置を、例えばドライビングゲームに使用したと
すると、以下のような問題が生じることが判明した。
[0004] However, it has been found that the following problem arises when this device called a head mounted display is used in a driving game, for example.

【0005】即ち、この頭部装着型ディスプレーでは、
プレーヤの視界範囲は全て液晶ディスプレー等で覆われ
てしまう。従って、プレーヤが実際に操作をしている現
実の世界におけるハンドル、ギア、操作パネル、プレー
ヤ自身の手足、周りの人の様子などを実際に見ることが
できない。この結果、ハンドル、ギア等の操作ミスを起
こし、操作感覚がいまいちであるという問題が判明し
た。更に、操作パネルに表示されるスピード計、タコメ
ータなどを見ることができず、臨場感に欠けるといった
問題も判明した。
That is, in this head mounted display,
The entire visual range of the player is covered with a liquid crystal display or the like. Therefore, it is not possible to actually see the steering wheel, gear, operation panel, hands and feet of the player itself, the state of people around the player, and the like in the real world where the player is actually operating. As a result, it has been found that an operation error has occurred in the steering wheel, the gear, and the like, resulting in a poor operation feeling. Further, it has been found that a speedometer, a tachometer, and the like displayed on the operation panel cannot be seen, resulting in a lack of realism.

【0006】これを、防止する手法として、例えば、ハ
ンドル、ギア、操作パネルなどを全てコンピュータグラ
フィックにして、プレーヤに見せるという手法も考えら
れる。しかし、コンピュータグラフィックにより再現さ
れる映像は、あくまで仮想的なものにすぎず、現実の世
界において見えるハンドル、ギア等を完全に再現するこ
とはできない。特に、近年は、この種のドライビングゲ
ームにおいては、例えば実際のフォーミュラーレースな
どで使用されるレーシングカーの車体を、ゲーム施設内
に設置して、プレーヤに実際のレーシングカーに乗って
いるように感じさせ、臨場感、現実感を高めるという傾
向にある。ところが、前記したコンピュータグラフィッ
クによって車体を再現する手法によっては、このような
実際の車体を設置することにより得られる臨場感、現実
感を演出することができない。
As a method of preventing this, for example, a method in which the handle, gears, operation panel, and the like are all made into computer graphics and presented to the player can be considered. However, an image reproduced by computer graphics is merely a virtual one, and cannot completely reproduce a steering wheel, a gear, and the like seen in the real world. In particular, in recent years, in this type of driving game, for example, the body of a racing car used in an actual formula race or the like is installed in a game facility so that a player can ride on the actual racing car. There is a tendency to increase the sense of presence and realism. However, depending on the method of reproducing the vehicle body using the computer graphic described above, it is not possible to produce a sense of reality and a sense of reality obtained by installing such an actual vehicle body.

【0007】以上のように、従来の頭部装着型ディスプ
レーと呼ばれる画像表示装置では、実際には現実の空間
において見えるべき実映像を使用した方のが好ましい場
合においては、仮想世界を現実世界に近づけるといった
技術的課題の達成が不十分であった。
As described above, in a conventional image display apparatus called a head-mounted display, in a case where it is preferable to use a real image that should be actually seen in a real space, the virtual world is converted into the real world. The achievement of technical issues such as getting closer was insufficient.

【0008】また、この頭部装着型ディスプレーと呼ば
れる装置を、例えばロールプレイングゲームに使用した
とすると、以下のような問題が生じることが判明した。
Further, it has been found that the following problem arises when this device called a head-mounted display is used in, for example, a role playing game.

【0009】即ち、この頭部装着型ディスプレーでは、
空間センサはプレーヤの位置、向いている方向のみを検
出するものであった。従って、例えば対戦型のロールプ
レイングゲームにこれを使用した場合、プレーヤが持っ
ている対戦用武器がどのような位置にあり、どのような
方向を向いているかを正確に認識することができず、あ
る特定のプレーヤが敵のキャラクターを倒したかどうか
を正確かつ完全に判定することが困難であった。この結
果、例えば対戦用武器がいわゆる戦闘用の剣であった場
合、また、対戦用武器がいわゆる戦闘用の銃であり、こ
れにより狙う標的がかなり小さいものである場合など、
正確に戦闘結果を判定することが困難であるといった問
題が生じた。
That is, in this head mounted display,
The space sensor detects only the position of the player and the facing direction. Therefore, for example, when this is used in a battle-type role-playing game, it is not possible to accurately recognize the position and direction of the battle weapon possessed by the player, It has been difficult to accurately and completely determine whether a particular player has defeated an enemy character. As a result, for example, when the fighting weapon is a so-called combat sword, or when the fighting weapon is a so-called combat gun and the target to be aimed at is considerably smaller,
There has been a problem that it is difficult to accurately judge the battle result.

【0010】この結果、従来の頭部装着型ディスプレー
と呼ばれる画像表示装置を、例えば対戦型のロールプレ
イングゲームに使用した場合、その戦闘結果を正確に判
定することができず、前記した仮想世界を現実世界に近
づけるといった技術的課題の達成が不十分であった。
As a result, when a conventional image display device called a head-mounted display is used in, for example, a battle-type role-playing game, the result of the battle cannot be accurately determined. The achievement of technical issues such as approaching the real world was insufficient.

【0011】本発明は、以上のような課題に鑑みてなさ
れたものであり、実空間映像と仮想空間画像とを合成表
示すること等により、仮想世界をより現実世界に近づけ
ることができる画像合成装置及びこれを用いた仮想体験
装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and has been made in view of the above circumstances, and provides an image synthesis apparatus capable of bringing a virtual world closer to the real world by composing and displaying a real space image and a virtual space image. It is an object of the present invention to provide a device and a virtual experience device using the device.

【0012】[0012]

【課題を解決するための手段】本発明の画像合成装置
は、操作者の視界方向に向けて配置された第1の撮像手
段で撮像されたミラー部材に映る画像を合成する装置で
あって、実3次元空間と重ね合わせて設定されるゲーム
空間を表す仮想3次元空間を演算する仮想3次元空間演
算手段と、前記第1の撮像手段で撮像されたミラー部材
に映る画像として、前記仮想3次元空間を前記実3次元
空間に配置されたミラー部材から見た仮想視界画像を画
像演算する視界画像演算手段と、を含むことを特徴とす
る。
According to the present invention, there is provided an image synthesizing apparatus comprising: a first imaging device arranged in a direction of a field of view of an operator;
An apparatus for synthesizing an image reflected in the mirror member that is captured by the stage, a virtual three-dimensional space calculating means for calculating a virtual three-dimensional space representing the game space set by superimposing the real three dimensional space, the first The virtual three-dimensional space is converted to the real three- dimensional space as an image reflected on a mirror member captured by the first imaging unit.
Characterized in that it comprises a and a field image calculation means for image operations of the virtual field image as viewed from the mirror member positioned in the space.

【0013】ここにおいて、本発明の画像合成装置は、
前記実3次元空間に配置されたミラー部材から見た実空
間映像を撮像する第2の撮像手段と、前記仮想視界画像
と前記第2の撮像手段で撮像される実空間映像とを表示
画像として画像合成し、前記第1の撮像手段で撮像され
ミラー部材に映る画像を生成する表示画像合成手段
と、を含むことを特徴とする。
[0013] Here, the image synthesizing apparatus of the present invention comprises:
A second imaging unit that captures a real space image viewed from a mirror member disposed in the real three-dimensional space ; and a display image that includes the virtual view image and the real space image captured by the second imaging unit. Images are synthesized and imaged by the first imaging means.
Display image synthesizing means for generating an image reflected on the mirror member.

【0014】また、本発明の仮想体験装置は、本発明の
画像合成装置を含むことを特徴とする。また、本発明の
仮想体験装置は、サイドミラー又はバックミラーとして
形成されるミラー部材が配置され、操作者が搭乗する搭
乗体と、前記搭乗体に設けられ操作者が操作信号を入力
する操作部と、操作者の視野を覆うように装着される画
像表示手段と、操作者に装着され、操作者から見える実
空間映像を撮像する第1の撮像手段と、前記ミラー部材
から見た実空間映像を撮像する第2の撮像手段と、操作
者の実3次元空間における3次元情報を検出する操作者
用空間センサと、前記操作部からの操作信号と前記操作
者用空間センサからの検出信号とに基づいて、前記実3
次元空間と重ね合わせて設定される仮想3次元空間を演
算し、仮想3次元空間における操作者から見える仮想視
界画像を画像演算する演算手段と、前記仮想視界画像と
前記第2の撮像手段で撮像される実空間映像とを表示画
像として画像合成する表示画像合成手段と、を含み、前
記演算手段は、前記実3次元空間に配置されたミラー部
材から見える仮想視界画像を画像演算する手段を含み、
前記表示画像合成手段は、前記仮想視界画像と前記第2
撮像手段で撮像される実空間映像とを表示画像として
画像合成し、前記第1の撮像手段で撮像されたミラー部
材に映る後方画像を生成する手段と、を含むことを特徴
とする。
Further, a virtual experience device according to the present invention includes the image synthesizing device according to the present invention. Further, the virtual experience device of the present invention is arranged such that a mirror member formed as a side mirror or a rearview mirror is arranged, and a riding body on which an operator rides, and an operation unit provided on the riding body and for the operator to input an operation signal. Image display means mounted so as to cover the field of view of the operator, first image pickup means mounted on the operator for capturing a real space image visible to the operator, and the mirror member
Second imaging means for capturing an image of a real space viewed from above, a space sensor for an operator for detecting three-dimensional information of the operator in a real three-dimensional space, an operation signal from the operation unit, and the space for the operator Based on the detection signal from the sensor,
Calculating means for calculating a virtual three-dimensional space which is set by being superimposed on the three-dimensional space, and performing image calculation of a virtual view image viewed by an operator in the virtual three-dimensional space; and imaging by the virtual view image and the second imaging means anda display image synthesizing means for image synthesis as the display image and a real space image to be, the calculating means, means for image operations of the virtual field image within viewing from the mirror member disposed in said real three dimensional space Including
The display image synthesizing unit is configured to control the virtual view image and the second
And image synthesis as a real space image and the display image captured by the imaging means, characterized in that it comprises a means for generating a rear image reflected in the mirror member which is captured by the first imaging means.

【0015】[0015]

【発明の実施の形態】本実施の形態に係る画像合成装置
は、操作者の視野を覆うように装着される画像表示手段
と、操作者に装着され、操作者から見える実空間映像を
撮像する撮像手段と、操作者の実3次元空間における3
次元情報を検出する操作者用空間センサと、前記操作者
用空間センサからの検出信号に基づいて、前記実3次元
空間と重ね合わせて設定される仮想3次元空間を演算
し、仮想3次元空間における操作者から見える仮想視界
画像を画像演算する仮想視界画像演算手段と、前記仮想
視界画像と前記撮像手段で撮像される実空間映像とを表
示画像として画像合成する表示画像合成手段と、を含
み、前記画像表示手段に前記表示画像を画像表示するこ
とを特徴とする。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image synthesizing apparatus according to the present embodiment captures an image of a real space which is mounted on an operator so as to cover an operator's field of view and which is mounted on the operator and which is visible to the operator. Imaging means and the operator's 3
An operator calculates a virtual three-dimensional space that is set by being superimposed on the real three-dimensional space based on a detection signal from the operator's space sensor that detects dimensional information and the detection signal from the operator's space sensor. Virtual view image calculating means for calculating an image of a virtual view image seen by an operator, and display image synthesizing means for synthesizing the virtual view image and a real space image captured by the imaging means as a display image. And displaying the display image on the image display means.

【0016】また、本実施の形態に係る仮想体験装置
は、操作者が搭乗する搭乗体と、前記搭乗体に設けられ
操作者が操作信号を入力する操作部と、操作者の視野を
覆うように装着される画像表示手段と、操作者に装着さ
れ、操作者から見える実空間映像を撮像する撮像手段
と、操作者の実3次元空間における3次元情報を検出す
る操作者用空間センサと、前記操作部からの操作信号と
前記操作者用空間センサからの検出信号とに基づいて、
前記実3次元空間と重ね合わせて設定される仮想3次元
空間を演算し、仮想3次元空間における操作者から見え
る仮想視界画像を画像演算する仮想視界画像演算手段
と、前記仮想視界画像と前記撮像手段で撮像される実空
間映像とを表示画像として画像合成する表示画像合成手
段と、を含み、前記画像表示手段に前記表示画像を画像
表示し、操作部による搭乗体の操作感覚を仮想的に体験
できることを特徴とする。
Further, the virtual experience device according to the present embodiment has a boarding body on which an operator is boarded, an operation unit provided on the boarding body for inputting an operation signal by the operator, and a field of view of the operator. An image display unit attached to the operator, an imaging unit attached to the operator to capture a real space image visible to the operator, an operator space sensor for detecting three-dimensional information of the operator in a real three-dimensional space, Based on an operation signal from the operation unit and a detection signal from the operator space sensor,
Virtual view image calculation means for calculating a virtual three-dimensional space set by being superimposed on the real three-dimensional space and performing image calculation of a virtual view image seen by an operator in the virtual three-dimensional space; Display image synthesizing means for synthesizing a real space image captured by the means as a display image, displaying the display image on the image display means, and virtually feeling the operation of the vehicle by the operation unit. The feature is that you can experience it.

【0017】[0017]

【0018】この場合、前記仮想視界画像演算手段は、
所定のゲームプログラムと前記対戦武器用空間センサか
らの検出信号に基づき前記実3次元空間と重ね合わせて
設定されるゲーム空間を表す仮想3次元空間を演算する
仮想3次元空間演算部と、前記プレーヤ用空間センサか
らの検出信号に基づいて、プレーヤから見える仮想視界
画像を画像演算する視界画像演算部と、を含むことが望
ましい。
In this case, the virtual view image calculating means includes:
A virtual three-dimensional space calculation unit that calculates a virtual three-dimensional space representing a game space set by being superimposed on the real three-dimensional space based on a predetermined game program and a detection signal from the battle weapon space sensor; It is preferable to include a field-of-view image calculation unit that calculates a virtual field-of-view image viewed from the player based on a detection signal from the space sensor for use.

【0019】本実施の形態に係る画像合成装置によれ
ば、操作者用空間センサに基づいて演算された仮想3次
元空間における仮想視界画像に、操作者に装着された撮
像手段により撮像された実空間映像を、表示画像合成手
段により画像合成することができる。この結果、操作者
は、プログラム等で任意に設定される仮想3次元空間に
おける仮想視界画像に、実空間における実際の物体の画
像を組み込んで見ることができるため、より現実世界に
近いた仮想世界を体験することができることとなる。
According to the image synthesizing apparatus according to the present embodiment, the virtual view image in the virtual three-dimensional space calculated based on the operator's space sensor is captured by the imaging means mounted on the operator. The spatial video can be image-synthesized by the display image synthesizing means. As a result, the operator can incorporate the image of the real object in the real space into the virtual view image in the virtual three-dimensional space arbitrarily set by a program or the like, and see the virtual world closer to the real world. Can be experienced.

【0020】また、本実施の形態に係る仮想体験装置に
よれば、前記した画像合成装置により、搭乗体や、搭乗
体の操作部等の実空間における画像を見ることができ
る。
Further, according to the virtual experience apparatus according to the present embodiment, it is possible to view an image in a real space of a vehicle, an operation unit of the vehicle, and the like by the image synthesizing device.

【0021】従って、これを例えばドライビングゲーム
に利用した場合には、自分自身の乗った本物の車を仮想
空間の中で自由に走らせることができるため、臨場感を
大幅に向上させることができることとなる。更に、従来
のドライビングゲームでは見ることができなかった例え
ば360度の全方向の映像を見ることができ、且つ、従
来の仮想体験装置では見ることができなかったハンド
ル、計器類等を見ながら運転できるため操作性が大幅に
向上することとなる。
Therefore, when this is used in, for example, a driving game, a real car on which oneself rides can be freely driven in a virtual space, so that the sense of reality can be greatly improved. Becomes Furthermore, it is possible to see, for example, 360-degree images in all directions, which cannot be seen in the conventional driving game, and to drive while looking at steering wheels, instruments, etc., which cannot be seen in the conventional virtual experience device. This greatly improves operability.

【0022】[0022]

【0023】この場合、例えば、各プレーヤごとにゲー
ム成績を演算し、このゲーム成績に基づいてゲーム空間
を表す仮想次3元空間の設定を各プレーヤごとに変化さ
せれば、各プレーヤの腕前に応じたゲーム空間を提供で
き、繰り返しプレイしても飽きることのない仮想体験装
置を提供できることとなる。
In this case, for example, if the game results are calculated for each player and the setting of the virtual tertiary space representing the game space is changed for each player based on the game results, the skill of each player can be improved. It is possible to provide an appropriate game space, and to provide a virtual experience device that does not get tired even when playing repeatedly.

【0024】次に、本実施の形態の具体例について図面
を用いて詳細に説明する。
Next, a specific example of this embodiment will be described in detail with reference to the drawings.

【0025】1.第1の実施の形態 図1には、本実施の形態を用いた第1の実施の形態につ
いてのブロック図が示される。また、図2には、これを
ドライビングゲームに適用した仮想体験装置の一例が示
される。
1. First Embodiment FIG. 1 shows a block diagram of a first embodiment using the present embodiment. FIG. 2 shows an example of a virtual experience device in which this is applied to a driving game.

【0026】図2(a)において、ゲーム用の本物のレ
ーシングカー30は、内側が全てブルーの色に塗られた
ドーム1の中のフロア4の上に設置されている。ここ
で、このフロア4もドーム1の内側と同様に全てブルー
の色に塗られている。そして、このレーシングカー30
には、操作者例えばゲームにおけるプレーヤ50が搭乗
している。なお、操作者という場合には、ゲームにおけ
るプレーヤのみならず、例えばフライトシミュレータを
操作するパイロット、スポーツを行うプレーヤなど仮想
体験装置を利用する全ての者が含まれるとする。
In FIG. 2A, a real racing car 30 for a game is installed on a floor 4 in a dome 1 whose inside is entirely painted in blue. Here, as with the inside of the dome 1, the floor 4 is all painted in blue. And this racing car 30
, An operator, for example, a player 50 in a game is on board. It is assumed that the term “operator” includes not only a player in a game but also all persons who use a virtual experience device such as a pilot operating a flight simulator and a player playing sports.

【0027】レーシングカー30は、例えば、車両本体
36、タイヤ32、リアウイング34、ハンドル40、
サイドミラー41、計器盤44、シフトギア、アクセ
ル、ブレーキ(図示せず)等を含んで構成されている。
そして、例えばフロントタイヤ32はプレーヤ50のハ
ンドル40の操作により自在に操舵されるように形成さ
れており、また、リアウイング34も、プレーヤの操作
又はレーシングカー30のスピードの変化等により上下
に動くように形成されている。そして、後述するよう
に、プレーヤ50は映像カメラ10によりこれらの動き
の変化を見ることができることとなる。
The racing car 30 includes, for example, a vehicle body 36, tires 32, a rear wing 34, a steering wheel 40,
It is configured to include a side mirror 41, an instrument panel 44, a shift gear, an accelerator, a brake (not shown), and the like.
For example, the front tire 32 is formed so as to be freely steered by operating the handle 40 of the player 50, and the rear wing 34 also moves up and down due to the operation of the player or a change in the speed of the racing car 30. It is formed as follows. Then, as described later, the player 50 can see the change of these movements by the video camera 10.

【0028】計器盤44は、例えばスピードメータ、タ
コメータ、燃料計、警告計(図示せず)を含んでおり、
プレーヤ50の運転状態により変化するように構成され
ている。即ち、プレーヤ50のアクセル操作、ブレーキ
操作、シフトギア操作に応じて、スピードメータ、タコ
メータが変化し、また、ゲーム終番になり燃料が尽きて
くると燃料計がこれを示すように構成される。更に、レ
ーシングカー30のエンジン等にトラブルが生じると警
告計が点滅し、プレーヤ50は映像カメラ10によりこ
れを知ることができる。
The instrument panel 44 includes, for example, a speedometer, a tachometer, a fuel gauge, and a warning gauge (not shown).
It is configured to change according to the driving state of the player 50. That is, the speedometer and the tachometer change in accordance with the accelerator operation, the brake operation, and the shift gear operation of the player 50, and the fuel gauge indicates the end of the game when the fuel runs out. Further, when a trouble occurs in the engine of the racing car 30 or the like, the warning gauge blinks, and the player 50 can know this by the video camera 10.

【0029】また、レーシングカー30の下部には、姿
勢制御部24が設けられ、ゲーム状況(路面変化、道路
の変化等)、プレーヤ50のハンドル操作、アクセル操
作、ブレーキ操作に応じて、レーシングカー30の姿勢
変化、加速変化が制御される。プレーヤ50は、これに
より、姿勢変化、加速Gの変化を体感することができ、
より現実世界に近づいた仮想世界を体験することができ
ることとなる。
An attitude control unit 24 is provided below the racing car 30. The attitude control unit 24 controls the racing car according to the game situation (road surface change, road change, etc.), the steering operation of the player 50, the accelerator operation, and the brake operation. 30 posture changes and acceleration changes are controlled. Thus, the player 50 can experience a change in the posture and a change in the acceleration G,
You will be able to experience a virtual world closer to the real world.

【0030】プレーヤ50には、頭部装着体9がプレー
ヤ50の視界を覆うように装着されている。この頭部装
着体9は、映像カメラ10、プレーヤ用の空間センサ1
2、画像表示装置20、スピーカー22を含んで構成さ
れている。
The head mounted body 9 is mounted on the player 50 so as to cover the field of view of the player 50. The head-mounted body 9 includes a video camera 10 and a space sensor 1 for a player.
2. It includes an image display device 20 and a speaker 22.

【0031】図4(a)、(b)には、この頭部装着体
9の形状の一例が示される。図4(a)は、映像カメラ
10、プレーヤ用の空間センサ12、画像表示装置2
0、スピーカ22を、ヘルメット14に設けて構成され
る装着体9が示される。このタイプの装着体によれば、
ヘルメット14をプレーヤ50が装着することにより外
部と完全に隔離した世界を作ることができるため、より
臨場感溢れる仮想現実を楽しむことができる。これに対
して図4(b)に示す装着体9は、映像カメラ10、プ
レーヤ用の空間センサ12、画像表示装置20、スピー
カ22が、装着バンド16に一体的に取り付けて構成さ
れているため、より軽快感溢れる装着感を実現すること
ができる。なお、本実施の形態に使用される装着体とし
ては、図4(a)、(b)に示す形状のものに限らず種
々の形状のものを使用することが可能である。
FIGS. 4A and 4B show an example of the shape of the head-mounted body 9. FIG. 4A shows a video camera 10, a space sensor 12 for a player, and an image display device 2.
0, the wearing body 9 configured by providing the speaker 22 on the helmet 14 is shown. According to this type of mounting,
When the player 50 wears the helmet 14, a world completely isolated from the outside can be created, so that a more realistic virtual reality can be enjoyed. On the other hand, the mounting body 9 shown in FIG. 4B is configured such that the video camera 10, the spatial sensor 12 for the player, the image display device 20, and the speaker 22 are integrally attached to the mounting band 16. Therefore, it is possible to realize a more comfortable wearing feeling. The mounting body used in the present embodiment is not limited to the shapes shown in FIGS. 4A and 4B, and various shapes can be used.

【0032】画像表示装置20は、プレーヤ50の視界
を覆うようにプレーヤ50の目の前に取り付けられ、車
両本体36に内蔵された画像合成装置から接続線18を
通じて送られてくる画像信号を画像表示するものであ
る。この場合の画像表示方法としては、頭部装着体9を
小型化し装着感を向上させるべく、例えばカラー液晶デ
ィスプレー、小型ブラウン管等の小型のディスプレーを
用いることが望ましい。また、映像に目の焦点を合わせ
るべく、更に、視野角を広げて臨場感を向上させるべく
光学系により補正することが望ましい。
The image display device 20 is mounted in front of the player 50 so as to cover the field of view of the player 50, and converts an image signal sent from the image synthesizing device built in the vehicle body 36 through the connection line 18 into an image. To display. As an image display method in this case, it is desirable to use a small display such as a color liquid crystal display or a small CRT in order to reduce the size of the head mounted body 9 and improve the wearing feeling. In addition, it is desirable that the image be corrected by an optical system so that the image is focused on the eye and the viewing angle is widened and the sense of reality is improved.

【0033】ここで、小型ディスプレーの形状として
は、プレーヤ50の顔の形状に沿ってプレーヤの視界を
覆うように形成し、パノラマ映像効果を得るような形状
としてもよいし、2つの小型ディスプレーをそれぞれプ
レーヤ50の両眼の前に形成するような形状としてもよ
い。後者の場合は、両眼に与えられた平面的な2次元画
像に視差のある画像を与えること等により、3次元的な
立体感を与えるような形成することが望ましい。このよ
うに構成すれば、物体の大きさや、物体までの距離を把
握することができるようになるため、より現実世界に近
づいた仮想世界を作り出すことが可能となるからであ
る。
Here, the small display may be formed so as to cover the field of view of the player along the shape of the face of the player 50 to obtain a panoramic image effect, or two small displays may be used. Each of them may be formed in front of both eyes of the player 50. In the latter case, it is desirable to form a three-dimensional image by giving an image with parallax to a two-dimensional two-dimensional image given to both eyes. With such a configuration, the size of the object and the distance to the object can be grasped, so that a virtual world closer to the real world can be created.

【0034】映像カメラ10は、プレーヤ50が現実世
界を見るために使用するものであり、例えば図4に示す
ように、プレーヤ50の視点位置(目の位置)に近い位
置に設定し、そのアングルもプレーヤ50の視界方向と
一致するように設定することが望ましい。このように設
定すれば実際にプレーヤ50から見える現実世界の映像
を、より違和感なく見ることができるからである。これ
により、例えば後ろから追いかけてくる他のプレーヤの
レーシングカーを、プレーヤ50が実際に振り返るとい
う動作により確認することができ、より現実感があり、
緊張感のあるゲーム世界を作り出すことが可能となる。
The video camera 10 is used by the player 50 to view the real world. For example, as shown in FIG. 4, the video camera 10 is set at a position close to the viewpoint position (eye position) of the player 50, and its angle is set. It is also desirable to set the same as the field of view of the player 50. This is because, by setting in this way, the real-world video that is actually viewed from the player 50 can be viewed more comfortably. As a result, for example, the player 50 can check a racing car of another player who is chasing from behind by an operation in which the player 50 actually looks back.
It is possible to create a tense game world.

【0035】但し、この場合、頭部装着体9の例えば後
部にもう一台の映像カメラを取り付けて、プレーヤ50
の操作によりこれを切り替えて見ることができるように
構成してもよい。更に、例えばレーシングカー50にサ
イドミラー41、バックミラー等を設けて、これに例え
ばテクスチャーマッピング等の手法を用いて、実際に後
ろに見えるべき映像を映し出すような構成としてもよ
い。
In this case, however, another video camera is attached to, for example, the rear of the
The user may be configured to be able to switch and view this by the operation of. Further, for example, the racing car 50 may be provided with a side mirror 41, a rear-view mirror, and the like, and a structure such as texture mapping or the like may be used to project an image that should actually be seen behind.

【0036】映像カメラ10として使用する撮像手段と
しては、例えば高解像でより小型なカメラ、例えば高解
像度CCDカメラ等を用いることが望まく、自動焦点合
わせ等の機能を持つものを用いることが望ましい。
As the imaging means used as the video camera 10, it is desirable to use, for example, a high-resolution and smaller camera, for example, a high-resolution CCD camera, and to use a camera having a function such as automatic focusing. desirable.

【0037】プレーヤ用の空間センサ12、12は、プ
レーヤ50の3次元情報を検出するセンサであり、例え
ば一方側はドーム1の天井部に、他方側はプレーヤ50
の頭部装着体9に取り付けられる。
The player's space sensors 12, 12 are sensors for detecting three-dimensional information of the player 50. For example, one side is on the ceiling of the dome 1 and the other side is on the player 50's side.
Is attached to the head mounted body 9.

【0038】なお、ここでいうプレーヤ50の3次元情
報とは、例えばプレーヤ50の位置情報、視界方向情報
をいい、空間センサ12、12の3次元空間における方
向をも含めた相対位置関係を求めることにより検出され
る。但し、プレーヤ50の位置が、ゲームの設定上、動
かないか、もしくは動いたとしても許容範囲内である場
合、この3次元情報には、必ずしもプレーヤ50の位置
情報を含める必要はない。また、逆にプレーヤ50の視
界方向が、ゲームの設定上、変更されることがないよう
な場合は、この3次元情報には、必ずしもプレーヤ50
の視界情報を含める必要はない。これらの場合は、ゲー
ム上で設定される位置もしくは視界情報によりその後の
画像演算処理を行えばよい。
The three-dimensional information of the player 50 here refers to, for example, positional information of the player 50 and view direction information, and obtains a relative positional relationship including the directions of the spatial sensors 12 and 12 in the three-dimensional space. Is detected by However, if the position of the player 50 does not move in the setting of the game or is within the allowable range even if it moves, the three-dimensional information does not necessarily need to include the position information of the player 50. Conversely, when the direction of the field of view of the player 50 is not changed in setting the game, the three-dimensional information does not necessarily include the player 50.
Need not be included. In these cases, subsequent image calculation processing may be performed based on the position or view information set on the game.

【0039】空間センサ12、12による3次元情報の
検出手法としては、例えば以下の手法が考えられる。即
ち、それぞれの空間センサ12、12を互いに直交した
3つのコイルで構成する。そして、どちらか一方の空間
センサ12のコイルに電流を流し、この時に他方の空間
センサ12のコイルに誘起される電流値から、これらの
空間センサ12、12の方向を含めた位置関係を検出す
る。これによりプレーヤ50の空間情報が検出されるこ
ととなる。
As a method for detecting three-dimensional information by the space sensors 12, 12, for example, the following method can be considered. That is, each of the space sensors 12, 12 is constituted by three coils orthogonal to each other. Then, a current is caused to flow through the coil of one of the space sensors 12, and at this time, the positional relationship including the directions of the space sensors 12, 12 is detected from the current value induced in the coil of the other space sensor 12. . As a result, the spatial information of the player 50 is detected.

【0040】なお、空間センサ12、12による3次元
情報の検出方法としては、上記の動磁界を利用したもの
に限らず、例えば、静磁界を利用したもの、超音波を利
用したものを用いてもよい。
The method of detecting three-dimensional information by the space sensors 12, 12 is not limited to the method using the above-described dynamic magnetic field, but may be, for example, a method using a static magnetic field or a method using an ultrasonic wave. Is also good.

【0041】次に、本実施の形態による画像合成の手法
について以下に説明する。
Next, an image synthesizing method according to the present embodiment will be described below.

【0042】本実施の形態では、図2(b)に示すよう
に、映像カメラ10で撮影した実3次元空間における実
空間映像100と、仮想3次元空間における仮想視界画
像102とを画像合成して、表示画像104を形成して
いる。そして、この表示画像104は、接続線18を通
じて画像表示装置20に出力され、実際にプレーヤ50
が見る視界画像となる。
In this embodiment, as shown in FIG. 2B, a real space image 100 in a real three-dimensional space captured by a video camera 10 and a virtual view image 102 in a virtual three-dimensional space are synthesized. Thus, a display image 104 is formed. Then, the display image 104 is output to the image display device 20 through the connection line 18 and is actually
Is a view image to be viewed.

【0043】この画像合成を、本実施の形態ではブルー
マット合成により行っている。つまり、レーシングカー
30及びその付属物、自分自身であるプレーヤ50等、
以外のもの、即ちドーム1の内側及びフロア4を全てブ
ルーの色にしておく。このようにすると、実空間映像1
00において、レーシングカー30、ハンドル40、プ
レーヤの手54以外は全てブルーの背景となる。そし
て、この実空間映像100のうちブルーの色の部分の画
素を全て空きドットに設定し、これに仮想視界画像10
2に重ね合わることにより表示画像104を得ることが
できることとなる。この場合、例えばドーム1には主に
プレーヤ50から見えるサーキットの背景が、フロア4
には、レーシングカー30が走っている道路の路面状況
が映し出される。
In the present embodiment, the image synthesis is performed by blue mat synthesis. In other words, the racing car 30 and its accessories, the player 50 who is himself, etc.
Other than that, the inside of the dome 1 and the floor 4 are all colored blue. By doing so, the real space image 1
At 00, all parts other than the racing car 30, the steering wheel 40, and the player's hand 54 have a blue background. Then, all the pixels of the blue color portion in the real space image 100 are set as empty dots, and the virtual view image 10
2, the display image 104 can be obtained. In this case, for example, the dome 1 has a circuit background mainly seen from the player 50, and the floor 4
Shows the road surface condition of the road on which the racing car 30 is running.

【0044】この場合の画像合成装置の一例を示すブロ
ック図が、図1に示される。
FIG. 1 is a block diagram showing an example of the image synthesizing apparatus in this case.

【0045】図1において仮想視界画像演算装置70
は、仮想3次元空間においてプレーヤ50が見ることが
できる仮想画像を演算するものであり、仮想3次元空間
演算部72及び視界画像演算部76とを含む。そして、
仮想3次元空間演算部72は、実3次元空間と重ね合わ
せて設定されるゲーム空間を表す仮想3次元空間を演算
するものであり、視界画像演算部76は、この演算され
た仮想3次元空間より、プレーヤ50から見える方向に
おける仮想視界画像を演算するものである。
In FIG. 1, the virtual visual field image calculation device 70
Is for calculating a virtual image that can be viewed by the player 50 in the virtual three-dimensional space, and includes a virtual three-dimensional space calculation unit 72 and a view image calculation unit 76. And
The virtual three-dimensional space calculation unit 72 calculates a virtual three-dimensional space that represents a game space set by being superimposed on the real three-dimensional space. The view image calculation unit 76 calculates the virtual three-dimensional space that has been calculated. Thus, a virtual field-of-view image in a direction that can be seen from the player 50 is calculated.

【0046】プログラム部74には、ゲーム用の演算プ
ログラムが格納されている。例えば、本実施の形態のド
ライビングゲームを例にとれば、ドライビングゲーム空
間を構成するサーキット上のあらゆる物体(レーシング
カー、道路、他のレーシングカー、道路から見える背景
等)が多面体の組合せで表現され、この多面体の各頂点
の3次元情報及び付随データが画像情報として格納され
ている。なお、プログラム部74には、これらのデータ
以外にもゲームの進行等を制御するプログラムも格納さ
れ、また、複数のサーキット走行を楽しめるものであれ
ば、これら全てのサーキット情報が格納されている。
The program section 74 stores a game calculation program. For example, taking the driving game of the present embodiment as an example, all objects (racing cars, roads, other racing cars, backgrounds visible from the roads, etc.) on the circuit constituting the driving game space are represented by a combination of polyhedrons. The three-dimensional information and associated data of each vertex of the polyhedron are stored as image information. In addition to the above data, the program section 74 also stores a program for controlling the progress of the game and the like, and stores all the circuit information if the user can enjoy a plurality of circuit runs.

【0047】プレーヤ50が、ハンドル40、アクセ
ル、ブレーキ、シフトギアにより入力した操作信号は、
操作部38を介して仮想3次元空間演算部72に入力さ
れる。そして、この操作信号と前記したプログラム部7
4からの情報により、仮想3次元空間でのレーシングカ
ー30の位置、方向がリアルタイムに演算される。そし
て、この演算結果に基づき、仮想3次元空間におけるレ
ーシングカー30及びその周りのサーキット上のあらゆ
る物体の画像情報が、視界画像演算部76に出力され
る。
Operation signals input by the player 50 through the steering wheel 40, accelerator, brake, and shift gear are as follows:
The data is input to the virtual three-dimensional space calculation unit 72 via the operation unit 38. Then, the operation signal and the program unit 7
4, the position and direction of the racing car 30 in the virtual three-dimensional space are calculated in real time. Then, based on the calculation result, image information of the racing car 30 in the virtual three-dimensional space and all objects on the circuit around the racing car 30 is output to the view image calculation unit 76.

【0048】視界画像演算部76では、プレーヤ用の空
間センサ12より検出された3次元情報に基づき、以下
のような座標変換がなされる。即ち、図12に示すよう
に、仮想3次元空間演算部72により演算された画像情
報(例えば背景画面を構成する看板、ビル等の物体17
0、172を表す画像情報)が、仮想3次元空間におけ
るワールド座標系(XW、YW、ZW)から、プレーヤ5
0の視点座標系(XV、YV、ZV)に座標変換される。
そして、プレーヤ50の視野外、例えば視野から外れて
後ろに通り過ぎて行く看板等の物体172の画像情報は
クリッピングされて除去され、視野内にある物体170
の画像情報はスクリーン座標系(XS、YS)、即ち実際
にプレーヤ50から見える座標系に透視変換される。こ
の場合、この透視変換された画像情報は、前記物体を構
成する多面体に対応するポリゴン174、175、17
6(裏側のポリゴンは省略)の組合せとして表現されて
いる。次に、このポリゴン174、175、176内の
全てのドットの画像情報が、ポリゴン毎にもしくはポリ
ゴンの各頂点毎に与えられた色、輝度等の付随情報を基
に演算され、これが仮想視界画像情報として、表示画像
合成装置80に出力されることとなる。
The visual field image calculation unit 76 performs the following coordinate conversion based on the three-dimensional information detected by the space sensor 12 for the player. That is, as shown in FIG. 12, image information calculated by the virtual three-dimensional space calculation unit 72 (for example, an object 17 such as a signboard,
0, 172) from the world coordinate system (XW, YW, ZW) in the virtual three-dimensional space.
The coordinates are converted to a viewpoint coordinate system of 0 (XV, YV, ZV).
Then, the image information of the object 172 such as a signboard passing outside the field of view of the player 50, for example, out of the field of view, is clipped and removed, and the object 170 in the field of view is removed.
Image information is perspectively transformed into a screen coordinate system (XS, YS), that is, a coordinate system that can be actually viewed from the player 50. In this case, the perspective-transformed image information is used as polygons 174, 175, and 17 corresponding to the polyhedron constituting the object.
6 (the back side polygon is omitted). Next, the image information of all the dots in the polygons 174, 175, and 176 is calculated based on the accompanying information such as the color and luminance given for each polygon or each vertex of the polygon, and this is calculated as a virtual view image. The information is output to the display image synthesizing device 80.

【0049】表示画像合成装置80では、視界画像演算
部76からの仮想視界画像102と映像カメラ10から
の実空間映像100との画像合成が行われる。この画像
合成の手法としては種々の手法が考えられるが、本実施
の形態では前述したようにブルーマット合成による手法
によって行っている。図13には、この場合に表示画像
合成装置80の詳細が示されている。
In the display image synthesizing device 80, the image synthesis of the virtual visual field image 102 from the visual field image calculation unit 76 and the real space video 100 from the video camera 10 is performed. Various methods can be considered as a method of the image synthesis. In the present embodiment, as described above, the image is synthesized by the method of the blue mat synthesis. FIG. 13 shows details of the display image synthesizing device 80 in this case.

【0050】即ち、図13において、映像カメラ10か
ら入力された実空間映像100を表す画像信号は、表示
画像合成装置80内においてまずフィルター200に通
されRGBの3原色の成分に分けられる。そして、これ
らの成分のそれぞれが例えば8ビットのデジタルデータ
に、A/D変換回路202にてA/D変換され、これに
より各画素毎に24ビットのRGBデジタルデータが求
められる。そして、この実空間映像100における各画
素の24ビットのRGBデジタルデータが、ドーム1の
裏側及びフロア4に塗られたブルーの色の24ビットの
RGBデジタルデータと一致するか否かが、空きドット
判定回路204にて各画素毎に演算され、判断される。
そして、この判断結果は、空きドットメモリ206に書
き込まれる。空きドットメモリ206は、表示画像の全
ての画素に対応した1ビットメモリの構成となってお
り、各画素毎に空きドットか否かの空きドット判定デー
タが1ビットデータとして書き込まれる。
That is, in FIG. 13, an image signal representing the real space image 100 input from the image camera 10 is first passed through a filter 200 in the display image synthesizing device 80 and is divided into three primary color components of RGB. Then, each of these components is A / D converted into 8-bit digital data by the A / D conversion circuit 202, thereby obtaining 24-bit RGB digital data for each pixel. Then, whether or not the 24-bit RGB digital data of each pixel in the real space image 100 matches the 24-bit RGB digital data of blue color painted on the back side of the dome 1 and the floor 4 is determined by whether or not there is an empty dot. The judgment circuit 204 calculates and judges for each pixel.
Then, the result of this determination is written to the empty dot memory 206. The empty dot memory 206 has a configuration of a 1-bit memory corresponding to all pixels of the display image, and empty dot determination data indicating whether or not the pixel is an empty dot is written as 1-bit data for each pixel.

【0051】表示画像合成装置80には、表示画像の各
画素に対応したフィールドバッファ210が内蔵されて
いる。そして、データ制御部208により、空きドット
メモリ206に書き込まれている空きドット判定データ
が参照され、フィールドバッファ210の各画素位置に
実空間映像が書き込まれる。即ち、空きドット判定デー
タにより、その画素が空きドットであると判断された場
合は、フィールドバッファ210のその画素位置には、
実空間映像は書き込まれない。逆に、空きドット判定デ
ータにより、その画素が空きドットではないと判断され
た場合には、実空間映像の24ビットのRGBデジタル
データがそのまま書き込まれることとなる。
The display image synthesizing device 80 has a built-in field buffer 210 corresponding to each pixel of the display image. Then, the data control unit 208 refers to the empty dot determination data written in the empty dot memory 206, and writes a real space image at each pixel position of the field buffer 210. That is, if the pixel is determined to be a free dot by the free dot determination data, the pixel position in the field buffer 210 is
No real space video is written. Conversely, if it is determined from the empty dot determination data that the pixel is not an empty dot, the 24-bit RGB digital data of the real space video is written as it is.

【0052】次に、データ制御部208により、空きド
ットメモリ206に書き込まれている空きドット判定デ
ータが参照され、フィールドバッファ210の各画素位
置に、視界画像演算部76により演算された仮想視界画
像情報が重ね書きされる。即ち、空きドット判定データ
により、その画素が空きドットであると判断された場合
は、仮想視界画像情報がそのまま書き込まれる。逆に、
空きドット判定データにより、その画素が空きドットで
はないと判断された場合には、なにも書き込まれず、こ
の画素位置には実空間映像が表示されることとなる。
Next, the data control unit 208 refers to the empty dot determination data written in the empty dot memory 206 and stores the virtual view image calculated by the view image calculation unit 76 at each pixel position in the field buffer 210. Information is overwritten. That is, when it is determined from the empty dot determination data that the pixel is an empty dot, the virtual view image information is written as it is. vice versa,
If it is determined from the empty dot determination data that the pixel is not an empty dot, nothing is written, and a real space image is displayed at this pixel position.

【0053】以上の書き込みを行なった後、データ制御
部208によりフィールドバッファ210から各画素位
置の画像情報データが読み出される。そして、この画像
情報データは接続線18を通して画像表示装置20に画
像出力され、プレーヤ50は、実空間映像100に仮想
視界画像102が組み込まれた表示画像104をリアル
タイムに見ることができることとなる。
After the above writing, the image information data at each pixel position is read from the field buffer 210 by the data control unit 208. Then, the image information data is output as an image to the image display device 20 through the connection line 18, and the player 50 can see the display image 104 in which the virtual view image 102 is incorporated in the real space image 100 in real time.

【0054】なお、以上の画像情報の書き込みと、読み
出しは、例えばフィールドバッファ210を2画面分の
構成とすることにより、同時に行うように構成すること
がより望ましい。
It is more preferable that the writing and reading of the image information be performed simultaneously by, for example, configuring the field buffer 210 for two screens.

【0055】また、仮想3次元空間演算部72において
は、画像情報の演算のみならず、例えば、音声合成部7
8を通じてスピーカ22より出力される音声信号、及
び、レーシングカー30の姿勢を制御する姿勢制御信号
の生成も行っている。即ち、プログラム74からのゲー
ムプログラム及び操作部38からの操作信号により演算
された、ゲーム空間におけるゲーム進行状況に応じて、
より効果的な音声信号及び姿勢制御信号の生成を行い、
ゲームの臨場感をより一層高めている。
In the virtual three-dimensional space calculation unit 72, not only the calculation of the image information but also, for example, the sound synthesis unit 7
It also generates an audio signal output from the speaker 22 through the controller 8 and an attitude control signal for controlling the attitude of the racing car 30. That is, according to the game progress situation in the game space, which is calculated based on the game program from the program 74 and the operation signal from the operation unit 38,
Generate more effective voice signal and attitude control signal,
The game's presence is further enhanced.

【0056】また、本実施の形態では、仮想視界画像演
算装置70を、仮想3次元空間演算部72と視界画像演
算部76とに分けたが、これは便宜的なものであり、例
えば3次元空間演算を行う機能と視界画像を演算する機
能とを一体となって行う手法によりこれを構成しても構
わない。即ち、結果として、仮想3次元空間において、
プレーヤ50から見える方向における仮想視界画像を得
ることができれば、演算順序、演算手法等は、図1に示
す手法に限らずあらゆる手法を用いることができる。
Further, in the present embodiment, the virtual view image calculation device 70 is divided into a virtual three-dimensional space calculation unit 72 and a view image calculation unit 76, but this is for convenience. This may be configured by a method in which the function of performing the spatial calculation and the function of calculating the view image are integrally performed. That is, as a result, in the virtual three-dimensional space,
As long as a virtual field-of-view image in a direction visible from the player 50 can be obtained, the calculation order, the calculation method, and the like are not limited to the method shown in FIG.

【0057】また、表示画像合成装置80における画像
合成の方法としては、上記したものに限らず、例えばブ
ルーではなくレッドを用いて画像合成したり、複数の色
を用いて画像合成したり、種々の手法を用いることがで
きる。
The method of synthesizing the image in the display image synthesizing device 80 is not limited to the above-described method. For example, the image is synthesized using red instead of blue, the image is synthesized using a plurality of colors, Can be used.

【0058】また、視界画像演算部76において、演算
されたポリゴン内の全てのドットの画像情報を求める手
法としては、前記したものに限らず、例えばテクスチャ
マッピングと呼ばれる手法を用いてもよい。即ち、仮想
3次元空間における物体の各頂点に、あらかじめはり付
けたいテクスチャ情報を指定するテクスチャ座標を与え
ておく。そして、前記した視点座標系への演算等を行っ
た後に、このテクスチャ座標をアドレスとして、テクス
チャ情報メモリよりテクスチャ情報を読みだし、これを
ポリゴンにはり付けることにより、ポリゴン内の全ての
ドットの画像情報を演算する。
The method of obtaining the image information of all the dots in the calculated polygons in the view image calculation unit 76 is not limited to the above-mentioned method, and for example, a method called texture mapping may be used. That is, each vertex of the object in the virtual three-dimensional space is given in advance texture coordinates specifying texture information to be attached. Then, after performing the above-described calculation on the viewpoint coordinate system, the texture information is read from the texture information memory using the texture coordinates as an address, and the texture information is attached to the polygon, thereby obtaining an image of all the dots in the polygon. Compute information.

【0059】このようなテクスチャマッピングと呼ばれ
る手法を用いて画像情報を演算することにより、まず、
演算処理部分の負担を大幅に減らすことができるという
メリットが生じる。また、この他にも、この手法を用い
れば種々の今までにない画像効果を得ることもできる。
その例として例えば以下に挙げるものがある。
By calculating image information using such a technique called texture mapping, first,
There is an advantage that the load on the arithmetic processing portion can be significantly reduced. In addition, various unprecedented image effects can be obtained by using this method.
Examples thereof include the following.

【0060】即ち、レーシングカー30に設けられたサ
イドミラー41に映像カメラ43を取り付ける。そし
て、図14に示すように、この映像カメラ43により撮
影される後方の実空間映像105と、後方の仮想視界画
像106とを画像合成してサイドミラー表示画像108
を形成し、このサイドミラー表示画像108を、プレー
ヤ50から見える表示画像104のサイドミラー41の
部分にテクスチャマッピング手法を用いてはり付ける。
このような構成とすれば、サイドミラー41には、図2
(b)に示す表示画像104と同様に、後方の実空間映
像105と後方の仮想視界画像106とが合成された画
像が表示されることとなる。これにより、例えば後ろか
ら追いかけてくる相手のプレーヤのレーシングカー31
及び後方における背景画像と自分のレーシングカー30
の実映像との合成画像を、サイドミラー41により見る
ことができ、より現実世界に近づいた仮想世界を作り出
すことが可能となる。
That is, the video camera 43 is attached to the side mirror 41 provided on the racing car 30. Then, as shown in FIG. 14, the rear real space image 105 captured by the video camera 43 and the rear virtual view image 106 are image-combined to form a side mirror display image 108.
Is formed, and this side mirror display image 108 is attached to a portion of the side mirror 41 of the display image 104 viewed from the player 50 by using a texture mapping method.
With such a configuration, the side mirror 41 has the configuration shown in FIG.
Similarly to the display image 104 shown in (b), an image in which the rear real space image 105 and the rear virtual view image 106 are combined is displayed. Thus, for example, the racing car 31 of the opponent player chasing from behind.
And the background image in the back and my racing car 30
Can be viewed by the side mirror 41, and a virtual world closer to the real world can be created.

【0061】図15には、テクスチャマッピング手法を
用いた映像効果のもう一つの例が示される。この例で
は、図15(a)に示すように、それぞれ独立のドーム
内に、プレーヤ50のレーシングカー30及び相手プレ
ーヤ52のレーシングカー31が設置される。ドーム内
には映像カメラ26が設置されており、これによりプレ
ーヤ50、52の頭部28が四方から撮影される。そし
て、このプレーヤの頭部28の撮影データを図15
(b)に示すように、仮想視界画像102上の相手プレ
ーヤ52の頭部の部分に、テクスチャマッピング手法を
用いてはり付ける。このようにすれば、プレーヤ50が
後ろを振り返って見た場合に、相手プレーヤの頭部の実
写映像を見ることができ、ゲームの臨場感を非常に高め
ることができる。特に、相手プレーヤ52のレーシング
カー31が自分のレーシングカー30に追いつき横に並
んだときに、相手プレーヤ52の勝利に誇った顔なども
見ることができ、各プレーヤの競争意識を刺激し、より
現実感、緊張感のあるゲームを提供できることとなる。
FIG. 15 shows another example of the video effect using the texture mapping method. In this example, as shown in FIG. 15A, the racing car 30 of the player 50 and the racing car 31 of the opponent player 52 are installed in independent dome portions, respectively. A video camera 26 is installed in the dome, and the heads 28 of the players 50 and 52 are photographed from all sides. The photographing data of the player's head 28 is shown in FIG.
As shown in (b), the texture is mapped to the head of the opponent player 52 on the virtual view image 102 by using the texture mapping method. In this way, when the player 50 looks back, the real image of the head of the opponent player can be seen, and the sense of reality of the game can be greatly enhanced. In particular, when the racing car 31 of the opponent player 52 catches up with the own racing car 30 and lines up side by side, it is possible to see a face, etc., which is proud of the victory of the opponent player 52, thereby stimulating each player's consciousness of competition. A game with a sense of reality and tension can be provided.

【0062】なお、図15では、4方向から映像カメラ
26で各プレーヤの頭部28を撮影する構成としたが、
少なくともプレーヤの頭部28の正面からの映像情報が
あればよく、他の方向からの映像情報は、仮想3次元空
間演算部70において作り出したものを用いてもよい。
また、各プレーヤの頭部28の撮影手段は、映像カメラ
26に限られるものではなく、例えばゲームプレイを始
める前に、静止画カメラにより撮影し、これを登録して
用いる構成としてもよい。
In FIG. 15, the head 28 of each player is photographed by the video camera 26 from four directions.
It is sufficient that there is video information from at least the front of the player's head 28, and video information from other directions may be the one created by the virtual three-dimensional space calculation unit 70.
Further, the photographing means of the head 28 of each player is not limited to the video camera 26. For example, before starting the game play, the photographing means may be photographed by a still image camera and registered and used.

【0063】図16には、以上に述べたテクスチャマッ
ピング手法により、画像を合成するための簡単なブロッ
ク図の一例が示される。
FIG. 16 shows an example of a simple block diagram for synthesizing an image by the texture mapping method described above.

【0064】即ち、テクスチャマッピング手法により画
像を合成する場合には、視界画像演算部76を、例えば
図16に示すような構成にする。
In other words, when synthesizing images by the texture mapping method, the field-of-view image calculation unit 76 is configured, for example, as shown in FIG.

【0065】仮想3次元空間演算部72より出力された
各物体の画像情報は、各物体を構成するポリゴンの頂点
座標VX、VY、VZと、そのポリゴンの各頂点に与えら
れたテクスチャ頂点座標VTX、VTY等とで表現されて
いる。ここで、テクスチャ座標TX、TYは、各ポリゴン
にはり付けるべきテクスチャ情報を指定するもので、こ
のテクスチャ情報は、テクスチャ座標TX、TYをアドレ
スとしてテクスチャ記憶部308に格納されている。そ
して、テクスチャ頂点座標VTX、VTYは、このテクス
チャ座標TX、TYのうち、各ポリゴンの頂点位置におけ
るテクスチャ座標を表すものである。
The image information of each object output from the virtual three-dimensional space calculation unit 72 includes the vertex coordinates VX, VY, and VZ of the polygon constituting each object and the texture vertex coordinates VTX given to each vertex of the polygon. , VTY, and the like. Here, the texture coordinates TX and TY specify texture information to be attached to each polygon. The texture information is stored in the texture storage unit 308 using the texture coordinates TX and TY as addresses. The texture vertex coordinates VTX and VTY represent the texture coordinates at the vertex position of each polygon among the texture coordinates TX and TY.

【0066】この頂点座標VX、VY、VZ、及びテクス
チャ頂点座標VTX、VTY等は、頂点座標変換部300
に入力される。そして、頂点座標変換部300におい
て、透視変換等の座標変換が行われ、その結果はソーテ
ィング回路302に出力される。ソーティング回路30
2では、各ポリゴンの処理の優先度が設定される。優先
度は、例えばプレーヤの視点に近いポリゴンが優先的に
処理されるように設定され、以降の処理はこの優先度に
したがって処理されることとなる。
The vertex coordinates VX, VY, VZ, the texture vertex coordinates VTX, VTY, etc.
Is input to Then, the vertex coordinate transformation unit 300 performs coordinate transformation such as perspective transformation, and outputs the result to the sorting circuit 302. Sorting circuit 30
In 2, the processing priority of each polygon is set. The priority is set so that, for example, a polygon closer to the viewpoint of the player is preferentially processed, and the subsequent processing is performed according to this priority.

【0067】プロセッサ部304では、各ポリゴンの座
標変換後の頂点座標及びテクスチャ頂点座標から、ポリ
ゴン内の全てのドットの表示座標及びテクスチャ座標T
X、TYが求められる。そして、この求められたテクスチ
ャ座標TX、TYは前記した表示座標をアドレスとしてフ
ィールドバッファ部306に書き込まれる。
The processor unit 304 calculates the display coordinates and texture coordinates T of all the dots in the polygon from the vertex coordinates and texture vertex coordinates of each polygon after the coordinate conversion.
X and TY are required. Then, the obtained texture coordinates TX and TY are written in the field buffer unit 306 using the display coordinates described above as an address.

【0068】画像表示する際には、このフィルードバッ
ファ部306からテクスチャ座標TX、TYが読み出さ
れ、これをアドレスとしてテクスチャ記憶部308から
テクスチャ情報が読み出され、仮想視界画像が形成され
る。その後、表示画像合成装置80にて、実空間映像と
の画像合成が行われる。
When displaying an image, the texture coordinates TX and TY are read from the field buffer unit 306, texture information is read from the texture storage unit 308 using the texture coordinates TX and TY as addresses, and a virtual view image is formed. Thereafter, the display image synthesizing device 80 performs image synthesis with the real space video.

【0069】以上の構成により、例えば以下に示す演算
処理により、サイドミラー41にサイドミラー表示画像
108が映し出される。ここで、サイドミラー41は、
例えばブルーの色に塗られており、この位置には画像合
成装置により演算された画像が映し出されるように設定
されている。
With the above configuration, the side mirror display image 108 is displayed on the side mirror 41 by, for example, the following arithmetic processing. Here, the side mirror 41
For example, the image is painted in blue, and an image calculated by the image synthesizing device is set to be displayed at this position.

【0070】この場合、まず図14に示すサイドミラー
表示画像108の画像合成が行われる。即ち、図16に
おいて、後方の仮想視界画像106の演算が仮想3次元
空間演算部72及び視界画像演算部76により演算され
る。また、後方の実空間映像105は映像カメラ43に
より撮影される。そして、この後方の仮想視界画像10
6と、後方の実空間映像105の画像合成が表示画像合
成装置80により行われ、サイドミラー表示画像108
が画像合成されることとなる。
In this case, first, image synthesis of the side mirror display image 108 shown in FIG. 14 is performed. That is, in FIG. 16, the calculation of the rear virtual view image 106 is performed by the virtual three-dimensional space calculation unit 72 and the view image calculation unit 76. The rear real space image 105 is photographed by the image camera 43. Then, the virtual view image 10 behind this
6 and the rear real space image 105 are synthesized by the display image synthesis device 80, and the side mirror display image 108 is synthesized.
Are image-combined.

【0071】次に、このサイドミラー表示画像108
は、図16に示すようにテクスチャ記憶部308に戻さ
れる。そして、テクスチャ記憶部308の記憶エリアの
内、サイドミラー41に対応するテクスチャ座標の位置
に、このサイドミラー表示画像108の画像情報が書き
込まれる。その後、このようにしてサイドミラー表示画
像108が表示された仮想視界画像102と、映像カメ
ラ10により撮影された実空間映像100との画像合成
が、表示画像合成装置80により行われる。これによ
り、表示画像104のサイドミラー41に、サイドミラ
ー表示画像108が表示された画像を形成することがで
きることとなる。
Next, this side mirror display image 108
Is returned to the texture storage unit 308 as shown in FIG. Then, in the storage area of the texture storage unit 308, the image information of the side mirror display image 108 is written at the position of the texture coordinate corresponding to the side mirror 41. After that, the display image synthesizing device 80 performs image synthesis of the virtual view image 102 on which the side mirror display image 108 is displayed and the real space image 100 captured by the image camera 10. As a result, an image in which the side mirror display image 108 is displayed can be formed on the side mirror 41 of the display image 104.

【0072】また、図16に示す構成により、相手プレ
ーヤの頭部の実映像を映し出す場合には、図16に示す
ように映像カメラ26により撮影された映像が、直接テ
クスチャ記憶部308に書き込まれる。即ち、テクスチ
ャ記憶部308の記憶エリアの内、相手プレーヤの頭部
に対応するテクスチャ座標の位置に、映像カメラ26に
より撮影された映像データがリアルタイムに書き込まれ
る。これにより、プレーヤ50から見える仮想視界画像
102に、相手プレーヤ52の頭部の実映像が映し出さ
れた表示画像を得ることができることとなる。
When the real image of the head of the opponent player is projected by the configuration shown in FIG. 16, the image photographed by the image camera 26 is directly written into the texture storage unit 308 as shown in FIG. . In other words, the video data captured by the video camera 26 is written in real time at the position of the texture coordinates corresponding to the head of the opponent player in the storage area of the texture storage unit 308. This makes it possible to obtain a display image in which a real image of the head of the opponent player 52 is projected on the virtual field-of-view image 102 viewed from the player 50.

【0073】なお、静止画カメラにより撮影する構成と
する場合は、ゲーム開始前に登録する際に、このテクス
チャ記憶部308に相手プレーヤの写真が画像データと
して記憶されることとなる。
In the case where the still image camera is used, a picture of the opponent player is stored as image data in the texture storage unit 308 when registering before starting the game.

【0074】また、本実施の形態におけるテクスチャマ
ッピング手法は図16に示す構成のものに限られるもの
ではなく、あらゆる手法のテクスチャマッピングを用い
ることができる。
Further, the texture mapping method in the present embodiment is not limited to the structure shown in FIG. 16, and any method of texture mapping can be used.

【0075】以上の構成の本実施の形態により、これま
でのドライビングゲームでは体験できなかった、臨場感
溢れるゲームを提供することができることとなった。
According to the present embodiment having the above-described configuration, it is possible to provide a game with a sense of realism that could not be experienced in a conventional driving game.

【0076】即ち、まず、従来のドライビングゲームで
は、サーキット等を映し出すゲーム画面がプレーヤ50
の前面にしか設定されていなかったため、いまひとつ臨
場感に欠けるところがあった。これに対して、本実施の
形態では、プレーヤ50は例えば360度全方向を見る
ことができるため、ゲームの臨場感が大幅に向上する。
特に、例えば本実施の形態を複数プレーヤによるドライ
ビングゲームに適用した場合、プレーヤ50は、実際に
振り返えることにより、もしくは、前記した構成のサイ
ドミラー41、バックミラーを使用することにより、追
いかけてくる相手のプレーヤを確認できることとなり臨
場感をより増すことができる。この場合、前記したよう
にテクスチャーマッピングで相手のプレーヤの実空間映
像をはり付ければ、更にゲームの現実感、緊張感を増す
ことが可能となる。
That is, first, in the conventional driving game, a game screen for displaying a circuit or the like is displayed on the player 50.
Because it was set only on the front of the, there was still a lack of realism. On the other hand, in the present embodiment, since the player 50 can see all directions, for example, 360 degrees, the sense of reality of the game is greatly improved.
In particular, for example, when the present embodiment is applied to a driving game by a plurality of players, the player 50 chase by actually looking back or by using the side mirror 41 and the rearview mirror having the above-described configuration. The player of the opponent can be confirmed, and the sense of presence can be further increased. In this case, if the real space image of the opponent player is attached by texture mapping as described above, it is possible to further increase the realism and tension of the game.

【0077】また、本実施の形態では、プレーヤ50
は、実3次元空間における本物のレーシングカー30に
搭乗することができ、しかも、その本物のレーシングカ
ー30を、ゲーム用の仮想3次元空間で自由に走らせる
ことが可能となり、より現実世界に近づいた仮想世界を
体験できることになる。即ち、プレーヤ50は、実3次
元空間におけるレーシングカー30、タイヤ32、リア
ウイング34の動き、サイドミラー41に写る相手プレ
ーヤなどを、映像カメラ10を通じて実際に自分の目で
確認しながらレーシングカー30を操作することができ
る。更に、このプレーヤ50が操作する操作部、即ちハ
ンドル40、計器盤44、アクセル、ブレーキ、シフト
ギアなども、上記と同様に映像カメラ10を通じて実際
に自分の目で確認しながら操作することができるため、
操作性が大幅に向上し、ゲームの現実感も大幅に向上す
ることとなる。また、この場合に、ゲーム状況に応じ
て、姿勢制御部24の制御、スピーカ22に出力する音
声を変化されば、より、臨場感溢れるゲームを提供でき
ることとなる。
In the present embodiment, the player 50
Can ride on a real racing car 30 in a real three-dimensional space, and can run the real racing car 30 freely in a virtual three-dimensional space for games. You will be able to experience the approaching virtual world. That is, the player 50 checks the movements of the racing car 30, the tires 32, the rear wing 34, the opponent player and the like on the side mirror 41 in the actual three-dimensional space while actually checking the racing car 30 with his / her own eyes. Can be operated. Further, since the operation units operated by the player 50, that is, the steering wheel 40, the instrument panel 44, the accelerator, the brake, the shift gear, and the like can be operated while actually confirming with the user's own eyes through the video camera 10 as described above. ,
The operability is greatly improved, and the sense of reality of the game is also greatly improved. Also, in this case, if the control of the attitude control unit 24 and the sound output to the speaker 22 are changed according to the game situation, a game with a more realistic feeling can be provided.

【0078】図3には、本第1の実施の形態をフライト
シミュレータに適用した場合の仮想体験装置の一例が示
される。
FIG. 3 shows an example of a virtual experience apparatus when the first embodiment is applied to a flight simulator.

【0079】図3(a)で、コックピット45の中の右
側窓2、左側窓3には、ブルーの色をしたマット(以
下、ブルーマットと呼ぶ)が張り付けられ、このブルー
マットに前述した手法と同様の手法により、表示画像1
04がはめ込まれる。この様子が図3(b)に示され
る。ここで図3(b)には、左側窓3方向の実空間映像
100に仮想視界画像102をはめ込み、表示画像10
4が合成される場合が示されている。
In FIG. 3A, a blue mat (hereinafter referred to as a blue mat) is attached to the right window 2 and the left window 3 in the cockpit 45, and the above-described method is applied to the blue mat. Display image 1
04 is fitted. This state is shown in FIG. Here, in FIG. 3B, a virtual view image 102 is fitted to a real space image 100 in the left window 3 direction, and a display image 10 is displayed.
4 is synthesized.

【0080】この場合、表示画像104に映し出される
画像は、パイロット46と教官48とで異なったように
見えることになる。これは、仮想視界画像102は、プ
レーヤ用の空間センサ12を用いて、パイロット46、
教官48のそれぞれの視界方向を検出して演算されてい
るからである。従って、教官48には見えるがパイロッ
ト46には見えないといった映像、即ち視界方向によっ
て異なるといった映像効果を作り出すことができ、より
現実感の増した仮想世界を実現できる。この点、従来の
方式、即ち、窓に単にCRTディスプレーを設ける方
式、もしくは、ハーフミラーによりCRT画像を窓に映
し出す方式によっては、このような映像効果を作り出す
ことはできない。
In this case, the image displayed on the display image 104 looks different between the pilot 46 and the instructor 48. This is because the virtual field-of-view image 102 uses the spatial sensor 12 for the player to
This is because the direction of view of each instructor 48 is detected and calculated. Therefore, it is possible to create an image that can be seen by the instructor 48 but cannot be seen by the pilot 46, that is, an image effect that differs depending on the direction of view, and a virtual world with a more realistic feeling can be realized. In this regard, such a video effect cannot be produced by a conventional method, that is, a method of simply providing a CRT display on a window, or a method of displaying a CRT image on a window by a half mirror.

【0081】更に、本実施の形態では、パイロット46
は、映像カメラ10によりコックピット45の中にある
操作盤47、操縦桿42、教官48の顔などを見ながら
飛行機の操縦をシミュレートすることができる。従っ
て、一般に、複雑で操作しにくいといわれる飛行機の操
作盤47を、映像カメラ10により実際に自分の目で見
ながら操作できるため、操作ミスを劇的に減少させるこ
とができる。
Further, in the present embodiment, the pilot 46
Can simulate the operation of an airplane while viewing the operation panel 47, the control stick 42, the face of the instructor 48, and the like in the cockpit 45 with the video camera 10. Therefore, the operation panel 47 of an airplane, which is generally considered to be complicated and difficult to operate, can be operated by the video camera 10 while actually seeing it with its own eyes, so that operation errors can be dramatically reduced.

【0082】即ち、例えば、これらの操作盤47、操縦
桿42等をも全て画像合成により作り出す方式による
と、パイロット46にとっての操作感はいまいち現実感
に欠けるものとなる。しかも、この方式によると、パイ
ロット46にデータグローブを装着させ、このデータグ
ローブからの操作信号に基づいて、操作盤47、操縦桿
42にパイロット46がどのような操作を行ったかを検
出させる必要が生じ、システムの規模が膨大なものとな
ってしまう。そして、このようにシステムでは、その規
模が膨大であるにもかかわらず、パイロット46の操作
感はいまいちであり、パイロット46の操作ミスが多い
という欠点がある。
That is, for example, according to a system in which all of the operation panel 47, the control stick 42, and the like are formed by image synthesis, the operation feeling for the pilot 46 is poorly realistic. Moreover, according to this method, it is necessary to attach a data glove to the pilot 46, and to detect what operation the pilot 46 has performed on the operation panel 47 and the control stick 42 based on an operation signal from the data glove. As a result, the scale of the system becomes enormous. In this way, the system has a drawback that the operation feeling of the pilot 46 is not good even though the scale is enormous, and there are many operation mistakes of the pilot 46.

【0083】この点、本実施の形態では、コックピット
45は本物の飛行機のコックピットと同様の構造になっ
ているため、このような不都合は生じない。更に、本実
施の形態では、隣にいる教官48を見ることもできるた
め、教官48の指示なども的確に把握することができ、
また、操作ミスをした場合の教官48の怒った顔なども
見ることができ、より現実感の溢れるフライトシミュレ
ータを実現できることとなる。
In this regard, in this embodiment, the cockpit 45 has the same structure as the cockpit of a real airplane, so that such inconvenience does not occur. Further, in the present embodiment, since the instructor 48 next to the instructor 48 can be viewed, the instruction of the instructor 48 can be accurately grasped.
In addition, an angry face of the instructor 48 when an operation error is made can be seen, so that a more realistic flight simulator can be realized.

【0084】2.図5、図6には、ールプレイングゲ
ームに適用した仮想体験装置の一例が示される。
2. 5, FIG. 6 shows an example of a virtual experience system applied to Russia Lumpur playing game is shown.

【0085】図5に示すように、この一例は、本第1の
実施の形態のうち操作部38を、敵キャラクターとの対
戦用武器58に変更し、また、この対戦用武器58に対
戦武器用空間センサ64を取り付け、更に、仮想3次元
空間演算部72にゲーム成績演算部68を内蔵させたも
のである。
As shown in FIG. 5, this example is different from the first embodiment in that the operation unit 38 is changed to a weapon 58 for fighting against an enemy character. A space sensor 64 is attached, and a virtual three-dimensional space calculation unit 72 has a game result calculation unit 68 built-in.

【0086】このロールプレイングゲームは、図6
(a)に示すように示すような設定、即ち、対戦用武器
58、例えば剣60を所持した複数のプレーヤ50、5
2等がチームを組んで敵キャラクター66を倒すという
設定となっている。そして、それぞれのプレーヤは、本
第1の実施の形態と同様の構成の頭部装着体9を装着し
ており、画像表示部20に映し出された表示画像104
を見ながら、ゲームプレイを行っている。
This role playing game is similar to the one shown in FIG.
The setting as shown in (a), that is, a plurality of players 50, 5, each having a battle weapon 58, for example, a sword 60.
It is set so that the second and other teams form a team and defeat the enemy character 66. Each player wears the head mounted body 9 having the same configuration as that of the first embodiment, and displays the display image 104 displayed on the image display unit 20.
While watching the game play.

【0087】アトラクションルーム110は、その内側
が全てブルーの色に塗られており、これにより前述した
ようなブルーマット合成が可能となる。また、アトラク
ションルーム110の天井部には、プレーヤ50等の3
次元情報を検出する空間センサ12及び対戦用武器であ
る剣60の3次元情報を検出する空間センサ64が取り
付けられている。このアトラクションルーム110は、
プレーヤが実際にゲームプレイをするゲーム空間とほぼ
同面積の空間となっており、プレーヤ50、52等をこ
のアトラクションルーム110を自分自身で歩きなが
ら、敵キャラクター66を倒してゆくこととなる。
The inside of the attraction room 110 is entirely painted in a blue color, so that the above-mentioned blue mat composition can be performed. In addition, the ceiling of the attraction room 110 has 3
A space sensor 12 for detecting dimensional information and a space sensor 64 for detecting three-dimensional information of a sword 60 as a battle weapon are attached. This attraction room 110
The space is substantially the same area as the game space in which the player actually plays the game, and the enemy character 66 is defeated while walking the players 50, 52, and the like in the attraction room 110 by themselves.

【0088】図6(b)において、実空間映像100
は、プレーヤ50に取り付けられた映像カメラ10から
の映像であり、同図に示すように、この実空間映像10
0には、ブルーのアトラクションルーム110を背景と
して、自分自身の手54、目の前にいる第2のプレーヤ
52等が映し出される。この画像に、前記本第1の実施
の形態と同様の手法により作り出された仮想視界画像1
02を画像合成し、表示画像104を作り出している。
この場合、仮想視界画像102には、敵キャラクタ66
の他に、ゲーム空間を構成する迷路、ドア、床等も共に
表示される。
In FIG. 6B, a real space image 100
Is an image from the image camera 10 attached to the player 50. As shown in FIG.
At 0, the own hand 54, the second player 52 in front of the user, and the like are displayed with the blue attraction room 110 as a background. A virtual view image 1 created by the same method as in the first embodiment is added to this image.
02 is synthesized to produce a display image 104.
In this case, the virtual view image 102 includes the enemy character 66
In addition, mazes, doors, floors, and the like that constitute the game space are also displayed.

【0089】このような構成とすることにより、プレー
ヤ50は、表示画像104を見ながら、第2のプレーヤ
52と組みながら敵キャラクター66を倒すことが可能
となる。この場合、第2のプレーヤ52との連絡は、例
えばスピーカ22を通じて行う。また、敵キャラクタ6
6を倒したか否かの判定は、剣60に取り付けられた対
戦武器用空間センサ64により行う。
With this configuration, the player 50 can defeat the enemy character 66 while assembling with the second player 52 while watching the display image 104. In this case, communication with the second player 52 is performed through the speaker 22, for example. Also, enemy character 6
The determination as to whether or not 6 has been defeated is performed by a space weapon sensor 64 attached to the sword 60.

【0090】即ち、対戦武器用空間センサ64、64に
より、3次元情報、例えば剣60の位置及び方向を検出
する。そして、この剣60の3次元情報を基に、図5に
示す仮想3次元空間演算部72により、剣60による敵
キャラクター66への攻撃が成功したか否かが正確に演
算される。そして、成功した場合には、ゲーム空間おけ
る敵キャラクター66を消滅させる等して、これをリア
ルタイムにプレーヤ50、52等の画像表示装置20に
表示する。この結果、各プレーヤは、敵キャラクタ66
が倒れたか否かを確認でき、倒れた場合には、新たな敵
キャラクタ66を倒すべく次の迷路へと進むこととな
る。このように、レーヤ50、52等の腕前によっ
て、形成されるゲーム空間のゲーム進行を変えることが
可能となり、繰り返しプレイしても飽きることのない仮
想体験装置を提供できることとなる。
That is, the three-dimensional information, for example, the position and direction of the sword 60 are detected by the battle weapon space sensors 64, 64. Then, based on the three-dimensional information of the sword 60, the virtual three-dimensional space calculation unit 72 shown in FIG. 5 accurately calculates whether or not the sword 60 has successfully attacked the enemy character 66. Then, when the game is successful, the enemy character 66 in the game space is erased or the like, and this is displayed on the image display device 20 such as the players 50 and 52 in real time. As a result, each player sets the enemy character 66
Can be confirmed whether or not has fallen, and if it has fallen, the player advances to the next maze to defeat a new enemy character 66. Thus, the skill of such flop Reya 50,52, it is possible to change the game progress of the game space formed, and thus can provide a virtual experience system without getting tired even after repeated play.

【0091】なお、本例では、各プレーヤのゲーム成
績、即ち敵キャラクター66を倒した数などが、前記し
た対戦用空間センサ64からの3次元情報を基に、ゲー
ム成績演算部68を用いて演算され、この成績も各プレ
ーヤの画像表示装置20等に出力される。これにより、
ゲーム終了後、もしくはゲーム中にリアルタイムで、各
プレーヤのゲーム成績、チーム毎のゲーム成績などを確
認することができることになる。この結果、各プレーヤ
は、それぞれのプレーヤの腕前をリアルタイムに競い合
うことができるため、ゲームとしての面白さを飛躍的に
増大させることができることとなる。
In this example , the game score of each player, that is, the number of defeated enemy characters 66 is determined by using the game score calculation unit 68 based on the three-dimensional information from the battle space sensor 64 described above. The result is calculated, and this result is also output to the image display device 20 of each player. This allows
After the game is finished or during the game, the game results of each player, the game results of each team, and the like can be confirmed in real time. As a result, since each player can compete in real time with each player's skill, the fun as a game can be dramatically increased.

【0092】また、本例では、プレーヤ50から見える
第2のプレーヤ52の映像情報として、映像カメラ10
により撮影される実空間映像を用いたが、本例はこれに
限られるものではない。即ち、例えば第2のプレーヤ5
2については実空間映像を用いず、仮想3次元空間演算
部72により合成したキャラクタを用いて表示してもよ
い。このようにすれば、ゲームが進行して敵キャラクタ
ー66を倒すにつれて第2のプレーヤを進化させてゆく
等の映像効果を得ることができ、よりゲームの面白さを
増すことができる。
In this example , the video camera 10 is used as the video information of the second player 52 as viewed from the player 50.
Was used, but the present embodiment is not limited to this. That is, for example, the second player 5
2 may be displayed using a character synthesized by the virtual three-dimensional space calculation unit 72 without using a real space image. By doing so, it is possible to obtain a video effect such as evolving the second player as the game progresses and defeats the enemy character 66, and the fun of the game can be further increased.

【0093】このように、他のプレーヤの実空間映像を
画像合成したキャラクター画像に変更させる手法として
は以下の手法を用いることができる。例えば、プレーヤ
毎に違う色の戦闘スーツ、つまりアトラクションルーム
110の内側と違う色の戦闘スーツを装着させ、本第1
の実施の形態で説明したブルーマット方式と同様の手法
により画像合成を行う。即ち、第2のプレーヤにはレッ
ドの色の戦闘スーツを装着させ、映像カメラ10から、
このレッドの色の部分のみを前述した手法と同様の手法
により抜き出し、これを空きドットとして設定する。次
に、これに他のプレーヤに重ねて表示させたいキャラク
ター画像を重ね書きすれば、実空間映像100に、第2
のプレーヤ52のキャラクター画像が重ね書きされた画
像を得ることができる。その後、この重ね書きした画像
から、今度は、ブルーの色の部分のみを抜き出し、これ
を空きドットに設定し、これに敵キャラクター66、迷
路等が表示された仮想視界画像102を重ね書きする。
この結果、第2のプレーヤ52がキャラクター画像に変
更した表示画像104を得ることが可能となる。なお、
このように第2のプレーヤ52の画像を変更する手法と
しては、例えば前記したテクスチャマッピング手法を用
いてもよい。
As described above, the following method can be used as a method of changing the real space image of another player into a character image obtained by image synthesis. For example, a battle suit of a different color for each player, that is, a battle suit of a different color from the inside of the attraction room 110 is mounted,
Image synthesis is performed by a method similar to the blue mat method described in the embodiment. That is, the second player is equipped with a red-colored battle suit, and the video camera 10
Only the red color portion is extracted by a method similar to the above-described method, and is set as an empty dot. Next, if a character image that the user wants to be displayed in a superimposed manner on another player is overwritten, a second
An image in which the character image of the player 52 is overwritten can be obtained. After that, only the blue color portion is extracted from the overwritten image, this is set as an empty dot, and the virtual view image 102 on which the enemy character 66, the maze, and the like are displayed is overwritten.
As a result, it is possible for the second player 52 to obtain the display image 104 changed to the character image. In addition,
As a method of changing the image of the second player 52 as described above, for example, the above-described texture mapping method may be used.

【0094】また、本例では、対戦用武器58として剣
60を使用しているが、本例はこれに限られるものでは
なく、例えば光線銃等あらゆる対戦武器を用いることが
できる。そして、例えば光線銃等を用いた場合には、プ
レーヤが光線銃を撃った否かの情報が必要となるため、
この場合は、図5に示すように仮想3次元空間演算部7
2にこの情報が入力され、ゲーム空間の演算に使用され
ることとなる。
In this embodiment , the sword 60 is used as the battle weapon 58. However, this embodiment is not limited to this, and any battle weapon such as a light gun can be used. Then, for example, when using a light gun or the like, since information on whether or not the player has shot the light gun is required,
In this case, as shown in FIG.
This information is input to 2 and will be used for calculating the game space.

【0095】図7(a)には、本例をライド方式のアト
ラクション施設に適用した場合の仮想体験装置が示され
る。
FIG. 7A shows a virtual experience apparatus when the present embodiment is applied to a ride type attraction facility.

【0096】このアトラクションでは、プレーヤ50、
52は搬器116に搭乗し、この搬器116は、アトラ
クションルーム110内に敷かれたレール118上を移
動してゆく。アトラクションルーム110内には、種々
のジオラマ114が設けられ、また、アトラクションル
ーム110の内側にはブルーの色に塗られた背景マット
112が設けられている。そして、プレーヤ50、52
は、光線銃62により敵キャラクタ66を撃ち落とし
て、ゲームを競い合う。図7(b)には、この場合の画
像合成の様子が示されるが、この画像合成の方式は、本
第1の実施の形態と同様である。
In this attraction, the player 50,
52 is mounted on a carrier 116, and the carrier 116 moves on a rail 118 laid in the attraction room 110. Various dioramas 114 are provided in the attraction room 110, and a background mat 112 painted in blue is provided inside the attraction room 110. Then, the players 50 and 52
Shoots down the enemy character 66 with the light gun 62 and competes for the game. FIG. 7B shows the state of image synthesis in this case. The method of this image synthesis is the same as that of the first embodiment.

【0097】本例を、アトラクション施設に利用した場
合は、主に次のような利点がある。
When this example is used for an attraction facility, there are mainly the following advantages.

【0098】まず、これまでの通常のアトラクション施
設では、一度、アトラクション施設を建設してしまう
と、施設が大がかりで高価なため、そのアトラクション
の内容を変更することは大変困難であった。このため、
プレーヤが何度か同じゲームを繰り返しても飽きられる
ことがないような対策を講ずることが必要とされる。こ
の点、本例では、ジオラマ114を共通としながらも、
背景マット112に映し出されるゲーム空間の仮想映像
を変更させることで、容易にこれに対処することができ
る。また、前述したように、仮想3次元空間演算部72
にゲーム成績演算部68を設けることにより、更に、効
果的にこれに対処できる。
First, in conventional attraction facilities, once the attraction facility is constructed, it is very difficult to change the contents of the attraction because the facility is large and expensive. For this reason,
It is necessary to take measures to prevent the player from getting tired of playing the same game several times. In this regard, in this example , while the diorama 114 is common,
By changing the virtual image of the game space projected on the background mat 112, this can be easily dealt with. Further, as described above, the virtual three-dimensional space calculation unit 72
By providing the game result calculation unit 68 in the system, this can be dealt with more effectively.

【0099】即ち、各プレーヤが撃ち落とした敵キャラ
クター66の数をリアルタイムにゲーム成績演算部68
で演算し、この撃ち落とした敵キャラクター66の数に
応じて、つまりプレーヤの腕前に応じて各プレーヤの画
像表示装置20に表示させる仮想画像102を変化させ
る。例えば、腕前の高いプレーヤに対しては、仮想視界
画像102に映し出される敵キャラクター66の数を増
やし、また、表示する敵キャラクタ−66を強力なもの
とする。更に、仮想視界画像102上に表示させるゲー
ム空間のコースを、あらかじめ幾種類か設けておき、ゲ
ーム成績に応じて、いずれかのコースが選択されるよう
な構成としてもよい。これにより、このアトラクション
施設に乗るプレーヤは、何度乗っても違うゲームの仮想
体験をすることができ、繰り返しプレーしても飽きるこ
とのないアトラクション施設を提供できることとなる。
That is, the number of enemy characters 66 shot down by each player is determined in real time by the game score calculation section 68.
The virtual image 102 displayed on the image display device 20 of each player is changed according to the number of the enemy characters 66 shot down, that is, according to the skill of the player. For example, for a player with a high level of skill, the number of enemy characters 66 displayed in the virtual view image 102 is increased, and the displayed enemy character 66 is made strong. Further, a configuration may be adopted in which several kinds of courses of the game space to be displayed on the virtual view image 102 are provided in advance, and one of the courses is selected according to the game result. As a result, a player riding this attraction facility can experience a virtual experience of a different game no matter how many times he or she rides, and can provide an attraction facility that does not get tired even after repeated playing.

【0100】本例の、もう一つの利点は、このように飽
きのこないアトラクション施設を実現できるにも関わら
ず、アトラクションルーム内のジオラマ114等につい
ては実空間画像を用いることができるため、より現実感
溢れるアトラクションを実現できることにある。
Another advantage of the present embodiment is that, despite the fact that the attraction facility that does not get tired as described above can be realized, the real space image can be used for the diorama 114 and the like in the attraction room. The ability to create exciting attractions.

【0101】例えば、搬器116がいわゆるジェットコ
ースタータイプのものであった場合、プレーヤから見え
るジオラマ114が実空間映像である方のが、プレーヤ
にとってよりスリリングで、スピード感溢れるアトラク
ションを実現できる。即ち、ユーザーから見える視界映
像が全て画像合成により作り出したものであると、ジェ
ットコースターが本来もつスピード、緊張感、迫力を十
分に再現できないからである。この点、本例では、隣に
いる他のプレーヤの顔も実空間映像として見ることがで
き、よりジエットコースターが本来もつ機能を発揮させ
ることができる。
For example, if the transporter 116 is of a so-called roller coaster type, an attraction full of thrilling and speed can be realized when the diorama 114 seen from the player is a real space image. That is, if all the visual images viewed by the user are created by image synthesis, the inherent speed, tension and power of the roller coaster cannot be sufficiently reproduced. In this regard, in this example , the face of another player next to the player can also be viewed as a real space image, and the functions inherent to the jet coaster can be exhibited more.

【0102】また、ジオラマ114が、プレーヤの手に
触れるものである場合も、その映像は実空間映像である
場合の方が、より臨場感溢れるアトラクションを提供で
きる。この点については、例えば、図8に示すような
を適用したアトラクションに示される。
Also, when the diorama 114 touches the player's hand, it is possible to provide a more realistic attraction when the video is a real space video. Regarding this point, for example, a book as shown in FIG.
Examples are shown in the attractions that apply.

【0103】図8に示すアトラクションは、宇宙船13
4による飛行及び戦闘を疑似的に体験できるアトラクシ
ョンである。
The attraction shown in FIG.
This is an attraction that allows you to experience flying and fighting in a simulated manner.

【0104】このアトラクションでは、図8(a)に示
すように、複数のプレーヤが、宇宙船134の宇宙船キ
ャビン120内に乗り込む。宇宙船キャビン120内
は、本物の宇宙船内に極めて似せて作られており、例え
ば操縦席、戦闘席等が設けられている。この場合、特に
プレーヤが直接に触る操縦桿132、操作盤130は、
戦闘砲144は、極めて本物に似せて精巧に作られてい
る。
In this attraction, as shown in FIG. 8A, a plurality of players get into the spacecraft cabin 120 of the spacecraft 134. The spacecraft cabin 120 is made very similar to a real spacecraft, and is provided with, for example, a cockpit and a combat seat. In this case, in particular, the control stick 132 and the operation panel 130 that the player directly touches are
The artillery 144 is elaborately made to look very real.

【0105】宇宙船キャビン120内に乗り込んだプレ
ーヤは、それぞれの役割に従って、操縦士、副操縦士、
射撃手として操縦席、戦闘席等に配置される。そして、
操縦席に配置された操縦士146、副操縦士147は、
操縦席用窓122に前述したブルーマット方式により映
し出された隕石140等を避けながら操縦桿132、操
作盤130等により宇宙船134の操縦を行う。この場
合、本例では、前述したように各プレーヤに空間センサ
12を取り付け、各プレーヤ毎に視界方向を演算し、こ
の演算により得られた視界画像を画像表示装置20に表
示している。この結果、宇宙船134に近づいてくる隕
石140の見え方が、操縦士146、副操縦士147、
射撃手148とで異なって見えるように設定できるた
め、より臨場感、現実感溢れるアトラクションを提供で
きることとなる。更に、操縦士146、副操縦士147
は、本物に極めて似せて作られた操縦桿132、操作盤
130を操作しながら宇宙船を操縦できるため、本物の
宇宙船を操縦しているかのような感覚でプレイできるこ
ととなる。
The players aboard the spacecraft cabin 120, according to their roles, the pilot, the co-pilot,
It is placed in the cockpit, combat seat, etc. as a shooter. And
The pilot 146 and the co-pilot 147 arranged in the cockpit,
The spacecraft 134 is controlled by the control column 132 and the control panel 130 while avoiding the meteorite 140 and the like projected on the cockpit window 122 by the blue mat method described above. In this case, in this example , as described above, the space sensor 12 is attached to each player, the view direction is calculated for each player, and the view image obtained by this calculation is displayed on the image display device 20. As a result, the appearance of the meteorite 140 approaching the spacecraft 134 is determined by the pilot 146, the co-pilot 147,
Since it can be set to look different from the shooter 148, it is possible to provide an attraction that is more realistic and realistic. Further, the pilot 146 and the co-pilot 147
Can operate the spacecraft while operating the control stick 132 and the operation panel 130 which are made very similar to the real spacecraft, so that the player can play as if he were operating a real spacecraft.

【0106】戦闘席に配置された射撃手148、149
は、対戦用武器である戦闘砲144により、左側窓12
4、右側窓125にブルーマット方式により映し出され
る宇宙船142を撃ち落とす。この場合のゲーム成績
は、ゲーム成績演算部68により演算されて、ゲーム中
にリアルタイムに、もしくはゲーム終了後に全員の乗組
員のゲーム結果として表示されることになる。
The shooters 148, 149 arranged in the battle seat
Is operated by a battle weapon 144 which is a battle weapon.
4. The spacecraft 142 projected on the right window 125 by the blue mat method is shot down. The game score in this case is calculated by the game score calculation unit 68, and is displayed in real time during the game or as a game result of all the crew members after the game is over.

【0107】なお、図8(b)に示すように、プレーヤ
が乗り込む宇宙船134は、油圧等を用いた姿勢制御部
138により、ゲーム進行及びプレーヤの操作信号に応
じて姿勢、加速Gが制御され、より現実感が増すような
構成となっている。
As shown in FIG. 8 (b), the attitude and acceleration G of the spacecraft 134 on which the player rides are controlled by the attitude control unit 138 using hydraulic pressure and the like in accordance with the game progress and the player's operation signals. Thus, the configuration is such that the sense of reality is further increased.

【0108】このように、本例では、それぞれのプレー
ヤが異なる役割について、極めて本物に近い宇宙船内で
一体となってプレーできるため、飽きのこない臨場感溢
れるアトラクションを提供できることとなる。
As described above, in this example , since each player can play together in a very near-real spacecraft for different roles, it is possible to provide an attraction full of realism without getting tired.

【0109】なお、以上に説明した本例では画像表示部
20と画像合成部(図5における仮想視界画像演算装置
70、表示画像合成装置80等)が別々の場所に配置さ
れ、接続線18によりこれを接続する構成としていた
が、本例はこれに限らず、画像合成部も含めて全て画像
表示部20に内蔵させる構成としても良いし、図9に示
すように、双方向無線機160を用いてこれを接続する
構成としてもよい。
In the present embodiment described above, the image display unit 20 and the image synthesizing unit (the virtual view image arithmetic unit 70, the display image synthesizing unit 80, etc. in FIG. 5) are arranged at different places, Although this configuration is used for connection, the present embodiment is not limited to this, and it is also possible to adopt a configuration in which the entire image display unit 20 including the image synthesizing unit is incorporated. Alternatively, as shown in FIG. It may be configured to be connected using this.

【0110】この歩行型アトラクションは、図9
(a)、(b)に示すように頭部装着体9、双方向無線
機160、光線銃62を装備したプレーヤ50が、迷路
150内を自分で進みながら敵キャラクター66を倒す
という設定のアトラクションである。このように迷路1
50内を自ら進んで行くようなアトラクションでは、プ
レーヤの動きに、より自由度をもたせることが望まし
い。従って、本例では、画像合成部との接続を、双方向
無線機160により行なっている。なお、この場合の双
方向無線の方法としては、例えば赤外線等を用いても構
わない。
This walking type attraction is shown in FIG.
(A) As shown in (b), an attraction in which the player 50 equipped with the head-mounted body 9, the two-way radio 160, and the light gun 62 defeats the enemy character 66 while traveling in the maze 150 by himself. It is. Maze 1 like this
In an attraction in which the player goes inside 50, it is desirable that the player's movement has more freedom. Therefore, in this example , the connection with the image synthesizing unit is performed by the two-way wireless device 160. In this case, as the two-way wireless method, for example, infrared rays or the like may be used.

【0111】ここで、迷路150には、窓152、絵1
54、エレベータ156、ドア158などが設けられて
いる。そして、窓152には全面にブルーマットが敷か
れ、絵154には、敵キャラクタ−66が現れる部分の
みにブルーマットが敷かれている。
Here, the maze 150 has a window 152, a picture 1
54, an elevator 156, a door 158, and the like. A blue mat is laid on the entire surface of the window 152, and a blue mat is laid on only the portion where the enemy character 66 appears in the picture 154.

【0112】また、エレベータ156、ドア158は、
その内部がブルーに塗られている。これにより、プレー
ヤ50がエレベータボタンを押してエレベータを開けた
際に、もしくは、ドアのノブを回してドアを開けた際
に、その中から敵キャラクター66が飛び出してくるよ
うな構成とすることが可能となり、おばけ屋敷のような
ゲームのアトラクションに最適なものとなる。なお、こ
の場合も本例では、エレベータのボタン、ドアのノブ等
は本物のものを用いており、プレーヤ50もその実映像
を見ながら操作できるため、より現実感溢れる仮想世界
を楽しむことができることとなる。
The elevator 156 and the door 158 are
The inside is painted blue. Thus, when the player 50 presses the elevator button to open the elevator or turns the door knob to open the door, the configuration is such that the enemy character 66 jumps out of the door. This makes it ideal for attractions in games such as ghost houses. In this case also, in this example , the elevator buttons, door knobs, and the like are genuine, and the player 50 can also operate while watching the real image, so that a more realistic virtual world can be enjoyed. Become.

【0113】3.図10、図11には、ルフに適用し
た仮想体験装置の一例が示される。なお、ここでは仮に
ゴルフに適用した場合について示したが、本実施の形態
はこれに限定されず種々のスポーツに適用できる。
3. Figure 10, Figure 11 is an example of a virtual experience system applied to Gore Ruch is shown. Although the case where the present invention is applied to golf is shown here, the present embodiment is not limited to this and can be applied to various sports.

【0114】図10に示すように、本例は、本第1の実
施の形態のうち操作部38を、ボール映像カメラ84、
86及び移動体検出装置88、90に変更したものであ
り、主にボールを用いた球技に好適ある。
As shown in FIG. 10, in the present embodiment, the operation unit 38 of the first embodiment is
86 and is obtained by changing the moving object detection apparatus 88 and 90, it is suitable for ball game with a mainly ball.

【0115】図11(a)には、本例を適用したインド
アゴルフ示される。本例は、プレーヤ50が、プレイ
ルーム162内において、本物のゴルフとほぼ同様の感
覚で仮想世界を体験することができる仮想体験装置に関
するものである。
[0115] FIG. 11 (a), indoor golf is shown according to the present embodiment. This example relates to a virtual experience apparatus that allows the player 50 to experience a virtual world in the play room 162 with almost the same feeling as real golf.

【0116】図11(a)において、プレイルーム16
2内は全てブルーの色に塗られており、プレーヤ50
は、第1の実施の形態と同様の構成の頭部装着体9を装
着している。そして、プレーヤ50は、本物のゴルフコ
ースにいるような感覚で、本物のゴルフクラブ164を
用いて、本物のゴルフボール166のショットを行う。
In FIG. 11A, the play room 16
2 are all painted in blue and the player 50
Is equipped with a head-mounted body 9 having the same configuration as that of the first embodiment. Then, the player 50 makes a shot of the real golf ball 166 using the real golf club 164 as if he were at a real golf course.

【0117】この場合、プレイルーム162内には、仮
想3次元空間演算部72により作り出されたゴルフコー
スの画像が画像表示装置20を介して映し出され、プレ
ーヤ50は、あたかも本物のゴルフコースにいるような
感覚を持つことができる。そして、プレーヤ50が前を
向くと、その視線方向には、図11(b)に示すよう
に、ゴルフコースのグリーン162を示した仮想視界画
像102が映し出されている。
In this case, in the play room 162, an image of the golf course created by the virtual three-dimensional space calculation unit 72 is displayed via the image display device 20, and the player 50 is as if the player is at a real golf course. You can have a feeling like that. When the player 50 faces forward, a virtual view image 102 showing a green 162 of the golf course is projected in the direction of the line of sight, as shown in FIG. 11B.

【0118】そして、プレーヤ50がゴルフボール16
6のショットを行うと、ショットされたゴルフボール1
66は、ボール映像カメラ84、86により撮影され
る。そしてこの撮影映像に基づいて移動体検出装置8
8、90によりゴルフボール166の重心座標が演算さ
れ、このデータに基づき、その後のゴルフボール166
の軌道を推定して演算する。次に、仮想3次元空間演算
部72にて、この推定されたゴルフボール166の軌道
データに基づき、仮想世界に設定されたゴルフコース上
にゴルフボールの軌道を描き、これを実空間映像100
と画像合成して画像表示装置20に画像表示する。これ
によりプレーヤ50は、自分のショットしたゴルフボー
ル166がグリーン162に向かって飛んでゆく様子
が、表示画像104により見ることができることとな
る。
The player 50 moves the golf ball 16
When the shot of No. 6 is performed, the shot golf ball 1
66 is photographed by the ball video cameras 84 and 86. Then, based on the photographed image, the moving object detecting device 8
The coordinates of the center of gravity of the golf ball 166 are calculated by using the data 8 and 90.
Is calculated by estimating the trajectory of. Next, the virtual three-dimensional space calculation unit 72 draws the trajectory of the golf ball on the golf course set in the virtual world based on the estimated trajectory data of the golf ball 166,
And image display on the image display device 20. This allows the player 50 to see the golf ball 166 shot by the player 50 flying toward the green 162 on the display image 104.

【0119】次に、ゴルフボール166の移動体検出の
手法について説明する。
Next, a method of detecting a moving object of the golf ball 166 will be described.

【0120】ボール映像カメラ86、89は、ゴルフボ
ール166を連続撮影するものであり、図11(a)に
示すように、プレイルーム162内の、異なる位置、異
なる撮影アングルにて設定される。そしてこの撮影デー
タは、移動体座標検出部88、90内のデータ抽出部9
2、94にコマ送りフレームデータとして入力される。
データ抽出部92、94では、背景処理によりボールの
撮影データのみが抽出される。即ち、ゴルフボール16
6の映っていないフレームデータと映っているフレーム
データとの差分を求め、これをフレームバッファと呼ば
れる画像メモリに重ね書きしてゆく。これにより、結果
としてゴルフボール166の映像のみが映し出された画
像データを得ることができる。
The ball video cameras 86 and 89 are for continuously photographing the golf ball 166, and are set at different positions and different photographing angles in the play room 162 as shown in FIG. The photographing data is stored in the data extracting unit 9 in the moving body coordinate detecting units 88 and 90.
2 and 94 are input as frame advance frame data.
In the data extracting units 92 and 94, only the photographing data of the ball is extracted by the background processing. That is, the golf ball 16
The difference between the frame data not shown and the frame data shown in No. 6 is obtained, and this is overwritten in an image memory called a frame buffer. As a result, image data in which only the image of the golf ball 166 is projected can be obtained.

【0121】次に、得られたこの画像データから、座標
検出部96、98において、ゴルフボール166の位
置、例えば重心位置の2次元座標を求められ、仮想3次
元空間演算部72に出力される。
Next, from the obtained image data, two-dimensional coordinates of the position of the golf ball 166, for example, the position of the center of gravity, are obtained in the coordinate detectors 96 and 98, and output to the virtual three-dimensional space calculator 72. .

【0122】仮想3次元空間演算部72では、移動体検
出装置88、90で検出された、ゴルフボール166の
2つの2次元座標から、仮想3次元空間内での3次元座
標を求める。即ち、仮想3次元空間演算部72には、ボ
ール映像カメラ84、86の仮想3次元空間内での設定
位置、設定アングルがあらかじめ記憶されており、この
記憶データと、検出された2つの2次元座標から、仮想
3次元空間内での3次元座標を求めることが可能とな
る。そして、この求められた3次元座標から、仮想3次
元空間でのゴルフボール166の軌道を、例えばスプラ
イン補間等を用いて演算し、ゴルフコースの背景データ
と共に、視界画像演算部76に出力する。
The virtual three-dimensional space calculation unit 72 obtains three-dimensional coordinates in the virtual three-dimensional space from the two two-dimensional coordinates of the golf ball 166 detected by the moving object detection devices 88 and 90. That is, the virtual three-dimensional space calculation unit 72 previously stores the set positions and set angles of the ball video cameras 84 and 86 in the virtual three-dimensional space, and stores the stored data and the two detected two-dimensional data. From the coordinates, three-dimensional coordinates in a virtual three-dimensional space can be obtained. Then, from the obtained three-dimensional coordinates, the trajectory of the golf ball 166 in the virtual three-dimensional space is calculated using, for example, spline interpolation or the like, and is output to the view image calculation unit 76 together with the background data of the golf course.

【0123】なお、ゴルフボール166の軌道の推定の
手法としては、上記したものに限らず種々の手法を用い
ることができる。例えば、打った方向と、インパクトの
時の初速からこれを推定してもよいし、打った瞬間の音
等のよりこれを推定してもよい。
Note that the method of estimating the trajectory of the golf ball 166 is not limited to the above, and various methods can be used. For example, this may be estimated from the striking direction and the initial speed at the time of impact, or may be estimated from the sound at the moment of striking.

【0124】また、例えばプレーヤ50の切り替え信号
により、プレーヤ50から見た映像のみならず、例えば
グリーン162から見た映像を画像表示装置20に表示
することも可能である。即ち、これを行うには、視界画
像演算部76で視点変換を行う際に、視点位置をグリー
ン162上に設定すればよい。このようにすれば、プレ
ーヤ50は、実際にゴルフボール166がグリーン16
2に飛んで行く様子と、ゴルフボール166がグリーン
162に飛んで来る様子を同時に見ることができ、現実
のゴルフプレイでは得られないプレイ感覚を楽しむこと
ができることとなる。
For example, not only the image viewed from the player 50 but also the image viewed from the green 162 can be displayed on the image display device 20 by, for example, a switching signal of the player 50. That is, to perform this, the viewpoint position may be set on the green 162 when the viewpoint image calculation unit 76 performs the viewpoint conversion. By doing so, the player 50 actually makes the golf ball 166
2 and the golf ball 166 flying on the green 162 can be seen at the same time, and it is possible to enjoy a sense of play that cannot be obtained in actual golf play.

【0125】以上の構成の本例によれば、プレーヤ50
は、プレイルーム162内にて、実際にゴルフコースに
いるような感覚でゴルフを楽しむことができる。特に、
この種のボールを用いた競技、例えばゴルフにおいて
は、クラブ164によりゴルフボール166をショット
した瞬間をプレーヤ50が正確に認識する必要がある。
即ち、このショットした瞬間のクラブ164、ゴルフボ
ール166を、例えば画像合成により作り出したので
は、プレイ感覚が著しく悪化し、現実感も減退してしま
い、更に、正確なスポーツプレーを再現することができ
ない。
According to the present example having the above configuration, the player 50
Can enjoy golf in the play room 162 as if they were actually at a golf course. In particular,
In a game using such a ball, for example, golf, the player 50 needs to accurately recognize the moment when the golf ball 166 is shot by the club 164.
That is, if the club 164 and the golf ball 166 at the moment of this shot are created by, for example, image synthesis, the sense of play is significantly deteriorated, the sense of reality is reduced, and moreover, accurate sports play can be reproduced. Can not.

【0126】これに対して、本例では、ゴルフクラブ1
64、ゴルフボール166、自分のスイング等を、映像
カメラ10を通じて得られた実空間映像により見ること
ができるため、このような問題が生じず、より正確で、
現実感溢れるゴルフプレーを楽しむことができることと
なる。従って、例えば、球技練習用の仮想体験装置とし
て最適なものとなる。
On the other hand, in this example , the golf club 1
64, the golf ball 166, the player's own swing, etc., can be seen from the real space image obtained through the image camera 10, so that such a problem does not occur,
It is possible to enjoy a realistic golf play. Therefore, for example, the virtual experience device for ball game practice is optimal.

【0127】なお、本発明は上記実施の形態に限定され
るものではなく、本発明の要旨の範囲内において種々の
変形実施が可能である。
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the present invention.

【0128】例えば、本実施の形態においては、仮想視
界画像と実空間映像とを画像合成する手法としてブルー
マット方式を用いたが、本発明における画像合成はこれ
に限られるものではない。例えばブルー以外の色を用い
たもの、多数の色を用いてこれを複合させて画像合成す
るもの、テクスチャマッピングを用いたもの等、種々の
手法を使用することができる。
For example, in the present embodiment, the blue mat method is used as a method of synthesizing the virtual visual field image and the real space image, but the image synthesis in the present invention is not limited to this. For example, various methods can be used, such as a method using a color other than blue, a method using multiple colors and combining them to form an image, and a method using texture mapping.

【0129】また、本発明が適用される仮想体験装置
も、本実施の形態に示したものに限らず種々の体験装置
に適用することができる。例えば、ヘリコプターのフラ
イトシミュレータ適用することが可能である。
Further, the virtual experience device to which the present invention is applied is not limited to the one shown in the present embodiment, but can be applied to various experience devices. For example, it can be applied to a helicopter flight simulator.

【0130】[0130]

【図面の簡単な説明】[Brief description of the drawings]

【図1】1の実施の形態の構成を示すブロック図であ
る。
1 is a block diagram showing a configuration of a first embodiment.

【図2】第1の実施の形態をドライビングゲームに適用
した場合について示す概略説明図である。
FIG. 2 is a schematic explanatory diagram showing a case where the first embodiment is applied to a driving game.

【図3】第1の実施の形態をフライトシミュレータに適
用した場合について示す概略説明図である。
FIG. 3 is a schematic explanatory diagram showing a case where the first embodiment is applied to a flight simulator.

【図4】頭部装着体の形状について示す概略説明図であ
る。
FIG. 4 is a schematic explanatory view showing a shape of a head mounted body.

【図5】ロック図である。FIG. 5 is a block diagram.

【図6】ールプレイングゲームに適用した場合につい
て示す概略説明図である。
6 is a schematic explanatory diagram showing a case of application to b Lumpur playing game.

【図7】イド方式のアトラクションに適用した場合に
ついて示す概略説明図である。
7 is a schematic explanatory diagram showing a case of applying the attraction overrided scheme.

【図8】宙船体験のアトラクションに適用した場合に
ついて示す概略説明図である。
8 is a schematic explanatory diagram showing a case of applying the attraction universe ship experience.

【図9】行型アトラクションに適用した場合について
示す概略説明図である。
9 is a schematic explanatory diagram showing a case of applying the walking type attraction.

【図10】ロック図である。FIG. 10 is a block diagram.

【図11】ルフ体験装置に適用した場合について示す
概略説明図である。
11 is a schematic explanatory diagram showing a case of applying the rubber Ruff experience device.

【図12】本実施の形態における座標変換について説明
するための概略説明図である。
FIG. 12 is a schematic explanatory diagram for describing coordinate conversion in the present embodiment.

【図13】表示画像合成装置の構成の一例を示す概略ブ
ロック図である。
FIG. 13 is a schematic block diagram illustrating an example of a configuration of a display image composition device.

【図14】サイドミラーに画像を表示する手法について
説明するための概略説明図である。
FIG. 14 is a schematic explanatory diagram for describing a method of displaying an image on a side mirror.

【図15】テクスチャマッピング手法により、相手プレ
ーヤの顔に実空間映像をはりつける手法について説明す
る概略説明図である。
FIG. 15 is a schematic explanatory diagram illustrating a method of attaching a real space image to a face of an opponent player by a texture mapping method.

【図16】テクスチャマッピング手法を実現するための
構成の一例を示す概略ブロック図である。
FIG. 16 is a schematic block diagram illustrating an example of a configuration for realizing a texture mapping method.

【符号の説明】[Explanation of symbols]

9 頭部装着体 10 映像カメラ 12 空間センサ 20 画像表示装置 38 操作部 50 プレーヤ 58 対戦用武器 64 対戦武器用センサ 68 ゲーム成績演算部 70 仮想視界画像演算装置 72 仮想3次元空間演算部 76 視界画像演算部 80 表示画像合成装置 84、86 ボール映像カメラ 88、90 移動体検出装置 100 実空間映像 102 仮想視界画像 104 表示画像 Reference Signs List 9 head-mounted body 10 video camera 12 space sensor 20 image display device 38 operation unit 50 player 58 battle weapon 64 battle weapon sensor 68 game performance calculation unit 70 virtual view image calculation unit 72 virtual 3D space calculation unit 76 view image Calculation unit 80 Display image synthesizing device 84, 86 Ball image camera 88, 90 Moving object detecting device 100 Real space image 102 Virtual field-of-view image 104 Display image

フロントページの続き (56)参考文献 特開 平3−186287(JP,A) 特開 昭63−318982(JP,A) 特開 平3−275092(JP,A) 特開 平2−86285(JP,A) 特開 平4−241885(JP,A) Michael Bajuraほか, Marging Virtual Ob jects with the Rea l World: Seeing Ul trasound Imagery w ithin the Patient, Computer Graphics, Vol.26,No.2,p.203−210 (58)調査した分野(Int.Cl.7,DB名) A63F 13/00 - 13/12 A63G 31/04 G09B 9/00 G06T 15/00 Continuation of the front page (56) References JP-A-3-186287 (JP, A) JP-A-63-131882 (JP, A) JP-A-3-275092 (JP, A) JP-A-2-86285 (JP) , A) JP-A-4-241885 (JP, A) Michael Bajura, et al., "Maging Virtual Obj ects with the Real World": Seeing Ultrasound Imaging. 26, No. 2, p. 203-210 (58) Field surveyed (Int.Cl. 7 , DB name) A63F 13/00-13/12 A63G 31/04 G09B 9/00 G06T 15/00

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 操作者の視界方向に向けて配置された第
1の撮像手段で撮像されたミラー部材に映る画像を合成
する装置であって、 実3次元空間と重ね合わせて設定されるゲーム空間を表
す仮想3次元空間を演算する仮想3次元空間演算手段
と、前記第1の撮像手段で撮像された ミラー部材に映る画像
として、前記仮想3次元空間を前記実3次元空間に配置
されたミラー部材から見た仮想視界画像を画像演算する
視界画像演算手段と、前記実3次元空間に配置されたミラー部材から見た実空
間映像を撮像する第2の撮像手段と、 前記仮想視界画像と前記第2の撮像手段で撮像される実
空間映像とを表示画像として画像合成し、前記撮像され
たミラー部材に映る画像を生成する表示画像合成手段
と、 を含むことを特徴とする画像合成装置。
[Claim 1] A disposed toward the viewing direction of the operator
A virtual three-dimensional space calculating means for calculating a virtual three-dimensional space representing a game space set by superimposing the real three-dimensional space on the mirror member captured by the first imaging means; And arranging the virtual three-dimensional space in the real three-dimensional space as an image reflected on a mirror member captured by the first imaging unit.
A field image calculation means for image operations of the virtual field image as viewed from the mirror member which is, actual air as viewed from the mirror member disposed in said real three dimensional space
A second imaging unit that captures an interim video, and an actual image that is captured by the virtual view image and the second imaging unit.
An image is synthesized with the spatial image as a display image,
Display image synthesizing means for generating an image reflected on a mirror member
And an image synthesizing apparatus.
【請求項2】 請求項1において前記実3次元空間に配置された ミラー部材には、ブルー
又はブルー以外の画像合成用の色が施され、 前記表示画像合成手段は、前記第1の撮像手段で撮像されたミラー部材の 実空間映
像の色データから、前記仮想視界画像を合成する該実空
間映像の空きドットを特定し、該空きドットに前記第2
の撮像手段で撮像される実空間映像と前記仮想視界画像
を画像合成することを特徴とする画像合成装置。
2. The method of claim 1, the mirror member disposed in the real three-dimensional space, the color of the image synthesis other than blue or blue is applied, the display image synthesis means, the first imaging the color data of the real space image of the imaged mirror member with means, said actual sky synthesizing the virtual field image
The empty dot of the interim image is specified, and the empty dot is assigned to the second dot.
Real space video image captured by the image capturing means and the virtual view image
And an image synthesizing apparatus.
【請求項3】 請求項1、2のいずれかの画像合成装置
を含むことを特徴とする仮想体験装置。
3. A virtual experience device comprising the image synthesizing device according to claim 1 .
【請求項4】 サイドミラー又はバックミラーとして形
成されるミラー部材が配置され、操作者が搭乗する搭乗
体と、 前記搭乗体に設けられ操作者が操作信号を入力する操作
部と、 操作者の視野を覆うように装着される画像表示手段と、 操作者に装着され、操作者から見える実空間映像を撮像
する第1の撮像手段と、 前記ミラー部材から見た実空間映像を撮像する第2の
像手段と、 操作者の実3次元空間における3次元情報を検出する操
作者用空間センサと、 前記操作部からの操作信号と前記操作者用空間センサか
らの検出信号とに基づいて、前記実3次元空間と重ね合
わせて設定される仮想3次元空間を演算し、仮想3次元
空間における操作者から見える仮想視界画像を画像演算
する演算手段と、 前記仮想視界画像と前記第2の撮像手段で撮像される実
空間映像とを表示画像として画像合成する表示画像合成
手段と、 を含み、 前記演算手段は、前記実3次元空間に配置された ミラー部材から見える仮
想視界画像を画像演算する手段を含み、 前記表示画像合成手段は、 前記仮想視界画像と前記第2の撮像手段で撮像される実
空間映像とを表示画像として画像合成し、前記第1の撮
像手段で撮像されたミラー部材に映る後方画像を生成す
る手段と、 を含むことを特徴とする仮想体験装置。
And a mirror member formed as a side mirror or a rearview mirror is arranged, and a rider on which an operator rides; an operation unit provided on the rider, the operator inputs an operation signal; image display means mounted so as to cover the field of view, it is mounted on the operator, a first imaging means for imaging the real space image seen from the operator, a second imaging the real space image as viewed from the mirror member An operator's space sensor for detecting three-dimensional information of the operator in a real three-dimensional space; an operation signal from the operation unit; and a detection signal from the operator's space sensor. Calculating means for calculating a virtual three-dimensional space set by superimposing the virtual three-dimensional space on the basis of the virtual three-dimensional space, and performing image calculation of a virtual view image seen by an operator in the virtual three-dimensional space; The second shooting Anda display image combining means for image synthesis and real space image to be captured as a display image in an image unit, said computing means temporary <br/> within viewing from the mirror member disposed in said real three dimensional space comprising means for image operations of the virtual field image, the display image synthesis means, the image synthesizing a real space image captured by the said the virtual field image the second image pickup device as a display image, shooting the first
Means for generating a rear image reflected on a mirror member captured by the image means.
【請求項5】 請求項4において、 前記実3次元空間に配置されたミラー部材には、ブルー
又はブルー以外の画像合成用の色が施され、 前記表示画像合成手段は、 前記第1の撮像手段で撮像されたミラー部材の実空間映
像の色データから、前記仮想視界画像を合成する該実空
間映像の空きドットを特定し、該空きドットに前記第2
の撮像手段で撮像される実空間映像と前記仮想視界画像
とを画像合成することを特徴とする仮想体験装置。
5. The mirror member according to claim 4, wherein the mirror member arranged in the real three-dimensional space has a blue color.
Alternatively, a color for image synthesis other than blue is applied, and the display image synthesis unit displays a real space image of the mirror member imaged by the first imaging unit.
The real sky which synthesizes the virtual view image from the color data of the image
The empty dot of the interim image is specified, and the empty dot is assigned to the second dot.
Real space video image captured by the image capturing means and the virtual view image
A virtual experience device characterized by combining images with the image.
JP11785598A 1998-04-13 1998-04-13 Image synthesis device and virtual experience device using the same Expired - Fee Related JP3273017B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11785598A JP3273017B2 (en) 1998-04-13 1998-04-13 Image synthesis device and virtual experience device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11785598A JP3273017B2 (en) 1998-04-13 1998-04-13 Image synthesis device and virtual experience device using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP4350608A Division JPH06176131A (en) 1992-12-03 1992-12-03 Picture synthesis device and virtual reality device using the same

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP32663399A Division JP3273038B2 (en) 1999-11-17 1999-11-17 Virtual experience type game device
JP2001337834A Division JP2002224434A (en) 2001-11-02 2001-11-02 Image composing device, virtual experience device, and image composing method

Publications (2)

Publication Number Publication Date
JPH10277261A JPH10277261A (en) 1998-10-20
JP3273017B2 true JP3273017B2 (en) 2002-04-08

Family

ID=14721971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11785598A Expired - Fee Related JP3273017B2 (en) 1998-04-13 1998-04-13 Image synthesis device and virtual experience device using the same

Country Status (1)

Country Link
JP (1) JP3273017B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001041102A1 (en) * 1999-11-30 2001-06-07 Sanyo Electric Co., Ltd. Experience simulating device and method
JP2001300064A (en) * 2000-04-24 2001-10-30 Heiwa Corp Game machine
JP3952870B2 (en) * 2002-06-12 2007-08-01 株式会社東芝 Audio transmission apparatus, audio transmission method and program
US20090155747A1 (en) * 2007-12-14 2009-06-18 Honeywell International Inc. Sniper Training System
GB2551306A (en) * 2016-03-01 2017-12-20 Figment Productions Ltd A seat

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Michael Bajuraほか,Marging Virtual Objects with the Real World: Seeing Ultrasound Imagery within the Patient,Computer Graphics,Vol.26,No.2,p.203−210

Also Published As

Publication number Publication date
JPH10277261A (en) 1998-10-20

Similar Documents

Publication Publication Date Title
JPH06176131A (en) Picture synthesis device and virtual reality device using the same
CN109478340B (en) Simulation system, processing method, and information storage medium
JP2799126B2 (en) Video game device and game input device
CN109478345B (en) Simulation system, processing method, and information storage medium
JP3273038B2 (en) Virtual experience type game device
JP6719308B2 (en) Simulation system and program
US20190105572A1 (en) Drivable vehicle augmented reality game
US20060223637A1 (en) Video game system combining gaming simulation with remote robot control and remote robot feedback
US20030232649A1 (en) Gaming system and method
JP6761340B2 (en) Simulation system and program
JP2000033184A (en) Whole body action input type game and event device
CN110769906B (en) Simulation system, image processing method, and information storage medium
JPH08320949A (en) Picture processor and game device using the processor
JP4282112B2 (en) Virtual object control method, virtual object control apparatus, and recording medium
JP3273017B2 (en) Image synthesis device and virtual experience device using the same
JP2002224434A (en) Image composing device, virtual experience device, and image composing method
CN112104857A (en) Image generation system, image generation method, and information storage medium
JP2888723B2 (en) Three-dimensional game device and image composition method
JPH113437A (en) Image synthesizer and image synthesizing method
JPH0724141A (en) Game device using head-mounted body
JP2888830B2 (en) Three-dimensional game device and image composition method
JP2018171309A (en) Simulation system and program
JP7194495B2 (en) Program, computer system and game execution control method
JP3686078B2 (en) GAME DEVICE AND GAME IMAGE SYNTHESIS METHOD
US20210339121A1 (en) Simulouz

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020108

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080125

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090125

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090125

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees