JPH113437A - Image synthesizer and image synthesizing method - Google Patents

Image synthesizer and image synthesizing method

Info

Publication number
JPH113437A
JPH113437A JP10117854A JP11785498A JPH113437A JP H113437 A JPH113437 A JP H113437A JP 10117854 A JP10117854 A JP 10117854A JP 11785498 A JP11785498 A JP 11785498A JP H113437 A JPH113437 A JP H113437A
Authority
JP
Japan
Prior art keywords
image
player
virtual
texture
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10117854A
Other languages
Japanese (ja)
Inventor
Takashi Iwase
隆 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP10117854A priority Critical patent/JPH113437A/en
Publication of JPH113437A publication Critical patent/JPH113437A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image synthesizer and an image synthesizing method which synthesize an image that has high reality and rich diversity. SOLUTION: An image that is photographed by a video camera 26 is written as a texture in a texture storing part 308, and the texture that is stored in the part 308 is mapped to an object (such as a player character and a racing car) in three-dimensional virtual space. An image that is photographed by the camera 26 in real time is mapped in real time, and an image that is photographed by a still picture camera before game play starts is mapped. The head image of a player is photographed and mapped. Plural images which are acquired by photographing the player in plural directions are mapped to an object that represents the head of the player. Photographed images of 1st and 2nd players are mapped to 1st and 2nd objects respectively, the 2nd and 1st objects are shown on 1st and 2nd screens respectively which are seen by the 1st and 2nd players.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像合成装置及び
画像合成方法に関する。
The present invention relates to an image synthesizing apparatus and an image synthesizing method.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】近年、ド
ライブシミュレータ、フライトシミュレータ、ゲーム装
置、システムキッチンの疑似体験システム等の分野で、
いわゆる仮想現実を実現できる各種の画像合成装置が提
案されている。そして、この種の画像合成装置において
は、いかにして仮想世界を現実の世界に近づけるかが、
大きな技術的課題となっている。そして、このような技
術的課題を小規模なハードウェアで実現する手法とし
て、テクスチャマッピングと呼ばれる手法が考えられ
る。
BACKGROUND ART In recent years, in the fields of a drive simulator, a flight simulator, a game device, a system kitchen simulated experience system, and the like,
Various image synthesizing apparatuses capable of realizing so-called virtual reality have been proposed. And in this kind of image synthesis device, how to bring the virtual world closer to the real world is
It is a major technical challenge. As a technique for realizing such a technical problem with small-scale hardware, a technique called texture mapping can be considered.

【0003】しかしながら、これまでのテクスチャマッ
ピングでは、仮想3次元空間内の物体にマッピングする
テクスチャを記憶するテクスチャ記憶部は、データの電
気的書き換えが不能なテクスチャROMにより構成され
ていた。このため、仮想3次元空間内の物体には、メー
カ側により予め設定されたテクスチャのみが常にマッピ
ングされることになり、得られる画像が単調なものとな
っていた。即ち、仮想3次元空間内の第1の物体には常
に第1のテクスチャがマッピングされ、プレーヤが見る
画面には、この第1のテクスチャが常にマッピングされ
た第1の物体が映し出されることになる。このため、合
成される画像の多様化を図ることができなかった。
However, in the conventional texture mapping, a texture storage unit for storing a texture to be mapped to an object in a virtual three-dimensional space is constituted by a texture ROM in which data cannot be electrically rewritten. For this reason, only the texture preset by the manufacturer is always mapped to the object in the virtual three-dimensional space, and the obtained image is monotonous. That is, the first texture is always mapped to the first object in the virtual three-dimensional space, and the first object to which the first texture is always mapped is displayed on the screen viewed by the player. . For this reason, it was not possible to diversify the images to be synthesized.

【0004】本発明は以上のような技術的課題を解決す
るためになされたものであり、その目的とするところ
は、リアリティが高く多様性に富んだ画像を合成できる
画像合成装置及び画像合成方法を提供することにある。
The present invention has been made to solve the above technical problems, and an object of the present invention is to provide an image synthesizing apparatus and an image synthesizing method capable of synthesizing images with high reality and variety. Is to provide.

【0005】[0005]

【課題を解決するための手段】上記課題を解決するため
に、本発明に係る画像合成装置は、仮想3次元空間内の
物体にマッピングするテクスチャを記憶するテクスチャ
記憶手段と、撮像手段により撮像された画像を前記テク
スチャとして前記テクスチャ記憶手段に書き込む手段
と、前記テクスチャ記憶手段に記憶されるテクスチャを
仮想3次元空間内の物体にマッピングし、仮想3次元空
間内の所与の視点から見える画像を合成する画像合成手
段とを含むことを特徴とする。
In order to solve the above-mentioned problems, an image synthesizing apparatus according to the present invention comprises a texture storage unit for storing a texture to be mapped on an object in a virtual three-dimensional space, and an image picked up by an image pickup unit. Means for writing the obtained image as the texture in the texture storage means, and mapping the texture stored in the texture storage means to an object in a virtual three-dimensional space, and forming an image viewed from a given viewpoint in the virtual three-dimensional space. Image combining means for combining.

【0006】これまでのテクスチャマッピングでは、テ
クスチャ記憶手段はテクスチャROMにより構成されて
おり、仮想3次元空間内の物体(プレーヤキャラクタ、
レーシングカー等)に対して、予め決められたテクスチ
ャしかマッピングできなかった。これに対して、本発明
によれば、撮像手段により撮像された画像をテクスチャ
としてテクスチャ記憶手段に自在に書き込むことがで
き、この撮像画像を、仮想3次元空間内の物体にマッピ
ングすることができる。この結果、マッピングされるテ
クスチャの多様化を図れ、リアリティが高く多様性に富
んだ画像を合成できるようになる。
[0006] In the conventional texture mapping, the texture storage means is constituted by a texture ROM, and objects (player characters,
Only a predetermined texture could be mapped to a racing car. On the other hand, according to the present invention, the image captured by the image capturing unit can be freely written as a texture in the texture storage unit, and the captured image can be mapped to an object in the virtual three-dimensional space. . As a result, the texture to be mapped can be diversified, and an image with high reality and richness can be synthesized.

【0007】また本発明は、撮像手段によりリアルタイ
ムに撮像された画像を、仮想3次元空間内の物体にリア
ルタイムにマッピングすることを特徴とする。このよう
にすることで、仮想3次元空間内の物体にマッピングさ
れるテクスチャがリアルタイムに変化するようになり、
仮想現実感の更なる向上を図れるようになる。
Further, the present invention is characterized in that an image captured in real time by the image capturing means is mapped in real time to an object in a virtual three-dimensional space. By doing so, the texture mapped to the object in the virtual three-dimensional space changes in real time,
The virtual reality can be further improved.

【0008】また本発明は、ゲームプレイの開始前に撮
像手段により撮像された画像を、仮想3次元空間内の物
体にマッピングすることを特徴とする。このようにする
ことで、仮想3次元空間内の物体にマッピングされるテ
クスチャを、ゲームプレイを行う毎に変えることが可能
になる。
Further, the present invention is characterized in that an image picked up by an image pickup means before the start of game play is mapped to an object in a virtual three-dimensional space. This makes it possible to change the texture to be mapped to the object in the virtual three-dimensional space every time the game is played.

【0009】また本発明は、撮像手段によりプレーヤを
撮像することで得られる画像を仮想3次元空間内の物体
にマッピングすることを特徴とする。このようにするこ
とで、撮像手段により撮像された画像を、プレーヤの識
別画像として用いることが可能になる。
Further, the present invention is characterized in that an image obtained by imaging the player by the imaging means is mapped to an object in a virtual three-dimensional space. This makes it possible to use the image captured by the image capturing means as the player's identification image.

【0010】また本発明は、複数の撮像手段により複数
の方向からプレーヤを撮像することで得られる複数の画
像を仮想3次元空間内の物体にマッピングすることを特
徴とする。このようにすることで、プレーヤの例えば前
方、右方、後方、左方から撮像した画像を、仮想3次元
空間内の物体(例えばプレーヤキャラクタの頭部)の例
えば前方、右方、後方、左方にマッピングすることが可
能になる。
[0010] The present invention is characterized in that a plurality of images obtained by imaging the player from a plurality of directions by a plurality of imaging means are mapped to an object in a virtual three-dimensional space. By doing so, images taken from the front, right, rear, and left of the player, for example, are read, for example, forward, right, rear, and left of the object (for example, the head of the player character) in the virtual three-dimensional space. Can be mapped to

【0011】また本発明は、撮像手段によりプレーヤの
頭部を撮像することで得られるプレーヤの頭部の画像を
仮想3次元空間内のプレーヤの頭部を表す物体にマッピ
ングすることを特徴とする。このようにすることで、プ
レーヤの頭部を表す物体の画像を、よりリアリティ溢れ
るものにすることが可能になる。
Further, the present invention is characterized in that an image of the player's head obtained by imaging the player's head by the imaging means is mapped to an object representing the player's head in a virtual three-dimensional space. . By doing so, it is possible to make the image of the object representing the player's head full of reality.

【0012】また本発明は、第1の撮像手段により撮像
された第1のプレーヤの画像を仮想3次元空間内の第1
の物体にマッピングし、第2の撮像手段により撮像され
た第2のプレーヤの画像を仮想3次元空間内の第2の物
体にマッピングし、第1のプレーヤが見る第1の画面に
前記第2の物体を表示し、第2のプレーヤが見る第2の
画面に前記第1の物体を表示することを特徴とする。こ
のようにすることで、第1のプレーヤは、第2のプレー
ヤの画像がマッピングされた第2の物体を見ることが可
能になり、第2のプレーヤは、第1のプレーヤの画像が
マッピングされた第1の物体を見ることが可能になる。
これにより、マルチプレーヤ型ゲームに最適な画像を提
供できるようになる。
Further, according to the present invention, an image of the first player picked up by the first image pick-up means is converted into a first image in a virtual three-dimensional space.
And maps the image of the second player imaged by the second imaging means to the second object in the virtual three-dimensional space, and displays the second image on the first screen viewed by the first player. Is displayed, and the first object is displayed on a second screen viewed by a second player. In this way, the first player can see the second object on which the image of the second player is mapped, and the second player can see the image of the first player on which the image of the first player is mapped. It is possible to see the first object that has been set.
This makes it possible to provide an image optimal for a multi-player game.

【0013】なお、仮想3次元空間内の前記物体は、例
えばポリゴン等により構成することができる。
The object in the virtual three-dimensional space can be constituted by, for example, a polygon.

【0014】[0014]

【発明の実施の形態】次に、本発明の好適な実施形態に
ついて図面を用いて詳細に説明する。
Next, preferred embodiments of the present invention will be described in detail with reference to the drawings.

【0015】1.第1の実施形態 図1には、本発明を用いた第1の実施形態についてのブ
ロック図が示される。また、図2には、これをドライビ
ングゲームに適用した仮想体験装置の一例が示される。
1. First Embodiment FIG. 1 shows a block diagram of a first embodiment using the present invention. FIG. 2 shows an example of a virtual experience device in which this is applied to a driving game.

【0016】図2(a)において、ゲーム用の本物のレ
ーシングカー30は、内側が全てブルーの色に塗られた
ドーム1の中のフロア4の上に設置されている。ここ
で、このフロア4もドーム1の内側と同様に全てブルー
の色に塗られている。そして、このレーシングカー30
には、操作者例えばゲームにおけるプレーヤ50が搭乗
している。なお、操作者という場合には、ゲームにおけ
るプレーヤのみならず、例えばフライトシミュレータを
操作するパイロット、スポーツを行うプレーヤなど仮想
体験装置を利用する全ての者が含まれるとする。
In FIG. 2A, a real racing car 30 for a game is installed on a floor 4 in a dome 1 whose inside is entirely painted in blue. Here, as with the inside of the dome 1, the floor 4 is all painted in blue. And this racing car 30
, An operator, for example, a player 50 in a game is on board. It is assumed that the term “operator” includes not only a player in a game but also all persons who use a virtual experience device such as a pilot operating a flight simulator and a player playing sports.

【0017】レーシングカー30は、例えば、車両本体
36、タイヤ32、リアウイング34、ハンドル40、
サイドミラー41、計器盤44、シフトギア、アクセ
ル、ブレーキ(図示せず)等を含んで構成されている。
そして、例えばフロントタイヤ32はプレーヤ50のハ
ンドル40の操作により自在に操舵されるように形成さ
れており、また、リアウイング34も、プレーヤの操作
又はレーシングカー30のスピードの変化等により上下
に動くように形成されている。そして、後述するよう
に、プレーヤ50は映像カメラ10によりこれらの動き
の変化を見ることができることとなる。
The racing car 30 includes, for example, a vehicle body 36, tires 32, a rear wing 34, a steering wheel 40,
It is configured to include a side mirror 41, an instrument panel 44, a shift gear, an accelerator, a brake (not shown), and the like.
For example, the front tire 32 is formed so as to be freely steered by operating the handle 40 of the player 50, and the rear wing 34 also moves up and down due to the operation of the player or a change in the speed of the racing car 30. It is formed as follows. Then, as described later, the player 50 can see the change of these movements by the video camera 10.

【0018】計器盤44は、例えばスピードメータ、タ
コメータ、燃料計、警告計(図示せず)を含んでおり、
プレーヤ50の運転状態により変化するように構成され
ている。即ち、プレーヤ50のアクセル操作、ブレーキ
操作、シフトギア操作に応じて、スピードメータ、タコ
メータが変化し、また、ゲーム終盤になり燃料が尽きて
くると燃料計がこれを示すように構成される。更に、レ
ーシングカー30のエンジン等にトラブルが生じると警
告計が点滅し、プレーヤ50は映像カメラ10によりこ
れを知ることができる。
The instrument panel 44 includes, for example, a speedometer, a tachometer, a fuel gauge, and a warning gauge (not shown).
It is configured to change according to the driving state of the player 50. That is, the speedometer and the tachometer change according to the accelerator operation, the brake operation, and the shift gear operation of the player 50, and the fuel gauge is configured to indicate the end of the game when the fuel runs out. Further, when a trouble occurs in the engine of the racing car 30 or the like, the warning gauge blinks, and the player 50 can know this by the video camera 10.

【0019】また、レーシングカー30の下部には、姿
勢制御部24が設けられ、ゲーム状況(路面変化、道路
の変化等)、プレーヤ50のハンドル操作、アクセル操
作、ブレーキ操作に応じて、レーシングカー30の姿勢
変化、加速変化が制御される。プレーヤ50は、これに
より、姿勢変化、加速Gの変化を体感することができ、
より現実世界に近づいた仮想世界を体験することができ
ることとなる。
An attitude control unit 24 is provided below the racing car 30 to control the racing car according to the game situation (change of road surface, change of road, etc.), steering operation of the player 50, accelerator operation, and brake operation. 30 posture changes and acceleration changes are controlled. Thus, the player 50 can experience a change in the posture and a change in the acceleration G,
You will be able to experience a virtual world closer to the real world.

【0020】プレーヤ50には、頭部装着体9がプレー
ヤ50の視界を覆うように装着されている。この頭部装
着体9は、映像カメラ10、プレーヤ用の空間センサ1
2、画像表示装置20、スピーカー22を含んで構成さ
れている。
The head mounted body 9 is mounted on the player 50 so as to cover the field of view of the player 50. The head-mounted body 9 includes a video camera 10 and a space sensor 1 for a player.
2. It includes an image display device 20 and a speaker 22.

【0021】図4(a)、(b)には、この頭部装着体
9の形状の一例が示される。図4(a)は、映像カメラ
10、プレーヤ用の空間センサ12、画像表示装置2
0、スピーカ22を、ヘルメット14に設けて構成され
る装着体9が示される。このタイプの装着体によれば、
ヘルメット14をプレーヤ50が装着することにより外
部と完全に隔離した世界を作ることができるため、より
臨場感溢れる仮想現実を楽しむことができる。これに対
して図4(b)に示す装着体9は、映像カメラ10、プ
レーヤ用の空間センサ12、画像表示装置20、スピー
カ22が、装着バンド16に一体的に取り付けて構成さ
れているため、より軽快感溢れる装着感を実現すること
ができる。なお、本実施形態に使用される装着体として
は、図4(a)、(b)に示す形状のものに限らず種々
の形状のものを使用することが可能である。
FIGS. 4A and 4B show an example of the shape of the head mounted body 9. FIG. 4A shows a video camera 10, a space sensor 12 for a player, and an image display device 2.
0, the wearing body 9 configured by providing the speaker 22 on the helmet 14 is shown. According to this type of mounting,
When the player 50 wears the helmet 14, a world completely isolated from the outside can be created, so that a more realistic virtual reality can be enjoyed. On the other hand, the mounting body 9 shown in FIG. 4B is configured such that the video camera 10, the spatial sensor 12 for the player, the image display device 20, and the speaker 22 are integrally attached to the mounting band 16. Therefore, it is possible to realize a more comfortable wearing feeling. The mounting body used in the present embodiment is not limited to the shapes shown in FIGS. 4A and 4B, and various shapes can be used.

【0022】画像表示装置20は、プレーヤ50の視界
を覆うようにプレーヤ50の目の前に取り付けられ、車
両本体36に内蔵された画像合成装置から接続線18を
通じて送られてくる画像信号を画像表示するものであ
る。この場合の画像表示方法としては、頭部装着体9を
小型化し装着感を向上させるべく、例えばカラー液晶デ
ィスプレー、小型ブラウン管等の小型のディスプレーを
用いることが望ましい。また、映像に目の焦点を合わせ
るべく、更に、視野角を広げて臨場感を向上させるべく
光学系により補正することが望ましい。
The image display device 20 is mounted in front of the player 50 so as to cover the field of view of the player 50, and converts an image signal transmitted from the image synthesizing device incorporated in the vehicle body 36 through the connection line 18 into an image. To display. As an image display method in this case, it is desirable to use a small display such as a color liquid crystal display or a small CRT in order to reduce the size of the head mounted body 9 and improve the wearing feeling. In addition, it is desirable that the image be corrected by an optical system so that the image is focused on the eye and the viewing angle is widened and the sense of reality is improved.

【0023】ここで、小型ディスプレーの形状として
は、プレーヤ50の顔の形状に沿ってプレーヤの視界を
覆うように形成し、パノラマ映像効果を得るような形状
としてもよいし、2つの小型ディスプレーをそれぞれプ
レーヤ50の両眼の前に形成するような形状としてもよ
い。後者の場合は、両眼に与えられた平面的な2次元画
像に視差のある画像を与えること等により、3次元的な
立体感を与えるような形成することが望ましい。このよ
うに構成すれば、物体の大きさや、物体までの距離を把
握することができるようになるため、より現実世界に近
づいた仮想世界を作り出すことが可能となるからであ
る。
Here, the shape of the small display may be such that it covers the field of view of the player along the shape of the face of the player 50 to obtain a panoramic image effect, or two small displays may be used. Each of them may be formed in front of both eyes of the player 50. In the latter case, it is desirable to form a three-dimensional image by giving an image with parallax to a two-dimensional two-dimensional image given to both eyes. With such a configuration, the size of the object and the distance to the object can be grasped, so that a virtual world closer to the real world can be created.

【0024】映像カメラ10は、プレーヤ50が現実世
界を見るために使用するものであり、例えば図4に示す
ように、プレーヤ50の視点位置(目の位置)に近い位
置に設定し、そのアングルもプレーヤ50の視界方向と
一致するように設定することが望ましい。このように設
定すれば実際にプレーヤ50から見える現実世界の映像
を、より違和感なく見ることができるからである。これ
により、例えば後ろから追いかけてくる他のプレーヤの
レーシングカーを、プレーヤ50が実際に振り返るとい
う動作により確認することができ、より現実感があり、
緊張感のあるゲーム世界を作り出すことが可能となる。
The video camera 10 is used by the player 50 to view the real world. For example, as shown in FIG. 4, the video camera 10 is set at a position close to the viewpoint position (eye position) of the player 50, and its angle is set. It is also desirable to set the same as the field of view of the player 50. This is because, by setting in this way, the real-world video that is actually viewed from the player 50 can be viewed more comfortably. As a result, for example, the player 50 can check a racing car of another player who is chasing from behind by an operation in which the player 50 actually looks back.
It is possible to create a tense game world.

【0025】但し、この場合、頭部装着体9の例えば後
部にもう一台の映像カメラを取り付けて、プレーヤ50
の操作によりこれを切り替えて見ることができるように
構成してもよい。更に、例えばレーシングカー50にサ
イドミラー41、バックミラー等を設けて、これに例え
ばテクスチャーマッピング等の手法を用いて、実際に後
ろに見えるべき映像を映し出すような構成としてもよ
い。
In this case, however, another video camera is attached to, for example, the rear of
The user may be configured to be able to switch and view this by the operation of. Further, for example, the racing car 50 may be provided with a side mirror 41, a rear-view mirror, and the like, and a structure such as texture mapping or the like may be used to project an image that should actually be seen behind.

【0026】映像カメラ10として使用する撮像手段と
しては、例えば高解像でより小型なカメラ、例えば高解
像度CCDカメラ等を用いることが望ましく、自動焦点
合わせ等の機能を持つものを用いることが望ましい。
As the imaging means used as the video camera 10, it is desirable to use, for example, a high-resolution and smaller camera, for example, a high-resolution CCD camera, and it is desirable to use one having a function such as automatic focusing. .

【0027】プレーヤ用の空間センサ12、12は、プ
レーヤ50の3次元情報を検出するセンサであり、例え
ば一方側はドーム1の天井部に、他方側はプレーヤ50
の頭部装着体9に取り付けられる。
The spatial sensors 12 for the players are sensors for detecting three-dimensional information of the player 50. For example, one side is on the ceiling of the dome 1 and the other side is on the player 50 side.
Is attached to the head mounted body 9.

【0028】なお、ここでいうプレーヤ50の3次元情
報とは、例えばプレーヤ50の位置情報、視界方向情報
をいい、空間センサ12、12の3次元空間における方
向をも含めた相対位置関係を求めることにより検出され
る。但し、プレーヤ50の位置が、ゲームの設定上、動
かないか、もしくは動いたとしても許容範囲内である場
合、この3次元情報には、必ずしもプレーヤ50の位置
情報を含める必要はない。また、逆にプレーヤ50の視
界方向が、ゲームの設定上、変更されることがないよう
な場合は、この3次元情報には、必ずしもプレーヤ50
の視界情報を含める必要はない。これらの場合は、ゲー
ム上で設定される位置もしくは視界情報によりその後の
画像演算処理を行えばよい。
Here, the three-dimensional information of the player 50 refers to, for example, positional information of the player 50 and view direction information, and obtains a relative positional relationship including the directions of the space sensors 12, 12 in the three-dimensional space. Is detected by However, if the position of the player 50 does not move in the setting of the game or is within the allowable range even if it moves, the three-dimensional information does not necessarily need to include the position information of the player 50. Conversely, when the direction of the field of view of the player 50 is not changed in setting the game, the three-dimensional information does not necessarily include the player 50.
Need not be included. In these cases, subsequent image calculation processing may be performed based on the position or view information set on the game.

【0029】空間センサ12、12による3次元情報の
検出手法としては、例えば以下の手法が考えられる。即
ち、それぞれの空間センサ12、12を互いに直交した
3つのコイルで構成する。そして、どちらか一方の空間
センサ12のコイルに電流を流し、この時に他方の空間
センサ12のコイルに誘起される電流値から、これらの
空間センサ12、12の方向を含めた位置関係を検出す
る。これによりプレーヤ50の空間情報が検出されるこ
ととなる。
As a method of detecting three-dimensional information by the space sensors 12, 12, for example, the following method can be considered. That is, each of the space sensors 12, 12 is constituted by three coils orthogonal to each other. Then, a current is caused to flow through the coil of one of the space sensors 12, and at this time, the positional relationship including the directions of the space sensors 12, 12 is detected from the current value induced in the coil of the other space sensor 12. . As a result, the spatial information of the player 50 is detected.

【0030】なお、空間センサ12、12による3次元
情報の検出方法としては、上記の動磁界を利用したもの
に限らず、例えば、静磁界を利用したもの、超音波を利
用したものを用いてもよい。
The method of detecting three-dimensional information by the space sensors 12, 12 is not limited to the method using the above-described dynamic magnetic field, but may be, for example, a method using a static magnetic field or a method using an ultrasonic wave. Is also good.

【0031】次に、本実施形態による画像合成の手法に
ついて以下に説明する。
Next, an image synthesizing method according to the present embodiment will be described below.

【0032】本実施形態では、図2(b)に示すよう
に、映像カメラ10で撮影した実3次元空間における実
空間映像100と、仮想3次元空間における仮想視界画
像102とを画像合成して、表示画像104を形成して
いる。そして、この表示画像104は、接続線18を通
じて画像表示装置20に出力され、実際にプレーヤ50
が見る視界画像となる。
In this embodiment, as shown in FIG. 2B, a real space image 100 in a real three-dimensional space captured by the video camera 10 and a virtual view image 102 in a virtual three-dimensional space are synthesized. , A display image 104 is formed. Then, the display image 104 is output to the image display device 20 through the connection line 18 and is actually
Is a view image to be viewed.

【0033】この画像合成を、本実施形態ではブルーマ
ット合成により行っている。つまり、レーシングカー3
0及びその付属物、自分自身であるプレーヤ50等、以
外のもの、即ちドーム1の内側及びフロア4を全てブル
ーの色にしておく。このようにすると、実空間映像10
0において、レーシングカー30、ハンドル40、プレ
ーヤの手54以外は全てブルーの背景となる。そして、
この実空間映像100のうちブルーの色の部分の画素を
全て空きドットに設定し、これに仮想視界画像102に
重ね合わることにより表示画像104を得ることができ
ることとなる。この場合、例えばドーム1には主にプレ
ーヤ50から見えるサーキットの背景が、フロア4に
は、レーシングカー30が走っている道路の路面状況が
映し出される。
In the present embodiment, the image synthesis is performed by blue mat synthesis. In other words, racing car 3
0 and its accessories, the player 50 itself, etc., that is, the inside of the dome 1 and the floor 4 are all colored blue. By doing so, the real space image 10
At 0, all parts other than the racing car 30, the steering wheel 40, and the player's hand 54 have a blue background. And
The display image 104 can be obtained by setting all the pixels of the blue color portion in the real space image 100 as empty dots and superimposing them on the virtual view image 102. In this case, for example, the dome 1 shows the background of the circuit mainly seen from the player 50, and the floor 4 shows the road surface condition of the road on which the racing car 30 runs.

【0034】この場合の画像合成装置の一例を示すブロ
ック図が、図1に示される。
FIG. 1 is a block diagram showing an example of the image synthesizing apparatus in this case.

【0035】図1において仮想視界画像演算装置70
は、仮想3次元空間においてプレーヤ50が見ることが
できる仮想画像を演算するものであり、仮想3次元空間
演算部72及び視界画像演算部76とを含む。そして、
仮想3次元空間演算部72は、実3次元空間と重ね合わ
せて設定されるゲーム空間を表す仮想3次元空間を演算
するものであり、視界画像演算部76は、この演算され
た仮想3次元空間より、プレーヤ50から見える方向に
おける仮想視界画像を演算するものである。
In FIG. 1, the virtual visual field image calculation device 70
Is for calculating a virtual image that can be viewed by the player 50 in the virtual three-dimensional space, and includes a virtual three-dimensional space calculation unit 72 and a view image calculation unit 76. And
The virtual three-dimensional space calculation unit 72 calculates a virtual three-dimensional space that represents a game space set by being superimposed on the real three-dimensional space. The view image calculation unit 76 calculates the virtual three-dimensional space that has been calculated. Thus, a virtual field-of-view image in a direction that can be seen from the player 50 is calculated.

【0036】プログラム部74には、ゲーム用の演算プ
ログラムが格納されている。例えば、本実施形態のドラ
イビングゲームを例にとれば、ドライビングゲーム空間
を構成するサーキット上のあらゆる物体(レーシングカ
ー、道路、他のレーシングカー、道路から見える背景
等)が多面体の組み合わせで表現され、この多面体の各
頂点の3次元情報及び付随データが画像情報として格納
されている。なお、プログラム部74には、これらのデ
ータ以外にもゲームの進行等を制御するプログラムも格
納され、また、複数のサーキット走行を楽しめるもので
あれば、これら全てのサーキット情報が格納されてい
る。
The program section 74 stores a game calculation program. For example, taking the driving game of the present embodiment as an example, all objects (racing cars, roads, other racing cars, backgrounds visible from roads, etc.) on the circuit constituting the driving game space are represented by a combination of polyhedrons, Three-dimensional information and associated data of each vertex of the polyhedron are stored as image information. In addition to the above data, the program section 74 also stores a program for controlling the progress of the game and the like, and stores all the circuit information if the user can enjoy a plurality of circuit runs.

【0037】プレーヤ50が、ハンドル40、アクセ
ル、ブレーキ、シフトギアにより入力した操作信号は、
操作部38を介して仮想3次元空間演算部72に入力さ
れる。そして、この操作信号と前記したプログラム部7
4からの情報により、仮想3次元空間でのレーシングカ
ー30の位置、方向がリアルタイムに演算される。そし
て、この演算結果に基づき、仮想3次元空間におけるレ
ーシングカー30及びその周りのサーキット上のあらゆ
る物体の画像情報が、視界画像演算部76に出力され
る。
Operation signals input by the player 50 through the steering wheel 40, accelerator, brake, and shift gear are as follows:
The data is input to the virtual three-dimensional space calculation unit 72 via the operation unit 38. Then, the operation signal and the program unit 7
4, the position and direction of the racing car 30 in the virtual three-dimensional space are calculated in real time. Then, based on the calculation result, image information of the racing car 30 in the virtual three-dimensional space and all objects on the circuit around the racing car 30 is output to the view image calculation unit 76.

【0038】視界画像演算部76では、プレーヤ用の空
間センサ12より検出された3次元情報に基づき、以下
のような座標変換がなされる。即ち、図12に示すよう
に、仮想3次元空間演算部72により演算された画像情
報(例えば背景画面を構成する看板、ビル等の物体17
0、172を表す画像情報)が、仮想3次元空間におけ
るワールド座標系(XW 、YW 、ZW )から、プレーヤ
50の視点座標系(Xv、YV 、ZV )に座標変換され
る。そして、プレーヤ50の視野外、例えば視野から外
れて後ろに通り過ぎて行く看板等の物体172の画像情
報はクリッピングされて除去され、視野内にある物体1
70の画像情報はスクリーン座標系(XS 、YS )、即
ち実際にプレーヤ50から見える座標系に透視変換され
る。この場合、この透視変換された画像情報は、前記物
体を構成する多面体に対応するポリゴン174、17
5、176(裏側のポリゴンは省略)の組み合わせとし
て表現されている。次に、このポリゴン174、17
5、176内の全てのドットの画像情報が、ポリゴン毎
にもしくはポリゴンの各頂点毎に与えられた色、輝度等
の付随情報を基に演算され、これが仮想視界画像情報と
して、表示画像合成装置80に出力されることとなる。
The visual field image calculation unit 76 performs the following coordinate conversion based on the three-dimensional information detected by the space sensor 12 for the player. That is, as shown in FIG. 12, image information calculated by the virtual three-dimensional space calculation unit 72 (for example, an object 17 such as a signboard, a building, etc. forming a background screen)
0, 172) are converted from the world coordinate system (XW, YW, ZW) in the virtual three-dimensional space to the viewpoint coordinate system (Xv, YV, ZV) of the player 50. Then, the image information of the object 172 such as a signboard passing outside the field of view of the player 50, for example, out of the field of view, is clipped and removed, and the object 1 in the field of view is removed.
The image information 70 is perspectively transformed into a screen coordinate system (XS, YS), that is, a coordinate system that can be actually viewed from the player 50. In this case, the perspective-transformed image information is used as polygons 174, 17 corresponding to the polyhedron constituting the object.
5, 176 (the back side polygon is omitted). Next, the polygons 174, 17
5, 176. The image information of all the dots in 176 is calculated based on the accompanying information such as the color and luminance given to each polygon or each vertex of the polygon, and this is used as virtual view image information as a display image synthesizing device. 80.

【0039】表示画像合成装置80では、視界画像演算
部76からの仮想視界画像102と映像カメラ10から
の実空間映像100との画像合成が行われる。この画像
合成の手法としては種々の手法が考えられるが、本実施
形態では前述したようにブルーマット合成による手法に
よって行っている。図13には、この場合に表示画像合
成装置80の詳細が示されている。
In the display image synthesizing device 80, the image synthesis of the virtual visual field image 102 from the visual field image calculation unit 76 and the real space video 100 from the video camera 10 is performed. Various methods can be considered as a method of the image synthesis. In the present embodiment, as described above, the image is synthesized by the method of the blue mat synthesis. FIG. 13 shows details of the display image synthesizing device 80 in this case.

【0040】即ち、図13において、映像カメラ10か
ら入力された実空間映像100を表す画像信号は、表示
画像合成装置80内においてまずフィルター200に通
されRGBの3原色の成分に分けられる。そして、これ
らの成分のそれぞれが例えば8ビットのデジタルデータ
に、A/D変換回路202にてA/D変換され、これに
より各画素毎に24ビットのRGBデジタルデータが求
められる。そして、この実空間映像100における各画
素の24ビットのRGBデジタルデータが、ドーム1の
裏側及びフロア4に塗られたブルーの色の24ビットの
RGBデジタルデータと一致するか否かが、空きドット
判定回路204にて各画素毎に演算され、判断される。
そして、この判断結果は、空きドットメモリ206に書
き込まれる。空きドットメモリ206は、表示画像の全
ての画素に対応した1ビットメモリの構成となってお
り、各画素毎に空きドットか否かの空きドット判定デー
タが1ビットデータとして書き込まれる。
That is, in FIG. 13, an image signal representing the real space image 100 input from the image camera 10 is first passed through a filter 200 in the display image synthesizing device 80 and is divided into three primary color components of RGB. Then, each of these components is A / D converted into 8-bit digital data by the A / D conversion circuit 202, thereby obtaining 24-bit RGB digital data for each pixel. Then, whether or not the 24-bit RGB digital data of each pixel in the real space image 100 matches the 24-bit RGB digital data of blue color painted on the back side of the dome 1 and the floor 4 is determined by whether or not there is an empty dot. The judgment circuit 204 calculates and judges for each pixel.
Then, the result of this determination is written to the empty dot memory 206. The empty dot memory 206 has a configuration of a 1-bit memory corresponding to all pixels of the display image, and empty dot determination data indicating whether or not the pixel is an empty dot is written as 1-bit data for each pixel.

【0041】表示画像合成装置80には、表示画像の各
画素に対応したフィールドバッファ210が内蔵されて
いる。そして、データ制御部208により、空きドット
メモリ206に書き込まれている空きドット判定データ
が参照され、フィールドバッファ210の各画素位置に
実空間映像が書き込まれる。即ち、空きドット判定デー
タにより、その画素が空きドットであると判断された場
合は、フィールドバッファ210のその画素位置には、
実空間映像は書き込まれない。逆に、空きドット判定デ
ータにより、その画素が空きドットではないと判断され
た場合には、実空間映像の24ビットのRGBデジタル
データがそのまま書き込まれることとなる。
The display image synthesizing device 80 has a built-in field buffer 210 corresponding to each pixel of the display image. Then, the data control unit 208 refers to the empty dot determination data written in the empty dot memory 206, and writes a real space image at each pixel position of the field buffer 210. That is, if the pixel is determined to be a free dot by the free dot determination data, the pixel position in the field buffer 210 is
No real space video is written. Conversely, if it is determined from the empty dot determination data that the pixel is not an empty dot, the 24-bit RGB digital data of the real space video is written as it is.

【0042】次に、データ制御部208により、空きド
ットメモリ206に書き込まれている空きドット判定デ
ータが参照され、フィールドバッファ210の各画素位
置に、視界画像演算部76により演算された仮想視界画
像情報が重ね書きされる。即ち、空きドット判定データ
により、その画素が空きドットであると判断された場合
は、仮想視界画像情報がそのまま書き込まれる。逆に、
空きドット判定データにより、その画素が空きドットで
はないと判断された場合には、なにも書き込まれず、こ
の画素位置には実空間映像が表示されることとなる。
Next, the data control unit 208 refers to the empty dot determination data written in the empty dot memory 206, and stores the virtual view image calculated by the view image calculation unit 76 at each pixel position of the field buffer 210. Information is overwritten. That is, when it is determined from the empty dot determination data that the pixel is an empty dot, the virtual view image information is written as it is. vice versa,
If it is determined from the empty dot determination data that the pixel is not an empty dot, nothing is written, and a real space image is displayed at this pixel position.

【0043】以上の書き込みを行った後、データ制御部
208によりフィールドバッファ210から各画素位置
の画像情報データが読み出される。そして、この画像情
報データは接続線18を通して画像表示装置20に画像
出力され、プレーヤ50は、実空間映像100に仮想視
界画像102が組み込まれた表示画像104をリアルタ
イムに見ることができることとなる。
After the above writing, the image information data at each pixel position is read from the field buffer 210 by the data control unit 208. Then, the image information data is output as an image to the image display device 20 through the connection line 18, and the player 50 can see the display image 104 in which the virtual view image 102 is incorporated in the real space image 100 in real time.

【0044】なお、以上の画像情報の書き込みと、読み
出しは、例えばフィールドバッファ210を2画面分の
構成とすることにより、同時に行うように構成すること
がより望ましい。
It is more preferable that the writing and reading of the image information be performed simultaneously by, for example, configuring the field buffer 210 for two screens.

【0045】また、仮想3次元空間演算部72において
は、画像情報の演算のみならず、例えば、音声合成部7
8を通じてスピーカ22より出力される音声信号、及
び、レーシングカー30の姿勢を制御する姿勢制御信号
の生成も行っている。即ち、プログラム74からのゲー
ムプログラム及び操作部38からの操作信号により演算
された、ゲーム空間におけるゲーム進行状況に応じて、
より効果的な音声信号及び姿勢制御信号の生成を行い、
ゲームの臨場感をより一層高めている。
In the virtual three-dimensional space calculation unit 72, not only the calculation of the image information but also the sound synthesis unit 7
It also generates an audio signal output from the speaker 22 through the controller 8 and an attitude control signal for controlling the attitude of the racing car 30. That is, according to the game progress situation in the game space, which is calculated based on the game program from the program 74 and the operation signal from the operation unit 38,
Generate more effective voice signal and attitude control signal,
The game's presence is further enhanced.

【0046】また、本実施形態では、仮想視界画像演算
装置70を、仮想3次元空間演算部72と視界画像演算
部76とに分けたが、これは便宜的なものであり、例え
ば3次元空間演算を行う機能と視界画像を演算する機能
とを一体となって行う手法によりこれを構成しても構わ
ない。即ち、結果として、仮想3次元空間において、プ
レーヤ50から見える方向における仮想視界画像を得る
ことができれば、演算順序、演算手法等は、図1に示す
手法に限らずあらゆる手法を用いることができる。
Further, in this embodiment, the virtual view image calculation device 70 is divided into a virtual three-dimensional space calculation unit 72 and a view image calculation unit 76, but this is for convenience. This may be configured by a method of integrally performing the function of performing the calculation and the function of calculating the view image. That is, as long as a virtual view image in a direction visible from the player 50 can be obtained in the virtual three-dimensional space, the calculation order, the calculation method, and the like are not limited to the method illustrated in FIG.

【0047】また、表示画像合成装置80における画像
合成の方法としては、上記したものに限らず、例えばブ
ルーではなくレッドを用いて画像合成したり、複数の色
を用いて画像合成したり、種々の手法を用いることがで
きる。
The method of synthesizing images in the display image synthesizing device 80 is not limited to the method described above. For example, image synthesis using red instead of blue, image synthesis using a plurality of colors, Can be used.

【0048】また、視界画像演算部76において、演算
されたポリゴン内の全てのドットの画像情報を求める手
法としては、前記したものに限らず、例えばテクスチャ
マッピングと呼ばれる手法を用いてもよい。即ち、仮想
3次元空間における物体の各頂点に、あらかじめはり付
けたいテクスチャ情報を指定するテクスチャ座標を与え
ておく。そして、前記した視点座標系への演算等を行っ
た後に、このテクスチャ座標をアドレスとして、テクス
チャ情報メモリよりテクスチャ情報を読みだし、これを
ポリゴンにはり付けることにより、ポリゴン内の全ての
ドットの画像情報を演算する。
The method of obtaining the image information of all the dots in the calculated polygons in the view image calculation unit 76 is not limited to the above-described method, and a method called texture mapping may be used. That is, each vertex of the object in the virtual three-dimensional space is given in advance texture coordinates specifying texture information to be attached. Then, after performing the above-described calculation on the viewpoint coordinate system, the texture information is read from the texture information memory using the texture coordinates as an address, and the texture information is attached to the polygon, thereby obtaining an image of all the dots in the polygon. Compute information.

【0049】このようなテクスチャマッピングと呼ばれ
る手法を用いて画像情報を演算することにより、まず、
演算処理部分の負担を大幅に減らすことができるという
メリットが生じる。また、この他にも、この手法を用い
れば種々の今までにない画像効果を得ることもできる。
その例として例えば以下に挙げるものがある。
By calculating image information using such a technique called texture mapping, first,
There is an advantage that the load on the arithmetic processing portion can be significantly reduced. In addition, various unprecedented image effects can be obtained by using this method.
Examples thereof include the following.

【0050】即ち、レーシングカー30に設けられたサ
イドミラー41に映像カメラ43を取り付ける。そし
て、図14に示すように、この映像カメラ43により撮
影される後方の実空間映像105と、後方の仮想視界画
像106とを画像合成してサイドミラー表示画像108
を形成し、このサイドミラー表示画像108を、プレー
ヤ50から見える表示画像104のサイドミラー41の
部分にテクスチャマッピング手法を用いてはり付ける。
このような構成とすれば、サイドミラー41には、図2
(b)に示す表示画像104と同様に、後方の実空間映
像105と後方の仮想視界画像106とが合成された画
像が表示されることとなる。これにより、例えば後ろか
ら追いかけてくる相手のプレーヤのレーシングカー31
及び後方における背景画像と自分のレーシングカー30
の実映像との合成画像を、サイドミラー41により見る
ことができ、より現実世界に近づいた仮想世界を作り出
すことが可能となる。
That is, the video camera 43 is attached to the side mirror 41 provided on the racing car 30. Then, as shown in FIG. 14, the rear real space image 105 captured by the video camera 43 and the rear virtual view image 106 are image-combined to form a side mirror display image 108.
Is formed, and this side mirror display image 108 is attached to a portion of the side mirror 41 of the display image 104 viewed from the player 50 by using a texture mapping method.
With such a configuration, the side mirror 41 has the configuration shown in FIG.
Similarly to the display image 104 shown in (b), an image in which the rear real space image 105 and the rear virtual view image 106 are combined is displayed. Thus, for example, the racing car 31 of the opponent player chasing from behind.
And the background image in the back and my racing car 30
Can be viewed by the side mirror 41, and a virtual world closer to the real world can be created.

【0051】図15には、テクスチャマッピング手法を
用いた映像効果のもう一つの例が示される。この例で
は、図15(a)に示すように、それぞれ独立のドーム
内に、プレーヤ50のレーシングカー30及び相手プレ
ーヤ52のレーシングカー31が設置される。ドーム内
には映像カメラ26が設置されており、これによりプレ
ーヤ50、52の頭部28が四方から撮影される。そし
て、このプレーヤの頭部28の撮影データを図15
(b)に示すように、仮想視界画像102上の相手プレ
ーヤ52の頭部の部分に、テクスチャマッピング手法を
用いてはり付ける。このようにすれば、プレーヤ50が
後ろを振り返って見た場合に、相手プレーヤの頭部の実
写映像を見ることができ、ゲームの臨場感を非常に高め
ることができる。特に、相手プレーヤ52のレーシング
カー31が自分のレーシングカー30に追いつき横に並
んだときに、相手プレーヤ52の勝利に誇った顔なども
見ることができ、各プレーヤの競争意識を刺激し、より
現実感、緊張感のあるゲームを提供できることとなる。
FIG. 15 shows another example of the video effect using the texture mapping method. In this example, as shown in FIG. 15A, the racing car 30 of the player 50 and the racing car 31 of the opponent player 52 are installed in independent dome portions, respectively. A video camera 26 is installed in the dome, and the heads 28 of the players 50 and 52 are photographed from all sides. The photographing data of the player's head 28 is shown in FIG.
As shown in (b), the texture is mapped to the head of the opponent player 52 on the virtual view image 102 by using the texture mapping method. In this way, when the player 50 looks back, the real image of the head of the opponent player can be seen, and the sense of reality of the game can be greatly enhanced. In particular, when the racing car 31 of the opponent player 52 catches up with the own racing car 30 and lines up side by side, it is possible to see a face, etc., which is proud of the victory of the opponent player 52, thereby stimulating each player's consciousness of competition. A game with a sense of reality and tension can be provided.

【0052】なお、図15では、4方向から映像カメラ
26で各プレーヤの頭部28を撮影する構成としたが、
少なくともプレーヤの頭部28の正面からの映像情報が
あればよく、他の方向からの映像情報は、仮想3次元空
間演算部70において作り出したものを用いてもよい。
また、各プレーヤの頭部28の撮影手段は、映像カメラ
26に限られるものではなく、例えばゲームプレイを始
める前に、静止画カメラにより撮影し、これを登録して
用いる構成としてもよい。
In FIG. 15, the head 28 of each player is photographed by the video camera 26 from four directions.
It is sufficient that there is video information from at least the front of the player's head 28, and video information from other directions may be the one created by the virtual three-dimensional space calculation unit 70.
Further, the photographing means of the head 28 of each player is not limited to the video camera 26. For example, before starting the game play, the photographing means may be photographed by a still image camera and registered and used.

【0053】図16には、以上に述べたテクスチャマッ
ピング手法により、画像を合成するための簡単なブロッ
ク図の一例が示される。
FIG. 16 shows an example of a simple block diagram for synthesizing an image by the texture mapping method described above.

【0054】即ち、テクスチャマッピング手法により画
像を合成する場合には、視界画像演算部76を、例えば
図16に示すような構成にする。
That is, when synthesizing images by the texture mapping method, the field-of-view image calculation unit 76 is configured, for example, as shown in FIG.

【0055】仮想3次元空間演算部72より出力された
各物体の画像情報は、各物体を構成するポリゴンの頂点
座標VX 、VY 、VZ と、そのポリゴンの各頂点に与え
られたテクスチャ頂点座標VTX 、VTY 等とで表現さ
れている。ここで、テクスチャ座標TX 、TY は、各ポ
リゴンにはり付けるべきテクスチャ情報を指定するもの
で、このテクスチャ情報は、テクスチャ座標TX 、TY
をアドレスとしてテクスチャ記憶部308に格納されて
いる。そして、テクスチャ頂点座標VTX 、VTY は、
このテクスチャ座標TX 、TY のうち、各ポリゴンの頂
点位置におけるテクスチャ座標を表すものである。
The image information of each object output from the virtual three-dimensional space calculation unit 72 includes the vertex coordinates VX, VY, VZ of the polygons constituting each object and the texture vertex coordinates VTX given to each vertex of the polygon. , VTY, etc. Here, the texture coordinates TX and TY specify texture information to be attached to each polygon, and the texture information includes the texture coordinates TX and TY
Is stored in the texture storage unit 308 as an address. And the texture vertex coordinates VTX and VTY are
The texture coordinates TX and TY represent the texture coordinates at the vertex position of each polygon.

【0056】この頂点座標VX 、VY 、VZ 、及びテク
スチャ頂点座標VTX 、VTY 等は、頂点座標変換部3
00に入力される。そして、頂点座標変換部300にお
いて、透視変換等の座標変換が行われ、その結果はソー
ティング回路302に出力される。ソーティング回路3
02では、各ポリゴンの処理の優先度が設定される。優
先度は、例えばプレーヤの視点に近いポリゴンが優先的
に処理されるように設定され、以降の処理はこの優先度
にしたがって処理されることとなる。
The vertex coordinates VX, VY, VZ, the texture vertex coordinates VTX, VTY, etc.
00 is input. Then, the vertex coordinate transformation unit 300 performs coordinate transformation such as perspective transformation, and outputs the result to the sorting circuit 302. Sorting circuit 3
In 02, the processing priority of each polygon is set. The priority is set so that, for example, a polygon closer to the viewpoint of the player is preferentially processed, and the subsequent processing is performed according to this priority.

【0057】プロセッサ部304では、各ポリゴンの座
標変換後の頂点座標及びテクスチャ頂点座標から、ポリ
ゴン内の全てのドットの表示座標及びテクスチャ座標T
X 、TY が求められる。そして、この求められたテクス
チャ座標TX 、TY は前記した表示座標をアドレスとし
てフィールドバッファ部306に書き込まれる。
The processor unit 304 calculates the display coordinates and texture coordinates T of all the dots in the polygon from the vertex coordinates and texture vertex coordinates of each polygon after the coordinate transformation.
X and TY are required. Then, the obtained texture coordinates TX and TY are written in the field buffer unit 306 using the display coordinates described above as an address.

【0058】画像表示する際には、このフィールドバッ
ファ部306からテクスチャ座標TX 、TY が読み出さ
れ、これをアドレスとしてテクスチャ記憶部308から
テクスチャ情報が読み出され、仮想視界画像が形成され
る。その後、表示画像合成装置80にて、実空間映像と
の画像合成が行われる。
When displaying an image, texture coordinates TX and TY are read from the field buffer unit 306, texture information is read from the texture storage unit 308 using these as addresses, and a virtual view image is formed. Thereafter, the display image synthesizing device 80 performs image synthesis with the real space video.

【0059】以上の構成により、例えば以下に示す演算
処理により、サイドミラー41にサイドミラー表示画像
108が映し出される。ここで、サイドミラー41は、
例えばブルーの色に塗られており、この位置には画像合
成装置により演算された画像が映し出されるように設定
されている。
With the above configuration, the side mirror display image 108 is displayed on the side mirror 41 by, for example, the following arithmetic processing. Here, the side mirror 41
For example, the image is painted in blue, and an image calculated by the image synthesizing device is set to be displayed at this position.

【0060】この場合、まず図14に示すサイドミラー
表示画像108の画像合成が行われる。即ち、図16に
おいて、後方の仮想視界画像106の演算が仮想3次元
空間演算部72及び視界画像演算部76により演算され
る。また、後方の実空間映像105は映像カメラ43に
より撮影される。そして、この後方の仮想視界画像10
6と、後方の実空間映像105の画像合成が表示画像合
成装置80により行われ、サイドミラー表示画像108
が画像合成されることとなる。
In this case, first, image synthesis of the side mirror display image 108 shown in FIG. 14 is performed. That is, in FIG. 16, the calculation of the rear virtual view image 106 is performed by the virtual three-dimensional space calculation unit 72 and the view image calculation unit 76. The rear real space image 105 is photographed by the image camera 43. Then, the virtual view image 10 behind this
6 and the rear real space image 105 are synthesized by the display image synthesis device 80, and the side mirror display image 108 is synthesized.
Are image-combined.

【0061】次に、このサイドミラー表示画像108
は、図16に示すようにテクスチャ記憶部308に戻さ
れる。そして、テクスチャ記憶部308の記憶エリアの
内、サイドミラー41に対応するテクスチャ座標の位置
に、このサイドミラー表示画像108の画像情報が書き
込まれる。その後、このようにしてサイドミラー表示画
像108が表示された仮想視界画像102と、映像カメ
ラ10により撮影された実空間映像100との画像合成
が、表示画像合成装置80により行われる。これによ
り、表示画像104のサイドミラー41に、サイドミラ
ー表示画像108が表示された画像を形成することがで
きることとなる。
Next, the side mirror display image 108
Is returned to the texture storage unit 308 as shown in FIG. Then, in the storage area of the texture storage unit 308, the image information of the side mirror display image 108 is written at the position of the texture coordinate corresponding to the side mirror 41. After that, the display image synthesizing device 80 performs image synthesis of the virtual view image 102 on which the side mirror display image 108 is displayed and the real space image 100 captured by the image camera 10. As a result, an image in which the side mirror display image 108 is displayed can be formed on the side mirror 41 of the display image 104.

【0062】また、図16に示す構成により、相手プレ
ーヤの頭部の実映像を映し出す場合には、図16に示す
ように映像カメラ26により撮影された映像が、直接テ
クスチャ記憶部308に書き込まれる。即ち、テクスチ
ャ記憶部308の記憶エリアの内、相手プレーヤの頭部
に対応するテクスチャ座標の位置に、映像カメラ26に
より撮影された映像データがリアルタイムに書き込まれ
る。これにより、プレーヤ50から見える仮想視界画像
102に、相手プレーヤ52の頭部の実映像が映し出さ
れた表示画像を得ることができることとなる。
When the real image of the head of the opponent player is projected by the configuration shown in FIG. 16, the image captured by the video camera 26 is written directly to the texture storage unit 308 as shown in FIG. . In other words, the video data captured by the video camera 26 is written in real time at the position of the texture coordinates corresponding to the head of the opponent player in the storage area of the texture storage unit 308. This makes it possible to obtain a display image in which a real image of the head of the opponent player 52 is projected on the virtual field-of-view image 102 viewed from the player 50.

【0063】なお、静止画カメラにより撮影する構成と
する場合は、ゲーム開始前に登録する際に、このテクス
チャ記憶部308に相手プレーヤの写真が画像データと
して記憶されることとなる。
In the case where the still image camera is used, a picture of the opponent player is stored as image data in the texture storage unit 308 when registering before starting the game.

【0064】また、本実施形態におけるテクスチャマッ
ピング手法は図16に示す構成のものに限られるもので
はなく、あらゆる手法のテクスチャマッピングを用いる
ことができる。
Further, the texture mapping method in the present embodiment is not limited to the structure shown in FIG. 16, and any method of texture mapping can be used.

【0065】以上の構成の本実施形態により、これまで
のドライビングゲームでは体験できなかった、臨場感溢
れるゲームを提供することができることとなった。
According to the present embodiment having the above-described configuration, it is possible to provide a game full of a sense of reality, which cannot be experienced in a conventional driving game.

【0066】即ち、まず、従来のドライビングゲームで
は、サーキット等を映し出すゲーム画面がプレーヤ50
の前面にしか設定されていなかったため、いまひとつ臨
場感に欠けるところがあった。これに対して、本実施形
態では、プレーヤ50は例えば360度全方向を見るこ
とができるため、ゲームの臨場感が大幅に向上する。特
に、例えば本実施形態を複数プレーヤによるドライビン
グゲームに適用した場合、プレーヤ50は、実際に振り
返ることにより、もしくは、前記した構成のサイドミラ
ー41、バックミラーを使用することにより、追いかけ
てくる相手のプレーヤを確認できることとなり臨場感を
より増すことができる。この場合、前記したようにテク
スチャーマッピングで相手のプレーヤの実空間映像をは
り付ければ、更にゲームの現実感、緊張感を増すことが
可能となる。
That is, first, in the conventional driving game, a game screen for displaying a circuit or the like is displayed on the player 50.
Because it was set only on the front of the, there was still a lack of realism. On the other hand, in the present embodiment, since the player 50 can see all directions, for example, 360 degrees, the sense of reality of the game is greatly improved. In particular, for example, when the present embodiment is applied to a driving game by a plurality of players, the player 50 can actually look back or use the side mirror 41 and the rearview mirror having the above-described configuration to make a chase of the chasing opponent. The player can be confirmed, and the sense of presence can be further increased. In this case, if the real space image of the opponent player is attached by texture mapping as described above, it is possible to further increase the realism and tension of the game.

【0067】また、本実施形態では、プレーヤ50は、
実3次元空間における本物のレーシングカー30に搭乗
することができ、しかも、その本物のレーシングカー3
0を、ゲーム用の仮想3次元空間で自由に走らせること
が可能となり、より現実世界に近づいた仮想世界を体験
できることになる。即ち、プレーヤ50は、実3次元空
間におけるレーシングカー30、タイヤ32、リアウイ
ング34の動き、サイドミラー41に写る相手プレーヤ
などを、映像カメラ10を通じて実際に自分の目で確認
しながらレーシングカー30を操作することができる。
更に、このプレーヤ50が操作する操作部、即ちハンド
ル40、計器盤44、アクセル、ブレーキ、シフトギア
なども、上記と同様に映像カメラ10を通じて実際に自
分の目で確認しながら操作することができるため、操作
性が大幅に向上し、ゲームの現実感も大幅に向上するこ
ととなる。また、この場合に、ゲーム状況に応じて、姿
勢制御部24の制御、スピーカ22に出力する音声を変
化させれば、より、臨場感溢れるゲームを提供できるこ
ととなる。
In the present embodiment, the player 50
It is possible to ride on a real racing car 30 in a real three-dimensional space, and moreover, the real racing car 3
0 can be run freely in a virtual three-dimensional space for games, and a virtual world closer to the real world can be experienced. That is, the player 50 checks the movements of the racing car 30, the tires 32, the rear wing 34, the opponent player and the like on the side mirror 41 in the actual three-dimensional space while actually checking the racing car 30 with his / her own eyes. Can be operated.
Further, since the operation units operated by the player 50, that is, the steering wheel 40, the instrument panel 44, the accelerator, the brake, the shift gear, and the like can be operated while actually confirming with the user's own eyes through the video camera 10 as described above. Therefore, the operability is greatly improved, and the sense of reality of the game is also greatly improved. In this case, if the control of the attitude control unit 24 and the sound output to the speaker 22 are changed according to the game situation, a more realistic game can be provided.

【0068】図3には、本第1の実施形態をフライトシ
ミュレータに適用した場合の仮想体験装置の一例が示さ
れる。
FIG. 3 shows an example of the virtual experience apparatus when the first embodiment is applied to a flight simulator.

【0069】図3(a)で、コックピット45の中の右
側窓2、左側窓3には、ブルーの色をしたマット(以
下、ブルーマットと呼ぶ)が張り付けられ、このブルー
マットに前述した手法と同様の手法により、表示画像1
04がはめ込まれる。この様子が図3(b)に示され
る。ここで図3(b)には、左側窓3方向の実空間映像
100に仮想視界画像102をはめ込み、表示画像10
4が合成される場合が示されている。
In FIG. 3A, a blue mat (hereinafter referred to as a blue mat) is attached to the right window 2 and the left window 3 in the cockpit 45, and the method described above is applied to the blue mat. Display image 1
04 is fitted. This state is shown in FIG. Here, in FIG. 3B, a virtual view image 102 is fitted to a real space image 100 in the left window 3 direction, and a display image 10 is displayed.
4 is synthesized.

【0070】この場合、表示画像104に映し出される
画像は、パイロット46と教官48とで異なったように
見えることになる。これは、仮想視界画像102は、プ
レーヤ用の空間センサ12を用いて、パイロット46、
教官48のそれぞれの視界方向を検出して演算されてい
るからである。従って、教官48には見えるがパイロッ
ト46には見えないといった映像、即ち視界方向によっ
て異なるといった映像効果を作り出すことができ、より
現実感の増した仮想世界を実現できる。この点、従来の
方式、即ち、窓に単にCRTディスプレーを設ける方
式、もしくは、ハーフミラーによりCRT画像を窓に映
し出す方式によっては、このような映像効果を作り出す
ことはできない。
In this case, the image displayed on the display image 104 looks different between the pilot 46 and the instructor 48. This is because the virtual field-of-view image 102 uses the spatial sensor 12 for the player to
This is because the direction of view of each instructor 48 is detected and calculated. Therefore, it is possible to create an image that can be seen by the instructor 48 but cannot be seen by the pilot 46, that is, an image effect that differs depending on the direction of view, and a virtual world with a more realistic feeling can be realized. In this regard, such a video effect cannot be produced by a conventional method, that is, a method of simply providing a CRT display on a window, or a method of displaying a CRT image on a window by a half mirror.

【0071】更に、本実施形態では、パイロット46
は、映像カメラ10によりコックピット45の中にある
操作盤47、操縦桿42、教官48の顔などを見ながら
飛行機の操縦をシミュレートすることができる。従っ
て、一般に、複雑で操作しにくいといわれる飛行機の操
作盤47を、映像カメラ10により実際に自分の目で見
ながら操作できるため、操作ミスを劇的に減少させるこ
とができる。
Further, in this embodiment, the pilot 46
Can simulate the operation of an airplane while viewing the operation panel 47, the control stick 42, the face of the instructor 48, and the like in the cockpit 45 with the video camera 10. Therefore, the operation panel 47 of an airplane, which is generally considered to be complicated and difficult to operate, can be operated by the video camera 10 while actually seeing it with its own eyes, so that operation errors can be dramatically reduced.

【0072】即ち、例えば、これらの操作盤47、操縦
桿42等をも全て画像合成により作り出す方式による
と、パイロット46にとっての操作感はいまいち現実感
に欠けるものとなる。しかも、この方式によると、パイ
ロット46にデータグローブを装着させ、このデータグ
ローブからの操作信号に基づいて、操作盤47、操縦桿
42にパイロット46がどのような操作を行ったかを検
出させる必要が生じ、システムの規模が膨大なものとな
ってしまう。そして、このようにシステムでは、その規
模が膨大であるにもかかわらず、パイロット46の操作
感はいまいちであり、パイロット46の操作ミスが多い
という欠点がある。
That is, for example, according to a system in which all of the operation panel 47, the control stick 42, and the like are formed by image synthesis, the operation feeling for the pilot 46 is poorly realistic. Moreover, according to this method, it is necessary to attach a data glove to the pilot 46, and to detect what operation the pilot 46 has performed on the operation panel 47 and the control stick 42 based on an operation signal from the data glove. As a result, the scale of the system becomes enormous. In this way, the system has a drawback that the operation feeling of the pilot 46 is not good even though the scale is enormous, and there are many operation mistakes of the pilot 46.

【0073】この点、本実施形態では、コックピット4
5は本物の飛行機のコックピットと同様の構造になって
いるため、このような不都合は生じない。更に、本実施
形態では、隣にいる教官48を見ることもできるため、
教官48の指示なども的確に把握することができ、ま
た、操作ミスをした場合の教官48の怒った顔なども見
ることができ、より現実感の溢れるフライトシミュレー
ターを実現できることとなる。
In this respect, in this embodiment, the cockpit 4
5 has the same structure as the cockpit of a real airplane, so that such inconvenience does not occur. Further, in the present embodiment, since the instructor 48 next to the instructor can be seen,
The instructor 48's instructions and the like can be accurately grasped, and the angry face of the instructor 48 when an operation error is made can be seen, so that a more realistic flight simulator can be realized.

【0074】2.第2の実施形態 図5には、本第2の実施形態についてのブロック図が示
される。また、図6には、これをロールプレイングゲー
ムに適用した仮想体験装置の一例が示される。
2. Second Embodiment FIG. 5 shows a block diagram of the second embodiment. FIG. 6 shows an example of a virtual experience device in which this is applied to a role playing game.

【0075】図5に示すように、本第2の実施形態は、
本第1の実施形態のうち操作部38を、敵キャラクタと
の対戦用武器58に変更し、また、この対戦用武器58
に対戦武器用空間センサ64を取り付け、更に、仮想3
次元空間演算部72にゲーム成績演算部68を内蔵させ
たものである。
As shown in FIG. 5, this second embodiment is
In the first embodiment, the operation unit 38 is changed to a weapon 58 for battle with an enemy character.
Attach a space sensor 64 for battle weapons to the virtual 3
The game result calculation section 68 is built in the dimension space calculation section 72.

【0076】本第2の実施形態を適用したロールプレイ
ングゲームは、図6(a)に示すように示すような設
定、即ち、対戦用武器58、例えば剣60を所持した複
数のプレーヤ50、52等がチームを組んで敵キャラク
タ66を倒すという設定となっている。そして、それぞ
れのプレーヤは、本第1の実施形態と同様の構成の頭部
装着体9を装着しており、画像表示部20に映し出され
た表示画像104を見ながら、ゲームプレイを行ってい
る。
In the role playing game to which the second embodiment is applied, a setting as shown in FIG. 6A, that is, a plurality of players 50, 52 having a fighting weapon 58, for example, a sword 60, is provided. Are set to defeat the enemy character 66 in a team. Each player wears the head mounted body 9 having the same configuration as that of the first embodiment, and plays a game while watching the display image 104 projected on the image display unit 20. .

【0077】アトラクションルーム110は、その内側
が全てブルーの色に塗られており、これにより前述した
ようなブルーマット合成が可能となる。また、アトラク
ションルーム110の天井部には、プレーヤ50等の3
次元情報を検出する空間センサ12及び対戦用武器であ
る剣60の3次元情報を検出する空間センサ64が取り
付けられている。このアトラクションルーム110は、
プレーヤが実際にゲームプレイをするゲーム空間とほぼ
同面積の空間となっており、プレーヤ50、52等をこ
のアトラクションルーム110を自分自身で歩きなが
ら、敵キャラクタ66を倒してゆくこととなる。
The inside of the attraction room 110 is entirely painted in blue, so that the above-described blue mat composition can be performed. In addition, the ceiling of the attraction room 110 has 3
A space sensor 12 for detecting dimensional information and a space sensor 64 for detecting three-dimensional information of a sword 60 as a battle weapon are attached. This attraction room 110
The space is almost the same area as the game space where the player actually plays the game, and the enemy character 66 is defeated while walking the players 50, 52, and the like in the attraction room 110 by themselves.

【0078】図6(b)において、実空間映像100
は、プレーヤ50に取り付けられた映像カメラ10から
の映像であり、同図に示すように、この実空間映像10
0には、ブルーのアトラクションルーム110を背景と
して、自分自身の手54、目の前にいる第2のプレーヤ
52等が映し出される。この画像に、前記本第1の実施
形態と同様の手法により作り出された仮想視界画像10
2を画像合成し、表示画像104を作り出している。こ
の場合、仮想視界画像102には、敵キャラクタ66の
他に、ゲーム空間を構成する迷路、ドア、床等も共に表
示される。
In FIG. 6B, a real space image 100
Is an image from the image camera 10 attached to the player 50. As shown in FIG.
At 0, the own hand 54, the second player 52 in front of the user, and the like are displayed with the blue attraction room 110 as a background. A virtual view image 10 created by the same method as in the first embodiment is added to this image.
2 are synthesized to form a display image 104. In this case, in addition to the enemy character 66, a maze, a door, a floor, and the like that form the game space are also displayed in the virtual view image 102.

【0079】このような構成とすることにより、プレー
ヤ50は、表示画像104を見ながら、第2のプレーヤ
52と組みながら敵キャラクタ66を倒すことが可能と
なる。この場合、第2のプレーヤ52との連絡は、例え
ばスピーカ22を通じて行う。また、敵キャラクタ66
を倒したか否かの判定は、剣60に取り付けられた対戦
武器用空間センサ64により行う。
With this configuration, the player 50 can defeat the enemy character 66 while assembling with the second player 52 while watching the display image 104. In this case, communication with the second player 52 is performed through the speaker 22, for example. Also, the enemy character 66
Is determined by the space sensor 64 for the fighting weapon attached to the sword 60.

【0080】即ち、対戦武器用空間センサ64、64に
より、3次元情報、例えば剣60の位置及び方向を検出
する。そして、この剣60の3次元情報を基に、図5に
示す仮想3次元空間演算部72により、剣60による敵
キャラクタ66への攻撃が成功したか否かが正確に演算
される。そして、成功した場合には、ゲーム空間おける
敵キャラクタ66を消滅させる等して、これをリアルタ
イムにプレーヤ50、52等の画像表示装置20に表示
する。この結果、各プレーヤは、敵キャラクタ66が倒
れたか否かを確認でき、倒れた場合には、新たな敵キャ
ラクタ66を倒すべく次の迷路へと進むこととなる。こ
のように、本実施形態では、プレーヤ50、52等の腕
前によって、形成されるゲーム空間のゲーム進行を変え
ることが可能となり、繰り返しプレイしても飽きること
のない仮想体験装置を提供できることとなる。
That is, the three-dimensional information, for example, the position and direction of the sword 60 are detected by the battle weapon space sensors 64, 64. Then, based on the three-dimensional information of the sword 60, the virtual three-dimensional space calculation unit 72 shown in FIG. 5 accurately calculates whether or not the sword 60 has successfully attacked the enemy character 66. Then, when the game is successful, the enemy character 66 in the game space is erased or the like, and this is displayed on the image display device 20 such as the players 50 and 52 in real time. As a result, each player can check whether or not the enemy character 66 has fallen, and when it has fallen, the player advances to the next maze to defeat a new enemy character 66. As described above, in the present embodiment, it is possible to change the game progress in the game space formed by the skill of the players 50, 52, and the like, and to provide a virtual experience device that does not get tired even when playing repeatedly. .

【0081】なお、本実施形態では、各プレーヤのゲー
ム成績、即ち敵キャラクタ66を倒した数などが、前記
した対戦用空間センサ64からの3次元情報を基に、ゲ
ーム成績演算部68を用いて演算され、この成績も各プ
レーヤの画像表示装置20等に出力される。これによ
り、ゲーム終了後、もしくはゲーム中にリアルタイム
で、各プレーヤのゲーム成績、チーム毎のゲーム成績な
どを確認することができることになる。この結果、各プ
レーヤは、それぞれのプレーヤの腕前をリアルタイムに
競い合うことができるため、ゲームとしての面白さを飛
躍的に増大させることができることとなる。
In the present embodiment, the game score of each player, that is, the number of defeated enemy characters 66 is determined by using the game score calculation unit 68 based on the three-dimensional information from the battle space sensor 64 described above. The result is also output to the image display device 20 of each player. As a result, the game results of each player, the game results of each team, and the like can be confirmed after the game ends or during the game in real time. As a result, since each player can compete in real time with each player's skill, the fun as a game can be dramatically increased.

【0082】また、本実施形態では、プレーヤ50から
見える第2のプレーヤ52の映像情報として、映像カメ
ラ10により撮影される実空間映像を用いたが、本実施
形態はこれに限られるものではない。即ち、例えば第2
のプレーヤ52については実空間映像を用いず、仮想3
次元空間演算部72により合成したキャラクタを用いて
表示してもよい。このようにすれば、ゲームが進行して
敵キャラクター66を倒すにつれて第2のプレーヤを進
化させてゆく等の映像効果を得ることができ、よりゲー
ムの面白さを増すことができる。
Further, in the present embodiment, the real space video taken by the video camera 10 is used as the video information of the second player 52 seen from the player 50, but the present embodiment is not limited to this. . That is, for example, the second
The player 52 of the virtual
The display may be performed using a character synthesized by the dimension space calculation unit 72. By doing so, it is possible to obtain a video effect such as evolving the second player as the game progresses and defeats the enemy character 66, and the fun of the game can be further increased.

【0083】このように、他のプレーヤの実空間映像を
画像合成したキャラクタ画像に変更させる手法としては
以下の手法を用いることができる。例えば、プレーヤ毎
に違う色の戦闘スーツ、つまりアトラクションルーム1
10の内側と違う色の戦闘スーツを装着させ、本第1の
実施形態で説明したブルーマット方式と同様の手法によ
り画像合成を行う。即ち、第2のプレーヤにはレッドの
色の戦闘スーツを装着させ、映像カメラ10から、この
レッドの色の部分のみを前述した手法と同様の手法によ
り抜き出し、これを空きドットとして設定する。次に、
これに他のプレーヤに重ねて表示させたいキャラクタ画
像を重ね書きすれば、実空間映像100に、第2のプレ
ーヤ52のキャラクタ画像が重ね書きされた画像を得る
ことができる。その後、この重ね書きした画像から、今
度は、ブルーの色の部分のみを抜き出し、これを空きド
ットに設定し、これに敵キャラクタ66、迷路等が表示
された仮想視界画像102を重ね書きする。この結果、
第2のプレーヤ52がキャラクタ画像に変更した表示画
像104を得ることが可能となる。なお、このように第
2のプレーヤ52の画像を変更する手法としては、例え
ば前記したテクスチャマッピング手法を用いてもよい。
As described above, the following method can be used as a method of changing the real space image of another player into a character image obtained by image synthesis. For example, a battle suit of a different color for each player, that is, attraction room 1
A battle suit of a different color from the inside of 10 is mounted, and image synthesis is performed by the same method as the blue mat method described in the first embodiment. That is, the second player is fitted with a red-colored battle suit, and only the red-colored portion is extracted from the video camera 10 by a method similar to the above-described method, and is set as an empty dot. next,
By superimposing a character image that is to be displayed to be superimposed on another player, an image in which the character image of the second player 52 is superimposed on the real space video 100 can be obtained. After that, only the blue color portion is extracted from the overwritten image, this is set as an empty dot, and the virtual view image 102 on which the enemy character 66, the maze, and the like are displayed is overwritten. As a result,
It is possible for the second player 52 to obtain the display image 104 changed to the character image. As a method of changing the image of the second player 52 as described above, for example, the above-described texture mapping method may be used.

【0084】また、本実施形態では、対戦用武器58と
して剣60を使用しているが、本実施形態はこれに限ら
れるものではなく、例えば光線銃等あらゆる対戦武器を
用いることができる。そして、例えば光線銃等を用いた
場合には、プレーヤが光線銃を撃った否かの情報が必要
となるため、この場合は、図5に示すように仮想3次元
空間演算部72にこの情報が入力され、ゲーム空間の演
算に使用されることとなる。
In this embodiment, the sword 60 is used as the battle weapon 58. However, this embodiment is not limited to this, and any battle weapon such as a light gun can be used. When a light gun or the like is used, for example, information as to whether or not the player has shot the light gun is required. In this case, as shown in FIG. Is input and used for the calculation of the game space.

【0085】図7(a)には、本実施形態をライド方式
のアトラクション施設に適用した場合の仮想体験装置が
示される。
FIG. 7A shows a virtual experience apparatus when this embodiment is applied to a ride type attraction facility.

【0086】このアトラクションでは、プレーヤ50、
52は搬器116に搭乗し、この搬器116は、アトラ
クションルーム110内に敷かれたレール118上を移
動してゆく。アトラクションルーム110内には、種々
のジオラマ114が設けられ、また、アトラクションル
ーム110の内側にはブルーの色に塗られた背景マット
112が設けられている。そして、プレーヤ50、52
は、光線銃62により敵キャラクタ66を撃ち落とし
て、ゲームを競い合う。図7(b)には、この場合の画
像合成の様子が示されるが、この画像合成の方式は、本
第1の実施形態と同様である。
In this attraction, the player 50,
52 is mounted on a carrier 116, and the carrier 116 moves on a rail 118 laid in the attraction room 110. Various dioramas 114 are provided in the attraction room 110, and a background mat 112 painted in blue is provided inside the attraction room 110. Then, the players 50 and 52
Shoots down the enemy character 66 with the light gun 62 and competes for the game. FIG. 7B shows the state of image synthesis in this case. The method of this image synthesis is the same as in the first embodiment.

【0087】本実施形態を、アトラクション施設に利用
した場合は、主に次のような利点がある。
When the present embodiment is used in an attraction facility, the following advantages are mainly obtained.

【0088】まず、これまでの通常のアトラクション施
設では、一度、アトラクション施設を建設してしまう
と、施設が大がかりで高価なため、そのアトラクション
の内容を変更することは大変困難であった。このため、
プレーヤが何度か同じゲームを繰り返しても飽きられる
ことがないような対策を講ずることが必要とされる。こ
の点、本実施形態では、ジオラマ114を共通としなが
らも、背景マット112に映し出されるゲーム空間の仮
想映像を変更させることで、容易にこれに対処すること
ができる。また、前述したように、仮想3次元空間演算
部72にゲーム成績演算部68を設けることにより、更
に、効果的にこれに対処できる。
First, in conventional attraction facilities, once the attraction facility is constructed, it is very difficult to change the contents of the attraction because the facility is large and expensive. For this reason,
It is necessary to take measures to prevent the player from getting tired of playing the same game several times. In this regard, in the present embodiment, it is possible to easily cope with this by changing the virtual image of the game space projected on the background mat 112 while using the diorama 114 in common. Further, as described above, by providing the game result calculation unit 68 in the virtual three-dimensional space calculation unit 72, this can be dealt with more effectively.

【0089】即ち、各プレーヤが撃ち落とした敵キャラ
クタ66の数をリアルタイムにゲーム成績演算部68で
演算し、この撃ち落とした敵キャラクタ66の数に応じ
て、つまりプレーヤの腕前に応じて各プレーヤの画像表
示装置20に表示させる仮想画像102を変化させる。
例えば、腕前の高いプレーヤに対しては、仮想視界画像
102に映し出される敵キャラクタ66の数を増やし、
また、表示する敵キャラクタ66を強力なものとする。
更に、仮想視界画像102上に表示させるゲーム空間の
コースを、あらかじめ幾種類か設けておき、ゲーム成績
に応じて、いずれかのコースが選択されるような構成と
してもよい。これにより、このアトラクション施設に乗
るプレーヤは、何度乗っても違うゲームの仮想体験をす
ることができ、繰り返しプレーしても飽きることのない
アトラクション施設を提供できることとなる。
That is, the number of enemy characters 66 shot down by each player is calculated in real time by the game score calculation section 68, and the image of each player is calculated according to the number of enemy characters 66 shot down, that is, according to the skill of the player. The virtual image 102 displayed on the display device 20 is changed.
For example, for a player with high skill, the number of enemy characters 66 displayed in the virtual view image 102 is increased,
Also, the enemy character 66 to be displayed is made strong.
Further, a configuration may be adopted in which several kinds of courses of the game space to be displayed on the virtual view image 102 are provided in advance, and one of the courses is selected according to the game result. As a result, a player riding this attraction facility can experience a virtual experience of a different game no matter how many times he or she rides, and can provide an attraction facility that does not get tired even after repeated playing.

【0090】本実施形態の、もう一つの利点は、このよ
うに飽きのこないアトラクション施設を実現できるにも
関わらず、アトラクションルーム内のジオラマ114等
については実空間画像を用いることができるため、より
現実感溢れるアトラクションを実現できることにある。
Another advantage of the present embodiment is that, despite the fact that an attraction facility that does not get tired as described above can be realized, a real space image can be used for the diorama 114 and the like in the attraction room. It is to be able to realize attractions full of reality.

【0091】例えば、搬器116がいわゆるジェットコ
ースタータイプのものであった場合、プレーヤから見え
るジオラマ114が実空間映像である方のが、プレーヤ
にとってよりスリリングで、スピード感溢れるアトラク
ションを実現できる。即ち、ユーザーから見える視界映
像が全て画像合成により作り出したものであると、ジェ
ットコースターが本来もつスピード、緊張感、迫力を十
分に再現できないからである。この点、本実施形態で
は、隣にいる他のプレーヤの顔も実空間映像として見る
ことができ、よりジェットコースターが本来もつ機能を
発揮させることができる。
For example, when the transporter 116 is of a so-called roller coaster type, an attraction full of thrilling and speed can be realized when the diorama 114 seen from the player is a real space image. That is, if all the visual images viewed by the user are created by image synthesis, the inherent speed, tension and power of the roller coaster cannot be sufficiently reproduced. In this regard, in the present embodiment, the face of another player adjacent to the roller coaster can also be viewed as a real space image, and the function inherent to the roller coaster can be exhibited more.

【0092】また、ジオラマ114が、プレーヤの手に
触れるものである場合も、その映像は実空間映像である
場合の方が、より臨場感溢れるアトラクションを提供で
きる。この点については、例えば、図8に示すような本
実施形態を適用したアトラクションに示される。
Also, when the diorama 114 touches the player's hand, it is possible to provide a more realistic attraction when the video is a real space video. This point is shown, for example, in an attraction to which the present embodiment is applied as shown in FIG.

【0093】図8に示すアトラクションは、宇宙船13
4による飛行及び戦闘を疑似的に体験できるアトラクシ
ョンである。
The attraction shown in FIG.
This is an attraction that allows you to experience flying and fighting in a simulated manner.

【0094】このアトラクションでは、図8(a)に示
すように、複数のプレーヤが、宇宙船134の宇宙船キ
ャビン120内に乗り込む。宇宙船キャビン120内
は、本物の宇宙船内に極めて似せて作られており、例え
ば操縦席、戦闘席等が設けられている。この場合、特に
プレーヤが直接に触る操縦桿132、操作盤130は、
戦闘砲144は、極めて本物に似せて精巧に作られてい
る。
In this attraction, as shown in FIG. 8A, a plurality of players get into the spacecraft cabin 120 of the spacecraft 134. The spacecraft cabin 120 is made very similar to a real spacecraft, and is provided with, for example, a cockpit and a combat seat. In this case, in particular, the control stick 132 and the operation panel 130 that the player directly touches are
The artillery 144 is elaborately made to look very real.

【0095】宇宙船キャビン120内に乗り込んだプレ
ーヤは、それぞれの役割に従って、操縦士、副操縦士、
射撃手として操縦席、戦闘席等に配置される。そして、
操縦席に配置された操縦士146、副操縦士147は、
操縦席用窓122に前述したブルーマット方式により映
し出された隕石140等を避けながら操縦桿132、操
作盤130等により宇宙船134の操縦を行う。この場
合、本実施形態では、前述したように各プレーヤに空間
センサ12を取り付け、各プレーヤ毎に視界方向を演算
し、この演算により得られた視界画像を画像表示装置2
0に表示している。この結果、宇宙船134に近づいて
くる隕石140の見え方が、操縦士146、副操縦士1
47、射撃手148とで異なって見えるように設定でき
るため、より臨場感、現実感溢れるアトラクションを提
供できることとなる。更に、操縦士146、副操縦士1
47は、本物に極めて似せて作られた操縦桿132、操
作盤130を操作しながら宇宙船を操縦できるため、本
物の宇宙船を操縦しているかのような感覚でプレイでき
ることとなる。
The players aboard the spacecraft cabin 120, according to their roles, the pilot, the co-pilot,
It is placed in the cockpit, combat seat, etc. as a shooter. And
The pilot 146 and the co-pilot 147 arranged in the cockpit,
The spacecraft 134 is controlled by the control column 132 and the control panel 130 while avoiding the meteorite 140 and the like projected on the cockpit window 122 by the blue mat method described above. In this case, in the present embodiment, as described above, the space sensor 12 is attached to each player, the direction of the view is calculated for each player, and the view image obtained by the calculation is displayed on the image display device 2.
0 is displayed. As a result, the appearance of the meteorite 140 approaching the spacecraft 134 is determined by the pilot 146 and the first officer.
47 and the shooter 148 can be set to look different from each other, so that an attraction full of a sense of reality and a sense of reality can be provided. In addition, Pilot 146, Copilot 1
47 can operate the spacecraft while operating the control stick 132 and the operation panel 130 which are made very similar to the real thing, so that the player can play as if he were operating a real spacecraft.

【0096】戦闘席に配置された射撃手148、149
は、対戦用武器である戦闘砲144により、左側窓12
4、右側窓125にブルーマット方式により映し出され
る宇宙船142を撃ち落とす。この場合のゲーム成績
は、ゲーム成績演算部68により演算されて、ゲーム中
にリアルタイムに、もしくはゲーム終了後に全員の乗組
員のゲーム結果として表示されることになる。
Shooters 148, 149 arranged in the battle seat
Is operated by a battle weapon 144 which is a battle weapon.
4. The spacecraft 142 projected on the right window 125 by the blue mat method is shot down. The game score in this case is calculated by the game score calculation unit 68, and is displayed in real time during the game or as a game result of all the crew members after the game is over.

【0097】なお、図8(b)に示すように、プレーヤ
が乗り込む宇宙船134は、油圧等を用いた姿勢制御部
138により、ゲーム進行及びプレーヤの操作信号に応
じて姿勢、加速Gが制御され、より現実感が増すような
構成となっている。
As shown in FIG. 8B, the attitude and acceleration G of the spacecraft 134 on which the player rides are controlled by the attitude control unit 138 using hydraulic pressure or the like in accordance with the game progress and the player's operation signals. Thus, the configuration is such that the sense of reality is further increased.

【0098】このように、本実施形態では、それぞれの
プレーヤが異なる役割について、極めて本物に近い宇宙
船内で一体となってプレーできるため、飽きのこない臨
場感溢れるアトラクションを提供できることとなる。
As described above, in the present embodiment, since each player can play a different role in a very near-real spacecraft integrally, it is possible to provide an attraction full of realism without getting tired.

【0099】なお、以上に説明した実施形態では画像表
示部20と画像合成部(図5における仮想視界画像演算
装置70、表示画像合成装置80等)が別々の場所に配
置され、接続線18によりこれを接続する構成としてい
たが、本実施形態はこれに限らず、画像合成部も含めて
全て画像表示部20に内蔵させる構成としても良いし、
図9に示すように、双方向無線機160を用いてこれを
接続する構成としてもよい。
In the above-described embodiment, the image display unit 20 and the image synthesizing unit (the virtual visual field image calculating device 70, the display image synthesizing device 80, and the like in FIG. 5) are arranged at different places. Although the configuration is such that these are connected, the present embodiment is not limited to this, and a configuration in which all the components including the image combining unit are incorporated in the image display unit 20 may be used.
As shown in FIG. 9, a configuration may be employed in which the two-way radios 160 are used to connect them.

【0100】この歩行型アトラクションは、図9
(a)、(b)に示すように頭部装着体9、双方向無線
機160、光線銃62を装備したプレーヤ50が、迷路
150内を自分で進みながら敵キャラクタ66を倒すと
いう設定のアトラクションである。このように迷路15
0内を自ら進んで行くようなアトラクションでは、プレ
ーヤの動きに、より自由度をもたせることが望ましい。
従って、本実施形態では、画像合成部との接続を、双方
向無線機160により行っている。なお、この場合の双
方向無線の方法としては、例えば赤外線等を用いても構
わない。
This walking type attraction is shown in FIG.
(A) As shown in (b), an attraction in which the player 50 equipped with the head-mounted body 9, the two-way radio 160, and the light gun 62 defeats the enemy character 66 while traveling in the maze 150 by himself. It is. Thus maze 15
In an attraction in which the player goes within 0, it is desirable that the player's movement has more freedom.
Therefore, in the present embodiment, the connection with the image synthesizing unit is performed by the two-way wireless device 160. In this case, as the two-way wireless method, for example, infrared rays or the like may be used.

【0101】ここで、迷路150には、窓152、絵1
54、エレベータ156、ドア158などが設けられて
いる。そして、窓152には全面にブルーマットが敷か
れ、絵154には、敵キャラクタ66が現れる部分のみ
にブルーマットが敷かれている。
Here, the maze 150 has a window 152, a picture 1
54, an elevator 156, a door 158, and the like. Then, a blue mat is laid on the entire surface of the window 152, and a blue mat is laid on only the portion where the enemy character 66 appears in the picture 154.

【0102】また、エレベータ156、ドア158は、
その内部がブルーに塗られている。これにより、プレー
ヤ50がエレベータボタンを押してエレベータを開けた
際に、もしくは、ドアのノブを回してドアを開けた際
に、その中から敵キャラクタ66が飛び出してくるよう
な構成とすることが可能となり、おばけ屋敷のようなゲ
ームのアトラクションに最適なものとなる。なお、この
場合も本実施形態では、エレベータのボタン、ドアのノ
ブ等は本物のものを用いており、プレーヤ50もその実
映像を見ながら操作できるため、より現実感溢れる仮想
世界を楽しむことができることとなる。
The elevator 156 and the door 158 are
The inside is painted blue. Thus, when the player 50 presses the elevator button to open the elevator or turns the door knob to open the door, the enemy character 66 can jump out of the door. This makes it ideal for attractions in games such as ghost houses. In this case as well, in the present embodiment, the elevator buttons, door knobs, and the like are genuine, and the player 50 can operate while watching the actual image, so that a more realistic virtual world can be enjoyed. Becomes

【0103】3.第3の実施形態 図10には、本第3の実施形態についてのブロック図が
示される。また、図11には、これをゴルフに適用した
仮想体験装置の一例が示される。なお、ここでは仮にゴ
ルフに適用した場合について示したが、本実施形態はこ
れに限定されず種々のスポーツに適用できる。
3. Third Embodiment FIG. 10 is a block diagram showing the third embodiment. FIG. 11 shows an example of a virtual experience apparatus in which the present invention is applied to golf. Although the case where the present invention is applied to golf is shown here, the present embodiment is not limited to this and can be applied to various sports.

【0104】図10に示すように、本第3の実施形態
は、本第1の実施形態のうち操作部38を、ボール映像
カメラ84、86及び移動体検出装置88、90に変更
したものであり、主にボールを用いた球技に好適な実施
形態である。
As shown in FIG. 10, the third embodiment is different from the first embodiment in that the operation unit 38 is changed to ball video cameras 84 and 86 and moving object detection devices 88 and 90. This is an embodiment suitable mainly for ball games using a ball.

【0105】図11(a)には、本第2の実施形態を適
用したインドアゴルフの一例が示される。この実施形態
は、プレーヤ50が、プレイルーム162内において、
本物のゴルフとほぼ同様の感覚で仮想世界を体験するこ
とができる仮想体験装置に関するものである。
FIG. 11A shows an example of indoor golf to which the second embodiment is applied. In this embodiment, when the player 50 is in the play room 162,
The present invention relates to a virtual experience device that allows the user to experience a virtual world with almost the same feeling as real golf.

【0106】図11(a)において、プレイルーム16
2内は全てブルーの色に塗られており、プレーヤ50
は、第1の実施形態と同様の構成の頭部装着体9を装着
している。そして、プレーヤ50は、本物のゴルフコー
スにいるような感覚で、本物のゴルフクラブ164を用
いて、本物のゴルフボール166のショットを行う。
In FIG. 11A, the play room 16
2 are all painted in blue and the player 50
Is equipped with a head-mounted body 9 having the same configuration as that of the first embodiment. Then, the player 50 makes a shot of the real golf ball 166 using the real golf club 164 as if he were at a real golf course.

【0107】この場合、プレイルーム162内には、仮
想3次元空間演算部72により作り出されたゴルフコー
スの画像が画像表示装置20を介して映し出され、プレ
ーヤ50は、あたかも本物のゴルフコースにいるような
感覚を持つことができる。そして、プレーヤ50が前を
向くと、その視線方向には、図11(b)に示すよう
に、ゴルフコースのグリーン162を示した仮想視界画
像102が映し出されている。
In this case, in the play room 162, the image of the golf course created by the virtual three-dimensional space calculation unit 72 is displayed via the image display device 20, and the player 50 is as if the player is at a real golf course. You can have a feeling like that. When the player 50 faces forward, a virtual view image 102 showing a green 162 of the golf course is projected in the direction of the line of sight, as shown in FIG. 11B.

【0108】そして、プレーヤ50がゴルフボール16
6のショットを行うと、ショットされたゴルフボール1
66は、ボール映像カメラ84、86により撮影され
る。そしてこの撮影映像に基づいて移動体検出装置8
8、90によりゴルフボール166の重心座標が演算さ
れ、このデータに基づき、その後のゴルフボール166
の軌道を推定して演算する。次に、仮想3次元空間演算
部72にて、この推定されたゴルフボール166の軌道
データに基づき、仮想世界に設定されたゴルフコース上
にゴルフボールの軌道を描き、これを実空間映像100
と画像合成して画像表示装置20に画像表示する。これ
によりプレーヤ50は、自分のショットしたゴルフボー
ル166がグリーン162に向かって飛んでゆく様子
が、表示画像104により見ることができることとな
る。
Then, the player 50 moves the golf ball 16
When the shot of No. 6 is performed, the shot golf ball 1
66 is photographed by the ball video cameras 84 and 86. Then, based on the photographed image, the moving object detecting device 8
The coordinates of the center of gravity of the golf ball 166 are calculated by using the data 8 and 90.
Is calculated by estimating the trajectory of. Next, the virtual three-dimensional space calculation unit 72 draws the trajectory of the golf ball on the golf course set in the virtual world based on the estimated trajectory data of the golf ball 166,
And image display on the image display device 20. This allows the player 50 to see the golf ball 166 shot by the player 50 flying toward the green 162 on the display image 104.

【0109】次に、ゴルフボール166の移動体検出の
手法について説明する。
Next, a method of detecting a moving object of the golf ball 166 will be described.

【0110】ボール映像カメラ86、89は、ゴルフボ
ール166を連続撮影するものであり、図11(a)に
示すように、プレイルーム162内の、異なる位置、異
なる撮影アングルにて設定される。そしてこの撮影デー
タは、移動体座標検出部88、90内のデータ抽出部9
2、94にコマ送りフレームデータとして入力される。
データ抽出部92、94では、背景処理によりボールの
撮影データのみが抽出される。即ち、ゴルフボール16
6の映っていないフレームデータと映っているフレーム
データとの差分を求め、これをフレームバッファと呼ば
れる画像メモリに重ね書きしてゆく。これにより、結果
としてゴルフボール166の映像のみが映し出された画
像データを得ることができる。
The ball video cameras 86 and 89 are for continuously photographing the golf ball 166, and are set at different positions and different photographing angles in the play room 162 as shown in FIG. The photographing data is stored in the data extracting unit 9 in the moving body coordinate detecting units 88 and 90.
2 and 94 are input as frame advance frame data.
In the data extracting units 92 and 94, only the photographing data of the ball is extracted by the background processing. That is, the golf ball 16
The difference between the frame data not shown and the frame data shown in No. 6 is obtained, and this is overwritten in an image memory called a frame buffer. As a result, image data in which only the image of the golf ball 166 is projected can be obtained.

【0111】次に、得られたこの画像データから、座標
検出部96、98において、ゴルフボール166の位
置、例えば重心位置の2次元座標を求められ、仮想3次
元空間演算部72に出力される。
Next, two-dimensional coordinates of the position of the golf ball 166, for example, the position of the center of gravity, are obtained from the obtained image data in the coordinate detectors 96 and 98, and output to the virtual three-dimensional space calculator 72. .

【0112】仮想3次元空間演算部72では、移動体検
出装置88、90で検出された、ゴルフボール166の
2つの2次元座標から、仮想3次元空間内での3次元座
標を求める。即ち、仮想3次元空間演算部72には、ボ
ール映像カメラ84、86の仮想3次元空間内での設定
位置、設定アングルがあらかじめ記憶されており、この
記憶データと、検出された2つの2次元座標から、仮想
3次元空間内での3次元座標を求めることが可能とな
る。そして、この求められた3次元座標から、仮想3次
元空間でのゴルフボール166の軌道を、例えばスプラ
イン補間等を用いて演算し、ゴルフコースの背景データ
と共に、視界画像演算部76に出力する。なお、ゴルフ
ボール166の軌道の推定の手法としては、上記したも
のに限らず種々の手法を用いることができる。例えば、
打った方向と、インパクトの時の初速からこれを推定し
てもよいし、打った瞬間の音等のよりこれを推定しても
よい。
The virtual three-dimensional space calculation unit 72 obtains three-dimensional coordinates in the virtual three-dimensional space from the two two-dimensional coordinates of the golf ball 166 detected by the moving object detection devices 88 and 90. That is, the virtual three-dimensional space calculation unit 72 previously stores the set positions and set angles of the ball video cameras 84 and 86 in the virtual three-dimensional space, and stores the stored data and the two detected two-dimensional data. From the coordinates, three-dimensional coordinates in a virtual three-dimensional space can be obtained. Then, from the obtained three-dimensional coordinates, the trajectory of the golf ball 166 in the virtual three-dimensional space is calculated using, for example, spline interpolation or the like, and is output to the view image calculation unit 76 together with the background data of the golf course. Note that the method of estimating the trajectory of the golf ball 166 is not limited to the above, and various methods can be used. For example,
This may be estimated from the striking direction and the initial speed at the time of impact, or may be estimated from the sound at the moment of striking.

【0113】また、例えばプレーヤ50の切り替え信号
により、プレーヤ50から見た映像のみならず、例えば
グリーン162から見た映像を画像表示装置20に表示
することも可能である。即ち、これを行うには、視界画
像演算部76で視点変換を行う際に、視点位置をグリー
ン162上に設定すればよい。このようにすれば、プレ
ーヤ50は、実際にゴルフボール166がグリーン16
2に飛んで行く様子と、ゴルフボール166がグリーン
162に飛んで来る様子を同時に見ることができ、現実
のゴルフプレイでは得られないプレイ感覚を楽しむこと
ができることとなる。
For example, not only the image viewed from the player 50 but also the image viewed from the green 162 can be displayed on the image display device 20 by, for example, a switching signal of the player 50. That is, to perform this, the viewpoint position may be set on the green 162 when the viewpoint image calculation unit 76 performs the viewpoint conversion. By doing so, the player 50 actually makes the golf ball 166
2 and the golf ball 166 flying on the green 162 can be seen at the same time, and it is possible to enjoy a feeling of play that cannot be obtained in actual golf play.

【0114】以上の構成の本実施形態によれば、プレー
ヤ50は、プレイルーム162内にて、実際にゴルフコ
ースにいるような感覚でゴルフを楽しむことができる。
特に、この種のボールを用いた競技、例えばゴルフにお
いては、クラブ164によりゴルフボール166をショ
ットした瞬間をプレーヤ50が正確に認識する必要があ
る。即ち、このショットした瞬間のクラブ164、ゴル
フボール166を、例えば画像合成により作り出したの
では、プレイ感覚が著しく悪化し、現実感も減退してし
まい、更に、正確なスポーツプレーを再現することがで
きない。
According to the present embodiment having the above configuration, the player 50 can enjoy golf in the play room 162 as if he or she were actually at a golf course.
In particular, in a game using such a ball, for example, golf, the player 50 needs to accurately recognize the moment when the golf ball 166 is shot by the club 164. That is, if the club 164 and the golf ball 166 at the moment of this shot are created by, for example, image synthesis, the sense of play is significantly deteriorated, the sense of reality is reduced, and moreover, accurate sports play can be reproduced. Can not.

【0115】これに対して、本実施形態では、ゴルフク
ラブ164、ゴルフボール166、自分のスイング等
を、映像カメラ10を通じて得られた実空間映像により
見ることができるため、このような問題が生じず、より
正確で、現実感溢れるゴルフプレーを楽しむことができ
ることとなる。従って、例えば、球技練習用の仮想体験
装置として最適なものとなる。
On the other hand, in the present embodiment, the golf club 164, the golf ball 166, the player's own swing, and the like can be seen from the real space image obtained through the image camera 10, so that such a problem occurs. Therefore, a more accurate and realistic golf play can be enjoyed. Therefore, for example, the virtual experience device for ball game practice is optimal.

【0116】なお、本発明は上記実施形態に限定される
ものではなく、本発明の要旨の範囲内において種々の変
形実施が可能である。
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the present invention.

【0117】例えば、本実施形態においては、仮想視界
画像と実空間映像とを画像合成する手法としてブルーマ
ット方式を用いたが、本発明における画像合成はこれに
限られるものではない。例えばブルー以外の色を用いた
もの、多数の色を用いてこれを複合させて画像合成する
もの、テクスチャマッピングを用いたもの等、種々の手
法を使用することができる。
For example, in the present embodiment, the blue mat method is used as a method of synthesizing the virtual visual field image and the real space image, but the image synthesis in the present invention is not limited to this. For example, various methods can be used, such as a method using a color other than blue, a method using multiple colors and combining them to form an image, and a method using texture mapping.

【0118】また、本発明が適用される仮想体験装置
も、本実施形態に示したものに限らず種々の体験装置に
適用することができる。例えば、ヘリコプターのフライ
トシミュレータ、仮想的な人体手術体験装置、仮想スタ
ジオ、仮想動物園、仮想設計システム、仮想電話、仮想
通信会議、仮想野球体験装置、仮想スキー、仮想サッカ
ー等、種々の体験装置に適用することが可能である。
The virtual experience apparatus to which the present invention is applied is not limited to the one shown in the present embodiment, but can be applied to various experience apparatuses. For example, it is applied to various experience devices such as a helicopter flight simulator, a virtual human body surgery experience device, a virtual studio, a virtual zoo, a virtual design system, a virtual telephone, a virtual communication conference, a virtual baseball experience device, a virtual ski, a virtual soccer, etc. It is possible to

【0119】[0119]

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施形態の構成を示すブロック図であ
る。
FIG. 1 is a block diagram illustrating a configuration of a first embodiment.

【図2】第1の実施形態をドライビングゲームに適用し
た場合について示す概略説明図である。
FIG. 2 is a schematic explanatory diagram showing a case where the first embodiment is applied to a driving game.

【図3】第1の実施形態をフライトシミュレータに適用
した場合について示す概略説明図である。
FIG. 3 is a schematic explanatory diagram showing a case where the first embodiment is applied to a flight simulator.

【図4】頭部装着体の形状について示す概略説明図であ
る。
FIG. 4 is a schematic explanatory view showing a shape of a head mounted body.

【図5】第2の実施形態の構成を示すブロック図であ
る。
FIG. 5 is a block diagram illustrating a configuration of a second embodiment.

【図6】第2の実施形態をロールプレイングゲームに適
用した場合について示す概略説明図である。
FIG. 6 is a schematic explanatory diagram showing a case where the second embodiment is applied to a role playing game.

【図7】第2の実施形態をライド方式のアトラクション
に適用した場合について示す概略説明図である。
FIG. 7 is a schematic explanatory diagram showing a case where the second embodiment is applied to a ride-type attraction.

【図8】第2の実施形態を宇宙船体験のアトラクション
に適用した場合について示す概略説明図である。
FIG. 8 is a schematic explanatory diagram showing a case where the second embodiment is applied to an attraction of a spaceship experience.

【図9】第2の実施形態を歩行型アトラクションに適用
した場合について示す概略説明図である。
FIG. 9 is a schematic explanatory diagram showing a case where the second embodiment is applied to a walking attraction.

【図10】第3の実施形態の構成を示すブロック図であ
る。
FIG. 10 is a block diagram illustrating a configuration of a third embodiment.

【図11】第3の実施形態をゴルフ体験装置に適用した
場合について示す概略説明図である。
FIG. 11 is a schematic explanatory view showing a case where the third embodiment is applied to a golf experience device.

【図12】本実施形態における座標変換について説明す
るための概略説明図である。
FIG. 12 is a schematic explanatory diagram for describing coordinate conversion in the present embodiment.

【図13】表示画像合成装置の構成の一例を示す概略ブ
ロック図である。
FIG. 13 is a schematic block diagram illustrating an example of a configuration of a display image composition device.

【図14】サイドミラーに画像を表示する手法について
説明するための概略説明図である。
FIG. 14 is a schematic explanatory diagram for describing a method of displaying an image on a side mirror.

【図15】テクスチャマッピング手法により、相手プレ
ーヤの顔に実空間映像をはりつける手法について説明す
る概略説明図である。
FIG. 15 is a schematic explanatory diagram illustrating a method of attaching a real space image to a face of an opponent player by a texture mapping method.

【図16】テクスチャマッピング手法を実現するための
構成の一例を示す概略ブロック図である。
FIG. 16 is a schematic block diagram illustrating an example of a configuration for realizing a texture mapping method.

【符号の説明】[Explanation of symbols]

9 頭部装着体 10 映像カメラ 12 空間センサ 20 画像表示装置 38 操作部 50 プレーヤ 58 対戦用武器 64 対戦武器用センサ 68 ゲーム成績演算部 70 仮想視界画像演算装置 72 仮想3次元空間演算部 76 視界画像演算部 80 表示画像合成装置 84、86 ボール映像カメラ 88、90 移動体検出装置 100 実空間映像 102 仮想視界画像 104 表示画像 Reference Signs List 9 head-mounted body 10 video camera 12 space sensor 20 image display device 38 operation unit 50 player 58 battle weapon 64 battle weapon sensor 68 game performance calculation unit 70 virtual view image calculation unit 72 virtual 3D space calculation unit 76 view image Calculation unit 80 Display image synthesizing device 84, 86 Ball image camera 88, 90 Moving object detecting device 100 Real space image 102 Virtual field-of-view image 104 Display image

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G09B 9/30 G06F 15/62 360 15/72 350 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FI G09B 9/30 G06F 15/62 360 15/72 350

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 仮想3次元空間内の物体にマッピングす
るテクスチャを記憶するテクスチャ記憶手段と、 撮像手段により撮像された画像を前記テクスチャとして
前記テクスチャ記憶手段に書き込む手段と、 前記テクスチャ記憶手段に記憶されるテクスチャを仮想
3次元空間内の物体にマッピングし、仮想3次元空間内
の所与の視点から見える画像を合成する画像合成手段と
を含むことを特徴とする画像合成装置。
A texture storage unit that stores a texture to be mapped to an object in a virtual three-dimensional space; a unit that writes an image captured by an imaging unit as the texture in the texture storage unit; and a storage unit that stores the texture in the texture storage unit. Image synthesizing means for mapping the texture to be rendered to an object in a virtual three-dimensional space, and synthesizing an image viewed from a given viewpoint in the virtual three-dimensional space.
【請求項2】 請求項1において、 撮像手段によりリアルタイムに撮像された画像を、仮想
3次元空間内の物体にリアルタイムにマッピングするこ
とを特徴とする画像合成装置。
2. The image synthesizing apparatus according to claim 1, wherein an image captured in real time by the image capturing means is mapped to an object in a virtual three-dimensional space in real time.
【請求項3】 請求項1において、 ゲームプレイの開始前に撮像手段により撮像された画像
を、仮想3次元空間内の物体にマッピングすることを特
徴とする画像合成装置。
3. The image synthesizing apparatus according to claim 1, wherein an image picked up by the image pickup means before the start of game play is mapped to an object in a virtual three-dimensional space.
【請求項4】 請求項1乃至3のいずれかにおいて、 撮像手段によりプレーヤを撮像することで得られる画像
を仮想3次元空間内の物体にマッピングすることを特徴
とする画像合成装置。
4. The image synthesizing apparatus according to claim 1, wherein an image obtained by imaging the player by the imaging means is mapped to an object in a virtual three-dimensional space.
【請求項5】 請求項4において、 複数の撮像手段により複数の方向からプレーヤを撮像す
ることで得られる複数の画像を仮想3次元空間内の物体
にマッピングすることを特徴とする画像合成装置。
5. The image synthesizing apparatus according to claim 4, wherein a plurality of images obtained by imaging the player from a plurality of directions by a plurality of imaging means are mapped to an object in a virtual three-dimensional space.
【請求項6】 請求項1乃至5のいずれかにおいて、 撮像手段によりプレーヤの頭部を撮像することで得られ
るプレーヤの頭部の画像を仮想3次元空間内のプレーヤ
の頭部を表す物体にマッピングすることを特徴とする画
像合成装置。
6. The player head according to claim 1, wherein an image of the player's head obtained by imaging the head of the player by the imaging means is converted into an object representing the player's head in a virtual three-dimensional space. An image synthesizing device, which performs mapping.
【請求項7】 請求項1乃至6のいずれかにおいて、 第1の撮像手段により撮像された第1のプレーヤの画像
を仮想3次元空間内の第1の物体にマッピングし、第2
の撮像手段により撮像された第2のプレーヤの画像を仮
想3次元空間内の第2の物体にマッピングし、 第1のプレーヤが見る第1の画面に前記第2の物体を表
示し、第2のプレーヤが見る第2の画面に前記第1の物
体を表示することを特徴とする画像合成装置。
7. The method according to claim 1, wherein an image of the first player imaged by the first imaging means is mapped to a first object in a virtual three-dimensional space, and
Mapping the image of the second player imaged by the imaging means on a second object in the virtual three-dimensional space, displaying the second object on a first screen viewed by the first player, An image synthesizing apparatus, wherein the first object is displayed on a second screen viewed by the player.
【請求項8】 請求項1乃至7のいずれかにおいて、 仮想3次元空間内の前記物体がポリゴンにより構成され
ていることを特徴とする画像合成装置。
8. The image synthesizing apparatus according to claim 1, wherein the object in the virtual three-dimensional space is constituted by polygons.
【請求項9】 仮想3次元空間内の物体にマッピングす
るテクスチャを記憶するテクスチャ記憶手段に、撮像手
段により撮像された画像を前記テクスチャとして書き込
み、 前記テクスチャ記憶手段に記憶されるテクスチャを仮想
3次元空間内の物体にマッピングし、仮想3次元空間内
の所与の視点から見える画像を合成することを特徴とす
る画像合成方法。
9. A texture storage unit for storing a texture to be mapped to an object in a virtual three-dimensional space, an image captured by an imaging unit is written as the texture, and the texture stored in the texture storage unit is stored in a virtual three-dimensional space. An image synthesis method, which maps an object in a space and synthesizes an image viewed from a given viewpoint in a virtual three-dimensional space.
JP10117854A 1998-04-13 1998-04-13 Image synthesizer and image synthesizing method Pending JPH113437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10117854A JPH113437A (en) 1998-04-13 1998-04-13 Image synthesizer and image synthesizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10117854A JPH113437A (en) 1998-04-13 1998-04-13 Image synthesizer and image synthesizing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP4350608A Division JPH06176131A (en) 1992-12-03 1992-12-03 Picture synthesis device and virtual reality device using the same

Publications (1)

Publication Number Publication Date
JPH113437A true JPH113437A (en) 1999-01-06

Family

ID=14721944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10117854A Pending JPH113437A (en) 1998-04-13 1998-04-13 Image synthesizer and image synthesizing method

Country Status (1)

Country Link
JP (1) JPH113437A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000050246A (en) * 2000-05-30 2000-08-05 김호광 Method for modifying graphic image of object in game producing tools, and device therefor
JP2005169063A (en) * 2003-11-21 2005-06-30 Takechika Nishi Image display device and simulation device
US6951515B2 (en) 1999-06-11 2005-10-04 Canon Kabushiki Kaisha Game apparatus for mixed reality space, image processing method thereof, and program storage medium
JP2012018663A (en) * 2010-06-10 2012-01-26 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system and image processing method
JP2018129043A (en) * 2014-03-14 2018-08-16 株式会社ソニー・インタラクティブエンタテインメント Game machine equipped with volumetric sensing

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6951515B2 (en) 1999-06-11 2005-10-04 Canon Kabushiki Kaisha Game apparatus for mixed reality space, image processing method thereof, and program storage medium
KR20000050246A (en) * 2000-05-30 2000-08-05 김호광 Method for modifying graphic image of object in game producing tools, and device therefor
JP2005169063A (en) * 2003-11-21 2005-06-30 Takechika Nishi Image display device and simulation device
JP2012018663A (en) * 2010-06-10 2012-01-26 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system and image processing method
JP2018129043A (en) * 2014-03-14 2018-08-16 株式会社ソニー・インタラクティブエンタテインメント Game machine equipped with volumetric sensing

Similar Documents

Publication Publication Date Title
JPH06176131A (en) Picture synthesis device and virtual reality device using the same
CN109478340B (en) Simulation system, processing method, and information storage medium
JP2799126B2 (en) Video game device and game input device
CN109478345B (en) Simulation system, processing method, and information storage medium
US20190105572A1 (en) Drivable vehicle augmented reality game
CN109478341B (en) Simulation system, processing method, and information storage medium
JP3273038B2 (en) Virtual experience type game device
WO2018124280A1 (en) Simulation system, image processing method, and information storage medium
JP6396027B2 (en) Program and game device
US20060223637A1 (en) Video game system combining gaming simulation with remote robot control and remote robot feedback
CN110769906B (en) Simulation system, image processing method, and information storage medium
JP2000033184A (en) Whole body action input type game and event device
JP2020204856A (en) Image generation system and program
JP7071823B2 (en) Simulation system and program
JP7484210B2 (en) Game System
JP3273017B2 (en) Image synthesis device and virtual experience device using the same
JP2002224434A (en) Image composing device, virtual experience device, and image composing method
JP2888723B2 (en) Three-dimensional game device and image composition method
JPH113437A (en) Image synthesizer and image synthesizing method
JP3447397B2 (en) 3D simulator apparatus and image composition method
JPH0724141A (en) Game device using head-mounted body
JP2888830B2 (en) Three-dimensional game device and image composition method
JP2018171309A (en) Simulation system and program
JP3642779B2 (en) 3D simulator apparatus and image composition method
JP3836121B2 (en) Home game device and game image composition method for home game device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20000201