JPH06277362A - Three-dimensional game device - Google Patents

Three-dimensional game device

Info

Publication number
JPH06277362A
JPH06277362A JP5092144A JP9214493A JPH06277362A JP H06277362 A JPH06277362 A JP H06277362A JP 5092144 A JP5092144 A JP 5092144A JP 9214493 A JP9214493 A JP 9214493A JP H06277362 A JPH06277362 A JP H06277362A
Authority
JP
Japan
Prior art keywords
dimensional
image
information
game
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5092144A
Other languages
Japanese (ja)
Other versions
JP2888723B2 (en
Inventor
Goro Iwasaki
吾朗 岩崎
Nobuyuki Aoshima
信行 青島
Kazumasa Watanabe
一誠 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP5092144A priority Critical patent/JP2888723B2/en
Publication of JPH06277362A publication Critical patent/JPH06277362A/en
Application granted granted Critical
Publication of JP2888723B2 publication Critical patent/JP2888723B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To provide a three-dimensional game device capable of reflecting a terrain formed in virtual three-dimensional space upon a game. CONSTITUTION:A game space operation section 100 sets game space, a pseudo three-dimensional image is synthesized in an image synthesizing section 200, and the synthesized image is outputted from a CRT 10. In this case, a terrain information memory section 106 stores terrain information regarding a game field, and object information regarding a movable body is changed by an object information change section, using the terrain information. Thereafter, pseudo three-dimensional image is synthesized in the image synthesizing section 200, on the basis of the changed object information and three-dimensional image information stored in a three-dimensional image information memory section 204. Thus, a player can freely move in virtual three-dimensional space via the moving body, while watching the pseudo three-dimensional image reflecting the terrain information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、仮想3次元空間を所定
の移動体で移動する3次元ゲーム装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional game machine which moves a virtual three-dimensional space by a predetermined moving body.

【0002】[0002]

【従来の技術】図30(a),(b)には、従来のシュ
ーティングゲーム装置、ドライビングゲーム装置におけ
るゲーム画像の一例が示されている。
2. Description of the Related Art FIGS. 30 (a) and 30 (b) show examples of game images in conventional shooting game devices and driving game devices.

【0003】例えば、シューティングゲーム装置を例に
とれば、図30(a)に示すように、プレーヤは、マイ
シップ530、敵機532等を上側から見た合成画像を
見ながらマイシップ530を操作することでゲームを行
っていた。このような方式のゲーム装置では、マイシッ
プ530、敵機532等は2次元で構成されたゲームフ
ィールド536内しか動くことができなかった。従っ
て、臨場感が溢れ、現実味のあるゲーム空間を形成する
ことができなかった。
For example, in the case of a shooting game device, as shown in FIG. 30A, the player operates the myship 530 while looking at the composite image of the myship 530, the enemy aircraft 532, etc. seen from above. I was playing a game. In the game device of such a system, the myship 530, the enemy aircraft 532, and the like can move only within the two-dimensional game field 536. Therefore, it was not possible to form a realistic game space full of realism.

【0004】また、ドライビングゲーム装置を例にとれ
ば、図30(b)に示すように、プレーヤは、ゲームフ
ィールド538において、画面の奥方向のA点からB点
に向かって2次元的に流れて来る道路に対してスポーツ
カー534を操作することでゲームを行っていた。この
ような方式のゲーム装置では、プレーヤの操作するスポ
ーツカーは、ゲーム装置によってあらかじめ決められた
方向、即ち、図30(b)のB点からA点への方向にし
か移動できない。この結果、プレーヤの操作性の自由が
制限され、いまいちゲームの面白味を高めることができ
なかった。
Further, taking a driving game device as an example, as shown in FIG. 30B, the player two-dimensionally flows from the point A to the point B in the depth direction of the screen in the game field 538. A game was being played by operating the sports car 534 on the coming road. In such a type of game device, the sports car operated by the player can move only in the direction predetermined by the game device, that is, from the point B to the point A in FIG. As a result, the freedom of the operability of the player is limited, and the fun of the game cannot be enhanced.

【0005】[0005]

【発明が解決しようとする課題】本発明者は、このよう
な従来のゲーム装置の問題を解決すべく、仮想3次元空
間内をプレーヤの操作する移動体によって自由に動き回
ることができる3次元ゲーム装置の開発を行っている。
ここで、仮想3次元空間とは、ゲームプログラムにより
形成される仮想的な3次元空間をいう。
In order to solve the problem of the conventional game device, the inventor of the present invention can freely move around in a virtual three-dimensional space by a moving body operated by the player. We are developing equipment.
Here, the virtual three-dimensional space refers to a virtual three-dimensional space formed by the game program.

【0006】さて、このような3次元ゲーム装置を開発
するにあたって、次のような技術的課題が生じた。
Now, in developing such a three-dimensional game device, the following technical problems arise.

【0007】まず、この仮想3次元空間内を移動体が移
動するにあたって、仮想3次元空間に形成された地面の
地形をどのようにしてゲームに反映させるかという技術
的課題が生じた。例えば、プレーヤが操作する移動体が
陸上移動体であった場合、仮想3次元空間内に設けられ
た丘などの凸凹地形を、プレーヤに体感させる必要があ
る。この場合、前述した従来のドライビングゲーム装置
では、図30(b)の矢印Cの方向に道及びスポーツカ
ー534を上下させることで、これを体感させていた。
即ち、従来のドライビングゲーム装置には仮想3次元空
間という概念がないため、この矢印Cの方向にしか上下
させることができず、また、スポーツカー534の移動
する方向は同図のB点からA点の方向に限られていたた
め、矢印Cの方向の上下だけである程度の凸凹の地形を
体感させることができた。しかし、本3次元ゲーム装置
のように、仮想3次元空間内を自由に移動体によりに動
き回れるゲーム装置では、このような道及びスポーツカ
ー534の矢印Cの方向での上下だけでは、プレーヤに
凸凹の地形を体感させるのには不十分なものとなる。そ
こで、このような凸凹の地形を、如何にしてプレーヤに
体感させるかが大きな技術的課題となる。
First, when the moving body moves in the virtual three-dimensional space, a technical problem arises as to how the ground topography formed in the virtual three-dimensional space is reflected in the game. For example, when the moving body operated by the player is a land-based moving body, it is necessary for the player to experience uneven terrain such as hills provided in the virtual three-dimensional space. In this case, in the above-described conventional driving game device, the road and the sports car 534 are moved up and down in the direction of arrow C in FIG.
That is, since the conventional driving game device does not have the concept of a virtual three-dimensional space, it can be moved up and down only in the direction of arrow C, and the moving direction of the sports car 534 is from point B in FIG. Since it was limited to the direction of the point, it was possible to experience the uneven terrain to some extent just above and below the direction of arrow C. However, in a game device such as the present three-dimensional game device in which a moving body can freely move around in a virtual three-dimensional space, a player can be moved only by such a road and up and down in the direction of arrow C of the sports car 534. It is not enough to experience uneven terrain. Therefore, how to make the player experience such uneven terrain becomes a major technical issue.

【0008】また、この仮想3次元空間内において、移
動体により対戦ゲームを行うというゲーム構成とした場
合、仮想3次元空間内の地形をどのようにしてこの対戦
ゲームの対戦という要素に反映させるかという技術的課
題も生じた。即ち、凸凹の地形があった場合、この凸凹
の地形を利用して例えば敵の戦車やヘリコプターからの
攻撃に対する防御を行ったり、逆に、この凸凹の地形を
うまく利用して、敵の戦車やヘリコプターへの攻撃を行
えるゲーム構成とすれば、ゲームの面白味を格段に向上
させることができる。
[0008] Further, in the case where the game configuration is such that a moving body plays a battle game in the virtual three-dimensional space, how to reflect the terrain in the virtual three-dimensional space on the element of the battle of the battle game. There was also a technical problem. In other words, if there is uneven terrain, use this uneven terrain to protect against attacks from enemy tanks and helicopters, or conversely, make good use of this uneven terrain to avoid enemy tanks and With a game configuration that can attack a helicopter, the fun of the game can be significantly improved.

【0009】本発明は、このような技術的課題に鑑みな
されたものであり、その目的とすることは、仮想3次元
空間内に形成される地形をゲームに反映させることがで
きる3次元ゲーム装置を提供することにある。
The present invention has been made in view of the above technical problems, and an object thereof is a three-dimensional game apparatus capable of reflecting the terrain formed in a virtual three-dimensional space in a game. To provide.

【0010】[0010]

【課題を解決するための手段】請求項1の発明は、ゲー
ム空間演算手段によりゲーム空間を設定し、画像合成手
段により疑似3次元画像を合成し、これによりプレーヤ
が前記疑似3次元画像を見ながら操作部を操作して所定
の移動体にて仮想3次元空間内を移動できるゲーム空間
を形成する3次元ゲーム装置であって、前記ゲーム空間
演算手段は、少なくとも前記移動体の3次元オブジェク
トの位置及び方向情報がオブジェクト情報として記憶さ
れるオブジェクト情報記憶部と、前記仮想3次元空間内
において前記移動体が移動する地形の地形情報が記憶さ
れる地形情報記憶部と、前記オブジェクト情報記憶部か
ら前記移動体のオブジェクト情報を読み出し、この移動
体のオブジェクト情報を前記地形情報記憶部から読み出
された地形情報を用いて変更するオブジェクト情報変更
部とを含み、前記画像合成手段は、ゲーム空間を構成す
る及びゲーム空間に登場する3次元オブジェクトの3次
元画像情報が記憶される3次元画像情報記憶部と、前記
オブジェクト情報記憶部からのオブジェクト情報と前記
3次元画像情報記憶部からの3次元画像情報より、前記
仮想3次元空間に配置された前記移動体の方向から見え
るゲーム空間の視界画像を演算し疑似3次元画像を合成
出力する画像演算部とを含み、これにより地形情報が反
映された疑似3次元画像を画像合成できるよう形成され
たことを特徴とする。
According to a first aspect of the present invention, the game space is set by the game space calculating means, and the pseudo three-dimensional image is synthesized by the image synthesizing means, whereby the player views the pseudo three-dimensional image. A three-dimensional game device for operating a manipulating section while forming a game space in which a predetermined moving body can move in a virtual three-dimensional space, wherein the game space calculating means is at least a three-dimensional object of the moving body. From the object information storage unit, an object information storage unit that stores position and direction information as object information, a terrain information storage unit that stores terrain information of the terrain in which the moving body moves within the virtual three-dimensional space, and the object information storage unit. The object information of the moving body is read out, and the object information of this moving body is converted into the terrain information read out from the terrain information storage unit. And a three-dimensional image information storage unit that stores three-dimensional image information of a three-dimensional object that constitutes the game space and appears in the game space, and the object information changing unit that changes the image information. Based on the object information from the information storage unit and the three-dimensional image information from the three-dimensional image information storage unit, a visual field image of the game space viewed from the direction of the moving body arranged in the virtual three-dimensional space is calculated to calculate a pseudo three-dimensional image. It is characterized in that it is formed so that a pseudo three-dimensional image in which topographical information is reflected can be image-synthesized by including an image calculation unit that synthesizes and outputs images.

【0011】請求項2の発明は、前記オブジェクト情報
変更部は前記移動体に設けられた少なくとも2以上の地
形情報検出センサにより、移動体の位置及び方向情報を
演算し、これにより前記オブジェクト情報の変更を行う
ことを特徴とする。
According to a second aspect of the present invention, the object information changing unit calculates the position and direction information of the moving body by at least two or more topographical information detection sensors provided in the moving body, and thereby the object information It is characterized by making changes.

【0012】請求項3の発明は、前記移動体は、前記操
作部へプレーヤが入力した発射信号により弾を発生する
よう形成され、前記ゲーム空間演算手段は、前記移動体
から発射される弾の演算処理を行う弾処理部を更に含
み、前記弾処理部は、前記オブジェクト情報変更部によ
り変更された移動体のオブジェクト情報と、前記操作部
から入力された発射信号とにより弾の移動位置を演算す
る弾移動演算部を含み、これにより地形情報が反映され
た弾の移動位置を演算できるよう形成されたことを特徴
とする。
According to a third aspect of the present invention, the moving body is formed so as to generate a bullet in response to a firing signal input by the player to the operation section, and the game space calculation means is for moving a bullet fired from the moving body. The bullet processing unit further includes a bullet processing unit that performs arithmetic processing, and the bullet processing unit calculates the moving position of the bullet based on the object information of the moving body changed by the object information changing unit and the firing signal input from the operation unit. It is characterized in that it is formed so as to be able to calculate the movement position of the bullet reflecting the topographical information.

【0013】請求項4の発明は、前記弾処理部は、前記
弾移動演算部により演算された弾の移動位置と前記オブ
ジェクト情報記憶部に記憶された標的のオブジェクト情
報より、弾の当り判定を行う当り判定部を更に含み、こ
れにより地形情報が反映された弾の当り判定ができるよ
う形成されたことを特徴とする。
According to a fourth aspect of the present invention, the bullet processing section determines whether or not the bullet has hit, based on the moving position of the bullet calculated by the bullet movement calculating section and the target object information stored in the object information storage section. The present invention is characterized in that it further comprises a hit judging section for making a hit judgment of a bullet reflecting the topographical information.

【0014】請求項5の発明は、前記弾処理部は、前記
弾移動演算部により演算された弾の移動位置を、前記標
的のオブジェクト情報に応じて標的を追尾するようリア
ルタイムに変更する演算を行う追尾移動演算部を更に含
み、地形の影響により照準範囲内から外れた標的にも弾
を命中できるよう形成されたことを特徴とする。
According to a fifth aspect of the present invention, the bullet processing unit calculates in real time the movement position of the bullet calculated by the bullet movement calculation unit so as to track the target according to the object information of the target. It is characterized in that it further includes a tracking movement calculation unit, and is formed so as to hit a target even if it is out of the aiming range due to the influence of the terrain.

【0015】請求項6の発明は、プレーヤの視野を覆う
ように装着される画像表示手段と、プレーヤの実3次元
空間における3次元情報を検出するプレーヤ用空間セン
サとを更に含み、前記画像合成手段は、前記プレーヤ用
空間センサからの検出信号に基づいて、仮想3次元空間
におけるプレーヤの位置及び方向情報を抽出する座標抽
出部を更に含み、これにより仮想3次元空間におけるプ
レーヤの視界画像を演算し前記画像表示手段に疑似3次
元画像を画像出力するよう形成されたことを特徴とす
る。
According to a sixth aspect of the present invention, there is further provided image display means mounted so as to cover the player's visual field, and a player space sensor for detecting three-dimensional information in the player's actual three-dimensional space. The means further includes a coordinate extracting unit that extracts the position and direction information of the player in the virtual three-dimensional space based on the detection signal from the player space sensor, and thereby calculates the visual field image of the player in the virtual three-dimensional space. The image display means is so formed as to output a pseudo three-dimensional image.

【0016】請求項7の発明は、プレーヤに装着され、
プレーヤから見える実空間映像を撮像する撮像手段を更
に含み、前記画像合成手段は、前記仮想3次元空間にお
けるプレーヤの視界画像と前記撮像手段で撮像される実
空間映像とを合成する表示画像合成部を更に含み、これ
により、前記画像表示手段に仮想3次元空間における視
界画像と実空間映像とが合成された疑似3次元画像を画
像出力するよう形成されたことを特徴とする。
According to the invention of claim 7, which is mounted on a player,
The display image synthesizing unit further includes image pickup means for picking up a real space video seen by the player, wherein the image synthesizing means synthesizes a visual field image of the player in the virtual three-dimensional space and a real space video imaged by the image pickup means. The image display means is further configured to output a pseudo three-dimensional image in which a view image in a virtual three-dimensional space and a real space image are combined.

【0017】請求項8の発明は、プレーヤが実際に搭乗
する実空間上に設置された搭乗体を更に含み、前記搭乗
体は、前記地形情報に対応してプレーヤの姿勢制御を行
う姿勢制御部を含み、これにより地形情報が反映された
搭乗体の搭乗感覚を仮想的に体験できるよう形成された
ことを特徴とする。
The invention according to claim 8 further includes a vehicle mounted in a real space in which the player actually rides, wherein the vehicle controls the attitude of the player in accordance with the topographical information. It is characterized in that it is formed so as to allow the passengers to virtually experience the boarding sensation of the passenger body in which the terrain information is reflected.

【0018】[0018]

【作用】本発明に係る3次元ゲーム装置によれば、移動
体のオブジェクト情報は、地形情報を利用して、オブジ
ェクト情報変更部により変更される。これにより、地形
情報が反映された疑似3次元画像を形成できる。この場
合、少なくとも2以上の地形情報検出センサを移動体に
設けることにより、より地形情報が反映された疑似3次
元画像を形成できる。
According to the three-dimensional game device of the present invention, the object information of the moving body is changed by the object information changing unit using the terrain information. This makes it possible to form a pseudo three-dimensional image in which the topographical information is reflected. In this case, by providing at least two or more topographic information detection sensors on the moving body, it is possible to form a pseudo three-dimensional image in which the topographic information is reflected.

【0019】また、本発明に係る3次元ゲーム装置によ
れば、変更された移動体のオブジェクト情報を利用して
弾の移動位置の演算、当り判定を行うことにより、地形
情報が反映された弾の移動位置の演算、当り判定が可能
となる。
Further, according to the three-dimensional game device of the present invention, by calculating the moving position of the bullet and making a hit judgment by using the changed object information of the moving object, the bullet in which the topographical information is reflected is reflected. It is possible to calculate the movement position of the and the hit determination.

【0020】また、本発明に係る3次元ゲーム装置によ
れば、弾に追尾機能をもたせることで、照準範囲内から
外れた標的に対しても弾を命中させることができる。
Further, according to the three-dimensional game device of the present invention, the bullet has a tracking function, so that the bullet can hit the target outside the aiming range.

【0021】また、本発明に係る3次元ゲーム装置によ
れば、空間センサによりプレーヤの位置及び方向情報を
検出することにより、簡易に仮想現実を実現できる。
Further, according to the three-dimensional game apparatus of the present invention, the virtual reality can be easily realized by detecting the position and direction information of the player with the space sensor.

【0022】この場合、更に実空間を撮像する撮像手段
を備え、実空間映像と仮想空間画像を合成することによ
り、より現実に近づいた仮想現実を表現できる。
In this case, by further providing an image pickup means for picking up an image of the real space and synthesizing the real space image and the virtual space image, a virtual reality closer to the reality can be expressed.

【0023】また、本発明に係る3次元ゲーム装置によ
れば、搭乗体を設け、この搭乗体の姿勢制御を地形情報
に基づいて行うことにより、より地形情報が反映された
搭乗感覚を仮想的に体験できる。
Further, according to the three-dimensional game device of the present invention, a boarding body is provided, and the posture control of the boarding body is performed based on the terrain information, so that the riding sensation in which the terrain information is reflected is virtual. You can experience it.

【0024】[0024]

【実施例】【Example】

1.ゲームの概要 まず、本3次元ゲーム装置で実現される3次元ゲームの
一例について簡単に説明する。
1. Outline of Game First, an example of a three-dimensional game realized by the present three-dimensional game device will be briefly described.

【0025】本3次元ゲーム装置によれば、あらかじめ
設定されたゲームプログラムにより仮想3次元空間を形
成し、形成された仮想3次元空間内をプレーヤの操作す
る移動体によって自由に動き回ることができるゲーム空
間を提供できる。
According to the present three-dimensional game device, a virtual three-dimensional space is formed by a preset game program, and the formed virtual three-dimensional space can be freely moved around by the moving body operated by the player. Can provide space.

【0026】本3次元ゲーム装置により実現される3次
元ゲームは、多種多様な人種が集まった近未来都市にお
いて繰りひろげられる未来戦車ゲームである。この未来
戦車ゲームでは、莫大な賞金をめざして集まったファイ
ター達が、壁により四角に囲まれ逃げることの許されな
いゲームフィールド内で、デスマッチゲーム形式でチャ
ンピオンを決定する。各ファイターは、それぞれの所有
する未来戦車により、チャンピオンを競い合うわけであ
る。そして、プレーヤは、これらのファイターの1人と
してゲームに参加する。
The three-dimensional game realized by the present three-dimensional game device is a future tank game spread in the near future city where various races are gathered. In this futuristic tank game, fighters who have gathered for huge prize money decide the champion in a death match game format in the game field surrounded by a square that cannot be escaped. Each fighter competes for a champion with its own future tank. The player then participates in the game as one of these fighters.

【0027】図2には、本3次元ゲーム装置の外観図が
示される。同図に示すようにプレーヤ302は、操作部
である左右のアナログレバー12、14を操作してCR
T10に映し出された移動体、即ち未来戦車20を操縦
することになる。即ち、プレーヤ302は、この未来戦
車20を操縦することにより、仮想3次元空間内に設定
されるゲームフィールド60内を前後左右に自由に動き
回ることができるわけである。また、このアナログレバ
ー12、14には、無制限に発射することができるマシ
ンガンと、数に制限はあるが強力な武器であるミサイル
のトリガー16、18が設けられている。また、図2に
示すように、CRT10には、照準40が映し出されて
おり、プレーヤ302は、この照準40を用いて敵に対
する攻撃を行う。更に、CRT10には、標的である敵
の位置を検出する敵位置検出レーダー50が映し出さ
れ、これによりプレーヤ302は、自機位置51に対す
る敵位置52を知ることが可能となる。
FIG. 2 shows an external view of the present three-dimensional game device. As shown in the figure, the player 302 operates the left and right analog levers 12 and 14 which are operation sections to perform CR.
The moving body imaged at T10, that is, the future tank 20 will be operated. That is, the player 302 can freely move back and forth, left and right in the game field 60 set in the virtual three-dimensional space by operating the future tank 20. Further, the analog levers 12 and 14 are provided with machine guns that can be fired indefinitely and missile triggers 16 and 18 that are powerful weapons with a limited number. Further, as shown in FIG. 2, the aim 40 is projected on the CRT 10, and the player 302 uses this aim 40 to attack the enemy. Further, the CRT 10 displays an enemy position detection radar 50 that detects the position of an enemy, which is a target, so that the player 302 can know the enemy position 52 with respect to the own-machine position 51.

【0028】図3には、ゲームフィールド60の全体図
が示されている。同図に示すように、ゲームフィールド
60内には、3次元で構成されゲームプログラムにより
設定される各種の地形が形成されている。即ち、まず、
ゲームフィールド60の四方は、各ファイターが逃げ出
すことができないよう壁62により囲まれている。そし
て、この壁62の内周には第1の台地64が設けられて
いる。零地帯66は、この第1の台地64に囲まれてお
り、その間には斜面68、70、72、74が設けられ
ている。更に、零地帯66には第2、第3の台地76、
78が設けられ、また、障害物80、82も設けられて
いる。このように、本3次元ゲームにおけるゲームフィ
ールド60は、図30(a)、(b)に示した従来の2
次元で構成されたゲームフィールド536、538と異
なり、3次元の地形で構成されている。従って、従来に
ないリアリティ溢れるゲーム空間を形成できる。また、
逆に、このような3次元ゲーム装置では、この3次元で
表された地形を、如何にしてプレーヤに体感させるかが
大きな技術的課題となる。
An overall view of the game field 60 is shown in FIG. As shown in the figure, in the game field 60, various terrains formed in three dimensions and set by the game program are formed. That is, first
The four sides of the game field 60 are surrounded by walls 62 so that each fighter cannot escape. A first plateau 64 is provided on the inner circumference of the wall 62. The zero zone 66 is surrounded by the first plateau 64, and slopes 68, 70, 72, 74 are provided between them. Furthermore, in the zero zone 66, the second and third plateaus 76,
78 is also provided, and obstacles 80, 82 are also provided. As described above, the game field 60 in this three-dimensional game is the same as the conventional game field 60 shown in FIGS.
Unlike the game fields 536 and 538, which are composed of dimensions, they are composed of three-dimensional terrain. Therefore, it is possible to form a game space full of reality that has never existed before. Also,
On the other hand, in such a three-dimensional game device, how to make the player experience the three-dimensional topography becomes a major technical issue.

【0029】プレーヤ302の操縦する未来戦車20及
び敵ファイターが操縦する敵未来戦車22は、この零地
帯66の上で向かい合っている。図3では、未来戦車2
0と敵未来戦車22との間には、第2、第3の台地7
6、78が介在しているため、プレーヤ302は、CR
T10により敵未来戦車22を目視することはできな
い。従って、プレーヤ302は、まず、前記した敵位置
検出レーダー50により敵位置52を見つけ出す。そし
て、アナログレバー12、14により未来戦車20を操
縦し、第2の台地76を乗り越え、敵に接近し、これを
攻撃することになる。
The future tank 20 operated by the player 302 and the enemy future tank 22 operated by the enemy fighter are facing each other on the zero zone 66. In FIG. 3, the future tank 2
The second and third plateaus 7 are located between 0 and the enemy future tank 22.
Since the players 6 and 78 are present, the player 302
The enemy future tank 22 cannot be seen by T10. Therefore, the player 302 first finds the enemy position 52 by the enemy position detecting radar 50 described above. Then, the future tank 20 is steered by the analog levers 12 and 14 to get over the second plateau 76, approach the enemy, and attack the enemy.

【0030】図4には、このようにして自機の未来戦車
20が敵未来戦車22に接近した場合にCRT10に映
し出される疑似3次元画像が示されている。ここで、シ
ールド表示部54には、自機及び敵未来戦車22のシー
ルド量が表示されている。現在、自機のシールド量(防
御力)は、敵未来戦車22のシールド量を大きく上回っ
ている。従って、プレーヤ302にとっては攻撃のチャ
ンスであり、逆に、敵未来戦車22の方は、この危機的
状況を回避して、シールド量を回復するアイテムを探し
出さなければならない。
FIG. 4 shows a pseudo three-dimensional image displayed on the CRT 10 when the own future tank 20 approaches the enemy future tank 22 in this way. Here, the shield display section 54 displays the shield amounts of the own aircraft and the enemy future tank 22. At present, the shield amount (defense) of the player's own aircraft greatly exceeds the shield amount of the enemy future tank 22. Therefore, it is an opportunity for the player 302 to attack, and conversely, the enemy future tank 22 must avoid this critical situation and find an item that restores the shield amount.

【0031】この場合、自機の未来戦車20は零地帯6
6の上に位置しており、敵未来戦車22は第1の台地6
4に位置しているため、両者の間には高低差が生じる。
従って、このような地理的条件の中も、プレーヤ302
が、うまく敵を攻撃できるようにゲーム設定する必要が
ある。また、逆に、敵未来戦車22が、この地理的条件
をうまく利用して、この危機的状況を回避できるようゲ
ームを設定すれば、ゲームの面白味を一段と高めること
ができる。即ち、このような地理的条件を如何にしてゲ
ーム設定に反映するかが、本発明における大きな技術的
課題となる。
In this case, the own future tank 20 is the zero zone 6
Located on top of No. 6, enemy future tank 22 is on the first plateau 6.
Since it is located at 4, there is a difference in height between the two.
Therefore, even in such a geographical condition, the player 302
However, it is necessary to set the game so that the enemy can be attacked well. On the contrary, if the enemy future tank 22 makes good use of this geographical condition and sets the game so as to avoid this critical situation, the interest of the game can be further enhanced. That is, how to reflect such a geographical condition in the game setting is a major technical problem in the present invention.

【0032】なお、以上の説明は、図2に示したよう
に、ゲームを行うプレーヤが1人の場合についての説明
である。このようにプレーヤが1人でゲームを行う場合
は、敵未来戦車22を操縦するファイターは、コンピュ
ータが担当することになる。これに対して、図5では、
2人のプレーヤで対戦する場合の、本3次元ゲーム装置
の外観図が示される。この場合は、プレーヤ302はC
RT10を見ながら未来戦車20を操縦し、プレーヤ3
03はCRT11を見ながら敵未来戦車22を操縦する
ことになる。そして、CRT10には、未来戦車20の
方向から見える疑似3次元画像が映し出され、CRT1
1には、敵未来戦車22の方向から見える疑似3次元画
像が映し出されることになる。そして、このように1つ
の仮想3次元空間内で、異なった視点からの疑似3次元
画像を見ながら、異なった地理的条件の下で、2人のプ
レーヤがゲームを行うことになる。なお、図5には、2
人プレーヤの場合しか示されていないが、本発明は、こ
れに限らず、3人以上の複数のプレーヤによりゲームを
行う場合にも当然に適用できる。 2.装置全体の説明 図1には、本発明に係る3次元ゲーム装置の実施例のブ
ロック図が示される。
The above description is for the case where there is one player playing the game, as shown in FIG. When the player plays the game alone, the computer is in charge of the fighter who drives the enemy future tank 22. On the other hand, in FIG.
An external view of the present three-dimensional game device when two players play a match is shown. In this case, the player 302 uses C
While watching the RT10, pilot the future tank 20, and player 3
03 will operate the enemy future tank 22 while watching the CRT 11. Then, the CRT 10 displays a pseudo three-dimensional image viewed from the direction of the future tank 20.
In 1 is displayed a pseudo three-dimensional image seen from the direction of the enemy future tank 22. In this way, two players play a game under different geographical conditions while viewing pseudo three-dimensional images from different viewpoints in one virtual three-dimensional space. In addition, in FIG.
Although shown only for a human player, the present invention is not limited to this, and is naturally applicable to a case where a game is played by three or more players. 2. Description of Entire Device FIG. 1 shows a block diagram of an embodiment of a three-dimensional game device according to the present invention.

【0033】図1に示すように、本3次元ゲーム装置
は、プレーヤが操作信号を入力する操作部140、所定
のゲームプログラムによりゲーム空間を設定するゲーム
空間演算部100、プレーヤの視点位置における疑似3
次元画像を形成する画像合成部200、及びこの疑似3
次元画像を画像出力するCRT10を含んで構成され
る。
As shown in FIG. 1, the present three-dimensional game device has an operation unit 140 for a player to input an operation signal, a game space calculation unit 100 for setting a game space by a predetermined game program, and a pseudo at the player's viewpoint position. Three
An image combining unit 200 that forms a three-dimensional image, and this pseudo 3
It is configured to include a CRT 10 which outputs a three-dimensional image.

【0034】操作部140には、例えば本3次元ゲーム
装置をドライビングゲームに適用した場合には、スポー
ツカーを運転するためのハンドル、ギア等が接続され、
これにより操作信号が入力される。また、前述した未来
戦車戦等のシューティングゲームに適用した場合には、
未来戦車を操縦するためのアナログレバー12、14、
及びマシンガン、ミサイル等を発射するためのトリガー
16、18等が接続される。
When the present three-dimensional game device is applied to a driving game, for example, a steering wheel, a gear or the like for driving a sports car is connected to the operation unit 140,
As a result, the operation signal is input. Also, when applied to shooting games such as the future tank battle,
Analog levers 12 and 14 for driving future tanks,
Also, triggers 16, 18 for firing a machine gun, missile, etc. are connected.

【0035】ゲーム空間演算部100は、中央処理部1
02、オブジェクト情報記憶部104、地形情報記憶部
106、オブジェクト情報変更部108を含んで構成さ
れる。ここで、中央処理部102では、3次元ゲーム装
置全体の制御が行われる。また、中央処理部102内に
設けられた記憶部には、所定のゲームプログラムが記憶
されている。また、オブジェクト情報記憶部104に
は、仮想3次元空間を構成する3次元オブジェクトの位
置及び方向情報であるオブジェクト情報並びにその他の
属性情報が記憶されている。また、地形情報記憶部10
6には、前述した3次元の地形で形成されたゲームフィ
ールド60の地形情報が、例えば高さデータとして記憶
されている。また、オブジェクト情報変更部108で
は、このオブジェクト情報記憶部104に記憶されたオ
ブジェクト情報が、前記地形情報記憶部106に記憶さ
れた地形情報を基に随時変更される演算が行われる。な
お、このゲーム空間演算部100の構成の詳細について
は、後述する。
The game space calculation unit 100 is comprised of a central processing unit 1
02, object information storage unit 104, terrain information storage unit 106, and object information change unit 108. Here, the central processing unit 102 controls the entire three-dimensional game device. Further, a predetermined game program is stored in the storage unit provided in the central processing unit 102. In addition, the object information storage unit 104 stores object information that is position and direction information of a three-dimensional object that forms a virtual three-dimensional space, and other attribute information. In addition, the terrain information storage unit 10
6, the terrain information of the game field 60 formed by the above-mentioned three-dimensional terrain is stored as height data, for example. Further, the object information changing unit 108 performs a calculation to change the object information stored in the object information storage unit 104 based on the topographical information stored in the topographical information storage unit 106. The details of the configuration of the game space calculation unit 100 will be described later.

【0036】画像合成部200では、仮想3次元空間に
おけるプレーヤ302の任意の視点位置から見える疑似
3次元画像、即ち、図2においてCRT10に映し出さ
れる疑似3次元画像が画像合成される。このため、画像
合成部200は、3次元画像情報記憶部204及び画像
演算部202を含んで構成される。
In the image synthesizing unit 200, a pseudo three-dimensional image seen from an arbitrary viewpoint position of the player 302 in the virtual three-dimensional space, that is, a pseudo three-dimensional image displayed on the CRT 10 in FIG. 2 is image-synthesized. Therefore, the image composition unit 200 is configured to include the three-dimensional image information storage unit 204 and the image calculation unit 202.

【0037】3次元画像情報記憶部204には、3次元
オブジェクトの3次元画像が記憶されている。ここで、
3次元オブジェクトとは、図4に示す未来戦車20、敵
未来戦車22などの移動体、図3に示す壁62、第1、
第2、第3の台地64、76、78、障害物80、82
などの地形等、仮想3次元空間に設定されたゲーム空間
を形成する全ての物体をいう。この3次元オブジェクト
は、図4に示すように、ポリゴン90〜95等の集合と
して表現され、このポリゴンの各頂点座標等の情報が3
次元画像情報として3次元画像情報記憶部204に記憶
されている。
The three-dimensional image information storage unit 204 stores a three-dimensional image of a three-dimensional object. here,
The three-dimensional object is a moving body such as the future tank 20 or the enemy future tank 22 shown in FIG. 4, the wall 62 shown in FIG.
Second and third plateaus 64, 76, 78, obstacles 80, 82
It refers to all objects that form the game space set in the virtual three-dimensional space, such as topography. As shown in FIG. 4, this three-dimensional object is expressed as a set of polygons 90 to 95, etc., and information such as the coordinates of each vertex of this polygon is 3
It is stored in the three-dimensional image information storage unit 204 as three-dimensional image information.

【0038】画像演算部202は、画像供給部212及
び画像形成部240を含んで構成される。
The image calculation unit 202 includes an image supply unit 212 and an image forming unit 240.

【0039】画像供給部212は、画像合成部200の
全体の制御を行う処理部214、並びに、ポリゴンの頂
点座標等の画像情報に対する3次元演算処理を行う座標
変換部216、クリッピング処理部218、透視変換部
220、ソーティング処理部222を含んで構成され
る。
The image supply unit 212 includes a processing unit 214 that controls the entire image synthesizing unit 200, a coordinate conversion unit 216 that performs a three-dimensional calculation process on image information such as the vertex coordinates of a polygon, and a clipping processing unit 218. The perspective conversion unit 220 and the sorting processing unit 222 are included.

【0040】画像形成部240では、画像供給部212
において3次元演算処理されたポリゴンの頂点座標等の
画像情報から、ポリゴン内の全てのドットにおける画像
情報が演算され、これが疑似3次元画像として画像出力
される。
In the image forming section 240, the image supply section 212
The image information of all the dots in the polygon is calculated from the image information such as the vertex coordinates of the polygon which has been subjected to the three-dimensional calculation processing in (3), and this is output as a pseudo three-dimensional image.

【0041】次に、本3次元ゲーム装置全体の動作につ
いて説明する。
Next, the operation of the entire 3D game apparatus will be described.

【0042】まず、ゲームスタートと同時に、中央処理
部102は、ゲームプログラムにしたがって、仮想3次
元空間に配置される全ての3次元オブジェクトの位置及
び方向情報であるオブジェクト情報を、オブジェクト情
報記憶部104に記憶させる。但し、オブジェクト情報
記憶部104の一部を不揮発性メモリとして、あらかじ
めオブジェクト情報の初期値を記憶させておけばこのよ
うな動作は必要ない。
First, at the same time as the game starts, the central processing unit 102 stores the object information, which is the position and direction information of all three-dimensional objects arranged in the virtual three-dimensional space, according to the game program, in the object information storage unit 104. To memorize. However, if a part of the object information storage unit 104 is a non-volatile memory and the initial value of the object information is stored in advance, such an operation is not necessary.

【0043】このオブジェクト情報記憶部104に記憶
されるオブジェクト情報は、例えば、図6に示すフォー
マットで記憶される。同図において、インデックス(0
〜n)は、各3次元オブジェクトを表す通し番号であ
り、例えば、インデックス0は未来戦車20を、インデ
ックス1は敵未来戦車22を、インデックス2は壁62
を、インデックス3は障害物80を構成する3次元オブ
ジェクトを表す通し番号である。これにより、例えば、
未来戦車20の仮想3次元空間における位置情報及び方
向(傾き)情報は、(X0 、Y0 、Z0 )及び(θ0 、
φ0 、ρ0 )に設定される。この結果、未来戦車20の
配置される位置及び方向が決定されることになる。同様
にして、敵未来戦車22、障害物80等の3次元オブジ
ェクトの位置及び方向情報も設定され、これにより仮想
3次元空間上のゲーム空間を形成する全ての3次元オブ
ジェクトの位置情報、あるいは位置情報及び方向情報が
決定されることになる。
The object information stored in the object information storage unit 104 is stored in the format shown in FIG. 6, for example. In the figure, the index (0
N are serial numbers representing each three-dimensional object. For example, index 0 is a future tank 20, index 1 is an enemy future tank 22, index 2 is a wall 62.
The index 3 is a serial number representing a three-dimensional object forming the obstacle 80. This gives, for example,
The position information and the direction (tilt) information of the future tank 20 in the virtual three-dimensional space are (X0, Y0, Z0) and (θ0,
φ0, ρ0). As a result, the position and direction in which the future tank 20 is arranged are determined. Similarly, the position and direction information of the three-dimensional objects such as the enemy future tank 22 and the obstacle 80 are also set, whereby the position information of all the three-dimensional objects forming the game space in the virtual three-dimensional space, or the position information. Information and direction information will be determined.

【0044】なお、未来戦車20のように大きな3次元
オブジェクトの場合、これを例えば、操縦席、左側駆動
部、右側駆動部、砲身等のパーツに分割して、これらの
パーツの1つ1つを3次元オブジェクトと考え、これに
前記インデックスを割り当てるようにしてもよい。この
ようにすれば、これらのパーツ、例えば左側駆動部、右
側駆動部、砲身等を独自に動かすことができ、よりリア
リティ溢れる動きをする未来戦車20を描くことができ
る。
In the case of a large three-dimensional object such as the future tank 20, this is divided into parts such as the cockpit, the left side driving part, the right side driving part, and the barrel, and each of these parts is divided into parts. May be considered as a three-dimensional object, and the index may be assigned to this. In this way, these parts, for example, the left drive unit, the right drive unit, the barrel, etc. can be independently moved, and the future tank 20 can be drawn with more realistic movement.

【0045】地形情報記憶部106には、図3に示すゲ
ームフィールド60の地形情報が、例えば高さ情報とし
て記憶されている。オブジェクト情報変更部108は、
この地形情報を読みだし、これにより、オブジェクト情
報記憶部104に記憶されている、3次元オブジェクト
の位置及び方向情報を変更することができる。即ち、例
えば前記した未来戦車20の位置及び方向情報(X0 、
Y0 、Z0 、θ0 、φ0 、ρ0 )の値を変更して、未来
戦車20の傾き等を変更する。これにより、地形情報を
反映したゲーム空間を形成できる。なお、このゲーム空
間演算部100の動作の詳細については、後述する。
The terrain information storage unit 106 stores the terrain information of the game field 60 shown in FIG. 3 as height information, for example. The object information changing unit 108
By reading this topographical information, it is possible to change the position and direction information of the three-dimensional object stored in the object information storage unit 104. That is, for example, the position and direction information (X0,
The values of Y0, Z0, θ0, φ0, ρ0) are changed to change the inclination and the like of the future tank 20. This makes it possible to form a game space that reflects the terrain information. The details of the operation of the game space calculation unit 100 will be described later.

【0046】次に、画像合成部200の動作について説
明する。
Next, the operation of the image synthesizing section 200 will be described.

【0047】まず、処理部214により、オブジェクト
情報記憶部104から前記したインデックスをアドレス
として3次元オブジェクトの位置及び方向情報が読み出
される。同様にして、処理部214により、3次元画像
情報記憶部204から前記インデックスをアドレスとし
て3次元オブジェクトの3次元画像情報が読み出され
る。例えば、インデックスが0である場合は、未来戦車
20の位置及び方向情報(X0 、Y0 、Z0 、θ0 、φ
0 、ρ0 )がオブジェクト情報記憶部104から読み出
され、未来戦車20をポリゴンの集合で表した3次元画
像情報が3次元画像情報記憶部204から読み出され
る。
First, the processing unit 214 reads the position and direction information of the three-dimensional object from the object information storage unit 104 using the index as an address. Similarly, the processing unit 214 reads the three-dimensional image information of the three-dimensional object from the three-dimensional image information storage unit 204 using the index as an address. For example, when the index is 0, the position and direction information of the future tank 20 (X0, Y0, Z0, θ0, φ)
0, ρ 0) is read from the object information storage unit 104, and the three-dimensional image information representing the future tank 20 as a set of polygons is read from the three-dimensional image information storage unit 204.

【0048】処理部214は、このようにインデックス
を順次読み出し、これらの情報を図7に示すようなデー
タフォーマットに変換する。
The processing unit 214 sequentially reads the indexes in this way and converts these information into a data format as shown in FIG.

【0049】図7(a)には、このデータフォーマット
の全体図が示されている。同図に示すように、処理され
るデータは、フレームデータを先頭に、このフレーム内
に表示される全ての3次元オブジェクトのオブジェクト
データが連なるようにして構成されている。そして、こ
のオブジェクトデータの後には、この3次元オブジェク
トを構成するポリゴンのポリゴンデータが更に連なるよ
うに構成されている。
FIG. 7A shows an overall view of this data format. As shown in the figure, the data to be processed is configured such that the frame data is at the head and the object data of all three-dimensional objects displayed in this frame are continuous. Then, after this object data, polygon data of polygons forming the three-dimensional object is further arranged.

【0050】ここで、フレームデータとは、フレームご
とに変化するパラメータにより形成されるデータをい
い、1フレーム内の全ての3次元オブジェクトに共通な
データであるプレーヤの視点位置・視点方向・視野角情
報、モニタの角度・大きさ情報、光源の情報等のデータ
より構成される。これらのデータは1フレームごとに設
定され、例えば表示画面上にウィンドウ等を形成した場
合は、ウィンドウごとに異なるフレームデータが設定さ
れる。これにより表示画面上に例えばバックミラーや、
未来戦車20を上から見た画面等を形成することができ
る。
Here, the frame data refers to data formed by parameters that change for each frame, and is common to all three-dimensional objects in one frame. The viewpoint position, viewpoint direction, and viewing angle of the player. It is composed of data such as information, monitor angle / size information, and light source information. These data are set for each frame. For example, when a window or the like is formed on the display screen, different frame data is set for each window. With this, for example, a rearview mirror,
It is possible to form a screen or the like of the future tank 20 viewed from above.

【0051】また、オブジェクトデータとは、3次元オ
ブジェクトごとに変化するパラメータにより形成される
データをいい、3次元オブジェクト単位での位置情報、
方向情報等のデータより構成される。これは、前述のオ
ブジェクト情報とほぼ同じ内容のデータである。
The object data refers to data formed by parameters that change for each three-dimensional object, and position information in units of three-dimensional objects,
It is composed of data such as direction information. This is data having almost the same content as the above-mentioned object information.

【0052】また、ポリゴンデータとは、ポリゴンの画
像情報等により形成されるデータをいい、図7(b)に
示すようにヘッダ、頂点座標X0 、Y0 、Z0 〜X3 、
Y3、Z3 、等、その他の付属データにより構成され
る。
Further, the polygon data means data formed by image information of polygons and the like, and as shown in FIG. 7B, a header, vertex coordinates X0, Y0, Z0 to X3,
It is composed of other attached data such as Y3 and Z3.

【0053】座標演算部216は、以上のフォーマット
のデータを読み出し、この各頂点座標等に対し各種の演
算処理を行っている。以下、この演算処理を図8を用い
て説明する。
The coordinate calculation section 216 reads out the data in the above format and performs various calculation processes on the coordinates of each vertex. The calculation process will be described below with reference to FIG.

【0054】例えば未来戦車ゲームを例にとれば、図8
に示すように、未来戦車、敵未来戦車、ビル、障害物等
を表す3次元オブジェクト300、332、334が、
ワールド座標系(XW 、YW 、ZW )で表現される仮想
3次元空間上に配置される。その後、これらの3次元オ
ブジェクトを表す画像情報は、プレーヤ302の視点を
基準とした視点座標系(Xv、Yv、Zv)へと座標変
換される。
Taking the future tank game as an example, FIG.
As shown in, three-dimensional objects 300, 332, and 334 representing future tanks, enemy future tanks, buildings, obstacles,
It is arranged in a virtual three-dimensional space represented by the world coordinate system (XW, YW, ZW). After that, the image information representing these three-dimensional objects is coordinate-converted into a viewpoint coordinate system (Xv, Yv, Zv) with the viewpoint of the player 302 as a reference.

【0055】次に、クリッピング処理部218にて、い
わゆるクリッピング処理と呼ばれる画像処理が行われ
る。ここで、クリッピング処理とはプレーヤ302の視
野外(又は3次元空間上で開かれたウィンドウの視野
外)にある画像情報、即ち前方・後方・右側・下方・左
側・上方のクリッピング面340、342、344、3
46、348、350により囲まれ領域(以下表示領域
2とする)の外にある画像情報を除去する画像処理をい
う。つまり、本装置によりその後の処理に必要とされる
画像情報は、プレーヤ302の視野内にある画像情報の
みである。従って、クリッピング処理によりこれ以外の
情報をあらかじめ除去すれば、その後の処理の負担を大
幅に減らすことができることとなる。
Next, the clipping processing unit 218 performs image processing called so-called clipping processing. Here, the clipping processing is image information outside the field of view of the player 302 (or outside the field of view of the window opened in the three-dimensional space), that is, the front / rear / right / down / left / up clipping planes 340 and 342. 344, 3
This is image processing for removing image information outside an area (hereinafter referred to as display area 2) surrounded by 46, 348, and 350. That is, the image information required by the present apparatus for the subsequent processing is only the image information within the visual field of the player 302. Therefore, if the other information is removed in advance by the clipping process, the load of the subsequent process can be significantly reduced.

【0056】次に、透視変換部220にて、表示領域2
内にある物体に対してのみ、スクリーン座標系(XS 、
YS )への透視変換が行われ、次段のソーティング処理
部222へとデータが出力される。
Next, in the perspective conversion unit 220, the display area 2
Only for objects inside is the screen coordinate system (XS,
YS) is perspectively converted, and the data is output to the sorting processing unit 222 at the next stage.

【0057】ソーティング処理部222では、次段の画
像形成部240における処理の順序が決定され、その順
序にしたがってポリゴンの画像データが出力される。
In the sorting processing section 222, the order of processing in the image forming section 240 in the next stage is determined, and the polygon image data is output according to the order.

【0058】画像形成部240では、画像供給部212
において3次元演算処理されたポリゴンの頂点座標等の
データから、ポリゴン内の全てのドットの画像情報が演
算される。この場合の演算手法としては、ポリゴンの頂
点座標からポリゴンの輪郭線を求め、この輪郭線と走査
線との交点である輪郭点ペアを求め、この輪郭点ペアに
より形成されるラインを所定の色データ等に対応させる
という手法を用いてもよい。また、各ポリゴン内の全て
のドットの画像情報を、テクスチャ情報としてあらかじ
めROM等に記憶させておき、ポリゴンの各頂点に与え
られたテクスチャ座標をアドレスとして、これを読み出
し、貼り付けるという手法を用いてもよい。
In the image forming section 240, the image supply section 212
The image information of all the dots in the polygon is calculated from the data such as the vertex coordinates of the polygon which has been subjected to the three-dimensional calculation processing in (3). As a calculation method in this case, the contour line of the polygon is obtained from the vertex coordinates of the polygon, the contour point pair which is the intersection of this contour line and the scanning line is obtained, and the line formed by this contour point pair is given a predetermined color. You may use the method of making it correspond to data etc. In addition, the image information of all the dots in each polygon is stored in advance in a ROM or the like as texture information, and the texture coordinates given to each vertex of the polygon are used as an address, which is read and pasted. May be.

【0059】最後に、これらの画像形成部340で形成
された疑似3次元画像は、CRT10から画像出力され
る。 3.ゲーム空間演算部での各種の演算手法の説明 次に、ゲーム空間演算部100で行われる各種の演算手
法について説明する。 (1)移動体のオブジェクト情報への地形情報の反映 図1に示したブロック図は、移動体のオブジェクト情
報、即ち、移動体の位置及び方向情報に地形情報を反映
させる実施例のブロック図である。
Finally, the pseudo three-dimensional image formed by the image forming section 340 is output from the CRT 10. 3. Description of Various Calculation Techniques in Game Space Calculation Unit Next, various calculation techniques performed in the game space calculation unit 100 will be described. (1) Reflection of Terrain Information on Object Information of Mobile Object The block diagram shown in FIG. 1 is a block diagram of an embodiment in which the topographical information is reflected on the object information of the mobile object, that is, the position and direction information of the mobile object. is there.

【0060】前述したように、オブジェクト情報変更部
108は、地形情報記憶部106から地形情報を読み出
し、これにより、オブジェクト情報記憶部104に記憶
されている3次元オブジェクト情報の変更を行ってい
る。
As described above, the object information changing unit 108 reads the terrain information from the terrain information storage unit 106, thereby changing the three-dimensional object information stored in the object information storage unit 104.

【0061】ここで、地形情報記憶部106には、3次
元地形の地形情報が、例えば高さ情報として記憶されて
いる。この地形情報記憶部106の地形情報記憶エリア
は、図9に示すような階層構造となっている。即ち、図
9(a)に示すゲームフィールドエリアが最上位とな
り、その下位が同図(b)に示す地区内ブロックエリ
ア、更にその下位が同図(c)に示す地形ブロックエリ
アとなっている。このように、地形情報記憶エリアを階
層構造としたのは、データ量を圧縮して、より繊細な地
形変化が反映されたゲーム空間を多数用意するためであ
る。
Here, the terrain information storage unit 106 stores terrain information of three-dimensional terrain as, for example, height information. The terrain information storage area of the terrain information storage unit 106 has a hierarchical structure as shown in FIG. That is, the game field area shown in FIG. 9A is the highest level, the lower level is the intra-district block area shown in FIG. 9B, and the lower level is the terrain block area shown in FIG. 9C. . Thus, the topographical information storage area has a hierarchical structure in order to compress the data amount and prepare a large number of game spaces in which more delicate topographical changes are reflected.

【0062】ゲームフィールドエリアでは、この3次元
ゲームにおいて用意される複数のゲームフィールドのう
ち、どの面を選択するかが決定される。これにより、例
えば図9(a)に示すように、図3に示したゲームフィ
ールド60が選択される。
In the game field area, which of the plurality of game fields prepared in this three-dimensional game is to be selected is determined. As a result, for example, as shown in FIG. 9A, the game field 60 shown in FIG. 3 is selected.

【0063】このゲームフィールド60は、図10
(a)に示すように、例えば4×4=16個の地区内ブ
ロック(17〜32)に分割されている。このように1
つのゲームフィールドを複数の地区内ブロックに分割す
ることで、即ち、例えば32種類の地区内ブロックを組
み合わせることで、極めて多数の種類のゲームフィール
ドを簡易に形成できる。例えば、図10(a)に示す地
区内ブロック(pb17〜32)の順序を少し変更する
だけで、図3に示すゲームフィールド60と全く異なっ
た地形のゲームフィールドを簡易に形成できるわけであ
る。
This game field 60 is shown in FIG.
As shown in (a), it is divided into, for example, 4 × 4 = 16 intra-district blocks (17 to 32). 1 like this
By dividing one game field into a plurality of district blocks, that is, by combining, for example, 32 types of district blocks, an extremely large number of types of game fields can be easily formed. For example, by slightly changing the order of the intra-district blocks (pb17 to 32) shown in FIG. 10A, it is possible to easily form a game field having a completely different terrain from the game field 60 shown in FIG.

【0064】図10(b)に示すように、この地区内ブ
ロックは、更に例えば4×4=16個の地形ブロックに
分割されている。例えば地区内ブロックpb17は、地
形ブロックpile000、115、118、119、
122からなる16個の地形ブロックに分割されてお
り、これにより更なるデータの圧縮が可能となる。
As shown in FIG. 10B, the block in this area is further divided into, for example, 4 × 4 = 16 terrain blocks. For example, the intra-district block pb17 is a topographic block pile000, 115, 118, 119,
It is divided into 16 terrain blocks of 122, which allows for further data compression.

【0065】地形ブロックは、最終的に地形の高さ情報
が格納されたブロックである。図11には、この地形ブ
ロックにより形成されたゲームフィールド60が模式的
に示されている。この図11は、前記した図3に対応す
るものである。また、図12には、これらの各地形ブロ
ック内における高さ情報の分布が示されている。なお、
図12には、地形ブロックpile115〜123の高
さ情報の分布が示されている。
The terrain block is a block in which the height information of the terrain is finally stored. FIG. 11 schematically shows the game field 60 formed by this terrain block. This FIG. 11 corresponds to FIG. 3 described above. Further, FIG. 12 shows the distribution of height information in each of these terrain blocks. In addition,
FIG. 12 shows the distribution of height information of the terrain blocks pile 115 to 123.

【0066】図11に示すように、壁62には未来戦車
が侵入しえないので、地形ブロックは配置されていな
い。また、図3の第1の台地64は全て地形ブロックp
ile115の組合せにより表されている。この地形ブ
ロックpile115は、図12に示すように、高さ情
報が全て160に設定されている。即ち、平坦で高い位
置にある地形であることが表現されている。
As shown in FIG. 11, since future tanks cannot enter the wall 62, no terrain block is arranged. In addition, the first plateau 64 in FIG.
It is represented by a combination of ile 115. In this terrain block pile115, as shown in FIG. 12, all the height information is set to 160. That is, it is expressed that the terrain is flat and located at a high position.

【0067】また、図3の斜面68は、図11に示すよ
うに、地形ブロックpile118、121、122の
組合せにより表されている。そして、地形ブロックpi
le118は、図12に示すように、左側が最も高く
(150)、右側に行くほど低くなるよう(000)、
高さ情報が設定されている。これにより斜面68を表現
できることとなる。同様に地形ブロックpile121
は、隅に谷が形成されるように高さ情報が設定されてい
る。
The slope 68 in FIG. 3 is represented by a combination of the terrain blocks pile 118, 121, 122, as shown in FIG. And terrain block pi
As shown in FIG. 12, le118 is highest on the left side (150) and lower on the right side (000),
Height information is set. As a result, the slope 68 can be expressed. Similarly, terrain block pile121
Has height information set so that a valley is formed at a corner.

【0068】零地帯66については、地形ブロックは配
置されない。零地帯66は高さが零の平坦な場所である
ため、未来戦車のオブジェクト情報を変更する必要がな
いからである。この、零地帯66は、未来戦車がゲーム
中に最も位置する時間が長い場所に設定することが望ま
しい。このように設定すれば、未来戦車がこの場所に位
置する場合には、オブジェクト情報変更部108による
オブジェクト情報の変更演算を行う必要がなくなり、デ
ータの処理量を節約できるからである。
For the zero zone 66, no terrain block is placed. This is because the zero zone 66 is a flat place with a height of zero, and it is not necessary to change the object information of the future tank. It is desirable that the zero zone 66 is set at a place where the future tank is located for the longest time during the game. With this setting, when the future tank is located at this location, the object information changing unit 108 does not need to change the object information and the data processing amount can be saved.

【0069】障害物80、82は、未来戦車の発射する
ミサイルにより破壊可能なように設定されている。そし
て、破壊された場合には、この障害物80、82のあっ
た位置には、その位置に応じた地形ブロックが設定され
る。
The obstacles 80 and 82 are set so that they can be destroyed by a missile fired by a future tank. When destroyed, a terrain block corresponding to the position is set at the position where the obstacles 80 and 82 were.

【0070】さて、オブジェクト情報変更部108で
は、以下のようにして、オブジェクト情報の変更が行わ
れる。
Now, the object information changing unit 108 changes the object information as follows.

【0071】まず、オブジェクト情報記憶部104よ
り、未来戦車20のインデックス、例えばインデックス
0が参照され、オブジェクト情報(X0 、Y0 、Z0 、
θ0 、φ0 、ρ0 )が読み出される。
First, the object information storage unit 104 refers to the index of the future tank 20, for example, index 0, and the object information (X0, Y0, Z0,
θ0, φ0, ρ0) are read.

【0072】ここで、未来戦車20には、図13に示す
ように、あらかじめ、その底面の4点A、B、C、Dに
仮想的な地形情報検出センサ360、362、364、
366が設けられている。そして、まず、オブジェクト
情報変更部108は、読み出した未来戦車20のオブジ
ェクト情報(X0 、Y0 、Z0 )から、この4点の位置
情報A(Xa0、Ya0、Za0)、B(Xb0、Yb0、Zb
0)、C(Xc0、Yc0、Zc0)、D(Xd0、Yd0、Zd
0)を求める。
Here, in the future tank 20, as shown in FIG. 13, virtual topographical information detection sensors 360, 362, 364 are previously arranged at four points A, B, C, D on the bottom surface thereof.
366 is provided. Then, first, the object information changing unit 108 determines the position information A (Xa0, Ya0, Za0), B (Xb0, Yb0, Zb) of these four points from the read object information (X0, Y0, Z0) of the future tank 20.
0), C (Xc0, Yc0, Zc0), D (Xd0, Yd0, Zd
0) is calculated.

【0073】次に、オブジェクト情報変更部108は、
これらの求められたA、B、C、D点の位置情報を読み
出しアドレスとして、地形情報記憶部106から、A、
B、C、D点の位置での地形情報、例えば高さ情報を読
み出す。
Next, the object information changing unit 108
From the topographical information storage unit 106, A, B, C, and D obtained from the topographic information storage unit 106 are used as read addresses.
Topographic information at the positions of B, C, and D, for example, height information is read.

【0074】なお、地形情報記憶部106を読み出す、
読み出しアドレスとしては、必ずしも3次元の位置情報
は必要なく、2次元の位置情報でも構わない。例えば、
A点の地形情報を求める読み出しアドレスとしては、2
次元の位置情報(Xa0、Ya0)でも十分である。但し、
例えば、ゲームフィールド上に橋などが存在する場合、
未来戦車20がこの橋の上に位置するか、橋の下に位置
するかでは、高さ情報が異なったものに設定される。従
って、このような場合には、現在、未来戦車20は、橋
の上に位置するのか、橋の下に位置するのかを区別する
ための情報、即ちZ座標が必要となる。
The topographical information storage unit 106 is read,
The read address need not necessarily be three-dimensional position information, and may be two-dimensional position information. For example,
The read address for the topographical information at point A is 2
Dimensional position information (Xa0, Ya0) is also sufficient. However,
For example, if there is a bridge on the game field,
The height information is set differently depending on whether the future tank 20 is located on the bridge or under the bridge. Therefore, in such a case, currently, the future tank 20 needs information for distinguishing whether it is located above the bridge or below the bridge, that is, the Z coordinate.

【0075】オブジェクト情報変更部108では、読み
出された高さ情報dZa0 、dZb0 、dZc0 、dZd0 によ
り、A、B、C、D点の位置情報が例えば以下のように
変更される。
In the object information changing unit 108, the position information of the points A, B, C and D is changed as follows by the read height information dZa0, dZb0, dZc0, dZd0.

【0076】 A(Xa0、Ya0、Za0)→A'(Xa0、Ya0、Za0+dZa
0) B(Xb0、Yb0、Zb0)→B'(Xb0、Yb0、Zb0+dZb
0) C(Xc0、Yc0、Zc0)→C'(Xc0、Yc0、Zc0+dZc
0) D(Xd0、Yd0、Zd0)→D'(Xd0、Yd0、Zd0+dZd
0) そして、この変更された点A′ B′ C′ D′ よ
り、図13(b)に示されるように、未来戦車20のオ
ブジェクト情報のうち、(Z0 、φ0 、ρ0 )が次のよ
うに変更される。
A (Xa0, Ya0, Za0) → A ′ (Xa0, Ya0, Za0 + dZa
0) B (Xb0, Yb0, Zb0) → B '(Xb0, Yb0, Zb0 + dZb
0) C (Xc0, Yc0, Zc0) → C '(Xc0, Yc0, Zc0 + dZc
0) D (Xd0, Yd0, Zd0) → D '(Xd0, Yd0, Zd0 + dZd
(0) From the changed points A ′ B ′ C ′ D ′, (Z0, φ0, ρ0) of the object information of the future tank 20 is as follows, as shown in FIG. 13 (b). Is changed to.

【0077】(X0 、Y0 、Z0 、θ0 、φ0 、ρ0 )
→(X0 、Y0 、Z0′、θ0 、φ0′、ρ0′) 以上のようにして、オブジェクト情報記憶部104の中
の未来戦車20のオブジェクト情報が変更されたことに
なる。
(X0, Y0, Z0, θ0, φ0, ρ0)
→ (X0, Y0, Z0 ', θ0, φ0', ρ0 ') As described above, the object information of the future tank 20 in the object information storage unit 104 is changed.

【0078】次に、必要があれば、もう一つの移動体で
ある敵未来戦車22のオブジェクト情報も変更される。
Next, if necessary, the object information of the enemy future tank 22, which is another moving body, is also changed.

【0079】図14には、以上のように地形情報に基づ
いてオブジェクト情報を変更した場合の、疑似3次元画
像の一例が示される。同図に示されるように、自機の未
来戦車20は斜面75に位置している。従って、本3次
元ゲーム装置は、この地形情報を反映して、画面が全体
に斜めに傾いているように見えるような疑似3次元画像
を合成している。この様子は、壁62の画像を見れば明
かである。また、同様に、敵未来戦車22は第2の台地
76上に位置するため、自機より上方向に見えており、
地形情報が3次元ゲームに反映されているのが理解され
る。
FIG. 14 shows an example of a pseudo three-dimensional image when the object information is changed based on the topographical information as described above. As shown in the figure, the future tank 20 of the player's aircraft is located on the slope 75. Therefore, the present three-dimensional game device synthesizes a pseudo three-dimensional image in which the screen looks as if it is tilted as a whole, reflecting this topographical information. This state is clear if the image of the wall 62 is seen. Similarly, since the enemy future tank 22 is located on the second plateau 76, the enemy future tank 22 is seen above the own machine,
It is understood that the terrain information is reflected in the 3D game.

【0080】なお、本実施例では、3次元ゲームに地形
情報を反映させて、例えば斜めに傾いて見えるような疑
似3次元画像を合成する場合について説明した。しか
し、本発明はこれに限られるものではなく、本発明の構
成によれば、以下のように色々パターンで地形情報を3
次元ゲームに反映させることができる。
In the present embodiment, the case has been described in which the terrain information is reflected in the three-dimensional game to synthesize a pseudo three-dimensional image that looks obliquely inclined, for example. However, the present invention is not limited to this, and according to the configuration of the present invention, the terrain information is recorded in various patterns as described below.
It can be reflected in the dimension game.

【0081】例えば、地形情報として、スムーズに移動
できる地形情報と、逆に、砂利道のようにガタガタな地
形情報を用意する。具体的には、地形ブロックの高さ情
報の設定をより細かく設定して、ガタガタ道の地形情報
を細かく高さ情報が変化した地形ブロックにより表現す
る。そして、逆に、スムーズな道の地形情報を、全ての
高さ情報が同じである地形ブロックにより表現する。こ
れにより、例えば未来戦車20がガタガタ道を移動して
いる場合は疑似3次元画像が細かく揺れ、スムーズな道
を移動している場合は疑似3次元画像が全く揺れないた
め、プレーヤは、ガタガタ道の移動、または、スムーズ
な道の移動を仮想体験できることになる。
For example, as the terrain information, terrain information that allows smooth movement and conversely, rugged terrain information such as a gravel road are prepared. Specifically, the height information of the terrain block is set more finely, and the terrain information of the rattling road is expressed by the terrain block in which the height information is finely changed. Then, conversely, the terrain information of the smooth road is represented by the terrain block having the same height information. As a result, for example, when the future tank 20 is moving on a rattling road, the pseudo three-dimensional image shakes finely, and when it is moving on a smooth road, the pseudo three-dimensional image does not shake at all. You will be able to experience the virtual movement of the road or the smooth road movement.

【0082】また、3次元ゲームに反映させる地形情報
も前記したような高さ情報に限られるものではない。例
えば、地形情報として、沼、湿地帯、砂漠といった地形
情報を用意して、この沼、湿地帯、砂漠に未来戦車20
が入り込むと、それぞれの地形に応じて速度を変化させ
るようにしてもよい。この設定は、具体的には以下のよ
うにして行う。
The terrain information reflected in the three-dimensional game is not limited to the height information as described above. For example, as the terrain information, terrain information such as a swamp, a wetland, and a desert is prepared, and the future tank 20 is placed in the swamp, the wetland, and the desert.
When is entered, the speed may be changed according to each terrain. This setting is specifically performed as follows.

【0083】前述したように、未来戦車20は、操作部
140に接続されたアナログレバー12、14からの操
作信号により操縦される。例えばプレーヤ302がアナ
ログレバー12、14を前に倒して、未来戦車20が前
方向に進んだとする。すると、その操作量に応じて、オ
ブジェクト情報記憶部104に記憶されるオブジェクト
情報は1フレームの間、即ち(1/60)秒(以下、T
秒とする)後に次のように変更される。
As described above, the future tank 20 is steered by the operation signal from the analog levers 12 and 14 connected to the operation unit 140. For example, it is assumed that the player 302 pushes the analog levers 12 and 14 forward and the future tank 20 moves forward. Then, according to the operation amount, the object information stored in the object information storage unit 104 is displayed for one frame, that is, (1/60) seconds (hereinafter, T
Seconds) and then changed as follows.

【0084】 (X0 、Y0 )→(X0 +VX0×T、Y0 +VY0×T) なお、説明を簡単にするため、Z座標及び方向情報θ、
φ、ρについては考えないこととする。
(X0, Y0) → (X0 + VX0 × T, Y0 + VY0 × T) In order to simplify the explanation, the Z coordinate and the direction information θ,
We will not consider φ and ρ.

【0085】このようにして、変更されたオブジェクト
情報に対して、以下のようにオブジェクト情報変更部1
08が地形情報に応じて負の値を加算する。
With respect to the object information changed in this way, the object information changing unit 1 operates as follows.
08 adds a negative value according to the topographical information.

【0086】(X0 +VX0×T、Y0 +VY0×T) →(X0 +VX0×T−dX0、Y0 +VY0×T−dY0) この加算される負の値−dX0、−dY0は、地形情報記憶
部106に記憶されており、未来戦車20の位置情報を
アドレスとして読み出される。そして、この加算される
負の値−dX0、−dY0は、その位置の地形がスムーズな
道か、沼か、湿地帯か、砂漠かで異なった値に設定され
ている。逆に、氷の道なるものを設定して、その道には
いると、正の値を加算して加速させるようにしてもよ
い。このように3次元ゲームに反映させる地形情報とし
て、例えば速度情報を用いることで、非常にゲームの面
白味を非常に高めることができる。
(X0 + VX0 * T, Y0 + VY0 * T) .fwdarw. (X0 + VX0 * T-dX0, Y0 + VY0 * T-dY0) These added negative values -dX0 and -dY0 are stored in the terrain information storage unit 106. It is stored and read with the position information of the future tank 20 as an address. The added negative values -dX0 and -dY0 are set to different values depending on whether the terrain at that position is a smooth road, a swamp, a wetland or a desert. On the contrary, an ice road may be set, and when the road is on the road, a positive value may be added to accelerate the road. As described above, by using, for example, speed information as the terrain information reflected in the three-dimensional game, it is possible to greatly enhance the fun of the game.

【0087】また、地形情報として速度情報を用いて、
これと前述した仮想的な地形情報検出センサ362〜3
66を組み合わせれば、よりゲームの面白味を高めるこ
とができる。例えば、ゲームフィールド60内にこの速
度情報が異なって設定された地形ブロックを用意する。
このようにすれば、移動体に設けられた4個の地形情報
検出センサ362〜366のそれぞれの位置で、それぞ
れ速度情報が異なったものと設定されるため、例えば、
移動体をスピン等させることが可能となる。これによ
り、プレーヤは、スピンした移動体から見える疑似3次
元画像を楽しむことが可能となる。この結果、プレーヤ
が移動体をスピンさせながら、そして、スピンした移動
体の視点での疑似3次元画像を見ながら車を操縦して競
争する、例えば氷上ドライビングゲーム等のゲームを提
供できることになる。
Also, using velocity information as topographical information,
This and the above-mentioned virtual terrain information detection sensors 362-3
By combining 66, it is possible to further enhance the fun of the game. For example, a terrain block in which the speed information is set differently is prepared in the game field 60.
By doing so, the speed information is set to be different at each position of the four terrain information detection sensors 362 to 366 provided on the moving body.
It is possible to spin the moving body. As a result, the player can enjoy the pseudo three-dimensional image seen from the spinning moving body. As a result, it is possible to provide a game such as an ice driving game in which a player competes by spinning a moving body and watching a pseudo three-dimensional image of the spinning moving body from the viewpoint of the spinning moving body.

【0088】なお、本実施例では、仮想的な地形情報検
出センサを移動体の4カ所の位置に設けた場合について
説明したが、本発明はこれに限らず、仮想的な地形情報
検出センサは少なくとも移動体の2カ所の位置に設けれ
ばよい。例えば、1方向の傾き、即ちφ、もしくはρの
方向の傾きのみを地形情報により反映させるのであれば
地形情報検出センサを少なくとも2カ所に設ければ十分
である。また、2方向の傾き、即ちφ及びρの両方向の
傾きを地形情報により反映させるのであれば、地形情報
検出センサを少なくとも3カ所に設ければ十分である。
但し、移動体が大きいものである場合、その大きさに応
じて取り付ける地形情報検出センサの個数を多くするこ
とが望ましい。 (2)弾の移動位置、当り判定への地形情報の反映 さて、前述した実施例では、地形情報、例えば地形の凹
凸などを合成される疑似3次元画像に反映させることで
ゲームの面白味を高めることができた。これに対し、本
3次元ゲーム装置により表現される3次元ゲームが、例
えば未来戦車ゲームなどの戦闘ゲームである場合は、プ
レーヤが見る疑似3次元画像のみならず、移動体が発射
する弾の移動位置、あるいは当り判定にもこの地形情報
を反映させれば、ゲームの面白味をより高めることがで
きる。なお、ここにいう弾とは、本3次元ゲームで使用
するマシンガン、ミサイル等に限らず、例えばレーザ等
の光線銃、斧、矢等のあらゆる種類の武器が含まれる。
In this embodiment, the virtual topographical information detecting sensor is provided at four positions of the moving body, but the present invention is not limited to this, and the virtual topographical information detecting sensor is not limited to this. It may be provided at least at two positions of the moving body. For example, if only the inclination in one direction, that is, the inclination in the φ or ρ direction is reflected in the topographical information, it is sufficient to provide the topographical information detection sensors at at least two places. Further, if the inclination in two directions, that is, the inclinations in both φ and ρ are reflected in the terrain information, it is sufficient to provide the terrain information detection sensors at at least three places.
However, when the moving body is large, it is desirable to increase the number of topographical information detection sensors to be attached according to the size. (2) Reflection of terrain information on bullet movement position and hit determination Now, in the above-described embodiment, terrain information, for example, unevenness of terrain is reflected on a synthesized three-dimensional image to enhance the fun of the game. I was able to. On the other hand, when the 3D game represented by the 3D game device is a battle game such as a future tank game, not only the pseudo 3D image seen by the player but also the movement of the bullets fired by the moving body If this topographical information is reflected in the position or the hit determination, the interest of the game can be further enhanced. The bullets referred to here are not limited to machine guns, missiles and the like used in this three-dimensional game, but include all kinds of weapons such as light guns such as lasers, axes and arrows.

【0089】即ち、地形情報を弾の移動位置又は当り判
定に反映させることにより、以下のようにゲームの面白
味を高めることができる。例えば自機の未来戦車20が
敵未来戦車22を狙う時は地形の凹凸を考慮しなければ
ならないので、より複雑な照準作業が必要となる。逆
に、敵未来戦車22から攻撃を受けた時には、高低差を
つけて回避したり凸凹を障害物にするなど、地形の凹凸
を利用できる。また、凹凸の地形により移動体が傾け
ば、これによる視線の上下動や、凸凹の地形自体の影
で”死角”を複雑に入り組ませることができる。このよ
うに、地形の凸凹によって“攻撃”“回避”“死角”な
どがより複雑になり、戦闘ゲームとしては今までにない
面白さが生まれることになる。この様子が図16に示さ
れる。
That is, by reflecting the terrain information on the movement position of the bullet or the hit determination, the interestingness of the game can be enhanced as follows. For example, when the future tank 20 of the aircraft is aiming at the enemy future tank 22, the unevenness of the terrain must be taken into consideration, and thus more complicated aiming work is required. On the contrary, when the enemy future tank 22 is attacked, it is possible to use the unevenness of the terrain, such as avoiding by making a height difference and making unevenness an obstacle. Also, if the moving body is tilted due to the uneven terrain, the "blind spot" can be complicated by the vertical movement of the line of sight and the shadow of the uneven terrain itself. In this way, the unevenness of the terrain makes “attack”, “avoidance”, “blind spots”, etc. more complicated, and it will be more interesting than ever in a battle game. This state is shown in FIG.

【0090】例えば、自機の未来戦車20が敵未来戦車
22を攻撃をする場合は以下のようになる。即ち、図1
6のでは、自機は斜面を登っているため砲身が上を向
き、弾は敵に当たらない。また、では、自機は敵と同
じ高さの平地にいるため、敵を正面にとらえることがで
きる。また、では、下り坂のため砲身が下を向いてし
まい、弾は敵に当たらない。また、では、自機を上り
坂の終りぎわの微妙な場所に位置させれば、正面に敵を
とらえることができる。更に、では、自機は坂を登り
きっているため高さが合わなく、敵をとらえることがで
きない。
For example, in the case where the own future tank 20 attacks the enemy future tank 22, the following is performed. That is, FIG.
At 6, the aircraft is climbing up the slope and the barrel is facing up, so the bullet does not hit the enemy. Also, in, since the aircraft is on the same level flat land as the enemy, it is possible to catch the enemy in front. Also, in the downhill, the gun barrel is facing down and the bullet does not hit the enemy. Also, if you position yourself in a delicate location at the end of the uphill, you can catch the enemy in front. In addition, since the aircraft is climbing up a hill, the heights do not match and it is impossible to catch the enemy.

【0091】逆に、自機の未来戦車20が、敵未来戦車
22からの攻撃を回避する場合は、以外の場所なら敵
の弾は当たらないため、以外の場所に回避すれば良い
ことになる。このように、地形情報を弾の移動位置、当
り判定に反映させることにより、従来の2次元ゲームに
はない、より面白味のあるゲームを提供できることにな
る。
On the contrary, when the future tank 20 of the player's own machine avoids the attack from the enemy future tank 22, the enemy's bullet will not hit in any other place, so it should be avoided in the other place. . Thus, by reflecting the terrain information on the movement position of the bullet and the hit determination, it is possible to provide a more interesting game that is not available in the conventional two-dimensional game.

【0092】図15には、以上のような地形情報を弾の
移動位置、当り判定に反映させる実施例のブロック図が
示される。
FIG. 15 shows a block diagram of an embodiment in which the above-mentioned topographical information is reflected in the movement position and hit judgment of the bullet.

【0093】図15に示す実施例は、図1に示した実施
例に対して、更に弾処理部120、引金判定部142を
含んだ構成となっている。
The embodiment shown in FIG. 15 is different from the embodiment shown in FIG. 1 in that a bullet processing unit 120 and a trigger determination unit 142 are further included.

【0094】引金判定部142では、プレーヤが弾の引
金を引いたか否かが判定され、これにより弾の発射信号
が形成される。
The trigger determination unit 142 determines whether or not the player has triggered the bullet, and thus a firing signal for the bullet is formed.

【0095】弾処理部120は、弾移動演算部122及
び当り判定部126を含んだ構成となっている。弾移動
演算部122では、オブジェクト情報変更部108によ
り変更された移動体のオブジェクト情報と、引金判定部
142からの弾の発射信号から弾の移動位置が演算され
る。
The bullet processing unit 120 has a structure including a bullet movement calculation unit 122 and a hit determination unit 126. The bullet movement calculation unit 122 calculates the movement position of the bullet from the object information of the moving body changed by the object information changing unit 108 and the firing signal of the bullet from the trigger determination unit 142.

【0096】当り判定部126では、オブジェクト情報
記憶部104から標的、例えば敵未来戦車22のオブジ
ェクト情報が読み出され、このオブジェクト情報と、弾
移動演算部122で演算された弾の移動位置とから、弾
の当り判定が行われる。弾が当たった場合は、この当り
判定情報を、オブジェクト情報記憶部104に記憶され
る種々の3次元オブジェクトのオブジェクト情報へ反映
させる。
In the hit determination unit 126, the object information of the target, for example, the enemy future tank 22 is read from the object information storage unit 104, and based on this object information and the movement position of the bullet calculated by the bullet movement calculation unit 122. The hit judgment is performed. When hit, the hit determination information is reflected in the object information of various three-dimensional objects stored in the object information storage unit 104.

【0097】次に、本実施例の動作について説明する。Next, the operation of this embodiment will be described.

【0098】まず、オブジェクト情報変更部108によ
り、地形情報記憶部106に記憶さている地形データを
利用して、移動体、即ち未来戦車20のオブジェクト情
報の変更演算が行われる。例えば未来戦車20が、図1
7(a)、(b)に示すように、斜面68の上に位置し
ている場合、未来戦車20の高さ情報及び傾き情報が変
更される。
First, the object information changing unit 108 uses the terrain data stored in the terrain information storage unit 106 to change the object information of the moving body, that is, the future tank 20. For example, the future tank 20 is shown in FIG.
As shown in 7 (a) and 7 (b), when the vehicle is located on the slope 68, the height information and the tilt information of the future tank 20 are changed.

【0099】この状態で、プレーヤが操作部140に接
続されたトリガー16、18を操作すると、この引金操
作信号が操作部140を介して引金判定部142に入力
される。そして、引金判定部142において、マシンガ
ン又はミサイルの引金を引いたか否かが判定され、引い
たと判定されるとマシンガン又はミサイルの発射信号が
形成され、この発射信号が弾処理部120の弾移動演算
部122に出力される。
When the player operates the triggers 16 and 18 connected to the operation section 140 in this state, the trigger operation signal is input to the trigger determination section 142 via the operation section 140. Then, the trigger determination unit 142 determines whether or not the trigger of the machine gun or missile has been pulled, and when it is determined that the trigger has been pulled, a firing signal of the machine gun or missile is formed, and this firing signal is the bullet of the bullet processing unit 120. It is output to the movement calculation unit 122.

【0100】弾移動演算部122は、この発射信号の入
力により、オブジェクト情報記憶部104から、発射信
号が入力された瞬間の変更された移動体のオブジェクト
情報(X0 、Y0 、Z0 、θ0 、φ0 、ρ0 )を読みに
行く。
By the input of the firing signal, the bullet movement calculation unit 122 causes the object information storage unit 104 to change the object information (X0, Y0, Z0, θ0, φ0) of the changed moving body at the moment when the firing signal is input. , Ρ0) to read.

【0101】次に、弾移動演算部122は、発射位置が
(X0 、Y0 、Z0 )で、発射方向が(θ0 、φ0 )
で、発射時間が発射信号が入力された時間である弾の移
動位置を演算する。この場合の、弾の移動位置の演算に
より得られた弾の運動は、例えば、宇宙における未来戦
車ゲームを想定したならば、方向が全くの直線運動とな
る。これに対して、地球等における未来戦車ゲームであ
って、重力を考慮するならば放物線運動となる。そし
て、このように放物線運動としたならば、未来戦車20
の砲身が敵未来戦車22に完全に向いていなくても弾を
当てることが可能となる。即ち、図3に示すように、未
来戦車20と敵未来戦車22との間に第1、第2の台地
76、78が介在して、自機から敵が見えない位置から
でも、例えば長距離砲により敵を攻撃することが可能と
なる。これにより、3次元地形により敵から見えない死
角の位置から敵を攻撃でき、ゲームの面白味を一段と高
めることができる。
Next, the bullet movement calculator 122 determines that the firing position is (X0, Y0, Z0) and the firing direction is (θ0, φ0).
Then, the moving position of the bullet whose firing time is the time when the firing signal is input is calculated. In this case, the movement of the bullet obtained by calculating the movement position of the bullet is a linear movement in the direction, for example, assuming a future tank game in space. On the other hand, in a future tank game on the earth or the like, if gravity is taken into consideration, it becomes a parabolic movement. Then, if the parabolic movement is performed in this way, the future tank 20
It is possible to hit the bullets even if the barrel of the is not perfectly suitable for the enemy future tank 22. That is, as shown in FIG. 3, the first and second plateaus 76 and 78 are interposed between the future tank 20 and the enemy future tank 22, and even if the enemy cannot see the enemy tank from a long distance, for example, a long distance. It is possible to attack the enemy with the gun. As a result, the enemy can be attacked from a blind spot position that cannot be seen by the enemy due to the three-dimensional terrain, and the game can be made even more interesting.

【0102】なお、この未来戦車ゲームでは、攻撃の軸
線は移動体の正面方向とほぼ一致しているように設定さ
れているため、移動体のオブジェクト情報を、弾の発射
位置及び発射方向の初期値にほぼそのまま利用できる。
しかし、ゲームによっては移動体と攻撃方向、即ち砲身
の方向を個別に操作できるように設定する場合がある。
そして、この場合は、弾移動演算部122は、移動体の
オブジェクト情報と、砲身の操作信号により、弾の発射
位置及び発射方向の初期値を決定することになる。
In this future tank game, the axis line of the attack is set so as to substantially coincide with the front direction of the moving body. Therefore, the object information of the moving body is set to the initial position of the bullet firing position and the firing direction. The value can be used almost as is.
However, depending on the game, it may be set such that the moving body and the attack direction, that is, the direction of the barrel can be operated individually.
Then, in this case, the bullet movement calculation unit 122 determines the initial values of the firing position and the firing direction of the bullet based on the object information of the moving body and the operation signal of the barrel.

【0103】当り判定部126では、弾移動演算部12
2で演算された弾の移動した位置に、敵未来戦車22、
あるいは障害物80、あるいは第2、第3の台地76等
の地形情報がないか否かを、オブジェクト情報記憶部1
04のそれぞれのオブジェクト情報を参照して確かめ、
状況に応じた当り判定信号を出力する。
In the hit judging section 126, the bullet movement calculating section 12
At the position where the bullet calculated in 2 moves, the enemy future tank 22,
Alternatively, the object information storage unit 1 determines whether or not there is terrain information about the obstacle 80 or the second and third plateaus 76.
Check each object information of 04,
The hit determination signal according to the situation is output.

【0104】例えば、弾の移動位置に敵未来戦車22が
あった場合は、この当り判定信号により、敵未来戦車2
2の位置にヒットしたことを表す3次元オブジェクト、
例えば火柱の3次元オブジェクトを形成する。具体的に
は、オブジェクト情報記憶部104の中に、オブジェク
ト情報(X、Y、Z)が敵未来戦車22の位置と同じで
ある火柱のオブジェクト情報を新たに形成する。また、
同時に、この当たった弾により、敵未来戦車22に与え
たダメージを演算する。そして、このダメージの演算に
より敵未来戦車22が破壊されたと判断された場合は、
オブジェクト情報記憶部104に記憶される敵未来戦車
22のオブジェクト情報を消去する等の処理を行う。ま
た、破壊はしなかったが、弾のダメージにより敵未来戦
車22が変形したと判断された場合は、敵未来戦車22
を表すオブジェクト情報のインデックスを変形した敵未
来戦車を表すオブジェクト情報のインデックスに変更す
る。これにより、画像合成部200により、変形した敵
未来戦車を映し出すことができる。
For example, when the enemy future tank 22 is located at the movement position of the bullet, the enemy future tank 2 is notified by this hit determination signal.
A three-dimensional object that represents hitting position 2
For example, a three-dimensional object of a pillar of fire is formed. Specifically, in the object information storage unit 104, new object information of a pillar of fire whose object information (X, Y, Z) is the same as the position of the enemy future tank 22 is newly formed. Also,
At the same time, the damage given to the enemy future tank 22 by this hit bullet is calculated. When it is determined that the enemy future tank 22 is destroyed by the calculation of this damage,
Processing such as deleting the object information of the enemy future tank 22 stored in the object information storage unit 104 is performed. If it is determined that the enemy future tank 22 has been deformed due to the damage of the bullet, although it was not destroyed, the enemy future tank 22
The index of the object information indicating the is changed to the index of the object information indicating the transformed enemy future tank. As a result, the image combining unit 200 can display the deformed enemy future tank.

【0105】また、例えば弾の移動位置に障害物80が
あった場合は、オブジェクト情報記憶部104内の障害
物80のオブジェクト情報を消去する。これにより弾に
より障害物80を破壊することが可能となる。なお、こ
の場合、障害物80のあった位置には、その位置にある
べき地形情報を、地形情報記憶部106内に形成する。
Further, for example, when there is an obstacle 80 at the moving position of the bullet, the object information of the obstacle 80 in the object information storage unit 104 is erased. This makes it possible to destroy the obstacle 80 with a bullet. In this case, at the position where the obstacle 80 was, the terrain information that should be at that position is formed in the terrain information storage unit 106.

【0106】また、例えば弾の移動位置に第2の台地等
の地形があった場合は、その弾は無効となり、オブジェ
クト情報記憶部104内の弾のオブジェクト情報を消去
する。
Further, for example, when there is a terrain such as a second plateau at the movement position of the bullet, the bullet becomes invalid and the object information of the bullet in the object information storage unit 104 is deleted.

【0107】以上のようにしてオブジェクト情報を変更
した後、画像合成部200において、変更後のオブジェ
クト情報に応じた疑似3次元画像が画像合成される。図
17(a)、(b)には、このようにして画像合成され
た疑似3次元画像の一例が示される。同図(a)では、
上向きに傾いた未来戦車20から、上向きにマシンガン
96が発射されている疑似3次元画像が示されている。
また、同図(b)には、上向きにミサイル98が発射さ
れている疑似3次元画像が示されている。これにより、
弾の移動位置、当り判定に地形情報、即ち斜面68の傾
き情報が反映されていることが理解される。 (3)弾の追尾システム さて、上記に示した実施例により、弾の移動位置、当り
判定に地形情報を反映することが可能となった。しか
し、このように3次元の地形情報を弾の移動位置等に反
映させるゲームとした場合、弾の照準作業が従来よりも
難しくなる。例えば、図16で説明したように、自機の
未来戦車20が敵未来戦車22に弾を当てることができ
るのは、図16においてあるいはの場合だけであ
る。従って、敵未来戦車22に簡単に逃げられてしまう
可能性がある。この場合、前記したように弾の運動を、
重力を考慮して放物線運動としたならば、当たる範囲が
少し増えるが、それでも例えば敵未来戦車22が遠くの
距離に位置する場合は、当てるのは難しい。このよう
に、なかなか攻撃側の弾が当たらないようなゲーム構成
とすると、ゲームが進まず、いまいちスピード感の溢れ
る3次元ゲームを提供できないこととなってしまう。そ
こで、本実施例では、新たに弾の追尾システムを設け、
この問題を解決している。
After changing the object information as described above, the image synthesizing section 200 synthesizes a pseudo three-dimensional image according to the changed object information. 17 (a) and 17 (b) show an example of the pseudo three-dimensional image synthesized as described above. In the figure (a),
A pseudo three-dimensional image in which the machine gun 96 is fired upward is shown from the future tank 20 tilted upward.
Further, FIG. 3B shows a pseudo three-dimensional image in which the missile 98 is fired upward. This allows
It is understood that the topography information, that is, the inclination information of the slope 68 is reflected in the movement position of the bullet and the hit determination. (3) Bullet Tracking System Now, with the above-described embodiment, it becomes possible to reflect the terrain information on the movement position and hit judgment of the bullet. However, in the case of the game in which the three-dimensional topographical information is reflected in the moving position of the bullet in this way, the aiming work of the bullet becomes more difficult than in the past. For example, as described with reference to FIG. 16, the future tank 20 of its own machine can hit the enemy future tank 22 only in the case of or in FIG. Therefore, the enemy future tank 22 may easily escape. In this case, as described above,
If the parabolic movement is taken into consideration in consideration of gravity, the hit range will increase a little, but it is still difficult to hit if the enemy future tank 22 is located at a long distance. In this way, if the game configuration is such that the attacking player's bullets do not hit easily, the game will not progress and it will not be possible to provide a three-dimensional game full of speed. Therefore, in this embodiment, a bullet tracking system is newly provided,
This has solved the problem.

【0108】図18には、このように弾に追尾システム
を設けた場合の実施例のブロック図が示される。図18
に示す実施例は、図15に示した実施例に対して、新た
に追尾移動演算部124を含んだ構成となっている。追
尾移動演算部124による弾の追尾移動位置の演算は以
下のように行われる。
FIG. 18 shows a block diagram of an embodiment in which the tracking system is provided for the bullet as described above. FIG.
The embodiment shown in FIG. 15 has a configuration including a tracking movement calculation unit 124 newly in addition to the embodiment shown in FIG. The calculation of the tracking movement position of the bullet by the tracking movement calculation unit 124 is performed as follows.

【0109】まず、弾移動演算部122から、弾、例え
ばミサイルの弾の移動位置が追尾移動演算部124に入
力される。このミサイルの弾の移動位置は、前述した実
施例で示したように、地形情報を反映した弾の移動位置
として演算されている。
First, the movement position of a bullet, for example, a missile, is input from the bullet movement calculation unit 122 to the tracking movement calculation unit 124. The moving position of the missile bullet is calculated as the moving position of the bullet reflecting the topographical information, as shown in the above-described embodiment.

【0110】追尾移動演算部124では、このミサイル
の弾の移動位置を、オブジェクト情報記憶部104に記
憶される敵未来戦車22のオブジェクト情報に基づい
て、変更する演算を行う。図19、図20には、追尾移
動演算部124により変更されたミサイルの追尾移動位
置の例が示され、図19は、追尾によりミサイルが命中
した場合、図20は追尾したがミサイルが命中しなかっ
た場合について示される。以下、図19、20に基づい
て追尾移動位置の演算について説明する。なお、説明を
簡単にするため、ここでは2次元の場合について説明す
るが、実際にはこの演算は3次元で行われている。
The tracking movement calculation unit 124 performs a calculation for changing the movement position of the missile bullet based on the object information of the enemy future tank 22 stored in the object information storage unit 104. 19 and 20 show an example of the tracking movement position of the missile changed by the tracking movement calculation unit 124. In FIG. 19, when the missile hits by the tracking, the missile hits in FIG. 20. If not, it is indicated. The calculation of the tracking movement position will be described below with reference to FIGS. It should be noted that although a two-dimensional case will be described here for the sake of simplicity, this calculation is actually performed in three dimensions.

【0111】今、ミサイル98の初期位置をM0 (X0
、Y0 )として、敵未来戦車22の位置をEn (XE
n、YEn)とする。また、演算は1フレーム毎(1/6
0秒)に行われることとし、1フレームの時間をTとす
る。
Now, let us say that the initial position of the missile 98 is M0 (X0
, Y0), the position of the enemy future tank 22 is set to En (XE
n, YEn). In addition, the calculation is performed for each frame (1/6
0 seconds) and the time of one frame is T.

【0112】まず、弾移動演算部122よりミサイルの
初期位置M0 (X0 、Y0 )及びミサイルの速度V(V
X 、VY )が入力される。これにより、もし追尾移動演
算部124での変更演算が行われなかったなら、次のミ
サイルの移動位置M1 (X1、X1 )は、 M1 (X1 、X1 )=M0 (X0 、Y0 )+V(VX 、VY )×T =(X0 +VX ×T、Y0 +VY ×T) =(X0 +VX ×T、Y0 +VY ×T) と演算される。従って、このような演算方式であると、
図19の場合も図20の場合も、ミサイルは敵未来戦車
22に命中しないことになる。
First, the missile initial position M0 (X0, Y0) and the missile velocity V (V
X, VY) is input. As a result, if the change calculation is not performed in the tracking movement calculation unit 124, the movement position M1 (X1, X1) of the next missile is M1 (X1, X1) = M0 (X0, Y0) + V (VX , VY) * T = (X0 + VX * T, Y0 + VY * T) = (X0 + VX * T, Y0 + VY * T). Therefore, with such a calculation method,
In both cases of FIG. 19 and FIG. 20, the missile does not hit the enemy future tank 22.

【0113】これに対し、追尾移動演算部124では、
まず、オブジェクト情報記憶部104より敵未来戦車2
2の初期位置E0 (XE0、YE0)が読み出され、これに
より、次のミサイルの移動位置M1 (X1 、Y1 )は、 D0 (DX0、DY0)=E0 (XE0、YE0)−M0 (X0 、Y0 ) M1 (X1 、Y1 )=M(X0、Y0 )+V(VX、VY )×T+K×D0 (DX0、 DY0) と演算される。従って、X1 、Y1 は、 X1 =X0 +VX ×T+K×(XE0−X0 ) Y1 =Y0 +VY ×T+K×(YE0−Y0 ) と演算される。ここで、Kは追尾定数であり、このKが
大きいほどミサイルの追尾力を高めることができる。
On the other hand, in the tracking movement calculation unit 124,
First, from the object information storage unit 104, the enemy future tank 2
The initial position E0 (XE0, YE0) of No. 2 is read out, whereby the moving position M1 (X1, Y1) of the next missile is D0 (DX0, DY0) = E0 (XE0, YE0) -M0 (X0, Y0) M1 (X1, Y1) = M (X0, Y0) + V (VX, VY) .times.T + K.times.D0 (DX0, DY0). Therefore, X1 and Y1 are calculated as follows: X1 = X0 + VX * T + K * (XE0-X0) Y1 = Y0 + VY * T + K * (YE0-Y0). Here, K is a tracking constant, and the larger K is, the higher the tracking power of the missile can be.

【0114】同様にして、次の、ミサイルの移動位置M
2 (X2 、Y2 )、M3 (X3 、Y3 )、------、Mn
(Xn 、Yn)は以下のように演算される。
Similarly, the next missile movement position M
2 (X2, Y2), M3 (X3, Y3), ------, Mn
(Xn, Yn) is calculated as follows.

【0115】 X2 =X1 +VX ×T+K×(XE1−X1 ) Y2 =Y1 +VY ×T+K×(YE1−Y1 ) X3 =X2 +VX ×T+K×(XE2−X2 ) Y3 =Y2 +VY ×T+K×(YE2−Y2 ) Xn =Xn-1 +VX ×T+K×(XE(n-1)−X(n-1) ) Yn =Yn-1 +VY ×T+K×(YE(n-1)−Y(n-1) ) さて、このように弾の移動位置を追尾移動演算部124
により変更演算した結果、最終的にミサイル98の進行
方向上に、敵未来戦車22が位置すると、図19のよう
にミサイル98は敵未来戦車22に命中する。逆に、進
行方向上に敵未来戦車22が位置しないと、ミサイル9
8は敵未来戦車22に命中しないことになる。また、上
式からわかるように、敵未来戦車22が、ミサイルの追
尾力より速く逃げれば、敵未来戦車22は、ミサイル攻
撃から逃れることができる。従って、この追尾定数Kの
値を、敵未来戦車22の速度等を考慮して適当に選択す
ることにより、命中する範囲を調整することができ、こ
れによりゲームの難易度を調整することが可能となる。
X2 = X1 + VX * T + K * (XE1-X1) Y2 = Y1 + VY * T + K * (YE1-Y1) X3 = X2 + VX * T + K * (XE2-X2) Y3 = Y2 + VY * T + K * (Y2 + T + K2 (Y2 + T2) ) Xn = Xn-1 + VX * T + K * (XE (n-1) -X (n-1)) Yn = Yn-1 + VY * T + K * (YE (n-1) -Y (n-1)) In this way, the tracking movement calculation unit 124
When the enemy future tank 22 is finally positioned in the traveling direction of the missile 98 as a result of the change calculation by, the missile 98 hits the enemy future tank 22 as shown in FIG. On the contrary, if the enemy future tank 22 is not located in the traveling direction, the missile 9
8 will not hit the enemy future tank 22. Further, as can be seen from the above formula, if the enemy future tank 22 escapes faster than the tracking force of the missile, the enemy future tank 22 can escape from the missile attack. Therefore, by appropriately selecting the value of the tracking constant K in consideration of the speed of the enemy future tank 22 and the like, it is possible to adjust the hit range, thereby adjusting the difficulty level of the game. Becomes

【0116】なお、ミサイル追尾の変更演算は上式のも
のに限らず、種々の方式のものを用いることができる。
例えば、図19、図20に示す、ミサイルの進行方向と
敵未来戦車22の方向との間の角度θを用いて、 Xn =Xn-1 +VX ×T+K×θXn-1 Yn =Yn-1 +VY ×T+K×θYn-1 と演算することもできる。
The change calculation of missile tracking is not limited to the above formula, but various formulas can be used.
For example, using the angle θ between the advancing direction of the missile and the direction of the enemy future tank 22 shown in FIGS. 19 and 20, Xn = Xn−1 + VX × T + K × θXn-1 Yn = Yn-1 + VY × It can also be calculated as T + K × θYn−1.

【0117】以上のように追尾システムによる弾の移動
位置の変更演算をした後、前述したのと同様に当り判定
部126において、当り判定の演算が行われ、画像形成
部200において、この当り判定に応じた疑似3次元画
像が画像合成される。
After the calculation of changing the moving position of the bullet by the tracking system is performed as described above, the hit determining unit 126 performs the hit determining operation in the same manner as described above, and the image forming unit 200 performs the hit determining. The pseudo three-dimensional image corresponding to is combined.

【0118】図21(a)〜(d)には、ミサイル98
が敵未来戦車22を追尾して、命中するまでの疑似3次
元画像の例が示される。同図(a)は、未来戦車20が
ミサイル98を発射したときの状態である。同図に示さ
れるように、自機の未来戦車20は斜面75の位置にい
る。従って、未来戦車20の砲身は敵未来戦車22の方
向に向いていない。このため、もしミサイル98に追尾
システムがなければ、自機の未来戦車20は、敵にミサ
イル98を当てることができないことになる。同図
(b)、(c)には、発射後、ミサイル98が敵未来戦
車22を追尾してゆく様子が示される。この時点で、敵
未来戦車22が逃げ、その逃げる速度が速ければ、ミサ
イル98は追尾することができず、ミサイル98は命中
しない。同図(d)には、ミサイル98が追尾により敵
未来戦車22に命中した場合の疑似3次元画像が示され
る。同図に示すように、この場合は、当り判定部126
が、敵未来戦車22の位置に当りのマーク、即ち火柱9
9を出すよう命令している。
The missile 98 is shown in FIGS.
Shows an example of a pseudo three-dimensional image until the player tracks the enemy future tank 22 and hits. The figure (a) is a state when the future tank 20 launches the missile 98. As shown in the figure, the future tank 20 of the player's aircraft is located on the slope 75. Therefore, the barrel of the future tank 20 does not face the enemy future tank 22. For this reason, if the missile 98 does not have a tracking system, the future tank 20 of its own cannot hit the enemy with the missile 98. FIGS. 7B and 7C show how the missile 98 follows the enemy future tank 22 after the launch. At this point, if the enemy future tank 22 escapes and the escape speed is high, the missile 98 cannot be tracked and the missile 98 does not hit. FIG. 3D shows a pseudo three-dimensional image when the missile 98 hits the enemy future tank 22 by tracking. In this case, as shown in FIG.
However, the mark of the hit on the position of the enemy future tank 22, that is, the pillar of fire 9
I'm ordering to give a 9.

【0119】以上のように、本実施例によれば、3次元
で形成された地形において、その地形情報を弾の移動位
置、当り判定に反映させた場合でも、追尾システムを用
いることで敵に対する攻撃を容易に行えるようゲーム設
定できる。そして、この場合、敵の速度等の関係で、追
尾定数Kを適当に調整することで、種々の難易度のゲー
ム設定をすることができ、非常に柔軟性に富んだ3次元
ゲーム装置を実現できることになる。 (4)マルチプレーヤ型ゲーム 図22には、本発明に係る3次元ゲーム装置を、人対人
のマルチプレーヤ型のゲーム構成とする場合の、ブロッ
ク図の一例が示される。
As described above, according to the present embodiment, even in the case where the terrain information is reflected in the moving position and the hit judgment of the bullet in the three-dimensional terrain, the tracking system is used to detect the enemy. You can set the game so that you can easily attack. Then, in this case, by appropriately adjusting the tracking constant K according to the speed of the enemy and the like, it is possible to set the game of various difficulty levels, and realize a very flexible three-dimensional game device. You can do it. (4) Multi-player type game FIG. 22 shows an example of a block diagram in the case where the three-dimensional game device according to the present invention has a person-to-person multi-player type game configuration.

【0120】同図に示すように、この場合は、同じ構成
の操作部140、ゲーム空間演算部100、オブジェク
ト情報記憶部104、画像合成部200、CRTを2台
以上の複数台用意する。そして、同図に示すように、オ
ブジェクト情報記憶部104に記憶されるオブジェクト
情報を共通化させることで、本3次元ゲーム装置を、前
記の図5に示したマルチプレーヤ型のゲーム構成とする
ことができる。この場合、共通化するデータとしては、
最低限、移動体のオブジェクトデータを共通化すればよ
い。また、ミサイル、マシンガン等の弾で攻撃するゲー
ム構成とする場合は、この弾に関するオブジェクト情報
についても共通化する。そして、共通化の方法は、通信
等で行っても良いし、オブジェクト情報記憶部104、
104が設置される基板等を共通化させて接続してもよ
い。
As shown in the figure, in this case, two or more operation units 140, the game space calculation unit 100, the object information storage unit 104, the image composition unit 200, and the CRT having the same configuration are prepared. Then, as shown in the figure, by sharing the object information stored in the object information storage unit 104, the present three-dimensional game device has the multi-player type game configuration shown in FIG. You can In this case, the common data is
At a minimum, the object data of mobile units should be shared. Further, in the case of a game configuration in which a missile, a machine gun or the like is used to attack, the object information regarding this bullet is also made common. The common method may be communication or the like, or the object information storage unit 104,
The board or the like on which the 104 is installed may be connected in common.

【0121】なお、このようにマルチプレーヤ型とする
場合、仮想3次元を構成する3次元オブジェクトを全て
共通化させる必要はなく、例えば、プレーヤ302とプ
レーヤ303が見ることができる仮想3次元空間の構成
を微妙に異ならせることで、よりバラエティーに富んだ
ゲーム空間を構成することもできる。
In the case of the multi-player type as described above, it is not necessary to make all the three-dimensional objects forming the virtual three-dimensional common, and for example, the virtual three-dimensional space that the player 302 and the player 303 can see. By making the composition slightly different, it is possible to configure a game space that is rich in variety.

【0122】また、本3次元ゲーム装置をマルチプレー
ヤゲームとする構成は、図22に示すものには限られな
い。例えば、1フレームである(1/60)秒の間に、
図7(a)に示すフレームデータ及びそれに連なるオブ
ジェクトデータ、ポリゴンデータ構成されるデータ群が
複数存在できるよう設定する。このようにすれば、複数
存在するデータ群のそれぞれのフレームデータにより、
それぞれ異なった視点位置、視点方向の設定ができるこ
とになる。このように設定すれば、ハードウエアのスピ
ード上、許される範囲で、1つのゲーム空間演算部10
0、画像合成部200により、視点位置、視点方向が異
なる複数の疑似3次元画像を形成できることになる。そ
して、この異なる視点位置、視点方向から見た疑似3次
元画像を、それぞれのプレーヤのCRTに表示すること
で、図22に示すように複数台の画像合成部、ゲーム空
間演算部を設けなくても、マルチプレーヤ型3次元ゲー
ム装置を実現できることになる。 4.頭部装着体を使用した実施例 (1)頭部装着体 本実施例に係る3次元ゲーム装置は、例えばプレーヤが
頭部装着体を装着しゲームを行う構成とすることもでき
る。
Further, the configuration for making the three-dimensional game device a multiplayer game is not limited to that shown in FIG. For example, during (1/60) second which is one frame,
It is set so that there can exist a plurality of data groups including frame data shown in FIG. 7A, object data continuous with the frame data, and polygon data. By doing this, each frame data of a plurality of existing data groups
It is possible to set different viewpoint positions and viewpoint directions. By setting in this way, one game space computing unit 10 can be used within the range permitted by the speed of hardware.
0, the image composition unit 200 can form a plurality of pseudo three-dimensional images having different viewpoint positions and viewpoint directions. Then, by displaying the pseudo three-dimensional images viewed from different viewpoint positions and viewpoint directions on the CRT of each player, it is possible to eliminate the need for providing a plurality of image composition units and game space calculation units as shown in FIG. Also, a multi-player type three-dimensional game device can be realized. 4. Embodiment Using Head Mounted Body (1) Head Mounted Body The three-dimensional game device according to this embodiment may be configured such that a player wears a head mounted body to play a game.

【0123】この頭部装着体は、液晶ディスプレー等の
表示装置を、プレーヤの視野を覆うようにプレーヤの目
の前に取り付けることで構成される。そして、この頭部
装着体には、空間センサと呼ばれる装置が取り付けら
れ、これによりプレーヤの3次元情報を検出させる。そ
して、この空間センサからの検出信号に応じた映像を生
成し、これを表示装置に表示してやることで、例えば普
段何気なく行っている見回すというような動作を、仮想
空間において、現実空間と同じような臨場感で体験する
ことができることとなる。
The head mounted body is constructed by mounting a display device such as a liquid crystal display in front of the player's eyes so as to cover the player's visual field. Then, a device called a space sensor is attached to the head-mounted body to detect the three-dimensional information of the player. Then, by generating an image corresponding to the detection signal from the space sensor and displaying it on a display device, for example, an operation such as looking around, which is normally done casually, is performed in the virtual space in the same manner as the real space. You will be able to experience it with a sense of realism.

【0124】図23(a)、(b)には、この頭部装着
体609の形状の一例が示される。
23A and 23B show an example of the shape of the head mounted body 609.

【0125】図23(a)は、プレーヤ用の空間センサ
612、画像表示装置620、スピーカ622を、ヘル
メット614に設けて構成される装着体609が示され
る。このタイプの装着体によれば、ヘルメット614を
プレーヤが装着することにより外部と完全に隔離した世
界を作ることができるため、より臨場感溢れる仮想現実
を楽しむことができる。これに対して図23(b)に示
す装着体609は、プレーヤ用の空間センサ612、画
像表示装置620、スピーカ622が、装着バンド61
6に一体的に取り付けて構成されているため、より軽快
感溢れる装着感を実現することができる。なお、本実施
例に使用される装着体としては、図23(a)、(b)
に示す形状のものに限らず種々の形状のものを使用する
ことが可能である。
FIG. 23A shows a mounting body 609 in which a helmet space 612 is provided with a space sensor 612 for a player, an image display device 620, and a speaker 622. According to this type of wearing body, the player can wear the helmet 614 to create a world completely isolated from the outside, so that a more realistic virtual reality can be enjoyed. On the other hand, in the mounted body 609 shown in FIG. 23B, the space sensor 612 for the player, the image display device 620, the speaker 622, and the mounted band 61.
Since it is configured to be integrally attached to 6, it is possible to realize a more comfortable wearing feeling. The mounting body used in this embodiment is shown in FIGS.
It is possible to use various shapes other than the shape shown in FIG.

【0126】画像表示装置620は、プレーヤの視界を
覆うようにプレーヤの目の前に取り付けられ、画像合成
部200から接続線618を通じて送られてくる画像情
報を画像表示するものである。この場合の画像表示方法
としては、頭部装着体609を小型化し装着感を向上さ
せるべく、例えばカラー液晶ディスプレー、小型ブラウ
ン管等の小型のディスプレーを用いることが望ましい。
また、映像に目の焦点を合わせるべく、更に、視野角を
広げて臨場感を向上させるべく光学系により補正するこ
とが望ましい。
The image display device 620 is mounted in front of the player's eyes so as to cover the player's field of view, and displays the image information of the image information sent from the image synthesizing section 200 through the connection line 618. As an image display method in this case, it is desirable to use a small display such as a color liquid crystal display or a small cathode ray tube in order to downsize the head mounted body 609 and improve the wearing feeling.
Further, it is desirable to perform correction by an optical system so as to focus the eyes on the image and further widen the viewing angle to improve the realism.

【0127】ここで、小型ディスプレーの形状として
は、プレーヤの顔の形状に沿ってプレーヤの視界を覆う
ように形成し、パノラマ映像効果を得るような形状とし
てもよいし、2つの小型ディスプレーをそれぞれプレー
ヤの両眼の前に形成するような形状としてもよい。後者
の場合は、両眼に与えられた平面的な2次元画像に視差
のある画像を与えること等により、3次元的な立体感を
与えるような形成することが望ましい。このように構成
すれば、物体の大きさや、物体までの距離を把握するこ
とができるようになるため、より現実世界に近づいた仮
想世界を作り出すことが可能となるからである。
Here, as the shape of the small display, it may be formed so as to cover the field of view of the player along the shape of the player's face so as to obtain a panoramic image effect. The shape may be formed in front of both eyes of the player. In the latter case, it is desirable to give a three-dimensional stereoscopic effect by giving an image with parallax to a two-dimensional two-dimensional image given to both eyes. With such a configuration, the size of the object and the distance to the object can be grasped, so that it is possible to create a virtual world that is closer to the real world.

【0128】空間センサ612は、プレーヤの3次元情
報を検出するセンサであり、図23に示すようにプレー
ヤに取り付けられ、接続線618を介して図24に示す
ように画像合成部200側に接続されている。この空間
センサ612は、所定の位置に設けられた空間センサ用
信号発生器からの信号によりプレーヤの3次元情報を検
出できるよう形成されている。この3次元情報の検出手
法としては、空間センサ612を直交した3つのコイル
で構成し、空間センサ用信号発生器から発生する磁場に
より、空間センサ612のコイルに誘起される電流を検
出し、その電流値から位置関係を検出する。これにより
プレーヤの3次元情報が検出されることとなる。
The space sensor 612 is a sensor for detecting the three-dimensional information of the player, is attached to the player as shown in FIG. 23, and is connected to the image synthesizing section 200 side through the connection line 618 as shown in FIG. Has been done. The space sensor 612 is formed so as to detect the three-dimensional information of the player by a signal from a space sensor signal generator provided at a predetermined position. As a method of detecting the three-dimensional information, the space sensor 612 is composed of three orthogonal coils, and the magnetic field generated from the space sensor signal generator detects the current induced in the coil of the space sensor 612, The positional relationship is detected from the current value. As a result, the three-dimensional information of the player is detected.

【0129】なお、空間センサ612及び空間センサ用
信号発生器による3次元情報の検出方法としては、上記
の動磁界を利用したものに限らず、例えば、静磁界を利
用したもの、超音波、赤外線を利用したものを用いても
よい。
The method for detecting three-dimensional information by the space sensor 612 and the signal generator for space sensor is not limited to the above-mentioned method using the dynamic magnetic field, but may be, for example, one using a static magnetic field, ultrasonic waves, infrared rays. You may use what used.

【0130】図24には、このような頭部装着体609
を本実施例に適用した場合の構成の一例が示される。
FIG. 24 shows such a head mounted body 609.
An example of the configuration when is applied to this embodiment is shown.

【0131】図24に示すように、頭部装着体609を
使用する場合は、画像合成部200内の処理部214内
に座標抽出部682を新たに設け、それ以外の構成はこ
れまで述べた実施例と同様の構成となる。ここで、座標
抽出部682は、前記した空間センサ612から入力さ
れた検出信号により、プレーヤの視点位置及び視点方向
を抽出する。そして、この視点位置及び視点方向の情報
を用いて、プレーヤの視点位置及び視点方向における仮
想視界画像を形成する。
As shown in FIG. 24, when the head-mounted body 609 is used, a coordinate extracting unit 682 is newly provided in the processing unit 214 in the image synthesizing unit 200, and the other configurations are as described above. The configuration is similar to that of the embodiment. Here, the coordinate extracting unit 682 extracts the player's viewpoint position and viewpoint direction from the detection signal input from the space sensor 612. Then, using the information on the viewpoint position and the viewpoint direction, a virtual field-of-view image at the viewpoint position and the viewpoint direction of the player is formed.

【0132】この場合の、仮想視界画像の形成手法は、
前記の図8での演算手法と同様の手法に行う。即ち、処
理部214は、ゲーム空間演算部100からオブジェク
ト情報を、3次元画像情報記憶部204からこれに対応
した3次元画像情報を読み出し、これらの情報から、図
7に示すフォーマットのデータを形成する。この際、前
記の座標抽出部682で抽出したプレーヤの視点位置及
び視点方向の情報を、図7(a)に示すフレームデータ
内に含ませる。
In this case, the method of forming the virtual view image is
The same method as the calculation method in FIG. 8 is used. That is, the processing unit 214 reads the object information from the game space computing unit 100 and the corresponding three-dimensional image information from the three-dimensional image information storage unit 204, and forms the data in the format shown in FIG. 7 from these information. To do. At this time, the information on the viewpoint position and the viewpoint direction of the player extracted by the coordinate extracting unit 682 is included in the frame data shown in FIG.

【0133】次に、座標演算部216は、このフォーマ
ットのデータを読み出し、この各頂点座標等に対し各種
の座標変換演算処理を行う。この場合、視点座標系への
変換は、フレームデータ内に含ませられた前記のプレー
ヤの視点位置及び視点方向の情報を用いて行う。
Next, the coordinate calculation unit 216 reads out the data of this format and performs various coordinate conversion calculation processing on the coordinates of each vertex. In this case, the conversion to the viewpoint coordinate system is performed using the information on the viewpoint position and the viewpoint direction of the player included in the frame data.

【0134】その後、クリッピング処理部218、透視
変換部220、ソーティング処理部222において各種
の処理が行われ、画像形成部240でポリゴン内で画像
情報が演算され、プレーヤの装着する頭部装着体609
に備え付けられた画像表示装置620に画像出力され
る。
After that, various processes are performed in the clipping processing unit 218, the perspective conversion unit 220, and the sorting processing unit 222, the image information is calculated in the polygon in the image forming unit 240, and the head-mounted body 609 worn by the player.
An image is output to the image display device 620 provided in the.

【0135】このような構成により、プレーヤは仮想現
実世界でのゲームを楽しむことができる。即ち、表示画
像は、従来のようにCRT等の表示装置に映し出される
のではなく、プレーヤの視界を覆うように装着された画
像表示装置620に映し出される。そして、この画像表
示装置620には、前記の空間センサ612、座標抽出
部682を用いて、プレーヤの視点位置、視点方向にお
けるを仮想視界画像が映し出される。従って、プレーヤ
は、仮想3次元空間での任意の方向での視界画像を、頭
部装着体609が装着された自分の頭を向けることで見
ることができることとなる。
With such a structure, the player can enjoy the game in the virtual reality world. That is, the display image is not displayed on a display device such as a CRT as in the related art, but is displayed on the image display device 620 mounted so as to cover the field of view of the player. Then, on the image display device 620, a virtual view field image is displayed in the player's viewpoint position and viewpoint direction by using the space sensor 612 and the coordinate extracting unit 682. Therefore, the player can see the visual field image in an arbitrary direction in the virtual three-dimensional space by turning his / her head on which the head mounted body 609 is mounted.

【0136】この結果、本実施例をドライビングゲーム
に適用した場合、例えば後ろを振り返ることで、追いか
けて来る相手のレーシングカーを確認するというような
ことができる。
As a result, when this embodiment is applied to a driving game, for example, by looking back, it is possible to check the racing car of the opponent who is chasing.

【0137】また、本実施例をシューティングゲームに
適用した場合は、プレーヤの周りの360度全方向に設
定された仮想3次元空間において、空間内の四方から攻
撃して来る敵機に対して、シューティングゲームを楽し
むことができることになる。この結果、より現実世界に
近づいたゲーム空間を形成することができ、ゲームの面
白さ、臨場感、緊迫感を飛躍的に向上させることができ
る。 (2)実空間映像と仮想視界画像の合成 さて、前述した頭部装着体を用いた3次元ゲーム装置に
おいて、映像カメラにより撮像される実空間映像と画像
形成部から出力される仮想視界画像とを合成できれば、
更に現実味溢れる3次元ゲーム装置を実現できる。図2
5には、このような画像合成が可能な実施例のブロック
図が示される。また、図26(a)には、この3次元ゲ
ーム装置の外観図が示される。
When this embodiment is applied to a shooting game, in a virtual three-dimensional space set in all directions of 360 degrees around the player, enemy planes attacking from four directions in the space are You will be able to enjoy shooting games. As a result, it is possible to form a game space that is closer to the real world, and it is possible to dramatically improve the fun, realistic sensation, and tenseness of the game. (2) Combining Real Space Video and Virtual Field Image Now, in the above-described three-dimensional game device using the head mounted body, the real space video imaged by the video camera and the virtual field image output from the image forming unit are combined. If you can synthesize
It is possible to realize a more realistic 3D game device. Figure 2
FIG. 5 shows a block diagram of an embodiment capable of such image composition. Further, FIG. 26A shows an external view of this three-dimensional game device.

【0138】図26(a)において、本物に極めて似せ
て作られた未来戦車630は、内側が全てブルーの色に
塗られたドーム1の中のフロア4の上に設置されてい
る。ここで、このフロア4もドーム1の内側と同様に全
てブルーの色に塗られている。そして、この未来戦車6
30には、プレーヤ650が搭乗している。
In FIG. 26 (a), a future tank 630 made to look very similar to the real thing is installed on the floor 4 in the dome 1 whose inside is painted in blue. Here, the floor 4 is also painted in the same blue color as the inside of the dome 1. And this future tank 6
A player 650 is on board 30.

【0139】未来戦車630は、例えば、操縦席63
6、左側駆動部632、右側駆動部634、アナログレ
バー640、641、計器盤644等を含んで構成され
ている。そして、例えば左側駆動部632、右側駆動部
634はプレーヤ650のアナログレバー640、64
1の操作により自在に操舵されるように形成されてい
る。そして、後述するように、プレーヤ650は映像カ
メラ610によりこれらの動きの変化を見ることができ
ることとなる。
The future tank 630 has, for example, a cockpit 63
6, left side drive unit 632, right side drive unit 634, analog levers 640 and 641, instrument panel 644, and the like. Then, for example, the left drive unit 632 and the right drive unit 634 are the analog levers 640 and 64 of the player 650.
It is formed so as to be freely steered by the operation of 1. Then, as will be described later, the player 650 can see changes in these movements with the video camera 610.

【0140】計器盤644は、例えばスピードメータ、
燃料計、警告計(図示せず)を含んでおり、プレーヤ6
50の運転状態により変化するように構成されている。
即ち、プレーヤ650のアナログレバー640、641
への操作に応じて、スピードメータが変化し、また、ゲ
ーム終番になり燃料が尽きてくると燃料計がこれを示す
ように構成される。更に、未来戦車630のエンジン等
にトラブルが生じると警告計が点滅し、プレーヤ650
は映像カメラ610によりこれを知ることができる。
The instrument panel 644 is, for example, a speedometer,
The player 6 includes a fuel gauge and a warning gauge (not shown).
It is configured to change depending on the operating state of 50.
That is, the analog levers 640 and 641 of the player 650.
The speedometer changes in response to the operation to, and when the game is over and the fuel runs out, the fuel gauge indicates this. Further, when a trouble occurs in the engine of the future tank 630, the warning indicator blinks, and the player 650
Can know this by the video camera 610.

【0141】また、未来戦車630の下部には、姿勢制
御部624が設けられ、ゲームフィールド60の地形情
報、プレーヤ650の操作信号に応じて、未来戦車63
0の姿勢変化、加速変化が制御される。これにより、姿
勢制御部624は、例えば図26(b)に示す斜面75
を未来戦車630が通過した場合には、この斜面の角度
に応じた姿勢の制御を行うことになる。この結果、より
現実世界に近づいた仮想世界を体験できる。また、未来
戦車630が通過した地形ブロックが砂利道であった場
合は、これに応じて姿勢制御部624は、細かな振動を
発生させることができる。これらの姿勢制御は、ゲーム
空間演算部100により行われ、制御するための情報
は、前述した地形情報記憶部106に格納された地形情
報を用いて生成する。これにより、前述した実施例のよ
うに地形情報を疑似3次元画像に反映するのみならず、
姿勢制御にもこの地形情報を反映させることができ、ゲ
ームの面白味を格段に向上させることができる。
At the bottom of the future tank 630, an attitude control unit 624 is provided, and the future tank 63 is responsive to the terrain information of the game field 60 and the operation signal of the player 650.
The posture change of 0 and the acceleration change are controlled. As a result, the posture control unit 624 causes the slope surface 75 shown in FIG.
When the future tank 630 passes through, the posture is controlled according to the angle of the slope. As a result, you can experience a virtual world that is closer to the real world. Further, when the terrain block through which the future tank 630 has passed is a gravel road, the attitude control unit 624 can generate fine vibrations accordingly. The attitude control is performed by the game space computing unit 100, and the information for controlling is generated using the terrain information stored in the terrain information storage unit 106 described above. Thereby, not only is the terrain information reflected in the pseudo three-dimensional image as in the above-described embodiment,
This terrain information can be reflected in the attitude control, and the fun of the game can be significantly improved.

【0142】プレーヤ650には、頭部装着体608が
プレーヤ650の視界を覆うように装着されている。こ
の頭部装着体608の構成は、図23(c)、(d)に
示すように、図23(a)、(b)に示した頭部装着体
609に対して、映像カメラ610が新たに加わった構
成となっている。
A head mount 608 is mounted on the player 650 so as to cover the field of view of the player 650. As shown in FIGS. 23 (c) and 23 (d), the head mounted body 608 has a configuration in which the video camera 610 is added to the head mounted body 609 shown in FIGS. 23 (a) and 23 (b). It has been added to.

【0143】この映像カメラ610は、プレーヤ650
が現実世界を見るために使用するものであり、例えば図
23(c)、(d)に示すように、プレーヤ650の視
点位置(目の位置)に近い位置に設定し、そのアングル
もプレーヤ650の視界方向と一致するように設定する
ことが望ましい。このように設定すれば実際にプレーヤ
650から見える現実世界の映像を、より違和感なく見
ることができるからである。なお、映像カメラ610の
撮像手段としては、例えば高解像度CCD等を用いる。
This video camera 610 is a player 650.
Is used to view the real world, and is set at a position close to the viewpoint position (eye position) of the player 650 and its angle is also set to the player 650, as shown in FIGS. It is desirable to set so as to match the visual field direction of. This is because by setting in this way, the image of the real world that the player 650 can actually see can be seen more comfortably. As the image pickup means of the video camera 610, for example, a high resolution CCD or the like is used.

【0144】ドームには空間センサ用信号発生器13が
設けられており、これとプレーヤ650の頭部に設けら
れた空間センサ12により、プレーヤの3次元情報を検
出することができる。
The dome is provided with the spatial sensor signal generator 13, and the spatial sensor 12 provided on the head of the player 650 can detect the three-dimensional information of the player.

【0145】次に、本実施例による画像合成の手法につ
いて以下に説明する。
Next, the image synthesizing method according to this embodiment will be described below.

【0146】本実施例では、図26(b)に示すよう
に、映像カメラ610で撮影した実3次元空間における
実空間映像700と、仮想3次元空間における仮想視界
画像702とを画像合成して、表示画像704を形成し
ている。そして、この表示画像704は、接続線618
を通じて画像表示装置620に出力され、実際にプレー
ヤ650が見る視界画像となる。
In this embodiment, as shown in FIG. 26B, the real space image 700 in the real three-dimensional space photographed by the video camera 610 and the virtual view image 702 in the virtual three-dimensional space are image-synthesized. , A display image 704 is formed. Then, this display image 704 shows the connection line 618.
Is output to the image display device 620 through the, and becomes a visual field image that the player 650 actually sees.

【0147】この画像合成を、本実施例ではブルーマッ
ト合成により行っている。つまり、未来戦車630及び
その付属物、自分自身であるプレーヤ650等、以外の
もの、即ちドーム1の内側及びフロア4を全てブルーの
色にしておく。このようにすると、実空間映像700に
おいて、未来戦車630、アナログレバー640、64
1、プレーヤの手654等以外は全てブルーの背景とな
る。そして、この実空間映像700のうちブルーの色の
部分の画素を全て空きドットに設定し、これに仮想視界
画像702に重ね合わることにより表示画像704を得
ることができる。この場合、例えばドーム1には主にプ
レーヤ650から見える背景が、フロア4には、未来戦
車630が走っているゲームフィールド60の路面状況
が映し出される。
This image composition is performed by blue matte composition in this embodiment. In other words, all but the future tank 630 and its accessories, the player 650 which is oneself, that is, the inside of the dome 1 and the floor 4 are colored in blue. By doing so, in the real space image 700, the future tank 630, the analog levers 640, 64
1, except for the player's hand 654, etc., has a blue background. Then, the display image 704 can be obtained by setting all the pixels of the blue color portion of the real space image 700 to empty dots and superposing them on the virtual view image 702. In this case, for example, the dome 1 shows a background mainly seen by the player 650, and the floor 4 shows the road surface situation of the game field 60 in which the future tank 630 is running.

【0148】この場合の3次元ゲーム装置の実施例のブ
ロック図が図25に示される。
A block diagram of an embodiment of the three-dimensional game device in this case is shown in FIG.

【0149】図25に示す実施例は、図24に示す実施
例に、新たに映像カメラ610が接続される表示画像合
成装置680、姿勢制御部624が加わった構成となっ
ている。従って、空間センサ612、空間センサ用信号
発生器613、座標抽出部682によりプレーヤ650
の3次元情報を抽出し、これによりプレーヤ650から
見える仮想視界画像702が画像形成部240から出力
される。
The embodiment shown in FIG. 25 has a configuration in which a display image synthesizing device 680 to which a video camera 610 is newly connected and an attitude control section 624 are added to the embodiment shown in FIG. Therefore, the space sensor 612, the space sensor signal generator 613, and the coordinate extraction unit 682 are used by the player 650.
3D information is extracted, and the virtual field-of-view image 702 seen by the player 650 is output from the image forming unit 240.

【0150】表示画像合成装置680では、この仮想視
界画像702と、映像カメラ610で撮像された実空間
映像700との画像合成が行われる。この画像合成の手
法としては種々の手法が考えられるが、本実施例では例
えばブルーマット合成による手法によってこれを行って
いる。図27には、この場合の表示画像合成装置680
の構成の詳細が示されている。
The display image synthesizing device 680 performs image synthesizing of the virtual view image 702 and the real space image 700 picked up by the image camera 610. Various methods are conceivable as the method of this image synthesis, but in the present embodiment, this is performed by, for example, the method by blue matte synthesis. FIG. 27 shows the display image synthesizing device 680 in this case.
The configuration details of are shown.

【0151】即ち、図27において、映像カメラ610
から入力された実空間映像700を表す画像信号は、表
示画像合成装置680内においてまずフィルター900
に通されRGBの3原色の成分に分けられる。そして、
これらの成分のそれぞれが例えば8ビットのデジタルデ
ータに、A/D変換回路902にてA/D変換され、こ
れにより各画素毎に24ビットのRGBデジタルデータ
が求められる。そして、この実空間映像700における
各画素の24ビットのRGBデジタルデータが、ドーム
1の裏側及びフロア4に塗られたブルーの色の24ビッ
トのRGBデジタルデータと一致するか否かが、空きド
ット判定回路904にて各画素毎に演算され、判断され
る。そして、この判断結果は、空きドットメモリ906
に書き込まれる。空きドットメモリ906は、表示画像
の全ての画素に対応した1ビットメモリの構成となって
おり、各画素毎に空きドットか否かの空きドット判定デ
ータが1ビットデータとして書き込まれる。
That is, in FIG. 27, the video camera 610.
The image signal representing the real-space image 700 input from the filter is first filtered in the display image synthesis device 680.
And is divided into three primary color components of RGB. And
Each of these components is A / D converted into 8-bit digital data by the A / D conversion circuit 902, whereby 24-bit RGB digital data is obtained for each pixel. Whether or not the 24-bit RGB digital data of each pixel in the real space image 700 matches the 24-bit RGB digital data of the blue color painted on the back side of the dome 1 and the floor 4 is a blank dot. The determination circuit 904 calculates and determines each pixel. The result of this determination is that the empty dot memory 906
Written in. The empty dot memory 906 has a configuration of a 1-bit memory corresponding to all the pixels of the display image, and empty dot determination data for each pixel is written as 1-bit data.

【0152】表示画像合成装置680には、表示画像の
各画素に対応したフィールドバッファ910が内蔵され
ている。そして、データ制御部908により、空きドッ
トメモリ906に書き込まれている空きドット判定デー
タが参照され、フィールドバッファ910の各画素位置
に実空間映像が書き込まれる。即ち、空きドット判定デ
ータにより、その画素が空きドットであると判断された
場合は、フィールドバッファ910のその画素位置に
は、実空間映像は書き込まれない。逆に、空きドット判
定データにより、その画素が空きドットではないと判断
された場合には、実空間映像の24ビットのRGBデジ
タルデータがそのまま書き込まれることとなる。
The display image synthesizing device 680 includes a field buffer 910 corresponding to each pixel of the display image. Then, the data control unit 908 refers to the empty dot determination data written in the empty dot memory 906, and writes the real space image at each pixel position of the field buffer 910. That is, when the pixel is determined to be an empty dot by the empty dot determination data, the real space video is not written at the pixel position of the field buffer 910. On the contrary, when it is determined by the empty dot determination data that the pixel is not an empty dot, 24-bit RGB digital data of the real space video is written as it is.

【0153】次に、データ制御部908により、空きド
ットメモリ906に書き込まれている空きドット判定デ
ータが参照され、フィールドバッファ910の各画素位
置に、画像形成部240により演算された仮想視界画像
情報が重ね書きされる。即ち、空きドット判定データに
より、その画素が空きドットであると判断された場合
は、仮想視界画像情報がそのまま書き込まれる。逆に、
空きドット判定データにより、その画素が空きドットで
はないと判断された場合には、なにも書き込まれず、こ
の画素位置には実空間映像が表示されることとなる。
Next, the data control unit 908 refers to the empty dot determination data written in the empty dot memory 906, and the virtual field image information calculated by the image forming unit 240 is calculated at each pixel position of the field buffer 910. Is overwritten. That is, when the pixel is determined to be an empty dot by the empty dot determination data, the virtual field-of-view image information is written as it is. vice versa,
When it is determined by the empty dot determination data that the pixel is not an empty dot, nothing is written and the real space image is displayed at this pixel position.

【0154】以上の書き込みを行なった後、データ制御
部908によりフィールドバッファ910から各画素位
置の画像情報データが読み出される。そして、この画像
情報データは接続線618を通して画像表示装置620
に画像出力され、プレーヤ650は、実空間映像700
に仮想視界画像702が組み込まれた表示画像704を
リアルタイムに見ることができることとなる。
After the above writing, the data control unit 908 reads out the image information data at each pixel position from the field buffer 910. Then, the image information data is sent to the image display device 620 through the connection line 618.
Image is output to the player 650 and the real space image 700 is displayed.
Thus, the display image 704 in which the virtual view image 702 is incorporated can be viewed in real time.

【0155】なお、以上の画像情報の書き込みと、読み
出しは、例えばフィールドバッファ710を2画面分の
構成とすることにより、同時に行うように構成すること
がより望ましい。
It is more preferable that the writing and reading of the image information described above are performed simultaneously, for example, by configuring the field buffer 710 for two screens.

【0156】さて、ゲーム空間演算部100では、音声
合成部678を通じてスピーカ622より出力される音
声信号、及び、姿勢制御部624への姿勢制御信号が生
成され、これにより音声合成及び姿勢制御が行われる。
Now, in the game space computing section 100, a voice signal output from the speaker 622 through the voice synthesizing section 678 and a posture control signal to the posture control section 624 are generated, whereby voice synthesis and posture control are performed. Be seen.

【0157】例えば姿勢制御は以下のようにして行われ
る。まず、未来戦車のオブジェクト情報が、地形情報記
憶部106の地形情報を利用して、オブジェクト情報変
更部108により変更される。そして、この変更された
オブジェクト情報、即ち地形情報が反映されたオブジェ
クト情報(X0 、Y0 、Z0 、θ0 、φ0 、ρ0 )を用
いて姿勢制御信号が生成される。そして、この姿勢制御
信号は姿勢制御部624に出力され、これにより姿勢制
御が行われることになる。
For example, the attitude control is performed as follows. First, the object information of the future tank is changed by the object information changing unit 108 using the terrain information of the terrain information storage unit 106. Then, the attitude control signal is generated using the changed object information, that is, the object information (X0, Y0, Z0, .theta.0, .phi.0, .rho.0) in which the terrain information is reflected. Then, this attitude control signal is output to the attitude control unit 624, whereby the attitude control is performed.

【0158】以上の構成の本実施例により、プレーヤ6
50は、極めて本物に近い未来戦車630の左側駆動部
632、右側駆動部634等の動きを、映像カメラ61
0を通じて実際に自分の目で確認しながら、仮想3次元
空間内で未来戦車630を自由自在に操縦することがで
きる。これにより操作性も大幅に向上し、また、より現
実に近い仮想現実世界を表現できることとなる。
According to this embodiment having the above configuration, the player 6
Reference numeral 50 indicates the movement of the left-side drive unit 632, the right-side drive unit 634, and the like of the future tank 630 that is extremely close to the real thing, and the video camera 61
It is possible to freely maneuver the future tank 630 in the virtual three-dimensional space while actually checking through 0 through the eyes. As a result, operability is significantly improved, and a virtual reality world closer to reality can be expressed.

【0159】なお、表示画像合成装置680における画
像合成の手法としては、上記したものに限らず、例えば
ブルーではなくレッドを用いて画像合成したり、複数の
色を用いて画像合成したり、種々の手法を用いることが
できる。
The image synthesizing method in the display image synthesizing device 680 is not limited to the one described above. For example, the image synthesizing may be performed using red instead of blue, or image synthesizing using a plurality of colors. Can be used.

【0160】また、本実施例は、図26に示すような一
人乗りの3次元ゲーム装置のみならず、図28(a)〜
(c)に示すような複数のプレーヤが搭乗できるアトラ
クションタイプの3次元ゲーム装置にも適用できる。
Further, this embodiment is not limited to the one-seater three-dimensional game device as shown in FIG.
The present invention can also be applied to an attraction type three-dimensional game device in which a plurality of players can board as shown in (c).

【0161】このアトラクションでは、図28(a)に
示すように、複数のプレーヤが、巨大未来戦車734の
キャビン720内に乗り込む。キャビン720内は、本
物に極めて似せて作られており、例えば操縦席、戦闘席
等が設けられている。この場合、特にプレーヤが直接に
触る操縦桿732、操作盤730は、戦闘砲744は、
極めて本物に似せて精巧に作られている。
In this attraction, as shown in FIG. 28A, a plurality of players board the cabin 720 of the giant future tank 734. The interior of the cabin 720 is made to look very similar to the real thing, and is provided with, for example, a cockpit and a battle seat. In this case, in particular, the control stick 732, the operation panel 730, and the combat gun 744 that the player directly touches,
Exquisitely made to look like the real thing.

【0162】キャビン720内に乗り込んだプレーヤ
は、それぞれの役割に従って、操縦士、副操縦士、射撃
手として操縦席、戦闘席等に配置される。そして、操縦
席に配置された操縦士746、副操縦士747は、操縦
席用窓722に前述したブルーマット方式により映し出
された疑似3次元画像を見ながら操縦桿732、操作盤
730等により巨大未来戦車734の操縦を行う。この
場合、本実施例では、前述したように各プレーヤに空間
センサ12を取り付け、各プレーヤ毎に視界方向を演算
し、この演算により得られた視界画像を画像表示装置6
20に表示している。この結果、巨大未来戦車734に
近づいてくる障害物740の見え方が、操縦士746、
副操縦士747、射撃手748とで異なって見えるよう
に設定できるため、より臨場感、現実感溢れるアトラク
ションを提供できることとなる。更に、操縦士746、
副操縦士747は、本物に極めて似せて作られた操縦桿
732、操作盤730を操作しながら巨大未来戦車を操
縦できるため、本物の巨大未来戦車を操縦しているかの
ような感覚でプレイできることとなる。
The player who gets into the cabin 720 is arranged in the pilot seat, the battle seat, etc. as a pilot, a co-pilot, and a shooter according to their roles. Then, the pilot 746 and the co-pilot 747 placed in the cockpit use the control stick 732, the operation panel 730, etc. while looking at the pseudo three-dimensional image projected on the cockpit window 722 by the blue mat method described above. Control the future tank 734. In this case, in this embodiment, as described above, the space sensor 12 is attached to each player, the view direction is calculated for each player, and the view image obtained by this calculation is used as the image display device 6.
It is displayed on 20. As a result, the appearance of the obstacle 740 approaching the giant future tank 734 is
Since the co-pilot 747 and the shooter 748 can be set to look different, it is possible to provide a more realistic and realistic attraction. In addition, the pilot 746,
The co-pilot 747 can operate the giant future tank while operating the control rod 732 and the control panel 730 that are made to look very similar to the real thing, so that he can play as if he were driving a real giant future tank. Becomes

【0163】戦闘席に配置された射撃手748、749
は、戦闘砲744により、左側窓724、右側窓725
にブルーマット方式により映し出される敵742を攻撃
する。この場合のゲーム成績は、ゲーム空間演算部10
0により演算されて、ゲーム中にリアルタイムに、もし
くはゲーム終了後に全員の乗組員のゲーム結果として表
示されることになる。
Shooters 748, 749 placed in the combat seats
The left side window 724 and the right side window 725 by the combat gun 744.
Attacks the enemy 742 displayed by the blue mat method. The game result in this case is calculated by the game space calculation unit 10
It is calculated by 0 and displayed in real time during the game or as the game results of all crew members after the game ends.

【0164】なお、図28(b)に示すように、プレー
ヤが乗り込む巨大未来戦車734は、油圧等を用いた姿
勢制御部624により、地形情報及びプレーヤの操作信
号に応じて姿勢、加速Gが制御され、より現実感が増す
ような構成となっている。
As shown in FIG. 28 (b), the giant future tank 734 in which the player is riding is controlled by the posture control unit 624 using hydraulic pressure or the like to control the posture and acceleration G according to the terrain information and the player's operation signal. It is controlled so that it is more realistic.

【0165】なお、本発明は上記実施例に限定されるも
のではなく、本発明の要旨の範囲内で種々の変形実施が
可能である。
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the gist of the present invention.

【0166】例えば、本発明に係る3次元ゲーム装置
は、種々のハード構成の装置に適用できる。即ち、例え
ば業務用のビデオゲーム装置、あるいは、前記したよう
なアトラクション用のゲーム装置、また、教習所用のド
ライビングシュミレーション等にも適用できる。また、
例えば図29に示すような構成の家庭用ビデオゲーム装
置にも適用できる。
For example, the three-dimensional game device according to the present invention can be applied to devices having various hardware configurations. That is, the invention can be applied to, for example, a video game device for business use, a game device for attraction as described above, or a driving simulation for a driving school. Also,
For example, it can be applied to a home video game device having a configuration as shown in FIG.

【0167】この家庭用ビデオゲーム装置は、ゲーム用
カートリッジ401及びゲーム機本体400からなり、
コネクタ498により接続される。ゲーム用カートリッ
ジ401は、補助演算処理部410、第1の記憶部48
0、第2の記憶部490を含んで構成される。第1の記
憶部480は、例えば不揮発性メモリで形成され、地形
情報記憶部106、オブジェクト情報記憶部104、3
次元画像情報記憶部204を含んで構成される。また、
補助処理演算部410は、画像供給部212、画像形成
部240、オブジェクト情報変更部108、制御部21
4を含んで構成される。更に、第2の記憶部490は書
換え可能なメモリで構成されている。
This household video game device comprises a game cartridge 401 and a game machine main body 400.
Connected by a connector 498. The game cartridge 401 includes an auxiliary calculation processing unit 410 and a first storage unit 48.
0, a second storage unit 490 is included. The first storage unit 480 is formed of, for example, a non-volatile memory, and includes the terrain information storage unit 106, the object information storage units 104, and 3.
The three-dimensional image information storage unit 204 is included. Also,
The auxiliary processing calculation unit 410 includes an image supply unit 212, an image forming unit 240, an object information changing unit 108, and a control unit 21.
4 is included. Further, the second storage unit 490 is composed of a rewritable memory.

【0168】この家庭用ビデオゲーム装置は、図1に示
した実施例とほぼ同様の動作をする。即ち、第1の記憶
部480に記憶されたオブジェクト情報、地形情報と、
操作部408からの操作信号を利用して、中央処理部1
02及び補助演算処理部410によりゲーム空間の設
定、即ちオブジェクト情報の設定が行われる。次に、こ
のオブジェクト情報と第1の記憶部480に記憶された
3次元画像情報とを利用して、補助処理演算部410、
中央処理部102により疑似3次元画像が演算され、そ
の結果は、第2の記憶部490に記憶される。その後、
この記憶された画像情報は、映像処理部404、必要に
応じてビデオRAM406を介して映像出力される。
This home video game device operates almost in the same manner as the embodiment shown in FIG. That is, the object information and the terrain information stored in the first storage unit 480,
Using the operation signal from the operation unit 408, the central processing unit 1
02 and the auxiliary calculation processing unit 410 set the game space, that is, set the object information. Next, using this object information and the three-dimensional image information stored in the first storage unit 480, the auxiliary processing calculation unit 410,
A pseudo three-dimensional image is calculated by the central processing unit 102, and the result is stored in the second storage unit 490. afterwards,
The stored image information is output as an image via the image processing unit 404 and, if necessary, the video RAM 406.

【0169】この構成の家庭用ビデオゲームによれば、
例えば画像合成の手法を変更する場合、高価なゲーム機
本体400をほとんど変更する必要がなく、ゲーム用カ
ートリッジ401の特に補助演算処理部410の演算処
理を変更するだけで対応できることとなる。
According to the home video game having this configuration,
For example, when changing the image synthesizing method, there is almost no need to change the expensive game machine main body 400, and it suffices to simply change the arithmetic processing of the auxiliary arithmetic processing unit 410 of the game cartridge 401.

【0170】[0170]

【発明の効果】本発明に係る3次元ゲーム装置によれ
ば、地形情報が反映された疑似3次元画像を形成でき、
これによりゲームの面白味を格段に高めることができ
る。この場合、少なくとも2以上の地形情報検出センサ
を移動体に設けることにより、更にゲームの面白味を高
めることができる。
According to the three-dimensional game device of the present invention, it is possible to form a pseudo three-dimensional image in which topographical information is reflected,
As a result, the fun of the game can be significantly enhanced. In this case, by providing at least two or more topographical information detection sensors on the moving body, the fun of the game can be further enhanced.

【0171】また、本発明に係る3次元ゲーム装置によ
れば、地形情報が反映された弾移動位置の演算、当り判
定が可能となり、より変化に富んだ3次元ゲーム空間を
形成できる。
Further, according to the three-dimensional game device of the present invention, it is possible to calculate the bullet movement position reflecting the terrain information and to judge the hit, thereby forming a more varied three-dimensional game space.

【0172】また、本発明に係る3次元ゲーム装置によ
れば、弾に追尾機能をもたせることで、このように変化
に富んだ3次元ゲーム空間において、ゲームの難易度を
簡易に調整できることになる。
Further, according to the three-dimensional game device of the present invention, by providing the bullet with a tracking function, the difficulty level of the game can be easily adjusted in such a variety of three-dimensional game spaces. .

【0173】また、本発明に係る3次元ゲーム装置によ
れば、プレーヤの位置及び方向情報を検出することによ
り、簡易に仮想現実を実現でき、また、実空間映像と仮
想空間画像を合成することにより、より現実に近づいた
仮想現実を表現できる。これにより3次元ゲームの面白
味を更に高めることができる。
Further, according to the three-dimensional game device of the present invention, the virtual reality can be easily realized by detecting the position and direction information of the player, and the real space video and the virtual space image can be combined. This makes it possible to represent a virtual reality that is closer to reality. This can further enhance the fun of the three-dimensional game.

【0174】また、本発明に係る3次元ゲーム装置によ
れば、地形情報が反映され搭乗体の姿勢制御を行うこと
ができ、これにより、より現実に近づいた搭乗感覚を表
現できることになる。
Further, according to the three-dimensional game device of the present invention, the terrain information can be reflected and the posture control of the boarding body can be performed, whereby the boarding sensation closer to reality can be expressed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る実施例の一例を示すブロック図で
ある。
FIG. 1 is a block diagram showing an example of an embodiment according to the present invention.

【図2】本3次元ゲーム装置の外観を示す概略図であ
る。
FIG. 2 is a schematic diagram showing an appearance of the present three-dimensional game device.

【図3】本3次元ゲーム装置のゲームフィールドを示す
概略図である。
FIG. 3 is a schematic diagram showing a game field of the present three-dimensional game device.

【図4】本3次元ゲーム装置により画像合成された疑似
3次元画像の一例を示す概略図である。
FIG. 4 is a schematic diagram showing an example of a pseudo three-dimensional image that is image-synthesized by the present three-dimensional game device.

【図5】本3次元ゲーム装置を二人プレーで行う場合の
外観を示す概略図である。
FIG. 5 is a schematic view showing an appearance when the present three-dimensional game device is played by two players.

【図6】オブジェクト情報記憶部に記憶されるオブジェ
クト情報を説明するための概略説明図である。
FIG. 6 is a schematic explanatory diagram for explaining object information stored in an object information storage unit.

【図7】本3次元ゲーム装置により取り扱われるデータ
フォーマットの一例を示す図である。
FIG. 7 is a diagram showing an example of a data format handled by the three-dimensional game device.

【図8】ポリゴン内部の画像情報を演算する手法につい
て説明するための概略説明図である。
FIG. 8 is a schematic explanatory diagram for explaining a method of calculating image information inside a polygon.

【図9】地形情報記憶部の階層構造について説明するた
めの概略説明図である。
FIG. 9 is a schematic explanatory diagram for explaining a hierarchical structure of a terrain information storage unit.

【図10】地形情報記憶部の階層構造について説明する
ための概略説明図である。
FIG. 10 is a schematic explanatory diagram for explaining a hierarchical structure of a terrain information storage unit.

【図11】ゲームフィールドにおける地形ブロックの配
列について説明するための概略説明図である。
FIG. 11 is a schematic explanatory diagram for explaining an arrangement of terrain blocks in the game field.

【図12】地形情報記憶部の階層構造について説明する
ための概略説明図である。
FIG. 12 is a schematic explanatory diagram for explaining a hierarchical structure of a terrain information storage unit.

【図13】移動体に設けられる地形情報検出センサにつ
いて説明するための概略説明図である。
FIG. 13 is a schematic explanatory diagram for explaining a terrain information detection sensor provided in a moving body.

【図14】地形情報が反映された疑似3次元画像を示す
概略図である。
FIG. 14 is a schematic diagram showing a pseudo three-dimensional image in which topographical information is reflected.

【図15】本発明に係る実施例の一例を示すブロック図
である
FIG. 15 is a block diagram showing an example of an embodiment according to the present invention.

【図16】弾移動位置への地形情報の反映について説明
するための概略説明図である。
FIG. 16 is a schematic explanatory diagram for explaining reflection of topographical information on a bullet movement position.

【図17】地形情報が反映された弾移動位置が表された
疑似3次元画像を示す概略図である。
FIG. 17 is a schematic diagram showing a pseudo three-dimensional image showing a bullet movement position on which topographical information is reflected.

【図18】本発明に係る実施例の一例を示すブロック図
である。
FIG. 18 is a block diagram showing an example of an example according to the present invention.

【図19】弾の追尾システムについて説明するための概
略説明図である。
FIG. 19 is a schematic explanatory diagram for explaining a bullet tracking system.

【図20】弾の追尾システムについて説明するための概
略説明図である。
FIG. 20 is a schematic explanatory diagram for explaining a bullet tracking system.

【図21】弾が追尾して命中するまでの疑似3次元画像
を示す概略図である。
FIG. 21 is a schematic view showing a pseudo three-dimensional image until a bullet tracks and hits.

【図22】マルチプレーヤ型のゲーム構成にする場合の
構成を示すブロック図である。
FIG. 22 is a block diagram showing a structure in the case of a multi-player type game structure.

【図23】頭部装着体の形状を示す概略図である。FIG. 23 is a schematic view showing the shape of a head mounted body.

【図24】本発明に係る実施例の一例を示すブロック図
である。
FIG. 24 is a block diagram showing an example of an example according to the present invention.

【図25】本発明に係る実施例の一例を示すブロック図
である。
FIG. 25 is a block diagram showing an example of an example according to the present invention.

【図26】実空間映像と仮想視界画像を合成できる3次
元ゲーム装置を説明するための概略説明図である。
FIG. 26 is a schematic explanatory diagram illustrating a three-dimensional game device capable of synthesizing a real space video and a virtual view image.

【図27】表示画像合成装置の構成を示すブロック図で
ある。
FIG. 27 is a block diagram showing a configuration of a display image combining device.

【図28】本3次元ゲーム装置をアトラクション型のゲ
ームに適用した場合について説明するための概略説明図
である。
FIG. 28 is a schematic explanatory diagram for explaining a case where the present three-dimensional game device is applied to an attraction type game.

【図29】家庭用ビデオゲーム装置に本発明を適用した
場合について示すブロック図である。
FIG. 29 is a block diagram showing a case where the present invention is applied to a home video game device.

【図30】従来のゲーム装置により表現されるゲーム画
面を示す概略図である。
FIG. 30 is a schematic diagram showing a game screen represented by a conventional game device.

【符号の説明】[Explanation of symbols]

10 CRT 20 未来戦車 22 敵未来戦車 60 ゲームフィールド 100 ゲーム空間演算部 102 中央処理部 104 オブジェクト情報記憶部 106 地形情報記憶部 108 オブジェクト情報変更部 120 弾処理部 122 弾移動演算部 124 追尾移動演算部 126 当り判定部 140 操作部 200 画像合成部 202 画像演算部 204 3次元画像情報記憶部 212 画像供給部 214 処理部 216 座標変換部 218 クリッピング処理部 220 透視変換部 222 ソーティング処理部 240 画像形成部 608、609 頭部装着体 612 空間センサ 610 映像カメラ 620 画像表示装置 624 姿勢制御部 680 表示画像合成装置 10 CRT 20 Future Tank 22 Enemy Future Tank 60 Game Field 100 Game Space Computation Unit 102 Central Processing Unit 104 Object Information Storage Unit 106 Topographic Information Storage Unit 108 Object Information Change Unit 120 Bullet Processing Unit 122 Bullet Movement Calculation Unit 124 Tracking Movement Calculation Unit 126 hit determination unit 140 operation unit 200 image combination unit 202 image calculation unit 204 three-dimensional image information storage unit 212 image supply unit 214 processing unit 216 coordinate conversion unit 218 clipping processing unit 220 perspective conversion unit 222 sorting processing unit 240 image forming unit 608 609 Head mounted body 612 Spatial sensor 610 Video camera 620 Image display device 624 Posture control unit 680 Display image synthesis device

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 ゲーム空間演算手段によりゲーム空間を
設定し、画像合成手段により疑似3次元画像を合成し、
これによりプレーヤが前記疑似3次元画像を見ながら操
作部を操作して所定の移動体にて仮想3次元空間内を移
動できるゲーム空間を形成する3次元ゲーム装置であっ
て、 前記ゲーム空間演算手段は、 少なくとも前記移動体の3次元オブジェクトの位置及び
方向情報がオブジェクト情報として記憶されるオブジェ
クト情報記憶部と、 前記仮想3次元空間内において前記移動体が移動する地
形の地形情報が記憶される地形情報記憶部と、 前記オブジェクト情報記憶部から前記移動体のオブジェ
クト情報を読み出し、この移動体のオブジェクト情報を
前記地形情報記憶部から読み出された地形情報を用いて
変更するオブジェクト情報変更部とを含み、 前記画像合成手段は、 ゲーム空間を構成する及びゲーム空間に登場する3次元
オブジェクトの3次元画像情報が記憶される3次元画像
情報記憶部と、 前記オブジェクト情報記憶部からのオブジェクト情報と
前記3次元画像情報記憶部からの3次元画像情報より、
前記仮想3次元空間に配置された前記移動体の方向から
見えるゲーム空間の視界画像を演算し疑似3次元画像を
合成出力する画像演算部とを含み、 これにより地形情報が反映された疑似3次元画像を画像
合成できるよう形成されたことを特徴とする3次元ゲー
ム装置。
1. A game space is set by a game space calculating means, and a pseudo three-dimensional image is synthesized by an image synthesizing means,
This is a three-dimensional game device for forming a game space in which the player operates the operation unit while viewing the pseudo three-dimensional image to move in the virtual three-dimensional space with a predetermined moving body. The object information storage unit stores at least the position and direction information of the three-dimensional object of the moving body as object information, and the terrain that stores the terrain information of the terrain in which the moving body moves in the virtual three-dimensional space. An information storage unit and an object information changing unit that reads out object information of the moving body from the object information storage unit and changes the object information of the moving body using the terrain information read from the terrain information storage unit. And the image synthesizing means constitutes a game space and is a three-dimensional object appearing in the game space. And the three-dimensional image information storing section for three-dimensional image information is stored, from the three-dimensional image information from the object information and the three-dimensional image information storing unit from the object information storage unit,
And an image calculation unit for calculating a visual field image of the game space viewed from the direction of the moving object arranged in the virtual three-dimensional space and synthesizing and outputting a pseudo three-dimensional image, whereby a pseudo three-dimensional image in which topographic information is reflected A three-dimensional game device characterized by being formed so that images can be image-synthesized.
【請求項2】 請求項1において、 前記オブジェクト情報変更部は、 前記移動体に設けられた少なくとも2以上の地形情報検
出センサにより、移動体の位置及び方向情報を演算し、
これにより前記オブジェクト情報の変更を行うことを特
徴とするゲーム装置。
2. The object information changing unit according to claim 1, wherein the position and direction information of the moving body is calculated by at least two or more topographic information detection sensors provided in the moving body,
A game device characterized in that the object information is changed by this.
【請求項3】 請求項1又は2のいずれかにおいて、 前記移動体は、前記操作部へプレーヤが入力した発射信
号により弾を発生するよう形成され、 前記ゲーム空間演算手段は、前記移動体から発射される
弾の演算処理を行う弾処理部を更に含み、 前記弾処理部は、 前記オブジェクト情報変更部により変更された移動体の
オブジェクト情報と、前記操作部から入力された発射信
号とにより弾の移動位置を演算する弾移動演算部を含
み、 これにより地形情報が反映された弾の移動位置を演算で
きるよう形成されたことを特徴とする3次元ゲーム装
置。
3. The moving body according to claim 1, wherein the moving body is formed so as to generate a bullet in response to a firing signal input by the player to the operation unit, and the game space computing means is arranged to move the moving body from the moving body. The bullet processing unit further includes a bullet processing unit that performs a calculation process of a shot to be shot, and the shot processing unit is configured to shot the shot based on the object information of the moving body changed by the object information changing unit and the shot signal input from the operation unit. A three-dimensional game device including a bullet movement calculation unit that calculates the movement position of the bullet, and by which the movement position of the bullet reflecting the topographical information can be calculated.
【請求項4】 請求項3において、 前記弾処理部は、 前記弾移動演算部により演算された弾の移動位置と前記
オブジェクト情報記憶部に記憶された標的のオブジェク
ト情報より、弾の当り判定を行う当り判定部を更に含
み、 これにより地形情報が反映された弾の当り判定ができる
よう形成されたことを特徴とする3次元ゲーム装置。
4. The bullet processing unit according to claim 3, wherein the bullet processing unit determines whether or not the bullet has hit, based on the movement position of the bullet calculated by the bullet movement calculation unit and the target object information stored in the object information storage unit. A three-dimensional game device characterized by further comprising a hit judging section for making a hit judgment of a bullet reflecting terrain information.
【請求項5】 請求項4において、 前記弾処理部は、 前記弾移動演算部により演算された弾の移動位置を、前
記標的のオブジェクト情報に応じて標的を追尾するよう
リアルタイムに変更する演算を行う追尾移動演算部を更
に含み、 地形の影響により照準範囲内から外れた標的にも弾を命
中できるよう形成されたことを特徴とする3次元ゲーム
装置。
5. The bullet processing unit according to claim 4, wherein the bullet processing unit calculates in real time the movement position of the bullet calculated by the bullet movement calculation unit so as to track the target according to the object information of the target. A three-dimensional game device characterized in that it further includes a tracking movement calculation unit, and is formed so as to hit a target outside the aiming range due to the influence of the terrain.
【請求項6】 請求項1乃至5のいずれかにおいて、 プレーヤの視野を覆うように装着される画像表示手段
と、プレーヤの実3次元空間における3次元情報を検出
するプレーヤ用空間センサとを更に含み、 前記画像合成手段は、 前記プレーヤ用空間センサからの検出信号に基づいて、
仮想3次元空間におけるプレーヤの位置及び方向情報を
抽出する座標抽出部を更に含み、 これにより仮想3次元空間におけるプレーヤの視界画像
を演算し前記画像表示手段に疑似3次元画像を画像出力
するよう形成されたことを特徴とする3次元ゲーム装
置。
6. The image display means according to any one of claims 1 to 5, further comprising: an image display unit mounted so as to cover the player's visual field; and a player space sensor for detecting three-dimensional information in the player's actual three-dimensional space. Including, the image synthesizing unit, based on a detection signal from the space sensor for the player,
A coordinate extraction unit for extracting position and direction information of the player in the virtual three-dimensional space is further included, whereby a visual field image of the player in the virtual three-dimensional space is calculated and a pseudo three-dimensional image is output to the image display means. A three-dimensional game device characterized by being played.
【請求項7】 請求項6において、 プレーヤに装着され、プレーヤから見える実空間映像を
撮像する撮像手段を更に含み、 前記画像合成手段は、 前記仮想3次元空間におけるプレーヤの視界画像と前記
撮像手段で撮像される実空間映像とを合成する表示画像
合成部を更に含み、 これにより、前記画像表示手段に仮想3次元空間におけ
る視界画像と実空間映像とが合成された疑似3次元画像
を画像出力するよう形成されたことを特徴とする3次元
ゲーム装置。
7. The image pickup device according to claim 6, further comprising an image pickup unit which is mounted on the player and which picks up a real space image viewed from the player, wherein the image combining unit and the image field of view of the player in the virtual three-dimensional space and the image pickup unit. A display image synthesizing unit for synthesizing the real space video imaged in (3) is further included, whereby a pseudo three-dimensional image in which the view image in the virtual three-dimensional space and the real space video are synthesized is output to the image display means. A three-dimensional game device characterized by being formed as follows.
【請求項8】 請求項1乃至7のいずれかにおいて、 プレーヤが実際に搭乗する実空間上に設置された搭乗体
を更に含み、 前記搭乗体は、 前記地形情報に対応してプレーヤの姿勢制御を行う姿勢
制御部を含み、 これにより地形情報が反映された搭乗体の搭乗感覚を仮
想的に体験できるよう形成されたことを特徴とする3次
元ゲーム装置。
8. The vehicle according to claim 1, further comprising a boarding body installed in a real space where the player actually boards, wherein the boarding body controls the attitude of the player in correspondence with the topographical information. A three-dimensional game device characterized by including a posture control unit for performing a virtual rider's feeling of boarding reflecting the topographical information.
JP5092144A 1993-03-26 1993-03-26 Three-dimensional game device and image composition method Expired - Lifetime JP2888723B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5092144A JP2888723B2 (en) 1993-03-26 1993-03-26 Three-dimensional game device and image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5092144A JP2888723B2 (en) 1993-03-26 1993-03-26 Three-dimensional game device and image composition method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP10186943A Division JP2888830B2 (en) 1998-06-17 1998-06-17 Three-dimensional game device and image composition method

Publications (2)

Publication Number Publication Date
JPH06277362A true JPH06277362A (en) 1994-10-04
JP2888723B2 JP2888723B2 (en) 1999-05-10

Family

ID=14046247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5092144A Expired - Lifetime JP2888723B2 (en) 1993-03-26 1993-03-26 Three-dimensional game device and image composition method

Country Status (1)

Country Link
JP (1) JP2888723B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995035140A1 (en) * 1994-06-20 1995-12-28 Sega Enterprises Ltd. Method of and apparatus for controlling direction of object
WO1997046295A1 (en) * 1996-06-05 1997-12-11 Sega Enterprises, Ltd. Image processor for games
WO1998035734A1 (en) * 1997-02-18 1998-08-20 Sega Enterprises, Ltd. Device and method for image processing
US6582230B1 (en) 1994-12-02 2003-06-24 Namco, Ltd. Video game apparatus and image synthesizing method thereof
KR100406325B1 (en) * 2001-10-29 2003-11-19 (주)웹 젠 Method for transmitting data using viewport list in online game and computer readable recording medium materializing the method
KR100637084B1 (en) * 1999-02-15 2006-10-23 가부시키가이샤 세가 Game device
US8633925B2 (en) 2010-06-11 2014-01-21 Sony Corporation Image processor, image processing method, computer program, recording medium, and semiconductor device
JP2015072703A (en) * 2014-11-20 2015-04-16 グリー株式会社 Program and server device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5971853A (en) * 1994-06-20 1999-10-26 Kabushiki Kaisha Sega Enterprises Object direction control method and apparatus
WO1995035140A1 (en) * 1994-06-20 1995-12-28 Sega Enterprises Ltd. Method of and apparatus for controlling direction of object
US5766079A (en) * 1994-06-20 1998-06-16 Sega Enterprises Ltd. Object direction control method and apparatus
US6582230B1 (en) 1994-12-02 2003-06-24 Namco, Ltd. Video game apparatus and image synthesizing method thereof
US6949024B2 (en) 1996-06-05 2005-09-27 Kabushiki Kaisha Sega Enterprises Image processing apparatus for a game, method and program for image processing for a game, and computer-readable medium
US6322448B1 (en) 1996-06-05 2001-11-27 Kabushiki Kaisha Sega Enterprises Fictitious virtual centripetal calculation and simulation system
WO1997046295A1 (en) * 1996-06-05 1997-12-11 Sega Enterprises, Ltd. Image processor for games
CN100349187C (en) * 1996-06-05 2007-11-14 世嘉股份有限公司 Image processor for games
US8172678B2 (en) 1996-06-05 2012-05-08 Kabushiki Kaisha Sega Image processing for a game
WO1998035734A1 (en) * 1997-02-18 1998-08-20 Sega Enterprises, Ltd. Device and method for image processing
US6989829B2 (en) 1997-02-18 2006-01-24 Kabushiki Kaisha Sega Enterprises Image processing device and image processing method
US7532211B2 (en) 1997-02-18 2009-05-12 Kabushiki Kaisha Sega Enterprises Image processing device and image processing method
KR100637084B1 (en) * 1999-02-15 2006-10-23 가부시키가이샤 세가 Game device
KR100406325B1 (en) * 2001-10-29 2003-11-19 (주)웹 젠 Method for transmitting data using viewport list in online game and computer readable recording medium materializing the method
US8633925B2 (en) 2010-06-11 2014-01-21 Sony Corporation Image processor, image processing method, computer program, recording medium, and semiconductor device
JP2015072703A (en) * 2014-11-20 2015-04-16 グリー株式会社 Program and server device

Also Published As

Publication number Publication date
JP2888723B2 (en) 1999-05-10

Similar Documents

Publication Publication Date Title
US5704837A (en) Video game steering system causing translation, rotation and curvilinear motion on the object
CN109478340B (en) Simulation system, processing method, and information storage medium
CN109478345B (en) Simulation system, processing method, and information storage medium
JP6754678B2 (en) Simulation system and program
US8142277B2 (en) Program, game system, and movement control method for assisting a user to position a game object
JP2888724B2 (en) Three-dimensional game device and image composition method
JP5614956B2 (en) Program, image generation system
JP3227158B2 (en) 3D game device
EP1431923B1 (en) Image processing device for determining the flight path of an object
JPH06176131A (en) Picture synthesis device and virtual reality device using the same
US20190105572A1 (en) Drivable vehicle augmented reality game
US20110304617A1 (en) Information storage medium, image generation system, and image generation method
JP3273038B2 (en) Virtual experience type game device
KR100415046B1 (en) Shooting video game system and image displaying method in shooting video game
JP2888723B2 (en) Three-dimensional game device and image composition method
JP3325075B2 (en) Multiplayer game device
JPH0724141A (en) Game device using head-mounted body
JP2888830B2 (en) Three-dimensional game device and image composition method
JP2888831B2 (en) Three-dimensional game device and image composition method
JPH11467A (en) Game machine
JP3273017B2 (en) Image synthesis device and virtual experience device using the same
JP2002224434A (en) Image composing device, virtual experience device, and image composing method
JP6918189B2 (en) Simulation system and program
JP3219735B2 (en) Three-dimensional game device and image composition method
JPH06277360A (en) Video game device for multiplayer

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990202

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080219

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080219

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090219

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090219

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100219

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100219

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100219

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110219

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110219

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120219

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120219

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120219

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140219

Year of fee payment: 15

EXPY Cancellation because of completion of term