JPH08117440A - Three-dimensional simulator device and image synthesis method - Google Patents

Three-dimensional simulator device and image synthesis method

Info

Publication number
JPH08117440A
JPH08117440A JP6284160A JP28416094A JPH08117440A JP H08117440 A JPH08117440 A JP H08117440A JP 6284160 A JP6284160 A JP 6284160A JP 28416094 A JP28416094 A JP 28416094A JP H08117440 A JPH08117440 A JP H08117440A
Authority
JP
Japan
Prior art keywords
information
input
viewpoint
virtual
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6284160A
Other languages
Japanese (ja)
Other versions
JP3447397B2 (en
Inventor
Masaki Takeda
政樹 武田
Kazufumi Koike
一史 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP28416094A priority Critical patent/JP3447397B2/en
Publication of JPH08117440A publication Critical patent/JPH08117440A/en
Application granted granted Critical
Publication of JP3447397B2 publication Critical patent/JP3447397B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6684Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dynamically adapting its position to keep a game object in its viewing frustrum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying

Abstract

PURPOSE: To provide a three-dimensional simulator device and image synthesis method capable of continuously changing the visual point information at the time of forming a visual field image in a virtual three-dimensional space. CONSTITUTION: An input section 2 for inputting operation information for the purpose of continuously changing visual point information is included in an operation section 12. The calculation to continuously change the visual point information on previously determined loci is executed in accordance with the operation information in the visual point information changing section 107 of a virtual three-dimensional space calculating section 100. The visual field image based on the visual point information is synthesized in an image synthesis section 200 and is outputted from a display. The simulator device is provided with the first input section for operating a player and moving bodies and the second input section for operating the visual point positions and visual line direction and is provided with the visual point changing section and the visual line changing section. The independent operation of the progressing directions of the player, etc., and the visual point positions and visual line directions by the first and second input sections is thereby made possible.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、仮想3次元空間をシミ
ュレートできる3次元シミュレータ装置及び画像合成方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional simulator device and an image synthesizing method capable of simulating a virtual three-dimensional space.

【0002】[0002]

【従来の技術】従来より、例えば3次元ゲームあるいは
飛行機及び各種乗物の操縦シュミレ―タ等に使用される
3次元シミュレータ装置として種々のものが知られてい
る。このような3次元シミュレータ装置では、図18
(A)に示す3次元物体300に関する画像情報が、あ
らかじめ装置に記憶されている。この3次元物体300
は、プレーヤ(観者)302がスクリーン306を介し
て見ることができる風景等の表示物を表すものである。
そして、この表示物である3次元物体300の画像情報
をスクリーン306上に透視投影変換することにより疑
似3次元画像(投影画像)308をスクリーン306上
に画像表示している。この装置では、プレーヤ302
が、操作パネル304により回転、並進等の操作を行う
と、プレーヤ302又はプレーヤ302の搭乗する移動
体の位置、方向が変化し、この変化に伴い3次元物体3
00の画像がスクリーン306上でどのように見えるか
を求める演算処理が行われる。この演算処理はプレーヤ
302の操作に追従してリアルタイムで行われる。これ
によりプレーヤ302は、プレーヤ自身又はプレーヤ自
身の搭乗する移動体の位置、方向の変化に伴う風景等の
変化を疑似3次元画像としてリアルタイムに見ることが
可能となり、仮想的な3次元空間を疑似体験できること
となる。
2. Description of the Related Art Conventionally, various types of three-dimensional simulators have been known for use in, for example, three-dimensional games or flight simulators for airplanes and various vehicles. In such a three-dimensional simulator device, as shown in FIG.
The image information regarding the three-dimensional object 300 shown in FIG. This three-dimensional object 300
Represents a display object such as a landscape that the player (viewer) 302 can see through the screen 306.
Then, the pseudo-three-dimensional image (projection image) 308 is image-displayed on the screen 306 by performing perspective projection conversion on the image information of the three-dimensional object 300 that is the display object on the screen 306. In this device, the player 302
However, when an operation such as rotation or translation is performed by the operation panel 304, the position and direction of the player 302 or a moving body on which the player 302 is mounted change, and the three-dimensional object 3 changes with this change.
An arithmetic process is performed to determine how the 00 image looks on the screen 306. This arithmetic processing is performed in real time following the operation of the player 302. As a result, the player 302 can see in real time a change in the scenery or the like due to a change in the position or direction of the player or the moving body on which the player is riding as a pseudo three-dimensional image, and the virtual three-dimensional space is simulated. You will be able to experience it.

【0003】図18(B)には、以上のような3次元シ
ミュレータ装置により形成される表示画像(ゲーム画
面)の一例が示される。
FIG. 18B shows an example of a display image (game screen) formed by the above three-dimensional simulator device.

【0004】[0004]

【発明が解決しようとする課題】さて、この種の3次元
シミュレータ装置では、レーシングカーゲームを例にと
れば、プレーヤの視点位置はプレーヤカーの後方位置、
運転席位置等に固定されていた(図18(B)では、プ
レーヤカー900の後方位置に固定されている)。ま
た、視線方向もプレーヤカーの進行方向に固定されてい
た。しかし、この種のゲームではプレーヤの好みも多種
多様であり、プレーヤカーの後方位置よりも運転席位置
に視点が固定されている事を好むプレーヤも多く存在す
る一方で、その逆を好むプレーヤも多く存在する。更
に、視線方向についてもプレーヤカーの進行方向に常に
固定されていると、ゲームのバラエティを今一つ増すこ
とができない。従って、視点位置、視線方向等の視点情
報をプレーヤカーの位置、方向とは独立に変更できる3
次元シミュレータ装置が望まれる。
In a three-dimensional simulator device of this type, in the case of a racing car game, the viewpoint position of the player is the rear position of the player car.
It was fixed at the driver's seat position or the like (in FIG. 18B, it is fixed at the rear position of the player car 900). Moreover, the line-of-sight direction is also fixed to the traveling direction of the player car. However, in this type of game, players have a wide variety of tastes, and there are many players who prefer that the viewpoint be fixed to the driver's seat position rather than the rear position of the player car, while some players prefer the opposite. There are many. Further, if the line-of-sight direction is always fixed to the traveling direction of the player car, the variety of the game cannot be increased. Therefore, the viewpoint information such as the viewpoint position and the line-of-sight direction can be changed independently of the position and direction of the player car.
A dimensional simulator device is desired.

【0005】プレーヤの視点情報を変更する手法とし
て、例えば装置の操作部(操作パネル)に、視点切替の
ための複数の選択ボタンを配置し、これらの選択ボタン
のいずれかを押すことでプレーヤに所望の視点位置、視
線方向を選択させる手法も考えられる。しかし、この手
法によっても、視点情報の選択はこれらの選択ボタンの
個数分しかなく、配置できる選択ボタンの個数も限られ
るため、これだけの個数では全てのプレーヤの好みに対
応することはできない。また、この手法では、プレーヤ
は、ゲームに熱中した状態でゲーム画面を見ながら、手
探りで選択ボタンを押す必要がある。従って、プレーヤ
が所望する選択ボタンを押そうとしても、誤った選択ボ
タンを押す場合が多く、このためプレーヤのゲームプレ
イへの集中が欠け、結果としてゲームへの満足度が低下
するという問題が生じる。
As a method of changing the viewpoint information of the player, for example, a plurality of selection buttons for switching the viewpoint are arranged on the operation unit (operation panel) of the apparatus, and the player is pressed by pressing any of these selection buttons. A method of selecting a desired viewpoint position and line-of-sight direction is also conceivable. However, even with this method, the viewpoint information is selected only by the number of these selection buttons, and the number of select buttons that can be arranged is also limited. Therefore, such a number cannot meet the tastes of all players. Further, in this method, the player needs to feel the game screen while looking at the game screen and feel for the selection button. Therefore, even if the player tries to press the desired selection button, the wrong selection button is often pressed, which results in a lack of concentration of the player on the game play, resulting in a decrease in game satisfaction. .

【0006】また、例えば戦闘機と戦闘機、戦闘機と戦
車を対戦させる等の対戦型ゲームでは、標的に照準を合
わせ、この照準方向にミサイル等を発射することで標的
に対して攻撃を加える。しかし、従来の装置では、照準
の方向は戦闘機等の進行方向であるプレーヤの視線方向
に固定されており、従って、標的に攻撃を加えるために
は標的の方向に戦闘機の方向を向ける必要があった。こ
のため、プレーヤの所望する標的に攻撃を与えることが
難しく、この結果、ゲームの面白味を今一つ高めること
ができないという問題があった。
Further, in a battle-type game in which, for example, a fighter and a fighter, or a fighter and a tank are played, a target is aimed and a missile or the like is fired in this aiming direction to attack the target. . However, in the conventional device, the aiming direction is fixed to the player's line-of-sight direction which is the traveling direction of the fighter, etc. Therefore, in order to attack the target, it is necessary to direct the fighter to the target. was there. For this reason, it is difficult to give an attack to the target desired by the player, and as a result, there is a problem that the game cannot be made more interesting.

【0007】更に、例えば3−D(3次元)のダンジョ
ンを探検しながら敵を倒すようなロールプレイングゲー
ム等においては、3−Dダンジョン内を、プレーヤ(あ
るいはプレーヤキャラクタ)はジョイスティック等を操
作して移動する必要がある。この場合、従来の装置で
は、プレーヤの進行方向と視線方向が一致していたた
め、プレーヤが異なる方向を見たいと希望する場合は、
プレーヤの進行方向も変更する必要があった。このた
め、ゲームの操作性が悪化し、ゲームの面白味を低下さ
せていた。
Further, for example, in a role-playing game in which an enemy is defeated while exploring a 3-D (three-dimensional) dungeon, the player (or player character) operates a joystick or the like in the 3-D dungeon. Need to move. In this case, since the player's traveling direction and the line-of-sight direction match in the conventional device, if the player wants to see a different direction,
It was also necessary to change the player's direction of travel. For this reason, the operability of the game is deteriorated and the fun of the game is reduced.

【0008】本発明は以上のような技術的課題を達成す
るためになされたものであり、その目的とするところ
は、仮想3次元空間において視界画像を形成する際の視
点情報を連続的に変更できる3次元シミュレータ装置及
び画像合成方法を提供することにある。
The present invention has been made in order to achieve the above technical problems, and an object thereof is to continuously change viewpoint information when forming a visual field image in a virtual three-dimensional space. It is to provide a three-dimensional simulator device and an image synthesizing method that can be performed.

【0009】また、本発明の他の目的は、観者又は観者
の搭乗する移動体の位置、方向の操作と独立に、視点位
置、視線方向を操作できる3次元シミュレータ装置及び
画像合成方法を提供することにある。
Another object of the present invention is to provide a three-dimensional simulator device and an image synthesizing method capable of operating the viewpoint position and the line-of-sight direction independently of the operation of the position and direction of a viewer or a moving body on which the viewer rides. To provide.

【0010】[0010]

【課題を解決するための手段及び作用】上記課題を解決
するために、請求項1に係る発明は、操作手段と、該操
作手段から入力される操作情報に基づいて仮想3次元空
間を形成する演算を行う仮想3次元空間演算手段と、形
成された前記仮想3次元空間内において見える視界画像
の合成を行う画像合成手段とを含む3次元シミュレータ
装置であって、前記操作手段には視点情報を連続的に変
更するための操作情報を入力する手段が含まれ、前記仮
想3次元空間演算手段が、前記入力手段から入力される
前記操作情報に基づいて、あらかじめ定められた軌道上
で視点情報を連続的に変更する演算を行い、前記画像合
成手段が、変更演算が施された前記視点情報に基づいて
視界画像の合成を行うことを特徴とする。
In order to solve the above-mentioned problems, the invention according to claim 1 forms a virtual three-dimensional space on the basis of operation means and operation information inputted from the operation means. A three-dimensional simulator device including a virtual three-dimensional space computing means for performing computation and an image synthesizing means for synthesizing a visual field image visible in the formed virtual three-dimensional space, wherein viewpoint information is provided to the operating means. A means for inputting operation information for continuously changing is included, and the virtual three-dimensional space computing means provides viewpoint information on a predetermined trajectory based on the operation information input from the input means. It is characterized in that a calculation for continuously changing is performed, and the image synthesizing unit synthesizes a view image based on the viewpoint information subjected to the change computation.

【0011】また、請求項5の発明は、操作手段から入
力される操作情報に基づいて仮想3次元空間内において
見える視界画像の合成を行う画像合成方法であって、前
記操作手段に含まれる入力手段により視点情報を連続的
に変更するための操作情報を入力し、前記入力手段から
入力される前記操作情報に基づいて、あらかじめ定めら
れた軌道上で視点情報を連続的に変更する演算を行い、
変更演算が施された前記視点情報に基づいて視界画像の
合成を行うことを特徴とする。
According to a fifth aspect of the present invention, there is provided an image synthesizing method for synthesizing a field-of-view image visible in a virtual three-dimensional space based on operation information input from the operating means, and the input included in the operating means. Means for inputting operation information for continuously changing the viewpoint information, and based on the operation information input from the input means, a calculation for continuously changing the viewpoint information on a predetermined trajectory is performed. ,
The visual field image is synthesized based on the viewpoint information that has been subjected to the change calculation.

【0012】請求項1又は5の発明によれば、入力手段
により入力された操作情報に基づいて、所定の軌道上で
視点情報を連続的に変更する演算が行われる。即ち、入
力手段を操作するにしたがって、視点情報が連続的に変
更される。そして、この変更された視点情報に基づいて
視界画像の合成が行われ、観者(画像を見る者、例えば
プレーヤ)はこの視界画像を見ることができる。これに
より、観者は、所望する視界画像が得られるまで、視点
情報を連続的に調整できることになる。なお、ここで視
点情報とは視点位置、視線方向等をいう。そして、視点
情報を変更する場合には、視点位置を変更し、視線方向
については固定する又はあらかじめ定められたパターン
で変更してもよい。
According to the invention of claim 1 or 5, based on the operation information input by the input means, a calculation for continuously changing the viewpoint information on a predetermined trajectory is performed. That is, the viewpoint information is continuously changed as the input means is operated. Then, the visual field images are combined based on the changed viewpoint information, and the viewer (the person who views the image, for example, the player) can see the visual field images. This allows the viewer to continuously adjust the viewpoint information until the desired view image is obtained. Here, the viewpoint information refers to a viewpoint position, a line-of-sight direction, and the like. When changing the viewpoint information, the viewpoint position may be changed, and the line-of-sight direction may be fixed or changed in a predetermined pattern.

【0013】また、請求項2の発明は、操作手段と、該
操作手段から入力される操作情報に基づいて仮想3次元
空間を形成する演算を行う仮想3次元空間演算手段と、
形成された前記仮想3次元空間内において見える視界画
像の合成を行う画像合成手段とを含む3次元シミュレー
タ装置であって、前記操作手段には、観者又は観者が搭
乗する移動体の位置及び方向の少なくとも1つを連続的
に変更するための操作情報を入力する第1の入力手段が
含まれると共に、視点位置及び視線方向の少なくとも1
つを連続的に変更するための操作情報を入力する第2の
入力手段が含まれ、前記仮想3次元空間演算手段が、前
記第1の入力手段から入力される前記操作情報に基づい
て、観者又は移動体の仮想3次元空間内における位置及
び方向の少なくとも1つを指定する第1の指定情報を求
めると共に、前記第2の入力手段から入力される前記操
作情報に基づいて、視点位置及び視線方向の少なくとも
1つを指定する第2の指定情報を求め、前記画像合成手
段が、観者又は移動体が前記第1の指定情報により指定
される位置、方向にある場合に、前記第2の指定情報に
より指定される視点位置、視線方向において見える視界
画像の合成を行うことを特徴とする。
According to a second aspect of the invention, operating means, and virtual three-dimensional space calculating means for performing an operation to form a virtual three-dimensional space based on operation information input from the operating means,
A three-dimensional simulator device including image synthesizing means for synthesizing a visual field image visible in the formed virtual three-dimensional space, wherein the operating means includes a position of a viewer or a moving body on which the viewer rides, and A first input means for inputting operation information for continuously changing at least one of the directions is included, and at least one of the viewpoint position and the line-of-sight direction is included.
Second input means for inputting operation information for continuously changing one of the two is included, and the virtual three-dimensional space calculation means is based on the operation information input from the first input means. The first designation information for designating at least one of the position and the direction of the person or the moving body in the virtual three-dimensional space is obtained, and the viewpoint position and the viewpoint position are determined based on the operation information input from the second input unit. The second designation information for designating at least one of the line-of-sight directions is obtained, and if the image synthesizing means is in the position and direction designated by the first designation information, the second combination information is obtained. It is characterized in that a visual field image that is visible in the viewpoint position and line-of-sight direction designated by the designation information is synthesized.

【0014】また、請求項6の発明は、操作手段から入
力される操作情報に基づいて仮想3次元空間内において
見える視界画像の合成を行う画像合成方法であって、前
記操作手段に含まれる第1の入力手段により、観者又は
観者が搭乗する移動体の位置及び方向の少なくとも1つ
を連続的に変更するための操作情報を入力し、前記操作
手段に含まれる第2の入力手段により、視点位置及び視
線方向の少なくとも1つを連続的に変更するための操作
情報を入力し、前記第1の入力手段から入力される前記
操作情報に基づいて、観者又は移動体の仮想3次元空間
内における位置及び方向の少なくとも1つを指定する第
1の指定情報を求めると共に、前記第2の入力手段から
入力される前記操作情報に基づいて、視点位置及び視線
方向の少なくとも1つを指定する第2の指定情報を求
め、観者又は移動体が前記第1の指定情報により指定さ
れる位置、方向にある場合に、前記第2の指定情報によ
り指定される視点位置、視線方向において見える視界画
像の合成を行うことを特徴とする。
According to a sixth aspect of the present invention, there is provided an image synthesizing method for synthesizing a visual field image visible in a virtual three-dimensional space on the basis of operation information input from the operating means, which is included in the operating means. The operation information for continuously changing at least one of the position and the direction of the viewer or the moving body on which the viewer rides is input by the first input unit, and the second input unit included in the operation unit inputs the operation information. , Inputting operation information for continuously changing at least one of a viewpoint position and a line-of-sight direction, and based on the operation information input from the first input means, a virtual three-dimensional image of a viewer or a moving body. At least one of the viewpoint position and the line-of-sight direction is obtained based on the operation information input from the second input unit while obtaining the first specifying information for specifying at least one of the position and the direction in the space. When the viewer or the moving object is located at the position and direction specified by the first specification information, the second position information and the viewpoint position and line of sight specified by the second specification information are obtained. It is characterized in that the visual field images seen in the directions are synthesized.

【0015】請求項2又は6の発明によれば、第1の入
力手段から入力される操作情報に基づいて第1の指定情
報が求められ、第2の入力手段から入力される操作情報
に基づいて第2の指定情報が求められる。そして、第1
の指定情報で指定される位置、方向に観者又は移動体が
ある場合に、第2の指定情報で指定される視点位置、視
線方向において見える視界画像の合成が行われ、観者は
この視界画像を見ることができる。即ち、本発明によれ
ば、観者又は移動体の移動と、視点位置、視線方向の移
動とを独立に制御することが可能となり、操作のバラエ
ティを増やすことができる。
According to the invention of claim 2 or 6, the first designation information is obtained based on the operation information input from the first input means, and based on the operation information input from the second input means. The second designation information is sought. And the first
When there is a viewer or a moving object at the position and direction specified by the specified information of, the view image specified by the second specified information and the visual field image seen in the line-of-sight direction are combined, and the viewer sees this visual field. You can see the image. That is, according to the present invention, the movement of the viewer or the moving body and the movement of the viewpoint position and the line-of-sight direction can be independently controlled, and the variety of operations can be increased.

【0016】また、請求項3の発明は、請求項2におい
て、前記視点位置、視線方向の少なくとも1つの変更に
連動して標的への照準の位置及び方向の少なくとも1つ
を変更する手段を含むことを特徴とする。
Further, the invention of claim 3 includes the means according to claim 2, wherein at least one of the position and direction of the aiming at the target is changed in association with the change of at least one of the viewpoint position and the line-of-sight direction. It is characterized by

【0017】請求項3の発明によれば、視点位置、視線
方向を第2の入力手段で変更すると、標的に対する照準
についてもこれに連動して変更される。これにより、観
者は、観者又は移動体の進行方向を標的方向に合わせる
ことなく、標的に対して攻撃を行うことができることに
なる。
According to the third aspect of the invention, when the viewpoint position and the line-of-sight direction are changed by the second input means, the aiming at the target is also changed in conjunction with this. As a result, the viewer can attack the target without adjusting the traveling direction of the viewer or the moving body to the target direction.

【0018】また、請求項4の発明は、請求項1乃至3
のいずれかにおいて、前記入力手段により前記操作情報
を入力する際に、基準となる視界画像が合成される位置
を観者に認識させる手段を含むことを特徴とする3次元
シミュレータ装置。
Further, the invention of claim 4 relates to claims 1 to 3.
In any one of the above, the three-dimensional simulator device includes means for allowing a viewer to recognize a position where a reference visual field image is combined when the operation information is input by the input means.

【0019】請求項4の発明によれば、例えば、観者が
入力手段を操作する際に機械的な引っかかり部(クリッ
ク部)等を設けることで、基準となる視界画像が合成さ
れる位置、例えばドライビングゲームを例にとれば運転
席、車の後方、車の上方等に視点位置等が設定される場
合に見える視界画像が合成される位置を、観者に対して
認識させることができる。
According to the invention of claim 4, for example, by providing a mechanical catching portion (clicking portion) or the like when the viewer operates the input means, a position at which the reference visual field image is synthesized, For example, in the case of a driving game as an example, the viewer can be made aware of the position where the visual field images that are viewed when the viewpoint position is set at the driver's seat, behind the car, above the car, or the like.

【0020】[0020]

【実施例】【Example】

1.ゲームの概要 まず、本3次元シミュレータ装置で実現される3次元ゲ
ームの一例について簡単に説明する。
1. Outline of Game First, an example of a three-dimensional game realized by the present three-dimensional simulator device will be briefly described.

【0021】図2には、本3次元シミュレータ装置の一
例が示される。この3次元シミュレータ装置では、複数
の独立したシミュレータ装置(ゲーム装置)1−1、1
−2、1−3、1−4がデータ伝送ラインを介して互い
に接続されている。もちろん、本発明は、このようなマ
ルチプレーヤ型ゲーム構成のみならず1人プレーヤ構成
の場合にも当然に適用できる。
FIG. 2 shows an example of the present three-dimensional simulator device. In this three-dimensional simulator device, a plurality of independent simulator devices (game devices) 1-1, 1
-2, 1-3, 1-4 are connected to each other via a data transmission line. Of course, the present invention is naturally applicable not only to such a multi-player type game configuration but also to a one-player configuration.

【0022】図2に示すように、この各シミュレータ装
置は、実際のレーシングカーの運転席と同様に形成され
ている。そして、プレーヤは、シート18に着座し、デ
ィスプレイ10に映し出されたゲーム画面(レーシング
カーの運転席から見える風景の視界画像)を見ながら、
操作部12に設けられたハンドル14、アクセル15等
を操作して架空のレーシングカーを運転してゲームを行
う。そして、本発明では、更に、操作部12にロータリ
エンコーダ16が設けられている。このロータリエンコ
ーダ16は、プレーヤの視点情報を、あらかじめ定めら
れた軌道上で連続的に変更するために設けられたもので
ある。
As shown in FIG. 2, each simulator device is formed similarly to the driver's seat of an actual racing car. Then, the player sits on the seat 18 and looks at the game screen (the view image of the scenery seen from the driver's seat of the racing car) displayed on the display 10,
The game is performed by operating a fictitious racing car by operating the handle 14, the accelerator 15, etc. provided on the operation unit 12. Further, in the present invention, the operation unit 12 is further provided with the rotary encoder 16. The rotary encoder 16 is provided to continuously change the viewpoint information of the player on a predetermined orbit.

【0023】図3には、本3次元ゲームにおける仮想3
次元空間の一例が示される。このように、本3次元ゲー
ムにおける仮想3次元空間には、3次元的に形成された
コース20が配置されている。そして、コース20の周
辺には、ビル60、アーチ62、スタンド64、崖6
6、壁68、トンネル70、木72、ブリッジ74等の
3次元オブジェクトが配置されている。プレーヤはこれ
らのコース等が映し出されたディスプレイ10を見なが
らレーシングカーを操作する。そして、スタートポイン
ト76からスタートして、コース20を周回し、所定回
数コースを周回するとゴールとなり、プレーヤの順位が
決定される。
FIG. 3 shows a virtual 3 in this three-dimensional game.
An example of a dimensional space is shown. In this way, the three-dimensionally formed courses 20 are arranged in the virtual three-dimensional space in this three-dimensional game. Then, around the course 20, there are a building 60, an arch 62, a stand 64, and a cliff 6.
Three-dimensional objects such as 6, walls 68, tunnels 70, trees 72, bridges 74 are arranged. The player operates the racing car while looking at the display 10 showing these courses and the like. Then, starting from the start point 76, orbiting the course 20 and orbiting the course a predetermined number of times, it becomes a goal and the player's ranking is determined.

【0024】図4(A)、(B)、図5(A)、(B)
には、本3次元ゲームにおいてディスプレイ10上に映
し出されるゲーム画面(視界画像)の一例が示される。
これらのゲーム画面間では、各々視点情報(視点位置、
視線方向)が異なっており、図6には、これらの各ゲー
ム画面に対応する視点位置20〜23、視線方向24〜
27が示されている。
4A, 4B, 5A, 5B
In the figure, an example of a game screen (visual field image) displayed on the display 10 in the present three-dimensional game is shown.
Between these game screens, the viewpoint information (viewpoint position,
The visual line directions are different, and in FIG. 6, the viewpoint positions 20 to 23 and the visual line directions 24 to 24 corresponding to these respective game screens are shown.
27 is shown.

【0025】例えば、図4(A)は、プレーヤカー51
の運転席位置に視点情報が設定されている(図6の視点
位置20、視線方向24)のゲーム画面の例である。こ
の場合には、ゲーム画面上には相手レーシングカー52
のみ描かれプレーヤカーは描かれないが、プレーヤは実
際に車を運転しているのと同様の感覚を味わえるため、
ゲームのリアリティを高めることができる。また、図4
(B)は、プレーヤカー51の後方位置に視点情報が設
定されている場合(図6の視点位置21、視線方向2
5)のゲーム画面の例である。この場合には、相手レー
シングカー52のみならずプレーヤカー51もゲーム画
面上に描かれる。このため、プレーヤは自身が操作した
プレーヤカー51がどのように動くかについても見るこ
とができ(例えばドリフト状態となった自身のプレーヤ
カーを見ることができる)、ゲームの面白味を高めるこ
とができる。また、図5(A)は、プレーヤカー51の
後方よりやや上方の位置に視点情報が設定されている場
合(図6の視点位置22、視線方向26)のゲーム画面
の例である。また、図5(B)は、プレーヤカー51の
トップ(ほぼ真上)位置に視点情報が設定されている場
合(図6の視点位置23、視線方向27)のゲーム画面
の例である。このようなドライビングゲームでは、例え
ば運転席から見える視界画像を合成するゲーム装置と、
プレーヤカーのトップ位置から見える視界画像を合成す
るゲーム装置等とは、別ジャンルのゲーム装置として確
立されている。しかし、本実施例によれば、このように
異なるジャンルとして確立されているゲーム装置の視界
画像を、1つのゲーム装置により表現することが可能と
なる。なお、例えば視点がトップ位置にある場合等に
は、運転席の位置にある場合に比べ、コース20の曲が
り具合がよくわかり、初心者に好適なものとなる。
For example, FIG. 4A shows a player car 51.
7 is an example of a game screen in which viewpoint information is set for the driver's seat position (viewpoint position 20 and line-of-sight direction 24 in FIG. 6). In this case, the opponent racing car 52 is displayed on the game screen.
Only the player car is drawn, but the player can feel the same as actually driving the car,
The reality of the game can be increased. Also, FIG.
6B shows a case where the viewpoint information is set at the rear position of the player car 51 (the viewpoint position 21 and the line-of-sight direction 2 in FIG. 6).
It is an example of the game screen of 5). In this case, not only the opponent racing car 52 but also the player car 51 is drawn on the game screen. Therefore, the player can also see how the player car 51 operated by the player moves (for example, the player car 51 in the drift state can be seen), and the game can be more interesting. . Further, FIG. 5A is an example of the game screen when the viewpoint information is set at a position slightly above the rear of the player car 51 (the viewpoint position 22 and the line-of-sight direction 26 in FIG. 6). In addition, FIG. 5B is an example of a game screen when the viewpoint information is set at the top (almost directly above) position of the player car 51 (the viewpoint position 23 and the line-of-sight direction 27 in FIG. 6). In such a driving game, for example, a game device that synthesizes a visual field image seen from the driver's seat,
It is established as a game device of a different genre from a game device or the like that synthesizes a view image seen from the top position of the player car. However, according to the present embodiment, it is possible to represent the visual field images of the game devices established as different genres in this way with one game device. Note that, for example, when the viewpoint is at the top position, the degree of bending of the course 20 can be better understood than when it is at the position of the driver's seat, which is suitable for beginners.

【0026】さて、本実施例では視点情報を連続的に変
更することができる。例えば、図6では、視点情報の中
の視点位置を運転席の位置からトップの位置まで(視点
位置20〜視点位置23まで)連続的に移動することが
できる。この場合、視点位置の移動する軌道30はあら
かじめ定められており、プレーヤは、図2のロータリエ
ンコーダ16を操作することで、この軌道30上で視点
位置を連続的に移動させる。従って、プレーヤは、自分
が所望する視点情報を任意に設定し、この設定された視
点情報に基づくゲーム画面を見ることが可能となる。こ
れにより、多種多様な好みを持つ多くのプレーヤの要求
を満足させることが可能となる。また、プレーヤの所望
する視点情報に基づき視界画像を得るために、1つのロ
ータリエンコーダ16を操作すればよいので、プレーヤ
が操作を間違える可能性が少なくなり、結果として、プ
レーヤはゲーム画面に集中することができる。また、例
えばロータリエンコーダ16を左に回せば視点位置23
側に、右に回せば視点位置20側にというように視点情
報を変更できるため、見たい画像を得るための操作が直
感的に非常に分かり易いものとなる。以上により装置の
商品性を大幅に高めることができる。
In the present embodiment, the viewpoint information can be changed continuously. For example, in FIG. 6, the viewpoint position in the viewpoint information can be continuously moved from the position of the driver's seat to the position of the top (from viewpoint position 20 to viewpoint position 23). In this case, the trajectory 30 along which the viewpoint position moves is predetermined, and the player operates the rotary encoder 16 shown in FIG. 2 to continuously move the viewpoint position on this trajectory 30. Therefore, the player can arbitrarily set the viewpoint information desired by the player and can see the game screen based on the set viewpoint information. This makes it possible to satisfy the demands of many players having various tastes. Further, since one rotary encoder 16 only needs to be operated in order to obtain a visual field image based on the viewpoint information desired by the player, the player is less likely to make a mistake in the operation, and as a result, the player concentrates on the game screen. be able to. Also, for example, if the rotary encoder 16 is turned counterclockwise, the viewpoint position 23
Since the viewpoint information can be changed to the side of the viewpoint position 20 by turning it to the right side, the operation for obtaining the desired image is intuitively very easy to understand. As described above, the commercialability of the device can be significantly improved.

【0027】なお、図6では、視点情報の中の視線方向
24〜27については、視点位置20〜23の各々にお
いて異なったものに設定されている。例えば、視点位置
20においては視線方向24はプレーヤカー51の進行
方向に設定されている。また、視点位置21では視線方
向25はやや下向きとなり、視点位置22、23での視
線方向26、27は更に下向きになっている。視点位置
を連続的に変更するのに伴い、このように、視線方向2
4〜27の向きについても連続的に変更させることが望
ましい。但し、視線方向の向きは図6に示される設定に
限られず、例えば常に1つの方向に固定する等の種々の
設定とすることができる。また、軌道の形状も図6に示
すものに限られるものではない。
In FIG. 6, the visual line directions 24 to 27 in the visual point information are set to be different at each of the visual point positions 20 to 23. For example, at the viewpoint position 20, the line-of-sight direction 24 is set to the traveling direction of the player car 51. At the viewpoint position 21, the line-of-sight direction 25 is slightly downward, and at the viewpoint positions 22 and 23, the line-of-sight directions 26 and 27 are further downward. As the viewpoint position is continuously changed, the line-of-sight direction 2
It is desirable to continuously change the orientations of 4-27. However, the direction of the line-of-sight direction is not limited to the setting shown in FIG. 6, and can be set to various settings such as always fixing in one direction. Further, the shape of the track is not limited to that shown in FIG.

【0028】2.装置全体の説明 図1には、本実施例に係る3次元シミュレータ装置のブ
ロック図が示される。図1に示すように、本実施例の3
次元シミュレータ装置は、プレーヤが操作情報を入力す
る操作部12、所定のゲームプログラムにより仮想3次
元空間形成のための演算を行う仮想3次元空間演算部1
00、仮想3次元空間演算部100により決められた視
点位置における視界画像を合成する画像合成部200、
及びこの視界画像を画像出力するディスプレイ10を含
んでいる。
2. Description of Entire Device FIG. 1 shows a block diagram of a three-dimensional simulator device according to this embodiment. As shown in FIG.
The three-dimensional simulator device includes an operation unit 12 for a player to input operation information, and a virtual three-dimensional space operation unit 1 for performing an operation for forming a virtual three-dimensional space by a predetermined game program.
00, an image synthesizing unit 200 for synthesizing the visual field image at the viewpoint position determined by the virtual three-dimensional space computing unit 100,
And a display 10 for outputting this visual field image.

【0029】操作部12には、例えば本3次元シミュレ
ータ装置をレーシングカーゲームに適用した場合には、
レーシングカーを運転するためのハンドル14、アクセ
ル15等が含まれ、これにより操作情報が入力される。
また、操作部12には、図2のロータリエンコーダ16
に相当する入力部2が含まれ、これにより視点情報を連
続的に変更するための操作情報を入力できる。
For example, when the present three-dimensional simulator device is applied to a racing car game,
A steering wheel 14, an accelerator 15 and the like for driving a racing car are included, by which operation information is input.
Further, the operation unit 12 includes a rotary encoder 16 shown in FIG.
The input unit 2 corresponding to the above is included, whereby operation information for continuously changing the viewpoint information can be input.

【0030】仮想3次元空間演算部100では、図3に
示す仮想3次元空間における複数の表示物、例えばコー
ス20、ビル60、アーチ62、スタンド64、崖6
6、プレーヤカー、相手レーシングカー、コンピュータ
ーカー等の位置あるいは位置及び方向を設定する演算が
行われる。この演算は、操作部12からの操作情報や、
あらかじめ設定記憶されているマップ情報等に基づいて
行われる。そして、仮想3次元空間演算部100には、
視点情報変更部107が含まれている。この視点情報変
更部107には、入力部2から、視点情報(視点位置、
視線方向)を連続的に変更するための操作情報が入力さ
れ、この操作情報に基づいて、あらかじめ定められた軌
道(図6の軌道30)上で視点情報を連続的に変更する
演算が行われる。そして、変更演算が施された視点情報
は画像合成部200に出力される。画像合成部200で
は、仮想3次元空間演算部100からの演算結果に基づ
いて視界画像の合成が行われる。この場合、視界画像を
合成する際に必要な視点位置、視線方向等の視点情報は
仮想3次元空間演算部100から入力されたものを用い
る。そして、合成された視界画像はディスプレイ10上
に表示される。以上のようにして、あらかじめ定められ
た軌道上において視点情報を連続的に変更した場合の視
界画像を得ることができる。
In the virtual three-dimensional space calculation unit 100, a plurality of display objects in the virtual three-dimensional space shown in FIG. 3, such as the course 20, the building 60, the arch 62, the stand 64, and the cliff 6 are displayed.
6. A calculation for setting the position or position and direction of the player car, opponent racing car, computer car, etc. is performed. This calculation is based on operation information from the operation unit 12,
It is performed based on map information or the like that is set and stored in advance. Then, in the virtual three-dimensional space calculation unit 100,
A viewpoint information changing unit 107 is included. The viewpoint information changing unit 107 receives the viewpoint information (viewpoint position,
Operation information for continuously changing the line-of-sight direction is input, and based on this operation information, a calculation for continuously changing the viewpoint information is performed on a predetermined trajectory (trajectory 30 in FIG. 6). . Then, the viewpoint information that has undergone the change calculation is output to the image synthesizing unit 200. The image synthesis unit 200 synthesizes the view image based on the calculation result from the virtual three-dimensional space calculation unit 100. In this case, the viewpoint information such as the viewpoint position and the line-of-sight direction required when synthesizing the visual field images uses the information input from the virtual three-dimensional space calculation unit 100. Then, the combined view image is displayed on the display 10. As described above, it is possible to obtain a view field image when the viewpoint information is continuously changed on a predetermined trajectory.

【0031】図7には、仮想3次元空間演算部100、
画像合成部200等の具体的構成の一例を表すブロック
図が示される。但し、本発明における仮想3次元空間演
算手段、画像合成手段の構成は図7に示す構成に限られ
るものではない。
FIG. 7 shows a virtual three-dimensional space computing unit 100,
A block diagram showing an example of a specific configuration of the image combining unit 200 and the like is shown. However, the configurations of the virtual three-dimensional space calculating means and the image synthesizing means in the present invention are not limited to the configurations shown in FIG.

【0032】3.仮想3次元空間演算部についての説明 図7に示すように操作部12は、第1、第2の入力部
4、6を含む。第1の入力部4は、ハンドル14、アク
セル15等に相当するものであり、この第1の入力部4
により、プレーヤカー(又はプレーヤ)の位置又は方向
あるいは位置及び方向を連続的に変更する操作情報が入
力される。例えば、ハンドル14を操舵すると、その操
舵角により方向についての変化量が入力される。また、
アクセル15の踏み具合により位置についての変化量が
入力される。
3. Description of Virtual Three-Dimensional Space Calculation Unit As shown in FIG. 7, the operation unit 12 includes first and second input units 4 and 6. The first input unit 4 corresponds to the steering wheel 14, the accelerator 15, etc., and the first input unit 4
Thus, the operation information for continuously changing the position or direction of the player car (or the player) or the position and direction is input. For example, when the steering wheel 14 is steered, the amount of change in the direction is input according to the steering angle. Also,
The amount of change in position is input according to the degree of depression of the accelerator 15.

【0033】また、第2の入力部6は、ロータリエンコ
ーダ16に相当するものであり、この第2の入力部6に
より視点位置を連続的に変更する操作情報が入力され
る。また、この第2の入力部6により、視線方向を連続
的に変更する操作情報を入力させることもできる。例え
ばロータリエンコーダ16を回転させると、その回転角
により視点位置等の変化量が入力される。
The second input section 6 corresponds to the rotary encoder 16, and the operation information for continuously changing the viewpoint position is input by the second input section 6. In addition, the second input unit 6 can also input operation information for continuously changing the line-of-sight direction. For example, when the rotary encoder 16 is rotated, the change amount of the viewpoint position or the like is input according to the rotation angle.

【0034】なお、第2の入力部6としては、種々のも
のを採用することができ、例えば図8(A)に示すロー
タリエンコーダ16以外にも、図8(B)に示すような
ポテンショメータ32と呼ばれるものも採用できる。ロ
ータリエンコーダ16によれば視点情報の相対的な変化
量を操作情報として入力できるが、ポテンショメータ3
2によれば視点情報の絶対的な値を操作情報として入力
できる。そして、図8(A)では、操作凹部17を用い
て回転部分を左右に回転させることで視点情報を変更
し、図8(B)では、つまみ33をスライドさせること
で視点情報を変更することになる。なお、形状は図8
(A)、(B)に示すものに限らず、例えばスライド式
のロータリエンコーダや、回転式のポテンショメータを
採用することも可能である。
As the second input section 6, various types can be adopted. For example, in addition to the rotary encoder 16 shown in FIG. 8A, a potentiometer 32 shown in FIG. 8B is used. What is called can also be adopted. Although the rotary encoder 16 can input the relative change amount of the viewpoint information as the operation information, the potentiometer 3
According to 2, the absolute value of the viewpoint information can be input as the operation information. Then, in FIG. 8A, the viewpoint information is changed by rotating the rotating portion to the left and right using the operation concave portion 17, and in FIG. 8B, the viewpoint information is changed by sliding the knob 33. become. The shape is shown in FIG.
Not limited to those shown in (A) and (B), it is possible to employ, for example, a slide type rotary encoder or a rotary potentiometer.

【0035】ロータリエンコーダ16を用いる場合に
は、得られる操作情報はデジタルデータとなるため、図
8(C)に示すように、この操作情報はそのまま仮想3
次元空間演算部100に入力される。一方、ポテンショ
メータ32を用いる場合には、得られる操作情報はアナ
ログデータになるため、図8(D)に示すように、この
操作情報はA/D変換部34でデジタルデータに変換さ
れて、仮想3次元空間演算部100に入力される。但
し、仮想3次元空間演算部100がアナログインターフ
ェースを有している場合には、直接にアナログデータの
操作情報を入力してもよい。
When the rotary encoder 16 is used, the operation information obtained is digital data, and as shown in FIG.
It is input to the dimensional space calculation unit 100. On the other hand, when the potentiometer 32 is used, the obtained operation information is analog data, and thus the operation information is converted into digital data by the A / D conversion unit 34 as shown in FIG. It is input to the three-dimensional space calculation unit 100. However, when the virtual three-dimensional space calculation unit 100 has an analog interface, the operation information of analog data may be directly input.

【0036】また、ロータリエンコーダ16を回転させ
た場合に機械的に引っかかる部分(クリック部)を設
け、図9(A)に示すように、例えば操作凹部36が表
示36〜42の位置にある場合にプレーヤに引っかかり
を感じさせるような構成とすることもできる。これによ
り、プレーヤがロータリエンコーダ16を用いて操作情
報を入力する際に、基準となる視界画像(例えば図4
(A)、(B)、図5(A)、(B)の視界画像)が合
成される位置をプレーヤに認識させることができる。こ
の結果、プレーヤは、基準となる視界画像を合成するた
めの視点情報(例えば図6の視点位置20〜23、視線
方向24〜27)を容易に選択することができ、この視
点情報を基準にプレーヤの所望する視点情報への変更動
作を行うことも可能となる。なお、図9(B)には、ポ
テンショメータ32の場合についての例が示され、この
場合はつまみ33が表示44、46の位置にある場合
に、プレーヤは引っかかりを感じることになる。
Further, when the rotary encoder 16 is rotated, a portion (click portion) that is mechanically caught is provided, and as shown in FIG. 9 (A), for example, when the operation concave portion 36 is in the position of the displays 36 to 42. It is also possible to make the player feel caught. As a result, when the player inputs operation information using the rotary encoder 16, a visual field image as a reference (for example, FIG.
It is possible to let the player recognize the position where (A), (B), and the visual field images of FIGS. 5A and 5B are combined. As a result, the player can easily select the viewpoint information (for example, the viewpoint positions 20 to 23 and the line-of-sight direction 24 to 27 in FIG. 6) for synthesizing the reference view image, and the viewpoint information is used as a reference. It is also possible to perform a change operation to the viewpoint information desired by the player. Note that FIG. 9B shows an example of the case of the potentiometer 32. In this case, when the knob 33 is at the positions of the displays 44 and 46, the player feels a catch.

【0037】図7に示すように、仮想3次元空間演算部
100は、処理部102、仮想3次元空間設定部10
4、移動演算部106、視点情報変更部107、表示物
情報記憶部108を含んでいる。
As shown in FIG. 7, the virtual three-dimensional space calculation unit 100 includes a processing unit 102 and a virtual three-dimensional space setting unit 10.
4, a movement calculation unit 106, a viewpoint information changing unit 107, and a display object information storage unit 108 are included.

【0038】ここで、処理部102では、3次元シミュ
レータ装置全体の制御が行われる。また、処理部102
内に設けられた図示しない記憶部には、所定のゲームプ
ログラムが記憶されている。仮想3次元空間演算部10
0は、このゲームプログラム及び操作部12からの操作
信号にしたがって仮想3次元空間設定の演算を行うこと
になる。
Here, the processing unit 102 controls the entire three-dimensional simulator apparatus. In addition, the processing unit 102
A predetermined game program is stored in a storage unit (not shown) provided therein. Virtual three-dimensional space calculation unit 10
0 will perform the calculation of virtual three-dimensional space setting according to this game program and the operation signal from the operation part 12.

【0039】移動演算部106では、第1の入力部4か
ら入力されるプレーヤカーの位置等についての操作情報
及び処理部102からの指示等にしたがって、プレーヤ
カーの位置情報、方向情報の変化量(例えば△Xm、△
Ym、△Zm、△θm、△φm、△ρmの全てあるいは
その一部)を求める演算が行われる。一方、視点情報変
更部107においては、例えば第2の入力部6としてロ
ータリエンコーダを用いた場合には、第2の入力部6か
ら入力される操作情報及び処理部102からの指示等に
したがって、視点位置等の軌道30上に沿った変化量
(例えば△Xk、△Yk、△Zk)等を求める演算が行
われる。
In the movement calculation unit 106, the amount of change in the position information and direction information of the player car according to the operation information about the position of the player car input from the first input unit 4 and the instruction from the processing unit 102. (For example, △ Xm, △
A calculation for obtaining all or a part of Ym, ΔZm, Δθm, Δφm, Δρm) is performed. On the other hand, in the viewpoint information changing unit 107, for example, when a rotary encoder is used as the second input unit 6, according to the operation information input from the second input unit 6 and the instruction from the processing unit 102, A calculation for obtaining the amount of change (eg, ΔXk, ΔYk, ΔZk) along the trajectory 30 such as the viewpoint position is performed.

【0040】表示物情報記憶部108には、仮想3次元
空間を構成する表示物の数に対応する格納エリアがあ
り、各エリアには該表示物の位置情報・方向情報及びこ
の位置に表示すべき表示物のオブジェクトを指定するオ
ブジェクトナンバーが記憶されている(以下、この記憶
された位置情報・方向情報、オブジェクトナンバーを表
示物情報と呼ぶ)。図10には、表示物情報記憶部10
8に記憶される表示物情報の一例が示される。図10に
おける位置情報、方向情報はワールド座標系(絶対座標
系)における値である。
The display object information storage unit 108 has a storage area corresponding to the number of display objects forming a virtual three-dimensional space. In each area, position information / direction information of the display object and a display to be displayed at this position are provided. Object numbers that specify object objects are stored (hereinafter, the stored position information / direction information and object numbers are referred to as display object information). In FIG. 10, the display object information storage unit 10 is shown.
An example of the display object information stored in 8 is shown. The position information and direction information in FIG. 10 are values in the world coordinate system (absolute coordinate system).

【0041】表示物情報記憶部108に記憶されている
表示物情報は、仮想3次元空間設定部104により読み
出される。この場合、表示物情報記憶部108には、当
該フレームの1つ前のフレームにおける表示物情報が記
憶されている。そして、仮想3次元空間設定部104で
は、読み出された表示物情報と、移動演算部106で演
算された変化量(△Xm、△Ym、△Zm、△θm、△
φm、△ρm)とに基づいて、当該フレームにおける表
示物情報(第1の指定情報)が求められ、画像合成部2
00に出力される。なお、静止物体については表示物情
報は変化しないのでこのような処理は必要ない。
The display object information stored in the display object information storage unit 108 is read by the virtual three-dimensional space setting unit 104. In this case, the display object information storage unit 108 stores the display object information in the frame immediately preceding the frame. Then, in the virtual three-dimensional space setting unit 104, the read display object information and the change amount (ΔXm, ΔYm, ΔZm, Δθm, Δ) calculated by the movement calculation unit 106.
Based on (φm, Δρm), display object information (first designation information) in the frame is obtained, and the image synthesizing unit 2
Is output to 00. Since the display object information does not change for a stationary object, such processing is not necessary.

【0042】また、視点情報変更部107においても、
1つ前のフレームにおける視点情報、演算された当該フ
レームにおける変化量(△Xk、△Yk、△Zk)、及
びプレーヤカーの位置情報等を用いることにより、視点
情報を変更する演算が行われ、これにより当該フレーム
における視点情報が求められる。但し、視点情報につい
ては、例えば入力手段6から入力される操作情報に1対
1に対応させて、プレーヤカー51の位置からの視点位
置の変化(△Xj、△Yj、△Zj)等を格納したテー
ブルを用意し、このテーブルを用いて視点情報を求めて
もよい。このようにすれば演算を容易に行うことができ
る。そして、この演算は、視点情報変更部107により
行う。このようにして求められた視点情報は、フレーム
情報(第2の指定情報)として画像合成部200に出力
される。
Also, in the viewpoint information changing unit 107,
A calculation for changing the viewpoint information is performed by using the viewpoint information in the immediately preceding frame, the calculated change amount (ΔXk, ΔYk, ΔZk) in the frame, the position information of the player car, and the like. Thereby, the viewpoint information in the frame is obtained. However, regarding the viewpoint information, for example, the change in the viewpoint position (ΔXj, ΔYj, ΔZj) from the position of the player car 51 is stored in one-to-one correspondence with the operation information input from the input unit 6. It is also possible to prepare the above table and obtain the viewpoint information using this table. By doing so, the calculation can be easily performed. Then, this calculation is performed by the viewpoint information changing unit 107. The viewpoint information obtained in this way is output to the image combining unit 200 as frame information (second designation information).

【0043】4.画像合成部についての説明 画像合成部200では、仮想3次元空間において見える
視界画像の合成が行われる。このため画像合成部200
は、図7に示すように画像供給部210と画像形成部2
28とを含み、画像供給部210はオブジェクト画像情
報記憶部212を含む。オブジェクト画像情報記憶部2
12には、表示物を表すオブジェクトの画像情報が記憶
されており、このオブジェクトは表示物情報に含まれる
オブジェクトナンバーにより指定される。
4. Description of Image Synthesizing Unit The image synthesizing unit 200 synthesizes a view image that can be seen in a virtual three-dimensional space. Therefore, the image composition unit 200
Is the image supply unit 210 and the image forming unit 2 as shown in FIG.
28, and the image supply unit 210 includes an object image information storage unit 212. Object image information storage unit 2
Image information of an object representing a display object is stored in 12, and this object is designated by an object number included in the display object information.

【0044】画像供給部210では、仮想3次元空間演
算部100からの表示物情報、フレーム情報、及びオブ
ジェクト画像情報記憶部212から読み出されたオブジ
ェクト画像情報に基づいて、各種の3次元演算処理が行
われる。即ち、まず、図11に示すように、レーシング
カー、コース等を表すオブジェクト300、333、3
34について、それを構成するポリゴンをワールド座標
系(絶対座標系)(XW、YW、ZW)で表現される仮想
3次元空間上に配置するための演算処理が行われる。次
に、これらの各オブジェクトについて、それを構成する
ポリゴンを視点位置301を原点とする視点座標系(X
v、Yv、Zv)へ座標変換する処理が行われる。その
後、いわゆるクリッピング処理が行われ、次に、スクリ
ーン座標系(XS、YS)への透視投影変換処理が行われ
る。次に、ポリゴンフォーマット変換処理が行われ、最
後に、必要に応じてソーティング処理等が行われる。
In the image supply section 210, various three-dimensional calculation processing is performed based on the display object information, the frame information from the virtual three-dimensional space calculation section 100 and the object image information read from the object image information storage section 212. Is done. That is, first, as shown in FIG. 11, objects 300, 333, 3 representing a racing car, a course, etc.
With respect to 34, arithmetic processing for arranging the polygons forming the polygon in a virtual three-dimensional space represented by the world coordinate system (absolute coordinate system) (XW, YW, ZW) is performed. Next, for each of these objects, the polygons that make up the object are arranged in the viewpoint coordinate system (X
v, Yv, Zv) coordinate conversion processing is performed. After that, so-called clipping processing is performed, and then perspective projection conversion processing to the screen coordinate system (XS, YS) is performed. Next, polygon format conversion processing is performed, and finally, sorting processing or the like is performed as necessary.

【0045】画像形成部228では、画像供給部210
において3次元演算処理されたポリゴンの頂点座標等の
データから、ポリゴン内の全てのドットの画像情報が演
算される。これによりプレーヤから見ることができる視
界画像(疑似3次元画像)が形成されることになる。
In the image forming unit 228, the image supply unit 210
The image information of all the dots in the polygon is calculated from the data such as the vertex coordinates of the polygon which has been subjected to the three-dimensional calculation processing in (3). As a result, a visual field image (pseudo three-dimensional image) that can be seen by the player is formed.

【0046】さて、図12(A)、(B)には、本実施
例の画像合成部200において取り扱われるデータのフ
ォーマットの一例が示される。図12(A)に示すよう
に、このデータ列の先頭には、フレームデータが位置
し、これに続き各々のオブジェクトについてのオブジェ
クトデータが連なっている。また、各々のオブジェクト
データには、オブジェクトを構成するポリゴンのデータ
が連なっている。図12(B)には、このポリゴンデー
タのフォーマットの一例が示される。
Now, FIGS. 12A and 12B show an example of the format of the data handled by the image synthesizing unit 200 of this embodiment. As shown in FIG. 12 (A), frame data is located at the beginning of this data string, and is followed by object data for each object. Further, each object data is linked with data of polygons forming the object. FIG. 12B shows an example of the format of this polygon data.

【0047】仮想3次元空間演算部100により求めら
れた視点位置、視線方向等の視点情報は、このフレーム
データに含まれる。フレームデータには、当該フレーム
における視野角情報、モニタ情報等も含まれる。画像供
給部210は、これらの視点情報等を用いて、上記3次
元演算処理を行う。例えば、視点位置情報に基づいて図
11の視点位置301が求められ、これにより視点座標
系(Xv、Yv、Zv)の原点が定まる。また、視線方
向情報に基づいて、Zvの方向が決まり、これらにより
Xv、Yvの方向も定まる。そして、本実施例では、視
点情報を連続的に変化させることで、この視点座標系を
変化させ、図4(A)、(B)、図5(A)、(B)に
示されるような視界画像を得ることができる。
The viewpoint information such as the viewpoint position and the line-of-sight direction obtained by the virtual three-dimensional space calculation unit 100 is included in this frame data. The frame data also includes viewing angle information, monitor information, etc. in the frame. The image supply unit 210 uses the viewpoint information and the like to perform the three-dimensional calculation process. For example, the viewpoint position 301 of FIG. 11 is obtained based on the viewpoint position information, and the origin of the viewpoint coordinate system (Xv, Yv, Zv) is determined by this. Further, the direction of Zv is determined based on the line-of-sight direction information, and the directions of Xv and Yv are also determined by these. Then, in this embodiment, the viewpoint coordinate system is changed by continuously changing the viewpoint information, as shown in FIGS. 4A, 4B, 5A, and 5B. A field of view image can be obtained.

【0048】5 .照準の連動 以上では、あらかじめ定められた軌道30上において視
点位置及び視線方向を連続的に変更する場合について説
明した。しかし、本実施例ではこれ以外にも、視点位
置、視線方向を各々独立に任意の位置、方向に変更する
ことも可能である。例えば、図13(A)では、移動体
(又はプレーヤ)を移動させる第1の入力部として操縦
レバー48が用いられ、視線方向を任意の方向に変更す
る第2の入力部としてジョイスティック50が用いられ
る。即ち、操縦レバー48を操舵することで、例えばプ
レーヤの搭乗する戦闘機等を所望の位置、方向に動かす
ことができる。また、ジョイスティック50を所望の方
向へ倒すことで、視線方向を任意の方向に変更すること
ができる。このようにすれば、移動体である戦闘機の進
行方向と、プレーヤの視線方向等とを別々に独立に変更
することができ、ゲームの面白味を増すことができる。
5. In the above, the case where the viewpoint position and the line-of-sight direction are continuously changed on the predetermined orbit 30 has been described. However, in the present embodiment, besides this, the viewpoint position and the line-of-sight direction can be independently changed to arbitrary positions and directions. For example, in FIG. 13A, the control lever 48 is used as the first input unit for moving the moving body (or the player), and the joystick 50 is used as the second input unit for changing the line-of-sight direction to an arbitrary direction. To be That is, by steering the control lever 48, for example, a fighter or the like on which the player is mounted can be moved to a desired position and direction. Further, by tilting the joystick 50 in a desired direction, the line-of-sight direction can be changed to an arbitrary direction. In this way, the traveling direction of the fighter, which is a moving body, and the line-of-sight direction of the player can be independently changed, and the game can be more interesting.

【0049】例えば、図14(A)では、プレーヤの搭
乗する戦闘機80は、戦車82に対して攻撃を加えよう
としている。この場合、標的に対する照準84は、プレ
ーヤの視線の方向に位置しており、正面の方向に位置し
ている。一方、図14(B)では、戦車82が左方向に
移動した場合の図が示される。このような場合、従来の
装置では、操縦レバー48を操舵して戦闘機80の進行
方向を戦車82の方に向けなければ、攻撃を加えること
はできなかった。これに対して、本実施例では、まず、
プレーヤは、ジョイスティック50を左方向に倒すこと
で、プレーヤの視線の方向をゲーム画面上の左の方に変
更することができる。そして、更に、この視線方向の変
更に連動して、照準84もその方向に移動する。これに
より、戦車82に照準を合わせることができ、戦車82
に対して攻撃を加えることが可能となり、ゲームの面白
味をより増すことができる。
For example, in FIG. 14A, the fighter 80 on which the player is boarding is about to attack the tank 82. In this case, the aim 84 for the target is located in the direction of the line of sight of the player and in the front direction. On the other hand, FIG. 14B shows a diagram when the tank 82 moves to the left. In such a case, in the conventional device, an attack cannot be applied unless the steering lever 48 is steered to direct the advancing direction of the fighter 80 toward the tank 82. On the other hand, in this embodiment, first,
By tilting the joystick 50 to the left, the player can change the direction of the line of sight of the player to the left on the game screen. Further, the sight 84 also moves in that direction in conjunction with this change in the line-of-sight direction. This will allow you to focus on the tank 82,
It becomes possible to attack against, and the game can be more interesting.

【0050】図15にはこの場合の3次元シミュレータ
装置のブロック図の一例が示される。前述の図7と異な
り、画像合成部200が照準画像生成部230を含んで
いる。この照準画像生成部230は、照準84の画像を
生成するためのものである。また、第1の入力部4は、
図13(A)の操縦レバー等がこれに相当し、第2の入
力部6は、視線方向について操作情報を入力するための
ジョイスティック50がこれに相当する。そして、仮想
3次元空間演算部100内には、視点変更部108及び
視線変更部109が設けられる。視点変更部108では
視点位置を連続的に変更するための演算が行われる。ま
た、視線変更部109では、視線方向を連続的に変更す
るための演算が行われる。そして、求められた変更後の
視点情報は、フレーム情報に含まれ、画像供給部210
及び照準画像生成部230に入力される。照準画像生成
部230は、この視点情報に基づいて、ゲーム画面上の
どの位置に照準84を表示するかを決め、その位置に照
準84が表示された画像を画像形成部228に出力す
る。画像形成部228は、画像供給部210からの画像
情報により形成された視界画像と、照準画像生成部23
0からの画像とをミキシングし、ディスプレイ10への
表示処理を行う。これにより、図13(A)、(B)に
示すように照準84を表示することが可能となる。
FIG. 15 shows an example of a block diagram of the three-dimensional simulator device in this case. Unlike FIG. 7 described above, the image combining unit 200 includes the aiming image generating unit 230. The aiming image generating section 230 is for generating an image of the aiming 84. Also, the first input unit 4 is
The steering lever or the like in FIG. 13A corresponds to this, and the second input unit 6 corresponds to the joystick 50 for inputting operation information regarding the line-of-sight direction. A viewpoint changing unit 108 and a line-of-sight changing unit 109 are provided in the virtual three-dimensional space calculation unit 100. The viewpoint changing unit 108 performs a calculation for continuously changing the viewpoint position. Further, the line-of-sight changing unit 109 performs a calculation for continuously changing the line-of-sight direction. Then, the obtained viewpoint information after the change is included in the frame information, and the image supply unit 210
And is input to the aiming image generation unit 230. Based on this viewpoint information, the aiming image generation unit 230 determines at which position on the game screen the aiming target 84 is to be displayed, and outputs the image in which the aiming target 84 is displayed to the image forming unit 228. The image forming unit 228 includes a field-of-view image formed by the image information from the image supply unit 210, and an aiming image generating unit 23.
The image from 0 is mixed, and display processing on the display 10 is performed. As a result, the sight 84 can be displayed as shown in FIGS. 13 (A) and 13 (B).

【0051】6.3−Dダンジョンゲームへの適用 次に、本実施例を3−Dダンジョンゲームに適用した場
合の例について説明する。図16(A)〜(E)には、
プレーヤ86が、3−Dダンジョンの中のいわゆる袋小
路に迷い込んだ場合の例が示される。ここで、実線の矢
印で示す方向87はプレーヤの進行方向を表し、点線の
矢印で示す方向88はプレーヤの視線方向を表す。従来
の3次元シミュレータ装置では、図16(A)、(B)
に示すように、プレーヤ86の視線方向88は常にプレ
ーヤの進行方向87と一致していた。従って、このよう
にプレーヤが袋小路に迷い込んだ場合にプレーヤがこの
袋小路を脱出できる方向を見つけ出すためには、プレー
ヤの進行方向87も変化させなければならなかった。そ
して、このようにプレーヤの進行方向87も変化させる
と、プレーヤは初めの状態(図16(A))において進
んでいた方向がわからなくなってしまい、3−Dダンジ
ョンの攻略を困難なものにしていた。これに対して、本
実施例では、例えば図13(B)のジョイスティック5
2を用いてプレーヤの進行方向87を決めると共に、ジ
ョイスティック53を用いてプレーヤの視線方向88を
も決めることができる。これにより、図13(C)〜
(E)に示すように、プレーヤの進行方向87は変化さ
せずに、プレーヤの視線方向88のみを独立に変化させ
ることができる。この結果、このような袋小路の状況を
認識することが容易となり、操作性の向上や、新たなイ
ベントの創出が可能となる。これは、丁度、ジョイステ
ィック52によりプレーヤの体を動かし、ジョイスティ
ック53によりプレーヤの頭を動かすことに相当し、こ
れにより、この種のゲームに要求される仮想現実感をよ
り高めることが可能となる。なお、この場合に、よりゲ
ームを現実の世界に近いものにするために、視線方向8
8を動かすことができる範囲を、実際の頭を動かすこと
ができる範囲に限定することも可能である。
6.3 Application to 3-D Dungeon Game Next, an example in which the present embodiment is applied to a 3-D dungeon game will be described. 16 (A) to (E),
An example is shown in which the player 86 gets lost in a so-called blind alley in the 3-D dungeon. Here, the direction 87 indicated by the solid line arrow represents the traveling direction of the player, and the direction 88 indicated by the dotted line arrow represents the line of sight of the player. In the conventional three-dimensional simulator device, FIG. 16 (A), (B)
As shown in, the line-of-sight direction 88 of the player 86 always coincided with the traveling direction 87 of the player. Therefore, in order for the player to find a direction in which the player can escape from this dead end when he / she gets lost in the dead end, the traveling direction 87 of the player must also be changed. When the player's moving direction 87 is also changed in this way, the player cannot know the direction in which the player was moving in the initial state (FIG. 16A), making it difficult to capture the 3-D dungeon. It was On the other hand, in the present embodiment, for example, the joystick 5 shown in FIG.
2 can be used to determine the traveling direction 87 of the player, and the joystick 53 can also be used to determine the player's line-of-sight direction 88. As a result, FIG.
As shown in (E), it is possible to independently change only the player's line-of-sight direction 88 without changing the player's traveling direction 87. As a result, it becomes easy to recognize the situation of such a dead end, and it becomes possible to improve operability and create a new event. This is equivalent to moving the player's body with the joystick 52 and moving the player's head with the joystick 53, which makes it possible to further enhance the virtual reality required for this type of game. In this case, in order to make the game closer to the real world, the line-of-sight direction 8
It is also possible to limit the range in which 8 can be moved to the range in which the actual head can be moved.

【0052】さて、図13(C)では、このようなジョ
イスティック52、53の他に、更に視点位置を移動さ
せるためのロータリエンコーダ55(ポテンショメータ
等でも構わない)を設けている。プレーヤは、このロー
タリエンコーダ55を用いることで、プレーヤの視線方
向のみならず、プレーヤの視点位置についても移動させ
ることができる。例えば図17(A)では、壁に設けら
れる松明90の下方に何か文字が書いてあるが、この視
点位置ではプレーヤはこの文字を読むことができない。
本実施例では、このような場合に、ロータリエンコーダ
55を操作して、プレーヤの視点位置を松明90の方向
に近づけることで、図17(B)に示すように松明90
の下方に書かれている文字92を読むことができる。以
上のようにすることで、ゲームの謎解きの面白さ等をよ
り増すことが可能となる。なお、この場合には、図15
のブロック図において、ジョイスティック52が第1の
入力部4に相当し、ジョイスティック53及びロータリ
エンコーダ55が第2の入力部6に相当する。そして、
ジョイスティック53からの操作情報は視線変更部10
9に入力され、これにより視線方向を変更するための演
算が行われる。一方、ロータリエンコーダ55からの操
作情報は視点変更部108に入力され、これにより視点
位置を変更するための演算が行われる。そして、これら
の演算が施された視点位置、視線方向の情報がフレーム
情報として画像合成部200に入力され、これによりこ
れらの視点位置、視線方向情報に基づく視界画像が合成
されることになる。
In addition, in FIG. 13C, in addition to the joysticks 52 and 53, a rotary encoder 55 (a potentiometer or the like may be used) for further moving the viewpoint position is provided. By using the rotary encoder 55, the player can move not only the player's line-of-sight direction but also the player's viewpoint position. For example, in FIG. 17A, some character is written below the torch 90 provided on the wall, but the player cannot read this character at this viewpoint position.
In the present embodiment, in such a case, the rotary encoder 55 is operated to bring the viewpoint position of the player closer to the direction of the torches 90, and as shown in FIG.
You can read the letter 92 written below. By doing the above, it is possible to further increase the fun of solving the mystery of the game. In this case, in FIG.
In the block diagram of, the joystick 52 corresponds to the first input unit 4, and the joystick 53 and the rotary encoder 55 correspond to the second input unit 6. And
The operation information from the joystick 53 is the line-of-sight changing unit 10.
9 is input, and thereby calculation for changing the line-of-sight direction is performed. On the other hand, the operation information from the rotary encoder 55 is input to the viewpoint changing unit 108, and thereby the calculation for changing the viewpoint position is performed. Then, the information on the viewpoint position and the line-of-sight direction that has been subjected to these calculations is input to the image combining unit 200 as frame information, and the view field image based on these viewpoint position and the line-of-sight direction information is combined.

【0053】なお、本発明は上記実施例に限定されるも
のではなく、本発明の要旨の範囲内で種々の変形実施が
可能である。
The present invention is not limited to the above embodiment, but various modifications can be made within the scope of the gist of the present invention.

【0054】例えば、本発明における入力手段として
は、本実施例で説明したロータリエンコーダ、ポテンシ
ョメータ、ジョイスティック以外にも、例えば、トラッ
クボールを用いたもの、単なるボタン操作によるもの
等、種々のものを採用できる。
For example, in addition to the rotary encoder, the potentiometer, and the joystick described in the present embodiment, various input means such as those using a trackball and simple button operation are adopted as the input means in the present invention. it can.

【0055】また、本発明においては、視点位置、視線
方向の両方を変更するようにしてもよいし、どちらか一
方のみを変更するようにしてもよい。
Further, in the present invention, both the viewpoint position and the line-of-sight direction may be changed, or only one of them may be changed.

【0056】また、本発明は、業務用のゲーム機のみな
らず、例えば、家庭用のゲーム装置、フライトシミュレ
ータ、教習所等で使用されるドライビングシミュレータ
等にも適用することができる。特に、本発明の原理は、
家庭用ゲーム装置、パーソナルコンピュータに使用され
るゲームカートリッジ、CD−ROM、フロッピーディ
スクに格納されるゲームプログラムのアルゴリズム等に
も当然に適用できる。更に、多数のプレーヤが参加する
大型アトラクション型のゲーム装置、シミュレーション
装置にも適用できる。
Further, the present invention can be applied not only to a game machine for business use but also to a game machine for home use, a flight simulator, a driving simulator used in a driving school, and the like. In particular, the principle of the invention is
Of course, it can be applied to home game machines, game cartridges used in personal computers, CD-ROMs, game program algorithms stored in floppy disks, and the like. Further, it can be applied to a large attraction type game machine or simulation machine in which a large number of players participate.

【0057】また、本実施例では、レーシングカーゲー
ム、対戦ゲーム、ロールプレイングゲーム等を例にとり
説明したが、本発明はこれに限らず、あらゆる種類のゲ
ームに適用でき、例えば3次元的にマップが形成された
宇宙船ゲーム等にも適用できる。
In the present embodiment, a racing car game, a battle game, a role playing game and the like have been described as examples, but the present invention is not limited to this and can be applied to all kinds of games, for example, three-dimensional map. It can also be applied to a spaceship game in which the is formed.

【0058】また、本発明において仮想3次元空間演算
手段、画像合成手段等において行われる演算処理は、専
用の画像処理デバイスを用いて処理してもよいし、汎用
のマイクロコンピュータ、DSP等を利用してソフトウ
ェア的に処理してもよい。
Further, in the present invention, the calculation processing performed in the virtual three-dimensional space calculating means, the image synthesizing means, etc. may be carried out using a dedicated image processing device, or a general-purpose microcomputer, DSP or the like may be used. It may be processed by software.

【0059】更に、仮想3次元空間演算手段、画像合成
手段等で行われる演算処理も本実施例で説明したものに
限定されるものではない。
Further, the calculation processing performed by the virtual three-dimensional space calculating means, the image synthesizing means, etc. is not limited to that described in this embodiment.

【0060】[0060]

【発明の効果】請求項1又は5の発明によれば、観者
は、所望する視界画像が得られるまで、視点情報を連続
的に変更できる。これにより多種多様な好みを持つ多く
の観者の要求を満足させることができる。また、観者の
誤操作を少なくし、観者の視界画像への集中度を増させ
ることができる。また、視点情報の変更操作も直感的に
分かり易いものとすることができる。
According to the invention of claim 1 or 5, the viewer can continuously change the viewpoint information until the desired view image is obtained. This makes it possible to satisfy the demands of many viewers with various tastes. In addition, it is possible to reduce erroneous operations by the viewer and increase the degree of concentration of the viewer on the visual field image. Further, the change operation of the viewpoint information can be made intuitively easy to understand.

【0061】また、請求項2又は6の発明によれば、観
者又は移動体の移動と、視点位置、視線方向の変更とを
独立に制御することが可能となる。これにより、観者等
の進行方向と視線方向等とを一致させなくてもよくなる
ため、操作のバラエティを増すことができる。また、こ
れにより、観者は、自分の体の動作を第1の入力手段に
より、頭の動作を第2の入力手段により操作することが
可能となり、仮想現実感をより高めることができる。ま
た、視点方向及び視線方向の双方を移動させることで、
例えば迷路内において壁に書かれた文字をのぞき込むと
いうような操作も可能となる。
Further, according to the invention of claim 2 or 6, it is possible to independently control the movement of the viewer or the moving body and the change of the viewpoint position and the line-of-sight direction. As a result, it is not necessary to match the traveling direction of the viewer or the like with the line-of-sight direction, so that the variety of operations can be increased. Further, as a result, the viewer can operate his / her body motion by the first input means and the head motion by the second input means, and can further enhance the virtual reality. Also, by moving both the viewpoint direction and the line-of-sight direction,
For example, an operation such as looking into a character written on a wall in the maze is possible.

【0062】また、請求項3の発明によれば、観者は、
観者又は移動体の進行方向を標的方向に合わせることな
く、標的に対して攻撃を行うことができるため、標的に
対する攻撃を行い易くなり、ゲーム等の面白味を増すこ
とができる。
According to the invention of claim 3, the viewer is
Since it is possible to attack the target without adjusting the traveling direction of the observer or the moving body to the target direction, it becomes easier to attack the target and the interest of the game and the like can be increased.

【0063】また、請求項4の発明によれば、基準とな
る視界画像が合成される位置を観者に対して認識させる
ことができる。これにより、観者は、基準となる視界画
像を合成するための視点情報を容易に選択することがで
き、この視点情報を基準に観者の所望する視点情報の位
置へと変更する操作も可能となる。これにより、操作性
を向上させることができる。
Further, according to the invention of claim 4, it is possible to make the viewer recognize the position where the reference visual field image is combined. As a result, the viewer can easily select the viewpoint information for synthesizing the reference view image, and can also change the viewpoint information to the position of the viewpoint information desired by the viewer. Becomes Thereby, the operability can be improved.

【0064】[0064]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る実施例のブロック図の一例であ
る。
FIG. 1 is an example of a block diagram of an embodiment according to the present invention.

【図2】本3次元シミュレータ装置の外観の一例を示す
図である。
FIG. 2 is a diagram showing an example of an external appearance of the present three-dimensional simulator device.

【図3】本3次元ゲームにおける仮想3次元空間の一例
を示す図である。
FIG. 3 is a diagram showing an example of a virtual three-dimensional space in the present three-dimensional game.

【図4】図4(A)、(B)は、本3次元シミュレータ
装置により画像合成されたゲーム画面の一例を示す図で
ある。
FIGS. 4A and 4B are diagrams showing an example of a game screen image-synthesized by the present three-dimensional simulator device.

【図5】図5(A)、(B)は、本3次元シミュレータ
装置により画像合成されたゲーム画面の一例を示す図で
ある。
5A and 5B are diagrams showing an example of a game screen image-synthesized by the present three-dimensional simulator device.

【図6】視点情報の連続的な変更について説明するため
の図である。
FIG. 6 is a diagram for explaining continuous change of viewpoint information.

【図7】仮想3次元空間演算部、画像合成部のブロック
図の一例である。
FIG. 7 is an example of a block diagram of a virtual three-dimensional space calculation unit and an image combination unit.

【図8】図8(A)、(B)は入力手段の一例であり、
図8(C)、(D)は、これらの入力手段の接続図であ
る。
8A and 8B are examples of input means,
8C and 8D are connection diagrams of these input means.

【図9】図9(A)、(B)は、機械的な引っかかり部
を設けた入力手段の一例である。
9 (A) and 9 (B) are examples of input means provided with a mechanical catching portion.

【図10】表示物情報記憶部に記憶される表示物情報に
ついて説明するための図である。
FIG. 10 is a diagram for explaining display object information stored in a display object information storage unit.

【図11】本実施例における3次元演算処理について説
明するための図である。
FIG. 11 is a diagram for explaining a three-dimensional calculation process in this embodiment.

【図12】図12(A)、(B)は、画像合成部におい
て取り扱われるデータのフォーマットの一例である。
FIG. 12A and FIG. 12B are examples of data formats handled by the image synthesizing unit.

【図13】図13(A)〜(C)は、本実施例で使用さ
れる入力手段の組み合わせ形態について示す図である。
13A to 13C are diagrams showing a combination form of input means used in the present embodiment.

【図14】図14(A)、(B)は、照準を視点情報に
連動させて変更する場合のゲーム画面の一例である。
14 (A) and 14 (B) are examples of the game screen when the aim is changed in association with the viewpoint information.

【図15】本実施例のブロック図の他の一例である。FIG. 15 is another example of the block diagram of the present embodiment.

【図16】図16(A)〜(E)は、3−Dダンジョン
におけるプレーヤの進む向き及び視線方向について説明
するための図である。
16 (A) to 16 (E) are diagrams for explaining a player's moving direction and line-of-sight direction in a 3-D dungeon.

【図17】図17(A)、(B)は、視点位置及び視線
方向を共に独立に変更する場合のゲーム画面の一例であ
る。
17A and 17B are examples of game screens when the viewpoint position and the line-of-sight direction are independently changed.

【図18】図18(A)は、3次元シミュレータ装置の
概念を説明するための概略説明図であり、図18(B)
は、3次元シミュレータ装置により形成される画面の一
例を示す図である。
FIG. 18 (A) is a schematic explanatory diagram for explaining the concept of the three-dimensional simulator device, and FIG.
FIG. 6 is a diagram showing an example of a screen formed by a three-dimensional simulator device.

【符号の説明】 4 第1の入力部 6 第2の入力部 10 ディスプレイ 12 操作部 16 ロータリエンコーダ 32 ポテンショメータ 100 仮想3次元空間演算部 102 処理部 104 仮想3次元空間設定部 106 移動演算部 107 視点情報変更部 108 視点変更部 109 視線変更部 108 表示物情報記憶部 110 マップ設定部 200 画像合成部 210 画像供給部 212 オブジェクト画像情報記憶部 228 画像形成部 230 照準画像生成部[Description of Reference Signs] 4 first input unit 6 second input unit 10 display 12 operation unit 16 rotary encoder 32 potentiometer 100 virtual three-dimensional space calculation unit 102 processing unit 104 virtual three-dimensional space setting unit 106 movement calculation unit 107 viewpoints Information changing unit 108 Viewpoint changing unit 109 Line-of-sight changing unit 108 Displayed object information storage unit 110 Map setting unit 200 Image combining unit 210 Image supply unit 212 Object image information storage unit 228 Image forming unit 230 Aiming image generating unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 17/40 15/00 H04N 5/262 7/18 P V ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 17/40 15/00 H04N 5/262 7/18 PV

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 操作手段と、該操作手段から入力される
操作情報に基づいて仮想3次元空間を形成する演算を行
う仮想3次元空間演算手段と、形成された前記仮想3次
元空間内において見える視界画像の合成を行う画像合成
手段とを含む3次元シミュレータ装置であって、 前記操作手段には視点情報を連続的に変更するための操
作情報を入力する手段が含まれ、 前記仮想3次元空間演算手段が、前記入力手段から入力
される前記操作情報に基づいて、あらかじめ定められた
軌道上で視点情報を連続的に変更する演算を行い、前記
画像合成手段が、変更演算が施された前記視点情報に基
づいて視界画像の合成を行うことを特徴とする3次元シ
ミュレータ装置。
1. An operation means, a virtual three-dimensional space operation means for performing an operation to form a virtual three-dimensional space based on operation information input from the operation means, and a virtual three-dimensional space formed in the formed virtual three-dimensional space. A three-dimensional simulator device including an image synthesizing unit for synthesizing a view image, wherein the operating unit includes a unit for inputting operation information for continuously changing viewpoint information, and the virtual three-dimensional space. The calculation means performs a calculation for continuously changing the viewpoint information on a predetermined trajectory based on the operation information input from the input means, and the image synthesizing means performs the change calculation. A three-dimensional simulator device characterized by synthesizing a field-of-view image based on viewpoint information.
【請求項2】 操作手段と、該操作手段から入力される
操作情報に基づいて仮想3次元空間を形成する演算を行
う仮想3次元空間演算手段と、形成された前記仮想3次
元空間内において見える視界画像の合成を行う画像合成
手段とを含む3次元シミュレータ装置であって、 前記操作手段には、観者又は観者が搭乗する移動体の位
置及び方向の少なくとも1つを連続的に変更するための
操作情報を入力する第1の入力手段が含まれると共に、
視点位置及び視線方向の少なくとも1つを連続的に変更
するための操作情報を入力する第2の入力手段が含ま
れ、 前記仮想3次元空間演算手段が、前記第1の入力手段か
ら入力される前記操作情報に基づいて、観者又は移動体
の仮想3次元空間内における位置及び方向の少なくとも
1つを指定する第1の指定情報を求めると共に、前記第
2の入力手段から入力される前記操作情報に基づいて、
視点位置及び視線方向の少なくとも1つを指定する第2
の指定情報を求め、前記画像合成手段が、観者又は移動
体が前記第1の指定情報により指定される位置、方向に
ある場合に、前記第2の指定情報により指定される視点
位置、視線方向において見える視界画像の合成を行うこ
とを特徴とする3次元シミュレータ装置。
2. An operating means, a virtual three-dimensional space calculating means for performing an operation to form a virtual three-dimensional space based on operation information input from the operating means, and a virtual three-dimensional space formed in the formed virtual three-dimensional space. A three-dimensional simulator device including image synthesizing means for synthesizing visual field images, wherein the operating means continuously changes at least one of a position and a direction of a viewer or a moving body on which the viewer rides. Includes first input means for inputting operation information for
Second input means for inputting operation information for continuously changing at least one of the viewpoint position and the line-of-sight direction is included, and the virtual three-dimensional space calculation means is input from the first input means. Based on the operation information, the first input information for specifying at least one of the position and the direction of the viewer or the moving body in the virtual three-dimensional space is obtained, and the operation input from the second input unit. Based on the information
Second for designating at least one of the viewpoint position and the line-of-sight direction
Is obtained, and when the viewer or the moving object is at the position and direction specified by the first specification information, the image combining means specifies the viewpoint position and the line of sight specified by the second specification information. A three-dimensional simulator device characterized by synthesizing a field-of-view image visible in a direction.
【請求項3】 請求項2において、 前記視点位置、視線方向の少なくとも1つの変更に連動
して標的への照準の位置及び方向の少なくとも1つを変
更する手段を含むことを特徴とする3次元シミュレータ
装置。
3. The three-dimensional structure according to claim 2, further comprising means for changing at least one of a position and a direction of aiming at a target in association with a change in at least one of the viewpoint position and the line-of-sight direction. Simulator device.
【請求項4】 請求項1乃至3のいずれかにおいて、 前記入力手段により前記操作情報を入力する際に、基準
となる視界画像が合成される位置を観者に認識させる手
段を含むことを特徴とする3次元シミュレータ装置。
4. The device according to claim 1, further comprising a unit for causing a viewer to recognize a position where a reference visual field image is combined, when the operation information is input by the input unit. 3D simulator device.
【請求項5】 操作手段から入力される操作情報に基づ
いて仮想3次元空間内において見える視界画像の合成を
行う画像合成方法であって、 前記操作手段に含まれる入力手段により視点情報を連続
的に変更するための操作情報を入力し、前記入力手段か
ら入力される前記操作情報に基づいて、あらかじめ定め
られた軌道上で視点情報を連続的に変更する演算を行
い、変更演算が施された前記視点情報に基づいて視界画
像の合成を行うことを特徴とする画像合成方法。
5. An image synthesizing method for synthesizing a field-of-view image visible in a virtual three-dimensional space based on operation information input from the operating means, wherein the viewpoint information is continuously provided by the input means included in the operating means. The operation information for changing to is input, based on the operation information input from the input means, a calculation for continuously changing the viewpoint information on a predetermined orbit is performed, and the change calculation is performed. An image synthesizing method comprising synthesizing a visual field image based on the viewpoint information.
【請求項6】 操作手段から入力される操作情報に基づ
いて仮想3次元空間内において見える視界画像の合成を
行う画像合成方法であって、 前記操作手段に含まれる第1の入力手段により、観者又
は観者が搭乗する移動体の位置及び方向の少なくとも1
つを連続的に変更するための操作情報を入力し、前記操
作手段に含まれる第2の入力手段により、視点位置及び
視線方向の少なくとも1つを連続的に変更するための操
作情報を入力し、前記第1の入力手段から入力される前
記操作情報に基づいて、観者又は移動体の仮想3次元空
間内における位置及び方向の少なくとも1つを指定する
第1の指定情報を求めると共に、前記第2の入力手段か
ら入力される前記操作情報に基づいて、視点位置及び視
線方向の少なくとも1つを指定する第2の指定情報を求
め、観者又は移動体が前記第1の指定情報により指定さ
れる位置、方向にある場合に、前記第2の指定情報によ
り指定される視点位置、視線方向において見える視界画
像の合成を行うことを特徴とする画像合成方法。
6. An image synthesizing method for synthesizing a field-of-view image visible in a virtual three-dimensional space based on operation information input from the operating means, wherein the first input means included in the operating means At least one of the position and direction of a moving body on which an observer or a viewer boards
Operation information for continuously changing one of the viewpoint positions and the line-of-sight direction by the second input means included in the operation means. The first specifying information for specifying at least one of the position and the direction of the viewer or the moving body in the virtual three-dimensional space based on the operation information input from the first input means, Based on the operation information input from the second input means, second designation information for designating at least one of the viewpoint position and the line-of-sight direction is obtained, and the viewer or the moving body designates the first designation information. The image synthesizing method is characterized by synthesizing a visual field image that is visible in the viewpoint position and the line-of-sight direction specified by the second specifying information when the position and the direction are set.
JP28416094A 1994-10-24 1994-10-24 3D simulator apparatus and image composition method Expired - Fee Related JP3447397B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28416094A JP3447397B2 (en) 1994-10-24 1994-10-24 3D simulator apparatus and image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28416094A JP3447397B2 (en) 1994-10-24 1994-10-24 3D simulator apparatus and image composition method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003080489A Division JP3642779B2 (en) 2003-03-24 2003-03-24 3D simulator apparatus and image composition method

Publications (2)

Publication Number Publication Date
JPH08117440A true JPH08117440A (en) 1996-05-14
JP3447397B2 JP3447397B2 (en) 2003-09-16

Family

ID=17674964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28416094A Expired - Fee Related JP3447397B2 (en) 1994-10-24 1994-10-24 3D simulator apparatus and image composition method

Country Status (1)

Country Link
JP (1) JP3447397B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997046970A1 (en) * 1996-06-05 1997-12-11 Sega Enterprises, Ltd. Image processor, image processing method, game machine and recording medium
WO1998039738A1 (en) * 1997-03-03 1998-09-11 Sega Enterprises, Ltd. Image processor, image processing method, medium and game machine
US6417856B1 (en) 1998-06-11 2002-07-09 Namco Ltd. Image generation device and information storage medium
US6714861B2 (en) 1996-11-07 2004-03-30 Xanavi Informatics Corporation Map displaying method and apparatus, and navigation system having the map displaying apparatus
US6852032B2 (en) 2000-12-06 2005-02-08 Nikon Corporation Game machine, method of performing game and computer-readable medium
WO2008123398A1 (en) * 2007-03-30 2008-10-16 Sega Corporation Moving object control device
US7513824B2 (en) 1998-11-24 2009-04-07 Kabushiki Kaisha Sega Enterprises Game device with moving objects competing for a game score
JP2011258150A (en) * 2010-06-11 2011-12-22 Namco Bandai Games Inc Program, information storage medium and image generation system
WO2016042862A1 (en) * 2014-09-19 2016-03-24 ソニー株式会社 Control device, control method, and program

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7573479B2 (en) 1996-06-05 2009-08-11 Kabushiki Kaisha Sega Graphics processing device, graphics processing method, game machine, and storage medium
EP0844587A4 (en) * 1996-06-05 2002-04-03 Sega Enterprises Kk Image processor, image processing method, game machine and recording medium
KR100592456B1 (en) * 1996-06-05 2006-08-30 가부시키가이샤 세가 Image processor and recording medium
US6500069B1 (en) 1996-06-05 2002-12-31 Kabushiki Kaisha Sega Enterprises Image processor, image processing method, game machine and recording medium
WO1997046970A1 (en) * 1996-06-05 1997-12-11 Sega Enterprises, Ltd. Image processor, image processing method, game machine and recording medium
US6714861B2 (en) 1996-11-07 2004-03-30 Xanavi Informatics Corporation Map displaying method and apparatus, and navigation system having the map displaying apparatus
US6509896B1 (en) 1997-03-03 2003-01-21 Kabushiki Kaisha Sega Enterprises Image processor, image processing method, medium and game machine
WO1998039738A1 (en) * 1997-03-03 1998-09-11 Sega Enterprises, Ltd. Image processor, image processing method, medium and game machine
US7057613B2 (en) * 1997-03-03 2006-06-06 Kabushiki Kaisha Sega Enterprises Image processing unit, image processing method and medium, and game machine
KR100586760B1 (en) * 1997-03-03 2006-08-30 가부시키가이샤 세가 Image processor, image processing method, medium, medium and game machine
US7413514B2 (en) 1997-03-03 2008-08-19 Kabushiki Kaisha Sega Enterprises Video game machine with rotational mechanism
US6417856B1 (en) 1998-06-11 2002-07-09 Namco Ltd. Image generation device and information storage medium
US7513824B2 (en) 1998-11-24 2009-04-07 Kabushiki Kaisha Sega Enterprises Game device with moving objects competing for a game score
US7585215B1 (en) 1998-11-24 2009-09-08 Kabushiki Kaisha Sega Game device
US6852032B2 (en) 2000-12-06 2005-02-08 Nikon Corporation Game machine, method of performing game and computer-readable medium
WO2008123398A1 (en) * 2007-03-30 2008-10-16 Sega Corporation Moving object control device
JP2011258150A (en) * 2010-06-11 2011-12-22 Namco Bandai Games Inc Program, information storage medium and image generation system
US9345972B2 (en) 2010-06-11 2016-05-24 Bandai Namco Entertainment Inc. Information storage medium, image generation system, and image generation method
WO2016042862A1 (en) * 2014-09-19 2016-03-24 ソニー株式会社 Control device, control method, and program
JPWO2016042862A1 (en) * 2014-09-19 2017-07-06 ソニー株式会社 Control device, control method and program
US10579109B2 (en) 2014-09-19 2020-03-03 Sony Corporation Control device and control method

Also Published As

Publication number Publication date
JP3447397B2 (en) 2003-09-16

Similar Documents

Publication Publication Date Title
EP0802508B1 (en) Input device for image formation method and its apparatus
JP5507893B2 (en) Program, information storage medium, and image generation system
JP2799126B2 (en) Video game device and game input device
US20060135237A1 (en) Program for controlling the movement of group of characters, recorded medium, and game device thereof
US20060246974A1 (en) Program for controlling the movement of group of characters, recorded medium, and game device thereof
JP2004334850A (en) Method and device for dynamically controlling parameters of camera based on status of game playing
JPH06176131A (en) Picture synthesis device and virtual reality device using the same
JP2018110659A (en) Information processing program, information processing method, information processing system, and information processor
JPH08320949A (en) Picture processor and game device using the processor
JP2000262738A (en) Game device and information storing medium
JPH0969169A (en) Picture processing method, pictore processor and virtual reality device
JP3447397B2 (en) 3D simulator apparatus and image composition method
EP3796988B1 (en) Virtual camera placement system
JP3685829B2 (en) 3D game device and image composition method
JP3642779B2 (en) 3D simulator apparatus and image composition method
JP3686078B2 (en) GAME DEVICE AND GAME IMAGE SYNTHESIS METHOD
US5603507A (en) Method of input selection in an electronic game system
JP3836121B2 (en) Home game device and game image composition method for home game device
JPH08196745A (en) Three-dimensional game apparatus and hit checking method
JP3482017B2 (en) 3D game device and 3D game image generation method
JP3771248B2 (en) Home game device and game image composition method for home game device
JP2990190B2 (en) Three-dimensional simulator device and image synthesizing method
JP4067584B2 (en) 3D game device
JP2007181713A (en) Game machine and information storage medium
JP3254091B2 (en) Three-dimensional simulator device and image synthesizing method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030624

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080704

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080704

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090704

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090704

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090704

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100704

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100704

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees