JP2001273524A - Entertainment device, storage medium, and object display method - Google Patents

Entertainment device, storage medium, and object display method

Info

Publication number
JP2001273524A
JP2001273524A JP2001012277A JP2001012277A JP2001273524A JP 2001273524 A JP2001273524 A JP 2001273524A JP 2001012277 A JP2001012277 A JP 2001012277A JP 2001012277 A JP2001012277 A JP 2001012277A JP 2001273524 A JP2001273524 A JP 2001273524A
Authority
JP
Japan
Prior art keywords
camera
virtual camera
virtual
calculated
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001012277A
Other languages
Japanese (ja)
Other versions
JP3583994B2 (en
Inventor
Izumi Fukuda
泉 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2001012277A priority Critical patent/JP3583994B2/en
Publication of JP2001273524A publication Critical patent/JP2001273524A/en
Application granted granted Critical
Publication of JP3583994B2 publication Critical patent/JP3583994B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To make more graspable the behavior of an object in a virtual three- dimensional world from a moving picture displayed on a display screen of a display device when displaying the moving picture obtained by photographing the object moving in the three-dimensional world with a virtual camera. SOLUTION: A camera installation point 606 as the installation position of a virtual camera 609 is so set that it may be approximated to a camera tracking point 604 which is set behind a position 602 of an object 601 on a line which passes the position 602 at least from the just preceding calculated camera installation point 606 and is parallel with the moving direction of the object 601.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、操作装置を介して
受け付けた利用者の操作内容にしたがい仮想的な3次元
世界中を移動するオブジェクトを、仮想的なカメラで撮
影することで得られる動画像を作成し、表示装置の表示
画面上に表示する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image obtained by photographing a virtual three-dimensional object moving around the world with a virtual camera in accordance with a user's operation received via an operation device. The present invention relates to a technique for creating an image and displaying the image on a display screen of a display device.

【0002】[0002]

【従来の技術】近年、3次元グラフィックアニメーショ
ンを利用して、フライトシミュレーションやドライブシ
ミュレーションなどを行うことが可能な、テレビゲーム
機などのエンタテインメント装置が普及している。
2. Description of the Related Art In recent years, entertainment devices, such as video game machines, capable of performing flight simulation, drive simulation, and the like using three-dimensional graphic animation, have become widespread.

【0003】この種のエンタテインメント装置では、操
作者は、当該装置に接続された操作装置を使用して、飛
行機、自動車などを表すオブジェクトを操作し、仮想的
な3次元世界中を移動させることができる。当該エンタ
テインメント装置は、この3次元世界中を移動するオブ
ジェクトを仮想的なカメラで撮影することで得られる動
画像を生成し、当該装置に接続された表示装置の表示画
面に表示する。
[0003] In this type of entertainment apparatus, an operator can operate an object representing an airplane, a car, or the like using an operation apparatus connected to the apparatus and move the object around a virtual three-dimensional world. it can. The entertainment device generates a moving image obtained by photographing the object moving in the three-dimensional world with a virtual camera, and displays the moving image on a display screen of a display device connected to the device.

【0004】ところで、従来のフライトシミュレーショ
ンやドライブシミュレーションなどを行うことが可能な
エンタテイメント装置では、仮想的なカメラをオブジェ
クトとの相対的な位置関係で一義的(固定的)に定まる
位置に設定している。
Meanwhile, in a conventional entertainment apparatus capable of performing a flight simulation, a drive simulation, or the like, a virtual camera is set at a position uniquely determined (fixed) based on a relative positional relationship with an object. I have.

【0005】図15は、従来のこの種のエンタテイメン
ト装置におけるオブジェクト(飛行機を表すオブジェク
ト)901と仮想的なカメラ902との位置関係を説明するた
めの図である。ここで、図15(a)は、3次元世界中
に配置されたオブジェクト901と仮想的なカメラ902を、
真上(Z軸の無限遠方)から見下ろした様子を示してお
り、図15(b)は、3次元世界中に配置されたオブジ
ェクト901と仮想的なカメラ902を、真横(X軸の無限遠
方)から見た様子を示している。なお、これらの図では
3次元世界中に配置された地図構成要素の図示を省略し
ている。
FIG. 15 is a diagram for explaining the positional relationship between an object (object representing an airplane) 901 and a virtual camera 902 in a conventional entertainment apparatus of this type. Here, FIG. 15A shows an object 901 and a virtual camera 902 arranged in a three-dimensional world.
FIG. 15B shows a state in which the object 901 and the virtual camera 902 arranged in the three-dimensional world are viewed from right above (infinity on the X axis). ). In these drawings, illustration of map components arranged in the three-dimensional world is omitted.

【0006】図示するように、従来のフライトシミュレ
ーションやドライブシミュレーションなどを行うことが
可能なエンタテイメント装置では、たとえば、オブジェ
クト901を通過する、当該オブジェクト901の移動方向に
沿った線903において、オブジェクト901から所定距離L
だけ後方の位置より所定距離Hだけ上方の位置(カメラ
設置点A)や、オブジェクト901の位置(カメラ設置点
B)に、仮想的なカメラ902を設置し、当該カメラ902
が、当該オブジェクト901より前方の線903上の任意の点
を向くように、当該カメラの視線方向を設定している。
As shown in the figure, in an entertainment device capable of performing a conventional flight simulation or drive simulation, for example, a line 903 that passes through the object 901 and moves along the moving direction of the object 901 from the object 901 Predetermined distance L
A virtual camera 902 is installed at a position (camera installation point A) that is a predetermined distance H higher than the rear position (camera installation point A) or at the position of the object 901 (camera installation point B).
However, the gaze direction of the camera is set so as to point to an arbitrary point on the line 903 in front of the object 901.

【0007】図16は、図15に示すようにして配置さ
れた仮想的なカメラ902からオブジェクト901を撮影した
場合に得られる映像を示した図である。ここで、図16
(a)は、図15において仮想的なカメラ902をカメラ
設置点Aに設定した場合に、当該カメラ902により得ら
れる映像の一例を示しており、図16(b)は、図15
において仮想的なカメラ902をカメラ設置点Bに設定し
た場合に、当該カメラ902により得られる映像の一例を
示している。
FIG. 16 is a diagram showing an image obtained when the object 901 is photographed from the virtual camera 902 arranged as shown in FIG. Here, FIG.
FIG. 16A shows an example of an image obtained by the camera 902 when the virtual camera 902 is set at the camera installation point A in FIG. 15, and FIG.
5 shows an example of an image obtained by the camera 902 when the virtual camera 902 is set at the camera installation point B.

【0008】[0008]

【発明が解決しようとする課題】さて、上述したよう
に、従来のフライトシミュレーションやドライブシミュ
レーションなどを行うことが可能なエンタテイメント装
置では、仮想的なカメラをオブジェクトとの相対的な位
置関係で一義的(固定的)に定まる位置に設定している
ため、以下のような問題が生ずる。
As described above, in an entertainment apparatus capable of performing a conventional flight simulation, drive simulation, or the like, a virtual camera is uniquely defined by a relative positional relationship with an object. Since the position is set to (fixed), the following problem occurs.

【0009】すなわち、オブジェクトの飛行/走行状態
(直進か旋回かなど)に関わらず、当該オブジェクトの
表示画面上の表示位置や姿勢が常に同じとなり、当該状
態は、当該オブジェクト周辺に表示される地形の移動と
して現れることになる。このため、操作装置を介して受
け付けた操作者の操作内容を、表示画面上のオブジェク
トの表示位置や姿勢に反映させることができず、オブジ
ェクトを操作する楽しみを十分に享受することができな
い。
That is, irrespective of the flying / running state of the object (such as whether it is going straight or turning), the display position and posture of the object on the display screen are always the same, and the state is the topography displayed around the object. Will appear as movement. For this reason, the operation content of the operator received via the operation device cannot be reflected on the display position and the posture of the object on the display screen, and the pleasure of operating the object cannot be sufficiently enjoyed.

【0010】そこで、本発明は、仮想的な3次元世界中
を移動するオブジェクトを仮想的なカメラで撮影するこ
とで得られる動画像を、表示装置の表示画面上に表示す
るエンタテインメント装置において、表示装置の表示画
面に表示された動画像から、3次元世界中におけるオブ
ジェクトの振る舞いをより把握できるようにすることを
課題とする。
Therefore, the present invention provides an entertainment apparatus for displaying a moving image obtained by photographing a virtual three-dimensional object moving around the world with a virtual camera on a display screen of a display device. An object of the present invention is to make it possible to better understand the behavior of an object in a three-dimensional world from a moving image displayed on a display screen of a device.

【0011】また、フライトシミュレーションやドライ
ブシミュレーションなどの、操作者が操作装置を用いて
仮想的な3次元世界中を移動するオブジェクトを操作す
ることのできるエンタテイメント装置において、オブジ
ェクトを操作する楽しみを十分に享受できるようにする
ことを課題とする。具体的には、操作者が行ったオブジ
ェクトへの操作内容が表示画面上のオブジェクトに反映
されるようにする。
Further, in an entertainment apparatus such as a flight simulation or a drive simulation in which an operator can operate a virtual three-dimensional object that moves around the world using an operation device, the pleasure of operating the object can be sufficiently obtained. The task is to be enjoyed. Specifically, the content of the operation performed on the object by the operator is reflected on the object on the display screen.

【0012】[0012]

【課題を解決するための手段】前記課題達成のために、
本発明では、仮想的な3次元世界中を移動するオブジェ
クト(たとえば飛行機や自動車を表すオブジェクト)を
仮想的なカメラで撮影することで得られる動画像を作成
し、表示装置の表示画面上に表示するエンタテインメン
ト装置において、前記オブジェクトの前記3次元世界中
における位置および移動方向を逐次計算し、当該オブジ
ェクトの位置および移動方向が算出される毎に、前記3
次元世界中における前記仮想的なカメラの設置位置を、
少なくとも1つ前に算出した当該仮想的なカメラの設置
位置を考慮して決定する。
In order to achieve the above object,
In the present invention, a moving image obtained by photographing a virtual three-dimensional object (for example, an object representing an airplane or a car) moving around the world with a virtual camera is created and displayed on a display screen of a display device. In the entertainment device, the position and the moving direction of the object in the three-dimensional world are sequentially calculated, and each time the position and the moving direction of the object are calculated,
The installation position of the virtual camera around the world
The determination is made in consideration of the installation position of the virtual camera calculated at least one time before.

【0013】たとえば、新たに算出したオブジェクトの
位置を通り、新たに算出したオブジェクトの移動方向に
平行な線上の、当該オブジェクトの位置から距離Kだけ
後方の位置より所定値Hだけ上方の位置に、カメラ追跡
点を設定し、少なくとも1つ前に算出した仮想的なカメ
ラの設置位置から当該カメラ追跡点へ近づく位置(たと
えば、カメラ追跡点および少なくとも1つ前に算出した
仮想的なカメラの設置位置間の距離Lを、所定値Mで割
ることで得られる距離L/Mだけ、前記少なくとも1つ
前に算出した仮想的なカメラの設置位置から前記カメラ
追跡点に近づく位置)に、当該仮想的なカメラの設置位
置を設定する。
For example, on a line passing through the position of the newly calculated object and parallel to the moving direction of the newly calculated object, at a position that is a predetermined value H higher than a position behind the position of the object by a distance K, A camera tracking point is set, and a position approaching the camera tracking point from the virtual camera installation position calculated at least one time earlier (for example, the camera tracking point and the virtual camera installation position calculated at least one time earlier) The distance L / M obtained by dividing the distance L between the virtual camera and the virtual camera at a position closer to the camera tracking point from the virtual camera installation position calculated at least one time earlier by the distance L / M. Set the camera installation position.

【0014】このようにすれば、仮想的なカメラの配置
位置に、過去の仮想的なカメラの配置位置が考慮される
ため、仮想的なカメラは、オブジェクトの動きに対し、
少し遅れてオブジェクトの後ろを追従するように振舞
う。このため、オブジェクトの仮想的な3次元世界中に
おける振る舞いを、表示画面を通して把握することが容
易となる。したがって、操作者が、本発明のエンタテイ
ンメント装置に接続された操作装置を用いて前記オブジ
ェクトを操作した場合、操作者は、自身が操作したオブ
ジェクトの仮想的な3次元世界中における振る舞いを、
表示画面を通して把握することが容易となる。また、臨
場感が増し、娯楽性が向上する。
[0014] According to this configuration, since the past positions of the virtual cameras are considered in the positions of the virtual cameras, the virtual cameras are not affected by the movement of the object.
Behaves to follow the object with a slight delay. For this reason, it is easy to grasp the behavior of the object in the virtual three-dimensional world through the display screen. Therefore, when the operator operates the object using an operation device connected to the entertainment device of the present invention, the operator performs a virtual three-dimensional behavior of the object operated by the user,
It is easy to grasp through the display screen. In addition, the sense of presence is increased, and entertainment is improved.

【0015】なお、上記の例において、距離Kは、オブ
ジェクトの移動速度が大きくなるほど短くなるように設
定してもよい。このようにすれば、より臨場感が増し、
娯楽性が向上する。ただし、この場合、オブジェクトの
移動速度が大きくなるほどカメラ追跡点が当該オブジェ
クトに近づくけれども、カメラ設置点は、オブジェクト
の移動速度が大きくなるほど、当該オブジェクトから遠
ざかるように、つまり、オブジェクトの移動方向に対し
てより後方へ移動するように、距離Kを設定することが
好ましい。
In the above example, the distance K may be set so as to decrease as the moving speed of the object increases. In this way, the sense of presence increases,
The entertainment is improved. However, in this case, the camera tracking point approaches the object as the moving speed of the object increases, but the camera installation point moves away from the object as the moving speed of the object increases, that is, in the moving direction of the object. It is preferable to set the distance K so as to move more rearward.

【0016】現実の世界において、自動車を運転したり
飛行機を操縦する場合、移動速度を上げれば、通常、よ
り広い範囲で遠方まで、周囲に注意を払う必要が生ず
る。上記のようにすることで、これと同様、操作者が、
操作装置を用いて前記オブジェクトの移動速度を上げた
場合、移動速度の増加分に応じて、前記仮想的なカメラ
に収められる(つまり表示装置の表示画面に表示され
る)オブジェクト周囲の映像が広くなる。したがって、
オブジェクトの移動速度を上げたときの操作性を改善で
きる。
In the real world, when driving a car or flying an airplane, increasing the traveling speed usually requires attention to the surroundings over a wider range and farther away. By doing the above, the operator, like this,
When the moving speed of the object is increased by using the operation device, the image around the object that is stored in the virtual camera (that is, displayed on the display screen of the display device) is widened according to the increase in the moving speed. Become. Therefore,
Operability when the moving speed of the object is increased can be improved.

【0017】また、本発明において、新たに算出したオ
ブジェクトの位置を通り、新たに算出したオブジェクト
の移動方向に平行な線上の、当該オブジェクトの位置か
ら距離Jだけ前方の位置に、カメラ参照点を設定し、仮
想的なカメラが、当該カメラ参照点を向くように視線方
向を設定してもよい。そして、距離Jを、3次元世界中
におけるオブジェクトの移動速度が大きくなるほど長く
なるように設定してもよい。
In the present invention, a camera reference point is located on a line passing through the position of the newly calculated object and parallel to the direction of movement of the newly calculated object and at a position forward by a distance J from the position of the object. The viewing direction may be set so that the virtual camera faces the camera reference point. The distance J may be set to be longer as the moving speed of the object in the three-dimensional world increases.

【0018】このようにすれば、操作装置を用いてオブ
ジェクトの移動速度を上げた場合、移動速度の増加分に
応じて、前記仮想的なカメラに収められる(つまり表示
装置の表示画面に表示される)オブジェクト周囲の映像
がより遠方にまで広がる。したがって、オブジェクトの
移動速度を上げたときの操作性を改善できる。
With this arrangement, when the moving speed of the object is increased by using the operating device, the object is stored in the virtual camera according to the increase in the moving speed (that is, the object is displayed on the display screen of the display device). The image around the object spreads farther. Therefore, operability when the moving speed of the object is increased can be improved.

【0019】さらにまた、本発明において、オブジェク
トの移動方向を軸とした回動に応じて、仮想的なカメラ
を視線方向を軸として回動させるようにしてもよい。こ
のようにすれば、より臨場感が増し、娯楽性が向上す
る。
Further, in the present invention, the virtual camera may be rotated about the line of sight in accordance with the rotation about the moving direction of the object. By doing so, the sense of presence is further increased, and the entertainment is improved.

【0020】[0020]

【発明の実施の形態】以下、本発明の一実施形態につい
て説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below.

【0021】まず、本発明の一実施形態に係るエンタテ
インメント装置のハードウエア構成について説明する。
First, a hardware configuration of an entertainment apparatus according to an embodiment of the present invention will be described.

【0022】図1に本発明の一実施形態に係るエンタテ
インメント装置の外観を示す。
FIG. 1 shows an appearance of an entertainment apparatus according to an embodiment of the present invention.

【0023】このエンタテインメント装置は、たとえ
ば、CD-ROMやDVD-ROMの光ディスク等に記憶されている
ゲームプログラムを読み出して、操作者(プレイヤ)か
らの指示に応じて実行するものである。なお、ゲームの
実行とは、主として、プレイヤからの指示に応じて、こ
のエンタテインメント装置に接続された表示装置(テレ
ビなど)の表示画面上に表示されている操作対象オブジ
ェクト(たとえば、飛行機や自動車などを表すオブジェ
クト)を動かし、これに伴い動画像の表示や音声を制御
して、ゲームを進行することをいう。
This entertainment apparatus reads a game program stored on an optical disk such as a CD-ROM or a DVD-ROM, and executes the program in response to an instruction from an operator (player). The execution of the game mainly refers to an operation target object (for example, an airplane or a car) displayed on a display screen of a display device (such as a television) connected to the entertainment device in response to an instruction from a player. Moving the object, and controlling the display and sound of the moving image in accordance with the movement of the moving object, thereby proceeding with the game.

【0024】図示するように、エンタテインメント装置
1の本体2は、その中央部にテレビゲーム等のアプリケー
ションプログラムやマルチメディアデータを供給するた
めの記録媒体であるCD-ROMやDVD-ROM等の光ティスクが
装着されるディスク装着部3と、ゲームをリセットする
ためのリセットスイッチ4と、電源スイッチ5と、光ディ
スクの装着を操作するためのディスク操作スイッチ6
と、たとえば2つのスロット部7A、7Bと、を備えてい
る。
As shown, an entertainment device
A main body 2 of 1 has a disk mounting section 3 in the center of which an optical disk such as a CD-ROM or DVD-ROM as a recording medium for supplying an application program such as a video game or multimedia data is mounted, A reset switch 4 for resetting the game, a power switch 5, and a disk operation switch 6 for operating mounting of an optical disk.
And, for example, two slot portions 7A and 7B.

【0025】スロット部7A、7Bには、2つの操作装置20
を接続することができ、2人のプレイヤが対戦ゲームや
競争ゲームなどを行うことができる。また、このスロッ
ト部7A、7Bには、ゲームデータをセーブ(記憶)した
り、読み出すことができるメモリカード装置26や、本体
2と切り離してゲームを実行できる携帯用電子機器100を
装着することができる。
Two operating devices 20 are provided in the slots 7A and 7B.
And two players can play a competitive game, a competitive game, and the like. The slot units 7A and 7B include a memory card device 26 capable of saving (storing) and reading game data, and a main body.
The portable electronic device 100 capable of executing a game separately from the portable electronic device 100 can be mounted.

【0026】操作装置20は、第1、第2の操作部21、22
と、Lボタン23Lと、Rボタン23Rと、スタートボタン24
と、選択ボタン25を有し、さらに、アナログ操作が可能
なアナログ操作部31、32と、これら操作部31、32の操作
モードを選択するモード選択スイッチ33と、選択された
操作モードを表示するための表示部34を有している。
The operating device 20 includes first and second operating units 21 and 22.
, L button 23L, R button 23R, start button 24
, An analog operation unit 31, 32 having an operation button for selecting an operation mode of the operation unit 31, 32, and displaying the selected operation mode. Display unit 34 for display.

【0027】アナログ操作部31、32は、図2に示すよう
に、所定の支点aを通る所定の軸bに対し、支点aを中
心にして傾倒可能に且つ傾倒した状態で回転可能に構成
された操作軸31a、32aを有する。操作装置20は、操作軸
31a、32aの軸bに対する傾きとその傾き方向を検知し、
これらから定まるX−Y座標上の座標値に応じた信号を
出力する。この座標値は、図3に示すように、Y(垂
直)方向の値は操作軸31a、32aの上下方向の傾きに応じ
て「0」〜「255」の256段階の値で表現され、X
(水平)方向の値は、操作軸31a、32aの左右方向の傾き
に応じて「0」〜「255」の256段階の値で表現さ
れる。
As shown in FIG. 2, the analog operation sections 31 and 32 are configured to be tiltable about a fulcrum a and to be rotatable in a tilted state with respect to a predetermined axis b passing through a predetermined fulcrum a. Operating shafts 31a and 32a. The operation device 20 includes an operation axis
Detect the inclination of 31a, 32a with respect to axis b and the direction of the inclination,
A signal corresponding to the coordinate value on the XY coordinate determined from these is output. As shown in FIG. 3, the coordinate values in the Y (vertical) direction are represented by 256 levels of "0" to "255" in accordance with the vertical inclination of the operation axes 31a and 32a.
The value in the (horizontal) direction is represented by 256 levels of "0" to "255" according to the inclination of the operation axes 31a and 32a in the left-right direction.

【0028】次に、図4に、エンタテインメント装置1
の構成を示す。
Next, FIG. 4 shows an entertainment device 1
Is shown.

【0029】図示するように、このエンタテインメント
装置1は、中央処理装置(CPU:CentRal Processing Uni
t)51およびその周辺装置等からなる制御系50と、フレ
ームバッファ63に描画を行なう画像処理装置(GPU:Grap
hic Processing Unit)62等からなるグラフィックシス
テム60と、楽音・効果音等のオーディオ信号を生成する
音声処理装置(SPU:Soud Processing Unit)71等からな
るサウンドシステム70と、アプリケーションプログラム
やマルチメディアデータが記録されている光ディスクの
制御を行なう光ディスク制御部80と、プレイヤからの指
示が入カされる操作装置20からの信号およびゲームの設
定等を記憶するメモリカード26や携帯用電子機器100か
らのデータの入出力を制御する通信制御部90と、上記の
各部が接続されているバスBUS等を備えている。
As shown in the figure, the entertainment apparatus 1 has a central processing unit (CPU: CentRal Processing Uniform).
t) A control system 50 including 51 and its peripheral devices, and an image processing device (GPU: Graph:
hic Processing Unit) 62, a sound system 70 including an SPU (Soud Processing Unit) 71 for generating audio signals such as musical sounds and sound effects, and an application program and multimedia data. An optical disk control unit 80 for controlling the recorded optical disk, a signal from the operating device 20 to which an instruction from the player is input, a memory card 26 for storing game settings and the like, and data from the portable electronic device 100 A communication control unit 90 for controlling the input / output of the device and a bus BUS to which the above-mentioned units are connected are provided.

【0030】制御系50は、CPU51と、割り込み制御や
ダイレクトメモリアクセス(DMA:Direct Memory Acces
s)転送の制御等を行なう周辺装置制御部52と、ランダ
ムアクセスメモリ(RAM:Random Access Memory)からな
るメインメモリ(主記憶装置)53と、メインメモリ53や
グラフィックシステム60やサウンドシステム70等の管理
を行なう、いわゆるオペレーティングシステム等のプロ
グラムが格納されたリードオンリーメモリ(ROM:Read O
nly Memory)54と、を備えている。
The control system 50 communicates with the CPU 51 with interrupt control and direct memory access (DMA).
s) Peripheral device control unit 52 that performs transfer control and the like, main memory (main storage device) 53 including a random access memory (RAM), and main memory 53, graphic system 60, sound system 70, and the like. A read-only memory (ROM: Read O
nly Memory) 54.

【0031】CPU51は、ROM54に記録されているオ
ペレーティングシステムを実行することにより、このエ
ンタテインメント装置1の全体を制御するもので、たと
えばRISC−CPUからなる。
The CPU 51 controls the whole of the entertainment apparatus 1 by executing an operating system recorded in the ROM 54, and comprises, for example, a RISC-CPU.

【0032】そして、このエンタテインメント装置1
は、電源が投入されると、制御系50のCPU51がROM
54に記憶されているオペレーティングシステムを実行す
る。これにより、CPU51が、グラフィックシステム60
やサウンドシステム70等の制御を行なうようになってい
る。
Then, the entertainment device 1
When the power is turned on, the CPU 51 of the control system 50
Run the operating system stored in 54. As a result, the CPU 51
And the sound system 70 and the like.

【0033】また、オペレーティングシステムが実行さ
れると、CPU51は、動作確認等のエンタテインメント
装置1全体の初期化を行った後、光ディスク制御部80を
制御して、光ディスクに記録されているゲーム等のアプ
リケーションプログラムを実行する。このゲーム等のプ
ログラムの実行により、CPU51は、プレイヤからの入
力に応じてグラフィックシスデム60やサウンドシステム
70等を制御して、画像の表示や効果音・楽音の発生を制
御する。
When the operating system is executed, the CPU 51 initializes the entire entertainment apparatus 1 such as an operation check, and then controls the optical disk control unit 80 to execute a game or the like recorded on the optical disk. Execute the application program. By executing a program such as a game, the CPU 51 causes the graphics system 60 or the sound system 60 to respond to an input from a player.
70, etc., to control the display of images and the generation of sound effects and musical sounds.

【0034】また、グラフィックシステム60は、座標変
換等の処理を行なうジオメトリトランスファエンジン
(GTE:Geometry Transfer Engine)61と、CPU51から
の描画指示に従って描画を行なうGPU62と、このGP
U62により描画された画像を記憶するフレームバッファ
63と、離散コサイン変換等の直交変換により圧緒されて
符号化された画像データを復号する画像デコーダ64とを
備えている。
The graphic system 60 includes a geometry transfer engine (GTE) 61 for performing processing such as coordinate conversion, a GPU 62 for performing drawing according to a drawing instruction from the CPU 51, and a GP 62 for performing drawing.
Frame buffer for storing images drawn by U62
63, and an image decoder 64 that decodes image data coded by being pressed by orthogonal transform such as discrete cosine transform.

【0035】GTE61は、たとえば複数の演算を並列に
実行する並列演算機構を備え、座標変換などの行列ある
いはベクトル等の演算を行なう。具体的には、このGT
E61は、たとえば、光ディスクに記録されているゲーム
等のアプリケーションプログラムがいわゆる3Dグラフ
ィックを利用する場合に、三角形状のポリゴンの集合で
仮想的な3次元オブジェクトを構成する。そして、この
3次元オブジェクトを仮想的なカメラで撮影することに
より得られる画像を生成するための諸計算、すなわち、
レンダリングを行う場合における透視変換(3次元オブ
ジェクトを構成する各ポリゴンの頂点を仮想的なカメラ
スクリーン上に投影した場合における座標値の計算)な
どを行う。
The GTE 61 includes, for example, a parallel operation mechanism for executing a plurality of operations in parallel, and performs operations such as a matrix or a vector for coordinate conversion. Specifically, this GT
E61 forms a virtual three-dimensional object with a set of triangular polygons when, for example, an application program such as a game recorded on an optical disk uses so-called 3D graphics. Then, various calculations for generating an image obtained by photographing the three-dimensional object with a virtual camera, that is,
Perspective transformation (calculation of coordinate values when the vertices of each polygon constituting the three-dimensional object are projected on a virtual camera screen) in rendering is performed.

【0036】次に、GPU62は、CPU51からの命令に
従って、必要に応じてGTE61を利用しながら、フレー
ムバッファ63に対して3次元オブジェクトのレンダリン
グを行って、画像を作成する。そして、作成した画像を
表すビデオ信号を出力する。なお、レンダリングに用い
る隠線、隠面消去の手法としては、Zバッファ法、スキ
ャンライン法、レイトレーシング法などを使用する。陰
影付けを行うシェーディングの手法としては、フラット
シェーディング、グーローシェーディング、レイトレー
シング法などを使用する。また、3次元オブジェクトの
表面の表面材質や模様を表現する手法としてはテクスチ
ャマッピングなどを使用する。
Next, the GPU 62 renders a three-dimensional object on the frame buffer 63 according to an instruction from the CPU 51 while using the GTE 61 as necessary, to create an image. Then, a video signal representing the created image is output. In addition, as a method of erasing hidden lines and hidden surfaces used for rendering, a Z buffer method, a scan line method, a ray tracing method, or the like is used. As shading methods for shading, flat shading, Gouraud shading, ray tracing, or the like is used. In addition, texture mapping or the like is used as a technique for expressing the surface material or pattern of the surface of the three-dimensional object.

【0037】次に、フレームバッファ63は、いわゆるデ
ュアルポートRAMからなり、GPU62のレンダリング
あるいはメインメモリからの転送と、表示のための読み
出しとを同時に行なうことができるようになっている。
また、このフレームバッファ63には、レンダリング、表
示のための読み出しが行われる画像領域の他に、前記テ
クスチャマッピングなどに用いられるテクスチャが記憶
されるテクスチヤ領域が設けられている。
Next, the frame buffer 63 is composed of a so-called dual-port RAM, so that rendering of the GPU 62 or transfer from the main memory and reading for display can be performed simultaneously.
The frame buffer 63 is provided with a texture area in which a texture used for the texture mapping and the like is stored, in addition to an image area in which reading for rendering and display is performed.

【0038】次に、画像デコーダ64は、CPU51からの
制御により、メインメモリ53に記憶されている静止画あ
るいは動画の画像データを復号して、メインメモリ53に
記憶する。また、この再生された画像データは、GPU
62を介してフレームバッファ63に記憶することにより、
上述のGPU62によってレンダリングされる画像の背景
として使用することができるようになっている。
Next, under the control of the CPU 51, the image decoder 64 decodes the still or moving image data stored in the main memory 53 and stores it in the main memory 53. The reproduced image data is stored in a GPU.
By storing in the frame buffer 63 via 62,
It can be used as a background of an image rendered by the GPU 62 described above.

【0039】次に、サウントシステム70は、CPU51か
らの指示に基づいて、楽音・効果音等のオーディオ信号
を出力するSPU71と、このSPU71により波形データ
等が記録されるサウンドバッファ72を備えている。
Next, the sound system 70 includes an SPU 71 for outputting audio signals such as musical tones and sound effects based on an instruction from the CPU 51, and a sound buffer 72 for recording waveform data and the like by the SPU 71. I have.

【0040】SPU71は、適応予測符号化(ADPCM:Adap
tive Differential PCM)された音声データを再生する
ADPCM復号機能と、サウンドバッファ72に記憶され
ている波形データを再生することにより、効果音等のオ
ーディオ信号を再生し出力する再生機能と、サウンドバ
ッファ72に記憶されている波形データを変調させて再生
する変調機能等を備えている。このような機能を備える
ことによって、このサウンドシステム70は、CPU51か
らの指示によりサウンドバッファ72に記憶された波形デ
ータに基づき楽音・効果音等のオーディオ信号を発生す
る、いわゆるサンプリング音源として使用することがで
きるように構成されている。
The SPU 71 performs adaptive prediction coding (ADPCM: AdapM).
ADPCM decoding function for reproducing sound data subjected to tive differential PCM), a reproduction function for reproducing and outputting audio signals such as sound effects by reproducing waveform data stored in the sound buffer 72, and a sound buffer 72. And a modulation function for modulating and reproducing the waveform data stored in. By providing such a function, the sound system 70 can be used as a so-called sampling sound source that generates audio signals such as musical tones and sound effects based on waveform data stored in the sound buffer 72 in accordance with an instruction from the CPU 51. It is configured to be able to.

【0041】次に、光ディスク制御部80は、光ディスク
に記録されたプログラムやデータ等を再生する光ディス
ク装置81と、例えばエラー訂正符号(ECC:Error Correc
tionCode)が付加されて記録されているプログラムやデ
ータ等を復号するデコーダ82と、光ディスク装置81から
のデータを一時的に記憶することにより、光ディスクか
らのデータの読み出しを高速化するバッファ83を備えて
いる。デコーダ82には、サブCPU84が接続されてい
る。
Next, the optical disk control unit 80 communicates with an optical disk device 81 that reproduces programs, data, and the like recorded on the optical disk, for example, by using an error correction code (ECC).
The decoder 82 includes a decoder 82 for decoding a program, data, and the like recorded with the addition of an option code, and a buffer 83 for temporarily storing data from the optical disk device 81 to speed up the reading of data from the optical disk. ing. The sub CPU 84 is connected to the decoder 82.

【0042】なお、光ティスク装置81で読み出される、
光ディスクに記録されている音声データとしては、上述
のADPCMデータの他にオーディオ信号をアナログ/
デジタル変換したいわゆるPCMデータがある。ADP
CMデータは、デコーダ82で復号された後、上述のSP
U71に供拾され、SPU71でデジタル/アナログ変換等
の処理が施された後、このエンタテインメント装置1に
接続されたオーディオ機器などの音響装置から楽音・効
果音等として出力される。また、PCMデータは、SP
U71でデジタル/アナログ変換等の処理が施された後、
同様に、音響装置から楽音・効果音等として出力され
る。
The data is read out by the optical disc device 81.
As audio data recorded on the optical disc, in addition to the above-described ADPCM data, an audio signal
There is so-called PCM data that has been digitally converted. ADP
After the CM data is decoded by the decoder 82, the SP
After being supplied to the U71 and subjected to processing such as digital / analog conversion by the SPU 71, it is output as a musical sound / sound effect from an audio device such as an audio device connected to the entertainment device 1. PCM data is SP
After processing such as digital / analog conversion in U71,
Similarly, it is output from the audio device as a musical sound, a sound effect, or the like.

【0043】次に、通信制御部90は、バスBUSを介し
てCPU51との通信の制御を行なう通信制御機91を備え
ている。通信制御機91には、プレイヤからの指示を入カ
する操作装置20が接続される操作装置接続部12と、ゲー
ムの設定データ等を記憶する補助記憶装置としてメモリ
カード26や携帯用電子機器100が接続されるメモリカー
ド挿入部8A、8Bが設けられている。
Next, the communication control unit 90 includes a communication controller 91 for controlling communication with the CPU 51 via the bus BUS. The communication controller 91 includes an operation device connection unit 12 to which an operation device 20 for receiving an instruction from a player is connected, and a memory card 26 and a portable electronic device 100 as an auxiliary storage device for storing game setting data and the like. Are provided with memory card insertion sections 8A and 8B to which are connected.

【0044】操作装置接続部12に接続された操作装置20
は、プレイヤからの指示を入力するために、通信制御機
91からの指示に従って、前記各ボタンや操作部の状態
を、同期式通信により、通信制御機91に送信する。そし
て、通信制御機91は、操作装置20の前記各ボタンや操作
部の状態をCPU51に送信する。
The operating device 20 connected to the operating device connecting section 12
Is a communication controller to input instructions from the player.
In accordance with the instruction from 91, the state of each button and operation unit is transmitted to the communication controller 91 by synchronous communication. Then, the communication controller 91 transmits the states of the buttons and the operation unit of the operation device 20 to the CPU 51.

【0045】これにより、プレイヤからの指示がCPU
51に入カされ、CPU51は、実行しているゲームプログ
ラム等に基づいて、プレイヤからの指示に従った処理を
行なう。具体的には、制御系70の他の各部およびグラフ
ィックシステム60と連携して、操作対象オブジェクトを
含む画像を生成し、表示装置の表示画面に表示させる。
そして、操作装置20に入力されたプレイヤからの指示に
したがい、操作対象オブジェクトの表示位置や姿勢など
を変えた画像(必要に応じてその背景も変える)を順次
生成し、表示装置の表示画面に表示させることで、あた
かも、操作装置20に入力されたプレイヤの操作内容に応
じて、操作対象オブジェクトが操作されるように、動画
像を生成する。また、必要に応じて、サウントシステム
70と連携し、音声装置より出力する音声や音楽を制御す
る。
Thus, the instruction from the player is transmitted to the CPU.
Input to the CPU 51, the CPU 51 performs a process according to an instruction from the player based on a game program or the like being executed. Specifically, an image including the operation target object is generated in cooperation with other units of the control system 70 and the graphic system 60, and displayed on the display screen of the display device.
Then, in accordance with an instruction from the player input to the operation device 20, an image in which the display position or orientation of the operation target object is changed (the background is also changed as necessary) is sequentially generated, and displayed on the display screen of the display device. By displaying the moving image, a moving image is generated so that the operation target object is operated in accordance with the operation content of the player input to the operation device 20. Also, if necessary, sound system
Cooperates with 70 to control audio and music output from audio devices.

【0046】ここで、メインメモリ53、GPU62、画像
デコーダ64およびデコーダ82等の間では、プログラムの
読み出し、画像の表示あるいは描画等を行なう際に、画
像データを高速に転送する必要がある。そこで、このエ
ンタテインメント装置1では、上述のようにCPU51を
介ざずに周辺装置制御部52からの制御によりメインメモ
リ53、GPU62、画像デコーダ64およびデコーダ82等の
間で直接データの転送を行なう、いわゆるDMA転送を
行なうことができるようになっている。これにより、デ
ータ転送によるCPU51の負荷を低減させることがで
き、高速なデータの転送を行なうことができる。
Here, between the main memory 53, the GPU 62, the image decoder 64, the decoder 82, and the like, it is necessary to transfer image data at a high speed when reading a program, displaying an image, or drawing an image. Therefore, in the entertainment apparatus 1, data is directly transferred between the main memory 53, the GPU 62, the image decoder 64, the decoder 82, and the like under the control of the peripheral device control unit 52 without the intervention of the CPU 51 as described above. So-called DMA transfer can be performed. Thus, the load on the CPU 51 due to data transfer can be reduced, and high-speed data transfer can be performed.

【0047】また、CPU51は、実行しているゲームの
設定データ等を記憶する必要があるときに、その記憶す
るデータを通信制御機91に送信し、通信制御機91は、C
PU51からのデータをメモリカード挿入部8Aまたは8Bの
スロットに装着されたメモリカード26や携帯用電子機器
100に書き込む。
When it is necessary to store setting data and the like of the game being executed, the CPU 51 transmits the stored data to the communication controller 91, and the communication controller 91
The data from the PU 51 is inserted into the memory card insertion section 8A or 8B slot of the memory card 26 or a portable electronic device.
Write to 100.

【0048】ここで、通信制御機91には、電気的な破壊
を防止するための保護回路が内蔵されている。メモリカ
ード26や携帯用電子機器100は、バスBUSから分離さ
れており、装置本体の電源を入れた状態で、着脱するこ
とができる。従って、メモリカード26や携帯用電子機器
100の記憶容量が足りなくなった場合等に、装置本体の
電源を遮断することなく、新たなメモリカードなどを挿
着できる。このため、バツクアップする必要があるゲー
ムデータが失われてしまうことなく、新たなメモリカー
ドを装着して、必要なデータを新たなメモリカードに書
き込むことができる。
Here, the communication controller 91 has a built-in protection circuit for preventing electrical destruction. The memory card 26 and the portable electronic device 100 are separated from the bus BUS, and can be detached while the power of the apparatus body is turned on. Therefore, memory cards 26 and portable electronic devices
When the storage capacity of 100 becomes insufficient, a new memory card or the like can be inserted without shutting off the power supply of the apparatus main body. Therefore, it is possible to insert a new memory card and write necessary data to the new memory card without losing game data that needs to be backed up.

【0049】なお、パラレルI/Oインタフェース(PI
O)96、および、シリアルI/Oインタフェース(SIO)9
7は、メモリカード26や携帯用電子機器100と、エンタテ
インメント装置1とを接続するためのインタフェースで
ある。
The parallel I / O interface (PI
O) 96 and serial I / O interface (SIO) 9
Reference numeral 7 denotes an interface for connecting the memory card 26 or the portable electronic device 100 to the entertainment apparatus 1.

【0050】以上、エンタテインメント装置1のハード
ウエア構成について説明した。
The hardware configuration of the entertainment apparatus 1 has been described above.

【0051】次に、上記構成のエンタテインメント装置
1において、CPU51が、ディスク装着部3に装着された
光ディスクから読み出されたアプリケーションプログラ
ムを実行することで、実現されるフライトシミュレーシ
ョンゲームについて説明する。
Next, an entertainment apparatus having the above-described structure.
In 1, a flight simulation game realized by the CPU 51 executing an application program read from the optical disc mounted on the disc mounting section 3 will be described.

【0052】なお、ここで、フライトシミュレーション
ゲームとは、プレイヤが、エンタテインメント装置1に
接続された操作装置20を使用して、飛行機を表す操作対
象オブジェクトを操作し、仮想的な3次元世界中を移動
させることで、飛行機の操縦を仮想的に体験することが
できるゲームである。エンタテインメント装置1は、こ
の3次元世界中を移動する操作対象オブジェクトを仮想
的なカメラで撮影することで得られるCGアニメーショ
ン画像を生成し、当該エンタテインメント装置1に接続
された表示装置の表示画面に表示する。
Here, a flight simulation game is a game in which a player operates an operation target object representing an airplane by using an operation device 20 connected to the entertainment device 1 and travels a virtual three-dimensional world. This game allows you to virtually experience the operation of an airplane by moving it. The entertainment device 1 generates a CG animation image obtained by photographing the three-dimensional operation target object moving around the world with a virtual camera, and displays the CG animation image on a display screen of a display device connected to the entertainment device 1. I do.

【0053】まず、光ディスクのデータ構成について説
明する。
First, the data structure of the optical disk will be described.

【0054】図5は、ディスク装着部3に装着される光
ディスク85のデータ構成を説明するための図である。
FIG. 5 is a diagram for explaining the data structure of the optical disk 85 mounted on the disk mounting section 3.

【0055】図示するように、光ディスク85には、フラ
イトシミュレーションゲームを実現するためのアプリケ
ーションプログラム(PG)501と、オブジェクトデータ
(DA)502や地図データベース(DB)503を含む各種デー
タが記録されている。
As shown in the figure, an optical disk 85 stores an application program (PG) 501 for realizing a flight simulation game and various data including an object data (DA) 502 and a map database (DB) 503. I have.

【0056】オブジェクトDA502には、フライトシミュ
レーションゲームにおいて、プレイヤが操作装置20を用
いて操作する操作対象オブジェクト(飛行機を表すオブ
ジェクト)の、3次元形状やテクスチャなどを特定する
ために必要な各種情報が格納されている。地図DB503に
は、フライトシミュレーションゲームにおいて、操作対
象オブジェクトが移動する仮想的な3次元世界中の地形
を特定する様々な地図構成要素の情報が格納されてい
る。
In the object DA502, in a flight simulation game, various kinds of information necessary for specifying a three-dimensional shape, a texture, and the like of an operation target object (an object representing an airplane) operated by the player using the operation device 20. Is stored. The map DB 503 stores information on various map components that specify a virtual three-dimensional terrain around the world in which the operation target object moves in the flight simulation game.

【0057】次に、エンタテインメント装置1上に構築
される、フライトシミュレーションゲームを実現するた
めのソフトウエア構成について説明する。
Next, a software configuration for realizing a flight simulation game built on the entertainment apparatus 1 will be described.

【0058】図6は、エンタテインメント装置1上に構
築されるフライトシミュレーションゲームを実現するた
めのソフトウエア構成を示した図である。なお、この図
に示す各構成要素は、光ディスク制御部80によりディス
ク装着部3に装着された光ディスク85から読み出され、
メインメモリ53上にロードされたアプリケーションPG50
1を、CPU51が実行することにより、プロセスとして
具現化される。
FIG. 6 is a diagram showing a software configuration for realizing a flight simulation game built on the entertainment apparatus 1. As shown in FIG. Each component shown in this figure is read from the optical disk 85 mounted on the disk mounting unit 3 by the optical disk control unit 80,
Application PG50 loaded on main memory 53
1 is realized by the CPU 51 as a process.

【0059】図6において、操作内容受付部801は、操
作装置20に入力されたプレイヤの指示にしたがい、仮想
的な3次元世界中を移動する操作対象オブジェクトの移
動速度や移動方向を決定する。この処理は定期的に行わ
れる。
In FIG. 6, an operation content receiving unit 801 determines a moving speed and a moving direction of an operation target object that moves in a virtual three-dimensional world according to a player's instruction input to the operation device 20. This process is performed periodically.

【0060】ここで、操作対象オブジェクトの移動速度
は、たとえば、操作装置20の第1、2の操作部21、22、
Lボタン23LおよびRボタン23Rのうちのいずれかに、ス
ロットルと同じ機能を持たせることで決定する。
Here, the moving speed of the operation target object is, for example, the first and second operation units 21 and 22 of the operation device 20,
The determination is made by giving one of the L button 23L and the R button 23R the same function as the throttle.

【0061】すなわち、スロットルと同じ機能を持たせ
たボタンの検知信号が操作装置20から出力されていると
きは、スロットルオンと判断し、当該ボタンの検知信号
が出力されたいないときはスロットルオフと判断する。
そして、スロットルオンと判断された場合は、前回決定
した操作対象オブジェクトの移動速度に、予め定められ
たスロットルオンに応じた加速度と前回移動速度を決定
してからのスロットルオンの継続時間より求まる速度を
加算することで、操作対象オブジェクトの移動速度を決
定する。一方、スロットルオフと判断された場合は、前
回決定した操作対象オブジェクトの移動速度に、予め定
められたスロットルオフに応じた減速度と前回移動速度
を決定してからのスロットルオフの継続時間より求まる
速度を減算することで、操作対象オブジェクトの移動速
度を決定する。
That is, when the detection signal of the button having the same function as the throttle is output from the operating device 20, it is determined that the throttle is on, and when the detection signal of the button is not output, the throttle is off. to decide.
If it is determined that the throttle is ON, the speed determined from the acceleration determined according to the predetermined throttle ON and the duration of the throttle ON since the previous speed was determined is added to the previously determined moving speed of the operation target object. Is added to determine the moving speed of the operation target object. On the other hand, when it is determined that the throttle is off, the moving speed of the operation target object previously determined is obtained from the deceleration corresponding to the predetermined throttle off and the duration of the throttle off since the previous moving speed was determined. The moving speed of the operation target object is determined by subtracting the speed.

【0062】また、操作対象オブジェクトの移動方向
は、たとえば操作装置20の操作軸31a、32aに、操縦かん
と同じ機能を持たせることで決定する。
The moving direction of the operation target object is determined, for example, by providing the operation axes 31a and 32a of the operation device 20 with the same function as the control rod.

【0063】すなわち、操作軸31a、32aに加えられた操
作により、操作装置20から出力されたX−Y座標上の座
標値に応じた信号のX座標成分の値に応じて、操作対象
オブジェクトが表す飛行機の左右の傾きを決定し、Y座
標成分の値に応じて、当該飛行機の機首の上下を決定す
る。
That is, by the operation applied to the operation axes 31a and 32a, the operation target object is changed according to the value of the X coordinate component of the signal corresponding to the coordinate value on the XY coordinate output from the operation device 20. The left and right inclinations of the plane to be represented are determined, and the nose up and down of the plane are determined according to the value of the Y coordinate component.

【0064】具体的には、図3において、X座標成分の
値が128〜255の場合は、その値が大きいほど飛行機が右
に大きく傾き、X座標成分の値が0〜126の場合は、その
値が小さいほど飛行機が左に大きく傾くものとする。そ
して、X座標成分の値が127の場合は飛行機の左右への
傾きなしとする。また、Y座標成分の値が128〜255の場
合は、その値が大きいほど飛行機の機首を大きく上げ、
Y座標成分の値が0〜126の場合は、値が小さいほど飛行
機の機首を大きく下げるものとする。そして、Y座標成
分の値が127の場合は飛行機の機首の上下はなしとす
る。
Specifically, in FIG. 3, when the value of the X coordinate component is 128 to 255, the larger the value is, the more the airplane is tilted to the right, and when the value of the X coordinate component is 0 to 126, It is assumed that the smaller the value is, the more the airplane leans to the left. When the value of the X coordinate component is 127, it is determined that the airplane is not tilted left and right. In addition, when the value of the Y coordinate component is 128 to 255, the larger the value, the more the nose of the airplane is raised,
When the value of the Y coordinate component is from 0 to 126, the nose of the airplane is to be greatly lowered as the value is smaller. When the value of the Y coordinate component is 127, it is determined that there is no upper and lower part of the nose of the airplane.

【0065】そして、操作内容受付部801は、操作装置2
0から出力されたX−Y座標上の座標値に応じた信号に
より特定される、操作対象オブジェクトが表す飛行機の
左右の傾きおよび機首の上下より、前回決定した操作対
象オブジェクトの移動方向に対する相対的な移動方向の
変化分を求め、これを前回決定した操作対象オブジェク
トの移動方向に加算する。これにより、当該操作対象オ
ブジェクトの移動方向を決定する。
Then, the operation content receiving unit 801 operates the operation device 2
Relative to the previously determined moving direction of the operation target object from the left and right inclination and vertical movement of the aircraft represented by the operation target object, specified by a signal corresponding to the coordinate value on the XY coordinates output from 0 The amount of change in the typical moving direction is obtained and added to the previously determined moving direction of the operation target object. Thereby, the moving direction of the operation target object is determined.

【0066】ところで、現実の世界において、操縦かん
を用いて、飛行機を完全な旋回飛行状態に移行させる行
為は、非常に高度な操縦が要求される。このため、操作
装置20の操作軸31a、32aに、操縦かんと同じ機能をその
まま持たせるのでは、不慣れなプレイヤにとって、操作
対象オブジェクトの操作が難し過ぎて、十分にフライト
シミュレーションゲームを楽しめなくなるかもしれな
い。
By the way, in the real world, the act of using an operating rod to shift an airplane to a complete turning flight requires extremely advanced operation. For this reason, if the operation axes 31a and 32a of the operation device 20 have the same function as that of the control lever, the operation of the operation target object may be too difficult for an inexperienced player, and the flight simulation game may not be sufficiently enjoyed. unknown.

【0067】そこで、本実施形態では、操作対象受付部
801に、操作軸31a、32aに加えられた操作により、操作
装置20から出力された信号が示すX−Y座標上の座標値
が、所定の範囲にある場合、操作内容受付部801は、操
作対象オブジェクトに所定の動作(現実の世界におい
て、操縦が困難と思われる動作)を行わせるものと判断
させている。そして、操作対象オブジェクトの移動方向
が、当該動作を行うために要求される方向となるように
決定している。図3に示す例では、操作内容受付部801
は、X−Y座標上の座標値がX座標値≧240、Y座標値
≦15の場合は、操作対象オブジェクトに右回りの急旋回
飛行を行わせるものと判断し、X座標値≦15、Y座標値
≦15の場合は、操作対象オブジェクトに左回りの急旋回
飛行を行わせるものと判断している。そして、操作対象
オブジェクトの移動方向を、当該飛行を行うのに要求さ
れる方向に決定している。
Therefore, in this embodiment, the operation object receiving unit
If the coordinate values on the XY coordinates indicated by the signal output from the operation device 20 by the operation applied to the operation axes 31a and 32a in the 801 are within a predetermined range, the operation content receiving unit 801 performs the operation. It is determined that the target object is to perform a predetermined operation (an operation that is considered difficult to steer in the real world). Then, the moving direction of the operation target object is determined to be the direction required to perform the operation. In the example shown in FIG. 3, the operation content receiving unit 801
If the coordinate value on the XY coordinate is X coordinate value ≧ 240 and Y coordinate value ≦ 15, it is determined that the operation target object is to make a sharp clockwise turn, and the X coordinate value ≦ 15, If the Y coordinate value ≤ 15, it is determined that the operation target object is to make a sharp left turn. Then, the moving direction of the operation target object is determined to be a direction required to perform the flight.

【0068】たとえば、右上回りの急旋回飛行を行うも
のと判断した場合は、操作対象オブジェクトが表す飛行
機を右に45度傾かせ、当該飛行機の機首を45度挙げ
たものとし、前回決定した操作対象オブジェクトの移動
方向から当該操作対象オブジェクトの移動方向を決定す
る。左回りの急旋回飛行を行うものと判断した場合は、
前記飛行機を左に45度傾かせ、前記飛行機の機首を4
5度挙げたものとし、前回決定した操作対象オブジェク
トの移動方向から当該操作対象オブジェクトの移動方向
を決定する。
For example, if it is determined that a sharp turning flight in the upper right direction is to be performed, the airplane represented by the operation target object is tilted to the right by 45 degrees, the nose of the airplane is raised by 45 degrees, and the last decision was made. The moving direction of the operation target object is determined from the moving direction of the operation target object. If you decide to make a sharp left turn,
Tilt the plane 45 degrees to the left and raise the nose of the plane 4
The moving direction of the operation target object is determined from the moving direction of the operation target object determined last time, which is assumed to be five times.

【0069】次に、図6において、オブジェクト位置算
出部802は、仮想的な3次元世界中における操作対象オ
ブジェクトの位置と姿勢を算出する処理を、定期的に行
う。
Next, in FIG. 6, the object position calculation unit 802 periodically performs processing for calculating the position and orientation of the operation target object in a virtual three-dimensional world.

【0070】具体的には、前回算出した操作対象オブジ
ェクトの位置および姿勢と、操作内容受付部801で決定
された操作対象オブジェクトの最新の移動速度から、現
時点での操作対象オブジェクトの位置を算出する。ま
た、操作内容受付部801で決定された操作対象オブジェ
クトの最新の移動方向にしたがって、現時点での操作対
象オブジェクトの姿勢を算出する。
More specifically, the current position of the operation target object is calculated from the position and orientation of the operation target object calculated last time and the latest moving speed of the operation target object determined by the operation content receiving unit 801. . In addition, according to the latest moving direction of the operation target object determined by the operation content receiving unit 801, the current posture of the operation target object is calculated.

【0071】3次元地図作成部803は、オブジェクト位
置算出部802で算出された操作対象オブジェクトの位置
周辺に配置される地図構成要素を、光ディスク85に格納
された地図DB503から直接読み出し、あるいは、光ディ
スク85から読み出され、一旦メインメモリ53などに格納
された地図DB503から読み出し、3次元世界中に配置す
る。これにより、操作対象オブジェクトの位置周辺に展
開される地形を生成する。
The three-dimensional map creator 803 directly reads out map components arranged around the position of the operation target object calculated by the object position calculator 802 from the map DB 503 stored in the optical disk 85, or The data is read out from the map DB 503 and once stored in the main memory 53 or the like, and arranged in a three-dimensional world. Thereby, the terrain developed around the position of the operation target object is generated.

【0072】なお、3次元地図作成部803における地形
生成処理は、必ずしも、オブジェクト位置算出部802で
操作対象オブジェクトの位置が算出される毎に行う必要
はない。たとえば、オブジェクト位置算出部802で操作
対象オブジェクトの位置が複数回算出される毎に行うよ
うにしてもよい。この場合、オブジェクト位置算出部80
2における複数回の操作対象オブジェクト位置算出処理
で当該操作対象オブジェクトが移動可能な範囲(これ
は、予め設定されている操作対象オブジェクトの最大移
動速度などから推定可能である)を考慮し、当該範囲周
辺に配置される地図構成要素を地図DB503から読み出し
て、3次元世界中に配置すればよい。
The terrain generation processing in the three-dimensional map creation unit 803 does not necessarily need to be performed each time the position of the operation target object is calculated by the object position calculation unit 802. For example, it may be performed each time the position of the operation target object is calculated a plurality of times by the object position calculation unit 802. In this case, the object position calculation unit 80
In consideration of a range in which the operation target object can be moved in the plurality of operation target object position calculation processes in 2 (this can be estimated from a preset maximum moving speed of the operation target object, etc.), What is necessary is just to read out the map components arranged in the periphery from the map DB 503 and arrange them in the three-dimensional world.

【0073】オブジェクト配置部804は、3次元地図作
成部803により地形が展開された3次元世界中におい
て、光ディスク85に格納されたオブジェクトDA502によ
りその3次元形状など特定される操作対象オブジェクト
を、オブジェクト位置算出部802で算出した最新の操作
対象オブジェクトの位置に配置する。この際、操作対象
オブジェクトの姿勢が、オブジェクト位置算出部802で
算出した最新の操作対象オブジェクトの姿勢となるよう
に、操作対象オブジェクトを配置する。
The object arranging unit 804 is used to place an operation target object, such as its three-dimensional shape, specified by the object DA 502 stored on the optical disc 85 in the three-dimensional world where the terrain is developed by the three-dimensional map creating unit 803. It is arranged at the position of the latest operation target object calculated by the position calculation unit 802. At this time, the operation target object is arranged such that the posture of the operation target object becomes the latest posture of the operation target object calculated by the object position calculation unit 802.

【0074】なお、3次元地図作成部803やオブジェク
ト配置部804は、図4において、たとえば、CPU51が
GTE61を利用することで実現される。
The three-dimensional map creating unit 803 and the object arranging unit 804 are realized by the CPU 51 using the GTE 61 in FIG.

【0075】カメラ配置部805は、3次元地図作成部803
およびオブジェクト配置部804により地形および操作対
象オブジェクトが配置された3次元世界から2次元画像
を生成するために用いられる、仮想的なカメラの配置位
置(つまり視点)と向き(つまり視線方向と視線方向を
軸としたカメラの傾き)を設定する処理を行う。この処
理は、オブジェクト位置算出部802で操作対象オブジェ
クトの位置や姿勢が算出される毎に行う。以下に、カメ
ラ配置部805における、仮想的なカメラの配置位置と向
きの具体的な設定処理の一例について説明する。
The camera arrangement unit 805 includes a three-dimensional map creation unit 803.
And a virtual camera arrangement position (that is, a viewpoint) and a direction (that is, a line-of-sight direction and a line-of-sight direction) used for generating a two-dimensional image from the three-dimensional world in which the terrain and the operation target object are arranged by the object arrangement unit 804. Of the camera with respect to the axis. This process is performed every time the position and orientation of the operation target object are calculated by the object position calculation unit 802. Hereinafter, an example of specific setting processing of the virtual camera arrangement position and orientation in the camera arrangement unit 805 will be described.

【0076】図7〜図9は、本実施形態における操作対
象オブジェクト601と仮想的なカメラ608との位置関係を
説明するための図である。
FIGS. 7 to 9 are diagrams for explaining the positional relationship between the operation target object 601 and the virtual camera 608 in this embodiment.

【0077】ここで、図7は、3次元世界中に配置され
たオブジェクト601と仮想的なカメラ609を、真上(Z軸
の無限遠方)から見下ろした様子を示しており、図8
は、3次元世界中に配置されたオブジェクト601と仮想
的なカメラ609を、真横(X軸の無限遠方)から見た様
子を示している。また、図9は、3次元世界中に配置さ
れたオブジェクト601と仮想的なカメラ609を、真横(Y
軸の無限遠方)から見た様子を示している。なお、これ
らの図では、3次元世界中に配置された地図構成要素の
図示を省略している。
FIG. 7 shows a state in which the object 601 and the virtual camera 609 arranged in the three-dimensional world are looked down from directly above (infinity of the Z axis).
Shows a state in which the object 601 and the virtual camera 609 arranged in the three-dimensional world are viewed from the side (infinity of the X axis). FIG. 9 shows an object 601 and a virtual camera 609 arranged all over the three-dimensional world, placed beside (Y
(Infinity of the axis). In these drawings, illustration of map components arranged in the three-dimensional world is omitted.

【0078】(1)仮想的なカメラの配置位置(カメラ
設置点) 図7〜図9に示すように、カメラ配置部805は、仮想的
なカメラ609の配置位置であるカメラ設置点606を、下記
の条件-を満たす位置に設定する。
(1) Virtual Camera Arrangement Position (Camera Installation Point) As shown in FIGS. 7 to 9, the camera arrangement unit 805 determines a camera installation point 606 which is an arrangement position of a virtual camera 609. Set to a position that satisfies the following conditions.

【0079】:オブジェクト位置算出部802で新たに
算出された操作対象オブジェクト601の位置602を通過す
る、操作内容受付部801で新たに算出された操作対象オ
ブジェクト601の移動方向に沿った線603上の、位置602
より距離Kだけ後方の位置より、所定値Hだけ上方の位
置に、カメラ追跡点604を設定する。
A line 603 that passes through the position 602 of the operation target object 601 newly calculated by the object position calculation unit 802 and moves along the moving direction of the operation target object 601 newly calculated by the operation content reception unit 801 At position 602
A camera tracking point 604 is set at a position higher by a predetermined value H than a position further behind by a distance K.

【0080】:カメラ追跡点604および前回算出した
カメラ設置点606’間の距離Lを、所定値Mで割ること
で得られる距離L/Mだけ、前回算出したカメラ設置点6
06’からカメラ追跡点604に近づく位置に、カメラ設置
点606を設定する。したがって、カメラ設置点606と前回
算出したカメラ設置点606’とカメラ追跡点604は、以下
の関係を満たす。
A distance L / M obtained by dividing the distance L between the camera tracking point 604 and the previously calculated camera installation point 606 ′ by a predetermined value M is the previously calculated camera installation point 6.
A camera installation point 606 is set at a position approaching the camera tracking point 604 from 06 ′. Therefore, the camera installation point 606, the previously calculated camera installation point 606 ', and the camera tracking point 604 satisfy the following relationship.

【0081】 点606のX座標値 =(点604のX座標値-点606’のX座標値)/M+点606’のX座標値 点606のY座標値 =(点604のY座標値-点606’のY座標値)/M+点606’のY座標値 点606のZ座標値 =(点604のZ座標値-点606’のZ座標値)/M+点606’のZ座標値 :上記において、距離Kは、操作内容受付部801で
新たに算出された操作対象オブジェクト601の移動速度
が大きくなるほど短くなるように(すなわち、カメラ追
跡点604が操作対象オブジェクト601に近づくように)設
定する。たとえば、操作対象オブジェクト601の移動速
度がAのときのKをkとし、以下の式を満たすように設
定する。
X coordinate value of point 606 = (X coordinate value of point 604−X coordinate value of point 606 ′) / M + X coordinate value of point 606 ′ Y coordinate value of point 606 = (Y coordinate value of point 604) -Y coordinate value of point 606 ') / M + Y coordinate value of point 606' Z coordinate value of point 606 = (Z coordinate value of point 604-Z coordinate value of point 606 ') / M + Z of point 606' Coordinate value: In the above description, the distance K becomes shorter as the moving speed of the operation target object 601 newly calculated by the operation content receiving unit 801 increases (that is, the camera tracking point 604 approaches the operation target object 601). To). For example, when the moving speed of the operation target object 601 is A, K is set to k, and the following formula is set.

【0082】K=k-a(B-A) ここで、Bは操作内容受付部801で新たに算出された操
作対象オブジェクトの移動速度、aは所定の係数であ
る。係数aは、上記に示した所定値Mとの関係におい
て、以下の条件を満たすように設定する。
K = ka (BA) where B is the moving speed of the operation target object newly calculated by the operation content receiving unit 801 and a is a predetermined coefficient. The coefficient a is set so as to satisfy the following condition in relation to the predetermined value M described above.

【0083】すなわち、カメラ追跡点604は、操作対象
オブジェクト601の移動速度が大きくなるほど操作対象
オブジェクト601に近づくけれども、カメラ設置点606
は、操作対象オブジェクト601の移動速度が大きくなる
ほど、操作対象オブジェクト601から遠ざかるように、
つまり、操作対象オブジェクト601の移動方向に対して
より後方へ移動するように、係数aと所定値Mを設定す
る。
That is, the camera tracking point 604 approaches the operation target object 601 as the moving speed of the operation target object 601 increases, but the camera installation point 606
Is such that as the moving speed of the operation target object 601 increases, the distance from the operation target object 601 increases.
That is, the coefficient a and the predetermined value M are set so that the operation target object 601 moves backward with respect to the moving direction.

【0084】なお、初期状態(ゲーム開始時)におい
て、カメラ設置点606は、操作対象オブジェクト601との
相対的な位置関係で固定的に定まる所定位置に設定する
ようにすればよい。
In the initial state (at the start of the game), the camera installation point 606 may be set to a predetermined position fixedly determined by the relative positional relationship with the operation target object 601.

【0085】(2)カメラの向き(カメラ視線方向) 図7〜図9に示すように、カメラ配置部805は、カメラ
設置点606に設置された仮想的なカメラ609が、カメラ参
照点607を向くように、カメラ視線方向610を設定する。
カメラ配置部805は、カメラ参照点607を、下記の条件
-を満たす位置に設定する。
(2) Camera Orientation (Camera Viewing Direction) As shown in FIGS. 7 to 9, the camera placement unit 805 moves the virtual camera 609 installed at the camera installation point 606 to the camera reference point 607. The camera viewing direction 610 is set so as to face.
The camera placement unit 805 sets the camera reference point 607 under the following conditions.
-Set the position to satisfy.

【0086】:オブジェクト位置算出部802で新たに
算出された操作対象オブジェクトの位置602を通過す
る、操作内容受付部801で新たに算出された操作対象オ
ブジェクトの移動方向に沿った線603上の、位置602より
距離Jだけ前方の位置に、カメラ参照点607を設定す
る。
A line 603 that passes through the position 602 of the operation target object newly calculated by the object position calculation unit 802 and moves along the moving direction of the operation target object newly calculated by the operation content reception unit 801 A camera reference point 607 is set at a position ahead of the position 602 by a distance J.

【0087】:上記において、距離Jは、操作内容
受付部801で新たに算出された操作対象オブジェクト601
の移動速度が大きくなるほど長くなるように(すなわ
ち、カメラ参照点607が操作対象オブジェクト601から遠
ざかるように)設定する。たとえば、操作対象オブジェ
クト601の移動速度がAのときのJをjとし、以下の式
を満たすように設定する。
In the above, the distance J is the operation target object 601 newly calculated by the operation content receiving unit 801.
Are set to be longer as the moving speed of the camera becomes higher (that is, the camera reference point 607 moves away from the operation target object 601). For example, when the moving speed of the operation target object 601 is A, J is set to j and the following formula is set.

【0088】J=j+b(B-A) ここで、Bは操作内容受付部801で新たに算出された操
作対象オブジェクトの移動速度、bは所定の係数であ
る。
J = j + b (BA) where B is the moving speed of the operation target object newly calculated by the operation content receiving unit 801 and b is a predetermined coefficient.

【0089】(3)カメラの向き(カメラ視線方向を軸
としたカメラの傾き) 図9に示すように、操作対象オブジェクト601が線603を
軸として左右に傾いている場合(すなわち、操作内容受
付部801で操作対象オブジェクト601が表す飛行機を左右
に傾かせる操作内容を受け付けた場合)には、その傾き
に応じて、仮想的なカメラ608を、カメラ視線方向610を
軸として回動させる。そして、操作対象オブジェクト60
1が線603を軸として回転した場合は、仮想的なカメラ60
8を、カメラ視線方向610を軸として回転させる。
(3) Orientation of Camera (Tilt of Camera Around Camera Viewing Direction) As shown in FIG. 9, the operation target object 601 is inclined right and left around the line 603 (that is, operation content reception). When the operation content for tilting the airplane represented by the operation target object 601 to the left or right is received by the unit 801), the virtual camera 608 is rotated around the camera viewing direction 610 according to the tilt. Then, the operation target object 60
If 1 rotates around line 603, virtual camera 60
8 is rotated about the camera viewing direction 610 as an axis.

【0090】図10、11は、本実施形態において、操
作対象オブジェクト601の動きに対し、仮想的なカメラ6
08がどのように振舞うかを説明するための図である。
FIGS. 10 and 11 show the virtual camera 6 in response to the movement of the operation target object 601 in this embodiment.
It is a figure for explaining how 08 behaves.

【0091】ここで、図10は、操作対象オブジェクト
601が速度一定で直進状態から右回り旋回状態へ移行し
た場合における、操作対象オブジェクト601と仮想的な
カメラ608の関係を示しており、図11は、操作対象オ
ブジェクト601が直進状態において移動速度を徐々に増
加させた場合における、操作対象オブジェクト601と仮
想的なカメラ608の関係を示している。なお、両図と
も、操作対象オブジェクト601と仮想的なカメラ608を、
真上(Z軸の無限遠方)から見下ろした様子を示してお
り、これらの図では、3次元世界中に配置された地図構
成要素の図示を省略している。
FIG. 10 shows the operation target object.
FIG. 11 shows a relationship between the operation target object 601 and the virtual camera 608 when the speed of the operation target object 601 changes from the straight traveling state to the clockwise turning state at a constant speed. The relationship between the operation target object 601 and the virtual camera 608 when gradually increasing is shown. In both figures, the operation target object 601 and the virtual camera 608 are
FIGS. 3A and 3B show a view from directly above (infinity of the Z axis), and in these figures, illustration of map components arranged in the three-dimensional world is omitted.

【0092】図12は、図10に示すようにして配置さ
れた仮想的なカメラ609で撮影した場合に得られる映像
の一例を示した図である。ここで、図12(a)は、図
10において、操作対象オブジェクト601が(a)の位
置にあるときに仮想的なカメラ609で撮影される映像
を、図12(b)は、操作対象オブジェクト601が
(b)の位置にあるときに仮想的なカメラ609で撮影さ
れる映像を、そして、図12(c)は、操作対象オブジ
ェクト601が(c)の位置にあるときに仮想的なカメラ6
09で撮影される映像を、それぞれ示している。また、図
12(d)は、図10において、操作対象オブジェクト
601が(d)の位置にあるときに仮想的なカメラ609で撮
影される映像を、図12(e)は操作対象オブジェクト
601が(e)の位置にあるときに仮想的なカメラ609で撮
影される映像を、それぞれ示している。
FIG. 12 is a diagram showing an example of an image obtained when the image is taken by the virtual camera 609 arranged as shown in FIG. Here, FIG. 12A shows a video shot by the virtual camera 609 when the operation target object 601 is at the position of FIG. 10A in FIG. 10, and FIG. FIG. 12C shows an image captured by the virtual camera 609 when the object 601 is at the position (b), and FIG. 6
The images shot at 09 are shown respectively. FIG. 12D shows an operation target object in FIG.
FIG. 12E shows an image captured by the virtual camera 609 when the 601 is at the position shown in FIG.
Video images shot by the virtual camera 609 when the 601 is at the position (e) are shown.

【0093】図13は、図11に示すようにして配置さ
れた仮想的なカメラ609で撮影した場合に得られる映像
の一例を示した図である。ここで、図13(a)は、図
11において、操作対象オブジェクト601が(a)の位
置にあるときに仮想的なカメラ609で撮影される映像
を、図13(b)は、操作対象オブジェクト601が
(b)の位置にあるときに仮想的なカメラ609で撮影さ
れる映像を、そして、図13(c)は、操作対象オブジ
ェクト601が(c)の位置にあるときに仮想的なカメラ6
09で撮影される映像を、それぞれ示している。
FIG. 13 is a diagram showing an example of an image obtained when the image is taken by the virtual camera 609 arranged as shown in FIG. Here, FIG. 13A shows an image captured by the virtual camera 609 when the operation target object 601 is at the position of FIG. 11A in FIG. 11, and FIG. FIG. 13C shows an image captured by the virtual camera 609 when the object 601 is at the position (b), and FIG. 13C shows a virtual camera when the operation target object 601 is at the position (c). 6
The images shot at 09 are shown respectively.

【0094】図10および図12から明らかなように、
上記の(1)-(3)に満たす条件を満足するように仮
想的なカメラ609の配置位置と向きを設定することによ
り、カメラ設置点606には、前回算出されたカメラ設置
点606’が考慮されるため、仮想的なカメラ609は、操作
対象オブジェクト601の動きに対し、少し遅れて操作対
象オブジェクト601の後ろを追従するように振舞う。ま
た、操作対象オブジェクト601が、移動方向を軸として
回動した(左右に傾いた)場合、仮想的なカメラ609
も、それに応じて、カメラ視線方向610を軸として回動
する。
As is apparent from FIGS. 10 and 12,
By setting the arrangement position and the orientation of the virtual camera 609 so as to satisfy the conditions satisfying the above (1) to (3), the camera installation point 606 ′ calculated last time becomes the camera installation point 606 ′. Therefore, the virtual camera 609 behaves so as to follow the movement of the operation target object 601 with a slight delay behind the operation target object 601. In addition, when the operation target object 601 is rotated around the movement direction as an axis (tilted right and left), the virtual camera 609
Also rotates about the camera viewing direction 610 as an axis.

【0095】また、図11および図13から明らかなよ
うに、上記の(1)-(3)に満たす条件を満足するよ
うに仮想的なカメラ609の配置位置と向きを設定するこ
とにより、仮想的なカメラ609は、操作対象オブジェク
ト601の移動速度が大きくなるほど、操作対象オブジェ
クト601から遠ざかる方向に移動することになる。ま
た、カメラ視線方向610は、操作対象オブジェクト601の
移動速度が大きくなるほど、操作対象オブジェクト601
の前方に向けられる。
As is clear from FIGS. 11 and 13, by setting the arrangement position and orientation of the virtual camera 609 so as to satisfy the conditions satisfying the above (1)-(3), The typical camera 609 moves in a direction away from the operation target object 601 as the moving speed of the operation target object 601 increases. Further, the camera viewing direction 610 is such that as the moving speed of the operation target object 601 increases, the operation target object
Pointed forward of

【0096】図6に戻って説明を続ける。Returning to FIG. 6, the description will be continued.

【0097】画像生成部806は、3次元地図作成部803お
よびオブジェクト配置部804により地形および操作対象
オブジェクトが配置された3次元世界を、カメラ配置部
805にて配置位置および視線方向が設定された仮想的な
カメラで撮影することで得られる2次元画像を生成す
る。具体的には、仮想的なカメラの配置位置を視点と
し、当該カメラの向きを視線方向として、かつ、操作対
象オブジェクト601の移動方向を軸とした左右に傾きに
応じて、仮想的なカメラ609を、カメラ視線方向610を軸
として回動させて、仮想的なカメラスクリーン上に、3
次元世界中にある操作対象オブジェクトや地図構成物を
投影する処理(レンダリング)を行うことで2次元画像
を生成する。
[0097] The image generation unit 806 converts the three-dimensional world in which the terrain and the object to be operated are arranged by the three-dimensional map creation unit 803 and the object arrangement unit 804 into a camera arrangement unit.
At 805, a two-dimensional image obtained by photographing with a virtual camera in which the arrangement position and the viewing direction are set is generated. Specifically, the virtual camera 609 is set in accordance with the position of the virtual camera as the viewpoint, the direction of the camera as the line of sight, and the left and right tilts with the movement direction of the operation target object 601 as the axis. Is rotated about the camera viewing direction 610 as an axis, and 3
A two-dimensional image is generated by performing a process (rendering) of projecting an operation target object or a map component in a three-dimensional world.

【0098】表示制御部807は、画像生成部806で生成さ
れた2次元画像をビデオ信号に変換し、本エンタテイン
メント装置1に接続された表示装置に出力する。
[0098] The display control unit 807 converts the two-dimensional image generated by the image generation unit 806 into a video signal, and outputs the video signal to a display device connected to the entertainment apparatus 1.

【0099】なお、画像生成部806や表示制御部807は、
図4において、たとえば、CPU51がGTE61およびG
PU62を利用することで実現される。次に、エンタテイ
ンメント装置1上に構築される、フライトシミュレーシ
ョンゲームを実現するためのソフトウエア構成の動作に
ついて説明する。
The image generation unit 806 and the display control unit 807
In FIG. 4, for example, CPU 51 has GTE 61 and GTE 61.
This is realized by using the PU62. Next, an operation of a software configuration for realizing a flight simulation game built on the entertainment apparatus 1 will be described.

【0100】図14は、エンタテインメント装置1上に
構築される、フライトシミュレーションゲームを実現す
るためのソフトウエア構成の動作を説明するためのフロ
ー図である。
FIG. 14 is a flowchart for explaining the operation of the software configuration for realizing the flight simulation game, which is built on the entertainment apparatus 1.

【0101】まず、操作内容受付部801は、操作対象オ
ブジェクト601の移動速度を算出する(ステップS100
1)。具体的には、操作装置20の、スロットルの役割を
持たせたボタンの検知信号を検知することで、前回移動
速度を算出してからのスロットルのオン・オフ時間を測
定する。そして、前回算出した移動速度に、測定したス
ロットルオンの時間と予め定められた加速度より求まる
速度を加算し、および/または、測定したスロットルオ
フの時間と予め定められた減速度より求まる速度を減算
し、操作対象オブジェクト601の移動速度を算出する。
First, the operation content receiving unit 801 calculates the moving speed of the operation target object 601 (step S100)
1). Specifically, by detecting a detection signal of a button having a role of a throttle of the operation device 20, the on / off time of the throttle since the previous movement speed was calculated is measured. Then, the speed calculated from the measured throttle-on time and the predetermined acceleration is added to the previously calculated moving speed, and / or the speed obtained from the measured throttle-off time and the predetermined deceleration is subtracted. Then, the moving speed of the operation target object 601 is calculated.

【0102】次に、操作内容受付部801は、操作対象オ
ブジェクト601の移動方向を算出する(ステップS1002〜
S1004)。
Next, the operation content receiving unit 801 calculates the moving direction of the operation target object 601 (steps S1002 to S1002).
S1004).

【0103】具体的には、操作装置20の、操縦かんの役
割を持たせた操作軸31a、32aに加えられた操作により、
操作装置20から出力される信号が示すX−Y座標上の座
標値が、所定範囲内にあるか否かを調べる(ステップS1
002)。たとえば、図3に示す例では、X−Y座標上の
座標値がX座標値≧240、Y座標値≦15の範囲、あるい
は、X座標値≦15、Y座標値≦15の範囲にあるか否かを
調べる。
More specifically, the operation of the operation device 20 applied to the operation shafts 31a and 32a having the role of the control rod is performed.
It is checked whether or not the coordinate values on the XY coordinates indicated by the signal output from the operation device 20 are within a predetermined range (step S1).
002). For example, in the example shown in FIG. 3, whether the coordinate value on the XY coordinate is in the range of X coordinate value ≧ 240 and Y coordinate value ≦ 15 or in the range of X coordinate value ≦ 15 and Y coordinate value ≦ 15 Check whether or not.

【0104】所定範囲内にある場合は、操作対象オブジ
ェクト601に所定の動作を行わせるものとし、操作対象
オブジェクト601の移動方向が、当該動作を行うために
要求される方向となるように決定する(ステップS100
3)。たとえば、図3に示す例では、X−Y座標上の座
標値がX座標値≧240、Y座標値≦15の場合は、操作対
象オブジェクトに右回りの急旋回飛行を行わせるものと
判断し、前回算出した操作対象オブジェクト601の移動
方向から、操作対象オブジェクト601が表す飛行機を右
に45度傾かせ、当該飛行機の機首を45度挙げたもの
とし、当該操作対象オブジェクト601の移動方向を算出
する。X座標値≦15、Y座標値≦15の場合は、操作対象
オブジェクト601に左回りの急旋回飛行を行わせるもの
と判断し、前回算出した操作対象オブジェクト601の移
動方向から、前記飛行機を左に45度傾かせ、前記飛行
機の機首を45度挙げたものとし、当該操作対象オブジ
ェクト601の移動方向を決定する。
When the movement is within the predetermined range, the operation target object 601 is caused to perform a predetermined operation, and the moving direction of the operation target object 601 is determined to be the direction required for performing the operation. (Step S100
3). For example, in the example shown in FIG. 3, when the coordinate values on the XY coordinates are X coordinate value ≧ 240 and Y coordinate value ≦ 15, it is determined that the operation target object is to make a sharp clockwise turn. From the movement direction of the operation target object 601 calculated last time, the airplane represented by the operation target object 601 is inclined to the right by 45 degrees, and the nose of the airplane is raised by 45 degrees. calculate. When the X coordinate value ≦ 15 and the Y coordinate value ≦ 15, it is determined that the operation target object 601 is to make a sharp left turn, and the airplane is moved leftward from the previously calculated movement direction of the operation target object 601. The nose of the airplane is raised by 45 degrees, and the moving direction of the operation target object 601 is determined.

【0105】一方、所定範囲内にない場合は、操作軸31
a、32aに加えられた操作により、操作装置20から出力さ
れる信号が示すX−Y座標上の座標値に応じて、操作対
象オブジェクト601が表す飛行機の左右の傾き、およ
び、当該飛行機の機首の上下を決定する。そして、前記
飛行機を、前回算出した操作対象オブジェクト601の移
動方向から、前記決定した角度だけ上下左右させたもの
とし、当該操作対象オブジェクト601の移動方向を決定
する(ステップS1004)。
On the other hand, if it is not within the predetermined range, the operation shaft 31
In accordance with the coordinate values on the XY coordinates indicated by the signal output from the operation device 20 by the operations applied to the a and 32a, the inclination of the airplane represented by the operation target object 601 and the aircraft Determine the neck up and down. Then, it is assumed that the airplane is moved up, down, left, and right by the determined angle from the previously calculated movement direction of the operation target object 601, and the movement direction of the operation target object 601 is determined (step S1004).

【0106】次に、オブジェクト位置算出部802は、仮
想的な3次元世界中における操作対象オブジェクト601
の位置と姿勢を算出する(ステップS1005)。
Next, the object position calculator 802 operates the virtual three-dimensional operation object 601 in the world.
Is calculated (step S1005).

【0107】具体的には、前回算出した操作対象オブジ
ェクトの位置および姿勢と、操作内容受付部801で算出
された操作対象オブジェクト601の最新の移動速度か
ら、現時点での操作対象オブジェクト601の位置を算出
する。また、操作内容受付部801で決定された操作対象
オブジェクト601の最新の移動方向にしたがって、現時
点での操作対象オブジェクト601の姿勢を算出する。
More specifically, the position of the operation target object 601 at the present time is determined based on the position and orientation of the operation target object calculated last time and the latest moving speed of the operation target object 601 calculated by the operation content receiving unit 801. calculate. In addition, according to the latest moving direction of the operation target object 601 determined by the operation content receiving unit 801, the current posture of the operation target object 601 is calculated.

【0108】次に、3次元地図作成部803は、地図更新
の必要があるか否かを調べる(ステップS1006)。たと
えば、ステップS1005における操作対象オブジェクト601
の位置の算出処理がN回行われる毎に地図を更新する場
合は、カウンタを設け、カウント値がNに達したか否か
を調べる。Nに達した場合は、更新の必要ありと判断
し、カウント値をリセットして、ステップS1007に進
む。一方、カウント値がNに達していない場合は、カウ
ント値を1つインクリメントして、ステップS1008に進
む。
Next, the three-dimensional map creation unit 803 checks whether or not the map needs to be updated (step S1006). For example, the operation target object 601 in step S1005
When the map is updated every time the position calculation processing is performed N times, a counter is provided and it is checked whether or not the count value has reached N. If the number has reached N, it is determined that updating is necessary, the count value is reset, and the process proceeds to step S1007. On the other hand, if the count value has not reached N, the count value is incremented by one and the process proceeds to step S1008.

【0109】ステップS1007では、3次元地図地図作成
部803は、ステップS1005において、オブジェクト位置算
出部802により算出された操作対象オブジェクトの位置
周辺に配置される地図構成要素を地図DB503から読み出
し、3次元世界中に配置する。これにより、操作対象オ
ブジェクトの位置周辺に展開される地形を展開する。
In step S1007, the three-dimensional map map creator 803 reads from the map DB 503 the map components arranged in the vicinity of the position of the operation target object calculated by the object position calculator 802 in step S1005. Deploy all over the world. Thereby, the terrain developed around the position of the operation target object is developed.

【0110】ステップS1008では、オブジェクト配置部8
04は、ステップS1007において、3次元地図地図作成部8
03により地形が展開された3次元世界中において、オブ
ジェクトDA502によりその3次元形状など特定される操
作対象オブジェクト601を、ステップS1005において、オ
ブジェクト位置算出部802により算出した操作対象オブ
ジェクトの位置に配置する。この際、操作対象オブジェ
クトの姿勢が、ステップS1005において、オブジェクト
位置算出部802により算出した操作対象オブジェクトの
姿勢となるように、操作対象オブジェクトを配置する。
At step S1008, the object placement unit 8
In step S1007, the three-dimensional map
In the three-dimensional world where the terrain is expanded by 03, the operation target object 601 specified by the object DA502, such as its three-dimensional shape, is arranged at the position of the operation target object calculated by the object position calculation unit 802 in step S1005. . At this time, the operation target object is arranged such that the posture of the operation target object becomes the posture of the operation target object calculated by the object position calculation unit 802 in step S1005.

【0111】次に、カメラ配置部805は、先に図7〜図
13を用いて説明した要領にしたがい、ステップS100
7、S1008において、3次元地図地図作成部803およびオ
ブジェクト配置部804により、地形および操作対象オブ
ジェクト601が配置された3次元世界から、2次元画像
を生成するために用いられる、仮想的なカメラ609の配
置位置と向きを設定する処理を行う(ステップS100
9)。
Next, according to the procedure described earlier with reference to FIGS.
7. In S1008, a virtual camera 609 used by the three-dimensional map map creation unit 803 and the object placement unit 804 to generate a two-dimensional image from the three-dimensional world where the terrain and the operation target object 601 are placed. To set the arrangement position and orientation of the object (step S100
9).

【0112】上記のようにして、3次元世界中に操作対
象オブジェクト601および操作対象オブジェクト601周辺
の地形が配置され、この3次元世界中に配置された操作
対象オブジェクト601および操作対象オブジェクト601周
辺の地形を撮影する仮想的なカメラ609の配置位置と向
きが設定されると、画像生成部806は、この仮想的なカ
メラ609の配置位置を視点とし、当該カメラ609の向きを
視線方向として、かつ、操作対象オブジェクト601の移
動方向を軸とした左右に傾きに応じて、仮想的なカメラ
609を、カメラ視線方向610を軸として回動させて、この
3次元世界中に配置された操作対象オブジェクト601お
よび操作対象オブジェクト601を、仮想的なカメラスク
リーン上に投影するレンダリング処理を行う。これによ
り、2次元画像を生成する(ステップS1010)。
As described above, the operation target object 601 and the terrain around the operation target object 601 are arranged around the three-dimensional world, and the operation target object 601 and the periphery of the operation object 601 arranged around the three-dimensional world are arranged. When the arrangement position and the orientation of the virtual camera 609 that captures the terrain are set, the image generation unit 806 sets the arrangement position of the virtual camera 609 as a viewpoint, sets the orientation of the camera 609 as a line-of-sight direction, and , A virtual camera according to the inclination to the left or right around the movement direction of the operation target object 601
By rotating the 609 around the camera viewing direction 610 as an axis, a rendering process of projecting the operation target object 601 and the operation target object 601 arranged in the three-dimensional world on a virtual camera screen is performed. Thereby, a two-dimensional image is generated (step S1010).

【0113】それから、表示制御部807は、ステップS10
10において、画像生成部806により生成された2次元画
像をビデオ信号に変換し、本エンタテインメント装置1
に接続された表示装置に出力する(ステップS1011)。
Then, the display control unit 807 determines in step S10
At 10, the two-dimensional image generated by the image generation unit 806 is converted into a video signal, and the entertainment device 1
Is output to the display device connected to (step S1011).

【0114】上述した図14に示すフローを繰り返し行
うことにより、本エンタテインメント装置1は、操作装
置20を介して受け付けたプレイヤの操作内容にしたがい
仮想的な3次元世界中を移動する操作対象オブジェクト
601を、仮想的なカメラ609で撮影することで得られる動
画像を、本エンタテインメント装置1に接続された表示
装置の表示画面上に表示する。
By repeatedly performing the flow shown in FIG. 14 described above, the present entertainment apparatus 1 operates in accordance with the operation contents of the player received via the operation apparatus 20 and operates as a virtual three-dimensional object to be moved around the world.
A moving image obtained by shooting 601 with the virtual camera 609 is displayed on a display screen of a display device connected to the entertainment device 1.

【0115】以上、本発明の実施形態について説明し
た。
The embodiments of the present invention have been described above.

【0116】本実施形態によれば、仮想的なカメラ609
の配置位置であるカメラ設置点606に、前回算出された
カメラ設置点606’が考慮されるため、仮想的なカメラ6
09は、操作対象オブジェクト601の動きに対し、少し遅
れて操作対象オブジェクト601の後ろを追従するように
振舞う。また、操作対象オブジェクト601が移動方向を
軸として回動した場合には、仮想的なカメラ609も、そ
れに応じて、カメラ視線方向を軸として回動する。
According to the present embodiment, the virtual camera 609
The camera installation point 606 ′ calculated last time is considered as the camera installation point 606 which is the arrangement position of the virtual camera 6
09 acts so as to follow the movement of the operation target object 601 with a slight delay with respect to the movement of the operation target object 601. Further, when the operation target object 601 rotates around the moving direction, the virtual camera 609 also rotates around the camera line of sight as an axis.

【0117】このため、プレイヤは、操作装置20を用い
て操作する操作対象オブジェクト601の仮想的な3次元
世界中における振る舞いを、表示画面を通して把握する
ことが容易となる。したがって、フライトシミュレーシ
ョンゲームの臨場感が増し、娯楽性が向上する。
Therefore, the player can easily grasp the virtual three-dimensional behavior of the operation target object 601 operated using the operation device 20 through the display screen. Therefore, the realism of the flight simulation game is increased, and the entertainment is improved.

【0118】また、本実施形態によれば、仮想的なカメ
ラ609は、操作対象オブジェクト601の移動速度が大きく
なるほど、操作対象オブジェクト601から遠ざかる方向
に移動することになる。
According to the present embodiment, the virtual camera 609 moves in a direction away from the operation target object 601 as the moving speed of the operation target object 601 increases.

【0119】このため、プレイヤが、操作装置20を用い
て操作対象オブジェクト601の移動速度を上げた場合、
移動速度の増加分に応じて、仮想的なカメラ609に収め
られる(つまり表示装置の表示画面に表示される)オブ
ジェクト周囲の映像が広くなる。したがって、操作対象
オブジェクト601の移動速度を上げたときに、極端に操
作が難くなることを防ぐことができる。
Therefore, when the player increases the moving speed of the operation target object 601 using the operation device 20,
In accordance with the increase in the moving speed, the image around the object contained in the virtual camera 609 (that is, displayed on the display screen of the display device) becomes wider. Therefore, it is possible to prevent the operation from becoming extremely difficult when the moving speed of the operation target object 601 is increased.

【0120】なお、操作対象オブジェクト601の移動速
度は、当該オブジェクト601の当該オブジェクト周囲に
配置された地形に対する相対速度として、表示装置の表
示画面に表示される動画像に反映されるため、操作対象
オブジェクト601の移動速度の増加分に応じて、仮想的
なカメラ609に収められるオブジェクト周囲の映像が広
くなっても、動画像から得られるスピード感は失われな
い。
The moving speed of the operation target object 601 is reflected on the moving image displayed on the display screen of the display device as the relative speed of the object 601 with respect to the terrain arranged around the object. Even if the image around the object contained in the virtual camera 609 is widened according to the increase in the moving speed of the object 601, the sense of speed obtained from the moving image is not lost.

【0121】さらに、本実施形態では、仮想的なカメラ
609のカメラ視線方向610は、操作対象オブジェクト601
の移動速度が大きくなるほど、操作対象オブジェクト60
1の前方に向けられる。
Further, in this embodiment, a virtual camera
609 camera gaze direction 610 is the operation target object 601
The higher the moving speed of the
Pointed forward one.

【0122】このため、プレイヤが、操作装置20を用い
て操作対象オブジェクト601の移動速度を上げた場合、
移動速度の増加分に応じて、仮想的なカメラ609に収め
られるオブジェクト周囲の映像がより遠方にまで広が
る。したがって、操作対象オブジェクト601の移動速度
を上げたときに、極端に操作が難くなることをさらに効
率よく防ぐことができる。
For this reason, when the player increases the moving speed of the operation target object 601 using the operation device 20,
In accordance with the increase in the moving speed, the image around the object stored in the virtual camera 609 spreads farther. Therefore, when the moving speed of the operation target object 601 is increased, it is possible to more efficiently prevent the operation from becoming extremely difficult.

【0123】くわえて、本実施形態では、操作対象オブ
ジェクト609が表す飛行機の左右の傾きや機首の上下
を、操作装置20の操作軸31a、32aに加えられた操作によ
り、操作装置20から出力されたX−Y座標上の座標値に
応じて決定している。そして、前記X-Y座標値が所定
の範囲にある場合、操作対象オブジェクト601、所定の
動作(たとえば、急旋回などの、現実の世界において操
縦が困難と思われる動作)を行わせるものと判断させ、
操作対象オブジェクト601の移動方向が、当該動作を行
うために要求される方向となるように決定している。
In addition, in the present embodiment, the inclination of the airplane represented by the operation target object 609 and the elevation of the nose are output from the operation device 20 by the operation applied to the operation axes 31a and 32a of the operation device 20. Is determined according to the coordinate values on the XY coordinates thus obtained. When the XY coordinate values are within a predetermined range, it is determined that the operation target object 601 is to perform a predetermined operation (for example, an operation that is difficult to steer in the real world, such as a sharp turn). Let
The moving direction of the operation target object 601 is determined to be the direction required to perform the operation.

【0124】このようにすることで、操作装置20の操作
軸31a、32aに、操縦かんと同じ機能をそのまま持たせる
場合に比べ、操作対象オブジェクト601の操作を簡単に
することができる。したがって、不慣れなプレイヤにと
っても、十分にフライトシミュレーションゲームを楽し
むことができる。
In this manner, the operation of the operation target object 601 can be simplified as compared with the case where the operation axes 31a and 32a of the operation device 20 have the same function as the control lever. Therefore, even an unskilled player can fully enjoy the flight simulation game.

【0125】なお、本発明は、上記の実施形態に限定さ
れるものではなく、その要旨の範囲内で様々な変形が可
能である。
The present invention is not limited to the above embodiment, and various modifications are possible within the scope of the invention.

【0126】上記の実施形態では、仮想的なカメラ609
の配置位置であるカメラ設置点606に、前回算出された
カメラ設置点606’が考慮されるように設定している。
しかしながら、本発明はこれに限定されない。カメラ設
置点606は、少なくとも1つ前に算出されたカメラ設置
点を考慮して設定するものであればよい。
In the above embodiment, the virtual camera 609
The camera installation point 606, which is the arrangement position of, is set so that the previously calculated camera installation point 606 ′ is considered.
However, the present invention is not limited to this. The camera installation point 606 only needs to be set in consideration of the camera installation point calculated at least one before.

【0127】たとえば、1つ前に算出されたカメラ設置
点606’およびカメラ追跡点604間の距離Lを所定値Mで
割ることで得られる距離L/Mだけ、前記カメラ設置点6
06’およびカメラ追跡点604間の中間点からカメラ追跡
点604へ近づく位置に、カメラ設置点606を設定するよう
にしてもよい。
For example, the distance L / M obtained by dividing the distance L between the camera installation point 606 ′ and the camera tracking point 604 calculated immediately before by a predetermined value M is equal to the camera installation point 6.
The camera installation point 606 may be set at a position approaching the camera tracking point 604 from 06 ′ and an intermediate point between the camera tracking points 604.

【0128】あるいは、1つ前に算出されたカメラ設置
点606’と2つ前に算出されたカメラ設置点606”との中
間点およびカメラ追跡点604間の距離Lを所定値Mで割
ることで得られる距離L/Mだけ、前記中間点からカメ
ラ追跡点604へ近づく位置に、カメラ設置点606を設定す
るようにしてもよい。
Alternatively, a distance L between an intermediate point between the camera installation point 606 ′ calculated immediately before and the camera installation point 606 ″ calculated two times before and the camera tracking point 604 is divided by a predetermined value M. The camera installation point 606 may be set at a position approaching the camera tracking point 604 from the intermediate point by the distance L / M obtained in the above.

【0129】また、上記の実施形態では、本エンタテイ
ンメント装置1を用いてフライトシミュレーションゲー
ムを行う場合を例にとり説明したが、本発明はこれに限
定されない。たとえば、本エンタテインメント装置1を
用いて、ドライブシミュレーションゲームなどの、操作
装置20を介して受け付けたプレイヤの操作内容にしたが
い仮想的な3次元世界中の操作対象オブジェクトの移動
させることが可能な、様々なテレビゲームを行う場合に
適用可能である。
Further, in the above embodiment, the case where the flight simulation game is performed using the present entertainment apparatus 1 has been described as an example, but the present invention is not limited to this. For example, using the present entertainment apparatus 1, it is possible to move a virtual three-dimensional operation target object in the world according to the operation content of the player received via the operation apparatus 20, such as a drive simulation game. This is applicable when playing a simple video game.

【0130】なお、本エンタテインメント装置1を用い
てドライブシミュレーションゲームを行う場合、操作軸
31a、32aに加えられた操作により操作装置20から出力さ
れた信号が示すX−Y座標上の座標値が所定の範囲にあ
る場合、操作内容受付部801は、操作対象オブジェクト
に急回転などの、現実の世界において、操縦が困難と思
われる動作を行わせるものと判断させ、操作対象オブジ
ェクトの移動方向が、当該動作を行うために要求される
方向となるように決定すればよい。
When a drive simulation game is performed using the entertainment apparatus 1, the operation axis
When the coordinate values on the XY coordinates indicated by the signal output from the operation device 20 by the operations applied to the operations 31a and 32a are within a predetermined range, the operation content receiving unit 801 determines that the operation target object has a sudden rotation or the like. In the real world, it may be determined that an operation that is considered to be difficult to perform is performed, and the moving direction of the operation target object may be determined to be the direction required for performing the operation.

【0131】また、本発明における、仮想的なカメラ60
9の配置位置や向きの設定方法は、テレビゲームのみな
らず、仮想的な3次元世界中を移動する表示オブジェク
トを仮想的なカメラで撮影することで動画像を生成する
装置に広く適用可能である。
In the present invention, the virtual camera 60
The method of setting the arrangement position and orientation of 9 can be widely applied not only to video games but also to a device that generates a moving image by shooting a virtual three-dimensional display object moving around the world with a virtual camera. is there.

【0132】また、エンタテインメント装置1の外観お
よびハードウエア構成は、図1、図2および図4に示し
たものに限定されない。エンタテインメント装置1は、
たとえば、CPUと、メモリと、ハードディスク装置な
どの外部記憶装置と、CD-ROMやDVD-ROMなど
の可搬性を有する記憶媒体からデータを読み取る読取装
置と、キーボードやマウスなどの入力装置と、ディスプ
レイなどの表示装置と、インターネットなどのネットワ
ークを介して通信を行うためのデータ通信装置と、上述
した各装置間のデータ送受を司るインターフェースとい
った、一般的な電子計算機の構成を有するものであって
もよい。
The appearance and the hardware configuration of the entertainment apparatus 1 are not limited to those shown in FIGS. 1, 2 and 4. The entertainment device 1
For example, a CPU, a memory, an external storage device such as a hard disk device, a reading device for reading data from a portable storage medium such as a CD-ROM or a DVD-ROM, an input device such as a keyboard and a mouse, and a display And the like, a data communication device for performing communication via a network such as the Internet, and an interface for controlling data transmission / reception between the above-described devices. Good.

【0133】また、エンタテインメント装置1上に、図
6に示すソフトウエア構成を構築するためのプログラム
や、3次元世界中に配置する地図構成要素および操作対
象オブジェクトの3次元形状などを特定するための各種
データは、読取装置を介して、可搬性を有する記憶媒体
から読み出され、メモリや外部記憶装置に記憶されるよ
うにしてもよいし、あるいは、データ通信装置を介し
て、ネットワークからダウンロードされ、メモリや外部
記憶装置に記憶されるようにしてもよい。
A program for constructing the software configuration shown in FIG. 6 on the entertainment apparatus 1, a map component to be arranged in a three-dimensional world, and a three-dimensional shape of an operation object are specified. The various data may be read from a portable storage medium via a reading device and stored in a memory or an external storage device, or may be downloaded from a network via a data communication device. May be stored in a memory or an external storage device.

【0134】[0134]

【発明の効果】以上のように、本発明によれば、仮想的
な3次元世界中を移動するオブジェクトを仮想的なカメ
ラで撮影することで得られる動画像を、表示装置の表示
画面上に表示するエンタテインメント装置において、表
示装置の表示画面に表示された動画像から、3次元世界
中におけるオブジェクトの振る舞いをより把握できるよ
うにすることができる。
As described above, according to the present invention, a moving image obtained by photographing a virtual three-dimensional object moving around the world with a virtual camera is displayed on a display screen of a display device. In the entertainment device to be displayed, the behavior of the object in the three-dimensional world can be more grasped from the moving image displayed on the display screen of the display device.

【0135】特に、フライトシミュレーションやドライ
ブシミュレーションなどの、操作者が操作装置を用いて
仮想的な3次元世界中を移動するオブジェクトを操作す
ることのできるエンタテイメント装置において、操作者
は、自身が操作したオブジェクトの仮想的な3次元世界
中における振る舞いを、表示画面を通して把握すること
が容易となる。これにより、臨場感が増し、娯楽性が向
上する。
In particular, in an entertainment device such as a flight simulation or a drive simulation, in which the operator can operate a virtual three-dimensional object moving around the world using the operation device, the operator operates the operation device. It is easy to grasp the behavior of the object in the virtual three-dimensional world through the display screen. As a result, the sense of presence is increased, and the entertainment is improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態が適用されたエンタテイン
メント装置1および操作装置20の外観例を示した図であ
る。
FIG. 1 is a view showing an example of the appearance of an entertainment apparatus 1 and an operation apparatus 20 to which an embodiment of the present invention is applied.

【図2】図1に示す操作装置20を示した図である。FIG. 2 is a view showing the operation device 20 shown in FIG.

【図3】図2に示す操作装置20の操作軸31a、32aを用
いて入力できる値を説明するための図である。
FIG. 3 is a diagram for explaining values that can be input using the operation axes 31a and 32a of the operation device 20 shown in FIG. 2;

【図4】図1に示すエンタテインメント装置1のハード
ウエア構成例を示す図である。
FIG. 4 is a diagram showing an example of a hardware configuration of the entertainment apparatus 1 shown in FIG.

【図5】エンタテインメント装置1のディスク装着部3
に装着される光ディスク85のデータ構成を説明するため
の図である。
FIG. 5 shows a disc mounting unit 3 of the entertainment apparatus 1.
FIG. 3 is a diagram for explaining a data configuration of an optical disk 85 mounted on the optical disk 85.

【図6】図4に示すエンタテインメント装置1上に構築
される、フライトシミュレーションゲームを実現するた
めのソフトウエア構成を示した図である。
6 is a diagram showing a software configuration for realizing a flight simulation game built on the entertainment device 1 shown in FIG.

【図7】図6に示すカメラ配置部805によって3次元世
界中に配置される仮想的なカメラ608と操作対象オブジ
ェクト601との位置関係を説明するための図である。
7 is a diagram for explaining a positional relationship between a virtual camera 608 and an operation target object 601 which are arranged in a three-dimensional world by the camera arrangement unit 805 shown in FIG.

【図8】図6に示すカメラ配置部805によって3次元世
界中に配置される仮想的なカメラ608と操作対象オブジ
ェクト601との位置関係を説明するための図である。
8 is a diagram for explaining a positional relationship between a virtual camera 608 and an operation target object 601 arranged around the three-dimensional world by the camera arrangement unit 805 shown in FIG.

【図9】図6に示すカメラ配置部805によって3次元世
界中に配置される仮想的なカメラ608と操作対象オブジ
ェクト601との位置関係を説明するための図である。
9 is a diagram for explaining a positional relationship between a virtual camera 608 and an operation target object 601 arranged around the three-dimensional world by the camera arrangement unit 805 shown in FIG.

【図10】操作対象オブジェクト601の動きに対し、図
6に示すカメラ配置部805によって3次元世界中に配置
される仮想的なカメラ608がどのように振舞うかを説明
するための図である。
FIG. 10 is a diagram for explaining how a virtual camera 608 arranged in the three-dimensional world by the camera arrangement unit 805 shown in FIG. 6 behaves in response to the movement of the operation target object 601.

【図11】操作対象オブジェクト601の動きに対し、図
6に示すカメラ配置部805によって3次元世界中に配置
される仮想的なカメラ608がどのように振舞うかを説明
するための図である。
11 is a diagram for explaining how a virtual camera 608 arranged in the three-dimensional world by the camera arrangement unit 805 shown in FIG. 6 behaves in response to the movement of the operation target object 601.

【図12】図10に示すようにして配置された仮想的な
カメラ609で撮影した場合に得られる映像の一例を示し
た図である。
12 is a diagram illustrating an example of a video obtained when photographing is performed by a virtual camera 609 arranged as illustrated in FIG. 10;

【図13】図11に示すようにして配置された仮想的な
カメラ609で撮影した場合に得られる映像の一例を示し
た図である。
13 is a diagram illustrating an example of a video obtained when photographing is performed by a virtual camera 609 arranged as illustrated in FIG. 11;

【図14】図6に示した、エンタテインメント装置1上
に構築されるフライトシミュレーションゲームを実現す
るためのソフトウエア構成の動作を説明するためのフロ
ー図である。
FIG. 14 is a flowchart for explaining the operation of the software configuration for realizing the flight simulation game built on the entertainment apparatus 1 shown in FIG. 6;

【図15】従来のフライトシミュレーションゲームを行
うエンタテイメント装置におけるオブジェクト(飛行機
を表すオブジェクト)901と仮想的なカメラ902との位置
関係を説明するための図である。
FIG. 15 is a diagram for explaining a positional relationship between an object (an object representing an airplane) 901 and a virtual camera 902 in an entertainment device that performs a conventional flight simulation game.

【図16】図15に示すようにして配置された仮想的な
カメラ902からオブジェクト901を撮影した場合に得られ
る映像を示した図である。
16 is a diagram showing a video obtained when an object 901 is photographed from a virtual camera 902 arranged as shown in FIG.

【符号の説明】[Explanation of symbols]

1…エンタテインメント装置 2…本体 3…ディスク装着部 4…リセットスイッチ 5…電源スイッチ 6…ディスク操作スイッチ 7A,7B…スロット部 8A,8B…メモリカード挿入部 12…操作装置接続部 20…操作装置 21,22…操作部 23L…Lボタン 23R…Rボタン 24…スタートボタン 25…選択ボタン 26…メモリカード 31,32…アナログ操作部 31a,32a…操作軸 33…モード選択スイッチ 34…表示部 50…制御系 51…中央処理装置(CPU:Central Prosessing Unit) 52…周辺装置制御部 53…メインメモリ 54…ROM 60…グラフィックシステム 61…ジオメトリトランスファエンジン(GTE:Geometry T
ransfer Engine) 62…画像処理装置(GPU:Graphic Processing Unit) 63…フレームバッファ 64…画像デコーダ 70…サウンドシステム 71…音声処理装置(SPU:Sound Processing Unit) 72…サウンドバッファ 73…スピーカ 80…光ディスク制御部 81…光ディスク装置 82…デコーダ 83…バッファ 84…サブCPU 90…通信制御部 91…通信制御機 100…携帯用電子機器 501…アプリケーションプログラム 502…オブジェクトデータ 503…地図データベース 601…操作対象オブジェクト 609…仮想的なカメラ 801…操作内容受付部 802…オブジェクト位置算出部 803…3次元地図作成部 804…オブジェクト配置部 805…カメラ配置部 806…画像生成部 807…表示制御部
1 Entertainment unit 2 Main unit 3 Disk mounting unit 4 Reset switch 5 Power switch 6 Disk operation switch 7A, 7B Slot unit 8A, 8B Memory card insertion unit 12 Operating unit connection unit 20 Operating unit 21 , 22 ... Operation part 23L ... L button 23R ... R button 24 ... Start button 25 ... Select button 26 ... Memory card 31,32 ... Analog operation part 31a, 32a ... Operation axis 33 ... Mode selection switch 34 ... Display part 50 ... Control System 51 Central processing unit (CPU) 52 Peripheral device control unit 53 Main memory 54 ROM 60 Graphic system 61 Geometry transfer engine (GTE: Geometry T)
(ransfer Engine) 62 ... Graphic Processing Unit (GPU) 63 ... Frame Buffer 64 ... Image Decoder 70 ... Sound System 71 ... Sound Processing Unit (SPU) 72 ... Sound Buffer 73 ... Speaker 80 ... Optical Disk Control Unit 81 optical disk device 82 decoder 83 buffer 84 sub CPU 90 communication control unit 91 communication controller 100 portable electronic device 501 application program 502 object data 503 map database 601 operation object 609 Virtual camera 801… Operation content receiving unit 802… Object position calculation unit 803… 3D map creation unit 804… Object placement unit 805… Camera placement unit 806… Image generation unit 807… Display control unit

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】操作装置を介して受け付けた操作者の操作
内容にしたがい仮想的な3次元世界中を移動するオブジ
ェクトを、仮想的なカメラで撮影することで得られる動
画像を、表示装置の表示画面上に表示するエンタテイン
メント装置であって、 前記3次元世界中における前記オブジェクトの位置およ
び移動方向を逐次算出するオブジェクト位置算出手段
と、 前記オブジェクト位置算出手段で前記オブジェクトの位
置および移動方向が算出される毎に、前記3次元世界中
における前記仮想的なカメラの設置位置を、少なくとも
1つ前に算出した当該仮想的なカメラの設置位置を考慮
して決定するカメラ設定手段と、を有することを特徴と
するエンタテインメント装置。
1. A moving image obtained by photographing a virtual three-dimensional object moving around the world with a virtual camera in accordance with an operation content of an operator received via an operation device. An entertainment apparatus for displaying on a display screen, an object position calculating means for sequentially calculating a position and a moving direction of the object in the three-dimensional world, and a position and a moving direction of the object being calculated by the object position calculating means. Camera setting means for determining an installation position of the virtual camera in the three-dimensional world in consideration of the installation position of the virtual camera calculated at least one time before. An entertainment device characterized by the following.
【請求項2】請求項1記載のエンタテインメント装置で
あって、 前記カメラ設定手段は、 前記オブジェクト位置算出手段で新たに算出された前記
オブジェクトの位置を通り、新たに算出された前記オブ
ジェクトの移動方向に平行な線上の、当該オブジェクト
の位置から距離Kだけ後方の位置より所定値Hだけ上方
の位置に、カメラ追跡点を設定する手段を有し、 少なくとも1つ前に算出した前記仮想的なカメラの設置
位置から前記カメラ追跡点へ近づく位置に、当該仮想的
なカメラの設置位置を設定することを特徴とするエンタ
テインメント装置。
2. The entertainment apparatus according to claim 1, wherein said camera setting means passes through a position of said object newly calculated by said object position calculating means and moves in a direction of said newly calculated object. Means for setting a camera tracking point at a position that is a predetermined value H above a position behind the object by a distance K from the position of the object on a line parallel to the virtual camera; An entertainment device, wherein the virtual camera installation position is set at a position approaching the camera tracking point from the installation position of the virtual camera.
【請求項3】請求項2記載のエンタテインメント装置で
あって、 前記カメラ設定手段は、 前記カメラ追跡点および少なくとも1つ前に算出した前
記仮想的なカメラの設置位置間の距離Lを、所定値Mで
割ることで得られる距離L/Mだけ、少なくとも1つ前
に算出した前記仮想的なカメラの設置位置から前記カメ
ラ追跡点に近づく位置に、当該仮想的なカメラの設置位
置を設定することを特徴とするエンタテインメント装
置。
3. The entertainment apparatus according to claim 2, wherein the camera setting means sets a distance L between the camera tracking point and the installation position of the virtual camera calculated at least one time earlier by a predetermined value. Setting the virtual camera installation position at a position closer to the camera tracking point from the virtual camera installation position calculated at least one before by the distance L / M obtained by dividing by M An entertainment device characterized by the following.
【請求項4】請求項3記載のエンタテインメント装置で
あって、 前記カメラ設定手段は、 前記距離Kを、前記3次元世界中における前記オブジェ
クトの移動速度が大きくなるほど短くなるように設定す
ることを特徴とするエンタテインメント装置。
4. The entertainment apparatus according to claim 3, wherein the camera setting means sets the distance K such that the distance K decreases as the moving speed of the object in the three-dimensional world increases. Entertainment device.
【請求項5】請求項1、2、3または4記載のエンタテ
インメント装置であって、 前記カメラ設定手段は、 前記オブジェクト位置算出手段で新たに算出された前記
オブジェクトの位置を通り、新たに算出された前記オブ
ジェクトの移動方向に平行な線上の、当該オブジェクト
の位置から距離Jだけ前方の位置に、カメラ参照点を設
定する手段をさらに有し、 前記仮想的なカメラが、前記カメラ参照点を向くよう
に、当該仮想的なカメラの視線方向を設定することを特
徴とするエンタテインメント装置。
5. The entertainment device according to claim 1, wherein said camera setting means is newly calculated by passing through the position of said object newly calculated by said object position calculating means. Means for setting a camera reference point at a position on the line parallel to the moving direction of the object by a distance J from the position of the object, wherein the virtual camera faces the camera reference point. An entertainment apparatus characterized in that the gaze direction of the virtual camera is set as described above.
【請求項6】請求項5記載のエンタテインメント装置で
あって、 前記カメラ設定手段は、 前記距離Jを、前記3次元世界中における前記オブジェ
クトの移動速度が大きくなるほど長くなるように設定す
ることを特徴とするエンタテインメント装置。
6. The entertainment apparatus according to claim 5, wherein the camera setting means sets the distance J such that the distance J increases as the moving speed of the object in the three-dimensional world increases. Entertainment device.
【請求項7】請求項1、2、3、4、5または6記載の
エンタテインメント装置であって、 前記カメラ設定手段は、 前記オブジェクトの移動方向を軸とした回動に応じて、
前記仮想的なカメラを、当該カメラの視線方向を軸とし
て回動させることを特徴とするエンタテインメント装
置。
7. The entertainment device according to claim 1, wherein the camera setting means is configured to:
An entertainment apparatus, characterized in that the virtual camera is rotated about a line of sight of the camera as an axis.
【請求項8】電子計算機に読み取られて実行されるプロ
グラムを記憶した記憶媒体であって、 前記プログラムは、前記電子計算機に読み取られて実行
されることで、 当該電子計算機に接続された操作装置を介して受け付け
た操作者の操作内容にしたがい仮想的な3次元世界中を
移動するオブジェクトを、仮想的なカメラで撮影するこ
とで得られる動画像を、当該電子計算機に接続された表
示装置の表示画面上に表示する手段を、当該電子計算機
上に構築するものであり、 前記表示する手段は、 前記3次元世界中における前記オブジェクトの位置およ
び移動方向を逐次算出するオブジェクト位置算出手段
と、 前記オブジェクト位置算出手段で前記オブジェクトの位
置および移動方向が算出される毎に、前記3次元世界中
における前記仮想的なカメラの設置位置を、少なくとも
1つ前に算出した当該仮想的なカメラの設置位置を考慮
して決定するカメラ設定手段と、を有することを特徴と
する記憶媒体。
8. A storage medium storing a program which is read and executed by a computer, wherein the program is read and executed by the computer, whereby the operating device is connected to the computer. A moving image obtained by shooting a virtual three-dimensional object moving around the world with a virtual camera in accordance with the operation content of the operator received via the computer is displayed on a display device connected to the computer. Means for displaying on the display screen, means for displaying on the computer, wherein the means for displaying comprises: an object position calculating means for sequentially calculating a position and a moving direction of the object in the three-dimensional world; Each time the position and movement direction of the object are calculated by the object position calculation means, the virtual position in the three-dimensional world is calculated. Storage medium of the installation position of the camera, and having a camera setting unit be determined in consideration of the virtual camera installation position of the calculated at least one previous, the.
【請求項9】請求項8記載の記憶媒体であって、 前記カメラ設定手段は、 前記オブジェクト位置算出手段で新たに算出された前記
オブジェクトの位置を通り、新たに算出された前記オブ
ジェクトの移動方向に平行な線上の、当該オブジェクト
の位置から距離Kだけ後方の位置より所定値Hだけ上方
の位置に、カメラ追跡点を設定する手段を有し、 少なくとも1つ前に算出した前記仮想的なカメラの設置
位置から前記カメラ追跡点へ近づく位置に、当該仮想的
なカメラの設置位置を設定することを特徴とする記憶媒
体。
9. The storage medium according to claim 8, wherein said camera setting means passes through a position of said object newly calculated by said object position calculating means, and moves in a direction of said newly calculated object. Means for setting a camera tracking point at a position that is a predetermined value H above a position behind the object by a distance K from the position of the object on a line parallel to the virtual camera; A virtual camera installation position set at a position approaching the camera tracking point from the installation position of the virtual camera.
【請求項10】請求項9記載の記憶媒体であって、 前記カメラ設定手段は、 前記カメラ追跡点および少なくとも1つ前に算出した前
記仮想的なカメラの設置位置間の距離Lを、所定値Mで
割ることで得られる距離L/Mだけ、少なくとも1つ前
に算出した前記仮想的なカメラの設置位置から前記カメ
ラ追跡点に近づく位置に、当該仮想的なカメラの設置位
置を設定することを特徴とする記憶媒体。
10. The storage medium according to claim 9, wherein the camera setting means sets a distance L between the camera tracking point and the calculated position of the virtual camera calculated at least one time earlier by a predetermined value. Setting the virtual camera installation position at a position closer to the camera tracking point from the virtual camera installation position calculated at least one before by the distance L / M obtained by dividing by M A storage medium characterized by the above-mentioned.
【請求項11】請求項10記載の記憶媒体であって、 前記カメラ設定手段は、 前記距離Kを、前記3次元世界中における前記オブジェ
クトの移動速度が大きくなるほど短くなるように設定す
ることを特徴とする記憶媒体。
11. The storage medium according to claim 10, wherein said camera setting means sets the distance K such that the distance K decreases as the moving speed of the object in the three-dimensional world increases. Storage medium.
【請求項12】請求項8、9、10または11記載の記
憶媒体であって、 前記カメラ設定手段は、 前記オブジェクト位置算出手段で新たに算出された前記
オブジェクトの位置を通り、新たに算出された前記オブ
ジェクトの移動方向に平行な線上の、当該オブジェクト
の位置から距離Jだけ前方の位置に、カメラ参照点を設
定する手段をさらに有し、 前記仮想的なカメラが、前記カメラ参照点を向くよう
に、当該仮想的なカメラの視線方向を設定することを特
徴とする記憶媒体。
12. The storage medium according to claim 8, 9, 10, or 11, wherein said camera setting means passes through a position of said object newly calculated by said object position calculating means and is newly calculated. Means for setting a camera reference point at a position on the line parallel to the moving direction of the object by a distance J from the position of the object, wherein the virtual camera faces the camera reference point. A storage medium for setting the line of sight of the virtual camera.
【請求項13】請求項12記載の記憶媒体であって、 前記カメラ設定手段は、 前記距離Jを、前記3次元世界中における前記オブジェ
クトの移動速度が大きくなるほど長くなるように設定す
ることを特徴とする記憶媒体。
13. The storage medium according to claim 12, wherein said camera setting means sets the distance J such that the distance J increases as the moving speed of the object in the three-dimensional world increases. Storage medium.
【請求項14】請求項8、9、10、11、12または
13記載の記憶媒体であって、 前記カメラ設定手段は、 前記オブジェクトの移動方向を軸とした回動に応じて、
前記仮想的なカメラを、当該カメラの視線方向を軸とし
て回動させることを特徴とする記憶媒体。
14. The storage medium according to claim 8, 9, 10, 11, 12, or 13, wherein said camera setting means is configured to:
A storage medium, characterized in that the virtual camera is rotated around a line of sight of the camera as an axis.
【請求項15】表示装置の表示画面上に、仮想的な3次
元世界中を移動するオブジェクトを仮想的なカメラで撮
影することで得られる動画像を表示する、オブジェクト
表示方法であって、 前記オブジェクトの前記3次元世界中における位置およ
び移動方向を逐次算出するステップと、 前記オブジェクトの位置および移動方向が算出される毎
に、前記3次元世界中における前記仮想的なカメラの設
置位置を、少なくとも1つ前に算出した当該仮想的なカ
メラの設置位置を考慮して決定するステップと、を有す
ることを特徴とするオブジェクト表示方法。
15. An object display method for displaying, on a display screen of a display device, a moving image obtained by photographing a virtual three-dimensional object moving around the world with a virtual camera. Calculating the position and the moving direction of the object in the three-dimensional world sequentially; and calculating the position of the virtual camera in the three-dimensional world at least every time the position and the moving direction of the object are calculated. Determining the position in consideration of the position of the virtual camera calculated immediately before, the object being displayed.
【請求項16】電子計算機に読み取られて実行されるプ
ログラムであって、 前記プログラムは、記憶装置に格納され、前記電子計算
機に読み取られて実行されることで、 当該電子計算機に接続された操作装置を介して受け付け
た操作者の操作内容にしたがい仮想的な3次元世界中を
移動するオブジェクトを、仮想的なカメラで撮影するこ
とで得られる動画像を、当該電子計算機に接続された表
示装置の表示画面上に表示する手段を、当該電子計算機
上に構築するものであり、 前記表示する手段は、 前記3次元世界中における前記オブジェクトの位置およ
び移動方向を逐次算出するオブジェクト位置算出手段
と、 前記オブジェクト位置算出手段で前記オブジェクトの位
置および移動方向が算出される毎に、前記3次元世界中
における前記仮想的なカメラの設置位置を、少なくとも
1つ前に算出した当該仮想的なカメラの設置位置を考慮
して決定するカメラ設定手段と、を有することを特徴と
するプログラム。
16. A program which is read and executed by an electronic computer, wherein the program is stored in a storage device, and read and executed by the electronic computer to execute an operation connected to the electronic computer. A display device connected to the computer displays a moving image obtained by photographing a virtual three-dimensional object moving around the world with a virtual camera according to the operation content of the operator received via the device. Means for constructing on the computer a means for displaying on the display screen, wherein the means for displaying comprises: an object position calculating means for sequentially calculating the position and moving direction of the object in the three-dimensional world; Each time the position and movement direction of the object are calculated by the object position calculation means, the temporary A program characterized by having a camera setting means for determining specific camera installation position of, in consideration of the installation position of the virtual camera calculated in at least one prior.
JP2001012277A 2000-01-21 2001-01-19 Entertainment device, storage medium, and object display method Expired - Fee Related JP3583994B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001012277A JP3583994B2 (en) 2000-01-21 2001-01-19 Entertainment device, storage medium, and object display method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000012810 2000-01-21
JP2000-12810 2000-01-21
JP2001012277A JP3583994B2 (en) 2000-01-21 2001-01-19 Entertainment device, storage medium, and object display method

Publications (2)

Publication Number Publication Date
JP2001273524A true JP2001273524A (en) 2001-10-05
JP3583994B2 JP3583994B2 (en) 2004-11-04

Family

ID=26583920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001012277A Expired - Fee Related JP3583994B2 (en) 2000-01-21 2001-01-19 Entertainment device, storage medium, and object display method

Country Status (1)

Country Link
JP (1) JP3583994B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007178693A (en) * 2005-12-27 2007-07-12 Fujitsu Ltd Simulation apparatus, method, and program
JP2007310748A (en) * 2006-05-19 2007-11-29 Sony Computer Entertainment Inc Image processor, image processing method and program
JP2012249799A (en) * 2011-06-02 2012-12-20 Nintendo Co Ltd Image processing device, image processing method, and control program for image processing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007178693A (en) * 2005-12-27 2007-07-12 Fujitsu Ltd Simulation apparatus, method, and program
JP2007310748A (en) * 2006-05-19 2007-11-29 Sony Computer Entertainment Inc Image processor, image processing method and program
JP2012249799A (en) * 2011-06-02 2012-12-20 Nintendo Co Ltd Image processing device, image processing method, and control program for image processing device
US10653959B2 (en) 2011-06-02 2020-05-19 Nintendo Co., Ltd. Image processing apparatus and image processing method for displaying video image capable of achieving improved operability and realism, and non-transitory storage medium encoded with computer readable program for controlling image processing apparatus

Also Published As

Publication number Publication date
JP3583994B2 (en) 2004-11-04

Similar Documents

Publication Publication Date Title
US6781598B1 (en) Entertainment apparatus, image generation method, and storage medium
US6670957B2 (en) Entertainment apparatus, storage medium and object display method
JP4187182B2 (en) Image generation system, program, and information storage medium
US6762746B2 (en) Entertainment apparatus, storage medium and operation method of manipulating object
JP2000102672A (en) Game video device, change of visual point on game scene in video game, and readable recording medium memorizing visual point changing program on game scene in video game
JP2000126457A (en) Display control of game screen, character movement control, game machine, and recording medium storing program
EP1213044B1 (en) Video game system, character action control method, and readable storage medium storing character action control program
US20020128063A1 (en) Virtual space control method
US6774901B2 (en) Three-dimensional image processing method and apparatus, readable storage medium storing three-dimensional image processing program and video game system
US6989832B2 (en) Entertainment apparatus, storage medium and object display method
JP2003024624A (en) Program, method and device for processing three- dimensional image
US7145569B2 (en) Data processing method
US6793576B2 (en) Methods and apparatus for causing a character object to overcome an obstacle object
JP3583995B2 (en) Entertainment device, storage medium, and object display method
US6769988B1 (en) Entertainment unit, recording medium and method for setting its parameters
JP3564440B2 (en) Moving image generation program, moving image generation method and apparatus
JP3583994B2 (en) Entertainment device, storage medium, and object display method
JP2009207594A (en) Program, information storing medium and game device
EP1235187A1 (en) Image processor, image processing method, and storage medium
JP4212015B2 (en) Image generating apparatus and information storage medium
JP3127137B2 (en) Image generation device and information storage medium
JP2001269485A (en) Entertainment device, storage medium, and displayed object operating method
JP4036509B2 (en) Image generating apparatus and information storage medium
JP3937179B2 (en) Game screen display control method, character movement control method, game machine, and recording medium recording program
JPH11232483A (en) Information processor and information recording medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040427

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040730

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070806

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100806

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees