JP2001178963A - Video game device, image display device and method, moving image display device and method and recording medium - Google Patents
Video game device, image display device and method, moving image display device and method and recording mediumInfo
- Publication number
- JP2001178963A JP2001178963A JP37711699A JP37711699A JP2001178963A JP 2001178963 A JP2001178963 A JP 2001178963A JP 37711699 A JP37711699 A JP 37711699A JP 37711699 A JP37711699 A JP 37711699A JP 2001178963 A JP2001178963 A JP 2001178963A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- motion
- image display
- screen
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6661—Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明はコンピュータ・グラ
フィックスにおける画像処理技術に係わり、特に、仮想
空間内におけるカメラワーク技術、動画表示技術、クリ
ッピング処理技術、及び光源処理技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique in computer graphics, and more particularly to a camera work technique, a moving picture display technique, a clipping processing technique, and a light source processing technique in a virtual space.
【0002】[0002]
【従来の技術】コンピュータ・グラフィックスを利用し
たビデオゲーム装置においては、複数のポリゴンから構
成されるオブジェクト(仮想物体)を仮想3次元空間内
に配置し、コントールパッドからの入力信号に対応して
プレイヤキャラクタを操作することが可能である。画像
処理技術の進歩により、このようなゲーム装置におい
て、遊戯者はコントールパッドのキー入力を組み合わせ
ることで、プレイヤキャラクタに、例えば、物(オブジ
ェクト)を掴む、見る、押す、触る、引く等の具体的動
作(アクション)をさせることが可能となった。2. Description of the Related Art In a video game apparatus using computer graphics, an object (virtual object) composed of a plurality of polygons is arranged in a virtual three-dimensional space, and is arranged in response to an input signal from a control pad. It is possible to operate the player character. With the advance of image processing technology, in such a game device, a player can combine a key input of a control pad with a player character to grasp, look, push, touch, pull, etc., for example, an object (object). It is now possible to make a human action (action).
【0003】[0003]
【発明が解決しようとする課題】しかし、従来のビデオ
ゲーム装置においては、仮想3次元空間内に設定される
仮想視点(カメラ)は、通常、プレイヤキャラクタを第
三者の視点(客観視点)から見た映像を表示しており、
プレイヤキャラクタがアクションを起こすときにカメラ
をプレイヤキャラクタ自身の視点(主観視点或いは一人
称視点ともいう)に切り替え、注視点を当該オブジェク
トに固定する配慮はなされていなかった。これを人間に
おける動作に置き換えると、アクションの対象となる物
に注視せずにアクションをするため、人間の動作に対応
したアクション操作ができないという不都合が生じてい
た。However, in a conventional video game device, a virtual viewpoint (camera) set in a virtual three-dimensional space usually moves a player character from a third-party viewpoint (objective viewpoint). Displays the video you saw,
When the player character takes an action, the camera is switched to the viewpoint of the player character itself (also referred to as a subjective viewpoint or a first-person viewpoint), and no consideration is given to fixing the gazing point to the object. If this is replaced with a human action, the action is performed without gazing at the object to be acted on, so that there is a disadvantage that an action operation corresponding to the human action cannot be performed.
【0004】また、例えば、プレイヤキャラクタがオブ
ジェクトを掴む等のアクションをする場合、従来のビデ
オゲーム装置においては、オブジェクトを掴む動作をモ
ーションデータとして予め用意しておき、これに基づい
て画像表示していたため、プレイヤキャラクタとオブジ
ェクトの位置、角度、オブジェクトの形状等に適した掴
み動作ができず、指がオブジェクトに食い込む等の不自
然な事態が生じていた。For example, when a player character performs an action such as grasping an object, in a conventional video game apparatus, an action of grasping an object is prepared in advance as motion data, and an image is displayed based on the motion data. Therefore, a gripping motion suitable for the position and angle of the player character and the object, the shape of the object, and the like cannot be performed, and an unnatural situation such as a finger biting into the object has occurred.
【0005】また、従来のビデオゲーム装置では、オブ
ジェクトを画面に表示する際に、視点座標系に配置され
る当該オブジェクトの奥行き方向の座標値であるZ値が
予め定められた所定値(例えば、描画処理限界点)を超
えたときに当該オブジェクトの描画処理を終了する(ク
リッピング処理)ように構成されているが、このような
構成の場合、カメラとオブジェクトとの距離が一定の距
離を超えると突然オブジェクトが消えるため、遊戯者に
不快感を与えていた。In a conventional video game apparatus, when displaying an object on a screen, a Z value, which is a coordinate value in the depth direction of the object arranged in a viewpoint coordinate system, is a predetermined value (for example, When the distance between the camera and the object exceeds a certain distance, the drawing processing of the object is terminated (clipping processing) when the distance exceeds the drawing processing limit point). The sudden disappearance of the object caused the player to feel uncomfortable.
【0006】また、ポリゴンデータを用いたコンピュー
タ・グラフィックスを用いた光源処理(例えば、スポッ
トライト処理)を行う場合、光源からの光線ベクトルと
オブジェクトを構成する各ポリゴンの頂点の法線ベクト
ルとの角度から各頂点の輝度を計算し、これらの計算結
果はレンダリング処理部へ供給され、さらに補完法を用
いて各頂点を結ぶ稜線上の各ピクセルの輝度を求めるこ
とでポリゴン全体の輝度計算を行い、所望のテクスチャ
マッピング処理がなされて画像表示される。When performing light source processing (eg, spotlight processing) using computer graphics using polygon data, a light vector from a light source and a normal vector of a vertex of each polygon constituting an object are used. The brightness of each vertex is calculated from the angle, the calculation results are supplied to the rendering processing unit, and the brightness of each pixel on the ridge connecting the vertices is calculated using the interpolation method to calculate the brightness of the entire polygon. The desired texture mapping process is performed and the image is displayed.
【0007】しかし、このような構成では各フレーム毎
(例えば1/60秒毎)に光源処理をする必要があり、
光源が複数ある場合には演算処理量が膨大になってしま
うという問題があった。また、従来では上記の構成の他
に、オブジェクトの表面にスポットライトが当たった状
態のテクスチャを予め用意しておき、スポットライトが
点灯したときに上記のテクスチャをオブジェクトに貼り
付けることで光源処理を省略する手法もあるが、このよ
うな構成ではそれぞれのオブジェクトと光源の種類、位
置、角度等が設定し直される毎に別途テクスチャを用意
しなければならないため、テクスチャデータ量が膨大に
なるという問題がある。However, in such a configuration, it is necessary to perform light source processing for each frame (for example, every 1/60 second).
When there are a plurality of light sources, there is a problem that the amount of arithmetic processing becomes enormous. Conventionally, in addition to the above-described configuration, a texture in a state where a spotlight shines on the surface of an object is prepared in advance, and when the spotlight is turned on, the above-described texture is attached to the object to perform light source processing. Although there is a method of omitting it, such a configuration requires a separate texture every time the type, position, angle, and the like of each object and light source are reset, resulting in a huge amount of texture data. There is.
【0008】そこで、本発明はオブジェクトに対してア
クションをする際に自然なカメラ制御を可能とするビデ
オゲーム装置及び画像表示方法を提供することを第1の
課題とする。Accordingly, it is a first object of the present invention to provide a video game apparatus and an image display method which enable natural camera control when performing an action on an object.
【0009】また、本発明はオブジェクトの動画表示を
適切に行う動画表示装置及び動画表示方法を提供するこ
とを第2の課題とする。It is a second object of the present invention to provide a moving image display device and a moving image display method for appropriately displaying a moving image of an object.
【0010】また、本発明はスクリーン座標系における
オブジェクトのZ値に基づいてクリッピング処理をする
際に、徐々にオブジェクトをフェードアウトする画像表
示装置及び画像表示方法を提供することを第3の課題と
する。A third object of the present invention is to provide an image display device and an image display method for gradually fading out an object when performing clipping processing based on the Z value of the object in a screen coordinate system. .
【0011】また、本発明はテクスチャデータのデータ
量を増加することなく光源処理の演算量を低減すること
のできる画像表示装置及び画像表示方法を提供すること
を第4の課題とする。It is a fourth object of the present invention to provide an image display apparatus and an image display method capable of reducing the amount of calculation of light source processing without increasing the data amount of texture data.
【0012】[0012]
【課題を解決するための手段】上記第1の課題を解決す
るべく、本発明では複数のオブジェクトの中から遊戯者
によって選択されたオブジェクトにカメラの注視点を設
定し、当該オブジェクトをズームする。これにより、カ
メラは遊戯者の選択したオブジェクトに対して確実に注
視することができるとともに、オブジェクトをズームす
ることで当該オブジェクトに対するアクションが容易に
なる。In order to solve the above-mentioned first problem, in the present invention, a gazing point of a camera is set to an object selected by a player from a plurality of objects, and the object is zoomed. This allows the camera to reliably gaze at the object selected by the player, and facilitates action on the object by zooming the object.
【0013】好ましくは、オブジェクトに注視点を設定
する際に、カメラを客観視点から主観視点へと移動させ
る。これにより、遊戯者はあたかも実際にオブジェクト
に対して接しているかのような映像を見ることができ
る。[0013] Preferably, when setting a gazing point on the object, the camera is moved from an objective viewpoint to a subjective viewpoint. As a result, the player can see a video image as if the player were actually touching the object.
【0014】上記の構成において、カメラが注視してい
るオブジェクトがズームされるに従い、当該オブジェク
トを画面から次第にフェードアウトするように当該オブ
ジェクトを表示するとともに、他のオブジェクトが画面
から次第にフェードインするように当該他のオブジェク
トを当該オブジェクトに重ねて表示するように構成して
もよい。このような構成により、例えば、粗い画像をズ
ームすると、より精細な画像へと変化させることができ
る。In the above arrangement, as the object being watched by the camera is zoomed, the object is displayed so that the object gradually fades out of the screen, and another object gradually fades in from the screen. The other object may be displayed so as to be superimposed on the object. With such a configuration, for example, when a coarse image is zoomed, it can be changed to a finer image.
【0015】また、注視されたオブジェクトに対応して
予め定められたアクションをプレイヤキャラクタが実行
するように構成してもよい。[0015] The player character may execute a predetermined action corresponding to the gazed object.
【0016】上記の第2の課題を解決するべく、本発明
では複数の動作部位のそれぞれの動きによってオブジェ
クト全体の動きを表示する際に、複数の動作部位のモー
ションデータを予め記憶しておき、各動作部位毎にモー
ションデータを読み出して、これに基づいて各動作部位
のモーションを画面に表示するとともに、動作部位のう
ち動作過程において予め接触が予想される箇所の接触を
判定することで衝突が検出された動作部位のモーション
データの読み取りを終了する。これにより、各動作部位
毎に衝突判定が行われ、モーションデータが終了するか
或いは動作部位が衝突することで動作部位の動作が終了
するため、上記の従来技術のように、動作部位が他のオ
ブジェクトに食い込む等の不都合を解消することができ
る。In order to solve the above-mentioned second problem, in the present invention, when displaying the motion of the entire object by the motion of each of the plurality of motion parts, motion data of the plurality of motion parts is stored in advance, Motion data is read out for each operating part, the motion of each operating part is displayed on the screen based on this, and collision is determined by judging the contact of the operating part of the operating part where contact is expected in advance in the operation process. The reading of the motion data of the detected operation part ends. As a result, a collision determination is performed for each motion part, and the motion data ends or the motion part collides, thereby ending the operation of the motion part. Inconveniences such as digging into an object can be eliminated.
【0017】上記第3の課題を解決するべく、本発明で
はスクリーン座標系におけるオブジェクトとカメラとの
距離が描画限界点付近であるときに当該オブジェクトを
半透明処理して画面に表示する。これにより、描画限界
点付近でいきなりオブジェクトが消える不自然さを解消
することができる。In order to solve the third problem, in the present invention, when the distance between the object and the camera in the screen coordinate system is near the drawing limit point, the object is translucently displayed on the screen. As a result, it is possible to eliminate the unnaturalness of the object disappearing immediately near the drawing limit point.
【0018】上記第4の課題を解決するべく、本発明で
は光源に対して不動であるオブジェクトの輝度又は色を
演算し、この演算結果をメモリに記憶しておき、当該オ
ブジェクトを画面に表示する際に前記メモリに記憶され
た演算結果を参照してオブジェクトの画像表示を行う。
これにより、画像表示装置のオブジェクトの光源処理に
おける演算負荷を低減することができる。In order to solve the fourth problem, in the present invention, the brightness or color of an object that is immovable with respect to the light source is calculated, the calculation result is stored in a memory, and the object is displayed on a screen. At this time, an image of the object is displayed with reference to the calculation result stored in the memory.
Thereby, the calculation load in the light source processing of the object of the image display device can be reduced.
【0019】また、本発明によれば、上記手順を実行さ
せるプログラムが記録されたコンピュータ読み取り可能
な記録媒体を提供することができる。ここで、記録媒体
とは、何らかの物理的手段により画像処理プログラム等
が記録されているものであって、コンピュータ、特に、
専用プロセッサ(例えば、ジオメトリプロセッサ、レン
ダリングプロセッサ)等に所望の機能を実現させること
ができるものをいう。従がって、何らかの手段でコンピ
ュータにダウンロードし、所望の機能を実現させるもの
であればよい。例えば、ROM、フレキシブルディス
ク、ハードディスク、CD−ROM、CD−R、DVD
−ROM、DVD−RAM、DVD−R、PDディス
ク、MDディスク、MOディスク等の情報記録媒体を含
む。有線又は無線の通信回線(公衆回線、データ専用
線、インターネット、衛星回線等)を介してホストコン
ピュータからデータの転送を受ける場合も含むものとす
る。Further, according to the present invention, it is possible to provide a computer-readable recording medium in which a program for executing the above procedure is recorded. Here, the recording medium is a medium on which an image processing program or the like is recorded by some physical means, and is a computer, particularly,
A processor capable of realizing a desired function by a dedicated processor (for example, a geometry processor or a rendering processor). Therefore, any device may be used as long as it can be downloaded to the computer by some means to realize a desired function. For example, ROM, flexible disk, hard disk, CD-ROM, CD-R, DVD
-Including information recording media such as ROM, DVD-RAM, DVD-R, PD disk, MD disk, and MO disk. This includes the case where data is transferred from the host computer via a wired or wireless communication line (public line, data line, Internet, satellite line, etc.).
【0020】[0020]
【発明の実施の形態】(ビデオゲーム装置の構成)図1
にビデオゲーム装置10の回路構成図を示す。同図にお
いて、ゲームを開始すべく電源が投入されると、ブート
プログラムローダは、ROM18に記憶されているブー
トプログラムをCPU11にロードし、CPU11はブ
ートプログラムを実行する。CPU11は、このブート
プログラムに従って、CD−ROM27に記憶されてい
るOSの全部または必要な部分をシステムメモリ13に
ロードし、OSを実行する。DESCRIPTION OF THE PREFERRED EMBODIMENTS (Configuration of Video Game Apparatus) FIG.
FIG. 1 shows a circuit configuration diagram of the video game apparatus 10. In the figure, when the power is turned on to start the game, the boot program loader loads the boot program stored in the ROM 18 into the CPU 11, and the CPU 11 executes the boot program. The CPU 11 loads all or a necessary part of the OS stored in the CD-ROM 27 into the system memory 13 according to the boot program, and executes the OS.
【0021】CPU11はこのOSの制御の下、CD−
ROM27等に記憶されているアプリケーションプログ
ラムの全部または必要な部分をCD−ROMドライブ1
9を介してシステムメモリ13にロードするとともに、
必要に応じてCD−ROM27等に記憶されている描画
データや画像データをグラフィックメモリ16にロード
する。また同時に、サウンドデータをサウンドメモリ2
1にロードする。The CPU 11 controls the CD-ROM under the control of the OS.
All or necessary portions of the application programs stored in the ROM 27 or the like are stored in the CD-ROM drive 1.
9 and loaded into the system memory 13,
The drawing data and image data stored in the CD-ROM 27 or the like are loaded into the graphic memory 16 as needed. At the same time, sound data is stored in sound memory 2
Load 1
【0022】CPU11はOSの制御の下、コントール
パッド25からの入力信号に基づいてシステムメモリ1
3に記憶されたアプリケーションプログラム(ゲームプ
ログラム)を実行する。アプリケーションプログラムの
実行に伴うデータは、システムメモリ13やバックアッ
プメモリ26に必要の都度書き込まれ参照される。バッ
クアップメモリ26はゲームの中断等で電源が遮断され
てもそれまでの状態を保持するためにデータを記憶す
る。The CPU 11 controls the system memory 1 based on an input signal from the control pad 25 under the control of the OS.
3 to execute an application program (game program) stored therein. Data accompanying the execution of the application program is written and referred to in the system memory 13 and the backup memory 26 whenever necessary. The backup memory 26 stores data in order to maintain the state up to that point even if the power is cut off due to interruption of the game or the like.
【0023】ジオメトリプロセッサ12はCPU11か
ら供給されるオブジェクトの座標データを所望の変換マ
トリクスに基づいて、3次元の視点座標系を仮想視点か
ら見た視点座標及びスクリーン座標系(2次元座標系)
に座標変換する。また、オブジェクトの輝度又は色も光
源とオブジェクト座標から計算する。The geometry processor 12 converts the coordinate data of the object supplied from the CPU 11 into a viewpoint coordinate and a screen coordinate system (two-dimensional coordinate system) when the three-dimensional viewpoint coordinate system is viewed from a virtual viewpoint based on a desired transformation matrix.
Is converted to. Also, the brightness or color of the object is calculated from the light source and the object coordinates.
【0024】レンダリングプロセッサ15にはグラフィ
ックスメモリ16が接続されている。グラフィックスメ
モリ16はテクスチャバッファ、フレームバッファ、Z
バッファから構成されている。テクスチャバッファには
各オブジェクト毎のテクスチャデータが格納されてい
る。レンダリングプロセッサ15はオブジェクトの輝度
又は色データ、テクスチャ座標データ、テクスチャ濃度
データ、オブジェクトの座標データ等に基づいて、テク
スチャバッファから適宜必要なデータを読み込み、テク
スチャマッピング処理、表示優先処理、シェーディング
処理等を行って、各画素毎のピクセルデータをフレーム
バッファに書き込む。そして、画像更新期間に同期して
フレームバッファからピクセルデータを読み出し、ビデ
オエンコーダ17へピクセルデータを転送することでビ
デオ信号生成処理等を行い、モニタ25にて画像表示を
行う。A graphics memory 16 is connected to the rendering processor 15. The graphics memory 16 includes a texture buffer, a frame buffer,
It consists of a buffer. The texture buffer stores texture data for each object. The rendering processor 15 reads necessary data from the texture buffer as appropriate based on the brightness or color data of the object, texture coordinate data, texture density data, coordinate data of the object, etc., and performs texture mapping processing, display priority processing, shading processing, and the like. Then, the pixel data of each pixel is written into the frame buffer. Then, the pixel data is read from the frame buffer in synchronization with the image update period, and the pixel data is transferred to the video encoder 17 to perform a video signal generation process and the like, and an image is displayed on the monitor 25.
【0025】サウンドプロセッサ20はサウンドメモリ
21に記憶されるサウンドデータを読み出して、アプリ
ケーションプログラムの実行によるCPU11からの命
令やデータに基づき各種音声処理を行う。音声処理とし
て、例えば、エフェクト処理、ミキシング処理等があ
る。各種音声処理が施されたサウンドデータは、D/A
コンバータ22によってアナログデータに変換され、ス
ピーカ24に出力される。The sound processor 20 reads out the sound data stored in the sound memory 21 and performs various sound processes based on commands and data from the CPU 11 by executing the application program. Examples of the audio processing include an effect processing and a mixing processing. The sound data that has been subjected to various sound processing is D / A
The data is converted into analog data by the converter 22 and output to the speaker 24.
【0026】バスアービタ(Bus Arbiter)
14はデータ伝送路(バス等)を介して接続される各ユ
ニット間同士の制御を行う。例えば、バスアービタ14
はバスを占有すユニットを決定するために、各ユニット
間の優先順位を決定したり、占有するユニットのバス占
有時間の割当てを行う。Bus Arbiter
Reference numeral 14 controls each unit connected via a data transmission path (bus or the like). For example, bus arbiter 14
Determines the units that occupy the bus, determines the priority order among the units, and allocates the bus occupation time of the occupying units.
【0027】バスアービタ14には電話回線等を介して
他のビデオゲーム装置やコンピュータと接続するための
通信装置23を備えている。The bus arbiter 14 includes a communication device 23 for connecting to another video game device or computer via a telephone line or the like.
【0028】次に、図3のフローチャートを参照してビ
デオゲーム装置の全体的な動作について説明する。同図
において、ビデオ信号の垂直同期信号に相当する周期で
割り込み信号がCPU11に供給されると、CPU11
内のレジスタに割り込みフラグが設定される。割り込み
が発生すると(ステップS101;YES)、CPU1
1はステップS102〜ステップS108の処理を実行
する。Next, the overall operation of the video game device will be described with reference to the flowchart of FIG. In the figure, when an interrupt signal is supplied to the CPU 11 at a period corresponding to the vertical synchronization signal of the video signal, the CPU 11
The interrupt flag is set in the register inside. When an interrupt occurs (step S101; YES), the CPU 1
1 executes the processing of steps S102 to S108.
【0029】例えば、NTSC方式ではCPU11は1
/60秒毎にゲーム処理を行う(ステップS102)。
本ゲーム処理ではCPU11はコントールパッド25か
らの出力信号を監視し、遊戯者による操作入力をゲーム
プログラムに記述されたアルゴリズムに従って処理し、
ゲームを展開する。このゲームにおいては、後述するよ
うに、画面内で特定のオブジェクトを選択する(ロック
オン)と、自動的にカメラ移動が行われ、場合によって
は当該オブジェクトに対応したアクションをするための
フラグがセットされる。For example, in the NTSC system, the CPU 11
The game process is performed every / 60 seconds (step S102).
In this game process, the CPU 11 monitors an output signal from the control pad 25, processes an operation input by the player according to an algorithm described in the game program,
Deploy the game. In this game, as described later, when a specific object is selected on the screen (lock on), the camera is automatically moved, and in some cases, a flag for performing an action corresponding to the object is set. Is done.
【0030】次いで、モニタ22に表示するための画面
を生成するため、ワールド座標系にオブジェクト、背
景、キャラクタ等の画像を適宜配置する(ステップS1
03)。これらの画像をカメラから見た視点座標系へ座
標変換し(ステップS104)、さらにカメラ位置を原
点として、視線の方向をz軸の正方向にとった視点座標
系にデータを変換し、投影面であるスクリーン座標系
へ、それぞれの座標を透視変換する(ステップS10
5)。Next, in order to generate a screen to be displayed on the monitor 22, images such as objects, backgrounds, and characters are appropriately arranged in the world coordinate system (step S1).
03). These images are coordinate-transformed into a viewpoint coordinate system viewed from the camera (step S104), and data is converted into a viewpoint coordinate system in which the direction of the line of sight is set in the positive direction of the z-axis with the camera position as the origin. Are perspective-transformed to a screen coordinate system (step S10).
5).
【0031】その後、レンダリングプロセッサ15は各
ポリゴンについてZソートアルゴリズム等を用いて陰面
処理をするとともに(ステップS106)、各ポリゴン
にテクスチャを貼り付ける等のレンダリング処理を行う
(ステップS107)。レンダリング処理がなされた画
像データはグラフィックメモリ16内のフレームバッフ
ァに蓄えられた後、ビデオ信号に変換されてモニタ25
に表示される。この後、ステップS101に戻り、1/
60秒毎にステップS102〜ステップS108の処理
を繰り返し実行してゲームが進行する。 (ロックオン処理)次に、図4〜図26を参照してロッ
クオン処理について説明する。本明細書において、ロッ
クオン処理とは“注目するオブジェクトに注視点を設定
(固定)し、当該オブジェクトをズーム(拡大)するよ
うにカメラを制御する処理”として定義する。ロックオ
ン処理の対象となるオブジェクトはゲームプログラムに
おいて予め定められているものとする。また、ロックオ
ン処理がなされたオブジェクトには当該オブジェクトに
対応したアクションがなされるようにモーションデータ
が関連付けられて記憶されている。このため、オブジェ
クトをロックオン処理することで当該オブジェクトに対
応したアクションがなされるようにフラグがセットされ
る(詳細については後述する)。Thereafter, the rendering processor 15 performs a hidden surface process on each polygon using a Z-sort algorithm or the like (step S106), and performs a rendering process such as pasting a texture on each polygon (step S107). The image data subjected to the rendering processing is stored in a frame buffer in the graphic memory 16, then converted into a video signal, and
Will be displayed. Thereafter, the process returns to step S101, where 1 /
The game proceeds by repeatedly executing the processing of steps S102 to S108 every 60 seconds. (Lock-On Process) Next, the lock-on process will be described with reference to FIGS. In this specification, the lock-on process is defined as "a process of setting (fixing) a gazing point on an object of interest and controlling a camera to zoom (enlarge) the object". It is assumed that the object to be subjected to the lock-on process is predetermined in the game program. Further, motion data is stored in association with the object on which the lock-on process has been performed so that an action corresponding to the object is performed. Therefore, a flag is set so that an action corresponding to the object is performed by performing the lock-on processing on the object (details will be described later).
【0032】図5はモニタ25に映し出される画面28
を示しており、斜線で引いた箇所がロックオン可能エリ
ア30である。ロックオン可能エリア30は、ロックオ
ン処理可能なオブジェクトの存在範囲を示しており、ス
クリーン座標系(XY座標系)において定義されるオブ
ジェクトのX座標及びY座標が上記ロックオン可能エリ
ア30内に位置し、且つ、当該オブジェクトのZ値(カ
メラとの距離)が所定の距離(ロックオン可能距離)に
あるときに当該オブジェクトに対してロックオン処理が
可能である。ロックオン可能エリア30として、例え
ば、同図に示すように、縦横方向にそれぞれ1:2:1
の比に分割する中央のエリアが好適である。FIG. 5 shows a screen 28 displayed on the monitor 25.
The area drawn with oblique lines is the lock-on possible area 30. The lock-on possible area 30 indicates the existence range of the object that can be locked on, and the X and Y coordinates of the object defined in the screen coordinate system (XY coordinate system) are located in the lock-on possible area 30. In addition, when the Z value (distance from the camera) of the object is a predetermined distance (lockable distance), the lock-on process can be performed on the object. As the lock-on possible area 30, for example, as shown in FIG.
The central area divided into the ratios is preferred.
【0033】例えば、図6に示すように、みかん31〜
33、籠34及び湯飲み35が画面28に表示されてい
る。これらのみかん31〜33、籠34及び湯飲み35
はロックオン処理可能なオブジェクトとする。同図にお
いて、みかん31〜33及び籠34はロックオン可能エ
リア30内に位置しているため、ロックオン処理が可能
である。一方、湯飲み35はロックオン可能エリア30
外に位置しているため、ロックオン処理は出来ない。For example, as shown in FIG.
33, basket 34 and cup 35 are displayed on the screen 28. These tangerines 31-33, basket 34 and cup 35
Is an object that can be locked on. In the figure, since the tangerines 31 to 33 and the basket 34 are located in the lock-on possible area 30, lock-on processing is possible. On the other hand, the cup 35 is the lockable area 30.
Because it is located outside, lock-on processing cannot be performed.
【0034】上記ロックオン処理をするために、システ
ムメモリ13には図2に示すように、ワークメモリデー
タテーブル及びプログラムデータテーブルがCD−RO
M21から読み出される。また、システムメモリ13の
一部はワークエリアとして使用されている。ワークメモ
リデータテーブルには画面に表示されるオブジェクトの
オブジェクト名、オブジェクト座標、オブジェクト角
度、ポリゴンデータが登録されている。オブジェクト名
とはオブジェクトの名称をいう。オブジェクト座標とは
当該オブジェクトのワールド座標系における座標をい
い、(X,Y,Z)で定義される。オブジェクト角度と
はワールド座標系に配置されるオブジェクトの向き(角
度)をいい、X軸、Y軸及びZ軸とのなす角が登録され
ている。ポリゴンデータとは当該オブジェクトを構成す
るポリゴンのデータである。In order to perform the lock-on process, the work memory data table and the program data table are stored in the system memory 13 as shown in FIG.
It is read from M21. A part of the system memory 13 is used as a work area. In the work memory data table, object names, object coordinates, object angles, and polygon data of the objects displayed on the screen are registered. The object name refers to the name of the object. The object coordinates refer to the coordinates of the object in the world coordinate system, and are defined by (X, Y, Z). The object angle refers to the direction (angle) of an object arranged in the world coordinate system, and the angle between the X axis, the Y axis, and the Z axis is registered. The polygon data is the data of the polygon constituting the object.
【0035】プログラムデータテーブルにはロックオン
オブジェクト名、ロックオン座標、ロックオン補正座
標、ロックオン可能範囲情報、ロックオン角度及びモー
ションデータが登録されている。ロックオンオブジェク
ト名とは、ロックオン処理が可能なオブジェクトの名称
をいい、例えば、上述したみかん、籠、湯飲み等が該当
する。ロックオン座標とは、ロックオン処理可能なオブ
ジェクトが例えば地図、掛け軸のような平面である場合
に、これらはオブジェクトとしてではなくテクスチャと
して扱うことができるため、テクスチャマッピングされ
るポリゴン上の座標を意味する。ロックオン補正座標と
は、ロックオン処理可能なオブジェクトが例えば湯飲み
である場合に、当該オブジェクトの基準となる面或いは
座標からの相対的な座標をいい、当該オブジェクトにア
クションをする(例えば掴む)際に参照される。In the program data table, lock-on object names, lock-on coordinates, lock-on correction coordinates, lock-on possible range information, lock-on angles, and motion data are registered. The lock-on object name refers to the name of an object that can be subjected to lock-on processing, and corresponds to, for example, the above-described oranges, baskets, cups, and the like. Lock-on coordinates mean coordinates on polygons that are texture-mapped when objects that can be locked on are planes such as maps and scrolls, because these can be treated as textures instead of objects. I do. The lock-on correction coordinates refer to coordinates relative to a reference surface or coordinates of the object, for example, when a lock-on processable object is a cup, for example, when an action is performed on the object (for example, grasping). Referred to.
【0036】ロックオン可能範囲情報とはオブジェクト
に対してロックオン処理が出来る範囲に関する情報をい
い、ロックオン角度とはオブジェクトに対してロックオ
ンしたときに当該オブジェクトに対して所定の角度範囲
内にカメラ視線がくるようにカメラを強制的に移動させ
るための角度をいう。モーションデータとはオブジェク
トをロックオンしたときに当該オブジェクトに対してア
クションをするためのモーションデータである。ワーク
エリアではプレイヤキャラクタ位置、カメラ位置、注視
点位置などが動的変数によって各フレーム毎に逐次更新
される。The lock-on possible range information refers to information on a range in which an object can be locked on, and the lock-on angle is within a predetermined angle range with respect to the object when the object is locked on. This is the angle at which the camera is forcibly moved so that the camera gazes. Motion data is motion data for performing an action on an object when the object is locked on. In the work area, a player character position, a camera position, a gazing point position, and the like are sequentially updated for each frame by dynamic variables.
【0037】次に、図4を参照してロックオン処理の各
処理ステップについて説明する。同図において、ビデオ
信号の垂直同期信号に相当する周期で割り込み信号がC
PU11に供給されると、CPU11内のレジスタに割
り込みフラグが設定される。割り込みが発生すると(ス
テップS201;YES)、CPU11はステップS2
02〜ステップS208の処理を実行する。CPU11
はロックオンフラグがセットされているか否かを調べる
(ステップS202)。ワークメモリデータテーブル及
びプログラムデータテーブルを参照して、オブジェクト
の座標値(X,Y,Z)がロックオン可能範囲に位置し
ているときにロックオンフラグがセットされる。Next, each processing step of the lock-on processing will be described with reference to FIG. In the figure, an interrupt signal is generated at a cycle corresponding to a vertical synchronizing signal of a video signal.
When supplied to the PU 11, an interrupt flag is set in a register in the CPU 11. When an interrupt occurs (step S201; YES), the CPU 11 proceeds to step S2.
02 to execute the processing of step S208. CPU11
Checks whether the lock-on flag is set (step S202). Referring to the work memory data table and the program data table, the lock-on flag is set when the coordinate value (X, Y, Z) of the object is located in the lock-on possible range.
【0038】ロックオンフラグがセットされている場合
には(ステップS202;YES)、ロックオン可能で
ある旨を遊戯者に知らせるために画面28にロックオン
可能表示をする(ステップS203)。ロックオン可能
表示は例えば図6に示すように、画面28の右下に
“A”の文字を表示することで行う。このとき遊戯者は
コントールパッド25のAボタンを押下することでロッ
クオン可能エリア30内に存在するロックオン可能オブ
ジェクトをロックオンすることができる。If the lock-on flag is set (step S202; YES), a lock-on possible display is displayed on the screen 28 to inform the player that lock-on is possible (step S203). The lock-on possible display is performed by, for example, displaying the character “A” at the lower right of the screen 28 as shown in FIG. At this time, the player can lock on the lock-on enabled object existing in the lock-on enabled area 30 by pressing the A button of the control pad 25.
【0039】CPU11はコントールパッド25からの
出力信号を監視し、遊戯者がAボタンを押下することで
ロックオン可能オブジェクトをロックオンしたか否かが
判定される(ステップS204)。遊戯者の操作によっ
てオブジェクトがロックオンされたときは(ステップS
204;YES)、遊戯者はロックオン可能エリア30
に位置する複数のオブジェクトのうち任意のオブジェク
トを選択することができる(ステップS205)。ロッ
クオン可能エリア30にロックオン可能オブジェクトが
一つのみ存在する場合は当該オブジェクトが自動的に選
択される。ロックオン可能オブジェクトの選択は十字キ
ーを使用することで行うことができる。The CPU 11 monitors the output signal from the control pad 25, and determines whether or not the player has locked on the lock-on enabled object by pressing the A button (step S204). When the object is locked on by the operation of the player (step S
204; YES), the player can lock on the area 30
Can be selected from among the plurality of objects located at (step S205). If there is only one lock-on enabled object in the lock-on enabled area 30, that object is automatically selected. The selection of the lock-on enabled object can be performed by using the cross key.
【0040】ロックオン可能オブジェクトの選択が行わ
れると、当該オブジェクトをズームするためにカメラ移
動が行われる(ステップS206)。カメラ移動の詳細
について、図7乃至図12を参照して説明する。図7に
示すように、ロックオン可能エリア30にみかん32が
位置しているとき、遊戯者の操作によってみかん32が
ロックオンされたとする。すると、カメラ50は客観視
点から主観視点へと切り替わり、図8に示すようにみか
ん32がズームされる。これにより、遊戯者はアクショ
ンの対象となるみかん32を確実に注視することができ
る。図9及び図10は垂直方向のカメラ移動の説明図で
ある。図9ではカメラ50は客観視点として機能し、み
かん32を注視している。図10ではカメラ50は主観
視点として機能し、みかん32を注視している。主観視
点とはプレイヤキャラクタ40から見た視点である。同
図において、客観視点としてのカメラ50の視線方向と
プレイヤキャラクタの視線方向は垂直方向にθ1の角度
差があるが、カメラ移動の際に角度差θ1を0にし、且
つ、カメラ50がプレイヤキャラクタ40の頭部に位置
するようにカメラ移動が行われる。When the lockable object is selected, the camera is moved to zoom the object (step S206). The details of the camera movement will be described with reference to FIGS. As shown in FIG. 7, when the tangerine 32 is located in the lock-on possible area 30, it is assumed that the tangerine 32 is locked on by the operation of the player. Then, the camera 50 switches from the objective viewpoint to the subjective viewpoint, and the orange 32 is zoomed as shown in FIG. Thereby, the player can surely gaze at the tangerine 32 that is the target of the action. FIG. 9 and FIG. 10 are illustrations of camera movement in the vertical direction. In FIG. 9, the camera 50 functions as an objective viewpoint and gazes at the orange 32. In FIG. 10, the camera 50 functions as a subjective viewpoint and gazes at the orange 32. The subjective viewpoint is a viewpoint viewed from the player character 40. In the drawing, the line-of-sight direction of the line of sight direction of the player character of the camera 50 as an objective viewpoint there are angular difference theta 1 in the vertical direction, the angle difference theta 1 to 0 when the camera moves, and the camera 50 The camera is moved so as to be located at the head of the player character 40.
【0041】図11及び図12は水平方向のカメラ移動
の説明図である。図11ではカメラ50は客観視点とし
て機能し、みかん32を注視している。図12ではカメ
ラ50は主観視点として機能し、みかん32を注視して
いる。同図において、客観視点としてのカメラ50の視
線方向とプレイヤキャラクタの視線方向は水平方向にθ
2の角度差があるが、カメラ移動の際に角度差θ2を0
にし、且つ、カメラ50がプレイヤキャラクタ40の頭
部に位置するようにカメラ移動が行われる。FIG. 11 and FIG. 12 are illustrations of camera movement in the horizontal direction. In FIG. 11, the camera 50 functions as an objective viewpoint and gazes at the orange 32. In FIG. 12, the camera 50 functions as a subjective viewpoint and gazes at the orange 32. In the figure, the line of sight of the camera 50 as the objective viewpoint and the line of sight of the player character
There are two angular difference, the angular difference theta 2 during camera movement 0
And the camera is moved so that the camera 50 is positioned at the head of the player character 40.
【0042】尚、掴みモーションにおいて、カメラ50
を客観視点から主観視点へ移動させるときに、プレイヤ
キャラクタ40とカメラ50との距離(Z値)が所定値
よりも小さくなった場合に、プレイヤキャラクタ40を
半透明処理するように構成することが好ましい。このよ
うに処理することでカメラ50からの視界がプレイヤキ
ャラクタ40によって遮られる不都合を解消することが
できる。In the grabbing motion, the camera 50
When moving from the objective viewpoint to the subjective viewpoint, when the distance (Z value) between the player character 40 and the camera 50 becomes smaller than a predetermined value, the player character 40 may be configured to perform a translucent process. preferable. By performing such processing, it is possible to eliminate the inconvenience that the field of view from the camera 50 is blocked by the player character 40.
【0043】カメラ移動後、ロックオン処理の対象とな
るオブジェクトに対応したアクションがなされる(ステ
ップS207)。本例ではみかん32に対してロックオ
ン処理をするため、“みかん32を掴む”というアクシ
ョン、即ち、後述する“掴みモーション”が選択され
る。これはシステムメモリ13内のプログラムデータテ
ーブルを参照することで行われる。遊戯者の操作によっ
てロックオン状態が解除されると(ステップS208;
YES)、CPU11は再びステップS201に戻り、
上述した処理ステップを繰り返し実行する。 (掴みモーション)次に、図13乃至図20を参照して
みかん32を掴むための“掴みモーション”について説
明する。ステップS207におけるアクションの一態様
として、“掴みモーション”が選択されると、CPU1
1はシステムメモリ13内のワークメモリデータテーブ
ル、プログラムデータテーブル等を参照して、プレイヤ
キャラクタ40とオブジェクト(みかん32)との位置
関係、オブジェクトの大きさ、形状等から最適なモーシ
ョンデータを選択する。このモーションデータは手を模
したポリゴン(以下、リアルハンドという)が何らかの
オブジェクトを掴む動作を動作パターンとして記憶した
データであり、具体的には、肘から手首までの手を構成
する各ポリゴンについての動作パターンがプログラムデ
ータテーブルに記憶されている。After the camera is moved, an action corresponding to the object to be locked on is performed (step S207). In this example, since the lock-on process is performed on the tangerine 32, the action of "grab the tangerine 32", that is, the "gripping motion" described later is selected. This is performed by referring to a program data table in the system memory 13. When the lock-on state is released by the operation of the player (step S208;
YES), the CPU 11 returns to step S201 again,
The above processing steps are repeatedly executed. (Gripping Motion) Next, a "gripping motion" for gripping the tangerine 32 will be described with reference to FIGS. When “grabbing motion” is selected as one mode of the action in step S207, the CPU 1
Reference numeral 1 refers to a work memory data table, a program data table, and the like in the system memory 13, and selects optimal motion data from the positional relationship between the player character 40 and the object (orange 32), the size and shape of the object, and the like. . This motion data is data in which a polygon imitating a hand (hereinafter referred to as a real hand) stores an operation of grasping an object as an operation pattern. Specifically, motion data of each polygon constituting a hand from an elbow to a wrist is described. The operation pattern is stored in the program data table.
【0044】図13を参照してリアルハンドを構成する
各ポリゴンについて説明する。同図において、小指Pは
ポリゴンP1〜P3で構成され、ポリゴンP1の先端P
0にはオブジェクトとの衝突(コリジョン)を判定する
ためのコリジョンポイントP0が設定されている。くす
り指Q、なか指R、人指し指S及び親指Tはそれぞれポ
リゴンQ1〜Q3、R1〜R3、S1〜S3及びT1、
T2から構成され、それぞれのポリゴンQ1、R1、S
1及びT1の先端にはコリジョンポイントQ0、R0、
S0及びT0が設けられている。これらのコリジョンポ
イントはオブジェクトを掴んだときに予め接触が予想さ
れる点である。また、手のひらはポリゴンU、手の甲は
ポリゴンV、腕はポリゴンWで構成されている。With reference to FIG. 13, each polygon constituting the real hand will be described. In the same figure, the little finger P is composed of polygons P1 to P3, and the tip P of the polygon P1.
In 0, a collision point P0 for determining a collision with an object is set. The finger Q, middle finger R, index finger S and thumb T are polygons Q1 to Q3, R1 to R3, S1 to S3 and T1, respectively.
T2, each polygon Q1, R1, S
The collision points Q0, R0,
S0 and T0 are provided. These collision points are points where contact is expected in advance when the object is grasped. The palm is composed of polygon U, the back of the hand is composed of polygon V, and the arm is composed of polygon W.
【0045】それぞれの指はオブジェクトの掴み方のパ
ターンに対応して動作パターンが予め定められており、
1フレーム毎に各関節が所定角度動くようになってい
る。また、各指の動作パターンは互いに独立して記憶さ
れており、コリジョン判定もそれぞれの指において独立
に判定される。掴みモーションにおいては、それぞれの
指についてモーションデータを読み出してこれを画像表
示するとともに、画像更新期間毎に割り込みをかけて各
指についてコリジョン判定を行っている。Each finger has a predetermined motion pattern corresponding to a pattern of how to grasp the object.
Each joint moves at a predetermined angle for each frame. Further, the motion patterns of the respective fingers are stored independently of each other, and the collision determination is also determined independently for each finger. In the grabbing motion, motion data is read out for each finger and displayed as an image, and an interruption is made every image update period to perform collision determination for each finger.
【0046】従って、ある指がオブジェクトと接触した
場合、当該指についてのモーションデータの読み出しは
終了するが、他の指についてのモーションデータの読み
出しは依然行われ、当該モーションデータに基づく画像
表示が行われる。この結果、オブジェクトと指とのコリ
ジョンコリジョン判定が正確に行われ、如何なる形状の
オブジェクトであっても正確かつ確実にオブジェクトを
掴むことができる。Therefore, when a finger comes into contact with the object, the reading of the motion data for the finger ends, but the reading of the motion data for the other finger is still performed, and the image display based on the motion data is performed. Will be As a result, the collision between the object and the finger is accurately determined, and the object can be grasped accurately and reliably regardless of the shape of the object.
【0047】掴みモーションにおけるリアルハンドがオ
ブジェクトを掴む動作手順を図20のフローチャートに
従って説明する。ビデオ信号の垂直同期信号に相当する
周期で割り込み信号がCPU11に供給されると、CP
U11内のレジスタに割り込みフラグが設定される。割
り込みが発生すると(ステップS301;YES)、C
PU11はステップS302〜ステップS307の処理
を実行する。An operation procedure in which the real hand in the grasping motion grasps the object will be described with reference to the flowchart of FIG. When an interrupt signal is supplied to the CPU 11 at a cycle corresponding to the vertical synchronization signal of the video signal, the CP
An interrupt flag is set in a register in U11. When an interrupt occurs (step S301; YES), C
The PU 11 executes the processing of steps S302 to S307.
【0048】ロックオン可能オブジェクトをロックオン
すると、当該オブジェクトに対応したモーションフラグ
がセットされる。例えば、上述のみかん32であれば、
掴みモーションがセットされる。CPU11はモーショ
ンフラグがセットされたことを検知すると(ステップS
302;YES)、モーションデータを読み込み(ステ
ップS303)、画像表示を行う(ステップS30
4)。例えば、図14に示すように、リアルハンドの各
指がみかん32を掴むように画像表示される。このと
き、オブジェクトとしてのみかん32は多角形平面X
1,X2,X3,…,から成るポリゴンで構成される。
各指についての画像表示はみかん32と接触するか、或
いはモーションデータが終了するまで行われる。図15
に示すように、親指T、人指し指S、なか指Rについて
モーションデータが終了せずに(ステップS305;N
O)、みかん32と接触すると(ステップS306;Y
ES)、モーションデータの読み取りを終了する(ステ
ップS307)。一方、図16に示すように、小指P、
くすり指Qのように、みかん32と接触せずにモーショ
ンが終了した場合には(ステップS305;YES)、
モーションデータの読み取りを終了する(ステップS3
07)。図14乃至図16に図示したリアルハンド及び
みかん32を構成する各ポリゴンについて適当なテクス
チャマッピングを施すと、これらの図は図17乃至図1
9に示すように画像表示される。 (フォーカスモーション)上記の説明においては、みか
ん32をロックオンし、掴みモーションによってみかん
32を掴んだが、今度は地図をロックオンし、フォーカ
スモーションによって地図を拡大する例を説明する。図
21に示すように、ロックオン可能エリア(図示せず)
に地図61があり、遊戯者の操作によって地図61がロ
ックオンされたとする。同図において、カメラはプレイ
ヤキャラクタ40の頭上にあり、客観視点の立場から図
21に示す画像を表示している。ロックオンオブジェク
トとしての地図61にはフォーカスモーションが予め関
連付けられて記憶されている。従って、地図61をロッ
クオンすることで、CPU11内のレジスタに自動的に
モーションフラグがセットされる。CPU11はフォー
カスモーションのフラグがセットされたことを検知する
と、カメラ50を客観視点(図23)から主観視点(図
24)へと移動させる。When a lock-on enabled object is locked on, a motion flag corresponding to the object is set. For example, in the case of the above-mentioned mikan 32,
Grab motion is set. When the CPU 11 detects that the motion flag has been set (step S
302; YES), read the motion data (step S303), and display an image (step S30).
4). For example, as shown in FIG. 14, an image is displayed such that each finger of the real hand grabs the orange 32. At this time, the orange 32 as an object is a polygon plane X
., X2, X3,...
The image display of each finger is performed until the finger touches the orange 32 or the motion data ends. FIG.
As shown in the figure, the motion data for the thumb T, the index finger S, and the middle finger R is not terminated (step S305; N
O), when it comes into contact with the tangerine 32 (Step S306; Y)
ES), the reading of the motion data ends (step S307). On the other hand, as shown in FIG.
When the motion ends without touching the tangerine 32 like the finger Q (step S305; YES),
The reading of the motion data ends (step S3).
07). When appropriate texture mapping is performed on each of the polygons constituting the real hand and oranges 32 shown in FIGS. 14 to 16, these figures are shown in FIGS. 17 to 1.
An image is displayed as shown in FIG. (Focus Motion) In the above description, the mandarin orange 32 is locked on and the mandarin orange 32 is grasped by the grasping motion. However, an example in which the map is locked on and the map is enlarged by the focus motion will be described. As shown in FIG. 21, a lock-on possible area (not shown)
Is a map 61, and the map 61 is locked on by the operation of the player. In the figure, the camera is above the player character 40 and displays the image shown in FIG. 21 from an objective viewpoint. A focus motion is stored in the map 61 as a lock-on object in association with the focus motion in advance. Therefore, by locking on the map 61, a motion flag is automatically set in a register in the CPU 11. When detecting that the flag of the focus motion is set, the CPU 11 moves the camera 50 from the objective viewpoint (FIG. 23) to the subjective viewpoint (FIG. 24).
【0049】このとき、地図61はズームされるが、カ
メラ50の移動に伴い、粗い画像である地図61から精
細な画像である地図62に画面が徐々に切り替わる(図
22)。即ち、粗い画像である地図61の画像データの
上に精細な画像である地図62の画像データを上書き
し、両者の透明度を相補的に変化させることで、地図6
1が徐々に透明になり、フェードアウトする(溶明)と
ともに、地図62が徐々に画面上に浮かびあがってきて
フェードインする(溶暗)。この結果、遊戯者が地図6
1をロックオンすることで、プレイヤキャラクタが地図
61を覗き込む様子を画面上に表現することができる。At this time, the map 61 is zoomed, but as the camera 50 moves, the screen is gradually switched from a coarse map 61 to a fine map 62 (FIG. 22). That is, by overwriting the image data of the map 62 which is a fine image on the image data of the map 61 which is a coarse image, and changing the transparency of both of them complementarily, the map 6
1 gradually becomes transparent and fades out (lightening), and the map 62 gradually appears on the screen and fades in (darkening). As a result, the player moves to Map 6
By locking on 1, it is possible to express on the screen how the player character looks into the map 61.
【0050】フォーカスモーションの手順について、図
25を参照して説明する。ビデオ信号の垂直同期信号に
相当する周期で割り込み信号がCPU11に供給される
と、CPU11内のレジスタに割り込みフラグが設定さ
れる。割り込みが発生すると(ステップS401;YE
S)、CPU11はステップS402〜ステップS41
1の各処理を実行する。地図61をロックオンすると、
フォーカスモーションのフラグがセットされる。CPU
11は当該フラグがセットされたことを検知すると(ス
テップS402;YES)、内蔵のレジスタnの値をカ
ウントアップする(ステップS403)。このレジスタ
nはフォーカスモーション処理後のフレーム数を計数す
るものであり、当初nは‘0’の値にある。The procedure of the focus motion will be described with reference to FIG. When an interrupt signal is supplied to the CPU 11 at a cycle corresponding to the vertical synchronizing signal of the video signal, an interrupt flag is set in a register in the CPU 11. When an interrupt occurs (step S401; YE)
S), the CPU 11 executes steps S402 to S41.
1 is performed. When you lock on map 61,
The focus motion flag is set. CPU
When detecting that the flag is set (step S402; YES), the counter 11 counts up the value of the built-in register n (step S403). This register n counts the number of frames after the focus motion processing, and n is initially '0'.
【0051】ここで、地図61から地図62に変化させ
るのに要するフレーム数をFとする。また、地図61の
テクスチャデータをデータM1とし、地図62のテクス
チャデータをデータM2とする。さらに、地図61を半
透明処理するためにデータM1に乗じる透明度係数をa
とし、地図62を半透明処理するためにデータM2に乗
じる透明度係数をbとする。このとき、透明度係数は0
のときに透明度0%であり、1のときに透明度100%
であるものとする。Here, the number of frames required to change from the map 61 to the map 62 is F. The texture data of the map 61 is data M1, and the texture data of the map 62 is data M2. Further, a transparency coefficient to be multiplied by the data M1 for translucent processing of the map 61 is a
The transparency coefficient by which the data M2 is multiplied to perform the translucency processing of the map 62 is represented by b. At this time, the transparency coefficient is 0
0% transparency when 1 and 100% transparency when 1
It is assumed that
【0052】CPU11はレジスタnの値にFを乗じて
透明度係数aを得る(ステップS404)。そして、デ
ータM1を透明度aで半透明処理をする(ステップS4
05)。さらに、透明度係数aと相補的に変化する透明
度係数bを求め(ステップS406)、データM2を透
明度bで半透明処理する(ステップS407)。そし
て、これら半透明処理されたデータM1及びデータM2
を合成する(ステップS408)。図26に示すよう
に、データM1、データM2はテクスチャメモリに登録
されており、合成データはフレームバッファに書き込ま
れる。The CPU 11 multiplies the value of the register n by F to obtain a transparency coefficient a (step S404). Then, the data M1 is translucently processed with the transparency a (step S4).
05). Further, a transparency coefficient b that changes complementarily with the transparency coefficient a is obtained (step S406), and the data M2 is translucently processed with the transparency b (step S407). The data M1 and the data M2 that have been
Are combined (step S408). As shown in FIG. 26, data M1 and data M2 are registered in the texture memory, and the synthesized data is written to the frame buffer.
【0053】次いで、カメラ50を1フレーム分移動さ
せる。カメラ50の移動方向は図23、図24に示すよ
うに、客観視点から主観視点へ移行する向きであり、F
フレーム分の移動によりカメラ移動が完了する。現在の
カメラ位置から見た上記合成データによってレンダリン
グ処理を実行し、画像表示を行う(ステップS41
0)。ステップS404〜ステップS410の処理をF
回繰り返すことで、フォーカスモーションが終了する
(ステップS411)。Next, the camera 50 is moved by one frame. The moving direction of the camera 50 is a direction of shifting from the objective viewpoint to the subjective viewpoint, as shown in FIGS.
The camera movement is completed by moving the frame. A rendering process is executed using the combined data viewed from the current camera position to display an image (step S41).
0). The processing of steps S404 to S410 is
The focus motion is completed by repeating the process twice (step S411).
【0054】尚、フォーカスモーションにおいて、カメ
ラ50を客観視点から主観視点へ移動させるときに、プ
レイヤキャラクタ40とカメラ50との距離(Z値)が
所定値よりも小さくなった場合に、プレイヤキャラクタ
40を半透明処理するように構成することが好ましい。
このように処理することでカメラ50からの視界がプレ
イヤキャラクタ40によって遮られる不都合を解消する
ことができる。In the focus motion, when the camera 50 is moved from the objective viewpoint to the subjective viewpoint, if the distance (Z value) between the player character 40 and the camera 50 becomes smaller than a predetermined value, the player character 40 Is preferably configured to be translucent.
By performing such processing, it is possible to eliminate the inconvenience that the field of view from the camera 50 is blocked by the player character 40.
【0055】また、上記の説明では、ステップS207
におけるアクションの例として、掴みモーション、フォ
ーカスモーションについて説明したが、これに限らず、
例えば、引き出しを開ける、扉を開ける、ドアをノック
する、電話をかける、掛け軸を取る等の動作であっても
よい。また、ロックオン処理の対象はオブジェクトに限
らず、人物を模したキャラクタであってもよい。例え
ば、女の子のキャラクタにロックオンすると、その子に
話し掛ける等の処理をするように構成してもよい。ま
た、オブジェクト或いはキャラクタが移動している状態
でもロックオンできるものとする。 (クリッピング処理)次に、図27乃至図29を参照し
て本発明のクリッピング処理について説明する。図27
に示すように、ジオメトリプロセッサ12によって、カ
メラ位置を原点として、視線の方向をz軸の正方向にと
った視点座標系にデータを変換し、投影面であるスクリ
ーン座標系へ、それぞれの座標を透視変換したときの描
画限界点をZmaxとし、半透明処理開始点をZ0とす
る。In the above description, step S207
As an example of the action in, the grabbing motion and the focus motion have been described.
For example, an operation of opening a drawer, opening a door, knocking on a door, making a phone call, taking a scroll, etc. may be performed. The target of the lock-on process is not limited to the object, but may be a character imitating a person. For example, when a lock-on is made to a girl character, a process such as talking to the child may be performed. Also, it is assumed that lock-on can be performed even when the object or the character is moving. (Clipping Process) Next, the clipping process of the present invention will be described with reference to FIGS. FIG.
As shown in (1), the geometry processor 12 converts the data into a viewpoint coordinate system in which the line of sight is taken in the positive direction of the z-axis with the camera position as the origin, and the respective coordinates are converted to a screen coordinate system as a projection plane. The drawing limit point when the perspective transformation is performed is defined as Zmax , and the translucent processing start point is defined as Z0 .
【0056】そして、図28に示すように、オブジェク
ト乃至キャラクタのZ値がZ0以下の場合は透明度α=
0(透明度0%)とし、Zmax以上の場合は透明度α
=1(透明度100%)とする。さらに、Z値がZ0以
上Zmax以下の場合は透明度α=(Z−Z0)/(Z
max−Z0)とする。[0056] Then, as shown in FIG. 28, when Z value of the object to the character of the Z 0 less transparency alpha =
0 (transparency 0%), and when it is equal to or more than Zmax , the transparency α
= 1 (transparency 100%). Further, Z value Z 0 or higher Z max following if transparency α = (Z-Z 0) / (Z
max −Z 0 ).
【0057】上記のクリッピング処理について、図29
のフローチャートを参照して説明する。ビデオ信号の垂
直同期信号に相当する周期で割り込み信号がCPU11
に供給されると、CPU11内のレジスタに割り込みフ
ラグが設定される。割り込みが発生すると(ステップS
501;YES)、CPU11はステップS502〜ス
テップS508の各処理を実行する。スクリーン座標系
において、オブジェクトのZ値がZ0以上であって(ス
テップS502;YES)、Zmax以下である場合に
は(ステップS503;YES)、透明度α=(Z−Z
0)/(Zmax−Z0)とし(ステップS504)、
レンダリング処理をして(ステップS505)、画像表
示を行う(ステップS506)。一方、オブジェクトの
Z値がZ0未満である場合は(ステップS502;N
O)、透明度α=0とし(ステップS507)、Z値が
Zmax以上である場合は(ステップS503;N
O)、透明度α=1とする(ステップS508)。FIG. 29 shows the above clipping process.
This will be described with reference to the flowchart of FIG. An interrupt signal is generated by the CPU 11 at a cycle corresponding to the vertical synchronizing signal of the video signal.
, An interrupt flag is set in a register in the CPU 11. When an interrupt occurs (step S
501; YES), the CPU 11 executes each processing of steps S502 to S508. In the screen coordinate system, Z value of the object is not more Z 0 or higher (step S502; YES), if it is less Z max (step S503; YES), the transparency alpha = (Z-Z
0) / a (Z max -Z 0) (step S504),
A rendering process is performed (step S505), and an image is displayed (step S506). On the other hand, when Z value of the object is smaller than Z 0 (step S502; N
O), the transparency α is set to 0 (step S507), and when the Z value is equal to or greater than Z max (step S503; N)
O), the transparency α is set to 1 (step S508).
【0058】上記のように処理することで、オブジェク
ト等が描画限界点付近にきたときでも、いきなりオブジ
ェクト等が消えることはなく、描画限界点付近で徐々に
透明処理がなされるため、遊戯者に不快感を与えること
がない。 (光源処理)次に、図1及び図30を参照して本発明の
光源処理について説明する。図1において、CPU11
はポリゴンを使用した画像を処理するためのプログラム
を実行し、ポリゴンの頂点データをジオメトリプロセッ
サ12へ供給する。ジオメトリプロセッサ12はポリゴ
ンの頂点座標データに基づいて三次元空間へポリゴンを
配置したり、三次元空間中のどの領域までを表示するか
を決定するビューポートの設定を行う。ポリゴンの各頂
点には頂点座標(X,Y,Z)、頂点カラー(赤、緑、
青)、テクスチャ座標(Tx,Ty)、頂点透明度及び
頂点の法線ベクトルなどの属性が付与されており、ジオ
メトリプロセッサ12は頂点の法線ベクトルと光源ベク
トルのなす角度に応じて各頂点の輝度(色)を計算し、
ビューポートの外にある頂点を除去し(クリッピング処
理)、3次元座標から2次元座標(スクリーン座標)へ
の変換を行う。By performing the above processing, even when an object or the like comes near the drawing limit point, the object or the like does not suddenly disappear and the transparent processing is gradually performed near the drawing limit point. No discomfort. (Light Source Processing) Next, the light source processing of the present invention will be described with reference to FIGS. In FIG. 1, a CPU 11
Executes a program for processing an image using polygons, and supplies vertex data of the polygons to the geometry processor 12. The geometry processor 12 arranges the polygon in the three-dimensional space based on the vertex coordinate data of the polygon and sets a viewport for determining up to which region in the three-dimensional space to display. Each vertex of the polygon has vertex coordinates (X, Y, Z) and vertex colors (red, green,
Attributes such as blue), texture coordinates (Tx, Ty), vertex transparency and vertex normal vector are given, and the geometry processor 12 determines the brightness of each vertex according to the angle between the vertex normal vector and the light source vector. (Color)
The vertices outside the viewport are removed (clipping processing), and conversion from three-dimensional coordinates to two-dimensional coordinates (screen coordinates) is performed.
【0059】上記の処理において、ジオメタライザ12
はポリゴンの頂点の輝度(色)を頂点カラーリストとし
てシステムメモリ13に保存する。このように頂点カラ
ーリストを保存しておくことで、プリレンダが有効とな
る。頂点カラーリストはバスアービタ14を介してレン
ダリングプロセッサ15へ供給される。レンダリングプ
ロセッサ15はポリゴンの頂点を結ぶ稜線上の各点(ピ
クセル)についての輝度(色)を頂点の輝度(色)を補
完処理することによって求める。また、各稜線上のピク
セルの輝度(色)からポリゴンの平面を構成する全ての
ピクセルの輝度(色)を補完処理によって求める。そし
て、各ピクセルに対応したテクスチャデータをグラフィ
ックメモリ16から読み出し、各ピクセルのカラーを計
算する。In the above processing, the geometalizer 12
Saves the brightness (color) of the vertices of the polygon in the system memory 13 as a vertex color list. By storing the vertex color list in this way, pre-rendering is enabled. The vertex color list is supplied to the rendering processor 15 via the bus arbiter 14. The rendering processor 15 obtains the luminance (color) of each point (pixel) on the ridge connecting the vertices of the polygon by complementing the luminance (color) of the vertices. Further, the luminance (color) of all pixels constituting the plane of the polygon is obtained from the luminance (color) of the pixel on each ridge line by the complementing process. Then, texture data corresponding to each pixel is read from the graphic memory 16 and the color of each pixel is calculated.
【0060】レンダリングプロセッサ15は必要に応じ
てグラフィックメモリ16内のフレームバッファに既に
書き込まれているピクセルカラーと新たに書き込むポリ
ゴンの各ピクセルカラーとをブレンドし、そのブレンド
した値をフレームバッファに書き込む。グラフィックメ
モリ16内にはデプスバッファが割り当てられており、
各ピクセルのZ座標値が記憶されている。デプスバッフ
ァから読み込んだZ座標値から判断して、最も手前に不
透明なポリゴンがくる場合には上記のブレンドを行うこ
となく、直ちにそのポリゴンのカラーデータをフレーム
バッファに書き込む。また、最も手前に完全に透明なポ
リゴンが位置する場合には、手前のポリゴンのカラーデ
ータを書き込むことなく、フレームバッファに既に書き
込まれている背後のポリゴンのカラーデータをそのまま
保持すればよい。フレームバッファに書き込まれたピク
セルデータはビデオエンコーダ17に供給され、モニタ
25で画像表示される。The rendering processor 15 blends the pixel color already written in the frame buffer in the graphic memory 16 with each pixel color of the polygon to be newly written, if necessary, and writes the blended value to the frame buffer. A depth buffer is allocated in the graphic memory 16,
The Z coordinate value of each pixel is stored. Judging from the Z coordinate value read from the depth buffer, if an opaque polygon comes to the foreground, the color data of the polygon is immediately written to the frame buffer without performing the above blending. If a completely transparent polygon is located at the forefront, the color data of the polygon behind which has already been written in the frame buffer may be held as it is without writing the color data of the polygon at the front. The pixel data written in the frame buffer is supplied to the video encoder 17 and displayed on the monitor 25 as an image.
【0061】図30を参照して光源処理の各手順につい
て説明する。まず、プリレンダが有効であるか否かが判
断される(ステップS601)。頂点カラーリストは光
源処理における最初の1フレームで作成され、システム
メモリ13に保存されるため、プリレンダが有効であれ
ば(ステップS601;YES)、2フレーム目以降は
当該頂点カラーリストを参照することでポリゴンのレン
ダリングが可能になる。そこで、頂点カラーリストを読
み出し(ステップS602)、当該頂点カラーリストに
基づいてレンダリングを行い(ステップS603)、画
像表示を行う(ステップS604)。一方、光源処理が
未処理である等、プリレンダが有効でない場合は(ステ
ップS601;NO)、頂点カラーリストを作成し(ス
テップS602)、プリレンダを有効にした後(ステッ
プS606)、頂点カラーリストに基づいてレンダリン
グを行い(ステップS603)、画像表示を行う(ステ
ップS604)。Each procedure of the light source processing will be described with reference to FIG. First, it is determined whether the pre-render is valid (step S601). Since the vertex color list is created in the first frame in the light source processing and stored in the system memory 13, if the pre-render is valid (step S601; YES), the vertex color list is referred to for the second and subsequent frames. Enables rendering of polygons. Therefore, the vertex color list is read (step S602), rendering is performed based on the vertex color list (step S603), and image display is performed (step S604). On the other hand, if the pre-render is not valid, for example, the light source processing has not been performed (step S601; NO), a vertex color list is created (step S602), and the pre-render is enabled (step S606). Rendering is performed based on the image (step S603), and image display is performed (step S604).
【0062】上記の手順によれば、背景画などのよう
に、光源との位置関係が一定であるものは、視点座標の
変化に関係なく光源処理を最初の1フレーム目で行って
おくことで、2フレーム目も同様の結果を利用できるた
め、演算負荷が軽くなるとともに、記憶すべきテクスチ
ャデータ量の増加を防ぐことができる。According to the above-described procedure, a light source having a fixed positional relationship with a light source, such as a background image, can be subjected to light source processing in the first frame regardless of a change in viewpoint coordinates. Since the same result can be used for the second frame, the calculation load can be reduced and the amount of texture data to be stored can be prevented from increasing.
【0063】尚、上記の説明においては、頂点カラーリ
ストをシステムメモリ13に保存しておく構成を採用し
たが、これに限らず、例えば、ポリゴンの頂点の輝度
(色)を補完処理することで、ポリゴンの平面を構成す
る全てのピクセルの輝度(色)を補完処理によって予め
求めておき、これをテクスチャバッファ内に登録してお
いてもよい。さらには、テクスチャにポリゴンの色をブ
レンドした時点でこれをテクスチャバッファ内に登録し
ておいてもよい。これらのピクセルデータはレンダリン
グする際に必要に応じて読み出され、描画処理に用いら
れる。In the above description, the configuration in which the vertex color list is stored in the system memory 13 is employed. However, the present invention is not limited to this. For example, the luminance (color) of the vertices of the polygon is complemented. Alternatively, the luminances (colors) of all the pixels constituting the plane of the polygon may be obtained in advance by the complementing process, and may be registered in the texture buffer. Furthermore, when the texture is blended with the polygon color, this may be registered in the texture buffer. These pixel data are read out as needed at the time of rendering, and are used for drawing processing.
【0064】[0064]
【発明の効果】本発明によれば、カメラは遊戯者の選択
したオブジェクトに対して確実に注視することができる
とともに、オブジェクトをズームすることで当該オブジ
ェクトに対するアクションが容易になる。また、オブジ
ェクトを注視する際に、カメラは客観視点から主観視点
へと切り替わるため、遊戯者はあたかも実際にオブジェ
クトに対して接しているかのような疑似体験をすること
ができる。According to the present invention, the camera can surely gaze at the object selected by the player, and the action on the object can be easily performed by zooming the object. In addition, when gazing at the object, the camera switches from the objective viewpoint to the subjective viewpoint, so that the player can have a simulated experience as if he / she is actually in contact with the object.
【0065】また、本発明によれば、各動作部位毎に衝
突判定が行われ、モーションデータが終了するか或いは
動作部位が衝突することで動作部位の動作が終了するた
め、上記の従来技術のように、動作部位が他のオブジェ
クトに食い込む等の不都合を解消することができる。Further, according to the present invention, the collision determination is performed for each operation part, and the operation of the operation part ends when the motion data ends or when the operation part collides. In this way, it is possible to eliminate the inconvenience of the operating part biting into another object.
【0066】また、本発明によれば、描画限界点付近で
いきなりオブジェクトが消える不自然さを解消すること
ができる。Further, according to the present invention, it is possible to eliminate the unnaturalness that an object disappears immediately near the drawing limit point.
【0067】また、本発明によれば、光源処理における
演算負荷を大幅に低減することができる。Further, according to the present invention, the calculation load in the light source processing can be greatly reduced.
【図1】ビデオゲーム装置の回路構成図である。FIG. 1 is a circuit configuration diagram of a video game device.
【図2】システムメモリ内にロードされる各テーブルの
データ構造の説明図である。FIG. 2 is an explanatory diagram of a data structure of each table loaded into a system memory.
【図3】ビデオゲーム装置の全体的な動作フローチャー
トである。FIG. 3 is an overall operation flowchart of the video game device.
【図4】ロックオン処理のフローチャートである。FIG. 4 is a flowchart of a lock-on process.
【図5】ロックオン可能エリアの説明図である。FIG. 5 is an explanatory diagram of a lock-on possible area.
【図6】ロックオン処理の説明図である。FIG. 6 is an explanatory diagram of a lock-on process.
【図7】カメラ移動の説明図である。FIG. 7 is an explanatory diagram of camera movement.
【図8】カメラ移動の説明図である。FIG. 8 is an explanatory diagram of camera movement.
【図9】カメラ移動の説明図である。FIG. 9 is an explanatory diagram of camera movement.
【図10】カメラ移動の説明図である。FIG. 10 is an explanatory diagram of camera movement.
【図11】カメラ移動の説明図である。FIG. 11 is an explanatory diagram of camera movement.
【図12】カメラ移動の説明図である。FIG. 12 is an explanatory diagram of camera movement.
【図13】リアルハンドの説明図である。FIG. 13 is an explanatory diagram of a real hand.
【図14】掴みモーションの説明図である。FIG. 14 is an explanatory diagram of a grabbing motion.
【図15】掴みモーションの説明図である。FIG. 15 is an explanatory diagram of a grabbing motion.
【図16】掴みモーションの説明図である。FIG. 16 is an explanatory diagram of a grabbing motion.
【図17】掴みモーションの説明図である。FIG. 17 is an explanatory diagram of a grabbing motion.
【図18】掴みモーションの説明図である。FIG. 18 is an explanatory diagram of a grabbing motion.
【図19】掴みモーションの説明図である。FIG. 19 is an explanatory diagram of a grabbing motion.
【図20】掴みモーションの説明図である。FIG. 20 is an explanatory diagram of a grabbing motion.
【図21】フォーカスモーションの説明図である。FIG. 21 is an explanatory diagram of a focus motion.
【図22】フォーカスモーションの説明図である。FIG. 22 is an explanatory diagram of a focus motion.
【図23】フォーカスモーションの説明図である。FIG. 23 is an explanatory diagram of a focus motion.
【図24】フォーカスモーションの説明図である。FIG. 24 is an explanatory diagram of a focus motion.
【図25】フォーカスモーションの説明図である。FIG. 25 is an explanatory diagram of a focus motion.
【図26】テクスチャデータの半透明処理の説明図であ
る。FIG. 26 is an explanatory diagram of translucent processing of texture data.
【図27】クリッピング処理の説明図である。FIG. 27 is an explanatory diagram of a clipping process.
【図28】透明度対Z値のグラフである。FIG. 28 is a graph of transparency versus Z value.
【図29】クリッピング処理の説明図である。FIG. 29 is an explanatory diagram of clipping processing.
【図30】光源処理の説明図である。FIG. 30 is an explanatory diagram of light source processing.
10…ビデオゲーム装置、11…CPU、12…ジオメ
トリプロセッサ、13…システムメモリ、14…バスア
ービタ、15…レンダリングプロセッサ、16…グラフ
ィックメモリ、17…ビデオエンコーダ、18…RO
M、19…CD−ROMドライブ、20…サウンドプロ
セッサ、21…サウンドメモリ、22…D/Aコンバー
タ、30…ロックオン可能エリア、32…みかん、40
…プレイヤキャラクタ、50…カメラDESCRIPTION OF SYMBOLS 10 ... Video game device, 11 ... CPU, 12 ... Geometry processor, 13 ... System memory, 14 ... Bus arbiter, 15 ... Rendering processor, 16 ... Graphic memory, 17 ... Video encoder, 18 ... RO
M, 19: CD-ROM drive, 20: Sound processor, 21: Sound memory, 22: D / A converter, 30: Lock-on area, 32: Orange, 40
... player character, 50 ... camera
───────────────────────────────────────────────────── フロントページの続き (72)発明者 平井 武史 東京都大田区羽田1丁目2番12号 株式会 社セガ・エンタープライゼス内 Fターム(参考) 2C001 BC00 BC06 BC07 BC10 CB01 CC02 5B050 BA07 BA08 BA09 CA07 EA24 EA30 FA02 9A001 DD12 EE02 HH24 HH26 HH30 HH31 JJ76 KK31 KK45 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Takeshi Hirai 1-2-12 Haneda, Ota-ku, Tokyo F-term in SEGA Enterprises Co., Ltd. (Reference) 2C001 BC00 BC06 BC07 BC10 CB01 CC02 5B050 BA07 BA08 BA09 CA07 EA24 EA30 FA02 9A001 DD12 EE02 HH24 HH26 HH30 HH31 JJ76 KK31 KK45
Claims (38)
って選択されたオブジェクトにカメラの注視点を設定す
る注視点設定手段と、注視しているオブジェクトをズー
ムするズーム手段とを備えたビデオゲーム装置。1. A video game apparatus comprising: gaze point setting means for setting a gaze point of a camera at an object selected by a player from a plurality of objects; and zoom means for zooming an object being gazed at.
に注視点を設定する際に、カメラを客観視点から主観視
点へと移動させる請求項1に記載のビデオゲーム装置。2. The video game apparatus according to claim 1, wherein said point of regard setting means moves a camera from an objective point of view to a subjective point of view when setting a point of regard to said object.
ームされるに従い、当該オブジェクトが画面から次第に
フェードアウトするように当該オブジェクトを表示する
とともに、他のオブジェクトが画面から次第にフェード
インするように当該他のオブジェクトを前記オブジェク
トに重ねて表示する表示手段をさらに備えた請求項1又
は請求項2に記載のビデオゲーム装置。3. As the object being watched by the camera is zoomed, the object is displayed so that the object gradually fades out of the screen, and the other object is gradually faded in from the screen. 3. The video game apparatus according to claim 1, further comprising a display unit configured to display an object superimposed on the object.
面中央へズームする請求項1乃至請求項3のうち何れか
1項に記載のビデオゲーム装置。4. The video game apparatus according to claim 1, wherein the zoom unit zooms the object to the center of the screen.
て予め定められた範囲内に位置するオブジェクトに対し
てのみカメラの注視点を設定する請求項1乃至請求項4
のうち何れか1項に記載のビデオゲーム装置。5. The gazing point setting unit sets a gazing point of a camera only for an object located within a predetermined range in a viewpoint coordinate system.
The video game device according to claim 1.
において予め定められた範囲内であって、且つカメラと
の距離が当該オブジェクト毎に予め定められた範囲内に
位置するオブジェクトに対してのみカメラの注視点を設
定する請求項1乃至請求項4のうち何れか1項に記載の
ビデオゲーム装置。6. The camera according to claim 1, wherein the gazing point setting unit performs a camera only on an object located within a predetermined range in the screen coordinate system and having a distance from the camera within the predetermined range for each object. The video game device according to claim 1, wherein a gazing point is set.
オブジェクトに対応して予め定められたアクションをプ
レイヤキャラクタが実行するアクション実行手段をさら
に備えた請求項1乃至請求項6のうち何れか1項に記載
のビデオゲーム装置。7. The game apparatus according to claim 1, further comprising: an action execution unit that executes a predetermined action corresponding to an object watched by the watch point setting unit by a player character. 3. The video game device according to claim 1.
おいて予め定められた範囲内に位置したとき、遊戯者の
操作によって当該オブジェクトに注視点を設定する注視
点設定手段と、注視している当該オブジェクトをズーム
するズーム手段とを備えたビデオゲーム装置。8. A gazing point setting means for setting a gazing point on an object by a player's operation when the gazing object is located within a predetermined range in the viewpoint coordinate system; A video game device comprising: zoom means for zooming.
ブジェクトから、前記範囲内に位置する他の注視可能な
オブジェクトへ、遊戯者の操作によって注視点を変更す
る請求項8に記載のビデオゲーム装置。9. The video game apparatus according to claim 8, wherein a gazing point is changed by an operation of a player from an object zoomed by said zoom means to another gazing object located in said range.
座標系において予め定められた第1の範囲内に位置し、
且つカメラとの距離が当該オブジェクト毎に予め定めら
れた第2の範囲内に位置したときに、遊戯者の操作によ
って当該オブジェクトに注視点を設定する注視点設定手
段と、注視している当該オブジェクトをズームするズー
ム手段とを備えたビデオゲーム装置。10. A gazeable object is located within a first range predetermined in a screen coordinate system,
Gaze point setting means for setting a gaze point on the object by operation of a player when a distance from the camera is within a second range predetermined for the object; A video game device comprising: zoom means for zooming.
オブジェクトから、前記第1及び第2の範囲内に位置す
る他の注視可能なオブジェクトへ、遊戯者の操作によっ
て注視点を変更する請求項10に記載のビデオゲーム装
置。11. The gazing point is changed by an operation of a player from an object zoomed by the zoom unit to another gazing object located in the first and second ranges. Video game equipment.
よって選択されたオブジェクトにカメラの注視点を設定
し、当該オブジェクトをズームする画像表示方法。12. An image display method for setting a gazing point of a camera on an object selected by a player from among a plurality of objects, and zooming the object.
際に、カメラを客観視点から主観視点へと移動させる請
求項12に記載の画像表示方法。13. The image display method according to claim 12, wherein a camera is moved from an objective viewpoint to a subjective viewpoint when setting a gazing point on the object.
ズームされるに従い、当該オブジェクトが画面から次第
にフェードアウトするように当該オブジェクトを表示す
るとともに、他のオブジェクトが画面から次第にフェー
ドインするように当該他のオブジェクトを前記オブジェ
クトに重ねて表示する請求項12又は請求項13に記載
の画像表示方法。14. As the object being watched by the camera is zoomed, the object is displayed so that the object gradually fades out of the screen, and the other object is gradually faded in from the screen. 14. The image display method according to claim 12, wherein an object is displayed so as to overlap the object.
する請求項12乃至請求項14のうち何れか1項に記載
の画像表示方法。15. The image display method according to claim 12, wherein the object is zoomed to a center of a screen.
範囲内に位置するオブジェクトに対してのみカメラの注
視点を設定する請求項12乃至請求項15のうち何れか
1項に記載の画像表示方法。16. The image display method according to claim 12, wherein a gazing point of the camera is set only for an object located within a predetermined range in the viewpoint coordinate system. .
れた範囲内であって、且つカメラとの距離が当該オブジ
ェクト毎に定められた範囲内に位置するオブジェクトに
対してのみカメラの注視点を設定する請求項12乃至請
求項15のうち何れか1項に記載の画像表示方法。17. A gazing point of a camera is set only for an object which is within a predetermined range in a screen coordinate system and whose distance from the camera is within a range defined for each object. The image display method according to any one of claims 12 to 15.
め定められたアクションをプレイヤキャラクタが実行す
る処理ステップをさらに備えた請求項12乃至請求項1
7のうち何れか1項に記載の画像表示方法。18. The processing method according to claim 12, further comprising a processing step in which the player character executes a predetermined action corresponding to the gazed object.
8. The image display method according to any one of the seventh to seventh aspects.
において予め定められた範囲内に位置したとき、遊戯者
の操作によって当該オブジェクトに注視点を設定し、注
視している当該オブジェクトをズームする画像表示方
法。19. An image display in which when a gazeable object is located within a predetermined range in a viewpoint coordinate system, a gaze point is set on the object by a player's operation, and the object being watched is zoomed. Method.
前記範囲内に位置する他の注視可能なオブジェクトへ、
遊戯者の操作によって注視点を変更する請求項19に記
載の画像表示方法。20. From the zoomed object:
To other gazeable objects located within the range,
20. The image display method according to claim 19, wherein the gazing point is changed by an operation of a player.
座標系において予め定められた第1の範囲内に位置し、
且つカメラとの距離が当該オブジェクト毎に予め定めら
れた第2の範囲内に位置したときに、遊戯者の操作によ
って当該オブジェクトに注視点を設定し、注視している
当該オブジェクトをズームする画像処理方法。21. A gazeable object is located within a first range predetermined in a screen coordinate system,
Image processing for setting a gazing point on the object by a player's operation when the distance from the camera is within a second range predetermined for the object, and zooming the gazing object; Method.
前記第1及び第2の範囲内に位置する他の注視可能なオ
ブジェクトへ、遊戯者の操作によって注視点を変更する
請求項21に記載の画像表示装置。22. From the zoomed object,
22. The image display device according to claim 21, wherein a gazing point is changed by an operation of a player to another gazing object located in the first and second ranges.
か1項に記載の方法をコンピュータに実行させるための
プログラムが記録されたコンピュータ読み取り可能な記
録媒体。23. A computer-readable recording medium on which a program for causing a computer to execute the method according to claim 12 is recorded.
ってオブジェクト全体の動きを表示する動画表示装置に
おいて、前記複数の動作部位のモーションデータを予め
記憶する記憶手段と、前記動作部位のうち動作過程にお
いて予め接触が予想される箇所の接触を判定する判定手
段と、前記記憶手段から各動作部位毎にモーションデー
タを読み出して、これに基づいて当該動作部位のモーシ
ョンを画面に表示するとともに前記判定手段によって衝
突が検出された動作部位のモーションデータの読み取り
を終了する表示手段を備えた動画表示装置。24. A moving image display device for displaying a motion of an entire object by a motion of each of a plurality of motion parts, wherein a storage means for storing motion data of the plurality of motion parts in advance; Determining means for determining a contact at a location where contact is expected in advance; and reading out motion data for each operating part from the storage means, and displaying the motion of the operating part on a screen based on the data, and determining by the determining means. A moving image display device comprising a display unit for ending the reading of motion data of an operation part in which a collision is detected.
体の動きを表示する動画表示装置において、ポリゴンの
モーションデータを予め記憶する記憶手段と、ポリゴン
の動作過程において予め接触が予想される箇所の接触を
判定する判定手段と、前記記憶手段から各指毎にモーシ
ョンデータを読み出して、これに基づいて当該指のモー
ションを画面に表示するとともに前記判定手段によって
衝突が検出された指のモーションデータの読み取りを終
了する表示手段を備えた動画表示装置。25. A moving image display device for displaying the movement of the entire hand by the movement of a polygon representing a finger, wherein a storage means for storing in advance the motion data of the polygon, Reading the motion data of each finger from the storage means, displaying the motion of the finger on the screen based on the read motion data, and reading the motion data of the finger in which a collision is detected by the determining means. Moving image display device provided with a display means for ending the process.
ってオブジェクト全体の動きを表示する動画表示方法に
おいて、前記複数の動作部位のモーションデータを予め
記憶しておき、各動作部位毎にモーションデータを読み
出して、これに基づいて当該動作部位のモーションを画
面に表示するとともに、動作部位のうち動作過程におい
て予め接触が予想される箇所の接触を判定することで衝
突が検出された動作部位のモーションデータの読み取り
を終了する動画表示方法。26. A moving image display method for displaying a motion of an entire object according to a motion of each of a plurality of motion parts, wherein motion data of the plurality of motion parts is stored in advance, and the motion data is read out for each motion part. Based on this, the motion of the motion part is displayed on the screen based on the motion data, and the motion data of the motion part in which the collision is detected is determined by determining the contact of a part of the motion part that is expected to be contacted in advance in the operation process. Video display method to end reading.
体の動きを表示する動画表示方法において、ポリゴンの
モーションデータを予め記憶しておき、各指毎にモーシ
ョンデータを読み出して、これに基づいて当該指のモー
ションを画面に表示するとともに、ポリゴンの動作過程
において予め接触が予想される箇所の接触を判定するこ
とで衝突が検出された指のモーションデータの読み取り
を終了する動画表示方法。27. In a moving image display method for displaying the movement of the entire hand by the movement of a polygon representing a finger, motion data of the polygon is stored in advance, and motion data is read out for each finger, and the motion data is read based on the motion data. A moving image display method in which a finger motion is displayed on a screen, and reading of motion data of a finger in which a collision is detected is completed by determining in advance a contact at a location where a contact is expected in a polygon movement process.
法をコンピュータに実行させるためのプログラムが記録
されたコンピュータ読み取り可能な記録媒体。28. A computer-readable recording medium on which a program for causing a computer to execute the method according to claim 26 or 27 is recorded.
トとカメラとの距離が描画限界点付近であるときに当該
オブジェクトを半透明処理して画面に表示する手段を備
えた画像表示装置。29. An image display device comprising: means for translucently processing an object when the distance between the object and the camera in the screen coordinate system is near a drawing limit point and displaying the object on a screen.
予め定められた距離以上であって、前記描画限界点未満
である場合に、当該距離の大きさに対応して透明度の割
合を高めて当該オブジェクトを半透明処理する請求項2
9に記載の画像表示装置。30. When the distance between the object and the camera is greater than or equal to a predetermined distance and less than the drawing limit point, the ratio of transparency is increased in accordance with the magnitude of the distance, and 2. A semi-transparent treatment of
10. The image display device according to 9.
トとカメラとの距離が描画限界点付近であるときに当該
オブジェクトを半透明処理して画面に表示する画像表示
方法。31. An image display method in which, when a distance between an object and a camera in a screen coordinate system is near a drawing limit point, the object is translucently displayed on a screen.
予め定められた距離以上であって、前記描画限界点未満
である場合に、当該距離の大きさに対応して透明度の割
合を高めて当該オブジェクトを半透明処理する請求項3
1に記載の画像表示方法。32. When the distance between the object and the camera is greater than or equal to a predetermined distance and less than the drawing limit point, the ratio of the transparency is increased in accordance with the magnitude of the distance. 3. A semi-transparent treatment of
2. The image display method according to 1.
法をコンピュータに実行させるためのプログラムが記録
されたコンピュータ読み取り可能な記録媒体。33. A computer-readable recording medium on which a program for causing a computer to execute the method according to claim 31 or 32 is recorded.
の輝度又は色を演算する演算手段と、この演算結果をメ
モリに記憶する手段と、当該オブジェクトを画面に表示
する際に当該メモリに記憶された演算結果を参照してオ
ブジェクトの画像表示を行う表示手段とを備えた画像表
示装置。34. A calculating means for calculating the brightness or color of an object which is immovable with respect to a light source, means for storing the calculation result in a memory, and a memory for storing the object on a screen when displaying the object on a screen. A display unit for displaying an image of an object by referring to a calculation result.
れており、前記演算手段は当該オブジェクトの輝度又は
色をポリゴンの各頂点における法線ベクトルと光源ベク
トルのなす角度から計算する請求項34に記載の画像表
示装置。35. The image according to claim 34, wherein the object is composed of polygons, and wherein the calculating means calculates the brightness or color of the object from an angle between a normal vector and a light source vector at each vertex of the polygon. Display device.
の輝度又は色を演算し、この演算結果をメモリに記憶し
ておき、当該オブジェクトを画面に表示する際に前記メ
モリに記憶された演算結果を参照してオブジェクトの画
像表示を行う画像表示方法。36. The method calculates the brightness or color of an object that is immovable with respect to the light source, stores the calculation result in a memory, and displays the calculation result stored in the memory when displaying the object on a screen. An image display method for displaying an image of an object by referring to it.
れており、当該オブジェクトの輝度又は色をポリゴンの
各頂点における法線ベクトルと光源ベクトルのなす角度
から計算する請求項36に記載の画像表示方法。37. The image display method according to claim 36, wherein the object is composed of polygons, and the brightness or color of the object is calculated from an angle between a normal vector and a light source vector at each vertex of the polygon.
法をコンピュータに実行させるためのプログラムが記録
されたコンピュータ読み取り可能な記録媒体。38. A computer-readable recording medium on which a program for causing a computer to execute the method according to claim 36 or 37 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP37711699A JP4144017B2 (en) | 1999-12-23 | 1999-12-23 | VIDEO GAME DEVICE, IMAGE DISPLAY DEVICE AND METHOD, MOVIE DISPLAY DEVICE AND METHOD, AND RECORDING MEDIUM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP37711699A JP4144017B2 (en) | 1999-12-23 | 1999-12-23 | VIDEO GAME DEVICE, IMAGE DISPLAY DEVICE AND METHOD, MOVIE DISPLAY DEVICE AND METHOD, AND RECORDING MEDIUM |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008118065A Division JP2008234681A (en) | 2008-04-30 | 2008-04-30 | Video game device, image display device and method, moving image display device and method, and recording medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2001178963A true JP2001178963A (en) | 2001-07-03 |
JP2001178963A5 JP2001178963A5 (en) | 2007-02-22 |
JP4144017B2 JP4144017B2 (en) | 2008-09-03 |
Family
ID=18508275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP37711699A Expired - Fee Related JP4144017B2 (en) | 1999-12-23 | 1999-12-23 | VIDEO GAME DEVICE, IMAGE DISPLAY DEVICE AND METHOD, MOVIE DISPLAY DEVICE AND METHOD, AND RECORDING MEDIUM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4144017B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006252185A (en) * | 2005-03-10 | 2006-09-21 | Nintendo Co Ltd | Game program and game device |
JP2007323341A (en) * | 2006-05-31 | 2007-12-13 | Matsushita Electric Works Ltd | Product design support system |
JP2008071046A (en) * | 2006-09-13 | 2008-03-27 | Ricoh Co Ltd | Device for creating three-dimensional model zoomed image |
JP2009011846A (en) * | 2008-08-07 | 2009-01-22 | Nintendo Co Ltd | Game program and game device |
JP2009078157A (en) * | 2008-11-04 | 2009-04-16 | Nintendo Co Ltd | Input processing program and input processing device |
JP2009146103A (en) * | 2007-12-13 | 2009-07-02 | Konami Digital Entertainment Co Ltd | Image generation device, image generation method and program |
US7744465B2 (en) | 2004-02-19 | 2010-06-29 | Nintendo Co., Ltd. | Game machine and data storage medium having stored therein game program |
JP2011200720A (en) * | 2011-07-14 | 2011-10-13 | Nintendo Co Ltd | Game program and game device |
JP2014079634A (en) * | 2013-12-10 | 2014-05-08 | Nintendo Co Ltd | Game program and game device |
JP2019075091A (en) * | 2018-08-24 | 2019-05-16 | 株式会社コロプラ | Program for providing virtual experience, computer and method |
JP2022509634A (en) * | 2019-04-11 | 2022-01-21 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | How to observe virtual items in a virtual environment, appliances and computer programs |
JP7316430B1 (en) | 2022-09-28 | 2023-07-27 | 株式会社コロプラ | Program and information processing system |
JP7316429B1 (en) | 2022-09-28 | 2023-07-27 | 株式会社コロプラ | Program and information processing system |
JP7480385B2 (en) | 2022-09-28 | 2024-05-09 | 株式会社コロプラ | Program and information processing system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5149337B2 (en) | 2010-06-11 | 2013-02-20 | 株式会社バンダイナムコゲームス | Program, information storage medium, and image generation system |
-
1999
- 1999-12-23 JP JP37711699A patent/JP4144017B2/en not_active Expired - Fee Related
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7744465B2 (en) | 2004-02-19 | 2010-06-29 | Nintendo Co., Ltd. | Game machine and data storage medium having stored therein game program |
US8836639B2 (en) | 2005-03-10 | 2014-09-16 | Nintendo Co., Ltd. | Storage medium storing game program and game apparatus |
US8120574B2 (en) | 2005-03-10 | 2012-02-21 | Nintendo Co., Ltd. | Storage medium storing game program and game apparatus |
JP2006252185A (en) * | 2005-03-10 | 2006-09-21 | Nintendo Co Ltd | Game program and game device |
US8139027B2 (en) | 2005-03-10 | 2012-03-20 | Nintendo Co., Ltd. | Storage medium storing input processing program and input processing apparatus |
US9849383B2 (en) | 2005-03-10 | 2017-12-26 | Nintendo Co., Ltd. | Storage medium storing game program and game apparatus |
JP2007323341A (en) * | 2006-05-31 | 2007-12-13 | Matsushita Electric Works Ltd | Product design support system |
JP2008071046A (en) * | 2006-09-13 | 2008-03-27 | Ricoh Co Ltd | Device for creating three-dimensional model zoomed image |
JP4579964B2 (en) * | 2007-12-13 | 2010-11-10 | 株式会社コナミデジタルエンタテインメント | Image generating apparatus, image generating method, and program |
JP2009146103A (en) * | 2007-12-13 | 2009-07-02 | Konami Digital Entertainment Co Ltd | Image generation device, image generation method and program |
JP2009011846A (en) * | 2008-08-07 | 2009-01-22 | Nintendo Co Ltd | Game program and game device |
JP2009078157A (en) * | 2008-11-04 | 2009-04-16 | Nintendo Co Ltd | Input processing program and input processing device |
JP2011200720A (en) * | 2011-07-14 | 2011-10-13 | Nintendo Co Ltd | Game program and game device |
JP2014079634A (en) * | 2013-12-10 | 2014-05-08 | Nintendo Co Ltd | Game program and game device |
JP2019075091A (en) * | 2018-08-24 | 2019-05-16 | 株式会社コロプラ | Program for providing virtual experience, computer and method |
US11766613B2 (en) | 2019-04-11 | 2023-09-26 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for observing virtual item in virtual environment and readable storage medium |
JP2022509634A (en) * | 2019-04-11 | 2022-01-21 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | How to observe virtual items in a virtual environment, appliances and computer programs |
JP7145331B2 (en) | 2019-04-11 | 2022-09-30 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Observation method, device and computer program for virtual items in virtual environment |
JP7561231B2 (en) | 2022-09-28 | 2024-10-03 | 株式会社コロプラ | Program and information processing system |
JP7316429B1 (en) | 2022-09-28 | 2023-07-27 | 株式会社コロプラ | Program and information processing system |
JP2024049191A (en) * | 2022-09-28 | 2024-04-09 | 株式会社コロプラ | Program and information processing system |
JP2024049192A (en) * | 2022-09-28 | 2024-04-09 | 株式会社コロプラ | Program and information processing system |
JP7480385B2 (en) | 2022-09-28 | 2024-05-09 | 株式会社コロプラ | Program and information processing system |
JP7316430B1 (en) | 2022-09-28 | 2023-07-27 | 株式会社コロプラ | Program and information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP4144017B2 (en) | 2008-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1350545B1 (en) | Game machine and game program | |
US11380021B2 (en) | Image processing apparatus, content processing system, and image processing method | |
EP1956471B1 (en) | Object selecting device, object selecting method, information recording medium, and program | |
EP1033682B1 (en) | Image processing apparatus and image processing method | |
US8647197B2 (en) | Storage medium storing game program and game apparatus | |
JP4242318B2 (en) | 3D image generation apparatus and 3D image generation program | |
JP4144017B2 (en) | VIDEO GAME DEVICE, IMAGE DISPLAY DEVICE AND METHOD, MOVIE DISPLAY DEVICE AND METHOD, AND RECORDING MEDIUM | |
JP2002196855A (en) | Image processor, image processing method, recording medium, computer program and semiconductor device | |
US20010049300A1 (en) | Game machine and information storage medium | |
JP2006068138A (en) | Game apparatus and image processing program | |
JP4917346B2 (en) | Game image processing program and game image processing apparatus | |
JP2005032140A (en) | Image generation system, program, and information storage medium | |
EP0992945B1 (en) | Video game apparatus, model display and readable recording medium therefor | |
JP2008234681A (en) | Video game device, image display device and method, moving image display device and method, and recording medium | |
JP2955989B2 (en) | Game equipment | |
JP3491832B2 (en) | GAME DEVICE AND INFORMATION STORAGE MEDIUM | |
JP2001351123A (en) | Image processing apparatus and image processing method | |
JP3839355B2 (en) | GAME DEVICE AND GAME PROGRAM | |
JP2002251625A (en) | Device and method for processing image, recording medium for recording program for processing image operating on computer | |
JP2005275795A (en) | Program, information storage medium and image generation system | |
US20240290000A1 (en) | Content Generation System and Method | |
JP5325253B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JPH11197358A (en) | Game device | |
JP2005050070A (en) | Image processing device, method, and program | |
JP2004313218A (en) | Game apparatus and game program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080229 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080526 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080608 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4144017 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110627 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130627 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130627 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130627 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |