JPH10113468A - Three-dimensional game device and information storage medium - Google Patents

Three-dimensional game device and information storage medium

Info

Publication number
JPH10113468A
JPH10113468A JP9332447A JP33244797A JPH10113468A JP H10113468 A JPH10113468 A JP H10113468A JP 9332447 A JP9332447 A JP 9332447A JP 33244797 A JP33244797 A JP 33244797A JP H10113468 A JPH10113468 A JP H10113468A
Authority
JP
Japan
Prior art keywords
moving
viewpoint
moving body
information
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9332447A
Other languages
Japanese (ja)
Other versions
JP4093620B2 (en
Inventor
Masateru Umeda
正輝 梅田
Kiyouta Tanaka
京太 田中
Yuichiro Komoriya
勇一郎 小森谷
Kouji Yamaguchi
甲治 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP33244797A priority Critical patent/JP4093620B2/en
Publication of JPH10113468A publication Critical patent/JPH10113468A/en
Application granted granted Critical
Publication of JP4093620B2 publication Critical patent/JP4093620B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6684Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dynamically adapting its position to keep a game object in its viewing frustrum, e.g. for tracking a character or a ball

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional game device which has a good visual effect to prompt a player to continue a game. SOLUTION: This three-dimensional game device contains a movable body calculation section 110 which performs a calculation to move a movable body based on an operation information from an operation section 12 in an object space, and a viewpoint setting section 130 which sets the viewpoint and the view direction of a virtual camera following the movement of the movable body, and synthesizes and displays a visual field image of the virtual camera at the viewpoint and the view direction. The viewpoint setting section 130 sets a viewpoint so that inertia is given to the virtual camera.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、オブジェクト空間
内の所与の視点位置、視線方向での視界画像を合成でき
る3次元ゲーム装置及び情報記憶媒体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a three-dimensional game device and an information storage medium capable of synthesizing a field-of-view image at a given viewpoint position and a line of sight in an object space.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、ディスプレイ上にゲーム画面を表示し、所与のゲー
ムフィールド上でプレーヤが操作する自機と敵キャラク
ターとの間で追いかけゲームを行うゲーム装置が知られ
ている。このゲーム装置は、敵キャラクタに捕まらない
ようにしながら制限時間内に所与のゲームクリア条件を
クリアすることを目的としており、そのスピード感から
ゲームとしての人気が高い。
2. Description of the Related Art Conventionally, a game apparatus that displays a game screen on a display and performs a chase game between the player and an enemy character operated by a player on a given game field. It has been known. The purpose of this game device is to clear a given game clear condition within a time limit while not being caught by an enemy character, and its popularity as a game is high because of its sense of speed.

【0003】しかしながらこのゲーム装置では、自機及
び敵キャラクタが移動するゲームフィールドは2次元的
なものであったため、プレーヤに与える視覚効果、ゲー
ムプレイのダイナミック感が欠けるという課題があっ
た。またプレーヤにリプレイを促すための工夫に欠け、
プレーヤに飽きられ易いという課題もあった。
However, in this game apparatus, since the game field in which the player and the enemy character move is two-dimensional, there is a problem that the visual effect given to the player and the dynamic feeling of game play are lacking. Also, lacking ingenuity to encourage players to replay,
There was also a problem that the player was easily bored.

【0004】プレーヤにリプレイを促す手法として、例
えばゲームクリア条件を満たす毎にプレーヤの目を楽し
ませる2次元的な絵を表示する手法も考えられる。しか
しながら、この手法では、プレーヤのゲームクリアの特
典として表示される絵は2次元的なものになるため、プ
レーヤに与えるインパクトが弱く、飽きられ易いという
問題がある。特に、2次元の絵の場合には、プレーヤの
視点がどの位置にある場合にも見える画像に変化が無
く、リアル感に欠けるという課題がある。
[0004] As a method of encouraging the player to replay, for example, a method of displaying a two-dimensional picture for entertaining the player's eyes every time a game clear condition is satisfied can be considered. However, in this method, a picture displayed as a player's game clearing privilege is two-dimensional, so that there is a problem that the impact on the player is weak and the player is easily bored. In particular, in the case of a two-dimensional picture, there is a problem in that there is no change in the image that can be seen when the player's viewpoint is at any position, and lacks realism.

【0005】本発明は、以上のような技術的課題を解決
するためになされたものであり、その目的とするところ
は、視覚効果に優れ、プレーヤの継続したゲームプレイ
を促すことができる3次元ゲーム装置及び情報記憶媒体
を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above technical problems, and an object of the present invention is to provide a three-dimensional game which has an excellent visual effect and can encourage a player to continuously play a game. It is to provide a game device and an information storage medium.

【0006】[0006]

【課題を解決するための手段】本発明の3次元ゲーム装
置は、オブジェクト空間において、操作手段からの操作
情報に基づいて移動体を移動させる演算を行う移動体演
算手段と、前記移動体の移動に追従する仮想カメラの視
点位置、視線方向を設定する視点設定手段と、前記視点
位置、視線方向での仮想カメラから見た視界画像を合成
する手段と、を含み、前記視点設定手段は、前記仮想カ
メラに慣性を与えることを特徴とする。
According to the present invention, there is provided a three-dimensional game apparatus comprising: moving object calculating means for calculating a moving object in an object space based on operation information from operating means; The viewpoint position of the virtual camera that follows, viewpoint setting means for setting the line-of-sight direction, and the viewpoint position, means for synthesizing a view image viewed from the virtual camera in the line-of-sight direction, and the viewpoint setting means, It is characterized by giving inertia to the virtual camera.

【0007】請求項2の発明は、請求項1において、前
記視点設定手段は、前記仮想カメラに、前記移動体の移
動方向への慣性を与えることを特徴とする。
According to a second aspect of the present invention, in the first aspect, the viewpoint setting means provides the virtual camera with inertia in a moving direction of the moving body.

【0008】請求項3の発明は、請求項1、2のいずれ
かにおいて、前記視点設定手段は、移動体の後方に前記
仮想カメラの視点位置を設定し、移動体が高速の場合に
は移動体との距離を離し、低速の場合には移動体との距
離を近づけるように前記視点位置に慣性を与えることを
特徴とする。
According to a third aspect of the present invention, in any one of the first and second aspects, the viewpoint setting means sets a viewpoint position of the virtual camera behind the moving body, and moves when the moving body is moving at a high speed. It is characterized in that inertia is given to the viewpoint position so that the distance from the body is increased, and in the case of low speed, the distance to the moving body is reduced.

【0009】請求項4の発明は、請求項1〜3のいずれ
かにおいて、前記視点設定手段は、移動体の真上から、
移動体の進行方向とは逆方向にシフトした位置で、前記
仮想カメラの視点位置を前記移動体に追従させ、前記移
動体と前記視点位置との移動体移動方向の距離を、前記
移動体が高速の場合には離し、低速の場合には近づける
ように前記視点位置に慣性を与えることを特徴とする。
According to a fourth aspect of the present invention, in any one of the first to third aspects, the viewpoint setting means includes:
At a position shifted in the direction opposite to the traveling direction of the moving object, the viewpoint position of the virtual camera is made to follow the moving object, and the distance between the moving object and the viewpoint position in the moving direction of the moving object is determined by the moving object. It is characterized in that inertia is given to the viewpoint position so that the viewpoint is separated at a high speed and approached at a low speed.

【0010】請求項5の発明は、請求項1〜4のいずれ
かにおいて、前記視点設定手段は、移動体の真上から、
移動体の進行方向とは逆方向にシフトした位置で、前記
仮想カメラの視点位置を前記移動体に追従させ、前記移
動体と前記視点位置との移動体高さ方向の距離を、前記
移動体の高さ方向の移動に基づき変化させるように前記
視点位置に慣性を与えることを特徴とする。
According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the viewpoint setting means includes:
At a position shifted in the direction opposite to the traveling direction of the moving body, the viewpoint position of the virtual camera is made to follow the moving body, and the distance between the moving body and the viewpoint position in the height direction of the moving body is determined by the moving body. It is characterized in that inertia is given to the viewpoint position so as to change based on the movement in the height direction.

【0011】請求項6の発明は、視界画像を合成するた
めの情報を少なくとも格納する情報記憶媒体であって、
オブジェクト空間において、操作手段からの操作情報に
基づいて移動体を移動させる演算を行うための情報と、
前記移動体の移動に追従する仮想カメラの視点位置、視
線方向を設定するための視点設定情報と、前記視点位
置、視線方向での仮想カメラから見た視界画像を合成す
るための情報と、を含み、前記視点設定情報は、前記仮
想カメラに慣性を与える情報を含むことをことを特徴と
する。
According to a sixth aspect of the present invention, there is provided an information storage medium for storing at least information for synthesizing a visual field image,
In the object space, information for performing a calculation for moving the moving body based on operation information from the operation means,
The viewpoint position of the virtual camera that follows the movement of the moving object, viewpoint setting information for setting the line of sight, and the viewpoint position, information for synthesizing a view image viewed from the virtual camera in the line of sight, Wherein the viewpoint setting information includes information for giving inertia to the virtual camera.

【0012】請求項7の発明は、請求項6において、前
記視点設定情報は、前記仮想カメラに、前記移動体の移
動方向への慣性を与えることを特徴とする。
According to a seventh aspect of the present invention, in the sixth aspect, the viewpoint setting information gives inertia to the virtual camera in a moving direction of the moving body.

【0013】請求項8の発明は、請求項6、7のいずれ
かにおいて、前記視点設定情報は、移動体の後方に前記
仮想カメラの視点位置を設定し、移動体が高速の場合に
は移動体との距離を離し、低速の場合には移動体との距
離を近づけるように前記視点位置に慣性を与えることを
特徴とする。
According to an eighth aspect of the present invention, in any one of the sixth and seventh aspects, the viewpoint setting information sets a viewpoint position of the virtual camera behind the moving body, and moves when the moving body is moving at a high speed. It is characterized in that inertia is given to the viewpoint position so that the distance from the body is increased, and in the case of low speed, the distance to the moving body is reduced.

【0014】請求項9の発明は、請求項6〜8のいずれ
かにおいて、前記視点設定情報は、移動体の真上から、
移動体の進行方向とは逆方向にシフトした位置で、前記
仮想カメラの視点位置を前記移動体に追従させ、前記移
動体と前記視点位置との移動体移動方向の距離を、前記
移動体が高速の場合には離し、低速の場合には近づける
ように前記視点位置に慣性を与えることを特徴とする。
According to a ninth aspect of the present invention, in any one of the sixth to eighth aspects, the viewpoint setting information includes:
At a position shifted in the direction opposite to the traveling direction of the moving object, the viewpoint position of the virtual camera is made to follow the moving object, and the distance between the moving object and the viewpoint position in the moving direction of the moving object is determined by the moving object. It is characterized in that inertia is given to the viewpoint position so that the viewpoint is separated at a high speed and approached at a low speed.

【0015】請求項10の発明は、請求項9において、
前記視点設定情報は、移動体の真上から、移動体の進行
方向とは逆方向にシフトした位置で、前記仮想カメラの
視点位置を前記移動体に追従させ、前記移動体と前記視
点位置との移動体高さ方向の距離を、前記移動体の高さ
方向の移動に基づき変化させるように前記視点位置に慣
性を与えることを特徴とする。
[0015] In a ninth aspect of the present invention, in the ninth aspect,
The viewpoint setting information, from directly above the moving body, at a position shifted in a direction opposite to the traveling direction of the moving body, causes the viewpoint position of the virtual camera to follow the moving body, the moving body and the viewpoint position In addition, inertia is given to the viewpoint position such that the distance in the height direction of the moving body is changed based on the movement of the moving body in the height direction.

【0016】[0016]

【発明の実施の形態】本実施の形態に係る3次元ゲーム
装置は、オブジェクト空間に配置される少なくとも1つ
の3次元オブジェクトを覆うように設けられるカバーオ
ブジェクト上で、操作手段からの操作情報に基づいて移
動体を移動させる演算を行う移動体演算手段と、前記移
動体の移動により前記カバーオブジェクトを区分する領
域が特定された場合の該特定領域におけるカバーオブジ
ェクトの画像情報を少なくとも変更する画像情報変更手
段と、前記カバーオブジェクトの周囲において前記移動
体の移動に追従し且つ前記特定領域における画像の変化
の少なくとも一部が見える視点位置、視線方向での視界
画像を合成する手段とを含むことを特徴とする。
BEST MODE FOR CARRYING OUT THE INVENTION A three-dimensional game device according to the present embodiment is based on operation information from operation means on a cover object provided so as to cover at least one three-dimensional object arranged in an object space. Moving object calculating means for performing an operation of moving a moving object by moving the moving object, and image information changing at least changing image information of the cover object in the specific area when the area for partitioning the cover object is specified by the movement of the moving object. Means for following a movement of the moving body around the cover object and synthesizing a view position image in a viewpoint position and a line of sight direction in which at least a part of an image change in the specific area is visible. And

【0017】本実施の形態によれば、操作手段からの操
作情報に基づいて、3次元オブジェクトを覆うカバーオ
ブジェクト上を移動体が移動し、この移動により例えば
プレーヤの所望する領域が特定される。そして、この特
定領域における画像情報が変更される。この場合、特定
領域にあるカバーオブジェクトによりカバーされていた
3次元オブジェクトの画像が見えるように画像情報を変
更することが望ましい。視界画像を合成する視点位置、
視線方向は、移動体の移動に追従すると共に特定領域で
の画像の変化の少なくとも一部が見えるように設定され
る。従って本実施の形態によれば、プレーヤは、自身が
移動体を操作することにより次々に変化してゆくカバー
オブジェクトの画像、あるいはそのカバーオブジェクト
によりカバーされていた3次元オブジェクトの画像が見
えてくる様子を楽しむことができ、優れた視覚効果を得
ることができる。またプレーヤは、3次元的に形成され
たゲームフィールドであるカバーオブジェクト上で移動
体を移動させてゲームを楽しむことができるため、プレ
ーヤの感じるスリル感、ダイナミック感を大幅に向上で
きる。
According to this embodiment, the moving body moves on the cover object covering the three-dimensional object based on the operation information from the operation means, and this movement specifies, for example, an area desired by the player. Then, the image information in the specific area is changed. In this case, it is desirable to change the image information so that the image of the three-dimensional object covered by the cover object in the specific area can be seen. Viewpoint position to synthesize the view image,
The line-of-sight direction is set such that it follows the movement of the moving body and at least a part of the change in the image in the specific area is visible. Therefore, according to the present embodiment, the player sees the image of the cover object that changes one after another by operating the moving object, or the image of the three-dimensional object covered by the cover object. You can enjoy the appearance and get excellent visual effects. In addition, since the player can enjoy the game by moving the moving object on the cover object which is a three-dimensionally formed game field, the thrill and dynamic feeling felt by the player can be greatly improved.

【0018】また本実施の形態に係る3次元ゲーム装置
は、オブジェクト空間に配置される少なくとも1つの3
次元オブジェクトを覆うように設けられるカバーオブジ
ェクト上で、操作手段からの操作情報に基づいて移動体
を移動させる演算を行う移動体演算手段と、前記移動体
の移動軌跡が交差することで該移動軌跡を縁とする閉じ
た領域が特定された場合の該特定領域におけるカバーオ
ブジェクトの画像情報を少なくとも変更する画像情報変
更手段と、オブジェクト空間内の所与の視点位置、視線
方向での視界画像を合成する手段とを含むことを特徴と
する。
The three-dimensional game device according to the present embodiment has at least one three-dimensional game device arranged in an object space.
Moving object calculating means for performing an operation of moving the moving object based on operation information from the operating means on a cover object provided so as to cover the three-dimensional object; Image information changing means for at least changing the image information of the cover object in the specific area when the closed area having the edge as is specified, and a view image at a given viewpoint position and a line-of-sight direction in the object space are combined. And means for performing the operation.

【0019】本実施の形態によれば、移動体の移動軌跡
が交差することで領域が特定され、この特定領域でのカ
バーオブジェクトの画像情報が変更される。3次元オブ
ジェクトをカバーオブジェクトで覆う場合、例えば縁が
無いカバーオブジェクトを用いると、ゲーム開始時にど
のような視点位置から見ても3次元オブジェクトを見る
ことができないようにすることができる。本実施の形態
によれば、このように縁が無いカバーオブジェクトを用
いた場合でも、領域の簡易な特定が可能となる。
According to the present embodiment, the area is specified by the intersection of the moving trajectories of the moving object, and the image information of the cover object in the specified area is changed. When a three-dimensional object is covered with a cover object, for example, by using a cover object without an edge, it is possible to prevent the three-dimensional object from being viewed from any viewpoint position at the start of the game. According to the present embodiment, even when such a cover object having no border is used, it is possible to easily specify an area.

【0020】また本実施の形態は、前記画像情報変更手
段が、前記カバーオブジェクトが複数のポリゴン又は曲
面により構成されている場合に、前記特定領域にある少
なくとも1つのポリゴン又は曲面の表示、非表示を切り
替えることを特徴とする。
Further, in this embodiment, when the cover information is constituted by a plurality of polygons or curved surfaces, the image information changing means displays or hides at least one polygon or curved surface in the specific area. Is switched.

【0021】本実施の形態によれば、カバーオブジェク
トを構成するポリゴン又は曲面の表示、非表示を切り替
えるという画像情報の変更が行われる。カバーオブジェ
クトのポリゴン等が非表示になると、そのポリゴン等に
より隠されていた部分での3次元オブジェクトの画像を
見ることが可能となり、優れた視覚効果を得ることがで
きる。
According to the present embodiment, the image information is changed such that the display or non-display of the polygon or the curved surface constituting the cover object is switched. When the polygons and the like of the cover object are not displayed, it becomes possible to see the image of the three-dimensional object in a portion hidden by the polygons and the like, and an excellent visual effect can be obtained.

【0022】また本実施の形態は、前記画像情報変更手
段が、前記特定領域におけるカバーオブジェクトの少な
くとも一部について不透明、透明を切り替える又は半透
明率を変更することを特徴とする。
Further, in this embodiment, the image information changing means switches between opaque and transparent or changes the translucency of at least a part of the cover object in the specific area.

【0023】本実施の形態によれば、カバーオブジェク
トの一部が不透明から透明に切り替わる、或いは半透明
率が変更される。これによりプレーヤは、その部分での
3次元オブジェクトの画像を見ることが可能となる。特
に半透明率を段階的に変化させ、3次元オブジェクトの
画像が徐々に見えてくるようにすれば、視覚効果を一段
と向上させることができる。
According to this embodiment, a part of the cover object is switched from opaque to transparent, or the translucency is changed. This allows the player to see the image of the three-dimensional object at that part. In particular, if the translucency is changed stepwise so that the image of the three-dimensional object gradually becomes visible, the visual effect can be further improved.

【0024】また本実施の形態に係る3次元ゲーム装置
は、オブジェクト空間に配置される少なくとも1つの3
次元オブジェクト上で、操作手段からの操作情報に基づ
いて移動体を移動させる演算を行う移動体演算手段と、
前記移動体の移動により前記3次元オブジェクトを区分
する領域が特定された場合の該特定領域における3次元
オブジェクトの画像情報を少なくとも変更する画像情報
変更手段と、前記3次元オブジェクトの周囲において前
記移動体の移動に追従し且つ前記特定領域における画像
の変化の少なくとも一部が見える視点位置、視線方向で
の視界画像を合成する手段とを含むことを特徴とする。
The three-dimensional game device according to the present embodiment has at least one 3D game device arranged in the object space.
Moving body calculating means for performing a calculation for moving the moving body on the dimensional object based on operation information from the operating means;
An image information changing unit configured to change at least image information of the three-dimensional object in the specific area when the area that divides the three-dimensional object is specified by the movement of the moving object; and the moving object around the three-dimensional object. And means for synthesizing a view position image and a view image in a line-of-sight direction that follow at least one of the above-mentioned movements and at least a part of the change of the image in the specific area is visible.

【0025】本実施の形態によれば、操作手段からの操
作情報に基づいて移動体が3次元オブジェクト上を移動
し、この移動により特定された領域における画像情報が
変更される。また視点位置等も移動体に移動に追従する
ため、プレーヤは、自身が移動体を操作することにより
次々に変化してゆく3次元オブジェクトの3次元的な画
像を楽しむことができる。またプレーヤは、3次元的に
形成されたゲームフィールドである3次元オブジェクト
上で移動体を移動させてゲームを楽しむことができるた
め、プレーヤの感じるスリル感、ダイナミック感を大幅
に向上できる。
According to the present embodiment, the moving object moves on the three-dimensional object based on the operation information from the operation means, and the image information in the specified area is changed by this movement. In addition, since the viewpoint position and the like follow the movement of the moving body, the player can enjoy a three-dimensional image of the three-dimensional object that changes one after another by operating the moving body. In addition, since the player can enjoy the game by moving the moving object on the three-dimensional object, which is a game field formed three-dimensionally, the thrill and dynamic feeling felt by the player can be greatly improved.

【0026】また本実施の形態に係る3次元ゲーム装置
は、オブジェクト空間に配置される少なくとも1つの3
次元オブジェクト上で、操作手段からの操作情報に基づ
いて移動体を移動させる演算を行う移動体演算手段と、
前記移動体の移動軌跡が交差することで該移動軌跡を縁
とする閉じた領域が特定された場合の該特定領域におけ
る3次元オブジェクトの画像情報を少なくとも変更する
画像情報変更手段と、オブジェクト空間内の所与の視点
位置、視線方向での視界画像を合成する手段とを含むこ
とを特徴とする。
The three-dimensional game device according to the present embodiment has at least one 3D game device arranged in the object space.
Moving body calculating means for performing a calculation for moving the moving body on the dimensional object based on operation information from the operating means;
Image information changing means for changing at least image information of the three-dimensional object in the specific area when a closed area having the edge as the edge is specified by intersection of the moving paths of the moving object; Means for synthesizing a field-of-view image at a given viewpoint position and line-of-sight direction.

【0027】本実施の形態によれば、移動体の移動軌跡
が交差することで領域が特定され、この特定領域での3
次元オブジェクトの画像情報が変更される。本実施の形
態によれば、例えば3次元オブジェクトの表面をゲーム
フィールドとした場合に、領域の簡易な特定が可能とな
る。
According to the present embodiment, an area is specified by intersecting the trajectories of the moving object, and 3
The image information of the dimensional object is changed. According to the present embodiment, for example, when the surface of a three-dimensional object is a game field, it is possible to easily specify an area.

【0028】また本実施の形態は、前記画像情報変更手
段が、前記特定領域の少なくとも一部にマッピングされ
るテクスチャを変更することを特徴とする。
Further, in this embodiment, the image information changing means changes a texture mapped to at least a part of the specific area.

【0029】本実施の形態によれば、マッピングされる
テクスチャを変更することで、例えば3次元オブジェク
トを覆うカバーオブジェクトのポリゴンを非表示にする
手法等と同等の視覚効果を得ることができる。なおテク
スチャの変更は、テクスチャを指定するテクスチャ座標
を変更してもよいし、テクスチャ自体を描き替えてもよ
い。
According to the present embodiment, by changing the texture to be mapped, it is possible to obtain a visual effect equivalent to, for example, a method of hiding a polygon of a cover object that covers a three-dimensional object. In changing the texture, the texture coordinates for designating the texture may be changed, or the texture itself may be redrawn.

【0030】また本実施の形態は、前記移動体演算手段
が、前記カバーオブジェクト又は前記3次元オブジェク
トがポリゴンにより形成されている場合に、前記移動体
を該ポリゴンの縁上で移動させる演算を該ポリゴンの頂
点位置情報に基づいて行うことを特徴とする。
Further, in this embodiment, when the moving object calculating means moves the moving object on an edge of the polygon when the cover object or the three-dimensional object is formed by a polygon. It is characterized in that it is performed based on the vertex position information of the polygon.

【0031】本実施の形態によれば、例えばポリゴンの
第1の頂点の位置情報と第2の頂点の位置情報とに基づ
いて、これらの頂点間を移動する移動体の位置情報を求
め、これにより第1の頂点と第2の頂点とを結ぶ縁上で
移動体を移動させる演算を行うことが可能となる。特に
ポリゴンの頂点位置情報はポリゴンの表示処理の際にも
使用されるため、本実施の形態によれば、表示処理の際
に使用する頂点位置情報の有効利用が図れる。
According to this embodiment, for example, based on the position information of the first vertex and the position information of the second vertex of the polygon, the position information of the moving body moving between these vertices is obtained. Accordingly, it is possible to perform the operation of moving the moving body on the edge connecting the first vertex and the second vertex. In particular, since the vertex position information of the polygon is used also in the display processing of the polygon, according to the present embodiment, the vertex position information used in the display processing can be effectively used.

【0032】以下、本発明の具体的な実施形態について
図面を用いて説明する。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

【0033】図1に本実施例の機能ブロック図を示す。
ここで操作部12は、プレーヤが例えばレバー、ボタン
(図18(A)の1102、1104参照)を操作して
操作情報を入力するためのものであり、操作部12にて
得られた操作情報は処理部100に出力される。処理部
100は、この操作情報と、所与のプログラム等に基づ
いて、表示物を表すオブジェクトが複数配置されて成る
オブジェクト空間を設定する演算等を行うものであり、
ハードウェア的には例えばCPU及びメモリにより構成
される。画像合成部200は、この設定されたオブジェ
クト空間内の所与の視点位置、視線方向での視界画像を
合成する演算を行うものであり、ハードウェア的には例
えば画像合成専用のIC或いはCPU及びメモリにより
構成される。この際にテクスチャマッピングを行う場合
には、テクスチャ情報記憶部210に記憶されるテクス
チャ情報を用いて画像合成を行う。得られた視界画像は
表示部10において表示される。
FIG. 1 shows a functional block diagram of this embodiment.
Here, the operation unit 12 is used by a player to input operation information by operating, for example, levers and buttons (see 1102 and 1104 in FIG. 18A), and the operation information obtained by the operation unit 12 Is output to the processing unit 100. The processing unit 100 performs an operation for setting an object space in which a plurality of objects representing display objects are arranged based on the operation information and a given program or the like.
In terms of hardware, it is composed of, for example, a CPU and a memory. The image synthesizing unit 200 performs an operation of synthesizing a view image at a given viewpoint position and a line of sight in the set object space, and includes, for example, an IC or CPU dedicated to image synthesis and a hardware. It is composed of a memory. At this time, when performing texture mapping, image synthesis is performed using the texture information stored in the texture information storage unit 210. The obtained visual field image is displayed on the display unit 10.

【0034】図2(A)、(B)、図3(A)、
(B)、図4(A)、(B)に、本実施例により得られ
るゲーム画面(視界画像)の一例を示す。図2(A)に
示すように、オブジェクト空間(仮想3次元空間)内に
は、牛を表す3次元オブジェクト40、この3次元オブ
ジェクト40を覆うように設けられゲームフィールドと
なるカバーオブジェクト42、背景を表すオブジェクト
(図示せず)等が配置されている。このようなオブジェ
クト空間へのオブジェクトの配置処理は図1のオブジェ
クト空間設定部140により行われる。そして操作部1
2を用いてプレーヤが入力する操作情報に基づいて、図
2(B)に示すように自機である移動体44がカバーオ
ブジェクト42上を移動する。なお本実施例では敵キャ
ラクタである移動体46もカバーオブジェクト42上を
移動している。これらの移動体を移動させる演算は図1
の移動体演算部110において行われる。
FIGS. 2A, 2B, 3A,
(B), (A) and (B) of FIG. 4 show an example of a game screen (view image) obtained by the present embodiment. As shown in FIG. 2A, in an object space (virtual three-dimensional space), a three-dimensional object 40 representing a cow, a cover object 42 provided to cover the three-dimensional object 40 and serving as a game field, and a background (Not shown), etc., which represent the object. The process of arranging objects in the object space is performed by the object space setting unit 140 in FIG. And operation unit 1
Based on the operation information input by the player using No. 2, the moving body 44, which is its own device, moves on the cover object 42 as shown in FIG. In this embodiment, the moving object 46 as the enemy character is also moving on the cover object 42. The calculation for moving these moving objects is shown in FIG.
Is performed in the moving body calculation unit 110.

【0035】本実施例では、カバーオブジェクトを区分
けする領域が移動体の移動により特定された場合の該特
定領域でのカバーオブジェクトの画像情報が変更され
る。この画像情報の変更は図1の画像情報変更部120
により行われる。特に本実施例では、移動体の移動軌跡
が交差することで移動軌跡を縁とする閉じた領域が特定
された場合の該特定領域でのカバーオブジェクトの画像
情報が変更される。具体的には例えば、図2(B)にお
いては、1枚のポリゴンが配置されていた領域36が移
動体44の移動により特定され、この領域36に配置さ
れていたポリゴンを非表示にする画像情報の変更が行わ
れている。この場合、領域36に配置されていたポリゴ
ンの縁上を移動体44が移動し、その移動軌跡が交差す
ることで領域36が特定される。領域36の画像情報を
変更し、この領域でのポリゴンを非表示にすることで、
プレーヤは、3次元オブジェクト40の画像のうち、カ
バーオブジェクト42により隠されていた部分(牛の皮
膚)の画像を見ることが可能となる。
In this embodiment, when the area for dividing the cover object is specified by the movement of the moving body, the image information of the cover object in the specific area is changed. This change of the image information is performed by the image information change unit 120 shown in FIG.
It is performed by In particular, in the present embodiment, when a closed area having the edge of the movement locus specified by the intersection of the movement locus of the moving object, the image information of the cover object in the specific area is changed. Specifically, for example, in FIG. 2B, an area 36 where one polygon is located is specified by the movement of the moving body 44, and an image in which the polygons located in this area 36 are hidden is displayed. Information changes have been made. In this case, the moving body 44 moves on the edge of the polygon arranged in the area 36, and the movement trajectory intersects to specify the area 36. By changing the image information in the area 36 and hiding the polygons in this area,
The player can see the image of the part (cow skin) hidden by the cover object 42 in the image of the three-dimensional object 40.

【0036】特に本実施例では、図2(B)から図3
(A)へのゲーム画面の変化から明らかなように、カバ
ーオブジェクト42の周囲において移動体44の移動に
追従し且つ特定領域での画像の変化が見える視点位置、
視線方向での視界画像が合成される。この場合、視界画
像が合成される視点位置、視線方向を設定する処理は、
図1の視点設定部130が行う。本実施例では、視点位
置等が移動体の移動に追従し、特定領域において変化す
る画像をプレーヤは見ることができる。このため例え
ば、プレーヤは、3次元オブジェクト40の画像のうち
カバーオブジェクト42により隠されていた部分を様々
な角度から注視するように次々と見ることができること
になり、従来の2次元ゲーム装置には無い優れた視覚効
果を得ることができる。
In the present embodiment, in particular, FIGS.
As is apparent from the change of the game screen to (A), the viewpoint position that follows the movement of the moving body 44 around the cover object 42 and in which the change of the image in the specific area is visible,
A field-of-view image in the line-of-sight direction is synthesized. In this case, the process of setting the viewpoint position and the line-of-sight direction at which the view image is synthesized includes:
This is performed by the viewpoint setting unit 130 in FIG. In the present embodiment, the viewpoint position and the like follow the movement of the moving body, and the player can see an image that changes in the specific area. For this reason, for example, the player can successively watch portions of the image of the three-dimensional object 40 that are hidden by the cover object 42 from various angles, and the conventional two-dimensional game device has Excellent visual effects can be obtained.

【0037】移動体44は、敵キャラクタである移動体
46に捕まらないようにカバーオブジェクト42を構成
するポリゴンを次々と非表示にしてゆく。そして図3
(B)に示すように、カバーオブジェクト42を構成す
る全てのポリゴンが非表示になると1つのゲームステー
ジが終了し、次のゲームステージに進む。
The moving body 44 sequentially hides the polygons forming the cover object 42 so as not to be caught by the moving body 46 which is an enemy character. And FIG.
As shown in (B), when all the polygons constituting the cover object 42 are hidden, one game stage ends, and the process proceeds to the next game stage.

【0038】なお図2(A)、(B)、図3(A)、
(B)では、カバーオブジェクト42により1つの3次
元オブジェクト40を覆っていたが、2つ以上の3次元
オブジェクトをカバーオブジェクトにより覆うようにし
てもよい。例えば図4(A)、(B)では、牛乳パック
を模したカバーオブジェクト42により、2つの3次元
オブジェクト40、41が覆われており、プレーヤは移
動体44を操作して、中に配置された3次元オブジェク
ト40、41が完全に見えるまで、このカバーオブジェ
クト42を構成するポリゴンを順次非表示にするプレイ
を行う。
2 (A), 2 (B), 3 (A),
In (B), one three-dimensional object 40 is covered by the cover object 42, but two or more three-dimensional objects may be covered by the cover object. For example, in FIGS. 4A and 4B, two three-dimensional objects 40 and 41 are covered by a cover object 42 imitating a milk pack, and the player operates the moving body 44 and is disposed inside. Until the three-dimensional objects 40 and 41 are completely visible, a play is performed in which the polygons constituting the cover object 42 are sequentially hidden.

【0039】特に図4(A)、(B)のように、3次元
オブジェクト40、41をカバーオブジェクト42によ
り完全に覆う場合、縁が無いカバーオブジェクト42を
用いることになる。このような場合には、領域の特定に
は、移動体の移動軌跡が交差することで移動軌跡を縁と
する領域を特定する手法が特に有効である。
In particular, when the three-dimensional objects 40 and 41 are completely covered by the cover object 42 as shown in FIGS. 4A and 4B, the cover object 42 having no border is used. In such a case, it is particularly effective to specify an area by specifying an area having the moving locus as an edge by intersecting the moving locus of the moving object.

【0040】次に本実施例の詳細例について説明する。
本実施例では、各ゲームステージのゲームが始まる前
に、図5(A)に示す画面が表示される。この画面で
は、各ゲームステージにおいてプレイ対象となる3次元
オブジェクトの識別画像がパネルA〜M等の上に表示さ
れる。例えばパネルAには、図2(A)の牛を表した3
次元オブジェクト40を簡略化したものが表示される。
Next, a detailed example of this embodiment will be described.
In the present embodiment, a screen shown in FIG. 5A is displayed before the game of each game stage starts. On this screen, an identification image of a three-dimensional object to be played in each game stage is displayed on panels A to M and the like. For example, panel A shows the cow 3 shown in FIG.
A simplified version of the dimensional object 40 is displayed.

【0041】図5(B)に示すように、本実施例では、
ゲームスタートからゲームエンディングの間に複数のセ
グメントが設定され、各セグメントの中には複数のゲー
ムステージが配置される。例えばセグメント1、2、3
には、ステージA〜C、D〜F、G〜Jが配置される。
これらのステージA〜Jは図5(A)のパネルA〜Jに
対応するものである。プレーヤは、まずセグメント1の
中のゲームステージA〜Cから、ランダムに或いは任意
の選択により1つのゲームステージをプレイする。そし
て例えばプレーヤがゲームステージAをクリアしたとす
ると、セグメント1の中の他のゲームステージB、Cを
プレイすることなく、セグメント2に移行する。そして
プレーヤは、今度は、セグメント2の中のゲームステー
ジD〜Fから、ランダム或いは任意の選択により1つの
ゲームステージをプレイする。
As shown in FIG. 5B, in this embodiment,
A plurality of segments are set between the game start and the game ending, and a plurality of game stages are arranged in each segment. For example, segments 1, 2, 3
, Stages A to C, D to F, and G to J are arranged.
These stages A to J correspond to panels A to J in FIG. The player first plays one game stage from the game stages A to C in the segment 1 at random or by arbitrary selection. If the player clears the game stage A, for example, the game shifts to the segment 2 without playing the other game stages B and C in the segment 1. Then, the player plays one game stage at random or arbitrarily from the game stages D to F in the segment 2.

【0042】例えばゲームステージが2分岐構造となっ
ているゲームでは、ゲームエンディングに到達するため
に、プレーヤは、最初のゲームステージを何度も繰り返
さなければならない。これに対して、本実施例のゲーム
ステージ構成によれば、1つのセグメントに含まれるゲ
ームステージを全てプレイしなくても次のセグメントに
移ることができる。従って、プレーヤは、それほど時
間、プレイ回数を要することなく、趣向が凝らされた終
盤のゲームステージをプレイしたりゲームエンディング
を見ることができ、ゲームの面白味を大幅に向上でき
る。しかもゲームスタートからゲームエンディングまで
一巡した後、再度リプレイした場合に、プレーヤは、異
なったゲーム展開を楽しむことができる。即ちプレーヤ
は、プレイしなかった他のゲームステージをプレイした
いがために再び最初からゲームをスタートすることにな
り、これによりプレーヤにリプレイを促すことができ
る。
For example, in a game in which the game stage has a two-branch structure, the player must repeat the first game stage many times in order to reach the game ending. On the other hand, according to the game stage configuration of the present embodiment, it is possible to move to the next segment without playing all the game stages included in one segment. Therefore, the player can play the elaborate game stage at the end of the game or watch the game ending without requiring much time and the number of times of playing, thereby greatly improving the fun of the game. In addition, when the player makes a round from the game start to the game ending and then replays again, the player can enjoy a different game development. In other words, the player starts the game again from the beginning because he wants to play another game stage that he did not play, and this can encourage the player to replay.

【0043】図6に、ゲームステージ選択後に表示され
るゲーム画面の例を示す。図6に示すように、本実施例
では、3次元オブジェクト40を覆うように、ゲームフ
ィールドとなるカバーオブジェクト42が設けられてい
る。このカバーオブジェクト42は複数のポリゴンによ
り形成されており、これらのポリゴンの縁であるフィー
ルドフレーム上で自機である移動体44及び敵キャラク
タである移動体46〜54が移動する。またゲーム画面
上には、制限時間の残りを表すタイマ表示56が映し出
されている。
FIG. 6 shows an example of a game screen displayed after selecting a game stage. As shown in FIG. 6, in this embodiment, a cover object 42 serving as a game field is provided so as to cover the three-dimensional object 40. The cover object 42 is formed by a plurality of polygons, and the moving body 44 as its own machine and the moving bodies 46 to 54 as enemy characters move on a field frame which is an edge of these polygons. A timer display 56 indicating the remaining time limit is displayed on the game screen.

【0044】本実施例では、プレーヤが操作部12のレ
バー(図18(A)の1102)を倒していない場合で
も、自機の移動体44は一定速度で前進する。そしてレ
バーを上方向に倒すと移動体44は加速し、下方向に倒
すと減速する。また図7(A)において、フィールドフ
レーム(ポリゴンの縁)58の交点(ポリゴンの頂点)
60の手前でレバーを左に倒すと矢印61の方向に進
み、右に倒すと矢印62の方向に進み、それ以外の場合
には、矢印63の方向に進む。プレーヤが操作部12の
ボタン(図18(A)の1104)を押すと、図7
(B)に示すように、ボタンを押した時の移動体44の
位置にマーカ64が表示される。そしてそのままボタン
を押し続けるとマーカ64と移動体44との間にライン
66が引かれる。図7(C)に示すように、ボタンを押
し続ける限りこのライン66は伸びて行く。
In this embodiment, even when the player has not depressed the lever (1102 in FIG. 18A) of the operation section 12, the moving body 44 of the player's own device moves forward at a constant speed. When the lever is tilted upward, the moving body 44 is accelerated, and when the lever is tilted downward, the moving body 44 is decelerated. In FIG. 7A, an intersection (vertex of polygon) of a field frame (edge of polygon) 58
When the lever is tilted to the left before 60, the lever advances in the direction of arrow 61; when the lever is tilted to the right, it advances in the direction of arrow 62. Otherwise, the lever advances in the direction of arrow 63. When the player presses a button (1104 in FIG. 18A) of the operation unit 12, FIG.
As shown in (B), a marker 64 is displayed at the position of the moving body 44 when the button is pressed. When the button is kept pressed, a line 66 is drawn between the marker 64 and the moving body 44. As shown in FIG. 7C, this line 66 extends as long as the button is kept pressed.

【0045】図7(D)において、敵の移動体46、4
7は所与のアルゴリズムに従って特定の動きをしてい
る。しかし図7(E)に示すように自機の移動体44が
引くライン66に接触すると、図7(F)に示すように
高速でライン66に沿って移動体44を追いかける。敵
に接触すると移動体44は爆発する。そして残機が無く
なったり制限時間が尽きるとゲームオーバーとなる。
In FIG. 7D, the enemy moving bodies 46, 4
7 make a specific movement according to a given algorithm. However, as shown in FIG. 7 (E), when the moving body 44 of the own device comes into contact with the line 66 drawn, the moving body 44 follows the line 66 at high speed as shown in FIG. 7 (F). The moving body 44 explodes when it comes into contact with the enemy. When the remaining machines run out or the time limit expires, the game is over.

【0046】一方、図8(A)に示すように、移動体4
4の移動軌跡であるライン66が交差しライン66を縁
とする閉じた領域が特定され、プレーヤがボタンを離す
と、この領域68にあったポリゴンが非表示になる。こ
れによりプレーヤは、領域68に配置されていたポリゴ
ンにより隠されていたこの領域68での3次元オブジェ
クト40(図6参照)の画像を見ることができる。なお
プレーヤがボタンを離した時にこの領域68及びライン
66上にいた敵の移動体46、47は消滅する。
On the other hand, as shown in FIG.
When the player releases the button, the polygon that was in this area 68 is hidden. This allows the player to see the image of the three-dimensional object 40 (see FIG. 6) in this area 68 that has been hidden by the polygons arranged in the area 68. When the player releases the button, the enemy moving bodies 46 and 47 on the area 68 and the line 66 disappear.

【0047】本実施例では、図8(B)のようにライン
66が引かれた場合には領域69、70に配置されてい
たポリゴンが非表示になる。また図8(C)のようにラ
イン66が引かれた場合には、ポリゴン71は表示から
非表示に切り替わり、ポリゴン72、73、74は非表
示から表示に切り替わる。また図8(D)においてポリ
ゴン76はライン66により2重に囲まれたと考え、表
示状態を維持する。即ちライン66により複数回囲まれ
た領域は、その回数分だけ表示、非表示が切り替わる。
In this embodiment, when the line 66 is drawn as shown in FIG. 8B, the polygons arranged in the areas 69 and 70 are not displayed. When the line 66 is drawn as shown in FIG. 8C, the polygon 71 is switched from display to non-display, and the polygons 72, 73 and 74 are switched from non-display to display. 8D, the polygon 76 is considered to be doubly surrounded by the line 66, and the display state is maintained. That is, the area surrounded by the line 66 a plurality of times is switched between display and non-display by the number of times.

【0048】なお、画像情報変更部120は少なくとも
特定領域における画像を変更するものであればよく、例
えば特定領域以外の領域に配置されるポリゴンの方が特
定領域に配置されるポリゴンよりも多い場合は、特定領
域以外の領域のポリゴンの表示、非表示を切り替えるよ
うにしてもよい。
The image information changing unit 120 only needs to change the image in at least the specific area. For example, when the number of polygons arranged in the area other than the specific area is larger than the number of polygons arranged in the specific area. May be switched between display and non-display of polygons in an area other than the specific area.

【0049】また図9(A)に示すように、フィールド
フレーム58にバイパス59を設けてもよい。また図9
(B)に示すように、このバイパス59により、2つの
3次元オブジェクト40、41間を行き来できるように
してもよい。更に図9(C)に示すように、演出効果を
高めるために、非表示となるポリゴンをバラバラにして
飛ばすようにしてもよい。
As shown in FIG. 9A, a bypass 59 may be provided in the field frame 58. FIG.
As shown in (B), the bypass 59 may allow the user to move back and forth between the two three-dimensional objects 40 and 41. Further, as shown in FIG. 9 (C), in order to enhance the effect of rendering, polygons to be hidden may be skipped separately.

【0050】次に移動体をカバーオブジェクト上で移動
させる手法の一例について説明する。本実施例では、カ
バーオブジェクトがポリゴンにより形成されている場合
に、移動体をポリゴンの縁上で移動させる演算を、ポリ
ゴンの頂点位置情報に基づいて行っている。そのために
本実施例では、まず、図10(A)に示すような頂点関
係リストを用いる。この頂点関係リストは、カバーオブ
ジェクトを構成するポリゴンの頂点の各々について格納
エリアを有し、各格納エリアには、その頂点を参照する
ための頂点インデックス、その頂点のワールド(絶対)
座標系での位置情報、その頂点の下隣、左隣、上隣、右
隣にある頂点のインデックス等が格納されている。図1
0(B)に示すカバーオブジェクト42を構成するポリ
ゴン78の頂点V7を例にとれば、頂点関係リストに
は、頂点V7のインデックスV7、位置情報(XV7、Y
V7、ZV7)、頂点V7の下隣、左隣、上隣、右隣にある
頂点のインデックスV2、V6、V12、V8が格納さ
れている。このような頂点関係リストは、オブジェクト
情報の1つである頂点位置リスト(図11(B)参照)
に基づいて容易に作成することができる。
Next, an example of a method of moving a moving object on a cover object will be described. In this embodiment, when the cover object is formed by a polygon, the operation of moving the moving body on the edge of the polygon is performed based on the vertex position information of the polygon. For this purpose, in this embodiment, first, a vertex relation list as shown in FIG. 10A is used. This vertex relation list has a storage area for each of the vertices of the polygon constituting the cover object. Each storage area has a vertex index for referring to the vertex, and a world (absolute) of the vertex.
The position information in the coordinate system, the indices of the vertexes on the lower, left, upper, and right sides of the vertex are stored. FIG.
Taking the vertex V7 of the polygon 78 constituting the cover object 42 shown in FIG. 0 (B) as an example, the vertex relation list includes the index V7 of the vertex V7 and the position information (X V7 , Y
V7 , ZV7 ), and the indices V2, V6, V12, and V8 of the vertices on the lower, left, upper, and right sides of the vertex V7 are stored. Such a vertex relation list is a vertex position list which is one of the object information (see FIG. 11B).
Can be easily created based on the

【0051】図10(B)に示すように、移動体44が
頂点V7に向かって移動している場合を考える。この
時、図1の移動体演算部110は、移動体44がV7に
到達した時或いは到達時よりも所与の時間前において、
レバーがどちらの方向に倒されているかを検出する。こ
の時、移動体44がV7に到達したか否かの判断は、頂
点関係リストの中の頂点V2、V7の格納エリアに格納
される頂点V2、V7の位置情報に基づいて行う。例え
ば検出時にレバーが左に倒されていたとすると、移動体
演算部110は、頂点関係リストの中の頂点V7の格納
エリアから、左隣にある頂点のインデックスを読み出
す。この場合には左隣の頂点インデックスはV6である
ため、移動体演算部110は、次に、頂点関係リストの
中の頂点V6の格納エリアから頂点V6の位置情報を読
み出す。そして頂点V6、V7の位置情報に基づいて移
動体44の移動すべき軌道を求め、この軌道上で移動体
44を微少期間毎(例えば1/60秒毎)に移動させる
演算を行う。そして、この軌道上を移動する移動体44
のワールド座標系での位置情報をオブジェクト空間設定
部140に順次出力する。オブジェクト空間設定部14
0は、この位置情報等に基づいて、移動体44を含む複
数のオブジェクトをオブジェクト空間内に配置設定する
処理を行う。画像合成部200は、この設定情報に基づ
いて画像合成を行う。このようにして、ポリゴンの縁で
あるフィールドフレーム上を移動する移動体44の画像
を得ることができる。
Assume that the moving body 44 is moving toward the vertex V7 as shown in FIG. At this time, the mobile unit calculation unit 110 in FIG. 1 performs the operation when the mobile unit 44 reaches V7 or at a given time before the arrival.
Detects in which direction the lever is tilted. At this time, whether or not the moving body 44 has reached V7 is determined based on the position information of the vertices V2 and V7 stored in the storage area of the vertices V2 and V7 in the vertex relation list. For example, if it is assumed that the lever is tilted to the left at the time of detection, the moving body operation unit 110 reads the index of the vertex on the left side from the storage area of the vertex V7 in the vertex relationship list. In this case, since the vertex index on the left side is V6, the moving body operation unit 110 next reads the position information of the vertex V6 from the storage area of the vertex V6 in the vertex relationship list. Then, based on the position information of the vertices V6 and V7, the trajectory of the moving body 44 to be moved is obtained, and an operation of moving the moving body 44 on the trajectory every minute period (for example, every 1/60 second) is performed. Then, the moving body 44 moving on this orbit
Is sequentially output to the object space setting unit 140 in the world coordinate system. Object space setting unit 14
0 performs a process of arranging and setting a plurality of objects including the moving body 44 in the object space based on the position information and the like. The image synthesizing unit 200 performs image synthesis based on the setting information. In this way, an image of the moving body 44 moving on the field frame, which is the edge of the polygon, can be obtained.

【0052】一方、頂点V7への到達時又は所与の時間
前に、レバーが右に倒された場合には頂点V8の格納エ
リアの読み出しを行い、レバーが左にも右にも倒されな
かった場合には頂点V12の格納エリアの読み出しを行
い、上記と同様の処理を行う。また敵の移動体を移動さ
せる処理も自機の場合と同様にして実現できる。
On the other hand, when the lever is tilted to the right before reaching the vertex V7 or a predetermined time before, the storage area of the vertex V8 is read out, and the lever is not tilted to the left or right. In this case, the storage area of the vertex V12 is read, and the same processing as described above is performed. In addition, the process of moving the enemy moving object can be realized in the same manner as in the case of the own device.

【0053】このように本実施例によれば、ポリゴンの
頂点位置情報を利用して移動体をポリゴンの縁上で移動
させているため、簡易な処理、少ないデータ量で移動体
をカバーオブジェクト上で移動させることが可能とな
る。特に図10(A)の頂点関係リストは、カバーオブ
ジェクトの頂点位置リスト(図11(B)参照)から容
易に作成でき、またこれらのリスト間でデータを共有化
できるという利点がある。
As described above, according to the present embodiment, the moving object is moved on the edge of the polygon by using the vertex position information of the polygon. Can be moved. In particular, the vertex relation list of FIG. 10A has an advantage that it can be easily created from the vertex position list of the cover object (see FIG. 11B), and that data can be shared between these lists.

【0054】次に画像情報変更部120による画像情報
の変更処理について説明する。本実施例では、画像情報
変更部120は、カバーオブジェクトの特定領域にある
ポリゴンの表示、非表示を切り替える処理を行ってい
る。
Next, the process of changing the image information by the image information changing unit 120 will be described. In the present embodiment, the image information changing unit 120 performs a process of switching display or non-display of the polygon in the specific area of the cover object.

【0055】図11(A)に、カバーオブジェクト42
の一例を示す。この例では、カバーオブジェクト42は
12枚のポリゴンにより構成されている。このカバーオ
ブジェクト42を表示するために、オブジェクト空間設
定部140は、図11(B)に示す頂点位置リストと、
図11(C)に示すポリゴン情報リストを作成し、これ
らを画像合成部200に出力している。カバーオブジェ
クト以外の他のオブジェクトについても同様である。こ
こで頂点位置リストは、図11(B)に示すように、オ
ブジェクトを構成するポリゴンの頂点の各々について格
納エリアを有し、各格納エリアには、その頂点を参照す
るためのインデックス、その頂点のワールド座標系での
位置情報が格納されている。またポリゴン情報リスト
は、図11(C)に示すように、オブジェクトを構成す
るポリゴンの各々について格納エリアを有し、各格納エ
リアには、そのポリゴンの識別情報、そのポリゴンを構
成する頂点のインデックスの並び情報、そのポリゴンに
マッピングするテクスチャのテクスチャ空間での座標、
そのポリゴンに設定する半透明率等を含むポリゴン情報
が格納されている。ポリゴンP0を例にとれば、頂点イ
ンデックスの並び情報はV0−V1−V7−V6となっ
ており、この情報に基づいて図11(B)の頂点位置リ
ストを参照することで、ポリゴンP0を構成する頂点の
位置情報を特定することができる。またポリゴンP0の
テクスチャ座標は(U0(P0),V0(P0))〜(U3(P0)
3(P0))となっており、画像合成部200内のテクス
チャマッピング部202がこの(U0(P0),V0(P0))〜
(U3(P0),V3(P0))で指定されるテクスチャ情報をテ
クスチャ情報記憶部210から読み出すことでポリゴン
P0へのテクスチャマッピングが行われる。またポリゴ
ンP0の半透明率はTP0となっており、画像合成部20
0内の半透明演算部204がこのTP0を用いて所与の半
透明演算を行うことで、ポリゴンP0を半透明にするこ
とができる。半透明の演算は、例えば対象となるポリゴ
ンの色と、このポリゴンの後ろに位置する表示物の色と
をブレンドする処理を行うこと等で実現される。
FIG. 11A shows the state of the cover object 42.
An example is shown below. In this example, the cover object 42 is composed of 12 polygons. In order to display the cover object 42, the object space setting unit 140 sets the vertex position list shown in FIG.
A polygon information list shown in FIG. 11C is created, and these are output to the image combining unit 200. The same applies to objects other than the cover object. Here, as shown in FIG. 11B, the vertex position list has a storage area for each of the vertices of the polygon constituting the object, and each storage area has an index for referencing the vertex, the vertex, Is stored in the world coordinate system. As shown in FIG. 11C, the polygon information list has a storage area for each of the polygons constituting the object. Each storage area has identification information of the polygon and an index of a vertex constituting the polygon. Information, the coordinates in texture space of the texture to be mapped to the polygon,
Polygon information including the translucency set for the polygon is stored. Taking the polygon P0 as an example, the arrangement information of the vertex indices is V0-V1-V7-V6, and the polygon P0 is constructed by referring to the vertex position list in FIG. 11B based on this information. The position information of the vertex to be specified can be specified. The texture coordinates of the polygon P0 are (U0 (P0) , V0 (P0) ) to (U3 (P0) ,
V 3 (P 0) ), and the texture mapping unit 202 in the image synthesizing unit 200 uses (U 0 (P 0) , V 0 (P 0) ) to
By reading the texture information specified by (U 3 (P 0) , V 3 (P 0) ) from the texture information storage unit 210, texture mapping to the polygon P 0 is performed. The translucency of the polygon P0 is TP0, and the
The translucent operation unit 204 within 0 performs a given translucent operation using this TP0, thereby making the polygon P0 translucent. The translucency calculation is realized by, for example, performing a process of blending the color of a target polygon with the color of a display object located behind the polygon.

【0056】なおグーローシェーディング等の輝度演算
処理を行う場合には、ポリゴン情報の中に頂点法線ベク
トル情報或いは頂点輝度情報(或いはこれらのインデッ
クス)を含めればよい。
When performing brightness calculation processing such as Gouraud shading, vertex normal vector information or vertex brightness information (or their index) may be included in the polygon information.

【0057】カバーオブジェクトの特定領域にあるポリ
ゴンを表示から非表示に切り替える処理は、図11
(C)のポリゴン情報リストから、非表示にするポリゴ
ンの格納エリアを削除することで実現できる。例えば移
動体がポリゴンP1の縁上を移動し、ポリゴンP1が特
定され非表示にすることが決定された場合には、図11
(C)のポリゴン情報リストからポリゴンP1の格納エ
リアの部分を削除する。このようにすることで画像合成
部200によるポリゴンP1の画像合成が省略され、ポ
リゴンP1を非表示にすることができる。
The process of switching the display of the polygon in the specific area of the cover object from the display to the non-display is as shown in FIG.
This can be realized by deleting the storage area of the polygon to be hidden from the polygon information list of (C). For example, when the moving body moves on the edge of the polygon P1 and the polygon P1 is specified and it is determined that the polygon P1 should not be displayed, FIG.
The part of the storage area of the polygon P1 is deleted from the polygon information list of (C). By doing so, the image combining of the polygon P1 by the image combining unit 200 is omitted, and the polygon P1 can be hidden.

【0058】次に視点位置、視線方向の設定について説
明する。本実施例では、カバーオブジェクトの周囲にお
いて移動体の移動に追従し且つ移動体の移動により特定
された領域における画像の変化の少なくとも一部が見え
るように、視点位置、視線方向を設定する。この設定
は、図1の視点設定部130が、移動体演算部110で
求められた移動体の位置情報等に基づいて行う。図12
(A)において、視点位置82は仮想カメラ80の位置
であり、視線方向84は仮想カメラ80の向く方向であ
る。表示部10では、この視点位置82、視線方向84
での視界画像が表示される(図2(B)参照)。但し本
実施例では、仮想カメラ80の移動に対して慣性が働く
と仮定してあり、図12(A)に示す視点位置82は、
この慣性の働きを無視した時の目標視点位置である。こ
の目標視点位置は、図12(A)に示すように、自機の
移動体44の真上から進行方向と逆方向に一定の距離L
だけシフトした位置に設定されている。
Next, the setting of the viewpoint position and the line-of-sight direction will be described. In the present embodiment, the viewpoint position and the line-of-sight direction are set so as to follow the movement of the moving body around the cover object and to see at least a part of the change of the image in the area specified by the movement of the moving body. This setting is performed by the viewpoint setting unit 130 in FIG. 1 based on the position information of the moving object obtained by the moving object calculation unit 110 and the like. FIG.
In (A), the viewpoint position 82 is the position of the virtual camera 80, and the line-of-sight direction 84 is the direction in which the virtual camera 80 faces. In the display unit 10, the viewpoint position 82 and the line-of-sight direction 84
Is displayed (see FIG. 2B). However, in the present embodiment, it is assumed that inertia acts on the movement of the virtual camera 80, and the viewpoint position 82 shown in FIG.
This is the target viewpoint position when this inertia function is ignored. This target viewpoint position is, as shown in FIG. 12A, a fixed distance L in a direction opposite to the traveling direction from right above the moving body 44 of the own device.
Is set to the shifted position.

【0059】仮想カメラ80は、図12(B)に示すよ
うに、自機の移動体44との間で一定の高度を保ちなが
ら移動する。この高度を目標視点高さとする。また仮想
カメラ80の高さ方向の移動にも慣性が働くと仮定す
る。これにより図12(B)に示すように、移動体44
が、高度差のあるゲームフィールドを移動すると、図1
2(B)のFに示すように仮想カメラ80がズームした
りすることになる。
As shown in FIG. 12 (B), the virtual camera 80 moves while maintaining a constant altitude with its own mobile unit 44. This altitude is set as the target viewpoint height. It is also assumed that inertia also acts on the movement of the virtual camera 80 in the height direction. As a result, as shown in FIG.
Moves across the game field at different altitudes.
The virtual camera 80 zooms as indicated by F in FIG. 2 (B).

【0060】また本実施例では、移動体44の速度は、
レバーを下に倒した時に低速、上に倒した時に高速、何
もしなかった場合に中速となる(レバーを下に倒した時
に下に移動し、上に倒した時に上に移動し、何もしなか
った時に停止するようにしてもよい)。移動体44が低
速か、中速か、高速かにより、図12(C)に示すよう
に、移動体の真上の位置と目標視点位置との距離L(図
12(A)も参照)が変化する。高速で移動する移動体
44に対してはカメラ80は後ろに取り残され、低速の
場合には真上に近い位置からの視界画像が合成されるこ
とになる。
In this embodiment, the speed of the moving body 44 is
When the lever is tilted down, the speed is low. When the lever is tilted, the speed is high. When nothing is done, the speed is medium. (When the lever is tilted down, it moves down. When it is tilted up, it moves up. If not, it may stop.) Depending on whether the moving body 44 is low speed, medium speed, or high speed, as shown in FIG. 12C, the distance L between the position directly above the moving body and the target viewpoint position (see also FIG. 12A). Change. The camera 80 is left behind for the moving body 44 moving at a high speed, and in the case of a low speed, a view image from a position close to right above is synthesized.

【0061】以上のように本実施例では、視界画像を合
成する視点位置、視線方向が移動体の移動に追従する。
そして図2(B)に示すように、移動体44の移動によ
り特定された領域36での画像の変化(この例ではポリ
ゴンの表示、非表示)の少なくと一部が見える位置に視
点位置、視線方向が設定される。これによりプレーヤ
は、自らの操作で移動体44を操作してプレーヤが所望
する領域を特定し、その特定された領域での画像の変化
を楽しむことができる。図2(B)の例では、領域36
でのポリゴンが非表示になることで、3次元オブジェク
トの、領域36のポリゴンにより隠されていた部分を見
るという楽しみを得ることができる。また3次元的に形
成されるカバーオブジェクト42上のどの位置に移動体
44が移動しても、視点位置、視線方向はこの移動体4
4の移動に追従する。この結果、カバーオブジェクト4
2により覆われていた部分の3次元オブジェクト40が
次第に見えてくる様子をプレーヤは楽しむことができ、
しかもこの時に見える画像は3次元画像になるため、ゲ
ームの面白味を格段に向上できる。
As described above, in this embodiment, the viewpoint position and the line-of-sight direction at which the view image is synthesized follow the movement of the moving body.
Then, as shown in FIG. 2B, the viewpoint position is set at a position where at least a part of the image change (display and non-display of the polygon in this example) in the area 36 specified by the movement of the moving body 44 is visible. The gaze direction is set. This allows the player to operate the moving body 44 by his / her own operation to specify an area desired by the player, and enjoy a change in the image in the specified area. In the example of FIG.
By hiding the polygon at, it is possible to obtain a pleasure of seeing the portion of the three-dimensional object that was hidden by the polygon of the area. Even if the moving body 44 moves to any position on the three-dimensionally formed cover object 42, the viewpoint position and the line-of-sight direction are changed to the moving body 4
Follow the movement of 4. As a result, cover object 4
The player can enjoy the state in which the three-dimensional object 40 of the portion covered by 2 gradually becomes visible,
Moreover, since the image seen at this time is a three-dimensional image, the fun of the game can be remarkably improved.

【0062】以上では、特定領域での画像情報を変更す
る例として、移動体の移動により特定された領域でのポ
リゴンを非表示にする手法について説明した。この手法
では、図13(A)に示すように、3次元オブジェクト
40を覆うカバーオブジェクト42を構成するポリゴン
(又は曲面)のうち、特定領域に配置されるポリゴン8
6を消滅させる。このようにすることで、特定領域にあ
ったポリゴン86により隠されていた部分の3次元オブ
ジェクトの画像を見ることができるようになる。ポリゴ
ン86の表示、非表示の切り替えは、既に説明したよう
に、図1の画像情報変更部120が、図11(C)のポ
リゴン情報リストからポリゴン86のポリゴン情報を消
去したり生成したりすることで実現できる。
As described above, as an example of changing the image information in the specific area, the method of hiding the polygon in the area specified by the movement of the moving object has been described. In this method, as shown in FIG. 13A, among polygons (or curved surfaces) constituting a cover object 42 covering a three-dimensional object 40, polygons 8 arranged in a specific area are used.
Make 6 disappear. By doing so, it becomes possible to see the image of the three-dimensional object of the part hidden by the polygon 86 in the specific area. As described above, the image information changing unit 120 shown in FIG. 1 deletes or generates the polygon information of the polygon 86 from the polygon information list shown in FIG. This can be achieved by:

【0063】しかしながら画像情報の変更手法として
は、これ以外にも種々ものを考えることができる。
However, various other methods for changing the image information can be considered.

【0064】例えば図13(B)に示す画像情報の変更
手法では、カバーオブジェクトを構成するポリゴン(又
は曲面)のうち特定領域に配置されるポリゴン86の半
透明率を変更している(透明にしてもよい)。このよう
にしても、ポリゴン86により隠されていた部分の3次
元オブジェクト40の画像を見ることができるようにな
る。特にこの手法によれば、半透明率を不透明から透明
に向かって徐々に変化させること等により、図13
(A)よりも更に優れた視覚効果を得ることができる。
半透明率の変更は、例えば図11(C)のポリゴン情報
リストにおいて、ポリゴン86のポリゴン情報に含まれ
る半透明率を、画像情報変更部120が変更することで
実現できる。
For example, in the image information changing method shown in FIG. 13B, the translucency of a polygon 86 arranged in a specific area among polygons (or curved surfaces) constituting a cover object is changed (to be transparent). May be). Even in this case, the image of the three-dimensional object 40 in the portion hidden by the polygon 86 can be seen. In particular, according to this method, the translucency is gradually changed from opaque to transparent, and the like.
A better visual effect than (A) can be obtained.
The translucency can be changed, for example, by changing the translucency included in the polygon information of the polygon 86 in the polygon information list in FIG.

【0065】また図13(C)に示す画像情報の変更手
法では、特定領域にありカバーオブジェクト42を構成
するポリゴン(又は曲面)86にマッピングするテクス
チャを指定するテクスチャ座標を、テクスチャ87を指
定するテクスチャ座標からテクスチャ88を指定するテ
クスチャ座標に変更している。ここでテクスチャ88は
透明又は半透明のテクスチャであり、このように透明又
は半透明のテクスチャ88をポリゴン86にマッピング
することにより、不透明のテクスチャ87がマッピング
されていたポリゴン86により隠されていた部分の3次
元オブジェクト40の画像を見ることができるようにな
る。なおテクスチャ88の全てを透明又は半透明にする
必要はなく、一部のみを透明又は半透明にしてもよい。
ポリゴンにマッピングするテクスチャの変更は、例えば
図11(C)のポリゴン情報リストにおいて、ポリゴン
86のポリゴン情報に含まれるテクスチャ座標(テクス
チャ平面でのUV座標。テクスチャ情報記憶部210の
テクスチャ情報を格納するアドレス)を、画像情報変更
部120が変更することで実現できる。
In the method of changing image information shown in FIG. 13C, texture coordinates that specify a texture to be mapped to a polygon (or curved surface) 86 that is in a specific area and that constitutes the cover object 42 are specified, and a texture 87 is specified. The texture coordinates are changed from the texture coordinates to the texture coordinates specifying the texture 88. Here, the texture 88 is a transparent or translucent texture. By mapping the transparent or translucent texture 88 onto the polygon 86 in this manner, the portion hidden by the polygon 86 on which the opaque texture 87 is mapped The image of the three-dimensional object 40 can be seen. It is not necessary to make all of the texture 88 transparent or translucent, and only a part of the texture 88 may be transparent or translucent.
To change the texture to be mapped to the polygon, for example, in the polygon information list in FIG. 11C, the texture information included in the polygon information of the polygon 86 (UV coordinate on the texture plane; texture information in the texture information storage unit 210 is stored). Address) by the image information changing unit 120.

【0066】また図13(D)に示す画像情報の変更手
法では、カバーオブジェクト42の一部又は全部にマッ
ピングするテクスチャ自体を、テクスチャ89からテク
スチャ90に描き替えている。テクスチャ90は、テク
スチャ89を描き替え、領域91の部分を透明又は半透
明にすることで生成される。このテクスチャ90をカバ
ーオブジェクト42にマッピングすることで、領域91
に対応する部分での3次元オブジェクト40の画像を見
ることができる。カバーオブジェクト42にマッピング
するテクスチャの描き替えは、画像情報変更部120
が、RAM等により構成されるテクスチャ情報記憶部2
10に記憶されるテクスチャ情報の内容を描き替えるこ
とにより実現できる。即ちカバーオブジェクト42に割
り当てられたテクスチャ座標位置に格納されるテクスチ
ャを、テクスチャ89からテクスチャ90に描き替え
る。この手法によれば、図13(A)〜(C)と異な
り、画像情報の変更を必ずしもポリゴン毎に行わなくて
もよくなる。このため例えば移動体をポリゴンの縁上の
みならず、カバーオブジェクト42上の任意の位置を移
動させ、その移動により特定された領域での画像情報を
変更することを容易に実現できる。
In the method of changing image information shown in FIG. 13D, the texture itself to be mapped on a part or all of the cover object 42 is rewritten from the texture 89 to the texture 90. The texture 90 is generated by redrawing the texture 89 and making the area 91 transparent or translucent. By mapping this texture 90 to the cover object 42, the area 91
The image of the three-dimensional object 40 can be seen at the portion corresponding to. The redrawing of the texture to be mapped on the cover object 42 is performed by the image information changing unit 120.
Is a texture information storage unit 2 composed of a RAM or the like.
10 can be realized by redrawing the contents of the texture information stored in the memory 10. That is, the texture stored at the texture coordinate position assigned to the cover object 42 is rewritten from the texture 89 to the texture 90. According to this method, unlike in FIGS. 13A to 13C, it is not always necessary to change the image information for each polygon. Therefore, for example, it is possible to easily realize that the moving body is moved not only on the edge of the polygon but also on an arbitrary position on the cover object 42 and the image information in the area specified by the movement is changed.

【0067】さて以上の説明では、3次元オブジェクト
を覆うカバーオブジェクトの画像情報を変更していた
が、このようなカバーオブジェクトを設けず、3次元オ
ブジェクト自体の画像情報を変更するようにしてもよ
い。
In the above description, the image information of the cover object covering the three-dimensional object is changed. However, the image information of the three-dimensional object itself may be changed without providing such a cover object. .

【0068】例えば図14(A)に示す画像情報の変更
手法では、3次元オブジェクト40を構成するポリゴン
(又は曲面)92にマッピングするテクスチャを指定す
るテクスチャ座標を、テクスチャ93を指定するテクス
チャ座標からテクスチャ94を指定するテクスチャ座標
に変更している。ここでテクスチャ93は、図13
(C)のカバーオブジェクト42のポリゴン86にマッ
ピングされるテクスチャと同様のものである。またテク
スチャ94は、図13(C)でポリゴン86を透明又は
半透明にした時に見える3次元オブジェクト40の画像
を表すものである。図2(B)の場合を例にとれば、カ
バーオブジェクト42の模様がテクスチャ93になり、
領域36にあったポリゴンを非表示にした時に見える3
次元オブジェクト40の画像、即ち領域36での牛の皮
膚の模様がテクスチャ94になる。このような手法を用
いることで、カバーオブジェクトのポリゴンを非表示に
したり、該ポリゴンの半透明率を変えたり、カバーオブ
ジェクトにマッピングするテクスチャを変えたりするの
と、ほぼ同様の視覚効果を得ることができる。ポリゴン
92にマッピングするテクスチャの変更は、例えば図1
1(C)のポリゴン情報リストにおいて、ポリゴン92
のポリゴン情報に含まれるテクスチャ座標を、画像情報
変更部120が変更することで実現できる。
For example, in the method of changing image information shown in FIG. 14A, the texture coordinates specifying the texture to be mapped to the polygon (or curved surface) 92 constituting the three-dimensional object 40 are changed from the texture coordinates specifying the texture 93. The texture 94 is changed to the specified texture coordinates. Here, the texture 93 is shown in FIG.
The texture is the same as the texture mapped to the polygon 86 of the cover object 42 in (C). The texture 94 represents an image of the three-dimensional object 40 that is seen when the polygon 86 is made transparent or translucent in FIG. In the case of FIG. 2B as an example, the pattern of the cover object 42 becomes the texture 93,
3 when polygons in area 36 are hidden
The image of the dimensional object 40, that is, the cow skin pattern in the region 36 becomes the texture 94. By using such a method, it is possible to obtain almost the same visual effect as hiding the polygon of the cover object, changing the translucency of the polygon, and changing the texture mapped to the cover object. Can be. The change of the texture to be mapped to the polygon 92 is, for example, as shown in FIG.
In the polygon information list of FIG.
The image information changing unit 120 can change the texture coordinates included in the polygon information.

【0069】また図14(B)に示す画像情報の変更手
法では、3次元オブジェクト40の一部又は全部にマッ
ピングするテクスチャ自体を、テクスチャ96からテク
スチャ97に変更している。テクスチャ96とテクスチ
ャ97とは、領域98での画像が異なっている。領域9
8は、例えば図13(D)で領域91を透明又は半透明
にした時に見える3次元オブジェクト40の画像と同様
のものに描き替えられる。図2(B)の場合を例にとれ
ば、領域98でのテクスチャは、牛の皮膚を表す模様に
描き替えられる。このようにすることで、カバーオブジ
ェクトのポリゴンを非表示にすること等と、ほぼ同一の
視覚効果を得ることができる。3次元オブジェクト40
にマッピングするテクスチャの描き替えは、画像情報変
更部120が、RAM等により構成されるテクスチャ情
報記憶部210に記憶されるテクスチャ情報の内容を描
き替えることにより実現できる。この手法によれば、図
14(A)と異なり、画像情報の変更を必ずしもポリゴ
ン毎に行わなくてもよくなる。このため例えば移動体を
ポリゴンの縁上のみならず、3次元オブジェクト40上
の任意の位置を移動させ、その移動により特定された領
域での画像情報を変更することを容易に実現できる。
In the method of changing image information shown in FIG. 14B, the texture itself to be mapped on a part or all of the three-dimensional object 40 is changed from the texture 96 to the texture 97. The texture 96 and the texture 97 have different images in the area 98. Area 9
8 is redrawn to be the same as the image of the three-dimensional object 40 seen when the area 91 is made transparent or translucent in FIG. 13D, for example. Taking the case of FIG. 2B as an example, the texture in the area 98 is redrawn to a pattern representing cow skin. This makes it possible to obtain almost the same visual effect as hiding the polygon of the cover object. 3D object 40
Can be realized by the image information changing unit 120 redrawing the contents of the texture information stored in the texture information storage unit 210 including a RAM or the like. According to this method, unlike FIG. 14A, it is not always necessary to change the image information for each polygon. Therefore, for example, it is possible to easily realize that the moving body is moved not only on the edge of the polygon but also on an arbitrary position on the three-dimensional object 40 and the image information in the area specified by the movement is changed.

【0070】なお図13(A)〜(D)に示すカバーオ
ブジェクトの画像情報を変更する手法には、3次元オ
ブジェクトの形状とカバーオブジェクトの形状が異なっ
ている場合でも適用可能である1つの3次元オブジェ
クトに複数のカバーオブジェクトを組み合わせることで
異なる様々な画像を得ることができる(3次元オブジェ
クトを共用できる)カバーオブジェクトを構成するポ
リゴン(又は曲面)の表示、非表示を切り替えるだけで
画像情報の変更が可能となる等の利点がある。一方、図
14(A)、(B)に示す3次元オブジェクトの画像情
報を変更する手法には、カバーオブジェクトが必要な
いためデータ容量を節約できる透明、半透明の機能を
有しない装置でも実現可能である等の利点がある。
The method of changing the image information of the cover object shown in FIGS. 13A to 13D can be applied even when the shape of the three-dimensional object and the shape of the cover object are different. By combining a two-dimensional object with a plurality of cover objects, various different images can be obtained (three-dimensional objects can be shared). Only by switching between display and non-display of polygons (or curved surfaces) constituting the cover object, image information can be obtained. There are advantages such as being able to change. On the other hand, the method of changing the image information of the three-dimensional object shown in FIGS. 14A and 14B can be realized by a device having no transparent or translucent function that can save data capacity because a cover object is not required. There are advantages such as

【0071】次に本実施例の動作について図15、図1
6のフローチャートを用いて説明する。図15は、図1
3(A)〜(D)の手法に対応するフローチャートであ
る。まず操作部12によりプレーヤが操作情報を入力
し、この操作情報に基づいて移動体をカバーオブジェク
ト上で移動させる処理を行う(ステップS1、S2)。
移動体をポリゴンの縁上で移動させる場合には、図10
(A)、(B)で説明したようにポリゴンの頂点位置情
報を用いて上記処理を行う。次に、移動体の移動により
領域が特定された否かを判断する(ステップS3)。例
えば図8(A)〜(D)の場合では、移動体の移動軌跡
が交差することでこの移動軌跡を縁とする閉じた領域が
特定される。そして領域が特定された場合には、図13
(A)〜(D)に示すような種々の手法でカバーオブジ
ェクトの画像情報を変更する(ステップS4)。そして
所与の視点位置、視線方向、例えば移動体に追従し且つ
画像の変化が見える視点位置、視線方向での視界画像を
合成する(ステップS5)。
Next, the operation of this embodiment will be described with reference to FIGS.
This will be described with reference to the flowchart of FIG. FIG.
It is a flowchart corresponding to the method of 3 (A)-(D). First, the player inputs operation information through the operation unit 12, and performs a process of moving the moving body on the cover object based on the operation information (steps S1 and S2).
When moving the moving body on the edge of the polygon, FIG.
As described in (A) and (B), the above processing is performed using the vertex position information of the polygon. Next, it is determined whether or not the area is specified by the movement of the moving body (step S3). For example, in the case of FIGS. 8A to 8D, a closed region having the moving locus as an edge is specified by the intersecting moving locus of the moving object. Then, when the area is specified, FIG.
The image information of the cover object is changed by various methods as shown in (A) to (D) (step S4). Then, a field-of-view image is synthesized at a given viewpoint position and line-of-sight direction, for example, a viewpoint position and line-of-sight direction that follow the moving object and in which a change in image is visible (step S5).

【0072】図16は、図14(A)、(B)の手法に
対応するフローチャートである。図15との違いは、ス
テップT2において移動体をカバーオブジェクトではな
く3次元オブジェクト上で移動させる点、及び、ステッ
プT4においてカバーオブジェクトではなく3次元オブ
ジェクトの画像情報を変更する点である。
FIG. 16 is a flowchart corresponding to the method shown in FIGS. The difference from FIG. 15 is that the moving object is moved on the three-dimensional object instead of the cover object in step T2, and that the image information of the three-dimensional object is changed instead of the cover object in step T4.

【0073】次に、本実施例のハードウェア構成の一例
について図17を用いて説明する。同図に示す装置で
は、CPU1000、ROM1002、RAM100
4、情報記憶媒体1006、音合成IC1008、画像
合成IC1010、I/Oポート1012、1014
が、システムバス1016により相互にデータ送受信可
能に接続されている。そして前記画像合成IC1010
にはディスプレイ1018が接続され、音合成IC10
08にはスピーカ1020が接続され、I/Oポート1
012にはコントロール装置1022が接続され、I/
Oポート1014には通信装置1024が接続されてい
る。
Next, an example of the hardware configuration of this embodiment will be described with reference to FIG. In the device shown in the figure, a CPU 1000, a ROM 1002, a RAM 100
4. Information storage medium 1006, sound synthesis IC 1008, image synthesis IC 1010, I / O ports 1012, 1014
Are connected to each other via a system bus 1016 so that data can be transmitted and received therebetween. And the image synthesis IC 1010
Is connected to the display 1018, and the sound synthesis IC 10
08 is connected to a speaker 1020, and the I / O port 1
012 is connected to the control device 1022,
A communication device 1024 is connected to the O port 1014.

【0074】情報記憶媒体1006は、ゲームプログラ
ム、表示物を表現するための画像情報等が主に格納され
るものであり、CD−ROM、ゲームカセット、ICカ
ード、MO、FD、メモリ等が用いられる。例えば家庭
用ゲーム装置ではゲームプログラム等を格納する情報記
憶媒体としてCD−ROM、ゲームカセットが、業務用
ゲーム装置ではROM等のメモリが用いられる。
The information storage medium 1006 mainly stores a game program, image information for expressing a display object, and the like, and uses a CD-ROM, a game cassette, an IC card, an MO, an FD, a memory, and the like. Can be For example, a home-use game device uses a CD-ROM and a game cassette as an information storage medium for storing a game program and the like, and a business-use game device uses a memory such as a ROM.

【0075】コントロール装置1022はゲームコント
ローラ、操作パネル等に相当するものであり、プレーヤ
がゲーム進行に応じて行う判断の結果を装置本体に入力
するための装置である。
The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of a determination made by a player in accordance with the progress of a game to the main body of the device.

【0076】情報記憶媒体1006に格納されるゲーム
プログラム、ROM1002に格納されるシステムプロ
グラム(装置本体の初期化情報等)、コントロール装置
1022によって入力される信号等に従って、CPU1
000は装置全体の制御や各種データ処理を行う。RA
M1004はこのCPU1000の作業領域等として用
いられる記憶手段であり、情報記憶媒体1006やRO
M1002の所与の内容、あるいはCPU1000の演
算結果等が格納される。また頂点関係リスト(図10
(A))、頂点位置リスト(図11(B))、ポリゴン
情報リスト(図11(C))等の論理的な構成を持つデ
ータ構造は、このRAM又は情報記憶媒体上に構築され
ることになる。
According to the game program stored in the information storage medium 1006, the system program (initialization information of the device main body) stored in the ROM 1002, the signal input by the control device 1022, the CPU 1
000 controls the entire apparatus and performs various data processing. RA
M1004 is a storage unit used as a work area or the like of the CPU 1000, and includes an information storage medium 1006 and an RO.
The given content of M1002, the calculation result of CPU 1000, and the like are stored. The vertex relation list (FIG. 10)
(A)), a data structure having a logical structure such as a vertex position list (FIG. 11B) and a polygon information list (FIG. 11C) must be constructed on the RAM or the information storage medium. become.

【0077】更に、この種の装置には音合成IC100
8と画像合成IC1010とが設けられていてゲーム音
やゲーム画面の好適な出力が行えるようになっている。
音合成IC1008は情報記憶媒体1006やROM1
002に記憶される情報に基づいて効果音やバックグラ
ウンド音楽等のゲーム音を合成する集積回路であり、合
成されたゲーム音はスピーカ1020によって出力され
る。また、画像合成IC1010は、RAM1004、
ROM1002、情報記憶媒体1006等から送られる
画像情報に基づいてディスプレイ1018に出力するた
めの画素情報を合成する集積回路である。なおディスプ
レイ1018として、いわゆるヘッドマウントディスプ
レイ(HMD)と呼ばれるものを使用することもでき
る。
Furthermore, this type of device includes a sound synthesis IC 100
8 and an image synthesizing IC 1010 are provided so that a suitable output of a game sound and a game screen can be performed.
The sound synthesis IC 1008 includes an information storage medium 1006 and a ROM 1
This is an integrated circuit that synthesizes game sounds such as sound effects and background music based on the information stored in 002, and the synthesized game sounds are output by the speaker 1020. The image synthesis IC 1010 includes a RAM 1004,
This is an integrated circuit that synthesizes pixel information to be output to the display 1018 based on image information sent from the ROM 1002, the information storage medium 1006, and the like. Note that a so-called head-mounted display (HMD) can also be used as the display 1018.

【0078】また、通信装置1024はゲーム装置内部
で利用される各種の情報を外部とやりとりするものであ
り、他のゲーム装置と接続されてゲームプログラムに応
じた所与の情報を送受したり、通信回線を介してゲーム
プログラム等の情報を送受することなどに利用される。
The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to another game device to transmit and receive given information according to the game program. It is used for transmitting and receiving information such as a game program via a communication line.

【0079】そして図2(A)、(B)〜図14
(A)、(B)で説明した種々の処理は、図15、図1
6のフロチャートに示した処理等を行うゲームプログラ
ムを格納した情報記憶媒体1006と、該ゲームプログ
ラムに従って動作するCPU1000、画像合成IC1
010等によって実現される。なお画像合成IC101
0、音合成IC1008等で行われる処理は、CPU1
000あるいは汎用のDSP等によりソフトウェア的に
行ってもよい。
FIGS. 2A and 2B to FIG.
The various processes described in (A) and (B) are described in FIGS.
6, an information storage medium 1006 storing a game program for performing the processing shown in the flowchart of FIG. 6, a CPU 1000 operating according to the game program, and an image synthesizing IC 1
010 or the like. Note that the image synthesis IC 101
0, processing performed by the sound synthesis IC 1008, etc.
000 or a general-purpose DSP or the like.

【0080】図18(A)に、本実施例を業務用ゲーム
装置に適用した場合の例を示す。プレーヤは、ディスプ
レイ1100上に映し出されたゲーム画面を見ながら、
レバー1102、ボタン1104を操作してゲームを楽
しむ。装置に内蔵されるIC基板1106には、CP
U、画像合成IC、音合成IC等が実装されている。そ
してカバーオブジェクト又は3次元オブジェクト上で移
動体を移動させるための情報、特定領域におけるカバー
オブジェクト又は3次元オブジェクトの画像情報を変更
するための情報、オブジェクト空間内の所与の視点位
置、視線方向(移動体の移動に追従し且つ画像の変化の
少なくとも一部を見ることができる視点位置、視線方
向)での視界画像を合成するための情報等は、IC基板
1106上の情報記憶媒体であるメモリ1108に格納
される。以下、これらの情報を格納情報と呼ぶ。これら
の格納情報は、上記の種々の処理を行うためのプログラ
ムコード、画像情報、音情報、表示物の形状情報、テー
ブルデータ、リストデータ、プレーヤ情報等の少なくと
も1つを含むものである。
FIG. 18A shows an example in which this embodiment is applied to an arcade game device. The player looks at the game screen projected on the display 1100,
Operate the lever 1102 and the button 1104 to enjoy the game. The IC board 1106 built in the device has a CP
U, an image synthesis IC, a sound synthesis IC, and the like are mounted. Then, information for moving the moving object on the cover object or the three-dimensional object, information for changing the image information of the cover object or the three-dimensional object in the specific area, a given viewpoint position in the object space, a line-of-sight direction ( Information for synthesizing a field-of-view image at a viewpoint position and a line-of-sight direction at which movement of the moving object can be followed and at least a part of the change in the image can be seen is stored in a memory as an information storage medium on the IC substrate 1106. 1108. Hereinafter, such information is referred to as stored information. The stored information includes at least one of a program code, image information, sound information, shape information of a display object, table data, list data, player information, and the like for performing the various processes described above.

【0081】図18(B)に、本実施例を家庭用のゲー
ム装置に適用した場合の例を示す。プレーヤはディスプ
レイ1200に映し出されたゲーム画面を見ながら、ゲ
ームコントローラ1202、1204を操作してゲーム
を楽しむ。この場合、上記格納情報は、本体装置に着脱
自在な情報記憶媒体であるCD−ROM1206、IC
カード1208、1209等に格納されている。
FIG. 18B shows an example in which the present embodiment is applied to a home game machine. The player enjoys the game by operating the game controllers 1202 and 1204 while looking at the game screen displayed on the display 1200. In this case, the stored information is stored in a CD-ROM 1206, which is an information storage medium that is
It is stored in cards 1208, 1209 and the like.

【0082】図18(C)に、ホスト装置1300と、
このホスト装置1300と通信回線1302を介して接
続される端末1304-1〜1304-nとを含むゲーム装
置に本実施例を適用した場合の例を示す。この場合、上
記格納情報は、例えばホスト装置1300が制御可能な
磁気ディスク装置、磁気テープ装置、メモリ等の情報記
憶媒体1306に格納されている。端末1304-1〜1
304-nが、CPU、画像合成IC、音合成ICを有
し、スタンドアロンでゲーム画像、ゲーム音を合成でき
るものである場合には、ホスト装置1300からは、ゲ
ーム画像、ゲーム音を合成するためのゲームプログラム
等が端末1304-1〜1304-nに配送される。一方、
スタンドアロンで合成できない場合には、ホスト装置1
300がゲーム画像、ゲーム音を合成し、これを端末1
304-1〜1304-nに伝送し端末において出力するこ
とになる。
FIG. 18C shows a host device 1300,
An example in which the present embodiment is applied to a game device including this host device 1300 and terminals 1304-1 to 1304-n connected via a communication line 1302 will be described. In this case, the storage information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300. Terminals 1304-1 to 1
When the CPU 304-n has a CPU, an image synthesis IC, and a sound synthesis IC and can synthesize a game image and a game sound in a stand-alone manner, the host apparatus 1300 can synthesize the game image and the game sound. Are delivered to the terminals 1304-1 to 1304-n. on the other hand,
If the synthesis cannot be performed in a stand-alone manner, the host device 1
300 synthesizes a game image and a game sound, and
The data is transmitted to 304-1 to 1304-n and output at the terminal.

【0083】なお本発明は、上記実施の形態で説明した
ものに限らず、種々の変形実施が可能である。
The present invention is not limited to those described in the above embodiments, but can be variously modified.

【0084】例えば本発明は、業務用のゲーム装置のみ
ならず、例えば家庭用のゲーム装置、シミュレータ、多
数のプレーヤが参加する大型アトラクション装置等、種
々のものに適用できる。
For example, the present invention can be applied not only to arcade game machines, but also to various things such as, for example, home game machines, simulators, and large attraction devices in which many players participate.

【0085】また本実施例で説明した処理部、画像合成
部等で行われる処理も、本実施例では単にその一例を示
したものであり、本発明における画像合成処理はこれら
に限定されるものではない。
The processing performed by the processing unit, the image synthesizing unit, and the like described in this embodiment is merely an example in this embodiment, and the image synthesizing processing in the present invention is not limited to these. is not.

【0086】[0086]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施例の機能ブロック図の一例である。FIG. 1 is an example of a functional block diagram of an embodiment.

【図2】図2(A)、(B)は、本実施例により生成さ
れるゲーム画面(視界画像)の一例である。
FIGS. 2A and 2B are examples of a game screen (view image) generated according to the embodiment; FIG.

【図3】図3(A)、(B)も、本実施例により生成さ
れるゲーム画面の一例である。
FIGS. 3A and 3B are also examples of a game screen generated according to the embodiment; FIG.

【図4】図4(A)、(B)も、本実施例により生成さ
れるゲーム画面の一例である。
FIGS. 4A and 4B are also examples of a game screen generated according to the present embodiment.

【図5】図5(A)、(B)は、ゲームステージの選択
手法について説明するための図である。
FIGS. 5A and 5B are diagrams illustrating a technique for selecting a game stage. FIG.

【図6】3次元オブジェクト、カバーオブジェクト、移
動体について説明するための図である。
FIG. 6 is a diagram for describing a three-dimensional object, a cover object, and a moving object.

【図7】図7(A)〜(F)は、移動体の移動による領
域の特定及び敵移動体との関係について説明するための
図である。
FIGS. 7A to 7F are diagrams for describing the specification of an area by the movement of a moving object and the relationship with an enemy moving object;

【図8】図8(A)〜(D)は、移動体の移動により特
定された領域における画像情報の変更について説明する
ための図である。
FIGS. 8A to 8D are diagrams for explaining a change in image information in an area specified by movement of a moving object;

【図9】図9(A)、(B)は、バイパスについて説明
するための図であり、図9(C)は、ポリゴンを消滅さ
せる際の演出手法について説明するための図である。
FIGS. 9A and 9B are diagrams for explaining a bypass, and FIG. 9C is a diagram for explaining an effect technique when a polygon is eliminated.

【図10】図10(A)、(B)は、頂点関係リスト、
並びにポリゴンの縁上で移動体を移動させる手法につい
て説明するための図である。
FIGS. 10A and 10B are vertex relation lists,
FIG. 4 is a diagram for describing a method of moving a moving body on an edge of a polygon.

【図11】図11(A)〜(C)は、頂点位置リスト、
ポリゴン情報リスト、並びにポリゴンの表示、非表示の
切り替え、テクスチャ座標及び半透明率の変更手法につ
いて説明するための図である。
FIGS. 11A to 11C are vertex position lists,
FIG. 9 is a diagram for describing a polygon information list, a method of switching display / non-display of polygons, and a method of changing texture coordinates and translucency.

【図12】図12(A)〜(C)は、視点位置、視線方
向の設定について説明するための図である。
FIGS. 12A to 12C are diagrams for describing setting of a viewpoint position and a line-of-sight direction.

【図13】図13(A)〜(D)は、カバーオブジェク
トの画像情報の変更手法について説明するための図であ
る。
FIGS. 13A to 13D are diagrams for explaining a method of changing image information of a cover object.

【図14】図14(A)、(B)は、3次元オブジェク
トの画像情報の変更手法について説明するための図であ
る。
FIGS. 14A and 14B are diagrams for explaining a method of changing image information of a three-dimensional object.

【図15】本実施例の動作を説明するためのフローチャ
ートである。
FIG. 15 is a flowchart for explaining the operation of this embodiment.

【図16】本実施例の動作を説明するためのフローチャ
ートである。
FIG. 16 is a flowchart for explaining the operation of this embodiment.

【図17】本実施例を実現するハードウェアの構成の一
例を示す図である。
FIG. 17 is a diagram illustrating an example of a hardware configuration that implements the present embodiment.

【図18】図18(A)、(B)、(C)は、本実施例
が適用される種々の形態のゲーム装置を示す図である。
FIGS. 18A, 18B, and 18C are diagrams showing various types of game devices to which the present embodiment is applied.

【符号の説明】[Explanation of symbols]

10 表示部 12 操作部 36 領域(特定領域) 40 3次元オブジェクト 42 カバーオブジェクト 44 移動体(自機) 46 移動体(敵) 100 処理部 110 移動体演算部 120 画像情報変更部 130 視点設定部 140 オブジェクト空間設定部 200 画像合成部 202 テクスチャマッピング部 204 半透明演算部 210 テクスチャ情報記憶部 Reference Signs List 10 display unit 12 operation unit 36 area (specific area) 40 3D object 42 cover object 44 moving object (own equipment) 46 moving object (enemy) 100 processing unit 110 moving object calculation unit 120 image information change unit 130 viewpoint setting unit 140 Object space setting unit 200 Image synthesis unit 202 Texture mapping unit 204 Translucent operation unit 210 Texture information storage unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 山口 甲治 東京都大田区多摩川2丁目8番5号 株式 会社ナムコ内 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Koharu Yamaguchi 2-8-5 Tamagawa, Ota-ku, Tokyo Namco Corporation

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 オブジェクト空間において、操作手段か
らの操作情報に基づいて移動体を移動させる演算を行う
移動体演算手段と、 前記移動体の移動に追従する仮想カメラの視点位置、視
線方向を設定する視点設定手段と、 前記視点位置、視線方向での仮想カメラから見た視界画
像を合成する手段と、を含み、 前記視点設定手段は、 前記仮想カメラに慣性を与えることを特徴とする3次元
ゲーム装置。
1. A moving body calculating means for performing a calculation for moving a moving body based on operation information from an operating means in an object space, and setting a viewpoint position and a line of sight of a virtual camera which follows the movement of the moving body. A viewpoint setting unit for performing a three-dimensional operation, wherein the viewpoint setting unit adds inertia to the virtual camera. Game equipment.
【請求項2】 請求項1において、 前記視点設定手段は、 前記仮想カメラに、前記移動体の移動方向への慣性を与
えることを特徴とする3次元ゲーム装置。
2. The three-dimensional game device according to claim 1, wherein the viewpoint setting means gives the virtual camera inertia in a moving direction of the moving object.
【請求項3】 請求項1、2のいずれかにおいて、 前記視点設定手段は、 移動体の後方に前記仮想カメラの視点位置を設定し、移
動体が高速の場合には移動体との距離を離し、低速の場
合には移動体との距離を近づけるように前記視点位置に
慣性を与えることを特徴とする3次元ゲーム装置。
3. The viewpoint setting unit according to claim 1, wherein the viewpoint setting unit sets a viewpoint position of the virtual camera behind the moving object, and sets a distance to the moving object when the moving object is moving at a high speed. A three-dimensional game device wherein the viewpoint position is given inertia so as to be separated from the moving body when the vehicle is at a low speed.
【請求項4】 請求項1〜3のいずれかにおいて、 前記視点設定手段は、 移動体の真上から、移動体の進行方向とは逆方向にシフ
トした位置で、前記仮想カメラの視点位置を前記移動体
に追従させ、前記移動体と前記視点位置との移動体移動
方向の距離を、前記移動体が高速の場合には離し、低速
の場合には近づけるように前記視点位置に慣性を与える
ことを特徴とする3次元ゲーム装置。
4. The viewpoint setting unit according to claim 1, wherein the viewpoint setting unit shifts a viewpoint position of the virtual camera from a position directly above the moving object in a direction opposite to a traveling direction of the moving object. The inertia is given to the viewpoint position so that the moving body follows the moving body, and the distance in the moving body moving direction between the moving body and the viewpoint position is increased when the moving body is at a high speed, and is decreased when the moving body is at a low speed. A three-dimensional game device characterized by the above-mentioned.
【請求項5】 請求項1〜4のいずれかにおいて、 前記視点設定手段は、 移動体の真上から、移動体の進行方向とは逆方向にシフ
トした位置で、前記仮想カメラの視点位置を前記移動体
に追従させ、前記移動体と前記視点位置との移動体高さ
方向の距離を、前記移動体の高さ方向の移動に基づき変
化させるように前記視点位置に慣性を与えることを特徴
とする3次元ゲーム装置。
5. The viewpoint setting unit according to claim 1, wherein the viewpoint setting unit sets a viewpoint position of the virtual camera at a position shifted from a position directly above the moving object in a direction opposite to a traveling direction of the moving object. Following the moving body, the distance in the moving body height direction between the moving body and the viewpoint position, giving inertia to the viewpoint position so as to change based on the movement of the moving body in the height direction. 3D game device.
【請求項6】 視界画像を合成するための情報を少なく
とも格納する情報記憶媒体であって、 オブジェクト空間において、操作手段からの操作情報に
基づいて移動体を移動させる演算を行うための情報と、 前記移動体の移動に追従する仮想カメラの視点位置、視
線方向を設定するための視点設定情報と、 前記視点位置、視線方向での仮想カメラから見た視界画
像を合成するための情報と、 を含み、 前記視点設定情報は、 前記仮想カメラに慣性を与える情報を含むことをことを
特徴とする情報記憶媒体。
6. An information storage medium storing at least information for synthesizing a view image, wherein information for performing a calculation for moving a moving object based on operation information from an operation means in an object space; The viewpoint position of the virtual camera that follows the movement of the moving object, viewpoint setting information for setting the line of sight, and the viewpoint position, information for synthesizing a view image viewed from the virtual camera in the line of sight, The information storage medium, wherein the viewpoint setting information includes information for giving inertia to the virtual camera.
【請求項7】 請求項6において、 前記視点設定情報は、 前記仮想カメラに、前記移動体の移動方向への慣性を与
えることを特徴とする情報記憶媒体。
7. The information storage medium according to claim 6, wherein the viewpoint setting information gives the virtual camera inertia in a moving direction of the moving body.
【請求項8】 請求項6、7のいずれかにおいて、 前記視点設定情報は、 移動体の後方に前記仮想カメラの視点位置を設定し、移
動体が高速の場合には移動体との距離を離し、低速の場
合には移動体との距離を近づけるように前記視点位置に
慣性を与えることを特徴とする情報記憶媒体。
8. The viewpoint setting information according to claim 6, wherein the viewpoint setting information sets a viewpoint position of the virtual camera behind a moving object, and sets a distance from the moving object when the moving object is at a high speed. An information storage medium characterized by giving inertia to the viewpoint position so as to be separated from the moving body at a low speed when the distance is low.
【請求項9】 請求項6〜8のいずれかにおいて、 前記視点設定情報は、 移動体の真上から、移動体の進行方向とは逆方向にシフ
トした位置で、前記仮想カメラの視点位置を前記移動体
に追従させ、前記移動体と前記視点位置との移動体移動
方向の距離を、前記移動体が高速の場合には離し、低速
の場合には近づけるように前記視点位置に慣性を与える
ことを特徴とする情報記憶媒体。
9. The viewpoint setting information according to claim 6, wherein the viewpoint setting information indicates a viewpoint position of the virtual camera at a position shifted from directly above the moving object in a direction opposite to a traveling direction of the moving object. The inertia is given to the viewpoint position so that the moving body follows the moving body, and the distance in the moving body moving direction between the moving body and the viewpoint position is increased when the moving body is at a high speed, and is decreased when the moving body is at a low speed. An information storage medium characterized by the above-mentioned.
【請求項10】 請求項9において、 前記視点設定情報は、 移動体の真上から、移動体の進行方向とは逆方向にシフ
トした位置で、前記仮想カメラの視点位置を前記移動体
に追従させ、前記移動体と前記視点位置との移動体高さ
方向の距離を、前記移動体の高さ方向の移動に基づき変
化させるように前記視点位置に慣性を与えることを特徴
とする情報記憶媒体。
10. The viewpoint setting information according to claim 9, wherein the viewpoint setting information follows the viewpoint of the virtual camera at a position shifted from directly above the moving object in a direction opposite to the traveling direction of the moving object. An information storage medium, wherein inertia is given to the viewpoint position such that a distance in the height direction of the moving object between the moving object and the viewpoint position is changed based on movement of the moving object in the height direction.
JP33244797A 1996-06-21 1997-11-17 3D game device and information storage medium Expired - Fee Related JP4093620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33244797A JP4093620B2 (en) 1996-06-21 1997-11-17 3D game device and information storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP18113196 1996-06-21
JP8-181131 1996-06-21
JP33244797A JP4093620B2 (en) 1996-06-21 1997-11-17 3D game device and information storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP9180717A Division JPH1066781A (en) 1996-06-21 1997-06-20 Three-dimensional game device and information storage medium

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2005179035A Division JP4033477B2 (en) 1996-06-21 2005-06-20 Image generating apparatus and information storage medium
JP2005293927A Division JP4033479B2 (en) 1996-06-21 2005-10-06 Image generating apparatus and information storage medium

Publications (2)

Publication Number Publication Date
JPH10113468A true JPH10113468A (en) 1998-05-06
JP4093620B2 JP4093620B2 (en) 2008-06-04

Family

ID=26500422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33244797A Expired - Fee Related JP4093620B2 (en) 1996-06-21 1997-11-17 3D game device and information storage medium

Country Status (1)

Country Link
JP (1) JP4093620B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7513824B2 (en) 1998-11-24 2009-04-07 Kabushiki Kaisha Sega Enterprises Game device with moving objects competing for a game score
US7753785B2 (en) 2003-05-06 2010-07-13 Nintendo Co., Ltd. Game apparatus, storing medium that stores control program of virtual camera, and control method of virtual camera

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262411A (en) * 1994-03-18 1995-10-13 Fujitsu Ltd Visual point setting device
WO1997036261A1 (en) * 1996-03-28 1997-10-02 Sega Enterprises, Ltd. An image processor, a game machine using the image processor, a method of image processing and a medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262411A (en) * 1994-03-18 1995-10-13 Fujitsu Ltd Visual point setting device
WO1997036261A1 (en) * 1996-03-28 1997-10-02 Sega Enterprises, Ltd. An image processor, a game machine using the image processor, a method of image processing and a medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7513824B2 (en) 1998-11-24 2009-04-07 Kabushiki Kaisha Sega Enterprises Game device with moving objects competing for a game score
US7585215B1 (en) 1998-11-24 2009-09-08 Kabushiki Kaisha Sega Game device
US7753785B2 (en) 2003-05-06 2010-07-13 Nintendo Co., Ltd. Game apparatus, storing medium that stores control program of virtual camera, and control method of virtual camera

Also Published As

Publication number Publication date
JP4093620B2 (en) 2008-06-04

Similar Documents

Publication Publication Date Title
US6256040B1 (en) Three-dimensional game machine and information storage medium
JP3372832B2 (en) GAME DEVICE, GAME IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING GAME IMAGE PROCESSING PROGRAM
EP0990458B1 (en) Video game machine, method for switching viewpoint on gamescreen of video game, and computer-readable recording medium containing game-screen-viewpoint switching program
US6724385B2 (en) Method of replaying game, recording medium, program, and entertainment system
WO1996025211A1 (en) Three-dimensional game device and picture synthesis method
EP1132122A2 (en) Method of replaying game, recording medium, program, and entertainment system
JP4707080B2 (en) Image generation system, program, and information storage medium
JP3786670B1 (en) Program, information storage medium, and image generation system
JPH11146978A (en) Three-dimensional game unit, and information recording medium
JP2009129167A (en) Program, information storage medium, and image generation system
JPH1066782A (en) Three-dimensional game device and information storage medium
JP4093620B2 (en) 3D game device and information storage medium
JP4033479B2 (en) Image generating apparatus and information storage medium
JP4033477B2 (en) Image generating apparatus and information storage medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JPH1066781A (en) Three-dimensional game device and information storage medium
JP4187192B2 (en) Image generation system, program, and information storage medium
JP5054908B2 (en) Program, information storage medium, and image generation system
JPH10113465A (en) Game device, screen generating method, and information memory medium
JP3420987B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2000135376A (en) Game system, information recording medium and method for switching indication
JP4114824B2 (en) Image generating apparatus and information storage medium
JP4698701B2 (en) Image generation system, program, and information storage medium
JP2007164651A (en) Program, information storage medium and image generation system
JP2002092637A (en) Game system and information storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050810

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140314

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees