JP4033477B2 - Image generating apparatus and information storage medium - Google Patents

Image generating apparatus and information storage medium Download PDF

Info

Publication number
JP4033477B2
JP4033477B2 JP2005179035A JP2005179035A JP4033477B2 JP 4033477 B2 JP4033477 B2 JP 4033477B2 JP 2005179035 A JP2005179035 A JP 2005179035A JP 2005179035 A JP2005179035 A JP 2005179035A JP 4033477 B2 JP4033477 B2 JP 4033477B2
Authority
JP
Japan
Prior art keywords
moving body
information
game
image
polygon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2005179035A
Other languages
Japanese (ja)
Other versions
JP2006004440A (en
Inventor
正輝 梅田
京太 田中
勇一郎 小森谷
甲治 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2005179035A priority Critical patent/JP4033477B2/en
Publication of JP2006004440A publication Critical patent/JP2006004440A/en
Application granted granted Critical
Publication of JP4033477B2 publication Critical patent/JP4033477B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、オブジェクト空間内の所与の視点位置、視線方向での視界画像を合成できる画像生成装置及び情報記憶媒体に関する。   The present invention relates to an image generation apparatus and an information storage medium that can synthesize a view field image in a given viewpoint position and line-of-sight direction in an object space.

従来より、ディスプレイ上にゲーム画面を表示し、所与のゲームフィールド上でプレーヤが操作する自機と敵キャラクターとの間で追いかけゲームを行うゲーム装置が知られている。このゲーム装置は、敵キャラクタに捕まらないようにしながら制限時間内に所与のゲームクリア条件をクリアすることを目的としており、そのスピード感からゲームとしての人気が高い。   2. Description of the Related Art Conventionally, there has been known a game device that displays a game screen on a display and plays a chasing game between an own device operated by a player and an enemy character on a given game field. This game device is intended to clear a given game clear condition within a time limit while not being caught by an enemy character, and is popular as a game because of its speed.

しかしながらこのゲーム装置では、自機及び敵キャラクタが移動するゲームフィールドは2次元的なものであったため、プレーヤに与える視覚効果、ゲームプレイのダイナミック感が欠けるという課題があった。またプレーヤにリプレイを促すための工夫に欠け、プレーヤに飽きられ易いという課題もあった。   However, in this game apparatus, the game field in which the player's own machine and enemy characters move is two-dimensional, so that there is a problem that the visual effect given to the player and the dynamic feeling of the game play are lacking. There is also a problem that the player lacks ingenuity for prompting replay and is easily bored by the player.

プレーヤにリプレイを促す手法として、例えばゲームクリア条件を満たす毎にプレーヤの目を楽しませる2次元的な絵を表示する手法も考えられる。しかしながら、この手法では、プレーヤのゲームクリアの特典として表示される絵は2次元的なものになるため、プレーヤに与えるインパクトが弱く、飽きられ易いという問題がある。特に、2次元の絵の場合には、プレーヤの視点がどの位置にある場合にも見える画像に変化が無く、リアル感に欠けるという課題がある。
特開平7−262411号公報
As a technique for prompting the player to replay, for example, a technique of displaying a two-dimensional picture that delights the eyes of the player every time the game clear condition is satisfied can be considered. However, with this method, since the picture displayed as the player's game clear privilege is two-dimensional, there is a problem that the impact on the player is weak and the player is easily bored. In particular, in the case of a two-dimensional picture, there is a problem that an image that is visible no matter what position the player's viewpoint is at, and lacks realism.
JP-A-7-262411

本発明は、以上のような技術的課題を解決するためになされたものであり、その目的とするところは、視覚効果に優れ、プレーヤの継続したゲームプレイを促すことができる画像生成装置及び情報記憶媒体を提供することにある。   The present invention has been made to solve the technical problems as described above, and an object of the present invention is to provide an image generation apparatus and information that are excellent in visual effects and can encourage a player to continue playing the game. It is to provide a storage medium.

(1)本発明の画像生成装置は、
オブジェクト空間において、操作手段からの操作情報に基づいて移動体を移動させる演算を行う移動体演算手段と、
前記移動体の移動に追従する仮想カメラの視点位置、視線方向を設定する視点設定手段と、
前記視点位置、視線方向での仮想カメラから見た視界画像を合成する手段と、
を含み、
前記視点設定手段は、
前記仮想カメラに慣性を与えることを特徴とする。
(1) An image generation apparatus according to the present invention includes:
In the object space, a moving body computing means for performing a computation for moving the moving body based on operation information from the operating means;
Viewpoint setting means for setting the viewpoint position and the line-of-sight direction of the virtual camera following the movement of the moving body;
Means for synthesizing a view field image viewed from a virtual camera in the viewpoint position and the line-of-sight direction;
Including
The viewpoint setting means includes
Inertia is imparted to the virtual camera.

(2)本発明において、前記視点設定手段は、
前記仮想カメラに、前記移動体の移動方向への慣性を与える処理を行うように構成してもよい。
(2) In the present invention, the viewpoint setting means includes:
You may comprise so that the process which gives the inertia to the moving direction of the said mobile body may be performed to the said virtual camera.

(3)本発明において、
前記視点設定手段は、
移動体の後方に前記仮想カメラの視点位置を設定し、移動体が高速の場合には移動体との距離を離し、低速の場合には移動体との距離を近づけるように前記視点位置に慣性を与える処理を行うように構成してもよい。
(3) In the present invention,
The viewpoint setting means includes
The viewpoint position of the virtual camera is set behind the moving body. When the moving body is high speed, the viewpoint is separated from the moving body, and when the moving body is low speed, the inertial position is set to be close to the moving body. You may comprise so that the process which gives may be performed.

(4)本発明において、
前記視点設定手段は、
移動体の真上から、移動体の進行方向とは逆方向にシフトした位置で、前記仮想カメラの視点位置を前記移動体に追従させ、前記移動体と前記視点位置との移動体移動方向の距離を、前記移動体が高速の場合には離し、低速の場合には近づけるように前記視点位置に慣性を与える処理を行うように構成してもよい。
(4) In the present invention,
The viewpoint setting means includes
The viewpoint position of the virtual camera is made to follow the moving body at a position shifted from directly above the moving body in a direction opposite to the traveling direction of the moving body, and the moving body moving direction between the moving body and the viewpoint position is changed. The distance may be set so that inertia is applied to the viewpoint position so that the distance is increased when the moving body is high speed and close when the moving body is low speed.

(5)本発明において、
前記視点設定手段は、
移動体の真上から、移動体の進行方向とは逆方向にシフトした位置で、前記仮想カメラの視点位置を前記移動体に追従させ、前記移動体と前記視点位置との移動体高さ方向の距離を、前記移動体の高さ方向の移動に基づき変化させるように前記視点位置に慣性を与える処理を行うように構成してもよい。
(5) In the present invention,
The viewpoint setting means includes
The viewpoint position of the virtual camera is made to follow the moving body at a position shifted from directly above the moving body in a direction opposite to the moving direction of the moving body, and the moving body height direction between the moving body and the viewpoint position is You may comprise so that the process which gives an inertia to the said viewpoint position may be performed so that distance may be changed based on the movement of the said mobile body in the height direction.

(6)本発明は、
視界画像を合成するためのプログラムが記憶された情報記憶媒体であって、
前記プログラムは、
オブジェクト空間において、操作手段からの操作情報に基づいて移動体を移動させる演算を行うための手段と、
前記移動体の移動に追従する仮想カメラの視点位置、視線方向を設定するための視点設定手段と、
前記視点位置、視線方向での仮想カメラから見た視界画像を合成するための手段としてコンピュータを機能させ、
前記視点設定手段は、
前記仮想カメラに慣性を与える処理を行うことを特徴とする。
(6) The present invention
An information storage medium storing a program for synthesizing a view field image,
The program is
Means for performing an operation of moving the moving body based on operation information from the operation means in the object space;
Viewpoint setting means for setting the viewpoint position and the line-of-sight direction of the virtual camera following the movement of the moving body;
Causing the computer to function as a means for synthesizing a view field image viewed from the virtual camera at the viewpoint position and the line-of-sight direction;
The viewpoint setting means includes
A process of giving inertia to the virtual camera is performed.

(7)本発明の情報記憶媒体において、
前記視点設定手段は、
前記仮想カメラに、前記移動体の移動方向への慣性を与える処理を行うように構成してもよい。
(7) In the information storage medium of the present invention,
The viewpoint setting means includes
You may comprise so that the process which gives the inertia to the moving direction of the said mobile body may be performed to the said virtual camera.

(8)本発明の情報記憶媒体において、
前記視点設定手段は、
移動体の後方に前記仮想カメラの視点位置を設定し、移動体が高速の場合には移動体との距離を離し、低速の場合には移動体との距離を近づけるように前記視点位置に慣性を与える処理を行うように構成してもよい。
(8) In the information storage medium of the present invention,
The viewpoint setting means includes
The viewpoint position of the virtual camera is set behind the moving body. When the moving body is high speed, the viewpoint is separated from the moving body, and when the moving body is low speed, the inertial position is set to be close to the moving body. You may comprise so that the process which gives may be performed.

(9)本発明の情報記憶媒体において、
前記視点設定手段は、
移動体の真上から、移動体の進行方向とは逆方向にシフトした位置で、前記仮想カメラの視点位置を前記移動体に追従させ、前記移動体と前記視点位置との移動体移動方向の距離を、前記移動体が高速の場合には離し、低速の場合には近づけるように前記視点位置に慣性を与える処理を行うように構成してもよい。
(9) In the information storage medium of the present invention,
The viewpoint setting means includes
The viewpoint position of the virtual camera is made to follow the moving body at a position shifted from directly above the moving body in a direction opposite to the traveling direction of the moving body, and the moving body moving direction between the moving body and the viewpoint position is changed. The distance may be set so that inertia is applied to the viewpoint position so that the distance is increased when the moving body is high speed and close when the moving body is low speed.

(10)本発明の情報記憶媒体において、
前記視点設定手段は、
移動体の真上から、移動体の進行方向とは逆方向にシフトした位置で、前記仮想カメラの視点位置を前記移動体に追従させ、前記移動体と前記視点位置との移動体高さ方向の距離を、前記移動体の高さ方向の移動に基づき変化させるように前記視点位置に慣性を与える処理を行うように構成してもよい。
(10) In the information storage medium of the present invention,
The viewpoint setting means includes
The viewpoint position of the virtual camera is made to follow the moving body at a position shifted from directly above the moving body in a direction opposite to the moving direction of the moving body, and the moving body height direction between the moving body and the viewpoint position is You may comprise so that the process which gives an inertia to the said viewpoint position may be performed so that distance may be changed based on the movement of the said mobile body in the height direction.

本実施の形態に係る3次元ゲーム装置は、オブジェクト空間に配置される少なくとも1つの3次元オブジェクトを覆うように設けられるカバーオブジェクト上で、操作手段からの操作情報に基づいて移動体を移動させる演算を行う移動体演算手段と、前記移動体の移動により前記カバーオブジェクトを区分する領域が特定された場合の該特定領域におけるカバーオブジェクトの画像情報を少なくとも変更する画像情報変更手段と、前記カバーオブジェクトの周囲において前記移動体の移動に追従し且つ前記特定領域における画像の変化の少なくとも一部が見える視点位置、視線方向での視界画像を合成する手段とを含むことを特徴とする。   The three-dimensional game device according to the present embodiment performs an operation for moving a moving body on the cover object provided to cover at least one three-dimensional object arranged in the object space based on operation information from the operation means. A moving body computing means for performing the above, an image information changing means for changing at least the image information of the cover object in the specific area when the area for dividing the cover object is specified by the movement of the moving body, And means for synthesizing a visual field image in a visual line direction and a viewpoint position at which at least a part of an image change in the specific region can be seen following the movement of the moving body in the surroundings.

本実施の形態によれば、操作手段からの操作情報に基づいて、3次元オブジェクトを覆うカバーオブジェクト上を移動体が移動し、この移動により例えばプレーヤの所望する領域が特定される。そして、この特定領域における画像情報が変更される。この場合、特定領域にあるカバーオブジェクトによりカバーされていた3次元オブジェクトの画像が見えるように画像情報を変更することが望ましい。視界画像を合成する視点位置、視線方向は、移動体の移動に追従すると共に特定領域での画像の変化の少なくとも一部が見えるように設定される。従って本実施の形態によれば、プレーヤは、自身が移動体を操作することにより次々に変化してゆくカバーオブジェクトの画像、あるいはそのカバーオブジェクトによりカバーされていた3次元オブジェクトの画像が見えてくる様子を楽しむことができ、優れた視覚効果を得ることができる。またプレーヤは、3次元的に形成されたゲームフィールドであるカバーオブジェクト上で移動体を移動させてゲームを楽しむことができるため、プレーヤの感じるスリル感、ダイナミック感を大幅に向上できる。   According to the present embodiment, the moving body moves on the cover object covering the three-dimensional object based on the operation information from the operation means, and, for example, a region desired by the player is specified by this movement. Then, the image information in this specific area is changed. In this case, it is desirable to change the image information so that the image of the three-dimensional object covered by the cover object in the specific area can be seen. The viewpoint position and the line-of-sight direction for synthesizing the view field image are set so as to follow the movement of the moving body and to see at least a part of the image change in the specific region. Therefore, according to the present embodiment, the player can see the image of the cover object that changes one after another by operating the moving body or the image of the three-dimensional object covered by the cover object. You can enjoy the situation and get an excellent visual effect. In addition, since the player can enjoy the game by moving the moving body on the cover object that is a three-dimensionally formed game field, the thrill and dynamic feeling felt by the player can be greatly improved.

また本実施の形態に係る3次元ゲーム装置は、オブジェクト空間に配置される少なくとも1つの3次元オブジェクトを覆うように設けられるカバーオブジェクト上で、操作手段からの操作情報に基づいて移動体を移動させる演算を行う移動体演算手段と、前記移動体の移動軌跡が交差することで該移動軌跡を縁とする閉じた領域が特定された場合の該特定領域におけるカバーオブジェクトの画像情報を少なくとも変更する画像情報変更手段と、オブジェクト空間内の所与の視点位置、視線方向での視界画像を合成する手段とを含むことを特徴とする。   The three-dimensional game device according to the present embodiment moves the moving body based on the operation information from the operation means on the cover object provided to cover at least one three-dimensional object arranged in the object space. An image that changes at least the image information of the cover object in the specific area when a moving area calculating means that performs calculation and a moving area of the moving object intersect to specify a closed area with the movement locus as an edge It includes information changing means and means for synthesizing a view field image in a given viewpoint position and line-of-sight direction in the object space.

本実施の形態によれば、移動体の移動軌跡が交差することで領域が特定され、この特定領域でのカバーオブジェクトの画像情報が変更される。3次元オブジェクトをカバーオブジェクトで覆う場合、例えば縁が無いカバーオブジェクトを用いると、ゲーム開始時にどのような視点位置から見ても3次元オブジェクトを見ることができないようにすることができる。本実施の形態によれば、このように縁が無いカバーオブジェクトを用いた場合でも、領域の簡易な特定が可能となる。   According to the present embodiment, the region is specified by the movement trajectories of the moving body intersecting, and the image information of the cover object in this specific region is changed. When a 3D object is covered with a cover object, for example, if a cover object having no edge is used, the 3D object cannot be seen from any viewpoint position at the start of the game. According to the present embodiment, even when a cover object having no edge is used as described above, it is possible to easily specify a region.

また本実施の形態は、前記画像情報変更手段が、前記カバーオブジェクトが複数のポリゴン又は曲面により構成されている場合に、前記特定領域にある少なくとも1つのポリゴン又は曲面の表示、非表示を切り替えることを特徴とする。   In the present embodiment, the image information changing means switches between displaying and hiding at least one polygon or curved surface in the specific area when the cover object is composed of a plurality of polygons or curved surfaces. It is characterized by.

本実施の形態によれば、カバーオブジェクトを構成するポリゴン又は曲面の表示、非表示を切り替えるという画像情報の変更が行われる。カバーオブジェクトのポリゴン等が非表示になると、そのポリゴン等により隠されていた部分での3次元オブジェクトの画像を見ることが可能となり、優れた視覚効果を得ることができる。   According to the present embodiment, the image information is changed by switching between display and non-display of the polygon or curved surface constituting the cover object. When the polygon or the like of the cover object is hidden, an image of the three-dimensional object in the portion hidden by the polygon or the like can be viewed, and an excellent visual effect can be obtained.

また本実施の形態は、前記画像情報変更手段が、前記特定領域におけるカバーオブジェクトの少なくとも一部について不透明、透明を切り替える又は半透明率を変更することを特徴とする。   In addition, the present embodiment is characterized in that the image information changing means switches between opaque and transparent or changes the translucency for at least a part of the cover object in the specific area.

本実施の形態によれば、カバーオブジェクトの一部が不透明から透明に切り替わる、或いは半透明率が変更される。これによりプレーヤは、その部分での3次元オブジェクトの画像を見ることが可能となる。特に半透明率を段階的に変化させ、3次元オブジェクトの画像が徐々に見えてくるようにすれば、視覚効果を一段と向上させることができる。   According to the present embodiment, a part of the cover object is switched from opaque to transparent, or the translucency is changed. As a result, the player can view the image of the three-dimensional object at that portion. In particular, if the translucency is changed stepwise so that the image of the three-dimensional object can be seen gradually, the visual effect can be further improved.

また本実施の形態に係る3次元ゲーム装置は、オブジェクト空間に配置される少なくとも1つの3次元オブジェクト上で、操作手段からの操作情報に基づいて移動体を移動させる演算を行う移動体演算手段と、前記移動体の移動により前記3次元オブジェクトを区分する領域が特定された場合の該特定領域における3次元オブジェクトの画像情報を少なくとも変更する画像情報変更手段と、前記3次元オブジェクトの周囲において前記移動体の移動に追従し且つ前記特定領域における画像の変化の少なくとも一部が見える視点位置、視線方向での視界画像を合成する手段とを含むことを特徴とする。   Further, the three-dimensional game device according to the present embodiment includes a moving object calculation unit that performs an operation of moving the moving object based on operation information from the operation unit on at least one three-dimensional object arranged in the object space. Image information changing means for changing at least image information of the three-dimensional object in the specific region when the region for dividing the three-dimensional object is specified by the movement of the moving body; and the movement around the three-dimensional object And means for synthesizing a field-of-view image in a visual line direction and a viewpoint position at which at least a part of an image change in the specific region can be seen following the movement of the body.

本実施の形態によれば、操作手段からの操作情報に基づいて移動体が3次元オブジェクト上を移動し、この移動により特定された領域における画像情報が変更される。また視点位置等も移動体に移動に追従するため、プレーヤは、自身が移動体を操作することにより次々に変化してゆく3次元オブジェクトの3次元的な画像を楽しむことができる。またプレーヤは、3次元的に形成されたゲームフィールドである3次元オブジェクト上で移動体を移動させてゲームを楽しむことができるため、プレーヤの感じるスリル感、ダイナミック感を大幅に向上できる。   According to the present embodiment, the moving body moves on the three-dimensional object based on the operation information from the operation means, and the image information in the area specified by this movement is changed. Further, since the viewpoint position and the like follow the movement of the moving body, the player can enjoy a three-dimensional image of the three-dimensional object that changes one after another by operating the moving body. In addition, since the player can enjoy the game by moving the moving body on the three-dimensional object that is a three-dimensionally formed game field, the thrill and dynamic feeling felt by the player can be greatly improved.

また本実施の形態に係る3次元ゲーム装置は、オブジェクト空間に配置される少なくとも1つの3次元オブジェクト上で、操作手段からの操作情報に基づいて移動体を移動させる演算を行う移動体演算手段と、前記移動体の移動軌跡が交差することで該移動軌跡を縁とする閉じた領域が特定された場合の該特定領域における3次元オブジェクトの画像情報を少なくとも変更する画像情報変更手段と、オブジェクト空間内の所与の視点位置、視線方向での視界画像を合成する手段とを含むことを特徴とする。   Further, the three-dimensional game device according to the present embodiment includes a moving object calculation unit that performs an operation of moving the moving object based on operation information from the operation unit on at least one three-dimensional object arranged in the object space. An image information changing means for changing at least image information of a three-dimensional object in the specific region when a moving region of the moving body intersects and a closed region having the moving locus as an edge is specified; And a means for synthesizing a field-of-view image in a given viewpoint position and line-of-sight direction.

本実施の形態によれば、移動体の移動軌跡が交差することで領域が特定され、この特定領域での3次元オブジェクトの画像情報が変更される。本実施の形態によれば、例えば3次元オブジェクトの表面をゲームフィールドとした場合に、領域の簡易な特定が可能となる。   According to the present embodiment, the region is specified by the movement trajectories of the moving body intersecting, and the image information of the three-dimensional object in the specific region is changed. According to the present embodiment, for example, when the surface of a three-dimensional object is a game field, a region can be easily specified.

また本実施の形態は、前記画像情報変更手段が、前記特定領域の少なくとも一部にマッピングされるテクスチャを変更することを特徴とする。   Further, the present embodiment is characterized in that the image information changing means changes a texture mapped to at least a part of the specific area.

本実施の形態によれば、マッピングされるテクスチャを変更することで、例えば3次元オブジェクトを覆うカバーオブジェクトのポリゴンを非表示にする手法等と同等の視覚効果を得ることができる。なおテクスチャの変更は、テクスチャを指定するテクスチャ座標を変更してもよいし、テクスチャ自体を描き替えてもよい。   According to the present embodiment, by changing the texture to be mapped, it is possible to obtain a visual effect equivalent to, for example, a method of hiding a polygon of a cover object that covers a three-dimensional object. The texture can be changed by changing the texture coordinates for designating the texture or by redrawing the texture itself.

また本実施の形態は、前記移動体演算手段が、前記カバーオブジェクト又は前記3次元オブジェクトがポリゴンにより形成されている場合に、前記移動体を該ポリゴンの縁上で移動させる演算を該ポリゴンの頂点位置情報に基づいて行うことを特徴とする。   Further, in the present embodiment, when the moving object calculating means performs an operation of moving the moving object on the edge of the polygon when the cover object or the three-dimensional object is formed of a polygon. This is performed based on position information.

本実施の形態によれば、例えばポリゴンの第1の頂点の位置情報と第2の頂点の位置情報とに基づいて、これらの頂点間を移動する移動体の位置情報を求め、これにより第1の頂点と第2の頂点とを結ぶ縁上で移動体を移動させる演算を行うことが可能となる。特にポリゴンの頂点位置情報はポリゴンの表示処理の際にも使用されるため、本実施の形態によれば、表示処理の際に使用する頂点位置情報の有効利用が図れる。   According to the present embodiment, for example, based on the position information of the first vertex and the position information of the second vertex of the polygon, the position information of the moving body that moves between these vertices is obtained, whereby the first information is obtained. It is possible to perform an operation of moving the moving body on the edge connecting the vertex of the second and the second vertex. In particular, since the vertex position information of the polygon is also used in the polygon display processing, according to the present embodiment, the vertex position information used in the display processing can be effectively used.

以下、本発明の具体的な実施形態について図面を用いて説明する。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

図1に本実施例の機能ブロック図を示す。ここで操作部12は、プレーヤが例えばレバー、ボタン(図18(A)の1102、1104参照)を操作して操作情報を入力するためのものであり、操作部12にて得られた操作情報は処理部100に出力される。処理部100は、この操作情報と、所与のプログラム等に基づいて、表示物を表すオブジェクトが複数配置されて成るオブジェクト空間を設定する演算等を行うものであり、ハードウェア的には例えばCPU及びメモリにより構成される。画像合成部200は、この設定されたオブジェクト空間内の所与の視点位置、視線方向での視界画像を合成する演算を行うものであり、ハードウェア的には例えば画像合成専用のIC或いはCPU及びメモリにより構成される。この際にテクスチャマッピングを行う場合には、テクスチャ情報記憶部210に記憶されるテクスチャ情報を用いて画像合成を行う。得られた視界画像は表示部10において表示される。   FIG. 1 shows a functional block diagram of the present embodiment. Here, the operation unit 12 is for a player to input operation information by operating, for example, a lever or a button (see 1102 and 1104 in FIG. 18A). The operation information obtained by the operation unit 12 is used. Is output to the processing unit 100. The processing unit 100 performs an operation for setting an object space in which a plurality of objects representing display objects are arranged based on the operation information, a given program, and the like. And a memory. The image synthesizing unit 200 performs an operation for synthesizing a view field image at a given viewpoint position and line-of-sight direction in the set object space. In terms of hardware, for example, an image synthesizing IC or CPU, Consists of memory. When texture mapping is performed at this time, image synthesis is performed using texture information stored in the texture information storage unit 210. The obtained view field image is displayed on the display unit 10.

図2(A)、(B)、図3(A)、(B)、図4(A)、(B)に、本実施例により得られるゲーム画面(視界画像)の一例を示す。図2(A)に示すように、オブジェクト空間(仮想3次元空間)内には、牛を表す3次元オブジェクト40、この3次元オブジェクト40を覆うように設けられゲームフィールドとなるカバーオブジェクト42、背景を表すオブジェクト(図示せず)等が配置されている。このようなオブジェクト空間へのオブジェクトの配置処理は図1のオブジェクト空間設定部140により行われる。そして操作部12を用いてプレーヤが入力する操作情報に基づいて、図2(B)に示すように自機である移動体44がカバーオブジェクト42上を移動する。なお本実施例では敵キャラクタである移動体46もカバーオブジェクト42上を移動している。これらの移動体を移動させる演算は図1の移動体演算部110において行われる。   2A, 2B, 3A, 3B, 4A, and 4B show an example of the game screen (view image) obtained by the present embodiment. As shown in FIG. 2A, in an object space (virtual three-dimensional space), a three-dimensional object 40 representing a cow, a cover object 42 provided to cover the three-dimensional object 40 and serving as a game field, a background An object (not shown) or the like representing is arranged. Such object placement processing in the object space is performed by the object space setting unit 140 of FIG. Then, based on the operation information input by the player using the operation unit 12, the mobile body 44 as the own device moves on the cover object 42 as shown in FIG. In this embodiment, the moving body 46 that is an enemy character is also moving on the cover object 42. The calculation for moving these moving objects is performed in the moving object calculation unit 110 in FIG.

本実施例では、カバーオブジェクトを区分けする領域が移動体の移動により特定された場合の該特定領域でのカバーオブジェクトの画像情報が変更される。この画像情報の変更は図1の画像情報変更部120により行われる。特に本実施例では、移動体の移動軌跡が交差することで移動軌跡を縁とする閉じた領域が特定された場合の該特定領域でのカバーオブジェクトの画像情報が変更される。具体的には例えば、図2(B)においては、1枚のポリゴンが配置されていた領域36が移動体44の移動により特定され、この領域36に配置されていたポリゴンを非表示にする画像情報の変更が行われている。この場合、領域36に配置されていたポリゴンの縁上を移動体44が移動し、その移動軌跡が交差することで領域36が特定される。領域36の画像情報を変更し、この領域でのポリゴンを非表示にすることで、プレーヤは、3次元オブジェクト40の画像のうち、カバーオブジェクト42により隠されていた部分(牛の皮膚)の画像を見ることが可能となる。   In the present embodiment, the image information of the cover object in the specific area is changed when the area that divides the cover object is specified by the movement of the moving object. The change of the image information is performed by the image information changing unit 120 in FIG. In particular, in the present embodiment, the image information of the cover object in the specific area is changed when the closed area having the movement locus as an edge is specified by the movement locus of the moving body intersecting. Specifically, for example, in FIG. 2B, an area 36 in which one polygon is arranged is specified by the movement of the moving body 44, and the polygon arranged in this area 36 is hidden. Information changes have been made. In this case, the moving body 44 moves on the edge of the polygon arranged in the region 36, and the region 36 is specified by intersecting the movement locus. By changing the image information of the region 36 and hiding the polygons in this region, the player can view an image of the portion (cow skin) hidden by the cover object 42 in the image of the three-dimensional object 40. Can be seen.

特に本実施例では、図2(B)から図3(A)へのゲーム画面の変化から明らかなように、カバーオブジェクト42の周囲において移動体44の移動に追従し且つ特定領域での画像の変化が見える視点位置、視線方向での視界画像が合成される。この場合、視界画像が合成される視点位置、視線方向を設定する処理は、図1の視点設定部130が行う。本実施例では、視点位置等が移動体の移動に追従し、特定領域において変化する画像をプレーヤは見ることができる。このため例えば、プレーヤは、3次元オブジェクト40の画像のうちカバーオブジェクト42により隠されていた部分を様々な角度から注視するように次々と見ることができることになり、従来の2次元ゲーム装置には無い優れた視覚効果を得ることができる。   In particular, in this embodiment, as apparent from the change in the game screen from FIG. 2B to FIG. 3A, the movement of the moving body 44 follows the cover object 42 and the image in the specific area is displayed. A visual field image in the viewpoint position and the line-of-sight direction where the change can be seen is synthesized. In this case, the viewpoint setting unit 130 in FIG. 1 performs the process of setting the viewpoint position and the line-of-sight direction where the view field image is synthesized. In this embodiment, the player can see an image in which the viewpoint position or the like follows the movement of the moving body and changes in a specific area. For this reason, for example, the player can successively watch the portion of the image of the three-dimensional object 40 that is hidden by the cover object 42 from various angles. An excellent visual effect can be obtained.

移動体44は、敵キャラクタである移動体46に捕まらないようにカバーオブジェクト42を構成するポリゴンを次々と非表示にしてゆく。そして図3(B)に示すように、カバーオブジェクト42を構成する全てのポリゴンが非表示になると1つのゲームステージが終了し、次のゲームステージに進む。   The moving body 44 hides the polygons constituting the cover object 42 one after another so as not to be caught by the moving body 46 that is an enemy character. Then, as shown in FIG. 3B, when all the polygons constituting the cover object 42 are hidden, one game stage is finished and the process proceeds to the next game stage.

なお図2(A)、(B)、図3(A)、(B)では、カバーオブジェクト42により1つの3次元オブジェクト40を覆っていたが、2つ以上の3次元オブジェクトをカバーオブジェクトにより覆うようにしてもよい。例えば図4(A)、(B)では、牛乳パックを模したカバーオブジェクト42により、2つの3次元オブジェクト40、41が覆われており、プレーヤは移動体44を操作して、中に配置された3次元オブジェクト40、41が完全に見えるまで、このカバーオブジェクト42を構成するポリゴンを順次非表示にするプレイを行う。   In FIGS. 2A, 2B, 3A, and 3B, one three-dimensional object 40 is covered by the cover object 42, but two or more three-dimensional objects are covered by the cover object. You may do it. For example, in FIGS. 4A and 4B, two three-dimensional objects 40 and 41 are covered with a cover object 42 simulating a milk pack, and the player operates the moving body 44 and arranges it inside. Until the three-dimensional objects 40 and 41 are completely visible, play is performed in which the polygons constituting the cover object 42 are sequentially hidden.

特に図4(A)、(B)のように、3次元オブジェクト40、41をカバーオブジェクト42により完全に覆う場合、縁が無いカバーオブジェクト42を用いることになる。このような場合には、領域の特定には、移動体の移動軌跡が交差することで移動軌跡を縁とする領域を特定する手法が特に有効である。   In particular, as shown in FIGS. 4A and 4B, when the three-dimensional objects 40 and 41 are completely covered with the cover object 42, the cover object 42 having no edge is used. In such a case, a method of specifying a region having the movement locus as an edge by crossing the movement locus of the moving body is particularly effective for specifying the region.

次に本実施例の詳細例について説明する。本実施例では、各ゲームステージのゲームが始まる前に、図5(A)に示す画面が表示される。この画面では、各ゲームステージにおいてプレイ対象となる3次元オブジェクトの識別画像がパネルA〜M等の上に表示される。例えばパネルAには、図2(A)の牛を表した3次元オブジェクト40を簡略化したものが表示される。   Next, a detailed example of the present embodiment will be described. In the present embodiment, the screen shown in FIG. 5A is displayed before the game of each game stage starts. In this screen, identification images of three-dimensional objects to be played in each game stage are displayed on the panels A to M and the like. For example, the panel A displays a simplified version of the three-dimensional object 40 representing the cow in FIG.

図5(B)に示すように、本実施例では、ゲームスタートからゲームエンディングの間に複数のセグメントが設定され、各セグメントの中には複数のゲームステージが配置される。例えばセグメント1、2、3には、ステージA〜C、D〜F、G〜Jが配置される。これらのステージA〜Jは図5(A)のパネルA〜Jに対応するものである。プレーヤは、まずセグメント1の中のゲームステージA〜Cから、ランダムに或いは任意の選択により1つのゲームステージをプレイする。そして例えばプレーヤがゲームステージAをクリアしたとすると、セグメント1の中の他のゲームステージB、Cをプレイすることなく、セグメント2に移行する。そしてプレーヤは、今度は、セグメント2の中のゲームステージD〜Fから、ランダム或いは任意の選択により1つのゲームステージをプレイする。   As shown in FIG. 5B, in this embodiment, a plurality of segments are set between the game start and the game ending, and a plurality of game stages are arranged in each segment. For example, stages A to C, D to F, and G to J are arranged in the segments 1, 2, and 3. These stages A to J correspond to the panels A to J in FIG. The player first plays one game stage from the game stages A to C in the segment 1 randomly or by arbitrary selection. For example, if the player clears the game stage A, the game moves to the segment 2 without playing the other game stages B and C in the segment 1. The player then plays one game stage from the game stages D to F in the segment 2 by random or arbitrary selection.

例えばゲームステージが2分岐構造となっているゲームでは、ゲームエンディングに到達するために、プレーヤは、最初のゲームステージを何度も繰り返さなければならない。これに対して、本実施例のゲームステージ構成によれば、1つのセグメントに含まれるゲームステージを全てプレイしなくても次のセグメントに移ることができる。従って、プレーヤは、それほど時間、プレイ回数を要することなく、趣向が凝らされた終盤のゲームステージをプレイしたりゲームエンディングを見ることができ、ゲームの面白味を大幅に向上できる。しかもゲームスタートからゲームエンディングまで一巡した後、再度リプレイした場合に、プレーヤは、異なったゲーム展開を楽しむことができる。即ちプレーヤは、プレイしなかった他のゲームステージをプレイしたいがために再び最初からゲームをスタートすることになり、これによりプレーヤにリプレイを促すことができる。   For example, in a game in which the game stage has a two-branch structure, the player must repeat the first game stage many times in order to reach the game ending. On the other hand, according to the game stage configuration of the present embodiment, it is possible to move to the next segment without playing all the game stages included in one segment. Therefore, the player can play the final stage game stage and watch the game ending without taking much time and the number of times of playing, and can greatly improve the fun of the game. In addition, the player can enjoy different game developments when the game is re-played again after completing a round from the game start to the game ending. In other words, the player starts the game again from the beginning because he wants to play another game stage that has not been played, thereby prompting the player to replay.

図6に、ゲームステージ選択後に表示されるゲーム画面の例を示す。図6に示すように、本実施例では、3次元オブジェクト40を覆うように、ゲームフィールドとなるカバーオブジェクト42が設けられている。このカバーオブジェクト42は複数のポリゴンにより形成されており、これらのポリゴンの縁であるフィールドフレーム上で自機である移動体44及び敵キャラクタである移動体46〜54が移動する。またゲーム画面上には、制限時間の残りを表すタイマ表示56が映し出されている。   FIG. 6 shows an example of a game screen displayed after the game stage is selected. As shown in FIG. 6, in this embodiment, a cover object 42 serving as a game field is provided so as to cover the three-dimensional object 40. The cover object 42 is formed of a plurality of polygons, and the moving body 44 that is the own machine and the moving bodies 46 to 54 that are enemy characters move on the field frames that are the edges of these polygons. On the game screen, a timer display 56 showing the remaining time limit is displayed.

本実施例では、プレーヤが操作部12のレバー(図18(A)の1102)を倒していない場合でも、自機の移動体44は一定速度で前進する。そしてレバーを上方向に倒すと移動体44は加速し、下方向に倒すと減速する。また図7(A)において、フィールドフレーム(ポリゴンの縁)58の交点(ポリゴンの頂点)60の手前でレバーを左に倒すと矢印61の方向に進み、右に倒すと矢印62の方向に進み、それ以外の場合には、矢印63の方向に進む。プレーヤが操作部12のボタン(図18(A)の1104)を押すと、図7(B)に示すように、ボタンを押した時の移動体44の位置にマーカ64が表示される。そしてそのままボタンを押し続けるとマーカ64と移動体44との間にライン66が引かれる。図7(C)に示すように、ボタンを押し続ける限りこのライン66は伸びて行く。   In this embodiment, even when the player does not tilt the lever of the operation unit 12 (1102 in FIG. 18A), the moving body 44 of the own device moves forward at a constant speed. The moving body 44 accelerates when the lever is tilted upward, and decelerates when the lever is tilted downward. In FIG. 7A, when the lever is tilted to the left before the intersection (polygon vertex) 60 of the field frame (polygon edge) 58, it proceeds in the direction of arrow 61, and when it is tilted to the right, it proceeds in the direction of arrow 62. In other cases, the process proceeds in the direction of arrow 63. When the player presses a button (1104 in FIG. 18A) on the operation unit 12, a marker 64 is displayed at the position of the moving body 44 when the button is pressed, as shown in FIG. 7B. If the button is kept pressed as it is, a line 66 is drawn between the marker 64 and the moving body 44. As shown in FIG. 7C, this line 66 extends as long as the button is kept pressed.

図7(D)において、敵の移動体46、47は所与のアルゴリズムに従って特定の動きをしている。しかし図7(E)に示すように自機の移動体44が引くライン66に接触すると、図7(F)に示すように高速でライン66に沿って移動体44を追いかける。敵に接触すると移動体44は爆発する。そして残機が無くなったり制限時間が尽きるとゲームオーバーとなる。   In FIG. 7D, the enemy moving bodies 46 and 47 have a specific movement according to a given algorithm. However, as shown in FIG. 7E, when the mobile body 44 of the own device contacts the drawing line 66, the mobile body 44 is chased along the line 66 at a high speed as shown in FIG. The moving body 44 explodes when it comes into contact with the enemy. And when the remaining machine runs out or the time limit runs out, the game is over.

一方、図8(A)に示すように、移動体44の移動軌跡であるライン66が交差しライン66を縁とする閉じた領域が特定され、プレーヤがボタンを離すと、この領域68にあったポリゴンが非表示になる。これによりプレーヤは、領域68に配置されていたポリゴンにより隠されていたこの領域68での3次元オブジェクト40(図6参照)の画像を見ることができる。なおプレーヤがボタンを離した時にこの領域68及びライン66上にいた敵の移動体46、47は消滅する。   On the other hand, as shown in FIG. 8A, when the line 66 that is the movement locus of the moving body 44 intersects and a closed area with the line 66 as an edge is specified, and the player releases the button, the area 68 is Hidden polygons are hidden. As a result, the player can see the image of the three-dimensional object 40 (see FIG. 6) in the area 68 hidden by the polygons arranged in the area 68. It should be noted that the enemy moving bodies 46 and 47 on the area 68 and the line 66 disappear when the player releases the button.

本実施例では、図8(B)のようにライン66が引かれた場合には領域69、70に配置されていたポリゴンが非表示になる。また図8(C)のようにライン66が引かれた場合には、ポリゴン71は表示から非表示に切り替わり、ポリゴン72、73、74は非表示から表示に切り替わる。また図8(D)においてポリゴン76はライン66により2重に囲まれたと考え、表示状態を維持する。即ちライン66により複数回囲まれた領域は、その回数分だけ表示、非表示が切り替わる。   In this embodiment, when the line 66 is drawn as shown in FIG. 8B, the polygons arranged in the areas 69 and 70 are not displayed. When the line 66 is drawn as shown in FIG. 8C, the polygon 71 is switched from display to non-display, and the polygons 72, 73, and 74 are switched from non-display to display. Further, in FIG. 8D, it is considered that the polygon 76 is doubly surrounded by the line 66, and the display state is maintained. That is, the area surrounded by the line 66 a plurality of times is switched between display and non-display for that number of times.

なお、画像情報変更部120は少なくとも特定領域における画像を変更するものであればよく、例えば特定領域以外の領域に配置されるポリゴンの方が特定領域に配置されるポリゴンよりも多い場合は、特定領域以外の領域のポリゴンの表示、非表示を切り替えるようにしてもよい。   The image information changing unit 120 only needs to change the image in at least the specific area. For example, if there are more polygons arranged in the area other than the specific area than polygons arranged in the specific area, Display or non-display of polygons in areas other than the areas may be switched.

また図9(A)に示すように、フィールドフレーム58にバイパス59を設けてもよい。また図9(B)に示すように、このバイパス59により、2つの3次元オブジェクト40、41間を行き来できるようにしてもよい。更に図9(C)に示すように、演出効果を高めるために、非表示となるポリゴンをバラバラにして飛ばすようにしてもよい。   Further, as shown in FIG. 9A, a bypass 59 may be provided in the field frame 58. Further, as shown in FIG. 9B, the bypass 59 may be used to go back and forth between the two three-dimensional objects 40 and 41. Further, as shown in FIG. 9C, in order to enhance the effect, the polygons that are not displayed may be scattered apart.

次に移動体をカバーオブジェクト上で移動させる手法の一例について説明する。本実施例では、カバーオブジェクトがポリゴンにより形成されている場合に、移動体をポリゴンの縁上で移動させる演算を、ポリゴンの頂点位置情報に基づいて行っている。そのために本実施例では、まず、図10(A)に示すような頂点関係リストを用いる。この頂点関係リストは、カバーオブジェクトを構成するポリゴンの頂点の各々について格納エリアを有し、各格納エリアには、その頂点を参照するための頂点インデックス、その頂点のワールド(絶対)座標系での位置情報、その頂点の下隣、左隣、上隣、右隣にある頂点のインデックス等が格納されている。図10(B)に示すカバーオブジェクト42を構成するポリゴン78の頂点V7を例にとれば、頂点関係リストには、頂点V7のインデックスV7、位置情報(XV7、YV7、ZV7)、頂点V7の下隣、左隣、上隣、右隣にある頂点のインデックスV2、V6、V12、V8が格納されている。このような頂点関係リストは、オブジェクト情報の1つである頂点位置リスト(図11(B)参照)に基づいて容易に作成することができる。 Next, an example of a method for moving the moving object on the cover object will be described. In this embodiment, when the cover object is formed of polygons, the calculation for moving the moving body on the edges of the polygons is performed based on the vertex position information of the polygons. Therefore, in this embodiment, first, a vertex relation list as shown in FIG. This vertex relation list has a storage area for each of the vertices of the polygon constituting the cover object. Each storage area has a vertex index for referring to the vertex, and the vertex in the world (absolute) coordinate system. The position information, the indices of the vertices at the bottom, left, top, and right of the vertex are stored. Taking the vertex V7 of the polygon 78 constituting the cover object 42 shown in FIG. 10B as an example, the vertex relationship list includes the index V7 of the vertex V7, position information (X V7 , Y V7 , Z V7 ), vertex The indices V2, V6, V12, and V8 of vertices on the lower side, the left side, the upper side, and the right side of V7 are stored. Such a vertex relation list can be easily created based on a vertex position list (see FIG. 11B) which is one of object information.

図10(B)に示すように、移動体44が頂点V7に向かって移動している場合を考える。この時、図1の移動体演算部110は、移動体44がV7に到達した時或いは到達時よりも所与の時間前において、レバーがどちらの方向に倒されているかを検出する。この時、移動体44がV7に到達したか否かの判断は、頂点関係リストの中の頂点V2、V7の格納エリアに格納される頂点V2、V7の位置情報に基づいて行う。例えば検出時にレバーが左に倒されていたとすると、移動体演算部110は、頂点関係リストの中の頂点V7の格納エリアから、左隣にある頂点のインデックスを読み出す。この場合には左隣の頂点インデックスはV6であるため、移動体演算部110は、次に、頂点関係リストの中の頂点V6の格納エリアから頂点V6の位置情報を読み出す。そして頂点V6、V7の位置情報に基づいて移動体44の移動すべき軌道を求め、この軌道上で移動体44を微少期間毎(例えば1/60秒毎)に移動させる演算を行う。そして、この軌道上を移動する移動体44のワールド座標系での位置情報をオブジェクト空間設定部140に順次出力する。オブジェクト空間設定部140は、この位置情報等に基づいて、移動体44を含む複数のオブジェクトをオブジェクト空間内に配置設定する処理を行う。画像合成部200は、この設定情報に基づいて画像合成を行う。このようにして、ポリゴンの縁であるフィールドフレーム上を移動する移動体44の画像を得ることができる。   As shown in FIG. 10B, consider a case where the moving body 44 is moving toward the vertex V7. At this time, the moving body computing unit 110 in FIG. 1 detects in which direction the lever is tilted when the moving body 44 reaches V7 or a given time before the arrival. At this time, whether or not the moving body 44 has reached V7 is determined based on the position information of the vertices V2 and V7 stored in the storage area of the vertices V2 and V7 in the vertex relation list. For example, if the lever is tilted to the left at the time of detection, the mobile object computation unit 110 reads the index of the vertex next to the left from the storage area of the vertex V7 in the vertex relationship list. In this case, since the vertex index on the left side is V6, the moving object computation unit 110 next reads the position information of the vertex V6 from the storage area of the vertex V6 in the vertex relation list. Based on the position information of the vertices V6 and V7, a trajectory to be moved by the moving body 44 is obtained, and an operation for moving the moving body 44 every minute period (for example, every 1/60 seconds) on the trajectory is performed. Then, position information in the world coordinate system of the moving body 44 moving on the trajectory is sequentially output to the object space setting unit 140. The object space setting unit 140 performs processing for setting a plurality of objects including the moving body 44 in the object space based on the position information and the like. The image composition unit 200 performs image composition based on the setting information. In this way, an image of the moving body 44 that moves on the field frame that is the edge of the polygon can be obtained.

一方、頂点V7への到達時又は所与の時間前に、レバーが右に倒された場合には頂点V8の格納エリアの読み出しを行い、レバーが左にも右にも倒されなかった場合には頂点V12の格納エリアの読み出しを行い、上記と同様の処理を行う。また敵の移動体を移動させる処理も自機の場合と同様にして実現できる。   On the other hand, when the lever is tilted to the right when reaching the vertex V7 or before a given time, the storage area of the vertex V8 is read, and the lever is not tilted to the left or right. Reads out the storage area of the vertex V12 and performs the same processing as described above. In addition, the process of moving the enemy moving body can be realized in the same manner as in the case of the own aircraft.

このように本実施例によれば、ポリゴンの頂点位置情報を利用して移動体をポリゴンの縁上で移動させているため、簡易な処理、少ないデータ量で移動体をカバーオブジェクト上で移動させることが可能となる。特に図10(A)の頂点関係リストは、カバーオブジェクトの頂点位置リスト(図11(B)参照)から容易に作成でき、またこれらのリスト間でデータを共有化できるという利点がある。   As described above, according to the present embodiment, the moving body is moved on the edge of the polygon using the vertex position information of the polygon. Therefore, the moving body is moved on the cover object with a simple process and a small amount of data. It becomes possible. In particular, the vertex relationship list in FIG. 10A can be easily created from the vertex position list of the cover object (see FIG. 11B), and there is an advantage that data can be shared between these lists.

次に画像情報変更部120による画像情報の変更処理について説明する。本実施例では、画像情報変更部120は、カバーオブジェクトの特定領域にあるポリゴンの表示、非表示を切り替える処理を行っている。   Next, image information changing processing by the image information changing unit 120 will be described. In the present embodiment, the image information changing unit 120 performs a process of switching between display and non-display of polygons in a specific area of the cover object.

図11(A)に、カバーオブジェクト42の一例を示す。この例では、カバーオブジェクト42は12枚のポリゴンにより構成されている。このカバーオブジェクト42を表示するために、オブジェクト空間設定部140は、図11(B)に示す頂点位置リストと、図11(C)に示すポリゴン情報リストを作成し、これらを画像合成部200に出力している。カバーオブジェクト以外の他のオブジェクトについても同様である。ここで頂点位置リストは、図11(B)に示すように、オブジェクトを構成するポリゴンの頂点の各々について格納エリアを有し、各格納エリアには、その頂点を参照するためのインデックス、その頂点のワールド座標系での位置情報が格納されている。またポリゴン情報リストは、図11(C)に示すように、オブジェクトを構成するポリゴンの各々について格納エリアを有し、各格納エリアには、そのポリゴンの識別情報、そのポリゴンを構成する頂点のインデックスの並び情報、そのポリゴンにマッピングするテクスチャのテクスチャ空間での座標、そのポリゴンに設定する半透明率等を含むポリゴン情報が格納されている。ポリゴンP0を例にとれば、頂点インデックスの並び情報はV0−V1−V7−V6となっており、この情報に基づいて図11(B)の頂点位置リストを参照することで、ポリゴンP0を構成する頂点の位置情報を特定することができる。またポリゴンP0のテクスチャ座標は(U0(P0),V0(P0))〜(U3(P0),V3(P0))となっており、画像合成部200内のテクスチャマッピング部202がこの(U0(P0),V0(P0))〜(U3(P0),V3(P0))で指定されるテクスチャ情報をテクスチャ情報記憶部210から読み出すことでポリゴンP0へのテクスチャマッピングが行われる。またポリゴンP0の半透明率はTP0となっており、画像合成部200内の半透明演算部204がこのTP0を用いて所与の半透明演算を行うことで、ポリゴンP0を半透明にすることができる。半透明の演算は、例えば対象となるポリゴンの色と、このポリゴンの後ろに位置する表示物の色とをブレンドする処理を行うこと等で実現される。 FIG. 11A shows an example of the cover object 42. In this example, the cover object 42 is composed of 12 polygons. In order to display the cover object 42, the object space setting unit 140 creates a vertex position list shown in FIG. 11B and a polygon information list shown in FIG. Output. The same applies to objects other than the cover object. Here, as shown in FIG. 11B, the vertex position list has a storage area for each of the polygon vertices constituting the object, and each storage area has an index for referring to the vertex, and the vertex. Stores position information in the world coordinate system. Further, as shown in FIG. 11C, the polygon information list has a storage area for each of the polygons constituting the object, and each storage area has identification information for the polygon and an index of the vertex constituting the polygon. Is stored, polygon information including coordinates in the texture space of the texture to be mapped to the polygon, translucency set for the polygon, and the like. Taking the polygon P0 as an example, the vertex index arrangement information is V0-V1-V7-V6, and the polygon P0 is constructed by referring to the vertex position list of FIG. 11B based on this information. The position information of the vertex to be performed can be specified. The texture coordinates of the polygon P0 are (U 0 (P0) , V 0 (P0) ) to (U 3 (P0) , V 3 (P0) ), and the texture mapping unit 202 in the image composition unit 200 is The texture mapping specified by (U 0 (P 0) , V 0 (P 0) ) to (U 3 (P 0) , V 3 (P 0) ) is read from the texture information storage unit 210, thereby texture mapping to the polygon P 0. Is done. Further, the translucency of the polygon P0 is TP0, and the translucent operation unit 204 in the image composition unit 200 performs a given translucent operation using this TP0 to make the polygon P0 translucent. Can do. The translucent calculation is realized, for example, by performing a process of blending the color of the target polygon and the color of the display object located behind the polygon.

なおグーローシェーディング等の輝度演算処理を行う場合には、ポリゴン情報の中に頂点法線ベクトル情報或いは頂点輝度情報(或いはこれらのインデックス)を含めればよい。   When performing luminance calculation processing such as Gouraud shading, vertex normal vector information or vertex luminance information (or an index thereof) may be included in the polygon information.

カバーオブジェクトの特定領域にあるポリゴンを表示から非表示に切り替える処理は、図11(C)のポリゴン情報リストから、非表示にするポリゴンの格納エリアを削除することで実現できる。例えば移動体がポリゴンP1の縁上を移動し、ポリゴンP1が特定され非表示にすることが決定された場合には、図11(C)のポリゴン情報リストからポリゴンP1の格納エリアの部分を削除する。このようにすることで画像合成部200によるポリゴンP1の画像合成が省略され、ポリゴンP1を非表示にすることができる。   The process of switching the polygons in the specific area of the cover object from display to non-display can be realized by deleting the storage area of the polygons to be hidden from the polygon information list in FIG. For example, when the moving body moves over the edge of the polygon P1 and the polygon P1 is specified and determined not to be displayed, the portion of the storage area of the polygon P1 is deleted from the polygon information list of FIG. To do. By doing so, the image composition of the polygon P1 by the image composition unit 200 is omitted, and the polygon P1 can be hidden.

次に視点位置、視線方向の設定について説明する。本実施例では、カバーオブジェクトの周囲において移動体の移動に追従し且つ移動体の移動により特定された領域における画像の変化の少なくとも一部が見えるように、視点位置、視線方向を設定する。この設定は、図1の視点設定部130が、移動体演算部110で求められた移動体の位置情報等に基づいて行う。図12(A)において、視点位置82は仮想カメラ80の位置であり、視線方向84は仮想カメラ80の向く方向である。表示部10では、この視点位置82、視線方向84での視界画像が表示される(図2(B)参照)。但し本実施例では、仮想カメラ80の移動に対して慣性が働くと仮定してあり、図12(A)に示す視点位置82は、この慣性の働きを無視した時の目標視点位置である。この目標視点位置は、図12(A)に示すように、自機の移動体44の真上から進行方向と逆方向に一定の距離Lだけシフトした位置に設定されている。   Next, setting of the viewpoint position and the line-of-sight direction will be described. In this embodiment, the viewpoint position and the line-of-sight direction are set so that the movement of the moving body follows the cover object and at least a part of the image change in the area specified by the movement of the moving body can be seen. This setting is performed by the viewpoint setting unit 130 in FIG. 1 based on the position information of the moving object obtained by the moving object calculating unit 110. In FIG. 12A, the viewpoint position 82 is the position of the virtual camera 80, and the line-of-sight direction 84 is the direction in which the virtual camera 80 faces. The display unit 10 displays a field-of-view image at the viewpoint position 82 and the line-of-sight direction 84 (see FIG. 2B). However, in this embodiment, it is assumed that inertia acts on the movement of the virtual camera 80, and the viewpoint position 82 shown in FIG. 12A is a target viewpoint position when this inertia action is ignored. As shown in FIG. 12 (A), this target viewpoint position is set to a position shifted by a certain distance L in the direction opposite to the traveling direction from directly above the moving body 44 of the own device.

仮想カメラ80は、図12(B)に示すように、自機の移動体44との間で一定の高度を保ちながら移動する。この高度を目標視点高さとする。また仮想カメラ80の高さ方向の移動にも慣性が働くと仮定する。これにより図12(B)に示すように、移動体44が、高度差のあるゲームフィールドを移動すると、図12(B)のFに示すように仮想カメラ80がズームしたりすることになる。   As shown in FIG. 12B, the virtual camera 80 moves while maintaining a constant altitude with the moving body 44 of the own device. This altitude is the target viewpoint height. Further, it is assumed that inertia also acts on the movement of the virtual camera 80 in the height direction. Accordingly, as shown in FIG. 12B, when the moving body 44 moves in a game field having a difference in altitude, the virtual camera 80 zooms as shown in F of FIG. 12B.

また本実施例では、移動体44の速度は、レバーを下に倒した時に低速、上に倒した時に高速、何もしなかった場合に中速となる(レバーを下に倒した時に下に移動し、上に倒した時に上に移動し、何もしなかった時に停止するようにしてもよい)。移動体44が低速か、中速か、高速かにより、図12(C)に示すように、移動体の真上の位置と目標視点位置との距離L(図12(A)も参照)が変化する。高速で移動する移動体44に対してはカメラ80は後ろに取り残され、低速の場合には真上に近い位置からの視界画像が合成されることになる。   In this embodiment, the speed of the moving body 44 is low when the lever is tilted down, high when the lever is tilted up, and medium when no action is taken (moves downward when the lever is tilted down). Or move up when you defeat it and stop when you do nothing). Depending on whether the moving body 44 is low speed, medium speed, or high speed, as shown in FIG. 12C, the distance L between the position just above the moving body and the target viewpoint position (see also FIG. 12A). Change. The camera 80 is left behind with respect to the moving body 44 that moves at a high speed, and in the case of a low speed, a view field image from a position close to directly above is synthesized.

以上のように本実施例では、視界画像を合成する視点位置、視線方向が移動体の移動に追従する。そして図2(B)に示すように、移動体44の移動により特定された領域36での画像の変化(この例ではポリゴンの表示、非表示)の少なくと一部が見える位置に視点位置、視線方向が設定される。これによりプレーヤは、自らの操作で移動体44を操作してプレーヤが所望する領域を特定し、その特定された領域での画像の変化を楽しむことができる。図2(B)の例では、領域36でのポリゴンが非表示になることで、3次元オブジェクトの、領域36のポリゴンにより隠されていた部分を見るという楽しみを得ることができる。また3次元的に形成されるカバーオブジェクト42上のどの位置に移動体44が移動しても、視点位置、視線方向はこの移動体44の移動に追従する。この結果、カバーオブジェクト42により覆われていた部分の3次元オブジェクト40が次第に見えてくる様子をプレーヤは楽しむことができ、しかもこの時に見える画像は3次元画像になるため、ゲームの面白味を格段に向上できる。   As described above, in this embodiment, the viewpoint position and the line-of-sight direction for combining the view field images follow the movement of the moving body. Then, as shown in FIG. 2B, the viewpoint position is set at a position where at least a part of the image change (in this example, display or non-display of polygons) in the region 36 specified by the movement of the moving body 44 can be seen. The line-of-sight direction is set. Accordingly, the player can operate the moving body 44 by his / her own operation to specify the area desired by the player and enjoy the change of the image in the specified area. In the example of FIG. 2B, since the polygon in the region 36 is not displayed, it can be enjoyed that the portion of the three-dimensional object hidden by the polygon in the region 36 is seen. In addition, regardless of the position on the cover object 42 that is formed three-dimensionally, the viewpoint position and the line-of-sight direction follow the movement of the moving body 44. As a result, the player can enjoy the appearance that the portion of the three-dimensional object 40 covered by the cover object 42 gradually appears, and the image that can be seen at this time becomes a three-dimensional image. It can be improved.

以上では、特定領域での画像情報を変更する例として、移動体の移動により特定された領域でのポリゴンを非表示にする手法について説明した。この手法では、図13(A)に示すように、3次元オブジェクト40を覆うカバーオブジェクト42を構成するポリゴン(又は曲面)のうち、特定領域に配置されるポリゴン86を消滅させる。このようにすることで、特定領域にあったポリゴン86により隠されていた部分の3次元オブジェクトの画像を見ることができるようになる。ポリゴン86の表示、非表示の切り替えは、既に説明したように、図1の画像情報変更部120が、図11(C)のポリゴン情報リストからポリゴン86のポリゴン情報を消去したり生成したりすることで実現できる。   As described above, as an example of changing the image information in the specific area, the method of hiding the polygon in the area specified by the movement of the moving body has been described. In this method, as shown in FIG. 13A, among the polygons (or curved surfaces) constituting the cover object 42 covering the three-dimensional object 40, the polygons 86 arranged in the specific area are extinguished. By doing in this way, it becomes possible to see the image of the three-dimensional object of the part hidden by the polygon 86 in the specific area. As described above, the display / non-display switching of the polygon 86 is performed by the image information changing unit 120 in FIG. 1 deleting or generating the polygon information of the polygon 86 from the polygon information list in FIG. This can be achieved.

しかしながら画像情報の変更手法としては、これ以外にも種々ものを考えることができる。   However, various other image information changing methods can be considered.

例えば図13(B)に示す画像情報の変更手法では、カバーオブジェクトを構成するポリゴン(又は曲面)のうち特定領域に配置されるポリゴン86の半透明率を変更している(透明にしてもよい)。このようにしても、ポリゴン86により隠されていた部分の3次元オブジェクト40の画像を見ることができるようになる。特にこの手法によれば、半透明率を不透明から透明に向かって徐々に変化させること等により、図13(A)よりも更に優れた視覚効果を得ることができる。半透明率の変更は、例えば図11(C)のポリゴン情報リストにおいて、ポリゴン86のポリゴン情報に含まれる半透明率を、画像情報変更部120が変更することで実現できる。   For example, in the image information changing method shown in FIG. 13B, the translucency of the polygon 86 arranged in a specific area among the polygons (or curved surfaces) constituting the cover object is changed (it may be made transparent). ). Even in this case, the image of the three-dimensional object 40 in the portion hidden by the polygon 86 can be seen. In particular, according to this method, a visual effect better than that of FIG. 13A can be obtained by gradually changing the translucency from opaque to transparent. The change of the translucency can be realized by the image information changing unit 120 changing the translucency included in the polygon information of the polygon 86 in the polygon information list of FIG.

また図13(C)に示す画像情報の変更手法では、特定領域にありカバーオブジェクト42を構成するポリゴン(又は曲面)86にマッピングするテクスチャを指定するテクスチャ座標を、テクスチャ87を指定するテクスチャ座標からテクスチャ88を指定するテクスチャ座標に変更している。ここでテクスチャ88は透明又は半透明のテクスチャであり、このように透明又は半透明のテクスチャ88をポリゴン86にマッピングすることにより、不透明のテクスチャ87がマッピングされていたポリゴン86により隠されていた部分の3次元オブジェクト40の画像を見ることができるようになる。なおテクスチャ88の全てを透明又は半透明にする必要はなく、一部のみを透明又は半透明にしてもよい。ポリゴンにマッピングするテクスチャの変更は、例えば図11(C)のポリゴン情報リストにおいて、ポリゴン86のポリゴン情報に含まれるテクスチャ座標(テクスチャ平面でのUV座標。テクスチャ情報記憶部210のテクスチャ情報を格納するアドレス)を、画像情報変更部120が変更することで実現できる。   Further, in the image information changing method shown in FIG. 13C, the texture coordinates for designating the texture to be mapped to the polygon (or curved surface) 86 in the specific area and constituting the cover object 42 are changed from the texture coordinates for designating the texture 87. The texture 88 is changed to the texture coordinates that specify it. Here, the texture 88 is a transparent or translucent texture. By mapping the transparent or translucent texture 88 to the polygon 86 in this way, a portion hidden by the polygon 86 to which the opaque texture 87 is mapped. The image of the three-dimensional object 40 can be viewed. Note that it is not necessary to make all of the texture 88 transparent or translucent, and only part of it may be transparent or translucent. The texture to be mapped to the polygon is changed by, for example, storing texture coordinates (UV coordinates on the texture plane, texture information in the texture information storage unit 210) included in the polygon information of the polygon 86 in the polygon information list of FIG. Address) is changed by the image information changing unit 120.

また図13(D)に示す画像情報の変更手法では、カバーオブジェクト42の一部又は全部にマッピングするテクスチャ自体を、テクスチャ89からテクスチャ90に描き替えている。テクスチャ90は、テクスチャ89を描き替え、領域91の部分を透明又は半透明にすることで生成される。このテクスチャ90をカバーオブジェクト42にマッピングすることで、領域91に対応する部分での3次元オブジェクト40の画像を見ることができる。カバーオブジェクト42にマッピングするテクスチャの描き替えは、画像情報変更部120が、RAM等により構成されるテクスチャ情報記憶部210に記憶されるテクスチャ情報の内容を描き替えることにより実現できる。即ちカバーオブジェクト42に割り当てられたテクスチャ座標位置に格納されるテクスチャを、テクスチャ89からテクスチャ90に描き替える。この手法によれば、図13(A)〜(C)と異なり、画像情報の変更を必ずしもポリゴン毎に行わなくてもよくなる。このため例えば移動体をポリゴンの縁上のみならず、カバーオブジェクト42上の任意の位置を移動させ、その移動により特定された領域での画像情報を変更することを容易に実現できる。   In the image information changing method shown in FIG. 13D, the texture itself mapped to a part or all of the cover object 42 is redrawn from the texture 89 to the texture 90. The texture 90 is generated by redrawing the texture 89 and making the region 91 transparent or translucent. By mapping this texture 90 to the cover object 42, an image of the three-dimensional object 40 at a portion corresponding to the region 91 can be seen. The redrawing of the texture to be mapped to the cover object 42 can be realized by the image information changing unit 120 redrawing the contents of the texture information stored in the texture information storage unit 210 configured by a RAM or the like. That is, the texture stored at the texture coordinate position assigned to the cover object 42 is redrawn from the texture 89 to the texture 90. According to this method, unlike in FIGS. 13A to 13C, it is not always necessary to change image information for each polygon. For this reason, for example, it is possible to easily move the moving body not only on the edge of the polygon but also to an arbitrary position on the cover object 42 and change the image information in the area specified by the movement.

さて以上の説明では、3次元オブジェクトを覆うカバーオブジェクトの画像情報を変更していたが、このようなカバーオブジェクトを設けず、3次元オブジェクト自体の画像情報を変更するようにしてもよい。   In the above description, the image information of the cover object covering the three-dimensional object is changed. However, such a cover object may not be provided, and the image information of the three-dimensional object itself may be changed.

例えば図14(A)に示す画像情報の変更手法では、3次元オブジェクト40を構成するポリゴン(又は曲面)92にマッピングするテクスチャを指定するテクスチャ座標を、テクスチャ93を指定するテクスチャ座標からテクスチャ94を指定するテクスチャ座標に変更している。ここでテクスチャ93は、図13(C)のカバーオブジェクト42のポリゴン86にマッピングされるテクスチャと同様のものである。またテクスチャ94は、図13(C)でポリゴン86を透明又は半透明にした時に見える3次元オブジェクト40の画像を表すものである。図2(B)の場合を例にとれば、カバーオブジェクト42の模様がテクスチャ93になり、領域36にあったポリゴンを非表示にした時に見える3次元オブジェクト40の画像、即ち領域36での牛の皮膚の模様がテクスチャ94になる。このような手法を用いることで、カバーオブジェクトのポリゴンを非表示にしたり、該ポリゴンの半透明率を変えたり、カバーオブジェクトにマッピングするテクスチャを変えたりするのと、ほぼ同様の視覚効果を得ることができる。ポリゴン92にマッピングするテクスチャの変更は、例えば図11(C)のポリゴン情報リストにおいて、ポリゴン92のポリゴン情報に含まれるテクスチャ座標を、画像情報変更部120が変更することで実現できる。   For example, in the image information changing method shown in FIG. 14A, the texture coordinates that specify the texture to be mapped to the polygon (or curved surface) 92 that constitutes the three-dimensional object 40 are changed from the texture coordinates that specify the texture 93 to the texture 94. The texture coordinates have been changed. Here, the texture 93 is the same as the texture mapped to the polygon 86 of the cover object 42 in FIG. The texture 94 represents an image of the three-dimensional object 40 that can be seen when the polygon 86 is made transparent or translucent in FIG. Taking the case of FIG. 2B as an example, the pattern of the cover object 42 becomes the texture 93, and the image of the three-dimensional object 40 that is visible when the polygon in the area 36 is hidden, that is, the cow in the area 36. The texture of the skin becomes the texture 94. By using such a method, the same visual effects can be obtained as when the polygon of the cover object is hidden, the translucency of the polygon is changed, or the texture mapped to the cover object is changed. Can do. The texture to be mapped to the polygon 92 can be changed by the image information changing unit 120 changing the texture coordinates included in the polygon information of the polygon 92 in the polygon information list of FIG.

また図14(B)に示す画像情報の変更手法では、3次元オブジェクト40の一部又は全部にマッピングするテクスチャ自体を、テクスチャ96からテクスチャ97に変更している。テクスチャ96とテクスチャ97とは、領域98での画像が異なっている。領域98は、例えば図13(D)で領域91を透明又は半透明にした時に見える3次元オブジェクト40の画像と同様のものに描き替えられる。図2(B)の場合を例にとれば、領域98でのテクスチャは、牛の皮膚を表す模様に描き替えられる。このようにすることで、カバーオブジェクトのポリゴンを非表示にすること等と、ほぼ同一の視覚効果を得ることができる。3次元オブジェクト40にマッピングするテクスチャの描き替えは、画像情報変更部120が、RAM等により構成されるテクスチャ情報記憶部210に記憶されるテクスチャ情報の内容を描き替えることにより実現できる。この手法によれば、図14(A)と異なり、画像情報の変更を必ずしもポリゴン毎に行わなくてもよくなる。このため例えば移動体をポリゴンの縁上のみならず、3次元オブジェクト40上の任意の位置を移動させ、その移動により特定された領域での画像情報を変更することを容易に実現できる。   In the image information changing method shown in FIG. 14B, the texture itself mapped to a part or all of the three-dimensional object 40 is changed from the texture 96 to the texture 97. The texture 96 and the texture 97 have different images in the region 98. For example, the region 98 is redrawn to be the same as the image of the three-dimensional object 40 that can be seen when the region 91 is made transparent or translucent in FIG. Taking the case of FIG. 2B as an example, the texture in the region 98 is redrawn with a pattern representing cow's skin. By doing so, it is possible to obtain almost the same visual effect as non-display of the polygon of the cover object. The redrawing of the texture to be mapped to the three-dimensional object 40 can be realized by the image information changing unit 120 redrawing the content of the texture information stored in the texture information storage unit 210 configured by a RAM or the like. According to this method, unlike FIG. 14A, it is not always necessary to change image information for each polygon. For this reason, for example, it is possible to easily move the moving body not only on the edge of the polygon but also to an arbitrary position on the three-dimensional object 40 and change the image information in the area specified by the movement.

なお図13(A)〜(D)に示すカバーオブジェクトの画像情報を変更する手法には、(1)3次元オブジェクトの形状とカバーオブジェクトの形状が異なっている場合でも適用可能である(2)1つの3次元オブジェクトに複数のカバーオブジェクトを組み合わせることで異なる様々な画像を得ることができる(3次元オブジェクトを共用できる)(3)カバーオブジェクトを構成するポリゴン(又は曲面)の表示、非表示を切り替えるだけで画像情報の変更が可能となる等の利点がある。一方、図14(A)、(B)に示す3次元オブジェクトの画像情報を変更する手法には、(1)カバーオブジェクトが必要ないためデータ容量を節約できる(2)透明、半透明の機能を有しない装置でも実現可能である等の利点がある。   Note that the method of changing the image information of the cover object shown in FIGS. 13A to 13D can be applied even when the shape of the three-dimensional object is different from the shape of the cover object (2). A variety of different images can be obtained by combining a plurality of cover objects with one 3D object (3D objects can be shared). (3) Display or non-display of polygons (or curved surfaces) constituting a cover object There is an advantage that image information can be changed only by switching. On the other hand, in the method of changing the image information of the three-dimensional object shown in FIGS. 14A and 14B, (1) a cover object is not necessary, so that data capacity can be saved. (2) Transparent and translucent functions are provided. There is an advantage that it can be realized even with a device that does not have.

次に本実施例の動作について図15、図16のフローチャートを用いて説明する。図15は、図13(A)〜(D)の手法に対応するフローチャートである。まず操作部12によりプレーヤが操作情報を入力し、この操作情報に基づいて移動体をカバーオブジェクト上で移動させる処理を行う(ステップS1、S2)。移動体をポリゴンの縁上で移動させる場合には、図10(A)、(B)で説明したようにポリゴンの頂点位置情報を用いて上記処理を行う。次に、移動体の移動により領域が特定された否かを判断する(ステップS3)。例えば図8(A)〜(D)の場合では、移動体の移動軌跡が交差することでこの移動軌跡を縁とする閉じた領域が特定される。そして領域が特定された場合には、図13(A)〜(D)に示すような種々の手法でカバーオブジェクトの画像情報を変更する(ステップS4)。そして所与の視点位置、視線方向、例えば移動体に追従し且つ画像の変化が見える視点位置、視線方向での視界画像を合成する(ステップS5)。   Next, the operation of this embodiment will be described with reference to the flowcharts of FIGS. FIG. 15 is a flowchart corresponding to the method of FIGS. First, the player inputs operation information through the operation unit 12, and based on this operation information, a process of moving the moving body on the cover object is performed (steps S1 and S2). When the moving body is moved on the edge of the polygon, the above processing is performed using the vertex position information of the polygon as described with reference to FIGS. Next, it is determined whether or not the area is specified by the movement of the moving body (step S3). For example, in the case of FIGS. 8A to 8D, a closed region having the movement locus as an edge is specified by the movement locus of the moving body intersecting. When the area is specified, the image information of the cover object is changed by various methods as shown in FIGS. 13A to 13D (step S4). Then, a view field image in the given viewpoint position and line-of-sight direction, for example, the viewpoint position and line-of-sight direction that follows the moving body and at which the image changes can be seen is synthesized (step S5).

図16は、図14(A)、(B)の手法に対応するフローチャートである。図15との違いは、ステップT2において移動体をカバーオブジェクトではなく3次元オブジェクト上で移動させる点、及び、ステップT4においてカバーオブジェクトではなく3次元オブジェクトの画像情報を変更する点である。   FIG. 16 is a flowchart corresponding to the method of FIGS. 14 (A) and 14 (B). The difference from FIG. 15 is that the moving body is moved on the three-dimensional object instead of the cover object in step T2, and the image information of the three-dimensional object, not the cover object, is changed in step T4.

次に、本実施例のハードウェア構成の一例について図17を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音合成IC1008、画像合成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像合成IC1010にはディスプレイ1018が接続され、音合成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。   Next, an example of the hardware configuration of the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, a sound synthesis IC 1008, an image synthesis IC 1010, and I / O ports 1012, 1014 are connected to each other via a system bus 1016 so that data can be transmitted and received. A display 1018 is connected to the image synthesis IC 1010, a speaker 1020 is connected to the sound synthesis IC 1008, a control device 1022 is connected to the I / O port 1012, and a communication device 1024 is connected to the I / O port 1014. Has been.

情報記憶媒体1006は、ゲームプログラム、表示物を表現するための画像情報等が主に格納されるものであり、CD−ROM、ゲームカセット、ICカード、MO、FD、メモリ等が用いられる。例えば家庭用ゲーム装置ではゲームプログラム等を格納する情報記憶媒体としてCD−ROM、ゲームカセットが、業務用ゲーム装置ではROM等のメモリが用いられる。   The information storage medium 1006 mainly stores game programs, image information for representing display objects, and the like, and a CD-ROM, game cassette, IC card, MO, FD, memory, or the like is used. For example, a home game device uses a CD-ROM or game cassette as an information storage medium for storing a game program or the like, and an arcade game device uses a memory such as a ROM.

コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。   The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of a determination made by the player in accordance with the progress of the game to the device main body.

情報記憶媒体1006に格納されるゲームプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また頂点関係リスト(図10(A))、頂点位置リスト(図11(B))、ポリゴン情報リスト(図11(C))等の論理的な構成を持つデータ構造は、このRAM又は情報記憶媒体上に構築されることになる。   In accordance with a game program stored in the information storage medium 1006, a system program stored in the ROM 1002 (such as device initialization information), a signal input by the control device 1022, the CPU 1000 controls the entire device and performs various data processing. Do. The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000. A data structure having a logical structure such as a vertex relation list (FIG. 10A), a vertex position list (FIG. 11B), a polygon information list (FIG. 11C), etc. is stored in this RAM or information storage. It will be built on the medium.

更に、この種の装置には音合成IC1008と画像合成IC1010とが設けられていてゲーム音やゲーム画面の好適な出力が行えるようになっている。音合成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を合成する集積回路であり、合成されたゲーム音はスピーカ1020によって出力される。また、画像合成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を合成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。   Furthermore, this type of apparatus is provided with a sound synthesis IC 1008 and an image synthesis IC 1010 so that game sounds and game screens can be suitably output. The sound synthesis IC 1008 is an integrated circuit that synthesizes game sounds such as sound effects and background music based on information stored in the information storage medium 1006 and the ROM 1002, and the synthesized game sounds are output by the speaker 1020. The image synthesis IC 1010 is an integrated circuit that synthesizes pixel information to be output to the display 1018 based on image information sent from the RAM 1004, the ROM 1002, the information storage medium 1006, and the like. As the display 1018, a so-called head mounted display (HMD) can be used.

また、通信装置1024はゲーム装置内部で利用される各種の情報を外部とやりとりするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。   The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to other game devices to send and receive given information according to the game program, and to connect a communication line. It is used for sending and receiving information such as game programs.

そして図2(A)、(B)〜図14(A)、(B)で説明した種々の処理は、図15、図16のフロチャートに示した処理等を行うゲームプログラムを格納した情報記憶媒体1006と、該ゲームプログラムに従って動作するCPU1000、画像合成IC1010等によって実現される。なお画像合成IC1010、音合成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。   The various processes described with reference to FIGS. 2A, 2B to 14A, 14B are information storages storing game programs for performing the processes shown in the flowcharts of FIGS. It is realized by a medium 1006, a CPU 1000 that operates according to the game program, an image composition IC 1010, and the like. Note that the processing performed by the image synthesis IC 1010, the sound synthesis IC 1008, and the like may be performed by software using the CPU 1000 or a general-purpose DSP.

図18(A)に、本実施例を業務用ゲーム装置に適用した場合の例を示す。プレーヤは、ディスプレイ1100上に映し出されたゲーム画面を見ながら、レバー1102、ボタン1104を操作してゲームを楽しむ。装置に内蔵されるIC基板1106には、CPU、画像合成IC、音合成IC等が実装されている。そしてカバーオブジェクト又は3次元オブジェクト上で移動体を移動させるための情報、特定領域におけるカバーオブジェクト又は3次元オブジェクトの画像情報を変更するための情報、オブジェクト空間内の所与の視点位置、視線方向(移動体の移動に追従し且つ画像の変化の少なくとも一部を見ることができる視点位置、視線方向)での視界画像を合成するための情報等は、IC基板1106上の情報記憶媒体であるメモリ1108に格納される。以下、これらの情報を格納情報と呼ぶ。これらの格納情報は、上記の種々の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報等の少なくとも1つを含むものである。   FIG. 18A shows an example in which this embodiment is applied to an arcade game device. The player enjoys the game by operating the lever 1102 and the button 1104 while watching the game screen displayed on the display 1100. A CPU, an image synthesis IC, a sound synthesis IC, and the like are mounted on an IC substrate 1106 built in the apparatus. Then, information for moving the moving object on the cover object or the three-dimensional object, information for changing the image information of the cover object or the three-dimensional object in the specific area, a given viewpoint position in the object space, a line-of-sight direction ( Information for synthesizing a field-of-view image at a viewpoint position and a line-of-sight direction that can follow the movement of the moving body and can see at least a part of the change in the image is a memory that is an information storage medium on the IC substrate 1106 1108 is stored. Hereinafter, these pieces of information are referred to as stored information. The stored information includes at least one of program code, image information, sound information, display object shape information, table data, list data, player information, and the like for performing the various processes described above.

図18(B)に、本実施例を家庭用のゲーム装置に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画面を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、ICカード1208、1209等に格納されている。   FIG. 18B shows an example in which the present embodiment is applied to a home game device. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game screen displayed on the display 1200. In this case, the stored information is stored in a CD-ROM 1206, IC cards 1208, 1209, etc., which are information storage media detachable from the main unit.

図18(C)に、ホスト装置1300と、このホスト装置1300と通信回線1302を介して接続される端末1304-1〜1304-nとを含むゲーム装置に本実施例を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像合成IC、音合成ICを有し、スタンドアロンでゲーム画像、ゲーム音を合成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を合成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで合成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を合成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。   FIG. 18C shows an example in which the present embodiment is applied to a game device including a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a communication line 1302. Show. In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n have a CPU, an image synthesis IC, and a sound synthesis IC, and can synthesize game images and game sounds in a stand-alone manner, the host device 1300 receives game images and games. A game program or the like for synthesizing sound is delivered to the terminals 1304-1 to 1304-n. On the other hand, if it cannot be synthesized stand-alone, the host device 1300 synthesizes a game image and game sound, transmits them to the terminals 1304-1 to 1304-n, and outputs them at the terminals.

なお本発明は、上記実施の形態で説明したものに限らず、種々の変形実施が可能である。   The present invention is not limited to that described in the above embodiment, and various modifications can be made.

例えば本発明は、業務用のゲーム装置のみならず、例えば家庭用のゲーム装置、シミュレータ、多数のプレーヤが参加する大型アトラクション装置等、種々のものに適用できる。   For example, the present invention can be applied not only to a game device for business use but also to various devices such as a home game device, a simulator, and a large attraction device in which a large number of players participate.

また本実施例で説明した処理部、画像合成部等で行われる処理も、本実施例では単にその一例を示したものであり、本発明における画像合成処理はこれらに限定されるものではない。   In addition, the processing performed by the processing unit, the image composition unit, and the like described in this embodiment is merely an example in the present embodiment, and the image composition processing in the present invention is not limited to these.

本実施例の機能ブロック図の一例である。It is an example of the functional block diagram of a present Example. 図2(A)、(B)は、本実施例により生成されるゲーム画面(視界画像)の一例である。2A and 2B are examples of the game screen (view image) generated by this embodiment. 図3(A)、(B)も、本実施例により生成されるゲーム画面の一例である。3A and 3B are also examples of the game screen generated by the present embodiment. 図4(A)、(B)も、本実施例により生成されるゲーム画面の一例である。4A and 4B are also examples of the game screen generated by this embodiment. 図5(A)、(B)は、ゲームステージの選択手法について説明するための図である。FIGS. 5A and 5B are diagrams for explaining a game stage selection method. 3次元オブジェクト、カバーオブジェクト、移動体について説明するための図である。It is a figure for demonstrating a three-dimensional object, a cover object, and a moving body. 図7(A)〜(F)は、移動体の移動による領域の特定及び敵移動体との関係について説明するための図である。FIGS. 7A to 7F are diagrams for explaining the specification of the region by the movement of the moving body and the relationship with the enemy moving body. 図8(A)〜(D)は、移動体の移動により特定された領域における画像情報の変更について説明するための図である。8A to 8D are diagrams for explaining the change of the image information in the area specified by the movement of the moving body. 図9(A)、(B)は、バイパスについて説明するための図であり、図9(C)は、ポリゴンを消滅させる際の演出手法について説明するための図である。FIGS. 9A and 9B are diagrams for explaining the bypass, and FIG. 9C is a diagram for explaining an effect method when the polygon is extinguished. 図10(A)、(B)は、頂点関係リスト、並びにポリゴンの縁上で移動体を移動させる手法について説明するための図である。FIGS. 10A and 10B are diagrams for explaining a vertex relation list and a method for moving a moving object on the edge of a polygon. 図11(A)〜(C)は、頂点位置リスト、ポリゴン情報リスト、並びにポリゴンの表示、非表示の切り替え、テクスチャ座標及び半透明率の変更手法について説明するための図である。FIGS. 11A to 11C are diagrams for explaining a vertex position list, a polygon information list, and a method for changing display / non-display of polygons, texture coordinates, and translucency. 図12(A)〜(C)は、視点位置、視線方向の設定について説明するための図である。12A to 12C are diagrams for explaining setting of the viewpoint position and the line-of-sight direction. 図13(A)〜(D)は、カバーオブジェクトの画像情報の変更手法について説明するための図である。FIGS. 13A to 13D are diagrams for explaining a method for changing the image information of the cover object. 図14(A)、(B)は、3次元オブジェクトの画像情報の変更手法について説明するための図である。FIGS. 14A and 14B are diagrams for explaining a method for changing image information of a three-dimensional object. 本実施例の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of a present Example. 本実施例の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of a present Example. 本実施例を実現するハードウェアの構成の一例を示す図である。It is a figure which shows an example of the structure of the hardware which implement | achieves a present Example. 図18(A)、(B)、(C)は、本実施例が適用される種々の形態のゲーム装置を示す図である。18A, 18B, and 18C are diagrams showing various types of game devices to which the present embodiment is applied.

符号の説明Explanation of symbols

10 表示部
12 操作部
36 領域(特定領域)
40 3次元オブジェクト
42 カバーオブジェクト
44 移動体(自機)
46 移動体(敵)
100 処理部
110 移動体演算部
120 画像情報変更部
130 視点設定部
140 オブジェクト空間設定部
200 画像合成部
202 テクスチャマッピング部
204 半透明演算部
210 テクスチャ情報記憶部
10 Display unit 12 Operation unit 36 Area (specific area)
40 3D object 42 Cover object 44 Mobile body (own machine)
46 Moving object (enemy)
DESCRIPTION OF SYMBOLS 100 Processing part 110 Moving body calculating part 120 Image information changing part 130 Viewpoint setting part 140 Object space setting part 200 Image composition part 202 Texture mapping part 204 Translucent calculating part 210 Texture information storage part

Claims (2)

オブジェクト空間において、操作手段からの操作情報に基づいて移動体を移動させる演算を行う移動体演算手段と、
前記移動体の移動に追従する仮想カメラの視点位置、視線方向を設定する視点設定手段と、
前記視点位置、視線方向での仮想カメラから見た視界画像を合成する手段と、
を含み、
前記視点設定手段は、
前記仮想カメラの視点位置を移動体の上方に設定し、前記移動体が高度差のあるゲームフィールドを移動する場合には、前記移動体の高さ方向の位置変化タイミングより遅れたタイミングで、前記仮想カメラの視点位置が前記移動体に対して一定高度となるように制御することで、前記移動体の高さ方向の移動に対する慣性をシミュレートする処理を行うことを特徴とする画像生成装置。
In the object space, a moving body computing means for performing a computation for moving the moving body based on operation information from the operating means;
Viewpoint setting means for setting the viewpoint position and the line-of-sight direction of the virtual camera following the movement of the moving body;
Means for synthesizing a view field image viewed from a virtual camera in the viewpoint position and the line-of-sight direction;
Including
The viewpoint setting means includes
When the viewpoint position of the virtual camera is set above the moving body, and the moving body moves in a game field having an altitude difference, the timing is delayed from the position change timing in the height direction of the moving body. An image generating apparatus characterized by performing a process of simulating inertia with respect to movement of the moving body in a height direction by controlling the viewpoint position of the virtual camera to be a constant altitude with respect to the moving body.
オブジェクト空間において、操作手段からの操作情報に基づいて移動体を移動させる演算を行う移動体演算手段と、
前記移動体の移動に追従する仮想カメラの視点位置、視線方向を設定する視点設定手段と、
前記視点位置、視線方向での仮想カメラから見た視界画像を合成する手段と、してコンピュータを機能させ、
前記視点設定手段は、
前記仮想カメラの視点位置を移動体の上方に設定し、前記移動体が高度差のあるゲームフィールドを移動する場合には、前記移動体の高さ方向の位置変化タイミングより遅れたタイミングで、前記仮想カメラの視点位置が前記移動体に対して一定高度となるように制御することで、前記移動体の高さ方向の移動に対する慣性をシミュレートする処理を行うことを特徴とするプログラム。

In the object space, a moving body computing means for performing a computation for moving the moving body based on operation information from the operating means;
Viewpoint setting means for setting the viewpoint position and the line-of-sight direction of the virtual camera following the movement of the moving body;
The computer functions as a means for synthesizing a view field image viewed from the virtual camera at the viewpoint position and the line-of-sight direction,
The viewpoint setting means includes
When the viewpoint position of the virtual camera is set above the moving body, and the moving body moves in a game field having an altitude difference, the timing is delayed from the position change timing in the height direction of the moving body. A program for performing a process of simulating inertia with respect to movement of the moving body in a height direction by controlling the viewpoint position of the virtual camera to be a constant altitude with respect to the moving body.

JP2005179035A 1996-06-21 2005-06-20 Image generating apparatus and information storage medium Expired - Lifetime JP4033477B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005179035A JP4033477B2 (en) 1996-06-21 2005-06-20 Image generating apparatus and information storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP18113196 1996-06-21
JP2005179035A JP4033477B2 (en) 1996-06-21 2005-06-20 Image generating apparatus and information storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP33244797A Division JP4093620B2 (en) 1996-06-21 1997-11-17 3D game device and information storage medium

Publications (2)

Publication Number Publication Date
JP2006004440A JP2006004440A (en) 2006-01-05
JP4033477B2 true JP4033477B2 (en) 2008-01-16

Family

ID=35772734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005179035A Expired - Lifetime JP4033477B2 (en) 1996-06-21 2005-06-20 Image generating apparatus and information storage medium

Country Status (1)

Country Link
JP (1) JP4033477B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2023298A4 (en) * 2006-05-09 2010-07-21 Sega Corp Image processing device and image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3475470B2 (en) * 1993-12-09 2003-12-08 株式会社セガ Electronic play equipment
JP3503982B2 (en) * 1994-03-18 2004-03-08 富士通株式会社 Viewpoint setting device
CN1071583C (en) * 1994-06-20 2001-09-26 世雅企业股份有限公司 Method of and apparatus for controlling direction of object
TW346611B (en) * 1996-03-28 1998-12-01 Sega Enterprises Kk An image processor, a game machine using the image processor, a method of image processing and a medium

Also Published As

Publication number Publication date
JP2006004440A (en) 2006-01-05

Similar Documents

Publication Publication Date Title
US6256040B1 (en) Three-dimensional game machine and information storage medium
JP3372832B2 (en) GAME DEVICE, GAME IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING GAME IMAGE PROCESSING PROGRAM
JP3145059B2 (en) Information storage medium and image generation device
KR100300832B1 (en) Image processing apparatus and image processing method
JP3747050B1 (en) Program, information storage medium, and image generation system
JPH08305892A (en) Image processor and game device equipped with the same
JP3786670B1 (en) Program, information storage medium, and image generation system
JPH11146978A (en) Three-dimensional game unit, and information recording medium
JP4033477B2 (en) Image generating apparatus and information storage medium
JP2009129167A (en) Program, information storage medium, and image generation system
JP4033479B2 (en) Image generating apparatus and information storage medium
JP4093620B2 (en) 3D game device and information storage medium
JP2003210837A (en) Image-generating system, program, and information- storage medium
JPH1066782A (en) Three-dimensional game device and information storage medium
JP5054908B2 (en) Program, information storage medium, and image generation system
JPH10113465A (en) Game device, screen generating method, and information memory medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2002092635A (en) Image processor
JPH1066781A (en) Three-dimensional game device and information storage medium
JP3420959B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JPH08131653A (en) Three dimensional game device and method for generating three dimensional game image
JP2002092637A (en) Game system and information storage medium
JP2000135376A (en) Game system, information recording medium and method for switching indication
JP2004038639A (en) System for generating picture, program and medium for recording information
JP3827054B2 (en) Image processing apparatus and game apparatus having the same

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071022

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term