JP2003044868A - System for generating image, program and information storage medium - Google Patents

System for generating image, program and information storage medium

Info

Publication number
JP2003044868A
JP2003044868A JP2001229465A JP2001229465A JP2003044868A JP 2003044868 A JP2003044868 A JP 2003044868A JP 2001229465 A JP2001229465 A JP 2001229465A JP 2001229465 A JP2001229465 A JP 2001229465A JP 2003044868 A JP2003044868 A JP 2003044868A
Authority
JP
Japan
Prior art keywords
coordinate
viewpoint
transparent
image
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001229465A
Other languages
Japanese (ja)
Other versions
JP4707080B2 (en
Inventor
Daizaburo Nakamura
大三郎 中村
Hiroyuki Kohoda
宏幸 小保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001229465A priority Critical patent/JP4707080B2/en
Publication of JP2003044868A publication Critical patent/JP2003044868A/en
Application granted granted Critical
Publication of JP4707080B2 publication Critical patent/JP4707080B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image generation system capable of solving a situation, with a little processing load, that an object to be watched carefully can not be seen because another object becomes an obstacle in view point. SOLUTION: When it is judged that an object OB1 (character) is located on a deep side of an OB2 (obstacle) seen from a view point and a transparent conversion image PM1 of the OB1 to a screen overlaps on a transparent conversion image PM2 of the OB2 to the screen, the OB1 can be seen through the OB2 from the view point. It is decided whether or not the OB1 is located on the deep side of the OB2 seen from the view point on the basis of Z coordinates of the objects OB1 and OB2 in a view point (screen) coordinates system, a vector in the direction of connecting representative points of the OB1 and OB2 and a normal line vector on the plane of the OB2. Transparency (translucence) processing of the object OB2 is performed on the basis of X coordinates of the objects OB1 and OB2 in a screen coordinates system. An object OB3 for confirming the position of the OB2 which becomes nontransparent even when the object OB2 is transparent is arranged between the OB2 and a geographic surface.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像生成システ
ム、プログラム及び情報記憶媒体に関する。
TECHNICAL FIELD The present invention relates to an image generation system, a program, and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内にお
いて仮想カメラ(所与の視点)から見える画像を生成す
る画像生成システム(ゲームシステム)が知られてお
り、いわゆる仮想現実を体験できるものとして人気が高
い。格闘ゲームを楽しむことができる画像生成システム
を例にとれば、プレーヤは、ゲームコントローラ(操作
手段)を用いて自キャラクタ(オブジェクト)を操作
し、相手プレーヤやコンピュータが操作する敵キャラク
タと対戦することで3次元ゲームを楽しむ。
2. Description of the Related Art An image generation system (game system) for generating an image viewed from a virtual camera (given viewpoint) in an object space, which is a virtual three-dimensional space, has heretofore been known. It is popular as a thing that allows you to experience so-called virtual reality. Taking an image generation system that can enjoy a fighting game as an example, a player operates a self-character (object) using a game controller (operating means) and competes with an opponent character operated by an opponent player or a computer. Enjoy a 3D game at.

【0003】さて、このような3次元ゲームでは、プレ
ーヤの視点とキャラクタとの間に障害物となるオブジェ
クトが入り込むと、プレーヤの視界がその障害物オブジ
ェクトによりふさがれてしまい、キャラクタの周辺がプ
レーヤから見えなくなってしまうという問題がある。
In such a three-dimensional game, when an obstacle object enters between the player's viewpoint and the character, the player's field of view is blocked by the obstacle object, and the area around the character is the player. There is a problem that you can't see it.

【0004】このような問題を解決する従来技術とし
て、例えば特開平9−50541号公報に開示される技
術が知られている。この従来技術では、障害物オブジェ
クトの形状データとキャラクタの位置データとに基づい
て、視点から見て障害物オブジェクトとキャラクタが重
なっているか否かを判定し、重なっていると判定した場
合には、障害物オブジェクトを透過表示にすることで、
上記問題を解決している。
As a conventional technique for solving such a problem, for example, a technique disclosed in Japanese Patent Laid-Open No. 9-50541 is known. In this conventional technology, based on the shape data of the obstacle object and the position data of the character, it is determined whether or not the obstacle object and the character overlap from the viewpoint, and when it is determined that they overlap, By making the obstacle object transparent,
It solves the above problem.

【0005】しかしながら、この従来技術では、障害物
オブジェクトとキャラクタの重なり判定に、障害物オブ
ジェクトの形状データや、視点及びキャラクタの位置デ
ータを用いた複雑な処理が必要になる。従って、処理負
荷及び処理時間が過大になるという問題があった。
However, this conventional technique requires complicated processing using the shape data of the obstacle object and the position data of the viewpoint and the character to determine the overlap between the obstacle object and the character. Therefore, there is a problem that the processing load and the processing time become excessive.

【0006】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、他のオブジ
ェクトが視点障害物となって、注視すべきオブジェクト
が見えなくなる事態を、少ない処理負荷で解決できる画
像生成システム、プログラム及び情報記憶媒体を提供す
ることにある。
The present invention has been made in view of the above problems, and an object of the present invention is to reduce the possibility that another object becomes an obstacle to the viewpoint and the object to be watched cannot be seen. An object is to provide an image generation system, a program, and an information storage medium that can be solved by processing load.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、画像生成を行う画像生成システムであっ
て、第1、第2のオブジェクトを含む複数のオブジェク
トをオブジェクト空間に配置設定するオブジェクト空間
設定手段と、視点から見て第1のオブジェクトが第2の
オブジェクトの奥側にあると判断され、且つ、第1のオ
ブジェクトのスクリーンへの透視変換画像が、第2のオ
ブジェクトのスクリーンへの透視変換画像に重なった場
合に、第2のオブジェクトを透過して第1のオブジェク
トが視点から見えるようにするための第2のオブジェク
トの透過処理を行う手段と、オブジェクト空間内の所与
の視点での画像を生成する手段とを含むことを特徴とす
る。また本発明に係るプログラムは、上記手段としてコ
ンピュータを機能させることを特徴とする。また本発明
に係る情報記憶媒体は、コンピュータ読み取り可能な情
報記憶媒体であって、上記手段としてコンピュータを機
能させるためのプログラムを記憶(記録)したことを特
徴とする。
In order to solve the above-mentioned problems, the present invention is an image generation system for generating an image, wherein a plurality of objects including first and second objects are arranged and set in an object space. And the object space setting means for determining that the first object is behind the second object from the viewpoint, and the perspective-transformed image of the first object on the screen is the screen of the second object. And a means for performing a transparent process of the second object so that the first object can be seen from the viewpoint when it is overlapped with the perspective transformed image. And means for generating an image from the viewpoint. A program according to the present invention causes a computer to function as the above means. An information storage medium according to the present invention is a computer-readable information storage medium, and is characterized by storing (recording) a program for causing a computer to function as the above means.

【0008】本発明によれば、視点から見て第1のオブ
ジェクトが第2のオブジェクトの奥側にあると判断さ
れ、第1のオブジェクトの透視変換画像が第2のオブジ
ェクトの透視変換画像に重なった場合に、第2のオブジ
ェクトを透過して第1のオブジェクトが視点から見える
ようになる。
According to the present invention, it is determined that the first object is behind the second object from the viewpoint, and the perspective-transformed image of the first object overlaps the perspective-transformed image of the second object. In this case, the first object can be seen from the viewpoint through the second object.

【0009】従って、本発明によれば、第2のオブジェ
クトが視点障害物となって第1のオブジェクトが見えな
く事態を解決できる。また、視点から見て第1のオブジ
ェクトが第2のオブジェクトの奥側にあるか否かの判断
と、第1、第2のオブジェクトの透視変換画像の重なり
の判断だけで、上記のような事態を解決できるため、処
理負荷の軽減化を図れる。
Therefore, according to the present invention, it is possible to solve the situation in which the second object becomes a viewpoint obstacle and the first object cannot be seen. In addition, the above situation is determined only by determining whether or not the first object is behind the second object from the viewpoint and determining whether or not the perspective conversion images of the first and second objects overlap. Therefore, the processing load can be reduced.

【0010】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、視点座標系又はスクリーン
座標系における奥行き方向の座標をZ座標とした場合
に、視点から見て第1のオブジェクトが第2のオブジェ
クトの奥側にあるか否かを、第1、第2のオブジェクト
のZ座標に基づいて判断することを特徴とする。
Further, in the image generating system, the program and the information storage medium according to the present invention, when the coordinate in the depth direction in the viewpoint coordinate system or the screen coordinate system is the Z coordinate, the first object is the second object when viewed from the viewpoint. Is determined based on the Z coordinates of the first and second objects.

【0011】このようにすれば、第1、第2のオブジェ
クトのZ座標(例えば代表点のZ座標)を用いた処理
(例えば比較処理)だけで、第1のオブジェクトが第2
のオブジェクトの奥側にあるか否かを判断できるように
なり、処理負荷の軽減化を図れる。
In this way, the first object is converted into the second object only by the processing (for example, the comparison processing) using the Z coordinates of the first and second objects (for example, the Z coordinate of the representative point).
It becomes possible to determine whether or not the object is on the back side, and the processing load can be reduced.

【0012】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、スクリーン座標系における
水平方向の座標をX座標とした場合に、スクリーン座標
系における第1、第2のオブジェクトのX座標に基づい
て、第2のオブジェクトの透過処理を行うことを特徴と
する。
Further, the image generation system, the program and the information storage medium according to the present invention have the X coordinate of the first and second objects in the screen coordinate system when the horizontal coordinate in the screen coordinate system is the X coordinate. The second object is transparently processed based on the above.

【0013】このようにすれば、第1、第2のオブジェ
クトのX座標(例えば代表点のX座標)を用いた処理
(例えば線形演算処理)だけで、第2のオブジェクトの
透過処理を実現できるようになり、処理負荷の軽減化を
図れる。
With this configuration, the transparent processing of the second object can be realized only by the processing (for example, the linear calculation processing) using the X coordinate of the first and second objects (for example, the X coordinate of the representative point). As a result, the processing load can be reduced.

【0014】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、前記透過処理がα値に基づ
く半透明処理であり、第1のオブジェクトの代表点のX
座標と、第2のオブジェクトの代表点のX座標と、第2
のオブジェクトのX座標方向の大きさを表すためのパラ
メータとに基づいてα値を求め、求められたα値に基づ
いて第2のオブジェクトの半透明処理を行うことを特徴
とする。
Further, in the image generating system, the program and the information storage medium according to the present invention, the transparent processing is a semi-transparent processing based on the α value, and X which is a representative point of the first object.
The coordinates, the X coordinate of the representative point of the second object, the second
The α value is obtained based on the parameter for expressing the size of the object in the X coordinate direction, and the semi-transparent processing of the second object is performed based on the obtained α value.

【0015】このようにすれば、第1、第2のオブジェ
クトの代表点のX座標とパラメータとにより、半透明処
理のためのα値を直接求め、半透明処理を行うことが可
能になる。
By doing so, it becomes possible to directly obtain the α value for the semitransparent processing by the X coordinate of the representative point of the first and second objects and the parameter, and perform the semitransparent processing.

【0016】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、視点から見て第1のオブジ
ェクトが第2のオブジェクトの奥側にあるか否かを、第
1のオブジェクトの代表点と第2のオブジェクトの代表
点とを結ぶ方向のベクトルと、第2のオブジェクトの面
の方向を表す法線ベクトルとに基づいて判断することを
特徴とする。
The image generation system, program, and information storage medium according to the present invention determine whether or not the first object is behind the second object as a representative point of the first object from the viewpoint. The determination is based on a vector in the direction connecting the representative point of the second object and a normal vector representing the direction of the surface of the second object.

【0017】このようにすれば、第1、第2のオブジェ
クトの代表点を結ぶ方向のベクトルと第2のオブジェク
トの面の法線ベクトルを用いた処理(例えば内積処理)
だけで、第1のオブジェクトが第2のオブジェクトの奥
側にあるか否かを判断できるようになり、処理負荷の軽
減化を図れる。
In this way, processing using the vector in the direction connecting the representative points of the first and second objects and the normal vector of the surface of the second object (for example, inner product processing)
Only by doing so, it is possible to determine whether or not the first object is behind the second object, and the processing load can be reduced.

【0018】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、前記透過処理がα値に基づ
く半透明処理であり、スクリーン座標系における水平方
向の座標をX座標とした場合に、第1のオブジェクトの
代表点のX座標と、第2のオブジェクトの左端点、右端
点、代表点のX座標とに基づいてα値を求め、求められ
たα値に基づいて第2のオブジェクトの半透明処理を行
うことを特徴とする。
Further, in the image generating system, the program and the information storage medium according to the present invention, the transparent processing is a semi-transparent processing based on the α value, and when the horizontal coordinate in the screen coordinate system is X coordinate, The α value is calculated based on the X coordinate of the representative point of the first object and the X coordinates of the left end point, the right end point, and the representative point of the second object, and the half value of the second object is calculated based on the obtained α value. It is characterized by performing a transparent treatment.

【0019】このようにすれば、第1のオブジェクトの
代表点のX座標と、第2のオブジェクトの左端点、右端
点、代表点のX座標とにより、半透明処理のためのα値
を直接求め、半透明処理を行うことが可能になる。
With this configuration, the α value for the semitransparent process is directly calculated by the X coordinate of the representative point of the first object and the X coordinate of the left end point, the right end point, and the representative point of the second object. Then, it becomes possible to perform the translucent treatment.

【0020】また本発明は、画像生成を行う画像生成シ
ステムであって、第1、第2のオブジェクトを含む複数
のオブジェクトをオブジェクト空間に配置設定するオブ
ジェクト空間設定手段と、スクリーン座標系における水
平方向の座標をX座標とした場合に、スクリーン座標系
における第1、第2のオブジェクトのX座標に基づい
て、第2のオブジェクトを透過して第1のオブジェクト
が視点から見えるようにするための第2のオブジェクト
の透過処理を行う手段と、オブジェクト空間内の所与の
視点での画像を生成する手段とを含むことを特徴とす
る。また本発明に係るプログラムは、上記手段としてコ
ンピュータを機能させることを特徴とする。また本発明
に係る情報記憶媒体は、コンピュータ読み取り可能な情
報記憶媒体であって、上記手段としてコンピュータを機
能させるためのプログラムを記憶(記録)したことを特
徴とする。
The present invention is also an image generation system for generating an image, comprising an object space setting means for setting and setting a plurality of objects including a first object and a second object in an object space, and a horizontal direction in a screen coordinate system. If the coordinates of X are the X coordinates, the first object for making the first object visible through the second object based on the X coordinates of the first and second objects in the screen coordinate system. It is characterized in that it includes means for performing the transparent processing of the second object, and means for generating an image at a given viewpoint in the object space. A program according to the present invention causes a computer to function as the above means. An information storage medium according to the present invention is a computer-readable information storage medium, and is characterized by storing (recording) a program for causing a computer to function as the above means.

【0021】本発明によれば、第1、第2のオブジェク
トのX座標(例えば代表点のX座標)を用いた処理(例
えば線形演算処理)だけで、第2のオブジェクトの透過
処理を実現できるようになり、処理負荷の軽減化を図れ
る。
According to the present invention, the transparent process of the second object can be realized only by the process (for example, the linear calculation process) using the X coordinate of the first and second objects (for example, the X coordinate of the representative point). As a result, the processing load can be reduced.

【0022】なお、視点から見て第1のオブジェクトが
第2のオブジェクトの奥側にあると判断されたことを条
件に、第2のオブジェクトの透過処理を行うことが望ま
しい。
Incidentally, it is desirable to perform the transparent processing of the second object on the condition that the first object is judged to be behind the second object from the viewpoint.

【0023】また本発明は、画像生成を行う画像生成シ
ステムであって、第1、第2のオブジェクトを含む複数
のオブジェクトをオブジェクト空間に配置設定するオブ
ジェクト空間設定手段と、第2のオブジェクトを透過し
て第1のオブジェクトが視点から見えるようにするため
の第2のオブジェクトの透過処理を行う手段と、オブジ
ェクト空間内の所与の視点での画像を生成する手段とを
含み、前記オブジェクト空間設定手段が、第2のオブジ
ェクトが透過状態になった場合にも非透過状態のままと
なる、第2のオブジェクトの位置確認用の第3のオブジ
ェクトを、オブジェクト空間に配置設定することを特徴
とする。また本発明に係るプログラムは、上記手段とし
てコンピュータを機能させることを特徴とする。また本
発明に係る情報記憶媒体は、コンピュータ読み取り可能
な情報記憶媒体であって、上記手段としてコンピュータ
を機能させるためのプログラムを記憶(記録)したこと
を特徴とする。
The present invention is also an image generation system for generating an image, wherein an object space setting means for setting and setting a plurality of objects including a first object and a second object in an object space, and a second object are transparent. And a means for performing a transparent process of the second object to make the first object visible from the viewpoint, and a means for generating an image at a given viewpoint in the object space. The means arranges and sets in the object space a third object for confirming the position of the second object, which remains in the non-transparent state even when the second object is in the transparent state. . A program according to the present invention causes a computer to function as the above means. An information storage medium according to the present invention is a computer-readable information storage medium, and is characterized by storing (recording) a program for causing a computer to function as the above means.

【0024】本発明によれば、透過処理により第2のオ
ブジェクトが透過状態(例えば透明、半透明)になって
いる場合にも、第3のオブジェクトは非透過状態(例え
ば不透明)になる。従って、プレーヤ(操作者)は、こ
の非透過状態の第3のオブジェクトを見ることで、第2
のオブジェクトの位置(或いは形状)を確認できるよう
になり、好適な操作環境をプレーヤに提供できる。
According to the present invention, even when the second object is in the transparent state (for example, transparent or semi-transparent) by the transparent processing, the third object is in the non-transparent state (for example, opaque). Therefore, the player (operator) can see the second object by seeing the third object in the non-transparent state.
The position (or shape) of the object can be confirmed, and a suitable operating environment can be provided to the player.

【0025】また本発明に係る画像生成システム、プロ
グラム及び情報記憶媒体は、前記第3のオブジェクト
が、前記第2のオブジェクトと地形面との間に配置設定
されることを特徴とする。
Further, the image generation system, the program and the information storage medium according to the present invention are characterized in that the third object is arranged and set between the second object and the terrain surface.

【0026】このようにすれば、透過状態になった第2
のオブジェクトの地形面上での位置を、効果的にプレー
ヤ(操作者)に知らせることが可能になる。
By doing this, the second
It is possible to effectively inform the player (operator) of the position of the object on the topographic surface.

【0027】[0027]

【発明の実施の形態】以下、本実施形態について図面を
用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The present embodiment will be described below with reference to the drawings.

【0028】なお、以下に説明する本実施形態は、特許
請求の範囲に記載された本発明の内容を何ら限定するも
のではない。また本実施形態で説明される構成の全て
が、本発明の必須構成要件であるとは限らない。
The present embodiment described below does not limit the content of the present invention described in the claims. Moreover, not all of the configurations described in the present embodiment are indispensable constituent features of the invention.

【0029】1.構成 図1に、本実施形態の画像生成システム(ゲームシステ
ム)の機能ブロック図の一例を示す。なお同図において
本実施形態は、少なくとも処理部100を含めばよく
(或いは処理部100と記憶部170を含めばよく)、
それ以外のブロックについては任意の構成要素とするこ
とができる。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of this embodiment. In the figure, in the present embodiment, at least the processing unit 100 may be included (or the processing unit 100 and the storage unit 170 may be included).
The other blocks can be arbitrary constituent elements.

【0030】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、マイク、センサー或いは筺体などのハードウェアに
より実現できる。
The operation section 160 is for the player to input operation data, and its function can be realized by hardware such as a lever, a button, a microphone, a sensor, or a housing.

【0031】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 includes the processing unit 100 and the communication unit 1.
A work area such as 96, whose function is RAM
It can be realized by hardware such as.

【0032】情報記憶媒体180(コンピュータにより
読み取り可能な媒体)は、プログラムやデータなどを格
納するものであり、その機能は、光ディスク(CD、D
VD)、光磁気ディスク(MO)、磁気ディスク、ハー
ドディスク、磁気テープ、或いはメモリ(ROM)など
のハードウェアにより実現できる。処理部100は、こ
の情報記憶媒体180に格納されるプログラム(デー
タ)に基づいて本発明(本実施形態)の種々の処理を行
う。即ち情報記憶媒体180には、本発明(本実施形
態)の各手段(特に処理部100に含まれるブロック)
としてコンピュータを機能させるためのプログラム(各
手段をコンピュータに実現させるためのプログラム)が
記憶(記録、格納)される。
The information storage medium 180 (computer readable medium) stores programs, data, etc., and its function is that of optical discs (CD, D).
VD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (ROM). The processing unit 100 performs various processes of the present invention (this embodiment) based on the program (data) stored in the information storage medium 180. That is, in the information storage medium 180, each unit of the present invention (the present embodiment) (particularly, a block included in the processing unit 100)
As a result, a program for causing the computer to function (a program for causing the computer to realize each means) is stored (recorded, stored).

【0033】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80には、本発明の処理を行うためのプログラム、画像
データ、音データ、表示物の形状データなどを含ませる
ことができる。
A part or all of the information stored in the information storage medium 180 will be transferred to the storage unit 170 when the system is powered on. The information storage medium 1
The program 80 for carrying out the processing of the present invention, image data, sound data, shape data of the display object, and the like can be included in 80.

【0034】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display unit 190 outputs the image generated by the present embodiment, and its function is CRT,
LCD or HMD (head mounted display)
It can be realized by hardware such as.

【0035】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output unit 192 outputs the sound generated by this embodiment, and its function can be realized by hardware such as a speaker.

【0036】携帯型情報記憶装置194は、プレーヤの
個人データやゲームのセーブデータなどが記憶されるも
のであり、この携帯型情報記憶装置194としては、メ
モリカードや携帯型ゲーム装置などを考えることができ
る。
The portable information storage device 194 stores player's personal data, game save data, and the like. Consider a memory card, a portable game device, or the like as the portable information storage device 194. You can

【0037】通信部196は、外部(例えばホスト装置
や他の画像生成システム)との間で通信を行うための各
種の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with the outside (for example, a host device or another image generating system), and its function is various processors or communication ASICs. It can be realized by the hardware or the program.

【0038】なお本発明(本実施形態)の各手段として
コンピュータを機能させるためのプログラム(データ)
は、ホスト装置(サーバー)が有する情報記憶媒体から
ネットワーク及び通信部196を介して情報記憶媒体1
80に配信するようにしてもよい。このようなホスト装
置(サーバー)の情報記憶媒体の使用も本発明の範囲内
に含まれる。
A program (data) for causing a computer to function as each unit of the present invention (this embodiment).
Is the information storage medium 1 included in the host device (server) via the network and the communication unit 196.
You may make it deliver to 80. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.

【0039】処理部100(プロセッサ)は、操作部1
60からの操作データやプログラムなどに基づいて、ゲ
ーム処理、画像生成処理、或いは音生成処理などの各種
の処理を行う。この場合、処理部100は、記憶部17
0内の主記憶部172をワーク領域として使用して、各
種の処理を行う。
The processing unit 100 (processor) is the operation unit 1
Various processing such as game processing, image generation processing, or sound generation processing is performed based on operation data from 60, programs, and the like. In this case, the processing unit 100 includes the storage unit 17
Various processes are performed by using the main storage unit 172 in 0 as a work area.

【0040】ここで、処理部100が行う処理として
は、コイン(代価)の受け付け処理、各種モードの設定
処理、ゲームの進行処理、選択画面の設定処理、オブジ
ェクト(1又は複数のプリミティブ)の位置や回転角度
(X、Y又はZ軸回り回転角度)を求める処理、オブジ
ェクトを動作させる処理(モーション処理)、視点の位
置(仮想カメラの位置)や視線角度(仮想カメラの回転
角度)を求める処理、マップオブジェクトなどのオブジ
ェクトをオブジェクト空間へ配置する処理、ヒットチェ
ック処理、ゲーム結果(成果、成績)を演算する処理、
複数のプレーヤが共通のゲーム空間でプレイするための
処理、或いはゲームオーバー処理などを考えることがで
きる。
Here, as the processing performed by the processing unit 100, coin (price) acceptance processing, various mode setting processing, game progress processing, selection screen setting processing, position of an object (one or more primitives) Or a rotation angle (a rotation angle around the X, Y or Z axis), a process of moving an object (motion process), a position of a viewpoint (a position of a virtual camera) or a line-of-sight angle (a rotation angle of a virtual camera). , A process of placing objects such as map objects in the object space, a hit check process, a process of calculating game results (results, results),
A process for a plurality of players to play in a common game space, a game over process, or the like can be considered.

【0041】処理部100は、オブジェクト空間設定部
110、移動・動作処理部112、透過処理部114、
画像生成部120、音生成部130を含む。なお、処理
部100は、これらの全ての機能ブロックを含む必要は
ない。
The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a transparency processing unit 114,
The image generation unit 120 and the sound generation unit 130 are included. The processing unit 100 does not need to include all of these functional blocks.

【0042】ここで、オブジェクト空間設定部110
は、キャラクタ、車、柱、壁、建物、マップ(地形)な
どの各種オブジェクト(ポリゴン、自由曲面又はサブデ
ィビジョンサーフェスなどのプリミティブ面で構成され
るオブジェクト)をオブジェクト空間内に設定配置する
ための処理を行う。より具体的には、ワールド座標系で
のオブジェクトの位置や回転角度(方向)を決定し、そ
の位置(X、Y、Z)にその回転角度(X、Y、Z軸回
りでの回転)でオブジェクトを配置する。
Here, the object space setting unit 110
Is a process for setting and arranging various objects such as characters, cars, columns, walls, buildings, maps (terrain) (objects consisting of polygons, free-form surfaces or primitive surfaces such as subdivision surfaces) in the object space. I do. More specifically, the position and rotation angle (direction) of the object in the world coordinate system are determined, and the position (X, Y, Z) is determined by the rotation angle (rotation around the X, Y, Z axes). Place the object.

【0043】そして本実施形態では、オブジェクト空間
設定部110が、キャラクタ、車などを表す第1のオブ
ジェクト(移動オブジェクト)と、柱、壁、建物などを
表す第2のオブジェクト(障害物オブジェクト)をオブ
ジェクト空間に配置設定する。更に、第2のオブジェク
トの位置確認用の第3のオブジェクト(第2のオブジェ
クトが透過状態になった場合にも透過状態にならないオ
ブジェクト)をオブジェクト空間に配置設定する。より
具体的には、この第3のオブジェクトは、第2のオブジ
ェクトと地形面(人工的な地形の面を含む)との間に配
置設定される。
In this embodiment, the object space setting unit 110 sets a first object (moving object) representing a character, a car, etc., and a second object (obstacle object) representing a pillar, a wall, a building, etc. Place it in the object space. Further, a third object for checking the position of the second object (an object that does not become transparent even when the second object becomes transparent) is arranged and set in the object space. More specifically, the third object is arranged and set between the second object and the terrain surface (including the artificial terrain surface).

【0044】移動・動作処理部112は、キャラクタ、
車などのオブジェクト(移動オブジェクト)の移動情報
(位置、回転角度)や動作情報(オブジェクトの各パー
ツの位置、回転角度)を求める処理を行うものであり、
例えば、操作部160によりプレーヤが入力した操作デ
ータやゲームプログラムなどに基づいて、オブジェクト
を移動させたり動作(モーション、アニメーション)さ
せたりする処理を行う。
The movement / motion processing section 112 uses a character,
It is a process for obtaining movement information (position, rotation angle) and movement information (position of each part of the object, rotation angle) of an object (moving object) such as a car.
For example, based on operation data input by the player through the operation unit 160, a game program, and the like, processing of moving an object or performing an operation (motion, animation) is performed.

【0045】より具体的には、移動・動作処理部112
は、オブジェクトの位置や回転角度を例えば1フレーム
(1/60秒、1/30秒等)毎に変化させる。例えば
(k−1)フレームでのオブジェクトの位置、回転角度
をPk-1、θk-1とし、オブジェクトの1フレームでの位
置変化量(速度)、回転変化量(回転速度)を△P、△
θとする。するとkフレームでのオブジェクトの位置P
k、回転角度θkは例えば下式(1)、(2)のように求
められる。
More specifically, the movement / motion processing section 112.
Changes the position and rotation angle of the object, for example, every frame (1/60 seconds, 1/30 seconds, etc.). For example, the position and rotation angle of the object in the (k-1) frame are Pk-1 and θk-1, and the position change amount (speed) and the rotation change amount (rotation speed) of the object in one frame are ΔP and Δ.
Let be θ. Then the position P of the object in k frames
The k and the rotation angle θk are obtained, for example, by the following equations (1) and (2).

【0046】 Pk=Pk-1+△P (1) θk=θk-1+△θ (2) 透過処理部114は、第2のオブジェクト(柱、壁、建
物等)を透過して第1のオブジェクト(キャラクタ、車
等)が見えるようにするための、第2のオブジェクトの
透過処理(半透明処理、透明処理又はメッシュ処理等)
を行うものである。
Pk = Pk-1 + ΔP (1) θk = θk-1 + Δθ (2) The transparency processing unit 114 transmits the second object (pillar, wall, building, etc.) and transmits the first object ( Transparent processing (semi-transparent processing, transparent processing, mesh processing, etc.) of the second object to make the character, car, etc. visible.
Is to do.

【0047】より具体的には透過処理部114は、ま
ず、視点(仮想カメラ)から見て第1のオブジェクトが
第2のオブジェクトの奥側にあるか否かを判断する。こ
れは、例えば、第1、第2のオブジェクトの代表点(オ
ブジェクトの位置等を代表的に表す点)のZ座標(視点
座標系又はスクリーン座標系における奥行き方向の座
標)に基づいて判断できる。或いは、第1、第2のオブ
ジェクトの代表点を結ぶ方向のベクトルと、第2のオブ
ジェクトを構成する面の方向を表すための法線ベクトル
とに基づいて判断してもよい。
More specifically, the transparency processing section 114 first determines whether or not the first object is behind the second object as viewed from the viewpoint (virtual camera). This can be determined based on, for example, the Z coordinate (the coordinate in the depth direction in the viewpoint coordinate system or the screen coordinate system) of the representative point of the first and second objects (the point that represents the position of the object, etc.). Alternatively, the determination may be made based on a vector in the direction connecting the representative points of the first and second objects and a normal vector for expressing the direction of the surface forming the second object.

【0048】そして透過処理部114は、第1のオブジ
ェクトのスクリーン(透視変換面)への透視変換画像
が、第2のオブジェクトのスクリーンへの透視変換画像
に重なった場合には、第2のオブジェクトを透過して第
1のオブジェクトが視点から見えるように、第2のオブ
ジェクトを透過表示(透明表示、半透明表示又はメッシ
ュ表示等)状態に設定する。即ち、第1、第2のオブジ
ェクトのスクリーン座標系でのX座標(スクリーン座標
系における水平方向の座標)に基づいて、第2のオブジ
ェクトの透過処理を行う。なお、第2のオブジェクトの
半透明状態の設定は、第2のオブジェクトの頂点(構成
点)に与えるα値(各ピクセル、テクセル、ドットに関
連づけて記憶できる情報であり、色情報以外のプラスア
ルファの情報)の制御により実現できる。
Then, the transparency processing unit 114, when the perspective transformation image of the first object on the screen (perspective transformation surface) overlaps the perspective transformation image of the second object on the screen, the second object. The second object is set to the transparent display (transparent display, semi-transparent display, mesh display, or the like) state so that the first object can be seen from the viewpoint through the display. That is, the transparent processing of the second object is performed based on the X coordinate (horizontal coordinate in the screen coordinate system) of the first and second objects in the screen coordinate system. The setting of the semi-transparent state of the second object is the α value (information that can be stored in association with each pixel, texel, or dot) given to the vertices (constituent points) of the second object, and plus alpha other than color information. Information) can be realized.

【0049】画像生成部120は、処理部100で行わ
れる種々の処理の結果に基づいて画像処理を行い、ゲー
ム画像を生成し、表示部190に出力する。例えば、い
わゆる3次元のゲーム画像を生成する場合には、まず、
座標変換、クリッピング処理、透視変換、或いは光源計
算等のジオメトリ処理が行われ、その処理結果に基づい
て、描画データ(プリミティブ面の頂点(構成点)に付
与される位置座標、テクスチャ座標、色(輝度)デー
タ、法線ベクトル或いはα値等)が作成される。そし
て、この描画データ(プリミティブ面データ)に基づい
て、ジオメトリ処理後のオブジェクト(1又は複数プリ
ミティブ面)の画像が、描画バッファ174(フレーム
バッファ、ワークバッファ等のピクセル単位で画像情報
を記憶できるバッファ)に描画される。これにより、オ
ブジェクト空間内において仮想カメラ(所与の視点)か
ら見える画像が生成されるようになる。
The image generation section 120 performs image processing based on the results of various processing performed by the processing section 100 to generate a game image and outputs it to the display section 190. For example, when generating a so-called three-dimensional game image, first,
Geometry processing such as coordinate conversion, clipping processing, perspective conversion, or light source calculation is performed, and based on the processing results, drawing data (position coordinates, texture coordinates, colors (added to the vertices (constituent points) of the primitive surface), (Brightness) data, a normal vector, an α value, etc.) are created. Then, based on this drawing data (primitive surface data), the image of the object (one or more primitive surfaces) after the geometry processing is a buffer that can store image information in pixel units such as a drawing buffer 174 (frame buffer, work buffer, etc.). ). As a result, an image viewed from the virtual camera (given viewpoint) in the object space is generated.

【0050】音生成部130は、処理部100で行われ
る種々の処理の結果に基づいて音処理を行い、BGM、
効果音、又は音声などのゲーム音を生成し、音出力部1
92に出力する。
The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, and performs BGM,
Generates a game sound such as a sound effect or a sound, and outputs the sound output unit 1.
To 92.

【0051】なお、本実施形態の画像生成システムは、
1人のプレーヤのみがプレイできるシングルプレーヤモ
ード専用のシステムにしてもよいし、このようなシング
ルプレーヤモードのみならず、複数のプレーヤがプレイ
できるマルチプレーヤモードも備えるシステムにしても
よい。
The image generation system of this embodiment is
The system may be a system dedicated to the single player mode in which only one player can play, or a system having not only such a single player mode but also a multiplayer mode in which a plurality of players can play.

【0052】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末(ゲーム機、携帯電話)を用いて生成してもよい。
When a plurality of players play,
The game image and the game sound to be provided to the plurality of players may be generated using one terminal, or a plurality of terminals (game machine, mobile phone) connected by a network (transmission line, communication line) or the like. ) May be used.

【0053】2.本実施形態の特徴 次に本実施形態の特徴について図面を用いて説明する。
なお、以下では、格闘ゲームに本実施形態を適用した場
合を主に例にとり説明するが、本実施形態は、格闘ゲー
ム以外の他のゲームにも広く適用できる。
2. Features of this Embodiment Next, features of this embodiment will be described with reference to the drawings.
In the following, the case where the present embodiment is applied to a fighting game will be mainly described as an example, but the present embodiment can be widely applied to games other than the fighting game.

【0054】2.1 障害物オブジェクトの透過表示 さて、本実施形態では、以下のような手法により、障害
物となるオブジェクトの透過表示を実現している。
2.1 Transparent Display of Obstacle Object In the present embodiment, the transparent display of the obstacle object is realized by the following method.

【0055】まず、本実施形態では図2(A)、(B)
に示すように、視点VP(仮想カメラ)から見て、オブ
ジェクトOB1(キャラクタ等の移動オブジェクト)が
オブジェクトOB2(柱、壁、建物等の障害物オブジェ
クト)の奥側にあるか否かを判断する。例えば、図2
(A)では、視点VPから見てオブジェクトOB1はO
B2の手前側にあると判断され、図2(B)では、視点
VPから見てOB1はOB2の奥側にあると判断され
る。
First, in this embodiment, FIGS. 2A and 2B are used.
As shown in FIG. 11, it is determined whether or not the object OB1 (moving object such as a character) is behind the object OB2 (obstacle object such as a pillar, wall, or building) as viewed from the viewpoint VP (virtual camera). . For example, in FIG.
In (A), the object OB1 is O when viewed from the viewpoint VP.
It is determined to be on the front side of B2, and in FIG. 2B, it is determined that OB1 is on the back side of OB2 as viewed from the viewpoint VP.

【0056】そして、図2(B)のように視点VPから
見てオブジェクトOB1がOB2の奥側にあると判断さ
れた場合には、次のような処理を行う。
Then, when it is determined that the object OB1 is on the back side of OB2 as viewed from the viewpoint VP as shown in FIG. 2B, the following processing is performed.

【0057】即ち図2(C)、(D)に示すように、オ
ブジェクトOB1のスクリーンSC(透視変換面)への
透視変換画像PM1が、オブジェクトOB2のスクリー
ンへの透視変換画像PM2に重なったか否かを判断す
る。
That is, as shown in FIGS. 2C and 2D, it is determined whether the perspective conversion image PM1 of the object OB1 on the screen SC (perspective conversion surface) overlaps the perspective conversion image PM2 of the object OB2 on the screen. To judge.

【0058】そして、図2(C)に示すように、透視変
換画像PM1がPM2に重なっていない場合には、オブ
ジェクトOB2の透過処理(半透明処理、透明処理又は
メッシュ処理等)は行わない。
Then, as shown in FIG. 2C, when the perspective conversion image PM1 does not overlap PM2, the transparent processing (translucent processing, transparent processing, mesh processing, etc.) of the object OB2 is not performed.

【0059】一方、図2(D)に示すように、透視変換
画像PM1がPM2に重なっている場合には、オブジェ
クトOB2の透過処理を行い、OB2を透過(半透明、
透明又はメッシュ等)状態に設定する。
On the other hand, as shown in FIG. 2D, when the perspective-transformed image PM1 overlaps with PM2, the object OB2 is subjected to the transparent processing, and the object OB2 is transparent (translucent,
Transparent or mesh).

【0060】以上のようにすれば、図2(A)のよう
に、オブジェクトOB1がOB2の手前側にある場合に
OB1が透過状態になってしまう事態を防止できる。そ
して、図2(B)のようにオブジェクトOB1がOB2
の奥側にあり、且つ、図2(D)のように視点VPから
見てオブジェクトOB1がOB2に隠れている時にだ
け、OB2を透過状態にできる。これにより、プレーヤ
は、OB2を透過してOB1を見ることが可能になり、
スムーズなゲーム進行を実現できる。
As described above, it is possible to prevent the situation where the OB1 is in the transparent state when the object OB1 is in front of the OB2 as shown in FIG. 2A. Then, as shown in FIG. 2B, the object OB1 becomes OB2.
OB2 can be in a transparent state only when the object OB1 is hidden behind OB2 as viewed from the viewpoint VP as shown in FIG. 2D. This allows the player to see OB1 through OB2,
A smooth game progress can be realized.

【0061】しかも、図2(A)、(B)に示すよう
な、オブジェクトOB1がOB2の奥側にあるか否かの
判定や、図2(C)、(D)に示すような、透視変換画
像PM1、PM2の重なり判定は、その処理負荷が非常
に軽い。従って、オブジェクトOB2が視点障害物とな
ってオブジェクトOB1が見えなくなる事態を、特開平
9−50541の従来技術よりも少ない処理負荷で解決
できる。
Moreover, as shown in FIGS. 2A and 2B, it is determined whether or not the object OB1 is at the back side of OB2, and the perspective as shown in FIGS. 2C and 2D. The processing load for determining whether the converted images PM1 and PM2 overlap is very light. Therefore, the situation in which the object OB2 becomes a viewpoint obstacle and the object OB1 cannot be seen can be solved with a processing load smaller than that of the conventional technique disclosed in Japanese Patent Laid-Open No. 9-50541.

【0062】2.2 第1の処理例次に、図2(A)〜
(D)の手法を実現する第1の処理例について説明す
る。
2.2 First Processing Example Next, FIG.
A first processing example for realizing the method (D) will be described.

【0063】この第1の処理例では、まず、視点座標系
(又はスクリーン座標系)でのZ座標(奥行き方向の座
標。スクリーン座標系では視点座標系でのZ座標の符号
を反転させればよい)に基づいて、視点VPから見てオ
ブジェクトOB1がOB2の奥側にあるか否かを判断す
る。
In this first processing example, first, the Z coordinate in the viewpoint coordinate system (or the screen coordinate system) (the coordinate in the depth direction. In the screen coordinate system, the sign of the Z coordinate in the viewpoint coordinate system is reversed. It is determined whether or not the object OB1 is on the back side of OB2 as viewed from the viewpoint VP.

【0064】より具体的には図3(A)に示すように、
オブジェクトOB1の代表点RP1(例えばOB1の中
心点。キャラクタであるOB1の腰の位置の点)のZ座
標Z1と、オブジェクトOB2の代表点RP2(例えば
OB1の中心点。中心点から所与のオフセットだけ手前
側の点)のZ座標Z2を得る。そして、このZ座標Z
1、Z2の大小関係を調べることで、オブジェクトOB
1がOB2の奥側にあるか否かを判断する。例えば、視
点VPから遠くなるほどZ座標が大きくなる場合(逆の
場合でもよい)には、Z1>Z2の場合に、オブジェク
トOB1がOB2の奥側にあると判断することになる。
More specifically, as shown in FIG.
The Z coordinate Z1 of the representative point RP1 of the object OB1 (for example, the center point of OB1. The point at the waist position of the character OB1) and the representative point RP2 of the object OB2 (for example, the center point of OB1. A given offset from the center point) Then, the Z coordinate Z2 of the point on the near side) is obtained. And this Z coordinate Z
By examining the magnitude relationship between 1 and Z2, the object OB
It is determined whether 1 is on the back side of OB2. For example, when the Z coordinate increases as the distance from the viewpoint VP increases (the opposite case is also possible), it is determined that the object OB1 is on the back side of OB2 when Z1> Z2.

【0065】そして、この第1の処理例では、図3
(A)の手法により、オブジェクトOB2がOB1の奥
側にあると判断された場合に、スクリーン座標系におけ
るオブジェクトOB1、OB2のX座標(水平方向の座
標)に基づいて、OB2の透過処理を行う。
Then, in this first processing example, as shown in FIG.
When it is determined by the method (A) that the object OB2 is at the back of the object OB1, the transparent processing of the object OB2 is performed based on the X coordinate (horizontal coordinate) of the objects OB1 and OB2 in the screen coordinate system. .

【0066】より具体的には図3(B)に示すように、
オブジェクトOB1の代表点RP1のX座標X1と、オ
ブジェクトOB2の代表点RP2のX座標X2と、オブ
ジェクトOB2(円柱、多角柱)の半径パラメータR
(広義にはX座標方向のOB2の大きさを表すためのパ
ラメータであり、視点からの距離(パース)に応じて小
さくすることが望ましい)とに基づいてα値を求める。
即ち、X1とX2の差が小さくなるほどオブジェクトO
B2がより透明になるようなα値を求める。そして、こ
の求められたα値(半透明度、透明度又は不透明度等)
に基づいてオブジェクトOB2の半透明処理(α合成処
理)を行う。この場合に、α値は、例えば下式のように
表すことができる。
More specifically, as shown in FIG.
The X coordinate X1 of the representative point RP1 of the object OB1, the X coordinate X2 of the representative point RP2 of the object OB2, and the radius parameter R of the object OB2 (cylinder, polygonal prism).
(In a broad sense, it is a parameter for expressing the size of OB2 in the X-coordinate direction, and it is desirable to make it smaller according to the distance (perspective) from the viewpoint).
That is, as the difference between X1 and X2 becomes smaller, the object O
An α value is calculated so that B2 becomes more transparent. Then, the obtained α value (translucency, transparency, opacity, etc.)
The semi-transparent processing (α compositing processing) of the object OB2 is performed based on In this case, the α value can be expressed by the following equation, for example.

【0067】 α=F(|X1ーX2|/R) (3) 上式において、|A|はAの絶対値であり、F(B)は
Bを引数とする関数である。この関数としては、Bの線
形式(例えばBに定数を乗算した式)を考えることがで
きる。
Α = F (| X1−X2 | / R) (3) In the above equation, | A | is the absolute value of A, and F (B) is a function with B as an argument. As this function, a linear form of B (for example, an expression obtained by multiplying B by a constant) can be considered.

【0068】以上の第1の処理例によれば、図4の領域
RGA(斜線の領域)にオブジェクトOB1(キャラク
タ)が入った場合に、オブジェクトOB2(障害物)が
透過状態(半透明)になる。従って、プレーヤ(視点V
P)は、オブジェクトOB2を透過してオブジェクトO
B1を見ることができるようになり、自身が操作するオ
ブジェクトOB1(或いは相手プレーヤが操作するオブ
ジェクト)がOB2に隠れて見えなくなる事態を防止で
きる。
According to the above first processing example, when the object OB1 (character) enters the area RGA (hatched area) of FIG. 4, the object OB2 (obstacle) becomes transparent (translucent). Become. Therefore, the player (viewpoint V
P) passes through the object OB2 and passes through the object O.
It becomes possible to see B1, and it is possible to prevent a situation where the object OB1 operated by itself (or the object operated by the opponent player) is hidden by OB2 and cannot be seen.

【0069】しかも、この第1の処理例によれば、図3
(A)のようにオブジェクトOB1、OB2のZ座標を
比較し、図3(B)のようにOB1、OB2のX座標の
差と半径パラメータRとからα値を求めるだけで、図4
のようなオブジェクトOB2の透過表示を実現できる。
即ち、Z座標とX座標を用いた線形演算等だけでオブジ
ェクトOB2の透過表示処理を実現できる。従って、オ
ブジェクトOB2が視点障害物となってオブジェクトO
B1が見えなくなる事態を、特開平9−50541の従
来技術に比べて格段に少ない処理負荷で解決できる。
Moreover, according to this first processing example, FIG.
As shown in FIG. 4A, the Z coordinates of the objects OB1 and OB2 are compared, and the α value is calculated from the difference between the X coordinates of OB1 and OB2 and the radius parameter R as shown in FIG.
It is possible to realize the transparent display of the object OB2.
That is, the transparent display process of the object OB2 can be realized only by a linear calculation using the Z coordinate and the X coordinate. Therefore, the object OB2 becomes a viewpoint obstacle and the object O
The situation where B1 becomes invisible can be solved with a processing load that is significantly smaller than that of the conventional technique disclosed in Japanese Patent Laid-Open No. 9-50541.

【0070】なお、オブジェクトOB2を透過表示にす
る際にプレーヤが不自然さを感じないようにするために
は、図4の領域RG1、RG2(透過処理が開始される
境界を含む領域)において、オブジェクトOB2のα値
を徐々に変化させることが望ましい。即ち、オブジェク
トOB1がOB2の奥側に回り込んだ時にOB2を直ぐ
に透明にするのではなく、OB1が回り込んだ深さに応
じて、OB2を不透明から徐々に透明にして行く。これ
により、OB2が透過状態になったことが目立たなくな
り、プレーヤが不自然さをそれほど感じない画像を生成
できる。
In order to prevent the player from feeling unnatural when the object OB2 is displayed transparently, in the areas RG1 and RG2 (the area including the boundary where the transparent processing is started) in FIG. It is desirable to gradually change the α value of the object OB2. That is, OB2 is not immediately made transparent when the object OB1 wraps around the inner side of OB2, but OB2 is gradually made transparent from opaque according to the depth OB1 wraps around. This makes it inconspicuous that the OB 2 is in the transparent state, and it is possible to generate an image in which the player does not feel unnatural.

【0071】2.3 第2の処理例 次に、図2(A)〜(D)の手法を実現する第2の処理
例について説明する。
2.3 Second Processing Example Next, a second processing example for realizing the method shown in FIGS. 2A to 2D will be described.

【0072】さて、前述の第1の処理例は、オブジェク
トOB2が円柱形状や多角形形状の場合には好適な処理
になるが、OB2が壁などの板形状である場合には、不
具合が生じる可能性がある。
The above-described first processing example is suitable for the case where the object OB2 has a cylindrical shape or a polygonal shape, but causes a problem when the object OB2 has a plate shape such as a wall. there is a possibility.

【0073】例えば図5では、板形状のオブジェクトO
B2(壁)が、その面と視線方向とのなす角度が鋭角に
なるように配置されており、このOB2の手前側の直ぐ
近くにオブジェクトOB1(キャラクタ)が位置してい
る。図5のような状況の場合、オブジェクトOB1の代
表点RP1のZ座標はオブジェクトOB2(壁)の代表
点RP2のZ座標よりも大きいため、視点から見てOB
1はOB2の奥側にあると判断されてしまう。また、図
5の状況の場合、オブジェクトOB1の代表点RP1の
X座標は、オブジェクトOB2の代表点RP2のX座標
から半径パラメータR以内にあると判断されてしまう。
従って、図3(A)、(B)の第1の処理例を用いる
と、図5のようにオブジェクトOB1がOB2に隠れて
いないような状況の場合でも、OB2が透過状態になっ
てしまう。このように不必要にオブジェクトOB2が透
過状態になってしまうと、プレーヤが不自然さを感じる
事態が生じる。
For example, in FIG. 5, a plate-shaped object O
B2 (wall) is arranged such that the angle between its surface and the line-of-sight direction is an acute angle, and the object OB1 (character) is located immediately near the front side of this OB2. In the case of the situation shown in FIG. 5, the Z coordinate of the representative point RP1 of the object OB1 is larger than the Z coordinate of the representative point RP2 of the object OB2 (wall).
1 is determined to be on the back side of OB2. Further, in the situation of FIG. 5, it is determined that the X coordinate of the representative point RP1 of the object OB1 is within the radius parameter R from the X coordinate of the representative point RP2 of the object OB2.
Therefore, when the first processing example of FIGS. 3A and 3B is used, OB2 is in a transparent state even in a situation where the object OB1 is not hidden by OB2 as shown in FIG. When the object OB2 becomes transparent in this way unnecessarily, the player may feel unnatural.

【0074】これに対して、以下に説明する第2の処理
例によれば、このような事態を防止できる。
On the other hand, according to the second processing example described below, such a situation can be prevented.

【0075】この第2の処理例では、図6(A)に示す
ように、オブジェクトOB1の代表点RP1(例えばO
B1の中心点。キャラクタであるOB1の腰の位置の
点)とオブジェクトOB2の代表点RP2(例えばOB
1の中心点。中心点から所与のオフセットだけ手前側の
点)とを結ぶ方向のベクトルV12と、オブジェクトO
B2の面(主面)の方向を表す法線ベクトルVN2(面
に垂直なベクトル)とに基づいて、オブジェクトOB1
がOB2の奥側にあるか否かを判断する。
In this second processing example, as shown in FIG. 6A, the representative point RP1 of the object OB1 (for example, O
The center point of B1. Waist position point of character OB1) and representative point RP2 of object OB2 (for example, OB
The center point of 1. The vector V12 in the direction connecting the center point to a point on the front side by a given offset) and the object O
Based on the normal vector VN2 (vector perpendicular to the plane) representing the direction of the plane (main plane) of B2, the object OB1
Is on the back side of OB2.

【0076】より具体的には、ベクトルV12と法線ベ
クトルVN2との内積を計算し、この内積の値に基づい
て、図6(A)の領域RGB、RGCのいずれにオブジ
ェクトOB1が位置するかを調べる。そして、領域RG
CにオブジェクトOB1が位置している場合には、OB
1がOB2の奥側にあると判断する。
More specifically, the inner product of the vector V12 and the normal vector VN2 is calculated, and whether the object OB1 is located in the area RGB or RGC of FIG. 6A based on the value of this inner product. Find out. And the region RG
If the object OB1 is located in C, OB
It is determined that 1 is behind OB2.

【0077】そして、この第2の処理例では、図6
(A)の手法により、オブジェクトOB2がOB1の奥
側にあると判断された場合に、スクリーン座標系におけ
るオブジェクトOB1、OB2のX座標(水平方向の座
標)に基づいて、OB2の透過処理を行う。
Then, in this second processing example, as shown in FIG.
When it is determined by the method (A) that the object OB2 is at the back of the object OB1, the transparent processing of the object OB2 is performed based on the X coordinate (horizontal coordinate) of the objects OB1 and OB2 in the screen coordinate system. .

【0078】より具体的には図6(B)に示すように、
オブジェクトOB1の代表点RP1のX座標X1と、オ
ブジェクトOB2の代表点RP2、左端点EL2、右端
点ER2のX座標X2、XL2、XR2とに基づいてα
値を求める。
More specifically, as shown in FIG.
Α based on the X coordinate X1 of the representative point RP1 of the object OB1 and the X coordinate X2, XL2, XR2 of the representative point RP2, the left end point EL2, and the right end point ER2 of the object OB2.
Find the value.

【0079】即ち、オブジェクトOB1がOB2の左側
に位置する場合(X1<X2)には、|XL2−X2|
に対する|X1ーX2|の比が小さくなるほどオブジェ
クトOB2がより透明になるようなα値を求める。
That is, when the object OB1 is located on the left side of OB2 (X1 <X2), | XL2-X2 |
An α value is calculated such that the object OB2 becomes more transparent as the ratio of | X1-X2 |

【0080】一方、オブジェクトOB1がOB2の右側
に位置する場合(X1≧X2)には、|XR2−X2|
に対する|X1ーX2|の比が小さくなるほどオブジェ
クトOB2がより透明になるようなα値を求める。そし
て、この求められたα値(半透明度、透明度又は不透明
度等)に基づいてオブジェクトOB2の半透明処理(α
合成処理)を行う。この場合に、α値は、例えば下式の
ように表すことができる。
On the other hand, when the object OB1 is located on the right side of OB2 (X1 ≧ X2), | XR2-X2 |
An α value is calculated such that the object OB2 becomes more transparent as the ratio of | X1-X2 | Then, based on the obtained α value (semitransparency, transparency, opacity, or the like), the semitransparent process (α
(Synthesizing process) is performed. In this case, the α value can be expressed by the following equation, for example.

【0081】 X1<X2の場合 α=F(|X1ーX2|/|XL2−X2|) (4) X1≧X2の場合 α=F(|X1ーX2|/|XR2−X2|) (5) 上式において、|A|はAの絶対値であり、F(B)は
Bを引数とする関数である。この関数としては、Bの線
形式(例えばBに定数を乗算した式)を考えることがで
きる。
When X1 <X2 α = F (| X1-X2 | / | XL2-X2 |) (4) When X1 ≧ X2 α = F (| X1-X2 | / | XR2-X2 |) (5 In the above equation, | A | is the absolute value of A, and F (B) is a function with B as an argument. As this function, a linear form of B (for example, an expression obtained by multiplying B by a constant) can be considered.

【0082】以上の第2の処理例によれば、図7の領域
RGD(斜線領域)にオブジェクトOB1(キャラク
タ)が入った場合に、オブジェクトOB2(障害物)が
透過状態(半透明)になる。従って、プレーヤ(視点V
P)は、オブジェクトOB2を透過してオブジェクトO
B1を見ることができるようになり、自身が操作するオ
ブジェクトOB1(或いは相手プレーヤが操作するオブ
ジェクト)がオブジェクトOB2に隠れて見えなくなっ
てしまう事態を防止できる。
According to the above second processing example, when the object OB1 (character) enters the area RGD (hatched area) of FIG. 7, the object OB2 (obstacle) becomes transparent (translucent). . Therefore, the player (viewpoint V
P) passes through the object OB2 and passes through the object O.
It becomes possible to see B1, and it is possible to prevent a situation in which the object OB1 operated by itself (or the object operated by the opponent player) is hidden by the object OB2 and becomes invisible.

【0083】しかも、この第2の処理例によれば、図6
(A)のようにベクトルV12、VN2の内積を求め、
図6(B)のようにX座標X1、X2、XL2、XR2
の線形演算等によりα値を求めるだけで、図7のような
オブジェクトOB2の透過表示を実現できる。従って、
オブジェクトOB2が視点障害物となってオブジェクト
OB1が見えなくなる事態を、特開平9−50541の
従来技術に比べて格段に少ない処理負荷で解決できるよ
うになる。
Moreover, according to this second processing example, FIG.
As in (A), the inner product of the vectors V12 and VN2 is calculated,
As shown in FIG. 6B, X coordinates X1, X2, XL2, XR2
The transparent display of the object OB2 as shown in FIG. 7 can be realized only by obtaining the α value by the linear calculation of Therefore,
It becomes possible to solve the situation in which the object OB2 becomes a viewpoint obstacle and the object OB1 cannot be seen with a processing load which is significantly smaller than that of the conventional technique disclosed in Japanese Patent Laid-Open No. 9-50541.

【0084】また、この第2の処理例によれば、前述の
第1の処理例とは異なり、オブジェクトOB2が板形状
の場合に不必要にOB2が透過状態になってしまう事態
を防止できる。
Further, according to the second processing example, unlike the above-described first processing example, it is possible to prevent the situation where the OB2 becomes unnecessarily in the transparent state when the object OB2 has a plate shape.

【0085】なお、オブジェクトOB2を透過状態にす
る際にプレーヤが不自然さを感じないようにするために
は、図7の領域RG3、RG4(透過処理が開始される
境界を含む領域)において、オブジェクトOB2のα値
を徐々に変化させることが望ましい。即ち、オブジェク
トOB1がOB2の奥側に回り込んだ時に、OB2を直
ぐに透明にするのではなく、OB1が回り込んだ深さに
応じて、OB2を不透明から徐々に透明にして行く。こ
れにより、OB2が透過状態になったことが目立たなく
なり、プレーヤが不自然さをそれほど感じない画像を生
成できる。
In order to prevent the player from feeling unnatural when the object OB2 is placed in the transparent state, in the areas RG3 and RG4 (the area including the boundary where the transparent processing is started) in FIG. It is desirable to gradually change the α value of the object OB2. That is, when the object OB1 wraps around the back of OB2, OB2 is not immediately made transparent, but OB2 is gradually made transparent from opaque according to the depth OB1 wraps around. This makes it inconspicuous that the OB 2 is in the transparent state, and it is possible to generate an image in which the player does not feel unnatural.

【0086】2.4 位置確認用オブジェクト さて、本実施形態の手法では、図8に示すように視点V
Pから見てオブジェクトOB1がOB2の後ろに隠れて
しまった場合に、OB2を透過状態にする。この手法に
よれば、OB2を透過してOB1を見ることができるた
め、プレーヤがOB1を見失ってしまう事態を防止でき
る。
2.4 Object for Position Confirmation In the method of this embodiment, the viewpoint V as shown in FIG.
When the object OB1 is hidden behind OB2 when viewed from P, OB2 is made transparent. According to this method, it is possible to see OB1 through OB2, so that it is possible to prevent the player from losing sight of OB1.

【0087】しかしながら、その反面、この手法には、
OB2が透明になってしまうためOB2の存在位置をプ
レーヤが全く認識できなくなってしまうという問題があ
る。
However, on the other hand, in this method,
Since the OB2 becomes transparent, there is a problem that the player cannot recognize the existing position of the OB2 at all.

【0088】そして、図8のようにオブジェクトOB2
(柱等)が透過状態になった場合にも、ゲーム上はOB
2は存在したままとなっている。従って、例えば、プレ
ーヤがオブジェクトOB1(キャラクタ)を操作して、
図8のA1に示すように移動させた場合には、ヒットチ
ェック処理により、A2に示す地点でOB1がOB2に
衝突したと判定する。そして、オブジェクトOB1がO
B2の内部に侵入しないように、OB1は移動の制限を
受けることになる。このため、プレーヤは、図8のA3
に示すような迂回経路に沿ってオブジェクトOB1を移
動させなければならなくなる。
Then, as shown in FIG. 8, the object OB2
Even if a pillar or the like is in a transparent state, it is OB in the game.
2 still exists. Therefore, for example, when the player operates the object OB1 (character),
When it is moved as indicated by A1 in FIG. 8, it is determined by hit check processing that OB1 has collided with OB2 at the point indicated by A2. And the object OB1 is O
OB1 will be restricted from moving so as not to enter inside B2. For this reason, the player is
It becomes necessary to move the object OB1 along the detour route as shown in FIG.

【0089】ところが、オブジェクトOB2が透過状態
になっていると、どのような経路でオブジェクトOB1
を迂回させれば、OB2を避けて移動できるのかをプレ
ーヤは認識できなくなる。即ち、何も存在しない場所
に、見えない障害物があるかのような感覚をプレーヤに
与えるようになり、プレーヤのゲーム操作環境を阻害す
る。
However, when the object OB2 is in the transparent state, the route of the object OB1
By detouring, it becomes impossible for the player to recognize whether the player can move while avoiding OB2. That is, the player feels as if there is an invisible obstacle in a place where nothing is present, which hinders the game operation environment of the player.

【0090】そこで本実施形態では、オブジェクトOB
2が透過状態になった場合にも非透過状態のままとなる
位置確認用のオブジェクトOB3を設ける手法を採用し
ている。
Therefore, in this embodiment, the object OB
The method of providing the position confirmation object OB3 that remains in the non-transmissive state even when 2 is in the transmissive state is adopted.

【0091】より具体的には図9(A)に示すように、
オブジェクトOB2(柱、壁、建物)と地形面GS(人
工的な地形の面も含む)との間に、OB2の位置確認用
のオブジェクトOB3を配置する。この場合、オブジェ
クトOB2とOB3の境界は目立たないようにしてお
く。
More specifically, as shown in FIG.
An object OB3 for confirming the position of OB2 is arranged between the object OB2 (pillar, wall, building) and the terrain surface GS (including artificial terrain surface). In this case, the boundary between the objects OB2 and OB3 is made inconspicuous.

【0092】そして図9(B)に示すように、オブジェ
クトOB1がOB2の後ろに隠れ、OB2が透過状態
(透明、半透明)になった場合にも、オブジェクトOB
3については非透過状態(不透明)のままにしておく。
Then, as shown in FIG. 9B, even when the object OB1 is hidden behind OB2 and OB2 is in a transparent state (transparent or translucent), the object OB
No. 3 is left in the non-transmissive state (opaque).

【0093】このようにすることで、プレーヤは、オブ
ジェクトOB2が存在していた場所を、オブジェクトO
B3を見ることで確認できるようになる。従って、図8
のA1、A2に示すようにオブジェクトOB1がOB2
に衝突する事態を防止でき、A3に示すような適正な迂
回路に沿ってOB1を移動させることができるようにな
る。
By doing so, the player can change the place where the object OB2 existed to the object O2.
You can check it by looking at B3. Therefore, FIG.
As shown in A1 and A2 of FIG.
It is possible to prevent a situation where the OB1 collides with the vehicle, and it becomes possible to move the OB1 along an appropriate detour as indicated by A3.

【0094】しかも、オブジェクトOB2の下に位置す
るOB3は非透過状態になっているが、OB3の上のO
B2については透過状態になっている。従って、プレー
ヤは、この透過状態のオブジェクトOB2を介してOB
1を見ることが可能になり、プレーヤが、注視物である
OB1を見失ってしまう事態も防止できる。
Moreover, although the OB3 located under the object OB2 is in the non-transparent state, the O above the OB3
B2 is in a transparent state. Therefore, the player uses the object OB2 in the transparent state to execute the OB.
1 can be seen, and the situation in which the player loses sight of OB1, which is a gazing object, can be prevented.

【0095】なお、オブジェクトOB3は図9(B)に
示す形状に限定されず、種々の形状を採用できる。例え
ば地形面GS(地面。ゲームフィールド面)に配置され
た、厚みの無い板状のオブジェクト(ポリゴン)でもよ
い。
The object OB3 is not limited to the shape shown in FIG. 9B, and various shapes can be adopted. For example, a plate-like object (polygon) having no thickness, which is arranged on the terrain surface GS (ground surface, game field surface), may be used.

【0096】なお、プレーヤがオブジェクトOB2の位
置及び形状を容易に認識できるようにするためには、オ
ブジェクトOB2の断面(XZ平面に平行な断面)の形
状とほぼ同一の断面形状をオブジェクトOB3に持たせ
ることが望ましい。
In order for the player to easily recognize the position and shape of the object OB2, the object OB3 has a cross-sectional shape that is substantially the same as the shape of the cross section of the object OB2 (cross section parallel to the XZ plane). It is desirable to let them.

【0097】3.本実施形態の処理 次に、本実施形態の処理の詳細例について、図10、図
11のフローチャートを用いて説明する。
3. Processing of this Embodiment Next, a detailed example of the processing of this embodiment will be described with reference to the flowcharts of FIGS. 10 and 11.

【0098】図10は、図3(A)、(B)の第1の処
理例のフローチャートである。
FIG. 10 is a flowchart of the first processing example of FIGS. 3 (A) and 3 (B).

【0099】まず、視点(スクリーン)座標系でのオブ
ジェクトOB1、OB2の代表点RP1、RP2のZ座
標Z1、Z2を得る(ステップS1。図3(A)参
照)。そして、Z1>Z2か否かを判断し(ステップS
2)、Z1≦Z2の場合には、処理を終了する。
First, the Z coordinates Z1 and Z2 of the representative points RP1 and RP2 of the objects OB1 and OB2 in the viewpoint (screen) coordinate system are obtained (step S1, see FIG. 3A). Then, it is determined whether or not Z1> Z2 (step S
2) If Z1 ≦ Z2, the process ends.

【0100】一方、Z1>Z2の場合には、スクリーン
座標系でのオブジェクトOB1、OB2の代表点RP
1、RP2のX座標X1、X2を求める(ステップS
3。図3(B)参照)。そして、X座標の差|X1ーX
2|とオブジェクトOB2の半径パラメータRとに基づ
き、OB2のα値であるα=F(|X1−X2|/R)
を求める(ステップS4)。
On the other hand, when Z1> Z2, the representative point RP of the objects OB1 and OB2 in the screen coordinate system.
1, X-coordinates X1 and X2 of RP2 are obtained (step S
3. See FIG. 3B). And the difference of X coordinate | X1-X
2 | and the radius parameter R of the object OB2, α = F (| X1-X2 | / R), which is the α value of OB2.
Is calculated (step S4).

【0101】次に、求められたα値に基づき、オブジェ
クトOB2の半透明処理を行う(ステップS5)。具体
的には、求められたα値をオブジェクトOB2の頂点α
値に設定して、この頂点α値に基づきオブジェクトOB
2のα合成処理(αブレンディング、α加算又はα減算
等)を行う。
Next, the semitransparent process of the object OB2 is performed based on the obtained α value (step S5). Specifically, the obtained α value is set to the vertex α of the object OB2.
Value to the object OB based on this vertex α value
The α synthesis processing of 2 (α blending, α addition or α subtraction, etc.) is performed.

【0102】図11は、図6(A)、(B)の第2の処
理例のフローチャートである。
FIG. 11 is a flowchart of the second processing example of FIGS. 6 (A) and 6 (B).

【0103】まず、視線ベクトルVLとオブジェクトO
B1の面(主面)の法線ベクトルVN2の内積を求める
(ステップS11)。そして、この求められた内積に基
づいて、オブジェクトOB2の面が表向きか裏向きかを
調べる(ステップS12)。そして、裏向きの場合(V
N2が視点から遠ざかる方向に向いている場合)には、
オブジェクトOB2の表示が不要になるため、処理を終
了する。
First, the line-of-sight vector VL and the object O
The inner product of the normal vector VN2 of the surface (main surface) of B1 is obtained (step S11). Then, it is checked whether the surface of the object OB2 is face up or face down based on the obtained inner product (step S12). And if it is face down (V
N2 is facing away from the viewpoint),
Since the display of the object OB2 becomes unnecessary, the processing ends.

【0104】一方、表向きの場合には、オブジェクトO
B1、OB2の代表点RP1、RP2を結ぶ方向のベク
トルV12と法線ベクトルVN2の内積を求める(ステ
ップS13。図6(A)参照)。そして、求められた内
積に基づいて、オブジェクトOB1がOB2の奥側の領
域(RGC)に位置するか否かを判断する(ステップS
14)。そして、手前側の領域(RGB)にある場合に
は処理を終了する。
On the other hand, in the case of face up, the object O
The inner product of the vector V12 in the direction connecting the representative points RP1 and RP2 of B1 and OB2 and the normal vector VN2 is obtained (step S13; see FIG. 6A). Then, based on the obtained inner product, it is determined whether or not the object OB1 is located in the region (RGC) on the back side of OB2 (step S).
14). Then, if it is in the front side area (RGB), the processing is ended.

【0105】一方、奥側の領域にある場合には、オブジ
ェクトOB1の代表点RP1のスクリーン座標系でのX
座標X1と、オブジェクトOB2の代表点RP2、左端
点EL2、右端点ER2のスクリーン座標系でのX座標
X2、XL2、XR2を求める(ステップS15)。
On the other hand, when it is in the area on the back side, X in the screen coordinate system of the representative point RP1 of the object OB1.
X coordinates X2, XL2, XR2 in the screen coordinate system of the coordinate X1, the representative point RP2, the left end point EL2, and the right end point ER2 of the object OB2 are obtained (step S15).

【0106】次に、X1<X2か否かを判断し(ステッ
プS16)、X1<X2の場合には、X座標の差|X1
−X2|と|XL2−X2|に基づき、オブジェクトO
B2のα値であるα=F(|X1−X2|/|XL2−
X2|)を求める(ステップS17)。一方、X1≧X
2の場合には、X座標の差|X1−X2|と|XR2−
X2|に基づき、オブジェクトOB2のα値であるα=
F(|X1−X2|/|XR2−X2|)を求める(ス
テップS18)。
Next, it is determined whether or not X1 <X2 (step S16). If X1 <X2, the difference in X coordinate | X1
-X2 | and | XL2-X2 |
Α value of B2 α = F (| X1-X2 | / | XL2-
X2 |) is calculated (step S17). On the other hand, X1 ≧ X
In the case of 2, the difference of X coordinates | X1-X2 | and | XR2-
Α = which is the α value of the object OB2 based on X2 |
F (| X1-X2 | / | XR2-X2 |) is calculated (step S18).

【0107】そして、求められたα値に基づいて、オブ
ジェクトOB2の半透明処理を行う(ステップS1
9)。
Then, the object OB2 is semi-transparently processed based on the obtained α value (step S1).
9).

【0108】4.ハードウェア構成 次に、本実施形態を実現できるハードウェアの構成の一
例について図12を用いて説明する。
4. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0109】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 is a CD982
It operates based on a program stored in the (information storage medium), a program transferred via the communication interface 990, a program stored in the ROM 950 (one of the information storage media), game processing, image processing,
Various processing such as sound processing is executed.

【0110】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a product-sum calculator and a divider capable of high-speed parallel calculation, and executes matrix calculation (vector calculation) at high speed. For example, when a physical simulation for moving or moving an object requires a process such as a matrix calculation, a program operating on the main processor 900 instructs (requests) the coprocessor 902 to perform the process. ) Do.

【0111】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation and curved surface generation, has a product-sum calculator and a divider capable of high-speed parallel calculation, and performs matrix calculation (vector calculation). Calculation) is executed at high speed. For example, when processing such as coordinate transformation, perspective transformation, and light source calculation is performed, the program running on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0112】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インターフェー
ス990を介して外部から転送される。
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG system or the like can be displayed on the opening screen, the intermission screen, the ending screen, the game screen, or the like. The image data and sound data to be decoded are stored in the ROM 950,
It is stored in the CD 982 or transferred from the outside via the communication interface 990.

【0113】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ(プリミティブ面)で構成されるオ
ブジェクトの描画(レンダリング)処理を高速に実行す
るものである。オブジェクトの描画の際には、メインプ
ロセッサ900は、DMAコントローラ970の機能を
利用して、オブジェクトデータを描画プロセッサ910
に渡すと共に、必要であればテクスチャ記憶部924に
テクスチャを転送する。すると、描画プロセッサ910
は、これらのオブジェクトデータやテクスチャに基づい
て、Zバッファなどを利用した陰面消去を行いながら、
オブジェクトをフレームバッファ922に高速に描画す
る。また、描画プロセッサ910は、αブレンディング
(半透明処理)、デプスキューイング、ミップマッピン
グ、フォグ処理、バイリニア・フィルタリング、トライ
リニア・フィルタリング、アンチエリアシング、シェー
ディング処理なども行うことができる。そして、1フレ
ーム分の画像がフレームバッファ922に書き込まれる
と、その画像はディスプレイ912に表示される。
The drawing processor 910 is for executing the drawing (rendering) processing of an object composed of primitives (primitive surfaces) such as polygons and curved surfaces at high speed. When drawing an object, the main processor 900 uses the function of the DMA controller 970 to draw the object data into the drawing processor 910.
And transfers the texture to the texture storage unit 924 if necessary. Then, the drawing processor 910
Is performing hidden surface removal using a Z buffer based on these object data and textures,
The object is drawn in the frame buffer 922 at high speed. The drawing processor 910 can also perform α blending (semi-transparency processing), depth cuing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. Then, when the image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

【0114】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 incorporates a multi-channel ADPCM sound source, etc., and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.

【0115】ゲームコントローラ942(レバー、ボタ
ン、筺体、パッド型コントローラ又はガン型コントロー
ラ等)からの操作データや、メモリカード944からの
セーブデータ、個人データは、シリアルインターフェー
ス940を介してデータ転送される。
Operation data from the game controller 942 (lever, button, housing, pad-type controller, gun-type controller, etc.), save data from the memory card 944, and personal data are transferred via the serial interface 940. .

【0116】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
The ROM 950 stores system programs and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. A hard disk may be used instead of the ROM 950.

【0117】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0118】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
The DMA controller 970 is a DM between processors and memories (RAM, VRAM, ROM, etc.).
It controls the A transfer.

【0119】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
The CD drive 980 is a CD 982 for storing programs, image data, sound data and the like.
(Information storage medium) is driven to enable access to these programs and data.

【0120】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他の画
像生成システムとの間でのデータ転送が可能になる。
The communication interface 990 is an interface for transferring data with the outside via a network. In this case, a communication line (analog telephone line, ISDN), high-speed serial bus, or the like can be considered as the network connected to the communication interface 990. Then, by using the communication line, data transfer via the Internet becomes possible. Further, by using the high-speed serial bus, it becomes possible to transfer data with another image generation system.

【0121】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実現してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実現してもよい。或
いは、ハードウェアとプログラムの両方により実現して
もよい。
The respective means of the present invention may be realized by hardware only, or only by a program stored in an information storage medium or a program distributed via a communication interface. Good. Alternatively, it may be realized by both hardware and a program.

【0122】そして、本発明の各手段をハードウェアと
プログラムの両方により実現する場合には、情報記憶媒
体には、ハードウェア(コンピュータ)を本発明の各手
段として機能させるためのプログラムが格納されること
になる。より具体的には、上記プログラムが、ハードウ
ェアである各プロセッサ902、904、906、91
0、930等に処理を指示すると共に、必要であればデ
ータを渡す。そして、各プロセッサ902、904、9
06、910、930等は、その指示と渡されたデータ
とに基づいて、本発明の各手段を実現することになる。
When each means of the present invention is realized by both hardware and a program, the information storage medium stores a program for causing the hardware (computer) to function as each means of the present invention. Will be. More specifically, the program is executed by each of the processors 902, 904, 906, 91 which are hardware.
0, 930, etc. are instructed to perform processing, and data is passed if necessary. Then, each processor 902, 904, 9
06, 910, 930 and the like realize each means of the present invention based on the instruction and the passed data.

【0123】図13(A)に、本実施形態を業務用ゲー
ムシステム(画像生成システム)に適用した場合の例を
示す。プレーヤは、ディスプレイ1100上に映し出さ
れたゲーム画像を見ながら、コントローラ1102など
を操作してゲームを楽しむ。内蔵されるシステムボード
(サーキットボード)1106には、各種プロセッサ、
各種メモリなどが実装される。そして、本発明の各手段
を実現するためのプログラム(データ)は、システムボ
ード1106上の情報記憶媒体であるメモリ1108に
格納される。以下、このプログラムを格納プログラム
(格納情報)と呼ぶ。
FIG. 13A shows an example in which the present embodiment is applied to an arcade game system (image generation system). The player enjoys the game by operating the controller 1102 and the like while looking at the game image displayed on the display 1100. The built-in system board (circuit board) 1106 has various processors,
Various memories are installed. A program (data) for realizing each unit of the present invention is stored in the memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this program is referred to as a storage program (stored information).

【0124】図13(B)に、本実施形態を家庭用のゲ
ームシステム(画像生成システム)に適用した場合の例
を示す。プレーヤはディスプレイ1200に映し出され
たゲーム画像を見ながら、コントローラ1202、12
04などを操作してゲームを楽しむ。この場合、上記格
納プログラム(格納情報)は、本体システムに着脱自在
な情報記憶媒体であるCD1206、或いはメモリカー
ド1208、1209などに格納されている。
FIG. 13B shows an example in which this embodiment is applied to a home game system (image generation system). While watching the game image displayed on the display 1200, the player plays the controllers 1202, 12
Operate 04 etc. to enjoy the game. In this case, the storage program (stored information) is stored in the CD 1206 or memory cards 1208, 1209, which is a removable information storage medium in the main body system.

【0125】図13(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-n(ゲーム機、携帯電話)とを含むシ
ステムに本実施形態を適用した場合の例を示す。この場
合、上記格納プログラム(格納情報)は、例えばホスト
装置1300が制御可能な磁気ディスク装置、磁気テー
プ装置、メモリなどの情報記憶媒体1306に格納され
ている。端末1304-1〜1304-nが、スタンドア
ロンでゲーム画像、ゲーム音を生成できるものである場
合には、ホスト装置1300からは、ゲーム画像、ゲー
ム音を生成するためのゲームプログラム等が端末130
4-1〜1304-nに配送される。一方、スタンドアロ
ンで生成できない場合には、ホスト装置1300がゲー
ム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 13C shows a host device 1300,
This host device 1300 and network 1302 (LA
A terminal 130 connected via a small network such as N or a wide area network such as the Internet)
An example in which the present embodiment is applied to a system including 4-1 to 1304-n (game machine, mobile phone) will be shown. In this case, the storage program (stored information) is stored in the information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300. When the terminals 1304-1 to 1304-n are capable of standalone generation of the game image and the game sound, the host device 1300 provides the terminal 130 with the game image and the game program for generating the game sound.
It is delivered to 4-1 to 1304-n. On the other hand, if it cannot be generated standalone, the host device 1300 generates a game image and a game sound, and the terminal device 1304-1.
It will be transmitted to 1304-n and output at the terminal.

【0126】なお、図13(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実現するようにしてもよい。また、本発明の各手段
を実現するための上記格納プログラム(格納情報)を、
ホスト装置(サーバー)の情報記憶媒体と端末の情報記
憶媒体に分散して格納するようにしてもよい。
In the case of the configuration shown in FIG. 13C, the respective means of the present invention may be realized by being distributed between the host device (server) and the terminal. In addition, the storage program (stored information) for realizing each means of the present invention,
The information may be distributed and stored in the information storage medium of the host device (server) and the information storage medium of the terminal.

【0127】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能なセーブ用
情報記憶装置(メモリカード、携帯型ゲーム装置)を用
いることが望ましい。
Further, the terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, a save information storage device is capable of exchanging information with the arcade game system and also with the home game system. (Memory card, portable game device) is preferably used.

【0128】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to that described in the above embodiment, and various modifications can be made.

【0129】例えば本実施形態では、第2のオブジェク
ト(OB2)の透過処理として、半透明処理を例にあげ
て主に説明したが、本発明の透過処理はこれに限定され
ない。例えば、透明処理(透明と不透明を切り替える処
理)やメッシュ処理(第2のオブジェクトの画素とその
背景の画素がメッシュ状に表示される処理)などを行っ
てもよい。
For example, in the present embodiment, as the transparent processing of the second object (OB2), the translucent processing has been mainly described as an example, but the transparent processing of the present invention is not limited to this. For example, transparent processing (processing for switching between transparent and opaque) and mesh processing (processing for displaying the pixels of the second object and the pixels of the background thereof in a mesh) may be performed.

【0130】また、第2のオブジェクトを透過表示にす
る処理としては、図3(A)、(B)、図6(A)、
(B)で説明した手法が望ましいが、これと均等な種々
の変形実施が可能である。例えば、スクリーン座標系で
の第1、第2のオブジェクトのY座標(垂直方向に沿っ
た座標)に基づいて第2のオブジェクトの透過処理を行
うことも可能である。
Further, as the processing for making the second object transparent display, as shown in FIGS. 3 (A), (B), FIG. 6 (A),
The method described in (B) is desirable, but various modifications equivalent to this method are possible. For example, it is possible to perform the transparent processing of the second object based on the Y coordinates (coordinates along the vertical direction) of the first and second objects in the screen coordinate system.

【0131】また、本発明のうち従属請求項に係る発明
においては、従属先の請求項の構成要件の一部を省略す
る構成とすることもできる。また、本発明の1の独立請
求項に係る発明の要部を、他の独立請求項に従属させる
こともできる。
In the invention according to the dependent claim of the present invention, it is possible to omit some of the constituent elements of the claim on which the invention is dependent. Further, a main part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

【0132】また、本発明は種々のゲーム(格闘ゲー
ム、シューティングゲーム、ロボット対戦ゲーム、スポ
ーツゲーム、競争ゲーム、ロールプレイングゲーム、音
楽演奏ゲーム、ダンスゲーム等)に適用できる。
The present invention can be applied to various games (fighting games, shooting games, robot battle games, sports games, competition games, role playing games, music playing games, dance games, etc.).

【0133】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
画像生成システム(ゲームシステム)に適用できる。
The present invention is also applicable to various image generation systems (games) such as an arcade game system, a home game system, a large attraction system in which many players participate, a simulator, a multimedia terminal, and a system board for generating game images. System).

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態の画像生成システムの機能ブロック
図の例である。
FIG. 1 is an example of a functional block diagram of an image generation system of this embodiment.

【図2】図2(A)、(B)、(C)、(D)は、オブ
ジェクトOB2を透過状態にする本実施形態の手法につ
いて説明するための図である。
FIGS. 2A, 2B, 2C, and 2D are diagrams for explaining the method of the present embodiment that makes an object OB2 in a transparent state.

【図3】図3(A)、(B)は、オブジェクトOB1、
OB2のZ座標、X座標に基づいてOB2を透過状態に
する第1の処理例について説明するための図である。
3A and 3B show an object OB1,
It is a figure for demonstrating the 1st example of a process which makes OB2 a transparent state based on the Z coordinate and X coordinate of OB2.

【図4】第1の処理例によりオブジェクトOB2が透過
状態になる様子を示す図である。
FIG. 4 is a diagram showing a state in which an object OB2 is in a transparent state according to a first processing example.

【図5】第1の処理例の問題点を説明するための図であ
る。
FIG. 5 is a diagram for explaining a problem of the first processing example.

【図6】図6(A)、(B)は、板形状のオブジェクト
OB2を透過状態にする第2の処理例について説明する
ための図である。
FIGS. 6A and 6B are views for explaining a second processing example in which the plate-shaped object OB2 is put into a transparent state.

【図7】第2の処理例によりオブジェクトOB2が透過
状態になる様子を示す図である。
FIG. 7 is a diagram showing a state in which an object OB2 is in a transparent state according to a second processing example.

【図8】オブジェクトOB2を透過状態にすることで生
じる問題点について説明するための図である。
FIG. 8 is a diagram for explaining a problem that occurs when the object OB2 is in a transparent state.

【図9】図9(A)、(B)は、オブジェクトOB2の
位置確認用のオブジェクトOB3を配置する手法につい
て説明するための図である。
9A and 9B are views for explaining a method of arranging an object OB3 for confirming the position of the object OB2.

【図10】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 10 is a flowchart illustrating a detailed example of processing according to the present exemplary embodiment.

【図11】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 11 is a flowchart illustrating a detailed example of processing according to the present exemplary embodiment.

【図12】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 12 is a diagram showing an example of a hardware configuration capable of realizing the present embodiment.

【図13】図13(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
13 (A), (B), and (C) are diagrams showing examples of various types of systems to which the present embodiment is applied.

【符号の説明】[Explanation of symbols]

OB1 第1のオブジェクト OB2 第2のオブジェクト OB3 第3のオブジェクト PM1、PM2 透視変換画像 VP 視点 SC スクリーン 100 処理部 110 オブジェクト空間設定部 112 移動・動作処理部 114 透過処理部 120 画像生成部 130 音生成部 160 操作部 170 記憶部 172 主記憶部 174 描画バッファ 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 OB1 first object OB2 second object OB3 third object PM1, PM2 perspective conversion image VP perspective SC screen 100 processing unit 110 Object space setting section 112 Movement / motion processing unit 114 transparency processing unit 120 Image generator 130 sound generator 160 Operation part 170 storage 172 main memory 174 Drawing buffer 180 Information storage medium 190 Display 192 sound output section 194 Portable information storage device 196 Communications Department

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 BA01 BA03 BA05 BC01 BC03 BC07 BC08 CB01 CB04 CC02 DA04 5B050 BA07 BA09 CA07 EA07 EA11 EA19 EA27 EA28 5B080 BA02 BA04 DA06 FA03 FA08 FA17 GA02    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 2C001 BA01 BA03 BA05 BC01 BC03                       BC07 BC08 CB01 CB04 CC02                       DA04                 5B050 BA07 BA09 CA07 EA07 EA11                       EA19 EA27 EA28                 5B080 BA02 BA04 DA06 FA03 FA08                       FA17 GA02

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 画像生成を行う画像生成システムであっ
て、 第1、第2のオブジェクトを含む複数のオブジェクトを
オブジェクト空間に配置設定するオブジェクト空間設定
手段と、 視点から見て第1のオブジェクトが第2のオブジェクト
の奥側にあると判断され、且つ、第1のオブジェクトの
スクリーンへの透視変換画像が、第2のオブジェクトの
スクリーンへの透視変換画像に重なった場合に、第2の
オブジェクトを透過して第1のオブジェクトが視点から
見えるようにするための第2のオブジェクトの透過処理
を行う手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段とを含むことを特徴とする画像生成システム。
1. An image generation system for generating an image, comprising: an object space setting means for setting and setting a plurality of objects including a first object and a second object in an object space; and a first object seen from a viewpoint. When it is determined that the second object is located behind the second object, and the perspective-transformed image of the first object on the screen overlaps with the perspective-transformed image of the second object on the screen, the second object is selected. And a means for transparently processing the second object to make the first object visible from the viewpoint, and a means for generating an image at a given viewpoint in the object space. Image generation system.
【請求項2】 請求項1において、 視点座標系又はスクリーン座標系における奥行き方向の
座標をZ座標とした場合に、視点から見て第1のオブジ
ェクトが第2のオブジェクトの奥側にあるか否かを、第
1、第2のオブジェクトのZ座標に基づいて判断するこ
とを特徴とする画像生成システム。
2. The method according to claim 1, wherein when the coordinate in the depth direction in the viewpoint coordinate system or the screen coordinate system is the Z coordinate, whether the first object is on the back side of the second object as viewed from the viewpoint. An image generation system characterized by determining whether or not it is based on the Z coordinates of the first and second objects.
【請求項3】 請求項1又は2において、 スクリーン座標系における水平方向の座標をX座標とし
た場合に、スクリーン座標系における第1、第2のオブ
ジェクトのX座標に基づいて、第2のオブジェクトの透
過処理を行うことを特徴とする画像生成システム。
3. The second object according to claim 1, wherein when the horizontal coordinate in the screen coordinate system is X coordinate, the second object is based on the X coordinate of the first and second objects in the screen coordinate system. An image generation system characterized by performing transparent processing of.
【請求項4】 請求項3において、 前記透過処理がα値に基づく半透明処理であり、 第1のオブジェクトの代表点のX座標と、第2のオブジ
ェクトの代表点のX座標と、第2のオブジェクトのX座
標方向の大きさを表すためのパラメータとに基づいてα
値を求め、求められたα値に基づいて第2のオブジェク
トの半透明処理を行うことを特徴とする画像生成システ
ム。
4. The translucent process according to claim 3, wherein the translucent process is a translucent process based on an α value, and the X coordinate of the representative point of the first object, the X coordinate of the representative point of the second object, and the second coordinate Α based on the parameter for expressing the size of the object in the X coordinate direction
An image generation system, wherein a value is obtained, and the second object is semi-transparently processed based on the obtained α value.
【請求項5】 請求項1において、 視点から見て第1のオブジェクトが第2のオブジェクト
の奥側にあるか否かを、第1のオブジェクトの代表点と
第2のオブジェクトの代表点とを結ぶ方向のベクトル
と、第2のオブジェクトの面の方向を表す法線ベクトル
とに基づいて判断することを特徴とする画像生成システ
ム。
5. The method according to claim 1, wherein whether or not the first object is behind the second object when viewed from the viewpoint is determined by selecting a representative point of the first object and a representative point of the second object. An image generation system characterized by making a judgment based on a vector of a connecting direction and a normal vector representing a direction of a surface of a second object.
【請求項6】 請求項1又は5において、 前記透過処理がα値に基づく半透明処理であり、 スクリーン座標系における水平方向の座標をX座標とし
た場合に、第1のオブジェクトの代表点のX座標と、第
2のオブジェクトの左端点、右端点、代表点のX座標と
に基づいてα値を求め、求められたα値に基づいて第2
のオブジェクトの半透明処理を行うことを特徴とする画
像生成システム。
6. The representative point of the first object according to claim 1 or 5, wherein the transparent process is a translucent process based on an α value, and when the horizontal coordinate in the screen coordinate system is the X coordinate. The α value is obtained based on the X coordinate and the X coordinate of the left end point, the right end point, and the representative point of the second object, and the second value is obtained based on the obtained α value.
Image generation system characterized by performing semi-transparent processing of the object.
【請求項7】 画像生成を行う画像生成システムであっ
て、 第1、第2のオブジェクトを含む複数のオブジェクトを
オブジェクト空間に配置設定するオブジェクト空間設定
手段と、 スクリーン座標系における水平方向の座標をX座標とし
た場合に、スクリーン座標系における第1、第2のオブ
ジェクトのX座標に基づいて、第2のオブジェクトを透
過して第1のオブジェクトが視点から見えるようにする
ための第2のオブジェクトの透過処理を行う手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段とを含むことを特徴とする画像生成システム。
7. An image generation system for generating an image, comprising: an object space setting means for setting and setting a plurality of objects including a first object and a second object in an object space; and horizontal coordinates in a screen coordinate system. A second object for making the first object visible through the second object through the second object based on the X coordinates of the first and second objects in the screen coordinate system when the X coordinate is used. An image generation system characterized by including a means for performing the transparent processing of 1. and a means for generating an image at a given viewpoint in the object space.
【請求項8】 画像生成を行う画像生成システムであっ
て、 第1、第2のオブジェクトを含む複数のオブジェクトを
オブジェクト空間に配置設定するオブジェクト空間設定
手段と、 第2のオブジェクトを透過して第1のオブジェクトが視
点から見えるようにするための第2のオブジェクトの透
過処理を行う手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段とを含み、 前記オブジェクト空間設定手段が、 第2のオブジェクトが透過状態になった場合にも非透過
状態のままとなる、第2のオブジェクトの位置確認用の
第3のオブジェクトを、オブジェクト空間に配置設定す
ることを特徴とする画像生成システム。
8. An image generation system for generating an image, comprising: an object space setting means for setting and setting a plurality of objects including a first object and a second object in an object space; and a second object penetrating the second object. The object space setting means, including means for performing a transparent process of the second object for making one object visible from the viewpoint, and means for generating an image at a given viewpoint in the object space, An image generation system characterized in that a third object for confirming the position of the second object, which remains in the non-transparent state even when the second object enters the transparent state, is arranged and set in the object space. .
【請求項9】 請求項8において、 前記第3のオブジェクトが、前記第2のオブジェクトと
地形面との間に配置設定されることを特徴とする画像生
成システム。
9. The image generation system according to claim 8, wherein the third object is arranged and set between the second object and the terrain surface.
【請求項10】 第1、第2のオブジェクトを含む複数
のオブジェクトをオブジェクト空間に配置設定するオブ
ジェクト空間設定手段と、 視点から見て第1のオブジェクトが第2のオブジェクト
の奥側にあると判断され、且つ、第1のオブジェクトの
スクリーンへの透視変換画像が、第2のオブジェクトの
スクリーンへの透視変換画像に重なった場合に、第2の
オブジェクトを透過して第1のオブジェクトが視点から
見えるようにするための第2のオブジェクトの透過処理
を行う手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段として、 コンピュータを機能させることを特徴とするプログラ
ム。
10. An object space setting means for arranging and setting a plurality of objects including a first object and a second object in an object space, and determining that the first object is behind the second object from the viewpoint. And the perspective-transformed image of the first object on the screen overlaps with the perspective-transformed image of the second object on the screen, the first object is seen from the viewpoint through the second object. A program for causing a computer to function as a means for performing a transparent process of a second object for performing the above and a means for generating an image at a given viewpoint in the object space.
【請求項11】 請求項10において、 視点座標系又はスクリーン座標系における奥行き方向の
座標をZ座標とした場合に、視点から見て第1のオブジ
ェクトが第2のオブジェクトの奥側にあるか否かを、第
1、第2のオブジェクトのZ座標に基づいて判断するこ
とを特徴とするプログラム。
11. The method according to claim 10, wherein when the coordinate in the depth direction in the viewpoint coordinate system or the screen coordinate system is the Z coordinate, whether the first object is on the back side of the second object when viewed from the viewpoint. A program for determining whether or not it is based on the Z coordinates of the first and second objects.
【請求項12】 請求項10又は11において、 スクリーン座標系における水平方向の座標をX座標とし
た場合に、スクリーン座標系における第1、第2のオブ
ジェクトのX座標に基づいて、第2のオブジェクトの透
過処理を行うことを特徴とするプログラム。
12. The second object according to claim 10 or 11, wherein, when the horizontal coordinate in the screen coordinate system is X coordinate, the second object is based on the X coordinate of the first and second objects in the screen coordinate system. A program for performing transparent processing of.
【請求項13】 請求項12において、 前記透過処理がα値に基づく半透明処理であり、 第1のオブジェクトの代表点のX座標と、第2のオブジ
ェクトの代表点のX座標と、第2のオブジェクトのX座
標方向の大きさを表すためのパラメータとに基づいてα
値を求め、求められたα値に基づいて第2のオブジェク
トの半透明処理を行うことを特徴とするプログラム。
13. The transparent process according to claim 12, wherein the transparent process is a semi-transparent process based on an α value, and the X coordinate of the representative point of the first object, the X coordinate of the representative point of the second object, and the second coordinate. Α based on the parameter for expressing the size of the object in the X coordinate direction
A program that obtains a value and performs semitransparent processing of the second object based on the obtained α value.
【請求項14】 請求項10において、 視点から見て第1のオブジェクトが第2のオブジェクト
の奥側にあるか否かを、第1のオブジェクトの代表点と
第2のオブジェクトの代表点とを結ぶ方向のベクトル
と、第2のオブジェクトの面の方向を表す法線ベクトル
とに基づいて判断することを特徴とするプログラム。
14. The method according to claim 10, wherein whether or not the first object is behind the second object when viewed from a viewpoint is determined by using a representative point of the first object and a representative point of the second object. A program that makes a determination based on a vector of a connecting direction and a normal vector representing a direction of a surface of a second object.
【請求項15】 請求項10又は14において、 前記透過処理がα値に基づく半透明処理であり、 スクリーン座標系における水平方向の座標をX座標とし
た場合に、第1のオブジェクトの代表点のX座標と、第
2のオブジェクトの左端点、右端点、代表点のX座標と
に基づいてα値を求め、求められたα値に基づいて第2
のオブジェクトの半透明処理を行うことを特徴とするプ
ログラム。
15. The representative point of the first object according to claim 10 or 14, wherein the transparent process is a translucent process based on an α value, and when the horizontal coordinate in the screen coordinate system is the X coordinate. The α value is obtained based on the X coordinate and the X coordinate of the left end point, the right end point, and the representative point of the second object, and the second value is obtained based on the obtained α value.
A program that performs semi-transparent processing of the object.
【請求項16】 第1、第2のオブジェクトを含む複数
のオブジェクトをオブジェクト空間に配置設定するオブ
ジェクト空間設定手段と、 スクリーン座標系における水平方向の座標をX座標とし
た場合に、スクリーン座標系における第1、第2のオブ
ジェクトのX座標に基づいて、第2のオブジェクトを透
過して第1のオブジェクトが視点から見えるようにする
ための第2のオブジェクトの透過処理を行う手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段として、 コンピュータを機能させることを特徴とするプログラ
ム。
16. An object space setting means for arranging and setting a plurality of objects including a first object and a second object in an object space, and in the case where horizontal coordinates in the screen coordinate system are X coordinates, in the screen coordinate system. A means for performing a transparency process of the second object to make the first object visible from the viewpoint based on the X-coordinates of the first and second objects; A program that causes a computer to function as a means for generating an image from a given viewpoint of.
【請求項17】 第1、第2のオブジェクトを含む複数
のオブジェクトをオブジェクト空間に配置設定するオブ
ジェクト空間設定手段と、 第2のオブジェクトを透過して第1のオブジェクトが視
点から見えるようにするための第2のオブジェクトの透
過処理を行う手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段として、 コンピュータを機能させるプログラムであって、 前記オブジェクト空間設定手段が、 第2のオブジェクトが透過状態になった場合にも非透過
状態のままとなる、第2のオブジェクトの位置確認用の
第3のオブジェクトを、オブジェクト空間に配置設定す
ることを特徴とするプログラム。
17. An object space setting means for arranging and setting a plurality of objects including a first object and a second object in an object space, and for making the first object visible from a viewpoint through the second object. A program for causing a computer to function as means for performing the transparent processing of the second object and means for generating an image from a given viewpoint in the object space, wherein the object space setting means is the second object. A program for arranging and setting in the object space a third object for confirming the position of the second object, which remains in the non-transparent state even when is switched to the transparent state.
【請求項18】 請求項17において、 前記第3のオブジェクトが、前記第2のオブジェクトと
地形面との間に配置設定されることを特徴とするプログ
ラム。
18. The program according to claim 17, wherein the third object is arranged and set between the second object and the terrain surface.
【請求項19】 コンピュータ読み取り可能な情報記憶
媒体であって、請求項10乃至18のいずれかのプログ
ラムを記憶したことを特徴とする情報記憶媒体。
19. An information storage medium which can be read by a computer, wherein the program according to any one of claims 10 to 18 is stored.
JP2001229465A 2001-07-30 2001-07-30 Image generation system, program, and information storage medium Expired - Lifetime JP4707080B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001229465A JP4707080B2 (en) 2001-07-30 2001-07-30 Image generation system, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001229465A JP4707080B2 (en) 2001-07-30 2001-07-30 Image generation system, program, and information storage medium

Publications (2)

Publication Number Publication Date
JP2003044868A true JP2003044868A (en) 2003-02-14
JP4707080B2 JP4707080B2 (en) 2011-06-22

Family

ID=19061810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001229465A Expired - Lifetime JP4707080B2 (en) 2001-07-30 2001-07-30 Image generation system, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP4707080B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004267247A (en) * 2003-03-05 2004-09-30 Square Enix Co Ltd 3d video game apparatus, control method for virtual camera in 3d video game and program and recording medium
WO2005116939A1 (en) * 2004-05-27 2005-12-08 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and image sensing apparatus
JP2009148466A (en) * 2007-12-21 2009-07-09 Nintendo Co Ltd Game program and game apparatus
JP2009261487A (en) * 2008-04-23 2009-11-12 Daito Giken:Kk Game machine
CN102752618A (en) * 2011-04-18 2012-10-24 夏普株式会社 Parallax error image generation apparatus, display apparatus and parallax error image generation method
JP2012221409A (en) * 2011-04-13 2012-11-12 Nintendo Co Ltd Information processing program, information processor, information processing method and information processing system
JP2013144251A (en) * 2013-05-01 2013-07-25 Daito Giken:Kk Game machine
JP2016146864A (en) * 2015-02-10 2016-08-18 株式会社カプコン Game program and game device
JP2018055644A (en) * 2016-09-30 2018-04-05 キヤノン株式会社 Image processing apparatus and control method thereof
JP2018130597A (en) * 2018-06-01 2018-08-23 株式会社コナミデジタルエンタテインメント Game device and program
JP2019021333A (en) * 2018-09-19 2019-02-07 キヤノン株式会社 Image processing device, image processing method and program
CN109816766A (en) * 2017-11-20 2019-05-28 佳能株式会社 Image processing apparatus, image processing method and storage medium
JP2022146938A (en) * 2021-03-22 2022-10-05 アップル インコーポレイテッド Indicating position of occluded physical object

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7304701B2 (en) * 2019-01-28 2023-07-07 株式会社コーエーテクモゲームス Game program, recording medium, game processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950541A (en) * 1995-08-10 1997-02-18 Sega Enterp Ltd Virtual picture generating device and its method
JPH1186027A (en) * 1997-07-11 1999-03-30 Werk Japan:Kk Image display method
JP2000149062A (en) * 1998-11-10 2000-05-30 Hitachi Eng Co Ltd Method and device for generating three-dimensional image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950541A (en) * 1995-08-10 1997-02-18 Sega Enterp Ltd Virtual picture generating device and its method
JPH1186027A (en) * 1997-07-11 1999-03-30 Werk Japan:Kk Image display method
JP2000149062A (en) * 1998-11-10 2000-05-30 Hitachi Eng Co Ltd Method and device for generating three-dimensional image

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004267247A (en) * 2003-03-05 2004-09-30 Square Enix Co Ltd 3d video game apparatus, control method for virtual camera in 3d video game and program and recording medium
US7824265B2 (en) 2003-03-05 2010-11-02 Kabushiki Kaisha Square Enix Virtual camera control method in three-dimensional video game
WO2005116939A1 (en) * 2004-05-27 2005-12-08 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and image sensing apparatus
US7952594B2 (en) 2004-05-27 2011-05-31 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and image sensing apparatus
JP2009148466A (en) * 2007-12-21 2009-07-09 Nintendo Co Ltd Game program and game apparatus
JP2009261487A (en) * 2008-04-23 2009-11-12 Daito Giken:Kk Game machine
JP2012221409A (en) * 2011-04-13 2012-11-12 Nintendo Co Ltd Information processing program, information processor, information processing method and information processing system
CN102752618A (en) * 2011-04-18 2012-10-24 夏普株式会社 Parallax error image generation apparatus, display apparatus and parallax error image generation method
JP2012226476A (en) * 2011-04-18 2012-11-15 Sharp Corp Parallax image generation device, display device, parallax image generation method, parallax image generation program, and recording medium recording parallax image generation program
JP2013144251A (en) * 2013-05-01 2013-07-25 Daito Giken:Kk Game machine
JP2016146864A (en) * 2015-02-10 2016-08-18 株式会社カプコン Game program and game device
WO2016129603A1 (en) * 2015-02-10 2016-08-18 株式会社カプコン Game device, control method, and computer-readable recording medium
JP2018055644A (en) * 2016-09-30 2018-04-05 キヤノン株式会社 Image processing apparatus and control method thereof
US10628993B2 (en) 2016-09-30 2020-04-21 Canon Kabushiki Kaisha Image processing apparatus that generates a virtual view image from multiple images captured from different directions and method controlling the same
US11017588B2 (en) 2016-09-30 2021-05-25 Canon Kabushiki Kaisha Image processing apparatus that generates a virtual view image from multiple images captured from different directions and method controlling the same
US10986324B2 (en) 2017-11-20 2021-04-20 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for virtual viewpoint image creation
KR20190058337A (en) * 2017-11-20 2019-05-29 캐논 가부시끼가이샤 Image processing apparatus, image processing method and storage medium
JP2019095936A (en) * 2017-11-20 2019-06-20 キヤノン株式会社 Image processor, method for processing image, and program
CN109816766A (en) * 2017-11-20 2019-05-28 佳能株式会社 Image processing apparatus, image processing method and storage medium
KR102342668B1 (en) * 2017-11-20 2021-12-23 캐논 가부시끼가이샤 Image processing apparatus, image processing method and storage medium
JP7109907B2 (en) 2017-11-20 2022-08-01 キヤノン株式会社 Image processing device, image processing method and program
CN109816766B (en) * 2017-11-20 2023-11-10 佳能株式会社 Image processing apparatus, image processing method, and storage medium
JP2018130597A (en) * 2018-06-01 2018-08-23 株式会社コナミデジタルエンタテインメント Game device and program
JP2019021333A (en) * 2018-09-19 2019-02-07 キヤノン株式会社 Image processing device, image processing method and program
JP2022146938A (en) * 2021-03-22 2022-10-05 アップル インコーポレイテッド Indicating position of occluded physical object
JP7384951B2 (en) 2021-03-22 2023-11-21 アップル インコーポレイテッド Showing the location of an occluded physical object
US11836871B2 (en) 2021-03-22 2023-12-05 Apple Inc. Indicating a position of an occluded physical object

Also Published As

Publication number Publication date
JP4707080B2 (en) 2011-06-22

Similar Documents

Publication Publication Date Title
JP4707080B2 (en) Image generation system, program, and information storage medium
JP3420870B2 (en) Image composition method, image composition device, and game device
JP4610748B2 (en) Image generation system, program, and information storage medium
JP4305903B2 (en) Image generation system, program, and information storage medium
JP3748451B1 (en) Program, information storage medium, and image generation system
JP3280355B2 (en) Image generation system and information storage medium
JP4749198B2 (en) Program, information storage medium, and image generation system
JP3413383B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4743770B2 (en) Image generation system, program, and information storage medium
JP4073031B2 (en) Program, information storage medium, and image generation system
JP3297410B2 (en) Image generation system and information storage medium
JP4651204B2 (en) Image generation system, program, and information storage medium
JP4187192B2 (en) Image generation system, program, and information storage medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4707078B2 (en) Image generation system, program, and information storage medium
JP2001229403A (en) Game system and information storage medium
JP4412692B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3254195B2 (en) Image generation system and information storage medium
JP3292713B2 (en) Image generation system and information storage medium
JP2002216167A (en) Image generation system, program and information storage medium
JP4698701B2 (en) Image generation system, program, and information storage medium
JP3431562B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2002329213A (en) Image generation system, program, and information storage medium
JP4162125B2 (en) Image generation system, program, and information storage medium
JP4803909B2 (en) Image generation system, program, and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110310

R150 Certificate of patent or registration of utility model

Ref document number: 4707080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140325

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term