JP3538393B2 - GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM - Google Patents

GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Info

Publication number
JP3538393B2
JP3538393B2 JP2001134266A JP2001134266A JP3538393B2 JP 3538393 B2 JP3538393 B2 JP 3538393B2 JP 2001134266 A JP2001134266 A JP 2001134266A JP 2001134266 A JP2001134266 A JP 2001134266A JP 3538393 B2 JP3538393 B2 JP 3538393B2
Authority
JP
Japan
Prior art keywords
image
outline
mapping
value
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001134266A
Other languages
Japanese (ja)
Other versions
JP2002063596A (en
Inventor
繁 橘高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001134266A priority Critical patent/JP3538393B2/en
Publication of JP2002063596A publication Critical patent/JP2002063596A/en
Application granted granted Critical
Publication of JP3538393B2 publication Critical patent/JP3538393B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ゲームシステム、
プログラム及び情報記憶媒体に関する。
The present invention relates to a game system,
The present invention relates to a program and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内の所
与の視点から見える画像を生成するゲームシステムが知
られており、いわゆる仮想現実を体験できるものとして
人気が高い。ロールプレイングゲーム(RPG)を楽し
むことができるゲームシステムを例にとれば、プレーヤ
は、自身の分身であるキャラクタ(オブジェクト)を操
作してオブジェクト空間内のマップ上で移動させ、敵キ
ャラクタと対戦したり、他のキャラクタと対話したり、
様々な町を訪れたりすることでゲームを楽しむ。
2. Description of the Related Art Conventionally, there is known a game system that generates an image that can be seen from a given viewpoint in an object space that is a virtual three-dimensional space. It is very popular as something that can be done. Taking a game system that can enjoy a role-playing game (RPG) as an example, a player operates a character (object) that is his / her own character to move it on a map in the object space and play against an enemy character. Or interact with other characters,
Enjoy games by visiting various towns.

【0003】このようなゲームシステムでは、キャラク
タなどを表すオブジェクトは複数のポリゴンや自由曲面
(広義にはプリミティブ面)により構成される。そし
て、このポリゴンにより構成されたオブジェクト(モデ
ル)をオブジェクト空間内に配置し、ジオメトリ処理
(3次元演算)を行って、オブジェクト空間内の所与の
視点から見える画像を生成する。これにより、あたかも
現実世界の風景のようにリアルで実写に近い画像を生成
できるようになる。
In such a game system, an object representing a character or the like is composed of a plurality of polygons and free-form surfaces (primitive surfaces in a broad sense). Then, an object (model) constituted by the polygon is arranged in the object space, and geometry processing (three-dimensional calculation) is performed to generate an image that can be seen from a given viewpoint in the object space. As a result, it is possible to generate an image that is realistic and close to a real image as if it were a real-world landscape.

【0004】一方、アニメや漫画などの分野では、実写
のようなリアルな画像で人を魅了するのではなく、アニ
メ特有のセル画風の画像で人を魅了している。
On the other hand, in the fields of anime and manga, people are not attracted by real images such as live-action images, but are attracted by cel image-like images unique to anime.

【0005】従って、これまでのゲームシステムで生成
されるゲーム画像は、リアリティを好む人の情感に訴え
ることはできるが、アニメや漫画などを好む人の情感に
は今一つ訴えることができないという課題がある。
Accordingly, game images generated by conventional game systems can appeal to the feelings of those who like reality, but cannot yet appeal to the feelings of those who like anime and manga. is there.

【0006】このような課題を解決するために、本出願
人は、セル画風の画像をリアルタイムに生成できるゲー
ムシステムの開発を行っている。そして、このようなセ
ル画風の画像を生成するためには、キャラクタなどのオ
ブジェクトの輪郭線(edge line)を描画する処理(輪
郭線を強調する処理)が必要になる。
In order to solve such a problem, the present applicant has developed a game system capable of generating a cell-style image in real time. In order to generate such a cell-like image, a process of drawing an edge line of an object such as a character (a process of enhancing the outline) is required.

【0007】しかしながら、このようなオブジェクトの
輪郭線描画処理においては、以下のような問題点がある
ことが判明した。 (1)例えば、オブジェクトの外周部に1ピクセルの太
さの輪郭線を描画したとする。このような場合に、視点
とオブジェクトとの距離が近い場合(スクリーン上での
ピクセルに対するオブジェクトの大きさが大きい場合)
にはそれほど問題は生じない。しかしながら、視点とオ
ブジェクトとの距離が遠い場合(スクリーン上でのピク
セルに対するオブジェクトの大きさが小さい場合)に
は、オブジェクトの大きさに対する輪郭線の相対的な太
さが必要以上に太くなってしまい、不自然な画像が生成
されてしまう。 (2)輪郭線と他のオブジェクトとの描画順序が不適切
であったり、輪郭線に不適切なZ値(奥行き値)が与え
られると、輪郭線と他のオブジェクトとの間で不適切な
陰面消去や半透明合成が行われてしまい、不自然な画像
が生成されてしまう。
However, it has been found that such object outline drawing processing has the following problems. (1) For example, assume that a contour line having a thickness of 1 pixel is drawn on the outer periphery of an object. In such a case, when the distance between the viewpoint and the object is short (when the object is large relative to the pixel on the screen)
Does not have much of a problem. However, when the distance between the viewpoint and the object is far (when the size of the object with respect to the pixel on the screen is small), the relative thickness of the contour line with respect to the size of the object becomes thicker than necessary. An unnatural image is generated. (2) If the drawing order between the contour line and another object is inappropriate, or if an inappropriate Z value (depth value) is given to the contour line, it is inappropriate between the contour line and the other object. Hidden surface removal and translucent composition are performed, and an unnatural image is generated.

【0008】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、より自然な
輪郭線の画像を効率良く生成できるゲームシステム、プ
ログラム及び情報記憶媒体を提供することにある。
The present invention has been made in view of the above problems, and an object thereof is to provide a game system, a program, and an information storage medium capable of efficiently generating a more natural contour image. There is to do.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、画像生成を行うゲームシステムであっ
て、オブジェクトの画像に基づいて生成されたオブジェ
クトの輪郭線の画像を、オブジェクトの輪郭の内側領域
に描画する手段と、オブジェクト空間内の所与の視点で
の画像を生成する手段とを含むことを特徴とする。また
本発明に係る情報記憶媒体は、コンピュータにより使用
可能な情報記憶媒体であって、上記手段を実行するため
のプログラムを含むことを特徴とする。また本発明に係
るプログラムは、コンピュータにより使用可能なプログ
ラム(搬送波に具現化されるプログラムを含む)であっ
て、上記手段を実行するための処理ルーチンを含むこと
を特徴とする。
In order to solve the above-mentioned problems, the present invention provides a game system for generating an image, wherein an image of an outline of an object generated based on the image of the object And means for drawing in an inner region of the contour, and means for generating an image at a given viewpoint in the object space. The information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for executing the above means. The program according to the present invention is a program (including a program embodied in a carrier wave) that can be used by a computer, and includes a processing routine for executing the above means.

【0010】本発明によれば、オブジェクトの画像(例
えば描画領域に描画された画像、透視変換後の2次元画
像等)に基づいてオブジェクトの輪郭線の画像が生成さ
れる。そして、この輪郭線の画像が、オブジェクトの輪
郭の内側領域に描画される。このようにすれば、オブジ
ェクトの画像と輪郭線の画像との合成処理(半透明合
成、α合成等)が可能になる。また、オブジェクトのZ
値を輪郭線のZ値として設定することも容易になり、適
正な陰面消去などを実現できる。この結果、より自然な
輪郭線の画像を効率良く生成できるようになる。
According to the present invention, an image of the outline of an object is generated based on the image of the object (for example, an image drawn in a drawing area, a two-dimensional image after perspective transformation, etc.). Then, the image of the contour line is drawn in the inner area of the contour of the object. In this way, it is possible to perform a composition process (translucent composition, α composition, etc.) between the object image and the contour image. Also, the object Z
It becomes easy to set the value as the Z value of the contour line, and appropriate hidden surface removal or the like can be realized. As a result, a more natural contour image can be efficiently generated.

【0011】なお、輪郭線の描画対象となるオブジェク
トはモデルオブジェクト全体であってもよいし、モデル
オブジェクトを構成するパーツオブジェクト(サブオブ
ジェクト)であってもよい。また、オブジェクトの輪郭
線を描画する手法としては、テクセル補間方式でテクス
チャ座標をシフトする手法が特に望ましいが、これに限
定されない。
It should be noted that the object for drawing the outline may be the entire model object, or may be a part object (sub-object) constituting the model object. Further, as a method for drawing the outline of the object, a method of shifting the texture coordinates by the texel interpolation method is particularly desirable, but is not limited thereto.

【0012】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、視点からの距離又は透視変換
後のオブジェクトの大きさに応じて決まる半透明度でオ
ブジェクトの画像とオブジェクトの輪郭線の画像とを半
透明合成することを特徴とする。このようにすれば、例
えば、視点からの距離が遠くなるにつれてオブジェクト
の輪郭線をより透明にする処理や、透視変換後のオブジ
ェクトの大きさが小さくなるにつれてオブジェクトの輪
郭線をより透明にする処理などが可能になる。この結
果、オブジェクトの輪郭線の相対的な太さが目立ってし
まうなどの問題を解決できる。
In addition, the game system, information storage medium and program according to the present invention provide an object image and an object outline image with translucency determined according to the distance from the viewpoint or the size of the object after perspective transformation. It is characterized by semi-transparent composition. In this way, for example, the process of making the object outline more transparent as the distance from the viewpoint increases, or the process of making the object outline more transparent as the size of the object after perspective transformation becomes smaller It becomes possible. As a result, it is possible to solve the problem that the relative thickness of the outline of the object becomes conspicuous.

【0013】なお、視点からの距離としては、奥行き距
離、視点とオブジェクトとの直線距離、或いはこれらの
距離と均等な種々のパラメータを考えることができる。
また、オブジェクトの大きさとしては、オブジェクトの
総ピクセル数(縦のピクセル数×横のピクセル数)、縦
のピクセル数、横のピクセル数、或いはこれらのピクセ
ル数と均等な種々のパラメータを考えることができる。
As the distance from the viewpoint, a depth distance, a linear distance between the viewpoint and the object, or various parameters equivalent to these distances can be considered.
As for the size of the object, consider the total number of pixels of the object (vertical pixel number × horizontal pixel number), vertical pixel number, horizontal pixel number, or various parameters equivalent to these pixel numbers. Can do.

【0014】また、透視変換後のオブジェクトの画像を
内包し透視変換後のオブジェクトの大きさに応じてその
大きさが変化する仮想オブジェクトを生成し、その仮想
オブジェクトの大きさをオブジェクトの大きさとして設
定してもよい。
Also, a virtual object that includes the image of the object after perspective transformation and that changes in size according to the size of the object after perspective transformation is generated, and the size of the virtual object is defined as the size of the object. It may be set.

【0015】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、輪郭線が描画される位置での
オブジェクトのZ値が、輪郭線のZ値として設定される
ことを特徴とする。このようにすれば、輪郭線に対して
適正なZ値を設定することが可能になり、他のオブジェ
クトとの間の適正な陰面消去を実現できるようになる。
The game system, information storage medium and program according to the present invention are characterized in that the Z value of the object at the position where the contour line is drawn is set as the Z value of the contour line. In this way, it becomes possible to set an appropriate Z value for the contour line, and it is possible to realize an appropriate hidden surface removal with another object.

【0016】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、オブジェクトの輪郭の内側領
域にオブジェクトの色情報が設定され、オブジェクトの
輪郭の外側領域に輪郭線の色情報が設定されるマッピン
グ画像を生成し、生成された前記マッピング画像を、テ
クスチャ座標を第1のシフト方向にシフトさせながらテ
クセル補間方式で仮想オブジェクトにテクスチャマッピ
ングし、その後、前記マッピング画像を、テクスチャ座
標を第2のシフト方向にシフトさせながらテクセル補間
方式で仮想オブジェクトにテクスチャマッピングするこ
とで、オブジェクトの輪郭線の画像を生成することを特
徴とする。このようにすれば、生成されたマッピング画
像を、テクスチャ座標を第1又は第2のシフト方向にシ
フトさせながらテクセル補間方式で仮想オブジェクトに
マッピングするだけという簡素な処理で、オブジェクト
の輪郭線を描画できるようになる。従って、漫画やアニ
メを愛好する人の情感に訴えることができるゲーム画像
を、少ない描画処理負荷で生成することが可能になる。
In the game system, information storage medium and program according to the present invention, the mapping is such that the object color information is set in the inner area of the object outline and the outline color information is set in the outer area of the object outline. An image is generated, and the generated mapping image is texture-mapped to a virtual object by a texel interpolation method while shifting texture coordinates in the first shift direction, and then the mapping image is shifted to the texture coordinates by a second. An image of the outline of the object is generated by texture mapping to the virtual object by the texel interpolation method while shifting in the direction. By doing this, the outline of the object is drawn by a simple process of mapping the generated mapping image to the virtual object by the texel interpolation method while shifting the texture coordinates in the first or second shift direction. become able to. Therefore, it is possible to generate a game image that can appeal to the feeling of a person who likes manga and anime with a small drawing processing load.

【0017】なお、テクセル補間方式とは、特には限定
はされないが、テクセルの画像情報を補間してピクセル
の画像情報を得る方式などであり、例えば、バイリニア
フィルタ方式やトライリニアフィルタ方式などを考える
ことができる。
The texel interpolation method is not particularly limited, but is a method of interpolating texel image information to obtain pixel image information. For example, a bilinear filter method or a trilinear filter method is considered. be able to.

【0018】また、仮想オブジェクトは、ポリゴンなど
のプリミティブ面であることが望ましいが、立体的なオ
ブジェクトであってもよい。また、仮想オブジェクトは
画面上に表示しないことが望ましいが、表示するように
してもよい。
The virtual object is preferably a primitive surface such as a polygon, but may be a three-dimensional object. The virtual object is preferably not displayed on the screen, but may be displayed.

【0019】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記マッピング画像が、背景
に輪郭線の色情報が設定された描画領域に、透視変換後
のオブジェクトを描画することで生成されることを特徴
とする。このようにすれば、背景に輪郭線の色情報を設
定し、透視変換後のオブジェクトを描画領域に描画する
だけという簡素な処理で、マッピング画像を生成できる
ようになる。
In the game system, information storage medium, and program according to the present invention, the mapping image is generated by drawing an object after perspective transformation in a drawing area in which outline color information is set as a background. It is characterized by that. In this way, it is possible to generate a mapping image by a simple process of setting outline color information on the background and drawing the perspective-transformed object in the drawing area.

【0020】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記仮想オブジェクトが、透
視変換後のオブジェクトの画像の全部又は一部を内包し
透視変換後のオブジェクトの大きさに応じてその大きさ
が変化するオブジェクトであることを特徴とする。この
ようにすれば、画面内でのオブジェクトの占有面積が変
化した場合に、それに応じて仮想オブジェクトの大きさ
も変化する。従って、透視変換後のオブジェクトの大き
さに応じた最適な範囲で描画処理を行うことが可能とな
り、描画処理の効率化を図れる。
In the game system, information storage medium, and program according to the present invention, the virtual object includes all or part of the image of the object after perspective transformation, and the virtual object corresponds to the size of the object after perspective transformation. It is an object whose size changes. In this way, when the area occupied by the object in the screen changes, the size of the virtual object changes accordingly. Accordingly, it is possible to perform the drawing process within the optimum range according to the size of the object after the perspective transformation, and the drawing process can be made more efficient.

【0021】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、透視変換後のオブジェクトの
定義点の座標に基づいて前記仮想オブジェクトが生成さ
れることを特徴とする。このようにすれば、透視変換後
のオブジェクトの定義点(制御点、頂点等)の座標の例
えば最大値、最小値などを求めるだけで、透視変換後の
オブジェクトの大きさに応じてその大きさが変化する仮
想オブジェクトを生成できるようになる。そして、仮想
オブジェクトの大きさを、透視変換後のオブジェクトの
大きさに応じて最適に小さくできるため、描画処理の負
荷を軽減できる。
The game system, information storage medium, and program according to the present invention are characterized in that the virtual object is generated based on the coordinates of the definition point of the object after perspective transformation. In this way, it is only necessary to obtain, for example, the maximum and minimum coordinates of the definition points (control points, vertices, etc.) of the object after perspective transformation, and the size of the object depends on the size of the object after perspective transformation. It becomes possible to generate a virtual object that changes. Since the size of the virtual object can be optimally reduced according to the size of the object after the perspective transformation, the load of the drawing process can be reduced.

【0022】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、オブジェクトに対して簡易オ
ブジェクトが設定される場合において、透視変換後の前
記簡易オブジェクトの定義点の座標に基づいて前記仮想
オブジェクトが生成されることを特徴とする。このよう
にすれば、透視変換後の簡易オブジェクトの定義点(制
御点、頂点等)の座標の例えば最大値、最小値などを求
めるだけで、透視変換後のオブジェクトの大きさに応じ
てその大きさが変化する仮想オブジェクトを生成できる
ようになる。そして、最大値、最小値などを求める処理
の対象は、頂点数の少ない簡易オブジェクトの頂点の座
標であるため、処理負荷が少なくて済むという利点があ
る。
In the game system, information storage medium, and program according to the present invention, when a simple object is set for an object, the virtual object is stored on the basis of the coordinates of the definition point of the simple object after perspective transformation. It is generated. In this way, it is only necessary to obtain the maximum and minimum coordinates of the definition points (control points, vertices, etc.) of the simple object after the perspective transformation, and the size of the object depends on the size of the object after the perspective transformation. It becomes possible to generate a virtual object whose length changes. Since the processing target for obtaining the maximum value, the minimum value, etc. is the coordinates of the vertices of the simple object having a small number of vertices, there is an advantage that the processing load can be reduced.

【0023】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、オブジェクトの輪郭の内側領
域に設定されるα値とオブジェクトの輪郭の外側領域に
設定されるα値とを異ならせ、テクセル補間されたα値
に基づいて、オブジェクトの輪郭の内側領域にある輪郭
線領域を判別することを特徴とする。このようにすれ
ば、マッピング画像をテクセル補間方式で仮想オブジェ
クトにマッピングする際に、オブジェクトの輪郭の内側
領域にある輪郭線領域を判別するためのα値も同時に生
成されるようになるため、処理の効率化を図れる。
Also, the game system, information storage medium and program according to the present invention make the texel interpolation different from the α value set in the inner area of the object outline and the α value set in the outer area of the object outline. On the basis of the α value thus determined, a contour region in the inner region of the contour of the object is discriminated. In this way, when mapping the mapping image to the virtual object by the texel interpolation method, the α value for determining the contour region in the inner region of the contour of the object is also generated at the same time. Efficiency.

【0024】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、描画領域にオブジェクトを描
画した後に、輪郭線の画像を、描画領域に描画されたオ
ブジェクトの輪郭の内側領域に描画することを特徴とす
る。このように描画順序を管理すれば、オブジェクトの
画像と輪郭線の画像との適正な合成処理(半透明合成
等)が可能になる。
The game system, information storage medium, and program according to the present invention draw an object in the drawing area and then draw an image of the contour line in the inner area of the outline of the object drawn in the drawing area. Features. By managing the drawing order in this way, it is possible to perform appropriate synthesis processing (semi-transparent synthesis, etc.) between the object image and the contour image.

【0025】[0025]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.

【0026】1.構成 図1に、本実施形態のゲームシステム(画像生成システ
ム)の機能ブロック図の一例を示す。なお同図において
本実施形態は、少なくとも処理部100を含めばよく
(或いは処理部100と記憶部170を含めばよく)、
それ以外のブロックについては任意の構成要素とするこ
とができる。
1. Configuration FIG. 1 shows an example of a functional block diagram of a game system (image generation system) of the present embodiment. In the figure, the present embodiment only needs to include at least the processing unit 100 (or include the processing unit 100 and the storage unit 170).
Other blocks can be optional components.

【0027】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、マイク、或いは筺体などのハードウェアにより実現
できる。
The operation unit 160 is used by the player to input operation data, and the function can be realized by hardware such as a lever, a button, a microphone, or a housing.

【0028】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 includes the processing unit 100 and the communication unit 1.
It becomes a work area such as 96, and its function is RAM
It can be realized by hardware such as.

【0029】情報記憶媒体(コンピュータにより使用可
能な記憶媒体)180は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)を実行するた
めの情報(プログラム或いはデータ)が格納される。
An information storage medium (storage medium usable by a computer) 180 stores information such as programs and data, and functions thereof are optical disks (C
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO)
It can be realized by hardware such as M). Processing unit 10
0 performs various processes of the present invention (this embodiment) based on information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing the means of the present invention (this embodiment) (particularly, the blocks included in the processing unit 100).

【0030】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80には、本発明の処理を行うためのプログラム、画像
データ、音データ、表示物の形状データ、本発明の処理
を指示するための情報、或いはその指示に従って処理を
行うための情報などを含ませることができる。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the system is powered on. Information storage medium 1
80 includes a program for performing the process of the present invention, image data, sound data, display object shape data, information for instructing the process of the present invention, or information for performing the process in accordance with the instruction. Can be made.

【0031】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display unit 190 outputs an image generated according to this embodiment, and its function is CRT,
LCD or HMD (Head Mounted Display)
It can be realized by hardware such as.

【0032】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output unit 192 outputs the sound generated by this embodiment, and its function can be realized by hardware such as a speaker.

【0033】携帯型情報記憶装置194は、プレーヤの
個人データやゲームのセーブデータなどが記憶されるも
のであり、この携帯型情報記憶装置194としては、メ
モリカードや携帯型ゲーム装置などを考えることができ
る。
The portable information storage device 194 stores player personal data, game save data, and the like. As the portable information storage device 194, a memory card, a portable game device, and the like are considered. Can do.

【0034】通信部196は、外部(例えばホスト装置
や他のゲームシステム)との間で通信を行うための各種
の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other game system), and functions as various processors or communication ASICs. This can be realized by hardware or a program.

【0035】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。
It should be noted that the program or data for executing the means of the present invention (this embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and communication unit 196. It may be. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.

【0036】処理部100(プロセッサ)は、操作部1
60からの操作データやプログラムなどに基づいて、ゲ
ーム処理、画像生成処理、或いは音生成処理などの各種
の処理を行う。この処理部100の機能は、各種プロセ
ッサ(CPU、DSP等)又はASIC(ゲートアレイ
等)などのハードウェアや、所与のプログラム(ゲーム
プログラム)により実現できる。
The processing unit 100 (processor) includes an operation unit 1
Various processes such as a game process, an image generation process, or a sound generation process are performed based on operation data from 60, a program, and the like. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.) or ASIC (gate array, etc.) and a given program (game program).

【0037】ここで、処理部100が行うゲーム処理と
しては、コイン(代価)の受け付け処理、各種モードの
設定処理、ゲームの進行処理、選択画面の設定処理、オ
ブジェクト(1又は複数のプリミティブ面)の位置や回
転角度(X、Y又はZ軸回り回転角度)を求める処理、
オブジェクトを動作させる処理(モーション処理)、視
点の位置(仮想カメラの位置)や視線角度(仮想カメラ
の回転角度)を求める処理、マップオブジェクトなどの
オブジェクトをオブジェクト空間へ配置する処理、ヒッ
トチェック処理、ゲーム結果(成果、成績)を演算する
処理、複数のプレーヤが共通のゲーム空間でプレイする
ための処理、或いはゲームオーバー処理などを考えるこ
とができる。
Here, the game processing performed by the processing unit 100 includes coin (price) acceptance processing, various mode setting processing, game progress processing, selection screen setting processing, object (one or more primitive surfaces). Processing for obtaining the position and rotation angle (rotation angle around X, Y or Z axis),
Processing to move an object (motion processing), processing to obtain the viewpoint position (virtual camera position) and line-of-sight angle (virtual camera rotation angle), processing to place an object such as a map object in the object space, hit check processing, A process for calculating game results (results, results), a process for a plurality of players to play in a common game space, or a game over process can be considered.

【0038】また、処理部100は、上記のゲーム処理
結果に基づいて例えばオブジェクト空間内において所与
の視点(仮想カメラ)から見える画像を生成し、表示部
190に出力する。
Further, the processing unit 100 generates an image that can be seen from a given viewpoint (virtual camera) in the object space, for example, based on the above game processing result, and outputs it to the display unit 190.

【0039】更に、処理部100は、上記のゲーム処理
結果に基づいて各種の音処理を行い、BGM、効果音、
又は音声などの音を生成し、音出力部192に出力す
る。
Further, the processing unit 100 performs various kinds of sound processing based on the above-mentioned game processing result, and performs BGM, sound effects,
Alternatively, sound such as voice is generated and output to the sound output unit 192.

【0040】なお、処理部100の機能は、その全てを
ハードウェアにより実現してもよいし、その全てをプロ
グラムにより実現してもよい。或いは、ハードウェアと
プログラムの両方により実現してもよい。
Note that all the functions of the processing unit 100 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.

【0041】処理部100は、ジオメトリ処理部11
0、仮想オブジェクト生成部112、輪郭線画像変化部
114、描画部120を含む。
The processing unit 100 includes a geometry processing unit 11.
0, a virtual object generation unit 112, a contour line image change unit 114, and a drawing unit 120.

【0042】ここでジオメトリ処理部110は、座標変
換、クリッピング処理、透視変換、或いは光源計算など
の種々のジオメトリ処理(3次元演算)を、オブジェク
トに対して行う。ジオメトリ処理により得られた描画デ
ータ(頂点に付与される位置座標、テクスチャ座標、色
(輝度)データ、法線ベクトル或いはα値等)は、記憶
部170の主記憶部172に格納されて、保存される。
Here, the geometry processing unit 110 performs various kinds of geometry processing (three-dimensional calculation) such as coordinate transformation, clipping processing, perspective transformation, or light source calculation on the object. The drawing data (position coordinates, texture coordinates, color (luminance) data, normal vector or α value, etc. given to the vertices) obtained by the geometry processing is stored in the main storage unit 172 of the storage unit 170 and saved. Is done.

【0043】仮想オブジェクト生成部112は、マッピ
ング画像のマッピング対象となる仮想オブジェクトを生
成する処理を行う。このマッピング画像は、後述するよ
うに、描画部120が含むマッピング画像生成部122
が生成する。
The virtual object generation unit 112 performs processing for generating a virtual object to be mapped in the mapping image. As will be described later, the mapping image is generated by the mapping image generation unit 122 included in the drawing unit 120.
Produces.

【0044】本実施形態では、この仮想オブジェクト
(狭義には仮想ポリゴン)が、透視変換後(スクリーン
座標系への変換後)のオブジェクトの画像の全部又は一
部を内包し、透視変換後のオブジェクトの大きさに応じ
てその大きさが変化するようなオブジェクトになってい
る。即ち、画面内でのオブジェクトの占有面積に応じて
その大きさが変化するようなオブジェクトになってい
る。そして、マッピング画像生成部122により生成さ
れたマッピング画像は、このように画面内でのオブジェ
クトの占有面積に応じてその大きさが変化する仮想オブ
ジェクトに対してマッピングされるようになるため、テ
クスチャマッピング処理や仮想オブジェクトの描画処理
を効率化できる。
In this embodiment, this virtual object (virtual polygon in a narrow sense) contains all or part of the image of the object after perspective transformation (after transformation to the screen coordinate system), and the object after perspective transformation. The object changes its size according to the size of the object. That is, the size of the object changes according to the area occupied by the object on the screen. Since the mapping image generated by the mapping image generation unit 122 is mapped to a virtual object whose size changes according to the area occupied by the object in the screen in this way, texture mapping is performed. Processing and virtual object drawing processing can be made more efficient.

【0045】輪郭線画像変化部114は、オブジェクト
に付与する輪郭線の画像を、視点からの距離や透視変換
後のオブジェクトの大きさ(ピクセルに対する相対的な
大きさ)に応じて変化させるための処理を行う。より具
体的には、視点からの距離や透視変換後のオブジェクト
の大きさに応じて決まる半透明度でオブジェクトの画像
とオブジェクトの輪郭線の画像を半透明合成するための
処理(半透明度を決める処理、描画順序を決める処理
等)を行う。或いは、視点からの距離や透視変換後のオ
ブジェクトの大きさに応じて、輪郭線の色を所与の第2
の色に近づけるための処理(第2の色を設定する処理
等)を行う。
The contour image changing unit 114 changes the contour image to be given to the object in accordance with the distance from the viewpoint and the size of the object after perspective transformation (relative size with respect to the pixel). Process. More specifically, a process for translucently compositing an object image and an outline image of an object with a translucency determined according to the distance from the viewpoint and the size of the object after perspective transformation (a process for determining the translucency) , Processing for determining the drawing order). Alternatively, depending on the distance from the viewpoint and the size of the object after the perspective transformation, the color of the contour line is given by the given second
The process (such as a process for setting the second color) is performed to bring the color closer to the first color.

【0046】描画部120(オブジェクト・輪郭線描画
部)は、ジオメトリ処理後のオブジェクト(モデル)
や、オブジェクトの輪郭線を、描画領域174(フレー
ムバッファ、ワークバッファ等のピクセル単位で画像情
報を記憶できる領域)に描画するための処理を行うもの
である。
The drawing unit 120 (object / outline drawing unit) is an object (model) after geometry processing.
In addition, a process for drawing an object outline in a drawing area 174 (an area where image information can be stored in units of pixels such as a frame buffer and a work buffer) is performed.

【0047】より具体的には、描画部120は、オブジ
ェクトの画像(例えば、透視変換後のオブジェクトの画
像、描画領域上のオブジェクトの画像)に基づいて生成
されたオブジェクトの輪郭線の画像が、オブジェクトの
輪郭の内側領域に描画されるように描画処理を行う。こ
のようにすることで、オブジェクトの画像と輪郭線の画
像とを半透明合成する処理や、輪郭線の描画位置でのオ
ブジェクトのZ値を輪郭線のZ値として設定する処理な
どを簡易に実現できるようになる。
More specifically, the drawing unit 120 generates an image of the outline of the object generated based on the object image (for example, the image of the object after perspective transformation, the image of the object on the drawing area), A drawing process is performed so that the image is drawn in the inner area of the object outline. In this way, the process of translucently combining the object image and the contour line image, the process of setting the Z value of the object at the contour drawing position as the Z value of the contour line, etc. can be easily realized. become able to.

【0048】描画部120は、マッピング画像生成部1
22、テクスチャマッピング部130、合成部132、
陰面消去部134を含む。
The drawing unit 120 includes a mapping image generation unit 1
22, texture mapping unit 130, synthesis unit 132,
A hidden surface removal unit 134 is included.

【0049】マッピング画像生成部122は、オブジェ
クトの輪郭の内側領域にオブジェクトの色情報が設定さ
れ、オブジェクトの輪郭の外側領域に輪郭線の色情報が
設定されるマッピング画像を生成する。
The mapping image generation unit 122 generates a mapping image in which the object color information is set in the inner area of the object outline and the outline color information is set in the outer area of the object outline.

【0050】テクスチャマッピング部130は、テクス
チャ記憶部176に記憶されるテクスチャをオブジェク
トにマッピングするための処理を行う。
The texture mapping unit 130 performs processing for mapping the texture stored in the texture storage unit 176 to the object.

【0051】より具体的には、テクスチャマッピング部
130は、マッピング画像生成部122により生成され
たマッピング画像を、仮想オブジェクト生成部112に
より生成された仮想オブジェクトにマッピングするため
の処理を行う。この場合、テクスチャマッピング部13
0は、生成されたマッピング画像を、テクスチャ座標を
例えば1テクセル(ピクセル)よりも小さい値だけシフ
トさせながら(例えばマッピング画像の描画位置に基づ
き得られるテクスチャ座標からシフトさせる)、テクセ
ル補間方式(狭義にはバイニアフィルタ)で仮想オブジ
ェクトにマッピングする。これにより、少ない処理負荷
でオブジェクトの輪郭線を描画できるようになる。
More specifically, the texture mapping unit 130 performs a process for mapping the mapping image generated by the mapping image generation unit 122 to the virtual object generated by the virtual object generation unit 112. In this case, the texture mapping unit 13
0 is a texel interpolation method (in a narrow sense) while shifting the generated mapping image by a value smaller than, for example, one texel (pixel) (for example, shifting from the texture coordinate obtained based on the drawing position of the mapping image). Is mapped to a virtual object with a binier filter. As a result, the outline of the object can be drawn with a small processing load.

【0052】合成部132は、α値を用いたマスク合成
処理や半透明処理を行う。なお、α値(A値)は、各ピ
クセルに関連づけられて記憶される情報であり、例えば
色情報以外のプラスアルファの情報である。α値は、マ
スク情報、半透明度(透明度、不透明度と等価)、バン
プ情報などとして使用できる。
The synthesizing unit 132 performs mask synthesizing processing and translucent processing using the α value. The α value (A value) is information stored in association with each pixel, for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

【0053】陰面消去部134は、Z値(奥行き値)が
格納されるZバッファ(Zプレーン)を用いて、Zバッ
ファ法のアルゴリズムにしたがった陰面消去を行う。例
えば、輪郭線描画位置でのオブジェクトのZ値は、この
Zバッファに書き込まれ、輪郭線の陰面消去は、この書
き込まれたZ値に基づいて行われることになる。なお、
視点からの距離に応じてプリミティブ面をソーティング
し、視点から遠い順にプリミティブ面を描画する奥行き
ソート法(Zソート法)などにより陰面消去を行っても
よい。
The hidden surface removal unit 134 performs hidden surface removal according to the algorithm of the Z buffer method, using a Z buffer (Z plane) in which Z values (depth values) are stored. For example, the Z value of the object at the contour drawing position is written in this Z buffer, and the hidden surface removal of the contour line is performed based on the written Z value. In addition,
The hidden surface may be deleted by sorting the primitive surfaces according to the distance from the viewpoint and drawing the primitive surfaces in order from the viewpoint, such as a depth sort method (Z sort method).

【0054】なお、本実施形態のゲームシステムは、1
人のプレーヤのみがプレイできるシングルプレーヤモー
ド専用のシステムにしてもよいし、このようなシングル
プレーヤモードのみならず、複数のプレーヤがプレイで
きるマルチプレーヤモードも備えるシステムにしてもよ
い。
The game system of this embodiment has 1
A system dedicated to the single player mode in which only a human player can play may be used, or a system including not only such a single player mode but also a multiplayer mode in which a plurality of players can play.

【0055】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。
When a plurality of players play,
The game images and game sounds to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected via a network (transmission line, communication line) or the like. Also good.

【0056】2.本実施形態の特徴 2.1 オブジェクトの内側領域への輪郭線描画 図2に、本実施形態のゲームシステムにより生成される
ゲーム画像の例を示す。図2に示すように本実施形態に
よれば、ポリゴンで構成されたオブジェクトOBの輪郭
に沿って太い輪郭線(edge line)が描かれており、漫画
やアニメなどで一般の人が親しんでいるセル画風の画像
の生成に成功している。
2. 2. Features of the Present Embodiment 2.1 Outline Drawing on the Inner Area of an Object FIG. 2 shows an example of a game image generated by the game system of the present embodiment. As shown in FIG. 2, according to the present embodiment, a thick edge line is drawn along the outline of the object OB composed of polygons, which is familiar to ordinary people in cartoons and animations. A cell-like image has been successfully generated.

【0057】そして、本実施形態では図3に示すよう
に、オブジェクトOBの画像に対して2D(2次元)処
理などを施すことで得られたOBの輪郭線EDLの画像
が、OBの輪郭EDの内側領域に描画されるように描画
処理を行っている。
In this embodiment, as shown in FIG. 3, the image of the OB outline EDL obtained by performing 2D (two-dimensional) processing on the image of the object OB is the OB outline ED. The drawing process is performed so that the image is drawn in the inner area.

【0058】このようにすることで、視点からの距離や
透視変換後のオブジェクトOBの大きさに応じて決まる
半透明度でOBの画像と輪郭線EDLの画像とを半透明
合成する処理や、輪郭線の描画位置でのオブジェクトO
BのZ値を、輪郭線EDLのZ値として設定する処理な
どが可能になる。
In this way, a process of translucently combining the OB image and the contour EDL image with a translucency determined according to the distance from the viewpoint and the size of the object OB after perspective transformation, Object O at the line drawing position
A process of setting the Z value of B as the Z value of the contour line EDL is possible.

【0059】例えば、図2に示すような輪郭線を描画で
きる手法として、以下に説明するような比較例を考える
ことができる。
For example, as a method for drawing a contour line as shown in FIG. 2, a comparative example described below can be considered.

【0060】この比較例では、図4(A)、(B)に示
すように、描画領域400(フレームバッファ等)上の
元画像の描画予定領域410に対して輪郭線画像420
(輪郭線の色に塗りつぶされた画像)を、例えば上方向
に数ピクセルだけずらして描画する。同様に、図4
(C)、(D)、(E)に示すように、描画予定領域4
10に対して輪郭線画像420を、下方向、右方向、左
方向に数ピクセルだけずらして描画する。そして、最後
に図4(F)に示すように、描画予定領域410に対し
て元画像430を描画する。
In this comparative example, as shown in FIGS. 4A and 4B, the contour line image 420 with respect to the drawing area 410 of the original image on the drawing area 400 (frame buffer or the like).
For example, the image drawn with the outline color is shifted by several pixels in the upward direction. Similarly, FIG.
As shown in (C), (D), and (E), the drawing scheduled area 4
The contour image 420 is drawn with respect to 10 shifted by several pixels in the downward direction, the right direction, and the left direction. Finally, as shown in FIG. 4F, the original image 430 is drawn in the drawing scheduled area 410.

【0061】この比較例によれば、2D処理だけで輪郭
線を描画できるため、描画プロセッサの処理負担は重く
なるものの、3D(3次元)処理を行うCPUの処理負
担を軽減できるという利点がある。
According to this comparative example, the contour line can be drawn only by 2D processing. Therefore, although the processing load on the drawing processor increases, there is an advantage that the processing load on the CPU performing 3D (three-dimensional) processing can be reduced. .

【0062】しかしながら、この比較例では、図4
(F)から明らかなように、オブジェクト(430)の
輪郭の外側領域に輪郭線(422、424、426、4
28)が描画されてしまう。
However, in this comparative example, FIG.
As is clear from (F), contour lines (422, 424, 426, 4 and 4) are formed in the outer region of the contour of the object (430).
28) is drawn.

【0063】従って、この比較例では、オブジェクトの
画像と輪郭線の画像とを半透明合成する処理ができなく
なる。このため、視点からの距離が遠い場合に輪郭線の
相対的な太さが不必要に目立ってしまうという後述する
問題を、半透明合成の手法で解決するのが困難になる。
Accordingly, in this comparative example, it becomes impossible to perform the semitransparent composition of the object image and the contour image. For this reason, it becomes difficult to solve the later-described problem that the relative thickness of the contour line is unnecessarily conspicuous when the distance from the viewpoint is long, using a semi-transparent composition method.

【0064】また、この比較例では、外側領域に輪郭線
が描画されるため、輪郭線描画位置でのオブジェクトの
Z値を、輪郭線のZ値として設定することも困難にな
る。従って、輪郭線と他のオブジェクト(背景等)との
間で不適切な陰面消去や半透明合成が行われ、不自然な
画像が生成されてしまうなどの問題が生じる。
In this comparative example, since a contour line is drawn in the outer region, it is difficult to set the Z value of the object at the contour drawing position as the Z value of the contour line. Therefore, problems such as inappropriate hidden surface removal and semi-transparent composition being performed between the contour line and another object (background, etc.), and an unnatural image are generated.

【0065】これに対して、本実施形態では、図3に示
すように輪郭線EDLの画像がオブジェクトOBの内側
領域に描画されるため、上記のような比較例の問題点を
容易に解決できる。
On the other hand, in this embodiment, since the image of the contour line EDL is drawn in the inner area of the object OB as shown in FIG. 3, the problems of the comparative example as described above can be easily solved. .

【0066】2.2 輪郭線の半透明度の変化処理 さて、3次元ゲームにおいては、プレーヤの操作入力な
どに応じてプレーヤの視点(仮想カメラ)は任意の位置
に移動し、キャラクタなどを表現するオブジェクトも任
意の位置に移動する。従って、プレーヤの視点とオブジ
ェクトとの間の距離も様々に変化し、透視変換後のオブ
ジェクトの大きさ(スクリーン上での、ピクセルに対す
るオブジェクトの相対的な大きさ)も様々に変化するよ
うになる。
2.2 Contour Translucency Change Processing In a three-dimensional game, the player's viewpoint (virtual camera) moves to an arbitrary position in accordance with the player's operation input and the like to represent a character or the like. The object also moves to an arbitrary position. Accordingly, the distance between the player's viewpoint and the object also changes variously, and the size of the object after the perspective transformation (the relative size of the object with respect to the pixel on the screen) also changes variously. .

【0067】このように、その大きさが様々に変化する
可能性があるオブジェクトに対して、一定の太さ(例え
ば1ピクセル)の輪郭線を描画すると、以下のような問
題が生じる。
As described above, when an outline having a certain thickness (for example, 1 pixel) is drawn on an object whose size may change variously, the following problems occur.

【0068】即ち、図5のA1に示すように視点とオブ
ジェクトOBとの距離が近い場合(スクリーン上でのオ
ブジェクトの占有面積が大きい場合)には、オブジェク
トOBの輪郭線EDLの太さはそれほど目立たず、不自
然な画像にはならない。
That is, as shown by A1 in FIG. 5, when the distance between the viewpoint and the object OB is short (when the area occupied by the object on the screen is large), the outline EDL of the object OB is not so thick. It does not stand out and does not look like an unnatural image.

【0069】しかしながら、図5のA2、A3に示すよ
うに視点からの距離が遠くなると(スクリーン上でのオ
ブジェクトの占有面積が小さくなると)、輪郭線EDL
の太さが不必要に目立ってしまい、不自然な画像が生成
されてしまう。
However, as shown by A2 and A3 in FIG. 5, when the distance from the viewpoint is increased (when the area occupied by the object on the screen is reduced), the contour line EDL is obtained.
The thickness of the image becomes unnecessarily noticeable and an unnatural image is generated.

【0070】特に、A3に示すようにオブジェクトOB
の総ピクセル数(縦のピクセル数×横のピクセル数)が
例えば1〜10ピクセルとなった場合には、オブジェク
トOBが輪郭線EDLの色で塗りつぶされたかのように
見える画像が生成されてしまう。即ち、オブジェクトO
Bの色が赤で輪郭線EDLの色が黒の場合を例にとれ
ば、本来ならば赤く見えるべきOBの画像が、あたかも
黒色の点のように見えてしまう。
In particular, as shown in A3, the object OB
When the total number of pixels (the number of vertical pixels × the number of horizontal pixels) is, for example, 1 to 10 pixels, an image that looks as if the object OB is filled with the color of the contour line EDL is generated. That is, the object O
Taking the case where the color of B is red and the color of the contour line EDL is black as an example, the image of OB that should originally look red appears as if it were a black dot.

【0071】そこで本実施形態では、視点からの距離や
透視変換後のオブジェクトの大きさに応じて決まる半透
明度(透明度、不透明度と等価)で、オブジェクトの画
像とオブジェクトの輪郭線の画像とを半透明合成(α合
成)するようにしている。
Therefore, in this embodiment, the object image and the image of the outline of the object are determined with translucency (equivalent to transparency and opacity) determined according to the distance from the viewpoint and the size of the object after perspective transformation. Translucent synthesis (α synthesis) is performed.

【0072】即ち図6のC1、C2に示すように、視点
からの距離が遠くなるにつれて(透視変換後のオブジェ
クトの大きさが小さくなるにつれて)、オブジェクトO
Bの輪郭線EDLの半透明度を変化させて、輪郭線ED
Lがより透明になるようにする。そして、C3に示すよ
うに、視点からの距離が十分に遠くなった場合(透視変
換後のオブジェクトの大きさが十分に小さくなった場
合)には、輪郭線EDLの画像がほぼ見えなくなるよう
にする。
That is, as indicated by C1 and C2 in FIG. 6, as the distance from the viewpoint increases (the size of the object after perspective transformation decreases), the object O
The contour line ED is changed by changing the translucency of the contour line EDL of B.
Make L more transparent. Then, as shown in C3, when the distance from the viewpoint is sufficiently long (when the size of the object after perspective transformation is sufficiently small), the image of the contour line EDL is almost invisible. To do.

【0073】このようにすれば、図5のA2と図6のC
2を比較すれば明らかなように、輪郭線EDLの太さが
不必要に目立ってしまうという問題を解決できる。ま
た、図5のA3と図6のC3を比較すれば明らかなよう
に、オブジェクトOBが輪郭線EDLの色で塗りつぶさ
れたかのように見える画像が生成されてしまうという問
題も解決できる。即ち、オブジェクトOBの色が赤で輪
郭線EDLの色が黒の場合を例にとれば、視点からの距
離が十分に遠くなった場合にも、OBの色が黒く塗りつ
ぶされずに本来見えるべき赤になり、より自然な画像を
生成できる。
In this way, A2 in FIG. 5 and C in FIG.
As can be seen from a comparison of 2, it is possible to solve the problem that the thickness of the contour line EDL is unnecessarily noticeable. Further, as apparent from comparison between A3 in FIG. 5 and C3 in FIG. 6, it is possible to solve the problem of generating an image that looks as if the object OB is filled with the color of the outline EDL. In other words, taking the case where the color of the object OB is red and the color of the contour line EDL is black as an example, even if the distance from the viewpoint is sufficiently long, the red color that should be originally visible without being blacked out. And a more natural image can be generated.

【0074】特に図6の手法は、図3に示すようにオブ
ジェクトOBの輪郭EDの内側領域に輪郭線EDLが描
画される場合に有効である。
In particular, the method shown in FIG. 6 is effective when the contour line EDL is drawn in the inner region of the contour ED of the object OB as shown in FIG.

【0075】即ち、図4(F)のように輪郭の外側領域
に輪郭線が描画される場合には、輪郭線と他のオブジェ
クト(輪郭線の描画対象となるオブジェクト以外のオブ
ジェクト)との間で半透明合成が行われてしまう。従っ
て、輪郭線と他のオブジェクトとのZソートが必要にな
ってしまい、処理が煩雑化する。また、輪郭線と他のオ
ブジェクトが半透明合成されることで、不自然な画像が
生成されるおそれがある。
That is, when a contour line is drawn in the outer region of the contour as shown in FIG. 4 (F), between the contour line and another object (an object other than the object on which the contour line is drawn). So translucent synthesis is performed. Accordingly, Z sorting between the contour line and other objects becomes necessary, and the processing becomes complicated. Further, an unnatural image may be generated by semi-transparent composition of the contour line and other objects.

【0076】これに対して、図6のように輪郭の内側領
域に輪郭線が描画される場合には、オブジェクトを先に
描画し、その後に輪郭線を描画するという描画順序を守
るだけで、オブジェクトと輪郭線の半透明合成が可能に
なる。従って、描画順序の管理が簡素化されると共に、
輪郭線と他のオブジェクトが半透明合成されることもな
く、より自然な画像を生成できるようになる。
On the other hand, when the outline is drawn in the inner area of the outline as shown in FIG. 6, the object is drawn first and then the outline is drawn. Allows translucent composition of objects and contours. Therefore, management of the drawing order is simplified and
The contour line and other objects are not translucently synthesized, and a more natural image can be generated.

【0077】さて、視点からの距離やオブジェクトの大
きさに応じて輪郭線の半透明度を制御する手法としては
種々の手法を考えることができる。
Various methods can be considered as a method for controlling the translucency of the contour line according to the distance from the viewpoint and the size of the object.

【0078】例えば図7(A)では、視点からの距離が
しきい値VTNよりも遠くなった場合に、半透明度αT
が近距離用のαTNから変化し始め、オブジェクトの輪
郭線が透明になり始める。これにより、輪郭線が徐々に
目立たなくなって行く。
For example, in FIG. 7A, when the distance from the viewpoint is longer than the threshold value VTN, the translucency αT
Starts to change from αTN for short distance, and the outline of the object starts to become transparent. As a result, the outline gradually becomes inconspicuous.

【0079】そして、視点からの距離がしきい値VTF
よりも遠くなった場合に、半透明度αTが遠距離用のα
TFに設定され、オブジェクトの輪郭線が図6のC3に
示すように例えば完全に透明になる(見えなくなる)。
これにより、オブジェクトが輪郭線の色で塗りつぶされ
る事態が防止される。
The distance from the viewpoint is the threshold value VTF.
The translucency αT is a long-range α
As shown in C3 in FIG. 6, for example, the object outline is completely transparent (not visible).
This prevents the object from being painted with the outline color.

【0080】また図7(B)では、オブジェクトの大き
さがしきい値VTNよりも小さくなった場合に、半透明
度αTがαTNから変化し始め、オブジェクトの輪郭線
が透明になり始める。
In FIG. 7B, when the size of the object becomes smaller than the threshold value VTN, the translucency αT starts to change from αTN, and the outline of the object starts to become transparent.

【0081】そして、オブジェクトの大きさがしきい値
VTFよりも小さくなった場合に、半透明度αTがαT
Fに設定され、オブジェクトの輪郭線が図6のC3に示
すように例えば完全に透明になる(見えなくなる)。
When the size of the object becomes smaller than the threshold value VTF, the translucency αT is αT
For example, the outline of the object becomes completely transparent (not visible) as indicated by C3 in FIG.

【0082】なお、図7(A)における視点からの距離
は、処理負担の軽減化の観点からはオブジェクト(オブ
ジェクトの代表点)の奥行き距離(Z値)であることが
特に望ましいが、これに限定されない。例えば、視点と
オブジェクトの間の直線距離であってもよい。また、奥
行き距離や直線距離以外にも、奥行き距離や直線距離を
変化させる場合と同様の効果を得ることができる均等な
パラメータであればよい。
The distance from the viewpoint in FIG. 7A is particularly preferably the depth distance (Z value) of the object (representative point of the object) from the viewpoint of reducing the processing load. It is not limited. For example, it may be a linear distance between the viewpoint and the object. In addition to the depth distance and the straight line distance, any equivalent parameter that can obtain the same effect as when the depth distance or the straight line distance is changed may be used.

【0083】また、図7(B)におけるオブジェクトの
大きさは、処理負担の軽減化の観点からは、オブジェク
トの総ピクセル数(縦のピクセル数×横のピクセル数)
であることが望ましいが、これに限定されない。例え
ば、オブジェクトの縦のピクセル数又は横のピクセル数
の一方であってもよい。或いは、これらのピクセル数以
外にも、これらのピクセル数を変化させる場合と同等の
効果を得ることができる均等なパラメータであればよ
い。
The size of the object in FIG. 7B is the total number of pixels of the object (vertical pixel number × horizontal pixel number) from the viewpoint of reducing the processing load.
Although it is desirable, it is not limited to this. For example, it may be one of the number of vertical pixels or the number of horizontal pixels of the object. Alternatively, in addition to the number of pixels, any equivalent parameter that can obtain the same effect as that obtained by changing the number of pixels may be used.

【0084】さて、図8(A)に示すように、この種の
3次元ゲームにおいては、オブジェクトOBが移動した
場合に、オブジェクトOBと視点VP(仮想カメラ)と
の間の距離をほぼ一定の距離ZVBに保ちながら、VP
がOBに追従する場面が多い。
As shown in FIG. 8A, in this type of three-dimensional game, when the object OB moves, the distance between the object OB and the viewpoint VP (virtual camera) is substantially constant. While keeping the distance ZVB, VP
There are many scenes in which OB follows OB.

【0085】このような場面で、図6に示すように輪郭
線の半透明度が視点からの距離やオブジェクトの大きさ
に応じて頻繁に変化してしまうと、プレーヤに不自然に
見える画像が生成されてしまう問題が生じる。
In such a scene, if the translucency of the contour line changes frequently according to the distance from the viewpoint and the size of the object as shown in FIG. 6, an image that looks unnatural to the player is generated. The problem that is done arises.

【0086】そこで本実施形態では、視点VPからの距
離が、視点VPがオブジェクトOBに追従している時
(以下、追従移動モード時と呼ぶ)の距離ZVB付近で
ある場合には、OBの輪郭線の半透明度が略一定に保た
れるようにする。或いは、透視変換後のオブジェクトO
Bの大きさが、追従移動モード時でのOBの大きさ(距
離ZVBの時の大きさ)付近である場合には、OBの輪
郭線の半透明度が略一定に保たれるようにする。より具
体的には、距離ZVBよりも遠い距離(追従時のOBの
大きさよりも小さな値)に、しきい値VTNを設定して
おく。このようにすれば、図7(A)、(B)の関数特
性から明らかなように、追従移動モード時には輪郭線の
半透明度は変化しなくなる。これにより、視点VPのO
Bへの追従移動モード時に不自然な画像が生成されてし
まう上記問題を解決できる。
Therefore, in this embodiment, when the distance from the viewpoint VP is near the distance ZVB when the viewpoint VP follows the object OB (hereinafter referred to as the following movement mode), the contour of the OB is obtained. Try to keep the translucency of the lines approximately constant. Or the object O after perspective transformation
When the size of B is in the vicinity of the size of OB in the follow-up movement mode (size at the distance ZVB), the translucency of the outline of the OB is kept substantially constant. More specifically, the threshold value VTN is set to a distance farther than the distance ZVB (a value smaller than the size of the OB at the time of tracking). In this way, as is apparent from the function characteristics of FIGS. 7A and 7B, the translucency of the contour line does not change during the follow movement mode. As a result, the viewpoint VP O
The above problem that an unnatural image is generated in the follow-up movement mode to B can be solved.

【0087】そして、何らかのイベントが発生し、オブ
ジェクトOBに対する視点VPの追従移動モードが外
れ、VPとOBの距離がしきい値VTNよりも遠くなる
と(オブジェクトの大きさが小さくなると)、図6に示
すように輪郭線の半透明度が視点VPからの距離(OB
の大きさ)に応じて変化するようになる。これにより、
上記イベントの発生により視点とオブジェクトの距離が
遠くなってしまい、輪郭線の相対的な太さが不必要に目
立ってしまうという問題も解決できる。
Then, when some event occurs and the follow-up movement mode of the viewpoint VP with respect to the object OB is removed and the distance between VP and OB is longer than the threshold value VTN (when the size of the object is reduced), FIG. As shown, the translucency of the outline is the distance from the viewpoint VP (OB
It will change according to the size). This
The occurrence of the above event can also solve the problem that the distance between the viewpoint and the object is increased, and the relative thickness of the contour line is unnecessarily noticeable.

【0088】また、図7(A)、(B)に示すように上
限側のしきい値VTF(所与のしきい値)を設定するこ
とで次のような効果を得ることができる。
Further, as shown in FIGS. 7A and 7B, the following effects can be obtained by setting the upper limit side threshold value VTF (given threshold value).

【0089】即ち、オブジェクトOBの大きさが図5の
A3に示すように小さくなった場合に、輪郭線EDLが
完全に透明になっていないと、OBがEDLの色に塗り
つぶされたかのように見える不自然な画像が生成されて
しまう。
That is, when the size of the object OB is reduced as indicated by A3 in FIG. 5, if the outline EDL is not completely transparent, it appears as if the OB is filled with the EDL color. An unnatural image is generated.

【0090】そこで、オブジェクトOBの大きさが図5
のA3に示すような大きさの時に輪郭線EDLが完全に
透明になるような値に、しきい値VTFを設定してお
く。このようにすれば、オブジェクトOBの大きさが図
5のA3に示すような大きさの時には、図6のC3に示
すように輪郭線EDLが見えなくなるようになり、図5
のA3に示すような不自然な画像が生成される事態を防
止できる。
Therefore, the size of the object OB is as shown in FIG.
The threshold value VTF is set to a value such that the contour line EDL becomes completely transparent when the size is as indicated by A3. In this way, when the size of the object OB is as shown in A3 in FIG. 5, the contour line EDL becomes invisible as shown in C3 in FIG.
A situation where an unnatural image as shown in A3 of FIG.

【0091】また、しきい値VTNとVTFの間で半透
明度を変化させることで、輪郭線の半透明度が変化する
様子がプレーヤに気づかれてしまうという問題も解決で
きる。
Further, by changing the translucency between the threshold values VTN and VTF, it is possible to solve the problem that the player notices how the translucency of the contour changes.

【0092】2.3 輪郭線のZ値の設定 本実施形態では、輪郭線が描画される位置でのオブジェ
クトのZ値を、輪郭線のZ値として設定している。
2.3 Setting the Z Value of the Outline In this embodiment, the Z value of the object at the position where the outline is drawn is set as the Z value of the outline.

【0093】具体的には図9に示すように、輪郭線描画
位置PE1、PE2でのZ値を輪郭線EDLのZ値とし
て設定する。更に具体的には、描画領域(ワークバッフ
ァ、フレームバッファ)へのオブジェクトOBの描画時
に、輪郭線描画位置PE1、PE2でのZ値がZバッフ
ァに書き込まれるが、このZバッファに書き込まれたZ
値を、輪郭線EDLのZ値として使用する。
Specifically, as shown in FIG. 9, the Z value at the contour drawing positions PE1 and PE2 is set as the Z value of the contour EDL. More specifically, when the object OB is drawn in the drawing area (work buffer, frame buffer), the Z values at the contour drawing positions PE1 and PE2 are written in the Z buffer.
The value is used as the Z value of the contour line EDL.

【0094】このようにすれば、輪郭線EDLと他のオ
ブジェクトとの陰面消去を適正に行うことが可能なる。
そして、このように輪郭線描画位置PE1、PE2での
Z値を輪郭線EDLのZ値として設定できるのは、本実
施形態では図3に示すようにオブジェクトOBの輪郭E
Dの内側領域に輪郭線EDLが描画されるからである。
In this way, it is possible to properly delete the hidden surface between the contour line EDL and other objects.
In this embodiment, the Z value at the contour drawing positions PE1 and PE2 can be set as the Z value of the contour EDL as shown in FIG.
This is because the outline EDL is drawn in the inner area of D.

【0095】例えば図4(F)に示すようにオブジェク
トの輪郭の外側領域に輪郭線が描画される場合には、輪
郭線に対して適正なZ値を与える事が難しくなる。そし
て、輪郭線に対して適正なZ値が与えられないと、図1
0(A)に示すように、陰面消去が正確に行われなくな
り、輪郭線EDLが、背景などの他のオブジェクトOB
2に隠れて見えなくなるなどの不具合が生じる。
For example, as shown in FIG. 4 (F), when a contour line is drawn in the outer region of the contour of the object, it is difficult to give an appropriate Z value to the contour line. If an appropriate Z value is not given to the contour line, FIG.
As shown in 0 (A), the hidden surface removal is not performed accurately, and the contour line EDL becomes another object OB such as a background.
Problems such as hiding in 2 and disappearing occur.

【0096】また、オブジェクトの輪郭の外側領域に輪
郭線が描画されると、図6に示すような輪郭線EDLの
半透明合成処理を行った場合に、図10(B)に示すよ
うに輪郭線EDLと他のオブジェクトOB2との半透明
合成が行われてしまう。この結果、図10(B)のE1
に示す部分とE2に示す部分とで、輪郭線EDLの色が
異なるようになってしまい、不自然が画像が生成されて
しまう。
Further, when a contour line is drawn in the outer region of the contour of the object, when the semi-transparent composition processing of the contour line EDL as shown in FIG. 6 is performed, the contour as shown in FIG. Translucent composition of line EDL and other object OB2 will be performed. As a result, E1 in FIG.
The color of the contour line EDL is different between the part shown in E2 and the part shown in E2, and an unnatural image is generated.

【0097】本実施形態のようにオブジェクトの輪郭の
内側領域に輪郭線を描画し、輪郭線描画位置でのZ値を
輪郭線のZ値として設定すれば、図11に示すように、
陰面消去が正確に行われるようになり、輪郭線EDLが
他のオブジェクトOB2に隠れて見えなくなるという問
題を防止できる。また、オブジェクトOBの描画後に輪
郭線EDLを描画するという描画順序さえ守れば、オブ
ジェクトOBと輪郭線EDLとの間で半透明合成が行わ
れることを保証できるようになる。従って、輪郭線ED
Lと他のオブジェクトOB2との間で半透明合成処理が
行われるという図10(B)に示すような問題が生じる
のを防止できる。
If a contour line is drawn in the inner region of the contour of the object as in this embodiment, and the Z value at the contour drawing position is set as the Z value of the contour line, as shown in FIG.
Hidden surface erasure is accurately performed, and the problem that the outline EDL is hidden behind other objects OB2 and cannot be seen can be prevented. In addition, as long as the drawing order of drawing the contour line EDL after the drawing of the object OB is observed, it is possible to ensure that the semi-transparent composition is performed between the object OB and the contour line EDL. Therefore, the outline ED
It is possible to prevent a problem as shown in FIG. 10B that the translucent composition processing is performed between L and another object OB2.

【0098】2.4 バイリニアフィルタ・テクスチャ
マッピングを利用した輪郭線描画 さて本実施形態では、バイリニアフィルタ方式(広義に
はテクセル補間方式)のテクスチャマッピングを有効利
用して輪郭線を描画している。
2.4 Contour Drawing Using Bilinear Filter / Texture Mapping In this embodiment, the contour line is drawn by effectively using the texture mapping of the bilinear filter method (texel interpolation method in a broad sense).

【0099】即ち、テクスチャマッピングにおいてはピ
クセルの位置とテクセルの位置がずれる場合がある。
That is, in the texture mapping, the pixel position and the texel position may be shifted.

【0100】この場合に、図12に示すように、ポイン
トサンプリング方式では、ピクセル(サンプリング点)
Pの色CP(広義には画像情報)は、Pに最も距離が近
いテクセルTAの色CAになる。
In this case, as shown in FIG. 12, in the point sampling method, pixels (sampling points) are used.
The color CP of P (image information in a broad sense) is the color CA of the texel TA closest to P.

【0101】一方、バイリニアフィルタ方式では、Pの
色CPは、Pの周りのテクセルTA、TB、TC、TD
の色CA、CB、CC、CDを補間した色になる。
On the other hand, in the bilinear filter system, the P color CP is determined by the texels TA, TB, TC, TD around P.
The colors CA, CB, CC and CD are interpolated.

【0102】より具体的には、TA〜TDの座標とPの
座標とに基づき、X軸方向の座標比β:1−β(0≦β
≦1)と、Y軸方向の座標比γ:1−γ(0≦γ≦1)
を求める。
More specifically, based on the coordinates of TA to TD and the coordinates of P, the coordinate ratio β: 1-β (0 ≦ β) in the X-axis direction.
≦ 1) and the coordinate ratio γ in the Y-axis direction: 1−γ (0 ≦ γ ≦ 1)
Ask for.

【0103】この場合に、Pの色CP(バイリニアフィ
ルタ方式での出力色)は、下式のようになる。
In this case, the P color CP (output color in the bilinear filter system) is expressed by the following equation.

【0104】 CP=(1−β)×(1−γ)×CA+β×(1−γ)×CB +(1−β)×γ×CC+β×γ×CD (1) 本実施形態では、このようにバイリニアフィルタ方式で
は色が自動的に補間されることに着目して、輪郭線を描
画している。
CP = (1−β) × (1−γ) × CA + β × (1−γ) × CB + (1−β) × γ × CC + β × γ × CD (1) In this embodiment, in this way In contrast, in the bilinear filter method, attention is paid to the fact that the color is automatically interpolated, and the contour line is drawn.

【0105】より具体的には、図13(A)に示すよう
に、オブジェクトOBの輪郭EDの内側領域にオブジェ
クト色が設定され、輪郭EDの外側領域に輪郭線色が設
定されるマッピング画像を生成する。そして、図14の
F1に示すように、このマッピング画像をテクスチャと
して設定する。そして、図14のF2に示すように、こ
のテクスチャを仮想ポリゴン(広義には仮想オブジェク
ト)にバイリニアフィルタ方式でマッピングする際に、
仮想ポリゴンの頂点に与えるテクスチャ座標を、例えば
(0.5、0.5)だけ右下方向にシフト(ずらす、移
動)させる。
More specifically, as shown in FIG. 13A, a mapping image in which the object color is set in the inner area of the outline ED of the object OB and the outline color is set in the outer area of the outline ED. Generate. Then, as shown by F1 in FIG. 14, this mapping image is set as a texture. Then, as shown in F2 of FIG. 14, when mapping this texture to a virtual polygon (virtual object in a broad sense) by the bilinear filter method,
The texture coordinates given to the vertices of the virtual polygon are shifted (shifted, moved) in the lower right direction by, for example, (0.5, 0.5).

【0106】このようにすることで、バイリニアフィル
タ方式の補間機能により自動的に、マッピング画像の各
ピクセルの色が周囲のピクセルににじむようになる。こ
れにより、図13(B)に示すように、オブジェクトO
Bの輪郭付近においてオブジェクト色と輪郭線色とが混
ざり合うようになり、オブジェクトOBの輪郭に沿って
輪郭線EDLが描画されるようになる。
By doing so, the color of each pixel of the mapping image is automatically blurred to the surrounding pixels by the bilinear filter type interpolation function. As a result, as shown in FIG.
In the vicinity of the outline of B, the object color and the outline color are mixed, and the outline EDL is drawn along the outline of the object OB.

【0107】そして、本実施形態の手法によれば、描画
領域上での2D(2次元)処理で輪郭線の画像を生成で
きる。従って、視線ベクトルと法線ベクトルとのなす角
度を求める処理などの3次元処理が不要となり、CPU
の処理負荷を軽減できる。
According to the method of this embodiment, an image of a contour line can be generated by 2D (two-dimensional) processing on the drawing area. Therefore, three-dimensional processing such as processing for obtaining an angle formed by the line-of-sight vector and the normal vector is not required, and the CPU
Can reduce the processing load.

【0108】また、本実施形態の手法によれば、描画領
域への描画処理は、最低1回(又は2回)の仮想ポリゴ
ンの描画処理で済む。従って、輪郭線画像の生成に必要
な描画処理の回数を減らすことができ、描画プロセッサ
の処理負担を格段に軽減できる。
Further, according to the method of this embodiment, the drawing process in the drawing area may be performed at least once (or twice) for drawing the virtual polygon. Therefore, it is possible to reduce the number of drawing processes necessary for generating the contour image, and to significantly reduce the processing load on the drawing processor.

【0109】なお、仮想ポリゴンの頂点VVX1、VV
X2、VVX3、VVX4の座標が(X、Y)=(X
0、Y0)、(X0、Y1)、(X1、Y1)、(X1、
Y0)であったとする。この場合に、仮想ポリゴンの頂
点VVX1、VVX2、VVX3、VVX4に与えるテ
クスチャ座標(U、V)を、各々、(X0、Y0)、
(X0、Y1)、(X1、Y1)、(X1、Y0)に設定
すれば、ピクセルの位置とテクセルの位置とがずれずに
一致する。従って、各ピクセルの色は周囲のピクセルに
対してしみ出さない。
Note that the vertices VVX1, VV of the virtual polygon
The coordinates of X2, VVX3, and VVX4 are (X, Y) = (X
0, Y0), (X0, Y1), (X1, Y1), (X1,
Y0). In this case, the texture coordinates (U, V) given to the vertices VVX1, VVX2, VVX3, VVX4 of the virtual polygon are respectively (X0, Y0),
If (X0, Y1), (X1, Y1), and (X1, Y0) are set, the pixel position matches the texel position without any deviation. Therefore, the color of each pixel does not exude to surrounding pixels.

【0110】これに対して、仮想ポリゴンの頂点VVX
1、VVX2、VVX3、VVX4に与えるテクスチャ
座標(U、V)を、各々、(X0+0.5、Y0+0.
5)、(X0+0.5、Y1+0.5)、(X1+0.
5、Y1+0.5)、(X1+0.5、Y0+0.5)
に設定すれば、ピクセルの位置とテクセルの位置とがず
れるようになる。従って、バイリニアフィルタ方式の補
間機能により、各ピクセルの色が周囲のピクセルに対し
てしみ出すようになる。
On the other hand, the vertex VVX of the virtual polygon
1, texture coordinates (U, V) given to VVX2, VVX3, and VVX4 are (X0 + 0.5, Y0 + 0.
5), (X0 + 0.5, Y1 + 0.5), (X1 + 0.
5, Y1 + 0.5), (X1 + 0.5, Y0 + 0.5)
If set to, the pixel position and the texel position are shifted. Therefore, the color of each pixel exudes to surrounding pixels by the bilinear filter type interpolation function.

【0111】より具体的には、テクスチャ座標を0.5
ピクセル(テクセル)だけ右下方向にシフトさせて、バ
イリニアフィルタ方式のテクスチャマッピングを行う
と、上式(1)においてβ=γ=1/2になる。従って
図15において、テクセルT44、T45、T54、T
55の色をC44、C45、C54、C55とすると、
ピクセルP44の色CP44は下式のようになる。
More specifically, the texture coordinates are set to 0.5.
When bilinear filter type texture mapping is performed by shifting pixels (texels) in the lower right direction, β = γ = 1/2 in the above equation (1). Accordingly, in FIG. 15, texels T44, T45, T54, T
If the color of 55 is C44, C45, C54, C55,
The color CP44 of the pixel P44 is as follows.

【0112】 CP44=(C44+C45+C54+C55)/4 (2) 従って、テクスチャ座標を右下方向にシフトさせながら
バイリニアフィルタ方式のテクスチャマッピングを行う
と、図15に示すように、テクセルT44の色C44、
即ちピクセルP44の元の色は、ピクセルP33、P3
4、P43、P44に対して1/4ずつしみ出すことに
なる。これにより、輪郭線色とオブジェクト色が混ざり
合った図13(B)に示すような輪郭線EDLの画像を
生成できるようになる。
CP44 = (C44 + C45 + C54 + C55) / 4 (2) Therefore, when bilinear filter type texture mapping is performed while the texture coordinates are shifted in the lower right direction, the color C44 of the texel T44, as shown in FIG.
That is, the original color of the pixel P44 is the pixels P33, P3.
4, P43 and P44 ooze by 1/4. As a result, an image of the contour line EDL as shown in FIG. 13B in which the contour line color and the object color are mixed can be generated.

【0113】2.5 仮想ポリゴンの生成 さて、図14においてマッピング画像のマッピング対象
となる仮想ポリゴンとしては、種々の形状のものを使用
できる。
2.5 Generation of Virtual Polygons Various shapes of virtual polygons to be mapped in the mapping image in FIG. 14 can be used.

【0114】この場合、仮想ポリゴンとして画面サイズ
のポリゴンを使用すると、画面全体に対してバイリニア
フィルタ方式の補間処理が施されるようになる。
In this case, when a screen-sized polygon is used as a virtual polygon, the entire screen is subjected to a bilinear filter type interpolation process.

【0115】しかしながら、このように仮想ポリゴンと
して画面サイズのポリゴンを使用すると、処理に無駄が
あり、輪郭線の描画処理を今一つ効率化できないという
課題があることが判明した。
However, it has been found that when a screen-sized polygon is used as a virtual polygon in this way, the processing is wasted and the contour drawing process cannot be made more efficient.

【0116】即ち、3次元ゲームにおいては、プレーヤ
の操作入力などに応じてプレーヤの視点は任意の位置に
移動し、キャラクタなどを表現するオブジェクトも任意
の位置に移動する。従って、プレーヤの視点とオブジェ
クトとの間の距離も様々に変化し、視点とオブジェクト
との距離に応じて、透視変換後のオブジェクトの大きさ
(画面内でのオブジェクトの占有面積)も様々に変化す
るようになる。
That is, in a three-dimensional game, the player's viewpoint moves to an arbitrary position in accordance with the player's operation input, and an object representing a character or the like also moves to an arbitrary position. Therefore, the distance between the player's viewpoint and the object also changes variously, and the size of the object after perspective transformation (the area occupied by the object on the screen) also changes according to the distance between the viewpoint and the object. Will come to do.

【0117】例えば図16(A)に示すように、視点と
オブジェクトOBとの距離が近い場合には、透視変換後
のオブジェクトOBの大きさは大きくなる(画面での占
有面積が大きくなる)。
For example, as shown in FIG. 16A, when the distance between the viewpoint and the object OB is short, the size of the object OB after the perspective transformation is large (the occupied area on the screen is large).

【0118】一方、図16(B)に示すように、視点と
オブジェクトOBとの距離が遠い場合には、透視変換後
のオブジェクトOBの大きさは小さくなる(画面での占
有面積が小さくなる)。
On the other hand, as shown in FIG. 16B, when the distance between the viewpoint and the object OB is long, the size of the object OB after the perspective transformation is small (occupied area on the screen is small). .

【0119】図16(A)に示すように画面内でのオブ
ジェクトOBの占有面積が大きい場合には、マッピング
画像のマッピング対象となる仮想ポリゴンとして画面サ
イズのポリゴンを用いても、それほど不効率ではない。
As shown in FIG. 16A, when the area occupied by the object OB in the screen is large, even if a screen-size polygon is used as a virtual polygon to be mapped in the mapping image, it is not very efficient. Absent.

【0120】ところが、図16(B)に示すように画面
内でのオブジェクトOBの占有面積が小さい場合には、
画面サイズのポリゴンを用いると、無駄な描画処理が行
われることになり、処理負荷が不必要に重くなってしま
う。
However, as shown in FIG. 16B, when the area occupied by the object OB in the screen is small,
If screen-size polygons are used, useless drawing processing is performed, and the processing load becomes unnecessarily heavy.

【0121】そこで本実施形態では、透視変換後のオブ
ジェクトOBの画像を内包し、透視変換後のOBの大き
さに応じてその大きさが変化する図16(A)、(B)
に示す仮想ポリゴンVPLを生成する。そして、この仮
想ポリゴンVPLに対してマッピング画像(図13
(A)参照)をマッピングするようにする。
Therefore, in this embodiment, the image of the object OB after perspective transformation is included, and the size of the object changes according to the size of the OB after perspective transformation.
A virtual polygon VPL shown in FIG. Then, a mapping image (FIG. 13) is applied to the virtual polygon VPL.
(A) is mapped.

【0122】このようにすれば、視点とオブジェクトO
Bとの距離が変化し、画面内でのOBの占有面積が変化
した場合に、それに応じて仮想ポリゴンVPLの大きさ
も変化するようになる。例えば、視点とOBとの距離が
遠くなると、仮想ポリゴンVPLの大きさが小さくな
る。従って、描画処理の効率化を図れ、描画処理の負荷
を最適化できるようになる。
In this way, the viewpoint and the object O
When the distance from B changes and the area occupied by OB in the screen changes, the size of the virtual polygon VPL also changes accordingly. For example, as the distance between the viewpoint and OB increases, the size of the virtual polygon VPL decreases. Therefore, the efficiency of the drawing process can be improved, and the load of the drawing process can be optimized.

【0123】なお、オブジェクトがパーツオブジェクト
により構成される場合には、各パーツオブジェクト毎に
仮想ポリゴンを生成するようにしてもよい。また、オブ
ジェクトの一部(例えば目、口)にだけ処理を施す場合
には、透視変換後のオブジェクトの一部を内包するよう
な仮想ポリゴンを生成するようにしてもよい。
If the object is composed of part objects, a virtual polygon may be generated for each part object. When processing is performed only on a part of the object (for example, eyes and mouth), a virtual polygon that includes a part of the object after perspective transformation may be generated.

【0124】さて、仮想ポリゴンの生成手法としては種
々の手法を考えることができる。
Various methods can be considered as a method for generating a virtual polygon.

【0125】第1の手法では、図17(A)、(B)に
示すように、透視変換後のオブジェクトOBの頂点(広
義には自由曲面の制御点なども含む定義点)VX1〜V
X6等の座標に基づいて、仮想ポリゴンVPLを生成す
る。
In the first method, as shown in FIGS. 17A and 17B, the vertices of the object OB after perspective transformation (definition points including control points of a free-form surface in a broad sense) VX1 to VX.
A virtual polygon VPL is generated based on coordinates such as X6.

【0126】より具体的には、オブジェクトOBの頂点
のX、Y座標の最小値XMIN、YMIN、最大値XM
AX、YMAXに基づいて、仮想ポリゴンVPLの頂点
VVX1(XMIN、YMIN)、VVX2(XMI
N、YMAX)、VVX3(XMAX、YMAX)、V
VX4(XMAX、YMIN)を求め、仮想ポリゴンV
PLを生成する。
More specifically, the minimum value XMIN, YMIN, and maximum value XM of the X and Y coordinates of the vertex of the object OB.
Based on AX and YMAX, vertices VVX1 (XMIN, YMIN), VVX2 (XMI) of virtual polygon VPL
N, YMAX), VVX3 (XMAX, YMAX), V
VX4 (XMAX, YMIN) is obtained, and virtual polygon V
PL is generated.

【0127】この第1の手法によれば、仮想ポリゴンV
PLの大きさを、透視変換後のオブジェクトOBの大き
さに応じて最適に小さくできるため、仮想ポリゴンVP
Lの描画処理の負荷が軽くなるという利点がある。一
方、オブジェクトOBの頂点が多い場合には、それらの
頂点のX、Y座標の最小値、最大値を求める処理の負荷
が重くなるという欠点がある。
According to this first method, the virtual polygon V
Since the size of PL can be optimally reduced according to the size of the object OB after the perspective transformation, the virtual polygon VP
There is an advantage that the load of the L drawing process is reduced. On the other hand, when there are many vertices of the object OB, there is a drawback that the processing load for obtaining the minimum and maximum values of the X and Y coordinates of those vertices becomes heavy.

【0128】第2の手法では、図18(A)に示すよう
に、オブジェクトOBを内包する簡易オブジェクトSO
B(バウンディングボックス、バウンディングボリュー
ム)を利用する。この簡易オブジェクトSOBは、オブ
ジェクトOBのヒットチェック処理等のために使用され
るものである。本実施形態ではこの簡易オブジェクトS
OBを有効利用し、透視変換後の簡易オブジェクトSO
Bの頂点(広義には定義点)の座標に基づいて、仮想ポ
リゴンVPLを生成する。
In the second method, as shown in FIG. 18A, a simple object SO that contains an object OB.
B (bounding box, bounding volume) is used. This simple object SOB is used for hit check processing of the object OB and the like. In the present embodiment, this simple object S
Simple object SO after perspective transformation using OB effectively
Based on the coordinates of the vertex of B (definition point in a broad sense), a virtual polygon VPL is generated.

【0129】より具体的には図18(B)に示すよう
に、透視変換後の簡易オブジェクトSOBの頂点VSX
1〜VSX8のX、Y座標の最小値、最大値に基づい
て、仮想ポリゴンVPLの頂点VVX1〜VVX4を求
め、仮想ポリゴンVPLを生成する。
More specifically, as shown in FIG. 18B, the vertex VSX of the simple object SOB after perspective transformation.
The vertices VVX1 to VVX4 of the virtual polygon VPL are obtained based on the minimum and maximum values of the X and Y coordinates of 1 to VSX8 to generate the virtual polygon VPL.

【0130】この第2の手法によれば、オブジェクトO
Bに比べて頂点数が少ない簡易オブジェクトSOBを用
いるため、頂点のX、Y座標の最小値、最大値を求める
処理の負荷が軽くなるという利点がある。一方、第1の
手法に比べて、仮想ポリゴンVPLの大きさが大きくな
ってしまうため、仮想ポリゴンVPLの描画処理の負荷
が第1の手法に比べて重くなるという欠点がある。
According to this second method, the object O
Since the simple object SOB having a smaller number of vertices than B is used, there is an advantage that the processing load for obtaining the minimum and maximum values of the X and Y coordinates of the vertices is reduced. On the other hand, since the size of the virtual polygon VPL is larger than that of the first method, there is a drawback that the drawing processing load of the virtual polygon VPL becomes heavier than that of the first method.

【0131】なお、仮想ポリゴンVPLの大きさを、図
17(A)、(B)、図18(B)に示す大きさよりも
上下左右方向に若干だけ大きくするようにしてもよい
(例えば1ピクセル分だけ大きくする)。
Note that the size of the virtual polygon VPL may be slightly larger in the vertical and horizontal directions than the sizes shown in FIGS. 17A, 17B, and 18B (for example, one pixel). Make it bigger).

【0132】また、透視変換後のオブジェクトの大きさ
に応じて仮想ポリゴンの大きさを変化させる手法は、上
述の第1、第2の手法に限定されない。例えば、視点と
オブジェクトとの間の距離に応じて仮想ポリゴンの大き
さを適宜変化させるようにしてもよい。
Further, the method of changing the size of the virtual polygon in accordance with the size of the object after the perspective transformation is not limited to the above-described first and second methods. For example, the size of the virtual polygon may be appropriately changed according to the distance between the viewpoint and the object.

【0133】また、図6や図7(B)で説明したよう
に、透視変換後のオブジェクトの大きさに応じて輪郭線
の半透明度を変化させる場合には、図16(A)〜図1
8(B)の手法で生成された仮想ポリゴン(仮想オブジ
ェクト)の大きさ(ピクセル数)を求め、その大きさに
基づいて輪郭線の半透明度を変化させればよい。
Further, as described with reference to FIGS. 6 and 7B, when the translucency of the contour line is changed in accordance with the size of the object after the perspective transformation, FIGS.
The size (number of pixels) of the virtual polygon (virtual object) generated by the method 8 (B) may be obtained, and the translucency of the contour line may be changed based on the size.

【0134】2.6 輪郭線画像 次に、オブジェクトの輪郭線の画像を生成する手法につ
いて説明する。
2.6 Outline Image Next, a method for generating an outline image of an object will be described.

【0135】本実施形態では上述の2.4で説明したバ
イリニアフィルタ方式のテクスチャマッピングを利用し
て輪郭線(edge line)の画像を生成している。
In this embodiment, an edge line image is generated using the texture mapping of the bilinear filter method described in 2.4 above.

【0136】2.6.1 マッピング画像の生成 より具体的には、まず前処理として、ワークバッファ
(エフェクトバッファ)を輪郭線の画像情報(RL、G
L、BL、αL)で初期化する。即ち、各ピクセルの色
を輪郭線の色(RL、GL、BL)に設定すると共に、
α値をαL(=0)に設定する。
2.6.1 More specifically, the mapping image is generated. First, as preprocessing, the work buffer (effect buffer) is set to contour image information (RL, G
L, BL, αL). That is, the color of each pixel is set to the outline color (RL, GL, BL), and
The α value is set to αL (= 0).

【0137】次に、輪郭線付加の対象となるオブジェク
トOBをワークバッファに描画する。この場合に、オブ
ジェクトOBの頂点のα値(A値)をαJ(>0)に設
定しておく。なお、説明を簡単にするために、オブジェ
クトOBの色は単色の(RJ、GJ、BJ)であるとす
る。
Next, the object OB to be contoured is drawn on the work buffer. In this case, the α value (A value) of the vertex of the object OB is set to αJ (> 0). For the sake of simplicity, it is assumed that the color of the object OB is a single color (RJ, GJ, BJ).

【0138】以上のようにすることで、ワークバッファ
には図19に示すような画像(マッピング画像)が描画
されることになる。
By doing so, an image (mapping image) as shown in FIG. 19 is drawn in the work buffer.

【0139】即ち、オブジェクトOBの輪郭EDの内側
領域はOBの色(RJ、GJ、BJ)に設定され、輪郭
EDの外側領域は輪郭線の色(RL、GL、BL)に設
定される。また、内側領域のα値はαJ(>0)に設定
され、外側領域のα値はαL(=0)に設定される。
That is, the inner area of the outline ED of the object OB is set to the color of OB (RJ, GJ, BJ), and the outer area of the outline ED is set to the color of the outline (RL, GL, BL). The α value of the inner area is set to αJ (> 0), and the α value of the outer area is set to αL (= 0).

【0140】なお、図19に示すα値の設定は一例であ
り、少なくとも外側領域のα値と内側領域のα値が異な
った値に設定されていればよい。
Note that the setting of the α value shown in FIG. 19 is merely an example, and it is sufficient that at least the α value of the outer region and the α value of the inner region are set to different values.

【0141】2.6.2 α(マスク)プレーンの生成 次に、図19に示すワークバッファ上のマッピング画像
の中のα(マスク)プレーンのみをフレームバッファに
描画する。
2.6.2 Generation of α (mask) plane Next, only the α (mask) plane in the mapping image on the work buffer shown in FIG. 19 is drawn in the frame buffer.

【0142】より具体的には、ワークバッファ上のマッ
ピング画像を仮想ポリゴン(広義には仮想オブジェク
ト。図16(A)〜図18(B)のVPL)にマッピン
グしながら、その仮想ポリゴンをフレームバッファに描
画し、マッピング画像の中のαプレーンのみをフレーム
バッファに描画する。
More specifically, while mapping the mapping image on the work buffer to a virtual polygon (virtual object in a broad sense; VPL in FIGS. 16A to 18B), the virtual polygon is mapped to the frame buffer. And only the α plane in the mapping image is drawn in the frame buffer.

【0143】以上により、フレームバッファ上には、図
20に示すようにオブジェクトOBの輪郭EDの内側領
域ではα=αJ(>0)に設定され、外側領域ではα=
αL(=0)に設定されたα(マスク)プレーンが生成
されることになる。
As described above, α = αJ (> 0) is set in the inner region of the contour ED of the object OB on the frame buffer, and α = α in the outer region, as shown in FIG.
An α (mask) plane set to αL (= 0) is generated.

【0144】2.6.3 オブジェクトの画像の描画 次に、オブジェクトOBの画像をフレームバッファに描
画する。このようにオブジェクトOBの画像をフレーム
バッファに先に描画しておくことで、オブジェクトの画
像と輪郭線の画像との半透明合成(αブレンディング)
が可能になる。
2.6.3 Drawing Object Image Next, the object OB image is drawn in the frame buffer. By rendering the object OB image first in the frame buffer in this way, translucent synthesis (α blending) of the object image and the contour image is performed.
Is possible.

【0145】より具体的には、ワークバッファ上のマッ
ピング画像を仮想ポリゴンにマッピングしながら、その
仮想ポリゴンをフレームバッファに描画する。
More specifically, the virtual polygon is drawn on the frame buffer while mapping the mapping image on the work buffer to the virtual polygon.

【0146】そして、このテクスチャマッピングの際
に、 図20で描画されたαプレーンを壊さないように、α
プレーンの描画をマスクし、 ソースαテストでα=αJのピクセルのみを合格にす
る。
In this texture mapping, α is drawn so as not to break the α plane drawn in FIG.
Mask the plane drawing and pass only pixels with α = αJ in the source α test.

【0147】以上により図21に示すように、フレーム
バッファは、オブジェクトOBの画像(元画像)と図2
0で生成されたαプレーンとが描画された状態になる。
As described above, as shown in FIG. 21, the frame buffer stores the object OB image (original image) and FIG.
The α plane generated at 0 is drawn.

【0148】2.6.4 バイリニアフィルタ方式での
テクスチャマッピング 次に、図19に示すワークバッファ上のマッピング画像
をフレームバッファ上の同じ位置に描画する。
2.6.4 Texture Mapping by Bilinear Filter Method Next, the mapping image on the work buffer shown in FIG. 19 is drawn at the same position on the frame buffer.

【0149】より具体的には図22に示すように、ワー
クバッファ上のマッピング画像を仮想ポリゴン(図16
(A)〜図18(B)参照)にマッピングしながら、そ
の仮想ポリゴンをフレームバッファに描画する。
More specifically, as shown in FIG. 22, the mapping image on the work buffer is represented by a virtual polygon (FIG. 16).
While mapping to (A) to FIG. 18 (B)), the virtual polygon is drawn in the frame buffer.

【0150】また、このテクスチャマッピングの際に、 バイリニアフィルタ(テクセル補間)方式を選択し、 図14で説明したようにテクスチャ座標を例えば+
0.5ピクセル(テクセル)だけシフトさせ(ずら
す)、 ソースαテスト(書き込み元であるマッピング画像に
対するαテスト)でα<αJのピクセルだけを合格に
し、 デスティネーションαテスト(書き込み先であるフレ
ームバッファの画像に対するαテスト)でα=αJのピ
クセルだけを合格にする。
In addition, when this texture mapping is performed, a bilinear filter (texel interpolation) method is selected, and the texture coordinates are set to, for example, + as described in FIG.
Shift by 0.5 pixels (texels), pass only α <αJ pixels in the source α test (α test for the mapping image that is the writing source), and the destination α test (the frame buffer that is the writing destination) In the α test for the image of (2), only pixels with α = αJ are accepted.

【0151】これにより、オブジェクトOBの内側領域
の右辺、下辺に輪郭線EDLが付与された図23に示す
ような画像が生成される。
As a result, an image as shown in FIG. 23 in which the contour line EDL is given to the right side and the lower side of the inner area of the object OB is generated.

【0152】即ち、バイリニアフィルタを選択すると共
にテクスチャ座標をシフトさせることで、ワークバッフ
ァ上のマッピング画像の各ピクセルに設定される色及び
α値(A値)の補間が行われるようになる。
That is, by selecting the bilinear filter and shifting the texture coordinates, interpolation of the color and α value (A value) set to each pixel of the mapping image on the work buffer is performed.

【0153】例えば描画ピクセルの位置が(X、Y)
で、テクスチャ座標U、Vを+0.5ピクセル(テクセ
ル)だけシフトしたとすると、テクスチャサンプリング
時には、(X、Y)、(X+1、Y)、(X、Y+
1)、(X+1、Y+1)の4つのピクセルの位置にあ
る色及びα値が参照されることになる。この結果、最終
的に描画されるテクセルの色及びα値は、上記の4つの
ピクセルの色及びα値の平均となる。例えば図24に示
すように、テクスチャ座標を右下方向にシフトさせた場
合には、ピクセルB、C、DのRGB、α値が1/4ず
つピクセルAに対してしみ出すことになる。これを式で
表すと下式のようになる。
For example, the position of the drawing pixel is (X, Y).
If the texture coordinates U and V are shifted by +0.5 pixel (texel), at the time of texture sampling, (X, Y), (X + 1, Y), (X, Y +
The color and α value at the positions of the four pixels 1) and (X + 1, Y + 1) are referred to. As a result, the color and α value of the texel to be finally drawn are the average of the color and α value of the above four pixels. For example, as shown in FIG. 24, when the texture coordinates are shifted in the lower right direction, the RGB and α values of the pixels B, C, and D ooze out from the pixel A by ¼. This is expressed by the following equation.

【0154】 R=(RA+RB+RC+RD)/4 G=(GA+GB+GC+GD)/4 B=(BA+BB+BC+BD)/4 α=(αA+αB+αC+αD)/4 (3) 上式において、R、G、B、αは、補間により得られる
色及びα値(補間後のピクセルAの色及びα値)であ
る。また、(RA、GA、BA、αA)、(RB、G
B、BB、αB)、(RC、GC、BC、αC)(R
D、GD、BD、αD)は、各々、補間前のピクセル
A、B、C、Dの色及びα値である。
R = (RA + RB + RC + RD) / 4 G = (GA + GB + GC + GD) / 4 B = (BA + BB + BC + BD) / 4 α = (αA + αB + αC + αD) / 4 (3) In the above equation, R, G, B and α are obtained by interpolation. Color and α value (color and α value of pixel A after interpolation). Also, (RA, GA, BA, αA), (RB, G
B, BB, αB), (RC, GC, BC, αC) (R
D, GD, BD, αD) are the colors and α values of the pixels A, B, C, D before interpolation, respectively.

【0155】以上のように、テクスチャ座標を右下方向
に0.5ピクセルだけシフトさせると、ピクセルB、
C、DのRGB、α値が1/4ずつピクセルAに対して
しみ出す。従って、図23のJ1に示す部分では、図2
5に示すように、輪郭EDの内側領域においてオブジェ
クトOBの色(RJ、GJ、BJ)と輪郭線の色(R
L、GL、BL)とが合成され、輪郭EDの内側領域に
輪郭線EDLの画像が生成されるようになる。
As described above, when the texture coordinates are shifted by 0.5 pixels in the lower right direction,
The RGB values of C and D ooze out from the pixel A by 1/4 each. Therefore, in the part indicated by J1 in FIG.
As shown in FIG. 5, the color (RJ, GJ, BJ) of the object OB and the color (R
L, GL, and BL) are combined to generate an image of the contour line EDL in the inner region of the contour ED.

【0156】なお、この輪郭線の色(RL、GL、B
L)は、図19に示すようにワークバッファにおいて輪
郭EDの外側領域に設定された色である。
It should be noted that the colors of the contour lines (RL, GL, B
L) is a color set in the outer region of the contour ED in the work buffer as shown in FIG.

【0157】なお、本実施形態においては、色のみなら
ずα値もバイリニアフィルタによる補間処理の対象にな
る。従って、輪郭線EDLに設定されるα値も、オブジ
ェクトOBのαJと輪郭線のαLとを合成したα値にな
る。
In this embodiment, not only the color but also the α value are subjected to interpolation processing by the bilinear filter. Accordingly, the α value set for the contour line EDL is also an α value obtained by combining αJ of the object OB and αL of the contour line.

【0158】以上のことを更に詳しく説明すると以下の
ようになる。
The above will be described in more detail as follows.

【0159】(I)参照される周りのピクセルが全て輪
郭線色になっているピクセル 図25のK1に示すピクセルでは、参照される周りのピ
クセル(テクセル)のRGB及びα値は全て(RL、G
L、BL、αL)になっている。従って、上式(3)に
おいて(RA、GA、BA、αA)=(RB、GB、B
B、αB)=(RC、GC、BC、αC)=(RD、G
D、BD、αD)=(RL、GL、BL、αL)となる
ため、補間後のRGB及びα値は(R、G、B、α)=
(RL、GL、BL、αL)になる。
(I) Pixel in which all the surrounding pixels referred to are in outline color In the pixel indicated by K1 in FIG. 25, the RGB and α values of the surrounding pixels (texels) to be referenced are all (RL, G
L, BL, αL). Therefore, in the above equation (3), (RA, GA, BA, αA) = (RB, GB, B
B, αB) = (RC, GC, BC, αC) = (RD, G
D, BD, αD) = (RL, GL, BL, αL), so that the RGB and α values after interpolation are (R, G, B, α) =
(RL, GL, BL, αL).

【0160】この時、α=αL=0に設定されているた
め(図19参照)、α<αJのピクセルのみを合格にす
るソースαテストは合格となる。しかし、α=αJのピ
クセルのみを合格にするデスティネーションαテストに
よって、オブジェクトOBの画像が描画されている領域
以外の領域のピクセルについては不合格になる。従っ
て、結局、図25のK1に示すようなピクセルの描画に
ついては禁止される。
At this time, since α = αL = 0 is set (see FIG. 19), the source α test in which only pixels of α <αJ are passed is passed. However, the pixel in the region other than the region where the image of the object OB is drawn is rejected by the destination α test in which only the pixel of α = αJ is passed. Accordingly, drawing of pixels as indicated by K1 in FIG. 25 is eventually prohibited.

【0161】(II)輪郭線色のピクセルとオブジェクト
色のピクセルの双方が参照されるピクセル 図25のK2に示すようなピクセルでは、その周りに、
(RL、GL、BL、αL)のピクセル(テクセル)と
(RJ、GJ、BJ、αJ)のピクセル(テクセル)が
混在する。この場合、(RJ、GJ、BJ、αJ)のピ
クセルの数をK個とすると、上式(3)により補間後の
(R、G、B、α)は下式のようになる。
(II) Pixels to which both outline color pixels and object color pixels are referenced Pixels as indicated by K2 in FIG.
Pixels (texels) of (RL, GL, BL, αL) and pixels (texels) of (RJ, GJ, BJ, αJ) are mixed. In this case, assuming that the number of pixels (RJ, GJ, BJ, αJ) is K, (R, G, B, α) after interpolation according to the above equation (3) is represented by the following equation.

【0162】 R={RJ×K+RL×(4−K)}/4 G={GJ×K+GL×(4−K)}/4 B={BJ×K+BL×(4−K)}/4 α={αJ×K+αL×(4−K)}/4 (4) 上式(4)のように、補間後のピクセルの色は、オブジ
ェクトOBの色(RJ、GJ、BJ、αJ)と輪郭線の
色(RL、GL、BL、αL)とが混合された色にな
る。
R = {RJ × K + RL × (4-K)} / 4 G = {GJ × K + GL × (4-K)} / 4 B = {BJ × K + BL × (4-K)} / 4 α = {ΑJ × K + αL × (4-K)} / 4 (4) As shown in the above equation (4), the color of the pixel after interpolation is the color of the object OB (RJ, GJ, BJ, αJ) and the contour line. The color (RL, GL, BL, αL) is mixed.

【0163】また、αJ>0、1≦K≦3、αL=0で
あるため、0<α<αJとなり、α<αJのピクセルの
みを合格にするソースαテストが合格となり、これらの
ピクセルについてはフレームバッファに描画されるよう
になる。
Also, since αJ> 0, 1 ≦ K ≦ 3, and αL = 0, 0 <α <αJ, and the source α test that passes only pixels with α <αJ is passed. Will be rendered in the frame buffer.

【0164】また、α=αJのピクセルのみを合格にす
るデスティネーションαテストによって、輪郭線の画像
の中でオブジェクトの内側領域にある部分(図23の右
辺、下辺の輪郭線)のみがフレームバッファに描画され
ることになる。
Also, by the destination α test in which only the pixel of α = αJ is accepted, only the portion (the right side and the lower side contours in FIG. 23) in the inner region of the object in the contour image is the frame buffer. Will be drawn.

【0165】(III)参照される周りのピクセルが全て
オブジェクト色になっているピクセル 図25のK3に示すピクセルでは、参照される周りのピ
クセル(テクセル)のRGB及びα値は全て(RJ、G
J、BJ、αJ)になっている。従って、上式(3)に
おいて(RA、GA、BA、αA)=(RB、GB、B
B、αB)=(RC、GC、BC、αC)=(RD、G
D、BD、αD)=(RJ、GJ、BJ、αJ)となる
ため、補間後のRGB及びα値は(R、G、B、α)=
(RJ、GJ、BJ、αJ)になる。
(III) Pixel in which all the surrounding pixels referred to are the object color In the pixel indicated by K3 in FIG. 25, the RGB and α values of the surrounding pixels (texels) to be referenced are all (RJ, G
J, BJ, αJ). Therefore, in the above equation (3), (RA, GA, BA, αA) = (RB, GB, B
B, αB) = (RC, GC, BC, αC) = (RD, G
D, BD, αD) = (RJ, GJ, BJ, αJ), so that the RGB and α values after interpolation are (R, G, B, α) =
(RJ, GJ, BJ, αJ).

【0166】この時、α=αJに設定されているため
(図19参照)、α<αJのピクセルのみを合格にする
ソースαテストが不合格となり、これらのピクセルにつ
いては描画が禁止される。
At this time, since α = αJ is set (see FIG. 19), the source α test for accepting only pixels of α <αJ is rejected, and drawing is prohibited for these pixels.

【0167】以上のようにしてフレームバッファに図2
3に示すような画像を描画できるようになる。
As described above, the frame buffer shown in FIG.
3 can be drawn.

【0168】2.6.5 左辺、上辺の輪郭線の描画 次に、図19に示すワークバッファ上のマッピング画像
を、今度は、テクスチャ座標を前述の2.6.4とは反
対方向にシフトさせながら仮想オブジェクトにマッピン
グし、フレームバッファに描画する。
2.6.5 Drawing Contour Lines on Left Side and Top Side Next, the mapping image on the work buffer shown in FIG. 19 is shifted in the opposite direction to the above-mentioned 2.6.4. Map to a virtual object and draw in the frame buffer.

【0169】より具体的には、図26に示すように、 バイリニアフィルタ方式を選択し、 テクスチャ座標U、Vを前述の2.6.4とは逆に
(−0.5、−0.5)だけシフトさせ(ずらす)、 ソースαテストでα<αJのピクセルだけを合格に
し、 デスティネーションαテストでα=αJのピクセルだ
けを合格にする。
More specifically, as shown in FIG. 26, the bilinear filter method is selected, and the texture coordinates U and V are set to (−0.5, −0.5 opposite to the above-mentioned 2.6.4). ) And shift only pixels with α <αJ in the source α test, and pass only pixels with α = αJ in the destination α test.

【0170】これにより、オブジェクトOBの内側領域
の左辺、上辺にも輪郭線EDLが付与され、図27に示
すように、オブジェクトOBの輪郭EDの内側領域に輪
郭線EDLが描画された画像が生成されるようになる。
As a result, the contour line EDL is also given to the left and upper sides of the inner area of the object OB, and an image in which the contour line EDL is drawn in the inner area of the contour ED of the object OB is generated as shown in FIG. Will come to be.

【0171】3.本実施形態の処理 次に、本実施形態の処理の詳細例について、図28〜図
32のフローチャートを用いて説明する。
3. Processing of this embodiment Next, a detailed example of the processing of this embodiment will be described with reference to the flowcharts of FIGS.

【0172】図28は、マッピング画像のマッピング対
象となる仮想ポリゴンの生成処理に関するフローチャー
トである。
FIG. 28 is a flowchart relating to a process for generating a virtual polygon to be mapped in the mapping image.

【0173】まず、オブジェクトに対するジオメトリ処
理を行い、オブジェクトをスクリーンに透視変換(アフ
ィン変換)する(ステップS1)。
First, geometry processing is performed on the object, and the object is subjected to perspective transformation (affine transformation) on the screen (step S1).

【0174】次に、透視変換後のオブジェクトの頂点の
座標に基づき、オブジェクトの頂点のX、Y座標の最小
値XMIN、YMIN、最大値XMAX、YMAXを求
める(ステップS2)。
Next, based on the coordinates of the vertex of the object after perspective transformation, minimum values XMIN, YMIN, maximum values XMAX, YMAX of the vertexes of the object are obtained (step S2).

【0175】次に、求められた(XMIN、YMI
N)、(XMAX、YMAX)に基づいて、図17
(A)、(B)で説明したように、オブジェクトOBの
画像を内包する形状の仮想ポリゴンを生成する(ステッ
プS3)。この場合の仮想ポリゴンの頂点VVX1〜V
VX4は以下のようになる。
Next, the obtained (XMIN, YMI
N), (XMAX, YMAX) based on FIG.
As described in (A) and (B), a virtual polygon having a shape including the image of the object OB is generated (step S3). In this case, the vertexes VVX1 to VV of the virtual polygon
VX4 is as follows.

【0176】 VVX1(XMIN、YMIN) VVX2(XMIN、YMAX) VVX3(XMAX、YMAX) VVX4(XMAX、YMIN) なお、仮想ポリゴン(画像エフェクト領域)の大きさを
上下左右方向に若干だけ大きくするようにしてもよい。
より具体的には、X、Y座標の最小値をXMIN、YM
INとし、最大値をXMAX、YMAXとした場合に、
XMIN、YMINから1ピクセルを減算してXMI
N’=XMIN−1、YMIN’=YMIN−1を求め
ると共に、XMAX、YMAXに1ピクセルを加算して
XMAX’=XMAX+1、YMAX’=YMAX+1
を求める。そして、これらの求められた(XMIN’、
YMIN’)、(XMAX’、YMAX’)に基づい
て、仮想ポリゴンの頂点VVX1〜VVX4を決めるよ
うにする。
VVX1 (XMIN, YMIN) VVX2 (XMIN, YMAX) VVX3 (XMAX, YMAX) VVX4 (XMAX, YMIN) Note that the size of the virtual polygon (image effect area) is slightly increased in the vertical and horizontal directions. May be.
More specifically, the minimum values of the X and Y coordinates are set to XMIN and YM.
If IN and the maximum value is XMAX and YMAX,
Subtract 1 pixel from XMIN and YMIN to get XMI
N ′ = XMIN−1 and YMIN ′ = YMIN−1 are obtained, and one pixel is added to XMAX and YMAX to obtain XMAX ′ = XMAX + 1, YMAX ′ = YMAX + 1
Ask for. And these sought (XMIN ',
YMIN '), (XMAX', YMAX '), the vertices VVX1 to VVX4 of the virtual polygon are determined.

【0177】図29は、図18(A)、(B)で説明し
たように、オブジェクトの簡易オブジェクトを利用して
仮想ポリゴンを生成する処理に関するフローチャートで
ある。
FIG. 29 is a flowchart relating to processing for generating a virtual polygon using a simple object as described with reference to FIGS. 18 (A) and 18 (B).

【0178】図29が図28と異なるのは、ステップS
11で、簡易オブジェクトに対する透視変換を行う点
と、ステップS12で、透視変換後の簡易オブジェクト
の頂点の座標に基づいて、(XMIN、YMIN)、
(XMAX、YMAX)を求めている点であり、それ以
外は同じ処理となる。
FIG. 29 differs from FIG. 28 in that step S
(XMIN, YMIN) based on the point at which the perspective transformation is performed on the simple object in step 11 and the coordinates of the vertex of the simple object after the perspective transformation in step S12.
(XMAX, YMAX) is obtained, and the other processing is the same.

【0179】図30は、オブジェクトの内側領域に輪郭
線を付加する処理に関するフローチャートである。
FIG. 30 is a flowchart relating to processing for adding a contour line to the inner area of an object.

【0180】まず、図19で説明したようにワークバッ
ファを輪郭線の画像(RL、GL、BL、αL)で初期
化する(ステップS31)。
First, as described with reference to FIG. 19, the work buffer is initialized with the contour images (RL, GL, BL, αL) (step S31).

【0181】次に、頂点のα値がα=αJ(>0)に設
定されたオブジェクトを透視変換して、ワークバッファ
に描画する(ステップS32)。その際に、通常のZバ
ッファを用いたZテストを行い、陰面消去を行うように
する。このようにすることで、図9で説明したように、
輪郭線描画位置でのオブジェクトのZ値を、輪郭線のZ
値として設定することが可能になる。
Next, the object whose vertex α value is set to α = αJ (> 0) is perspective-transformed and drawn in the work buffer (step S32). At that time, a Z test using a normal Z buffer is performed to perform hidden surface removal. By doing so, as explained in FIG.
The Z value of the object at the contour drawing position is set to the contour Z
It can be set as a value.

【0182】次に、図20で説明したように、ワークバ
ッファ上のマッピング画像を仮想ポリゴンにマッピング
し、α値のみをフレームバッファに描画する(ステップ
S33)。
Next, as described with reference to FIG. 20, the mapping image on the work buffer is mapped to the virtual polygon, and only the α value is drawn in the frame buffer (step S33).

【0183】次に、図21で説明したように、ワークバ
ッファ上のマッピング画像を仮想ポリゴンにマッピング
し、α=αJのピクセルのみをフレームバッファに描画
する(ステップS34)。これにより、オブジェクトの
元画像がフレームバッファに描画されるようになる。
Next, as described with reference to FIG. 21, the mapping image on the work buffer is mapped to the virtual polygon, and only the pixel of α = αJ is drawn on the frame buffer (step S34). As a result, the original image of the object is drawn in the frame buffer.

【0184】次に、図22で説明したように、ワークバ
ッファ上のマッピング画像をテクスチャ座標U、Vを
(0.5、0.5)だけシフトしてバイリニアフィルタ
方式で仮想ポリゴンにマッピングしながら、その仮想ポ
リゴンをフレームバッファに描画する(ステップS3
5)。その際に、ソースαテストとしてα<αJを指定
する。またデスティネーションαテストとしてα=αJ
を指定する。更に、所与のレジスタなどに設定された半
透明度αTを用いてオブジェクトの画像と輪郭線の画像
との半透明合成を行うようにする。
Next, as described in FIG. 22, the mapping image on the work buffer is shifted to the virtual polygon by the bilinear filter method by shifting the texture coordinates U and V by (0.5, 0.5). The virtual polygon is drawn in the frame buffer (step S3
5). At that time, α <αJ is designated as the source α test. Also, α = αJ as the destination α test
Is specified. Furthermore, the translucent synthesis of the object image and the contour image is performed using the translucency αT set in a given register or the like.

【0185】次に、図26で説明したように、ワークバ
ッファ上のマッピング画像をテクスチャ座標U、Vを
(−0.5、−0.5)だけシフトしてバイリニアフィ
ルタ方式で仮想ポリゴンにマッピングしながら、その仮
想ポリゴンをフレームバッファに描画する(ステップS
36)。その際に、ソースαテストとしてα<αJを指
定する。またデスティネーションαテストとしてα=α
Jを指定する。更に、所与のレジスタなどに設定された
半透明度αTを用いてオブジェクトの画像と輪郭線の画
像との半透明合成を行うようにする。
Next, as described with reference to FIG. 26, the mapping image on the work buffer is mapped to the virtual polygon by shifting the texture coordinates U and V by (−0.5, −0.5) and using the bilinear filter method. Then, the virtual polygon is drawn in the frame buffer (step S
36). At that time, α <αJ is designated as the source α test. Also, α = α as the destination α test
Specify J. Furthermore, the translucent synthesis of the object image and the contour image is performed using the translucency αT set in a given register or the like.

【0186】なお図30のステップS33〜S36で
は、Zテストは行わないようにする。
Note that the Z test is not performed in steps S33 to S36 of FIG.

【0187】以上のようにして、オブジェクトの内側領
域に輪郭線が描画された図27に示すような画像を得る
ことができる。
As described above, an image as shown in FIG. 27 in which a contour line is drawn in the inner area of the object can be obtained.

【0188】以上のように本実施形態の1つの特徴は、
オブジェクトOBの輪郭EDの内側領域と外側領域とで
α値を異ならせると共に(図19)、色のみならずα値
もバイリニアフィルタにより補間し、補間後のα値に基
づいて種々の判別を行っている点にある。即ち、補間後
のα値に基づいて、オブジェクトOBの輪郭の内側領域
にある輪郭線領域(0<α<αJとなる領域)を判別
し、この領域に輪郭線画像を描画するようにしている。
このようにすることで、少ない処理負担で、オブジェク
トOBの輪郭線EDLを生成できるようになる。
As described above, one feature of this embodiment is that
The α value is made different between the inner region and the outer region of the contour ED of the object OB (FIG. 19), and not only the color but also the α value is interpolated by the bilinear filter, and various discriminations are performed based on the α value after the interpolation. There is in point. That is, based on the α value after the interpolation, a contour line region (region where 0 <α <αJ) is determined in the inner region of the contour of the object OB, and a contour image is drawn in this region. .
By doing so, the contour line EDL of the object OB can be generated with a small processing load.

【0189】図31は、輪郭線の半透明度を距離(Z
値)に応じて変化させる処理に関するフローチャートで
ある。なお、Z値は視点から近いほど大きな値になって
いる。
FIG. 31 shows the translucency of the outline as a distance (Z
It is a flowchart regarding the process changed according to (value). Note that the Z value increases as it is closer to the viewpoint.

【0190】まず、Z値のしきい値であるZN、ZF
(図7(A)のVTN、VTF)と、そのしきい値での
半透明度αTN、αTFを予め設定しておく(ステップ
S61)。
First, ZN and ZF which are threshold values of the Z value
(VTN, VTF in FIG. 7A) and translucency αTN, αTF at the threshold values are set in advance (step S61).

【0191】次に、輪郭線描画対象のオブジェクトの代
表Z値(代表点のZ値)を求める(ステップS62)。
Next, the representative Z value (Z value of the representative point) of the object to be drawn is obtained (step S62).

【0192】次に、求められた代表Z値に基づいて、半
透明度を決めるための係数Vを下式のように求める(ス
テップS63)。
Next, based on the obtained representative Z value, a coefficient V for determining the translucency is obtained by the following equation (step S63).

【0193】V=(Z−ZF)/(ZN−ZF) 但し、上式においてVは、V>1.0の時にはV=1.
0となり、V<0.0の時にはV=0.0となる。
V = (Z-ZF) / (ZN-ZF) where V is V = 1.V when V> 1.0.
When V <0.0, V = 0.0.

【0194】次に、求められた係数Vに基づいて、輪郭
線の半透明度αTを下式のように求める(ステップS6
4)。
Next, based on the obtained coefficient V, the translucency αT of the contour line is obtained as in the following equation (step S6).
4).

【0195】αT=(αTN−αTF)×V+αTF 次に、求められたαTを用いて輪郭線の半透明描画を行
う(ステップS65)。このステップS65の処理は図
30のステップS35、S36の半透明合成処理に相当
する。
ΑT = (αTN−αTF) × V + αTF Next, the outline is translucently drawn using the obtained αT (step S65). The processing in step S65 corresponds to the translucent composition processing in steps S35 and S36 in FIG.

【0196】図32は、輪郭線の半透明度をオブジェク
トの大きさ(ピクセル数)に応じて変化させる処理に関
するフローチャートである。
FIG. 32 is a flowchart relating to processing for changing the translucency of the contour line in accordance with the size (number of pixels) of the object.

【0197】まず、輪郭線描画対象のオブジェクトの大
きさのしきい値であるPN、PF(図7(B)のVT
N、VTF)と、そのしきい値での半透明度αTN、α
TFを予め設定しておく(ステップS71)。
First, PN and PF (VT of FIG. 7B) which are threshold values of the size of the object to be drawn.
N, VTF) and translucency α TN, α at the threshold value
TF is set in advance (step S71).

【0198】次に、輪郭線描画対象のオブジェクトのス
クリーン上での(2Dイメージでの)ピクセル数P(縦
のピクセル数×横のピクセル数)を求める(ステップS
72)。
Next, the number P of pixels (in the 2D image) (the number of vertical pixels × the number of horizontal pixels) on the screen of the object to be drawn is calculated (step S).
72).

【0199】次に、求められたピクセル数Pに基づい
て、半透明度を決めるための係数Vを下式のように求め
る(ステップS73)。
Next, a coefficient V for determining the translucency is obtained as in the following equation based on the obtained pixel number P (step S73).

【0200】V=(P−PF)/(PN−PF) 但し、上式においてVは、V>1.0の時にはV=1.
0となり、V<0.0の時にはV=0.0となる。
V = (P-PF) / (PN-PF) where V is V = 1.V when V> 1.0.
When V <0.0, V = 0.0.

【0201】次に、求められた係数Vに基づいて輪郭線
の半透明度αTを求める(ステップS74)。そして求
められたαTを用いて輪郭線の半透明描画を行う(ステ
ップS75)。このステップS75の処理は図30のス
テップS35、S36の半透明合成処理に相当する。
Next, the translucency αT of the contour line is obtained based on the obtained coefficient V (step S74). Then, the translucent drawing of the contour line is performed using the obtained αT (step S75). The processing in step S75 corresponds to the translucent composition processing in steps S35 and S36 in FIG.

【0202】4.ハードウェア構成 次に、本実施形態を実現できるハードウェアの構成の一
例について図33を用いて説明する。
4. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0203】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 is a CD 982
It operates based on a program stored in (information storage medium), a program transferred via the communication interface 990, or a program stored in ROM 950 (one of information storage media), game processing, image processing,
Various processes such as sound processing are executed.

【0204】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a product-sum calculator and a divider capable of high-speed parallel calculation, and executes matrix calculation (vector calculation) at high speed. For example, if a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs (requests) the processing to the coprocessor 902. )

【0205】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, curved surface generation, etc., and has a product-sum calculator and a divider capable of high-speed parallel computation, and matrix computation (vector (Operation) is executed at high speed. For example, when processing such as coordinate transformation, perspective transformation, and light source calculation is performed, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0206】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インターフェー
ス990を介して外部から転送される。
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data and a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on the opening screen, the intermission screen, the ending screen, or the game screen. Note that image data and sound data to be decoded are stored in ROM 950,
It is stored in the CD 982 or transferred from the outside via the communication interface 990.

【0207】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、デプスキューイング、ミップマッピング、フォグ
処理、バイリニア・フィルタリング、トライリニア・フ
ィルタリング、アンチエリアシング、シェーディング処
理なども行うことができる。そして、1フレーム分の画
像がフレームバッファ922に書き込まれると、その画
像はディスプレイ912に表示される。
The drawing processor 910 executes drawing (rendering) processing of objects composed of primitive surfaces such as polygons and curved surfaces at high speed. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass the object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the rendering processor 910 renders the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and texture. The drawing processor 910 can also perform α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

【0208】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and voices. The generated game sound is output from the speaker 932.

【0209】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。
Operation data from the game controller 942, save data from the memory card 944, and personal data are transferred via the serial interface 940.

【0210】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium.
Various programs are stored in 950. A hard disk may be used instead of the ROM 950.

【0211】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0212】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
The DMA controller 970 is a DM between the processor and memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0213】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
The CD drive 980 is a CD 982 in which programs, image data, sound data, etc. are stored.
(Information storage medium) is driven to enable access to these programs and data.

【0214】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他のゲ
ームシステムとの間でのデータ転送が可能になる。
The communication interface 990 is an interface for transferring data with the outside via a network. In this case, as a network connected to the communication interface 990, a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like can be considered. By using a communication line, data transfer via the Internet becomes possible. Further, by using the high-speed serial bus, data transfer with other game systems becomes possible.

【0215】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実行してもよい。或
いは、ハードウェアとプログラムの両方により実行して
もよい。
It should be noted that all the means of the present invention may be executed only by hardware, or only by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be executed by both hardware and a program.

【0216】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示すると共に、必要であればデータを渡す。そ
して、各プロセッサ902、904、906、910、
930等は、その指示と渡されたデータとに基づいて、
本発明の各手段を実行することになる。
Then, when each means of the present invention is executed by both hardware and a program, a program for executing each means of the present invention using hardware is stored in the information storage medium. Will be. More specifically, the program instructs each processor 902, 904, 906, 910, 930, etc., which is hardware, and passes data if necessary. And each processor 902, 904, 906, 910,
930 etc., based on the instruction and the data passed,
Each means of the present invention is executed.

【0217】図34(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めの情報(プログラム又はデータ)は、システムボード
1106上の情報記憶媒体であるメモリ1108に格納
される。以下、この情報を格納情報と呼ぶ。
FIG. 34A shows an example in which this embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while viewing the game image displayed on the display 1100. Various processors and various memories are mounted on the built-in system board (circuit board) 1106. Information (program or data) for executing each means of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

【0218】図34(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD1206、或
いはメモリカード1208、1209等に格納されてい
る。
FIG. 34B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in the CD 1206, which is an information storage medium that is detachable from the main system, or in the memory cards 1208, 1209, and the like.

【0219】図34(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-nとを含むシステムに本実施形態を適用
した場合の例を示す。この場合、上記格納情報は、例え
ばホスト装置1300が制御可能な磁気ディスク装置、
磁気テープ装置、メモリ等の情報記憶媒体1306に格
納されている。端末1304-1〜1304-nが、スタン
ドアロンでゲーム画像、ゲーム音を生成できるものであ
る場合には、ホスト装置1300からは、ゲーム画像、
ゲーム音を生成するためのゲームプログラム等が端末1
304-1〜1304-nに配送される。一方、スタンドア
ロンで生成できない場合には、ホスト装置1300がゲ
ーム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 34C shows a host device 1300,
The host device 1300 and the network 1302 (LA
Terminal 130 connected via a small network such as N or a wide area network such as the Internet.
An example in which the present embodiment is applied to a system including 4-1 to 1304-n will be described. In this case, the storage information is, for example, a magnetic disk device that can be controlled by the host device 1300,
It is stored in an information storage medium 1306 such as a magnetic tape device or memory. When the terminals 1304-1 to 1304-n are capable of generating game images and game sounds stand-alone, the host device 1300 receives game images,
A game program or the like for generating game sounds is provided on the terminal
Delivered to 304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which are generated by the terminals 1304-1 to 1304-1.
1304-n and output at the terminal.

【0220】なお、図34(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実行するようにしてもよい。また、本発明の各手段
を実行するための上記格納情報を、ホスト装置(サーバ
ー)の情報記憶媒体と端末の情報記憶媒体に分散して格
納するようにしてもよい。
In the case of the configuration shown in FIG. 34C, each means of the present invention may be executed in a distributed manner between the host device (server) and the terminal. The storage information for executing each means of the present invention may be distributed and stored in the information storage medium of the host device (server) and the information storage medium of the terminal.

【0221】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能なセーブ用
情報記憶装置(メモリカード、携帯型ゲーム装置)を用
いることが望ましい。
Further, the terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, the save information storage device can exchange information with the arcade game system and exchange information with the home game system. It is desirable to use (memory card, portable game device).

【0222】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to that described in the above embodiment, and various modifications can be made.

【0223】例えば、本発明のうち従属請求項に係る発
明においては、従属先の請求項の構成要件の一部を省略
する構成とすることもできる。また、本発明の1の独立
請求項に係る発明の要部を、他の独立請求項に従属させ
ることもできる。
For example, in the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

【0224】また、オブジェクトの輪郭の内側領域に輪
郭線を描画する手法としては、テクセル補間方式のテク
スチャマッピングを利用する手法が特に望ましいが、こ
れに限定されるものではない。
Further, as a method for drawing a contour line in the inner region of the contour of an object, a method using texture mapping of the texel interpolation method is particularly desirable, but it is not limited to this.

【0225】また、輪郭線の画像を生成するためのオブ
ジェクトについては、必ずしも表示する必要はなく、例
えばオブジェクトを非表示にして輪郭線の画像のみを表
示する場合も本発明の範囲に含まれる。このようにすれ
ば、輪郭線だけで描かれたキャラクタなどの3次元画像
を生成できるようになり、従来に無い映像効果を生み出
すことができる。
The object for generating the contour image is not necessarily displayed. For example, the case where the object is not displayed and only the contour image is displayed is also included in the scope of the present invention. In this way, it becomes possible to generate a three-dimensional image such as a character drawn only by a contour line, and an unprecedented video effect can be generated.

【0226】また、テクセル補間方式のテクスチャマッ
ピングとしてはバイリニアフィルタ方式のテクスチャマ
ッピングが特に望ましいが、これに限定されるものでは
ない。
Further, as texture mapping of the texel interpolation method, texture mapping of the bilinear filter method is particularly desirable, but is not limited to this.

【0227】また、仮想ポリゴンの生成手法は図16
(A)〜図18(B)で説明した手法が特に望ましい
が、これに限定されず種々の変形実施が可能である。
The virtual polygon generation method is shown in FIG.
Although the method described with reference to FIGS. 18A to 18B is particularly desirable, the present invention is not limited to this, and various modifications can be made.

【0228】また、オブジェクトの輪郭線領域等の判別
は、テクセル補間されたα値に基づいて行うことが特に
望ましいが、これに限定されず種々の変形実施が可能で
ある。
Further, although it is particularly desirable to discriminate the contour area of the object based on the α value subjected to texel interpolation, the present invention is not limited to this, and various modifications can be made.

【0229】また、視点からの距離や透視変換後のオブ
ジェクトの大きさと、輪郭線の半透明度との関数特性と
しては種々の変形実施が可能である。例えば図7
(A)、(B)のような直線特性ではなくて多次元関数
を用いた曲線特性であってもよい。即ち、例えば、(V
TN、αTN)と(VTF、αTF)との間を線形補間
するのではなくて、多次元関数で補間してもよい。
In addition, various modifications can be made as a function characteristic of the distance from the viewpoint, the size of the object after perspective transformation, and the translucency of the contour line. For example, FIG.
Curve characteristics using a multi-dimensional function may be used instead of the linear characteristics as shown in (A) and (B). That is, for example, (V
Instead of linearly interpolating between (TN, αTN) and (VTF, αTF), interpolation may be performed with a multidimensional function.

【0230】また、図35(A)、(B)に示すよう
に、しきい値を4個以上設けてもよく、しきい値の個数
は任意である。或いはしきい値を設けないようにするこ
とも可能である。そして、図35(A)、(B)の場合
には、視点からの距離や透視変換後のオブジェクトの大
きさがVTN2〜VTN3の範囲にある場合に、図8
(A)で説明したように、輪郭線の半透明度を略一定に
保つようにすればよい。
As shown in FIGS. 35A and 35B, four or more threshold values may be provided, and the number of threshold values is arbitrary. Alternatively, it is possible not to provide a threshold value. In the case of FIGS. 35A and 35B, when the distance from the viewpoint and the size of the object after perspective transformation are in the range of VTN2 to VTN3, FIG.
As described in (A), the translucency of the contour line may be kept substantially constant.

【0231】また、本発明は種々のゲーム(格闘ゲー
ム、シューティングゲーム、ロボット対戦ゲーム、スポ
ーツゲーム、競争ゲーム、ロールプレイングゲーム、音
楽演奏ゲーム、ダンスゲーム等)に適用できる。
The present invention can be applied to various games (such as fighting games, shooting games, robot battle games, sports games, competitive games, role playing games, music playing games, dance games, etc.).

【0232】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
ゲームシステム(画像生成システム)に適用できる。
The present invention also provides various game systems (image generation such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, and a system board for generating game images. System).

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態のゲームシステムの機能ブロック図
の例である。
FIG. 1 is an example of a functional block diagram of a game system according to an embodiment.

【図2】本実施形態により生成されるゲーム画像の例で
ある。
FIG. 2 is an example of a game image generated according to the present embodiment.

【図3】オブジェクトの輪郭の内側領域に輪郭線を描画
する手法について説明するための図である。
FIG. 3 is a diagram for describing a technique for drawing a contour line in an inner region of an object contour;

【図4】図4(A)〜(F)は、比較例について説明す
るための図である。
FIGS. 4A to 4F are diagrams for explaining a comparative example. FIGS.

【図5】視点からの距離が遠くなった場合(透視変換後
のオブジェクトの大きさが小さくなった場合)に、オブ
ジェクトの輪郭線が不必要に目立ってしまう問題点につ
いて説明するための図である。
FIG. 5 is a diagram for explaining a problem that an outline of an object is unnecessarily noticeable when the distance from the viewpoint is long (when the size of an object after perspective transformation is small); is there.

【図6】視点からの距離や透視変換後のオブジェクトの
大きさに応じて輪郭線の半透明度を変化させる手法につ
いて説明するための図である。
FIG. 6 is a diagram for explaining a method of changing the translucency of the contour line according to the distance from the viewpoint and the size of the object after perspective transformation.

【図7】図7(A)は、視点からの距離と輪郭線の半透
明度との関数特性の例であり、図7(B)は、透視変換
後のオブジェクトの大きさと輪郭線の半透明度との関数
特性の例である。
FIG. 7A is an example of functional characteristics of the distance from the viewpoint and the translucency of the outline, and FIG. 7B is an illustration showing the size of the object and the translucency of the outline after the perspective transformation. It is an example of a function characteristic.

【図8】図8(A)、(B)は、しきい値VTNの設定
手法について説明するための図である。
FIGS. 8A and 8B are diagrams for explaining a method of setting a threshold value VTN.

【図9】輪郭線描画位置でのオブジェクトのZ値を輪郭
線のZ値として設定する手法について説明するための図
である。
FIG. 9 is a diagram for explaining a method of setting the Z value of an object at the contour drawing position as the Z value of the contour line.

【図10】図10(A)、(B)は、オブジェクトの輪
郭の外側領域に輪郭線を描画した場合の問題点について
説明するための図である。
FIGS. 10A and 10B are diagrams for explaining problems that occur when a contour line is drawn in an outer region of the contour of an object.

【図11】オブジェクトの輪郭の内側領域に輪郭線を描
画し、輪郭線描画位置でのZ値を輪郭線のZ値として設
定した場合に生成される画像の例である。
FIG. 11 is an example of an image generated when a contour line is drawn in an inner region of the contour of an object and the Z value at the contour drawing position is set as the Z value of the contour line.

【図12】バイリニアフィルタ方式のテクスチャマッピ
ングについて説明するための図である。
FIG. 12 is a diagram for describing bilinear filter type texture mapping;

【図13】図13(A)、(B)は、マッピング画像の
例と、マッピング画像を仮想ポリゴンにマッピングする
ことにより得られる画像の例を示す図である。
FIGS. 13A and 13B are diagrams illustrating an example of a mapping image and an example of an image obtained by mapping the mapping image to a virtual polygon.

【図14】バイリニアフィルタ方式のテクスチャマッピ
ングを有効利用して輪郭線画像を生成する手法について
説明するための図である。
FIG. 14 is a diagram for explaining a method of generating a contour image by effectively using bilinear filter type texture mapping.

【図15】バイリニアフィルタ方式の補間機能により各
ピクセルの色が周囲にしみ出す現象の原理について説明
するための図である。
FIG. 15 is a diagram for explaining the principle of a phenomenon in which the color of each pixel oozes out by the bilinear filter type interpolation function;

【図16】図16(A)、(B)は、仮想ポリゴンの生
成手法について説明するための図である。
FIGS. 16A and 16B are diagrams for explaining a generation method of virtual polygons.

【図17】図17(A)、(B)は、透視変換後のオブ
ジェクトの頂点の座標に基づいて仮想ポリゴンを生成す
る手法について説明するための図である。
FIGS. 17A and 17B are diagrams for describing a method of generating a virtual polygon based on the coordinates of the vertex of an object after perspective transformation.

【図18】図18(A)、(B)は、透視変換後の簡易
オブジェクトの頂点の座標に基づいて仮想ポリゴンを生
成する手法について説明するための図である。
18A and 18B are diagrams for explaining a method of generating a virtual polygon based on the coordinates of the vertex of a simple object after perspective transformation.

【図19】ワークバッファ上に生成されたマッピング画
像の例について示すための図である。
FIG. 19 is a diagram for illustrating an example of a mapping image generated on a work buffer.

【図20】フレームバッファ上に生成されたαプレーン
の例について示すための図である。
FIG. 20 is a diagram for illustrating an example of an α plane generated on a frame buffer.

【図21】フレームバッファ上に生成されたオブジェク
トの元画像及びαプレーンの例について示すための図で
ある。
FIG. 21 is a diagram for illustrating an example of an original image and an α plane of an object generated on the frame buffer.

【図22】マッピング画像をバイリニアフィルタ方式で
テクスチャ座標を+0.5ピクセルだけシフトさせなが
ら仮想ポリゴンにマッピングしてフレームバッファに描
画する手法について説明するための図である。
FIG. 22 is a diagram for describing a technique for mapping a mapping image to a virtual polygon while drawing the texture image by shifting the texture coordinates by +0.5 pixels by the bilinear filter method and drawing the frame image on the frame buffer;

【図23】図22の手法によりフレームバッファ上に生
成された画像の例について示す図である。
23 is a diagram showing an example of an image generated on the frame buffer by the method of FIG.

【図24】バイリニアフィルタ方式によりピクセルのR
GB、α値を補間する手法について説明するための図で
ある。
FIG. 24 shows pixel R by bilinear filter method.
It is a figure for demonstrating the method of interpolating GB and alpha value.

【図25】オブジェクトの輪郭線の画像を生成する手法
について説明するための図である。
FIG. 25 is a diagram for describing a method for generating an image of an outline of an object.

【図26】マッピング画像をバイリニアフィルタ方式で
テクスチャ座標を−0.5ピクセルだけシフトさせなが
ら仮想ポリゴンにマッピングしてフレームバッファに描
画する手法について説明するための図である。
FIG. 26 is a diagram for describing a technique of mapping a mapping image to a virtual polygon while drawing texture coordinates by shifting the texture coordinates by −0.5 pixels by a bilinear filter method and drawing the frame image on a frame buffer;

【図27】図26の手法によりフレームバッファ上に生
成された最終的な画像の例について示す図である。
27 is a diagram showing an example of a final image generated on the frame buffer by the method of FIG.

【図28】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 28 is a flowchart illustrating a detailed example of processing according to the present embodiment.

【図29】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 29 is a flowchart illustrating a detailed example of processing according to the present embodiment.

【図30】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 30 is a flowchart illustrating a detailed example of processing of the present embodiment.

【図31】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 31 is a flowchart showing a detailed example of processing of the present embodiment.

【図32】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 32 is a flowchart showing a detailed example of processing of the present embodiment.

【図33】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 33 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図34】図34(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
34 (A), (B), and (C) are diagrams showing examples of various types of systems to which the present embodiment is applied.

【図35】図35(A)、(B)は、視点からの距離や
透視変換後のオブジェクトの大きさと、輪郭線の半透明
度との関数特性の他の例を示す図である。
FIGS. 35A and 35B are diagrams showing other examples of functional characteristics of the distance from the viewpoint, the size of the object after perspective transformation, and the translucency of the contour line.

【符号の説明】[Explanation of symbols]

OB オブジェクト SOB 簡易オブジェクト VPL 仮想ポリゴン(仮想オブジェクト) ED 輪郭 EDL 輪郭線 VX1〜VX6 頂点 VVX1〜VVX4 頂点 VSX1〜VSX8 頂点 100 処理部 110 ジオメトリ処理部 112 仮想オブジェクト生成部 114 輪郭線画像変化部 120 描画部(オブジェクト・輪郭線描画部) 122 マッピング画像生成部 130 テクスチャマッピング部 132 合成部 134 陰面消去部 160 操作部 170 記憶部 172 主記憶部 174 描画領域 176 テクスチャ記憶部 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 OB object SOB simple object VPL virtual polygon (virtual object) ED contour EDL outline VX1 to VX6 vertex VVX1 to VVX4 vertex VSX1 to VSX8 vertex 100 processor 110 Geometry processing unit 112 Virtual object generator 114 Contour line image changing unit 120 Drawing part (Object / Outline drawing part) 122 Mapping image generation unit 130 Texture mapping section 132 Synthesizer 134 Hidden surface removal part 160 Operation unit 170 Storage unit 172 Main memory 174 Drawing area 176 texture storage 180 Information storage medium 190 Display 192 sound output section 194 Portable information storage device 196 Communication Department

Claims (19)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像生成を行うゲームシステムであっ
て、 オブジェクトの画像に基づいて生成されたオブジェクト
の輪郭線の画像を、オブジェクトの輪郭の内側領域に描
画する手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段とを含み、 視点からの距離又は透視変換後のオブジェクトの大きさ
に応じて決まる半透明度でオブジェクトの画像とオブジ
ェクトの輪郭線の画像とを半透明合成する ことを特徴と
するゲームシステム。
1. A game system for generating an image, comprising: a means for drawing an image of an object outline generated based on an object image in an inner area of the object outline; and means for generating an image of at viewpoint, the distance or size of the object after perspective transformation from viewpoint
Object image and object with translucency determined according to
A game system characterized by semi-transparent composition with the outline image of the project .
【請求項2】 請求項において、 輪郭線が描画される位置でのオブジェクトのZ値が、輪
郭線のZ値として設定されることを特徴とするゲームシ
ステム。
2. The game system according to claim 1, wherein the Z value of the object at the position where the contour line is drawn is set as the Z value of the contour line.
【請求項3】 画像生成を行うゲームシステムであっ
て、 オブジェクトの画像に基づいて生成されたオブジェクト
の輪郭線の画像を、オブジェクトの輪郭の内側領域に描
画する手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段とを含み、 オブジェクトの輪郭の内側領域にオブジェクトの色情報
が設定され、オブジェクトの輪郭の外側領域に輪郭線の
色情報が設定されるマッピング画像を生成し、生成され
た前記マッピング画像を、テクスチャ座標を第1のシフ
ト方向にシフトさせながらテクセル補間方式で仮想オブ
ジェクトにテクスチャマッピングし、その後、前記マッ
ピング画像を、テクスチャ座標を第2のシフト方向にシ
フトさせながらテクセル補間方式で仮想オブジェクトに
テクスチャマッピングすることで、オブジェクトの輪郭
線の画像を生成する ことを特徴とするゲームシステム。
3. A game system for generating an image, wherein an image of an outline of an object generated based on the image of the object is drawn in an inner region of the outline of the object, and a given in the object space of and means for generating an image of the viewpoint, the object color information of the inside area of the outline of the object
Will be set and the outline will be
Generate a mapping image in which color information is set,
The mapping image has the texture coordinates as the first shift.
The virtual object using the texel interpolation method.
Texture mapping to the object, and then
The ping image is displayed with the texture coordinates in the second shift direction.
To a virtual object with texel interpolation
Object mapping by texture mapping
A game system characterized by generating an image of a line .
【請求項4】 請求項において、 前記マッピング画像が、 背景に輪郭線の色情報が設定された描画領域に、透視変
換後のオブジェクトを描画することで生成されることを
特徴とするゲームシステム。
4. The game system according to claim 3 , wherein the mapping image is generated by drawing an object after perspective transformation in a drawing area in which outline color information is set as a background. .
【請求項5】 請求項3又は4において、 前記仮想オブジェクトが、 透視変換後のオブジェクトの画像の全部又は一部を内包
し透視変換後のオブジェクトの大きさに応じてその大き
さが変化するオブジェクトであることを特徴とするゲー
ムシステム。
5. The object according to claim 3 or 4 , wherein the virtual object includes all or part of an image of the object after perspective transformation and changes its size according to the size of the object after perspective transformation. The game system characterized by being.
【請求項6】 請求項において、 透視変換後のオブジェクトの定義点の座標に基づいて前
記仮想オブジェクトが生成されることを特徴とするゲー
ムシステム。
6. The game system according to claim 5 , wherein the virtual object is generated based on the coordinates of the definition point of the object after the perspective transformation.
【請求項7】 請求項において、 オブジェクトに対して簡易オブジェクトが設定される場
合において、透視変換後の前記簡易オブジェクトの定義
点の座標に基づいて前記仮想オブジェクトが生成される
ことを特徴とするゲームシステム。
7. The virtual object according to claim 5, wherein when a simple object is set for the object, the virtual object is generated based on coordinates of a definition point of the simple object after perspective transformation. Game system.
【請求項8】 請求項3乃至7のいずれかにおいて、 オブジェクトの輪郭の内側領域に設定されるα値とオブ
ジェクトの輪郭の外側領域に設定されるα値とを異なら
せ、 テクセル補間されたα値に基づいて、オブジェクトの輪
郭の内側領域にある輪郭線領域を判別することを特徴と
するゲームシステム。
8. The texel-interpolated α according to claim 3, wherein the α value set in the inner area of the object outline is different from the α value set in the outer area of the object outline. A game system characterized by discriminating an outline area in an inner area of an object outline based on a value.
【請求項9】 請求項1乃至8のいずれかにおいて、 描画領域にオブジェクトを描画した後に、輪郭線の画像
を、描画領域に描画されたオブジェクトの輪郭の内側領
域に描画することを特徴とするゲームシステム。
9. In any of claims 1 to 8, after drawing the object in the drawing area, the image of the contour line, characterized in that it draws in the inner area of the contour of the drawn in each drawing area object Game system.
【請求項10】 コンピュータにより使用可能なプログ
ラムであって、 オブジェクトの画像に基づいて生成されたオブジェクト
の輪郭線の画像を、オブジェクトの輪郭の内側領域に描
画する手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段として、 コンピュータを機能させ、 視点からの距離又は透視変換後のオブジェクトの大きさ
に応じて決まる半透明度でオブジェクトの画像とオブジ
ェクトの輪郭線の画像とを半透明合成する ことを特徴と
するプログラム。
10. A program usable by a computer, comprising: a means for drawing an image of an object outline generated based on an object image in an inner area of the object outline; and a given program in an object space. as a means for generating at the viewpoint images, cause the computer to function, distance or size of the object after perspective transformation from viewpoint
Object image and object with translucency determined according to
A program characterized by semi-transparent composition with the outline image of the project .
【請求項11】 請求項10において、 輪郭線が描画される位置でのオブジェクトのZ値が、輪
郭線のZ値として設定されることを特徴とするプログラ
ム。
11. The program according to claim 10, wherein the Z value of the object at the position where the contour line is drawn is set as the Z value of the contour line.
【請求項12】 コンピュータにより使用可能なプログ
ラムであって、 オブジェクトの画像に基づいて生成されたオブジェクト
の輪郭線の画像を、オブジェクトの輪郭の内側領域に描
画する手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段として、 コンピュータを機能させ、 オブジェクトの輪郭の内側領域にオブジェクトの色情報
が設定され、オブジェクトの輪郭の外側領域に輪郭線の
色情報が設定されるマッピング画像を生成し、生成され
た前記マッピング画像を、テクスチャ座標を第1のシフ
ト方向にシフトさせながらテクセル補間方式で仮想オブ
ジェクトにテクスチャマッピングし、その後、前記マッ
ピング画像を、テクスチャ座標を第2のシフト方向にシ
フトさせながらテクセル補間方式で仮想オブジェクトに
テクスチャマッピングすることで、オブジェクトの輪郭
線の画像を生成する ことを特徴とするプログラム。
12. A program usable by a computer, wherein a contour image of an object generated based on an image of an object is drawn on an inner region of the contour of the object, and a given program in the object space. as a means for generating at the viewpoint images, cause the computer to function, color information of the object in the inner area of the contour of the object
Will be set and the outline will be
Generate a mapping image in which color information is set,
The mapping image has the texture coordinates as the first shift.
The virtual object using the texel interpolation method.
Texture mapping to the object, and then
The ping image is displayed with the texture coordinates in the second shift direction.
To a virtual object with texel interpolation
Object mapping by texture mapping
A program characterized by generating an image of a line .
【請求項13】 請求項12において、 前記マッピング画像が、 背景に輪郭線の色情報が設定された描画領域に、透視変
換後のオブジェクトを描画することで生成されることを
特徴とするプログラム。
13. The program according to claim 12 , wherein the mapping image is generated by drawing an object after perspective transformation in a drawing region in which outline color information is set as a background.
【請求項14】 請求項12又は13において、 前記仮想オブジェクトが、 透視変換後のオブジェクトの画像の全部又は一部を内包
し透視変換後のオブジェクトの大きさに応じてその大き
さが変化するオブジェクトであることを特徴とするプロ
グラム。
14. The object according to claim 12 , wherein the virtual object includes all or part of an image of the object after perspective transformation, and the size of the virtual object changes according to the size of the object after perspective transformation. A program characterized by being.
【請求項15】 請求項14において、 透視変換後のオブジェクトの定義点の座標に基づいて前
記仮想オブジェクトが生成されることを特徴とするプロ
グラム。
15. The program according to claim 14 , wherein the virtual object is generated based on coordinates of a definition point of the object after perspective transformation.
【請求項16】 請求項14において、 オブジェクトに対して簡易オブジェクトが設定される場
合において、透視変換後の前記簡易オブジェクトの定義
点の座標に基づいて前記仮想オブジェクトが生成される
ことを特徴とするプログラム。
16. The virtual object according to claim 14, wherein when the simple object is set for the object, the virtual object is generated based on the coordinates of the definition point of the simple object after perspective transformation. program.
【請求項17】 請求項12乃至16のいずれかにおい
て、 オブジェクトの輪郭の内側領域に設定されるα値とオブ
ジェクトの輪郭の外側領域に設定されるα値とを異なら
せ、 テクセル補間されたα値に基づいて、オブジェクトの輪
郭の内側領域にある輪郭線領域を判別することを特徴と
するプログラム。
17. The method according to claim 12, wherein the α value set in the inner area of the object outline is different from the α value set in the outer area of the object outline, A program for discriminating an outline area in an inner area of an object outline based on a value.
【請求項18】 請求項10乃至17のいずれかにおい
て、 描画領域にオブジェクトを描画した後に、輪郭線の画像
を、描画領域に描画されたオブジェクトの輪郭の内側領
域に描画することを特徴とするプログラム。
18. The method according to claim 10 , wherein after the object is drawn in the drawing area, the outline image is drawn in an inner area of the outline of the object drawn in the drawing area. program.
【請求項19】 コンピュータにより使用可能な情報記
憶媒体であって、請求項10乃至18のいずれかのプロ
グラムを含むことを特徴とする情報記憶媒体。
19. An information storage medium usable by a computer, comprising the program according to claim 10. Description:
JP2001134266A 2000-06-05 2001-05-01 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM Expired - Lifetime JP3538393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001134266A JP3538393B2 (en) 2000-06-05 2001-05-01 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-167504 2000-06-05
JP2000167504 2000-06-05
JP2001134266A JP3538393B2 (en) 2000-06-05 2001-05-01 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Publications (2)

Publication Number Publication Date
JP2002063596A JP2002063596A (en) 2002-02-28
JP3538393B2 true JP3538393B2 (en) 2004-06-14

Family

ID=26593315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001134266A Expired - Lifetime JP3538393B2 (en) 2000-06-05 2001-05-01 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP3538393B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3764070B2 (en) * 2001-06-07 2006-04-05 富士通株式会社 Object display program and object display device
JP4488346B2 (en) * 2004-05-10 2010-06-23 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP3949674B2 (en) * 2004-05-11 2007-07-25 株式会社コナミデジタルエンタテインメント Display device, display method, and program
JP5140851B2 (en) * 2006-01-13 2013-02-13 アクト・リサーチ・コーポレーション Method for displaying a volumetric 3D image
JP4937681B2 (en) * 2006-09-01 2012-05-23 株式会社三共 Game machine
CN101925930A (en) 2008-03-27 2010-12-22 松下电器产业株式会社 Blind spot display device
JP2010033296A (en) * 2008-07-28 2010-02-12 Namco Bandai Games Inc Program, information storage medium, and image generation system
KR100922600B1 (en) 2009-04-29 2009-10-21 (주)엠더블유스토리 Method and Apparatus for rendering outline of multimedia character
JP6553987B2 (en) * 2015-08-25 2019-07-31 株式会社コーエーテクモゲームス Game program and recording medium
KR101824178B1 (en) * 2016-06-30 2018-01-31 주식회사 마이다스아이티 Method and apparatus for controlling transparency based on view on 3 dimension rendering device
CN111080780B (en) * 2019-12-26 2024-03-22 网易(杭州)网络有限公司 Edge processing method and device for virtual character model
CN115375857B (en) * 2022-10-26 2023-01-03 深圳市其域创新科技有限公司 Three-dimensional scene reconstruction method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP2002063596A (en) 2002-02-28

Similar Documents

Publication Publication Date Title
US7046242B2 (en) Game system, program and image generating method
JP3538393B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP3777288B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4610748B2 (en) Image generation system, program, and information storage medium
JP4187188B2 (en) Image generation system, program, and information storage medium
JP2007140842A (en) Program, information storage medium, and image generation system
US6828969B2 (en) Game system, program and image generating method
JP4651527B2 (en) Program, information storage medium, and image generation system
JP2006318388A (en) Program, information storage medium, and image forming system
JP3280355B2 (en) Image generation system and information storage medium
JP4223244B2 (en) Image generation system, program, and information storage medium
JP3538394B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP3413383B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
US7164421B2 (en) Image generation system, program, and information storage medium
JP3467259B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4651204B2 (en) Image generation system, program, and information storage medium
JP4159082B2 (en) Image generation system, program, and information storage medium
JP4707078B2 (en) Image generation system, program, and information storage medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4187192B2 (en) Image generation system, program, and information storage medium
JP4229317B2 (en) Image generation system, program, and information storage medium
JP3538392B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4574058B2 (en) Image generation system, program, and information storage medium
JP3254195B2 (en) Image generation system and information storage medium
JP4704615B2 (en) Image generation system, program, and information storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040319

R150 Certificate of patent or registration of utility model

Ref document number: 3538393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090326

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250