JP3538394B2 - GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM - Google Patents

GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Info

Publication number
JP3538394B2
JP3538394B2 JP2001134267A JP2001134267A JP3538394B2 JP 3538394 B2 JP3538394 B2 JP 3538394B2 JP 2001134267 A JP2001134267 A JP 2001134267A JP 2001134267 A JP2001134267 A JP 2001134267A JP 3538394 B2 JP3538394 B2 JP 3538394B2
Authority
JP
Japan
Prior art keywords
image
outline
color
viewpoint
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001134267A
Other languages
Japanese (ja)
Other versions
JP2002063591A (en
Inventor
繁 橘高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001134267A priority Critical patent/JP3538394B2/en
Publication of JP2002063591A publication Critical patent/JP2002063591A/en
Application granted granted Critical
Publication of JP3538394B2 publication Critical patent/JP3538394B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ゲームシステム、
プログラム及び情報記憶媒体に関する。
The present invention relates to a game system,
The present invention relates to a program and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内の所
与の視点から見える画像を生成するゲームシステムが知
られており、いわゆる仮想現実を体験できるものとして
人気が高い。ロールプレイングゲーム(RPG)を楽し
むことができるゲームシステムを例にとれば、プレーヤ
は、自身の分身であるキャラクタ(オブジェクト)を操
作してオブジェクト空間内のマップ上で移動させ、敵キ
ャラクタと対戦したり、他のキャラクタと対話したり、
様々な町を訪れたりすることでゲームを楽しむ。
2. Description of the Related Art Conventionally, there is known a game system that generates an image that can be seen from a given viewpoint in an object space that is a virtual three-dimensional space. It is very popular as something that can be done. Taking a game system that can enjoy a role-playing game (RPG) as an example, a player operates a character (object) that is his / her own character to move it on a map in the object space and play against an enemy character. Or interact with other characters,
Enjoy games by visiting various towns.

【0003】このようなゲームシステムでは、キャラク
タなどを表すオブジェクトは複数のポリゴンや自由曲面
(広義にはプリミティブ面)により構成される。そし
て、このポリゴンにより構成されたオブジェクト(モデ
ル)をオブジェクト空間内に配置し、ジオメトリ処理
(3次元演算)を行って、オブジェクト空間内の所与の
視点から見える画像を生成する。これにより、あたかも
現実世界の風景のようにリアルで実写に近い画像を生成
できるようになる。
In such a game system, an object representing a character or the like is composed of a plurality of polygons and free-form surfaces (primitive surfaces in a broad sense). Then, an object (model) constituted by the polygon is arranged in the object space, and geometry processing (three-dimensional calculation) is performed to generate an image that can be seen from a given viewpoint in the object space. As a result, it is possible to generate an image that is realistic and close to a real image as if it were a real-world landscape.

【0004】一方、アニメや漫画などの分野では、実写
のようなリアルな画像で人を魅了するのではなく、アニ
メ特有のセル画風の画像で人を魅了している。
On the other hand, in the fields of anime and manga, people are not attracted by real images such as live-action images, but are attracted by cel image-like images unique to anime.

【0005】従って、これまでのゲームシステムで生成
されるゲーム画像は、リアリティを好む人の情感に訴え
ることはできるが、アニメや漫画などを好む人の情感に
は今一つ訴えることができないという課題がある。
Accordingly, game images generated by conventional game systems can appeal to the feelings of those who like reality, but cannot yet appeal to the feelings of those who like anime and manga. is there.

【0006】このような課題を解決するために、本出願
人は、セル画風の画像をリアルタイムに生成できるゲー
ムシステムの開発を行っている。そして、このようなセ
ル画風の画像を生成するためには、キャラクタなどのオ
ブジェクトの輪郭線(edge line)を描画する処理(輪
郭線を強調する処理)が必要になる。
In order to solve such a problem, the present applicant has developed a game system capable of generating a cell-style image in real time. In order to generate such a cell-like image, a process of drawing an edge line of an object such as a character (a process of enhancing the outline) is required.

【0007】しかしながら、このようなオブジェクトの
輪郭線描画処理においては、以下のような問題点がある
ことが判明した。
However, it has been found that such object outline drawing processing has the following problems.

【0008】即ち、オブジェクトの外周部に1ピクセル
の太さの輪郭線を描画したとする。このような場合に、
視点とオブジェクトとの距離が近い場合(スクリーン上
でのピクセルに対するオブジェクトの大きさが大きい場
合)にはそれほど問題は生じない。しかしながら、視点
とオブジェクトとの距離が遠い場合(スクリーン上での
ピクセルに対するオブジェクトの大きさが小さい場合)
には、オブジェクトの大きさに対する輪郭線の相対的な
太さが必要以上に太くなってしまい、不自然な画像が生
成されてしまう。
That is, assume that a contour line having a thickness of 1 pixel is drawn on the outer periphery of the object. In such a case,
When the distance between the viewpoint and the object is short (when the size of the object with respect to the pixel on the screen is large), the problem does not occur so much. However, when the distance between the viewpoint and the object is long (when the size of the object relative to the pixel on the screen is small)
In this case, the relative thickness of the contour line with respect to the size of the object becomes thicker than necessary, and an unnatural image is generated.

【0009】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、より高品質
な輪郭線の画像を効率良く生成できるゲームシステム、
プログラム及び情報記憶媒体を提供することにある。
The present invention has been made in view of the above problems, and its object is to provide a game system capable of efficiently generating a higher quality contour image,
It is to provide a program and an information storage medium.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、画像生成を行うゲームシステムであっ
て、オブジェクトの輪郭線の画像を描画する手段と、オ
ブジェクトの輪郭線の画像を、視点からの距離に応じて
変化させる手段と、オブジェクト空間内の所与の視点で
の画像を生成する手段とを含むことを特徴とする。また
本発明に係る情報記憶媒体は、コンピュータにより使用
可能な情報記憶媒体であって、上記手段を実行するため
のプログラムを含むことを特徴とする。また本発明に係
るプログラムは、コンピュータにより使用可能なプログ
ラム(搬送波に具現化されるプログラムを含む)であっ
て、上記手段を実行するための処理ルーチンを含むこと
を特徴とする。
In order to solve the above-mentioned problems, the present invention provides a game system for generating an image, comprising: a means for drawing an image of an object outline; and an image of an object outline. And means for changing the distance according to the distance from the viewpoint, and means for generating an image at a given viewpoint in the object space. The information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for executing the above means. The program according to the present invention is a program (including a program embodied in a carrier wave) that can be used by a computer, and includes a processing routine for executing the above means.

【0011】本発明によれば、視点からの距離に応じて
輪郭線の画像(色、半透明度(濃さ)、輝度、色合い、
明度、或いは彩度等)が変化する。従って、輪郭線の画
像を、視点からの距離に応じた最適な画像に設定するこ
とが可能になり、高品質な輪郭線画像を生成できるよう
になる。
According to the present invention, an outline image (color, translucency (darkness), brightness, hue,
Brightness, saturation, etc.) change. Therefore, the contour image can be set to an optimum image corresponding to the distance from the viewpoint, and a high-quality contour image can be generated.

【0012】なお、視点からの距離としては、奥行き距
離、視点とオブジェクトとの直線距離、或いはこれらの
距離と均等な種々のパラメータを考えることができる。
As the distance from the viewpoint, a depth distance, a linear distance between the viewpoint and the object, or various parameters equivalent to these distances can be considered.

【0013】また、輪郭線の描画対象となるオブジェク
トはモデルオブジェクト全体であってもよいし、モデル
オブジェクトを構成するパーツオブジェクト(サブオブ
ジェクト)であってもよい。
The object to be drawn with the contour line may be the entire model object or a part object (sub-object) constituting the model object.

【0014】また、オブジェクトの輪郭線を描画する手
法としては、テクセル補間方式でテクスチャ座標をシフ
トする手法が特に望ましいが、これに限定されない。
As a technique for drawing the outline of an object, a technique of shifting texture coordinates by a texel interpolation method is particularly desirable, but is not limited to this.

【0015】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、視点からの距離が遠いほど、
オブジェクトの輪郭線の色が所与の第2の色に近づくこ
とを特徴とする。このようにすれば、視点からの距離が
遠い時に、オブジェクトの輪郭線の色を、目立たない第
2の色に近づけることなどが可能になる。
In addition, the game system, information storage medium and program according to the present invention have a greater distance from the viewpoint.
It is characterized in that the color of the contour line of the object approaches a given second color. In this way, when the distance from the viewpoint is long, the color of the contour line of the object can be brought closer to the inconspicuous second color.

【0016】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、視点からの距離が、オブジェ
クトとの間の距離をほぼ一定に保ちながら視点がオブジ
ェクトに追従する時の距離付近である場合には、オブジ
ェクトの輪郭線の色が略一定に保たれることを特徴とす
る。このようにすれば、視点がオブジェクトとほぼ一定
距離を保ちながら追従するモードの時には、オブジェク
トの輪郭線の色がほとんど変化しないようになり、より
自然な画像を生成できるようになる。
Also, the game system, information storage medium and program according to the present invention are such that the distance from the viewpoint is near the distance when the viewpoint follows the object while keeping the distance to the object substantially constant. Is characterized in that the color of the outline of the object is kept substantially constant. In this way, in the mode in which the viewpoint follows the object while maintaining a substantially constant distance, the color of the outline of the object hardly changes, and a more natural image can be generated.

【0017】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、視点からの距離が所与のしき
い値よりも遠くなった場合に、オブジェクトの輪郭線の
色が前記第2の色に設定されることを特徴とする。この
ようにすれば、視点からの距離が所与のしきい値よりも
遠くなった場合に、輪郭線の色を第2の色に設定して、
輪郭線の相対的な太さが目立ってしまう問題等を確実に
防止できるようになる。
In the game system, information storage medium, and program according to the present invention, the color of the outline of the object is changed to the second color when the distance from the viewpoint is longer than a given threshold value. It is characterized by being set. In this way, when the distance from the viewpoint is greater than a given threshold, the color of the contour line is set to the second color,
The problem that the relative thickness of the contour line becomes conspicuous can be reliably prevented.

【0018】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、視点からの距離が遠いほど、
オブジェクトの輪郭線の画像がより透明になることを特
徴とする。このようにすれば、視点からの距離が遠い時
に、オブジェクトの輪郭線の画像の濃さを薄くして、輪
郭線の画像を目立たなくすることなどが可能になる。
In addition, the game system, information storage medium and program according to the present invention have a greater distance from the viewpoint.
The outline image of the object is more transparent. In this way, when the distance from the viewpoint is long, it is possible to make the contour image of the object lighter in darkness so that the contour image is less noticeable.

【0019】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、視点からの距離が、オブジェ
クトとの間の距離をほぼ一定に保ちながら視点がオブジ
ェクトに追従する時の距離付近である場合には、オブジ
ェクトの輪郭線の半透明度が略一定に保たれることを特
徴とする。このようにすれば、視点がオブジェクトとほ
ぼ一定距離を保ちながら追従するモードの時には、オブ
ジェクトの輪郭線の半透明度(濃さ)がほとんど変化し
ないようになり、より自然な画像を生成できるようにな
る。
In addition, the game system, information storage medium and program according to the present invention are such that the distance from the viewpoint is near the distance when the viewpoint follows the object while keeping the distance to the object substantially constant. Is characterized in that the translucency of the outline of the object is kept substantially constant. In this way, when the viewpoint follows the object while maintaining a substantially constant distance, the translucency (darkness) of the outline of the object hardly changes, so that a more natural image can be generated. Become.

【0020】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、視点からの距離が所与のしき
い値よりも遠くなった場合に、オブジェクトの輪郭線の
画像がほぼ見えなくなることを特徴とする。このように
すれば、視点からの距離が所与のしきい値よりも遠くな
った場合に、輪郭線の画像を完全に透明にして、輪郭線
の相対的な太さが目立ってしまう問題等を確実に防止で
きるようになる。
The game system, information storage medium, and program according to the present invention are characterized in that the image of the outline of the object becomes almost invisible when the distance from the viewpoint is longer than a given threshold value. And In this way, when the distance from the viewpoint is longer than a given threshold value, the contour image becomes completely transparent, and the relative thickness of the contour line becomes conspicuous. Can be surely prevented.

【0021】また本発明は、画像生成を行うゲームシス
テムであって、オブジェクトの輪郭線の画像を描画する
手段と、オブジェクトの輪郭線の画像を、透視変換後の
オブジェクトの大きさに応じて変化させる手段と、オブ
ジェクト空間内の所与の視点での画像を生成する手段と
を含むことを特徴とする。また本発明に係る情報記憶媒
体は、コンピュータにより使用可能な情報記憶媒体であ
って、上記手段を実行するためのプログラムを含むこと
を特徴とする。また本発明に係るプログラムは、コンピ
ュータにより使用可能なプログラム(搬送波に具現化さ
れるプログラムを含む)であって、上記手段を実行する
ための処理ルーチンを含むことを特徴とする。
According to another aspect of the present invention, there is provided a game system for generating an image, the means for drawing an image of an object outline, and the image of the object outline changed in accordance with the size of the object after perspective transformation. And means for generating an image at a given viewpoint in the object space. The information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for executing the above means. The program according to the present invention is a program (including a program embodied in a carrier wave) that can be used by a computer, and includes a processing routine for executing the above means.

【0022】本発明によれば、透視変換後のオブジェク
トの大きさ(ピクセルに対する大きさ)に応じて輪郭線
の画像(色、半透明度(濃さ)、輝度、色合い、明度、
或いは彩度等)が変化する。従って、輪郭線の画像を、
オブジェクトの大きさに応じた最適な画像に設定するこ
とが可能になり、高品質な輪郭線画像を生成できるよう
になる。
According to the present invention, the contour image (color, translucency (darkness), luminance, hue, brightness, etc.) according to the size of the object after perspective transformation (size relative to the pixel).
Or, saturation etc.) changes. Therefore, the image of the outline is
It becomes possible to set an optimal image according to the size of the object, and a high-quality contour image can be generated.

【0023】なお、オブジェクトの大きさとしては、オ
ブジェクトの総ピクセル数(縦のピクセル数×横のピク
セル数)、縦のピクセル数、横のピクセル数、或いはこ
れらのピクセル数と均等な種々のパラメータを考えるこ
とができる。
As the size of the object, the total number of pixels of the object (the number of vertical pixels × the number of horizontal pixels), the number of vertical pixels, the number of horizontal pixels, or various parameters equivalent to the number of pixels. Can think.

【0024】また、透視変換後のオブジェクトの画像を
内包し透視変換後のオブジェクトの大きさに応じてその
大きさが変化する仮想オブジェクトを生成し、その仮想
オブジェクトの大きさをオブジェクトの大きさとして設
定してもよい。
Also, a virtual object is generated that contains an image of the object after perspective transformation and changes its size according to the size of the object after perspective transformation. The size of the virtual object is defined as the size of the object. It may be set.

【0025】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、透視変換後のオブジェクトの
大きさが小さいほど、オブジェクトの輪郭線の色が所与
の第2の色に近づくことを特徴とする。このようにすれ
ば、スクリーン上でのオブジェクトの大きさが小さい時
に、オブジェクトの輪郭線の色を、目立たない第2の色
に近づけることなどが可能になる。
The game system, information storage medium, and program according to the present invention are characterized in that the color of the outline of an object approaches a given second color as the size of the object after perspective transformation is smaller. To do. In this way, when the size of the object on the screen is small, the color of the contour line of the object can be brought closer to the inconspicuous second color.

【0026】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、透視変換後のオブジェクトの
大きさが、オブジェクトとの間の距離をほぼ一定に保ち
ながら視点がオブジェクトに追従する時のオブジェクト
の大きさ付近である場合には、オブジェクトの輪郭線の
色が略一定に保たれることを特徴とする。このようにす
れば、視点がオブジェクトとほぼ一定距離を保ちながら
追従するモードの時には、オブジェクトの輪郭線の色が
ほとんど変化しないようになり、より自然な画像を生成
できるようになる。
In addition, the game system, information storage medium and program according to the present invention provide the object size when the viewpoint follows the object while the size of the object after the perspective transformation keeps the distance to the object substantially constant. When it is near the size, the color of the outline of the object is kept substantially constant. In this way, in the mode in which the viewpoint follows the object while maintaining a substantially constant distance, the color of the outline of the object hardly changes, and a more natural image can be generated.

【0027】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、透視変換後のオブジェクトの
大きさが所与のしきい値よりも小さくなった場合に、オ
ブジェクトの輪郭線の色が前記第2の色に設定されるこ
とを特徴とする。このようにすれば、透視変換後のオブ
ジェクトの大きさが所与のしきい値よりも小さくなった
場合に、輪郭線の色を第2の色に設定して、輪郭線の相
対的な太さが目立ってしまう問題等を確実に防止できる
ようになる。
In the game system, information storage medium, and program according to the present invention, when the size of the object after perspective transformation is smaller than a given threshold, the color of the outline of the object is It is characterized by being set to 2 colors. In this way, when the size of the object after perspective transformation becomes smaller than a given threshold value, the color of the contour line is set to the second color, and the relative thickness of the contour line is set. This makes it possible to reliably prevent problems that are conspicuous.

【0028】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、透視変換後のオブジェクトの
大きさが小さいほど、オブジェクトの輪郭線の画像がよ
り透明になることを特徴とする。このようにすれば、ス
クリーン上でのオブジェクトの大きさが小さい時に、オ
ブジェクトの輪郭線の画像の濃さを薄くして、輪郭線の
画像を目立たなくすることなどが可能になる。
The game system, information storage medium and program according to the present invention are characterized in that the outline image of an object becomes more transparent as the size of the object after perspective transformation is smaller. In this way, when the size of the object on the screen is small, it is possible to make the contour image of the object lighter, thereby making the contour image less noticeable.

【0029】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、透視変換後のオブジェクトの
大きさが、オブジェクトとの間の距離をほぼ一定に保ち
ながら視点がオブジェクトに追従する時のオブジェクト
の大きさ付近である場合には、オブジェクトの輪郭線の
半透明度が略一定に保たれることを特徴とする。このよ
うにすれば、視点がオブジェクトとほぼ一定距離を保ち
ながら追従するモードの時には、オブジェクトの輪郭線
の半透明度(濃さ)がほとんど変化しないようになり、
より自然な画像を生成できるようになる。
In addition, the game system, information storage medium and program according to the present invention provide the object size when the viewpoint follows the object while the distance of the object after the perspective transformation is kept substantially constant. When it is near the size, the translucency of the outline of the object is kept substantially constant. In this way, when the viewpoint follows the object while maintaining a substantially constant distance, the translucency (darkness) of the outline of the object hardly changes,
A more natural image can be generated.

【0030】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、透視変換後のオブジェクトの
大きさが所与のしきい値よりも小さくなった場合に、オ
ブジェクトの輪郭線の画像がほぼ見えなくなることを特
徴とする。このようにすれば、透視変換後のオブジェク
トの大きさが所与のしきい値よりも小さくなった場合
に、輪郭線の画像を完全に透明にして、輪郭線の相対的
な太さが目立ってしまう問題等を確実に防止できるよう
になる。
In the game system, information storage medium and program according to the present invention, when the size of the object after perspective transformation becomes smaller than a given threshold value, the image of the outline of the object is almost visible. It is characterized by disappearing. In this way, if the size of the object after perspective transformation becomes smaller than a given threshold, the contour image is made completely transparent and the relative thickness of the contour is conspicuous. It is possible to reliably prevent problems that occur.

【0031】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、オブジェクトの輪郭の外側領
域にオブジェクトの輪郭線の画像が描画されることを特
徴とする。このように、オブジェクトの輪郭の外側領域
に輪郭線を描画する場合には、視点からの距離や透視変
換後のオブジェクトの大きさに応じて、輪郭線の色を変
化させる手法を採用することが望ましい。
The game system, information storage medium, and program according to the present invention are characterized in that an image of the outline of an object is drawn in a region outside the outline of the object. In this way, when drawing a contour line in the outer region of the contour of the object, it is possible to adopt a method of changing the color of the contour line according to the distance from the viewpoint or the size of the object after perspective transformation. desirable.

【0032】なお、オブジェクトの輪郭の外側領域に輪
郭線を描画する場合、輪郭線の少なくとも一部が外側領
域に描画されていればよく、他の部分が内側領域に描画
されていてもよい。
When the outline is drawn in the outer area of the object outline, it is sufficient that at least a part of the outline is drawn in the outer area, and the other part may be drawn in the inner area.

【0033】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、オブジェクトの輪郭の内側領
域にオブジェクトの輪郭線の画像が描画されることを特
徴とする。このように、オブジェクトの輪郭の内側領域
に輪郭線を描画する場合には、視点からの距離や透視変
換後のオブジェクトの大きさに応じて、輪郭線の半透明
度(濃さ)を変化させる手法を採用することが望まし
い。
The game system, information storage medium, and program according to the present invention are characterized in that an image of the outline of an object is drawn in an inner area of the outline of the object. Thus, when drawing an outline in the inner area of the outline of the object, a method of changing the translucency (darkness) of the outline according to the distance from the viewpoint and the size of the object after perspective transformation It is desirable to adopt.

【0034】[0034]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.

【0035】1.構成図1に、本実施形態のゲームシス
テム(画像生成システム)の機能ブロック図の一例を示
す。なお同図において本実施形態は、少なくとも処理部
100を含めばよく(或いは処理部100と記憶部17
0を含めばよく)、それ以外のブロックについては任意
の構成要素とすることができる。
1. Configuration FIG. 1 shows an example of a functional block diagram of a game system (image generation system) of the present embodiment. In this figure, the present embodiment only needs to include at least the processing unit 100 (or the processing unit 100 and the storage unit 17).
0 may be included), and the other blocks may be arbitrary constituent elements.

【0036】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、マイク、或いは筺体などのハードウェアにより実現
できる。
The operation unit 160 is for the player to input operation data, and the function can be realized by hardware such as a lever, a button, a microphone, or a housing.

【0037】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 includes the processing unit 100 and the communication unit 1.
It becomes a work area such as 96, and its function is RAM
It can be realized by hardware such as.

【0038】情報記憶媒体(コンピュータにより使用可
能な記憶媒体)180は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)を実行するた
めの情報(プログラム或いはデータ)が格納される。
An information storage medium (storage medium usable by a computer) 180 stores information such as programs and data, and functions thereof are optical disks (C
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO)
It can be realized by hardware such as M). Processing unit 10
0 performs various processes of the present invention (this embodiment) based on information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing the means of the present invention (this embodiment) (particularly, the blocks included in the processing unit 100).

【0039】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80には、本発明の処理を行うためのプログラム、画像
データ、音データ、表示物の形状データ、本発明の処理
を指示するための情報、或いはその指示に従って処理を
行うための情報などを含ませることができる。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the system is powered on. Information storage medium 1
80 includes a program for performing the process of the present invention, image data, sound data, display object shape data, information for instructing the process of the present invention, or information for performing the process in accordance with the instruction. Can be made.

【0040】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display unit 190 outputs an image generated by this embodiment, and its function is CRT,
LCD or HMD (Head Mounted Display)
It can be realized by hardware such as.

【0041】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output unit 192 outputs the sound generated by this embodiment, and its function can be realized by hardware such as a speaker.

【0042】携帯型情報記憶装置194は、プレーヤの
個人データやゲームのセーブデータなどが記憶されるも
のであり、この携帯型情報記憶装置194としては、メ
モリカードや携帯型ゲーム装置などを考えることができ
る。
The portable information storage device 194 stores player personal data, game save data, and the like. As the portable information storage device 194, a memory card, a portable game device, and the like are considered. Can do.

【0043】通信部196は、外部(例えばホスト装置
や他のゲームシステム)との間で通信を行うための各種
の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other game system), and functions as various processors or communication ASICs. This can be realized by hardware or a program.

【0044】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。
It should be noted that the program or data for executing the means of the present invention (this embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. It may be. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.

【0045】処理部100(プロセッサ)は、操作部1
60からの操作データやプログラムなどに基づいて、ゲ
ーム処理、画像生成処理、或いは音生成処理などの各種
の処理を行う。この処理部100の機能は、各種プロセ
ッサ(CPU、DSP等)又はASIC(ゲートアレイ
等)などのハードウェアや、所与のプログラム(ゲーム
プログラム)により実現できる。
The processing unit 100 (processor) is an operation unit 1
Various processes such as a game process, an image generation process, or a sound generation process are performed based on operation data from 60, a program, and the like. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.) or ASIC (gate array, etc.) and a given program (game program).

【0046】ここで、処理部100が行うゲーム処理と
しては、コイン(代価)の受け付け処理、各種モードの
設定処理、ゲームの進行処理、選択画面の設定処理、オ
ブジェクト(1又は複数のプリミティブ面)の位置や回
転角度(X、Y又はZ軸回り回転角度)を求める処理、
オブジェクトを動作させる処理(モーション処理)、視
点の位置(仮想カメラの位置)や視線角度(仮想カメラ
の回転角度)を求める処理、マップオブジェクトなどの
オブジェクトをオブジェクト空間へ配置する処理、ヒッ
トチェック処理、ゲーム結果(成果、成績)を演算する
処理、複数のプレーヤが共通のゲーム空間でプレイする
ための処理、或いはゲームオーバー処理などを考えるこ
とができる。
Here, the game processing performed by the processing unit 100 includes coin (price) acceptance processing, various mode setting processing, game progress processing, selection screen setting processing, and object (one or more primitive surfaces). Processing for obtaining the position and rotation angle (rotation angle around X, Y or Z axis),
Processing to move an object (motion processing), processing to obtain the viewpoint position (virtual camera position) and line-of-sight angle (virtual camera rotation angle), processing to place an object such as a map object in the object space, hit check processing, A process for calculating game results (results, results), a process for a plurality of players to play in a common game space, or a game over process can be considered.

【0047】また、処理部100は、上記のゲーム処理
結果に基づいて例えばオブジェクト空間内において所与
の視点(仮想カメラ)から見える画像を生成し、表示部
190に出力する。
Further, the processing unit 100 generates an image that can be seen from a given viewpoint (virtual camera) in the object space, for example, based on the above game processing result, and outputs it to the display unit 190.

【0048】更に、処理部100は、上記のゲーム処理
結果に基づいて各種の音処理を行い、BGM、効果音、
又は音声などの音を生成し、音出力部192に出力す
る。
Further, the processing unit 100 performs various kinds of sound processing based on the above-mentioned game processing result, and performs BGM, sound effects,
Alternatively, sound such as voice is generated and output to the sound output unit 192.

【0049】なお、処理部100の機能は、その全てを
ハードウェアにより実現してもよいし、その全てをプロ
グラムにより実現してもよい。或いは、ハードウェアと
プログラムの両方により実現してもよい。
Note that all of the functions of the processing unit 100 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.

【0050】処理部100は、ジオメトリ処理部11
0、仮想オブジェクト生成部112、輪郭線画像変化部
114、描画部120を含む。
The processing unit 100 includes a geometry processing unit 11.
0, a virtual object generation unit 112, a contour line image change unit 114, and a drawing unit 120.

【0051】ここでジオメトリ処理部110は、座標変
換、クリッピング処理、透視変換、或いは光源計算など
の種々のジオメトリ処理(3次元演算)を、オブジェク
トに対して行う。ジオメトリ処理により得られた描画デ
ータ(頂点に付与される位置座標、テクスチャ座標、色
(輝度)データ、法線ベクトル或いはα値等)は、記憶
部170の主記憶部172に格納されて、保存される。
Here, the geometry processing unit 110 performs various types of geometry processing (three-dimensional calculation) such as coordinate transformation, clipping processing, perspective transformation, or light source calculation on the object. The drawing data (position coordinates, texture coordinates, color (luminance) data, normal vector or α value, etc. given to the vertices) obtained by the geometry processing is stored in the main storage unit 172 of the storage unit 170 and saved. Is done.

【0052】仮想オブジェクト生成部112は、マッピ
ング画像のマッピング対象となる仮想オブジェクトを生
成する処理を行う。このマッピング画像は、後述するよ
うに、描画部120が含むマッピング画像生成部122
が生成する。
The virtual object generator 112 performs processing for generating a virtual object to be mapped in the mapping image. As will be described later, the mapping image is generated by the mapping image generation unit 122 included in the drawing unit 120.
Produces.

【0053】本実施形態では、この仮想オブジェクト
(狭義には仮想ポリゴン)が、透視変換後(スクリーン
座標系への変換後)のオブジェクトの画像の全部又は一
部を内包し、透視変換後のオブジェクトの大きさに応じ
てその大きさが変化するようなオブジェクトになってい
る。即ち、画面内でのオブジェクトの占有面積に応じて
その大きさが変化するようなオブジェクトになってい
る。そして、マッピング画像生成部122により生成さ
れたマッピング画像は、このように画面内でのオブジェ
クトの占有面積に応じてその大きさが変化する仮想オブ
ジェクトに対してマッピングされるようになるため、テ
クスチャマッピング処理や仮想オブジェクトの描画処理
を効率化できる。
In this embodiment, this virtual object (virtual polygon in a narrow sense) contains all or part of the image of the object after perspective transformation (after transformation to the screen coordinate system), and the object after perspective transformation. The object changes its size according to the size of the object. That is, the size of the object changes according to the area occupied by the object on the screen. Since the mapping image generated by the mapping image generation unit 122 is mapped to a virtual object whose size changes according to the area occupied by the object in the screen in this way, texture mapping is performed. Processing and virtual object drawing processing can be made more efficient.

【0054】輪郭線画像変化部114は、オブジェクト
に付与する輪郭線の画像を、視点からの距離や透視変換
後のオブジェクトの大きさ(ピクセルに対する相対的な
大きさ)に応じて変化させるための処理を行う。
The contour image changing unit 114 changes the contour image to be given to the object in accordance with the distance from the viewpoint and the size of the object after perspective transformation (relative size with respect to the pixel). Process.

【0055】より具体的には、輪郭線画像変化部114
は、視点からの距離や、透視変換後のオブジェクトの大
きさ(スクリーン上でのオブジェクトの大きさ)に応じ
て、輪郭線の色を所与の第2の色に近づけるための処理
(第1、第2の色を設定する処理、第1の色と第2の色
を補間する時の補間係数を求める処理等)を行う。
More specifically, the contour line image changing unit 114.
Is a process (first operation) for bringing the color of the contour line closer to a given second color according to the distance from the viewpoint and the size of the object after perspective transformation (the size of the object on the screen). , A process for setting the second color, a process for obtaining an interpolation coefficient when the first color and the second color are interpolated, etc.).

【0056】或いは、輪郭線画像変化部114は、視点
からの距離やオブジェクトの大きさに応じて、オブジェ
クトの輪郭線の画像を透明にするための処理を行う。即
ち、視点からの距離や透視変換後のオブジェクトの大き
さに応じて決まる半透明度でオブジェクトの画像とオブ
ジェクトの輪郭線の画像を半透明合成するための処理
(半透明度を決める処理、描画順序を決める処理等)を
行う。
Alternatively, the contour line image changing unit 114 performs processing for making the contour image of the object transparent according to the distance from the viewpoint and the size of the object. That is, a process for translucently compositing an object image and an outline image of an object with a translucency determined according to the distance from the viewpoint and the size of the object after perspective transformation (a process for determining the translucency, a drawing order) Process to decide).

【0057】描画部120(オブジェクト・輪郭線描画
部)は、ジオメトリ処理後のオブジェクト(モデル)
や、オブジェクトの輪郭線を、描画領域174(フレー
ムバッファ、ワークバッファ等のピクセル単位で画像情
報を記憶できる領域)に描画するための処理を行うもの
である。
The drawing unit 120 (object / outline drawing unit) is an object (model) after geometry processing.
In addition, a process for drawing an object outline in a drawing area 174 (an area where image information can be stored in units of pixels such as a frame buffer and a work buffer) is performed.

【0058】より具体的には、描画部120は、オブジ
ェクトの画像(例えば、透視変換後のオブジェクトの画
像、描画領域上のオブジェクトの画像)に基づいて生成
されたオブジェクトの輪郭線の画像が、オブジェクトの
輪郭の外側領域や内側領域に描画されるように描画処理
を行う。
More specifically, the drawing unit 120 generates an image of the outline of the object generated based on the object image (for example, the image of the object after perspective transformation, the image of the object on the drawing area), Drawing processing is performed so that the drawing is performed in the outer region and the inner region of the contour of the object.

【0059】描画部120は、マッピング画像生成部1
22、テクスチャマッピング部130、合成部132、
陰面消去部134を含む。
The drawing unit 120 includes a mapping image generation unit 1
22, texture mapping unit 130, synthesis unit 132,
A hidden surface removal unit 134 is included.

【0060】マッピング画像生成部122は、オブジェ
クトの輪郭の内側領域にオブジェクトの色情報が設定さ
れ、オブジェクトの輪郭の外側領域に輪郭線の色情報が
設定されるマッピング画像を生成する。
The mapping image generation unit 122 generates a mapping image in which the object color information is set in the inner area of the object outline and the outline color information is set in the outer area of the object outline.

【0061】テクスチャマッピング部130は、テクス
チャ記憶部176に記憶されるテクスチャをオブジェク
トにマッピングするための処理を行う。
The texture mapping unit 130 performs processing for mapping the texture stored in the texture storage unit 176 to the object.

【0062】より具体的には、テクスチャマッピング部
130は、マッピング画像生成部122により生成され
たマッピング画像を、仮想オブジェクト生成部112に
より生成された仮想オブジェクトにマッピングするため
の処理を行う。この場合、テクスチャマッピング部13
0は、生成されたマッピング画像を、テクスチャ座標を
例えば1テクセル(ピクセル)よりも小さい値だけシフ
トさせながら(例えばマッピング画像の描画位置に基づ
き得られるテクスチャ座標からシフトさせる)、テクセ
ル補間方式(狭義にはバイニアフィルタ)で仮想オブジ
ェクトにマッピングする。これにより、少ない処理負荷
でオブジェクトの輪郭線を描画できるようになる。
More specifically, the texture mapping unit 130 performs processing for mapping the mapping image generated by the mapping image generation unit 122 to the virtual object generated by the virtual object generation unit 112. In this case, the texture mapping unit 13
0 is a texel interpolation method (in a narrow sense) while shifting the generated mapping image by a value smaller than, for example, one texel (pixel) (for example, shifting from the texture coordinate obtained based on the drawing position of the mapping image). Is mapped to a virtual object with a binier filter. As a result, the outline of the object can be drawn with a small processing load.

【0063】合成部132は、α値を用いたマスク合成
処理や半透明処理を行う。なお、α値(A値)は、各ピ
クセルに関連づけられて記憶される情報であり、例えば
色情報以外のプラスアルファの情報である。α値は、マ
スク情報、半透明度(透明度、不透明度と等価)、バン
プ情報などとして使用できる。
The synthesizing unit 132 performs a mask synthesizing process and a semi-transparent process using the α value. The α value (A value) is information stored in association with each pixel, for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

【0064】陰面消去部134は、Z値(奥行き値)が
格納されるZバッファ(Zプレーン)を用いて、Zバッ
ファ法のアルゴリズムにしたがった陰面消去を行う。
The hidden surface removal unit 134 performs hidden surface removal according to the algorithm of the Z buffer method, using a Z buffer (Z plane) in which Z values (depth values) are stored.

【0065】例えば、オブジェクトの輪郭の外側領域に
輪郭線が描画される場合には、オブジェクトの情報(頂
点座標等)に基づき得られるZ値を仮想オブジェクトに
設定し、設定されたZ値に基づいて仮想オブジェクトに
ついての陰面消去を行うことが望ましい。このようにす
れば、オブジェクトの情報に基づき得られるZ値(奥行
き値)を仮想オブジェクトに設定するだけという簡素な
処理で、適正な陰面消去を可能にする適切なZ値を輪郭
線に対して設定できるようになる。
For example, when a contour line is drawn in the outer region of the contour of the object, the Z value obtained based on the object information (vertex coordinates, etc.) is set in the virtual object, and based on the set Z value. It is desirable to perform hidden surface removal for virtual objects. In this way, the Z value (depth value) obtained based on the object information is simply set to the virtual object, and an appropriate Z value that enables proper hidden surface removal can be obtained for the contour line. It becomes possible to set.

【0066】一方、オブジェクトの輪郭の内側領域に輪
郭線が描画される場合には、輪郭線描画位置でのオブジ
ェクトのZ値を輪郭線のZ値として設定して、輪郭線の
陰面を行うことが望ましい。このようにすれば、輪郭線
に対して適正なZ値を設定することが可能になり、他の
オブジェクトとの間の適正な陰面消去を実現できるよう
になる。
On the other hand, when a contour line is drawn in the inner area of the contour of the object, the Z value of the object at the contour drawing position is set as the Z value of the contour line to perform the hidden surface of the contour line. Is desirable. In this way, it becomes possible to set an appropriate Z value for the contour line, and it is possible to realize an appropriate hidden surface removal with another object.

【0067】なお、視点からの距離に応じてプリミティ
ブ面をソーティングし、視点から遠い順にプリミティブ
面を描画する奥行きソート法(Zソート法)などにより
陰面消去を行ってもよい。
It should be noted that the hidden surface may be erased by a depth sorting method (Z sort method) in which the primitive surfaces are sorted according to the distance from the viewpoint and the primitive surfaces are drawn in order from the viewpoint.

【0068】なお、本実施形態のゲームシステムは、1
人のプレーヤのみがプレイできるシングルプレーヤモー
ド専用のシステムにしてもよいし、このようなシングル
プレーヤモードのみならず、複数のプレーヤがプレイで
きるマルチプレーヤモードも備えるシステムにしてもよ
い。
The game system of this embodiment has 1
A system dedicated to the single player mode in which only a human player can play may be used, or a system including not only such a single player mode but also a multiplayer mode in which a plurality of players can play.

【0069】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。
When a plurality of players play,
The game images and game sounds to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected via a network (transmission line, communication line) or the like. Also good.

【0070】2.本実施形態の特徴 2.1 輪郭線の画像の変化処理 図2に、本実施形態のゲームシステムにより生成される
ゲーム画像の例を示す。図2に示すように本実施形態に
よれば、ポリゴンで構成されたオブジェクトOBの輪郭
に沿って太い輪郭線(edge line)が描かれており、漫画
やアニメなどで一般の人が親しんでいるセル画風の画像
の生成に成功している。
2. 2. Features of this Embodiment 2.1 Contour Line Image Change Processing FIG. 2 shows an example of a game image generated by the game system of this embodiment. As shown in FIG. 2, according to the present embodiment, a thick edge line is drawn along the outline of the object OB composed of polygons, which is familiar to ordinary people in cartoons and animations. A cell-like image has been successfully generated.

【0071】しかしながら、このような輪郭線の描画処
理においては、視点からの距離が遠い場合(透視変換後
のオブジェクトの大きさが小さい場合)に、輪郭線の相
対的な太さが不必要に目立ってしまう(強調されてしま
う)という問題が生じることが判明した。
However, in such contour line drawing processing, when the distance from the viewpoint is long (when the size of the object after perspective transformation is small), the relative thickness of the contour line is unnecessary. It turns out that the problem of being conspicuous (highlighted) occurs.

【0072】即ち、3次元ゲームにおいては、プレーヤ
の操作入力などに応じてプレーヤの視点(仮想カメラ)
は任意の位置に移動し、キャラクタなどを表現するオブ
ジェクトも任意の位置に移動する。従って、プレーヤの
視点とオブジェクトとの間の距離も様々に変化し、透視
変換後のオブジェクトの大きさ(スクリーン上での、ピ
クセルに対するオブジェクトの相対的な大きさ)も様々
に変化するようになる。
In other words, in a three-dimensional game, the player's viewpoint (virtual camera) in accordance with the player's operation input, etc.
Moves to an arbitrary position, and an object representing a character or the like also moves to an arbitrary position. Accordingly, the distance between the player's viewpoint and the object also changes variously, and the size of the object after the perspective transformation (the relative size of the object with respect to the pixel on the screen) also changes variously. .

【0073】このように、その大きさが様々に変化する
可能性があるオブジェクトに対して、一定の太さ(例え
ば1ピクセル)の輪郭線を描画すると次のような問題が
生じる。
As described above, when an outline having a certain thickness (for example, 1 pixel) is drawn on an object whose size may change variously, the following problem occurs.

【0074】即ち、図3のA1に示すように視点とオブ
ジェクトOBとの距離が近い場合(スクリーン上でのオ
ブジェクトの占有面積が大きい場合)には、オブジェク
トOBの輪郭線EDLの太さはそれほど目立たず、不自
然な画像にはならない。
That is, when the distance between the viewpoint and the object OB is short as shown by A1 in FIG. 3 (when the area occupied by the object on the screen is large), the thickness of the outline EDL of the object OB is not so large. It does not stand out and does not look like an unnatural image.

【0075】しかしながら、図3のA2、A3に示すよ
うに視点からの距離が遠くなると(スクリーン上でのオ
ブジェクトの占有面積が小さくなると)、輪郭線EDL
の太さが不必要に目立ってしまい、不自然な画像が生成
されてしまう。
However, as shown by A2 and A3 in FIG. 3, when the distance from the viewpoint is increased (when the occupied area of the object on the screen is reduced), the contour line EDL is obtained.
The thickness of the image becomes unnecessarily noticeable and an unnatural image is generated.

【0076】特に、A3に示すようにオブジェクトOB
の総ピクセル数(縦のピクセル数×横のピクセル数)が
例えば1〜10ピクセルとなった場合には、オブジェク
トOBが輪郭線EDLの色で塗りつぶされたかのように
見える画像が生成されてしまう。即ち、オブジェクトO
Bの色が赤で輪郭線EDLの色が黒の場合を例にとれ
ば、本来ならば赤く見えるべきOBの画像が、あたかも
黒色の点のように見えてしまう。
In particular, as shown in A3, the object OB
When the total number of pixels (the number of vertical pixels × the number of horizontal pixels) is, for example, 1 to 10 pixels, an image that looks as if the object OB is filled with the color of the contour line EDL is generated. That is, the object O
Taking the case where the color of B is red and the color of the contour line EDL is black as an example, the image of OB that should originally look red appears as if it were a black dot.

【0077】そこで本実施形態では、視点からの距離や
透視変換後のオブジェクトの大きさに応じて、オブジェ
クトの輪郭線の画像を変化させている。この場合に、輪
郭線の画像を変化させる手法としては、例えば、輪郭線
の色を変化させる手法と、輪郭線の半透明度(濃さ)を
変化させる手法を考えることができる。
Therefore, in this embodiment, the image of the outline of the object is changed according to the distance from the viewpoint and the size of the object after the perspective transformation. In this case, as a method of changing the contour image, for example, a method of changing the color of the contour line and a method of changing the translucency (darkness) of the contour line can be considered.

【0078】2.2 輪郭線の色の変化処理 輪郭線の色を変化させる場合には、視点からの距離が遠
いほど、或いは透視変換後のオブジェクトの大きさ(ピ
クセルに対するオブジェクトの大きさ)が小さいほど、
例えば、オブジェクトの輪郭線の色が所与の第2の色に
近づくようにする。
2.2 Contour Line Color Change Processing When changing the color of the contour line, the distance from the viewpoint is increased, or the size of the object after perspective transformation (the size of the object with respect to the pixel) is increased. The smaller it is,
For example, the color of the outline of the object is brought closer to a given second color.

【0079】より具体的には、図4のB1、B2に示す
ように、視点からの距離が遠くなるにつれて(透視変換
後のオブジェクトの大きさが小さくなるにつれて)、オ
ブジェクトOBの輪郭線EDLの色が、濃い第1の色か
ら薄い第2の色に徐々に変化するように、第1、第2の
色の補間処理を行って輪郭線EDLの色を決める。そし
て、B3に示すように、視点からの距離が十分に遠くな
った場合(透視変換後のオブジェクトの大きさが十分に
小さくなった場合)には、輪郭線EDLの色が非常に薄
い第2の色になるようにする。
More specifically, as indicated by B1 and B2 in FIG. 4, the outline EDL of the object OB increases as the distance from the viewpoint increases (the size of the object after perspective transformation decreases). The color of the contour line EDL is determined by performing interpolation processing of the first and second colors so that the color gradually changes from the dark first color to the light second color. As shown in B3, when the distance from the viewpoint is sufficiently long (when the size of the object after perspective transformation is sufficiently small), the color of the contour line EDL is very thin. So that it becomes the color.

【0080】このようにすれば、図3のA2と図4のB
2を比較すれば明らかなように、輪郭線EDLの太さが
不必要に目立ってしまうという問題を解決できる。ま
た、図3のA3と図4のB3を比較すれば明らかなよう
に、オブジェクトOBが輪郭線EDLの色で塗りつぶさ
れたかのように見える画像が生成されてしまうという問
題も解決できる。即ち、オブジェクトOBの色が赤で輪
郭線EDLの色が黒の場合を例にとれば、視点からの距
離が十分に遠くなった場合にも、OBの色が黒く塗りつ
ぶされずに済むようになり、より自然な画像を生成でき
る。
In this way, A2 in FIG. 3 and B in FIG.
As can be seen from a comparison of 2, it is possible to solve the problem that the thickness of the contour line EDL is unnecessarily noticeable. Further, as apparent from comparison between A3 in FIG. 3 and B3 in FIG. 4, it is possible to solve the problem of generating an image that looks as if the object OB is filled with the color of the contour line EDL. In other words, taking the case where the color of the object OB is red and the color of the contour line EDL is black as an example, even if the distance from the viewpoint is sufficiently long, the color of the OB is not filled in black. Can produce more natural images.

【0081】さて、視点からの距離やオブジェクトの大
きさに応じて輪郭線の色を制御する手法としては種々の
手法を考えることができる。
Various methods can be considered as a method for controlling the color of the contour line according to the distance from the viewpoint and the size of the object.

【0082】例えば図5(A)では、視点からの距離が
しきい値VTNよりも遠くなった場合に、輪郭線の色が
近距離用の色CN(第1の色)から変化し始め、遠距離
用の薄い色CF(第2の色)に徐々に近づく。これによ
り、輪郭線が徐々に目立たなくなって行く。
For example, in FIG. 5A, when the distance from the viewpoint becomes longer than the threshold value VTN, the color of the outline starts to change from the short distance color CN (first color), It gradually approaches the light color CF (second color) for long distances. As a result, the outline gradually becomes inconspicuous.

【0083】そして、視点からの距離がしきい値VTF
よりも遠くなった場合に、輪郭線の色が遠距離用のCF
に設定され、オブジェクトの輪郭線の色が図4のB3に
示すように非常に薄くなる。これにより、オブジェクト
が輪郭線の色で塗りつぶされたかのように見える問題を
解決できる。
The distance from the viewpoint is the threshold value VTF.
When the distance is longer, the outline color is CF for long distance.
And the color of the outline of the object becomes very light as indicated by B3 in FIG. As a result, it is possible to solve the problem that the object looks as if it is filled with the outline color.

【0084】また図5(B)では、オブジェクトの大き
さがしきい値VTNよりも小さくなった場合に、輪郭線
の色がCNから変化し始め、CFに徐々に近づく。
In FIG. 5B, when the size of the object becomes smaller than the threshold value VTN, the color of the outline starts to change from CN and gradually approaches CF.

【0085】そして、オブジェクトの大きさがしきい値
VTFよりも小さくなった場合に、輪郭線の色がCFに
設定され、オブジェクトの輪郭線が図4のB3に示すよ
うに非常に薄くなる。
When the size of the object becomes smaller than the threshold value VTF, the color of the contour line is set to CF, and the contour line of the object becomes very thin as indicated by B3 in FIG.

【0086】以上のように視点からの距離や透視変換後
のオブジェクトの大きさに応じて輪郭線の色を変化させ
れば、図3で説明した問題を効果的に解決することがで
きる。
As described above, if the color of the contour line is changed in accordance with the distance from the viewpoint and the size of the object after the perspective transformation, the problem described with reference to FIG. 3 can be effectively solved.

【0087】2.3 輪郭線の半透明度の変化処理 輪郭線の半透明度を変化させる場合には、視点からの距
離が遠いほど、或いは透視変換後のオブジェクトの大き
さが小さいほど、輪郭線の画像がより透明になるように
する。例えば、視点からの距離や透視変換後のオブジェ
クトの大きさに応じて決まる半透明度(透明度、不透明
度と等価)で、オブジェクトの画像とオブジェクトの輪
郭線の画像とを半透明合成(α合成)するようにする。
2.3 Processing for changing the translucency of the contour line When changing the translucency of the contour line, the distance from the viewpoint or the size of the object after perspective transformation decreases, Make the image more transparent. For example, translucent composition (α composition) of an object image and an object outline image with translucency (equivalent to transparency and opacity) determined according to the distance from the viewpoint and the size of the object after perspective transformation To do.

【0088】より具体的には、図6のC1、C2に示す
ように、視点からの距離が遠くなるにつれて(透視変換
後のオブジェクトの大きさが小さくなるにつれて)、オ
ブジェクトOBの輪郭線EDLの半透明度を変化させ
て、輪郭線EDLがより透明になるようにする。そし
て、C3に示すように、視点からの距離が十分に遠くな
った場合(透視変換後のオブジェクトの大きさが十分に
小さくなった場合)には、輪郭線EDLの画像がほぼ見
えなくなるようにする。
More specifically, as indicated by C1 and C2 in FIG. 6, the outline EDL of the object OB increases as the distance from the viewpoint increases (the size of the object after perspective transformation decreases). The translucency is changed so that the contour line EDL becomes more transparent. Then, as shown in C3, when the distance from the viewpoint is sufficiently long (when the size of the object after perspective transformation is sufficiently small), the image of the contour line EDL is almost invisible. To do.

【0089】このようにすれば、図3のA2と図6のC
2を比較すれば明らかなように、輪郭線EDLの太さが
不必要に目立ってしまうという問題を解決できる。ま
た、図3のA3と図6のC3を比較すれば明らかなよう
に、オブジェクトOBが輪郭線EDLの色で塗りつぶさ
れたかのように見える画像が生成されてしまうという問
題も解決できる。即ち、オブジェクトOBの色が赤で輪
郭線EDLの色が黒の場合を例にとれば、視点からの距
離が十分に遠くなった場合にも、OBの色が黒く塗りつ
ぶされずに本来見えるべき赤になり、より自然な画像を
生成できる。
In this way, A2 in FIG. 3 and C in FIG.
As can be seen from a comparison of 2, it is possible to solve the problem that the thickness of the contour line EDL is unnecessarily noticeable. Further, as apparent from comparison between A3 in FIG. 3 and C3 in FIG. 6, it is possible to solve the problem that an image appears as if the object OB was filled with the color of the outline EDL. In other words, taking the case where the color of the object OB is red and the color of the contour line EDL is black as an example, even if the distance from the viewpoint is sufficiently long, the red color that should be originally visible without being blacked out. And a more natural image can be generated.

【0090】視点からの距離やオブジェクトの大きさに
応じて輪郭線の半透明度を制御する手法としては種々の
手法を考えることができる。
Various methods can be considered as a method for controlling the translucency of the contour line according to the distance from the viewpoint and the size of the object.

【0091】例えば図7(A)では、視点からの距離が
しきい値VTNよりも遠くなった場合に、半透明度αT
が近距離用のαTNから変化し始め、オブジェクトの輪
郭線が透明になり始める。これにより、輪郭線が徐々に
目立たなくなって行く。
For example, in FIG. 7A, when the distance from the viewpoint is longer than the threshold value VTN, the translucency αT
Starts to change from αTN for short distance, and the outline of the object starts to become transparent. As a result, the outline gradually becomes inconspicuous.

【0092】そして、視点からの距離がしきい値VTF
よりも遠くなった場合に、半透明度αTが遠距離用のα
TFに設定され、オブジェクトの輪郭線が図6のC3に
示すように例えば完全に透明になる(見えなくなる)。
これにより、オブジェクトが輪郭線の色で塗りつぶされ
る事態が防止される。
The distance from the viewpoint is the threshold value VTF.
The translucency αT is a long-range α
As shown in C3 in FIG. 6, for example, the object outline is completely transparent (not visible).
This prevents the object from being painted with the outline color.

【0093】また図7(B)では、オブジェクトの大き
さがしきい値VTNよりも小さくなった場合に、半透明
度αTがαTNから変化し始め、オブジェクトの輪郭線
が透明になり始める。
In FIG. 7B, when the size of the object becomes smaller than the threshold value VTN, the translucency αT starts to change from αTN, and the outline of the object starts to become transparent.

【0094】そして、オブジェクトの大きさがしきい値
VTFよりも小さくなった場合に、半透明度αTがαT
Fに設定され、オブジェクトの輪郭線が図6のC3に示
すように例えば完全に透明になる(見えなくなる)。
When the size of the object becomes smaller than the threshold value VTF, the translucency αT becomes αT
For example, the outline of the object becomes completely transparent (not visible) as indicated by C3 in FIG.

【0095】以上のように視点からの距離や透視変換後
のオブジェクトの大きさに応じて輪郭線の半透明度を変
化させれば、図3で説明した問題を効果的に解決するこ
とができる。
As described above, the problem described with reference to FIG. 3 can be effectively solved by changing the translucency of the contour line in accordance with the distance from the viewpoint and the size of the object after the perspective transformation.

【0096】なお、図5(A)、図7(A)における視
点からの距離は、処理負担の軽減化の観点からはオブジ
ェクト(オブジェクトの代表点)の奥行き距離(Z値)
であることが特に望ましいが、これに限定されない。例
えば、視点とオブジェクトの間の直線距離であってもよ
い。また、奥行き距離や直線距離以外にも、奥行き距離
や直線距離を変化させる場合と同様の効果を得ることが
できる均等なパラメータであればよい。
It should be noted that the distance from the viewpoint in FIGS. 5A and 7A is the depth distance (Z value) of the object (representative point of the object) from the viewpoint of reducing the processing load.
Although it is particularly desirable, it is not limited to this. For example, it may be a linear distance between the viewpoint and the object. In addition to the depth distance and the straight line distance, any equivalent parameter that can obtain the same effect as when the depth distance or the straight line distance is changed may be used.

【0097】また、図5(B)、図7(B)におけるオ
ブジェクトの大きさは、処理負担の軽減化の観点から
は、オブジェクトの総ピクセル数(縦のピクセル数×横
のピクセル数)であることが望ましいが、これに限定さ
れない。例えば、オブジェクトの縦のピクセル数又は横
のピクセル数の一方であってもよい。或いは、これらの
ピクセル数以外にも、これらのピクセル数を変化させる
場合と同等の効果を得ることができる均等なパラメータ
であればよい。
The size of the object in FIGS. 5B and 7B is the total number of pixels of the object (the number of vertical pixels × the number of horizontal pixels) from the viewpoint of reducing the processing load. Although it is desirable, it is not limited to this. For example, it may be one of the number of vertical pixels or the number of horizontal pixels of the object. Alternatively, in addition to the number of pixels, any equivalent parameter that can obtain the same effect as that obtained by changing the number of pixels may be used.

【0098】2.4 色及び半透明度の設定 さて、図8(A)に示すように、この種の3次元ゲーム
においては、オブジェクトOBが移動した場合に、オブ
ジェクトOBと視点VP(仮想カメラ)との間の距離を
ほぼ一定の距離ZVBに保ちながら、VPがOBに追従
する場面が多い。
2.4 Setting Color and Translucency As shown in FIG. 8A, in this type of three-dimensional game, when the object OB moves, the object OB and the viewpoint VP (virtual camera) In many cases, the VP follows the OB while keeping the distance between the VP and the ZVB at a substantially constant distance.

【0099】このような場面で、図4や図6に示すよう
に輪郭線の色や半透明度が視点からの距離やオブジェク
トの大きさに応じて頻繁に変化してしまうと、プレーヤ
に不自然に見える画像が生成されてしまう問題が生じ
る。
In such a scene, as shown in FIG. 4 and FIG. 6, if the color and translucency of the contour line frequently change according to the distance from the viewpoint and the size of the object, it is unnatural for the player. There arises a problem that an image that appears to be generated is generated.

【0100】そこで本実施形態では、視点VPからの距
離が、視点VPがオブジェクトOBに追従している時
(以下、追従移動モード時と呼ぶ)の距離ZVB付近で
ある場合には、OBの輪郭線の色や半透明度が略一定に
保たれるようにする。或いは、透視変換後のオブジェク
トOBの大きさが、追従移動モード時でのOBの大きさ
(距離ZVBの時の大きさ)付近である場合には、OB
の輪郭線の色や半透明度が略一定に保たれるようにす
る。より具体的には、距離ZVBよりも遠い距離(追従
時のOBの大きさよりも小さな値)に、しきい値VTN
を設定しておく。このようにすれば、図5(A)、
(B)、図7(A)、(B)の関数特性から明らかなよ
うに、追従移動モード時には輪郭線の色や半透明度は変
化しなくなる。これにより、視点VPのOBへの追従移
動モード時に不自然な画像が生成されてしまう上記問題
を解決できる。
Therefore, in this embodiment, when the distance from the viewpoint VP is near the distance ZVB when the viewpoint VP follows the object OB (hereinafter referred to as the following movement mode), the contour of the OB is obtained. Make sure that the color and translucency of the line is kept almost constant. Alternatively, when the size of the object OB after the perspective transformation is around the size of the OB in the follow movement mode (the size at the distance ZVB), the OB
So that the color and translucency of the contour line are kept substantially constant. More specifically, the threshold VTN is set to a distance farther than the distance ZVB (a value smaller than the size of the OB at the time of tracking).
Is set in advance. In this way, FIG.
As is apparent from the function characteristics of (B) and FIGS. 7 (A) and (B), the color and translucency of the contour line do not change during the follow movement mode. Thereby, the above-mentioned problem that an unnatural image is generated in the follow-up movement mode of the viewpoint VP to the OB can be solved.

【0101】そして、何らかのイベントが発生し、オブ
ジェクトOBに対する視点VPの追従移動モードが外
れ、VPとOBの距離がしきい値VTNよりも遠くなる
と(オブジェクトの大きさが小さくなると)、図4や図
6に示すように輪郭線の色や半透明度が視点VPからの
距離(OBの大きさ)に応じて変化するようになる。こ
れにより、上記イベントの発生により視点とオブジェク
トの距離が遠くなってしまい、輪郭線の相対的な太さが
不必要に目立ってしまうという問題も解決できる。
Then, when an event occurs, the follow-up movement mode of the viewpoint VP with respect to the object OB is removed, and the distance between VP and OB is longer than the threshold value VTN (when the size of the object is reduced), As shown in FIG. 6, the color and translucency of the contour line change according to the distance from the viewpoint VP (the size of the OB). This can also solve the problem that the distance between the viewpoint and the object is increased due to the occurrence of the event, and the relative thickness of the contour line is unnecessarily noticeable.

【0102】また、図5(A)、(B)、図7(A)、
(B)に示すように上限側のしきい値VTF(所与のし
きい値)を設定することで次のような効果を得ることが
できる。
Further, FIGS. 5A, 5B, 7A,
By setting the upper limit side threshold value VTF (given threshold value) as shown in (B), the following effects can be obtained.

【0103】即ち、オブジェクトOBの大きさが図3の
A3に示すように小さくなった場合に、輪郭線EDLが
薄い第2の色になっていなかったり、輪郭線EDLが完
全に透明になっていないと、OBがEDLの色に塗りつ
ぶされたかのように見える不自然な画像が生成されてし
まう。
That is, when the size of the object OB is reduced as shown by A3 in FIG. 3, the outline EDL is not a thin second color, or the outline EDL is completely transparent. Otherwise, an unnatural image is generated that looks as if OB is painted in the color of EDL.

【0104】そこで、オブジェクトOBの大きさが図3
のA3に示すような大きさの時に輪郭線EDLが色が薄
い第2の色になるように、或いは輪郭線EDLが完全に
透明になるような値に、しきい値VTFを設定してお
く。このようにすれば、オブジェクトOBの大きさが図
3のA3に示すような大きさの時には、図4のB3や図
6のC3に示すように輪郭線EDLが目立たなくなり、
図3のA3に示すような不自然な画像が生成される問題
を防止できる。
Therefore, the size of the object OB is as shown in FIG.
The threshold value VTF is set so that the contour line EDL becomes a second light color when the size is as shown in A3 of FIG. . In this way, when the size of the object OB is as shown in A3 of FIG. 3, the contour line EDL becomes inconspicuous as shown in B3 of FIG. 4 and C3 of FIG.
The problem of generating an unnatural image as indicated by A3 in FIG. 3 can be prevented.

【0105】また、しきい値VTNとVTFの間で輪郭
線の色や半透明度を変化させることで、輪郭線の色や半
透明度が変化する様子がプレーヤに気づかれてしまうと
いう問題も解決できる。
Further, by changing the color of the contour line and the translucency between the threshold values VTN and VTF, it is possible to solve the problem that the player notices how the color of the contour line and the translucency change. .

【0106】2.5 利点及び問題点 前述の図4〜図5(B)に示す輪郭線の色を制御する手
法では、図6〜図7(B)に示す輪郭線の半透明度を制
御する手法とは異なり、輪郭線の画像とオブジェクトの
画像との半透明処理が不要になる。従って、輪郭線の描
画順番を管理する処理が不要になり、他のオブジェクト
とのZソート処理が不要になるという利点がある。
2.5 Advantages and Problems In the method for controlling the color of the outline shown in FIGS. 4 to 5B, the translucency of the outline shown in FIGS. 6 to 7B is controlled. Unlike the method, translucent processing between the contour image and the object image is not required. Therefore, there is an advantage that processing for managing the drawing order of contour lines becomes unnecessary, and Z sort processing with other objects becomes unnecessary.

【0107】一方、図4〜図5(B)の輪郭線の色を制
御する手法では、次のような問題点がある。
On the other hand, the method for controlling the color of the contour line in FIGS. 4 to 5B has the following problems.

【0108】即ち、図9(A)のようにオブジェクトO
Bの色が単色(例えば赤)である場合には問題は生じな
い。しかし、オブジェクトOBの色が単色であることは
希であり、テクスチャがマッピングされたオブジェクト
OBの色は、通常、図9(B)のように2色以上の色に
なる。
That is, the object O as shown in FIG.
There is no problem when the color of B is a single color (for example, red). However, it is rare that the color of the object OB is a single color, and the color of the object OB to which the texture is mapped is usually two or more colors as shown in FIG. 9B.

【0109】このような場合に、輪郭線の色を制御する
手法により、輪郭線EDLの太さを目立たなくさせよう
としても、それほど効果を奏しない場合がある。
In such a case, even if it is attempted to make the thickness of the contour line EDL inconspicuous by the method of controlling the color of the contour line, there is a case where the effect is not so great.

【0110】即ち、図9(A)の場合には、視点からの
距離が遠くなるにつれて輪郭線EDLの色を例えば薄い
赤に変化させれば、オブジェクトOBの大きさが非常に
小さくなった場合にも輪郭線の太さが目立たなくなる。
That is, in the case of FIG. 9A, if the color of the contour line EDL is changed to light red, for example, as the distance from the viewpoint increases, the size of the object OB becomes very small. In addition, the thickness of the outline becomes inconspicuous.

【0111】しかしながら、図9(B)の場合には、視
点からの距離が遠くなるにつれて輪郭線EDLの色を薄
い赤に変化させても、D1に示す部分では、輪郭線ED
Lの太さは目立たなくなるが、D2に示す部分では、青
と赤の色の差が見えてしまうため、輪郭線EDLの太さ
が目立ったままの状態になる。
However, in the case of FIG. 9B, even if the color of the contour line EDL is changed to light red as the distance from the viewpoint increases, the contour line ED in the portion indicated by D1 is changed.
Although the thickness of L becomes inconspicuous, since the difference between the blue and red colors is visible in the portion indicated by D2, the thickness of the outline EDL remains conspicuous.

【0112】これに対して、図6〜図7(B)の輪郭線
の半透明度を制御する手法では、図9(B)のようにオ
ブジェクトOBの色が2色以上である場合にも、視点か
らの距離が遠くなった時の輪郭線EDLの太さを目立た
なくさせることができる。即ち、輪郭線の半透明度を制
御する手法では、D1に示す部分では、輪郭線EDLの
色はその部分でのオブジェクトの色である赤に近づくよ
うになり、D2に示す部分では、輪郭線EDLの色はそ
の部分でのオブジェクトの色である青に近づくようにな
るからである。
On the other hand, in the method of controlling the translucency of the contour line in FIGS. 6 to 7B, even when the color of the object OB is two or more as shown in FIG. 9B, The thickness of the contour line EDL when the distance from the viewpoint is long can be made inconspicuous. That is, in the method for controlling the translucency of the contour line, the color of the contour line EDL approaches the color red of the object in the portion indicated by D1, and the contour line EDL in the portion indicated by D2. This is because the color of becomes closer to blue which is the color of the object in that portion.

【0113】このように、オブジェクトOBの色が2色
以上である場合には、輪郭線の半透明度を制御する手法
の方が有利である。
As described above, when the object OB has two or more colors, the method of controlling the translucency of the outline is more advantageous.

【0114】但し、輪郭線の半透明度を制御する手法で
は、半透明度処理が行われるため、輪郭線の描画順序を
管理する処理が必要になるという不利点がある。
However, the method for controlling the semi-transparency of the contour line has a disadvantage that a process for managing the drawing order of the contour lines is required because the translucency process is performed.

【0115】特に、図10(A)のようにオブジェクト
OBの輪郭EDの外側領域に輪郭線EDLが描画される
場合には、輪郭線EDLと他のオブジェクトOB2(背
景)とのZソート処理が必要になる。
In particular, when the contour line EDL is drawn in the outer region of the contour ED of the object OB as shown in FIG. 10A, Z sort processing between the contour line EDL and another object OB2 (background) is performed. I need it.

【0116】この場合に、Zソート処理(陰面消去)が
適正に行われないと、図11(A)に示すように、輪郭
線EDLがオブジェクトOB2に隠れて見えなくなるな
どの問題が生じるおそれがある。
In this case, if the Z sort process (hidden surface removal) is not properly performed, there is a possibility that the contour line EDL may be hidden behind the object OB2 and become invisible as shown in FIG. is there.

【0117】また、適正にZソート処理を行ったとして
も、図11(B)のE1に示す部分とE2に示す部分と
で、輪郭線EDLの色が異なるようになってしまい、不
自然が画像が生成されてしまう。
Further, even if the Z sort process is properly performed, the color of the contour line EDL differs between the portion indicated by E1 and the portion indicated by E2 in FIG. An image is generated.

【0118】従って、輪郭線の半透明度を制御する手法
は、図10(A)のように輪郭EDの外側領域に輪郭線
EDLが描画される場合には不適であり、図10(B)
のように内側領域に輪郭線EDLが描画される場合に最
適な手法である。輪郭の内側領域に輪郭線が描画される
場合には、オブジェクトを先に描画し、その後に輪郭線
を描画するという描画順序を守るだけで、図11
(A)、(B)に示すような問題は生じなくなり、オブ
ジェクトと輪郭線とが適正に半透明合成されるようにな
るからである。
Therefore, the method of controlling the translucency of the contour line is not suitable when the contour line EDL is drawn in the outer region of the contour ED as shown in FIG. 10A, and FIG.
This is an optimal method when the contour line EDL is drawn in the inner region as shown in FIG. When the contour line is drawn in the inner area of the contour, the object is drawn first, and then the drawing order of drawing the contour line is followed.
This is because the problems shown in (A) and (B) do not occur, and the object and the outline are appropriately translucently combined.

【0119】逆に言えば、図10(A)のように、オブ
ジェクトOBの輪郭EDの外側領域に輪郭線EDLが描
画される場合には、図4〜図5(B)で説明した輪郭線
の色を制御する手法が好都合になる。輪郭線の色を制御
する手法では、図9(A)、(B)で説明した問題点が
あるものの、輪郭線の描画順序を考慮する必要が無く、
図11(A)、(B)に示すような問題が生じる可能性
が少ないからである。
In other words, when the contour line EDL is drawn in the outer region of the contour ED of the object OB as shown in FIG. 10A, the contour line described with reference to FIGS. The method of controlling the color of the image becomes convenient. Although the method for controlling the color of the contour line has the problems described in FIGS. 9A and 9B, it is not necessary to consider the drawing order of the contour line.
This is because there is little possibility that problems such as those shown in FIGS.

【0120】2.6 バイリニアフィルタ・テクスチャ
マッピングを利用した輪郭線描画さて本実施形態では、
バイリニアフィルタ方式(広義にはテクセル補間方式)
のテクスチャマッピングを有効利用して輪郭線を描画し
ている。
2.6 Outline Drawing Using Bilinear Filter / Texture Mapping In this embodiment,
Bilinear filter method (texel interpolation method in a broad sense)
The contour line is drawn by effectively using the texture mapping.

【0121】即ち、テクスチャマッピングにおいてはピ
クセルの位置とテクセルの位置がずれる場合がある。
That is, in the texture mapping, the pixel position and the texel position may be shifted.

【0122】この場合に、図12に示すように、ポイン
トサンプリング方式では、ピクセル(サンプリング点)
Pの色CP(広義には画像情報)は、Pに最も距離が近
いテクセルTAの色CAになる。
In this case, as shown in FIG. 12, in the point sampling method, pixels (sampling points) are used.
The color CP of P (image information in a broad sense) is the color CA of the texel TA closest to P.

【0123】一方、バイリニアフィルタ方式では、Pの
色CPは、Pの周りのテクセルTA、TB、TC、TD
の色CA、CB、CC、CDを補間した色になる。
On the other hand, in the bilinear filter system, the P color CP is determined by the texels TA, TB, TC, TD around P.
The colors CA, CB, CC and CD are interpolated.

【0124】より具体的には、TA〜TDの座標とPの
座標とに基づき、X軸方向の座標比β:1−β(0≦β
≦1)と、Y軸方向の座標比γ:1−γ(0≦γ≦1)
を求める。
More specifically, based on the coordinates of TA to TD and the coordinates of P, the coordinate ratio β: 1-β (0 ≦ β in the X-axis direction)
≦ 1) and the coordinate ratio γ in the Y-axis direction: 1−γ (0 ≦ γ ≦ 1)
Ask for.

【0125】この場合に、Pの色CP(バイリニアフィ
ルタ方式での出力色)は、下式のようになる。
In this case, the P color CP (output color in the bilinear filter system) is expressed by the following equation.

【0126】 CP=(1−β)×(1−γ)×CA+β×(1−γ)×CB +(1−β)×γ×CC+β×γ×CD (1) 本実施形態では、このようにバイリニアフィルタ方式で
は色が自動的に補間されることに着目して、輪郭線を描
画している。
CP = (1−β) × (1−γ) × CA + β × (1−γ) × CB + (1−β) × γ × CC + β × γ × CD (1) In this embodiment, in this way In contrast, in the bilinear filter method, attention is paid to the fact that the color is automatically interpolated, and the outline is drawn.

【0127】より具体的には、図13(A)に示すよう
に、オブジェクトOBの輪郭EDの内側領域にオブジェ
クト色が設定され、輪郭EDの外側領域に輪郭線色が設
定されるマッピング画像を生成する。そして、図14の
F1に示すように、このマッピング画像をテクスチャと
して設定する。そして、図14のF2に示すように、こ
のテクスチャを仮想ポリゴン(広義には仮想オブジェク
ト)にバイリニアフィルタ方式でマッピングする際に、
仮想ポリゴンの頂点に与えるテクスチャ座標を、例えば
(0.5、0.5)だけ右下方向にシフト(ずらす、移
動)させる。
More specifically, as shown in FIG. 13A, a mapping image in which the object color is set in the inner area of the outline ED of the object OB and the outline color is set in the outer area of the outline ED. Generate. Then, as shown by F1 in FIG. 14, this mapping image is set as a texture. Then, as shown in F2 of FIG. 14, when mapping this texture to a virtual polygon (virtual object in a broad sense) by the bilinear filter method,
The texture coordinates given to the vertices of the virtual polygon are shifted (shifted, moved) in the lower right direction by, for example, (0.5, 0.5).

【0128】このようにすることで、バイリニアフィル
タ方式の補間機能により自動的に、マッピング画像の各
ピクセルの色が周囲のピクセルににじむようになる。こ
れにより、図13(B)に示すように、オブジェクトO
Bの輪郭付近においてオブジェクト色と輪郭線色とが混
ざり合うようになり、オブジェクトOBの輪郭に沿って
輪郭線EDLが描画されるようになる。
By doing so, the color of each pixel of the mapping image is automatically blurred in the surrounding pixels by the bilinear filter type interpolation function. As a result, as shown in FIG.
In the vicinity of the outline of B, the object color and the outline color are mixed, and the outline EDL is drawn along the outline of the object OB.

【0129】そして、本実施形態の手法によれば、描画
領域上での2D(2次元)処理で輪郭線の画像を生成で
きる。従って、視線ベクトルと法線ベクトルとのなす角
度を求める処理などの3次元処理が不要となり、CPU
の処理負荷を軽減できる。
Then, according to the method of this embodiment, an image of a contour line can be generated by 2D (two-dimensional) processing on the drawing area. Therefore, three-dimensional processing such as processing for obtaining an angle formed by the line-of-sight vector and the normal vector is not required, and the CPU
Can reduce the processing load.

【0130】また、本実施形態の手法によれば、描画領
域への描画処理は、最低1回(又は2回)の仮想ポリゴ
ンの描画処理で済む。従って、輪郭線画像の生成に必要
な描画処理の回数を減らすことができ、描画プロセッサ
の処理負担を格段に軽減できる。
Also, according to the method of the present embodiment, the drawing process in the drawing area may be performed at least once (or twice) for drawing the virtual polygon. Therefore, it is possible to reduce the number of drawing processes necessary for generating the contour image, and to significantly reduce the processing load on the drawing processor.

【0131】なお、仮想ポリゴンの頂点VVX1、VV
X2、VVX3、VVX4の座標が(X、Y)=(X
0、Y0)、(X0、Y1)、(X1、Y1)、(X1、
Y0)であったとする。この場合に、仮想ポリゴンの頂
点VVX1、VVX2、VVX3、VVX4に与えるテ
クスチャ座標(U、V)を、各々、(X0、Y0)、
(X0、Y1)、(X1、Y1)、(X1、Y0)に設定
すれば、ピクセルの位置とテクセルの位置とがずれずに
一致する。従って、各ピクセルの色は周囲のピクセルに
対してしみ出さない。
Note that the vertices VVX1, VV of the virtual polygon
The coordinates of X2, VVX3, and VVX4 are (X, Y) = (X
0, Y0), (X0, Y1), (X1, Y1), (X1,
Y0). In this case, the texture coordinates (U, V) given to the vertices VVX1, VVX2, VVX3, VVX4 of the virtual polygon are respectively (X0, Y0),
If (X0, Y1), (X1, Y1), and (X1, Y0) are set, the pixel position matches the texel position without any deviation. Therefore, the color of each pixel does not exude to surrounding pixels.

【0132】これに対して、仮想ポリゴンの頂点VVX
1、VVX2、VVX3、VVX4に与えるテクスチャ
座標(U、V)を、各々、(X0+0.5、Y0+0.
5)、(X0+0.5、Y1+0.5)、(X1+0.
5、Y1+0.5)、(X1+0.5、Y0+0.5)
に設定すれば、ピクセルの位置とテクセルの位置とがず
れるようになる。従って、バイリニアフィルタ方式の補
間機能により、各ピクセルの色が周囲のピクセルに対し
てしみ出すようになる。
On the other hand, the vertex VVX of the virtual polygon
1, texture coordinates (U, V) given to VVX2, VVX3, and VVX4 are (X0 + 0.5, Y0 + 0.
5), (X0 + 0.5, Y1 + 0.5), (X1 + 0.
5, Y1 + 0.5), (X1 + 0.5, Y0 + 0.5)
If set to, the pixel position and the texel position are shifted. Therefore, the color of each pixel exudes to surrounding pixels by the bilinear filter type interpolation function.

【0133】より具体的には、テクスチャ座標を0.5
ピクセル(テクセル)だけ右下方向にシフトさせて、バ
イリニアフィルタ方式のテクスチャマッピングを行う
と、上式(1)においてβ=γ=1/2になる。従って
図15において、テクセルT44、T45、T54、T
55の色をC44、C45、C54、C55とすると、
ピクセルP44の色CP44は下式のようになる。
More specifically, the texture coordinates are set to 0.5.
When bilinear filter type texture mapping is performed by shifting pixels (texels) in the lower right direction, β = γ = 1/2 in the above equation (1). Accordingly, in FIG. 15, texels T44, T45, T54, T
If the color of 55 is C44, C45, C54, C55,
The color CP44 of the pixel P44 is as follows.

【0134】 CP44=(C44+C45+C54+C55)/4 (2)[0134]   CP44 = (C44 + C45 + C54 + C55) / 4 (2)

【0135】従って、テクスチャ座標を右下方向にシフ
トさせながらバイリニアフィルタ方式のテクスチャマッ
ピングを行うと、図15に示すように、テクセルT44
の色C44、即ちピクセルP44の元の色は、ピクセル
P33、P34、P43、P44に対して1/4ずつし
み出すことになる。これにより、輪郭線色とオブジェク
ト色が混ざり合った図13(B)に示すような輪郭線E
DLの画像を生成できるようになる。
Accordingly, when bilinear filter type texture mapping is performed while shifting the texture coordinates in the lower right direction, as shown in FIG.
Color C44, that is, the original color of the pixel P44 oozes out by 1/4 with respect to the pixels P33, P34, P43, and P44. As a result, the contour E as shown in FIG. 13B in which the contour color and the object color are mixed.
A DL image can be generated.

【0136】2.7 仮想ポリゴンの生成 さて、図14においてマッピング画像のマッピング対象
となる仮想ポリゴンとしては、種々の形状のものを使用
できる。
2.7 Generation of Virtual Polygon Virtual polygons to be mapped in the mapping image in FIG. 14 can have various shapes.

【0137】この場合、仮想ポリゴンとして画面サイズ
のポリゴンを使用すると、画面全体に対してバイリニア
フィルタ方式の補間処理が施されるようになる。
In this case, when a screen-sized polygon is used as the virtual polygon, the entire screen is subjected to bilinear filter type interpolation processing.

【0138】しかしながら、このように仮想ポリゴンと
して画面サイズのポリゴンを使用すると、処理に無駄が
あり、輪郭線の描画処理を今一つ効率化できないという
課題があることが判明した。
However, it has been found that if a screen-sized polygon is used as a virtual polygon in this way, the processing is wasted and the contour drawing process cannot be made more efficient.

【0139】即ち、3次元ゲームにおいては、プレーヤ
の操作入力などに応じてプレーヤの視点は任意の位置に
移動し、キャラクタなどを表現するオブジェクトも任意
の位置に移動する。従って、プレーヤの視点とオブジェ
クトとの間の距離も様々に変化し、視点とオブジェクト
との距離に応じて、透視変換後のオブジェクトの大きさ
(画面内でのオブジェクトの占有面積)も様々に変化す
るようになる。
That is, in a three-dimensional game, the player's viewpoint moves to an arbitrary position in accordance with the player's operation input, and an object representing a character or the like also moves to an arbitrary position. Therefore, the distance between the player's viewpoint and the object also changes variously, and the size of the object after perspective transformation (the area occupied by the object on the screen) also changes according to the distance between the viewpoint and the object. Will come to do.

【0140】例えば図16(A)に示すように、視点と
オブジェクトOBとの距離が近い場合には、透視変換後
のオブジェクトOBの大きさは大きくなる(画面での占
有面積が大きくなる)。
For example, as shown in FIG. 16A, when the distance between the viewpoint and the object OB is short, the size of the object OB after the perspective transformation is large (the occupied area on the screen is large).

【0141】一方、図16(B)に示すように、視点と
オブジェクトOBとの距離が遠い場合には、透視変換後
のオブジェクトOBの大きさは小さくなる(画面での占
有面積が小さくなる)。
On the other hand, as shown in FIG. 16B, when the distance between the viewpoint and the object OB is long, the size of the object OB after the perspective transformation is small (occupied area on the screen is small). .

【0142】図16(A)に示すように画面内でのオブ
ジェクトOBの占有面積が大きい場合には、マッピング
画像のマッピング対象となる仮想ポリゴンとして画面サ
イズのポリゴンを用いても、それほど不効率ではない。
As shown in FIG. 16A, when the area occupied by the object OB in the screen is large, even if a screen-sized polygon is used as a virtual polygon to be mapped in the mapping image, it is not very efficient. Absent.

【0143】ところが、図16(B)に示すように画面
内でのオブジェクトOBの占有面積が小さい場合には、
画面サイズのポリゴンを用いると、無駄な描画処理が行
われることになり、処理負荷が不必要に重くなってしま
う。
However, as shown in FIG. 16B, when the area occupied by the object OB in the screen is small,
If screen-size polygons are used, useless drawing processing is performed, and the processing load becomes unnecessarily heavy.

【0144】そこで本実施形態では、透視変換後のオブ
ジェクトOBの画像を内包し、透視変換後のOBの大き
さに応じてその大きさが変化する図16(A)、(B)
に示す仮想ポリゴンVPLを生成する。そして、この仮
想ポリゴンVPLに対してマッピング画像(図13
(A)参照)をマッピングするようにする。
Therefore, in this embodiment, the image of the object OB after perspective transformation is included, and the size changes according to the size of the OB after perspective transformation.
A virtual polygon VPL shown in FIG. Then, a mapping image (FIG. 13) is applied to the virtual polygon VPL.
(A) is mapped.

【0145】このようにすれば、視点とオブジェクトO
Bとの距離が変化し、画面内でのOBの占有面積が変化
した場合に、それに応じて仮想ポリゴンVPLの大きさ
も変化するようになる。例えば、視点とOBとの距離が
遠くなると、仮想ポリゴンVPLの大きさが小さくな
る。従って、描画処理の効率化を図れ、描画処理の負荷
を最適化できるようになる。
In this way, the viewpoint and the object O
When the distance from B changes and the area occupied by OB in the screen changes, the size of the virtual polygon VPL also changes accordingly. For example, as the distance between the viewpoint and OB increases, the size of the virtual polygon VPL decreases. Therefore, the efficiency of the drawing process can be improved, and the load of the drawing process can be optimized.

【0146】なお、オブジェクトがパーツオブジェクト
により構成される場合には、各パーツオブジェクト毎に
仮想ポリゴンを生成するようにしてもよい。また、オブ
ジェクトの一部(例えば目、口)にだけ処理を施す場合
には、透視変換後のオブジェクトの一部を内包するよう
な仮想ポリゴンを生成するようにしてもよい。
If the object is composed of part objects, a virtual polygon may be generated for each part object. When processing is performed only on a part of the object (for example, eyes and mouth), a virtual polygon that includes a part of the object after perspective transformation may be generated.

【0147】さて、仮想ポリゴンの生成手法としては種
々の手法を考えることができる。
Various methods can be considered as a method for generating a virtual polygon.

【0148】第1の手法では、図17(A)、(B)に
示すように、透視変換後のオブジェクトOBの頂点(広
義には自由曲面の制御点なども含む定義点)VX1〜V
X6等の座標に基づいて、仮想ポリゴンVPLを生成す
る。
In the first method, as shown in FIGS. 17A and 17B, the vertices of the object OB after perspective transformation (definition points including control points of a free-form surface in a broad sense) VX1 to VX.
A virtual polygon VPL is generated based on coordinates such as X6.

【0149】より具体的には、オブジェクトOBの頂点
のX、Y座標の最小値XMIN、YMIN、最大値XM
AX、YMAXに基づいて、仮想ポリゴンVPLの頂点
VVX1(XMIN、YMIN)、VVX2(XMI
N、YMAX)、VVX3(XMAX、YMAX)、V
VX4(XMAX、YMIN)を求め、仮想ポリゴンV
PLを生成する。
More specifically, the minimum value XMIN, YMIN, maximum value XM of the X and Y coordinates of the vertex of the object OB.
Based on AX and YMAX, vertices VVX1 (XMIN, YMIN), VVX2 (XMI) of virtual polygon VPL
N, YMAX), VVX3 (XMAX, YMAX), V
VX4 (XMAX, YMIN) is obtained, and virtual polygon V
PL is generated.

【0150】この第1の手法によれば、仮想ポリゴンV
PLの大きさを、透視変換後のオブジェクトOBの大き
さに応じて最適に小さくできるため、仮想ポリゴンVP
Lの描画処理の負荷が軽くなるという利点がある。一
方、オブジェクトOBの頂点が多い場合には、それらの
頂点のX、Y座標の最小値、最大値を求める処理の負荷
が重くなるという欠点がある。
According to the first method, the virtual polygon V
Since the size of PL can be optimally reduced according to the size of the object OB after the perspective transformation, the virtual polygon VP
There is an advantage that the load of the L drawing process is reduced. On the other hand, when there are many vertices of the object OB, there is a drawback that the processing load for obtaining the minimum and maximum values of the X and Y coordinates of those vertices becomes heavy.

【0151】第2の手法では、図18(A)に示すよう
に、オブジェクトOBを内包する簡易オブジェクトSO
B(バウンディングボックス、バウンディングボリュー
ム)を利用する。この簡易オブジェクトSOBは、オブ
ジェクトOBのヒットチェック処理等のために使用され
るものである。本実施形態ではこの簡易オブジェクトS
OBを有効利用し、透視変換後の簡易オブジェクトSO
Bの頂点(広義には定義点)の座標に基づいて、仮想ポ
リゴンVPLを生成する。
In the second method, as shown in FIG. 18A, a simple object SO that contains an object OB.
B (bounding box, bounding volume) is used. This simple object SOB is used for hit check processing of the object OB and the like. In the present embodiment, this simple object S
Simple object SO after perspective transformation using OB effectively
Based on the coordinates of the vertex of B (definition point in a broad sense), a virtual polygon VPL is generated.

【0152】より具体的には図18(B)に示すよう
に、透視変換後の簡易オブジェクトSOBの頂点VSX
1〜VSX8のX、Y座標の最小値、最大値に基づい
て、仮想ポリゴンVPLの頂点VVX1〜VVX4を求
め、仮想ポリゴンVPLを生成する。
More specifically, as shown in FIG. 18B, the vertex VSX of the simple object SOB after perspective transformation.
The vertices VVX1 to VVX4 of the virtual polygon VPL are obtained based on the minimum and maximum values of the X and Y coordinates of 1 to VSX8 to generate the virtual polygon VPL.

【0153】この第2の手法によれば、オブジェクトO
Bに比べて頂点数が少ない簡易オブジェクトSOBを用
いるため、頂点のX、Y座標の最小値、最大値を求める
処理の負荷が軽くなるという利点がある。一方、第1の
手法に比べて、仮想ポリゴンVPLの大きさが大きくな
ってしまうため、仮想ポリゴンVPLの描画処理の負荷
が第1の手法に比べて重くなるという欠点がある。
According to this second method, the object O
Since the simple object SOB having a smaller number of vertices than B is used, there is an advantage that the processing load for obtaining the minimum and maximum values of the X and Y coordinates of the vertices is reduced. On the other hand, since the size of the virtual polygon VPL is larger than that of the first method, there is a drawback that the drawing processing load of the virtual polygon VPL becomes heavier than that of the first method.

【0154】なお、仮想ポリゴンVPLの大きさを、図
17(A)、(B)、図18(B)に示す大きさよりも
上下左右方向に若干だけ大きくするようにしてもよい
(例えば1ピクセル分だけ大きくする)。特に、オブジ
ェクトの輪郭の外側領域に輪郭線が描画される場合に
は、このように仮想ポリゴンの大きさをスケーリングす
る手法は有効である。
Note that the size of the virtual polygon VPL may be slightly larger in the vertical and horizontal directions than the sizes shown in FIGS. 17A, 17B, and 18B (for example, one pixel). Make it bigger). In particular, when a contour line is drawn in the outer region of the contour of the object, a technique for scaling the size of the virtual polygon in this way is effective.

【0155】また、透視変換後のオブジェクトの大きさ
に応じて仮想ポリゴンの大きさを変化させる手法は、上
述の第1、第2の手法に限定されない。例えば、視点と
オブジェクトとの間の距離に応じて仮想ポリゴンの大き
さを適宜変化させるようにしてもよい。
Further, the method of changing the size of the virtual polygon according to the size of the object after the perspective transformation is not limited to the first and second methods described above. For example, the size of the virtual polygon may be appropriately changed according to the distance between the viewpoint and the object.

【0156】また、図4、図5(B)、図6、図7
(B)で説明したように、透視変換後のオブジェクトの
大きさに応じて輪郭線の半透明度を変化させる場合に
は、図16(A)〜図18(B)の手法で生成された仮
想ポリゴン(仮想オブジェクト)の大きさ(ピクセル
数)を求め、その大きさに基づいて輪郭線の半透明度を
変化させればよい。
Also, FIG. 4, FIG. 5 (B), FIG. 6, FIG.
As described in (B), when the translucency of the contour line is changed according to the size of the object after the perspective transformation, the virtual generated by the method of FIGS. 16 (A) to 18 (B). The size (number of pixels) of the polygon (virtual object) may be obtained, and the translucency of the contour line may be changed based on the size.

【0157】2.8 輪郭線画像 次に、オブジェクトの輪郭線の画像を生成する手法につ
いて説明する。
2.8 Outline Image Next, a method for generating an outline image of an object will be described.

【0158】本実施形態では上述の2.6で説明したバ
イリニアフィルタ方式のテクスチャマッピングを利用し
て輪郭線(edge line)の画像を生成している。
In this embodiment, an edge line image is generated using the texture mapping of the bilinear filter method described in 2.6 above.

【0159】2.8.1 マッピング画像の生成 より具体的には、まず前処理として、ワークバッファ
(エフェクトバッファ)を輪郭線の画像情報(RL、G
L、BL、αL)で初期化する。即ち、各ピクセルの色
を輪郭線の色(RL、GL、BL)に設定すると共に、
α値をαL(=0)に設定する。
2.8.1 More specifically, the mapping image is generated. First, as preprocessing, the work buffer (effect buffer) is set to contour image information (RL, G
L, BL, αL). That is, the color of each pixel is set to the outline color (RL, GL, BL), and
The α value is set to αL (= 0).

【0160】次に、輪郭線付加の対象となるオブジェク
トOBをワークバッファに描画する。この場合に、オブ
ジェクトOBの頂点のα値(A値)をαJ(>0)に設
定しておく。なお、説明を簡単にするために、オブジェ
クトOBの色は単色の(RJ、GJ、BJ)であるとす
る。
Next, the object OB to be contoured is drawn in the work buffer. In this case, the α value (A value) of the vertex of the object OB is set to αJ (> 0). For the sake of simplicity, it is assumed that the color of the object OB is a single color (RJ, GJ, BJ).

【0161】以上のようにすることで、ワークバッファ
には図19に示すような画像(マッピング画像)が描画
されることになる。
As described above, an image (mapping image) as shown in FIG. 19 is drawn in the work buffer.

【0162】即ち、オブジェクトOBの輪郭EDの内側
領域はOBの色(RJ、GJ、BJ)に設定され、輪郭
EDの外側領域は輪郭線の色(RL、GL、BL)に設
定される。また、内側領域のα値はαJ(>0)に設定
され、外側領域のα値はαL(=0)に設定される。
That is, the inner area of the contour ED of the object OB is set to the OB color (RJ, GJ, BJ), and the outer area of the contour ED is set to the outline color (RL, GL, BL). The α value of the inner area is set to αJ (> 0), and the α value of the outer area is set to αL (= 0).

【0163】なお、図19に示すα値の設定は一例であ
り、少なくとも外側領域のα値と内側領域のα値が異な
った値に設定されていればよい。
Note that the setting of the α value shown in FIG. 19 is merely an example, and it is sufficient that at least the α value of the outer region and the α value of the inner region are set to different values.

【0164】2.8.2 バイリニアフィルタ方式での
テクスチャマッピング 次に、図19に示すワークバッファ上のマッピング画像
をフレームバッファ上の同じ位置に描画する。
2.8.2 Texture Mapping by Bilinear Filter Method Next, the mapping image on the work buffer shown in FIG. 19 is drawn at the same position on the frame buffer.

【0165】より具体的には図20に示すように、ワー
クバッファ上のマッピング画像を仮想ポリゴン(広義に
は仮想オブジェクト)にマッピングしながら、その仮想
ポリゴンをフレームバッファに描画する。
More specifically, as shown in FIG. 20, while mapping the mapping image on the work buffer to a virtual polygon (virtual object in a broad sense), the virtual polygon is drawn on the frame buffer.

【0166】この場合に、図16(A)〜図18(B)
で説明したように、オブジェクトを内包し且つ透視変換
後のオブジェクトの大きさに応じてその大きさが変化す
るような形状の仮想ポリゴン(エフェクト領域)を生成
し、その仮想ポリゴンに対してワークバッファ上のマッ
ピング画像をマッピングする。
In this case, FIGS. 16A to 18B.
As described above, a virtual polygon (effect area) that contains an object and changes its size according to the size of the object after perspective transformation is generated, and a work buffer is created for the virtual polygon. Map the top mapping image.

【0167】また、このテクスチャマッピングの際に、 バイリニアフィルタ(テクセル補間)方式を選択し、 図14で説明したようにテクスチャ座標を例えば+
0.5ピクセル(テクセル)だけシフトさせ(ずら
す)、 ソースαテスト(書き込み元であるマッピング画像に
対するαテスト)でα>0のピクセル(αが0でないピ
クセル)だけを合格にする。
In addition, when this texture mapping is performed, a bilinear filter (texel interpolation) method is selected, and the texture coordinates are, for example, +
Shift (shift) by 0.5 pixels (texels), and pass only pixels with α> 0 (pixels where α is not 0) in the source α test (α test for the mapping image as the writing source).

【0168】これにより、オブジェクトOBに対して輪
郭線EDLが付与された図21に示すような画像が生成
される。
Thus, an image as shown in FIG. 21 in which the outline EDL is given to the object OB is generated.

【0169】即ち、バイリニアフィルタを選択すると共
にテクスチャ座標をシフトさせることで、ワークバッフ
ァ上のマッピング画像の各ピクセルに設定される色及び
α値(A値)の補間が行われるようになる。
That is, by selecting the bilinear filter and shifting the texture coordinates, interpolation of the color and α value (A value) set for each pixel of the mapping image on the work buffer is performed.

【0170】例えば描画ピクセルの位置が(X、Y)
で、テクスチャ座標U、Vを+0.5ピクセル(テクセ
ル)だけシフトしたとすると、テクスチャサンプリング
時には、(X、Y)、(X+1、Y)、(X、Y+
1)、(X+1、Y+1)の4つのピクセルの位置にあ
る色及びα値が参照されることになる。この結果、最終
的に描画されるテクセルの色及びα値は、上記の4つの
ピクセルの色及びα値の平均となる。例えば図22に示
すように、テクスチャ座標を右下方向にシフトさせた場
合には、ピクセルB、C、DのRGB、α値が1/4ず
つピクセルAに対してしみ出すことになる。これを式で
表すと下式のようになる。
For example, the position of the drawing pixel is (X, Y).
If the texture coordinates U and V are shifted by +0.5 pixel (texel), at the time of texture sampling, (X, Y), (X + 1, Y), (X, Y +
The color and α value at the positions of the four pixels 1) and (X + 1, Y + 1) are referred to. As a result, the color and α value of the texel to be finally drawn are the average of the color and α value of the above four pixels. For example, as shown in FIG. 22, when the texture coordinates are shifted in the lower right direction, the RGB and α values of the pixels B, C, and D ooze out from the pixel A by ¼. This is expressed by the following equation.

【0171】 R=(RA+RB+RC+RD)/4 G=(GA+GB+GC+GD)/4 B=(BA+BB+BC+BD)/4 α=(αA+αB+αC+αD)/4 (3)[0171] R = (RA + RB + RC + RD) / 4 G = (GA + GB + GC + GD) / 4 B = (BA + BB + BC + BD) / 4 α = (αA + αB + αC + αD) / 4 (3)

【0172】上式において、R、G、B、αは、補間に
より得られる色及びα値(補間後のピクセルAの色及び
α値)である。また、(RA、GA、BA、αA)、
(RB、GB、BB、αB)、(RC、GC、BC、α
C)(RD、GD、BD、αD)は、各々、補間前のピ
クセルA、B、C、Dの色及びα値である。
In the above equation, R, G, B, and α are the color and α value obtained by interpolation (the color and α value of pixel A after interpolation). Also, (RA, GA, BA, αA),
(RB, GB, BB, αB), (RC, GC, BC, α
C) (RD, GD, BD, αD) are the colors and α values of the pixels A, B, C, D before interpolation, respectively.

【0173】以上のように、テクスチャ座標を右下方向
に0.5ピクセルだけシフトさせると、ピクセルB、
C、DのRGB、α値が1/4ずつピクセルAに対して
しみ出す。従って、図21のH1に示す部分では、図2
3(A)に示すように、輪郭EDの内側領域においてオ
ブジェクトOBの色(RJ、GJ、BJ)と輪郭線の色
(RL、GL、BL)とが合成され、輪郭EDの内側領
域に輪郭線EDLの画像が生成されるようになる。
As described above, when the texture coordinates are shifted by 0.5 pixels in the lower right direction, pixel B,
The RGB values of C and D ooze out from the pixel A by 1/4 each. Therefore, in the portion indicated by H1 in FIG.
As shown in FIG. 3 (A), the color (RJ, GJ, BJ) of the object OB and the color of the contour line (RL, GL, BL) are synthesized in the inner region of the contour ED, and the contour is formed in the inner region of the contour ED. An image of the line EDL is generated.

【0174】なお、この輪郭線の色(RL、GL、B
L)は、図19に示すようにワークバッファにおいて輪
郭EDの外側領域に設定された色である。
Note that the colors of the contour lines (RL, GL, B
L) is a color set in the outer region of the contour ED in the work buffer as shown in FIG.

【0175】一方、図21のH2に示す部分では、図2
3(B)に示すように、輪郭EDの外側領域においてオ
ブジェクトOBの色(RJ、GJ、BJ)と輪郭線の色
(RL、GL、BL)とが合成され、輪郭EDの外側領
域に輪郭線EDLの画像が生成されるようになる。これ
によって、結局、図21に示すように、オブジェクトO
Bの輪郭EDに沿って輪郭線EDLが描画されるように
なる。
On the other hand, in the portion indicated by H2 in FIG.
As shown in FIG. 3B, the color (RJ, GJ, BJ) of the object OB and the color of the outline (RL, GL, BL) are synthesized in the outer region of the contour ED, and the contour is formed in the outer region of the contour ED. An image of the line EDL is generated. As a result, as shown in FIG.
The contour line EDL is drawn along the contour ED of B.

【0176】なお、本実施形態においては、色のみなら
ずα値もバイリニアフィルタによる補間処理の対象にな
る。従って、輪郭線EDLに設定されるα値も、オブジ
ェクトOBのαJと輪郭線のαLとを合成したα値にな
る。
In the present embodiment, not only the color but also the α value are subjected to interpolation processing by the bilinear filter. Accordingly, the α value set for the contour line EDL is also an α value obtained by combining αJ of the object OB and αL of the contour line.

【0177】以上のことを更に詳しく説明すると以下の
ようになる。
The above will be described in more detail as follows.

【0178】(I)参照される周りのピクセルが全て輪
郭線色になっているピクセル 図23(A)のI1や図23(B)のI2に示すピクセ
ルでは、参照される周りのピクセル(テクセル)のRG
B及びα値は全て(RL、GL、BL、αL)になって
いる。従って、上式(3)において(RA、GA、B
A、αA)=(RB、GB、BB、αB)=(RC、G
C、BC、αC)=(RD、GD、BD、αD)=(R
L、GL、BL、αL)となるため、補間後のRGB及
びα値は(R、G、B、α)=(RL、GL、BL、α
L)になる。
(I) Pixels in which all the surrounding pixels to be referred to have a contour color In the pixels indicated by I1 in FIG. 23A and I2 in FIG. 23B, the surrounding pixels (texels) ) RG
The B and α values are all (RL, GL, BL, αL). Therefore, in the above equation (3) (RA, GA, B
A, αA) = (RB, GB, BB, αB) = (RC, G
C, BC, αC) = (RD, GD, BD, αD) = (R
L, GL, BL, αL), the RGB and α values after interpolation are (R, G, B, α) = (RL, GL, BL, α
L).

【0179】この時、α=αL=0に設定されているた
め(図19参照)、α>0のピクセルのみを合格にする
ソースαテストが不合格となり、これらのピクセルにつ
いては描画が禁止される。
At this time, since α = αL = 0 is set (see FIG. 19), the source α test that passes only pixels with α> 0 fails, and drawing is prohibited for these pixels. The

【0180】(II)輪郭線色のピクセルとオブジェクト
色のピクセルの双方が参照されるピクセル 図23(A)のI3や図23(B)のI4に示すような
ピクセルでは、その周りに、(RL、GL、BL、α
L)のピクセル(テクセル)と(RJ、GJ、BJ、α
J)のピクセル(テクセル)が混在する。この場合、
(RJ、GJ、BJ、αJ)のピクセルの数をK個とす
ると、上式(3)により補間後の(R、G、B、α)は
下式のようになる。
(II) Pixels to which both the pixel of the outline color and the pixel of the object color are referred. In the pixel as shown in I3 of FIG. 23A or I4 of FIG. RL, GL, BL, α
L) pixels (texels) and (RJ, GJ, BJ, α
J) pixels (texels) are mixed. in this case,
When the number of pixels (RJ, GJ, BJ, αJ) is K, (R, G, B, α) after interpolation according to the above equation (3) is as follows.

【0181】 R={RJ×K+RL×(4−K)}/4 G={GJ×K+GL×(4−K)}/4 B={BJ×K+BL×(4−K)}/4 α={αJ×K+αL×(4−K)}/4 (4)[0181] R = {RJ × K + RL × (4-K)} / 4 G = {GJ × K + GL × (4-K)} / 4 B = {BJ × K + BL × (4-K)} / 4 α = {αJ × K + αL × (4-K)} / 4 (4)

【0182】上式(4)のように、補間後のピクセルの
色は、オブジェクトOBの色(RJ、GJ、BJ、α
J)と輪郭線の色(RL、GL、BL、αL)とが混合
された色になる。
As shown in the above equation (4), the color of the pixel after interpolation is the color of the object OB (RJ, GJ, BJ, α
J) and the outline colors (RL, GL, BL, αL) are mixed.

【0183】また、αJ>0、1≦K≦3、αL=0で
あるため、0<α<αJとなり、α>0のピクセルのみ
を合格にするソースαテストが合格となり、これらのピ
クセルについては必ず描画されるようになる。
Also, since αJ> 0, 1 ≦ K ≦ 3, and αL = 0, 0 <α <αJ, and the source α test that passes only pixels with α> 0 is passed, and for these pixels, Will always be drawn.

【0184】(III)参照される周りのピクセルが全て
オブジェクト色になっているピクセル 図23(A)のI5や図23(B)のI6に示すピクセ
ルでは、参照される周りのピクセル(テクセル)のRG
B及びα値は全て(RJ、GJ、BJ、αJ)になって
いる。従って、上式(3)において(RA、GA、B
A、αA)=(RB、GB、BB、αB)=(RC、G
C、BC、αC)=(RD、GD、BD、αD)=(R
J、GJ、BJ、αJ)となるため、補間後のRGB及
びα値は(R、G、B、α)=(RJ、GJ、BJ、α
J)になる。
(III) Pixels in which all the surrounding pixels referred to are the object color In the pixels indicated by I5 in FIG. 23A and I6 in FIG. 23B, the surrounding pixels (texels) to be referred to RG
The B and α values are all (RJ, GJ, BJ, αJ). Therefore, in the above equation (3) (RA, GA, B
A, αA) = (RB, GB, BB, αB) = (RC, G
C, BC, αC) = (RD, GD, BD, αD) = (R
J, GJ, BJ, αJ), the RGB and α values after interpolation are (R, G, B, α) = (RJ, GJ, BJ, α
J).

【0185】この時、α=αJ>0に設定されているた
め(図19参照)、α>0のピクセルのみを合格にする
ソースαテストが合格となり、これらのピクセルについ
てはオブジェクトの色がそのまま描画されるようにな
る。
At this time, since α = αJ> 0 is set (see FIG. 19), the source α test in which only pixels with α> 0 are passed is passed, and the object color remains unchanged for these pixels. It will be drawn.

【0186】以上のようにしてフレームバッファに図2
1に示すような画像を描画できるようになる。
As described above, the frame buffer shown in FIG.
The image as shown in 1 can be drawn.

【0187】そして、図21では、オブジェクトOBの
輪郭EDの外側領域にも輪郭線EDLが描画される。従
って、この場合には、前述の図4〜図5(B)のように
視点からの距離や透視変換後のオブジェクトの大きさに
応じて輪郭線の色を制御する手法を採用することが望ま
しい。
In FIG. 21, the contour line EDL is also drawn in the region outside the contour ED of the object OB. Therefore, in this case, it is desirable to employ a method of controlling the color of the contour line according to the distance from the viewpoint and the size of the object after perspective transformation as shown in FIGS. .

【0188】なお、図21では、オブジェクトOBの輪
郭EDの付近のみならずOBの全体に対してバイリニア
フィルタによる補間処理が施されてしまい、オブジェク
トOBの全体がぼけた画像になってしまう。そこで本実
施形態では、次のような手法を採用して、オブジェクト
OBの全体がぼけた画像になってしまう問題を解消して
いる。
In FIG. 21, not only the vicinity of the contour ED of the object OB but also the entire OB is subjected to interpolation processing by the bilinear filter, resulting in a blurred image of the entire object OB. Therefore, in the present embodiment, the following technique is employed to solve the problem that the entire object OB becomes a blurred image.

【0189】2.8.3 フレームバッファへのオブジ
ェクトの描画 前述の2.8.2と同様に、図19に示すワークバッフ
ァのマッピング画像をフレームバッファ上の同じ位置に
描画する。具体的には、ワークバッファ上のマッピング
画像を仮想ポリゴンにマッピングしながら、その仮想ポ
リゴンをフレームバッファに描画する。
2.8.3 Drawing an Object in the Frame Buffer As in the above-mentioned 2.8.2, the work buffer mapping image shown in FIG. 19 is drawn at the same position on the frame buffer. Specifically, the virtual polygon is drawn on the frame buffer while mapping the mapping image on the work buffer to the virtual polygon.

【0190】この場合に、図16(A)〜図18(B)
で説明したように、オブジェクトを内包し且つ透視変換
後のオブジェクトの大きさに応じてその大きさが変化す
るような形状の仮想ポリゴン(エフェクト領域)を生成
し、その仮想ポリゴンに対してワークバッファ上のマッ
ピング画像をマッピングする。
In this case, FIG. 16 (A) to FIG. 18 (B).
As described above, a virtual polygon (effect area) that contains an object and changes its size according to the size of the object after perspective transformation is generated, and a work buffer is created for the virtual polygon. Map the top mapping image.

【0191】また、図21で描画された輪郭線EDLの
画像が上書きにより消えてしまわないように、ソースα
テストとデスティネーションαテストとを併用する。
Further, in order to prevent the image of the contour line EDL drawn in FIG. 21 from being erased by overwriting, the source α
The test and the destination α test are used together.

【0192】即ち図24に示すように、 テクスチャ座標はシフトさせず、 ソースαテスト(書き込み元であるマッピング画像に
対するαテスト)でα>0のピクセルだけを合格にし、 デスティネーションαテスト(書き込み先であるフレ
ームバッファの画像に対するαテスト)でα=αJのピ
クセルだけを合格にする。
That is, as shown in FIG. 24, the texture coordinates are not shifted, and only pixels with α> 0 are passed in the source α test (α test for the mapping image as the writing source), and the destination α test (writing destination) Only α = αJ pixels are passed in the α test for the frame buffer image.

【0193】上記の条件により、ワークバッファ上の
マッピング画像が補間されずにそのままフレームバッフ
ァに描画される。
Under the above conditions, the mapping image on the work buffer is directly drawn in the frame buffer without interpolation.

【0194】の条件により、マッピング画像(ワーク
バッファの画像)の中で、輪郭線色に設定されたピクセ
ルについては描画が禁止される。
Under the condition, drawing is prohibited for the pixels set to the outline color in the mapping image (work buffer image).

【0195】の条件により、図21で輪郭線の画像が
描画されている0<α<αJのピクセルの領域に対する
上書きが禁止される。即ち、オブジェクトOBの輪郭E
Dの内側領域から、OBの輪郭線EDL(具体的には右
辺及び下辺のEDL)の領域を除いた領域に対してだ
け、ワークバッファ上のぼけていないオブジェクトOB
の画像が描画される。これにより、オブジェクトOBの
全体がぼけた画像になってしまうという問題を解消でき
る。
According to the condition, overwriting is prohibited for the pixel region of 0 <α <αJ in which the contour image is drawn in FIG. That is, the contour E of the object OB
A non-blurred object OB on the work buffer only for the area excluding the area of the OB outline EDL (specifically, the right side and lower side EDL) from the inner area of D.
The image is drawn. Thereby, the problem that the entire object OB becomes a blurred image can be solved.

【0196】以上のように本実施形態の1つの特徴は、
オブジェクトOBの輪郭EDの内側領域と外側領域とで
α値を異ならせると共に(図19)、色のみならずα値
もバイリニアフィルタにより補間し、補間後のα値に基
づいて種々の判別を行っている点にある。即ち、補間後
のα値に基づいて、オブジェクトOBの輪郭線EDLの
領域(0<α<αJとなる領域)を判別したり、輪郭E
Dの内側領域から輪郭線EDLの領域を除いた領域を判
別したりする。このようにすることで、少ない処理負担
で、オブジェクトOBの輪郭線EDLを生成できるよう
になる。
As described above, one feature of this embodiment is that
The α value is made different between the inner region and the outer region of the contour ED of the object OB (FIG. 19), and not only the color but also the α value is interpolated by the bilinear filter, and various discriminations are performed based on the α value after the interpolation. There is in point. That is, based on the α value after interpolation, the region of the contour EDL of the object OB (region where 0 <α <αJ) is determined, or the contour E
A region obtained by removing the region of the contour line EDL from the inner region of D is determined. By doing so, the contour line EDL of the object OB can be generated with a small processing load.

【0197】2.9 内側領域への輪郭線の描画 次に、オブジェクトの輪郭の内側領域に輪郭線を描画す
る手法について説明する。
2.9 Drawing Contour Line on Inner Area Next, a method for drawing a contour line on the inner area of the contour of the object will be described.

【0198】2.9.1 マッピング画像の生成 まず、前述の2.8.1と同様の手法により図19に示
すようなマッピング画像を生成する。
2.9.1 Generation of Mapping Image First, a mapping image as shown in FIG. 19 is generated by the same method as in 2.8.1 described above.

【0199】2.9.2 α(マスク)プレーンの生成 次に、図19に示すワークバッファ上のマッピング画像
の中のα(マスク)プレーンのみをフレームバッファに
描画する。
2.9.2 Generation of α (Mask) Plane Next, only the α (mask) plane in the mapping image on the work buffer shown in FIG. 19 is drawn in the frame buffer.

【0200】より具体的には、ワークバッファ上のマッ
ピング画像を仮想ポリゴンにマッピングしながら、その
仮想ポリゴンをフレームバッファに描画し、マッピング
画像の中のαプレーンのみをフレームバッファに描画す
る。
More specifically, while mapping the mapping image on the work buffer to the virtual polygon, the virtual polygon is drawn on the frame buffer, and only the α plane in the mapping image is drawn on the frame buffer.

【0201】以上により、フレームバッファ上には、図
25に示すようにオブジェクトOBの輪郭EDの内側領
域ではα=αJ(>0)に設定され、外側領域ではα=
αL(=0)に設定されたα(マスク)プレーンが生成
されることになる。
As described above, α = αJ (> 0) is set in the inner region of the outline ED of the object OB on the frame buffer, and α = α in the outer region, as shown in FIG.
An α (mask) plane set to αL (= 0) is generated.

【0202】2.9.3 オブジェクトの画像の描画 次に、オブジェクトOBの画像をフレームバッファに描
画する。このようにオブジェクトOBの画像をフレーム
バッファに先に描画しておくことで、オブジェクトの画
像と輪郭線の画像との半透明合成(αブレンディング)
が可能になる。
2.9.3 Drawing Object Image Next, the object OB image is drawn in the frame buffer. By rendering the object OB image first in the frame buffer in this way, translucent synthesis (α blending) of the object image and the contour image is performed.
Is possible.

【0203】より具体的には、ワークバッファ上のマッ
ピング画像を仮想ポリゴンにマッピングしながら、その
仮想ポリゴンをフレームバッファに描画する。
More specifically, the virtual polygon is drawn on the frame buffer while mapping the mapping image on the work buffer to the virtual polygon.

【0204】そして、このテクスチャマッピングの際
に、 図25で描画されたαプレーンを壊さないように、α
プレーンの描画をマスクし、 ソースαテストでα=αJのピクセルのみを合格にす
る。
Then, in the texture mapping, α is drawn so as not to break the α plane drawn in FIG.
Mask the plane drawing and pass only pixels with α = αJ in the source α test.

【0205】以上により図26に示すように、フレーム
バッファは、オブジェクトOBの画像(元画像)と図2
5で生成されたαプレーンとが描画された状態になる。
As described above, as shown in FIG. 26, the frame buffer stores the object OB image (original image) and FIG.
The α plane generated in 5 is drawn.

【0206】2.9.4 バイリニアフィルタ方式での
テクスチャマッピング 次に、図19に示すワークバッファ上のマッピング画像
をフレームバッファ上の同じ位置に描画する。
2.9.4 Texture Mapping by Bilinear Filter Method Next, the mapping image on the work buffer shown in FIG. 19 is drawn at the same position on the frame buffer.

【0207】より具体的には図27に示すように、ワー
クバッファ上のマッピング画像を仮想ポリゴンにマッピ
ングしながら、その仮想ポリゴンをフレームバッファに
描画する。
More specifically, as shown in FIG. 27, while mapping the mapping image on the work buffer to the virtual polygon, the virtual polygon is drawn on the frame buffer.

【0208】また、このテクスチャマッピングの際に、 バイリニアフィルタ(テクセル補間)方式を選択し、 図14で説明したようにテクスチャ座標を例えば+
0.5ピクセル(テクセル)だけシフトさせ(ずら
す)、 ソースαテストでα<αJのピクセルだけを合格に
し、 デスティネーションαテストでα=αJのピクセルだ
けを合格にする。
Also, in this texture mapping, a bilinear filter (texel interpolation) method is selected, and the texture coordinates are set to +, for example, as described in FIG.
Shift (shift) by 0.5 pixels (texels), pass only pixels with α <αJ in the source α test, and pass only pixels with α = αJ in the destination α test.

【0209】これにより、オブジェクトOBの内側領域
の右辺、下辺に輪郭線EDLが付与された図28に示す
ような画像が生成される。
As a result, an image as shown in FIG. 28 in which the contour line EDL is added to the right side and the lower side of the inner region of the object OB is generated.

【0210】即ち、図28のJ1に示す部分では、図2
9に示すように、輪郭EDの内側領域においてオブジェ
クトOBの色(RJ、GJ、BJ)と輪郭線の色(R
L、GL、BL)とが合成され、輪郭EDの内側領域に
輪郭線EDLの画像が生成されるようになる。
That is, in the portion indicated by J1 in FIG. 28, FIG.
As shown in FIG. 9, the color (RJ, GJ, BJ) of the object OB and the color (R
L, GL, and BL) are combined to generate an image of the contour line EDL in the inner region of the contour ED.

【0211】なお、本実施形態においては、色のみなら
ずα値もバイリニアフィルタによる補間処理の対象にな
る。従って、輪郭線EDLに設定されるα値も、オブジ
ェクトOBのαJと輪郭線のαLとを合成したα値にな
る。
In the present embodiment, not only the color but also the α value are subjected to interpolation processing by the bilinear filter. Accordingly, the α value set for the contour line EDL is also an α value obtained by combining αJ of the object OB and αL of the contour line.

【0212】以上のことを更に詳しく説明すると以下の
ようになる。
The above will be described in more detail as follows.

【0213】(I)参照される周りのピクセルが全て輪
郭線色になっているピクセル 図29のK1に示すピクセルでは、補間後のRGB及び
α値は(R、G、B、α)=(RL、GL、BL、α
L)になる。
(I) Pixel whose surrounding pixels to be referred to are all in outline color In the pixel indicated by K1 in FIG. 29, RGB and α values after interpolation are (R, G, B, α) = ( RL, GL, BL, α
L).

【0214】この時、α=αL=0に設定されているた
め(図19参照)、α<αJのピクセルのみを合格にす
るソースαテストは合格となる。しかし、α=αJのピ
クセルのみを合格にするデスティネーションαテストに
よって、オブジェクトOBの画像が描画されている領域
以外の領域のピクセルについては不合格になる。従っ
て、結局、図29のK1に示すようなピクセルの描画に
ついては禁止される。
At this time, since α = αL = 0 is set (see FIG. 19), the source α test in which only pixels of α <αJ are passed is passed. However, the pixel in the region other than the region where the image of the object OB is drawn is rejected by the destination α test in which only the pixel of α = αJ is passed. Therefore, eventually, pixel drawing as shown by K1 in FIG. 29 is prohibited.

【0215】(II)輪郭線色のピクセルとオブジェクト
色のピクセルの双方が参照されるピクセル 図29のK2に示すようなピクセルでは、補間後の
(R、G、B、α)は上述の2.8.2で示した式
(4)と同様の結果になる。即ち、補間後のピクセルの
色は、オブジェクトOBの色(RJ、GJ、BJ、α
J)と輪郭線の色(RL、GL、BL、αL)とが混合
された色になる。
(II) Pixel to which both pixel of outline color and pixel of object color are referenced In the pixel as indicated by K2 in FIG. 29, (R, G, B, α) after interpolation is the above-mentioned 2 The result is the same as the expression (4) shown in .8.2. That is, the color of the pixel after interpolation is the color of the object OB (RJ, GJ, BJ, α
J) and the outline colors (RL, GL, BL, αL) are mixed.

【0216】また、αJ>0、1≦K≦3、αL=0で
あるため、0<α<αJとなり、α<αJのピクセルの
みを合格にするソースαテストが合格となり、これらの
ピクセルについてはフレームバッファに描画されるよう
になる。
Also, since αJ> 0, 1 ≦ K ≦ 3, and αL = 0, 0 <α <αJ, and the source α test that passes only pixels with α <αJ is passed. Will be rendered in the frame buffer.

【0217】また、α=αJのピクセルのみを合格にす
るデスティネーションαテストによって、輪郭線の画像
の中でオブジェクトの内側領域にある部分(図28の右
辺、下辺の輪郭線)のみがフレームバッファに描画され
ることになる。
Further, by the destination α test in which only the pixel of α = αJ is accepted, only the portion (the right side and the lower side in FIG. 28) in the inner region of the object in the contour image is the frame buffer. Will be drawn.

【0218】(III)参照される周りのピクセルが全て
オブジェクト色になっているピクセル 図29のK3に示すピクセルでは、補間後のRGB及び
α値は(R、G、B、α)=(RJ、GJ、BJ、α
J)になる。
(III) Pixel in which all surrounding pixels referred to are the object color In the pixel indicated by K3 in FIG. 29, the RGB and α values after interpolation are (R, G, B, α) = (RJ , GJ, BJ, α
J).

【0219】この時、α=αJに設定されているため
(図19参照)、α<αJのピクセルのみを合格にする
ソースαテストが不合格となり、これらのピクセルにつ
いては描画が禁止される。
At this time, since α = αJ is set (see FIG. 19), the source α test for accepting only pixels of α <αJ is rejected, and drawing is prohibited for these pixels.

【0220】以上のようにしてフレームバッファに図2
8に示すような画像を描画できるようになる。
As described above, the frame buffer shown in FIG.
8 can be drawn.

【0221】2.9.5 左辺、上辺の輪郭線の描画 次に、図19に示すワークバッファ上のマッピング画像
を、今度は、テクスチャ座標を前述の2.9.4とは反
対方向にシフトさせながら仮想オブジェクトにマッピン
グし、フレームバッファに描画する。
2.9.5 Drawing Contour Lines on Left Side and Top Side Next, the mapping image on the work buffer shown in FIG. Map to a virtual object and draw in the frame buffer.

【0222】より具体的には、図30に示すように、 バイリニアフィルタ方式を選択し、 テクスチャ座標U、Vを前述の2.9.4とは逆に
(−0.5、−0.5)だけシフトさせ(ずらす)、 ソースαテストでα<αJのピクセルだけを合格に
し、 デスティネーションαテストでα=αJのピクセルだ
けを合格にする。
More specifically, as shown in FIG. 30, the bilinear filter method is selected, and the texture coordinates U and V are set to (−0.5, −0.5) opposite to the above-mentioned 2.9.4. ) And shift only pixels with α <αJ in the source α test, and pass only pixels with α = αJ in the destination α test.

【0223】これにより、オブジェクトOBの内側領域
の左辺、上辺にも輪郭線EDLが付与され、図31に示
すように、オブジェクトOBの輪郭EDの内側領域に輪
郭線EDLが描画された画像が生成されるようになる。
Thus, the contour line EDL is also given to the left side and the upper side of the inner area of the object OB, and an image in which the contour line EDL is drawn in the inner area of the contour ED of the object OB is generated as shown in FIG. Will come to be.

【0224】3.本実施形態の処理 次に、本実施形態の処理の詳細例について、図32〜図
39のフローチャートを用いて説明する。
3). Processing of this embodiment Next, a detailed example of the processing of this embodiment will be described with reference to the flowcharts of FIGS.

【0225】図32は、マッピング画像のマッピング対
象となる仮想ポリゴンの生成処理に関するフローチャー
トである。
FIG. 32 is a flowchart relating to the generation process of a virtual polygon to be mapped in the mapping image.

【0226】まず、オブジェクトに対するジオメトリ処
理を行い、オブジェクトをスクリーンに透視変換(アフ
ィン変換)する(ステップS1)。
First, geometry processing is performed on the object, and the object is subjected to perspective transformation (affine transformation) on the screen (step S1).

【0227】次に、透視変換後のオブジェクトの頂点の
座標に基づき、オブジェクトの頂点のX、Y座標の最小
値XMIN、YMIN、最大値XMAX、YMAXを求
める(ステップS2)。
Next, based on the coordinates of the vertex of the object after perspective transformation, minimum values XMIN, YMIN, maximum values XMAX, YMAX of the vertexes of the object are obtained (step S2).

【0228】次に、求められた(XMIN、YMI
N)、(XMAX、YMAX)に基づいて、図17
(A)、(B)で説明したように、オブジェクトOBの
画像を内包する形状の仮想ポリゴンを生成する(ステッ
プS3)。この場合の仮想ポリゴンの頂点VVX1〜V
VX4は以下のようになる。
Next, the obtained (XMIN, YMI
N), (XMAX, YMAX) based on FIG.
As described in (A) and (B), a virtual polygon having a shape including the image of the object OB is generated (step S3). In this case, the vertexes VVX1 to VV of the virtual polygon
VX4 is as follows.

【0229】 VVX1(XMIN、YMIN) VVX2(XMIN、YMAX) VVX3(XMAX、YMAX) VVX4(XMAX、YMIN) なお、仮想ポリゴン(画像エフェクト領域)の大きさを
上下左右方向に若干だけ大きくするようにしてもよい。
より具体的には、X、Y座標の最小値をXMIN、YM
INとし、最大値をXMAX、YMAXとした場合に、
XMIN、YMINから1ピクセルを減算してXMI
N’=XMIN−1、YMIN’=YMIN−1を求め
ると共に、XMAX、YMAXに1ピクセルを加算して
XMAX’=XMAX+1、YMAX’=YMAX+1
を求める。そして、これらの求められた(XMIN’、
YMIN’)、(XMAX’、YMAX’)に基づい
て、仮想ポリゴンの頂点VVX1〜VVX4を決めるよ
うにする。
VVX1 (XMIN, YMIN) VVX2 (XMIN, YMAX) VVX3 (XMAX, YMAX) VVX4 (XMAX, YMIN) Note that the size of the virtual polygon (image effect area) is slightly increased in the vertical and horizontal directions. May be.
More specifically, the minimum values of the X and Y coordinates are set to XMIN and YM.
If IN and the maximum value is XMAX and YMAX,
Subtract 1 pixel from XMIN and YMIN to get XMI
N ′ = XMIN−1 and YMIN ′ = YMIN−1 are obtained, and one pixel is added to XMAX and YMAX to obtain XMAX ′ = XMAX + 1, YMAX ′ = YMAX + 1
Ask for. And these sought (XMIN ',
YMIN '), (XMAX', YMAX '), the vertices VVX1 to VVX4 of the virtual polygon are determined.

【0230】図33は、図18(A)、(B)で説明し
たように、オブジェクトの簡易オブジェクトを利用して
仮想ポリゴンを生成する処理に関するフローチャートで
ある。
FIG. 33 is a flowchart relating to the process of generating a virtual polygon using a simple object as described with reference to FIGS. 18 (A) and 18 (B).

【0231】図33が図32と異なるのは、ステップS
11で、簡易オブジェクトに対する透視変換を行う点
と、ステップS12で、透視変換後の簡易オブジェクト
の頂点の座標に基づいて、(XMIN、YMIN)、
(XMAX、YMAX)を求めている点であり、それ以
外は同じ処理となる。
FIG. 33 differs from FIG. 32 in that step S
(XMIN, YMIN) based on the point at which the perspective transformation is performed on the simple object in step 11 and the coordinates of the vertex of the simple object after the perspective transformation in step S12.
(XMAX, YMAX) is obtained, and the other processing is the same.

【0232】図34は、オブジェクトに輪郭線を付加す
る処理に関するフローチャートである。
FIG. 34 is a flowchart relating to processing for adding a contour line to an object.

【0233】まず、図19で説明したようにワークバッ
ファを輪郭線の画像(RL、GL、BL、αL)で初期
化する(ステップS21)。
First, as described with reference to FIG. 19, the work buffer is initialized with contour images (RL, GL, BL, αL) (step S21).

【0234】次に、頂点のα値がα=αJ(>0)に設
定されたオブジェクトを透視変換して、ワークバッファ
に描画する(ステップS22)。その際に、ワークバッ
ファ用のZバッファを用いて陰面消去を行うようにす
る。
Next, the object whose vertex α value is set to α = αJ (> 0) is perspective-transformed and drawn in the work buffer (step S22). At that time, hidden surface removal is performed using a Z buffer for a work buffer.

【0235】次に、図20で説明したように、ワークバ
ッファ上のマッピング画像をテクスチャ座標をシフトし
てバイリニアフィルタ方式で仮想ポリゴンにマッピング
しながら、その仮想ポリゴンをフレームバッファに描画
する(ステップS23)。その際に、ソースαテストと
してα>0を指定する。また、オブジェクトの情報(例
えば頂点座標、代表点の座標等)に基づき得られる擬似
的なZ値を仮想ポリゴンに設定しておき、通常のZバッ
ファを用いて陰面消去を行う。
Next, as described with reference to FIG. 20, while mapping the mapping image on the work buffer to the virtual polygon by shifting the texture coordinates and using the bilinear filter method, the virtual polygon is drawn on the frame buffer (step S23). ). At that time, α> 0 is designated as the source α test. A pseudo Z value obtained based on object information (for example, vertex coordinates, representative point coordinates, etc.) is set in a virtual polygon, and hidden surface removal is performed using a normal Z buffer.

【0236】次に、ワークバッファ上のマッピング画像
を仮想ポリゴンにマッピングしながら、その仮想ポリゴ
ンをフレームバッファに描画する(ステップS24)。
その際に、ソースαテストとしてα>0を指定し、デス
ティネーションαテストとしてα=αJを指定する。ま
た、オブジェクトの情報に基づき得られる擬似的なZ値
を仮想ポリゴンに設定しておき、通常のZバッファを用
いて陰面消去を行う。
Next, while mapping the mapping image on the work buffer to the virtual polygon, the virtual polygon is drawn on the frame buffer (step S24).
At that time, α> 0 is specified as the source α test, and α = αJ is specified as the destination α test. Further, a pseudo Z value obtained based on the object information is set in the virtual polygon, and hidden surface removal is performed using a normal Z buffer.

【0237】以上のようにして、オブジェクトに輪郭線
を付加した画像(輪郭線を強調した画像)を得ることが
できる。
As described above, an image in which a contour line is added to an object (an image in which the contour line is emphasized) can be obtained.

【0238】図35は、オブジェクトの内側領域に輪郭
線を付加する処理に関するフローチャートである。
FIG. 35 is a flowchart relating to processing for adding a contour line to the inner area of an object.

【0239】まず、図19で説明したようにワークバッ
ファを輪郭線の画像(RL、GL、BL、αL)で初期
化する(ステップS31)。
First, as described with reference to FIG. 19, the work buffer is initialized with contour images (RL, GL, BL, αL) (step S31).

【0240】次に、頂点のα値がα=αJ(>0)に設
定されたオブジェクトを透視変換して、ワークバッファ
に描画する(ステップS32)。その際に、通常のZバ
ッファを用いたZテストを行い、陰面消去を行うように
する。このようにすることで、輪郭線描画位置でのオブ
ジェクトのZ値を、輪郭線のZ値として設定することが
可能になる。
Next, the object whose vertex α value is set to α = αJ (> 0) is perspective-transformed and drawn in the work buffer (step S32). At that time, a Z test using a normal Z buffer is performed to perform hidden surface removal. In this way, the Z value of the object at the contour drawing position can be set as the Z value of the contour line.

【0241】次に、図25で説明したように、ワークバ
ッファ上のマッピング画像を仮想ポリゴンにマッピング
し、α値のみをフレームバッファに描画する(ステップ
S33)。
Next, as described with reference to FIG. 25, the mapping image on the work buffer is mapped to the virtual polygon, and only the α value is drawn in the frame buffer (step S33).

【0242】次に、図26で説明したように、ワークバ
ッファ上のマッピング画像を仮想ポリゴンにマッピング
し、α=αJのピクセルのみをフレームバッファに描画
する(ステップS34)。これにより、オブジェクトの
元画像がフレームバッファに描画されるようになる。
Next, as described with reference to FIG. 26, the mapping image on the work buffer is mapped to the virtual polygon, and only the pixel of α = αJ is drawn on the frame buffer (step S34). As a result, the original image of the object is drawn in the frame buffer.

【0243】次に、図27で説明したように、ワークバ
ッファ上のマッピング画像をテクスチャ座標U、Vを
(0.5、0.5)だけシフトしてバイリニアフィルタ
方式で仮想ポリゴンにマッピングしながら、その仮想ポ
リゴンをフレームバッファに描画する(ステップS3
5)。その際に、ソースαテストとしてα<αJを指定
する。またデスティネーションαテストとしてα=αJ
を指定する。更に、所与のレジスタなどに設定された半
透明度αTを用いてオブジェクトの画像と輪郭線の画像
との半透明合成を行うようにする。
Next, as described with reference to FIG. 27, while mapping the mapping image on the work buffer by mapping the texture coordinates U and V by (0.5, 0.5) to the virtual polygon by the bilinear filter method. The virtual polygon is drawn in the frame buffer (step S3
5). At that time, α <αJ is designated as the source α test. Also, α = αJ as the destination α test
Is specified. Furthermore, the translucent synthesis of the object image and the contour image is performed using the translucency αT set in a given register or the like.

【0244】次に、図30で説明したように、ワークバ
ッファ上のマッピング画像をテクスチャ座標U、Vを
(−0.5、−0.5)だけシフトしてバイリニアフィ
ルタ方式で仮想ポリゴンにマッピングしながら、その仮
想ポリゴンをフレームバッファに描画する(ステップS
36)。その際に、ソースαテストとしてα<αJを指
定する。またデスティネーションαテストとしてα=α
Jを指定する。更に、所与のレジスタなどに設定された
半透明度αTを用いてオブジェクトの画像と輪郭線の画
像との半透明合成を行うようにする。
Next, as described in FIG. 30, the mapping image on the work buffer is mapped to the virtual polygon by the bilinear filter method by shifting the texture coordinates U and V by (−0.5, −0.5). Then, the virtual polygon is drawn in the frame buffer (step S
36). At that time, α <αJ is designated as the source α test. Also, α = α as the destination α test
Specify J. Furthermore, the translucent synthesis of the object image and the contour image is performed using the translucency αT set in a given register or the like.

【0245】なお図35のステップS33〜S36で
は、Zテストは行わないようにする。
Note that the Z test is not performed in steps S33 to S36 of FIG.

【0246】以上のようにして、オブジェクトの内側領
域に輪郭線が描画された図31に示すような画像を得る
ことができる。
As described above, an image as shown in FIG. 31 in which a contour line is drawn in the inner area of the object can be obtained.

【0247】図36は、輪郭線の色を距離(Z値)に応
じて変化させる処理に関するフローチャートである。な
おZ値は、視点に近いほど大きな値になっている。
FIG. 36 is a flowchart relating to processing for changing the color of the contour line in accordance with the distance (Z value). Note that the Z value increases as it approaches the viewpoint.

【0248】まず、Z値のしきい値であるZN、ZF
(図5(A)のVTN、VTF)と、そのしきい値での
色CN、CFを予め設定しておく(ステップS41)。
First, ZN and ZF, which are threshold values for the Z value, are used.
(VTN and VTF in FIG. 5A) and the colors CN and CF at the threshold values are set in advance (step S41).

【0249】次に、輪郭線描画対象のオブジェクトの代
表Z値(代表点のZ値)を求める(ステップS42)。
Next, the representative Z value (Z value of the representative point) of the object for drawing the outline is obtained (step S42).

【0250】次に、求められた代表Z値に基づいて、色
を決めるための係数Vを下式のように求める(ステップ
S43)。
Next, based on the obtained representative Z value, a coefficient V for determining a color is obtained as in the following equation (step S43).

【0251】V=(Z−ZF)/(ZN−ZF) 但し、上式においてVは、V>1.0の時にはV=1.
0となり、V<0.0の時にはV=0.0となる。
V = (Z-ZF) / (ZN-ZF) where V is V = 1.V when V> 1.0.
When V <0.0, V = 0.0.

【0252】次に、求められた係数Vに基づいて、輪郭
線の色Cを下式のように求める(ステップS44)。
Next, based on the obtained coefficient V, the color C of the contour line is obtained as follows (step S44).

【0253】C=(CN−CF)×V+CF 次に、求められた色Cを用いて輪郭線を描画する(ステ
ップS45)。
C = (CN−CF) × V + CF Next, an outline is drawn using the obtained color C (step S45).

【0254】図37は、輪郭線の色をオブジェクトの大
きさ(ピクセル数)に応じて変化させる処理に関するフ
ローチャートである。
FIG. 37 is a flowchart relating to processing for changing the color of the contour line in accordance with the size (number of pixels) of the object.

【0255】まず、輪郭線描画対象のオブジェクトの大
きさのしきい値であるPN、PF(図5(B)のVT
N、VTF)と、そのしきい値での色CN、CFを予め
設定しておく(ステップS51)。
First, PN and PF (VT of FIG. 5B) which are threshold values of the size of the object to be drawn.
N, VTF) and the colors CN and CF at the threshold values are preset (step S51).

【0256】次に、輪郭線描画対象のオブジェクトのス
クリーン上での(2Dイメージでの)ピクセル数P(縦
のピクセル数×横のピクセル数)を求める(ステップS
52)。
Next, the number P of pixels (in the 2D image) (the number of vertical pixels × the number of horizontal pixels) on the screen of the object to be drawn is calculated (step S).
52).

【0257】次に、求められたピクセル数Pに基づい
て、色を決めるための係数Vを下式のように求める(ス
テップS53)。
Next, a coefficient V for determining a color is obtained as shown in the following equation based on the obtained pixel number P (step S53).

【0258】V=(P−PF)/(PN−PF) 但し、上式においてVは、V>1.0の時にはV=1.
0となり、V<0.0の時にはV=0.0となる。
V = (P-PF) / (PN-PF) where V is V = 1.V when V> 1.0.
When V <0.0, V = 0.0.

【0259】次に、求められた係数Vに基づいて輪郭線
の色Cを求める(ステップS54)。そして求められた
色Cを用いて輪郭線を描画する(ステップS55)。
Next, the color C of the contour line is obtained based on the obtained coefficient V (step S54). Then, a contour line is drawn using the obtained color C (step S55).

【0260】図38は、輪郭線の半透明度を距離(Z
値)に応じて変化させる処理に関するフローチャートで
ある。図38が図36と異なるのは以下の点である。
FIG. 38 shows the translucency of the contour line as the distance (Z
It is a flowchart regarding the process changed according to (value). FIG. 38 differs from FIG. 36 in the following points.

【0261】即ち、ステップS61では、色CN、CF
の代わりに半透明度αTN、αTFを設定しておく。
That is, in step S61, the colors CN, CF
Instead of, semi-transparency αTN, αTF is set.

【0262】また、ステップS64では、係数Vに基づ
いて、輪郭線の半透明度αTを下式のように求める。
In step S64, based on the coefficient V, the translucency αT of the contour line is obtained by the following equation.

【0263】αT=(αTN−αTF)×V+αTF そして、ステップS65では、求められたαTに基づい
て輪郭線を半透明描画する。
ΑT = (αTN−αTF) × V + αTF In step S65, a contour line is rendered translucently based on the obtained αT.

【0264】図39は、輪郭線の半透明度をオブジェク
トの大きさ(ピクセル数)に応じて変化させる処理に関
するフローチャートである。図39が図37と異なるの
は以下の点である。
FIG. 39 is a flowchart relating to processing for changing the translucency of the contour line in accordance with the size (number of pixels) of the object. FIG. 39 differs from FIG. 37 in the following points.

【0265】即ち、ステップS71では、色CN、CF
の代わりに半透明度αTN、αTFを設定しておく。
That is, in step S71, the colors CN, CF
Instead of, semi-transparency αTN, αTF is set.

【0266】また、ステップS74では、係数Vに基づ
いて、輪郭線の半透明度αTを下式のように求める。
In step S74, the translucency αT of the contour line is obtained based on the coefficient V as shown in the following equation.

【0267】αT=(αTN−αTF)×V+αTF そして、ステップS75では、求められたαTに基づい
て輪郭線を半透明描画する。
ΑT = (αTN−αTF) × V + αTF In step S75, a contour line is rendered translucently based on the obtained αT.

【0268】4.ハードウェア構成 次に、本実施形態を実現できるハードウェアの構成の一
例について図40を用いて説明する。
4. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0269】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 is a CD 982
It operates based on a program stored in (information storage medium), a program transferred via the communication interface 990, or a program stored in ROM 950 (one of information storage media), game processing, image processing,
Various processes such as sound processing are executed.

【0270】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a product-sum calculator and a divider capable of high-speed parallel calculation, and executes matrix calculation (vector calculation) at high speed. For example, if a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs (requests) the processing to the coprocessor 902. )

【0271】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, curved surface generation, etc., and has a product-sum calculator and a divider capable of high-speed parallel computation, and matrix computation (vector (Operation) is executed at high speed. For example, when processing such as coordinate transformation, perspective transformation, and light source calculation is performed, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0272】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インターフェー
ス990を介して外部から転送される。
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data and a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on the opening screen, the intermission screen, the ending screen, or the game screen. Note that image data and sound data to be decoded are stored in ROM 950,
It is stored in the CD 982 or transferred from the outside via the communication interface 990.

【0273】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、デプスキューイング、ミップマッピング、フォグ
処理、バイリニア・フィルタリング、トライリニア・フ
ィルタリング、アンチエリアシング、シェーディング処
理なども行うことができる。そして、1フレーム分の画
像がフレームバッファ922に書き込まれると、その画
像はディスプレイ912に表示される。
The drawing processor 910 executes drawing (rendering) processing of objects composed of primitive surfaces such as polygons and curved surfaces at high speed. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass the object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the rendering processor 910 renders the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and texture. The drawing processor 910 can also perform α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

【0274】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and voices. The generated game sound is output from the speaker 932.

【0275】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。
The operation data from the game controller 942, the save data from the memory card 944, and personal data are transferred via the serial interface 940.

【0276】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
A ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium.
Various programs are stored in 950. A hard disk may be used instead of the ROM 950.

【0277】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0278】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
The DMA controller 970 is a DM between the processor and memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0279】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
The CD drive 980 is a CD 982 in which programs, image data, sound data, etc. are stored.
(Information storage medium) is driven to enable access to these programs and data.

【0280】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他のゲ
ームシステムとの間でのデータ転送が可能になる。
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, as a network connected to the communication interface 990, a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like can be considered. By using a communication line, data transfer via the Internet becomes possible. Further, by using the high-speed serial bus, data transfer with other game systems becomes possible.

【0281】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実行してもよい。或
いは、ハードウェアとプログラムの両方により実行して
もよい。
It should be noted that all the means of the present invention may be executed only by hardware, or only by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be executed by both hardware and a program.

【0282】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示すると共に、必要であればデータを渡す。そ
して、各プロセッサ902、904、906、910、
930等は、その指示と渡されたデータとに基づいて、
本発明の各手段を実行することになる。
When each means of the present invention is executed by both hardware and a program, the information storage medium stores a program for executing each means of the present invention using hardware. Will be. More specifically, the program instructs each processor 902, 904, 906, 910, 930, etc., which is hardware, and passes data if necessary. And each processor 902, 904, 906, 910,
930 etc., based on the instruction and the data passed,
Each means of the present invention is executed.

【0283】図41(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めの情報(プログラム又はデータ)は、システムボード
1106上の情報記憶媒体であるメモリ1108に格納
される。以下、この情報を格納情報と呼ぶ。
FIG. 41A shows an example in which this embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while viewing the game image displayed on the display 1100. Various processors and various memories are mounted on the built-in system board (circuit board) 1106. Information (program or data) for executing each means of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

【0284】図41(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD1206、或
いはメモリカード1208、1209等に格納されてい
る。
FIG. 41B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in the CD 1206, which is an information storage medium that is detachable from the main system, or in the memory cards 1208, 1209, and the like.

【0285】図41(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-nとを含むシステムに本実施形態を適用
した場合の例を示す。この場合、上記格納情報は、例え
ばホスト装置1300が制御可能な磁気ディスク装置、
磁気テープ装置、メモリ等の情報記憶媒体1306に格
納されている。端末1304-1〜1304-nが、スタン
ドアロンでゲーム画像、ゲーム音を生成できるものであ
る場合には、ホスト装置1300からは、ゲーム画像、
ゲーム音を生成するためのゲームプログラム等が端末1
304-1〜1304-nに配送される。一方、スタンドア
ロンで生成できない場合には、ホスト装置1300がゲ
ーム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 41C shows a host device 1300,
The host device 1300 and the network 1302 (LA
Terminal 130 connected via a small network such as N or a wide area network such as the Internet.
An example in which the present embodiment is applied to a system including 4-1 to 1304-n will be described. In this case, the storage information is, for example, a magnetic disk device that can be controlled by the host device 1300,
It is stored in an information storage medium 1306 such as a magnetic tape device or memory. When the terminals 1304-1 to 1304-n are capable of generating game images and game sounds stand-alone, the host device 1300 receives game images,
A game program or the like for generating game sounds is provided on the terminal
Delivered to 304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which are generated by the terminals 1304-1 to 1304-1.
1304-n and output at the terminal.

【0286】なお、図41(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実行するようにしてもよい。また、本発明の各手段
を実行するための上記格納情報を、ホスト装置(サーバ
ー)の情報記憶媒体と端末の情報記憶媒体に分散して格
納するようにしてもよい。
In the case of the configuration shown in FIG. 41C, each means of the present invention may be executed in a distributed manner between the host device (server) and the terminal. The storage information for executing each means of the present invention may be distributed and stored in the information storage medium of the host device (server) and the information storage medium of the terminal.

【0287】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能なセーブ用
情報記憶装置(メモリカード、携帯型ゲーム装置)を用
いることが望ましい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, the save information storage device can exchange information with the arcade game system and exchange information with the home game system. It is desirable to use (memory card, portable game device).

【0288】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
Note that the present invention is not limited to that described in the above embodiment, and various modifications can be made.

【0289】例えば、本発明のうち従属請求項に係る発
明においては、従属先の請求項の構成要件の一部を省略
する構成とすることもできる。また、本発明の1の独立
請求項に係る発明の要部を、他の独立請求項に従属させ
ることもできる。
For example, in the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

【0290】また、オブジェクトの輪郭線の画像を変化
させるためのパラメータとしては、視点からの距離や透
視変換後のオブジェクトの大きさが特に望ましいが、こ
れらと均等なパラメータを用いる場合も、本発明の範囲
に含まれる。
Further, as parameters for changing the image of the outline of the object, the distance from the viewpoint and the size of the object after the perspective transformation are particularly desirable. However, the present invention is also applicable when parameters equivalent to these are used. Included in the range.

【0291】また、本実施形態では、オブジェクトの輪
郭線の画像が不必要に目立つ事態を防止することを狙っ
て、視点からの距離や透視変換後のオブジェクトの大き
さに応じて輪郭線の画像を変化させる場合について主に
説明した。
Further, in this embodiment, with the aim of preventing the situation where the contour image of the object is unnecessarily conspicuous, the contour image depends on the distance from the viewpoint and the size of the object after the perspective transformation. The case of changing is mainly described.

【0292】しかしながら、逆に、オブジェクトの輪郭
線の画像が目立つような映像効果を狙って、視点からの
距離や透視変換後のオブジェクトの大きさに応じて輪郭
線の画像を変化させてもよい。例えば、ある距離範囲に
おいては、視点からの距離が遠いほど(透視変換後のオ
ブジェクトの大きさが小さいほど)、輪郭線が不透明に
なるようにしたり、輪郭線の色を本実施形態で説明した
CF(第2の色)とは異なる色に近づけるようにするこ
とも可能である。
However, conversely, the contour image may be changed according to the distance from the viewpoint or the size of the object after perspective transformation, aiming at a video effect that makes the contour image of the object stand out. . For example, in a certain distance range, as the distance from the viewpoint is farther (the smaller the size of the object after perspective transformation), the contour line becomes opaque, or the color of the contour line has been described in this embodiment. It is also possible to make it approach a color different from CF (second color).

【0293】また、オブジェクトの輪郭線を描画する手
法としては、テクセル補間方式のテクスチャマッピング
を利用する手法が特に望ましいが、これに限定されるも
のではない。例えば図42(A)〜図42(F)に示す
ような手法でオブジェクトの輪郭線を描画してもよい。
As a method for drawing the outline of an object, a method using texture mapping of the texel interpolation method is particularly desirable, but is not limited to this. For example, the outline of the object may be drawn by a method as shown in FIGS. 42 (A) to 42 (F).

【0294】即ち、この手法では、まず、図42
(A)、(B)に示すように、描画領域400(フレー
ムバッファ等)上の元画像の描画予定領域410に対し
て輪郭線画像420(輪郭線の色に塗りつぶされた画
像)を、例えば上方向に数ピクセルだけずらして描画す
る。同様に、図42(C)、(D)、(E)に示すよう
に、描画予定領域410に対して輪郭線画像420を、
下方向、右方向、左方向に数ピクセルだけずらして描画
する。そして、最後に図42(F)に示すように、描画
予定領域410に対して元画像430を描画する。
That is, in this method, first, FIG.
As shown in (A) and (B), for example, an outline image 420 (an image painted in the outline color) is applied to the drawing area 410 of the original image on the drawing area 400 (frame buffer or the like). Draw a few pixels upwards. Similarly, as shown in FIGS. 42 (C), (D), and (E), an outline image 420 is displayed on the drawing planned area 410,
Draw a few pixels down, right, or left. Finally, as shown in FIG. 42F, the original image 430 is drawn in the drawing scheduled area 410.

【0295】この手法によれば、2D処理だけで輪郭線
を描画できるため、描画プロセッサの処理負担は重くな
るものの、3D(3次元)処理を行うCPUの処理負担
を軽減できるという利点がある。
This method has the advantage that the processing load on the CPU performing 3D (three-dimensional) processing can be reduced, although the processing load on the drawing processor becomes heavy because the contour line can be drawn only by 2D processing.

【0296】また、視点からの距離や透視変換後のオブ
ジェクトの大きさと、輪郭線の色や半透明度との関数特
性としては種々の変形実施が可能である。例えば図5
(A)、(B)、図7(A)、(B)のような直線特性
ではなくて多次元関数を用いた曲線特性であってもよ
い。即ち、例えば、(VTN、CN)と(VTF、C
F)との間や、(VTN、αTN)と(VTF、αT
F)との間を線形補間するのではなくて、多次元関数で
補間してもよい。
[0296] Various modifications can be made to the function characteristics of the distance from the viewpoint, the size of the object after perspective transformation, the color of the outline, and the translucency. For example, FIG.
(A), (B), a linear characteristic as shown in FIGS. 7A and 7B, and a curved characteristic using a multidimensional function may be used. That is, for example, (VTN, CN) and (VTF, C
F), or (VTN, αTN) and (VTF, αT).
F) may be interpolated with a multidimensional function instead of linear interpolation.

【0297】また、図43(A)、(B)に示すよう
に、しきい値を4個以上設けてもよく、しきい値の個数
は任意である。或いはしきい値を設けないようにするこ
とも可能である。そして、図43(A)、(B)の場合
には、視点からの距離や透視変換後のオブジェクトの大
きさがVTN2〜VTN3の範囲にある場合に、図8
(A)で説明したように、輪郭線の色や半透明度を略一
定に保つようにすればよい。
As shown in FIGS. 43A and 43B, four or more threshold values may be provided, and the number of threshold values is arbitrary. Alternatively, it is possible not to provide a threshold value. 43 (A) and 43 (B), when the distance from the viewpoint and the size of the object after perspective transformation are in the range of VTN2 to VTN3, FIG.
As described in (A), the color and semi-transparency of the outline may be kept substantially constant.

【0298】また、輪郭線の画像を生成するためのオブ
ジェクトについては、必ずしも表示する必要はなく、例
えばオブジェクトを非表示にして輪郭線の画像のみを表
示する場合も本発明の範囲に含まれる。このようにすれ
ば、輪郭線だけで描かれたキャラクタなどの3次元画像
を生成できるようになり、従来に無い映像効果を生み出
すことができる。
The object for generating the contour image is not necessarily displayed. For example, the case where the object is not displayed and only the contour image is displayed is also included in the scope of the present invention. In this way, it becomes possible to generate a three-dimensional image such as a character drawn only by a contour line, and an unprecedented video effect can be generated.

【0299】また、テクセル補間方式のテクスチャマッ
ピングとしてはバイリニアフィルタ方式のテクスチャマ
ッピングが特に望ましいが、これに限定されるものでは
ない。
Further, as texture mapping of the texel interpolation method, texture mapping of the bilinear filter method is particularly desirable, but is not limited to this.

【0300】また、仮想ポリゴンの生成手法は図16
(A)〜図18(B)で説明した手法が特に望ましい
が、これに限定されず種々の変形実施が可能である。
Also, the generation method of the virtual polygon is shown in FIG.
Although the method described with reference to FIGS. 18A to 18B is particularly desirable, the present invention is not limited to this, and various modifications can be made.

【0301】また、オブジェクトの輪郭線領域等の判別
は、テクセル補間されたα値に基づいて行うことが特に
望ましいが、これに限定されず種々の変形実施が可能で
ある。
Further, it is particularly desirable to discriminate the outline region of the object based on the α value subjected to texel interpolation, but the present invention is not limited to this, and various modifications can be made.

【0302】また、本発明は種々のゲーム(格闘ゲー
ム、シューティングゲーム、ロボット対戦ゲーム、スポ
ーツゲーム、競争ゲーム、ロールプレイングゲーム、音
楽演奏ゲーム、ダンスゲーム等)に適用できる。
The present invention can be applied to various games (such as fighting games, shooting games, robot battle games, sports games, competitive games, role playing games, music playing games, dance games, etc.).

【0303】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
ゲームシステム(画像生成システム)に適用できる。
The present invention also provides various game systems (image generation such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, and a system board for generating game images. System).

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態のゲームシステムの機能ブロック図
の例である。
FIG. 1 is an example of a functional block diagram of a game system according to an embodiment.

【図2】本実施形態により生成されるゲーム画像の例で
ある。
FIG. 2 is an example of a game image generated according to the present embodiment.

【図3】視点からの距離が遠くなった場合(透視変換後
のオブジェクトの大きさが小さくなった場合)に、オブ
ジェクトの輪郭線が不必要に目立ってしまう問題点につ
いて説明するための図である。
FIG. 3 is a diagram for explaining a problem that an outline of an object is unnecessarily noticeable when the distance from the viewpoint is long (when the size of the object after perspective transformation is small); is there.

【図4】視点からの距離や透視変換後のオブジェクトの
大きさに応じて輪郭線の色を変化させる手法について説
明するための図である。
FIG. 4 is a diagram for explaining a technique for changing the color of an outline according to the distance from a viewpoint and the size of an object after perspective transformation.

【図5】図5(A)は、視点からの距離と輪郭線の色と
の関数特性の例であり、図5(B)は、透視変換後のオ
ブジェクトの大きさと輪郭線の色との関数特性の例であ
る。
FIG. 5A is an example of a function characteristic of the distance from the viewpoint and the color of the outline, and FIG. 5B is a graph showing the size of the object and the color of the outline after perspective transformation. It is an example of a function characteristic.

【図6】視点からの距離や透視変換後のオブジェクトの
大きさに応じて輪郭線の半透明度を変化させる手法につ
いて説明するための図である。
FIG. 6 is a diagram for explaining a method of changing the translucency of the contour line according to the distance from the viewpoint and the size of the object after perspective transformation.

【図7】図7(A)は、視点からの距離と輪郭線の半透
明度との関数特性の例であり、図7(B)は、透視変換
後のオブジェクトの大きさと輪郭線の半透明度との関数
特性の例である。
FIG. 7A is an example of functional characteristics of the distance from the viewpoint and the translucency of the outline, and FIG. 7B is an illustration showing the size of the object and the translucency of the outline after the perspective transformation. It is an example of a function characteristic.

【図8】図8(A)、(B)は、しきい値VTNの設定
手法について説明するための図である。
FIGS. 8A and 8B are diagrams for explaining a method of setting a threshold value VTN.

【図9】図9(A)、(B)は、輪郭線の色を制御する
手法の問題点について説明するための図である。
FIGS. 9A and 9B are diagrams for explaining problems of a method for controlling the color of a contour line. FIG.

【図10】図10(A)、(B)は、オブジェクトの輪
郭の外側領域や内側領域に輪郭線を描画する手法につい
て説明するための図である。
FIGS. 10A and 10B are diagrams for explaining a method of drawing a contour line in an outer region or an inner region of the contour of an object.

【図11】図11(A)、(B)は、オブジェクトの輪
郭の外側領域に輪郭線を描画した場合の問題点について
説明するための図である。
FIGS. 11A and 11B are diagrams for explaining a problem when a contour line is drawn in an outer region of the contour of an object.

【図12】バイリニアフィルタ方式のテクスチャマッピ
ングについて説明するための図である。
FIG. 12 is a diagram for describing bilinear filter type texture mapping;

【図13】図13(A)、(B)は、マッピング画像の
例と、マッピング画像を仮想ポリゴンにマッピングする
ことにより得られる画像の例を示す図である。
FIGS. 13A and 13B are diagrams illustrating an example of a mapping image and an example of an image obtained by mapping the mapping image to a virtual polygon.

【図14】バイリニアフィルタ方式のテクスチャマッピ
ングを有効利用して輪郭線画像を生成する手法について
説明するための図である。
FIG. 14 is a diagram for explaining a method of generating a contour image by effectively using bilinear filter type texture mapping.

【図15】バイリニアフィルタ方式の補間機能により各
ピクセルの色が周囲にしみ出す現象の原理について説明
するための図である。
FIG. 15 is a diagram for explaining the principle of a phenomenon in which the color of each pixel oozes out by the bilinear filter type interpolation function;

【図16】図16(A)、(B)は、仮想ポリゴンの生
成手法について説明するための図である。
FIGS. 16A and 16B are diagrams for explaining a generation method of virtual polygons.

【図17】図17(A)、(B)は、透視変換後のオブ
ジェクトの頂点の座標に基づいて仮想ポリゴンを生成す
る手法について説明するための図である。
FIGS. 17A and 17B are diagrams for describing a method of generating a virtual polygon based on the coordinates of the vertex of an object after perspective transformation.

【図18】図18(A)、(B)は、透視変換後の簡易
オブジェクトの頂点の座標に基づいて仮想ポリゴンを生
成する手法について説明するための図である。
18A and 18B are diagrams for explaining a method of generating a virtual polygon based on the coordinates of the vertex of a simple object after perspective transformation.

【図19】ワークバッファ上に生成されたマッピング画
像の例について示すための図である。
FIG. 19 is a diagram for illustrating an example of a mapping image generated on a work buffer.

【図20】マッピング画像をバイリニアフィルタ方式で
テクスチャ座標をシフトさせながら仮想ポリゴンにマッ
ピングしてフレームバッファに描画する手法について説
明するための図である。
FIG. 20 is a diagram for describing a technique of mapping a mapping image to a virtual polygon while shifting texture coordinates by a bilinear filter method and drawing it in a frame buffer.

【図21】図20の手法によりフレームバッファ上に生
成された画像の例について示す図である。
FIG. 21 is a diagram illustrating an example of an image generated on the frame buffer by the method of FIG. 20;

【図22】バイリニアフィルタ方式によりピクセルのR
GB、α値を補間する手法について説明するための図で
ある。
FIG. 22 shows pixel R by bilinear filter method.
It is a figure for demonstrating the method of interpolating GB and alpha value.

【図23】図23(A)、(B)は、オブジェクトの輪
郭線の画像を生成する手法について説明するための図で
ある。
FIGS. 23A and 23B are diagrams for describing a method for generating an image of an outline of an object.

【図24】オブジェクトの全体がぼけた画像になるのを
解消する手法について説明するための図である。
FIG. 24 is a diagram for describing a technique for eliminating the entire object from becoming a blurred image.

【図25】フレームバッファ上に生成されたαプレーン
の例について示すための図である。
FIG. 25 is a diagram for illustrating an example of an α plane generated on a frame buffer.

【図26】フレームバッファ上に生成されたオブジェク
トの元画像及びαプレーンの例について示すための図で
ある。
FIG. 26 is a diagram for illustrating an example of an original image and an α plane of an object generated on the frame buffer.

【図27】マッピング画像をバイリニアフィルタ方式で
テクスチャ座標を+0.5ピクセルだけシフトさせなが
ら仮想ポリゴンにマッピングしてフレームバッファに描
画する手法について説明するための図である。
FIG. 27 is a diagram for explaining a technique of mapping a mapping image to a virtual polygon while drawing the texture image by shifting the texture coordinates by +0.5 pixels by the bilinear filter method, and drawing it in the frame buffer.

【図28】図27の手法によりフレームバッファ上に生
成された画像の例について示す図である。
28 is a diagram showing an example of an image generated on a frame buffer by the method of FIG. 27. FIG.

【図29】オブジェクトの輪郭線の画像を生成する手法
について説明するための図である。
FIG. 29 is a diagram for describing a method for generating an image of an outline of an object.

【図30】マッピング画像をバイリニアフィルタ方式で
テクスチャ座標を−0.5ピクセルだけシフトさせなが
ら仮想ポリゴンにマッピングしてフレームバッファに描
画する手法について説明するための図である。
FIG. 30 is a diagram for describing a technique of mapping a mapping image to a virtual polygon while drawing texture coordinates by shifting the texture coordinates by −0.5 pixels by a bilinear filter method, and drawing the frame image on a frame buffer;

【図31】図30の手法によりフレームバッファ上に生
成された最終的な画像の例について示す図である。
FIG. 31 is a diagram showing an example of a final image generated on the frame buffer by the method of FIG. 30;

【図32】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 32 is a flowchart showing a detailed example of processing of the present embodiment.

【図33】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 33 is a flowchart illustrating a detailed example of processing of the present embodiment.

【図34】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 34 is a flowchart showing a detailed example of processing of the present embodiment.

【図35】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 35 is a flowchart showing a detailed example of processing of the present embodiment.

【図36】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 36 is a flowchart showing a detailed example of processing of the present embodiment.

【図37】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 37 is a flowchart showing a detailed example of processing of the present embodiment.

【図38】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 38 is a flowchart illustrating a detailed example of processing of the present embodiment.

【図39】本実施形態の処理の詳細例について示すフロ
ーチャートである。
FIG. 39 is a flowchart showing a detailed example of processing of the present embodiment.

【図40】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 40 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図41】図41(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
41 (A), (B), and (C) are diagrams showing examples of various forms of systems to which this embodiment is applied.

【図42】図42(A)〜(F)は、輪郭線を描画する
他の手法について説明するための図である。
FIGS. 42A to 42F are diagrams for explaining another method of drawing a contour line.

【図43】図43(A)、(B)は、視点からの距離や
透視変換後のオブジェクトの大きさと、輪郭線の色や半
透明度との関数特性の他の例を示す図である。
FIGS. 43A and 43B are diagrams illustrating other examples of the functional characteristics of the distance from the viewpoint, the size of the object after perspective transformation, the color of the contour line, and the translucency.

【符号の説明】[Explanation of symbols]

OB オブジェクト SOB 簡易オブジェクト VPL 仮想ポリゴン(仮想オブジェクト) ED 輪郭 EDL 輪郭線 VX1〜VX6 頂点 VVX1〜VVX4 頂点 VSX1〜VSX8 頂点 100 処理部 110 ジオメトリ処理部 112 仮想オブジェクト生成部 114 輪郭線画像変化部 120 描画部(オブジェクト・輪郭線描画部) 122 マッピング画像生成部 130 テクスチャマッピング部 132 合成部 134 陰面消去部 160 操作部 170 記憶部 172 主記憶部 174 描画領域 176 テクスチャ記憶部 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 OB object SOB simple object VPL virtual polygon (virtual object) ED contour EDL outline VX1 to VX6 vertex VVX1 to VVX4 vertex VSX1 to VSX8 vertex 100 processor 110 Geometry processing unit 112 Virtual object generator 114 Contour line image changing unit 120 Drawing part (Object / Outline drawing part) 122 Mapping image generation unit 130 Texture mapping section 132 Synthesizer 134 Hidden surface removal part 160 Operation unit 170 Storage unit 172 Main memory 174 Drawing area 176 texture storage 180 Information storage medium 190 Display 192 sound output section 194 Portable information storage device 196 Communication Department

Claims (29)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像生成を行うゲームシステムであっ
て、 オブジェクトの輪郭線の画像を描画する手段と、 オブジェクトの輪郭線の画像を、視点からの距離に応じ
て変化させる手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段とを含み、 視点からの距離が遠いほど、オブジェクトの輪郭線の色
を所与の第2の色に近づける ことを特徴とするゲームシ
ステム。
1. A game system for generating an image, comprising: means for drawing an image of an object outline; means for changing an image of an object outline according to a distance from a viewpoint; of and means for generating an image at a given viewpoint, as the distance from the view point is far, the color of the contour line of the object
A game system characterized by bringing a second color closer to a given second color .
【請求項2】 請求項において、 視点からの距離が、オブジェクトとの間の距離をほぼ一
定に保ちながら視点がオブジェクトに追従する時の距離
付近である場合には、オブジェクトの輪郭線の色が略一
定に保たれることを特徴とするゲームシステム。
2. The outline color of an object according to claim 1, wherein the distance from the viewpoint is near the distance when the viewpoint follows the object while keeping the distance to the object substantially constant. A game system characterized by maintaining a substantially constant value.
【請求項3】 請求項1又は2において、 視点からの距離が所与のしきい値よりも遠くなった場合
に、オブジェクトの輪郭線の色が前記第2の色に設定さ
れることを特徴とするゲームシステム。
3. The object according to claim 1, wherein the color of the outline of the object is set to the second color when the distance from the viewpoint is longer than a given threshold value. A game system.
【請求項4】 画像生成を行うゲームシステムであっ
て、 オブジェクトの輪郭線の画像を描画する手段と、 オブジェクトの輪郭線の画像を、視点からの距離に応じ
て変化させる手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段とを含み、 視点からの距離が遠いほど、オブジェクトの輪郭線の画
像をより透明にする ことを特徴とするゲームシステム。
4. A game system for generating an image, comprising: means for drawing an image of an object outline; means for changing an image of an object outline according to a distance from a viewpoint; of and means for generating an image at a given viewpoint, as the distance from the view point is far, image of the contour line of the object
A game system characterized by making the image more transparent .
【請求項5】 請求項において、 視点からの距離が、オブジェクトとの間の距離をほぼ一
定に保ちながら視点がオブジェクトに追従する時の距離
付近である場合には、オブジェクトの輪郭線の半透明度
が略一定に保たれることを特徴とするゲームシステム。
5. The method according to claim 4, wherein when the distance from the viewpoint is near the distance when the viewpoint follows the object while keeping the distance to the object substantially constant, A game system characterized in that the transparency is kept substantially constant.
【請求項6】 請求項4又は5において、 視点からの距離が所与のしきい値よりも遠くなった場合
に、オブジェクトの輪郭線の画像をほぼ見えなくするこ
とを特徴とするゲームシステム。
6. The game system according to claim 4, wherein the image of the outline of the object is substantially invisible when the distance from the viewpoint is longer than a given threshold value.
【請求項7】 画像生成を行うゲームシステムであっ
て、 オブジェクトの輪郭線の画像を描画する手段と、 オブジェクトの輪郭線の画像を、透視変換後のオブジェ
クトの大きさに応じて変化させる手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段とを含み、 透視変換後のオブジェクトの大きさが小さいほど、オブ
ジェクトの輪郭線の色を所与の第2の色に近づける こと
を特徴とするゲームシステム。
7. A game system for generating an image, comprising: means for drawing an image of an object outline; and means for changing the image of an object outline according to the size of the object after perspective transformation; , and means for generating an image at a given viewpoint in the object space, the smaller the size of the object after perspective transformation, of
A game system characterized in that the color of a contour line of a project is brought close to a given second color .
【請求項8】 請求項において、 透視変換後のオブジェクトの大きさが、オブジェクトと
の間の距離をほぼ一定に保ちながら視点がオブジェクト
に追従する時のオブジェクトの大きさ付近である場合に
は、オブジェクトの輪郭線の色が略一定に保たれること
を特徴とするゲームシステム。
8. The method according to claim 7, wherein the size of the object after the perspective transformation is around the size of the object when the viewpoint follows the object while keeping the distance to the object substantially constant. A game system characterized in that the color of the outline of an object is kept substantially constant.
【請求項9】 請求項7又は8において、 透視変換後のオブジェクトの大きさが所与のしきい値よ
りも小さくなった場合に、オブジェクトの輪郭線の色が
前記第2の色に設定されることを特徴とするゲームシス
テム。
9. The method of claim 7 or 8, when the size of the object after perspective transformation becomes less than a given threshold, the color of the contour line of the object is set to the second color A game system characterized by that.
【請求項10】 画像生成を行うゲームシステムであっ
て、 オブジェクトの輪郭線の画像を描画する手段と、 オブジェクトの輪郭線の画像を、透視変換後のオブジェ
クトの大きさに応じて変化させる手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段とを含み、 透視変換後のオブジェクトの大きさが小さいほど、オブ
ジェクトの輪郭線の画像をより透明にする ことを特徴と
するゲームシステム。
10. A game system for image generation, comprising: means for drawing an image of an object outline; and means for changing the image of an object outline according to the size of the object after perspective transformation. , and means for generating an image at a given viewpoint in the object space, the smaller the size of the object after perspective transformation, of
A game system characterized by making the image of the outline of a project more transparent .
【請求項11】 請求項10において、 透視変換後のオブジェクトの大きさが、オブジェクトと
の間の距離をほぼ一定に保ちながら視点がオブジェクト
に追従する時のオブジェクトの大きさ付近である場合に
は、オブジェクトの輪郭線の半透明度が略一定に保たれ
ることを特徴とするゲームシステム。
11. The method according to claim 10, wherein the size of the object after the perspective transformation is around the size of the object when the viewpoint follows the object while keeping the distance to the object substantially constant. A game system characterized in that the translucency of the outline of an object is kept substantially constant.
【請求項12】 請求項10又は11において、 透視変換後のオブジェクトの大きさが所与のしきい値よ
りも小さくなった場合に、オブジェクトの輪郭線の画像
をほぼ見えなくすることを特徴とするゲームシステム。
12. The method according to claim 10, wherein the image of the outline of the object is substantially invisible when the size of the object after the perspective transformation becomes smaller than a given threshold value. Game system to play.
【請求項13】 請求項1乃至3、7乃至9のいずれか
において、 オブジェクトの輪郭の外側領域にオブジェクトの輪郭線
の画像が描画されることを特徴とするゲームシステム。
13. The game system according to claim 1, wherein an image of the outline of the object is drawn in an outer region of the outline of the object.
【請求項14】 請求項4乃至6、10乃至12のいず
れかにおいて、 オブジェクトの輪郭の内側領域にオブジェクトの輪郭線
の画像が描画されることを特徴とするゲームシステム。
14. The game system according to claim 4, wherein an image of an outline of an object is drawn in an inner area of the outline of the object.
【請求項15】 コンピュータにより使用可能なプログ
ラムであって、 オブジェクトの輪郭線の画像を描画する手段と、 オブジェクトの輪郭線の画像を、視点からの距離に応じ
て変化させる手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段として、 コンピュータを機能させ、 視点からの距離が遠いほど、オブジェクトの輪郭線の色
を所与の第2の色に近ける ことを特徴とするプログラ
ム。
15. A computer-useable program comprising: means for drawing an image of an object outline; means for changing an image of an object outline according to a distance from a viewpoint; as a means for generating an image at a given point of view, cause the computer to function, as the distance from the viewpoint is far, the color of the contour line of the object
A program characterized by approaching a given second color .
【請求項16】 請求項15において、 視点からの距離が、オブジェクトとの間の距離をほぼ一
定に保ちながら視点がオブジェクトに追従する時の距離
付近である場合には、オブジェクトの輪郭線の色が略一
定に保たれることを特徴とするプログラム。
16. The outline color of an object according to claim 15, wherein the distance from the viewpoint is near the distance when the viewpoint follows the object while keeping the distance to the object substantially constant. A program characterized in that is kept substantially constant.
【請求項17】 請求項15又は16において、 視点からの距離が所与のしきい値よりも遠くなった場合
に、オブジェクトの輪郭線の色が前記第2の色に設定さ
れることを特徴とするプログラム。
17. The object according to claim 15, wherein the color of the outline of the object is set to the second color when the distance from the viewpoint is larger than a given threshold value. Program.
【請求項18】 コンピュータにより使用可能なプログ
ラムであって、 オブジェクトの輪郭線の画像を描画する手段と、 オブジェクトの輪郭線の画像を、視点からの距離に応じ
て変化させる手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段として、 コンピュータを機能させ、 視点からの距離が遠いほど、オブジェクトの輪郭線の画
像をより透明にする ことを特徴とするプログラム。
18. A program usable by a computer, comprising: means for drawing an image of an object outline; means for changing an image of an object outline according to a distance from a viewpoint; a given image as a means for generating a perspective causes a computer to function longer the distance from the viewpoint, image of the contour line of the object
A program characterized by making images more transparent .
【請求項19】 請求項18において、 視点からの距離が、オブジェクトとの間の距離をほぼ一
定に保ちながら視点がオブジェクトに追従する時の距離
付近である場合には、オブジェクトの輪郭線の半透明度
が略一定に保たれることを特徴とするプログラム。
19. The outline of an object according to claim 18, wherein the distance from the viewpoint is near the distance when the viewpoint follows the object while keeping the distance to the object substantially constant. A program characterized in that the transparency is kept substantially constant.
【請求項20】 請求項18又は19において、 視点からの距離が所与のしきい値よりも遠くなった場合
に、オブジェクトの輪郭線の画像をほぼ見えなくするこ
とを特徴とするプログラム。
20. The program according to claim 18, wherein the image of the outline of the object is substantially invisible when the distance from the viewpoint is longer than a given threshold value.
【請求項21】 コンピュータにより使用可能なプログ
ラムであって、 オブジェクトの輪郭線の画像を描画する手段と、 オブジェクトの輪郭線の画像を、透視変換後のオブジェ
クトの大きさに応じて変化させる手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段として、 コンピュータを機能させ、 透視変換後のオブジェクトの大きさが小さいほど、オブ
ジェクトの輪郭線の色を所与の第2の色に近づけ ること
を特徴とするプログラム。
21. A program usable by a computer, comprising: means for drawing an image of an outline of an object; and means for changing the image of the outline of an object according to the size of the object after perspective transformation. , as a means for generating an image at a given viewpoint in the object space, cause the computer to function, the smaller the size of the object after perspective transformation, of
A program characterized by bringing the color of the outline of a project closer to a given second color .
【請求項22】 請求項21において、 透視変換後のオブジェクトの大きさが、オブジェクトと
の間の距離をほぼ一定に保ちながら視点がオブジェクト
に追従する時のオブジェクトの大きさ付近である場合に
は、オブジェクトの輪郭線の色が略一定に保たれること
を特徴とするプログラム。
22. The method according to claim 21, wherein the size of the object after the perspective transformation is around the size of the object when the viewpoint follows the object while keeping the distance to the object substantially constant. A program characterized in that the color of the outline of an object is kept substantially constant.
【請求項23】 請求項21又は22において、 透視変換後のオブジェクトの大きさが所与のしきい値よ
りも小さくなった場合に、オブジェクトの輪郭線の色が
前記第2の色に設定されることを特徴とするプログラ
ム。
23. The outline color of an object according to claim 21, wherein the color of the outline of the object is set to the second color when the size of the object after the perspective transformation becomes smaller than a given threshold value. A program characterized by that.
【請求項24】 コンピュータにより使用可能なプログ
ラムであって、 オブジェクトの輪郭線の画像を描画する手段と、 オブジェクトの輪郭線の画像を、透視変換後のオブジェ
クトの大きさに応じて変化させる手段と、 オブジェクト空間内の所与の視点での画像を生成する手
段として、 コンピュータを機能させ、 透視変換後のオブジェクトの大きさが小さいほど、オブ
ジェクトの輪郭線の画像をより透明にする ことを特徴と
するプログラム。
24. A program usable by a computer, said means for drawing an image of an object outline, and means for changing an image of an object outline according to the size of the object after perspective transformation , as a means for generating an image at a given viewpoint in the object space, cause the computer to function, the smaller the size of the object after perspective transformation, of
A program characterized by making the image of the outline of a project more transparent .
【請求項25】 請求項24において、 透視変換後のオブジェクトの大きさが、オブジェクトと
の間の距離をほぼ一定に保ちながら視点がオブジェクト
に追従する時のオブジェクトの大きさ付近である場合に
は、オブジェクトの輪郭線の半透明度が略一定に保たれ
ることを特徴とするプログラム。
25. The method according to claim 24, wherein the size of the object after the perspective transformation is close to the size of the object when the viewpoint follows the object while keeping the distance to the object substantially constant. The program is characterized in that the translucency of the outline of the object is kept substantially constant.
【請求項26】 請求項24又は25において、 透視変換後のオブジェクトの大きさが所与のしきい値よ
りも小さくなった場合に、オブジェクトの輪郭線の画像
をほぼ見えなくすることを特徴とするプログラム。
26. The image of the outline of an object according to claim 24 or 25, wherein the image of the outline of the object is substantially invisible when the size of the object after the perspective transformation becomes smaller than a given threshold value. Program to do.
【請求項27】 請求項15乃至17、21乃至23
いずれかにおいて、 オブジェクトの輪郭の外側領域にオブジェクトの輪郭線
の画像が描画されることを特徴とするプログラム。
27. The program according to claim 15, wherein an image of an object outline is drawn in a region outside the object outline.
【請求項28】 請求項18乃至20、24乃至26
いずれかにおいて、 オブジェクトの輪郭の内側領域にオブジェクトの輪郭線
の画像が描画されることを特徴とするプログラム。
28. The program according to claim 18, wherein an image of an object outline is drawn in an inner area of the object outline.
【請求項29】 コンピュータにより使用可能な情報記
憶媒体であって、請求項15乃至28のいずれかのプロ
グラムを含むことを特徴とする情報記憶媒体。
29. An information storage medium usable by a computer, comprising the program according to any one of claims 15 to 28 .
JP2001134267A 2000-06-05 2001-05-01 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM Expired - Lifetime JP3538394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001134267A JP3538394B2 (en) 2000-06-05 2001-05-01 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-167945 2000-06-05
JP2000167945 2000-06-05
JP2001134267A JP3538394B2 (en) 2000-06-05 2001-05-01 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Publications (2)

Publication Number Publication Date
JP2002063591A JP2002063591A (en) 2002-02-28
JP3538394B2 true JP3538394B2 (en) 2004-06-14

Family

ID=26593336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001134267A Expired - Lifetime JP3538394B2 (en) 2000-06-05 2001-05-01 GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP3538394B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4560711B2 (en) * 2004-06-22 2010-10-13 株式会社セガ Image processing
JP5310164B2 (en) * 2009-03-23 2013-10-09 ヤマハ株式会社 Rendering device and program
JP5689693B2 (en) * 2011-01-13 2015-03-25 株式会社ディジタルメディアプロフェッショナル Drawing processor
US8376849B2 (en) * 2011-06-03 2013-02-19 Nintendo Co., Ltd. Apparatus and method for controlling objects on a stereoscopic display
JP6559434B2 (en) * 2015-02-17 2019-08-14 株式会社カプコン GAME PROGRAM AND GAME DEVICE
JP7020356B2 (en) * 2018-09-27 2022-02-16 日本電信電話株式会社 Image generator, image generator, and program

Also Published As

Publication number Publication date
JP2002063591A (en) 2002-02-28

Similar Documents

Publication Publication Date Title
US7046242B2 (en) Game system, program and image generating method
JP3538393B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4804120B2 (en) Program, information storage medium, and image generation system
JP3777288B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2006318388A (en) Program, information storage medium, and image forming system
JP4187188B2 (en) Image generation system, program, and information storage medium
JP4610748B2 (en) Image generation system, program, and information storage medium
US6828969B2 (en) Game system, program and image generating method
JP4651527B2 (en) Program, information storage medium, and image generation system
JP3280355B2 (en) Image generation system and information storage medium
JP3538394B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP3467259B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
US7164421B2 (en) Image generation system, program, and information storage medium
JP4707078B2 (en) Image generation system, program, and information storage medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4632855B2 (en) Program, information storage medium, and image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4704615B2 (en) Image generation system, program, and information storage medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP3538392B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP3254195B2 (en) Image generation system and information storage medium
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2010033302A (en) Image generation system, program and information storage medium
JP2008077406A (en) Image generation system, program, and information storage medium
JP4680670B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040319

R150 Certificate of patent or registration of utility model

Ref document number: 3538394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090326

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250