JP2001109896A - Edge drawing method and image processor using same - Google Patents

Edge drawing method and image processor using same

Info

Publication number
JP2001109896A
JP2001109896A JP28453499A JP28453499A JP2001109896A JP 2001109896 A JP2001109896 A JP 2001109896A JP 28453499 A JP28453499 A JP 28453499A JP 28453499 A JP28453499 A JP 28453499A JP 2001109896 A JP2001109896 A JP 2001109896A
Authority
JP
Japan
Prior art keywords
pixel
color
edge
pixels
polygon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP28453499A
Other languages
Japanese (ja)
Other versions
JP4433525B2 (en
Inventor
Shuji Hori
修司 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP28453499A priority Critical patent/JP4433525B2/en
Publication of JP2001109896A publication Critical patent/JP2001109896A/en
Application granted granted Critical
Publication of JP4433525B2 publication Critical patent/JP4433525B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an edge drawing method which makes easier to recognize the shape of a figure on a display screen or reduces the jaggedness of an edge part of the figure when an object group having three-dimensional coordinates is displayed as a digital image on a two-dimensional display screen, and an image processor which uses the method. SOLUTION: For a digital image of a display object, data on each pixel and pixels around it are used to decide whether or not the pixel is positioned at the edge part of the digital image and a specific process is performed only for the pixels which are so decided that they are positioned at the edge part.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、図形をデジタル画
像として二次元の表示画面に表示する際のエッジ描画方
法及びこれを用いた画像処理装置に関する。
The present invention relates to an edge drawing method for displaying a graphic as a digital image on a two-dimensional display screen and an image processing apparatus using the method.

【0002】[0002]

【従来の技術】近年、ゲーム装置などのコンピュータグ
ラフィクス技術を用いた画像処理装置において、CRT等
の二次元画面に表示される画像をより高品質とし、見栄
えのあるものにすることが望まれている。
2. Description of the Related Art In recent years, in an image processing apparatus using computer graphics technology such as a game apparatus, it has been desired to improve the quality of an image displayed on a two-dimensional screen such as a CRT and to make it look good. I have.

【0003】かかる画像処理装置は、表示対象となる三
次元空間内の図形、すなわち三次元座標を持つオブジェ
クトをポリゴン(多角形面)の集積として考え、そのポ
リゴンがもつ属性データ(以下、ポリゴンデータと呼
ぶ)から最終的な二次元の画像を生成するものである。
この二次元画像は、画素(ピクセル)単位で表現され
た、いわゆるデジタル画像であり、ディスプレイなどの
表示画面上に表現される。また、前記ポリゴンデータ
は、ポリゴンの各頂点座標、カラーデータなどの情報か
らなるデータ群である。
Such an image processing apparatus considers a figure in a three-dimensional space to be displayed, that is, an object having three-dimensional coordinates, as an accumulation of polygons (polygon planes), and attribute data (hereinafter polygon data) of the polygons. ) To generate a final two-dimensional image.
This two-dimensional image is a so-called digital image expressed in units of pixels, and is expressed on a display screen such as a display. The polygon data is a data group including information such as coordinates of each vertex of the polygon and color data.

【0004】図20は、一般的な画像処理装置の大まか
な構成を示した図である。CPU1は、画像処理装置の全
体の機能を制御しており、プログラムに従って表示画面
上に表現すべきオブジェクトのポリゴンデータをジオメ
トリ部2に送る。ジオメトリ部2は、座標変換、透視変
換などの処理を行う部分であり、送られたポリゴンデー
タは、表示画面に対応した二次元データに変換される。
FIG. 20 is a diagram showing a rough configuration of a general image processing apparatus. The CPU 1 controls the overall functions of the image processing apparatus, and sends polygon data of an object to be represented on a display screen to a geometry unit 2 according to a program. The geometry unit 2 is a unit that performs processing such as coordinate transformation and perspective transformation, and the transmitted polygon data is converted into two-dimensional data corresponding to the display screen.

【0005】次に、レンダリング部3では、ジオメトリ
部2から送られる前記二次元データに変換されたポリゴ
ンデータを基に、各種の処理が施され、表示画面に表示
する各ピクセルの色(即ちRGBの輝度)が最終的に決定
される。ここでは、ポリゴンデータに含まれる頂点座標
とカラーデータから各ピクセルの色を補間計算する処
理、表示画面上における各ポリゴンの奥行き方向の上下
関係を決定する陰面処理、光の影響を表現する陰影付け
の処理、あるいは表示対象物の表面の模様等を表現する
テクスチャマッピングの処理など、表示対象物であるオ
ブジェクトをよりリアルに可視化するための処理が行わ
れる。最後に、レンダリング部3で決定された各ピクセ
ルの最終的な色(即ちRGBの輝度)がフレームバッファ
4に書込まれ、その情報が表示画面上に表示される。
Next, the rendering unit 3 performs various processes based on the polygon data converted from the two-dimensional data sent from the geometry unit 2 to obtain the color of each pixel (ie, RGB) displayed on the display screen. Is finally determined. Here, processing to interpolate the color of each pixel from the vertex coordinates and color data included in the polygon data, hidden surface processing to determine the vertical relationship in the depth direction of each polygon on the display screen, shading to express the effect of light , Or a process of texture mapping that expresses a pattern on the surface of the display target or the like, and a process for visualizing the object as the display target more realistically. Finally, the final color (that is, RGB luminance) of each pixel determined by the rendering unit 3 is written to the frame buffer 4, and the information is displayed on the display screen.

【0006】一般のゲーム装置などでは、以上説明した
ような装置により、表示対象であるオブジェクトを可視
化し、仮想現実感のある画面を生成している。
[0006] In a general game device or the like, an object to be displayed is visualized by the above-described device to generate a screen having virtual reality.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、表示す
る画面によっては、主たる表示対象物(オブジェクトや
それを構成するポリゴン)の色や形がその背景画と似て
いるために、画面を見る者にとって、その主たる表示対
象物を認識することが困難である場合があった。ゲーム
装置などにおいて、画面上の操作対象が見ずらくなるこ
とは、操作上大きな問題である。
However, depending on the screen to be displayed, the colors and shapes of the main display objects (objects and polygons constituting the objects) are similar to the background image, so that the viewer of the screen may not be able to see the screen. In some cases, it is difficult to recognize the main display target. In a game device or the like, it is a major operational problem that the operation target on the screen becomes difficult to see.

【0008】また、ピクセルの羅列であるデジタル画像
で表示対象物を表現する画像処理装置は、元来、エイリ
アシングという問題を内在しており、そのための処理を
行わない場合には、表示対象物のエッジ部でギザギザ感
が現れ、現実的な表現が損なわれるという問題があっ
た。
Further, an image processing apparatus that expresses a display object by a digital image which is a sequence of pixels inherently has a problem of aliasing, and if processing for that is not performed, the display object cannot be displayed. There is a problem that jaggedness appears at an edge portion and a realistic expression is impaired.

【0009】そこで、本発明の目的は、三次元座標を有
するオブジェクト群をデジタル画像として二次元の表示
画面に表示する際に、表示画面上の図形の形状を認識し
やすくすることができ、また、その図形のエッジ部にお
けるギザギザ感を緩和することのできるエッジ描画方法
及びこれを用いた画像処理装置を提供することである。
Accordingly, an object of the present invention is to make it easier to recognize the shape of a figure on a display screen when displaying a group of objects having three-dimensional coordinates as a digital image on a two-dimensional display screen. It is another object of the present invention to provide an edge drawing method and an image processing apparatus using the same, which can reduce jaggedness in an edge portion of the figure.

【0010】[0010]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の一つの側面は、表示対象物のデジタル画
像において、ピクセル毎に、そのピクセルと周辺のピク
セルのデータを用いて、そのピクセルがデジタル画像の
エッジ部に位置するか否かの判定を行い、エッジ部に位
置すると判定されたピクセルについてのみ特定の処理を
施すことである。従って、本発明によれば、表示画面上
において、表示対象物を認識しやすくすること、若しく
は表示対象物のエッジ部におけるギザギザ感を緩和する
ことができる。
In order to achieve the above object, one aspect of the present invention is to provide a digital image of a display object for each pixel by using data of the pixel and surrounding pixels. It is determined whether or not the pixel is located at the edge of the digital image, and specific processing is performed only on the pixel determined to be located at the edge. Therefore, according to the present invention, it is possible to easily recognize the display target on the display screen, or to reduce the jagged feeling at the edge of the display target.

【0011】上記の目的を達成するために、本発明の別
の側面は、三次元座標を有するオブジェクト群を、ピク
セルの羅列からなる二次元の表示画面に描画する画像処
理装置における前記表示画面へ描画される描画対象図形
のエッジ描画方法において、一つの前記描画対象図形を
前記表示画面に描画するときに、前記表示画面内で前記
一つの描画対象図形を包含する所定の大きさの領域に含
まれる全てのピクセルに対し、ピクセル毎に、前記ピク
セルが前記一つの描画対象図形のエッジ部に存在するか
否かの判定を行う第一のステップと、前記第一のステッ
プで、エッジ部に存在すると判定されたピクセルについ
てのみ、所定の処理を施す第二のステップを有すること
を特徴とする。
According to another aspect of the present invention, there is provided an image processing apparatus for drawing an object group having three-dimensional coordinates on a two-dimensional display screen including a row of pixels. In the edge drawing method for a drawing target graphic to be drawn, when drawing one drawing target graphic on the display screen, the drawing target graphic is included in a region of a predetermined size including the one drawing target graphic in the display screen. A first step of determining, for each pixel, whether or not the pixel is present at an edge of the one drawing target graphic; and The method is characterized by including a second step of performing a predetermined process only on the determined pixel.

【0012】更に、上記の発明において、その好ましい
態様は、前記第一のステップにおける判定は、前記ピク
セルが、前記一つの描画対象図形内に存在し、かつ、前
記ピクセルの周辺に位置する所定の数のピクセルのう
ち、一つ以上のピクセルが前記一つの描画対象図形内に
存在しない場合に、前記ピクセルがエッジ部に存在する
と判定することを特徴とする。
Further, in the above-mentioned invention, in a preferred aspect, the determination in the first step is such that the pixel is present in the one drawing target graphic and is located at a predetermined position located around the pixel. When one or more pixels out of the number of pixels do not exist in the one drawing target graphic, it is determined that the pixels exist in the edge portion.

【0013】更に、上記の発明において、別の態様は、
前記一つの描画対象図形が、一つのポリゴンであり、前
記第二のステップにおける所定の処理が、前記エッジ部
に存在すると判定されたピクセルの描画カラーを、前記
ポリゴンの輪郭を表現するカラーとする処理であること
を特徴とする。
Further, in the above-mentioned invention, another aspect is as follows.
The one drawing target graphic is one polygon, and the predetermined process in the second step sets a drawing color of a pixel determined to be present in the edge portion as a color expressing the outline of the polygon. Processing.

【0014】更に、上記の発明において、別の態様は、
前記一つの描画対象図形が、一つの前記オブジェクトを
表現するポリゴンの集合からなる図形であり、前記第二
のステップにおける所定の処理が、前記エッジ部に存在
すると判定されたピクセルの描画カラーを、前記オブジ
ェクトの輪郭を表現するカラーとする処理であることを
特徴とする。
Further, in the above invention, another aspect is as follows.
The one drawing target graphic is a graphic made up of a set of polygons representing one object, and the predetermined processing in the second step is to change a drawing color of a pixel determined to be present in the edge portion, It is characterized in that the processing is a color rendering process that represents the outline of the object.

【0015】更に、上記の発明において、別の態様は、
前記第二のステップにおける所定の処理が、前記エッジ
部に存在すると判定されたピクセルの描画カラーを、前
記一つの描画対象図形のカラーと、前記一つの描画対象
図形を描画する前に前記ピクセルが有していたカラーを
ブレンドして決定するブレンド処理であることを特徴と
する。
Further, in the above invention, another aspect is as follows.
The predetermined process in the second step is to change the drawing color of the pixel determined to be present in the edge portion with the color of the one drawing target graphic and the pixel before drawing the one drawing target graphic. It is characterized by a blending process of blending and determining the colors that have been possessed.

【0016】更に、上記の発明において、別の態様は、
前記ブレンド処理におけるカラーのブレンドが、前記ピ
クセルの周辺に位置する所定の数のピクセルのうち、前
記一つの描画対象図形内に存在するピクセルの数に応じ
た割合で行われることを特徴とする。
[0016] Further, in the above invention, another aspect is as follows.
The color blending in the blending process is performed at a rate corresponding to the number of pixels existing in the one drawing target graphic out of a predetermined number of pixels located around the pixel.

【0017】上記の目的を達成するために、本発明の更
に別の側面は、三次元座標を有するオブジェクト群を二
次元の表示画面に描画する画像処理装置であって、CPU
からの描画命令に基づいて、描画対象図形を、前記表示
画面を構成するピクセル単位のデータからなるデジタル
画像として、フレームバッファへ書込む画像処理装置に
おいて、前記表示画面上における一つの前記描画対象図
形のデジタル画像を包含する所定の大きさの領域内に含
まれる全てのピクセルのカラーデータを一時的に格納す
るメモリであって、一つの前記描画対象図形に対する前
記描画命令を受ける度に前記全てのピクセルのカラーデ
ータが初期化される一時記憶メモリと、前記一つの描画
対象図形に対する描画命令に基づいて、前記一時記憶メ
モリが初期化された後に、前記描画命令と共に与えられ
る前記一つの描画対象図形のデータから、前記一つの描
画対象図形のデジタル画像を生成し、前記デジタル画像
を構成するピクセルのカラーデータを前記一時記憶メモ
リに書込む描画手段と、前記描画手段による書込みの後
に、前記一時記憶メモリにデータが格納されている全て
のピクセルについて、ピクセル毎に、前記一時記憶メモ
リから対象ピクセルのカラーデータと前記対象ピクセル
の周辺に位置する所定の数の周辺ピクセルのカラーデー
タを読出す読出し手段と、前記読出し手段で読出された
カラーデータから、前記対象ピクセルが前記描画手段で
生成されたデジタル画像のエッジ部に存在するか否かの
判定をし、エッジ部に存在すると判定された場合には、
前記対象ピクセルのカラーデータを所定の処理によって
変更し、エッジ部に存在すると判定されなかった場合に
は、前記対象ピクセルのカラーデータをそのままとする
エッジ部検出処理手段と、前記エッジ部検出処理手段に
おける処理の後に前記対象ピクセルが有しているカラー
データに基づいて、前記一つの描画対象図形のデジタル
画像を前記フレームバッファへ書込む書込み手段を有す
ることを特徴とする画像処理装置である。
According to another aspect of the present invention, there is provided an image processing apparatus for rendering an object group having three-dimensional coordinates on a two-dimensional display screen.
An image processing apparatus that writes a drawing target graphic into a frame buffer as a digital image composed of pixel-based data constituting the display screen based on a drawing command from A memory for temporarily storing color data of all pixels included in a region of a predetermined size including the digital image, wherein each time the drawing command for one drawing target graphic is received, A temporary storage memory in which pixel color data is initialized, and the one drawing target graphic given together with the drawing instruction after the temporary storage memory is initialized based on a drawing instruction for the one drawing target graphic A digital image of the one drawing target figure from the data of A writing unit for writing the color data into the temporary storage memory; and, for all pixels whose data is stored in the temporary storage memory after writing by the drawing unit, a target pixel from the temporary storage memory for each pixel. Reading means for reading out the color data and the color data of a predetermined number of peripheral pixels located around the target pixel; and the drawing means generates the target pixel from the color data read by the reading means. It is determined whether or not it exists at the edge of the digital image, and when it is determined that it exists at the edge,
An edge portion detection processing means for changing the color data of the target pixel by a predetermined process and leaving the color data of the target pixel as it is when it is not determined that the color data of the target pixel exists in the edge portion; An image processing apparatus comprising: a writing unit that writes a digital image of the one drawing target graphic into the frame buffer based on the color data of the target pixel after the processing in.

【0018】更に、上記の発明において、その好ましい
態様は、前記一時記憶メモリの初期化は、前記一時記憶
メモリに格納されている全てのピクセルのカラーデータ
を透明とすることであり、前記エッジ検出処理手段にお
けるエッジ部に存在するか否かの判定は、前記対象ピク
セルのカラーデータが透明ではなく、かつ、前記周辺ピ
クセルの内一つ以上のピクセルのカラーデータが透明で
ある場合に、前記対象ピクセルがエッジ部に存在すると
判定することにより行われることを特徴とする。
In a preferred aspect of the present invention, the initialization of the temporary storage memory is performed by making color data of all pixels stored in the temporary storage memory transparent. The determination as to whether or not the target pixel exists in the edge portion by the processing means determines whether the color data of the target pixel is not transparent and the color data of one or more of the peripheral pixels is transparent. The determination is performed by determining that the pixel exists at the edge portion.

【0019】本発明の更なる目的及び、特徴は、以下に
説明する発明の実施の形態から明らかになる。
Further objects and features of the present invention will become apparent from the embodiments of the present invention described below.

【0020】[0020]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態例を説明する。しかしながら、かかる実施の形
態例が、本発明の技術的範囲を限定するものではない。
なお、図において、同一又は類似のものには同一の参照
番号又は参照記号を付して説明する。
Embodiments of the present invention will be described below with reference to the drawings. However, such embodiments do not limit the technical scope of the present invention.
In the drawings, the same or similar components are denoted by the same reference numerals or reference symbols.

【0021】図1は、本発明を適用した画像処理装置の
第一の実施例にかかる構成図である。第一の実施例は、
オブジェクトを構成するポリゴン毎に、そのエッジ部を
検出し、検出されたエッジ部に輪郭を付加して、表示画
面上においてポリゴンを認識しやすくしようとするもの
である。図2は、ポリゴンへの輪郭付加を例示した図で
あり、(a)は輪郭無しの状態、(b)は輪郭を付加した
状態を表している。(b)に示す状態で表示することに
より、ポリゴンの形状を他のものと区別して容易に認識
できるようになる。
FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention. The first embodiment is
An edge portion is detected for each polygon constituting an object, and a contour is added to the detected edge portion so that the polygon can be easily recognized on a display screen. 2A and 2B are diagrams illustrating an example of adding a contour to a polygon. FIG. 2A illustrates a state without a contour, and FIG. 2B illustrates a state where a contour is added. By displaying the polygon in the state shown in (b), the shape of the polygon can be easily recognized while being distinguished from other shapes.

【0022】図1に示すとおり、第一の実施例にかかる
画像処理装置は、そのレンダリング部3に、描画部3
1、一時記憶メモリ32、読出し部33、エッジ検出処
理部34、及び書込み部35を有する構成となってい
る。なお、画像処理装置全体としての構成は、図20に
基づいて説明した従来装置と同様である。また、レンダ
リング部3において、陰面処理、陰影付けの処理、若し
くはテクスチャマッピングの処理などを行う部分は、従
来装置と同様に必要に応じて配置するが、それらの部分
に付いての図示は省略している。
As shown in FIG. 1, the image processing apparatus according to the first embodiment has a rendering unit 3
1, a temporary storage memory 32, a reading unit 33, an edge detection processing unit 34, and a writing unit 35. The configuration of the entire image processing apparatus is the same as the conventional apparatus described with reference to FIG. In the rendering unit 3, parts for performing hidden surface processing, shading processing, texture mapping processing, and the like are arranged as necessary as in the conventional apparatus, but illustration of these parts is omitted. ing.

【0023】図3は、本実施例にかかる画像処理装置の
レンダリング部における処理の流れを示した図である。
なお、ここでは、一つのポリゴンに対する処理内容とし
て記載している。以下、図1及び図3に基づいて、本画
像処理装置の特徴である描画部31から書込み部35ま
での各部の機能、ならびに処理の手順について具体的に
説明する。
FIG. 3 is a diagram showing a flow of processing in the rendering unit of the image processing apparatus according to the present embodiment.
Here, the processing contents for one polygon are described. Hereinafter, based on FIG. 1 and FIG. 3, the functions of the respective units from the drawing unit 31 to the writing unit 35, which are features of the image processing apparatus, and the processing procedure will be specifically described.

【0024】まず、CPU1からポリゴンを描画する旨の
指令が与えられ、表示画面の二次元座標に変換された一
つのポリゴンデータがジオメトリ部2から描画部31に
送られる(図3のステップS1)。送られるポリゴンデ
ータには、頂点の二次元座標とポリゴンのカラーデータ
等が含まれ、更に、輪郭を付加するか否かの制御情報が
付加されている。図4は、描画部31へ送られてくるポ
リゴンデータを概念的に例示した図である。図に示す例
は、ポリゴンPのポリゴンデータが3つの頂点座標(X1,
Y1)、(X2,Y2)、(X3,Y3)、カラーデータ、及び輪郭
付加の制御情報等から構成されていることを示してい
る。
First, a command to draw a polygon is given from the CPU 1, and one piece of polygon data converted into two-dimensional coordinates on the display screen is sent from the geometry unit 2 to the drawing unit 31 (step S1 in FIG. 3). . The polygon data to be sent includes the two-dimensional coordinates of the vertices, the color data of the polygon, and the like, and further adds control information as to whether or not to add a contour. FIG. 4 is a diagram conceptually illustrating the polygon data sent to the drawing unit 31. In the example shown in the figure, the polygon data of the polygon P has three vertex coordinates (X 1 ,
Y 1), shows that it is composed of (X 2, Y 2), (X 3, Y 3), color data, and control information of the contour added.

【0025】描画部31は、送られたポリゴンデータに
基づいて、そのポリゴンのデジタル画像(ピクセルの羅
列からなる画像)であるポリゴン画像を一時記憶メモリ
32に描画する部分である。また、一時記憶メモリ32
はそのポリゴン画像を一時的に格納するための記憶メモ
リであり、その大きさは任意であるが、ここではフレー
ムバッファ4と同サイズとしている。上述のポリゴンの
描画命令が与えられると、まず一時記憶メモリ32が透
明ピクセルで埋められる(図3のステップS2)。
The drawing unit 31 draws a polygon image, which is a digital image of the polygon (an image composed of a series of pixels), in the temporary storage memory 32 based on the sent polygon data. In addition, the temporary storage memory 32
Is a storage memory for temporarily storing the polygon image, and its size is arbitrary, but is the same size as the frame buffer 4 here. When the above-described polygon drawing command is given, first, the temporary storage memory 32 is filled with transparent pixels (step S2 in FIG. 3).

【0026】次に、描画部31は、与えられた前記ポリ
ゴンデータの頂点座標に基づいて、一時記憶メモリ32
上において、ポリゴンが表示される範囲のピクセルを求
め、それらのピクセルを与えられたポリゴンのカラーデ
ータで埋める。即ち、一時記憶メモリ32上にポリゴン
画像を描画する(図3のステップS3)。図5は、図4
で例示したポリゴンPが一時記憶メモリ32上に描画さ
れた状態を示している。図中P'は、ポリゴンPのポリゴ
ン画像であり、それを構成するピクセルは前記カラーデ
ータの色で埋められている。一方、ポリゴン以外の部分
のピクセルは透明となっている。
Next, based on the vertex coordinates of the given polygon data, the drawing unit 31 stores the temporary storage memory 32
Above, the pixels in the range where the polygon is displayed are obtained, and those pixels are filled with the color data of the given polygon. That is, a polygon image is drawn on the temporary storage memory 32 (step S3 in FIG. 3). FIG.
2 shows a state in which the polygon P illustrated in FIG. In the figure, P ′ is a polygon image of the polygon P, and the pixels constituting the polygon image are filled with the color of the color data. On the other hand, the pixels other than the polygon are transparent.

【0027】ポリゴン画像の描画が終了すると、次に、
読出し部33が、一時記憶メモリ32上に記憶されたピ
クセル単位のカラーデータを一つずつ読出し、順次エッ
ジ検出処理部34へ渡す(図3のステップS4)。この
とき、ポリゴン画像内のピクセルだけを読出すのではな
く、一時記憶メモリ32内の全てのピクセルを順次、読
出す。さらに、エッジ検出処理部34におけるエッジ検
出の判定のために、読出した一つのピクセルの周辺に位
置する8つのピクセルのカラーデータも同時に読出す
(図3のステップS5)。
When the drawing of the polygon image is completed, next,
The reading unit 33 reads out the pixel-by-pixel color data stored in the temporary storage memory 32 one by one and sequentially passes the color data to the edge detection processing unit 34 (Step S4 in FIG. 3). At this time, not only the pixels in the polygon image are read out, but all the pixels in the temporary storage memory 32 are sequentially read out. Further, for the edge detection determination by the edge detection processing unit 34, the color data of eight pixels located around one read pixel is also read simultaneously (step S5 in FIG. 3).

【0028】次に、エッジ検出処理部34は、ポリゴン
画像のエッジ部を検出し、そのエッジ部に輪郭を付加す
るための処理を行う部分である。ここで、前記読出し部
33で読出された一つのピクセルに対し、順次、輪郭化
条件による判定がなされる。輪郭化条件とは、対象のピ
クセルがポリゴンのエッジ部に位置し、ポリゴンに付加
しようとしている輪郭の一部をなす部分であるかどうか
を判定するための条件である。具体的には、前記周辺の
8ピクセルのカラーデータを用いて、下記(1)式をも
って判定される(図3のステップS6)。 輪郭化条件の成立 = 当該ピクセルがポリゴンの一部である(ポリゴンのカラーデータをもつ) かつ 周辺8ピクセルに透明ピクセルが存在する かつ ポリゴンデータの輪郭付加の制御情報が「付加」となっている (1)
Next, the edge detection processing section 34 is a section for detecting an edge portion of the polygon image and performing processing for adding a contour to the edge portion. Here, a determination is made sequentially for one pixel read by the reading unit 33 according to the contouring condition. The contouring condition is a condition for determining whether or not the target pixel is located at an edge of the polygon and is a part of the contour to be added to the polygon. Specifically, the determination is made according to the following equation (1) using the color data of the eight peripheral pixels (step S6 in FIG. 3). Satisfaction of contouring condition = The pixel is a part of polygon (having polygon color data), transparent pixels exist in eight surrounding pixels, and the control information of contour addition of polygon data is "added" (1)

【0029】図6は、輪郭化条件による判定を例示した
図である。図中(A)、(B)、(C)はそれぞれ、図5
におけるピクセルA、B、Cとそれらの周辺の8ピクセル
(図5のa部、b部、c部)の状態を表している。ピクセ
ルAに関しては、(A)に示すとおり、それ自体がポリゴ
ン画像P'の一部であり、また周辺ピクセルに透明ピクセ
ルを含んでいるため、輪郭化条件が成立する。ピクセル
Bに関しては、それ自体はポリゴン画像P'の一部である
が、周辺ピクセルも全てポリゴン内に存在し、透明ピク
セルを含んでいないため、輪郭化条件は成立しない。ま
た、ピクセルCに関しても、それ自体がポリゴン画像P'
に含まれていないため、輪郭化条件は不成立となる。な
お、この例では、図4で示したとおり、対象としている
ポリゴンPの輪郭付加の制御情報は「付加」であることを
前提としている。
FIG. 6 is a diagram exemplifying the determination based on the contouring condition. (A), (B) and (C) in FIG.
5 shows the state of pixels A, B, and C and eight pixels around them (a part, b part, and c part in FIG. 5). As for the pixel A, as shown in (A), the contouring condition is satisfied because the pixel A itself is a part of the polygon image P ′ and the surrounding pixels include transparent pixels. pixel
Regarding B, although it is itself a part of the polygon image P ′, since all the peripheral pixels are also present in the polygon and do not include transparent pixels, the contouring condition is not satisfied. Also, regarding pixel C, itself is a polygon image P '
, The contouring condition is not satisfied. In this example, as shown in FIG. 4, it is assumed that the control information for adding the contour of the target polygon P is “addition”.

【0030】図7は、図4に示すポリゴンPの例で、全
てのピクセルについて輪郭化条件による判定をした結果
を示している。図中、●で示したピクセルが輪郭化条件
成立のピクセルであり、ポリゴンPに付加しようとして
いる輪郭となる部分である。なお、本装置においては、
輪郭化条件による判定に周辺8つのピクセルを用いた
が、異なる数の周辺ピクセルを使用する装置としてもよ
い。
FIG. 7 shows an example of the polygon P shown in FIG. 4, in which all pixels are determined based on the contouring condition. In the figure, the pixels indicated by ● are the pixels satisfying the contouring condition, and are the portions to be the contours to be added to the polygon P. In this device,
Although eight peripheral pixels are used in the determination based on the contouring condition, a device using different numbers of peripheral pixels may be used.

【0031】以上説明したように、当該ピクセルに対す
る判定が行われ、輪郭化条件が成立した場合には、エッ
ジ検出処理部34において、そのピクセルのカラーデー
タがポリゴンに付加しようとしている輪郭のカラーに変
更される(図3のステップS7)。一方、条件が不成立
の場合には、カラーデータはそのままとされる。
As described above, when the pixel is determined and the contouring condition is satisfied, the edge detection processing unit 34 converts the color data of the pixel to the color of the contour to be added to the polygon. It is changed (step S7 in FIG. 3). On the other hand, when the condition is not satisfied, the color data is left as it is.

【0032】次に、エッジ検出処理部34で処理された
ピクセルのカラーデータが書込み部35によってフレー
ムバッファ4に書込まれる。このとき、書込もうとする
ピクセルが透明である場合、即ちポリゴンの外部にある
ピクセルである場合には、フレームバッファ4への書込
みは行わない。従って、ポリゴンデータとして与えられ
たカラーあるいは輪郭のカラーを持った、ポリゴン画像
を形成するピクセルのみが書込まれることになる(図3
のステップS8及びS9)。これにより、一つのポリゴン
を表示しようとする度にフレームバッファ4を全て更新
してしまうことがなくなり、複数のポリゴンを同時に一
つの表示画面に表示することが可能となる。
Next, the color data of the pixel processed by the edge detection processing unit 34 is written into the frame buffer 4 by the writing unit 35. At this time, if the pixel to be written is transparent, that is, if the pixel is outside the polygon, writing to the frame buffer 4 is not performed. Therefore, only pixels forming a polygon image having the color or outline color given as polygon data are written (FIG. 3).
Steps S8 and S9). This eliminates the need to update the entire frame buffer 4 every time one polygon is to be displayed, and allows a plurality of polygons to be simultaneously displayed on one display screen.

【0033】以上、説明した読出し部33、エッジ検出
処理部34、及び書込み部35における処理(図3のス
テップS4〜S9)が、一時記憶メモリ32の全てのピク
セルに対して行われ(図3のステップS10)、描画指
令を受けた一つのポリゴンに対する処理が終了する。そ
の結果、ポリゴンはそのエッジ部に輪郭が付加されて、
表示画面に表示される。図8は、図4に示したポリゴン
Pに対する処理が終了し、フレームバッファ4に書込ま
れた状態を示している。前述のとおり、ポリゴンのエッ
ジ部に位置するピクセルは、輪郭化条件が成立した結
果、輪郭のカラーで表示されており、全体としてポリゴ
ンに輪郭が付加された表現となっている。
The processing (steps S4 to S9 in FIG. 3) in the reading section 33, the edge detection processing section 34, and the writing section 35 described above is performed on all the pixels in the temporary storage memory 32 (FIG. 3). Step S10), the processing for one polygon that has received the drawing instruction is completed. As a result, the polygon has a contour added to its edge,
Displayed on the display screen. FIG. 8 shows the polygon shown in FIG.
This shows a state where the processing for P has been completed and the data has been written to the frame buffer 4. As described above, the pixels located at the edge portions of the polygon are displayed in the outline color as a result of the outline formation condition being satisfied, and the outline is added to the polygon as a whole.

【0034】通常、一つの表示画面には複数のポリゴン
が表示されるため、以上説明した図3に基づく処理が全
てのポリゴンに対してなされて、一つの画面が完成す
る。図9は、複数のポリゴンが表示画面に表されている
例を示したものであり、(a)は、輪郭を付加せずに通
常の表現をした場合、(b)は、全てのポリゴンに輪郭
を付加した場合を表している。図から明らかであるよう
に、輪郭を付加することにより、ポリゴン同士の重なり
の状態や位置関係を容易に認識することができるように
なる。
Normally, since a plurality of polygons are displayed on one display screen, the above-described processing based on FIG. 3 is performed on all the polygons to complete one screen. FIG. 9 shows an example in which a plurality of polygons are displayed on the display screen. FIG. 9A shows a case where a normal expression is added without adding an outline, and FIG. This shows a case where a contour is added. As is clear from the figure, by adding the contour, it is possible to easily recognize the overlapping state and the positional relationship between the polygons.

【0035】また、図10には、特定のポリゴンにのみ
輪郭を付加した場合の表示例を示している。輪郭を付加
したポリゴンは、他のポリゴンと比較し、その形状や位
置を容易に認識することができ、ゲーム装置における操
作対象など特に注視する必要があるポリゴンに対しては
効果がある。
FIG. 10 shows a display example when an outline is added only to a specific polygon. The polygon to which the contour is added can easily recognize its shape and position as compared with other polygons, and is effective for a polygon that needs to be watched particularly, such as an operation target in a game device.

【0036】以上、説明したように第一の実施例にかか
る画像処理装置を用い、表示するポリゴンのエッジ部に
輪郭を付加することで、隣接するポリゴンや背景画と色
や模様が似ていて認識しづらい場合においても容易に対
象のポリゴンを認識することができるという効果があ
る。また、ポリゴンデータに輪郭付加の制御情報を持た
せることで、特定のポリゴンにのみ輪郭を付加すること
が可能である。
As described above, by using the image processing apparatus according to the first embodiment to add a contour to the edge portion of the polygon to be displayed, the color and pattern are similar to those of the adjacent polygon or background image. There is an effect that the target polygon can be easily recognized even when the recognition is difficult. In addition, by providing control information for adding a contour to polygon data, it is possible to add a contour only to a specific polygon.

【0037】次に、本発明を適用した第二の実施例につ
いて説明する。前述の第一の実施例は、ポリゴン毎に輪
郭を付加するものであったが、第二の実施例では、複数
のポリゴンから構成されるオブジェクトのエッジ部に輪
郭を付加するものである。図11は、二つのオブジェク
トが重なって表示されている例を示したものである。図
11の(c)は、上面図であり、二つのオブジェクトの
実際の形状と位置関係を表している。(a)、(b)はそ
れぞれ、輪郭なしの通常の表示例、手前のオブジェクト
に輪郭を付加した場合の表示例を表している。(a)の
場合には、二つのオブジェクトが存在することやオブジ
ェクトの形状が不明瞭であるが、(b)においては、そ
れらが認識しやすくなっていることがわかる。
Next, a second embodiment to which the present invention is applied will be described. In the first embodiment described above, a contour is added for each polygon. In the second embodiment, a contour is added to an edge portion of an object composed of a plurality of polygons. FIG. 11 shows an example in which two objects are displayed overlapping each other. FIG. 11C is a top view showing the actual shapes and positional relationships of the two objects. (A) and (b) show a normal display example without a contour and a display example in which a contour is added to the object in front, respectively. In the case of (a), the existence of two objects and the shape of the object are unclear, but in (b), it is clear that they are easily recognized.

【0038】第二の実施例にかかる画像処理装置の構成
は、図1に示した第一の実施例にかかる装置の構成と同
じである。また、処理の手順においても、第一の実施例
の場合と同様であり、図3に示した処理フローにおい
て、“ポリゴンデータ”を“オブジェクトデータ”に、
“ポリゴン画像”を“オブジェクト画像”に置き換えた
ものとなる。以下、第一の実施例と異なる部分を中心
に、第二の実施例にかかる画像処理装置における処理内
容を説明する。
The configuration of the image processing apparatus according to the second embodiment is the same as the configuration of the apparatus according to the first embodiment shown in FIG. The processing procedure is the same as that of the first embodiment. In the processing flow shown in FIG. 3, “polygon data” is changed to “object data”.
"Polygon image" is replaced with "object image". Hereinafter, the processing contents of the image processing apparatus according to the second embodiment will be described, focusing on the differences from the first embodiment.

【0039】第一の実施例と同様に、まずCPU1からの
描画指令が与えられるが、ポリゴン単独の描画指令では
なく、ポリゴンの集合からなるオブジェクトの描画指令
が与えられ、オブジェクトデータが描画部31に送られ
る(図3のステップS1)。
As in the first embodiment, first, a drawing command from the CPU 1 is given, but not a drawing command for a polygon alone, but a drawing command for an object consisting of a set of polygons. (Step S1 in FIG. 3).

【0040】オブジェクトデータとは、そのオブジェク
トを構成する各ポリゴンの頂点座標とカラーデータ、及
びそのオブジェクトに輪郭を付加するか否かを表す輪郭
不可の制御情報である。図12は、描画部31へ送られ
てくるオブジェクトデータを概念的に例示した図であ
る。図に示す例は、3つのポリゴンP1、P2、P3から構成
されるオブジェクトOのオブジェクトデータが、3組の
ポリゴンデータ(頂点座標とカラーデータ)と輪郭付加
の制御情報から構成されていることを示している。
The object data is vertex coordinates and color data of each polygon constituting the object, and non-contour control information indicating whether or not a contour is added to the object. FIG. 12 is a diagram conceptually illustrating the object data sent to the drawing unit 31. In the example shown in the figure, object data of an object O composed of three polygons P 1 , P 2 , and P 3 is composed of three sets of polygon data (vertex coordinates and color data) and control information for adding a contour. It indicates that

【0041】次に、第一の実施例の場合と同様に、一時
記憶メモリ32が透明ピクセルで初期化され(図3のス
テップS2)、描画部31がその上に処理対象のオブジ
ェクトのデジタル画像であるオブジェクト画像を描画す
る(図3のステップS3)。
Next, as in the case of the first embodiment, the temporary storage memory 32 is initialized with transparent pixels (step S2 in FIG. 3), and the drawing unit 31 places thereon the digital image of the object to be processed. Is drawn (step S3 in FIG. 3).

【0042】描画は、オブジェクトを構成する全てのポ
リゴンを描画することで行われる。一時記憶メモリ32
にオブジェクト画像が描画されると、読出し部33によ
って、一時記憶メモリ32内の全てのピクセルについて
一つずつカラーデータが読出され(図3のステップS
4)、エッジ検出処理部34において、読出されたピク
セルに対する輪郭化条件による判定が順次なされる。ま
た、このとき読出したピクセルの周辺にある8ピクセル
についてもカラーデータが読出される(図3のステップ
S5)。この部分についても、第一の実施例の処理と同
様である。ここで用いられる輪郭化条件も、基本的な考
え方は前記(1)式で示したものと同じであり、“ポリ
ゴン”を“オブジェクト”に置き換えた下記(2)式と
なる。 輪郭化条件の成立 = 当該ピクセルがオブジェクトの一部である かつ 周辺8ピクセルに透明ピクセルが存在する かつ オブジェクトデータの輪郭付加の制御情報が「付加」となっている (2) 従って、(2)式によれば、当該ピクセルがオブジェク
トを構成するポリゴンのエッジ部に存在していても、オ
ブジェクトの外部に接していない限り輪郭化条件は成立
しない。即ち、オブジェクトのエッジ部となるピクセル
のみを検出することができる。ここで、輪郭化条件が成
立した場合には、当該ピクセルのカラーが輪郭のカラー
に変更される(図3のステップS6及びS7)。なお、
周辺ピクセルとして利用するピクセルの数については、
8つ以外の数としてもよい。
The drawing is performed by drawing all the polygons constituting the object. Temporary storage memory 32
When the object image is drawn, the reading unit 33 reads out color data one by one for all the pixels in the temporary storage memory 32 (step S in FIG. 3).
4) In the edge detection processing unit 34, the determination is sequentially performed on the read pixels based on the contouring condition. At this time, color data is also read for eight pixels around the read pixel (step in FIG. 3).
S5). This part is the same as the processing of the first embodiment. The basic concept of the contouring condition used here is the same as that shown in the above equation (1), and the following equation (2) is obtained by replacing "polygon" with "object". Satisfaction of contouring condition = the relevant pixel is a part of the object, transparent pixels exist in eight surrounding pixels, and control information for adding a contour of the object data is “added” (2) Therefore, (2) According to the formula, even if the pixel exists at the edge of the polygon constituting the object, the contouring condition is not satisfied unless the pixel is in contact with the outside of the object. That is, it is possible to detect only pixels that are edge portions of the object. Here, when the contouring condition is satisfied, the color of the pixel is changed to the color of the contour (steps S6 and S7 in FIG. 3). In addition,
For the number of pixels used as surrounding pixels,
The number may be other than eight.

【0043】エッジ検出処理部34における処理終了
後、書込み部35において、カラーデータが決定した各
ピクセルをフレームバッファ4へ書込む処理がなされる
が、処理の内容は、第一の実施例において説明した内容
と同じである(図3のステップS8及びS9)。一時記
憶メモリ32の全てのピクセルに対して処理を行い(図
3のステップS10)、対象とした一つのオブジェクト
に対する処理が終了する。その結果、当該オブジェクト
が輪郭を付加されて表示画面に表示される。
After completion of the processing in the edge detection processing section 34, the writing section 35 writes each pixel for which the color data has been determined into the frame buffer 4. The contents of the processing will be described in the first embodiment. The contents are the same as those described above (steps S8 and S9 in FIG. 3). The process is performed on all the pixels in the temporary storage memory 32 (step S10 in FIG. 3), and the process on one target object ends. As a result, the object is displayed on the display screen with the outline added.

【0044】図13は、図12で例示したオブジェクト
Oに対する処理が終了し、フレームバッファ4に書込ま
れた状態を示している。図中、O'は、オブジェクトOの
最終的なデジタル画像であり、そのエッジ部のピクセル
には輪郭のカラーが付されている。また、オブジェクト
の内部のピクセルは、元のポリゴンデータが保持してい
たP1、P2、P3のカラーとなっている。
FIG. 13 shows the object exemplified in FIG.
This shows a state where the processing for O has been completed and the data has been written to the frame buffer 4. In the figure, O ′ is the final digital image of the object O, and the pixels at the edges are given the color of the outline. Further, pixels inside the object has a color of P 1, P 2, P 3 the original polygon data is retained.

【0045】図14は、ゲーム装置における一画面を例
として、オブジェクトに輪郭を付加した場合(図14の
(b))としない場合(図14の(a))を比較したもの
である。この画面は、車を表現した二つのオブジェクト
が水平線近くの遠方に位置する場面を表しており、ゲー
ム操作の対象であるこれらオブジェクトの存在や位置を
すばやく認識する上で、輪郭を付加した(b)の画面の
方が適していることがわかる。
FIG. 14 shows a comparison between a case where an outline is added to an object (FIG. 14 (b)) and a case where the object is not contoured (FIG. 14 (a)), using one screen of a game device as an example. This screen shows a scene in which two objects representing a car are located in the distance near the horizon. In order to quickly recognize the existence and position of these objects that are the targets of the game operation, outlines have been added (b It turns out that the screen of ()) is more suitable.

【0046】以上、説明したように、第二の実施例にか
かる画像処理装置を用い、表示対象のオブジェクトに輪
郭を付加することで、そのオブジェクトを容易に認識す
ることができ、ゲーム装置などにおいて操作性を向上さ
せることができる。また、オブジェクトデータに輪郭付
加の制御情報を持たせることで、操作対象のオブジェク
トだけに輪郭を付加するなど、輪郭を付加するオブジェ
クトを選択することが可能である。
As described above, by adding an outline to an object to be displayed by using the image processing apparatus according to the second embodiment, the object can be easily recognized. Operability can be improved. By providing control information for adding a contour to the object data, it is possible to select an object to which a contour is to be added, such as adding a contour only to an object to be operated.

【0047】次に、本発明を適用した第三の実施例につ
いて説明する。第一の実施例及び第二の実施例で説明し
た画像処理装置は、表示対象物を認識しやすくすること
を目的に、ポリゴンやオブジェクトのエッジ部を、いわ
ゆる輪郭として表現するものであったが、本実施例にか
かる画像処理装置は、そのエッジ部を半透明処理するこ
とにより、表示するポリゴンやオブジェクトのエッジ部
におけるギザギザ感の緩和(アンチエイリアシング)を
行おうとするものである。図15は、ポリゴンのエッジ
部における半透明処理を例示した図であり、(a)は半
透明処理をしていない状態、(b)は半透明処理をした
状態を表している。
Next, a third embodiment to which the present invention is applied will be described. Although the image processing apparatuses described in the first and second embodiments express the edges of polygons and objects as so-called contours for the purpose of making it easier to recognize the display object. The image processing apparatus according to the present embodiment intends to reduce jaggedness (anti-aliasing) at edges of polygons and objects to be displayed by performing translucent processing on the edges. FIGS. 15A and 15B are diagrams exemplifying a translucent process in an edge portion of a polygon. FIG. 15A shows a state where the translucent process is not performed, and FIG. 15B shows a state where the translucent process is performed.

【0048】図16は、本実施例にかかる画像処理装置
の構成図であり、図1に示した第一の実施例及び第二の
実施例における画像処理装置とほぼ同じ構成である。前
述のとおり、本実施例の画像処理装置は、第一、第二の
実施例における画像処理装置とくらべて、検出されたエ
ッジ部に対する処理方法が異なるだけであるため、図1
6のエッジ検出処理部34'及び書込み部35'における
機能のみが異なってくる。従って、図3に示した処理フ
ローにおいては、ステップS7の処理のみが第一、第二
の実施例の場合と相違しており、その内容を図17の処
理フローに示している。図中、ステップS7'が相違する
部分である。以下、図16、図17に基づいて、本実施
例のみの特徴であるエッジ検出処理部34'及び書込み
部35'における処理内容について説明する。
FIG. 16 is a block diagram of the image processing apparatus according to the present embodiment, which has substantially the same configuration as the image processing apparatuses according to the first and second embodiments shown in FIG. As described above, the image processing apparatus according to the present embodiment differs from the image processing apparatuses according to the first and second embodiments only in the processing method for the detected edge part.
6 only in the functions of the edge detection processing section 34 'and the writing section 35'. Therefore, in the processing flow shown in FIG. 3, only the processing in step S7 is different from those in the first and second embodiments, and the contents are shown in the processing flow in FIG. In the figure, step S7 'is a different part. Hereinafter, based on FIG. 16 and FIG. 17, processing contents in the edge detection processing unit 34 ′ and the writing unit 35 ′, which are features of the present embodiment only, will be described.

【0049】前述のとおり、描画命令の対象となったポ
リゴンあるいはオブジェクトの画像が一時記憶メモリ3
2に記憶され、そのピクセルのカラーデータが一つずつ
読出されて、エッジ検出処理部34'へ送られてくる。
エッジ検出処理部34'では、まず、データが送られた
ピクセルに対して、前述のとおり、前記(1)式あるい
は(2)式に基づく輪郭化条件の判定を行う(図17の
ステップS6)。
As described above, the image of the polygon or object targeted by the drawing command is stored in the temporary storage memory 3.
2, and the color data of the pixel is read out one by one and sent to the edge detection processing unit 34 '.
First, the edge detection processing unit 34 'determines the contouring condition for the pixel to which the data is sent, based on the expression (1) or (2) as described above (step S6 in FIG. 17). .

【0050】ここで、輪郭化条件が成立した場合、即ち
当該ピクセルがエッジ部に存在すると判定された場合に
は、当該ピクセルを半透明化し、そのブレンド率を算出
する(図17のステップS7'−1)。半透明化するとい
うことは、当該ピクセルの表示カラーを決定するに当た
り、同位置に存在する他のポリゴンのカラーや背景色
と、処理対象としているポリゴンのカラー(当該ピクセ
ルがもつカラー)をブレンドすることを意味し、このと
きの処理対象としているポリゴンのカラーの寄与率をブ
レンド率と呼ぶ。このブレンド率は、輪郭化条件の判定
で使用された周辺8ピクセルのカラーデータを用いて、
下記(3)式によって算出される。 ブレンド率 = 周辺8ピクセルの中で透明ピクセルでないピクセルの数/8 (3)
Here, when the contouring condition is satisfied, that is, when it is determined that the pixel exists at the edge portion, the pixel is made translucent and the blend ratio is calculated (step S7 'in FIG. 17). -1). Translucent means that in determining the display color of the pixel, the color or background color of another polygon at the same position is blended with the color of the polygon to be processed (the color of the pixel). This means that the contribution ratio of the color of the polygon to be processed at this time is called a blend ratio. This blend ratio is calculated using the color data of the surrounding eight pixels used in the determination of the contouring condition.
It is calculated by the following equation (3). Blend ratio = number of non-transparent pixels in the 8 surrounding pixels / 8 (3)

【0051】図18は、ブレンド率の算出方法を説明す
るための図である。ここでは、図4などで示されたポリ
ゴンPのポリゴン画像が例として用いられている。図4
の(A)は、各ピクセルに対する輪郭化条件の判定結果
を表しており、●で示されたピクセルがエッジ部である
と判断されたピクセル、即ち半透明化の対象ピクセルで
ある。図4の(A−a)、(A−b)、(A−c)はそれぞ
れ、(A)のピクセルa、b、cとそれらの周辺ピクセルを
表した図である。(A−a)に示すとおり、ピクセルaの
ブレンド率は、前記(3)に従い、周辺8ピクセルの内
二つのピクセルが透明でないため、2/8となる。同様
に、ピクセルb、cのブレンド率はそれぞれ、5/8、7
/8となる。図4の(B)は、半透明化の対象となる全
てのピクセルについて、ブレンド率を算出した結果であ
る。なお、本実施例にかかる装置では、ブレンド率を算
出する際に8つの周辺ピクセルを使用したが、異なる数
の周辺ピクセルを使用する装置としてもよい。
FIG. 18 is a diagram for explaining a method of calculating the blend ratio. Here, a polygon image of the polygon P shown in FIG. 4 and the like is used as an example. FIG.
(A) shows the determination result of the contouring condition for each pixel, and the pixel indicated by ● is a pixel determined to be an edge portion, that is, a pixel to be translucent. (A-a), (A-b), and (A-c) of FIG. 4 are diagrams respectively showing the pixels a, b, and c of (A) and their peripheral pixels. As shown in (A-a), the blending ratio of the pixel a is 2/8 according to the above (3) because two of the surrounding eight pixels are not transparent. Similarly, the blend ratios of pixels b and c are 5/8 and 7 respectively.
/ 8. FIG. 4B shows the result of calculating the blend ratio for all the pixels to be made translucent. In the apparatus according to the present embodiment, eight peripheral pixels are used when calculating the blend ratio. However, an apparatus using a different number of peripheral pixels may be used.

【0052】エッジ検出処理部34'で半透明化とブレ
ンド率の算出が行われたピクセルのデータは、次に、書
込み部35'に送られて、ここで最終的なカラーの決定
とフレームバッファ4への書込みが行われる。まず、フ
レームバッファ4から、処理対象のピクセルと同位置
(座標)にあるピクセルのカラーデータが読込まれる
(図17のステップS7'−2)。次に、エッジ検出処理
部34'から送られたカラーデータ(処理対象のポリゴ
ンのカラーデータ)と、この読込まれたカラーデータが
ブレンド処理され、フレームバッファ4へ書込む最終カ
ラーが決定される(図17のステップS7'−3)。最終
カラーは、下記(4)式によって求める。 最終カラー = A×k + B×(1‐k) (4) 但し、 A :処理対象のポリゴンのカラーデー
タ B :フレームバッファから読込まれたカラーデータ k :前記のブレンド率 最終カラーが決定すれば、第一、第二の実施例の場合と
同様に、書込み判定(図17のステップS8)を経て、
フレームバッファ4への書込みが行われる。一方、エッ
ジ検出処理部34'における輪郭化条件が不成立となっ
た場合には、これまでに説明した半透明処理は行われず
に、フレームバッファ4への書込み判定(図17のステ
ップS8)の処理がなされる。
The pixel data for which the translucency and the blend ratio have been calculated by the edge detection processing unit 34 'are then sent to the writing unit 35' where the final color determination and frame buffer 4 is written. First, the color data of the pixel at the same position (coordinate) as the pixel to be processed is read from the frame buffer 4 (step S7'-2 in FIG. 17). Next, the color data (the color data of the polygon to be processed) sent from the edge detection processing unit 34 'and the read color data are subjected to a blending process to determine the final color to be written to the frame buffer 4 ( Step S7'-3) in FIG. The final color is obtained by the following equation (4). Final color = A × k + B × (1−k) (4) where A: color data of the polygon to be processed B: color data read from the frame buffer k: the above blend ratio If the final color is determined As in the case of the first and second embodiments, through the write determination (step S8 in FIG. 17),
Writing to the frame buffer 4 is performed. On the other hand, if the contouring condition in the edge detection processing unit 34 'is not satisfied, the translucent processing described so far is not performed, and the writing determination to the frame buffer 4 (step S8 in FIG. 17) is performed. Is made.

【0053】以上説明した一つのピクセルに対する処理
が、一時記憶メモリ32の全てのピクセルに対して施さ
れることにより、一つのポリゴンあるいはオブジェクト
に対する処理が終了する。その結果、エッジ部が半透明
処理されたポリゴンあるいはオブジェクトの画像が表示
される。図19は、エッジ部を半透明処理した場合(図
19の(B))と、しない場合(図19の(A))の表示
画像を比較して示した図である。これは、図18で例示
したポリゴンの描画結果であり、(B)において、ポリ
ゴンのエッジ部が、白で表現されされている背景色とブ
レンドされて薄くなっていることがわかる。その薄さの
度合いは、前述のとおり、図18の(B)に示したブレ
ンド率により決まり、その値が小さいほどポリゴンのカ
ラーの寄与率が減って薄い色となっている。
The processing for one pixel described above is performed on all the pixels in the temporary storage memory 32, thereby completing the processing for one polygon or object. As a result, an image of a polygon or an object whose edge part has been translucently processed is displayed. FIG. 19 is a diagram showing a comparison between display images when the edge portion is translucently processed (FIG. 19B) and when it is not (FIG. 19A). This is the rendering result of the polygon illustrated in FIG. 18, and in FIG. 18B, it can be seen that the edge portion of the polygon is blended with the background color expressed in white and thinned. As described above, the degree of the thinness is determined by the blending ratio shown in FIG. 18B, and the smaller the value is, the smaller the contribution ratio of the polygon color is and the lighter the color becomes.

【0054】以上説明した第三の実施例にかかる画像処
理装置を用いることで、表示するポリゴンやオブジェク
トのエッジ部を半透明処理することができ、そのエッジ
部におけるギザギザ感を緩和することができる。なお、
表示するポリゴンやオブジェクトのエッジ部を検出し、
その部分に特別な描画をすることによって、良好な表示
画面を生成しようとする点においては、第三の実施例
も、第一、第二の実施例と同じ目的を有しているといえ
る。なお、前記(3)式及び(4)式で示した、ブレン
ド率及びそれを用いた最終カラーの算出式は一例であ
る。本発明の保護範囲は、上記の実施の形態に限定され
ず、特許請求の範囲に記載された発明とその均等物に及
ぶものである。
By using the image processing apparatus according to the third embodiment described above, the edges of polygons and objects to be displayed can be translucently processed, and the jaggedness at the edges can be reduced. . In addition,
Detects the edges of polygons and objects to be displayed,
It can be said that the third embodiment also has the same purpose as the first and second embodiments in that a good display screen is generated by performing a special drawing on that portion. It should be noted that the blend ratios and the final color calculation formulas using the blend ratios shown in the above formulas (3) and (4) are examples. The protection scope of the present invention is not limited to the above embodiments, but extends to the inventions described in the claims and their equivalents.

【0055】[0055]

【発明の効果】以上、図面に従い実施の形態を説明した
ように、本発明によれば、表示対象物のデジタル画像に
おけるエッジ部を検出し、そのエッジ部に特定の処理を
施すことができる。従って、エッジ部に輪郭を付加する
処理を行う場合には、表示画面上において表示対象物を
認識しやすくすることができるという効果がある。ま
た、エッジ部に半透明処理を施す場合には、表示対象物
のエッジ部におけるギザギザ感を緩和する、いわゆるア
ンチエイリアシングの効果がある。
As described above, according to the embodiments of the present invention, an edge portion in a digital image of an object to be displayed can be detected and a specific process can be performed on the edge portion. Therefore, when a process of adding a contour to an edge portion is performed, there is an effect that the display target can be easily recognized on the display screen. Further, in the case where the translucent processing is performed on the edge portion, there is an effect of so-called anti-aliasing, which reduces jaggedness at the edge portion of the display object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した画像処理装置の第一の実施例
にかかる構成図である。
FIG. 1 is a configuration diagram according to a first embodiment of an image processing apparatus to which the present invention has been applied.

【図2】ポリゴンへの輪郭付加を例示した図である。FIG. 2 is a diagram illustrating an example of adding a contour to a polygon;

【図3】第一の実施例にかかる画像処理装置のレンダリ
ング部における処理フローを示した図である。
FIG. 3 is a diagram illustrating a processing flow in a rendering unit of the image processing apparatus according to the first embodiment.

【図4】描画部31へ送られてくるポリゴンデータを概
念的に例示した図である。
FIG. 4 is a diagram conceptually illustrating polygon data sent to a drawing unit 31;

【図5】図4で例示したポリゴンPが一時記憶メモリ3
2上に描画された状態を示す図である。
FIG. 5 shows a temporary storage memory 3 of a polygon P illustrated in FIG.
FIG. 6 is a diagram showing a state where the image is drawn on a second surface;

【図6】輪郭化条件による判定を説明するための図であ
る。
FIG. 6 is a diagram for explaining determination based on contouring conditions.

【図7】図4に示すポリゴンPに関する全てのピクセル
に対する輪郭化条件による判定結果を示した図である。
FIG. 7 is a diagram illustrating a determination result based on a contouring condition for all pixels regarding the polygon P illustrated in FIG. 4;

【図8】図4に示したポリゴンPがフレームバッファ4
に書込まれた状態を示した図である。
FIG. 8 shows a polygon P shown in FIG.
FIG. 7 is a diagram showing a state where data has been written to a.

【図9】複数のポリゴンに対して輪郭を付加した場合と
付加しない場合の表示例を示した図である。
FIG. 9 is a diagram illustrating a display example in a case where a contour is added to a plurality of polygons and a case where a contour is not added.

【図10】特定のポリゴンにのみ輪郭を付加した場合の
表示例を示した図である。
FIG. 10 is a diagram showing a display example when an outline is added only to a specific polygon.

【図11】二つのオブジェクトが重なって表示されてい
る例を示した図である。
FIG. 11 is a diagram showing an example in which two objects are displayed overlapping each other.

【図12】描画部31へ送られてくるオブジェクトデー
タを概念的に例示した図である。
FIG. 12 is a diagram conceptually illustrating object data sent to a drawing unit 31;

【図13】図12で例示したオブジェクトOがフレーム
バッファ4に書込まれた状態を示した図である。
FIG. 13 is a diagram showing a state in which the object O illustrated in FIG. 12 has been written into the frame buffer 4;

【図14】ゲーム装置における一画面において、オブジ
ェクトに輪郭を付加した場合としない場合の表示例を示
した図である。
FIG. 14 is a diagram showing a display example in a case where a contour is added to an object on a single screen of the game device;

【図15】ポリゴンのエッジ部における半透明処理を例
示した図である。
FIG. 15 is a diagram illustrating a translucent process at an edge portion of a polygon.

【図16】第三の実施例にかかる画像処理装置の構成図
である。
FIG. 16 is a configuration diagram of an image processing apparatus according to a third embodiment.

【図17】第三の実施例にかかる画像処理装置の処理フ
ローを表した図である。
FIG. 17 is a diagram illustrating a processing flow of the image processing apparatus according to the third embodiment.

【図18】ブレンド率の算出方法を説明するための図で
ある。
FIG. 18 is a diagram for explaining a method of calculating a blend ratio.

【図19】エッジ部を半透明処理した場合としない場合
の表示画像を比較して示した図である。
FIG. 19 is a diagram illustrating a comparison between display images when an edge portion is subjected to translucent processing and when it is not.

【図20】一般的な画像処理装置の大まかな構成を示し
た図である。
FIG. 20 is a diagram showing a rough configuration of a general image processing apparatus.

【符号の説明】[Explanation of symbols]

1 CPU 2 ジオメトリ部 3 レンダリング部 4 フレームバッファ 31 描画部 32 一時記憶メモリ 33 読出し部 34 エッジ検出処理部 35 書込み部 DESCRIPTION OF SYMBOLS 1 CPU 2 Geometry part 3 Rendering part 4 Frame buffer 31 Drawing part 32 Temporary memory 33 Reading part 34 Edge detection processing part 35 Writing part

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】三次元座標を有するオブジェクト群を、ピ
クセルの羅列からなる二次元の表示画面に描画する画像
処理装置における該表示画面へ描画される描画対象図形
のエッジ描画方法において、 一つの該描画対象図形を該表示画面に描画するときに、 該表示画面内で該一つの描画対象図形を包含する所定の
大きさの領域に含まれる全てのピクセルに対し、ピクセ
ル毎に、該ピクセルが該一つの描画対象図形のエッジ部
に存在するか否かの判定を行う第一のステップと、 該第一のステップで、エッジ部に存在すると判定された
ピクセルについてのみ、所定の処理を施す第二のステッ
プを有することを特徴とするエッジ描画方法。
1. An image processing apparatus for drawing an object group having three-dimensional coordinates on a two-dimensional display screen consisting of a series of pixels, wherein the edge drawing method of a drawing target graphic drawn on the display screen is performed by one of the following: When the drawing target graphic is drawn on the display screen, for every pixel included in a region of a predetermined size including the one drawing target graphic in the display screen, the pixel is A first step of determining whether or not the pixel is present at an edge of one drawing target graphic; and a second step of performing a predetermined process only on pixels determined to be present at the edge in the first step. An edge drawing method, comprising the steps of:
【請求項2】請求項1において、 前記第一のステップにおける判定は、 前記ピクセルが、前記一つの描画対象図形内に存在し、
かつ、前記ピクセルの周辺に位置する所定の数のピクセ
ルのうち、一つ以上のピクセルが前記一つの描画対象図
形内に存在しない場合に、前記ピクセルがエッジ部に存
在すると判定することを特徴とするエッジ描画方法。
2. The method according to claim 1, wherein the determination in the first step is such that the pixel exists in the one drawing target graphic,
And, when one or more pixels out of the predetermined number of pixels located around the pixel do not exist in the one drawing target graphic, it is determined that the pixel exists in the edge portion. Edge drawing method to be used.
【請求項3】請求項1あるいは請求項2において、 前記一つの描画対象図形が、一つのポリゴンであり、 前記第二のステップにおける所定の処理が、前記エッジ
部に存在すると判定されたピクセルの描画カラーを、該
ポリゴンの輪郭を表現するカラーとする処理であること
を特徴とするエッジ描画方法。
3. The method according to claim 1, wherein the one drawing object graphic is one polygon, and the predetermined process in the second step is a process for a pixel determined to be present in the edge portion. An edge drawing method, characterized in that the drawing color is a process of setting the drawing color to a color expressing the outline of the polygon.
【請求項4】請求項1あるいは請求項2において、 前記一つの描画対象図形が、一つの前記オブジェクトを
表現するポリゴンの集合からなる図形であり、 前記第二のステップにおける所定の処理が、前記エッジ
部に存在すると判定されたピクセルの描画カラーを、該
オブジェクトの輪郭を表現するカラーとする処理である
ことを特徴とするエッジ描画方法。
4. The method according to claim 1, wherein the one drawing target graphic is a graphic composed of a set of polygons representing one object, and the predetermined process in the second step is An edge drawing method, characterized in that the drawing color of a pixel determined to be present in an edge portion is a color representing a contour of the object.
【請求項5】請求項1あるいは請求項2において、 前記第二のステップにおける所定の処理が、 前記エッジ部に存在すると判定されたピクセルの描画カ
ラーを、前記一つの描画対象図形のカラーと、前記一つ
の描画対象図形を描画する前に該ピクセルが有していた
カラーをブレンドして決定するブレンド処理であること
を特徴とするエッジ描画方法。
5. The image processing method according to claim 1, wherein the predetermined processing in the second step includes: rendering a drawing color of a pixel determined to be present in the edge portion with a color of the one drawing target graphic; An edge drawing method, which is a blending process of blending and determining colors possessed by the pixel before drawing the one drawing target graphic.
【請求項6】請求項5において、 前記ブレンド処理におけるカラーのブレンドが、 前記ピクセルの周辺に位置する所定の数のピクセルのう
ち、前記一つの描画対象図形内に存在するピクセルの数
に応じた割合で行われることを特徴とするエッジ描画方
法。
6. The image processing apparatus according to claim 5, wherein the color blending in the blending process is performed according to the number of pixels existing in the one drawing target graphic out of a predetermined number of pixels located around the pixel. An edge drawing method characterized by being performed at a ratio.
【請求項7】三次元座標を有するオブジェクト群を二次
元の表示画面に描画する画像処理装置であって、CPUか
らの描画命令に基づいて、描画対象図形を、該表示画面
を構成するピクセル単位のデータからなるデジタル画像
として、フレームバッファへ書込む画像処理装置におい
て、 該表示画面上における一つの該描画対象図形のデジタル
画像を包含する所定の大きさの領域内に含まれる全ての
ピクセルのカラーデータを一時的に格納するメモリであ
って、一つの該描画対象図形に対する該描画命令を受け
る度に該全てのピクセルのカラーデータが初期化される
一時記憶メモリと、 該一つの描画対象図形に対する描画命令に基づいて、該
一時記憶メモリが初期化された後に、該描画命令と共に
与えられる該一つの描画対象図形のデータから、該一つ
の描画対象図形のデジタル画像を生成し、該デジタル画
像を構成するピクセルのカラーデータを該一時記憶メモ
リに書込む描画手段と、 該描画手段による書込みの後に、該一時記憶メモリにデ
ータが格納されている全てのピクセルについて、ピクセ
ル毎に、該一時記憶メモリから対象ピクセルのカラーデ
ータと該対象ピクセルの周辺に位置する所定の数の周辺
ピクセルのカラーデータを読出す読出し手段と、 該読出し手段で読出されたカラーデータから、該対象ピ
クセルが該描画手段で生成されたデジタル画像のエッジ
部に存在するか否かの判定をし、エッジ部に存在すると
判定された場合には、該対象ピクセルのカラーデータを
所定の処理によって変更し、エッジ部に存在すると判定
されなかった場合には、該対象ピクセルのカラーデータ
をそのままとするエッジ部検出処理手段と、 該エッジ部検出処理手段における処理の後に該対象ピク
セルが有しているカラーデータに基づいて、該一つの描
画対象図形のデジタル画像を該フレームバッファへ書込
む書込み手段を有することを特徴とする画像処理装置。
7. An image processing apparatus for drawing an object group having three-dimensional coordinates on a two-dimensional display screen, wherein a drawing target figure is converted into pixel units constituting the display screen based on a drawing command from a CPU. An image processing device that writes a digital image of the data of the drawing into a frame buffer, wherein colors of all pixels included in an area of a predetermined size including a digital image of one of the graphics to be drawn on the display screen; A temporary memory for temporarily storing data, wherein a color data of all the pixels is initialized each time the drawing command for one drawing target graphic is received; After the temporary storage memory is initialized based on the drawing command, from the data of the one drawing target graphic given together with the drawing command, A drawing unit for generating a digital image of one drawing target figure and writing color data of pixels constituting the digital image into the temporary storage memory; and storing the data in the temporary storage memory after writing by the drawing unit. Reading means for reading, for each pixel, color data of the target pixel and color data of a predetermined number of peripheral pixels located around the target pixel from the temporary storage memory for each pixel; It is determined from the color data read in step 1 whether or not the target pixel exists at the edge of the digital image generated by the drawing means. If it is determined that the target pixel exists at the edge, the target pixel Is changed by a predetermined process, and if it is not determined that the color data exists in the edge portion, the color of the target pixel is changed. Edge part detection processing means for maintaining the data as it is, and, after processing by the edge part detection processing means, the digital image of the one drawing target graphic is stored in the frame buffer based on the color data of the target pixel. An image processing apparatus, comprising: a writing unit that writes data into a device.
【請求項8】請求項7において、 前記一時記憶メモリの初期化は、 前記一時記憶メモリに格納されている全てのピクセルの
カラーデータを透明とすることであり、 前記エッジ検出処理手段におけるエッジ部に存在するか
否かの判定は、 前記対象ピクセルのカラーデータが透明ではなく、か
つ、前記周辺ピクセルの内一つ以上のピクセルのカラー
データが透明である場合に、前記対象ピクセルがエッジ
部に存在すると判定することにより行われることを特徴
とする画像処理装置。
8. The edge part in the edge detection processing means according to claim 7, wherein the initialization of the temporary storage memory is to make the color data of all the pixels stored in the temporary storage memory transparent. It is determined whether or not the target pixel is in the edge portion, if the color data of the target pixel is not transparent and the color data of one or more of the peripheral pixels is transparent. An image processing apparatus, which is performed by determining that there is an image.
【請求項9】請求項7あるいは請求項8において、 前記一つの描画対象図形が、一つのポリゴンであり、 前記エッジ検出処理手段においてエッジ部に存在すると
判定された場合の所定の処理が、前記対象ピクセルのカ
ラーデータを該ポリゴンの輪郭を表現するカラーとする
処理であることを特徴とする画像処理装置。
9. The method according to claim 7, wherein said one drawing target graphic is one polygon, and said predetermined processing when said edge detection processing means determines that said figure is present in an edge portion. An image processing apparatus, wherein color data of a target pixel is converted into a color expressing the outline of the polygon.
【請求項10】請求項7あるいは請求項8において、 前記一つの描画対象図形が、ポリゴンの集合からなる一
つの前記オブジェクトを表現する図形であり、 前記エッジ検出処理手段においてエッジ部に存在すると
判定された場合の所定の処理が、前記対象ピクセルのカ
ラーデータを該オブジェクトの輪郭を表現するカラーと
する処理であることを特徴とする画像処理装置。
10. The drawing according to claim 7, wherein said one drawing target figure is a figure representing one object consisting of a set of polygons, and said edge detection processing means determines that said drawing exists at an edge portion. The image processing apparatus according to claim 1, wherein the predetermined process is a process of setting the color data of the target pixel as a color representing the contour of the object.
【請求項11】請求項7あるいは請求項8において、 前記エッジ検出処理手段においてエッジ部に存在すると
判定された場合の所定の処理が、 前記対象ピクセルのカラーデータを、前記フレームバッ
ファ上の前記対象ピクセルと同位置のピクセルが有して
いるカラーデータと、前記対象ピクセルのカラーデータ
をブレンドして得られるカラーとするブレンド処理であ
ることを特徴とする画像処理装置。
11. The method according to claim 7, wherein the predetermined processing when the edge detection processing means determines that the target pixel exists in the edge portion includes: An image processing apparatus, comprising: a blending process for forming a color obtained by blending color data of a pixel at the same position as a pixel with color data of the target pixel.
【請求項12】請求項11において、 前記ブレンド処理におけるカラーデータのブレンドが、 前記周辺ピクセルのうち、透明でないカラーデータを有
するピクセルの数に応じた割合で行われることを特徴と
する画像処理装置。
12. The image processing apparatus according to claim 11, wherein the blending of the color data in the blending process is performed at a rate corresponding to the number of pixels having non-transparent color data among the peripheral pixels. .
JP28453499A 1999-10-05 1999-10-05 Image processing device Expired - Fee Related JP4433525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28453499A JP4433525B2 (en) 1999-10-05 1999-10-05 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28453499A JP4433525B2 (en) 1999-10-05 1999-10-05 Image processing device

Publications (2)

Publication Number Publication Date
JP2001109896A true JP2001109896A (en) 2001-04-20
JP4433525B2 JP4433525B2 (en) 2010-03-17

Family

ID=17679716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28453499A Expired - Fee Related JP4433525B2 (en) 1999-10-05 1999-10-05 Image processing device

Country Status (1)

Country Link
JP (1) JP4433525B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013500511A (en) * 2009-07-24 2013-01-07 アルカテル−ルーセント Image processing method, avatar display adaptation method, and corresponding image processing processor, virtual world server, and communication terminal
JP2021507332A (en) * 2017-12-15 2021-02-22 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Methods and devices for generating navigation guides

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013500511A (en) * 2009-07-24 2013-01-07 アルカテル−ルーセント Image processing method, avatar display adaptation method, and corresponding image processing processor, virtual world server, and communication terminal
US9776090B2 (en) 2009-07-24 2017-10-03 Alcatel Lucent Image processing method, avatar display adaptation method and corresponding image processing processor, virtual world server and communication terminal
JP2021507332A (en) * 2017-12-15 2021-02-22 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Methods and devices for generating navigation guides
JP7244185B2 (en) 2017-12-15 2023-03-22 アリババ・グループ・ホールディング・リミテッド Method and apparatus for generating a navigation guide

Also Published As

Publication number Publication date
JP4433525B2 (en) 2010-03-17

Similar Documents

Publication Publication Date Title
JP3761085B2 (en) Image processing apparatus, components thereof, and rendering processing method
US8602888B2 (en) Video game device and image processing program
US7884825B2 (en) Drawing method, image generating device, and electronic information apparatus
JP3792149B2 (en) Image processing apparatus and image processing program
US7495672B2 (en) Low-cost supersampling rasterization
US6712700B1 (en) Stereo model displaying method and apparatus in video game, game apparatus, and computer-readable recording medium stored with stereo model displaying program for video game
JP3547250B2 (en) Drawing method
JP4311877B2 (en) Anti-aliasing of subsampled texture edges
JPH07271342A (en) Device for plotting three-dimensional sprite
JP4433525B2 (en) Image processing device
JP2012216029A (en) Program, information storage medium, terminal, server, and marker display body
JP2006293470A (en) Drawing system, method therefor, and drawing program
JPH11331700A (en) Image processing unit and image processing method
JP3052839B2 (en) Image processing apparatus and processing method thereof
US7170528B1 (en) Fast glyph rendering for vector based fonts
JP3586253B2 (en) Texture mapping program
JP3872056B2 (en) Drawing method
US6900804B1 (en) Method of forming polygon image and image processing apparatus using the same
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP2755204B2 (en) Polyhedron display method and polyhedron display device
JP4624617B2 (en) Improved S-buffer anti-aliasing method
JP3579680B2 (en) Image processing apparatus and program
JP4847572B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP4204114B2 (en) Polygon data processing method
JP4188463B2 (en) Image generating apparatus, image generating method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091221

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees