JP2001109896A - Edge drawing method and image processor using same - Google Patents

Edge drawing method and image processor using same

Info

Publication number
JP2001109896A
JP2001109896A JP28453499A JP28453499A JP2001109896A JP 2001109896 A JP2001109896 A JP 2001109896A JP 28453499 A JP28453499 A JP 28453499A JP 28453499 A JP28453499 A JP 28453499A JP 2001109896 A JP2001109896 A JP 2001109896A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
edge
image
display
digital
method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP28453499A
Other languages
Japanese (ja)
Other versions
JP4433525B2 (en )
Inventor
Shuji Hori
修司 堀
Original Assignee
Sega Corp
株式会社セガ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To provide an edge drawing method which makes easier to recognize the shape of a figure on a display screen or reduces the jaggedness of an edge part of the figure when an object group having three-dimensional coordinates is displayed as a digital image on a two-dimensional display screen, and an image processor which uses the method. SOLUTION: For a digital image of a display object, data on each pixel and pixels around it are used to decide whether or not the pixel is positioned at the edge part of the digital image and a specific process is performed only for the pixels which are so decided that they are positioned at the edge part.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、図形をデジタル画像として二次元の表示画面に表示する際のエッジ描画方法及びこれを用いた画像処理装置に関する。 The present invention relates to relates to an image processing apparatus using the method and the same edge drawing in displaying on the display screen of the two-dimensional graphic as a digital image.

【0002】 [0002]

【従来の技術】近年、ゲーム装置などのコンピュータグラフィクス技術を用いた画像処理装置において、CRT等の二次元画面に表示される画像をより高品質とし、見栄えのあるものにすることが望まれている。 Recently, in an image processing apparatus using a computer graphics technique, such as a game apparatus, image and higher quality to be displayed on the two-dimensional screen such as a CRT, it is desirable to some of the appearance there.

【0003】かかる画像処理装置は、表示対象となる三次元空間内の図形、すなわち三次元座標を持つオブジェクトをポリゴン(多角形面)の集積として考え、そのポリゴンがもつ属性データ(以下、ポリゴンデータと呼ぶ)から最終的な二次元の画像を生成するものである。 [0003] Such an image processing apparatus, figure of the three-dimensional space to be displayed, namely consider an object with three-dimensional coordinates as an integrated polygon (polygonal plane), the attribute data (hereinafter which the polygon has, polygon data and it generates an image of the final two-dimensional and a called).
この二次元画像は、画素(ピクセル)単位で表現された、いわゆるデジタル画像であり、ディスプレイなどの表示画面上に表現される。 The two-dimensional images, represented in units of pixels is a so-called digital image is represented on a display screen such as a display. また、前記ポリゴンデータは、ポリゴンの各頂点座標、カラーデータなどの情報からなるデータ群である。 Further, the polygon data, the polygon vertex coordinates, a data group composed of information such as color data.

【0004】図20は、一般的な画像処理装置の大まかな構成を示した図である。 [0004] Figure 20 is a diagram showing a rough configuration of a typical image processing apparatus. CPU1は、画像処理装置の全体の機能を制御しており、プログラムに従って表示画面上に表現すべきオブジェクトのポリゴンデータをジオメトリ部2に送る。 CPU1 controls the entire functions of the image processing apparatus, and sends the polygon data of objects to be represented on the display screen in accordance with a program to the geometry section 2. ジオメトリ部2は、座標変換、透視変換などの処理を行う部分であり、送られたポリゴンデータは、表示画面に対応した二次元データに変換される。 Geometry section 2, coordinate transformation, a portion that performs processing such as perspective transformation, the polygon data sent is converted into a two-dimensional data corresponding to the display screen.

【0005】次に、レンダリング部3では、ジオメトリ部2から送られる前記二次元データに変換されたポリゴンデータを基に、各種の処理が施され、表示画面に表示する各ピクセルの色(即ちRGBの輝度)が最終的に決定される。 [0005] Next, the rendering unit 3, based on the polygon data to which the converted two-dimensional data sent from the geometry unit 2, various processing is performed, the color of each pixel to be displayed on the display screen (i.e. RGB luminance) is ultimately determined. ここでは、ポリゴンデータに含まれる頂点座標とカラーデータから各ピクセルの色を補間計算する処理、表示画面上における各ポリゴンの奥行き方向の上下関係を決定する陰面処理、光の影響を表現する陰影付けの処理、あるいは表示対象物の表面の模様等を表現するテクスチャマッピングの処理など、表示対象物であるオブジェクトをよりリアルに可視化するための処理が行われる。 Here, the process of interpolation calculation of the color of each pixel from the vertex coordinates and color data included in the polygon data, hidden surface processing of determining a vertical relationship in the depth direction of each polygon on the display screen, shading to represent the effect of light processing, or a process of texture mapping for expressing a pattern of the surface of the display object, processing for visualizing is performed more realistic an object is a display object. 最後に、レンダリング部3で決定された各ピクセルの最終的な色(即ちRGBの輝度)がフレームバッファ4に書込まれ、その情報が表示画面上に表示される。 Finally, the rendering unit 3 final color of each pixel determined in (i.e. RGB luminance) is written into the frame buffer 4, the information is displayed on the display screen.

【0006】一般のゲーム装置などでは、以上説明したような装置により、表示対象であるオブジェクトを可視化し、仮想現実感のある画面を生成している。 [0006] In such a general game apparatus, the apparatus as described above, the object is displayed visualized, and generates a screen with a virtual reality.

【0007】 [0007]

【発明が解決しようとする課題】しかしながら、表示する画面によっては、主たる表示対象物(オブジェクトやそれを構成するポリゴン)の色や形がその背景画と似ているために、画面を見る者にとって、その主たる表示対象物を認識することが困難である場合があった。 [SUMMARY OF THE INVENTION However, depending on the screen displayed, in order to color and shape of the main display object (polygons constituting an object or it) are similar to the background image, those who see the screen , in some cases it is difficult to recognize the main display object. ゲーム装置などにおいて、画面上の操作対象が見ずらくなることは、操作上大きな問題である。 In such a game device, it is pleasure without looking the operation target on the screen is an operation on a large problem.

【0008】また、ピクセルの羅列であるデジタル画像で表示対象物を表現する画像処理装置は、元来、エイリアシングという問題を内在しており、そのための処理を行わない場合には、表示対象物のエッジ部でギザギザ感が現れ、現実的な表現が損なわれるという問題があった。 [0008] The image processing device for expressing a display object in a digital image is an enumeration of pixels originally have inherent problems that aliasing, if not processed therefor, the display object jagged feeling appears in the edge portion, realistic representation there is a problem that is impaired.

【0009】そこで、本発明の目的は、三次元座標を有するオブジェクト群をデジタル画像として二次元の表示画面に表示する際に、表示画面上の図形の形状を認識しやすくすることができ、また、その図形のエッジ部におけるギザギザ感を緩和することのできるエッジ描画方法及びこれを用いた画像処理装置を提供することである。 An object of the present invention, when displaying a group of objects having a three-dimensional coordinate on the display screen of the two-dimensional as a digital image, it is possible to make it easy to recognize the shape of the graphic on the display screen, also is to provide an image processing apparatus using the edge exposure method and this can be alleviated jagged feeling at the edges of the figure.

【0010】 [0010]

【課題を解決するための手段】上記の目的を達成するために、本発明の一つの側面は、表示対象物のデジタル画像において、ピクセル毎に、そのピクセルと周辺のピクセルのデータを用いて、そのピクセルがデジタル画像のエッジ部に位置するか否かの判定を行い、エッジ部に位置すると判定されたピクセルについてのみ特定の処理を施すことである。 To achieve the above object, according to the solution to ## one aspect of the present invention, in the digital image of the display object, for each pixel, using the data of that pixel and the surrounding pixels, a judgment of whether the pixel is located at the edge of the digital image is to apply a particular process only the determination pixel to be located at the edge portion. 従って、本発明によれば、表示画面上において、表示対象物を認識しやすくすること、若しくは表示対象物のエッジ部におけるギザギザ感を緩和することができる。 Therefore, according to the present invention, on the display screen, it is possible to alleviate the jagged feeling at the edges of the possible to make it easy to recognize the display object, or the display object.

【0011】上記の目的を達成するために、本発明の別の側面は、三次元座標を有するオブジェクト群を、ピクセルの羅列からなる二次元の表示画面に描画する画像処理装置における前記表示画面へ描画される描画対象図形のエッジ描画方法において、一つの前記描画対象図形を前記表示画面に描画するときに、前記表示画面内で前記一つの描画対象図形を包含する所定の大きさの領域に含まれる全てのピクセルに対し、ピクセル毎に、前記ピクセルが前記一つの描画対象図形のエッジ部に存在するか否かの判定を行う第一のステップと、前記第一のステップで、エッジ部に存在すると判定されたピクセルについてのみ、所定の処理を施す第二のステップを有することを特徴とする。 In order to achieve the above object, another aspect of the present invention, a group of objects having a three-dimensional coordinate, to the display screen in an image processing apparatus for drawing a two-dimensional display screen consisting of enumeration of pixels in the edge exposure method of the object figure drawn, when drawing one of the drawing object graphic on the display screen, included in a predetermined size of the area including the one of the object graphic on the display screen for all pixels, for each pixel, the first step of the pixel is determined whether present in an edge portion of said one of the drawing object graphic, in the first step, it exists in an edge portion Then the determination pixel only, and having a second step of performing predetermined processing.

【0012】更に、上記の発明において、その好ましい態様は、前記第一のステップにおける判定は、前記ピクセルが、前記一つの描画対象図形内に存在し、かつ、前記ピクセルの周辺に位置する所定の数のピクセルのうち、一つ以上のピクセルが前記一つの描画対象図形内に存在しない場合に、前記ピクセルがエッジ部に存在すると判定することを特徴とする。 Furthermore, in the above invention, a preferred embodiment thereof, the determination in the first step, the pixel is present in said one of the object graphic, and the predetermined located around the pixel of the number of pixels, and wherein determining that if one or more pixels are not present in the single drawing object graphic, the pixel exists in an edge portion.

【0013】更に、上記の発明において、別の態様は、 Furthermore, in the above invention, another aspect,
前記一つの描画対象図形が、一つのポリゴンであり、前記第二のステップにおける所定の処理が、前記エッジ部に存在すると判定されたピクセルの描画カラーを、前記ポリゴンの輪郭を表現するカラーとする処理であることを特徴とする。 The one to be drawn figure is one of polygons, a predetermined process in the second step, the drawing color of the determined pixels to be present in the edge portion, a color representing the contour of the polygon characterized in that it is a process.

【0014】更に、上記の発明において、別の態様は、 Furthermore, in the above invention, another aspect,
前記一つの描画対象図形が、一つの前記オブジェクトを表現するポリゴンの集合からなる図形であり、前記第二のステップにおける所定の処理が、前記エッジ部に存在すると判定されたピクセルの描画カラーを、前記オブジェクトの輪郭を表現するカラーとする処理であることを特徴とする。 The one to be drawn figure is a figure consisting of a set of polygons representing one of said object, predetermined processing in the second step, the drawing color of the determined pixels to be present in the edge portion, characterized in that it is a process of a color to represent the contour of the object.

【0015】更に、上記の発明において、別の態様は、 Furthermore, in the above invention, another aspect,
前記第二のステップにおける所定の処理が、前記エッジ部に存在すると判定されたピクセルの描画カラーを、前記一つの描画対象図形のカラーと、前記一つの描画対象図形を描画する前に前記ピクセルが有していたカラーをブレンドして決定するブレンド処理であることを特徴とする。 Predetermined process in the second step, the drawing color of the determined pixels to be present in the edge portion, the color of the one to be drawn figures, said pixels before drawing the single drawing object graphic characterized in that it is a blend processing for determining a blend of colors which was a.

【0016】更に、上記の発明において、別の態様は、 Furthermore, in the above invention, another aspect,
前記ブレンド処理におけるカラーのブレンドが、前記ピクセルの周辺に位置する所定の数のピクセルのうち、前記一つの描画対象図形内に存在するピクセルの数に応じた割合で行われることを特徴とする。 Blends of colors in the blending process is, among the predetermined number of pixels located around the pixel, characterized in that it is carried out at a rate corresponding to the number of pixels existing in the one of the object graphic.

【0017】上記の目的を達成するために、本発明の更に別の側面は、三次元座標を有するオブジェクト群を二次元の表示画面に描画する画像処理装置であって、CPU In order to achieve the above object, yet another aspect of the present invention is an image processing apparatus for drawing an object group having a three-dimensional coordinates to two-dimensional display screen, CPU
からの描画命令に基づいて、描画対象図形を、前記表示画面を構成するピクセル単位のデータからなるデジタル画像として、フレームバッファへ書込む画像処理装置において、前記表示画面上における一つの前記描画対象図形のデジタル画像を包含する所定の大きさの領域内に含まれる全てのピクセルのカラーデータを一時的に格納するメモリであって、一つの前記描画対象図形に対する前記描画命令を受ける度に前記全てのピクセルのカラーデータが初期化される一時記憶メモリと、前記一つの描画対象図形に対する描画命令に基づいて、前記一時記憶メモリが初期化された後に、前記描画命令と共に与えられる前記一つの描画対象図形のデータから、前記一つの描画対象図形のデジタル画像を生成し、前記デジタル画像を構成するピクセ Based on the drawing command from the drawing subject graphic, a digital image composed of data of pixels constituting the display screen, an image processing apparatus for writing to the frame buffer, one of the drawing object graphic on the display screen of a given including digital image comprising a memory for storing temporarily the color data of all the pixels included in the size of the region, one of said all the time to receive the drawing instruction to the drawing object graphic a temporary storage memory which color data of the pixels are initialized based on the drawing command for the one to be drawn figures, after the temporary storage memory is initialized, the drawing wherein one of the object graphic provided with instructions from the data, to generate a digital image of the one of the object figures, constituting the digital image Pikuse のカラーデータを前記一時記憶メモリに書込む描画手段と、前記描画手段による書込みの後に、前記一時記憶メモリにデータが格納されている全てのピクセルについて、ピクセル毎に、前記一時記憶メモリから対象ピクセルのカラーデータと前記対象ピクセルの周辺に位置する所定の数の周辺ピクセルのカラーデータを読出す読出し手段と、前記読出し手段で読出されたカラーデータから、前記対象ピクセルが前記描画手段で生成されたデジタル画像のエッジ部に存在するか否かの判定をし、エッジ部に存在すると判定された場合には、 A drawing means for the color data written in the temporary storage memory, after writing by said drawing means, for all pixels of data in the temporary storage memory is stored, for each pixel, the target pixel from the temporary storage memory and reading readout means color data of a predetermined number of adjacent pixels color data to be located around the target pixel, from the color data read by said reading means, the target pixel is generated by the rendering means and it determines whether or not present in the edge portion of the digital image, if it is determined to be in the edge portion,
前記対象ピクセルのカラーデータを所定の処理によって変更し、エッジ部に存在すると判定されなかった場合には、前記対象ピクセルのカラーデータをそのままとするエッジ部検出処理手段と、前記エッジ部検出処理手段における処理の後に前記対象ピクセルが有しているカラーデータに基づいて、前記一つの描画対象図形のデジタル画像を前記フレームバッファへ書込む書込み手段を有することを特徴とする画像処理装置である。 The color data of the target pixel is changed by a predetermined process, when it is not determined to be in the edge portion, the edge portion detection processing means to directly color data of the target pixel, the edge portion detection processing means based on the color data to which the target pixel has after processing in an image processing apparatus characterized by having a write means for writing the digital image of the one of the object graphic to the frame buffer.

【0018】更に、上記の発明において、その好ましい態様は、前記一時記憶メモリの初期化は、前記一時記憶メモリに格納されている全てのピクセルのカラーデータを透明とすることであり、前記エッジ検出処理手段におけるエッジ部に存在するか否かの判定は、前記対象ピクセルのカラーデータが透明ではなく、かつ、前記周辺ピクセルの内一つ以上のピクセルのカラーデータが透明である場合に、前記対象ピクセルがエッジ部に存在すると判定することにより行われることを特徴とする。 Furthermore, in the above invention, the preferred embodiment, the initialization of the temporary storage memory is to a transparent color data of all the pixels stored in the temporary storage memory, wherein the edge detection If the determination of whether there in an edge portion in the processing unit is not a color data transparency of the target pixel and color data of one or more pixels of the adjacent pixels is transparent, the target pixel is characterized by being performed by determining to be present in an edge portion.

【0019】本発明の更なる目的及び、特徴は、以下に説明する発明の実施の形態から明らかになる。 [0019] Additional objects and features of the present invention will become apparent from the embodiments of the invention described below.

【0020】 [0020]

【発明の実施の形態】以下、図面を参照して本発明の実施の形態例を説明する。 BEST MODE FOR CARRYING OUT THE INVENTION The following describes the embodiments of the present invention with reference to the drawings. しかしながら、かかる実施の形態例が、本発明の技術的範囲を限定するものではない。 However, these embodiments do not limit the technical scope of the present invention.
なお、図において、同一又は類似のものには同一の参照番号又は参照記号を付して説明する。 In the drawings, the same or similar will be denoted by the same reference numerals or reference symbols.

【0021】図1は、本発明を適用した画像処理装置の第一の実施例にかかる構成図である。 [0021] FIG. 1 is a configuration diagram according to a first embodiment of an image processing apparatus according to the present invention. 第一の実施例は、 The first embodiment,
オブジェクトを構成するポリゴン毎に、そのエッジ部を検出し、検出されたエッジ部に輪郭を付加して、表示画面上においてポリゴンを認識しやすくしようとするものである。 Each polygon constituting the object, the edge portion is detected and by adding a contour to the detected edge portion, it is intended to easily recognize the polygon on the display screen. 図2は、ポリゴンへの輪郭付加を例示した図であり、(a)は輪郭無しの状態、(b)は輪郭を付加した状態を表している。 Figure 2 is a diagram illustrating the outline addition to the polygon, (a) represents without contour state represents a state (b) is added with contour. (b)に示す状態で表示することにより、ポリゴンの形状を他のものと区別して容易に認識できるようになる。 By displaying in the state shown in (b), comprising a polygon shape to be readily recognized and distinguished from the others.

【0022】図1に示すとおり、第一の実施例にかかる画像処理装置は、そのレンダリング部3に、描画部3 [0022] As shown in FIG. 1, the image processing apparatus according to the first embodiment, in that the rendering unit 3, the drawing unit 3
1、一時記憶メモリ32、読出し部33、エッジ検出処理部34、及び書込み部35を有する構成となっている。 1, the temporary storage memory 32, read section 33, has a configuration having an edge detection processing unit 34, and the write section 35. なお、画像処理装置全体としての構成は、図20に基づいて説明した従来装置と同様である。 The configuration of the entire image processing apparatus is similar to the conventional apparatus described with reference to FIG. 20. また、レンダリング部3において、陰面処理、陰影付けの処理、若しくはテクスチャマッピングの処理などを行う部分は、従来装置と同様に必要に応じて配置するが、それらの部分に付いての図示は省略している。 Also, in the rendering unit 3, hidden surface processing, the portion which performs the processing of shading or texture mapping process, etc., the conventional apparatus and will be arranged as required in the same manner, illustrated with the those portions will be omitted ing.

【0023】図3は、本実施例にかかる画像処理装置のレンダリング部における処理の流れを示した図である。 [0023] FIG. 3 is a diagram showing the flow of processing in the rendering of an image processing apparatus according to this embodiment.
なお、ここでは、一つのポリゴンに対する処理内容として記載している。 Here, it is described as processing content for one polygon. 以下、図1及び図3に基づいて、本画像処理装置の特徴である描画部31から書込み部35までの各部の機能、ならびに処理の手順について具体的に説明する。 Hereinafter, based on FIGS. 1 and 3, the function of each section from which is characteristic drawing section 31 of the image processing apparatus to the write unit 35, and the procedure of the process will be described in detail.

【0024】まず、CPU1からポリゴンを描画する旨の指令が与えられ、表示画面の二次元座標に変換された一つのポリゴンデータがジオメトリ部2から描画部31に送られる(図3のステップS1)。 Firstly, given instruction to draw a polygon from CPU 1, the polygon data of the first converted into two-dimensional coordinates of the display screen is sent from the geometry unit 2 to the drawing unit 31 (step S1 of FIG. 3) . 送られるポリゴンデータには、頂点の二次元座標とポリゴンのカラーデータ等が含まれ、更に、輪郭を付加するか否かの制御情報が付加されている。 The polygon data sent, includes color data of the two-dimensional coordinates and polygon vertex addition, whether the control information adding contour is added. 図4は、描画部31へ送られてくるポリゴンデータを概念的に例示した図である。 Figure 4 is a conceptual illustrated FIG polygon data sent to the drawing unit 31. 図に示す例は、ポリゴンPのポリゴンデータが3つの頂点座標(X 1 , The illustrated example, the polygon data of the polygon P three vertex coordinates (X 1,
Y 1 )、(X 2 ,Y 2 )、(X 3 ,Y 3 )、カラーデータ、及び輪郭付加の制御情報等から構成されていることを示している。 Y 1), shows that it is composed of (X 2, Y 2), (X 3, Y 3), color data, and control information of the contour added.

【0025】描画部31は、送られたポリゴンデータに基づいて、そのポリゴンのデジタル画像(ピクセルの羅列からなる画像)であるポリゴン画像を一時記憶メモリ32に描画する部分である。 The rendering unit 31 based on the sent polygon data, a part for drawing the polygon image is a digital image of the polygon (image composed of enumeration of pixels) in the temporary memory 32. また、一時記憶メモリ32 In addition, the temporary storage memory 32
はそのポリゴン画像を一時的に格納するための記憶メモリであり、その大きさは任意であるが、ここではフレームバッファ4と同サイズとしている。 The polygon image is a storage memory for temporarily storing, but its size is arbitrary, taken here to be the frame buffer 4 and the size. 上述のポリゴンの描画命令が与えられると、まず一時記憶メモリ32が透明ピクセルで埋められる(図3のステップS2)。 When the drawing command of the above polygon is given, first, the temporary storage memory 32 is filled with transparent pixels (step S2 in FIG. 3).

【0026】次に、描画部31は、与えられた前記ポリゴンデータの頂点座標に基づいて、一時記憶メモリ32 Next, the drawing unit 31, based on the vertex coordinates of the polygon data supplied, the temporary storage memory 32
上において、ポリゴンが表示される範囲のピクセルを求め、それらのピクセルを与えられたポリゴンのカラーデータで埋める。 In the above, determine the range of pixels that the polygon is displayed, to fill in the color data of polygons given those pixels. 即ち、一時記憶メモリ32上にポリゴン画像を描画する(図3のステップS3)。 In other words, to draw the polygon image on the temporary storage memory 32 (step S3 in FIG. 3). 図5は、図4 Figure 5, Figure 4
で例示したポリゴンPが一時記憶メモリ32上に描画された状態を示している。 In the illustrated polygon P indicates the state of being drawn on the temporary storage memory 32. 図中P'は、ポリゴンPのポリゴン画像であり、それを構成するピクセルは前記カラーデータの色で埋められている。 Figure P 'is a polygon image of a polygon P, the pixels constituting it are filled with the color of the color data. 一方、ポリゴン以外の部分のピクセルは透明となっている。 On the other hand, the pixels in the portion other than the polygon has a transparent.

【0027】ポリゴン画像の描画が終了すると、次に、 [0027] When the drawing of the polygon image is completed, then,
読出し部33が、一時記憶メモリ32上に記憶されたピクセル単位のカラーデータを一つずつ読出し、順次エッジ検出処理部34へ渡す(図3のステップS4)。 Reading unit 33 passes the color data of the stored pixels on the temporary memory 32 one by one read in sequence to the edge detection processing unit 34 (step S4 in FIG. 3). このとき、ポリゴン画像内のピクセルだけを読出すのではなく、一時記憶メモリ32内の全てのピクセルを順次、読出す。 At this time, instead of reading only the pixels in the polygon image, sequentially all pixels in the temporary storage memory 32, it reads. さらに、エッジ検出処理部34におけるエッジ検出の判定のために、読出した一つのピクセルの周辺に位置する8つのピクセルのカラーデータも同時に読出す(図3のステップS5)。 Furthermore, because of the determination of the edge detection in the edge detection processing section 34, to color data at the same time reading eight pixels located around the read out one pixel (step S5 in FIG. 3).

【0028】次に、エッジ検出処理部34は、ポリゴン画像のエッジ部を検出し、そのエッジ部に輪郭を付加するための処理を行う部分である。 Next, the edge detection processing unit 34 detects an edge portion of the polygon image, a processing part for performing for adding a contour to the edge portion. ここで、前記読出し部33で読出された一つのピクセルに対し、順次、輪郭化条件による判定がなされる。 Here, for one pixel, which is read by the reading section 33 sequentially, the determination by the contour conditions are made. 輪郭化条件とは、対象のピクセルがポリゴンのエッジ部に位置し、ポリゴンに付加しようとしている輪郭の一部をなす部分であるかどうかを判定するための条件である。 Contouring conditions, the subject pixel is positioned at the edge portion of the polygon, which is a condition for determining whether a portion forming part of the contour are trying added to the polygon. 具体的には、前記周辺の8ピクセルのカラーデータを用いて、下記(1)式をもって判定される(図3のステップS6)。 Specifically, by using the color data of the peripheral 8 pixels, it is determined with the following equation (1) (step S6 in FIG. 3). 輪郭化条件の成立 = 当該ピクセルがポリゴンの一部である(ポリゴンのカラーデータをもつ) かつ 周辺8ピクセルに透明ピクセルが存在する かつ ポリゴンデータの輪郭付加の制御情報が「付加」となっている (1) Establishment of the contour conditions = the pixel is part of the polygon (with color data of the polygon) and control information of the contour addition of and polygon data exists transparent pixels around 8 pixels is "addition" (1)

【0029】図6は、輪郭化条件による判定を例示した図である。 FIG. 6 is a diagram illustrating a determination by the contour conditions. 図中(A)、(B)、(C)はそれぞれ、図5 In Figure (A), (B), (C), respectively, FIG. 5
におけるピクセルA、B、Cとそれらの周辺の8ピクセル(図5のa部、b部、c部)の状態を表している。 Pixels A, B, C and their surrounding 8 pixels (a portion of FIG. 5, b section, c section) represents the state of the. ピクセルAに関しては、(A)に示すとおり、それ自体がポリゴン画像P'の一部であり、また周辺ピクセルに透明ピクセルを含んでいるため、輪郭化条件が成立する。 For the pixel A, as (A), the per se is part of the polygon image P ', also because it contains transparent pixels around the pixel, contouring condition is satisfied. ピクセル pixel
Bに関しては、それ自体はポリゴン画像P'の一部であるが、周辺ピクセルも全てポリゴン内に存在し、透明ピクセルを含んでいないため、輪郭化条件は成立しない。 Respect of B, it is itself a part of the polygon image P ', because all even neighboring pixels present within a polygon does not include transparent pixels, the contour conditions are not satisfied. また、ピクセルCに関しても、それ自体がポリゴン画像P' Also, for the pixels C, itself polygon image P '
に含まれていないため、輪郭化条件は不成立となる。 Because it is not included in the contour conditions are not satisfied. なお、この例では、図4で示したとおり、対象としているポリゴンPの輪郭付加の制御情報は「付加」であることを前提としている。 In this example, as shown in FIG. 4, the control information of the contour adding polygon P as an object is assumed to be a "addition".

【0030】図7は、図4に示すポリゴンPの例で、全てのピクセルについて輪郭化条件による判定をした結果を示している。 FIG. 7 shows an example of the polygon P shown in FIG. 4 shows the result of the determination by the contour conditions for all pixels. 図中、●で示したピクセルが輪郭化条件成立のピクセルであり、ポリゴンPに付加しようとしている輪郭となる部分である。 In the figure, a pixel in the Pixel contour conditions satisfied indicated by ●, a portion serving as contour trying added to the polygon P. なお、本装置においては、 In the present apparatus,
輪郭化条件による判定に周辺8つのピクセルを用いたが、異なる数の周辺ピクセルを使用する装置としてもよい。 Although using the peripheral eight pixels in the determination by the contour conditions, or as a device to use a different number of peripheral pixels.

【0031】以上説明したように、当該ピクセルに対する判定が行われ、輪郭化条件が成立した場合には、エッジ検出処理部34において、そのピクセルのカラーデータがポリゴンに付加しようとしている輪郭のカラーに変更される(図3のステップS7)。 [0031] As described above, the determination with respect to the pixel is performed, if the contouring condition is satisfied, the edge detection processing section 34, the color of the contour color data for that pixel is attempting added to polygon It is changed (step S7 in FIG. 3). 一方、条件が不成立の場合には、カラーデータはそのままとされる。 On the other hand, if the condition is not satisfied, the color data is as it is.

【0032】次に、エッジ検出処理部34で処理されたピクセルのカラーデータが書込み部35によってフレームバッファ4に書込まれる。 Next, the color data of the processed pixel in edge detection processing section 34 is written into the frame buffer 4 by the write unit 35. このとき、書込もうとするピクセルが透明である場合、即ちポリゴンの外部にあるピクセルである場合には、フレームバッファ4への書込みは行わない。 At this time, if the pixel of attempts to write is transparent, if that is, pixels that are outside the polygon, not write to the frame buffer 4. 従って、ポリゴンデータとして与えられたカラーあるいは輪郭のカラーを持った、ポリゴン画像を形成するピクセルのみが書込まれることになる(図3 Therefore, with the color or outline color given as polygon data, only pixels that form a polygon image is to be written (Figure 3
のステップS8及びS9)。 Step S8 and S9 in). これにより、一つのポリゴンを表示しようとする度にフレームバッファ4を全て更新してしまうことがなくなり、複数のポリゴンを同時に一つの表示画面に表示することが可能となる。 This prevents the would update all the frame buffer 4 each time it is intended to display a single polygon, it is possible to display a plurality of polygons simultaneously on one display screen.

【0033】以上、説明した読出し部33、エッジ検出処理部34、及び書込み部35における処理(図3のステップS4〜S9)が、一時記憶メモリ32の全てのピクセルに対して行われ(図3のステップS10)、描画指令を受けた一つのポリゴンに対する処理が終了する。 The above reading unit 33 has been described, the edge detection processing unit 34, and the process in the write unit 35 (step S4~S9 in FIG. 3) is performed for all pixels in the temporary storage memory 32 (FIG. 3 step S10) of the process is completed for one polygon having received the drawing command. その結果、ポリゴンはそのエッジ部に輪郭が付加されて、 As a result, the polygon is contour is added to the edge portion,
表示画面に表示される。 It is displayed on the display screen. 図8は、図4に示したポリゴン Figure 8 is a polygon shown in FIG. 4
Pに対する処理が終了し、フレームバッファ4に書込まれた状態を示している。 Processing for P is completed, and shows a state written to the frame buffer 4. 前述のとおり、ポリゴンのエッジ部に位置するピクセルは、輪郭化条件が成立した結果、輪郭のカラーで表示されており、全体としてポリゴンに輪郭が付加された表現となっている。 As described above, pixels located at the edge of the polygon as a result of contouring condition is satisfied, are displayed in color contour, has a contour polygon is added as a whole representation.

【0034】通常、一つの表示画面には複数のポリゴンが表示されるため、以上説明した図3に基づく処理が全てのポリゴンに対してなされて、一つの画面が完成する。 [0034] Usually, since a plurality of polygons is displayed on one display screen, it is made to process all the polygons according to FIG. 3 described above, one screen is completed. 図9は、複数のポリゴンが表示画面に表されている例を示したものであり、(a)は、輪郭を付加せずに通常の表現をした場合、(b)は、全てのポリゴンに輪郭を付加した場合を表している。 Figure 9 is a drawing showing an example in which a plurality of polygons are represented on the display screen, (a) shows the, when the normal expression without adding contour, (b) to all the polygons it represents the case of adding a contour. 図から明らかであるように、輪郭を付加することにより、ポリゴン同士の重なりの状態や位置関係を容易に認識することができるようになる。 As it is apparent from the figure, by adding contour, so the overlap state and the positional relationship of the polygon between can be easily recognized.

【0035】また、図10には、特定のポリゴンにのみ輪郭を付加した場合の表示例を示している。 Further, in FIG. 10 shows a display example in the case of adding a contour only certain polygon. 輪郭を付加したポリゴンは、他のポリゴンと比較し、その形状や位置を容易に認識することができ、ゲーム装置における操作対象など特に注視する必要があるポリゴンに対しては効果がある。 Polygon added with contour compared to other polygon, its shape and position can be easily recognized, it is effective for the operation target such as a polygon, in particular it is necessary to watch the game device.

【0036】以上、説明したように第一の実施例にかかる画像処理装置を用い、表示するポリゴンのエッジ部に輪郭を付加することで、隣接するポリゴンや背景画と色や模様が似ていて認識しづらい場合においても容易に対象のポリゴンを認識することができるという効果がある。 The above, using an image processing apparatus according to the first embodiment as described, by adding the contour edges of the polygon to be displayed, resemble the adjacent polygons and background images and colors and patterns there is an effect that can also easily recognize the polygons of the object in a case where hard recognition. また、ポリゴンデータに輪郭付加の制御情報を持たせることで、特定のポリゴンにのみ輪郭を付加することが可能である。 Further, by providing a control information of the contour added to polygon data, it is possible to add the contour only certain polygon.

【0037】次に、本発明を適用した第二の実施例について説明する。 Next, a description is given of a second embodiment according to the present invention. 前述の第一の実施例は、ポリゴン毎に輪郭を付加するものであったが、第二の実施例では、複数のポリゴンから構成されるオブジェクトのエッジ部に輪郭を付加するものである。 First embodiment described above, but was to adding a contour for each polygon, in the second embodiment, it is intended to add an outline to the edge portion of the object composed of a plurality of polygons. 図11は、二つのオブジェクトが重なって表示されている例を示したものである。 Figure 11 is a diagram showing an example displayed overlap two objects. 図11の(c)は、上面図であり、二つのオブジェクトの実際の形状と位置関係を表している。 (C) in FIG. 11 is a top view represents the positional relationship between the actual shape of the two objects. (a)、(b)はそれぞれ、輪郭なしの通常の表示例、手前のオブジェクトに輪郭を付加した場合の表示例を表している。 (A), represents a display example in the case of addition of (b), respectively, the normal display example without contour, the contour in front of the object. (a)の場合には、二つのオブジェクトが存在することやオブジェクトの形状が不明瞭であるが、(b)においては、それらが認識しやすくなっていることがわかる。 In the case of (a) is unclear shape of that or object two objects are present in the (b), it can be seen that they are made easily recognized.

【0038】第二の実施例にかかる画像処理装置の構成は、図1に示した第一の実施例にかかる装置の構成と同じである。 The configuration of the image processing apparatus according to the second embodiment is the same as that of the device according to the first embodiment shown in FIG. また、処理の手順においても、第一の実施例の場合と同様であり、図3に示した処理フローにおいて、“ポリゴンデータ”を“オブジェクトデータ”に、 Also in the procedure of processing the same as in the case of the first embodiment, in the processing flow shown in FIG. 3, in the "polygon data" "object data",
“ポリゴン画像”を“オブジェクト画像”に置き換えたものとなる。 The "polygon image becomes" replaced with the "object image". 以下、第一の実施例と異なる部分を中心に、第二の実施例にかかる画像処理装置における処理内容を説明する。 Hereinafter, focusing on parts different from the first embodiment, the processing contents of the image processing apparatus according to the second embodiment.

【0039】第一の実施例と同様に、まずCPU1からの描画指令が与えられるが、ポリゴン単独の描画指令ではなく、ポリゴンの集合からなるオブジェクトの描画指令が与えられ、オブジェクトデータが描画部31に送られる(図3のステップS1)。 [0039] As in the first embodiment, first, although the drawing command from CPU1 is given, rather than a polygon alone drawing command, the drawing command of the object consisting of a set of polygons is given, the object data rendering unit 31 sent (step S1 in FIG. 3).

【0040】オブジェクトデータとは、そのオブジェクトを構成する各ポリゴンの頂点座標とカラーデータ、及びそのオブジェクトに輪郭を付加するか否かを表す輪郭不可の制御情報である。 [0040] The object data is control information of the each polygon vertex coordinates and color data constituting the object, and contours Call indicating whether or not to add the contour to the object. 図12は、描画部31へ送られてくるオブジェクトデータを概念的に例示した図である。 Figure 12 is a conceptual illustrated FIG object data sent to the drawing unit 31. 図に示す例は、3つのポリゴンP 1 、P 2 、P 3から構成されるオブジェクトOのオブジェクトデータが、3組のポリゴンデータ(頂点座標とカラーデータ)と輪郭付加の制御情報から構成されていることを示している。 The illustrated example, the object O in the object data consists of three polygons P 1, P 2, P 3 is configured with three sets of polygon data (vertex coordinates and color data) from the control information of the contour addition It shows that you are.

【0041】次に、第一の実施例の場合と同様に、一時記憶メモリ32が透明ピクセルで初期化され(図3のステップS2)、描画部31がその上に処理対象のオブジェクトのデジタル画像であるオブジェクト画像を描画する(図3のステップS3)。 Next, as in the first embodiment, it is initialized the temporary storage memory 32 with transparent pixels (step S2 in FIG. 3), the drawing unit 31 is a digital image of an object to be processed thereon draw an object image is (step S3 in FIG. 3).

【0042】描画は、オブジェクトを構成する全てのポリゴンを描画することで行われる。 The drawing is done by drawing all the polygons that make up the object. 一時記憶メモリ32 The temporary storage memory 32
にオブジェクト画像が描画されると、読出し部33によって、一時記憶メモリ32内の全てのピクセルについて一つずつカラーデータが読出され(図3のステップS When the object image is drawn on, by the read unit 33, a temporary one by one color data for all pixels in the storage memory 32 is read out (step of FIG. 3 S
4)、エッジ検出処理部34において、読出されたピクセルに対する輪郭化条件による判定が順次なされる。 4), the edge detection processing section 34, the determination by contouring conditions for reading pixels are made sequentially. また、このとき読出したピクセルの周辺にある8ピクセルについてもカラーデータが読出される(図3のステップ Moreover, (Step of Fig. 3 which color data is read also 8 pixels located around this time read out pixels
S5)。 S5). この部分についても、第一の実施例の処理と同様である。 This portion is also the same as the processing in the first embodiment. ここで用いられる輪郭化条件も、基本的な考え方は前記(1)式で示したものと同じであり、“ポリゴン”を“オブジェクト”に置き換えた下記(2)式となる。 Contouring conditions used here also, the basic idea is the same as that shown in the above (1), the following replacing the "polygon" to "object" (2). 輪郭化条件の成立 = 当該ピクセルがオブジェクトの一部である かつ 周辺8ピクセルに透明ピクセルが存在する かつ オブジェクトデータの輪郭付加の制御情報が「付加」となっている (2) 従って、(2)式によれば、当該ピクセルがオブジェクトを構成するポリゴンのエッジ部に存在していても、オブジェクトの外部に接していない限り輪郭化条件は成立しない。 Establishment of the contour conditions = the pixel control information of the contour addition of and object data exists transparent pixel is part and the peripheral eight pixels of the object is "addition" (2) Therefore, (2) According to the formula, the pixels be present in an edge portion of the polygons constituting an object, contour conditions unless in contact with the external object is not approved. 即ち、オブジェクトのエッジ部となるピクセルのみを検出することができる。 That is, it is possible to detect only the pixels to be the edge portion of the object. ここで、輪郭化条件が成立した場合には、当該ピクセルのカラーが輪郭のカラーに変更される(図3のステップS6及びS7)。 Here, if the outline conditions is satisfied, the color of the pixel is changed to the color of the contour (steps S6 and S7 in FIG. 3). なお、 It should be noted that,
周辺ピクセルとして利用するピクセルの数については、 The number of pixels used as peripheral pixels,
8つ以外の数としてもよい。 It may be as eight the number of non.

【0043】エッジ検出処理部34における処理終了後、書込み部35において、カラーデータが決定した各ピクセルをフレームバッファ4へ書込む処理がなされるが、処理の内容は、第一の実施例において説明した内容と同じである(図3のステップS8及びS9)。 [0043] After the treatment in the edge detection processing unit 34, the writing unit 35, but writing each pixel color data is determined to the frame buffer 4 processing is performed, contents of the process are described in the first embodiment is the same as the contents (steps S8 and S9 in FIG. 3). 一時記憶メモリ32の全てのピクセルに対して処理を行い(図3のステップS10)、対象とした一つのオブジェクトに対する処理が終了する。 Performs processing for all pixels in the temporary storage memory 32 (step S10 in FIG. 3), processing for one object that target is completed. その結果、当該オブジェクトが輪郭を付加されて表示画面に表示される。 As a result, the object is displayed on the display screen is added to the contour.

【0044】図13は、図12で例示したオブジェクト [0044] Figure 13 is an object illustrated in FIG. 12
Oに対する処理が終了し、フレームバッファ4に書込まれた状態を示している。 Processing for O is completed, and shows a state written to the frame buffer 4. 図中、O'は、オブジェクトOの最終的なデジタル画像であり、そのエッジ部のピクセルには輪郭のカラーが付されている。 In the figure, O 'is the final digital image of an object O, the color of the contour are assigned to a pixel of the edge portion. また、オブジェクトの内部のピクセルは、元のポリゴンデータが保持していたP 1 、P 2 、P 3のカラーとなっている。 Further, pixels inside the object has a color of P 1, P 2, P 3 the original polygon data is retained.

【0045】図14は、ゲーム装置における一画面を例として、オブジェクトに輪郭を付加した場合(図14の(b))としない場合(図14の(a))を比較したものである。 [0045] Figure 14 shows, as an example of one screen in the game device, a comparison when adding contour objects if not (in FIG. 14 (b)) (in FIG. 14 (a)) a. この画面は、車を表現した二つのオブジェクトが水平線近くの遠方に位置する場面を表しており、ゲーム操作の対象であるこれらオブジェクトの存在や位置をすばやく認識する上で、輪郭を付加した(b)の画面の方が適していることがわかる。 This screen represents the scene where two objects representing the vehicle is located far near the horizon, in order to quickly recognize the presence and position of these objects is the subject of game operation, by adding a contour (b ) it can be seen that the people of the screen is suitable.

【0046】以上、説明したように、第二の実施例にかかる画像処理装置を用い、表示対象のオブジェクトに輪郭を付加することで、そのオブジェクトを容易に認識することができ、ゲーム装置などにおいて操作性を向上させることができる。 [0046] As described above, using an image processing apparatus according to the second embodiment, by adding the contour object to be displayed, it is possible to easily recognize the object in a game apparatus thereby improving the operability. また、オブジェクトデータに輪郭付加の制御情報を持たせることで、操作対象のオブジェクトだけに輪郭を付加するなど、輪郭を付加するオブジェクトを選択することが可能である。 Further, by providing a control information of the contour added to the object data, such as adding only the outline object to be operated, it is possible to select the object to add a contour.

【0047】次に、本発明を適用した第三の実施例について説明する。 Next, a description is given of a third embodiment according to the present invention. 第一の実施例及び第二の実施例で説明した画像処理装置は、表示対象物を認識しやすくすることを目的に、ポリゴンやオブジェクトのエッジ部を、いわゆる輪郭として表現するものであったが、本実施例にかかる画像処理装置は、そのエッジ部を半透明処理することにより、表示するポリゴンやオブジェクトのエッジ部におけるギザギザ感の緩和(アンチエイリアシング)を行おうとするものである。 First embodiment and the image processing apparatus described in the second embodiment, for the purpose of easily recognize the display object, the edge portions of polygons or objects, but were those expressed as a so-called contour an image processing apparatus according to this embodiment, the by the edge portion of the semi-transparent processing, it is an attempt to alleviate the jagged sense (anti-aliasing) at the edges of the polygon and the object to be displayed. 図15は、ポリゴンのエッジ部における半透明処理を例示した図であり、(a)は半透明処理をしていない状態、(b)は半透明処理をした状態を表している。 Figure 15 is a diagram illustrating a semi-transparent processing in the edge of a polygon, (a) shows the state where no translucent processing, (b) shows a state in which the semi-transparent processing.

【0048】図16は、本実施例にかかる画像処理装置の構成図であり、図1に示した第一の実施例及び第二の実施例における画像処理装置とほぼ同じ構成である。 [0048] Figure 16 is a block diagram of an image processing apparatus according to this embodiment is almost the same as that of the image processing apparatus in the first embodiment and the second embodiment shown in FIG. 前述のとおり、本実施例の画像処理装置は、第一、第二の実施例における画像処理装置とくらべて、検出されたエッジ部に対する処理方法が異なるだけであるため、図1 As described above, since the image processing apparatus of this embodiment, the first, in comparison image processing apparatus as in the second embodiment, the processing method for the detected edge portion is different only, FIG. 1
6のエッジ検出処理部34'及び書込み部35'における機能のみが異なってくる。 Only functions in 6 of the edge detection processing unit 34 'and a write unit 35' is different. 従って、図3に示した処理フローにおいては、ステップS7の処理のみが第一、第二の実施例の場合と相違しており、その内容を図17の処理フローに示している。 Accordingly, in the processing flow shown in FIG. 3, only the processing in step S7 is the first, are different from the case of the second embodiment, it shows the content of the processing flow of FIG. 17. 図中、ステップS7'が相違する部分である。 In the figure, a part of the step S7 'is different. 以下、図16、図17に基づいて、本実施例のみの特徴であるエッジ検出処理部34'及び書込み部35'における処理内容について説明する。 Hereinafter, FIG. 16, on the basis of FIG. 17 describes the processing contents of which is characteristic of only this example edge detection processing unit 34 ', and the write section 35'.

【0049】前述のとおり、描画命令の対象となったポリゴンあるいはオブジェクトの画像が一時記憶メモリ3 [0049] The foregoing as an image of the polygons or object as the object of the drawing command temporary storage memory 3
2に記憶され、そのピクセルのカラーデータが一つずつ読出されて、エッジ検出処理部34'へ送られてくる。 2 is stored, the color data of the pixels are one by one read, sent to the edge detection processing unit 34 '.
エッジ検出処理部34'では、まず、データが送られたピクセルに対して、前述のとおり、前記(1)式あるいは(2)式に基づく輪郭化条件の判定を行う(図17のステップS6)。 In the edge detection processing unit 34 ', first, for the data is sent pixels, as described above, it is determined contouring condition based on the equation (1) or (2) (step S6 in FIG. 17) .

【0050】ここで、輪郭化条件が成立した場合、即ち当該ピクセルがエッジ部に存在すると判定された場合には、当該ピクセルを半透明化し、そのブレンド率を算出する(図17のステップS7'−1)。 [0050] Here, if the contouring condition is satisfied, i.e., when the pixel is determined to exist in the edge portion, the pixel is translucent, and calculates the blend ratio (step S7 in FIG. 17 ' -1). 半透明化するということは、当該ピクセルの表示カラーを決定するに当たり、同位置に存在する他のポリゴンのカラーや背景色と、処理対象としているポリゴンのカラー(当該ピクセルがもつカラー)をブレンドすることを意味し、このときの処理対象としているポリゴンのカラーの寄与率をブレンド率と呼ぶ。 That is translucent is in determining the display color of the pixel is blended color and the background color of the other polygons are present, the color of the polygon to be processed (color of the pixel have) the same position It means that, referred to the contribution of the color of the polygon to be processed at this time and blend ratio. このブレンド率は、輪郭化条件の判定で使用された周辺8ピクセルのカラーデータを用いて、 The blend ratio, using the color data of the peripheral 8 pixels used in the determination of the contour conditions,
下記(3)式によって算出される。 Is calculated by the following equation (3). ブレンド率 = 周辺8ピクセルの中で透明ピクセルでないピクセルの数/8 (3) Number / 8 of the blend ratio = not transparent pixels in the eight peripheral pixels pixels (3)

【0051】図18は、ブレンド率の算出方法を説明するための図である。 [0051] Figure 18 is a diagram for explaining a method of calculating the blend ratio. ここでは、図4などで示されたポリゴンPのポリゴン画像が例として用いられている。 Here, polygon image of the polygon P shown in FIG. 4 etc. are used as examples. 図4 Figure 4
の(A)は、各ピクセルに対する輪郭化条件の判定結果を表しており、●で示されたピクセルがエッジ部であると判断されたピクセル、即ち半透明化の対象ピクセルである。 Of (A) represents the determination result of the contour conditions for each pixel, pixel indicated pixel is determined to be an edge portion with ●, that is, the target pixel of the semi-transparent. 図4の(A−a)、(A−b)、(A−c)はそれぞれ、(A)のピクセルa、b、cとそれらの周辺ピクセルを表した図である。 In Figure 4 (A-a), a diagram showing the (A-b), (A-c) pixels a, respectively, it is (A), b, c and their surrounding pixels. (A−a)に示すとおり、ピクセルaのブレンド率は、前記(3)に従い、周辺8ピクセルの内二つのピクセルが透明でないため、2/8となる。 As shown in (A-a), the blend ratio of the pixels a, in accordance with the (3), since the inner two pixels surrounding eight pixels are not transparent, and 2/8. 同様に、ピクセルb、cのブレンド率はそれぞれ、5/8、7 Each Similarly, pixel b, the blend ratio of c is 5 / 8,7
/8となる。 / 8 to become. 図4の(B)は、半透明化の対象となる全てのピクセルについて、ブレンド率を算出した結果である。 In FIG. 4 (B), for all the pixels to be translucent, a result of calculating the blend ratio. なお、本実施例にかかる装置では、ブレンド率を算出する際に8つの周辺ピクセルを使用したが、異なる数の周辺ピクセルを使用する装置としてもよい。 In the device according to this embodiment has been using eight peripheral pixels when calculating the blending ratio may be as an apparatus for using a different number of peripheral pixels.

【0052】エッジ検出処理部34'で半透明化とブレンド率の算出が行われたピクセルのデータは、次に、書込み部35'に送られて、ここで最終的なカラーの決定とフレームバッファ4への書込みが行われる。 [0052] Edge detection processing unit 34 'with the data of the pixel calculation of translucent and blend ratio has been performed, then the write section 35' is sent to, where the final color of the decisions and the frame buffer write to 4 is performed. まず、フレームバッファ4から、処理対象のピクセルと同位置(座標)にあるピクセルのカラーデータが読込まれる(図17のステップS7'−2)。 First, from the frame buffer 4, the color data of the pixel in the pixel at the same position of the processing target (coordinates) is read (step S7 '-2 in FIG. 17). 次に、エッジ検出処理部34'から送られたカラーデータ(処理対象のポリゴンのカラーデータ)と、この読込まれたカラーデータがブレンド処理され、フレームバッファ4へ書込む最終カラーが決定される(図17のステップS7'−3)。 Next, the color data transmitted from the edge detection processing unit 34 '(color data of the polygon to be processed), the read written color data is blending, the final color of writing to the frame buffer 4 is determined ( step S7 '-3 in FIG. 17). 最終カラーは、下記(4)式によって求める。 Final color is determined by the following equation (4). 最終カラー = A×k + B×(1‐k) (4) 但し、 A :処理対象のポリゴンのカラーデータ B :フレームバッファから読込まれたカラーデータ k :前記のブレンド率 最終カラーが決定すれば、第一、第二の実施例の場合と同様に、書込み判定(図17のステップS8)を経て、 Final color = A × k + B × (1-k) (4) where, A: color data B of the polygon to be processed: Color was read from the frame buffer data k: be determined the blend ratio final color , first, as in the second embodiment, after the write determination (step S8 in FIG. 17),
フレームバッファ4への書込みが行われる。 Writing to the frame buffer 4 are carried out. 一方、エッジ検出処理部34'における輪郭化条件が不成立となった場合には、これまでに説明した半透明処理は行われずに、フレームバッファ4への書込み判定(図17のステップS8)の処理がなされる。 On the other hand, if the contour conditions in the edge detection processing unit 34 'becomes not satisfied, without performing the semi-transparent processing described so far, the process of writing the determination (step S8 in FIG. 17) to the frame buffer 4 It is made.

【0053】以上説明した一つのピクセルに対する処理が、一時記憶メモリ32の全てのピクセルに対して施されることにより、一つのポリゴンあるいはオブジェクトに対する処理が終了する。 [0053] processing for the above-described one pixel, by being applied to all the pixels in the temporary storage memory 32, the processing for one polygon or object is completed. その結果、エッジ部が半透明処理されたポリゴンあるいはオブジェクトの画像が表示される。 As a result, the edge portion is an image of the translucent processed polygon or object is displayed. 図19は、エッジ部を半透明処理した場合(図19の(B))と、しない場合(図19の(A))の表示画像を比較して示した図である。 Figure 19 is a diagram comparatively showing a display image when the edge portion is translucent process if the (in FIG. 19 (B)), and not (in FIG. 19 (A)). これは、図18で例示したポリゴンの描画結果であり、(B)において、ポリゴンのエッジ部が、白で表現されされている背景色とブレンドされて薄くなっていることがわかる。 This is a drawing result of the polygon illustrated in Figure 18, (B), the edge portion of the polygon, it can be seen that thinner is blended with the background color which is represented in white. その薄さの度合いは、前述のとおり、図18の(B)に示したブレンド率により決まり、その値が小さいほどポリゴンのカラーの寄与率が減って薄い色となっている。 Degree of thinness, as mentioned above, determined by the blend ratio shown in (B) of FIG. 18, and has a color thin contribution ratio decreases the color of the polygon a smaller value.

【0054】以上説明した第三の実施例にかかる画像処理装置を用いることで、表示するポリゴンやオブジェクトのエッジ部を半透明処理することができ、そのエッジ部におけるギザギザ感を緩和することができる。 [0054] The above-described by using an image processing apparatus according to the third embodiment, it is possible to semi-transparent processing an edge portion of the polygon and the object to be displayed, it is possible to alleviate the jagged feeling at the edges . なお、 It should be noted that,
表示するポリゴンやオブジェクトのエッジ部を検出し、 Detecting an edge portion of the polygon and the object to be displayed,
その部分に特別な描画をすることによって、良好な表示画面を生成しようとする点においては、第三の実施例も、第一、第二の実施例と同じ目的を有しているといえる。 By a special drawing to that part, in that they attempt to produce a good display screen, the third embodiment also, said to have a first, same purpose as the second embodiment. なお、前記(3)式及び(4)式で示した、ブレンド率及びそれを用いた最終カラーの算出式は一例である。 Incidentally, the expressions (3) and (4) shown by the equation, equation for calculating the final color using blend ratio and it is an example. 本発明の保護範囲は、上記の実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。 Protection scope of the present invention is not limited to the above embodiment, but extends to the invention and its equivalents as set forth in the appended claims.

【0055】 [0055]

【発明の効果】以上、図面に従い実施の形態を説明したように、本発明によれば、表示対象物のデジタル画像におけるエッジ部を検出し、そのエッジ部に特定の処理を施すことができる。 Effect of the Invention] As has been described the embodiments in accordance with the drawings, according to the present invention, detects an edge portion in the digital image of a display object can be subjected to specific treatment on the edge portion. 従って、エッジ部に輪郭を付加する処理を行う場合には、表示画面上において表示対象物を認識しやすくすることができるという効果がある。 Therefore, when performing the process of adding a contour to the edge portion, there is an effect that it is possible to easily recognize the display object on the display screen. また、エッジ部に半透明処理を施す場合には、表示対象物のエッジ部におけるギザギザ感を緩和する、いわゆるアンチエイリアシングの効果がある。 Moreover, in the case of applying the semi-transparent processing to the edge section alleviates jagged feeling at the edges of the display object, the effect of the so-called anti-aliasing.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明を適用した画像処理装置の第一の実施例にかかる構成図である。 1 is a configuration diagram according to a first embodiment of an image processing apparatus according to the present invention.

【図2】ポリゴンへの輪郭付加を例示した図である。 2 is a illustrated FIG contour addition to the polygon.

【図3】第一の実施例にかかる画像処理装置のレンダリング部における処理フローを示した図である。 3 is a diagram showing a processing flow in the rendering of an image processing apparatus according to the first embodiment.

【図4】描画部31へ送られてくるポリゴンデータを概念的に例示した図である。 4 is a diagram conceptually illustrated polygon data sent to the drawing unit 31.

【図5】図4で例示したポリゴンPが一時記憶メモリ3 [5] 4 Polygon P exemplified in the temporary storage memory 3
2上に描画された状態を示す図である。 It is a diagram showing a state of being drawn on 2.

【図6】輪郭化条件による判定を説明するための図である。 6 is a diagram for explaining a determination by contouring conditions.

【図7】図4に示すポリゴンPに関する全てのピクセルに対する輪郭化条件による判定結果を示した図である。 7 is a diagram showing a result of determination by contouring conditions for all of the pixels relating to polygons P shown in FIG.

【図8】図4に示したポリゴンPがフレームバッファ4 [8] the polygon P frame buffer 4 shown in FIG. 4
に書込まれた状態を示した図である。 Is a diagram showing the written state to.

【図9】複数のポリゴンに対して輪郭を付加した場合と付加しない場合の表示例を示した図である。 9 is a diagram showing a display example in which for a plurality of polygons not added to the case of adding a contour.

【図10】特定のポリゴンにのみ輪郭を付加した場合の表示例を示した図である。 10 is a diagram showing a display example in the case of adding a contour only certain polygon.

【図11】二つのオブジェクトが重なって表示されている例を示した図である。 11 is a diagram showing an example displayed overlap two objects.

【図12】描画部31へ送られてくるオブジェクトデータを概念的に例示した図である。 12 is a diagram conceptually illustrated object data sent to the drawing unit 31.

【図13】図12で例示したオブジェクトOがフレームバッファ4に書込まれた状態を示した図である。 13 is a diagram illustrating the object O is shown a state written to the frame buffer 4 in FIG.

【図14】ゲーム装置における一画面において、オブジェクトに輪郭を付加した場合としない場合の表示例を示した図である。 In Figure 14 one screen in the game apparatus is a diagram showing a display example with and without added contour to the object.

【図15】ポリゴンのエッジ部における半透明処理を例示した図である。 15 is a diagram illustrating a semi-transparent processing in the edge of the polygon.

【図16】第三の実施例にかかる画像処理装置の構成図である。 16 is a configuration diagram of an image processing apparatus according to the third embodiment.

【図17】第三の実施例にかかる画像処理装置の処理フローを表した図である。 17 is a diagram showing a processing flow of an image processing apparatus according to the third embodiment.

【図18】ブレンド率の算出方法を説明するための図である。 18 is a diagram for explaining a method of calculating the blend ratio.

【図19】エッジ部を半透明処理した場合としない場合の表示画像を比較して示した図である。 19 is a diagram comparatively showing display images with and without the edge portions and translucent process.

【図20】一般的な画像処理装置の大まかな構成を示した図である。 20 is a diagram showing a rough configuration of a typical image processing apparatus.

【符号の説明】 DESCRIPTION OF SYMBOLS

1 CPU 2 ジオメトリ部 3 レンダリング部 4 フレームバッファ 31 描画部 32 一時記憶メモリ 33 読出し部 34 エッジ検出処理部 35 書込み部 1 CPU 2 geometry unit 3 rendering unit 4 the frame buffer 31 drawing unit 32 the temporary storage memory 33 reading unit 34 an edge detection processing unit 35 writing section

Claims (12)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】三次元座標を有するオブジェクト群を、ピクセルの羅列からなる二次元の表示画面に描画する画像処理装置における該表示画面へ描画される描画対象図形のエッジ描画方法において、 一つの該描画対象図形を該表示画面に描画するときに、 該表示画面内で該一つの描画対象図形を包含する所定の大きさの領域に含まれる全てのピクセルに対し、ピクセル毎に、該ピクセルが該一つの描画対象図形のエッジ部に存在するか否かの判定を行う第一のステップと、 該第一のステップで、エッジ部に存在すると判定されたピクセルについてのみ、所定の処理を施す第二のステップを有することを特徴とするエッジ描画方法。 The method according to claim 1] object group having a three-dimensional coordinate, in the edge exposure method of the object figure drawn into the display screen in an image processing apparatus for drawing on the display screen of the two-dimensional consisting enumeration of pixels, one of the when drawing the drawing target graphics on the display screen, for all pixels contained the single plot subject graphic into a predetermined size of the region containing at said display screen for each pixel, the pixel is the a first step of determining whether or not present in the edge portion of one of the drawing object graphic, in said first step, the determination pixel to be present in the edge portion only, the second performing predetermined processing edge drawing method characterized by having a step.
  2. 【請求項2】請求項1において、 前記第一のステップにおける判定は、 前記ピクセルが、前記一つの描画対象図形内に存在し、 2. The method of claim 1, the determination in the first step, the pixel is present in the one drawing subject graphic,
    かつ、前記ピクセルの周辺に位置する所定の数のピクセルのうち、一つ以上のピクセルが前記一つの描画対象図形内に存在しない場合に、前記ピクセルがエッジ部に存在すると判定することを特徴とするエッジ描画方法。 And, among the predetermined number of pixels located around the pixel, and wherein determining that if one or more pixels are not present in the single drawing object graphic, the pixel exists in an edge portion edge drawing how to.
  3. 【請求項3】請求項1あるいは請求項2において、 前記一つの描画対象図形が、一つのポリゴンであり、 前記第二のステップにおける所定の処理が、前記エッジ部に存在すると判定されたピクセルの描画カラーを、該ポリゴンの輪郭を表現するカラーとする処理であることを特徴とするエッジ描画方法。 3. The method of claim 1 or claim 2, wherein one of the drawing target figure is one of polygons, a predetermined process in the second step, the determination pixel to be present in the edge portion edge drawing wherein the drawing color, a process of a color to represent the outline of the polygon.
  4. 【請求項4】請求項1あるいは請求項2において、 前記一つの描画対象図形が、一つの前記オブジェクトを表現するポリゴンの集合からなる図形であり、 前記第二のステップにおける所定の処理が、前記エッジ部に存在すると判定されたピクセルの描画カラーを、該オブジェクトの輪郭を表現するカラーとする処理であることを特徴とするエッジ描画方法。 4. The method of claim 1 or claim 2, wherein one of the drawing target figure is a figure consisting of a set of polygons representing one of said object, predetermined processing in the second step, the edge drawing wherein the drawing color of the determined pixels to be present in an edge portion, a process of a color to represent the contour of the object.
  5. 【請求項5】請求項1あるいは請求項2において、 前記第二のステップにおける所定の処理が、 前記エッジ部に存在すると判定されたピクセルの描画カラーを、前記一つの描画対象図形のカラーと、前記一つの描画対象図形を描画する前に該ピクセルが有していたカラーをブレンドして決定するブレンド処理であることを特徴とするエッジ描画方法。 5. A method according to claim 1 or claim 2, predetermined processing in the second step, the drawing color of the determined pixels to be present in the edge portion, the color of the one to be drawn graphic, edge drawing method which is a blend processing for determining a blend of colors the pixel had before drawing the single plot subject graphic.
  6. 【請求項6】請求項5において、 前記ブレンド処理におけるカラーのブレンドが、 前記ピクセルの周辺に位置する所定の数のピクセルのうち、前記一つの描画対象図形内に存在するピクセルの数に応じた割合で行われることを特徴とするエッジ描画方法。 6. The method of claim 5, a blend of colors in the blending process is, among the predetermined number of pixels located around the pixel, corresponding to the number of pixels existing in the one of the object graphic edge drawing method which comprises carrying out a percentage.
  7. 【請求項7】三次元座標を有するオブジェクト群を二次元の表示画面に描画する画像処理装置であって、CPUからの描画命令に基づいて、描画対象図形を、該表示画面を構成するピクセル単位のデータからなるデジタル画像として、フレームバッファへ書込む画像処理装置において、 該表示画面上における一つの該描画対象図形のデジタル画像を包含する所定の大きさの領域内に含まれる全てのピクセルのカラーデータを一時的に格納するメモリであって、一つの該描画対象図形に対する該描画命令を受ける度に該全てのピクセルのカラーデータが初期化される一時記憶メモリと、 該一つの描画対象図形に対する描画命令に基づいて、該一時記憶メモリが初期化された後に、該描画命令と共に与えられる該一つの描画対象図形のデータから、 7. An image processing apparatus for drawing an object group in a two-dimensional display screen having a three-dimensional coordinate, based on the drawing command from the CPU, and drawing subject graphic, pixels constituting the display screen color as a digital image composed of data, in an image processing apparatus for writing to the frame buffer, all pixels included in one image drawing given including digital images of the subject graphic size of the area in the display screen data a memory for storing temporarily and a temporary storage memory which color data of the all pixels are initialized every time receiving the image drawing instruction for one image drawing object graphic, to said one of the object graphic based on the drawing command, after the temporary storage memory is initialized, the data of the one of the object graphic provided with image drawing instruction, 一つの描画対象図形のデジタル画像を生成し、該デジタル画像を構成するピクセルのカラーデータを該一時記憶メモリに書込む描画手段と、 該描画手段による書込みの後に、該一時記憶メモリにデータが格納されている全てのピクセルについて、ピクセル毎に、該一時記憶メモリから対象ピクセルのカラーデータと該対象ピクセルの周辺に位置する所定の数の周辺ピクセルのカラーデータを読出す読出し手段と、 該読出し手段で読出されたカラーデータから、該対象ピクセルが該描画手段で生成されたデジタル画像のエッジ部に存在するか否かの判定をし、エッジ部に存在すると判定された場合には、該対象ピクセルのカラーデータを所定の処理によって変更し、エッジ部に存在すると判定されなかった場合には、該対象ピクセルのカラー Generating a digital image of a drawing object graphic, storing color data of pixels constituting the digital image and drawing means for writing in said temporary storage memory, after writing by image drawing means, the data in the temporary storage memory for all pixels that are, for each pixel, a reading readout means color data of a predetermined number of peripheral pixels located around the color data and the target pixel of the target pixel from the temporary storage memory, said read means in the read-out color data, the target pixel is determined whether or not to exist in the edge portions of the digital image generated by the image drawing means, when it is determined to be in the edge portion, the target pixel color color data altered by predetermined processing, when it is not determined to be in the edge portion, of the target pixel ータをそのままとするエッジ部検出処理手段と、 該エッジ部検出処理手段における処理の後に該対象ピクセルが有しているカラーデータに基づいて、該一つの描画対象図形のデジタル画像を該フレームバッファへ書込む書込み手段を有することを特徴とする画像処理装置。 And the edge portion detection processing means for the over data as it is, on the basis of the color data to which the target pixel has after processing in the edge portion detection processing means, the frame buffer a digital image of the one of the object graphic the image processing apparatus characterized by having a writing means for writing fart document.
  8. 【請求項8】請求項7において、 前記一時記憶メモリの初期化は、 前記一時記憶メモリに格納されている全てのピクセルのカラーデータを透明とすることであり、 前記エッジ検出処理手段におけるエッジ部に存在するか否かの判定は、 前記対象ピクセルのカラーデータが透明ではなく、かつ、前記周辺ピクセルの内一つ以上のピクセルのカラーデータが透明である場合に、前記対象ピクセルがエッジ部に存在すると判定することにより行われることを特徴とする画像処理装置。 8. The method of claim 7, initialization of the temporary storage memory is to a transparent color data of all the pixels stored in the temporary storage memory, an edge portion of the edge detection process means determination of whether or not there, the color data is not transparent in the target pixel, and when the color data for one or more pixels of the adjacent pixels is transparent, the target pixel is an edge portion the image processing apparatus characterized by being performed by determining the present.
  9. 【請求項9】請求項7あるいは請求項8において、 前記一つの描画対象図形が、一つのポリゴンであり、 前記エッジ検出処理手段においてエッジ部に存在すると判定された場合の所定の処理が、前記対象ピクセルのカラーデータを該ポリゴンの輪郭を表現するカラーとする処理であることを特徴とする画像処理装置。 9. The method of claim 7 or claim 8, wherein one of the drawing target figure is one of polygons, a predetermined process when it is determined to be present in an edge portion at said edge detection processing means, wherein the image processing apparatus characterized by the color data of the target pixel is the process of a color to represent the outline of the polygon.
  10. 【請求項10】請求項7あるいは請求項8において、 前記一つの描画対象図形が、ポリゴンの集合からなる一つの前記オブジェクトを表現する図形であり、 前記エッジ検出処理手段においてエッジ部に存在すると判定された場合の所定の処理が、前記対象ピクセルのカラーデータを該オブジェクトの輪郭を表現するカラーとする処理であることを特徴とする画像処理装置。 10. The method of claim 7 or claim 8, wherein one of the drawing target figure is a figure representing one of said objects comprising a set of polygons, and present in an edge portion at said edge detection processing means determines predetermined process when it is the image processing device, wherein the color data of the target pixel is a process for the color representing the contour of the object.
  11. 【請求項11】請求項7あるいは請求項8において、 前記エッジ検出処理手段においてエッジ部に存在すると判定された場合の所定の処理が、 前記対象ピクセルのカラーデータを、前記フレームバッファ上の前記対象ピクセルと同位置のピクセルが有しているカラーデータと、前記対象ピクセルのカラーデータをブレンドして得られるカラーとするブレンド処理であることを特徴とする画像処理装置。 11. The method of claim 7 or claim 8, predetermined processing when it is determined to be present in an edge portion at said edge detection processing means, the color data of the target pixel, the target on the frame buffer the image processing apparatus which is a blending of the color data pixels and the location of the pixel has a color obtained by blending the color data of the target pixel.
  12. 【請求項12】請求項11において、 前記ブレンド処理におけるカラーデータのブレンドが、 前記周辺ピクセルのうち、透明でないカラーデータを有するピクセルの数に応じた割合で行われることを特徴とする画像処理装置。 12. The method of claim 11, blending the color data in the blending process is, among the peripheral pixels, the image processing apparatus characterized in that it is carried out at a rate corresponding to the number of pixels having color data that is not transparent .
JP28453499A 1999-10-05 1999-10-05 Image processing apparatus Expired - Fee Related JP4433525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28453499A JP4433525B2 (en) 1999-10-05 1999-10-05 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28453499A JP4433525B2 (en) 1999-10-05 1999-10-05 Image processing apparatus

Publications (2)

Publication Number Publication Date
JP2001109896A true true JP2001109896A (en) 2001-04-20
JP4433525B2 JP4433525B2 (en) 2010-03-17

Family

ID=17679716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28453499A Expired - Fee Related JP4433525B2 (en) 1999-10-05 1999-10-05 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP4433525B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013500511A (en) * 2009-07-24 2013-01-07 アルカテル−ルーセント Image processing method, the avatar display adaptation method, and corresponding image processor, the virtual world server and communication terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013500511A (en) * 2009-07-24 2013-01-07 アルカテル−ルーセント Image processing method, the avatar display adaptation method, and corresponding image processor, the virtual world server and communication terminal
US9776090B2 (en) 2009-07-24 2017-10-03 Alcatel Lucent Image processing method, avatar display adaptation method and corresponding image processing processor, virtual world server and communication terminal

Also Published As

Publication number Publication date Type
JP4433525B2 (en) 2010-03-17 grant

Similar Documents

Publication Publication Date Title
US6580430B1 (en) Method and apparatus for providing improved fog effects in a graphics system
US6608627B1 (en) Rendering a two-dimensional image
US6072500A (en) Antialiased imaging with improved pixel supersampling
US6982723B1 (en) Method and apparatus for eliminating unwanted steps at edges in graphic representations in the line raster
US5301038A (en) Image processor and method for processing pixel data
US20020063705A1 (en) Apparatus and method for drawing three dimensional graphics by controlling alpha value based on Z coordinate value
US6429877B1 (en) System and method for reducing the effects of aliasing in a computer graphics system
US6081615A (en) Image-processing device and method of image-processing
US20040169649A1 (en) Method, apparatus, storage medium, program, and program product for generating image data of virtual three-dimensional space
US20020110274A1 (en) Image processing method
US6897879B2 (en) Hardware-enhanced graphics acceleration of pixel sub-component-oriented images
US20020175923A1 (en) Method and apparatus for displaying overlapped graphical objects using depth parameters
US7068275B2 (en) Methods and apparatus for rendering an image with depth-of-field display
US20060046844A1 (en) Video game device and image processing program
US5877769A (en) Image processing apparatus and method
US6369828B1 (en) Method and system for efficiently using fewer blending units for antialiasing
US6339430B1 (en) Video game machine and method for changing texture of models
US6961065B2 (en) Image processor, components thereof, and rendering method
US20030117409A1 (en) Barycentric centroid sampling method and apparatus
US5982376A (en) Three-dimensional graphic display apparatus with improved high-speed anti-aliasing
JP2000132706A (en) Recording medium, image processor and image processing method
JPH11203500A (en) Image processor and recording medium stored with bump map data to be utilized therefor
US20080198163A1 (en) Drawing Method, Image Generating Device, And Electronic Information Apparatus
US6285348B1 (en) Method and system for providing implicit edge antialiasing
US20070097145A1 (en) Method and system for supersampling rasterization of image data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091221

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees