WO2002035475A1 - Procede de traitement d'image permettant de realiser un mappage de relief rapide, dispositif de traitement d'image, programme informatique et dispositif a semi-conducteur - Google Patents

Procede de traitement d'image permettant de realiser un mappage de relief rapide, dispositif de traitement d'image, programme informatique et dispositif a semi-conducteur Download PDF

Info

Publication number
WO2002035475A1
WO2002035475A1 PCT/JP2001/009294 JP0109294W WO0235475A1 WO 2002035475 A1 WO2002035475 A1 WO 2002035475A1 JP 0109294 W JP0109294 W JP 0109294W WO 0235475 A1 WO0235475 A1 WO 0235475A1
Authority
WO
WIPO (PCT)
Prior art keywords
normal vector
normal
image processing
vectors
regions
Prior art date
Application number
PCT/JP2001/009294
Other languages
English (en)
French (fr)
Inventor
Akio Ohba
Masaaki Oka
Naoto Yoshioka
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to AU2001296002A priority Critical patent/AU2001296002A1/en
Priority to KR10-2003-7004921A priority patent/KR20040004393A/ko
Priority to EP01976820A priority patent/EP1331606A4/en
Publication of WO2002035475A1 publication Critical patent/WO2002035475A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects

Definitions

  • the present invention relates to an image processing technique in computer graphics, and more particularly to a technique for easily expressing irregularities on the surface of an object that is an object of image processing.
  • Some computer graphics systems include image generation devices that perform coordinate transformations such as rotation, movement, and enlargement / reduction, perspective transformations, shading, and hidden line elimination on objects.
  • image processing system including a drawing processing device that draws an image in a frame memory.
  • the image generation device generates a drawing command (display list) for drawing a basic figure (polygon) such as a triangle or a quadrangle in a frame memory, which is a drawing memory, as a result of the above processing, and sends this to the drawing processing device. send.
  • the drawing processing device draws an image in the frame memory according to the display list sent from the image generation device.
  • the drawing result in the frame memory is converted into a video signal, and is displayed on a display so that the image can be viewed.
  • Texture mapping is a technique for obtaining realistic images by improving the expressive power of computer graphics.
  • Texture mapping is a method of pasting (mapping) a two-dimensional image (picture) prepared separately as an image for mapping, that is, a texture, to a polygon that is a basic figure that constitutes an object.
  • images obtained by texture mapping can greatly improve the expressiveness of colors, but it is difficult to represent irregularities on the surface of objects. Therefore, there is a problem that the surface of the object is too smooth and lacks realism.
  • bump mapping As a method for simply expressing irregularities on the surface of an object, there is bump mapping using texture mapping.
  • bump mapping the surface of an object is divided into a plurality of division planes, and a plurality of normal vectors, each of which has an independent direction, are mapped to each division plane.
  • This is a method to simulate heterogeneity and unevenness on the object surface by calculating the luminance value by performing shading processing based on the normal vector and performing shading according to the calculated luminance value. .
  • images that resemble finely modeled objects can be realized with less data loss.
  • a color look-up table hereinafter referred to as “CLUT”) is often used when color conversion is required.
  • CLUT is used as a color conversion table for color conversion in computer graphics.
  • CLUT provides a realistic image in terms of color, but the realism is determined by modeling as well as texture mapping.
  • bump matting is one of the most effective methods for simply expressing irregularities on the surface of an object.
  • each normal vector mapped to each division plane is a different vector, it is necessary to perform shading processing based on all the normal vectors.
  • shading processing in order to express the irregularities on the object surface in detail, for example, by mapping the normal vector with the division plane as large as one pixel when displayed, Shading processing takes time, and high-speed processing cannot be realized.
  • an image processing method comprising:
  • the second means determines the first normal vector as the second vector.
  • a third method of classifying the normal vector and assigning each of the second normal vectors to the area where the first normal vector classified corresponding to the second normal vector is generated;
  • an image processing apparatus comprising: a fourth means for shading each of the plurality of regions based on the assigned identification data of the second normal vector. Is done.
  • the identification data may include a luminance value.
  • the image processing apparatus may further include: a fifth unit that adds a luminance value to each of the identification data; and a sixth unit that generates a table that associates each of the luminance values with the corresponding identification data. May be further provided.
  • the surface of the object may be constituted by at least one polygon.
  • each of the plurality of regions may be configured by one pixel.
  • the first normal vector may be based on a direction of the first normal vector with respect to the second normal vector. You may comprise so that it may be classified.
  • the second normal vector may be generated based on the first normal vector.
  • the processing for determining the second normal vector includes: converting the first normal vector to the second normal vector based on a direction of the first normal vector. A process of classifying into the same number of groups, a process of averaging the classified first normal vectors in each group, and a process corresponding to the averaged first normal vectors. And generating the second normal vector.
  • the second means may include, based on a direction of the first normal vector, the first normal vector and a plurality of groups equal in number to the second normal vector.
  • the second means determines the first normal vector as the second normal vector. Classifying the second normal vector, and assigning each of the second normal vectors to the area where the first normal vector classified corresponding to the second normal vector is generated;
  • a semiconductor device comprising: a third means; and fourth means for shading each of the plurality of regions based on the assigned identification data of the second normal vector. Is provided.
  • the surface of an object in image data is A process of dividing into a plurality of regions; a process of generating a first normal vector for each of the plurality of regions; each having identification data; and A process of determining a small number of second normal vectors; a process of classifying the first normal vector with respect to the second normal vector; and each of the second normal vectors Allocating the area to the area where the first normal vector classified corresponding to the area is generated, and the identification data of the allocated second normal vector.
  • a process of shading each of the number regions and a computer program for causing a computer to execute are provided.
  • FIG. 1 is a hardware configuration diagram of a computer according to the present embodiment.
  • FIG. 2 is a main functional block diagram of the image processing apparatus of the present embodiment.
  • FIG. 3 is a front view of the bump mapping of the present embodiment.
  • Fig. 4 (a) is an example of a polygon to which individual normal vectors are mapped
  • Fig. 4 (b) is an example of a polygon to which identification information is mapped
  • Fig. 4 (c) is a map in which luminance values are mapped.
  • FIG. 3 is a view showing an example of a polygon.
  • FIG. 5 is an illustration of C LUT. BEST MODE FOR CARRYING OUT THE INVENTION
  • the image processing device of the present invention is realized by a computer that forms various functions related to image processing by reading and executing a computer program.
  • a computer 1 according to this embodiment includes a main bus B1 and a subbus B2 to which a plurality of semiconductor devices each having a unique function are connected, as shown in FIG. It has two buses and can execute entertainment processing using image processing technology.
  • buses Bl, B2 are connected or disconnected from each other via a bus interface I NT as required.
  • the main path B 1 includes a main CPU 10, which is a main semiconductor device for constructing an image processing execution environment, a main memory 11 composed of RAM, and a main DMAC (Direct Memory Access Controller) 1. 2, a Moving Picture Experts Group (MPEG) decoder (MDEC) 13, and a graphic processing unit (GPU) 14 with a built-in frame memory 15 as a drawing memory Connected.
  • the GPU 14 is connected to a CRTC (CRT controller) 16 that generates a video output signal so that the data drawn in the frame memory 15 can be displayed on a display (not shown). You.
  • CRTC CRT controller
  • the main CPU 10 reads a startup program from the ROM 23 on the sub-bus B2 via the bus interface INT when the computer 1 starts up, and executes the startup program to operate the operating system. .
  • three-dimensional object data such as coordinate values of the vertices of a polygon
  • the shape and motion of the object are determined.
  • Performs geometry processing coordinate value calculation processing for representation.
  • a display list containing the polygon definition information (designation of the shape of the polygon to be used and its drawing position, the type of material constituting the polygon, color tone, texture, etc.) is generated by the geometry processing.
  • the GPU 14 holds the drawing context (a drawing process including polygon material), reads the necessary drawing context according to the display list notified from the main CPU 10, and performs the rendering process (drawing process).
  • This is a semiconductor device having a function of drawing polygons on the frame memory 15 by performing the following.
  • the frame memory 15 can use this as a texture memory. Therefore, the pixel image on the frame memory 15 can be pasted on a polygon to be drawn as a texture.
  • the main DMAC 12 performs DMA transfer control for each circuit connected to the main path B1, and also controls each circuit connected to the sub-bus B2 according to the state of the bus interface INT.
  • the target device is a semiconductor device that performs DMA transfer control.
  • the MDEC 13 operates in parallel with the main CPU 10 and uses the MPEG (Moving Picture Experts Group) method or the JPEG (Joint Photographic Experts Group) method. It is a semiconductor device that has the function of expanding compressed data.
  • the sub-bus B 2 has a sub-CPU 20 composed of a microprocessor, a sub-memory 21 composed of a RAM, a sub-DMAC 22, and a ROM 23 storing a control program such as an operating system.
  • a semiconductor device for sound processing (SPU (sound processing unit)) 24 which reads out the sound data stored in the sound memory 25 and outputs it as an audio output, and transmits and receives information to and from external devices via a network (not shown).
  • Communication control unit (ATM) 26 media drive 27 for mounting media 28 such as CD-ROM and DVD-R ⁇ M, and input unit 31 are connected.
  • Sub DMAC 22 is a bus interface I NT Is a semiconductor device that performs control such as DMA transfer for each circuit connected to the sub-bus B2 only when the main bus B1 and the sub-bus B2 are disconnected.
  • the input unit 31 includes a connection terminal 32 to which an input signal from the operation device 33 is input.
  • Computer 1 configured in this way has a main CPU 10, GPU
  • the geometry processing unit 107 is formed.
  • the GPU 14 uses the normal vector mapping unit 101, the normal vector replacement unit 102, the luminance value derivation unit 103, the CLUT 104, Luminance value mapping unit 105, drawing processing unit 1
  • the main CPU 10 forms a geometry processing unit 107.
  • the image processing apparatus 100 is configured to reduce the processing amount of a process of obtaining a luminance value based on a normal vector, and to realize bump matching at high speed.
  • the normal vector (individual normal vector) for each divided surface obtained by dividing the surface on which the bump mapping is performed is calculated as the most common reference vector among a predetermined number of reference normal vectors smaller than the number of divided surfaces. Replace with a reference normal vector with similar features. Then, a luminance value is obtained for each of the reference normal vectors. Then, shading of each divided plane is performed based on these luminance values. As a result, irregularities on the surface are expressed.
  • each functional block of the image processing apparatus 100 will be described.
  • the geometry processing unit 107 performs a geometry process according to an input from the operation device 33 or the like, and generates a display list as a result of the geometry process.
  • a display list for the polygons to be bump-mapped, for example, information indicating that they are to be bump-mapped is added, so that the polygons to be bump-mapped can be identified. . Whether or not bump matting is performed is determined by the developer at the time of modeling, for example.
  • the normal vector mapping unit 101 identifies polygons for bump matching based on the display list generated by the geometry processing unit 107, divides the identified polygon surface, and Map the individual normal vectors to the dividing plane. Each individual normal vector is oriented independently of the other individual normal vectors. That is, an individual normal vector whose direction is determined independently of the other divided planes is mapped to each of the plurality of divided planes obtained by dividing the polygon surface.
  • the individual normal vector may be determined, for example, by giving a fluctuation to a normal vector pointing in the vertical direction of the surface of the polygon, and by randomly changing the direction by the fluctuation. Further, the individual normal vector for each divided plane may be included in the display list as a part of information representing a polygon.
  • the normal vector replacement unit 102 converts the individual normal vectors mapped on each divided surface of the polygon into a plurality of reference normal vectors identified by different identification information. Is replaced with the reference normal vector that is closest to the target, and the identification information of the replaced reference normal vector is mapped to the division plane.
  • the reference normal vector that has the best approximation to the feature is, for example, the direction of the vector. Is the approximate normal vector.
  • the individual normal vectors are vector-quantized, all the individual normal vectors are grouped by direction, and the average of the individual normal vectors in each dump is calculated. Can be used.
  • the reference normal vector may be prepared in advance at the time of modeling.
  • the number of reference normal vectors should be smaller than the number of individual normal vectors.
  • the luminance value deriving unit 103 derives a luminance value based on each reference normal vector.
  • a brightness value is derived by performing a shading process based on a reference normal vector.
  • the luminance value deriving unit 103 writes the derived luminance value together with the identification information of the corresponding reference normal vector in CLUT 104.
  • CLUT 104 is a table in which the luminance value derived by the luminance value deriving unit 103 is written together with the identification information of the corresponding reference normal vector.
  • FIG. 5 is an illustration of CLUT 104.
  • the identification information “1” to “8” for identifying the reference normal vector of the polygon named polygon 1 and the brightness values “ ⁇ 1” to “HI 8” corresponding to each identification information are shown. And are recorded in association with each other.
  • the brightness value mapping unit 105 maps the brightness value corresponding to the corresponding identification information to each divided surface of the polygon to which the identification information is mapped, with reference to CLUT 104.
  • the drawing processing unit 106 draws an image corresponding to the display list in the frame memory 15.
  • a polygon whose luminance value is mapped by the luminance value mapping unit 105 has a polygon corresponding to the polygon according to the display list. Renders the texture instructed to map reflecting the luminance value.
  • bump mapping can be performed in the following procedure.
  • FIG. 3 is a flowchart showing the procedure of bump matting processing by the image processing apparatus 100 of the present invention.
  • the display list generated by the geometry processing unit 107 is sent to the normal vector mapping unit 101.
  • the normal vector mapping unit 101 acquires the display list sent from the geometry processing unit 107 (step S101).
  • the normal vector mapping unit 101 specifies a polygon to be subjected to bump mapping based on the display list (step S102). If there are multiple polygons to be bump-mapped, specify all of them.
  • the normal vector matching unit 101 divides the surface of the specified polygon into a plurality of divided surfaces, and maps individual normal vectors to each divided surface. (Step S103).
  • the polygon surface is divided so that the division surface has a size of one pixel when displayed on a display.
  • the individual normal vectors are mapped to all the pixels that make up the polygon. This makes it possible to express irregularities finely.
  • FIG. 4 (a) is a diagram illustrating a polygon to which individual normal vectors are mapped in pixel units.
  • One pixel is represented by one square, and 20 pixels form one square polygon.
  • Each pixel has an individual normal vector represented by an arrow.
  • Each individual normal vector is independent of the individual normal vectors of the other split planes. Direction is determined.
  • the normal vector replacement unit 102 replaces the individual normal vectors mapped to each pixel of the polygon with the reference normal vector whose feature is the closest among the multiple reference normal vectors (Ste S104).
  • the individual normal vector mapped for each pixel is replaced with the one with the closest feature among the eight reference normal vectors.
  • identification information for identifying the replaced reference normal vector is mapped on each division plane (step S105).
  • Fig. 4 (b) is a diagram exemplifying a polygon when identification information is mapped to each pixel as described above.
  • the luminance value deriving unit 103 performs a shading process based on each of the reference normal vectors, and writes a luminance value obtained as a result of the shading process to CLUT 104 (step S106). That is, shading processing is performed based on each of the eight reference normal vectors, and the luminance value of each is derived.
  • the identification information of the reference normal vector and the derived luminance value are associated with each other and written in CLU104, and a table as shown in FIG. 5 is created.
  • the conventional bump matching requires the shading process to be performed based on each of the individual normal vectors to be mapped. Also, the processing time for deriving the luminance value can be greatly reduced.
  • the number of reference normal vectors can be set arbitrarily.If you want to change the direction of the uneven surface slightly and express it finely, you only need to increase the number and if you want to process at high speed. Can reduce the number.
  • the number of reference normal vectors may be determined according to the number of directions of the uneven surface of the obtained image and the processing speed.
  • luminance value mapping is performed on each divided surface by the luminance value mapping unit 105 (step S107). That is, the luminance value mapping unit 105 reads the luminance value corresponding to the identification information mapped onto each divided surface of the polygon from the CLUT 104 and performs the mapping.
  • FIG. 4 (c) is a diagram illustrating a polygon in which a luminance value is mapped to each pixel.
  • step S108 N
  • step S108 the drawing processing unit 106 determines the polygon based on the display list. Draws all polygons etc. in frame memory 15. At this time, the texture to be pasted on the polygon whose luminance value was mapped in step S107 reflects the luminance value (step S109).
  • the image drawn in this way on the frame memory 15 is converted into a video output by the CRTC 16 and displayed on a predetermined display device, so that bump mapping is performed and irregularities are represented by shading. Images containing polygons can be viewed. When the texture is not mapped, the luminance value may be directly drawn on the frame memory 15 as an RGB value.
  • bump bumping is performed based on the individual normal vector mapped for each pixel, so that the unevenness is expressed in detail. Also, since it is only necessary to derive luminance values for reference normal vectors smaller than the individual normal vectors, high-speed bump mapping can be realized as a whole. In other words, even if the image is displayed in sufficient detail, the processing load for that depends on the number of reference normal vectors, so processing is faster than before while maintaining the image definition. Can be terminated.
  • the bump mapping was performed on a polygon-by-plane basis.
  • the present invention is not limited to this, and bump mapping as described above may be performed on an object-by-object basis, that is, on the entire surface of an object to be processed. .
  • the identification information and the luminance value for identifying the reference normal vector are generated based on the individual normal vectors.
  • the vector identification information and the luminance value may be prepared. In this way, it is not necessary to generate CLUT104, and the individual normal vector can be directly replaced with a luminance value corresponding to the approximate reference normal vector.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)

Description

明細:
高速なバンプマッピングを実現するための、 画像処理方法、 画像処理装
置、—コンピュータプログラム、 及ぴ半導体デバイス'
技術分野
本発明は、コンピュータグラフィックスにおける画像処理技術に関し、 特に、 画像処理の対象物であるオブジェク トの表面に簡易に凹凸を表現 する手法に関する。 背景技術
コンピュータグラフィックスのシステムの中には、 オブジェク トに回 転、 移動、 拡大/縮小などの座標変換や透視変換、 陰影処理、 及び、 隠 線ノ隠面消去処理等の処理を行う画像生成装置と、 フレームメモリに画 像を描画する描画処理装置とを備えた画像処理システムがある。
画像生成装置では、 上記のような処理の結果として三角形や四角形な どの基本図形 (ポリゴン) を描画用メモリであるフレームメモリに描画 する描画命令 (ディスプレイリスト) を生成し、 これを描画処理装置へ 送る。
描画処理装置は、 画像生成装置から送られてきたディスプレイリスト に従ってフレームメモリに画像の描画を行う。 このフレームメモリへの 描画結果がビデオ信号に変換され、 ディスプレイに表示されて画像が視 認可能になる。
このような画像処理システムの応用分野は、 近年、 急激に拡大してお り、 C A D ( Computer Aided Design) 等の産業分野のみならず、 映画 やテレビ、 ビデオゲーム等のェンタティンメン卜の分野においても広く 利用されている。
特に、 エンタテインメントの分野では、 単にオブジェク トをディスプ レイ上に表示するだけではなく、 よりリアルな画像を高速に表現する能 力が要求されている。
コンピュータグラフイツクスの表現力を向上させてリアルな画像を得 るための手法として、 テクスチャマッピングがある。 テクスチャマツピ ングは、 マッピング用の画像として別に用意された 2次元画像 (絵柄)、 すなわちテクスチャを、 オブジェク トを構成する基本図形であるポリゴ ンに貼り付ける (マッピングする) 手法である。
しかし、 テクスチャマッピングにより得られる画像は、 色に関する表 現力を大幅に向上させることはできるが、 オブジェクトの表面の凹凸を 表現することが困難である。 そのために、 オブジェクトの表面が滑らか すぎてリアルさに欠けるという問題がある。
オブジェクト表面の凹凸まで詳細にモデリングしてテクスチャマツピ ングを行うと、 非常にリアルな表現が可能であるが、 データ量が多くな るために高速な画像処理ができなくなる。 また、 モデリング自体にも時 間がかかるため、 このような手法は現実的な手法とはいえない。
従来より、 オブジェク 卜の表面に凹凸を簡易に表現するための手法と して、 テクスチャマッピングを応用したバンプマッピングがある。 バン プマッピングは、 オブジェクトの表面を複数の分割面に分割して、 各分 割面に、 各々が独立して方向が定められた複数の法線べク トルをマツピ ングしておき、 これらの法線べクトルに基づいてシエーディング処理を 行って輝度値を求め、 求めた輝度値に応じた陰影付けを行うことで、 ォ ブジェク ト表面上の不均質さや凹凸を擬似的に表現する手法である。 そ のために、 細かにモデリングされたオブジェク トに似た画像を、 より少 ないデ一夕量で実現できる。 一方、 コンピュータグラフィックスにおいて、 色についての変換が必 要なときによく用いられるものとしてカラ一ルックアップテーブル ( Color LookUp Table: 以下、 「C L U T」 という。) がある。 C L U T は、 コン ュータグラフィ ックスにおける色変換時の色変換テーブルと して用いられている。 C L U Tは、 色の面からリアルな画像を提供する が、 テクスチャマッピング同様にモデリングによりリアルさが決まる。 バンプマツビングは、 オブジェク卜の表面に凹凸を簡易に表現するた めの手法として、 現在のところ最も有効な手法の一つである。
しかし、 バンプマッピングでは、 各分割面にマッピングされた各法線 べク トルがそれぞれ異なるべクトルであるために、 すべての法線べクト ルに基づくシェーディング処理を行う必要がある。 そのために、 ォブジ ェク ト表面の凹凸を、 精細に表現しょうとして、 例えば、 分割面を、 表 示した際に 1ピクセルの大きさに相当する大きさにして法線べク トルを マッピングすると、 シェーディング処理に時間がかかってしまい、 高速 処理が実現できない。
本発明は、 例えばバンプマッピングのような画像処理を、 画像の精細 さにかかわらず高速に処理可能にする手法を提供することを、 その主た る目的とする。 発明の開示
本発明の第 1の観点に基づくと、 画像デ一夕における対象物の表面を 複数の領域に分割する処理と、 該複数の領域の各々について、 第 1法線 ベク トルを生成する処理と、 各々が識別データを有し、 且つ、 前記第 1 法線べク トルの数よりも少ない数の第 2法線べク トルを決定する処理 と、 前記第 1法線べク トルを前記第 2法線べク トルに対して分類する処 理と、 前記第 2法線ベク トルの各々を、 これに対応して分類された前記 第 1法線べクトルが生成されている前記領域に割り当てる処理と、 割り 当てられた前記第 2法線べク トルの前記識別デ一夕に基づいて、 前記複 数の領域の各々に対する陰影付けを行う処理とから構成される、 画像処 理方法が提供される。
本発明の第 2の観点に基づくと、 画像データにおける対象物の表面を 複数の領域に分割し、 該複数の領域の各々について第 1法線べク トルを 生成する第 1の手段と、 各々が識別データを有し、 且つ、 前記第 1法線 ベク トルの数よりも少ない数の第 2法線べク トルを決定する第 2の手段 と、 前記第 1法線ベク トルを前記第 2法線ベク トルに対して分類し、 前 記第 2法線べクトルの各々を、 これに対応して分類された前記第 1法線 べク トルが生成されている前記領域に割り当てる第 3の手段と、 割り当 てられた前記第 2法線べクトルの前記識別データに基づいて、 前記複数 の領域の各々に対する陰影付けを行う第 4の手段とから構成される、 画 像処理装置が提供される。
上記画像処理方法及び装置において、 前記識別データが輝度値を含ん でいるように構成してもよい。
また、 上記画像処理装置において、 前記識別データの各々に輝度値を 付加する第 5の手段と、 前記輝度値の各々と、 これに対応する前記識別 データとを対応付けるテーブルを生成する第 6の手段とをさらに備える ように構成してもよい。
また、上記画像処理方法及び装置において、前記対象物の前記表面が、 少なくもと 1つのポリゴンから構成されるようにしてもよい。
また、上記画像処理方法及び装置において、前記複数の領域の各々が、 1つのピクセルから構成されるようにしてもよい。
また、上記画像処理方法及び装置において、前記第 1法線べクトルが、 該第 1法線べク トルの方向に基づいて、 前記第 2法線べクトルに対して 分類されるように構成してもよい。
また、上記画像処理方法及び装置において、前記第 2法線べク トルが、 前記第 1法線べク トルに基づいて生成されるように構成してもよい。
また、 上記画像処理方法において、 前記第 2法線ベクトルを決定する 処理が、 前記第 1法線ベクトルの方向に基づいて、 前記第 1法線べク ト ルを、前記第 2法線べクトルと同数の複数のグループに分類する処理と、 各グループ内において、 前記分類された第 1法線べク トルを平均化する 処理と、 前記平均化された第 1法線べク トルに対応して前記第 2法線べ クトルを生成する処理とを含むように構成してもよい。
また、 上記画像処理装置において、 前記第 2の手段が、 前記第 1法線 ベク トルの方向に基づいて、 前記第 1法線ベク トルを、 前記第 2法線べ クトルと同数の複数のグループに分類する手段と、 各グループ内におい て、 前記分類された第 1法線ベクトルを平均化する手段と、 前記平均化 された第 1法線べクトルに対応して前記第 2法線べクトルを生成する手 段とから構成されるようにしてもよい。
本発明の第 3の観点に基づくと、 画像データにおける対象物の表面を 複数の領域に分割し、 該複数の領域の各々について第 1法線べク トルを 生成する第 1の手段と、 各々が識別データを有し、 且つ、 前記第 1法線 べク トルの数よりも少ない数の第 2法線べク トルを決定する第 2の手段 と、 前記第 1法線ベク トルを前記第 2法線ベク トルに対して分類し、 前 記第 2法線べク トルの各々を、 これに対応して分類された前記第 1法線 べク トルが生成されている前記領域に割り当てる第 3の手段と、 割り当 てられた前記第 2法線べク トルの前記識別データに基づいて、 前記複数 の領域の各々に対する陰影付けを行う第 4の手段とから構成される、 半 導体デバイスが提供される。
本発明の第 4の観点に基づくと、 画像データにおける対象物の表面を 複数の領域に分割する処理と、 該複数の領域の各々について、 第 1法線 ベクトルを生成する処理と、 各々が識別データを有し、 且つ、 前記第 1 法線べク トルの数よりも少ない数の第 2法線ベク トルを決定する処理 と、 前記第.1法線べク トルを前記第 2法線べク トルに対して分類する処 理と、 前記第 2法線ベクトルの各々を、 これに対応して分類された前記 第 1法線べクトルが生成されている前記領域に割り当てる処理と、 割り 当てられた前記第 2法線べクトルの前記識別データに基づいて、 前記複 数の領域の各々に対する陰影付けを行う処理と、 をコンピュータに実行 させるためのコンピュータプログラムが提供される。 図面の簡単な説明
第 1図は、 本実施形態のコンピュータのハ一ドウエア構成図である。 第 2図は、 本実施形態の画像処理装置の主要機能ブロック図である。 第 3図は、 本実施形態のバンプマツピングのフ口一チヤ一トである。 第 4図 ( a ) は個別法線ベクトルがマッピングされたポリゴンの例示 図、 第 4図 (b ) は識別情報がマッピングされたポリゴンの例示図、 第 4図 (c ) は輝度値がマッピングされたポリゴンの例示図である。
第 5図は、 C L U Tの例示図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態を詳細に説明する。
本発明の画像処理装置は、 コンピュータプログラムを読み込んで実行 することによって、 画像処理に関する種々の機能を形成するコンピュー タにより実現される。 この実施形態によるコンピュータ 1は、 例えば第 1図にそのハードウエア構成を示すように、 それぞれ固有の機能を有す る複数の半導体デバイスが接続されたメインバス B 1とサブバス B 2の 2本のバスを有しており、 画像処理技術を用いたェンタティンメント処 理を実行できるようにしたものである。
これらのバス B l、 B 2は、 必要に応じて、 バスインタフェース I N Tを介して互いに接続され又は切り離されるようになっている。
メインパス B 1には、 画像処理の実行環境を構築するための主たる半 導体デバイスであるメイン C PU 1 0と、 RAMで構成されるメインメ モリ 1 1と、 メイン DMAC (Direct Memory Access Controller) 1 2 と、 MP E G (Moving Picture Experts Group) デコーダ (MD E C) 1 3と、 描画用メモリとなるフレームメモリ 1 5を内蔵する描画処理装 置 (Graphic Processing Unit、 以下、 「GPU」) 1 4が接続される。 G PU 1 4には、 フレームメモリ 1 5に描画されたデ一夕を図外のディス プレイで表示できるようにするためのビデオ出力信号を生成する C RT C ( CRT controller) 1 6が接続される。
メイン C PU 1 0は、 コンピュータ 1の起動時にサブバス B 2上の R OM 2 3から、 バスインタフェース I NTを介して起動プログラムを読 み込み、 その起動プログラムを実行してオペレーティングシステムを動 作させる。 また、 メディアドライブ 2 7を制御するとともに、 このメデ ィアドライブ 2 7に装着されたメディア 2 8からアプリケ一シヨンプロ グラムやデ一タを読み出し、 これをメインメモリ 1 1に記憶させる。 さ らに、 メディア 2 8から読み出した各種データ、 例えば複数の基本図形 (ポリゴン) で構成された 3次元オブジェク トデータ (ポリゴンの頂点 の座標値など) に対して、 オブジェク トの形状や動き等を表現するため のジオメトリ処理 (座標値演算処理) を行う。 ジオメトリ処理によりポ リゴン定義情報 (使用するポリゴンの形状及びその描画位置、 ポリゴン を構成する素材の種類、 色調、 質感等の指定) をその内容とするディス プレイリストを生成する。 GPU 1 4は、 描画コンテクスト (ポリゴンの素材を含む描画用のデ 一夕) を保持しており、 メイン C P U 1 0から通知されるディスプレイ リストに従って必要な描画コンテクストを読み出してレンダリング処理 (描画処理) を行い、 フレームメモリ 1 5にポリゴンを描画する機能を 有する半導体デバイスである。 フレームメモリ 1 5は、 これをテクスチ ヤメモリとしても使用できる。 そのため、 フレームメモリ 1 5上のピク セルイメージをテクスチャとして描画するポリゴンに貼り付けることが できる。
メイン DMAC 1 2は、 メインパス B 1に接続されている各回路を対 象として DM A転送制御を行うとともに、 バスインタフェース I NTの 状態に応じて、 サブバス B 2に接続されている各回路を対象として DM A転送制御を行う半導体デバイスであり、 MD E C 1 3は、 メイン C P U l 0と並列に動作し、 MP E G (Moving Picture Experts Group) 方 式あるいは J P E G (Joint Photographic Experts Group) 方式等で圧縮 されたデ一夕を伸張する機能を有する半導体デバイスである。
サブバス B 2には、 マイクロプロセッサなどで構成されるサブ C P U 2 0、 RAMで構成されるサブメモリ 2 1、 サブ DMAC 2 2、 ォペレ —ティ ングシステムなどの制御プログラムが記憶されている R O M 2 3、 サウンドメモリ 2 5に蓄積された音デ一夕を読み出してオーディォ 出力として出力する音声処理用半導体デバイス ( S P U ( sound processing unit) ) 24、 図示しないネットワークを介して外部装置と 情報の送受信を行う通信制御部 (ATM) 2 6、 CD— ROMや DVD ― R〇Mなどのメディア 2 8を装着するためのメディアドライブ 2 7及 び入力部 3 1が接続されている。
サブ C PU 2 0は、 ROM 2 3に記憶されている制御プログラムに従 つて各種動作を行う。 サブ DMAC 2 2は、 バスインタフェース I NT がメインバス B 1 とサブバス B 2を切り離している状態においてのみ、 サブバス B 2に接続されている各回路を対象として DM A転送などの制 御を行う半導体デバイスである。 入力部 3 1は、 操作装置 3 3からの入 力信号が入力される接続端子 3 2を備える。
なお、 本明細書では、 画像についてのみ説明を行い、 便宜上、 音声に ついての説明は省略する。
このように構成されるコンピュータ 1は、 メイン C PU 1 0、 G PU
1 4が、 ROM 2 3及びメディァ 2 8等の記録媒体から本発明のコンピ ユー夕プログラムを読み込むことにより、 画像処理装置 1 0 0として動 作するうえで必要な機能ブロック、 即ち、 第 2図に示すような、 法線べ クトルマッピング部 1 0 1、 法線ベク トル置換部 1 0 2、 輝度値導出部
1 0 3、 C LUT 1 04, 輝度値マツピング部 1 0 5、 描画処理部 1 0
6、 ジオメトリ処理部 1 0 7を形成する。
第 1図に示したハードウェアとの関係では、 GPU 14により、 法線 べク トルマツピング部 1 0 1、 法線べクトル置換部 1 0 2、 輝度値導出 部 1 0 3、 CL UT 1 04、 輝度値マッピング部 1 0 5、 描画処理部 1
0 6が形成される。 メイン C PU 1 0により、 ジオメトリ処理部 1 0 7 が形成される。
画像処理装置 1 0 0は、 法線べク トルに基づいて輝度値を求める処理 の処理量を減らして、 高速にバンプマツビングを実現できるように構成 されている。 具体的には、 バンプマッピングが行われる面を分割した分 割面毎の法線ベクトル (個別法線ベク トル) を、 分割面の数よりも少な い所定数の基準法線べクトルのうち最も特徴が似ている基準法線べクト ルに置き換える。 そして、 基準法線ベク トルの各々について輝度値を求 める。 そして、 これらの輝度値に基づいて各分割面の陰影付けを行う。 これにより、 その面についての凹凸が表現される。 次に、画像処理装置 1 0 0が有する各機能ブロックについて説明する。 ジオメ トリ処理部 1 0 7は、 操作装置 3 3等からの入力に応じてジォ メトリ処理を行い、 そのジオメトリ処理の結果として、 ディスプレイリ ストを生成する。 生成されるディスプレイリストにおいて ·、 バンプマツ ビングが行われるポリゴンについては、 例えばバンプマツビングの対象 となる旨を表す情報が付加されており、 バンプマツビングの対象となる ポリゴンがわかるようになっている。バンプマツビングを行うか否かは、 例えば、 モデリング時に開発者によって決められている。
法線べク トルマツピング部 1 0 1は、 ジオメ トリ処理部 1 0 7により 生成されたディスプレイリストに基づいて、 バンプマツビングを行うポ リゴンを特定し、 特定したポリゴンの面を分割して、 各分割面に個別法 線べクトルをマッピングする。 各個別法線べクトルは他の個別法線べク トルとは独立に方向が定められている。 つまり、 ポリゴンの面を分割し た複数の分割面の各々に、 他の分割面とは独立に方向が決められた個別 法線ベクトルをマッピングする。
個別法線ベク トルは、 例えば、 ポリゴンの面の垂直方向を指向する法 線べクトルに揺らぎを与え、 この揺らぎにより方向をランダムに変化さ せて決めるようにするとよい。 また、 分割面毎の個別法線ベクトルが、 ディスプレイリストに、 ポリゴンを表現する情報の一部として含まれる ようにしてもよい。
法線べク トル置換部 1 0 2は、 ポリゴンの各分割面にマツビングされ た個別法線べク トルを、 各々異なる識別情報によって識別される複数の 基準法線べク トルの中で、 特徴が最も近似する基準法線べクトルに置き 換え、 置き換えた基準法線べクトルの識別情報を当該分割面にマツピン グする。
特徴の最も近似する基準法線ベク トルとは、 例えば、 ベクトルの方向 が近似する基準法線べク トルである。
基準法線ベク トルには、 例えば、 個別法線ベクトルをベクトル量子化 して、 すべての個別法線ベク トルを方向別にグループ分けし、 各ダル一 プにおける個別法線べク トルの平均のべクトルを用いることができる。 また、 基準法線ベク トルは、 モデリングの際に予め用意するようにし てもよい。
基準法線べク トルの数は、 個別法線べクトルの数よりも少なくする。 輝度値導出部 1 0 3は、 各基準法線べクトルに基づいて輝度値を導出 する。
例えば、 基準法線べク トルに基づいてシェーディング処理を行うこと により、 輝度値を導出する。輝度値導出部 1 0 3は、 導出した輝度値を、 該当する基準法線べク トルの識別情報とともに C L U T 1 0 4に書き込 む。
C L U T 1 0 4は、 輝度値導出部 1 0 3により導出された輝度値が、 該当する基準法線べク トルの識別情報とともに書き込まれるテーブルで ある。
第 5図は、 C L U T 1 0 4の例示図である。 ここでは、 ポリゴン 1と いう名前のポリゴンの、 基準法線べク トルを識別するための識別情報 「 1 」 〜 「 8」 と、 各識別情報に対応する輝度値 「 α 1 」 〜 「ひ 8」 と が対応付けられて記録されている。
輝度値マッピング部 1 0 5は、 識別情報がマッピングされたポリゴン の各分割面に、 C L U T 1 0 4を参照して、 該当する識別情報に対応す る輝度値をマツピングする。
描画処理部 1 0 6は、 ディスプレイリストに応じた画像をフレームメ モリ 1 5に描画する。 特に、 輝度値マツピング部 1 0 5で輝度値がマツ ピングされたポリゴンには、 ディスプレイリストにより当該ポリゴンに マツピングするように指示されたテクスチャに輝度値を反映させて描画 する。
以上のような画像処理装置 1 0 0により、 次に示すような手順でバン プマッピングを行うことができる。
第 3図は本発明の画像処理装置 1 0 0によるバンプマツビングの処理 手順を示すフローチヤ一トである。
ジオメトリ処理部 1 0 7により生成されたディスプレイリストは、 法 線ベク トルマッピング部 1 0 1に送られる。 法線べク トルマツピング部 1 0 1は、 ジオメトリ処理部 1 0 7から送られたディスプレイリストを 取得する (ステップ S 1 0 1 )。
次いで、 法線ベクトルマッピング部 1 0 1は、 ディスプレイリストに よりバンプマッピングの対象となるポリゴンを特定する (ステップ S 1 0 2 )。 バンプマッピングの対象となるポリゴンが複数ある場合には、 そのすベてを特定する。
バンプマツビングの対象となるポリゴンを特定すると、 法線べク トル マツビング部 1 0 1は、特定したポリゴンの面を複数の分割面に分割し、 各分割面に個別法線べク トルをマッピングする (ステップ S 1 0 3 )。 この実施形態では、 ディスプレイに表示した際に、 分割面が 1 ピクセル の大きさとなるようにポリゴンの面を分割する。 つまり、 個別法線べク トルを、 ポリゴンを構成する全ピクセルに対してマッピングする。 これ により、 凹凸の精細な表現が可能となる。
第 4図 ( a ) は、 ピクセル単位で個別法線ベクトルがマッピングされ たポリゴンを例示した図である。 一つのピクセルを一つの四角形で表し ており、 2 0ピクセルで一つの四角形のポリゴンをなしている。 各ピク セルには、 矢印で表される個別法線べクトルがマツビングされている。 各個別法線ベク トルは、 他の分割面の個別法線ベク トルとは独立に、 そ の方向が定められている。
法線べクトル置換部 1 0 2では、 ポリゴンの各ピクセルにマツピング された個別法線べクトルを、 複数の基準法線べク トルの中で特徴が最も 近似する基準法線ベク トルに置き換える (ステップ S 1 0 4 )。 この実 施形態では、 ピクセル毎にマッピングされた個別法線ベク トルを、 8個 の基準法線べク トルの中で特徴が最も近似するものに置き換える。 そし て、 置き換えた基準法線ベク トルを識別する識別情報を、 各分割面上に マツピングする (ステップ S 1 0 5 )。
窠 4図 (b ) は、 以上のようにして、 識別情報を各ピクセルにマツピ ングしたときのポリゴンを例示した図である。
輝度値導出部 1 0 3は、 基準法線べクトルのそれぞれに基づいてシェ 一ディング処理を行い、 シエーディング処理の結果として得られる輝度 値を C L U T 1 0 4に書き込む (ステップ S 1 0 6 )。 つまり、 8個の 基準法線べクトルの各々に基づいてシェ一ディング処理を行い、 それぞ れの輝度値を導出する。 基準法線べク トルの識別情報と導出した輝度値 とを対応付けして C L U T 1 0 4に書き込み、 第 5図に示すようなテ一 ブルを作成する。
バンプマツビングの対象となるポリゴンが複数の場合は、 それぞれの ポリゴンについて同様のテーブルを作成する。 つまり、 ポリゴン 2、 ポ リゴン 3、 ···、 というように同様のテーブルを増やしていく。
基準法線べク トルの数だけしかシエーディング処理を行う必要がない ために、 マッピングされるすべての個別法線べク トルの各々に基づいて シエーディング処理を行う必要のあった従来のバンプマツビングより も、 大幅に輝度値を導出する処理の時間を短縮できる。
例えば、 第 4図 (a ) の場合、 従来は 2 0個の個別法線ベクトルの各 々に基づいてシェ一ディング処理を行って輝度値を求める必要があった が、 本実施形態では、 8個の基準法線ベク トルに基づいてシエーデイン グ処理を行って輝度値を求めれば済むことになる。
基準法線ベク トルの数は、 任意に設定可能であり、 凹凸の面の方向を 微妙に変化させて精細に表現したい場合には、 その数を増やせばよく、 高速に処理を行いたい場合には、 その数を減らせばよい。 基準法線べク トルの個数は、 得られる画像の凹凸面の方向の数と処理速度とに応じて 決めればよい。
次いで、 輝度値マッピング部 1 0 5により、 各分割面に輝度値のマツ ビングを行う (ステップ S 1 0 7 )。 つまり、 輝度値マッピング部 1 0 5が、 ポリゴンの各分割面に、 マッピングされている識別情報に応じた 輝度値を、 C L U T 1 0 4から読み取ってマツビングする。
第 4図 (c ) は、 各ピクセルに輝度値がマッピングされたポリゴンを 例示した図である。
バンプマッピングの対象となるポリゴンが複数ある場合には、 該当す るすべてのポリゴンについて、 ステップ S 1 0 3〜ステップ S 1 0 7の 処理を繰り返し行う (ステップ S 1 0 8 : N)。
バンプマツビングの対象となるすべてのポリゴンについて、 ステツプ S 1 0 3〜ステップ S 1 0 7の処理が終了すると (ステップ S 1 0 8 : Y)、 描画処理部 1 0 6は、 ディスプレイリストに基づいて、 すべての ポリゴン等をフレ一ムメモリ 1 5に描画する。 このとき、 ステップ S 1 0 7で輝度値がマツビングされたポリゴンに貼り付けられるテクスチャ は、 輝度値が反映されたものとなる (ステップ S 1 0 9 )。
このようにしてフレームメモリ 1 5上に描画された画像を、 C R T C 1 6によりビデオ出力に変換して所定のディスプレ装置に表示させるこ とにより、 バンプマッピングが行われて、 陰影により凹凸が表現された ポリゴンを含んだ画像が視認可能になる。 なお、 テクスチャをマッピングしない場合は、 輝度値を R G B値とし て直接フレームメモリ 1 5上に描画するようにしてもよい。
以上のような処理により得られるポリゴンの画像は、 ピクセル毎にマ ッピングされた個別法線べク トルに基づいてバンプマツビングが行われ ているので、 凹凸が精細に表現されたものとなる。 また、 個別法線べク トルよりも少ない基準法線べク トルについてのみ輝度値を導出すればよ いので、 全体として高速なバンプマッピングが実現できる。 つまり、 画 像を十分に精細に表示していても、 そのための処理の負荷は、 基準法線 ベク トルの数によ.り決まるために、 画像の精細さを保ちつつ従来よりも 処理を速く終了させることができる。
以上の説明では、 ポリゴンの面単位によるバンプマッどングを説明し たが、 これに限らず、 オブジェクト単位、 すなわち画像処理の対象物の 表面全体で上記のようなバンプマッピングを行うようにしてもよい。
また、 本実施形態では、 基準法線ベク トルを識別するための識別情報 及び輝度値を、 個別法線ベク トルを基にして生成するようにしたが、 こ れに限らず、 予め基準法線べクトルの識別情報及び輝度値を用意してお くようにしてもよい。 このようにすると、 C L U T 1 0 4を生成する必 要が無く、 個別法線ベク トルを、 近似する基準法線ベク トルに対応する 輝度値に直接置き換えるようにすることもできる。
以上のような本発明により、 画像の精細さにかかわらず、 従来よりも 高速なバンプマツピングを簡易に実現できるようになる。

Claims

請求の範囲
1 . 画像データにおける対象物の表面を複数の領域に分割する処理と、 該複数の領域の各々について、 第 1法線べク トルを生成する処理と、 各々が識別データを有し、 且つ、 前記第 1法線ベク トルの数よりも少 ない数の第 2法線べクトルを決定する処理と、
前記第 1法線べクトルを前記第 2法線べク トルに対して分類する処理 と、
前記第 2法線べクトルの各々を、 これに対応して分類された前記第 1 法線べクトルが生成されている前記領域に割り当てる処理と、
割り当てられた前記第 2法線べクトルの前記識別データに基づいて、 前記複数の領域の各々に対する陰影付けを行う処理とから構成される、 画像処理方法。
2 . 前記識別データが輝度値を含んでいる、 請求項 1記載の画像処理方 法。
3 . 前記対象物の前記表面が、 少なくもと 1つのポリゴンから構成され る、 請求の範囲第 1項又は 2記載の画像処理方法。
4 . 前記複数の領域の各々が、 1つのピクセルから構成される、 請求の 範囲第 1項乃至 3の何れかに記載の画像処理方法。
5 . 前記第 1法線ベク トルが、 該第 1法線ベク トルの方向に基づいて、 前記第 2法線べクトルに対して分類される、 請求の範囲第 1項乃至 4の 何れかに記載の画像処理方法。
6 . 前記第 2法線ベク トルが、 前記第 1法線ベク トルに基づいて生成さ れる、 請求の範囲第 1項乃至 5の何れかに記載の画像処理方法。
7 . 前記第 2法線ベクトルを決定する処理が、
前記第 1法線べクトルの方向に基づいて、 前記第 1法線べク トルを、 前記第 2法線べクトルと同数の複数のグループに分類する処理と、 各グループ内において、 前記分類された第 1法線べクトルを平均化す る処理と、
前記平均化された第 1法線べクトルに対応して前記第 2法線べク トル を生成する処理とを含む、 請求の範囲第 1項乃至 6の何れかに記載の画 像処理方法。
8 . 画像データにおける対象物の表面を複数の領域に分割し、 該複数の 領域の各々について第 1法線べク トルを生成する第 1の手段と、
各々が識別デ一タを有し、 且つ、 前記第 1法線ベク トルの数よりも少 ない数の第 2法線べクトルを決定する第 2の手段と、
前記第 1法線べクトルを前記第 2法線べク トルに対して分類し、 前記 第 2法線べクトルの各々を、 これに対応して分類された前記第 1法線べ クトルが生成されている前記領域に割り当てる第 3の手段と、
割り当てられた前記第 2法線べクトルの前記識別デ一夕に基づいて、 前記複数の領域の各々に対する陰影付けを行う第 4の手段とから構成さ れる、 画像処理装置。
9 . 前記識別デ一夕の各々に輝度値を付加する第 5の手段と、
前記輝度値の各々と、 これに対応する前記識別データとを対応付ける テーブルを生成する第 6の手段とをさらに備える、 請求の範囲第 8項記 載の画像処理装置。
1 0 . 前記識別データが輝度値を含んでいる、 請求の範囲第 8項記載の 画像処理装置。
1 1 . 前記対象物の前記表面が、 少なくもと 1つのポリゴンから構成さ れる、 請求の範囲第 8項乃至 1 0の何れかに記載の画像処理装置。
1 2 . 前記複数の領域の各々が、 1つのピクセルから構成される、 請求 の範囲第 8項乃至 1 1の何れかに記載の画像処理装置。
1 3 . 前記第 1法線べクトルが、該第 1法線べク トルの方向に基づいて、 前記第 2法線べクトルに対して分類される、 請求項 8乃至 1 2の何れか に記載の画像処理装置。
1 4 . 前記第 2法線ベクトルが、 前記第 1法線ベクトルに基づいて生成 される、 請求の範囲第 8項乃至 1 3の何れかに記載の画像処理装置。
1 5 . 前記第 2の手段が、
前記第 1法線べクトルの方向に基づいて、 前記第 1法線べク トルを、 前記第 2法線べクトルと同数の複数のグループに分類する手段と、 各グループ内において、 前記分類された第 1法線べク トルを平均化す る手段と、
前記平均化された第 1法線べクトルに対応して前記第 2法線べク トル を生成する手段とから構成される、 請求の範囲第 8項乃至 1 4の何れか に記載の画像処理装置。
1 6 . 画像データにおける対象物の表面を複数の領域に分割し、 該複数 の領域の各々について第 1法線べクトルを生成する第 1の手段と、 各々が識別データを有し、 且つ、 前記第 1法線ベクトルの数よりも少 ない数の第 2法線べクトルを決定する第 2の手段と、
前記第 1法線べク トルを前記第 2法線べク トルに対して分類し、 前記 第 2法線べク トルの各々を、 これに対応して分類された前記第 1法線べ クトルが生成されている前記領域に割り当てる第 3の手段と、
割り当てられた前記第 2法線べクトルの前記識別データに基づいて、 前記複数の領域の各々に対する陰影付けを行う第 4の手段とから構成さ れる、 半導体デバイス。
1 7 .画像データにおける対象物の表面を複数の領域に分割する処理と、 該複数の領域の各々について、 第 1法線べク トルを生成する処理と、 各々が識別データを有し、 且つ、 前記第 1法線ベクトルの数よりも少 ない数の第 2法線べクトルを決定する処理と、
前記第 1法線べクトルを前記第 2法線べク トルに対して分類する処理 と、
前記第 2法線べク トルの各々を、 これに対応して分類された前記第 1 法線べクトルが生成されている前記領域に割り当てる処理と、
割り当てられた前記第 2法線べク トルの前記識別データに基づいて、 前記複数の領域の各々に対する陰影付けを行う処理と、 をコンピュータ に実行させるためのコンピュータプログラム。
PCT/JP2001/009294 2000-10-24 2001-10-23 Procede de traitement d'image permettant de realiser un mappage de relief rapide, dispositif de traitement d'image, programme informatique et dispositif a semi-conducteur WO2002035475A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AU2001296002A AU2001296002A1 (en) 2000-10-24 2001-10-23 Image processing method for realizing quick bump mapping, image processing device, computer program, and semiconductor device
KR10-2003-7004921A KR20040004393A (ko) 2000-10-24 2001-10-23 고속의 범프 매핑을 실현하기 위한 화상 처리 방법, 화상처리 장치, 컴퓨터 프로그램 및 반도체 디바이스
EP01976820A EP1331606A4 (en) 2000-10-24 2001-10-23 IMAGE PROCESSING METHOD FOR REALIZING RAPID RELIEF MAPPING, IMAGE PROCESSING DEVICE, COMPUTER PROGRAM, AND SEMICONDUCTOR DEVICE

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000-324553 2000-10-24
JP2000324553 2000-10-24
JP2001310309A JP2002203255A (ja) 2000-10-24 2001-10-05 画像処理方法、画像処理装置、コンピュータプログラム、半導体デバイス
JP2001-310309 2001-10-05

Publications (1)

Publication Number Publication Date
WO2002035475A1 true WO2002035475A1 (fr) 2002-05-02

Family

ID=26602684

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/009294 WO2002035475A1 (fr) 2000-10-24 2001-10-23 Procede de traitement d'image permettant de realiser un mappage de relief rapide, dispositif de traitement d'image, programme informatique et dispositif a semi-conducteur

Country Status (7)

Country Link
US (1) US6756979B2 (ja)
EP (1) EP1331606A4 (ja)
JP (1) JP2002203255A (ja)
KR (1) KR20040004393A (ja)
AU (1) AU2001296002A1 (ja)
TW (1) TWI233062B (ja)
WO (1) WO2002035475A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6999074B2 (en) * 2002-11-22 2006-02-14 Intel Corporation Building image-based models by mapping non-linear optimization to streaming architectures
US8775997B2 (en) 2003-09-15 2014-07-08 Nvidia Corporation System and method for testing and configuring semiconductor functional circuits
US8775112B2 (en) * 2003-09-15 2014-07-08 Nvidia Corporation System and method for increasing die yield
US8732644B1 (en) 2003-09-15 2014-05-20 Nvidia Corporation Micro electro mechanical switch system and method for testing and configuring semiconductor functional circuits
US6880940B1 (en) * 2003-11-10 2005-04-19 Honda Motor Co., Ltd. Magnesium mirror base with countermeasures for galvanic corrosion
US8711161B1 (en) 2003-12-18 2014-04-29 Nvidia Corporation Functional component compensation reconfiguration system and method
US8723231B1 (en) 2004-09-15 2014-05-13 Nvidia Corporation Semiconductor die micro electro-mechanical switch management system and method
US8711156B1 (en) 2004-09-30 2014-04-29 Nvidia Corporation Method and system for remapping processing elements in a pipeline of a graphics processing unit
JP4170283B2 (ja) 2004-11-01 2008-10-22 株式会社ソニー・コンピュータエンタテインメント 描画処理装置および描画処理方法
US8021193B1 (en) * 2005-04-25 2011-09-20 Nvidia Corporation Controlled impedance display adapter
US7793029B1 (en) 2005-05-17 2010-09-07 Nvidia Corporation Translation device apparatus for configuring printed circuit board connectors
US7747106B2 (en) * 2005-06-13 2010-06-29 Sarnoff Corporation Method and system for filtering, registering, and matching 2.5D normal maps
US9092170B1 (en) 2005-10-18 2015-07-28 Nvidia Corporation Method and system for implementing fragment operation processing across a graphics bus interconnect
US8417838B2 (en) * 2005-12-12 2013-04-09 Nvidia Corporation System and method for configurable digital communication
US8412872B1 (en) 2005-12-12 2013-04-02 Nvidia Corporation Configurable GPU and method for graphics processing using a configurable GPU
US8724483B2 (en) 2007-10-22 2014-05-13 Nvidia Corporation Loopback configuration for bi-directional interfaces
US8453019B2 (en) * 2007-11-06 2013-05-28 Nvidia Corporation Method and system for a free running strobe tolerant interface
US8072841B2 (en) * 2008-12-10 2011-12-06 Westerngeco L.L.C. Adaptive wavefront reconstruction
US9331869B2 (en) * 2010-03-04 2016-05-03 Nvidia Corporation Input/output request packet handling techniques by a device specific kernel mode driver

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0753184B1 (en) * 1994-03-31 1998-12-09 Argonaut Technologies Limited Bump mapping in 3-d computer graphics
JPH11353498A (ja) * 1998-06-09 1999-12-24 Nec Software Shikoku Ltd 三次元画像処理方法および装置
JP2001148030A (ja) * 1999-09-10 2001-05-29 Sony Computer Entertainment Inc 画像処理装置、記録媒体およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0814854B2 (ja) * 1985-10-11 1996-02-14 株式会社日立製作所 三次元図形表示装置
US5900881A (en) * 1995-03-22 1999-05-04 Ikedo; Tsuneo Computer graphics circuit
US5880736A (en) * 1997-02-28 1999-03-09 Silicon Graphics, Inc. Method system and computer program product for shading
US6552726B2 (en) * 1998-07-17 2003-04-22 Intel Corporation System and method for fast phong shading

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0753184B1 (en) * 1994-03-31 1998-12-09 Argonaut Technologies Limited Bump mapping in 3-d computer graphics
JPH11353498A (ja) * 1998-06-09 1999-12-24 Nec Software Shikoku Ltd 三次元画像処理方法および装置
JP2001148030A (ja) * 1999-09-10 2001-05-29 Sony Computer Entertainment Inc 画像処理装置、記録媒体およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1331606A4 *

Also Published As

Publication number Publication date
EP1331606A1 (en) 2003-07-30
US6756979B2 (en) 2004-06-29
US20020158869A1 (en) 2002-10-31
KR20040004393A (ko) 2004-01-13
EP1331606A4 (en) 2008-12-17
TWI233062B (en) 2005-05-21
AU2001296002A1 (en) 2002-05-06
JP2002203255A (ja) 2002-07-19

Similar Documents

Publication Publication Date Title
WO2002035475A1 (fr) Procede de traitement d'image permettant de realiser un mappage de relief rapide, dispositif de traitement d'image, programme informatique et dispositif a semi-conducteur
US6700586B1 (en) Low cost graphics with stitching processing hardware support for skeletal animation
KR101386180B1 (ko) 그래픽 시스템에서 2차 프로세서를 이용하기 위한 시스템 및 방법
JP3926866B2 (ja) 情報処理装置、情報処理方法、及び描画システム
US5850540A (en) Method and apparatus for time-sharing CPU system bus in image generation system
US8054309B2 (en) Game machine, game machine control method, and information storage medium for shadow rendering
US20080246760A1 (en) Method and apparatus for mapping texture onto 3-dimensional object model
EP1977801B1 (en) Game machine, game machine control method, and information storage medium
JPH07281652A (ja) 画像処理装置
EP2065854B1 (en) posture dependent normal vectors for texture mapping
JP4234089B2 (ja) エンタテインメント装置、オブジェクト表示装置、オブジェクト表示方法、プログラム、およびキャラクタ表示方法
JP2004005452A (ja) 画像処理装置、画像処理方法、半導体デバイス、コンピュータプログラム、記録媒体
US7212215B2 (en) Apparatus and method for rendering an antialiased image
US6831639B2 (en) Computer readable storage medium storing 3-D game image processing program, 3-D game image processing method, video game machine, and 3-D game image processing program
JP2006277772A (ja) 情報処理装置、情報処理方法、情報処理プログラム、記録媒体、及び情報提供装置
JP3701627B2 (ja) 描画処理プログラム、描画処理プログラムを記録した記録媒体、描画処理装置及び方法
JP3706545B2 (ja) 画像の生成方法及びそれに用いるプログラム
JP4584665B2 (ja) 3次元ゲーム画像処理プログラム、3次元ゲーム画像処理方法及びビデオゲーム装置
JPH08161465A (ja) 画像データファイル作成方法、記録媒体及び画像作成方法
JP2004152047A (ja) 画像分割合成方法およびシステム、そのためのプログラムおよび記録媒体
JP2002140728A (ja) 図形検出方法、図形検出装置、半導体デバイス、コンピュータプログラム、記録媒体
JP2002208026A (ja) グラフィックスシステムにおけるテクスチャタイリングのための方法および装置

Legal Events

Date Code Title Description
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2001976820

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020037004921

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2001976820

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020037004921

Country of ref document: KR