WO2001065485A1 - Filtre numerique - Google Patents

Filtre numerique Download PDF

Info

Publication number
WO2001065485A1
WO2001065485A1 PCT/JP2001/001681 JP0101681W WO0165485A1 WO 2001065485 A1 WO2001065485 A1 WO 2001065485A1 JP 0101681 W JP0101681 W JP 0101681W WO 0165485 A1 WO0165485 A1 WO 0165485A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
coefficient
texture
image data
area
Prior art date
Application number
PCT/JP2001/001681
Other languages
English (en)
French (fr)
Inventor
Yukiyo Aoki
Akio Ohba
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to AU36084/01A priority Critical patent/AU3608401A/en
Priority to MXPA01011128A priority patent/MXPA01011128A/es
Priority to BR0104869-4A priority patent/BR0104869A/pt
Priority to KR1020017013881A priority patent/KR20020021788A/ko
Priority to CA002370723A priority patent/CA2370723A1/en
Priority to NZ515834A priority patent/NZ515834A/xx
Priority to EP01908304A priority patent/EP1217582A4/en
Publication of WO2001065485A1 publication Critical patent/WO2001065485A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H17/00Networks using digital techniques
    • H03H17/02Frequency selective networks
    • H03H17/0219Compensation of undesirable effects, e.g. quantisation noise, overflow

Definitions

  • the present invention relates to a digital filter, and more particularly to a digital filter used for image processing. 2. Description of the Related Art Conventionally, digital filters such as a convolution file have been used for image processing.
  • Fig. 9 is a diagram showing an example of the configuration of a conventional digital filter.
  • the digital filter is composed of delay units 910 and 911 and a coefficient multiplication unit. It comprises 920, 921, 922 and adders 930, 931.
  • this digital filter an input signal and a signal obtained by delaying the input signal are multiplied by a predetermined coefficient, and the result is added to obtain an output signal.
  • An object of the present invention is to provide a digital filer with little digit loss of input data even when an arithmetic unit or the like having a short word length is used ⁇ ).
  • a digital filter includes a filter calculator for calculating a coefficient by performing a sum-of-products operation on an input data, and a coefficient calculated by the filter calculator. And a multiplication unit for multiplying the input data by:
  • a product-sum operation is performed on an input data to calculate a coefficient, the calculated coefficient is multiplied by the input data, and the multiplication result is output data and O
  • a recording medium is a recording medium on which a program for performing a filtering process on image data is recorded.
  • the program includes a step of performing a product-sum operation on the image data to calculate a coefficient, a step of multiplying the calculated coefficient by the image data, and a step of multiplying the calculated image coefficient by the image data. Outputting the multiplication result.
  • the program can be distributed via a portable recording medium such as a CD-ROM, a DVD-ROM, or a memory card, or via a network.
  • a portable recording medium such as a CD-ROM, a DVD-ROM, or a memory card
  • An entertainment apparatus includes a drawing arithmetic unit and a drawing unit. It is an entertainment device with a memory.
  • the drawing memory has a drawing area and a texture area
  • the drawing arithmetic unit includes a texture matching processing unit and a rendering processing unit, and the texture mapping processing.
  • the unit performs a texture mapping process using the image data stored in the texture area as texture data
  • the rendering processing unit stores the data after the texture mapping process and the rendering area.
  • FIG. 2 is a block diagram showing a configuration of an end timing device in which a digital filter according to the present invention is mounted.
  • FIG. 3 is a diagram showing the internal configuration of the graphics processor 110. As shown in FIG. 3
  • FIG. 4 is a diagram showing a configuration of the oral memory 420.
  • Figure 5 shows the storage format of texture pixels ⁇ ) o
  • FIG. 6 is a diagram showing a configuration of an edge enhancement filter according to the present invention.
  • C FIG. 7 is a diagram for explaining an outline of an image filter process using the graphics processor 110. is there.
  • FIG. 8 is a diagram showing a specific example of an instruction issued by the main CPU 100 to the graphics processor 110.
  • FIG. 9 is a diagram showing a configuration example of a conventional digital filter. BEST MODE FOR CARRYING OUT THE INVENTION
  • embodiments of the present invention will be described in detail with reference to the drawings.
  • FIG. 1 is a diagram showing a configuration of a digital filter according to the present invention.
  • digital filter 1 includes delay units 10 and 11, coefficient multiplication units 20, 21, 22, and 23, and addition units 30, 31, and 32. And an offset constant section 40.
  • the digital filter 1 first obtains a coefficient from the input signal, and multiplies the original data by the coefficient in the final stage. As a result, multiplication in the final stage is performed only once for the original data, so that the digit loss of the original data can be reduced. Therefore, when used for image processing, the details of the original signal can be reproduced and the gradation of the image becomes clearer than in the conventional digital filter shown in Fig. 9.
  • a more specific implementation of the digital file according to the present invention will be described. The form will be described. The following describes an edge enhancement file for performing edge enhancement of a playback output during the playback of a DVD video.
  • This edge enhancement file is a file for enhancing the edge of the playback image of the DVD video according to the user's preference. First, an entertainment device on which the edge enhancement file is implemented will be described.
  • FIG. 2 is a block diagram showing a configuration of an entertainment device to which the present invention is applied.
  • the entertainment device can, for example, execute a game supplied by CD / DVD or reproduce a DVD video supplied by DVD.
  • the entertainment device includes a main CPU 100, a graphics processor (GP) 110, an IOP 120, and a CDZD VD reading unit. 130, an SPU 140, an OS ROM 150, a main memory 160, and an IOP memory 170.
  • GP graphics processor
  • IOP 120 IOP 120
  • CDZD VD reading unit 130 an SPU 140
  • OS ROM 150 OS ROM 150
  • main memory 160 main memory 160
  • IOP memory 170 IOP memory 170.
  • the main CPU 100 and the graphics processor 110 are connected by a dedicated bus 101. Further, the main CPU 100 and the IO 120 are connected by a node 102.
  • the IOP 120, the CD / D VD readout unit 130, the SPU 140, and the OS ROM 150 are connected to the node 103.
  • a main memory 160 is connected to the main CPU 100, and an IOP memory 170 is connected to the IOP 120. Further, a controller (PAD) 180 is connected to the IOP 120.
  • the main CPU 100 stores programs stored in the OS ROM 150 and programs loaded into the main memory 160 from a CD or DVD (or a memory card (not shown)). By performing the above, predetermined processing is performed.
  • the graphics processor 110 is a drawing processor having a rendering function of the entertainment apparatus, and performs a drawing process according to an instruction from the main CPU 100.
  • IOP 120 is used for I / O to control the data transfer between the main CPU 100 and peripheral devices (CD / D VD readout unit 130, SPU 140, etc.) It is a sub processor.
  • the CD / D VD readout unit 130 reads out data from the CD or DVD and transfers the data to the main memory 160.
  • the SPU 140 is a sound reproduction processing processor that converts the compressed waveform data stored in a sound buffer (not shown) based on a sounding instruction from the main CPU 100 or the like. To play at the specified sampling frequency.
  • OS ROM 150 is a ROM in which a program executed by main CPU 100 or 100 P 120 at startup or the like is stored.
  • the main memory 160 is the main memory of the main CPU 100, and stores instructions executed by the main CPU 100, data used by the main CPU 100, and the like. Is done.
  • the I / O memory 170 is a main memory of the I / O 120, and stores instructions executed by the I / O 120 and data used by the I / O 120.
  • a controller (PAD) 180 is an interface that communicates the player's intention to an application or the like during the execution of a game or the like. Is.
  • the edge emphasis function that performs the edge emphasis on the DVD video output using the drawing function of the graphics processor 110 is used.
  • Implement filters are used.
  • the following describes the edge emphasis file processing performed using the graphic processor 110 when playing back a DVD video.
  • the internal configuration of the graphics processor 110 used to implement the edge emphasis filter according to the present invention will be described.
  • FIG. 3 is a diagram showing the internal configuration of the graphics processor 110. As shown in the figure, the graphics processor 110 is composed of a host interface section 400, a drawing function block 410, a local memory section 420, and a CRTC section. 4 3 0.
  • the host interface section 400 is an interface section for exchanging data overnight with the main CPU 100.
  • the drawing function block 410 is a logic circuit unit that performs a rendering process based on an instruction from the main CPU 100.
  • the drawing function block 410 is equipped with a digital differential (DDA), 16 pixels, and 16 engines each, and has 64 bits (32 bits of color information, 32 bits of color information). A maximum of 16 pieces of pixel data (value 32 bits) are processed in parallel.
  • DDA calculates RGB values, Z values, texture values, and the like. Based on these data, the Pixel Engine generates the final pixel data.
  • the local memory 420 is set by the drawing function block 410. Stores the generated pixel data and texture data transferred from the main CPU 100, and so on.
  • the CRTC section 430 uses the contents of the frame buffer area of the oral memory 420 as a video signal in accordance with the specified output format (NTSC, PAL, VESA format, etc.). Output.
  • FIG. 4 is a diagram showing a configuration of the oral memory 420.
  • the local memory 420 has a frame buffer area 450, a Z buffer area 450, a texture buffer area 470, and a texture buffer area 450.
  • CLUT area 480 is a diagram showing a configuration of the oral memory 420.
  • the frame buffer area 450 and the Z buffer area 450 are drawing target areas, and the frame buffer area 450 stores pixels of a drawing result, and the Z buffer area 46 0 stores the Z value of the drawing result.
  • Texture Bruno Tsu off ⁇ region 4 7 0 stores Lee Mejide Isseki texture, texture (11 1 1 area 4 8 0, texture Guy emissions index used when the Color Le brute up Te one table ( CLUT) is stored.
  • the areas 450 to 480 can be freely arranged in any address on the local memory 420 in any order by setting an appropriate value in the predetermined control register. can do.
  • This DVD video playback processing is performed, for example, by executing the DVD playback software loaded from a memory card or the like into the main memory 160 by the main CPU 100.
  • the CD / D VD readout unit 130 reads out the video data stored in the DVD, and reads the read video data via the IOP 120. And transfer it to main memory 160.
  • the main CPU 100 performs MPEG2 decoding on the video data (MPEG2 bitstream) stored in the main memory 160, and first performs YC b Generates image data in the Cr format (YCbCr pixel data), and then performs color space conversion to generate the image data in the RGB format (RGBA pixel data).
  • the RGB format image data generated in this way is transferred to the graphics processor 110 for display on a display device.
  • the Y (luminance) data is sent to the graphics processor 110 together with the RGB data. That is, for each pixel, the RGBY data is 8 bits each, for a total of 32 bits of data. Transferred to Idx processor 110.
  • the RGB data and Y data sent to the graphics processor 110 are stored in the graphics processor 110. Stored in area 470 as texture overnight.
  • FIG. 5 (a) is a diagram showing the storage format of RGBY data in the texture buffer area 470. As shown in the figure, bits [7: 0] store R data, bits [15: 8] store G data, and bits [23: In [16], the B data is stored, and in bits [31:24], the Y data is stored. Normally, bits [31:24] include File data is stored.
  • the graphics processor 110 supports a storage format of a plurality of texture pixels in addition to the format shown in FIG. 5 (a). These multiple formats can be switched by changing the settings of a particular control register.
  • FIG. 1B is a diagram showing another storage format of texture pixels in the graphic processor 110. As shown in the figure, in this format, the upper 8 bits are an index to the color look-up table stored in the texture CLUT area 480. In this case, the color look-up table has 256 entries. Each entry in the color lookup table stores the color value corresponding to the index value. The case of using this format will be described later. In the present embodiment, edge enhancement processing is performed on the image data (RGBY data) transferred to the texture buffer area 470.
  • FIG. 6 is a diagram showing an equivalent flow of the edge enhancement file according to the present embodiment.
  • the edge enhancement filter is a convolution filter only in the horizontal (horizontal) direction, and the filter processing coefficient is calculated using the brightness data of the pixels on both the left and right sides.
  • the edge emphasis finisher is composed of a delay section 610, 611, 612, a coefficient multiplication section 620, 621, 622, 623, It has adders 6330, 631, 632, and an offset constant section 640.
  • the final RGB value is obtained by multiplying each of the RGB values by the same coefficient calculated from the Y value.
  • the R GBs see Figure 1. It is also possible to provide a digital filter and calculate different coefficients for each of RGB. In this case, for example, in the edge enhancement filter for R, the final R value is obtained by multiplying the input signal R by a coefficient calculated from R.
  • RGBY has 8 bits each, and the coefficient multiplication in the coefficient multipliers 62 to 63 is performed by an 8-bit x 8-bit multiplier. Done. The addition in the adders 630 to 632 is performed by an 8-bit adder.
  • the multiplier for each of RGB is 1.0.
  • F is a value that controls the strength of edge enhancement, and takes a value from 0 to 64. In, for example, the user sets a value according to the strength of preference.
  • FIG. 7 is a diagram for explaining an outline of the image file processing using the graphics processor 110.
  • the drawing function block 410 of the graphics processor 110 includes a texture mapping processing section 4111 and a rendering processing section 4122.
  • This filtering process is performed by using the texture mapping function of the graphics processor 110 and the rendering function. That is, the image data (source data) of the MPEG2 decoded RGBY format is transferred to the texture buffer area 470, and the texture mapping process is ON and the rendering process is ON. Perform drawing processing.
  • the texture mapping processing section 4111 multiplies the source data by a predetermined coefficient.
  • the blending processing section 412 mixes the source data multiplied by a predetermined coefficient with the data in the frame buffer area 450 (destination data) in a mixed operation (addition / subtraction operation). I do.
  • the rendering processing unit 412 writes the result to the frame note area 450.
  • the texture mapping processing section 411 and the rendering processing section 412 repeat the above processing.
  • the blending (mixing processing) function of the graphic processor 110 will be described.
  • the graphic processor 110 by enabling the rendering function, the output color (source color) Cs after texture mapping processing, the frame color, and the Plending calculation can be performed with the pixel color (destination color) C d of this color.
  • C v output color single value
  • A, B D two-input color single value
  • C input high value
  • A, B, C, and D can be changed as follows.
  • any of the source RGB value Cs, the RGB value Cd in the frame buffer area, and 0 can be selected.
  • the input threshold value C includes the source alpha value, the alpha value in the frame buffer area, and the fixed alpha value set in the register for controlling the blending process. You can choose either one.
  • the main CPU 100 sets the control register of the graphic processor 110 as appropriate, and performs the necessary pre-reading processing to perform the filter operation (the product-sum operation). Operation). Next, a specific command for instructing the graphics processor 110 when performing the image fining process will be described.
  • FIG. 8 is a diagram showing an example of a command group instructed by the main CPU 100 to the graphic processor 110 when performing the image file processing. Note that, in the commands shown in the figure, d * (dRGB, etc.) represents the destination plane, and s * (sY, etc.) represents the source plane.
  • an edge enhancement coefficient f is set (S1). For example, set a value specified by the user according to his / her preference.
  • (2) is set (S2), where processing instructions are given to the graphics processor 110 on a plane-by-plane basis, in which case the graphics processor 1 10 performs processing on all pixels in a predetermined plane (rectangular area), whereby each image in the destination area is processed.
  • the texture pixels stored in the texture buffer area 470 are treated as having the format shown in FIG. 5 (b). That is, the Y value is treated as the index value of the CLUT stored in the texture CLUT area 480, and the color value stored in each CLUT entry is used for actual processing. With this treatment, the RGB values of each entry (0 to 255) of the CLUT must have the same value as the index beforehand.
  • the RGB of entry 1 stores “1” “1” “1”
  • the RGB of entry 2 55 5 stores “2 5 5” “2 5 5” “2 5 5” Is stored.
  • the offset value OFFFX is returned to 0, and an operation using the own luminance information is performed for each pixel (S4). That is, the luminance information of the pixel to be processed is multiplied by the coefficient: f, and the result is added to the RGB value of the pixel to be processed.
  • This process is also performed on a plane basis.
  • the range that f takes is:? With the setting of 0 to 128, in order to guarantee the dynamic range of f, the operation of multiplying by 2 f and adding is divided into two operations of multiplying by f and adding. This addition is the first addition.
  • the offset value OFFFX is returned to 0, and a calculation is performed for each pixel using its own luminance information (S6). That is, the luminance information of the pixel to be processed is multiplied by the coefficient f, and the result is added to the RGB value of the pixel to be processed.
  • This addition is the second one in which the operation of multiplying by 2 f and adding is divided into two.
  • the coefficients to be multiplied by the original data are stored in each of the RGB values in the destination area. Then, in order to take the product of this coefficient and each of the RGB values in the source area, this coefficient is first copied from the RGB plane in the destination area to the plane (upper 8 bits) ( S 7). Since the same value is stored in each of the RGB planes, here the data of the G plane is copied to the plane. Finally, the product of each RGB value in the source area and the coefficient stored in the area in the destination area is calculated, and the result is stored in the RGB area in the destination area. Yes (S8).
  • the RGB values of the image data stored in the source area subjected to the edge emphasis filter processing are stored in the RGB area of the destination area.
  • the edge enhancement filter is realized by using the graphics processor 110.
  • the edge enhancement filter may be implemented by using a general-purpose DSP or dedicated hardware. Good.
  • the coefficients are calculated, and finally, the product of the calculated coefficients and the original data is calculated. It will be less, and the gradation of the image will be clearer.
  • INDUSTRIAL APPLICABILITY As described above in detail, according to the present invention, even when a short-word-length calculator or the like is used, the digital data with little digit loss in the input data is small. A filter can be realized.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
  • Picture Signal Circuits (AREA)
  • Complex Calculations (AREA)

Description

明細書 ディ ジ夕ルフ ィ ル夕 技術分野 本発明は、 デジタルフ ィ ル夕に関し、 特に、 画像処理に使わ れるディ ジ夕ルフ ィ ノレ夕に関する。 背景技術 従来から、 画像処理に、 コンボルーシヨ ン (たたみ込み処 理) フ ィ ル夕等のディ ジタルフ ィ ル夕が使われている。
図 9は、 従来のディ ジ夕ルフ ィ ル夕の構成例を示す図である 同図に示すように、 本ディ ジタルフ ィ ル夕は、 遅延部 9 1 0, 9 1 1 と、 係数乗算部 9 2 0, 9 2 1 , 9 2 2 と、 加算部 9 3 0, 9 3 1 とを備える。 本ディ ジタルフ ィ ル夕は、 入力信号及 びそれを遅延させた信号に対して、 所定の係数を乗算し、 その 結果を加算したものを、 出力信号とするものである。
このようなディ ジタルフ ィル夕では、 計算過程で積和演算を 繰り返す。 そのため、 充分な計算精度 (計算語長) で計算しな いと桁落ちが生じる場合がある。 例えば、 図 9において、 演算 部 9 2 0, 9 2 1 , 9 2 2 , 9 3 0 , 9 3 1 や、 計算途中の中 間データ 9 5 0、 9 5 1 を保持する領域が充分な語長を有して いないと、 桁落ちが生じることになる。 その結果、 このよう な ディ ジ夕ルフ ィ ル夕を画像処理に使う と、 元の画像のディ テー ルが再現できず、 画像のグラデーショ ンがきれいに出な く なる という問題があった。 発明の開示 本発明の目的は、 短語長の演算器等を用いた場合であっても 入力データの桁落ちの少ないディ ジタルフ ィ ル夕を提供するこ と め ^)。
本発明に係るディ ジタルフ ィ ル夕は、 入力デ一夕に対して積 和演算を行い係数を算出するフ ィ ル夕演算部と、 当該フ ィル夕 演算部によ り算出された係数と入力データ とを乗算する乗算部 とを備えたこ とを特徴とする。
本発明に係るフ ィ ル夕処理の方法は、 入力デ一夕に対して積 和演算を行い係数を算出し、 当該算出された係数と入力データ とを乗算し、 当該乗算結果を出力データ とするこ とを特徴とす o
本発明に係る記録媒体は、 画像データに対してフ ィ ル夕処理 を行う プロ グラムを記録した記録媒体である。 そ して、 前記プ ログラムは、 前記画像データに対して積和演算を行い係数を算 出するステ ッ プと、 当該算出された係数と前記画像デ一夕 とを 乗算するステッ プと、 当該乗算結果を出力するステップとを有 することを特徴とする。
なお、 前記プログラムは、 C D— R O M、 D V D— R O M、 メモ リ カー ド等の可搬記録媒体や、 ネ ッ ト ワークを介して、 頒 布するこ とができる。
本発明に係るエンタテイ ンメ ン ト装置は、 描画演算器と描画 メモ リ とを備えたエンタテイ ンメ ン ト装置である。 そ して、 前 記描画メモ リは、 描画領域と、 テクスチャ領域とを有し、 前記 描画演算器は、 テクスチャマツ ビング処理部と、 プレ ンディ ン グ処理部とを備え、 前記テクスチャマッ ピング処理部は、 前記 テクスチャ領域に格納された画像デ一夕をテクスチャデータ と して使ったテクスチャマッ ピング処理を行い、 前記プレンディ ング処理部は、 テクスチャマッ ピング処理後のデータ と、 前記 描画領域に格納されているデータ との間で混合演算を行い、 そ の結果を、 前記描画領域に格納するこ とで、 画像フ ィ ル夕処理 に使う係数を算出し、 当該算出された係数と、 前記画像データ との積を求めることを特徴とする。 図面の簡単な説明 図 1 は、 本発明によるディ ジタルフ ィ ル夕の構成を示す図で め る。
図 2は、 本発明によるディ ジ夕ルフ ィ ル夕が実装されるェン 夕ティ ンメ ン ト装置の構成を示すブロ ッ ク図である。
図 3は、 グラ フ ィ ッ クスプロセ ッサ 1 1 0の内部構成を示す 図である。
図 4は、 口一カルメモリ 4 2 0の構成を示す図である。
図 5は、 テクスチャ ピクセルの格納フォーマツ トを示す図で め ^ ) o
図 6本発明によるエッジ強調フ ィ ル夕の構成を示す図である c 図 7は、 グラ フィ ヅ クスプロセ ッサ 1 1 0 を使った画像フ ィ ル夕処理の概要を説明するための図である。 図 8は、 メイ ン C P U 1 0 0がグラ フ ィ ッ クプロセ ッサ 1 1 0に対して行う指示の具体例を示す図である。
図 9は、 従来のディ ジタルフ ィ ル夕の構成例を示す図である 発明を実施するための最良の形態 以下、 本発明の実施の形態について、 図面を参照しつつ、 詳 細に説明する。
図 1は、 本発明によるディ ジ夕ルフ ィ ル夕の構成を示す図で ある。 同図に示すよう に、 ディ ジタルフ ィ ル夕 1は、 遅延部 1 0 , 1 1 と、 係数乗算部 2 0 , 2 1 , 2 2 , 2 3 と、 加算部 3 0, 3 1 , 3 2 と、 オフセ ッ ト定数部 4 0 とを備える。
ディ ジタルフ ィ ル夕 1では、 まず、 遅延部 1 0, 1 1、 係数 乗算部 2 0 , 2 1, 2 2、 加算部 3 0, 3 1 , 3 2及びオフセ ッ ト定数部 4 0が、 入力信号に対してフ ィ ル夕演算 (積和演 算) を行い、 係数を求める。 そ して、 求めた係数と元デ一夕 と を、 係数乗算部 2 3によ り乗算するこ とによって、 出力信号を 得る。
このよう に、 ディ ジタルフ ィ ル夕 1は、 まず、 入力信号から 係数を求め、 最終段で、 元データ と係数とを乗算する。 これに よって、 元データに対しては、 最終段での乗算が一回されるだ けになるので、 元データの桁落ちを少な く するこ とができる。 したがって、 画像処理に使った場合、 図 9に示した従来のディ ジタルフ ィ ル夕に比べて、 元信号のディ テールが再現できるよ うにな り、 画像のグラデーショ ンがきれいに出るようになる。 次に、 本発明によるディ ジタルフ ィル夕のよ り具体的な実施 形態について説明する。 以下では、 D VDビデオ再生時に、 再 生出力のエッジ強調を行うためのエッジ強調フ ィ ル夕について 説明する。
本エッジ強調フ ィ ル夕は、 ユーザの好みにあわせて、 D VD ビデオの再生画像のエッジを強調するためのフ ィ ル夕である。 まず、 本エッ ジ強調フ ィ ル夕が実装されるェンタティ ンメ ン ト装置について説明する。
図 2は、 本発明が適用されるエンタテイ ンメ ン ト装置の構成 を示すブロ ック図である。 本エンタテイ ンメ ン ト装置は、 例え ば、 C D /D V Dで供給されるゲームを実行した り、 D VDで 供給される D VDビデオを再生した り するこ とができる。
同図に示すよう に、 本エンタテイ ンメ ン ト装置は、 メ イ ン C P U 1 0 0 と、 グラ フ ィ ッ クスプロセ ッサ ( G P ) 1 1 0と、 I O P 1 2 0と、 C DZD VD読み出し部 1 3 0 と、 S P U 1 4 0 と、 O S R OM 1 5 0 と、 メイ ンメモ リ 1 6 0と、 I O P メモ リ 1 7 0とを備え る。
そ して、 メイ ン C P U 1 0 0とグラフ ィ ッ クスプロセ ッサ 1 1 0とは、 専用バス 1 0 1によって接続されている。 また、 メ イ ン C P U 1 0 0 と I O P 1 2 0とは、 ノ^:ス 1 0 2によって接 続されている。 また、 I O P 1 2 0、 C D/D VD読み出し部 1 3 0、 S P U 1 4 0及び O S R OM 1 5 0は、 ノ ス 1 0 3に 接続されている。
また、 メ イ ン C P U 1 0 0には、 メイ ンメモ リ 1 6 0が接続 され、 I O P 1 2 0には、 I O Pメモ リ 1 7 0が接続されてい る。 更に、 I O P 1 2 0には、 コ ン ト ローラ ( P AD ) 1 8 0 が接続される。 メイ ン C P U 1 0 0は、 O S R OM 1 5 0に格納されたプロ グラムや、 C Dや D VD (または、 不図示のメモ リ カー ド) か らメイ ンメモ リ 1 6 0にロー ドされたプログラムを実行するこ とによって、 所定の処理を行う。
グラフ ィ ックスプロセ ッサ 1 1 0は、 本エンタテイ ンメ ン ト 装置のレンダリ ングの機能を受け持つ描画プロセ ッサであ り、 メ イ ン C P U 1 0 0からの指示に従って、 描画処理を行う。
I O P 1 2 0は、 メ イ ン C P U 1 0 0と周辺装置 ( C D/D VD読み出し部 1 3 0や S P U 1 4 0等) との間のデ一夕のや り取り を制御する入出力用サブ · プロセ ッサである。
C D/D VD読み出し部 1 3 0は、 C Dや D VDからデ一夕 を読み出し、 メイ ンメモ リ 1 6 0への転送を行う。
S P U 1 4 0は、 サウン ド再生処理プロセ ッサであ り、 サゥ ン ドバッフ ァ (不図示) に格納された圧縮波形デ一夕を、 メ イ ン C P U 1 0 0等からの発音命令に基づいて、 所定のサンプリ ング周波数で再生する。
O S R OM 1 5 0は、 起動時等にメ イ ン C P U 1 0 0や 1 0 P 1 2 0が実行するプログラムが格納されている R OMである。 メ イ ンメモ リ 1 6 0は、 メ イ ン C P U 1 0 0の主記憶であ り、 メイ ン C P U 1 0 0が実行する命令やメイ ン C P U 1 0 0が利 用するデ一夕等が格納される。
I O Pメモ リ 1 7 0は、 I O P 1 2 0の主記憶であ り、 1 0 P 1 2 0が実行する命令や I O P 1 2 0が利用するデ一夕等が 格納される。
コ ン ト ローラ ( P AD ) 1 8 0は、 ゲーム等の実行中に、 プ レイヤーの意図をアプリ ケーショ ン等に伝達するイ ンタ フ エ一 スである。
ここでは、 以上のような構成を有するエンタテイ ンメ ン ト装 置において、 グラフ ィ ッ クスプロセ ッサ 1 1 0の描画機能を利 用 して、 D V Dビデオ出力に対してエッジ強調を行うエッジ強 調フ ィルタを実装する。
以下、 D V Dビデオ再生時に、 グラ フィ ックプロセ ッサ 1 1 0を利用 して行うエッジ強調フ ィ ル夕処理について説明する。 まず、 本発明によるエッ ジ強調フ ィ ルタ を実装するために使 われるグラ フ ィ ックスプロセ ッサ 1 1 0の内部構成について説 明する。
図 3は、 グラフ ィ ッ クスプロセ ッサ 1 1 0の内部構成を示す 図である。 同図に示すよう に、 グラフ ィ ッ クスプロセ ッサ 1 1 0は、 ホス トイ ン夕 フ ェース部 4 0 0 と、 描画機能ブロ ック 4 1 0 と、 ローカルメモ リ 4 2 0 と、 C R T C部 4 3 0 とを備え る。
ホス トイ ン夕 フ ェース部 4 0 0は、 メイ ン C P U 1 0 0との 間でデ一夕のやり取り を行う ためのイ ン夕 フ ェース部である。 描画機能ブロ ッ ク 4 1 0は、 メイ ン C P U 1 0 0からの指示 に基づいて、 レンダリ ング処理を行う論理回路部である。 描画 機能ブロ ッ ク 4 1 0は、 ディ ジタル · ディ フ ァ レ ンシャル . ァ ナライザ (D D A) とピクセル , エンジンをそれぞれ 1 6個備 え、 6 4ビッ ト (色情報 3 2 ビヅ ト、 Z値 3 2ビッ ト) の画素 データを、 最大 1 6個並列処理する。 D D Aは、 R G B値、 Z 値、 テクスチャ値などを計算する。 これらのデータを基に、 ピ クセル · エンジンは、 最終的なピクセル · データを生成する。
ローカルメモ リ 4 2 0は、 描画機能ブロ ッ ク 4 1 0によって 生成されたピクセル · デ一夕やメイ ン C P U 1 0 0から転送さ れたテクスチャ · デ一夕等を格納する。
C R T C部 4 3 0は、 指定された出力フ ォーマ ッ ト (N T S C、 P A L、 V E S Aフ ォーマ ッ ト等) に従って、 口一カルメ モ リ 4 2 0のフ レームバッ フ ァ領域の内容を映像信号と して出 力する。
図 4は、 口 一カルメモ リ 4 2 0の構成を示す図である。 同図 に示すように、 ローカルメモ リ 4 2 0は、 フ レームノ ッ ファ領 域 4 5 0 と、 Zノ ソ フ ァ領域 4 6 0と、 テクスチャノ ッ フ ァ領 域 4 7 0 と、 テクスチャ C L U T領域 4 8 0 とを有する。
フ レームノ ッ フ ァ領域 4 5 0及び Zノ ッ フ ァ領域 4 6 0は、 描画対象領域で、 フ レームバッ フ ァ領域 4 5 0は、 描画結果の ピクセルを格納し、 Zバッ ファ領域 4 6 0は、 描画結果の Z値 を格納する。
テクスチャノ ッフ ァ領域 4 7 0は、 テクスチャのイ メージデ 一夕を格納し、 テクスチャ ( 1111領域4 8 0は、 テクスチャ がイ ンデックスカラーの場合に使用するカラールヅクアップテ 一ブル ( C L U T ) を格納する。
なお、 領域 4 5 0〜 4 8 0は、 所定の制御レジス夕に適当な 値を設定するこ とで、 ローカルメモ リ 4 2 0上の任意のァ ド レ スに任意の順序で自由に配置することができる。
次に、 本エンタテイ ンメ ン ト装置における D VDビデオ再生 処理の概要について説明する。 この D VDビデオ再生処理は、 例えば、 メモ リ カー ド等からメ イ ンメモ リ 1 6 0にロー ドされ た D VD再生ソフ ト ウエアをメ イ ン C P U 1 0 0が実行するこ とで、 行われる。 ユーザ等から D V Dビデオの再生が指示される と、 C D/D VD読み出し部 1 3 0は、 D VDに格納されている ビデオデ一 夕を読み出し、 読み出した ビデオデ一夕を、 I O P 1 2 0を介 して、 メ イ ンメモ リ 1 6 0に転送する。
メ イ ン C P U 1 0 0は、 メイ ンメモ リ 1 6 0に格納されたビ デォデ一夕 (MP E G 2 ビッ トス ト リ ーム) に対して、 MP E G 2デコー ドを行い、 まず、 Y C b C r形式の画像デ一夕 (Y C b C rピクセルデ一夕) を生成し、 その後、 カラ一空間変換 を行って、 R G B形式の画像デ一夕 (R G B Aピクセルデー 夕) を生成する。 このよう に して生成された R G B形式の画像 デ一夕は、 表示装置に表示させるため、 グラ フ ィ ックスプロセ ヅサ 1 1 0に転送される。 その際、 R GBデータ と共に、 Y (輝度) データ もグラフィ ッ クスプロセ ヅサ 1 1 0に送られる すなわち、 各画素ごとに、 R G B Yそれぞれ 8 ビッ ト、 合計 3 2 ビッ トのデ一夕がグラ フ ィ ヅ クスプロセ ッサ 1 1 0へ転送 される。
グラフ ィ ックスプロセ ッサ 1 1 0へ送られた R G Bデータ及 び Yデ一夕は、 グラ フ ィ ッ クスプロセ ッサ 1 1 0内部の口一力 ルメモ リ 4 2 0のテクスチャノ、"ッ フ ァ領域 4 7 0に、 テクスチ ャデ一夕 と して格納される。
図 5 ( a ) は、 テクスチャバッ フ ァ領域 4 7 0における R G B Yデ一夕の格納形式を示す図である。 同図に示すよう に、 ビ ッ ト [ 7 : 0 ] には、 Rデータが格納され、 ビッ ト [ 1 5 : 8 ] には、 Gデ一夕が格納され、 ビ ヅ ト [ 2 3 : 1 6 ] には、 Bデ一夕が格納され、 ビッ 卜 [ 3 1 : 2 4 ] には、 Yデ一夕が 格納される。 なお、 通常は、 ビッ ト [ 3 1 : 2 4 ] には、 アル フ ァデータが格納される。
グラフ ィ ック プロセ ッサ 1 1 0は、 図 5 ( a ) に示した形式 以外にも、 複数のテクスチャ ピクセルの格納フォーマツ ト をサ ポー ト している。 これら複数のフ ォーマッ トは、 特定の制御レ ジス夕の設定を変えることで、 切 り換えて使う こ とができる。 同図 ( b ) は、 グラフィ ックプロセ ッサ 1 1 0におけるテク スチヤ ピクセルの別の格納フォーマツ ト を示す図である。 同図 に示すよう に、 本形式では、 上位 8 ビッ トが、 テクスチャ C L U T領域 4 8 0に格納されたカラールックアップテーブルに対 するイ ンデックスになる。 この場合、 カラールックアップテ一 ブルは、 2 5 6個のェン ト リ を有する。 カラ一ルヅクアップテ —ブルの各ェン ト リ には、 ィ ンデックス値に対応するカラ一値 が格納される。 本形式を利用する場合については、 後述する。 本実施形態では、 テクスチャバッフ ァ領域 4 7 0に転送され た画像データ (R G B Yデ一夕) に対して、 エッジ強調処理を 行う。
図 6は、 本実施形態におけるエッジ強調フ ィル夕の等価フ ロ 一を示す図である。 本エッジ強調フ ィ ル夕は、 横 (水平) 方向 のみのコ ンボルーショ ンフ ィル夕であ り、 左右両隣の画素の輝 度データを使って、 フ ィル夕処理の係数を算出する。
同図に示すように、 エッ ジ強調フィ ノレ夕は、 遅延部 6 1 0 , 6 1 1 , 6 1 2 と、 係数乗算部 6 2 0 , 6 2 1, 6 2 2, 6 2 3と、 加算部 6 3 0, 6 3 1, 6 3 2 と、 オフセ ッ ト定数部 6 40 とを備える。 ここでは、 R G Bのそれぞれに対して、 Yデ 一夕から計算した同一の係数を掛けて、 最終的な R G B値を求 めるものとする。 なお、 R GBのそれぞれについて、 図 1に示 すディ ジ夕ルフ ィル夕を備え、 R G Bのそれぞれについて別々 の係数を求めて掛けるよう にしても よい。 この場合、 例えば、 R用のエッ ジ強調フ ィル夕では、 入力信号 Rに、 Rから計算し た係数を掛けて、 最終的な R値を求めるこ とになる。
図 6に示したエッジ強調フ ィル夕では、 R G B Yは各 8 ビッ トであ り、 係数乗算部 6 2 0〜 6 2 3での係数乗算は、 8 ビッ ト X 8 ビッ トの乗算器で行われる。 また、 加算部 6 3 0〜 6 3 2での加算は、 8 ビッ トの加算器で行われる。
また、 オフセ ッ ト定数部 6 4 0のオフセ ッ ト定数は、 0 x 8 0 (= 1 2 8 ) である。 ここでは、 乗算時の係数は、 0 x 8 0 (= 1 2 8 ) が 1. 0 とする。 すなわち、 係数が 0 x 8 0 ( =
1 2 8 ) のと き、 R G Bそれぞれに対する乗数が 1. 0になる。 また、 f は、 エッジ強調の強さを制御する値で、 0〜 6 4ま での値をと る。 では、 例えば、 ユーザが好みの強さに応じた値 を設定する。
次に、 グラフ ィ ックスプロセ ッサ 1 1 0による画像フ ィノレ夕 処理について説明する。 なお、 グラフ ィ ッ クスプロセ ッサを利 用 したフ ィ ル夕処理の一般的な説明については、 特願平 1 0—
1 3 8 0 4 3号に記載されている。
図 7は、 グラ フィ ッ クスプロセ ッサ 1 1 0を使った画像フ ィ ル夕処理の概要を説明するための図である。 同図に示すよう に、 グラ フィ ッ クスプロセ ッサ 1 1 0の描画機能ブロ ック 4 1 0は、 テクスチャマッ ピング処理部 4 1 1 と、 プレンディ ング処理部 4 1 2とを備える。 本フ ィ ル夕処理は、 グラフ ィ ックスプロセ ッサ 1 1 0のテクスチャマツ ピング機能と、 プレンディ ング機 能とを利用 して行う。 すなわち、 テクスチャバッ フ ァ領域 4 7 0 に、 M P E G 2 デ コー ドされた R G B Y形式の画像デ一夕 (ソースデータ) を転 送しておき、 テクスチャマッ ピング処理 O N、 プレンディ ング 処理 O Nの状態で描画処理を行う。 これによ り、 テクスチャマ ッ ビング処理部 4 1 1 は、 ソースデータに所定の係数を掛けあ わせる。 プレンディ ング処理部 4 1 2 は、 ソースデータに所定 の係数が掛けあわされたものと、 フ レームバヅフ ァ領域 4 5 0 内のデ一夕 (デスティ ネーショ ンデ一夕) とを混合演算 (加減 演算) する。 プレ ンディ ング処理部 4 1 2 は、 その結果をフ レ —ムノ ツ フ ァ領域 4 5 0 に書き込む。 テク スチャマ ッ ピング処 理部 4 1 1 およびプレンディ ング処理部 4 1 2 は、 以上の処理 を繰 り返す。
次に、 グラフ ィ ヅ クプロセ ッサ 1 1 0のブレ ンディ ング (混 合処理) 機能について説明する。 グラ フ ィ ッ クプロセ ッサ 1 1 0では、 プレンディ ング機能を有効とするこ とによ り、 テクス チヤマッ ピング処理後の出力カラー (ソースカラ一) C s と、 フ レームノ、'ッ フ ァ領域内のピクセルカラー (デステイ ネ一ショ ンカラ一) C d との間でプレンディ ングの計算を行う こ とがで きる。
プレンデイ ング関数の基本形は、 以下のとお りである。
C V = ( A - B ) X C > > 7 + D
ここで、 C v =出力カラ一値、 A , B , D 二入力カラ一値、 C =入力ひ値である。
グラフ ィ ヅクプロセ ッサ 1 1 0では、 プレンディ ング処理制 御用のレジス夕を適当に設定するこ と、 A、 B 、 C , Dを次の よう に変えるこ とができる。 入力カラ一値 A、 B、 Dと しては、 それぞれ、 ソースの R G B値 C sと、 フ レームバッ ファ領域上の R G B値 C dと、 0の いずれかを選択するこ とができる。 また、 入力ひ値 Cと しては、 ソースのアルフ ァ値と、 フ レームノ ッ フ ァ領域上のアルフ ァ値 と、 プレンディ ング処理制御用のレジス夕に設定された固定ァ ルフ ァ値とのいずれかを選択するこ とができる。
メ イ ン C P U 1 0 0は、 グラ フ ィ ックプロセ ッサ 1 1 0の制 御用レジス夕を適宜設定して、 必要なプレ ンディ ング処理を行 わせることによって、 フ ィ ル夕演算 (積和演算) を実現する。 次に、 画像フ ィノレ夕処理を行う際に、 グラ フ ィ ックスプロセ ッサ 1 1 0に対して指示を行う具体的なコマン ドについて説明 する。
図 8は、 画像フ ィ ル夕処理を行う際、 メ イ ン C P U 1 0 0が グラ フ ィ ッ クプロセ ッサ 1 1 0に対して指示するコマン ド群の 例を示す図である。 なお、 同図に示したコマン ドにおいて、 d * ( d R G B等) は、 デスティ ネーショ ン面を表し、 s * ( s Y等) は、 ソース面を表す。
まず、 エッジ強調係数 f を設定する ( S 1 ) 。 例えば、 ユー ザが自分の好みで指定した値を設定する。
次に、 オフセ ッ ト値 O F F X, O F F Yを 0に して、 デステ イ ネ一シヨ ン領域 (フ レームノ、"ッ フ ァ領域) の R GB面にオフ セ ッ ト定数 0 x 8 0 ( = 1 2 8 ) をセ ッ トする ( S 2 ) 。 ここ では、 グラフィ ッ クプロセ ッサ 1 1 0に対して、 平面単位で処 理の指示を行う ものとする。 この場合、 グラ フ ィ ックスプロセ ッサ 1 1 0は、 所定の平面 (矩形領域) 内のすべての画素に対 する処理を行う。 これによ り、 デスティ ネーショ ン領域の各画 素の R G B値が、 それぞれ 0 x 8 0 (= 1 2 8 ) に初期化され る ο
次に、 オフセ ッ ト値〇 F F X =— 1 と して、 各画素について、 その左隣の画素の輝度データを使った演算を行う ( S 3 ) 。 す なわち、 処理対象画素の左隣の画素の輝度 (Y) 情報に係数 f を掛け、 その結果を処理対象画素の R G B値から減算する。 本 処理も、 平面単位で実行される。
ここでは、 ソース領域 (テクスチャバッ フ ァ領域) の Y値に 係数 f を掛けたものと、 デスティ ネーショ ン領域の R G B値と の間で、 プレンディ ング処理を行う必要がある。 しかし、 Y値 は、 図 5 ( a ) に示すよう に、 上位 8 ビッ ト に格納されている ため、 そのままでは、 デスティ ネーショ ン領域の R G B値との プレンディ ング演算が行えない。 そのため、 ここでは、 テクス チヤ ノ ッ フ ァ領域 4 7 0に格納されているテクスチャ ビクセル は、 図 5 ( b ) に示した形式を有するものと して扱う。 すなわ ち、 Y値をテクスチャ C L U T領域 4 8 0に格納された C L U Tのイ ンデックス値と して扱い、 C L U Tの各ェン ト リ に格納 されているカラ一値を実際の処理に使う。 このような扱いをす るこ とに伴い、 前も って、 C L U Tの各エン ト リ ( 0〜 2 5 5 ) の R G Bのそれぞれには、 イ ンデックス と同じ値を入れて おく 。 例えば、 エン ト リ 1の R G Bには、 「 1」 「 1」 「 1」 を格納し、 エン ト リ 2 5 5の R G Bには、 「 2 5 5」 「 2 5 5」 「 2 5 5」 を格納しておく 。 このよう にすることによって、 実質的に、 ソース領域の Y値に係数 f を掛けたものと、 デステ イ ネ一シヨ ン領域の R G B値との間で、 プレ ンディ ング処理を 行う ことが可能になる。 この点、 以下のステ ップ S 4〜 S 6で も同様である。
次に、 オフセ ッ ト値 O F F X = 0に戻して、 各画素について、 自己の輝度情報を使った演算を行う ( S 4 ) 。 すなわち、 処理 対象画素の輝度情報に係数: f を掛け、 その結果を処理対象画素 の R GB値に加算する。 本処理も、 平面単位で実行される。 な お、 ここでは、 f の取り う る範囲を、 :? = 0〜 1 2 8にしたこ とにともない、 f のダイナミ ックレンジを保証するため、 2 f を掛けて加算する演算を、 f を掛けて加算する演算 2回に分け て行っている。 ここでの加算は、 第 1回目のものである。
次に、 オフセッ ト値 O F F X = l と して、 各画素について、 その右隣の画素の輝度情報を使った演算を行う ( S 5 ) 。 すな わち、 処理対象画素の右隣の画素の輝度情報に係数 f を掛け、 その結果を、 処理対象画素の R G B値から減算する。 本処理も、 平面単位で実行される。
次に、 オフセッ ト値 O F F X = 0に戻して、 各画素について、 自己の輝度情報を使った演算を行う ( S 6 ) 。 すなわち、 処理 対象画素の輝度情報に係数 f を掛け、 その結果を、 処理対象画 素の R G B値に加算する。 今回の加算は、 2 f を掛けて加算す る演算を 2回に分けた第 2回目のものである。
以上の演算が終了すると、 デスティ ネーシヨン領域の R G B 値のそれぞれには、 最終的に元デ一夕に掛ける係数が格納され ていることになる。 そこで、 次に、 この係数と、 ソース領域の R G B値それぞれとの積をとるため、 まず、 この係数をデステ イ ネーシヨ ン領域の R G B面から、 ひ面 (上位 8 ビッ ト) にコ ピーする ( S 7 ) 。 R G B面は、 それぞれ、 同じ値が格納され ているので、 ここでは、 G面のデ一夕をひ面にコピーする。 そ して、 最後に、 ソース領域における各 R G B値と、 デステ イ ネ一シヨ ン領域における ひ面に格納された係数との積をと り、 その結果を、 デスティ ネーシヨ ン領域の R G B面に格納する ( S 8 ) 。
以上のような処理が終了する と、 デスティ ネーショ ン領域の R G B面には、 ソース領域に格納された画像データにエッジ強 調フ ィルタ処理を施した R G B値が格納されているこ とになる。
なお、 上記実施形態では、 グラ フィ ックスプロセ ッサ 1 1 0 を使ってエッジ強調フ ィ ル夕を実現していたが、 汎用の D S P や、 専用のハー ドウエアを使って実装するように しても よい。 以上説明したよう に、 本実施形態によるエッジ強調フ ィ ル夕 では、 まず、 係数を計算し、 最後に、 計算された係数と元デ一 夕 との積を取るので、 元データの桁落ちが少な く な り、 画像の グラデーショ ンも きれいに出るようになる。 産業上の利用可能性 以上、 詳細に説明したように、 本発明によれば、 短語長の演 算器等を用いた場合であっても、 入力デ一夕の桁落ちの少ない ディ ジ夕ルフィ ルタを実現できる。

Claims

請求の範囲
1 . 入力データに対して積和演算を行い係数を算出するフ ィ ル夕演算部と、
当該フ ィ ルタ演算部によ り算出された係数と入力データ とを 乗算する乗算部とを備えたこ とを特徴とするデジタルフ ィル夕
2 . 入力データに対して積和演算を行い係数を算出し、 当該算出された係数と入力データ とを乗算し、
当該乗算結果を出力データ とする
ことを特徴とするフ ィ ル夕処理の方法。
3 . 画像データに対してフ ィ ル夕処理を行う プログラムであ つて、
前記画像データに対して積和演算を行い係数を算出するステ ップと、
当該算出された係数と前記画像データ とを乗算するステッ プ と、
当該乗算結果を出力するステ ップと
を有するこ とを特徴とするプログラムが記録された記録媒体。
4 . 画像データに対してフ ィ ルタ処理を行う プログラムであ つて、
前記画像データに対して積和演算を行い係数を算出するステ ップと、
当該算出された係数と前記画像データ とを乗算するステ ッ プ と、
当該乗算結果を出力するステ ッ プと
を有するこ とを特徴とするプログラム。
5 . 描画演算器と描画メモ リ とを備えたエンタテイ ンメ ン ト 装置であって、
前記描画メモ リ は、 描画領域と、 テクスチャ領域とを有し、 前記描画演算器は、 テクスチャマッ ピング処理部と、 プレ ン ディ ング処理部とを備え、
前記テクスチャマッ ピング処理部は、 前記テクスチャ領域に 格納された画像デ一夕 をテクスチャデータ と して使ったテクス チヤマッ ピング処理を行い、
前記プレ ンディ ング処理部は、 テクスチャマツ ビング処理後 のデータ と、 前記描画領域に格納されているデ一夕 との間で混 合演算を行い、 その結果を、 前記描画領域に格納するこ とで、 画像フ ィ ル夕処理に使う係数を算出し、
当該算出された係数と、 前記画像データ との積を求める こ とを特徴とするエンタテイ ンメ ン ト装置。
PCT/JP2001/001681 2000-03-03 2001-03-05 Filtre numerique WO2001065485A1 (fr)

Priority Applications (7)

Application Number Priority Date Filing Date Title
AU36084/01A AU3608401A (en) 2000-03-03 2001-03-05 Digital filter
MXPA01011128A MXPA01011128A (es) 2000-03-03 2001-03-05 Filtro digital.
BR0104869-4A BR0104869A (pt) 2000-03-03 2001-03-05 Filtro digital, processo de processamento por filtro, meio de gravação, programa que efetua o processamento por filtro para dados de imagem, e, sistema de entretenimento
KR1020017013881A KR20020021788A (ko) 2000-03-03 2001-03-05 디지털 필터
CA002370723A CA2370723A1 (en) 2000-03-03 2001-03-05 Digital filter
NZ515834A NZ515834A (en) 2000-03-03 2001-03-05 Digital filter
EP01908304A EP1217582A4 (en) 2000-03-03 2001-03-05 DIGITAL FILTER

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000059349A JP2001250115A (ja) 2000-03-03 2000-03-03 ディジタルフィルタ
JP2000/59349 2000-03-03

Publications (1)

Publication Number Publication Date
WO2001065485A1 true WO2001065485A1 (fr) 2001-09-07

Family

ID=18579812

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/001681 WO2001065485A1 (fr) 2000-03-03 2001-03-05 Filtre numerique

Country Status (13)

Country Link
US (1) US6892214B2 (ja)
EP (2) EP1217582A4 (ja)
JP (1) JP2001250115A (ja)
KR (1) KR20020021788A (ja)
CN (1) CN1366650A (ja)
AU (1) AU3608401A (ja)
BR (1) BR0104869A (ja)
CA (1) CA2370723A1 (ja)
MX (1) MXPA01011128A (ja)
NZ (1) NZ515834A (ja)
RU (1) RU2001132755A (ja)
TW (1) TW530245B (ja)
WO (1) WO2001065485A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4982080B2 (ja) * 2005-12-16 2012-07-25 パナソニック株式会社 デジタルフィルタ
EP2786342B1 (en) 2011-11-29 2017-09-13 Thomson Licensing Texture masking for video quality measurement
RU2631976C2 (ru) * 2016-03-15 2017-09-29 Федеральное государственное бюджетное образовательное учреждение высшего образования Московский авиационный институт (национальный исследовательский университет) (МАИ) Перестраиваемый цифровой фильтр с программируемой структурой

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61123274A (ja) * 1984-11-19 1986-06-11 Ricoh Co Ltd 電子写真式プリンタの画像処理装置
JPS61189719A (ja) * 1985-02-18 1986-08-23 Nec Corp 非巡回形デイジタルフイルタ
US5774125A (en) * 1993-11-18 1998-06-30 Sony Corporation Texture mapping method in which 3-D image data is transformed into 2-D data and mapped onto a surface of an object for display
US6005584A (en) * 1996-12-17 1999-12-21 Sega Enterprises, Ltd. Method of blending a plurality of pixels on a texture map and a plural pixel blending circuit and image processing device using the same

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0420269A3 (en) * 1989-09-28 1992-12-30 Fujitsu Limited Adaptive digital filter including low-pass filter
US5262972A (en) * 1991-07-17 1993-11-16 Hughes Missile Systems Company Multichannel digital filter apparatus and method
US5282155A (en) * 1992-11-19 1994-01-25 Bell Communications Resarch, Inc. Adaptive digital filter architecture for parallel output/update computations
JPH06161876A (ja) 1992-11-24 1994-06-10 Sony Corp 画像処理方法
JPH09116387A (ja) 1995-10-13 1997-05-02 Ricoh Co Ltd デジタルフィルタ
US5740343A (en) 1995-11-03 1998-04-14 3Dfx Interactive, Incorporated Texture compositing apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61123274A (ja) * 1984-11-19 1986-06-11 Ricoh Co Ltd 電子写真式プリンタの画像処理装置
JPS61189719A (ja) * 1985-02-18 1986-08-23 Nec Corp 非巡回形デイジタルフイルタ
US5774125A (en) * 1993-11-18 1998-06-30 Sony Corporation Texture mapping method in which 3-D image data is transformed into 2-D data and mapped onto a surface of an object for display
US6005584A (en) * 1996-12-17 1999-12-21 Sega Enterprises, Ltd. Method of blending a plurality of pixels on a texture map and a plural pixel blending circuit and image processing device using the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1217582A4 *

Also Published As

Publication number Publication date
EP1669927A1 (en) 2006-06-14
US6892214B2 (en) 2005-05-10
BR0104869A (pt) 2002-05-14
AU3608401A (en) 2001-09-12
JP2001250115A (ja) 2001-09-14
TW530245B (en) 2003-05-01
US20010039556A1 (en) 2001-11-08
CA2370723A1 (en) 2001-09-07
CN1366650A (zh) 2002-08-28
RU2001132755A (ru) 2003-08-20
EP1217582A4 (en) 2003-03-12
NZ515834A (en) 2003-04-29
MXPA01011128A (es) 2002-06-04
KR20020021788A (ko) 2002-03-22
EP1217582A1 (en) 2002-06-26

Similar Documents

Publication Publication Date Title
JP3778517B2 (ja) ブレンド論理を使用して色空間変換を行う方法および装置
US5936683A (en) YUV-to-RGB conversion without multiplies using look-up tables and pre-clipping
KR100547812B1 (ko) 컬러 참조테이블을 사용하여 화소데이터의 컬러모델을변환하는 장치 및 방법
JPH10177373A (ja) 画像表示制御装置
WO2001065485A1 (fr) Filtre numerique
JPH04140791A (ja) 画像処理装置
JP2001209789A (ja) グラフィックアクセラレータおよび描画方法
JP2006304203A (ja) 色差間引きの変換機能を有する電子カメラ
JP2003316331A (ja) 表示装置
JP2003338732A (ja) ディジタルフィルタ
JP4581261B2 (ja) 演算装置、演算処理方法及び画像処理装置
JP2001197321A (ja) カラー画像処理方法並びに画像処理装置
JP2001204044A (ja) 画像処理方法および画像処理装置
JP4774616B2 (ja) 画像処理装置および画像処理システム
JP3701557B2 (ja) 画像表示制御方法及び装置、並びにコンピュータ読取可能な記録媒体
JP2001086353A (ja) 画像処理方法及び装置
JP3409713B2 (ja) 画像処理装置
JP3045110B2 (ja) Osd回路
JP2582743B2 (ja) 画像処理装置
JP3353375B2 (ja) 輝度マトリクスデジタル演算装置
JP2882712B2 (ja) 画像処理装置における輪郭補正回路
JP4826022B2 (ja) 画像処理回路および画像処理システム
JP5153087B2 (ja) 映像信号処理装置及び方法
JP2001111863A (ja) 画像処理装置、画像処理方法および記録媒体
JPH05268478A (ja) 画像読取装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 01800892.5

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AU BR CA CN KR MX NZ RU SG

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 1020017013881

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: PA/a/2001/011128

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 2370723

Country of ref document: CA

Ref document number: 2370723

Country of ref document: CA

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 515834

Country of ref document: NZ

WWE Wipo information: entry into national phase

Ref document number: 2001908304

Country of ref document: EP

Ref document number: 36084/01

Country of ref document: AU

WWP Wipo information: published in national office

Ref document number: 1020017013881

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2001908304

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2001908304

Country of ref document: EP