WO2007108254A1 - Moving picture coding device and moving picture decoding device - Google Patents

Moving picture coding device and moving picture decoding device Download PDF

Info

Publication number
WO2007108254A1
WO2007108254A1 PCT/JP2007/052575 JP2007052575W WO2007108254A1 WO 2007108254 A1 WO2007108254 A1 WO 2007108254A1 JP 2007052575 W JP2007052575 W JP 2007052575W WO 2007108254 A1 WO2007108254 A1 WO 2007108254A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
filter processing
block
pixel value
inverse
Prior art date
Application number
PCT/JP2007/052575
Other languages
French (fr)
Japanese (ja)
Inventor
Maki Takahashi
Tomoko Aono
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to JP2008506197A priority Critical patent/JP4768011B2/en
Publication of WO2007108254A1 publication Critical patent/WO2007108254A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Definitions

  • Moving picture encoding apparatus and moving picture decoding apparatus Moving picture encoding apparatus
  • the present invention relates to a moving image encoding device and a moving image decoding device that divide and encode a quantization target image into a plurality of blocks.
  • FIG. Description will be made with reference to FIG.
  • FIG. 11 is a functional block diagram showing a schematic configuration of a moving picture encoding apparatus 100 that encodes a moving picture using the H.264ZAVC moving picture coding method.
  • the moving image coding apparatus 100 includes a DCT unit 1, a quantization unit 2, a variable length coding unit 3, an inverse quantization unit 4, an I DCT unit 5, a deblocking filter processing unit 6, A frame memory 7, an intra prediction unit 8, an inter prediction unit 9, and a code key control unit 10 that controls each of the above units are provided.
  • the DCT unit 1 divides a difference image obtained by subtracting a prediction image, which will be described later, from an original image into blocks each consisting of 4 ⁇ 4 pixels or 8 ⁇ 8 pixels, and orthogonally transforms the image signal of each block ( Integer precision DCT).
  • the transform coefficient obtained by the orthogonal transform (corresponding to the DCT coefficient in the discrete cosine transform) is sent to the quantization unit 2.
  • the quantization unit 2 quantizes the transform coefficient of each block according to the quantization parameter supplied from the encoding control unit 10.
  • the quantized representative value obtained as a result of quantization is sent to the variable length coding unit 3 and the inverse quantization unit 4.
  • variable-length encoding unit 3 receives various encoding parameters supplied from the encoding control unit 10 and quantization representative values (transform coefficients of each quantized block) supplied from the quantization unit 3. Variable length coding.
  • the code key data obtained as a result of the code key by the variable length code key unit 3 is sent to the moving picture decoding apparatus 200 described later.
  • the inverse quantization unit 4 reverses the quantized representative value (transform coefficient of each quantized block) supplied from the quantization unit 3 according to the quantization parameter supplied from the encoding control unit 10. Quantify. That is, the inverse quantization unit 4 restores the transform coefficient of each block from the quantized representative value by the reverse operation of the quantization operation by the quantization unit 2. The transform coefficient of each block restored by inverse quantization is sent to the IDCT unit 5.
  • the IDCT unit 5 converts the transform coefficient of each block obtained by inverse quantization into an image signal in the spatial domain, and restores the difference image.
  • the inverse orthogonal transform applied to the transform coefficient by the IDCT unit 5 is the inverse transform (integer precision IDCT) of the orthogonal transform applied by the DCT unit 1.
  • the local decoded image obtained by adding the difference image restored by the IDCT unit 5 and the predicted image is sent to the deblocking filter processing unit 6.
  • the deblocking filter processing unit 6 performs adaptive filtering on the local decoded image in order to remove block distortion in the local decoded image obtained by adding the prediction image and the difference image. Details of adaptive filter processing by the deblocking filter processing unit 6 will be described in detail later.
  • the locally decoded image from which block distortion has been removed by the deblocking filter processing unit 6 is temporarily stored in the frame memory 7.
  • the frame memory 7 can store a plurality of locally decoded images.
  • the locally decoded image stored in the frame memory 7 is referred to by the intra prediction unit 8 or the inter prediction unit 9 as a reference image.
  • the intra prediction unit 8 generates a predicted image from the reference image recorded in the frame memory 7 by performing intra-frame prediction.
  • the intra-prediction unit 8 is capable of performing intra-frame prediction using a plurality of prediction modes (prediction algorithms) defined in accordance with the H.264ZAVC video coding standard. Intraframe prediction is performed according to the prediction mode specified by Section 10.
  • the inter prediction unit 9 Based on the motion vector determined by the sign key control unit 10 and the reference image stored in the frame memory 7, the inter prediction unit 9 generates a prediction image by inter-frame prediction (motion compensation prediction). Generate.
  • the inter prediction unit 9 performs inter-frame prediction using a block having a size specified by the sign key control unit 10 and using a plurality of reference images specified by the sign key control unit 10.
  • the code control unit 10 determines which prediction method to generate a prediction image of intra-frame prediction and inter-frame prediction, and various encoding parameters according to the determined prediction method. To decide.
  • the code parameter when performing intra-frame prediction includes information specifying a prediction mode in intra-frame prediction.
  • the code parameter when performing inter-frame prediction includes information specifying a motion vector, a block size, and a reference image.
  • the sign key control unit 10 designates quantization parameters for the quantization unit 2 and the inverse quantization unit 4.
  • the moving image coding apparatus 100 encodes a moving image by repeating the following steps 1 to 6.
  • Step 1 Code Key Control Unit 10 Determines whether intra-frame prediction or inter-frame prediction is performed, and determines the code key parameters and quantization parameters necessary for the code key.
  • Step 2 In accordance with the determination result in Step 1, the intra prediction unit 8 or the inter prediction unit 9 generates a predicted image based on the reference image stored in the frame memory 7.
  • Step 3 A difference image between the predicted image generated in Step 2 and the input original image is generated and supplied to the DCT unit 1.
  • Step 4 The DCT unit 1 and the quantization unit 2 orthogonally transform the image signal of the difference image obtained in step 3 for each block, and quantize the obtained transform coefficients.
  • the obtained quantization representative value is variable-length encoded by the variable-length encoding unit 3 and output as encoded data.
  • Step 5 The inverse quantization unit 4 and the IDCT unit 5 dequantize the quantized representative value obtained in step 4 to restore the difference image.
  • Step 6 The difference image restored in Step 5 and the prediction generated in Step 2 The images are added to each other, and the obtained locally decoded image is supplied to the deblocking filter processing unit 6.
  • Step 7 The local decoding image power block distortion obtained in Step 6 is removed by the deblocking filter processing unit 6 and the local decoded image with reduced block distortion is stored in the frame memory 7 as a reference image. Accumulated.
  • the moving image decoding apparatus 200 includes an inverse quantization unit 4, an IDCT unit 5, a deblocking filter processing unit 6, a frame memory 7, an intra prediction unit 8, an inter prediction unit 9, and a variable A long decoding unit 20 is provided.
  • variable length decoding section 20 is the only functional block that does not exist in the moving picture encoding apparatus 100 (FIG. 11). Blocks having the same functions as those of the moving image code display device 100 have the same names and reference numerals and description thereof is omitted.
  • the variable length decoding unit 20 has a function of variable length decoding the encoding parameter and the quantized representative value (quantized transform coefficient).
  • the moving picture decoding apparatus 200 shown in Fig. 12 decodes encoded data by repeating the following steps 1 to 6.
  • Step 1 The variable length decoding unit 20 performs variable length decoding on the encoded data to obtain an encoding parameter and a quantized representative value (quantized transform coefficient).
  • Step 2 In accordance with the decoded code parameter, the intra prediction unit 8 or the inter prediction unit 9 generates a prediction image based on the reference image stored in the frame memory 7.
  • Step 3 The inverse quantization unit 4 and the IDCT unit 5 dequantize the quantized representative value obtained in step 1 to restore the difference image.
  • Step 4 The difference image restored in Step 3 and the predicted image generated in Step 2 are added, and the obtained decoded image is supplied to the deblocking filter processing unit 6.
  • Step 5 The decoded image obtained in step 4 by the deblocking filter processing unit 6 Image force Block distortion is removed, and a decoded image with reduced block distortion is stored in the frame memory 7.
  • the decoded image stored in the frame memory 7 can be read at an arbitrary timing and used as a display image.
  • Step 6 The decoded image stored in the frame memory is output to an image display means such as a display at an appropriate timing as a display image.
  • the deblocking filter processing unit 6 in both the moving image encoding device 100 and the moving image decoding device 200, the moving image is encoded. Quantization ⁇ Block distortion generated in the inverse quantization process is reduced.
  • the deblocking filter processing unit 6 will be described in more detail with reference to FIGS.
  • FIG. 13 is an explanatory diagram showing a block division pattern of a quantization target image (difference image between an original image and a predicted image) in a moving image encoding process using the H.264ZAVC moving image encoding method.
  • the quantization target image is divided into WX H rectangular blocks.
  • WX H blocks include B ⁇ in order from the upper left corner of the image to be quantized.
  • FIG. 14 is a diagram showing two adjacent blocks, block B and block B, in the quantization target image shown in FIG. As shown in Figure 14, Block B and Block B
  • n + l n n + 1 is composed of a total of 16 pixel arrays arranged in 4 rows and 4 columns. As with block B, all blocks B to B that make up the image to be encoded in Fig. 13 are arranged in 4 rows and 4 columns.
  • a pixel constituting the quantization target image is a combination of a variable n for specifying a block including the pixel and variables u and V for specifying the position of the pixel in the block ( n , u , v ) Can be specified. That is, the pixel (n, u, v) is the pixel in the u-th column and the V-th row of the block B.
  • the attribute value of the pixel (n, u, v) is expressed as X (n, u, v).
  • the pixel value of the pixel (n, u, v) in the encoding target image is expressed as P (n, u, v).
  • Blocks B to B shown in FIG. 13 and FIG. Transformation 'Quantization' Dequantization 'Inverse orthogonal transformation is a processing unit of a series of processing.
  • the image data of the quantization target image is converted into a conversion coefficient for each of the blocks B to B, and the amount is converted.
  • the deblocking filter processing unit 6 used in the H.264ZAVC moving image encoding method uses filtering between adjacent blocks (B, B) in the horizontal direction and adjacent n n + 1 in the vertical direction.
  • the filter strength of the filter processing performed by the filtering filter processing unit 6 is adaptively set according to conditions such as the prediction mode applied to each block.
  • P (n, u, v) is a pixel in the processing target image (local decoded image in the moving image encoding device 100 or decoded image in the moving image decoding device 200) of the deblocking filter processing.
  • the pixel value (n, u, v) and P ′ (n, u, v) represent the pixel value of the pixel (n, u, v) in the filter output image output from the deblocking filter processing unit 6.
  • P '0,1, V) ⁇ ⁇ 2 ⁇ ( ⁇ , 0, ⁇ ) + 3 ⁇ (, 1, ⁇ ) + ⁇ ⁇ , 2, ⁇ ) + ⁇ ( ⁇ , 3, ⁇ ) + ⁇ ( ⁇ + 1 , 0, ⁇ ) ⁇
  • P '(n + 1,0, v) ⁇ (P (n, 2, v) + 2P (n, 3, v) + 2P (n + 1,0, v) + 2P (n + 1,1 , v) + P (n + l, 2, v) ⁇ -8
  • FIGS. Figure 15 (a) is a graph n n + 1 representing the pixel values p (n, u, v) of the original image in block B and block B.
  • Figure 15 (b) shows the deblocking filter processing n n + 1 for block B and block B.
  • FIG. 7 is a graph showing pixel values P (n, u, v) of a decoded image to be processed by the processing unit 6.
  • P pixel values
  • FIG. 15 (b) in the decoded image, discontinuous changes in pixel values at the block boundary, that is, block distortion occurs.
  • Figure 15 (c) shows the deblocking pattern on the decoded image. Block B and Block B of the image after filtering by filter 6
  • Non-Patent Literature 1 ITU-T Recommendation H.2b4: Advanced Video Coding for generic audiovisual services (2003)
  • the average pixel value in each block is different before and after the filter processing. Therefore, when the conventional deblocking filter is used, the average pixel value in each block is not saved before and after the filtering process, so that the difference in the average pixel value between the original image and the decoded image is enlarged by the filtering process. obtain.
  • the moving image encoding apparatus has a difference in average pixel values from the original image.
  • a predicted image is generated using the locally decoded image to be used as a reference image.
  • a decoded image having an average pixel value difference with respect to the original image is generated as a reference image or a display image. For this reason, blurring or flickering of the moving image occurs.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to reduce block distortion in a decoded moving image and to prevent side effects such as blurring and flickering of the image.
  • An object is to realize a moving image encoding device and a moving image decoding device.
  • the video encoding apparatus divides an image into a plurality of blocks, quantizes the image data of each block, and obtains a quantum obtained by the quantization.
  • the apparatus includes a filter processing means for performing a filter process for removing a frequency component that generates block distortion on the image data before quantization.
  • the filter processing means removes a frequency component that generates block distortion from the image data before quantization.
  • the quantization target image to be quantized is one in which frequency components that generate block distortion have been removed in advance. Therefore, a decoded image obtained by quantizing / inverse-quantizing the quantization target image subjected to the filtering process by the filter processing unit has a reduced block distortion.
  • the frequency component previously removed by the filter processing means can be restored by inverse filter processing corresponding to the inverse transformation of the filter processing of the filter processing means.
  • the moving picture coding apparatus having the above-described configuration can generate coded data that can restore a decoded picture with reduced block distortion without missing a specific frequency component. And! /, Has the effect.
  • the filter processing performed by the filter processing means is to keep the average pixel value of each block unchanged before and after the processing. .
  • the filter processing by the filter processing means is performed so as to keep the average pixel value (for example, average luminance level) of each block unchanged.
  • the conventional video coding apparatus using a deblocking filter has been There is an additional effect that it is possible to effectively prevent screen blurring caused by the fact that the average pixel value for each block is not stored before and after the filter processing.
  • a predicted image generating means for generating a predicted image and an inverse filter process corresponding to the inverse transform of the filter process are performed on the locally decoded image. It is preferable that the prediction image generation unit further includes a reverse filter processing unit, and the prediction image generation unit generates the prediction image using the locally decoded image subjected to the reverse filter processing as a reference image.
  • the predicted image generation means can generate a predicted image using the local decoded image subjected to the inverse filter process as a reference image.
  • the predicted image generation means may generate a predicted image based on a reference image in which block distortion is reduced and a specific frequency component is not lost, that is, a reference image that approximates the original image. There is an effect that can be done.
  • the predicted image generating means may use these prediction methods by appropriately switching these prediction methods according to the state of the image to be encoded.
  • the inverse filter processing performed by the inverse filter processing means may correspond to a strict inverse transformation or an approximate inverse transformation with respect to the filter processing of the filter processing means. It may be what you do. In other words, the inverse filtering process is sufficient if it approximates a strict inverse transform within a range that does not adversely affect the quality of the final moving image. For example, the calculation accuracy of the filtering process (for example, integer precision) A degree of error is acceptable.
  • the quantization target image to be quantized is a difference image between the predicted image and the original image subjected to the filtering process.
  • the local decoded image is an image obtained by adding the image data obtained by inversely quantizing the quantized representative value to the moving image coding apparatus and the image data of the predicted image. Is preferred.
  • the original image becomes a processing target image of the filter processing
  • the filter The difference image between the original image subjected to the data processing and the predicted image becomes the quantization target image.
  • the local decoded image obtained by adding the image data obtained by dequantizing the quantized representative value obtained by quantizing the quantization target image and the image data of the predicted image is the result of the inverse filter processing.
  • the local decoded image subjected to the above inverse filter processing is used as a reference image for generating a predicted image. Therefore, according to the above configuration, the predicted image generating means can generate a predicted image based on the reference image that better approximates the original image.
  • the quantization target image to be quantized is obtained by performing the filtering process on a difference image between the predicted image and the original image.
  • the locally decoded image is preferably an image obtained by adding the image data obtained by dequantizing the quantized representative value and the image data of the predicted image in the moving image coding apparatus. .
  • the difference image between the predicted image and the original image is the target of the filtering process, and the difference image subjected to the filtering process is the target of quantization.
  • a local decoded image obtained by adding the image data obtained by dequantizing the quantization representative value obtained by quantizing the quantization target image and the image data of the predicted image is the inverse filter.
  • the locally decoded image that has been subjected to the processing and subjected to the inverse filter processing is used as a reference image for generating a predicted image. Therefore, according to the above configuration, the predicted image generation means can generate a predicted image based on the reference image that better approximates the original image.
  • the filter processing means calculates a pixel value to be subtracted from the image data of the processing target image that is the target of the filtering process, as an image data force of the predicted image.
  • the inverse filter processing means calculates a pixel value to be added to the image data of the processing target image to be subjected to the inverse filtering process by calculating the image data force of the predicted image by the same method as the filter processing means. It is preferable that
  • the pixel value that the filter processing unit subtracts from the image data of the processing target image and the pixel value that the inverse filter processing unit adds to the image data of the processing target image are the same. Is calculated from the predicted image by the same method. Therefore, the above fill The inverse filter processing means can restore the frequency component that generates block distortion removed from the processing target image by the data processing means more completely.
  • the moving image decoding apparatus decodes encoded data obtained by encoding image data from which frequency components that generate block distortion are removed.
  • An image decoding apparatus comprising: inverse filter processing means for performing inverse filter processing for restoring the removed frequency component on the image data of a decoded image obtained by decoding! / Speak.
  • the moving image decoding apparatus decodes encoded data obtained by encoding image data from which a frequency component causing block distortion has been removed in advance.
  • the encoded data is obtained by removing frequency components that generate block distortion in advance, block distortion in a decoded image obtained by decoding is suppressed.
  • the decoded image obtained by decoding restores the frequency component removed in the encoding process by the inverse filter processing means. Therefore, a decoded image obtained by performing the inverse filter processing is an image in which block distortion is reduced and a specific frequency component is not lost, that is, an image that better approximates the original image.
  • the moving picture coding apparatus having the above configuration has an effect of being able to restore a decoded picture with reduced block distortion without losing a specific frequency component.
  • FIG. 1 is a functional block diagram showing a configuration of a moving picture encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a functional block diagram showing a configuration of a moving picture decoding apparatus according to an embodiment of the present invention.
  • FIG. 3 is a flowchart showing an outline of filter processing calculation by the filter processing unit of the video encoding device shown in FIG. 1.
  • FIG. 4 (a) is a graph showing the effect of the filter processing operation shown in FIG. 3, and is a graph showing the pixel value of the processing target image to be subjected to the filter processing.
  • FIG. 4 (b) is a graph showing the operation of the filter processing calculation shown in FIG.
  • FIG. 4 (c) is a graph showing the operation of the filter processing operation shown in FIG. 3, and is a graph showing a predicted value obtained by linear interpolation using the average pixel value shown in FIG. 4 (b). .
  • FIG. 4 (d) is a graph showing the effect of the filter processing calculation shown in FIG. 3, and is a graph showing the pixel value of the filter output image.
  • FIG. 5 is a flowchart showing an overview of the inverse filter processing calculation by the inverse filter processing unit included in the video encoding device shown in FIG. 1 and the video decoding device shown in FIG.
  • FIG. 6 (a) is a graph showing the operation of the inverse filter processing operation shown in FIG. 5, and is a graph showing the pixel value of the processing target image to be subjected to the inverse filter processing.
  • FIG. 6 (b) is a graph showing the operation of the inverse filter processing operation shown in FIG.
  • FIG. 6 (c) is a graph showing the effect of the inverse filter processing operation shown in FIG. 5, and is a graph showing the predicted value obtained by linear interpolation using the average pixel value shown in FIG. 6 (b). is there.
  • FIG. 6 (d) is a graph showing the operation of the inverse filter processing calculation shown in FIG. 5, and is a graph showing the pixel value of the inverse filter output image.
  • FIG. 7 is a functional block diagram showing another configuration example of the video encoding device according to the embodiment of the present invention.
  • FIG. 8 Another example of the configuration of the video decoding device according to the embodiment of the present invention is shown, and is a functional block diagram showing the configuration of the video decoding device corresponding to the video encoding device of FIG. is there.
  • FIG. 9 is a functional block diagram showing another configuration example of the video encoding device according to the embodiment of the present invention.
  • FIG. 10 Another example of the configuration of the video decoding device according to an embodiment of the present invention is shown, and a functional block showing the configuration of the video decoding device corresponding to the video encoding device of FIG. FIG.
  • FIG. 11 is a functional block diagram showing a conventional technique and showing a configuration of a moving picture coding apparatus provided with a deblocking filter.
  • FIG. 12 is a functional block diagram showing a conventional technique and showing a configuration of a video decoding device corresponding to the video encoding device shown in FIG. 11.
  • FIG. 13 is an explanatory diagram showing an image division pattern in a quantization target image to be quantized or a processing target image to be filtered.
  • FIG. 14 is an enlarged view showing two adjacent blocks in an image divided into a plurality of blocks by the division pattern shown in FIG. 13.
  • FIG. 14 is an enlarged view showing two adjacent blocks in an image divided into a plurality of blocks by the division pattern shown in FIG. 13.
  • FIG. 15 (a) is a graph showing the prior art and showing the action of the deblocking filter. In particular, it is a graph showing pixel values of an original image to be encoded.
  • FIG. 15 (b) is a graph showing the prior art and showing the action of the deblocking filter. In particular, it is a graph showing pixel values of a locally decoded image including block distortion.
  • FIG. 15 (c) is a graph showing the prior art and showing the action of the deblocking filter. It is a graph which especially shows the pixel value of the output image of a deblocking filter.
  • Filter processing section (filter processing means)
  • Inverse filter processing unit (inverse filter processing means)
  • FIGS. 1 to 10 One embodiment of the moving picture encoding apparatus of the present invention will be described below with reference to FIGS. 1 to 10.
  • FIG. 1 is a functional block diagram showing a schematic configuration of a video encoding device 300 according to the present embodiment.
  • the moving picture coding apparatus 300 includes a DCT unit 1, a quantization unit 2, a variable length coding unit 3, an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, and an intra prediction unit.
  • Inter prediction unit 9, encoding control unit 10, filter processing unit 11, and inverse filter processing unit 12 are provided.
  • FIG. 11 The difference between the moving picture coding apparatus 300 in FIG. 1 and the conventional moving picture coding apparatus 100 (FIG. 11) is that the moving picture coding apparatus 300 uses a filter instead of the conventional deblocking filter 6.
  • the processing unit 11 and the inverse filter processing unit 12 are provided.
  • blocks having the same functions as those of the conventional moving image coding apparatus 100 are shown using the same names and symbols as those in FIG. 11, and the description thereof is omitted.
  • a characteristic configuration of the moving image encoder 300 is a filter processing unit 11 and an inverse filter processing unit 12.
  • the filter processing unit 11 uses the original image to be encoded as a processing target image, and performs a filtering process to remove a frequency component that causes block distortion from the processing target image.
  • the DCT unit 1 is supplied with a differential image obtained by subtracting the prediction image generated by the intra prediction unit 8 or the inter prediction unit 9 from the image subjected to the filter processing by the filter processing unit 11.
  • the inverse filter processing unit 12 calculates the difference image restored by the inverse quantization unit 4 and the IDCT unit 5 and the prediction image generated by the intra prediction unit 8 or the inter prediction unit 9 from the calorie calculation. Thus, a locally decoded image obtained is supplied.
  • the inverse filter processing unit 12 sets this locally decoded image as a processing target image, and performs filtering on the processing target image by the filter processing unit 11. Inverse filter processing corresponding to inverse transformation of data processing is performed.
  • the locally decoded image that has been subjected to the inverse filter processing by the inverse filter processing unit 12 is stored in the frame memory 7 as a reference image, and is used for generation of a predicted image by the intra prediction unit 8 or the inter prediction unit 9.
  • the DCT unit 1 and the quantization unit 2 divide the quantization target image into a plurality of blocks and quantize the image data of each block. Therefore, a block image can be included in a decoded image obtained by inverse quantization of a quantized image. That is, block distortion may be included in a local decoded image generated inside the moving image encoding apparatus 300 to generate a predicted image and a decoded image generated by a moving image decoding device described later.
  • the quantization target image supplied to the DCT unit 1 is a difference image between the image subjected to the filter processing by the filter processing unit 11 and the predicted image. Since the filter processing unit 11 acts on the processing target image so as to remove in advance the frequency component that generates block distortion, the block distortion generated in the quantization / inverse quantization process can be effectively reduced.
  • the reference image that the intra prediction unit 8 or the inter prediction unit 9 refers to in order to generate a predicted image is a locally decoded image that has been subjected to the inverse filter processing by the inverse filter processing unit 12. Therefore, the frequency component removed from the original image is restored in the reference image.
  • the intra prediction unit 8 and the inter prediction unit 9 can generate a prediction image based on a reference image in which a specific frequency component is not lost while the block distortion is reduced.
  • the spatial frequency component lost due to the quantization process in the conventional video encoding device 100 is removed and removed by the filter processing unit 11 in the video encoding device 300, and the reverse operation is performed.
  • Restoration by the filter processing unit 12 can avoid the influence of quantization processing and suppress the occurrence of block distortion.
  • the filter processing unit 11 and the inverse filter processing unit 12 are, as will be described later, average pixel values before and after processing in each block (for example, an average luminance level) can be maintained. Therefore, it is possible to avoid problems such as image blurring and flickering during moving image playback caused by the deblocking filter processing.
  • FIG. 2 is a functional block diagram showing a schematic configuration of a video decoding device 400 corresponding to the video encoding device 300 shown in FIG.
  • the moving picture decoding apparatus 400 includes an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, an intra prediction unit 8, an inter prediction unit 9, a variable length decoding unit 20, and an inverse filter.
  • a processing unit 12 is provided.
  • blocks having the same functions as those of the conventional video decoding device 200 are denoted by the same names and symbols as those in FIG. 12, and description thereof is omitted.
  • the encoded data decoded by the moving image decoding apparatus 400 is generated based on the original image from which the frequency component causing block distortion is removed in the moving image encoding apparatus 300.
  • the variable length decoding unit 20 of the video decoding device 400 decodes the encoded data, and the inverse quantization unit 4 and the IDCT unit 5 inversely quantize the value obtained by the decoding.
  • the image restored by inverse quantization corresponds to the difference image obtained by subtracting the predicted image from the original image.
  • the video decoding device 400 adds the prediction image generated by the intra prediction unit 8 or the inter prediction unit 9 to the restored difference image, and generates a decoded image.
  • the inverse filter processing unit 12 included in the video decoding device 400 performs the same inverse filter processing as the inverse filter processing unit 12 included in the video encoding device 300.
  • the inverse filter processing unit 12 acts on the decoded image lacking the frequency component that generates block distortion so as to restore the frequency component removed at the time of encoding.
  • the decoded image that has been subjected to the inverse filter processing by the inverse filter processing unit 12 is referred to by the intra prediction unit 8 or the inter prediction unit 9 as a reference image for generating a prediction image, and is output as a display image. .
  • the frequency component removed from the original image is restored in the display image or the reference image by the operation of the inverse filter processing unit 12. That is, the moving picture decoding apparatus 400 has a specific frequency component missing at the same time that the block distortion is reduced. It is possible to output a display image that never occurs. Further, at the same time that the block distortion is reduced, a prediction image can be generated based on a reference image in which a specific frequency component is not lost.
  • the filter processing unit 11 executes horizontal filter processing and vertical filter processing by dividing a processing target image to be filtered into a plurality of blocks.
  • the division pattern in which the filter processing unit 11 divides the processing target image is as shown in FIGS. 13 and 14, and the DCT unit 1 and the quantization unit 2 perform the quantization target image for quantization. This is the same as the division pattern for dividing.
  • the filter processing unit 11 converts the image data of the block B in the filter output image output by the filter processing unit 11 into the image data of the block B in the processing target image and the image of the block adjacent to the block B. Calculate from the data.
  • the image data of block B is calculated by referring to the block B + 1 image data adjacent to the right side of the block B
  • the image of block B Data is the image data of block B adjacent to the lower side of the block n n + W
  • the filter processing unit 11 completes the horizontal filter processing by repeating the filter processing calculation described below for all two adjacent blocks. In addition, the above repetition is performed by (B, B), (B, B), (B, B)...
  • the above filter processing operations may be executed for all pairs, and (B, B), (B, B), (B ,: B). So for all blocks,
  • the filter processing calculation may be executed while referring to the next block. However, in these repetitions, a pair of non-adjacent blocks, for example, the right edge of the image It is assumed that the above filter processing is not performed for a pair consisting of block B (k is an integer) and the next block B located at the lower left end of the block or kXW-1 kXW.
  • FIG. 3 is a flowchart schematically illustrating the filter processing calculation executed by the filter processing unit 11.
  • the filter processing calculation by the filter processing unit 11 includes step S1 for calculating the average pixel value, step S2 for calculating the predicted value, and step S3 for calculating the filter output image. It is out. Steps S1 to S3 will be described in more detail as follows. In the following description, a filter processing operation for calculating the pixel value of 4 pixels arranged in the V-th row among the 16 pixels arranged in 4 rows and 4 columns belonging to the block B will be described. The filter processing unit 11 executes the following filter processing operation on the first row of block B as well as on the fourth row, either sequentially or in parallel, so that the pixel values of all the pixels belonging to block B are obtained. Is calculated.
  • Step S1 The filter processing unit 11 calculates the average pixel value ⁇ p> of the four pixels arranged in the V-th row of the block B in the processing target image, and the V ⁇ and ⁇ ⁇ of the block B in the processing target image. + Calculate the average pixel value ⁇ > of the four pixels arranged in the first row. Filter processing unit 11 ⁇ + 1,
  • FIG. 4 (a) is a graph showing the pixel values of the processing target image.
  • FIG. 4 (b) is a graph showing average pixel values obtained in step S1 above.
  • Step S2 The filter processing unit 11 calculates the average pixel value obtained in step S1 as p
  • the filter processing unit 11 predicts the predicted values p (n, u, v) and (n + 1, u, v) pred pred
  • the calculation formula for calculating is as follows.
  • FIG. 4 (c) is a graph showing the predicted values obtained in step S2.
  • Step S3 The filter processing unit 11 uses the predicted value p (n, u, v) obtained in Step S2.
  • the pixel value p ′ (n, u, v) of the filter output image is obtained. calculate.
  • Filter processing unit 11a The calculation formula used to calculate the pixel value p ′ (n, u, v) of the filter output image is as follows.
  • FIG. 4 (d) is a graph showing pixel values of the filter output image obtained in step S3.
  • the average pixel value of block B in the filter output image matches the average pixel value of block B in the processing target image, that is, the filter processing unit 11 processes the average pixel value of each block. Please note that it is something that remains unchanged before and after. For this reason, it is possible to prevent blurring and flickering of moving images due to the filter processing.
  • the filter processing unit 11 performs the filtering process in the horizontal direction as described above, and then performs the filtering process in the vertical direction.
  • the vertical filtering processing is a force that calculates the image data of block B with reference to block B adjacent to the lower side of block B n n + W
  • the calculation method is the same as the horizontal filtering process, so the explanation is omitted.
  • the filter processing unit 11 performs the horizontal filter processing after performing the vertical filter processing. Also good.
  • the inverse filter processing unit 12 executes the horizontal direction reverse filter processing and the vertical direction reverse filter processing by dividing the processing target image into a plurality of blocks.
  • the division pattern in which the inverse filter processing unit 12 divides the processing target image is the same as the division pattern in which the filter processing unit 11 divides the processing target image.
  • the inverse filter processing unit 12 calculates the image data of the block B from the image data of the block B in the processing target image and the image data of the block adjacent to the block B. Specifically, in the horizontal filter processing, the image data of block B is calculated by referring to the block B image data n n + 1 adjacent to the right side of the block B in the processing target image, and the vertical In the direction filtering process, the image data of block B is calculated by referring to the image data of block B adjacent to the lower side of block B n n + W
  • the inverse filter processing calculation executed by the inverse filter processing unit in the horizontal inverse filter processing will be described with reference to FIG. 5 and FIG.
  • the inverse filter processing calculation for calculating the pixel value (for example, luminance level) of one block B will be described.
  • the inverse filter processing unit 12 repeats the filter processing calculation described below for all adjacent two blocks, thereby completing the horizontal filter processing.
  • FIG. 5 is a flowchart schematically illustrating the inverse filter processing calculation performed by the inverse filter processing unit 12.
  • the filtering processing by the inverse filter processing unit 12 includes step T1 for calculating an average pixel value, step T2 for calculating a predicted value, and step T3 for calculating an inverse filter output image. Including.
  • the steps Tl to T3 will be described in more detail as follows. In the following description, out of 16 pixels arranged in 4 rows and 4 columns belonging to block ⁇ , the inverse of calculating the pixel values of 4 pixels arranged in the V row The filter processing operation will be described.
  • the inverse filter processing unit 12 performs the inverse filter processing operation described below for the first row force of the block B and the fourth row, sequentially or in parallel, thereby obtaining the pixel values of all the pixels belonging to the block B. Is calculated.
  • Step T1 The inverse filter processing unit 12 calculates the average pixel value ⁇ P> of four pixels arranged in the Vth row of the block B in the processing target image, and the blocks B n and ⁇ + 1 in the processing target image. Calculate the average pixel value ⁇ > of the four pixels arranged in the ⁇ row of. Inverse filter processing ⁇ + 1,
  • the calculation formula used by the unit 12 to calculate the average pixel values ⁇ > and ⁇ > is as follows.
  • P (n, u, v) is a pixel value in the pixel (n, u, v) of the processing target image.
  • FIG. 6 (a) is a graph showing the pixel values of the processing target image
  • FIG. 6 (b) is a graph showing the average pixel values obtained in step T1.
  • Step T2 The inverse filter processing unit 12 determines that the average pixel value obtained in Step T1 ⁇ P ⁇ ,
  • Fig. 6 (c) is a graph showing the predicted values obtained in step T2 above. [0117] (Step T3)
  • the inverse filter processing unit 12 calculates the predicted value P (n, u, v) obtained in step ⁇ 2 and the step
  • a pixel value (n, u, v) of the filter output image is calculated by adding the additional component to the pixel value P (n, u, v) of the processing target image as a power additional component.
  • the calculation formula used by the inverse filter processing unit 12 to calculate the pixel value (n, u, v) of the inverse filter output image is as follows.
  • FIG. 6 (d) is a graph showing the pixel values of the inverse filter output image obtained in step T3. Note that the average pixel value of block B in the inverse filter output image matches the average pixel value of block B in the processing target image. For this reason, the occurrence of blurring and flickering of moving images is effectively prevented.
  • the inverse filter processing unit 12 performs the inverse filter process in the horizontal direction as described above, and then performs the inverse filter process in the vertical direction.
  • the vertical inverse filtering operation is to calculate the image data of block B with reference to block B adjacent to the lower side of block B n n + W
  • the reverse filter processing unit 12 performs the horizontal reverse filter processing after performing the vertical reverse filter processing.
  • a configuration in which inverse filter processing is performed may be employed.
  • the block removed from the processing target image by the filtering process of the filter processing unit 11 is performed.
  • the frequency component that generates the noise distortion is restored by the inverse filter processing of the inverse filter processing unit 12. Therefore, a specific frequency component is not lost in the restored image.
  • the predicted value calculated by the filter processing unit 11 is calculated by linear interpolation using the average pixel value of the adjacent block, but the present invention is not limited to this. That is, the predicted value used by the filter processing unit 11 to calculate the pixel value of the filter output image may be a predicted value calculated based on an average pixel value in block units, for example.
  • the average pixel value of three adjacent blocks may be a value calculated by cubic interpolation using P_>, ⁇ P>, and ⁇ P>. Details ⁇ ⁇ + 1, ⁇
  • the inverse filter processing unit 12 corresponding to the filter processing unit 11 that performs these filter processes is easily configured to perform an inverse filter process corresponding to the inverse transformation of these filter processes. obtain.
  • the average pixel value of the prediction value and the average pixel value of the input image are used for the filter output It is preferable to make a correction so that the average pixel value of the filter input and filter output is maintained.
  • the filter processing unit 11 performs one-dimensional filter processing independently in the horizontal direction and the vertical direction, but the present invention is not limited to this. It may be configured to perform two-dimensional filter processing.
  • An example of the two-dimensional filter processing performed by the filter processing unit 11 is as follows.
  • the filter processing unit 11 calculates the pixel value of the block of interest with reference to the pixel values of four blocks that are adjacent vertically and horizontally.
  • the filter processing calculation performed by the filter processing unit 11 to calculate the pixel value of the target block ⁇ includes the following steps 1 to 3.
  • Step 1 The filter processing unit 11 calculates the average pixel value of the target block ⁇ and the average pixel value of blocks ⁇ , ⁇ , ⁇ , and ⁇ adjacent to the target block ⁇ vertically and horizontally n n -1 n + 1 nW n + W
  • the formula is as follows.
  • Step 2 The filter processing unit 11 performs the prediction value ⁇ ( ⁇ for each pixel of the block ⁇ ⁇ ⁇ by linear interpolation using the average pixel value of each block obtained in Step 1 above.
  • the calculation formula is as follows.
  • Step 3 The filter processing unit 11 calculates the predicted value p (n, u, v) obtained in Step 2,
  • the difference from the average pixel value ⁇ p> of block B obtained in step 1 is calculated from the image to be processed.
  • the pixel value (n, u, v) of the filter output image is calculated by subtracting the removal component from the pixel value p (n, u, v) of the processing target image as the removal component to be removed. .
  • the calculation formula for the filter processing unit 11 to calculate the pixel value iT (n, u, v) of the block B in the filter output image is as follows.
  • the filter processing unit 11 repeats the above steps 1 to 3 for each block, thereby obtaining a pixel value of the entire filter output image. Is calculated.
  • the corresponding inverse filter processing unit 12 may be configured to perform an inverse filter process corresponding to the inverse transformation of the filter process of the filter processing unit 11. (Modification 1)
  • FIG. 7 is a functional block diagram showing a schematic configuration of a video encoding device 300a that is a modification of the video encoding device 300.
  • the moving picture coding apparatus 300a includes a DCT unit 1, a quantization unit 2, a variable length coding unit 3, an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, and an intra prediction unit. 8, an inter prediction unit 9, an encoding control unit 10, a filter processing unit lla, and an inverse filter processing unit 12a.
  • the difference between the moving image encoding device 300a and the moving image encoding device 300 is that the moving image encoding device 300a is based on a predicted image instead of the filter processing unit 11.
  • a filter processing unit 11a that performs filter processing is provided, and an inverse filter processing unit 12a that performs inverse filter processing based on a predicted image is provided instead of the inverse filter processing unit 12.
  • the intra prediction unit 8 and the inter prediction unit 9 supply the generated prediction image to the filter processing unit 1 la and the inverse filter processing unit 12a.
  • blocks having the same functions as those of the moving picture coding apparatus 300 in FIG. 1 are denoted by the same names and symbols as those in FIG. 1, and description thereof is omitted.
  • FIG. 8 is a functional block diagram showing a schematic configuration of a video decoding device 400a corresponding to the video encoding device 300a shown in FIG.
  • the video decoding device 400a includes an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, an intra prediction unit 8, an inter prediction unit 9, a variable length decoding unit 20, and an inverse filter process. Part 12a is provided.
  • the difference between the video decoding device 400a and the video decoding device 400 (Fig. 2) in Fig. 8 is that the video decoding device 400a is different from the video encoding device 300a in place of the inverse filter processing unit 12.
  • the same inverse filter processing unit 12a is provided.
  • the intra prediction unit 8 and the inter prediction unit 9 supply the generated predicted image to the inverse filter processing unit 12a.
  • the filter processing unit 11a and the inverse filter processing unit 12a that can be suitably used in the moving image coding apparatus 300a and the moving image decoding device 400a will be described as follows.
  • the filter processing unit 11a and the inverse filter processing unit 12a The image data of the block is calculated from the image data of the predicted image supplied from the intra prediction unit 8 or the inter prediction unit 9. Specifically, in horizontal filtering, the image data of block B is calculated by referring to the nnn + 1 image data of block B and block B in the predicted image, and in the vertical filtering, Refer to the image data of block B and block B in the predicted image for the image data of B n n + W
  • the force filter processing unit 11a and the inverse filter processing unit 12a that describe the filter processing calculation for calculating the pixel value of one block B repeat the filter calculation processing described below so that the filter output image Complete the entire horizontal filtering process.
  • the entire filtering process is completed by performing the filtering process in the vertical direction in the same manner.
  • the filter processing calculation executed by the filter processing unit 11a in the horizontal filter processing includes the following steps Sla to S3a.
  • Step Sla The filter processing unit 11a calculates the average pixel value ⁇ q> of the four pixels arranged in the v-th row of the block B in the predicted image and the V-rows ⁇ and ⁇ of the block B in the processing target image. Calculate the average pixel value q> of the four pixels arranged in the n + 1st eye. Filter processing unit 11a is n + l,
  • q (n, u, v) is a pixel value in the pixel (n, u, v) of the predicted image.
  • Step S2a The filter processing unit 11a calculates the average pixel value obtained in Step Sla q
  • the filter processing unit 11a predicts q (n, u, v) and q (n + 1, u, v) pred pred
  • the calculation formula for calculating is as follows.
  • the difference between pred u, v) and the average pixel value q> of block B obtained in step S la is the removal component to be removed from the processing target image, and the pixel value p (n,
  • the pixel value p ′ (n, u, v) of the filter output image is calculated by subtracting the removed component from u, v).
  • the calculation formula used by the filter processing unit 11a to calculate the pixel value p ′ (n, u, v) of the filter output image is as follows.
  • steps Sla to S3a are filter processing operations that calculate the pixel values of the four pixels arranged in the Vth row among the 16 pixels arranged in the fourth row and the fourth column belonging to the block B.
  • the pixel values of all the pixels belonging to the block B are calculated by executing the above steps Sla to S3a sequentially or in parallel with respect to the fourth row from the first row force of the block B.
  • the inverse filter processing operation executed by the filter processing unit 12a in the vertical filter processing includes the following steps Tla to T3a.
  • the inverse filter processing unit 12a includes the average pixel value ⁇ q> of four pixels arranged in the Vth row of the block B in the predicted image, and the Vth row of the block B in the predicted image.
  • the inverse filter processing unit 12a Calculate the average pixel value q> of the four pixels arranged in.
  • Step T2a The inverse filter processing unit 12a performs linear interpolation using the average pixel values ⁇ q> and ⁇ > obtained in Step Tla for each pixel in the Vth row of the block B. And the predicted value q for each pixel in the Vth row of block B (n
  • the inverse filter processing unit 12a performs prediction values q n, u, v) and q (n + 1,
  • the inverse filter processing unit 12a calculates the predicted value q (n, u, v) obtained in step T2a and the step
  • a pixel value (n, u, v) of the filter output image is calculated by adding the additional component to the pixel value P (n, u, v) of the processing target image as an additional component to be processed.
  • the calculation formula used by the inverse filter processing unit 12a to calculate the pixel value (n, u, v) of the inverse filter output image is as follows.
  • steps Tla to T3a are filter processing operations for calculating the pixel values of the four pixels arranged in the V-th row among the 16 pixels arranged in the fourth row and the fourth column belonging to the block B.
  • the pixel values of all the pixels belonging to the block B are calculated by executing the above steps Tla to T3a sequentially or in parallel for the fourth row from the first row force of the block B.
  • the filter processing unit 11a calculates, from the image data of the predicted image, a pixel value that also subtracts the image data of the target image to be filtered. Further, the inverse filter processing unit 12a calculates the image data force of the predicted image by the same method as the filter processing means, with respect to the pixel value to be added to the image data of the processing target image to be subjected to the inverse filter processing. That is, the pixel value that the filter processing unit 11a subtracts from the processing target image and the pixel value that the inverse filter processing unit 12a adds to the processing target image are calculated from the same predicted image. The same image value.
  • the filter processing unit 11a and the inverse filter processing unit 12a compared with the moving image coding apparatus 300 that performs the filter processing 'inverse filter processing based on the processing target image having a difference in quantization error level, The frequency component that generates block distortion from which the processing target image force has also been removed by the filter processing unit 1 la can be completely restored by the inverse filter processing unit 12a.
  • FIG. 9 is a functional block diagram showing a schematic configuration of a video encoding device 300b which is another modification of the video encoding device 300.
  • the moving picture coding apparatus 300a includes a DCT unit 1, a quantization unit 2, a variable length coding unit 3, an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, and an intra prediction unit. 8, an inter prediction unit 9, an encoding control unit 10, a filter processing unit l ib, and an inverse filter processing unit 12b.
  • the difference between the moving image encoding device 300b and the moving image encoding device 300 is that the moving image encoding device 300a is based on a predicted image instead of the filter processing unit 11.
  • the filter processing unit l ib for executing the filter processing is provided, and instead of the inverse filter processing unit 12, an inverse filter processing unit 12a for executing the inverse filter processing based on the predicted image is provided.
  • the filter processing unit ib is provided immediately before the DCT unit 1 and uses the difference image between the original image and the predicted image as the processing target image of the filter processing.
  • the prediction images used by the filter processing unit 1 lb and the inverse filter processing unit 12b for the filter processing are both supplied from the intra prediction unit 8 or the inter prediction unit 9.
  • the functional blocks of the video encoding device 300b excluding the filter processing unit ib and the inverse filter processing unit 12b are the same as those of the video encoding unit 300 in Fig. 1. They are identical. Therefore, in FIG. 9, blocks having the same functions as those of the moving picture coding apparatus 300 in FIG. 1 are denoted by the same names and symbols as those in FIG. 1, and description thereof is omitted.
  • FIG. 10 is a functional block diagram showing a schematic configuration of a video decoding device 400b corresponding to the video encoding device 300b shown in FIG.
  • the video decoding device 400b includes an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, an intra prediction unit 8, and an inter prediction.
  • Unit 9 a variable length decoding unit 20, and an inverse filter processing unit 12b.
  • the difference between the video decoding device 400b and the video decoding device 400 (Fig. 2) in Fig. 10 is that the video decoding device 400b is different from the video encoding device 300b in place of the inverse filter processing unit 12.
  • the same inverse filter processing unit 12b is provided. Further, as shown in FIG. 10, it is supplied to the predicted image power inverse filter processing unit 12b generated by the intra prediction unit 8 and the inter prediction unit 9.
  • filter processing in the filter processing unit l ib suitable for the moving image encoding device 300b and inverse filtering processing in the inverse filter processing unit 12b suitable for the moving image encoding device 300 and the moving image decoding device 400b Will be described.
  • the filter processing unit l ib and the inverse filter processing unit 12b calculate the image data of each block in the filter output image from the image data of the prediction image supplied from the intra prediction unit 8 or the inter prediction unit 9. Specifically, in the horizontal filter processing, the image data of block B is used as the block B and block B of the predicted image.
  • the image data of block B is referred to the image data of block B and block B in the predicted image.
  • the force filter processing unit l ib and the inverse filter processing unit 12b which explain the filter processing calculation for calculating the pixel value of one block B, repeat the filter calculation processing described below, thereby outputting the filter output.
  • the entire filtering process is completed by performing the filtering process in the vertical direction in the same manner.
  • the filter processing calculation performed by the filter processing unit l ib in the horizontal filter processing includes the following steps Slb to S3b.
  • Step Sib The filter processing unit l ib calculates the average pixel value ⁇ q> of the four pixels arranged in the vth row of the block B in the predicted image and the Vth row of the block B in the processing target image.
  • Step S2b The filter processing unit l ib calculates the average pixel value obtained in step Sib q
  • Filter processing unit l ib calculates predicted values (n, u, v) and (n + 1, u, v) pred pred
  • Step S3b The filter processing unit l ib calculates the prediction obtained in step S2b from the pixel value p (n, u, v) of the image to be filtered (difference image between the original image and the predicted image).
  • the pixel value p ′ (n, u, v) of the filter output image is calculated by subtracting the values ( ⁇ , pred u, v).
  • the calculation formula used by the filter processing unit l ib to calculate the pixel value p ′ (n, u, v) of the filter output image is as follows.
  • steps Slb to S3b are filter processing operations for calculating the pixel values of 4 pixels arranged in the V-th row among the 16 pixels arranged in 4 rows and 4 columns belonging to the block B.
  • the pixel values of all the pixels belonging to the block B are calculated by executing the above steps Slb to S3b sequentially or in parallel for the first row and the fourth row of the block B.
  • the inverse filter processing executed by the inverse filter processing unit 12b includes the following steps Tlb to T3b.
  • Step Tib The inverse filter processing unit 12b performs processing on the Vth row of the block B in the predicted image.
  • Step T2b The inverse filter processing unit 12b uses the average pixel values ⁇ q> and ⁇ > obtained in Step Tib to calculate the predicted value q for each pixel in the Vth row of block B.
  • the inverse filter processing unit 12b calculates the predicted values q (n, u, v) and q (n + 1, u, v).
  • the inverse filter processing unit 12b adds the predicted value q (n, u, v) obtained in step T2b to the pixel value P (n, u, v) of the image to be inverse filtered, thereby obtaining a filter.
  • steps Tlb to T3b are filter processing operations that calculate pixel values of 4 pixels arranged in the V-th row among 16 pixels arranged in 4 rows and 4 columns belonging to the block B.
  • the pixel values of all the pixels belonging to the block B are calculated by executing the above steps Tlb to T3b sequentially or in parallel with respect to the first row and the fourth row of the block B.
  • the filter processing unit ib calculates a pixel value from which the image data of the target image to be filtered is also subtracted from the image data of the predicted image.
  • the inverse filter processing unit 12b calculates the image data force of the predicted image using the same method as the filter processing means, with respect to the pixel value to be added to the image data of the processing target image to be subjected to the inverse filter processing. That is, the pixel value subtracted from the processing target image by the filter processing unit l ib and the pixel value added by the inverse filter processing unit 12b to the processing target image are calculated with the same predicted image power. The same image value.
  • the filter processing unit l ib and the inverse filter processing unit 12b compared with the moving image encoding apparatus 300 that performs the filter processing 'inverse filter processing based on the processing target image having a difference in the quantization error level, The frequency component that generates block distortion removed from the processing target image by the filter processing unit 1 lb can be more completely restored by the inverse filter processing unit 12b.
  • the present invention is not limited to the above-described embodiment, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.
  • the present invention can be configured as follows.
  • the moving image encoding apparatus is a moving image encoding apparatus that divides and encodes an image into a plurality of blocks, and performs a predetermined filtering process on the image in units of blocks. It may be configured to include a filter processing means and an inverse filter processing means for performing an inverse filter process that is an inverse transformation of the filter processing means.
  • the filter processing unit is configured to apply a predetermined filter to the encoding target image of the block based on the encoding target images of a plurality of adjacent blocks. It is configured to do the processing.
  • the moving picture coding apparatus includes prediction means for performing intra-screen prediction or inter-screen prediction for each block, and the filter processing means outputs the prediction means. Based on the predicted images of a plurality of adjacent blocks, a predetermined filtering process may be performed on the encoding target image of the block.
  • the moving picture coding apparatus includes a prediction unit that performs intra-frame prediction or inter-screen prediction for each block, and the filter processing unit outputs the prediction unit. Based on the predicted images of a plurality of adjacent blocks, a predetermined filter process may be performed on the difference image between the encoding target image and the predicted image of the block.
  • the moving picture decoding apparatus is a moving picture decoding apparatus for decoding moving picture data encoded for each block, and is configured to include the inverse filter processing means. May be.
  • the above-described blocks of the moving image encoding apparatus 300, 300a, 300b of the present invention and the moving image decoding apparatus 400, 400a, 400b of the present invention are particularly adapted to filter processing means 11. 11a • l ib , And the inverse filter processing means 12'12a'12b may be constituted by hardware logic, or may be realized by software using a CPU as follows. .
  • the above-described video encoding device 'video decoding device includes a CPU (central processing unit) that executes instructions of a control program that realizes each function, and a ROM (read only memory) that stores the program.
  • An object of the present invention is to provide a computer with program codes (execution format program, intermediate code program, source program) of a control program for the above-described moving image encoding device “moving image decoding device” which is software for realizing the above-described functions.
  • the recording medium recorded so as to be readable can be supplied to the moving picture encoding apparatus / moving picture decoding apparatus, and the computer (or CPU or MPU) can read and execute the program code recorded on the recording medium. Is achievable.
  • the recording medium includes, for example, a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy disk Z hard disk, and an optical disk such as CD-ROMZMOZ MD / DVD / CD-R.
  • Disk systems IC cards (including memory cards) Z optical cards and other card systems, or mask ROMZEPROMZEEPROMZ flash ROM and other semiconductor memory systems can be used.
  • the moving image encoding device / moving image decoding device may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • the communication network is not particularly limited.
  • the Internet intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite A communication network or the like is available.
  • the transmission medium constituting the communication network is not particularly limited.
  • IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc. can be used, such as IrDA or remote control.
  • the present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
  • the moving image encoding apparatus divides an image into a plurality of blocks, quantizes the image data of each block, and uses the quantized representative value obtained by the quantization.
  • the moving image encoding apparatus for encoding includes a filter processing means for performing a filter process for removing a frequency component that generates block distortion on the image data before quantization.
  • the video decoding device decodes encoded data obtained by encoding image data from which frequency components that generate block distortion are removed.
  • the apparatus includes an inverse filter processing unit that performs an inverse filter process for restoring the removed frequency component on the image data of the decoded image obtained by decoding.
  • the present invention relates to a moving image storage device that encodes and stores a moving image, a moving image transmission device that encodes and transmits a moving image, a moving image reproducing device that decodes and reproduces a moving image, and the like. Therefore, it can be suitably used. Specifically, for example, it can be suitably used for a hard disk recorder or a mobile phone terminal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Since a moving picture coding device (300) is provided with a filter processing unit (11) for eliminating frequency components which cause block distortions to picture data prior to quantizing, the moving picture coding device can generate coding data to restore a decoded picture in which block distortions are reduced without elimination of specific frequency components. Thus, a moving picture coding device is put into practice which uses no deblocking filter which causes a picture a blur or flicker but can reduce block distortions in a decoded moving picture.

Description

明 細 書  Specification
動画像符号化装置、及び、動画像復号装置  Moving picture encoding apparatus and moving picture decoding apparatus
技術分野  Technical field
[0001] 本発明は、量子化対象画像を複数のブロックに分割して符号化する動画像符号化 装置、及び、動画像復号装置に関するものである。  The present invention relates to a moving image encoding device and a moving image decoding device that divide and encode a quantization target image into a plurality of blocks.
背景技術  Background art
[0002] 膨大な情報量をもつ動画像を効率的に伝送したり記録したりするために、画像デー タを複数のブロックに分割してブロック毎に量子化 ·符号ィ匕する技術が広く用いられ ている。ブロック毎に量子化 ·符号ィ匕された動画像においては、各ブロックの境界に ぉ 、て輝度レベル等の画素値が不連続に変化するブロック歪(ブロックノイズ)が発 生する。このブロック歪を低減する技術として、非特許文献 1に記載の H. 264/AV C動画像符号ィ匕方式におけるデブロッキングフィルタが知られている。  [0002] In order to efficiently transmit and record a moving image having a huge amount of information, a technique of dividing image data into a plurality of blocks and quantizing and coding each block is widely used. It has been. In a moving image quantized and encoded for each block, block distortion (block noise) in which pixel values such as luminance levels discontinuously change occurs at the boundary of each block. As a technique for reducing the block distortion, a deblocking filter in the H.264 / AVC moving image code system described in Non-Patent Document 1 is known.
[0003] 以下、 H. 264ZAVC動画像符号化方式により動画像を符号化する動画像符号 化装置 100、および、同方式により符号化された動画像を復号する動画像復号装置 200について、図 11〜図 15を参照しながら説明する。  [0003] Hereinafter, with respect to the moving image encoding device 100 that encodes moving images by the H.264ZAVC moving image encoding method and the moving image decoding device 200 that decodes moving images encoded by the same method, FIG. Description will be made with reference to FIG.
[0004] 〔従来の動画像符号化装置の構成〕  [Configuration of Conventional Video Encoding Device]
図 11は、 H. 264ZAVC動画像符号化方式により動画像を符号化する動画像符 号ィ匕装置 100の概略構成を示す機能ブロック図である。図 11に示したように、動画 像符号化装置 100は、 DCT部 1、量子化部 2、可変長符号化部 3、逆量子化部 4、 I DCT部 5、デブロッキングフィルタ処理部 6、フレームメモリ 7、イントラ予測部 8、イン ター予測部 9、及び、上記各部を制御する符号ィ匕制御部 10を備えている。  FIG. 11 is a functional block diagram showing a schematic configuration of a moving picture encoding apparatus 100 that encodes a moving picture using the H.264ZAVC moving picture coding method. As shown in FIG. 11, the moving image coding apparatus 100 includes a DCT unit 1, a quantization unit 2, a variable length coding unit 3, an inverse quantization unit 4, an I DCT unit 5, a deblocking filter processing unit 6, A frame memory 7, an intra prediction unit 8, an inter prediction unit 9, and a code key control unit 10 that controls each of the above units are provided.
[0005] DCT部 1は、原画像から後述する予測画像を減算して得られる差分画像を 4 X 4画 素あるいは 8 X 8画素からなるブロックに分割し、各ブロックの画像信号を直交変換( 整数精度 DCT)する。当該直交変換により得られた変換係数 (離散コサイン変換に おける DCT係数に相当)は、量子化部 2に送られる。量子化部 2は、符号化制御部 1 0から供給される量子化パラメータに従って、各ブロックの変換係数を量子化する。量 子化の結果得られた量子化代表値は、可変長符号化部 3と逆量子化部 4とに送られ る。 [0005] The DCT unit 1 divides a difference image obtained by subtracting a prediction image, which will be described later, from an original image into blocks each consisting of 4 × 4 pixels or 8 × 8 pixels, and orthogonally transforms the image signal of each block ( Integer precision DCT). The transform coefficient obtained by the orthogonal transform (corresponding to the DCT coefficient in the discrete cosine transform) is sent to the quantization unit 2. The quantization unit 2 quantizes the transform coefficient of each block according to the quantization parameter supplied from the encoding control unit 10. The quantized representative value obtained as a result of quantization is sent to the variable length coding unit 3 and the inverse quantization unit 4. The
[0006] 可変長符号化部 3は、符号化制御部 10から供給される各種符号化パラメータと、 量子化部 3から供給される量子化代表値 (量子化された各ブロックの変換係数)を可 変長符号化する。可変長符号ィ匕部 3による符号ィ匕の結果得られた符号ィ匕データは、 後述する動画像復号装置 200に送出される。  [0006] The variable-length encoding unit 3 receives various encoding parameters supplied from the encoding control unit 10 and quantization representative values (transform coefficients of each quantized block) supplied from the quantization unit 3. Variable length coding. The code key data obtained as a result of the code key by the variable length code key unit 3 is sent to the moving picture decoding apparatus 200 described later.
[0007] 逆量子化部 4は、符号化制御部 10から供給される量子化パラメータに従って、量 子化部 3から供給される量子化代表値 (量子化された各ブロックの変換係数)を逆量 子化する。すなわち、逆量子化部 4は、量子化部 2による上記量子化操作の逆の操 作により、量子化代表値から各ブロックの変換係数を復元する。逆量子化により復元 された各ブロックの変換係数は、 IDCT部 5に送られる。 IDCT部 5は、逆量子化によ り得られた各ブロックの変換係数を空間領域の画像信号に変換し、差分画像を復元 する。ここで、 IDCT部 5が変換係数に適用する逆直交変換は、 DCT部 1が適用する 直交変換の逆変換 (整数精度 IDCT)である。 IDCT部 5により復元された差分画像と 予測画像とを加算して得られる局所復号画像は、デブロッキングフィルタ処理部 6に 送られる。  [0007] The inverse quantization unit 4 reverses the quantized representative value (transform coefficient of each quantized block) supplied from the quantization unit 3 according to the quantization parameter supplied from the encoding control unit 10. Quantify. That is, the inverse quantization unit 4 restores the transform coefficient of each block from the quantized representative value by the reverse operation of the quantization operation by the quantization unit 2. The transform coefficient of each block restored by inverse quantization is sent to the IDCT unit 5. The IDCT unit 5 converts the transform coefficient of each block obtained by inverse quantization into an image signal in the spatial domain, and restores the difference image. Here, the inverse orthogonal transform applied to the transform coefficient by the IDCT unit 5 is the inverse transform (integer precision IDCT) of the orthogonal transform applied by the DCT unit 1. The local decoded image obtained by adding the difference image restored by the IDCT unit 5 and the predicted image is sent to the deblocking filter processing unit 6.
[0008] デブロッキングフィルタ処理部 6は、予測画像と差分画像とが加算された局所復号 画像におけるブロック歪を除去するために、該局所復号画像に対して適応的なフィ ルタ処理を行う。デブロッキングフィルタ処理部 6による適応的なフィルタ処理の詳細 については、後に詳しく説明する。  [0008] The deblocking filter processing unit 6 performs adaptive filtering on the local decoded image in order to remove block distortion in the local decoded image obtained by adding the prediction image and the difference image. Details of adaptive filter processing by the deblocking filter processing unit 6 will be described in detail later.
[0009] デブロッキングフィルタ処理部 6によりブロック歪が除去された局所復号画像は、フ レームメモリ 7に一時的に記憶される。フレームメモリ 7は、複数の局所復号画像を記 憶することが可能である。フレームメモリ 7に記憶されている局所復号画像は、参照画 像としてイントラ予測部 8、あるいは、インター予測部 9によって参照される。  The locally decoded image from which block distortion has been removed by the deblocking filter processing unit 6 is temporarily stored in the frame memory 7. The frame memory 7 can store a plurality of locally decoded images. The locally decoded image stored in the frame memory 7 is referred to by the intra prediction unit 8 or the inter prediction unit 9 as a reference image.
[0010] イントラ予測部 8は、フレーム内予測を行うことにより、フレームメモリ 7に記録された 参照画像から予測画像を生成する。イントラ予測部 8は、 H. 264ZAVC動画像符 号化標準にぉ 、て定義されて 、る複数の予測モード (予測アルゴリズム)によるフレ ーム内予測を行うことが可能であり、符号ィ匕制御部 10により指定された予測モードに よるフレーム内予測を実行する。 [0011] インター予測部 9は、符号ィ匕制御部 10により決定された動きベクトルとフレームメモ リ 7に記憶された参照画像とに基づいて、フレーム間予測 (動き補償予測)によって予 測画像を生成する。インター予測部 9は、符号ィ匕制御部 10により指定されたサイズの ブロックを用いて、また、符号ィ匕制御部 10により指定された複数の参照画像を用いて フレーム間予測を行う。 [0010] The intra prediction unit 8 generates a predicted image from the reference image recorded in the frame memory 7 by performing intra-frame prediction. The intra-prediction unit 8 is capable of performing intra-frame prediction using a plurality of prediction modes (prediction algorithms) defined in accordance with the H.264ZAVC video coding standard. Intraframe prediction is performed according to the prediction mode specified by Section 10. [0011] Based on the motion vector determined by the sign key control unit 10 and the reference image stored in the frame memory 7, the inter prediction unit 9 generates a prediction image by inter-frame prediction (motion compensation prediction). Generate. The inter prediction unit 9 performs inter-frame prediction using a block having a size specified by the sign key control unit 10 and using a plurality of reference images specified by the sign key control unit 10.
[0012] 符号ィ匕制御部 10は、フレーム内予測とフレーム間予測とのうち何れの予測方法に より予測画像を生成するかを判定し、判定された予測方法に応じた各種符号化パラ メータを決定する。フレーム内予測を行う場合の符号ィ匕パラメータには、フレーム内 予測における予測モードを指定する情報が含まれる。また、フレーム間予測を行う場 合の符号ィ匕パラメータには、動きベクトル、ブロックサイズ、および、参照画像を指定 する情報が含まれる。さらに、符号ィ匕制御部 10は、量子化部 2と逆量子化部 4とに対 して量子化パラメータを指定する。  [0012] The code control unit 10 determines which prediction method to generate a prediction image of intra-frame prediction and inter-frame prediction, and various encoding parameters according to the determined prediction method. To decide. The code parameter when performing intra-frame prediction includes information specifying a prediction mode in intra-frame prediction. In addition, the code parameter when performing inter-frame prediction includes information specifying a motion vector, a block size, and a reference image. Further, the sign key control unit 10 designates quantization parameters for the quantization unit 2 and the inverse quantization unit 4.
[0013] 次に、図 11に示した動画像符号ィ匕装置 100の符号ィ匕動作について説明する。概 略的に言えば、動画像符号ィ匕装置 100は、以下のステップ 1〜6を繰り返すことにより 、動画像の符号化を行う。  Next, the code key operation of moving picture code key device 100 shown in FIG. 11 will be described. Generally speaking, the moving image coding apparatus 100 encodes a moving image by repeating the following steps 1 to 6.
[0014] (ステップ 1) 符号ィ匕制御部 10力 フレーム内予測を行うかフレーム間予測を行う かを判定し、符号ィ匕に必要な符号ィ匕パラメータおよび量子化パラメータを決定する。  (Step 1) Code Key Control Unit 10 Determines whether intra-frame prediction or inter-frame prediction is performed, and determines the code key parameters and quantization parameters necessary for the code key.
[0015] (ステップ 2) ステップ 1における判定結果に応じて、イントラ予測部 8またはインタ 一予測部 9が、フレームメモリ 7に蓄積された参照画像を基に予測画像を生成する。  (Step 2) In accordance with the determination result in Step 1, the intra prediction unit 8 or the inter prediction unit 9 generates a predicted image based on the reference image stored in the frame memory 7.
[0016] (ステップ 3) ステップ 2にて生成された予測画像と入力された原画像との差分画像 が生成され、 DCT部 1に供給される。  (Step 3) A difference image between the predicted image generated in Step 2 and the input original image is generated and supplied to the DCT unit 1.
[0017] (ステップ 4) DCT部 1と量子化部 2とが、ステップ 3にて得られた差分画像の画像信 号をブロック毎に直交変換し、得られた変換係数を量子化する。得られた量子化代 表値は、可変長符号化部 3により可変長符号化されて、符号化データとして出力され る。  (Step 4) The DCT unit 1 and the quantization unit 2 orthogonally transform the image signal of the difference image obtained in step 3 for each block, and quantize the obtained transform coefficients. The obtained quantization representative value is variable-length encoded by the variable-length encoding unit 3 and output as encoded data.
[0018] (ステップ 5) 逆量子化部 4と IDCT部 5とが、ステップ 4にて得られた量子化代表値 を逆量子化して差分画像を復元する。  (Step 5) The inverse quantization unit 4 and the IDCT unit 5 dequantize the quantized representative value obtained in step 4 to restore the difference image.
[0019] (ステップ 6) ステップ 5にて復元された差分画像とステップ 2にて生成された予測 画像とが加算され、得られた局所復号画像がデブロッキングフィルタ処理部 6に供給 される。 [0019] (Step 6) The difference image restored in Step 5 and the prediction generated in Step 2 The images are added to each other, and the obtained locally decoded image is supplied to the deblocking filter processing unit 6.
[0020] (ステップ 7) デブロッキングフィルタ処理部 6により、ステップ 6にて得られた局所復 号画像力 ブロック歪が除去され、ブロック歪が低減された局所復号画像がフレーム メモリ 7に参照画像として蓄積される。  [0020] (Step 7) The local decoding image power block distortion obtained in Step 6 is removed by the deblocking filter processing unit 6 and the local decoded image with reduced block distortion is stored in the frame memory 7 as a reference image. Accumulated.
[0021] 〔従来の動画像復号装置の構成〕  [Configuration of Conventional Video Decoding Device]
次に、 H. 264ZAVC動画像符号化方式により符号化された動画像を復号する動 画像復号装置 200について、図 12に基づいて説明する。図 12に示したように、動画 像復号装置 200は、逆量子化部 4、 IDCT部 5、デブロッキングフィルタ処理部 6、フ レームメモリ 7、イントラ予測部 8、インター予測部 9、および、可変長復号部 20を備え ている。  Next, a video decoding device 200 that decodes a video encoded by the H.264ZAVC video encoding method will be described with reference to FIG. As shown in FIG. 12, the moving image decoding apparatus 200 includes an inverse quantization unit 4, an IDCT unit 5, a deblocking filter processing unit 6, a frame memory 7, an intra prediction unit 8, an inter prediction unit 9, and a variable A long decoding unit 20 is provided.
[0022] ここで、動画像復号装置 200を構成する機能ブロックのうち、上述した動画像符号 化装置 100 (図 11)にない機能ブロックは、可変長復号部 20のみである。動画像符 号ィ匕装置 100と同一機能を有するブロックについては、名称および符号を同一とし 説明を省略する。可変長復号部 20は、符号化パラメータおよび量子化代表値 (量子 ィ匕された変換係数)を可変長復号する機能を有して 、る。  [0022] Here, among the functional blocks constituting the moving picture decoding apparatus 200, the variable length decoding section 20 is the only functional block that does not exist in the moving picture encoding apparatus 100 (FIG. 11). Blocks having the same functions as those of the moving image code display device 100 have the same names and reference numerals and description thereof is omitted. The variable length decoding unit 20 has a function of variable length decoding the encoding parameter and the quantized representative value (quantized transform coefficient).
[0023] 図 12に示した動画像復号装置 200は、概略的に言えば、以下のステップ 1〜6を 繰り返すことにより、符号化データを復号する。 [0023] Generally speaking, the moving picture decoding apparatus 200 shown in Fig. 12 decodes encoded data by repeating the following steps 1 to 6.
[0024] (ステップ 1) 可変長復号部 20が、符号化データを可変長復号し、符号化パラメ一 タと量子化代表値 (量子化された変換係数)とを得る。 (Step 1) The variable length decoding unit 20 performs variable length decoding on the encoded data to obtain an encoding parameter and a quantized representative value (quantized transform coefficient).
[0025] (ステップ 2) 復号された符号ィ匕パラメータに従い、イントラ予測部 8またはインター 予測部 9が、フレームメモリ 7に蓄積された参照画像を基に予測画像を生成する。 (Step 2) In accordance with the decoded code parameter, the intra prediction unit 8 or the inter prediction unit 9 generates a prediction image based on the reference image stored in the frame memory 7.
[0026] (ステップ 3) 逆量子化部 4と IDCT部 5とが、ステップ 1にて得られた量子化代表値 を逆量子化して差分画像を復元する。 (Step 3) The inverse quantization unit 4 and the IDCT unit 5 dequantize the quantized representative value obtained in step 1 to restore the difference image.
[0027] (ステップ 4) ステップ 3にて復元された差分画像とステップ 2にて生成された予測 画像とが加算され、得られた復号画像がデブロッキングフィルタ処理部 6に供給され る。 (Step 4) The difference image restored in Step 3 and the predicted image generated in Step 2 are added, and the obtained decoded image is supplied to the deblocking filter processing unit 6.
[0028] (ステップ 5) デブロッキングフィルタ処理部 6により、ステップ 4にて得られた復号画 像力 ブロック歪が除去され、ブロック歪が低減された復号画像がフレームメモリ 7に 蓄積される。フレームメモリ 7に蓄積された復号画像は、任意のタイミングで読み出し て参照画像ある!ヽは表示用画像として利用され得る。 [0028] (Step 5) The decoded image obtained in step 4 by the deblocking filter processing unit 6 Image force Block distortion is removed, and a decoded image with reduced block distortion is stored in the frame memory 7. The decoded image stored in the frame memory 7 can be read at an arbitrary timing and used as a display image.
[0029] (ステップ 6) フレームメモリに蓄積された復号画像が表示用画像として適切なタイ ミングでディスプレイ等の画像映出手段に出力される。 [0029] (Step 6) The decoded image stored in the frame memory is output to an image display means such as a display at an appropriate timing as a display image.
〔デブロッキングフィルタ〕  [Deblocking filter]
上述した通り、 H. 264ZAVC動画像符号化方式では、動画像符号化装置 100お よび動画像復号装置 200の双方にお 、て、共通のデブロッキングフィルタ処理部 6を 用いることにより、動画像の量子化 ·逆量子化過程で発生するブロック歪を低減して いる。以下、このデブロッキングフィルタ処理部 6について、図 13〜図 15を参照しな がら、もう少し詳しく説明する。  As described above, in the H.264ZAVC moving image encoding method, by using the common deblocking filter processing unit 6 in both the moving image encoding device 100 and the moving image decoding device 200, the moving image is encoded. Quantization · Block distortion generated in the inverse quantization process is reduced. Hereinafter, the deblocking filter processing unit 6 will be described in more detail with reference to FIGS.
[0030] 図 13は、 H. 264ZAVC動画像符号化方式による動画像の符号化処理における 、量子化対象画像 (原画像と予測画像との差分画像)のブロック分割パターンを示す 説明図である。図 13に示したように、量子化対象画像は、 WX H個の矩形状のプロ ックに分割される。 WX H個のブロックには、量子化対象画像の左上端から順に B〜 FIG. 13 is an explanatory diagram showing a block division pattern of a quantization target image (difference image between an original image and a predicted image) in a moving image encoding process using the H.264ZAVC moving image encoding method. As shown in FIG. 13, the quantization target image is divided into WX H rectangular blocks. WX H blocks include B ~ in order from the upper left corner of the image to be quantized.
0 0
B の B's
WXH- 1 符号を付している。  WXH-1 code is attached.
[0031] 図 14は、図 13に示した量子化対象画像中の隣接する 2つのブロック、ブロック Bと ブロック B とを示す図である。図 14に示したように、ブロック Bおよびブロック B  FIG. 14 is a diagram showing two adjacent blocks, block B and block B, in the quantization target image shown in FIG. As shown in Figure 14, Block B and Block B
n+ l n n+ 1 は、それぞれ 4行 4列に配列された計 16個の画素カゝら構成されている。図 13の符号 化対象画像を構成する全てのブロック B〜B は、ブロック Bと同様、 4行 4列に  n + l n n + 1 is composed of a total of 16 pixel arrays arranged in 4 rows and 4 columns. As with block B, all blocks B to B that make up the image to be encoded in Fig. 13 are arranged in 4 rows and 4 columns.
0 WXH- 1 n  0 WXH- 1 n
配列された 16画素カゝら構成されている。  It consists of an array of 16 pixels.
[0032] 量子化対象画像を構成する画素は、該画素を含むブロックを特定する変数 nと、こ のブロック中で該画素の位置を特定する変数 u、 Vとの組み合わせ (nu、 v)で指定 することができる。すなわち、画素(n、 u、 v)は、ブロック Bの u列目 V行目の画素であ る。また、以下の説明において、画素(n、 u、 v)の属性値を X(n、 u、 v)のように表記 する。例えば、符号化対象画像における画素 (n、 u、 v)の画素値は P (n、 u、 v)のよう に表記する。 [0032] A pixel constituting the quantization target image is a combination of a variable n for specifying a block including the pixel and variables u and V for specifying the position of the pixel in the block ( n , u , v ) Can be specified. That is, the pixel (n, u, v) is the pixel in the u-th column and the V-th row of the block B. In the following description, the attribute value of the pixel (n, u, v) is expressed as X (n, u, v). For example, the pixel value of the pixel (n, u, v) in the encoding target image is expressed as P (n, u, v).
[0033] 図 13および図 14に示したブロック B〜B 力 動画像の符号ィ匕における直交 変換 '量子化'逆量子化'逆直交変換の一連の処理の処理単位となる。すなわち、量 子化対象画像の画像データは、ブロック B〜B 毎に変換係数に変換されて量 [0033] Blocks B to B shown in FIG. 13 and FIG. Transformation 'Quantization' Dequantization 'Inverse orthogonal transformation is a processing unit of a series of processing. In other words, the image data of the quantization target image is converted into a conversion coefficient for each of the blocks B to B, and the amount is converted.
0 WXH- 1  0 WXH- 1
子化される。  It becomes a child.
[0034] し力しながら、量子化は非可逆的な過程であるため、逆量子化'逆直交変換により 量子化対象画像を復元したとしても、復元された画像は符号化対象画像とは一致せ ず、復元された画像における隣接ブロック間の境界にはブロック歪が発生する。この ブロック歪を低減するのがデブロッキングフィルタ処理部 6である。  [0034] However, since quantization is an irreversible process, even if the image to be quantized is restored by inverse quantization and inverse orthogonal transformation, the restored image matches the image to be encoded. Instead, block distortion occurs at the boundary between adjacent blocks in the restored image. The deblocking filter processing unit 6 reduces this block distortion.
[0035] H. 264ZAVC動画像符号ィ匕方式で用いられるデブロッキングフィルタ処理部 6は 、水平方向に隣接するブロック(B、 B )間のフィルタ処理、および、垂直方向に隣 n n+ 1  [0035] The deblocking filter processing unit 6 used in the H.264ZAVC moving image encoding method uses filtering between adjacent blocks (B, B) in the horizontal direction and adjacent n n + 1 in the vertical direction.
接するブロック(B、 B )間のフィルタ処理をぞれぞれ独立に行う。また、デブロッキ n n+W  Filter processing between adjacent blocks (B, B) is performed independently. Deblocky n n + W
ングフィルタ処理部 6が行うフィルタ処理のフィルタ強度は、各ブロックに適用された 予測モード等の条件に応じて、適応的に設定される。  The filter strength of the filter processing performed by the filtering filter processing unit 6 is adaptively set according to conditions such as the prediction mode applied to each block.
[0036] デブロッキングフィルタ処理部 6が行うフィルタ処理の一例として、水平方向に隣接 するブロック Bとブロック B とに対する、最も強いフィルタ強度でのフィルタ処理演 n n+ 1 [0036] As an example of the filter processing performed by the deblocking filter processing unit 6, the filter processing performance with the strongest filter strength for the blocks B and B adjacent in the horizontal direction n n + 1
算を以下に示す。なお、以下の各式において、 P (n、 u、 v)はデブロッキングフィルタ 処理の処理対象画像 (動画像符号化装置 100における局所復号画像、あるいは、動 画像復号装置 200における復号画像)における画素 (n、 u、 v)の画素値、 P' (n、 u、 v)はデブロッキングフィルタ処理部 6が出力するフィルタ出力画像における画素(n、 u、 v)の画素値を表す。  The calculation is shown below. In the following equations, P (n, u, v) is a pixel in the processing target image (local decoded image in the moving image encoding device 100 or decoded image in the moving image decoding device 200) of the deblocking filter processing. The pixel value (n, u, v) and P ′ (n, u, v) represent the pixel value of the pixel (n, u, v) in the filter output image output from the deblocking filter processing unit 6.
[0037] [数 1] [0037] [Equation 1]
P' (n,0,v) = P(n,0,v) P '(n, 0, v) = P (n, 0, v)
[0038] [数 2] [0038] [Equation 2]
P' 0,1, V) =丄 ί2Ρ(η,0, ν) + 3Ρ( ,1, ν) + Ρ{η,2, ν) + Ρ(η,3, ν) + Ρ(η + 1,0, ν)} P '0,1, V) = 丄 ί2Ρ (η, 0, ν) + 3Ρ (, 1, ν) + Ρ {η, 2, ν) + Ρ (η, 3, ν) + Ρ (η + 1 , 0, ν)}
[0039] [数 3] P' (n,2, v) = - {P(n, v) + P(n,2, v) + («,3, v) + P(n + 1,0, v)} [0039] [Equation 3] P '(n, 2, v) =-{P (n, v) + P (n, 2, v) + («, 3, v) + P (n + 1,0, v)}
[0040] [数 4] [0040] [Equation 4]
P' (",3, v) =丄 {P(n,l, v) + 2P(n,2, v) + 2P{n,3, v) + 2P{n + 1,0, v) + P n + 1,1, )} P '(", 3, v) = 丄 (P (n, l, v) + 2P (n, 2, v) + 2P (n, 3, v) + 2P (n + 1,0, v) + P n + 1,1,)}
8  8
[0041] [数 5] [0041] [Equation 5]
P' (n + 1,0, v) =丄 {P(n,2,v) + 2P(n,3, v) + 2P(n + 1,0, v) + 2P(n + 1,1, v) + P(n + l,2, v)} - 8 P '(n + 1,0, v) = 丄 (P (n, 2, v) + 2P (n, 3, v) + 2P (n + 1,0, v) + 2P (n + 1,1 , v) + P (n + l, 2, v)}-8
[0042] 園 ' (n + 1,1, v) = - {P(n,3, v) + P(n + 1,0, v) + P(n + 1,1, v) + P(n + 1,2, v)} [0042] Garden '(n + 1,1, v) =-(P (n, 3, v) + P (n + 1,0, v) + P (n + 1,1, v) + P ( n + 1,2, v)}
[0043] [数 7] [0043] [Equation 7]
P' (n + l,2,v) = - {P(n,3, v) + P(n + l,0,v) + P(n + 1,1, v) + 3P(n + 1,2, v) + 2P(n + 1,3, v)} P '(n + l, 2, v) =-(P (n, 3, v) + P (n + l, 0, v) + P (n + 1,1, v) + 3P (n + 1 , 2, v) + 2P (n + 1,3, v)}
8  8
[0044] [数 8] [0044] [Equation 8]
P' (n + l,3,v) = P(n + l,3,v) P '(n + l, 3, v) = P (n + l, 3, v)
[0045] なお詳細な説明は省略するが、同様のフィルタ処理が垂直方向の隣接ブロック間 に対しても適用される。 [0045] Although detailed description is omitted, the same filter processing is applied to adjacent blocks in the vertical direction.
[0046] 上記フィルタ処理の処理対象画像に対する作用を、図 15 (a)〜(c)に示す。図 15 ( a)は、ブロック Bとブロック B とにおける、原画像の画素値 p (n、 u、 v)を表すグラフ n n+ 1  [0046] The effects of the filter processing on the processing target image are shown in FIGS. Figure 15 (a) is a graph n n + 1 representing the pixel values p (n, u, v) of the original image in block B and block B.
である。図 15 (b)は、ブロック Bとブロック B とにおける、デブロッキングフィルタ処 n n+ 1  It is. Figure 15 (b) shows the deblocking filter processing n n + 1 for block B and block B.
理部 6の処理対象となる復号画像の画素値 P (n、 u、 v)を表すグラフである。図 15 (b )に示すように、復号画像においては、ブロック境界における画素値の不連続な変化 、すなわち、ブロック歪が発生している。図 15 (c)は、復号画像にデブロッキングフィ ルタ 6によるフィルタリング処理を施した後の画像の、ブロック Bとブロック B とにお 7 is a graph showing pixel values P (n, u, v) of a decoded image to be processed by the processing unit 6. As shown in FIG. 15 (b), in the decoded image, discontinuous changes in pixel values at the block boundary, that is, block distortion occurs. Figure 15 (c) shows the deblocking pattern on the decoded image. Block B and Block B of the image after filtering by filter 6
n n+ 1 ける画素値 (nu、 v)を表すグラフである。デブロッキングフィルタ 6により隣接ブロ ック間に渡る画素値の畳み込みが行われるため、復元された符号ィ匕対象画像におけ る画素値の不連続な変化は平滑ィ匕され、ブロック歪は低減される。 It is a graph showing pixel values ( n , u , v) in n n + 1. Since the deblocking filter 6 convolves pixel values between adjacent blocks, discontinuous changes in pixel values in the restored target image are smoothed, and block distortion is reduced. The
非特干文献 1 : ITU- T Recommendation H.2b4: Advanced Video Coding for generic audiovisual services (2003)  Non-Patent Literature 1: ITU-T Recommendation H.2b4: Advanced Video Coding for generic audiovisual services (2003)
発明の開示  Disclosure of the invention
[0047] し力しながら、上記従来の動画像符号化装置においては、デブロッキングフィルタ によってブロック歪みを低減した副作用として、画像のボケ、あるいは、動画再生時の 画像のチラツキといったブロック歪とは別の画質劣化が発生してしまうという問題があ つた o  However, in the above-described conventional video encoding device, as a side effect of reducing the block distortion by the deblocking filter, it is different from the block distortion such as blurring of the image or flickering of the image at the time of moving image reproduction. There is a problem that image quality degradation occurs.
[0048] デブロッキングフィルタの副作用につ 、て、以下、もう少し詳しく説明する。上述した 式(1)〜(8)から明らかなように、フィルタ処理対象画像の画素値を P (n、 u、 v)とする と、フィルタ処理前のブロック Bの平均画素値く P〉と、フィルタ処理後のブロック Bの 平均画素値く 〉とは、それぞれ以下の式で与えられる。  [0048] The side effects of the deblocking filter will be described in more detail below. As is clear from the equations (1) to (8) described above, if the pixel value of the image to be filtered is P (n, u, v), the average pixel value of the block B before filtering is P> The average pixel value of block B after filtering is given by the following equations.
[0049] [数 9]
Figure imgf000010_0001
[0049] [Equation 9]
Figure imgf000010_0001
[0050] [数 10] [0050] [Equation 10]
10P(«,0, v) + 6P(n,l, v) + 6P(n,2, v) + 10尸 (《,3, v)10P («, 0, v) + 6P (n, l, v) + 6P (n, 2, v) + 10 尸 (<<, 3, v)
Figure imgf000010_0002
+ 10 O + 1,0, v) + 6P(n + 1,1, v) + 6P(n + 1,2, v) + 10P(n + 1,3, v)
Figure imgf000010_0002
+ 10 O + 1,0, v) + 6P (n + 1,1, v) + 6P (n + 1,2, v) + 10P (n + 1,3, v)
[0051] すなわち、フィルタ処理の前後で、各ブロックにおける平均画素値は異なる。従って 、従来のデブロッキングフィルタを用いた場合、フィルタ処理の前後で各ブロックにお ける平均画素値が保存されな ヽので、フィルタ処理により原画像と復号画像との平均 画素値の差が拡大され得る。 That is, the average pixel value in each block is different before and after the filter processing. Therefore, when the conventional deblocking filter is used, the average pixel value in each block is not saved before and after the filtering process, so that the difference in the average pixel value between the original image and the decoded image is enlarged by the filtering process. obtain.
[0052] そうすると、動画像符号化装置にお!、ては、原画像に対して平均画素値の差を有 する局所復号画像を参照画像として予測画像が生成されることになる。また、動画像 復号装置においては、原画像に対して平均画素値差を有する復号画像が参照画像 あるいは表示用画像として生成されることになる。このため、動画像における画像の ボケやちらつきが生ずることになる。 [0052] Then, the moving image encoding apparatus has a difference in average pixel values from the original image. A predicted image is generated using the locally decoded image to be used as a reference image. In the moving image decoding apparatus, a decoded image having an average pixel value difference with respect to the original image is generated as a reference image or a display image. For this reason, blurring or flickering of the moving image occurs.
[0053] 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、復号された動 画像におけるブロック歪を低減でき、また、画像のボケやちらつきといった副作用を 生じることのない動画像符号ィ匕装置および動画像復号装置を実現することにある。  [0053] The present invention has been made in view of the above-described problems, and an object of the present invention is to reduce block distortion in a decoded moving image and to prevent side effects such as blurring and flickering of the image. An object is to realize a moving image encoding device and a moving image decoding device.
[0054] 本発明に係る動画像符号ィ匕装置は、上記課題を解決するために、画像を複数のブ ロックに分割して各ブロックの画像データを量子化し、該量子化により得られた量子 化代表値を符号化する動画像符号化装置において、上記量子化前の画像データに 対し、ブロック歪を発生させる周波数成分を除去するフィルタ処理を施すフィルタ処 理手段を備えたことを特徴として 、る。  [0054] In order to solve the above-described problem, the video encoding apparatus according to the present invention divides an image into a plurality of blocks, quantizes the image data of each block, and obtains a quantum obtained by the quantization. In the moving picture encoding apparatus for encoding the representative representative value, the apparatus includes a filter processing means for performing a filter process for removing a frequency component that generates block distortion on the image data before quantization. The
[0055] 上記フィルタ処理手段は、上記量子化前の画像データから、ブロック歪を発生させ る周波数成分を除去する。このため、上記量子化の対象となる量子化対象画像は、 ブロック歪を発生させる周波数成分が予め除去されたものとなる。従って、上記フィル タ処理手段によるフィルタ処理が施された量子化対象画像を量子化 ·逆量子化して 得られる復号画像は、ブロック歪が低減されたものとなる。しカゝも、上記フィルタ処理 手段により予め除去された周波数成分は、上記フィルタ処理手段のフィルタ処理の 逆変換に相当する逆フィルタ処理により、復元することが可能である。  [0055] The filter processing means removes a frequency component that generates block distortion from the image data before quantization. For this reason, the quantization target image to be quantized is one in which frequency components that generate block distortion have been removed in advance. Therefore, a decoded image obtained by quantizing / inverse-quantizing the quantization target image subjected to the filtering process by the filter processing unit has a reduced block distortion. However, the frequency component previously removed by the filter processing means can be restored by inverse filter processing corresponding to the inverse transformation of the filter processing of the filter processing means.
[0056] すなわち、上記の構成を有する動画像符号ィ匕装置は、ブロック歪が低減された復 号画像を、特定の周波数成分を欠落させることなく復元し得る符号化データを生成 することができると!/、う効果を奏する。  That is, the moving picture coding apparatus having the above-described configuration can generate coded data that can restore a decoded picture with reduced block distortion without missing a specific frequency component. And! /, Has the effect.
[0057] 本発明の動画像符号ィ匕装置においては、上記フィルタ処理手段が行うフィルタ処 理は、上記各ブロックの平均画素値を処理の前後で不変に保つものである、ことが好 ましい。  [0057] In the video image encoding apparatus of the present invention, it is preferable that the filter processing performed by the filter processing means is to keep the average pixel value of each block unchanged before and after the processing. .
[0058] 上記の構成によれば、上記フィルタ処理手段によるフィルタ処理は、上記各ブロック の平均画素値 (例えば、平均輝度レベル)を不変に保つように行われる。このため、 従来のデブロッキングフィルタを用いた動画像符号ィ匕装置にぉ 、て発生して 、た、フ ィルタ処理前後でブロック毎の平均画素値が保存されないことに起因する画面のボ ケゃチラツキを有効に防止することができるという更なる効果を奏する。 [0058] According to the above configuration, the filter processing by the filter processing means is performed so as to keep the average pixel value (for example, average luminance level) of each block unchanged. For this reason, the conventional video coding apparatus using a deblocking filter has been There is an additional effect that it is possible to effectively prevent screen blurring caused by the fact that the average pixel value for each block is not stored before and after the filter processing.
[0059] 本発明の動画像符号ィヒ装置にお!ヽては、予測画像を生成する予測画像生成手段 と、局所復号画像に対し、上記フィルタ処理の逆変換に相当する逆フィルタ処理を行 う逆フィルタ処理手段とを更に備え、上記予測画像生成手段は、上記逆フィルタ処理 が施された局所復号画像を参照画像として上記予測画像を生成すること、が好まし い。 [0059] In the moving picture coding apparatus of the present invention, a predicted image generating means for generating a predicted image and an inverse filter process corresponding to the inverse transform of the filter process are performed on the locally decoded image. It is preferable that the prediction image generation unit further includes a reverse filter processing unit, and the prediction image generation unit generates the prediction image using the locally decoded image subjected to the reverse filter processing as a reference image.
[0060] 上記の構成によれば、予測画像生成手段は、上記逆フィルタ処理が施された局所 復号画像を参照画像として予測画像を生成することができる。すなわち、予測画像生 成手段は、ブロック歪が低減され、かつ、特定の周波数成分が欠落することのない参 照画像、すなわち、原画像に近似する参照画像に基づいて予測画像を生成すること ができるという効果を奏する。  [0060] According to the above configuration, the predicted image generation means can generate a predicted image using the local decoded image subjected to the inverse filter process as a reference image. In other words, the predicted image generation means may generate a predicted image based on a reference image in which block distortion is reduced and a specific frequency component is not lost, that is, a reference image that approximates the original image. There is an effect that can be done.
[0061] なお、上記予測画像生成手段が予測画像を生成する方法としては、フレーム内予 測、あるいは、フレーム間予測等を用いることができる。また、上記予測画像生成手 段は、これらの予測方法を、符号化の対象となる画像の状態に応じて適宜切り替え て用いるものであっても良 、。  [0061] As a method for the predicted image generating means to generate a predicted image, intra-frame prediction, inter-frame prediction, or the like can be used. Further, the predicted image generation means may use these prediction methods by appropriately switching these prediction methods according to the state of the image to be encoded.
[0062] なお、上記逆フィルタ処理手段が施す逆フィルタ処理は、上記フィルタ処理手段の フィルタ処理に対し、厳密な逆変換に相当するものであっても良いし、近似的な逆変 換に相当するものであっても良い。すなわち、上記逆フィルタ処理は、最終的な動画 像の品質に悪影響を与えない範囲で厳密な逆変換を近似するものであれば十分で あり、例えば、フィルタ処理演算の演算精度 (例えば整数精度)程度の誤差は許容さ れる。  [0062] Note that the inverse filter processing performed by the inverse filter processing means may correspond to a strict inverse transformation or an approximate inverse transformation with respect to the filter processing of the filter processing means. It may be what you do. In other words, the inverse filtering process is sufficient if it approximates a strict inverse transform within a range that does not adversely affect the quality of the final moving image. For example, the calculation accuracy of the filtering process (for example, integer precision) A degree of error is acceptable.
[0063] 本発明の動画像符号化装置においては、上記量子化の対象となる量子化対象画 像は、上記予測画像と上記フィルタ処理が施された原画像との差分画像であり、上 記局所復号画像は、当該動画像符号化装置にお!ヽて上記量子化代表値を逆量子 化して得られた画像データと上記予測画像の画像データとを加算して得られる画像 である、ことが好ましい。  [0063] In the video encoding device of the present invention, the quantization target image to be quantized is a difference image between the predicted image and the original image subjected to the filtering process. The local decoded image is an image obtained by adding the image data obtained by inversely quantizing the quantized representative value to the moving image coding apparatus and the image data of the predicted image. Is preferred.
[0064] 上記構成によれば、原画像が上記フィルタ処理の処理対象画像となり、上記フィル タ処理が施された原画像と予測画像との差分画像が量子化対象画像となる。そして 、当該量子化対象画像を量子化して得られた量子化代表値を逆量子化して得られる 画像データと上記予測画像の画像データとを加算して得られる局所復号画像が上記 逆フィルタ処理の対象となり、上記逆フィルタ処理を施された局所復号画像が予測画 像を生成するための参照画像とされる。従って、上記構成によれば、予測画像生成 手段は、原画像をより良く近似する参照画像に基づいて予測画像を生成することが できる。 [0064] According to the above configuration, the original image becomes a processing target image of the filter processing, and the filter The difference image between the original image subjected to the data processing and the predicted image becomes the quantization target image. Then, the local decoded image obtained by adding the image data obtained by dequantizing the quantized representative value obtained by quantizing the quantization target image and the image data of the predicted image is the result of the inverse filter processing. The local decoded image subjected to the above inverse filter processing is used as a reference image for generating a predicted image. Therefore, according to the above configuration, the predicted image generating means can generate a predicted image based on the reference image that better approximates the original image.
[0065] 本発明の動画像符号化装置においては、上記量子化の対象となる量子化対象画 像は、上記予測画像と原画像との差分画像に上記フィルタ処理が施されたものであ り、上記局所復号画像は、当該動画像符号化装置において上記量子化代表値を逆 量子化して得られた画像データと上記予測画像の画像データとを加算して得られる 画像であること、が好ましい。  [0065] In the video encoding device of the present invention, the quantization target image to be quantized is obtained by performing the filtering process on a difference image between the predicted image and the original image. The locally decoded image is preferably an image obtained by adding the image data obtained by dequantizing the quantized representative value and the image data of the predicted image in the moving image coding apparatus. .
[0066] 上記構成によれば、予測画像と原画像との差分画像が上記フィルタ処理の対象と なり、フィルタ処理が施された当該差分画像が量子化の対象となる。一方、当該量子 化対象画像を量子化して得られた量子化代表値を逆量子化して得られる画像デー タと上記予測画像の画像データとを加算して得られる局所復号画像が上記逆フィル タ処理の対象となり、上記逆フィルタ処理を施された局所復号画像が予測画像を生 成するための参照画像とされる。従って、上記構成によれば、予測画像生成手段は、 原画像をより良く近似する参照画像に基づ ヽて予測画像を生成することができる。  [0066] According to the above configuration, the difference image between the predicted image and the original image is the target of the filtering process, and the difference image subjected to the filtering process is the target of quantization. On the other hand, a local decoded image obtained by adding the image data obtained by dequantizing the quantization representative value obtained by quantizing the quantization target image and the image data of the predicted image is the inverse filter. The locally decoded image that has been subjected to the processing and subjected to the inverse filter processing is used as a reference image for generating a predicted image. Therefore, according to the above configuration, the predicted image generation means can generate a predicted image based on the reference image that better approximates the original image.
[0067] 本発明の動画像符号化装置においては、上記フィルタ処理手段は、上記フィルタ 処理の対象となる処理対象画像の画像データから減算する画素値を、上記予測画 像の画像データ力 算出するものであり、上記逆フィルタ処理手段は、上記逆フィル タ処理の対象となる処理対象画像の画像データに加算する画素値を、上記フィルタ 処理手段と同一の方法で上記予測画像の画像データ力 算出するものである、こと が好ましい。  [0067] In the video encoding device of the present invention, the filter processing means calculates a pixel value to be subtracted from the image data of the processing target image that is the target of the filtering process, as an image data force of the predicted image. The inverse filter processing means calculates a pixel value to be added to the image data of the processing target image to be subjected to the inverse filtering process by calculating the image data force of the predicted image by the same method as the filter processing means. It is preferable that
[0068] 上記の構成によれば、上記フィルタ処理手段が処理対象画像の画像データから減 算する画素値と、上記逆フィルタ処理手段が処理対象画像の画像データに加算する 画素値とは、同一の予測画像から同一の方法により算出される。従って、上記フィル タ処理手段が処理対象画像から除去したブロック歪を発生させる周波数成分を、上 記逆フィルタ処理手段はより完全に復元できる。 [0068] According to the above configuration, the pixel value that the filter processing unit subtracts from the image data of the processing target image and the pixel value that the inverse filter processing unit adds to the image data of the processing target image are the same. Is calculated from the predicted image by the same method. Therefore, the above fill The inverse filter processing means can restore the frequency component that generates block distortion removed from the processing target image by the data processing means more completely.
[0069] 本発明に係る動画像復号装置は、上記の課題を解決するために、ブロック歪を発 生させる周波数成分が除去された画像データを符号化して得られた符号化データを 復号する動画像復号装置であって、復号して得られた復号画像の画像データに対し 、上記除去された周波数成分を復元する逆フィルタ処理を施す逆フィルタ処理手段 を備えたことを特徴として!/ヽる。  [0069] In order to solve the above-described problem, the moving image decoding apparatus according to the present invention decodes encoded data obtained by encoding image data from which frequency components that generate block distortion are removed. An image decoding apparatus, comprising: inverse filter processing means for performing inverse filter processing for restoring the removed frequency component on the image data of a decoded image obtained by decoding! / Speak.
[0070] 上記動画像復号装置は、ブロック歪を発生させる周波数成分が予め除去された画 像データを符号化して得られた符号化データを復号する。ここで、符号化データは、 予めブロック歪を発生させる周波数成分が除去されたものであるので、復号して得ら れる復号画像におけるブロック歪は抑えられている。そして、復号して得られた復号 画像は、上記逆フィルタ処理手段により、符号化の過程で除去された周波数成分を 復元される。従って、上記逆フィルタ処理を復号画像は、ブロック歪が低減され、かつ 、特定の周波数成分が欠落することのない画像、すなわち原画像をより良く近似する 画像となる。  [0070] The moving image decoding apparatus decodes encoded data obtained by encoding image data from which a frequency component causing block distortion has been removed in advance. Here, since the encoded data is obtained by removing frequency components that generate block distortion in advance, block distortion in a decoded image obtained by decoding is suppressed. The decoded image obtained by decoding restores the frequency component removed in the encoding process by the inverse filter processing means. Therefore, a decoded image obtained by performing the inverse filter processing is an image in which block distortion is reduced and a specific frequency component is not lost, that is, an image that better approximates the original image.
[0071] すなわち、上記の構成を有する動画像符号ィ匕装置は、ブロック歪が低減された復 号画像を、特定の周波数成分を欠落させることなく復元することができるという効果を 奏する。  That is, the moving picture coding apparatus having the above configuration has an effect of being able to restore a decoded picture with reduced block distortion without losing a specific frequency component.
[0072] 本発明の他の目的、特徴、および優れた点は、以下に示す記載によって十分分か るであろう。また、本発明の利点は、添付図面を参照した次の説明で明白になるであ ろう。  [0072] Other objects, features, and advantages of the present invention will be sufficiently understood from the following description. The advantages of the present invention will be apparent from the following description with reference to the accompanying drawings.
図面の簡単な説明  Brief Description of Drawings
[0073] [図 1]本発明の一実施の形態に係る動画像符号化装置の構成を示す機能ブロック図 である。  FIG. 1 is a functional block diagram showing a configuration of a moving picture encoding apparatus according to an embodiment of the present invention.
[図 2]本発明の一実施の形態に係る動画像復号装置の構成を示す機能ブロック図で ある。  FIG. 2 is a functional block diagram showing a configuration of a moving picture decoding apparatus according to an embodiment of the present invention.
[図 3]図 1に示した動画像符号ィ匕装置のフィルタ処理部による、フィルタ処理演算の 概要を示したフローチャートである。 [図 4(a)]図 3に示したフィルタ処理演算の作用を示すグラフであり、フィルタ処理の対 象となる処理対象画像の画素値を表すグラフである。 3 is a flowchart showing an outline of filter processing calculation by the filter processing unit of the video encoding device shown in FIG. 1. FIG. FIG. 4 (a) is a graph showing the effect of the filter processing operation shown in FIG. 3, and is a graph showing the pixel value of the processing target image to be subjected to the filter processing.
[図 4(b)]図 3に示したフィルタ処理演算の作用を示すグラフであり、処理対象画像の ブロック毎の平均画素値を表すグラフである。  [FIG. 4 (b)] is a graph showing the operation of the filter processing calculation shown in FIG.
[図 4(c)]図 3に示したフィルタ処理演算の作用を示すグラフであり、図 4 (b)に示した 平均画素値を用いた線型補間により得られた予測値を表すグラフである。  [FIG. 4 (c)] is a graph showing the operation of the filter processing operation shown in FIG. 3, and is a graph showing a predicted value obtained by linear interpolation using the average pixel value shown in FIG. 4 (b). .
[図 4(d)]図 3に示したフィルタ処理演算の作用を示すグラフであり、フィルタ出力画像 の画素値を表すグラフである。 [FIG. 4 (d)] is a graph showing the effect of the filter processing calculation shown in FIG. 3, and is a graph showing the pixel value of the filter output image.
圆 5]図 1に示した動画像符号ィ匕装置、および、図 2に示した動画像復号装置が備え ている逆フィルタ処理部による、逆フィルタ処理演算の概要を示したフローチャートで ある。 FIG. 5 is a flowchart showing an overview of the inverse filter processing calculation by the inverse filter processing unit included in the video encoding device shown in FIG. 1 and the video decoding device shown in FIG.
[図 6(a)]図 5に示した逆フィルタ処理演算の作用を示すグラフであり、逆フィルタ処理 の対象となる処理対象画像の画素値を表すグラフである。  FIG. 6 (a) is a graph showing the operation of the inverse filter processing operation shown in FIG. 5, and is a graph showing the pixel value of the processing target image to be subjected to the inverse filter processing.
[図 6(b)]図 5に示した逆フィルタ処理演算の作用を示すグラフであり、処理対象画像 のブロック毎の平均画素値を表すグラフである。  [FIG. 6 (b)] is a graph showing the operation of the inverse filter processing operation shown in FIG.
[図 6(c)]図 5に示した逆フィルタ処理演算の作用を示すグラフであり、図 6 (b)に示し た平均画素値を用いた線型補間により得られた予測値を表すグラフである。  [FIG. 6 (c)] is a graph showing the effect of the inverse filter processing operation shown in FIG. 5, and is a graph showing the predicted value obtained by linear interpolation using the average pixel value shown in FIG. 6 (b). is there.
[図 6(d)]図 5に示した逆フィルタ処理演算の作用を示すグラフであり、逆フィルタ出力 画像の画素値を表すグラフである。 [FIG. 6 (d)] is a graph showing the operation of the inverse filter processing calculation shown in FIG. 5, and is a graph showing the pixel value of the inverse filter output image.
圆 7]本発明の一実施の形態に係る動画像符号ィ匕装置の他の構成例を示す機能ブ ロック図である。 [7] FIG. 7 is a functional block diagram showing another configuration example of the video encoding device according to the embodiment of the present invention.
圆 8]本発明の一実施の形態に係る動画像復号装置の他の構成例を示すものであり 、図 7の動画像符号化装置に対応する動画像復号装置の構成を示す機能ブロック 図である。 8] Another example of the configuration of the video decoding device according to the embodiment of the present invention is shown, and is a functional block diagram showing the configuration of the video decoding device corresponding to the video encoding device of FIG. is there.
圆 9]本発明の一実施の形態に係る動画像符号ィ匕装置の他の構成例を示す機能ブ ロック図である。 [9] FIG. 9 is a functional block diagram showing another configuration example of the video encoding device according to the embodiment of the present invention.
圆 10]本発明の一実施の形態に係る動画像復号装置の他の構成例を示すものであ り、図 9の動画像符号ィ匕装置に対応する動画像復号装置の構成を示す機能ブロック 図である。 圆 10] Another example of the configuration of the video decoding device according to an embodiment of the present invention is shown, and a functional block showing the configuration of the video decoding device corresponding to the video encoding device of FIG. FIG.
[図 11]従来の技術を示すものであり、デブロッキングフィルタを備えた動画像符号ィ匕 装置の構成を示す機能ブロック図である。  [Fig. 11] Fig. 11 is a functional block diagram showing a conventional technique and showing a configuration of a moving picture coding apparatus provided with a deblocking filter.
圆 12]従来の技術を示すものであり、図 11に示した動画像符号化装置に対応する動 画像復号装置の構成を示す機能ブロック図である。 FIG. 12 is a functional block diagram showing a conventional technique and showing a configuration of a video decoding device corresponding to the video encoding device shown in FIG. 11.
[図 13]量子化の対象となる量子化対象画像、あるいは、フィルタ処理の対象となる処 理対象画像における、画像の分割パターンを示す説明図である。  FIG. 13 is an explanatory diagram showing an image division pattern in a quantization target image to be quantized or a processing target image to be filtered.
[図 14]図 13に示した分割パターンにより複数のブロックに分割された画像における、 隣接する 2つのブロックを拡大して示した拡大図である。 14 is an enlarged view showing two adjacent blocks in an image divided into a plurality of blocks by the division pattern shown in FIG. 13. FIG.
[図 15(a)]従来技術を示すものであり、デブロッキングフィルタの作用を示すグラフであ る。とくに、符号化の対象となる原画像の画素値を示すグラフである。  FIG. 15 (a) is a graph showing the prior art and showing the action of the deblocking filter. In particular, it is a graph showing pixel values of an original image to be encoded.
[図 15(b)]従来技術を示すものであり、デブロッキングフィルタの作用を示すグラフであ る。とくに、ブロック歪を含む局所復号画像の画素値を示すグラフである。  FIG. 15 (b) is a graph showing the prior art and showing the action of the deblocking filter. In particular, it is a graph showing pixel values of a locally decoded image including block distortion.
[図 15(c)]従来技術を示すものであり、デブロッキングフィルタの作用を示すグラフであ る。とくにデブロッキングフィルタの出力画像の画素値を示すグラフである。  FIG. 15 (c) is a graph showing the prior art and showing the action of the deblocking filter. It is a graph which especially shows the pixel value of the output image of a deblocking filter.
符号の説明 Explanation of symbols
300 動画像符号化装置 300 Video encoder
400 動画像復号装置  400 video decoding device
1 DCT咅  1 DCT 咅
2 量子化部  2 Quantization part
3 可変長符号化部  3 Variable length coding unit
4 逆量子化部  4 Inverse quantization section
5 IDCT咅  5 IDCT 咅
7 フレームメモリ  7 frame memory
8 イントラ予測部  8 Intra prediction section
9 インター予測部  9 Inter prediction section
10 符号化制御部  10 Coding control unit
11 フィルタ処理部(フィルタ処理手段) 12 逆フィルタ処理部(逆フィルタ処理手段) 11 Filter processing section (filter processing means) 12 Inverse filter processing unit (inverse filter processing means)
300a, 300b 動画像符号化装置  300a, 300b video encoding device
400a, 400b 動画像復号装置  400a, 400b video decoding device
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0075] 本発明の動画像符号化装置の一実施形態について、図 1〜図 10に基づいて説明 すれば以下の通りである。  One embodiment of the moving picture encoding apparatus of the present invention will be described below with reference to FIGS. 1 to 10.
[0076] 〔動画像符号化装置の構成〕  [Configuration of Moving Picture Encoding Device]
はじめに、本実施の形態に係る動画像符号ィ匕装置の構成について説明する。図 1 は本実施形態に係る動画像符号ィ匕装置 300の概略構成を示した機能ブロック図で ある。図 1に示したように、動画像符号ィ匕装置 300は、 DCT部 1、量子化部 2、可変 長符号化部 3、逆量子化部 4、 IDCT部 5、フレームメモリ 7、イントラ予測部 8、インタ 一予測部 9、符号化制御部 10、フィルタ処理部 11、及び、逆フィルタ処理部 12を備 えている。  First, the configuration of the moving picture coding apparatus according to the present embodiment will be described. FIG. 1 is a functional block diagram showing a schematic configuration of a video encoding device 300 according to the present embodiment. As shown in FIG. 1, the moving picture coding apparatus 300 includes a DCT unit 1, a quantization unit 2, a variable length coding unit 3, an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, and an intra prediction unit. 8. Inter prediction unit 9, encoding control unit 10, filter processing unit 11, and inverse filter processing unit 12 are provided.
[0077] 図 1の動画像符号化装置 300と従来の動画像符号化装置 100 (図 11)との相違点 は、動画像符号化装置 300が、従来のデブロッキングフィルタ 6の代わりに、フィルタ 処理部 11と逆フィルタ処理部 12とを備えている点である。図 1において、従来の動画 像符号ィ匕装置 100と同一機能を有するブロックについては、図 11と同一の名称およ び符号を用いて示し、その説明を省略する。  [0077] The difference between the moving picture coding apparatus 300 in FIG. 1 and the conventional moving picture coding apparatus 100 (FIG. 11) is that the moving picture coding apparatus 300 uses a filter instead of the conventional deblocking filter 6. The processing unit 11 and the inverse filter processing unit 12 are provided. In FIG. 1, blocks having the same functions as those of the conventional moving image coding apparatus 100 are shown using the same names and symbols as those in FIG. 11, and the description thereof is omitted.
[0078] 動画像符号ィ匕装置 300に特徴的な構成は、フィルタ処理部 11、および、逆フィルタ 処理部 12である。フィルタ処理部 11は、符号化の対象となる原画像を処理対象画像 とし、該処理対象画像からブロック歪を発生させる周波数成分を除去するフィルタ処 理を行う。 DCT部 1には、フィルタ処理部 11によるフィルタ処理が施された画像から、 イントラ予測部 8あるいはインター予測部 9により生成された予測画像が減算された差 分画像が供給される。  A characteristic configuration of the moving image encoder 300 is a filter processing unit 11 and an inverse filter processing unit 12. The filter processing unit 11 uses the original image to be encoded as a processing target image, and performs a filtering process to remove a frequency component that causes block distortion from the processing target image. The DCT unit 1 is supplied with a differential image obtained by subtracting the prediction image generated by the intra prediction unit 8 or the inter prediction unit 9 from the image subjected to the filter processing by the filter processing unit 11.
[0079] 一方、逆フィルタ処理部 12には、逆量子化部 4と IDCT部 5とにより復元された差分 画像と、イントラ予測部 8あるいはインター予測部 9により生成された予測画像とをカロ 算して得られる局所復号画像が供給される。逆フィルタ処理部 12は、この局所復号 画像を処理対象画像とし、該処理対象画像に対してフィルタ処理部 11が行うフィル タ処理の逆変換に相当する逆フィルタ処理を行う。逆フィルタ処理部 12による逆フィ ルタ処理が施された局所復号画像は、参照画像としてフレームメモリ 7に蓄積され、ィ ントラ予測部 8あるいはインター予測部 9による予測画像の生成に利用される。 [0079] On the other hand, the inverse filter processing unit 12 calculates the difference image restored by the inverse quantization unit 4 and the IDCT unit 5 and the prediction image generated by the intra prediction unit 8 or the inter prediction unit 9 from the calorie calculation. Thus, a locally decoded image obtained is supplied. The inverse filter processing unit 12 sets this locally decoded image as a processing target image, and performs filtering on the processing target image by the filter processing unit 11. Inverse filter processing corresponding to inverse transformation of data processing is performed. The locally decoded image that has been subjected to the inverse filter processing by the inverse filter processing unit 12 is stored in the frame memory 7 as a reference image, and is used for generation of a predicted image by the intra prediction unit 8 or the inter prediction unit 9.
[0080] DCT部 1と量子化部 2とは、量子化対象画像を複数のブロックに分割して各ブロッ クの画像データを量子化するものである。従って、量子化された画像を逆量子化して 得られる復号画像にはブロック歪が含まれ得る。すなわち、予測画像を生成するため に動画像符号ィ匕装置 300の内部で生成される局所復号画像、および、後述の動画 像復号装置で生成される復号画像にはブロック歪が含まれ得る。し力しながら、動画 像符号化装置 300において、 DCT部 1に供給される量子化対象画像は、フィルタ処 理部 11よるフィルタ処理が施された画像と予測画像の差分画像である。フィルタ処理 部 11は、ブロック歪を発生させる周波数成分を予め取り除くよう処理対象画像に作用 するので、量子化 ·逆量子化の過程で発生するブロック歪を有効に低減することがで きる。 [0080] The DCT unit 1 and the quantization unit 2 divide the quantization target image into a plurality of blocks and quantize the image data of each block. Therefore, a block image can be included in a decoded image obtained by inverse quantization of a quantized image. That is, block distortion may be included in a local decoded image generated inside the moving image encoding apparatus 300 to generate a predicted image and a decoded image generated by a moving image decoding device described later. However, in the moving image coding apparatus 300, the quantization target image supplied to the DCT unit 1 is a difference image between the image subjected to the filter processing by the filter processing unit 11 and the predicted image. Since the filter processing unit 11 acts on the processing target image so as to remove in advance the frequency component that generates block distortion, the block distortion generated in the quantization / inverse quantization process can be effectively reduced.
[0081] また、イントラ予測部 8またはインター予測部 9が予測画像を生成するために参照す る参照画像は、逆フィルタ処理部 12による逆フィルタ処理が施された局所復号画像 である。従って、原画像から除去された周波数成分は、参照画像において復元され ている。すなわち、イントラ予測部 8およびインター予測部 9は、ブロック歪が低減され ていると同時に、特定の周波数成分が欠落することのない参照画像に基づいて、予 測画像を生成することができる。  [0081] Further, the reference image that the intra prediction unit 8 or the inter prediction unit 9 refers to in order to generate a predicted image is a locally decoded image that has been subjected to the inverse filter processing by the inverse filter processing unit 12. Therefore, the frequency component removed from the original image is restored in the reference image. In other words, the intra prediction unit 8 and the inter prediction unit 9 can generate a prediction image based on a reference image in which a specific frequency component is not lost while the block distortion is reduced.
[0082] 換言すれば、従来の動画像符号化装置 100では量子化処理によって失われてい た空間周波数成分を、動画像符号化装置 300では、フィルタ処理部 11にてー且除 去し、逆フィルタ処理部 12にて復元することにより、量子化処理の影響を回避して、 ブロック歪の発生を抑えることができる。  In other words, the spatial frequency component lost due to the quantization process in the conventional video encoding device 100 is removed and removed by the filter processing unit 11 in the video encoding device 300, and the reverse operation is performed. Restoration by the filter processing unit 12 can avoid the influence of quantization processing and suppress the occurrence of block distortion.
[0083] また、フィルタ処理部 11および逆フィルタ処理部 12は、従来の動画像符号化装置 100におけるデブロッキングフィルタ処理部 6とは異なり、後述するとおり、各ブロック における処理前後の平均画素値 (例えば、平均輝度レベル)を保つよう構成すること ができる。従って、デブロッキングフィルタ処理に起因する、画像のボケや動画再生 時のチラツキなどの問題を回避することができる。 〔動画像復号装置の構成〕 [0083] Also, unlike the deblocking filter processing unit 6 in the conventional video encoding device 100, the filter processing unit 11 and the inverse filter processing unit 12 are, as will be described later, average pixel values before and after processing in each block ( For example, an average luminance level) can be maintained. Therefore, it is possible to avoid problems such as image blurring and flickering during moving image playback caused by the deblocking filter processing. [Configuration of video decoding apparatus]
図 2は、図 1に示した動画像符号化装置 300に対応する動画像復号装置 400の概 略構成を示した機能ブロック図である。図 2に示したように、動画像復号装置 400は、 逆量子化部 4、 IDCT部 5、フレームメモリ 7、イントラ予測部 8、インター予測部 9、可 変長復号部 20、および、逆フィルタ処理部 12を備えている。  FIG. 2 is a functional block diagram showing a schematic configuration of a video decoding device 400 corresponding to the video encoding device 300 shown in FIG. As shown in FIG. 2, the moving picture decoding apparatus 400 includes an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, an intra prediction unit 8, an inter prediction unit 9, a variable length decoding unit 20, and an inverse filter. A processing unit 12 is provided.
[0084] 図 2の動画像復号装置 400と従来の動画像復号装置 200 (図 12)との相違点は、 動画像復号装置 400が、従来のデブロッキングフィルタ 6の代わりに、逆フィルタ処理 部 12を備えている点である。図 2において、従来の動画像復号装置 200と同一機能 を有するブロックについては、図 12と同一の名称および符号を用いて示し、その説 明を省略する。 The difference between the moving picture decoding apparatus 400 in FIG. 2 and the conventional moving picture decoding apparatus 200 (FIG. 12) is that the moving picture decoding apparatus 400 uses an inverse filter processing unit instead of the conventional deblocking filter 6. It is a point with 12. In FIG. 2, blocks having the same functions as those of the conventional video decoding device 200 are denoted by the same names and symbols as those in FIG. 12, and description thereof is omitted.
[0085] 動画像復号装置 400が復号する符号化データは、動画像符号化装置 300におい て、ブロック歪を発生させる周波数成分が除去された原画像に基づいて生成された ものである。動画像復号装置 400の可変長復号部 20は、この符号化データを復号し 、逆量子化部 4と IDCT部 5とは、該復号により得られた値を逆量子化する。逆量子化 により復元される画像は、原画像から予測画像を減算して得られた差分画像に相当 するものである。動画像復号装置 400は、この復元された差分画像にイントラ予測部 8またはインター予測部 9により生成された予測画像を加算し、復号画像を生成する  [0085] The encoded data decoded by the moving image decoding apparatus 400 is generated based on the original image from which the frequency component causing block distortion is removed in the moving image encoding apparatus 300. The variable length decoding unit 20 of the video decoding device 400 decodes the encoded data, and the inverse quantization unit 4 and the IDCT unit 5 inversely quantize the value obtained by the decoding. The image restored by inverse quantization corresponds to the difference image obtained by subtracting the predicted image from the original image. The video decoding device 400 adds the prediction image generated by the intra prediction unit 8 or the inter prediction unit 9 to the restored difference image, and generates a decoded image.
[0086] 動画像復号装置 400が備えている逆フィルタ処理部 12は、動画像符号化装置 30 0が備えている逆フィルタ処理部 12と同一の逆フィルタ処理を行う。すなわち、逆フィ ルタ処理部 12は、ブロック歪を発生させる周波数成分が欠落している復号画像に対 し、符号ィ匕時に除去された周波数成分を復元するように作用する。逆フィルタ処理部 12による逆フィルタ処理が施された復号画像は、予測画像を生成するための参照画 像としてイントラ予測部 8あるいはインター予測部 9により参照されるとともに、表示用 画像として出力される。 [0086] The inverse filter processing unit 12 included in the video decoding device 400 performs the same inverse filter processing as the inverse filter processing unit 12 included in the video encoding device 300. In other words, the inverse filter processing unit 12 acts on the decoded image lacking the frequency component that generates block distortion so as to restore the frequency component removed at the time of encoding. The decoded image that has been subjected to the inverse filter processing by the inverse filter processing unit 12 is referred to by the intra prediction unit 8 or the inter prediction unit 9 as a reference image for generating a prediction image, and is output as a display image. .
[0087] 以上のようにして、逆フィルタ処理部 12の作用により、原画像から除去された周波 数成分が、表示用画像あるいは参照画像において復元される。すなわち、動画像復 号装置 400は、ブロック歪が低減されていると同時に、特定の周波数成分が欠落す ることのない表示用画像を出力することができる。また、ブロック歪が低減されていると 同時に、特定の周波数成分が欠落することのない参照画像に基づいて予測画像を 生成することができる。 As described above, the frequency component removed from the original image is restored in the display image or the reference image by the operation of the inverse filter processing unit 12. That is, the moving picture decoding apparatus 400 has a specific frequency component missing at the same time that the block distortion is reduced. It is possible to output a display image that never occurs. Further, at the same time that the block distortion is reduced, a prediction image can be generated based on a reference image in which a specific frequency component is not lost.
[0088] 〔フィルタ処理の詳細〕  [Details of Filter Processing]
次に、動画像符号化装置 300に含まれるフィルタ処理部 11が行うフィルタ処理に ついて詳しく説明する。  Next, filter processing performed by the filter processing unit 11 included in the moving image encoding device 300 will be described in detail.
[0089] フィルタ処理部 11は、水平方向のフィルタ処理と垂直方向のフィルタ処理とを、フィ ルタ処理の対象となる処理対象画像を複数のブロックに分割して実行する。ここで、 フィルタ処理部 11が処理対象画像を分割する分割パターンは、図 13と図 14とに示 したとおりであり、 DCT部 1と量子化部 2とが量子化のために量子化対象画像を分割 する分割パターンと同一である。  The filter processing unit 11 executes horizontal filter processing and vertical filter processing by dividing a processing target image to be filtered into a plurality of blocks. Here, the division pattern in which the filter processing unit 11 divides the processing target image is as shown in FIGS. 13 and 14, and the DCT unit 1 and the quantization unit 2 perform the quantization target image for quantization. This is the same as the division pattern for dividing.
[0090] フィルタ処理部 11は、当該フィルタ処理部 11が出力するフィルタ出力画像におけ るブロック Bの画像データを、処理対象画像における当該ブロック Bの画像データと 当該ブロック Bに隣接するブロックの画像データとから算出する。水平方向のフィル タ処理においては、ブロック Bの画像データが、当該ブロック Bの右側に隣接するブ ロック B + 1画像データを参照して算出され、垂直方向のフィルタ処理においては、 ブロック Bの画像データが、当該ブロックの下側に隣接するブロック B の画像デー n n+W  [0090] The filter processing unit 11 converts the image data of the block B in the filter output image output by the filter processing unit 11 into the image data of the block B in the processing target image and the image of the block adjacent to the block B. Calculate from the data. In the horizontal filter processing, the image data of block B is calculated by referring to the block B + 1 image data adjacent to the right side of the block B, and in the vertical filter processing, the image of block B Data is the image data of block B adjacent to the lower side of the block n n + W
タを参照して算出される。  Calculated with reference to the data.
[0091] 以下、水平方向のフィルタ処理においてフィルタ処理部 11が実行するフィルタ処理 演算について、図 3と図 4とを参照しながら説明する。なお、 1つのブロック Bの画素 値 (例えば、輝度レベル)を算出するためのフィルタ処理演算について説明する。フィ ルタ処理部 11は、以下に説明するフィルタ処理演算を、全ての隣接 2ブロックについ て繰り返すことにより、水平方向のフィルタ処理を完了する。なお、上記繰り返しは、( B、 B )、(B、 B )、(B、 B )…というように、隣接する偶数番目と奇数番目のプロHereinafter, the filter processing calculation executed by the filter processing unit 11 in the horizontal filter processing will be described with reference to FIG. 3 and FIG. A filter processing calculation for calculating a pixel value (for example, a luminance level) of one block B will be described. The filter processing unit 11 completes the horizontal filter processing by repeating the filter processing calculation described below for all two adjacent blocks. In addition, the above repetition is performed by (B, B), (B, B), (B, B)...
1 2 3 4 5 6 1 2 3 4 5 6
ックを対にし、これら全ての対にっ 、て上記フィルタ処理演算を実行するものであつ てもよいし、(B、 B )、(B、 B )、(B、: B ) · · ·というように、全てのブロックについて、  The above filter processing operations may be executed for all pairs, and (B, B), (B, B), (B ,: B). So for all blocks,
1 2 2 3 3 4  1 2 2 3 3 4
次のブロックを参照しながら、上記フィルタ処理演算を実行するものであっても良い。 ただし、これらの繰り返しにおいて、隣接しないブロック同士の対、例えば、画像右端 のブロック B (kは整数)と該ブロック下段左端に位置する次のブロック B とか kXW- 1 kXW らなる対に対しては、上記フィルタ処理を行わな 、ものとする。 The filter processing calculation may be executed while referring to the next block. However, in these repetitions, a pair of non-adjacent blocks, for example, the right edge of the image It is assumed that the above filter processing is not performed for a pair consisting of block B (k is an integer) and the next block B located at the lower left end of the block or kXW-1 kXW.
[0092] 図 3は、フィルタ処理部 11が実行するフィルタ処理演算を概略的に説明するフロー チャートである。図 3に示したように、フィルタ処理部 11によるフィルタ処理演算は、平 均画素値を算出するステップ S1と、予測値を算出するステップ S2と、フィルタ出力画 像を算出するステップ S3とを含んでいる。ステップ S1〜S3について更に詳しく説明 すれば以下の通りである。なお、以下の説明では、ブロック Bに属する 4行 4列に配 列された 16画素のうち、 V行目に配列された 4画素の画素値を算出するフィルタ処理 演算について述べる。フィルタ処理部 11は、以下に述べるフィルタ処理演算を、ブロ ック Bの 1行目力も 4行目について、順次、あるいは、並列的に実行することにより、 ブロック Bに属する全ての画素の画素値を算出する。  FIG. 3 is a flowchart schematically illustrating the filter processing calculation executed by the filter processing unit 11. As shown in FIG. 3, the filter processing calculation by the filter processing unit 11 includes step S1 for calculating the average pixel value, step S2 for calculating the predicted value, and step S3 for calculating the filter output image. It is out. Steps S1 to S3 will be described in more detail as follows. In the following description, a filter processing operation for calculating the pixel value of 4 pixels arranged in the V-th row among the 16 pixels arranged in 4 rows and 4 columns belonging to the block B will be described. The filter processing unit 11 executes the following filter processing operation on the first row of block B as well as on the fourth row, either sequentially or in parallel, so that the pixel values of all the pixels belonging to block B are obtained. Is calculated.
[0093] (ステップ S1) フィルタ処理部 11は、処理対象画像におけるブロック Bの V行目に 配列された 4画素の平均画素値 <p >と、処理対象画像におけるブロック B の V π、ν η+ 1 行目に配列された 4画素の平均画素値く ρ >とを算出する。フィルタ処理部 11 η+ 1、  (Step S1) The filter processing unit 11 calculates the average pixel value <p> of the four pixels arranged in the V-th row of the block B in the processing target image, and the V π and ν η of the block B in the processing target image. + Calculate the average pixel value ρ> of the four pixels arranged in the first row. Filter processing unit 11 η + 1,
が、これらの平均画素値を算出するための算出式は以下の通りである。  However, the calculation formula for calculating these average pixel values is as follows.
[0094] [数 11] 〉 ∑ "' ",  [0094] [Equation 11]〉 ∑ "'",
[0095] ここで、 p (n、 u、 v)は、処理対象画像の画素(n、 u、 v)における画素値である。図 4 ( a)は、処理対象画像の画素値を示したグラフである。図 4 (b)は、上記ステップ S1〖こ おいて得られた、平均画素値を表すグラフである。 Here, p (n, u, v) is a pixel value in the pixel (n, u, v) of the processing target image. FIG. 4 (a) is a graph showing the pixel values of the processing target image. FIG. 4 (b) is a graph showing average pixel values obtained in step S1 above.
[0096] (ステップ S 2) フィルタ処理部 11は、ステップ S1にて得られた平均画素値く p  [0096] (Step S2) The filter processing unit 11 calculates the average pixel value obtained in step S1 as p
>と< >とを用いた線型補間により、ブロック Βの V行目の各画素についての n+ l、v n  By linear interpolation using> and <>, n + l, v n for each pixel in the V row of block Β
予測値 P (n、 u、 v)と、ブロック B の v行目の各画素についての予測値 p (n+ 1 pred n+ 1 pred Predicted value P (n, u, v) and predicted value p (n + 1 pred n + 1 pred) for each pixel in the v-th row of block B
、 u、 v)とを算出する。フィルタ処理部 11が予測値 p (n、 u、 v)と (n+ 1, u、 v) pred pred , U, v). The filter processing unit 11 predicts the predicted values p (n, u, v) and (n + 1, u, v) pred pred
とを算出するための算出式は以下の通りである。  The calculation formula for calculating is as follows.
[0097] [数 12] ― 3〈; 》[0097] [Equation 12] ― 3 〈;》
Figure imgf000022_0001
Figure imgf000022_0001
[0098] [数 13] " + 1 '"' =— 《 リ〉一く 〉)M + (3〈 〉 + 5〈P«+i, ) [0098] [Equation 13] "+ 1 '"' = — 《Re> One〉) M + ( 3 〈〉 + 5 〈P «+ i,)
[0099] 図 4 (c)は、上記ステップ S2により得られた、予測値を表したグラフである。 [0099] FIG. 4 (c) is a graph showing the predicted values obtained in step S2.
[0100] (ステップ S3) フィルタ処理部 11は、ステップ S2にて得られた予測値 p (n、u、v  [0100] (Step S3) The filter processing unit 11 uses the predicted value p (n, u, v) obtained in Step S2.
pred  pred
)と、ステップ SIにて得られたブロック Bの平均画素値 <p >との差を処理対象画 η η  ) And the average pixel value <p> of block B obtained in step SI.
像から除去すべき除去成分とし、処理対象画像の画素値 p (n、 u、 v)から該除去成 分を減算することにより、フィルタ出力画像の画素値 p' (n、 u、 v)を算出する。フィル タ処理部 11aフィルタ出力画像の画素値 p' (n、 u、 v)を算出するために用いる算出 式は以下の通りである。  By subtracting the removal component from the pixel value p (n, u, v) of the processing target image as a removal component to be removed from the image, the pixel value p ′ (n, u, v) of the filter output image is obtained. calculate. Filter processing unit 11a The calculation formula used to calculate the pixel value p ′ (n, u, v) of the filter output image is as follows.
[0101] [数 14] p' in, u, v) = p(n, u, v) - {ppred (n,u, v)― ,, ,v〉} [0101] [Equation 14] p 'in, u, v) = p (n, u, v)-{p pred (n, u, v) ―,,, v 〉}
[0102] 図 4 (d)は、上記ステップ S3により得られた、フィルタ出力画像の画素値を表したグ ラフである。 [0102] FIG. 4 (d) is a graph showing pixel values of the filter output image obtained in step S3.
[0103] ここで、フィルタ出力画像におけるブロック Bの平均画素値は、処理対象画像にお けるブロック Bの平均画素値と一致する、すなわち、フィルタ処理部 11は、各ブロック の平均画素値を処理の前後で不変に保つものである点に注意されたい。このため、 当該フィルタ処理による動画像のボケやチラツキの誘発を防止することが可能になる  [0103] Here, the average pixel value of block B in the filter output image matches the average pixel value of block B in the processing target image, that is, the filter processing unit 11 processes the average pixel value of each block. Please note that it is something that remains unchanged before and after. For this reason, it is possible to prevent blurring and flickering of moving images due to the filter processing.
[0104] フィルタ処理部 11は、上述のように水平方向のフィルタ処理を行った後、垂直方向 のフィルタ処理を行う。垂直方向のフィルタ処理演算は、ブロック Bの画像データを、 該ブロック Bの下側に隣接するブロック B を参照して算出するものである力 その n n+W [0104] The filter processing unit 11 performs the filtering process in the horizontal direction as described above, and then performs the filtering process in the vertical direction. The vertical filtering processing is a force that calculates the image data of block B with reference to block B adjacent to the lower side of block B n n + W
算出方法については水平方向のフィルタ処理と同様であるので、その説明を省略す る。また、上記水平方向のフィルタ処理と、上記垂直方向のフィルタ処理とは互いに 独立であるので、フィルタ処理部 11が、垂直方向のフィルタ処理を行った後で、水平 方向のフィルタ処理を行う構成としても良い。 The calculation method is the same as the horizontal filtering process, so the explanation is omitted. The Further, since the horizontal filter processing and the vertical filter processing are independent from each other, the filter processing unit 11 performs the horizontal filter processing after performing the vertical filter processing. Also good.
[0105] 〔逆フィルタ処理の詳細〕  [Details of inverse filter processing]
次に、動画像符号化装置 300、および、動画像復号装置 400に含まれる逆フィルタ 処理部 12が行う逆フィルタ処理について説明する。  Next, the inverse filter processing performed by the inverse filter processing unit 12 included in the moving image encoding device 300 and the moving image decoding device 400 will be described.
[0106] 逆フィルタ処理部 12は、フィルタ処理部 11と同様、水平方向の逆フィルタ処理と垂 直方向の逆フィルタ処理とを、処理対象画像を複数のブロックに分割して実行する。 ここで、逆フィルタ処理部 12が処理対象画像を分割する分割パターンは、フィルタ処 理部 11が処理対象画像を分割する分割パターンと同一である。  [0106] Similar to the filter processing unit 11, the inverse filter processing unit 12 executes the horizontal direction reverse filter processing and the vertical direction reverse filter processing by dividing the processing target image into a plurality of blocks. Here, the division pattern in which the inverse filter processing unit 12 divides the processing target image is the same as the division pattern in which the filter processing unit 11 divides the processing target image.
[0107] 逆フィルタ処理部 12は、ブロック Bの画像データを、処理対象画像における当該ブ ロック Bの画像データ、および、当該ブロック Bに隣接するブロックの画像データから 算出する。具体的には、水平方向のフィルタ処理においては、ブロック Bの画像デー タを、処理対象画像において当該ブロック Bの右側に隣接するブロック B 画像デ n n+ 1 ータを参照して算出し、垂直方向のフィルタ処理においては、ブロック Bの画像デー タを、当該ブロック Bの下側に隣接するブロック B の画像データを参照して算出 n n+W  [0107] The inverse filter processing unit 12 calculates the image data of the block B from the image data of the block B in the processing target image and the image data of the block adjacent to the block B. Specifically, in the horizontal filter processing, the image data of block B is calculated by referring to the block B image data n n + 1 adjacent to the right side of the block B in the processing target image, and the vertical In the direction filtering process, the image data of block B is calculated by referring to the image data of block B adjacent to the lower side of block B n n + W
する。  To do.
[0108] 以下、水平方向の逆フィルタ処理において逆フィルタ処理部が実行する逆フィルタ 処理演算について、図 5と図 6とを参照しながら説明する。なお、以下では、 1つのブ ロック Bの画素値 (例えば輝度レベル)を算出するための逆フィルタ処理演算につい て説明する。逆フィルタ処理部 12は、以下に説明するフィルタ処理演算を、全ての隣 接 2ブロックについて繰り返すことにより、水平方向のフィルタ処理を完了する。  Hereinafter, the inverse filter processing calculation executed by the inverse filter processing unit in the horizontal inverse filter processing will be described with reference to FIG. 5 and FIG. In the following, the inverse filter processing calculation for calculating the pixel value (for example, luminance level) of one block B will be described. The inverse filter processing unit 12 repeats the filter processing calculation described below for all adjacent two blocks, thereby completing the horizontal filter processing.
[0109] 図 5は、逆フィルタ処理部 12が実行する逆フィルタ処理演算を概略的に説明するフ ローチャートである。図 5に示したように、逆フィルタ処理部 12によるフィルタ処理演 算は、平均画素値を算出するステップ T1と、予測値を算出するステップ T2と、逆フィ ルタ出力画像を算出するステップ T3とを含んで 、る。ステップ Tl〜T3につ 、て更に 詳しく説明すれば以下の通りである。なお、以下の説明では、ブロック Βに属する 4 行 4列に配列された 16画素のうち、 V行目に配列された 4画素の画素値を算出する逆 フィルタ処理演算について述べる。逆フィルタ処理部 12は、以下に述べる逆フィルタ 処理演算を、ブロック Bの 1行目力 4行目について、順次、あるいは、並列的に実 行することにより、ブロック Bに属する全ての画素の画素値を算出するものである。 FIG. 5 is a flowchart schematically illustrating the inverse filter processing calculation performed by the inverse filter processing unit 12. As shown in FIG. 5, the filtering processing by the inverse filter processing unit 12 includes step T1 for calculating an average pixel value, step T2 for calculating a predicted value, and step T3 for calculating an inverse filter output image. Including. The steps Tl to T3 will be described in more detail as follows. In the following description, out of 16 pixels arranged in 4 rows and 4 columns belonging to block Β, the inverse of calculating the pixel values of 4 pixels arranged in the V row The filter processing operation will be described. The inverse filter processing unit 12 performs the inverse filter processing operation described below for the first row force of the block B and the fourth row, sequentially or in parallel, thereby obtaining the pixel values of all the pixels belonging to the block B. Is calculated.
[0110] (ステップ T1) 逆フィルタ処理部 12は、処理対象画像におけるブロック Bの V行目 に配列された 4画素の平均画素値 < P >と、処理対象画像におけるブロック B n、 η+ 1 の ν行目に配列された 4画素の平均画素値く Ρ >とを算出する。逆フィルタ処理 η+ 1、  [0110] (Step T1) The inverse filter processing unit 12 calculates the average pixel value <P> of four pixels arranged in the Vth row of the block B in the processing target image, and the blocks B n and η + 1 in the processing target image. Calculate the average pixel value Ρ> of the four pixels arranged in the ν row of. Inverse filter processing η + 1,
部 12が、平均画素値く Ρ >と< >とを算出するために用いる算出式は以下 の通りである。  The calculation formula used by the unit 12 to calculate the average pixel values Ρ> and <> is as follows.
[0111] [数 15]
Figure imgf000024_0001
[0111] [Equation 15]
Figure imgf000024_0001
[0112] ここで、 P (n、 u、 v)は、処理対象画像の画素(n、 u、 v)における画素値である。図 6 Here, P (n, u, v) is a pixel value in the pixel (n, u, v) of the processing target image. Fig 6
(a)は、処理対象画像の画素値を示したグラフであり、図 6 (b)は、上記ステップ T1〖こ おいて得られた、平均画素値を表すグラフである。  (a) is a graph showing the pixel values of the processing target image, and FIG. 6 (b) is a graph showing the average pixel values obtained in step T1.
[0113] (ステップ T2) 逆フィルタ処理部 12は、ステップ T1にて得られた平均画素値 < P π、 [0113] (Step T2) The inverse filter processing unit 12 determines that the average pixel value obtained in Step T1 <Pπ,
>と< >とを用いた線型補間により、ブロック Βの V行目の各画素についての 予測値 P (n、 u、 V)と、ブロック Β の V行目の各画素についての予測値 P (n+ pred n+ 1 predBy linear interpolation using> and <>, the predicted value P (n, u, V) for each pixel in the V row of block Β and the predicted value P (for each pixel in the V row of block ( n + pred n + 1 pred
1、 u、 v)とを算出する。逆フィルタ処理部 12が予測値 P (n、 u、 v)と P (n+ 1、 u pred pred 、 V)とを算出するために用いる算出式は以下の通りである。 Calculate 1, u, v). The calculation formula used by the inverse filter processing unit 12 to calculate the predicted values P (n, u, v) and P (n + 1, u pred pred, V) is as follows.
[0114] [数 16] ,", = - ( , -〈 , )"十 11 , ,v〉- 3〈 ) [0114] [number 16], ", = - (, - <,)" ten 11,, v> - 3 < )
[0115] [数 17]
Figure imgf000024_0002
[0115] [Equation 17]
Figure imgf000024_0002
[0116] 図 6 (c)は、上記ステップ T2により得られた、予測値を表したグラフである, [0117] (ステップ T3) [0116] Fig. 6 (c) is a graph showing the predicted values obtained in step T2 above. [0117] (Step T3)
逆フィルタ処理部 12は、ステップ Τ2にて得られた予測値 P (n、 u、 v)と、ステップ  The inverse filter processing unit 12 calculates the predicted value P (n, u, v) obtained in step Τ2 and the step
pred  pred
T1にて得られたブロック Bの平均画素値 < P >との差を処理対象画像に付加す η η  Add the difference from the average pixel value <P> of block B obtained in T1 to the image to be processed η η
べき付加成分とし、処理対象画像の画素値 P (n、 u、 v)に該付加成分を加算すること により、フィルタ出力画像の画素値 (n、 u、 v)を算出する。逆フィルタ処理部 12が 逆フィルタ出力画像の画素値 (n、 u、 v)を算出するために用いる算出式は以下の 通りである。  A pixel value (n, u, v) of the filter output image is calculated by adding the additional component to the pixel value P (n, u, v) of the processing target image as a power additional component. The calculation formula used by the inverse filter processing unit 12 to calculate the pixel value (n, u, v) of the inverse filter output image is as follows.
[0118] [数 18] [0118] [Equation 18]
P' = P(n, u, V) + \Pp,,d (n,u, v)― ,, v P '= P (n, u, V) + \ P p ,, d (n, u, v) ―,, v
[0119] 図 6 (d)は、上記ステップ T3により得られた、逆フィルタ出力画像の画素値を表した グラフである。ここで、逆フィルタ出力画像におけるブロック Bの平均画素値は、処理 対象画像におけるブロック Bの平均画素値と一致する点に注意されたい。このため、 動画像のボケやチラツキの発生は有効に防止される。 FIG. 6 (d) is a graph showing the pixel values of the inverse filter output image obtained in step T3. Note that the average pixel value of block B in the inverse filter output image matches the average pixel value of block B in the processing target image. For this reason, the occurrence of blurring and flickering of moving images is effectively prevented.
[0120] 逆フィルタ処理部 12は、上述のように水平方向の逆フィルタ処理を行った後、垂直 方向の逆フィルタ処理を行う。垂直方向の逆フィルタ処理演算は、ブロック Bの画像 データを、該ブロック Bの下側に隣接するブロック B を参照して算出するものであ n n+W  [0120] The inverse filter processing unit 12 performs the inverse filter process in the horizontal direction as described above, and then performs the inverse filter process in the vertical direction. The vertical inverse filtering operation is to calculate the image data of block B with reference to block B adjacent to the lower side of block B n n + W
る力 その算出方法については水平方向の逆フィルタ処理と同様であるので、その 説明を省略する。また、上記水平方向の逆フィルタ処理と、上記垂直方向の逆フィル タ処理とは互いに独立であるので、逆フィルタ処理部 12は、垂直方向の逆フィルタ処 理を行った後で、水平方向の逆フィルタ処理を行う構成としても良い。  Since the calculation method is the same as that of the horizontal inverse filter processing, the description thereof is omitted. In addition, since the horizontal reverse filter processing and the vertical reverse filter processing are independent from each other, the reverse filter processing unit 12 performs the horizontal reverse filter processing after performing the vertical reverse filter processing. A configuration in which inverse filter processing is performed may be employed.
[0121] 以上のように定義された逆フィルタ処理部 12が行う逆フィルタ処理は、フィルタ処理 部 11が行う上記フィルタ処理の逆変換に相当する。すなわち、フィルタ処理部 11の 出力 iT (n、 u、 v)と逆フィルタ処理部 12の入力 P (n、 u、 v)との間に (n、 u、 v) =P (n、 u、 v)の関係が成り立つとき、フィルタ処理部 11の入力 p (n、 u、 v)と逆フィルタ処 理部 12の出力 (n、 u、 v)との間に p (n、 u、 ν) =Ρ' (n、 u、 v)の関係が成り立つ。 従って、フィルタ処理部 11のフィルタ処理により、処理対象画像から除去されたブロ ック歪を発生させる周波数成分は、逆フィルタ処理部 12の逆フィルタ処理により復元 される。従って、復元画像において、特定の周波数成分が欠落するようなことはない [0121] The inverse filter processing performed by the inverse filter processing unit 12 defined as described above corresponds to the inverse transformation of the filter processing performed by the filter processing unit 11. That is, (n, u, v) = P (n, u, v) between the output iT (n, u, v) of the filter processing unit 11 and the input P (n, u, v) of the inverse filter processing unit 12 When the relationship v) holds, p (n, u, ν) is between the input p (n, u, v) of the filter processing unit 11 and the output (n, u, v) of the inverse filter processing unit 12. = Ρ '(n, u, v). Accordingly, the block removed from the processing target image by the filtering process of the filter processing unit 11 is performed. The frequency component that generates the noise distortion is restored by the inverse filter processing of the inverse filter processing unit 12. Therefore, a specific frequency component is not lost in the restored image.
[0122] 〔フィルタ処理および逆フィルタ処理につ!、ての付記事項〕 [0122] [Filter processing and inverse filter processing!
以上の説明において、フィルタ処理部 11が算出する予測値は、隣接ブロックの平 均画素値を用いた線型補間により算出されるものとしたが、本発明はこれに限定され るものではない。すなわち、フィルタ処理部 11がフィルタ出力画像の画素値を算出す るために用いる予測値は、例えば、ブロック単位の平均画素値を基に算出される予 測値であっても良いし、あるいは、隣接する 3つのブロックの平均画素値く P _ >、 < P >、 < P >を用いて 3次補間により算出される値であっても良い。また、詳 η η+ 1、ν  In the above description, the predicted value calculated by the filter processing unit 11 is calculated by linear interpolation using the average pixel value of the adjacent block, but the present invention is not limited to this. That is, the predicted value used by the filter processing unit 11 to calculate the pixel value of the filter output image may be a predicted value calculated based on an average pixel value in block units, for example. The average pixel value of three adjacent blocks may be a value calculated by cubic interpolation using P_>, <P>, and <P>. Details η η + 1, ν
細な説明は省略するが、これらのフィルタ処理を行うフィルタ処理部 11に対応する逆 フィルタ処理部 12は、これらのフィルタ処理の逆変換に相当する逆フィルタ処理を行 うものとして容易に構成され得る。  Although a detailed description is omitted, the inverse filter processing unit 12 corresponding to the filter processing unit 11 that performs these filter processes is easily configured to perform an inverse filter process corresponding to the inverse transformation of these filter processes. obtain.
[0123] なお、ブロック毎の予測値の平均画素値がブロック毎の入力画像の平均画素値と 異なる予測を用いる場合には、フィルタ出力に、予測値の平均画素値と入力画像の 平均画素値との差を加え、フィルタ入力及びフィルタ出力の平均画素値が維持され るように補正する構成とすることが好まし 、。  [0123] In addition, when using a prediction in which the average pixel value of the prediction value for each block is different from the average pixel value of the input image for each block, the average pixel value of the prediction value and the average pixel value of the input image are used for the filter output It is preferable to make a correction so that the average pixel value of the filter input and filter output is maintained.
[0124] また、以上の説明において、フィルタ処理部 11は、 1次元的なフィルタ処理を水平 方向と垂直方向とに対して独立に行うものとしたが、本発明はこれに限定されるもの ではなぐ 2次元的なフィルタ処理を行う構成としても良い。フィルタ処理部 11が行う 2 次元的なフィルタ処理の一例を説明すれば、以下の通りである。  [0124] In the above description, the filter processing unit 11 performs one-dimensional filter processing independently in the horizontal direction and the vertical direction, but the present invention is not limited to this. It may be configured to perform two-dimensional filter processing. An example of the two-dimensional filter processing performed by the filter processing unit 11 is as follows.
[0125] 2次元的なフィルタ処理を行う場合、フィルタ処理部 11は、上下左右に隣接する 4 つのブロックの画素値を参照して、注目ブロックの画素値を算出する。フィルタ処理 部 11が注目ブロック Βの画素値を算出するために行うフィルタ処理演算は、以下の ステップ 1〜3を含む。  When performing two-dimensional filter processing, the filter processing unit 11 calculates the pixel value of the block of interest with reference to the pixel values of four blocks that are adjacent vertically and horizontally. The filter processing calculation performed by the filter processing unit 11 to calculate the pixel value of the target block Β includes the following steps 1 to 3.
[0126] (ステップ 1) フィルタ処理部 11は、注目ブロック Βの平均画素値、及び、注目ブロ ック Βの上下左右に隣接するブロック Β 、 Β 、 Β 、 Β の平均画素値を算出 n n- 1 n+ 1 n-W n+W  [0126] (Step 1) The filter processing unit 11 calculates the average pixel value of the target block Β and the average pixel value of blocks Β, 、, Β, and 隣接 adjacent to the target block Β vertically and horizontally n n -1 n + 1 nW n + W
する。フィルタ処理部 11が、上記各ブロックの平均画素値を算出するために用いる算 出式は以下の通りである。 To do. The calculation used by the filter processing unit 11 to calculate the average pixel value of each block. The formula is as follows.
[0127] [数 19] »<4 ι'<4  [0127] [Equation 19] »<4 ι '<4
1 ϋ )/=η υ=η 1 )) / = η υ = η
[0128] (ステップ 2) フィルタ処理部 11は、上記ステップ 1にて得られた上記各ブロックの 平均画素値を用いた線型補間により、ブロック Βの各画素についての予測値 ρ (η (Step 2) The filter processing unit 11 performs the prediction value ρ (η for each pixel of the block に よ り by linear interpolation using the average pixel value of each block obtained in Step 1 above.
n pred n pred
、 u、 v)を算出する。フィルタ処理部 11が予測値 p (n、 u、 v)を算出するために用い , U, v). Used by the filter processor 11 to calculate the predicted value p (n, u, v)
pred  pred
る算出式は以下の通りである。  The calculation formula is as follows.
[0129] [数 20]  [0129] [Equation 20]
Ρ 、η, =、, η, =
Figure imgf000027_0001
Figure imgf000027_0001
+ ^ (5 „—!〉 + 3〈 + 5 „—„,〉 + 3〈 ,, +w+ ^ (5 „—!> + 3 〈+ 5„ — „,〉 + 3 〈,, + w
[0130] (ステップ 3)フィルタ処理部 11は、ステップ 2にて得られた予測値 p (n、 u、 v)と、 [0130] (Step 3) The filter processing unit 11 calculates the predicted value p (n, u, v) obtained in Step 2,
pred  pred
ステップ 1にて得られたブロック Bの平均画素値 <p >との差を処理対象画像から  The difference from the average pixel value <p> of block B obtained in step 1 is calculated from the image to be processed.
η η  η η
除去すべき除去成分とし、処理対象画像の画素値 p (n、 u、 v)力ゝら該除去成分を減 算することにより、フィルタ出力画像の画素値 (n、 u、 v)を算出する。フィルタ処理 部 11がフィルタ出力画像におけるブロック Bの画素値 iT (n、 u、 v)を算出するため の算出式は以下の通りである。  The pixel value (n, u, v) of the filter output image is calculated by subtracting the removal component from the pixel value p (n, u, v) of the processing target image as the removal component to be removed. . The calculation formula for the filter processing unit 11 to calculate the pixel value iT (n, u, v) of the block B in the filter output image is as follows.
[0131] [数 21]  [0131] [Equation 21]
P' in, u, v) = p(n, u, v) +- { p "―、 ) + (p„+1) + (p„.w) +く ?„+w》― Ppred (", u,v) P 'in, u, v) = p (n, u, v) +-(p "-,) + (p„ +1 ) + (p „. W ) +??„ + W 》 ― P pred ( ", u, v)
[0132] ブロック歪を発生させる周波数成分を 2次元的なフィルタ処理により除去する場合、 フィルタ処理部 11は、各ブロック対して上記ステップ 1〜3を繰り返すことにより、フィ ルタ出力画像全体の画素値を算出する。また、詳細な説明は省略するが、対応する 逆フィルタ処理部 12は、当該フィルタ処理部 11のフィルタ処理の逆変換に相当する 逆フィルタ処理を行うものとして構成され得る。 〔変形例 1〕 [0132] When removing a frequency component that generates block distortion by two-dimensional filtering, the filter processing unit 11 repeats the above steps 1 to 3 for each block, thereby obtaining a pixel value of the entire filter output image. Is calculated. Although a detailed description is omitted, the corresponding inverse filter processing unit 12 may be configured to perform an inverse filter process corresponding to the inverse transformation of the filter process of the filter processing unit 11. (Modification 1)
動画像符号ィ匕装置 300の一変形例について、図 7と図 8とに基づいて説明する。  A modification of the moving image encoding device 300 will be described with reference to FIGS.
[0133] 図 7は、動画像符号化装置 300の一変形例である動画像符号化装置 300aの概略 構成を示した機能ブロック図である。図 7に示したように、動画像符号化装置 300aは 、 DCT部 1、量子化部 2、可変長符号化部 3、逆量子化部 4、 IDCT部 5、フレームメ モリ 7、イントラ予測部 8、インター予測部 9、符号化制御部 10、フィルタ処理部 l la、 及び、逆フィルタ処理部 12aを備えている。  FIG. 7 is a functional block diagram showing a schematic configuration of a video encoding device 300a that is a modification of the video encoding device 300. As shown in FIG. As shown in FIG. 7, the moving picture coding apparatus 300a includes a DCT unit 1, a quantization unit 2, a variable length coding unit 3, an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, and an intra prediction unit. 8, an inter prediction unit 9, an encoding control unit 10, a filter processing unit lla, and an inverse filter processing unit 12a.
[0134] 動画像符号ィ匕装置 300aと動画像符号ィ匕装置 300 (図 1)との相違点は、動画像符 号化装置 300aが、フィルタ処理部 11の代わりに、予測画像に基づいてフィルタ処理 を実行するフィルタ処理部 11aを備え、また、逆フィルタ処理部 12の代わりに、予測 画像に基づ 、て逆フィルタ処理を実行する逆フィルタ処理部 12aを備えて 、る点で ある。また、図 7に示したように、イントラ予測部 8およびインター予測部 9が、生成した 予測画像をフィルタ処理部 1 laと逆フィルタ処理部 12aとに供給する点である。図 7に おいて、図 1の動画像符号ィ匕装置 300と同一機能を有するブロックについては、図 1 と同一の名称および符号を用いて示し、その説明を省略する。  [0134] The difference between the moving image encoding device 300a and the moving image encoding device 300 (Fig. 1) is that the moving image encoding device 300a is based on a predicted image instead of the filter processing unit 11. A filter processing unit 11a that performs filter processing is provided, and an inverse filter processing unit 12a that performs inverse filter processing based on a predicted image is provided instead of the inverse filter processing unit 12. Further, as shown in FIG. 7, the intra prediction unit 8 and the inter prediction unit 9 supply the generated prediction image to the filter processing unit 1 la and the inverse filter processing unit 12a. In FIG. 7, blocks having the same functions as those of the moving picture coding apparatus 300 in FIG. 1 are denoted by the same names and symbols as those in FIG. 1, and description thereof is omitted.
[0135] 図 8は、図 7に示した動画像符号化装置 300aに対応する動画像復号装置 400aの 概略構成を示した機能ブロック図である。図 8に示したように、動画像復号装置 400a は、逆量子化部 4、 IDCT部 5、フレームメモリ 7、イントラ予測部 8、インター予測部 9、 可変長復号部 20、および、逆フィルタ処理部 12aを備えている。  FIG. 8 is a functional block diagram showing a schematic configuration of a video decoding device 400a corresponding to the video encoding device 300a shown in FIG. As shown in FIG. 8, the video decoding device 400a includes an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, an intra prediction unit 8, an inter prediction unit 9, a variable length decoding unit 20, and an inverse filter process. Part 12a is provided.
[0136] 図 8の動画像復号装置 400aと動画像復号装置 400 (図 2)との相違点は、動画像 復号装置 400aが、逆フィルタ処理部 12の代わりに、動画像符号化装置 300aと同じ 逆フィルタ処理部 12aを備えている点である。また、図 8に示したように、イントラ予測 部 8およびインター予測部 9が、生成した予測画像を逆フィルタ処理部 12aに供給す る^;である。  [0136] The difference between the video decoding device 400a and the video decoding device 400 (Fig. 2) in Fig. 8 is that the video decoding device 400a is different from the video encoding device 300a in place of the inverse filter processing unit 12. The same inverse filter processing unit 12a is provided. Also, as shown in FIG. 8, the intra prediction unit 8 and the inter prediction unit 9 supply the generated predicted image to the inverse filter processing unit 12a.
[0137] 動画像符号ィ匕装置 300aおよび動画像復号装置 400aに好適に用いることができる フィルタ処理部 11aと逆フィルタ処理部 12aとについて説明すれば以下の通りである  [0137] The filter processing unit 11a and the inverse filter processing unit 12a that can be suitably used in the moving image coding apparatus 300a and the moving image decoding device 400a will be described as follows.
[0138] フィルタ処理部 11aおよび逆フィルタ処理部 12aは、フィルタ出力画像における各 ブロックの画像データを、イントラ予測部 8あるいはインター予測部 9から供給される予 測画像の画像データから算出する。具体的には、水平方向のフィルタ処理において は、ブロック Bの画像データを、予測画像におけるブロック Bおよびブロック B の n n n+ 1 画像データを参照して算出し、垂直方向のフィルタ処理においては、ブロック Bの画 像データを、予測画像におけるブロック Bおよびブロック B の画像データを参照し n n+W [0138] The filter processing unit 11a and the inverse filter processing unit 12a The image data of the block is calculated from the image data of the predicted image supplied from the intra prediction unit 8 or the inter prediction unit 9. Specifically, in horizontal filtering, the image data of block B is calculated by referring to the nnn + 1 image data of block B and block B in the predicted image, and in the vertical filtering, Refer to the image data of block B and block B in the predicted image for the image data of B n n + W
て算出する。以下では、 1つのブロック Bの画素値を算出するためのフィルタ処理演 算について説明する力 フィルタ処理部 11aおよび逆フィルタ処理部 12aは、以下に 説明するフィルタ演算処理を繰り返すことで、フィルタ出力画像全体の水平方向のフ ィルタ処理を完了する。また、垂直方向のフィルタ処理を同様に実行することで、全 体のフィルタ処理を完了する。  To calculate. In the following, the force filter processing unit 11a and the inverse filter processing unit 12a that describe the filter processing calculation for calculating the pixel value of one block B repeat the filter calculation processing described below so that the filter output image Complete the entire horizontal filtering process. In addition, the entire filtering process is completed by performing the filtering process in the vertical direction in the same manner.
[0139] 水平方向のフィルタ処理においてフィルタ処理部 11aが実行するフィルタ処理演算 は、以下のステップ Sla〜S3aを含んで構成される。  [0139] The filter processing calculation executed by the filter processing unit 11a in the horizontal filter processing includes the following steps Sla to S3a.
[0140] (ステップ Sla) フィルタ処理部 11aは、予測画像におけるブロック Bの v行目に配 列された 4画素の平均画素値 < q >と、処理対象画像におけるブロック B の V行 π、ν n+ 1 目に配列された 4画素の平均画素値く q >とを算出する。フィルタ処理部 11aが n+ l、  [0140] (Step Sla) The filter processing unit 11a calculates the average pixel value <q> of the four pixels arranged in the v-th row of the block B in the predicted image and the V-rows π and ν of the block B in the processing target image. Calculate the average pixel value q> of the four pixels arranged in the n + 1st eye. Filter processing unit 11a is n + l,
、これらの平均画素値を算出するための算出式は以下の通りである。  The calculation formula for calculating these average pixel values is as follows.
[0141] [数 22] [0141] [Equation 22]
1 "<4 1 "<4
〈 " 〉=7∑ ,",  <"> = 7∑,",
[0142] ここで、 q (n、 u、 v)は、予測画像の画素(n、 u、 v)における画素値である。 Here, q (n, u, v) is a pixel value in the pixel (n, u, v) of the predicted image.
[0143] (ステップ S2a) フィルタ処理部 11aは、ステップ Slaにて得られた平均画素値く q [0143] (Step S2a) The filter processing unit 11a calculates the average pixel value obtained in Step Sla q
>と< >とを用いた線型補間により、ブロック Bの V行目の各画素についての > And <> for each pixel in the Vth row of block B by linear interpolation
、v n+ l、v n , V n + l, v n
予測値 q (n、 u、 v)と、ブロック B の v行目の各画素についての予測値 q (n+ 1 pred n+ 1 pred Predicted value q (n, u, v) and predicted value q (n + 1 pred n + 1 pred) for each pixel in the vth row of block B
、 u、 v)とを算出する。フィルタ処理部 11aが予測値 q (n、 u、 v)と q (n+ 1, u、 v) pred pred , U, v). The filter processing unit 11a predicts q (n, u, v) and q (n + 1, u, v) pred pred
とを算出するための算出式は以下の通りである。  The calculation formula for calculating is as follows.
[0144] [数 23]
Figure imgf000030_0001
[0144] [Equation 23]
Figure imgf000030_0001
[0145] [数 24] re " + , v) = -^ ((¾>v)― (qn+ v)) + i (3(¾>v) + 5{¾+1;V)) [0146] (ステップ S3a) フィルタ処理部 11aは、ステップ S2aにて得られた予測値 q (n、 [0145] [Equation 24] r e "+, v) =-^ ((¾ > v ) ― (q n + v )) + i (3 (¾ > v ) + 5 {¾ +1; V )) [ [0146] (Step S3a) The filter processing unit 11a obtains the predicted value q (n,
pred u、 v)と、ステップ S laにて得られたブロック Bの平均画素値く q >との差を処理対 象画像から除去すべき除去成分とし、処理対象画像の画素値 p (n、 u、 v)から該除 去成分を減算することにより、フィルタ出力画像の画素値 p' (n、 u、 v)を算出する。フ ィルタ処理部 11aがフィルタ出力画像の画素値 p' (n、 u、 v)を算出するために用いる 算出式は以下の通りである。  The difference between pred u, v) and the average pixel value q> of block B obtained in step S la is the removal component to be removed from the processing target image, and the pixel value p (n, The pixel value p ′ (n, u, v) of the filter output image is calculated by subtracting the removed component from u, v). The calculation formula used by the filter processing unit 11a to calculate the pixel value p ′ (n, u, v) of the filter output image is as follows.
[0147] [数 25] [0147] [Equation 25]
P' (", u, v) = p(n, u, v) - \qpred (n, u, v) - (¾>v)} P '(", u, v) = p (n, u, v)-\ q pred (n, u, v)-(¾ > v )}
[0148] なお、上記ステップ S la〜S3aは、ブロック Bに属する 4行 4列に配列された 16画 素のうち、 V行目に配列された 4画素の画素値を算出するフィルタ処理演算であるが 、上記ステップ S la〜S3aをブロック Bの 1行目力ら 4行目について、順次、あるいは 、並列的に実行することにより、ブロック Bに属する全ての画素の画素値が算出され る。 Note that the above steps Sla to S3a are filter processing operations that calculate the pixel values of the four pixels arranged in the Vth row among the 16 pixels arranged in the fourth row and the fourth column belonging to the block B. However, the pixel values of all the pixels belonging to the block B are calculated by executing the above steps Sla to S3a sequentially or in parallel with respect to the fourth row from the first row force of the block B.
[0149] 垂直方向のフィルタ処理においてフィルタ処理部 12aが実行する逆フィルタ処理演 算は、以下のステップ Tla〜T3aを含んで構成される。  [0149] The inverse filter processing operation executed by the filter processing unit 12a in the vertical filter processing includes the following steps Tla to T3a.
[0150] (ステップ Tla) 逆フィルタ処理部 12aは、予測画像におけるブロック Bの V行目に 配列された 4画素の平均画素値 < q >と、予測画像におけるブロック B の V行目 、 [0150] (Step Tla) The inverse filter processing unit 12a includes the average pixel value <q> of four pixels arranged in the Vth row of the block B in the predicted image, and the Vth row of the block B in the predicted image.
に配列された 4画素の平均画素値く q >とを算出する。逆フィルタ処理部 12aが 、  Calculate the average pixel value q> of the four pixels arranged in. The inverse filter processing unit 12a
、平均画素値く q >とく q >とを算出するために用いる算出式は、〔数 22〕と 同一である。 The calculation formula used to calculate the average pixel value q> and q> is Are the same.
[0151] (ステップ T2a) 逆フィルタ処理部 12aは、ステップ Tlaにて得られた平均画素値 < q >と< >とを用いた線型補間により、ブロック Bの V行目の各画素につ いての予測値 q と、ブロック B の V行目の各画素についての予測値 q (n  [0151] (Step T2a) The inverse filter processing unit 12a performs linear interpolation using the average pixel values <q> and <> obtained in Step Tla for each pixel in the Vth row of the block B. And the predicted value q for each pixel in the Vth row of block B (n
pred ι,η ti、 ν) η+ 1 pred pred ι, η ti, ν) η + 1 pred
+ 1、 u、 ν)とを算出する。逆フィルタ処理部 12aが予測値 q n、 u、 v)と q (n + 1、 + 1, u, ν). The inverse filter processing unit 12a performs prediction values q n, u, v) and q (n + 1,
pred ( pred u、v)とを算出するために用いる算出式は、〔数 23〕、〔数 24〕と同一である。  The calculation formula used to calculate pred (pred u, v) is the same as [Equation 23] and [Equation 24].
[0152] (ステップ T3a) [0152] (Step T3a)
逆フィルタ処理部 12aは、ステップ T2aにて得られた予測値 q (n、 u、 v)と、ステツ  The inverse filter processing unit 12a calculates the predicted value q (n, u, v) obtained in step T2a and the step
pred  pred
プ Tlaにて得られたブロック Bの平均画素値く q >との差を処理対象画像に付加  The difference from the average pixel value q> of block B obtained by Tla is added to the image to be processed
η η  η η
すべき付加成分とし、処理対象画像の画素値 P (n、 u、 v)に該付加成分を加算する ことにより、フィルタ出力画像の画素値 (n、 u、 v)を算出する。逆フィルタ処理部 12 aが逆フィルタ出力画像の画素値 (n、 u、 v)を算出するために用いる算出式は以 下の通りである。  A pixel value (n, u, v) of the filter output image is calculated by adding the additional component to the pixel value P (n, u, v) of the processing target image as an additional component to be processed. The calculation formula used by the inverse filter processing unit 12a to calculate the pixel value (n, u, v) of the inverse filter output image is as follows.
[0153] [数 26] [0153] [Equation 26]
P' u, v) = P(n, u,v) + {qpKd («, u, v) - (qn v ) P 'u, v) = P (n, u, v) + (q pKd («, u, v)-(q nv )
[0154] なお、上記ステップ Tla〜T3aは、ブロック Bに属する 4行 4列に配列された 16画 素のうち、 V行目に配列された 4画素の画素値を算出するフィルタ処理演算であるが 、上記ステップ Tla〜T3aをブロック Bの 1行目力ら 4行目について、順次、あるいは 、並列的に実行することにより、ブロック Bに属する全ての画素の画素値が算出され る。 Note that the above steps Tla to T3a are filter processing operations for calculating the pixel values of the four pixels arranged in the V-th row among the 16 pixels arranged in the fourth row and the fourth column belonging to the block B. However, the pixel values of all the pixels belonging to the block B are calculated by executing the above steps Tla to T3a sequentially or in parallel for the fourth row from the first row force of the block B.
[0155] 以上のように、フィルタ処理部 11aは、フィルタ処理の対象となる対象画像の画像デ 一タカも減算する画素値を、予測画像の画像データから算出する。また、逆フィルタ 処理部 12aは、逆フィルタ処理の対象となる処理対象画像の画像データに加算する 画素値を、上記フィルタ処理手段と同一の方法で予測画像の画像データ力 算出す る。すなわち、フィルタ処理部 11aが処理対象画像から減算する画素値と、逆フィル タ処理部 12aが処理対象画像に加算する画素値とは、同一の予測画像から算出さ れる同一の画像値となる。従って、フィルタ処理部 11aと逆フィルタ処理部 12aとによ れば、量子化誤差程度の違いをもつ処理対象画像に基づいてフィルタ処理'逆フィ ルタ処理を行う動画像符号化装置 300と比べ、フィルタ処理部 1 laが処理対象画像 力も除去したブロック歪を発生させる周波数成分を、上記逆フィルタ処理部 12aにて より完全に復元できる。 [0155] As described above, the filter processing unit 11a calculates, from the image data of the predicted image, a pixel value that also subtracts the image data of the target image to be filtered. Further, the inverse filter processing unit 12a calculates the image data force of the predicted image by the same method as the filter processing means, with respect to the pixel value to be added to the image data of the processing target image to be subjected to the inverse filter processing. That is, the pixel value that the filter processing unit 11a subtracts from the processing target image and the pixel value that the inverse filter processing unit 12a adds to the processing target image are calculated from the same predicted image. The same image value. Therefore, according to the filter processing unit 11a and the inverse filter processing unit 12a, compared with the moving image coding apparatus 300 that performs the filter processing 'inverse filter processing based on the processing target image having a difference in quantization error level, The frequency component that generates block distortion from which the processing target image force has also been removed by the filter processing unit 1 la can be completely restored by the inverse filter processing unit 12a.
〔変形例 2〕  (Modification 2)
動画像符号ィ匕装置 300の他の変形例について、図 9と図 10とに基づいて説明する  Another modification of the moving image encoding device 300 will be described with reference to FIG. 9 and FIG.
[0156] 図 9は、動画像符号ィ匕装置 300の他の変形例である動画像符号ィ匕装置 300bの概 略構成を示した機能ブロック図である。図 9に示したように、動画像符号ィ匕装置 300a は、 DCT部 1、量子化部 2、可変長符号化部 3、逆量子化部 4、 IDCT部 5、フレーム メモリ 7、イントラ予測部 8、インター予測部 9、符号化制御部 10、フィルタ処理部 l ib 及び、逆フィルタ処理部 12bを備えている。 FIG. 9 is a functional block diagram showing a schematic configuration of a video encoding device 300b which is another modification of the video encoding device 300. As shown in FIG. As shown in FIG. 9, the moving picture coding apparatus 300a includes a DCT unit 1, a quantization unit 2, a variable length coding unit 3, an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, and an intra prediction unit. 8, an inter prediction unit 9, an encoding control unit 10, a filter processing unit l ib, and an inverse filter processing unit 12b.
[0157] 動画像符号ィ匕装置 300bと動画像符号ィ匕装置 300 (図 1)との相違点は、動画像符 号化装置 300aが、フィルタ処理部 11の代わりに、予測画像に基づいてフィルタ処理 を実行するフィルタ処理部 l ibを備え、逆フィルタ処理部 12の代わりに、予測画像に 基づ 、て逆フィルタ処理を実行する逆フィルタ処理部 12aを備えて 、る点である。ま た、更なる相違点は、フィルタ処理部 l ibが DCT部 1の直前に設けられ、原画像と予 測画像との差分画像をフィルタ処理の処理対象画像としている点である。なお、フィ ルタ処理部 1 lbおよび逆フィルタ処理部 12bがフィルタ処理のために用 、る予測画 像は、ともに、イントラ予測部 8またはインター予測部 9から供給される。  [0157] The difference between the moving image encoding device 300b and the moving image encoding device 300 (Fig. 1) is that the moving image encoding device 300a is based on a predicted image instead of the filter processing unit 11. The filter processing unit l ib for executing the filter processing is provided, and instead of the inverse filter processing unit 12, an inverse filter processing unit 12a for executing the inverse filter processing based on the predicted image is provided. Further, the difference is that the filter processing unit ib is provided immediately before the DCT unit 1 and uses the difference image between the original image and the predicted image as the processing target image of the filter processing. Note that the prediction images used by the filter processing unit 1 lb and the inverse filter processing unit 12b for the filter processing are both supplied from the intra prediction unit 8 or the inter prediction unit 9.
[0158] 図 9に示したように、動画像符号ィ匕装置 300bにおける、フィルタ処理部 l ibと逆フ ィルタ処理部 12bとを除く機能ブロックは、図 1の動画像符号ィ匕装置 300と同一であ る。従って、図 9において、図 1の動画像符号ィ匕装置 300と同一機能を有するブロック については、図 1と同一の名称および符号を用いて示し、その説明を省略する。  [0158] As shown in Fig. 9, the functional blocks of the video encoding device 300b excluding the filter processing unit ib and the inverse filter processing unit 12b are the same as those of the video encoding unit 300 in Fig. 1. They are identical. Therefore, in FIG. 9, blocks having the same functions as those of the moving picture coding apparatus 300 in FIG. 1 are denoted by the same names and symbols as those in FIG. 1, and description thereof is omitted.
[0159] 図 10は、図 9に示した動画像符号ィ匕装置 300bに対応する動画像復号装置 400b の概略構成を示した機能ブロック図である。図 10に示したように、動画像復号装置 4 00bは、逆量子化部 4、 IDCT部 5、フレームメモリ 7、イントラ予測部 8、インター予測 部 9、可変長復号部 20、および、逆フィルタ処理部 12bを備えている。 FIG. 10 is a functional block diagram showing a schematic configuration of a video decoding device 400b corresponding to the video encoding device 300b shown in FIG. As shown in FIG. 10, the video decoding device 400b includes an inverse quantization unit 4, an IDCT unit 5, a frame memory 7, an intra prediction unit 8, and an inter prediction. Unit 9, a variable length decoding unit 20, and an inverse filter processing unit 12b.
[0160] 図 10の動画像復号装置 400bと動画像復号装置 400 (図 2)との相違点は、動画像 復号装置 400bが、逆フィルタ処理部 12の代わりに、動画像符号化装置 300bと同一 の逆フィルタ処理部 12bを備えている点である。また、図 10に示したように、イントラ 予測部 8およびインター予測部 9が生成した予測画像力 逆フィルタ処理部 12bに供 給される点である。 [0160] The difference between the video decoding device 400b and the video decoding device 400 (Fig. 2) in Fig. 10 is that the video decoding device 400b is different from the video encoding device 300b in place of the inverse filter processing unit 12. The same inverse filter processing unit 12b is provided. Further, as shown in FIG. 10, it is supplied to the predicted image power inverse filter processing unit 12b generated by the intra prediction unit 8 and the inter prediction unit 9.
[0161] 以下、動画像符号ィ匕装置 300bに好適なフィルタ処理部 l ibにおけるフィルタ処理 と、動画像符号ィ匕装置 300および動画像復号装置 400bに好適な逆フィルタ処理部 12bにおける逆フィルタ処理とについて説明する。  [0161] In the following, filter processing in the filter processing unit l ib suitable for the moving image encoding device 300b, and inverse filtering processing in the inverse filter processing unit 12b suitable for the moving image encoding device 300 and the moving image decoding device 400b Will be described.
[0162] フィルタ処理部 l ibおよび逆フィルタ処理部 12bは、フィルタ出力画像における各 ブロックの画像データを、イントラ予測部 8あるいはインター予測部 9から供給される予 測画像の画像データから算出する。具体的には、水平方向のフィルタ処理において は、ブロック Bの画像データを、予測画像におけるブロック Bおよびブロック B の  [0162] The filter processing unit l ib and the inverse filter processing unit 12b calculate the image data of each block in the filter output image from the image data of the prediction image supplied from the intra prediction unit 8 or the inter prediction unit 9. Specifically, in the horizontal filter processing, the image data of block B is used as the block B and block B of the predicted image.
n n n+1 画像データを参照して算出し、垂直方向のフィルタ処理においては、ブロック Bの画 像データを、予測画像におけるブロック Bおよびブロック B の画像データを参照し  n n n + 1 Calculated with reference to the image data, and in the vertical filter processing, the image data of block B is referred to the image data of block B and block B in the predicted image.
n n+W  n n + W
て算出する。以下では、 1つのブロック Bの画素値を算出するためのフィルタ処理演 算について説明する力 フィルタ処理部 l ibおよび逆フィルタ処理部 12bは、以下に 説明するフィルタ演算処理を繰り返すことで、フィルタ出力画像全体の水平方向のフ ィルタ処理を完了する。また、垂直方向のフィルタ処理を同様に実行することで、全 体のフィルタ処理を完了する。  To calculate. In the following, the force filter processing unit l ib and the inverse filter processing unit 12b, which explain the filter processing calculation for calculating the pixel value of one block B, repeat the filter calculation processing described below, thereby outputting the filter output. Complete the horizontal filtering of the entire image. In addition, the entire filtering process is completed by performing the filtering process in the vertical direction in the same manner.
[0163] フィルタ処理部 l ibが水平方向のフィルタ処理において実行するフィルタ処理演算 は、以下のステップ Slb〜S3bを含んで構成される。  [0163] The filter processing calculation performed by the filter processing unit l ib in the horizontal filter processing includes the following steps Slb to S3b.
[0164] (ステップ Sib) フィルタ処理部 l ibは、予測画像におけるブロック Bの v行目に配 列された 4画素の平均画素値 < q >と、処理対象画像におけるブロック B の V行  [0164] (Step Sib) The filter processing unit l ib calculates the average pixel value <q> of the four pixels arranged in the vth row of the block B in the predicted image and the Vth row of the block B in the processing target image.
π、ν n+1 目に配列された 4画素の平均画素値く q >とを算出する。フィルタ処理部 l ibが  Calculate the average pixel value q> of the four pixels arranged in the π and ν n + 1 eyes. Filter processing section l ib
n+l、  n + l,
、これらの平均画素値を算出するための算出式は、〔数 22〕と同一である。  The calculation formula for calculating these average pixel values is the same as [Equation 22].
[0165] (ステップ S2b) フィルタ処理部 l ibは、ステップ Sibにて得られた平均画素値く q [0165] (Step S2b) The filter processing unit l ib calculates the average pixel value obtained in step Sib q
>と< >とを用いて、ブロック Bの V行目の各画素についての予測値 ( n、 u、 v)と、ブロック B の v行目の各画素についての予測値 (η+ 1、 u、 v)とを n+ 1 pred > And <> and the predicted value for each pixel in the Vth row of block B ( n, u, v) and the predicted value (η + 1, u, v) for each pixel in the vth row of block B is n + 1 pred
算出する。フィルタ処理部 l ibが予測値 (n、 u、 v)と (n+ 1, u、 v)とを算出 pred pred  calculate. Filter processing unit l ib calculates predicted values (n, u, v) and (n + 1, u, v) pred pred
するための算出式は以下の通りである。  The calculation formula for doing this is as follows.
[0166] [数 27] 1 d(n, u, v) - +-({¾,ν> -(¾+ι,ν))[0166] [Equation 27] 1 d (n, u, v)-+-((¾, ν >-(¾ + ι, ν ))
Figure imgf000034_0001
Figure imgf000034_0001
[0167] [数 28] [0167] [Equation 28]
¾ (" + 1, = 《 -〈 +i. )w 《 - ,) ¾ ("+ 1, = 《-〈+ i.) W 《-,)
[0168] (ステップ S3b) フィルタ処理部 l ibは、フィルタ処理対象画像 (原画像と予測画像 との差分画像)の画素値 p (n、 u、 v)から、ステップ S2bにて得られた予測値 (η、 pred u、 v)を減算することにより、フィルタ出力画像の画素値 p' (n、 u、 v)を算出する。フィ ルタ処理部 l ibがフィルタ出力画像の画素値 p' (n、 u、 v)を算出するために用いる 算出式は以下の通りである。 [0168] (Step S3b) The filter processing unit l ib calculates the prediction obtained in step S2b from the pixel value p (n, u, v) of the image to be filtered (difference image between the original image and the predicted image). The pixel value p ′ (n, u, v) of the filter output image is calculated by subtracting the values (η, pred u, v). The calculation formula used by the filter processing unit l ib to calculate the pixel value p ′ (n, u, v) of the filter output image is as follows.
[0169] [数 29] p n, u, v) = p (n, u,v) - qpred in, u, v) [0169] [Equation 29] pn, u, v) = p (n, u, v)-q pred in, u, v)
[0170] なお、上記ステップ Slb〜S3bは、ブロック Bに属する 4行 4列に配列された 16画 素のうち、 V行目に配列された 4画素の画素値を算出するフィルタ処理演算であるが 、上記ステップ Slb〜S3bをブロック Bの 1行目力 4行目について、順次、あるいは 、並列的に実行することにより、ブロック Bに属する全ての画素の画素値が算出され る。 Note that the above steps Slb to S3b are filter processing operations for calculating the pixel values of 4 pixels arranged in the V-th row among the 16 pixels arranged in 4 rows and 4 columns belonging to the block B. However, the pixel values of all the pixels belonging to the block B are calculated by executing the above steps Slb to S3b sequentially or in parallel for the first row and the fourth row of the block B.
[0171] 垂直方向のフィルタ処理にお!、て逆フィルタ処理部 12bが実行する逆フィルタ処理 演算は、以下のステップ Tlb〜T3bを含んで構成される。  [0171] In the filter processing in the vertical direction, the inverse filter processing executed by the inverse filter processing unit 12b includes the following steps Tlb to T3b.
[0172] (ステップ Tib) 逆フィルタ処理部 12bは、予測画像におけるブロック Bの V行目に 配列された 4画素の平均画素値 < q >と、予測画像におけるブロック B の V行目 [0172] (Step Tib) The inverse filter processing unit 12b performs processing on the Vth row of the block B in the predicted image. The average pixel value <q> of the arranged four pixels and the Vth row of block B in the predicted image
π、ν η+1 に配列された 4画素の平均画素値く q >とを算出する。逆フィルタ処理部 12bが  Calculate the average pixel value q> of the four pixels arranged in π and ν η + 1. Inverse filter processing unit 12b
n+l、  n + l,
、これらの平均画素値を算出するために用いる算出式は〔数 22〕と同一である。  The calculation formula used to calculate these average pixel values is the same as [Equation 22].
[0173] (ステップ T2b) 逆フィルタ処理部 12bは、ステップ Tibにて得られた平均画素値 < q >と< >とを用いて、ブロック Bの V行目の各画素についての予測値 q [0173] (Step T2b) The inverse filter processing unit 12b uses the average pixel values <q> and <> obtained in Step Tib to calculate the predicted value q for each pixel in the Vth row of block B.
(n、 u、 v)と、ブロック B の v行目の各画素についての予測値 q (n+ 1、 u、 v)と を算出する。逆フィルタ処理部 12bが予測値 q (n、 u、 v)と q (n+ 1、 u、 v)とを算 (n, u, v) and the predicted value q (n + 1, u, v) for each pixel in the v-th row of block B are calculated. The inverse filter processing unit 12b calculates the predicted values q (n, u, v) and q (n + 1, u, v).
pred pred  pred pred
出するために用いる算出式は、〔数 27〕〔数 28〕と同一である。  The calculation formula used to output is the same as [Equation 27] and [Equation 28].
[0174] (ステップ T3b) [0174] (Step T3b)
逆フィルタ処理部 12bは、逆フィルタ処理対象画像の画素値 P (n、 u、 v)に、ステツ プ T2bにて得られた予測値 q (n、 u、 v)を加算することにより、フィルタ出力画像の  The inverse filter processing unit 12b adds the predicted value q (n, u, v) obtained in step T2b to the pixel value P (n, u, v) of the image to be inverse filtered, thereby obtaining a filter. Output image
pred  pred
画素値 (n、 u、 v)を算出する。逆フィルタ処理部 12bがフィルタ出力画像の画素値 P' (n、 u、 v)を算出するために用いる算出式は以下の通りである。  Calculate pixel values (n, u, v). The calculation formula used by the inverse filter processing unit 12b to calculate the pixel value P ′ (n, u, v) of the filter output image is as follows.
[0175] [数 30] ' («,M, V) = P(n,u,v) + qpred [n, u, v) [0175] [Equation 30] '(«, M, V) = P (n, u, v) + q pred (n, u, v)
[0176] なお、上記ステップ Tlb〜T3bは、ブロック Bに属する 4行 4列に配列された 16画 素のうち、 V行目に配列された 4画素の画素値を算出するフィルタ処理演算であるが 、上記ステップ Tlb〜T3bをブロック Bの 1行目力 4行目について、順次、あるいは 、並列的に実行することにより、ブロック Bに属する全ての画素の画素値が算出され る。 Note that the above steps Tlb to T3b are filter processing operations that calculate pixel values of 4 pixels arranged in the V-th row among 16 pixels arranged in 4 rows and 4 columns belonging to the block B. However, the pixel values of all the pixels belonging to the block B are calculated by executing the above steps Tlb to T3b sequentially or in parallel with respect to the first row and the fourth row of the block B.
[0177] 以上のように、フィルタ処理部 l ibは、フィルタ処理の対象となる対象画像の画像デ 一タカも減算する画素値を、予測画像の画像データから算出する。また、逆フィルタ 処理部 12bは、逆フィルタ処理の対象となる処理対象画像の画像データに加算する 画素値を、上記フィルタ処理手段と同一の方法で予測画像の画像データ力 算出す る。すなわち、フィルタ処理部 l ibが処理対象画像から減算する画素値と、逆フィル タ処理部 12bが処理対象画像に加算する画素値とは、同一の予測画像力 算出され る同一の画像値となる。従って、フィルタ処理部 l ibと逆フィルタ処理部 12bとによれ ば、量子化誤差程度の違いをもつ処理対象画像に基づいてフィルタ処理'逆フィル タ処理を行う動画像符号化装置 300と比べ、フィルタ処理部 1 lbが処理対象画像か ら除去したブロック歪を発生させる周波数成分を、上記逆フィルタ処理部 12bにてより 完全に復元できる。 [0177] As described above, the filter processing unit ib calculates a pixel value from which the image data of the target image to be filtered is also subtracted from the image data of the predicted image. In addition, the inverse filter processing unit 12b calculates the image data force of the predicted image using the same method as the filter processing means, with respect to the pixel value to be added to the image data of the processing target image to be subjected to the inverse filter processing. That is, the pixel value subtracted from the processing target image by the filter processing unit l ib and the pixel value added by the inverse filter processing unit 12b to the processing target image are calculated with the same predicted image power. The same image value. Therefore, according to the filter processing unit l ib and the inverse filter processing unit 12b, compared with the moving image encoding apparatus 300 that performs the filter processing 'inverse filter processing based on the processing target image having a difference in the quantization error level, The frequency component that generates block distortion removed from the processing target image by the filter processing unit 1 lb can be more completely restored by the inverse filter processing unit 12b.
〔付記事項〕  [Additional Notes]
なお、本発明は上述した実施形態に限定されるものではなぐ請求項に示した範囲 で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的 手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる 。例えば、本発明は以下のように構成することができる。  The present invention is not limited to the above-described embodiment, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention. For example, the present invention can be configured as follows.
[0178] 本発明に係る動画像符号ィ匕装置は、画像を複数のブロックに分割し、符号化する 動画像符号ィ匕装置であって、前記ブロック単位の画像に対し所定のフィルタ処理を 行うフィルタ処理手段と、前記フィルタ処理手段の逆変換である逆フィルタ処理を行う 逆フィルタ処理手段を備えるように構成されて 、てもよ!/、。  [0178] The moving image encoding apparatus according to the present invention is a moving image encoding apparatus that divides and encodes an image into a plurality of blocks, and performs a predetermined filtering process on the image in units of blocks. It may be configured to include a filter processing means and an inverse filter processing means for performing an inverse filter process that is an inverse transformation of the filter processing means.
[0179] また、本発明に係る動画像符号ィ匕装置においては、前記フィルタ処理手段は、隣 接する複数ブロックの符号化対象画像を基に、当該ブロックの符号化対象画像に対 し所定のフィルタ処理を行うように構成されて 、てもよ 、。  [0179] In addition, in the video encoding apparatus according to the present invention, the filter processing unit is configured to apply a predetermined filter to the encoding target image of the block based on the encoding target images of a plurality of adjacent blocks. It is configured to do the processing.
[0180] また、本発明に係る動画像符号ィ匕装置は、前記ブロック単位に画面内予測、あるい は画面間予測を行う予測手段を備え、前記フィルタ処理手段は、前記予測手段が出 力する隣接した複数ブロックの予測画像を基に、当該ブロックの符号化対象画像に 対し所定のフィルタ処理を行うように構成されて 、てもよ 、。  [0180] Further, the moving picture coding apparatus according to the present invention includes prediction means for performing intra-screen prediction or inter-screen prediction for each block, and the filter processing means outputs the prediction means. Based on the predicted images of a plurality of adjacent blocks, a predetermined filtering process may be performed on the encoding target image of the block.
[0181] また、本発明に係る動画像符号ィ匕装置は、前記ブロック単位に画面内予測、あるい は画面間予測を行う予測手段を備え、前記フィルタ処理手段は、前記予測手段が出 力する隣接した複数ブロックの予測画像を基に、当該ブロックの符号化対象画像と 予測画像の差分画像に対し所定のフィルタ処理を行うように構成されて 、てもよ 、。  [0181] Further, the moving picture coding apparatus according to the present invention includes a prediction unit that performs intra-frame prediction or inter-screen prediction for each block, and the filter processing unit outputs the prediction unit. Based on the predicted images of a plurality of adjacent blocks, a predetermined filter process may be performed on the difference image between the encoding target image and the predicted image of the block.
[0182] また、本発明に係る動画像復号装置は、前記ブロック毎に符号化された動画像デ 一タを復号する動画像復号装置であって、前記逆フィルタ処理手段を備えるように構 成されていてもよい。 [0183] 最後に、本発明の動画像符号化装置 300、 300a, 300b,および、本発明の動画 像復号装置 400、 400a, 400bの上記各ブロックは、特にフィルタ処理手段 11. 11a •l ib,および、逆フィルタ処理手段 12 ' 12a ' 12bは、ハードウェアロジックによって 構成されるものであってもよ 、し、次のように CPUを用いてソフトウェアによって実現 されるものであってもよ ヽ。 [0182] Also, the moving picture decoding apparatus according to the present invention is a moving picture decoding apparatus for decoding moving picture data encoded for each block, and is configured to include the inverse filter processing means. May be. [0183] Finally, the above-described blocks of the moving image encoding apparatus 300, 300a, 300b of the present invention and the moving image decoding apparatus 400, 400a, 400b of the present invention are particularly adapted to filter processing means 11. 11a • l ib , And the inverse filter processing means 12'12a'12b may be constituted by hardware logic, or may be realized by software using a CPU as follows. .
[0184] すなわち、上記動画像符号化装置'動画像復号装置は、各機能を実現する制御プ ログラムの命令を実行する CPU (central processing unit)、上記プログラムを格納し た ROM (read only memory)、上記プログラムを展開する RAM (random access mem ory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置 (記録媒体) などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアで ある上記動画像符号ィ匕装置'動画像復号装置の制御プログラムのプログラムコード( 実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み 取り可能に記録した記録媒体を、上記動画像符号化装置 ·動画像復号装置に供給 し、そのコンピュータ (または CPUや MPU)が記録媒体に記録されているプログラム コードを読み出し実行することによっても、達成可能である。  [0184] That is, the above-described video encoding device 'video decoding device includes a CPU (central processing unit) that executes instructions of a control program that realizes each function, and a ROM (read only memory) that stores the program. A random access memory (RAM) for expanding the program, and a storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is to provide a computer with program codes (execution format program, intermediate code program, source program) of a control program for the above-described moving image encoding device “moving image decoding device” which is software for realizing the above-described functions. The recording medium recorded so as to be readable can be supplied to the moving picture encoding apparatus / moving picture decoding apparatus, and the computer (or CPU or MPU) can read and execute the program code recorded on the recording medium. Is achievable.
[0185] 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッ ピー(登録商標)ディスク Zハードディスク等の磁気ディスクや CD— ROMZMOZ MD/DVD/CD—R等の光ディスクを含むディスク系、 ICカード (メモリカードを含 む) Z光カード等のカード系、あるいはマスク ROMZEPROMZEEPROMZフラッ シュ ROM等の半導体メモリ系などを用いることができる。  [0185] The recording medium includes, for example, a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy disk Z hard disk, and an optical disk such as CD-ROMZMOZ MD / DVD / CD-R. Disk systems, IC cards (including memory cards) Z optical cards and other card systems, or mask ROMZEPROMZEEPROMZ flash ROM and other semiconductor memory systems can be used.
[0186] また、上記動画像符号化装置 ·動画像復号装置を通信ネットワークと接続可能に構 成し、上記プログラムコードは通信ネットワークを介して供給してもよい。この通信ネッ トワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラ ネット、 LAN, ISDN, VAN, CATV通信網、仮想専用網(virtual private network) 、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットヮ ークを構成する伝送媒体としては、特に限定されず、例えば、 IEEE 1394, USB、電 力線搬送、ケーブル TV回線、電話線、 ADSL回線等の有線でも、 IrDAやリモコン のような赤外線、 Bluetooth (登録商標)、 802. 11無線、 HDR、携帯電話網、衛星 回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プロ グラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデ ータ信号の形態でも実現され得る。 [0186] Further, the moving image encoding device / moving image decoding device may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite A communication network or the like is available. In addition, the transmission medium constituting the communication network is not particularly limited. For example, IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc. can be used, such as IrDA or remote control. Infrared, Bluetooth (registered trademark), 802.11 wireless, HDR, mobile phone network, satellite It can also be used by radio such as lines and terrestrial digital networks. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
[0187] 本発明に係る動画像符号ィ匕装置は、以上のように、画像を複数のブロックに分割し て各ブロックの画像データを量子化し、該量子化により得られた量子化代表値を符 号化する動画像符号化装置において、上記量子化前の画像データに対し、ブロック 歪を発生させる周波数成分を除去するフィルタ処理を施すフィルタ処理手段を備え ている。 [0187] As described above, the moving image encoding apparatus according to the present invention divides an image into a plurality of blocks, quantizes the image data of each block, and uses the quantized representative value obtained by the quantization. The moving image encoding apparatus for encoding includes a filter processing means for performing a filter process for removing a frequency component that generates block distortion on the image data before quantization.
[0188] 従って、ブロック歪が低減された復号画像を、特定の周波数成分を欠落させること なく復元し得る符号ィ匕データを生成することができる。  Accordingly, it is possible to generate code key data that can restore a decoded image with reduced block distortion without missing a specific frequency component.
[0189] また、本発明に係る動画像復号装置は、以上のように、ブロック歪を発生させる周 波数成分が除去された画像データを符号化して得られた符号化データを復号する 動画像復号装置であって、復号して得られた復号画像の画像データに対し、上記除 去された周波数成分を復元する逆フィルタ処理を施す逆フィルタ処理手段を備えて いる。  In addition, as described above, the video decoding device according to the present invention decodes encoded data obtained by encoding image data from which frequency components that generate block distortion are removed. The apparatus includes an inverse filter processing unit that performs an inverse filter process for restoring the removed frequency component on the image data of the decoded image obtained by decoding.
[0190] 従って、ブロック歪が低減された復号画像を、特定の周波数成分を欠落させること なく復号することができる  [0190] Accordingly, a decoded image with reduced block distortion can be decoded without missing a specific frequency component.
発明の詳細な説明の項においてなされた具体的な実施形態または実施例は、あく までも、本発明の技術内容を明らかにするものであって、そのような具体例にのみ限 定して狭義に解釈されるべきものではなぐ本発明の精神と次に記載する請求の範 囲内で、 、ろ 、ろと変更して実施することができるものである。  The specific embodiments or examples made in the detailed description section of the invention are to clarify the technical contents of the present invention, and are limited to such specific examples. The present invention should not be construed as follows, and can be implemented with various modifications within the spirit of the present invention and the scope of the following claims.
産業上の利用可能性  Industrial applicability
[0191] 本発明は、動画像を符号化して記憶する動画像記憶装置、動画像を符号化して送 信する動画像送信装置、あるいは、動画像を復号して再生する動画像再生装置等と して好適に利用することができる。具体的には、例えば、ハードディスクレコーダゃ携 帯電話端末など対して、好適に利用することができる。 [0191] The present invention relates to a moving image storage device that encodes and stores a moving image, a moving image transmission device that encodes and transmits a moving image, a moving image reproducing device that decodes and reproduces a moving image, and the like. Therefore, it can be suitably used. Specifically, for example, it can be suitably used for a hard disk recorder or a mobile phone terminal.

Claims

請求の範囲 The scope of the claims
[1] 画像を複数のブロックに分割して各ブロックの画像データを量子化し、該量子化に より得られた量子化代表値を符号化する動画像符号化装置において、  [1] In a video encoding device that divides an image into a plurality of blocks, quantizes the image data of each block, and encodes the quantized representative value obtained by the quantization,
上記量子化前の画像データに対し、ブロック歪を発生させる周波数成分を除去す るフィルタ処理を施すフィルタ処理手段を備えたことを特徴とする動画像符号化装置  A moving picture coding apparatus comprising: filter processing means for performing filter processing for removing frequency components that generate block distortion on the image data before quantization
[2] 上記フィルタ処理手段が行うフィルタ処理は、上記各ブロックの平均画素値を処理 の前後で不変に保つものである、 [2] The filter processing performed by the filter processing means is to keep the average pixel value of each block unchanged before and after the processing.
ことを特徴とする請求の範囲第 1項に記載の動画像符号ィ匕装置。  The moving picture encoding device according to claim 1, wherein
[3] 予測画像を生成する予測画像生成手段と、 [3] predicted image generation means for generating a predicted image;
局所復号画像に対し、上記フィルタ処理の逆変換に相当する逆フィルタ処理を行う 逆フィルタ処理手段とを更に備え、  An inverse filter processing means for performing an inverse filter process corresponding to the inverse transform of the filter process on the locally decoded image;
上記予測画像生成手段は、上記逆フィルタ処理が施された局所復号画像を参照 画像として上記予測画像を生成するものである、  The predicted image generation means generates the predicted image using the locally decoded image subjected to the inverse filter processing as a reference image.
ことを特徴とする請求の範囲第 1項または第 2項に記載の動画像符号ィ匕装置。  3. The moving picture coding apparatus according to claim 1 or 2, wherein
[4] 上記量子化の対象となる量子化対象画像は、上記予測画像と上記フィルタ処理が 施された原画像との差分画像であり、 [4] The quantization target image to be quantized is a difference image between the predicted image and the original image subjected to the filtering process.
上記局所復号画像は、当該動画像符号化装置にお!ヽて上記量子化代表値を逆量 子化して得られた画像データと上記予測画像の画像データとを加算して得られる画 像である、  The locally decoded image is an image obtained by adding the image data obtained by dequantizing the quantized representative value to the moving image coding apparatus and the image data of the predicted image. is there,
ことを特徴とする請求の範囲第 3項に記載の動画像符号ィ匕装置。  4. The moving picture coding apparatus according to claim 3, wherein
[5] 上記量子化の対象となる量子化対象画像は、上記予測画像と原画像との差分画 像に上記フィルタ処理が施されたものであり、 [5] The quantization target image to be quantized is obtained by performing the filtering process on the difference image between the predicted image and the original image.
上記局所復号画像は、当該動画像符号化装置にお!ヽて上記量子化代表値を逆量 子化して得られた画像データと上記予測画像の画像データとを加算して得られる画 像である、  The locally decoded image is an image obtained by adding the image data obtained by dequantizing the quantized representative value to the moving image coding apparatus and the image data of the predicted image. is there,
ことを特徴とする請求の範囲第 3項に記載の動画像符号ィ匕装置。  4. The moving picture coding apparatus according to claim 3, wherein
[6] 上記フィルタ処理手段は、上記フィルタ処理の対象となる処理対象画像の画像デ 一タカ 減算する画素値を、上記予測画像の画像データ力 算出するものであり、 上記逆フィルタ処理手段は、上記逆フィルタ処理の対象となる処理対象画像の画 像データに加算する画素値を、上記フィルタ処理手段と同一の方法で上記予測画像 の画像データ力も算出するものである、 [6] The filter processing means includes an image data of a processing target image to be filtered. The pixel value to be subtracted is calculated as the image data force of the predicted image, and the inverse filter processing means adds the pixel value to be added to the image data of the processing target image to be subjected to the inverse filter processing. The image data force of the predicted image is also calculated by the same method as the filter processing means.
ことを特徴とする請求の範囲第 3項力 第 5項のうち何れ力 1項に記載の動画像符号 化装置。  The moving picture coding apparatus according to any one of claims 5 to 5, wherein the force is any one of the fifth term and the fifth term.
[7] 上記フィルタ処理手段は、  [7] The filter processing means includes:
上記フィルタ処理の対象となる処理対象画像の各ブロックにおける平均画素値を 算出する平均画素値算出処理と  An average pixel value calculation process for calculating an average pixel value in each block of the processing target image to be filtered;
上記平均画素値算出処理にて算出された平均画素値に基づいて、上記処理対 象画像の各画素の画素値を予測する予測処理と、  A prediction process for predicting a pixel value of each pixel of the processing target image based on the average pixel value calculated in the average pixel value calculation process;
上記処理対象画像の各画素について、  For each pixel of the processing target image,
上記予測処理にて予測された当該画素の予測画素値と、上記平均画素値算出 処理にて算出された当該画素が属するブロックの平均画素値との差を、上記処理対 象画像から除去すべき除去成分とし、当該除去成分を上記処理対象画像の当該画 素の画素値から減算する減算処理と、  The difference between the predicted pixel value of the pixel predicted in the prediction process and the average pixel value of the block to which the pixel belongs calculated in the average pixel value calculation process should be removed from the processing target image. A subtraction process for subtracting the removal component from the pixel value of the pixel of the processing target image as a removal component;
を実行するものである、  Is to perform
ことを特徴とする、請求の範囲第 1項力も第 6項のうち何れか 1項に記載の動画像符 号化装置。  The moving picture coding apparatus according to any one of claims 6 to 6, wherein the first term force in claim 1 is also characterized in that.
[8] ブロック歪を発生させる周波数成分が除去された画像データを符号ィ匕して得られた 符号化データを復号する動画像復号装置であって、  [8] A moving picture decoding apparatus for decoding encoded data obtained by encoding image data from which frequency components that generate block distortion are removed,
復号して得られた復号画像の画像データに対し、上記除去された周波数成分を復 元する逆フィルタ処理を施す逆フィルタ処理手段を備えたことを特徴とする動画像復 号装置。  A moving picture decoding apparatus comprising: an inverse filter processing means for performing an inverse filter process for restoring the removed frequency component on the image data of a decoded image obtained by decoding.
[9] 上記フィルタ逆処理手段は、  [9] The filter inverse processing means includes:
上記逆フィルタ処理の対象となる処理対象画像の各ブロックにおける平均画素値 を算出する平均画素値算出処理と  An average pixel value calculation process for calculating an average pixel value in each block of the processing target image to be subjected to the inverse filtering process;
上記平均画素値算出処理にて算出された平均画素値に基づいて、上記処理対 象画像の各画素の画素値を予測する予測処理と、 Based on the average pixel value calculated in the average pixel value calculation process, A prediction process for predicting the pixel value of each pixel of the elephant image;
上記処理対象画像の各画素につ!、て、上記予測処理にて予測された当該画素 の予測画素値と、上記平均画素値算出処理にて算出された当該画素が属するプロ ックの平均画素値との差を、上記処理対象画像に付加すべき付加成分とし、当該付 加成分を上記処理対象画像の当該画素の画素値に加算する加算処理と、 を実行するものである、  For each pixel of the image to be processed, the predicted pixel value of the pixel predicted in the prediction process and the average pixel of the block to which the pixel calculated in the average pixel value calculation process belongs. An addition process for adding the difference from the value to the pixel value of the pixel of the processing target image as an additional component to be added to the processing target image.
ことを特徴とする、請求の範囲第 8項に記載の動画像復号装置。  9. The moving picture decoding apparatus according to claim 8, wherein the moving picture decoding apparatus is characterized in that:
[10] 請求項 1から 7のうち何れか 1項に記載の動画像符号ィ匕装置を備えた動画像記録 装置であって、当該動画像符号化装置にて符号化された動画像を記録する動画像 記録装置。 [10] A moving image recording apparatus comprising the moving image encoding device according to any one of claims 1 to 7, wherein the moving image encoded by the moving image encoding device is recorded. A moving image recording device.
[11] 請求項 8または 9に記載の動画像復号装置を備えた動画像再生装置であって、当 該動画像符号装置にて復号された動画像を再生する動画像再生装置。  [11] A moving image reproduction device comprising the moving image decoding device according to claim 8 or 9, wherein the moving image reproduction device reproduces a moving image decoded by the moving image encoding device.
PCT/JP2007/052575 2006-03-17 2007-02-14 Moving picture coding device and moving picture decoding device WO2007108254A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008506197A JP4768011B2 (en) 2006-03-17 2007-02-14 Moving picture encoding apparatus and moving picture decoding apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006075685 2006-03-17
JP2006-075685 2006-03-17

Publications (1)

Publication Number Publication Date
WO2007108254A1 true WO2007108254A1 (en) 2007-09-27

Family

ID=38522291

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/052575 WO2007108254A1 (en) 2006-03-17 2007-02-14 Moving picture coding device and moving picture decoding device

Country Status (2)

Country Link
JP (2) JP4768011B2 (en)
WO (1) WO2007108254A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012077719A1 (en) * 2010-12-09 2012-06-14 シャープ株式会社 Image decoding device and image coding device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0319488A (en) * 1989-06-15 1991-01-28 Matsushita Electric Ind Co Ltd Block coding and decoding device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3529432B2 (en) * 1994-06-30 2004-05-24 株式会社東芝 Video encoding / decoding device
JPH11177993A (en) * 1997-12-12 1999-07-02 Nec Corp Moving image encoding device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0319488A (en) * 1989-06-15 1991-01-28 Matsushita Electric Ind Co Ltd Block coding and decoding device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YAMAMOTO T. ET AL.: "Catmull-Rom Spline Hokan ni Motozuku Block Hizumi Teigen Shuho no Kiso Kento", 2006 NEN THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS ENGINEERING SCIENCES SOCIETY TAIKAI KOEN RONBUNSHU, vol. A-4-10, 7 September 2006 (2006-09-07), pages 77, XP003017840 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012077719A1 (en) * 2010-12-09 2012-06-14 シャープ株式会社 Image decoding device and image coding device

Also Published As

Publication number Publication date
JP2011166832A (en) 2011-08-25
JP4768011B2 (en) 2011-09-07
JPWO2007108254A1 (en) 2009-08-06

Similar Documents

Publication Publication Date Title
JP5283628B2 (en) Video decoding method and video encoding method
KR100716998B1 (en) Encoder and Decoder for reducing blocking phenomenon, method therefor, and recording medium storing A program to implement thereof
JP4352110B2 (en) Data compression / decompression method, program, and apparatus
US20100254450A1 (en) Video coding method, video decoding method, video coding apparatus, video decoding apparatus, and corresponding program and integrated circuit
KR100853336B1 (en) Image encoding apparatus and image decoding apparatus
US20130215961A1 (en) Motion video encoding apparatus, motion video encoding method, motion video encoding computer program, motion video decoding apparatus, motion video decoding method, and motion video decoding computer program
JPWO2017068856A1 (en) Predictive image generation device, image decoding device, and image encoding device
JP2007166522A (en) Decoding device, decoding method, and program
WO2006098226A1 (en) Encoding device and dynamic image recording system having the encoding device
JPWO2010041534A1 (en) Image processing apparatus, method and program, moving picture encoding apparatus, method and program, moving picture decoding apparatus, method and program, and encoding / decoding system and method
KR20210021581A (en) Apparatus and method for filtering in video coding
JPH10224790A (en) Filter eliminating block noise in companded image and filter method
US8442338B2 (en) Visually optimized quantization
WO2008007717A1 (en) Dynamic image decoding device and dynamic image encoding device
EP1511319A1 (en) Film Grain Extraction Filter
JP6796463B2 (en) Video encoding device, video decoding device, and program
WO2007108254A1 (en) Moving picture coding device and moving picture decoding device
JP4784618B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding program, and moving picture decoding program
US20120155534A1 (en) Image Decoding Apparatus, Image Decoding Method and Computer Readable, Non-Transitory Storage Medium
JP2017103723A (en) Encoding device, decoding device, and program
KR101979634B1 (en) Image processing apparatus for image enhancement and method thereof
JP2005260989A (en) Image processing apparatus and image processing method
WO2009133938A1 (en) Time-varying image encoding and decoding device
JP2007189622A (en) Moving image encoding method and device, decoding method and device, moving image processing program and computer readable recording medium
JP2007516639A (en) Encoding method and encoding apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07708377

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2008506197

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07708377

Country of ref document: EP

Kind code of ref document: A1