WO2010013543A1 - 圧縮画像ノイズ除去装置と再生装置 - Google Patents

圧縮画像ノイズ除去装置と再生装置 Download PDF

Info

Publication number
WO2010013543A1
WO2010013543A1 PCT/JP2009/060422 JP2009060422W WO2010013543A1 WO 2010013543 A1 WO2010013543 A1 WO 2010013543A1 JP 2009060422 W JP2009060422 W JP 2009060422W WO 2010013543 A1 WO2010013543 A1 WO 2010013543A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
quantization
image
noise
information
Prior art date
Application number
PCT/JP2009/060422
Other languages
English (en)
French (fr)
Inventor
谷田部 祐介
小味 弘典
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to KR1020107027122A priority Critical patent/KR101223780B1/ko
Priority to JP2010522654A priority patent/JP5362723B2/ja
Priority to CN2009801208521A priority patent/CN102057679B/zh
Priority to BRPI0913589-8A priority patent/BRPI0913589B1/pt
Priority to EP09802788A priority patent/EP2320662A4/en
Priority to US12/993,920 priority patent/US8929439B2/en
Publication of WO2010013543A1 publication Critical patent/WO2010013543A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Definitions

  • This patent is for digital video equipment that plays back digitally compressed images.
  • the edge determination unit 22 determines whether an edge exists from the state of an image obtained by combining encoded images for each block. For the block having an edge, the plane approximation unit 32 performs plane approximation on the areas on both sides of the edge to create an approximate image, and DCT this approximate image to convert it to the frequency domain.
  • This digital image has a large amount of information, and is usually MPEG2, H.264, which is an international standard system for moving image compression. It is compressed by H.264 or the like. In this compression, the amount of data is reduced by frequency-converting image information and cutting high-frequency components by quantization. By reducing the amount of data due to this quantization, in the compressed image, blurring of the image and mosquito noise occur due to lack of high-frequency components.
  • the quantization width control provides a wider quantization width for the edge portion based on human visual characteristics. It is considered that the quality of the corrected image is also lowered.
  • An object of the present invention is to reproduce a compressed image with high image quality.
  • a compressed image can be reproduced with high image quality.
  • FIG. 1 is a diagram showing one aspect of the basic concept of the present invention.
  • (1) in FIG. 1 represents an original coefficient 101, which indicates a coefficient having a certain component (value).
  • (2) of FIG. 1 shows an example in which the original coefficient is quantized with a certain quantization width 102.
  • Quantization is to approximate a continuous amount of analog data or the like to a discrete value of digital data or the like.
  • the component of the original coefficient is approximated by the quantization width and becomes the quantized coefficient 107.
  • the original coefficient is not used as it is, but the quantization width and the post-quantization coefficient are used to realize a large amount of data compression processing.
  • the restoration coefficient 105 is restored from the quantization width and the post-quantization coefficient.
  • This process is sometimes called inverse quantization.
  • This process is an example of restoring the value to the median value in the quantization width region.
  • the position to be restored in this quantization width is defined on both the quantization side and the inverse quantization side.
  • quantization error 104 The difference between the restored coefficient that is the restored component and the value of the original coefficient before the restoration is referred to as a quantization error 104.
  • This is noise caused by digital data compression.
  • increasing the quantization width increases the data compression ratio but increases the quantization error, and decreasing the quantization width decreases the quantization error.
  • the compression ratio becomes smaller.
  • noise is removed from the restoration coefficient based on the peripheral information and the nature of its components. It is necessary to correct the components in the quantization width region used for the quantization. If the processing for removing the quantization error causes the restoration coefficient component to exceed the quantization width region used for inverse quantization shown in 106, it is a coefficient (image) different from the original coefficient (original image). It means that it has become. Therefore, in order to remove noise and faithfully restore the original coefficient, it is important to perform noise removal based on this principle, that is, noise removal within a range not exceeding the quantization width region.
  • an MPEG2 (ISO / IEC 13813-2) system is used as an image compression system.
  • the present invention is not limited to the MPEG2 system, and can be realized by other compression systems (for example, H.264, MPEG1, MPEG4, JPEG, VC1).
  • image information is decomposed into frequency components and quantized.
  • the quantization width at that time is stored in the stream with the quantization value, the quantization matrix, and the quantization width of the intra DC.
  • information on the quantized coefficient and quantization width can be acquired, so it is possible to estimate which value range the coefficient was in at the time of encoding.
  • noise removal is performed on the decoding side, values are corrected so that the coefficient after inverse quantization falls within the quantization width range.
  • FIG. 5 shows respective signal components (503 to 510) when the frequency conversion is performed on a signal assuming an image signal.
  • FIG. 5 shows an example of conversion into 8-dimensional components for simplification.
  • the conversion to 64 dimensions is performed using frequency conversion called DCT (Discrete Cosine Transform) that performs conversion every 8 ⁇ 8 for this conversion.
  • a horizontal axis 501 in FIG. 5 indicates a frequency, and indicates that it is a high-frequency component as it goes to the right.
  • the vertical axis 502 in FIG. 5 indicates the value of each frequency component, and indicates that there are more frequency components as the absolute value increases.
  • quantization processing is performed on this frequency component.
  • FIG. 6 shows an image for quantizing the signal component shown in FIG.
  • the quantization width 601 is individually calculated for each signal, and quantization is performed for each component.
  • the quantization width 601 is determined by a quantization value given for each macroblock which is a processing unit for encoding, and a quantization matrix given for each picture.
  • image compression it is preferable for image compression to increase the quantization width for higher frequency components. Image compression is realized by performing quantization separately for each component with this quantization width and using the quantized coefficient and the quantization width as a stream.
  • the frequency component is restored from the quantization coefficient and the quantization width, and the frequency component is restored to the image information by inverse frequency conversion.
  • a quantization value quantizer_scale
  • a quantization matrix non_intra / intra_quantizer_matrix
  • an intra DC quantization width intra / inter switching information (macrob) It is written. Also in other standards, information necessary for performing quantization is targeted.
  • noise is generated due to the quantization error as described in the first embodiment.
  • This noise is generally called mosquito noise or block noise.
  • the removal of these noises can be realized by applying various filters to the restored image.
  • the restoration of the restored image for which noise removal is performed must be performed within the range of the quantization width used for compression, resulting in an image different from the image before compression. In order to remove noise and faithfully restore an image before compression, it is necessary to remove noise based on this principle.
  • FIG. 2 shows the configuration of this example.
  • the left part of FIG. 2 shows MPEG2 decoder means 201.
  • An MPEG2 Video stream is input to a VLD (Variable Length Decoding) block 202 and is subjected to variable length inverse encoding.
  • the quantization information 205 for calculating a quantized coefficient 208 and a quantization width 209 from the stream, a motion vector, and the like.
  • the motion information 206 is converted.
  • the quantized coefficient is inversely quantized by the inverse quantization unit 203, and inverse frequency transform is performed by the inverse frequency transform unit.
  • the quantization information 205 that is the quantization width is output from the VLD unit to the inverse quantization unit and the information holding unit.
  • the motion information 206 is output to the motion compensation unit 207.
  • the motion compensation unit generates a predicted image from the previous decoded image based on the motion information, and adds the information to the inverse frequency transform unit to generate a decoded image 210 to be displayed.
  • This decoded image is stored in the motion compensation unit for use as a reference image for the next picture.
  • the above is the description of the decoder means. This is the same operation as a normal MPEG2 decoder. Since the image decoded by MPEG2 includes mosquito noise and block noise which are quantization noise, noise removal is performed in the right block. This noise removal is performed for each 8 ⁇ 8 block which is a unit of DCT of MPEG decoding processing.
  • the noise determination unit 250 will be described.
  • the decoded image generated by the decoder is input to the noise determination unit.
  • a lot of noise in the compressed image occurs when an edge image is included. This occurs because the edge contains a lot of high-frequency components and these high-frequency components are lost due to quantization. Therefore, in this block, it is analyzed whether or not edge information exists for the decoded image generated by the decoder means. As an analysis method, a difference between pixels is taken, and when the difference value is larger than a certain threshold value, detection is performed such as an edge.
  • an edge detection filter may be used.
  • a method for determining noise by analyzing the quantization value of the target block is also conceivable. This has a characteristic that high-frequency noise is less noticeable due to human visual characteristics in the encoding of moving images, and a block including a steep edge tends to increase the quantization value. Therefore, when the quantization value of this block is large, it may be determined that the portion includes edge information. Furthermore, edge detection with higher accuracy is possible by making a comprehensive determination using both (image information and quantization information).
  • moving images have a feature that noise at portions where the motion of the image is intense is inconspicuous. Therefore, it may be determined not to remove noise in a portion where movement is intense.
  • noise removal there may be a mode that does not perform noise depending on user preference. It may be determined not to perform noise removal based on such user designation.
  • the noise removal unit 251 will be described. In this block, noise removal is performed only on the blocks that are determined to be subjected to noise deletion by the noise determination unit.
  • the noise removal method is performed by predicting missing data due to quantization in the frequency domain during image compression. The basic concept of this method is shown below. With respect to the decoded image, the edge is more likely to be an edge and the noise is removed by guessing the pattern from the surrounding image and separating the edge and the noise. This operation creates a predicted image from which noise has been removed. Information usage from the peripheral images will be described later.
  • the frequency converter 252 will be described. In this block, frequency conversion is performed on the image from which noise has been removed.
  • the frequency conversion method is a method corresponding to the inverse frequency conversion. In the case of MPEG, DCT is used.
  • the quantization width check unit 253 will be described. In this block, it is checked whether the image after noise removal is present in the region within the quantization width from the quantized coefficient and the quantization width.
  • the quantization width check results in out of the quantization width, the information may be transferred to the noise removal unit again to remove noise, or the image before noise removal is displayed as a display image. You may transfer to an image holding part.
  • FIGS. 4A and 4B show a decoded image 401 that has been decoded. Decoding is performed in units of rectangular macroblocks 402. The quantization value can also be set for each macroblock.
  • FIG. 4A shows a scene in which a background 404 and an object 403 are captured, and quantization noise 405 is frequently generated in a macroblock including both the object and the background.
  • An example of the step 406 of the quantized value 407 at this time is shown in FIG. 4B.
  • This is a quantization value set at the time of encoding, and is generally quantized more finely at a flat portion and roughly at an edge portion due to human visual characteristics.
  • FIG. 7 shows a configuration for using this peripheral block.
  • the frame after noise removal may be held and used for noise removal after the next frame.
  • motion compensation is performed on the image after noise removal using motion information, and noise is removed as a predicted image.
  • the quantized value may be held in the memory unit, and the quantized value may be used for noise removal. This is because the quantization magnitude differs between I-pictures and P / B-pictures, and noise removal for each picture is made uniform by removing noise by continuously using the quantization values in I-pictures. It is possible to process, and it is possible to realize high-quality noise removal in moving images.
  • the noise removal in the second embodiment is configured to perform noise removal on the decoded image and check whether the image after the noise removal is within the quantization width.
  • the third embodiment in the middle of the decoder An embodiment for correcting the frequency component will be described.
  • FIG. 3 shows the configuration of this example.
  • the decoder means 201 in the figure is the same as in the second embodiment.
  • the frequency converter 301 will be described.
  • the frequency conversion unit performs frequency conversion on the predicted image output from the motion compensation unit.
  • the frequency conversion method is a method corresponding to the inverse frequency conversion unit 204. In the case of MPEG, it is DCT.
  • the operations 301 and 302 are operations for acquiring the frequency conversion information of the decoded image, and may be a method of performing DCT on the decoded image created by the decoder means.
  • the correction width calculation unit 303 will be described.
  • the information on the quantized coefficient and the quantization width is obtained from the decoder means, and the correction width of the frequency component that does not exceed the quantization width region is calculated for the frequency component of the decoded image.
  • the reverse frequency conversion unit 305 will be described.
  • This block is a block that creates a display image by performing inverse frequency conversion on the frequency components from which noise has been removed.
  • the display image holding unit 254 is a block that holds a display image.
  • the noise determination unit 306 will be described.
  • the information obtained by applying DCT to the decoded image generated by the adder 302 is used as an input to determine whether noise removal is performed on the target block. Basically, it has the same function as the noise removal unit 250 in the figure. However, since the input is a frequency component, the determination is based on the frequency component.
  • noise determination may be performed in the image area by performing inverse frequency conversion. Further, the determination may be made using the peripheral block, the past, and the future block. However, in that case, it is necessary to hold information to be determined using a memory.
  • the noise removal unit 304 will be described.
  • the noise removing unit performs noise removal on the frequency component information of the decoded image output from the adding unit 302.
  • the range of correction of the value by removing noise in the frequency component is corrected within the range calculated by the correction width calculation unit.
  • the following method can be considered as a correction method.
  • the components of the original image such as a natural image so that the pattern is close to the frequency component of the decoded image.
  • ⁇ Method shown in FIG. 8 (described later)
  • the former method will be described in detail. This is a method of removing noise on frequency components. Natural images and artificial images are generally clear images with little noise. When these images are frequency-converted using frequency conversion such as DCT, a characteristic conversion result is obtained. Coefficients obtained by frequency conversion of various patterns of natural images and artificial images are tabulated. Then, the pattern closest to the quantized coefficient is searched from the table, and the quantized coefficient is corrected.
  • Figure 9 shows a specific example of coefficient table creation and coefficient correction.
  • Reference numeral 901 denotes a frequency conversion coefficient.
  • the upper left coefficient is a DC component 904 (DC component)
  • the right direction represents the low frequency component from the horizontal component to the high frequency component
  • the lower direction represents the high frequency component from the low frequency component of the vertical component.
  • DCT is applied to a natural image or an artificial image
  • a high frequency component group 903 solid color in the figure
  • low frequency component groups 902 hatchched blocks in the figure
  • Block Block
  • the post-quantization coefficients have such a configuration because many high-frequency components are removed by quantization and a lot of information remains in the low-frequency components. Further, the separation between the low frequency component group and the high frequency component group can be determined by the memory capacity of the table that can be secured. If a large number of tables can be secured, it is necessary to make the low-pass county wider and vice versa. The coefficient can be corrected more correctly by increasing the low-frequency area county.
  • the high-frequency component group is extracted and the value of the high-frequency component group of the coefficient after inverse quantization is corrected.
  • the high frequency component group of the coefficient after inverse quantization is 0, it is effective to replace the value with reference to the value of the table.
  • the coefficient after inverse quantization may be corrected by referring to information on similar blocks from the peripheral blocks as shown in FIG. 4 and the frequency components of past and future images.
  • FIG. 8 shows the configuration of noise removal using the original image evaluation calculation.
  • an original image evaluation calculation 802 block is newly added.
  • the original image evaluation calculation unit calculates an evaluation value for the display image input from the inverse frequency conversion unit using an evaluation function.
  • This evaluation function is preferably an evaluation function that shows a more characteristic numerical value in a natural image, an artificial image, or the like.
  • the information in the processing target block is not used alone, but may be calculated by using information in the peripheral block and past / future frames. In that case, the data used for the evaluation value calculation is held using a separate memory.
  • the noise removing unit 801 corrects the frequency component information of the decoded image generated by the adding unit 302 within the correction range in which the frequency component is changed by the noise removing unit calculated by the correction width calculating unit. Then, inverse frequency conversion is performed, and the evaluation value is calculated by the current picture evaluation value calculation unit. The value is fed back to the noise removal unit again. This operation is performed every time the frequency component of the decoded image is corrected. Then, the frequency component whose evaluation value indicates the most original image quality is adopted as the corrected component.
  • the quantization value is switched in units of blocks inside the picture.
  • image compression can be performed in accordance with the tendency of an image in a frame by switching in block units of 16 ⁇ 16 pixels.
  • a block with a small quantized value high-frequency data is hardly lost and the quality of the reproduced image is considered good. Therefore, the adjacent block of the block to be processed is investigated, and if there is a block with a small quantized value, the information of that block is actively used.
  • predictive image generation an adjacent pixel of an adjacent block having a small quantized value is set as a predicted image value of the main block.
  • the quantization information of the peripheral blocks is realized by the information holding unit. An example is shown in FIG.
  • the image data of the surrounding blocks is used for the decoded image in consideration of the quantization value increment.
  • H. H.264 (ITU-T H.264) / MPEG4 AVC (ISO / IEC 14496-10) and VC1 (a video compression method developed by Microsoft and standardized from Windows (registered trademark) Media Video 9)
  • the configuration will be described. Also in these video coding standards, the original noise removal based on the principle of the first embodiment is performed. Further, the present embodiment has almost the same concept as the system of the second embodiment, but the encoding tool is different because the encoding standards to be handled are different, and the system of the second embodiment cannot be applied as it is. Therefore, the difference part from Example 2 is demonstrated in detail especially.
  • an in-loop filter (deblocking filter) is performed on the decoded image.
  • FIG. 10 shows a configuration diagram of this embodiment.
  • the video stream is decoded by variable length coding in the VLD unit 1002, and the quantization information 1005 and motion information 1006 for calculating the quantization width such as the image data and the quantization value and matrix information, and the block mode It is divided into sub-information such as information.
  • the image data undergoes inverse quantization processing by the inverse quantization unit 1003, and inverse frequency conversion is performed by the inverse frequency conversion unit 1004.
  • quantization information is supplied to the inverse quantization block.
  • H. In H.264 and VC1 the block division size is 4 ⁇ 4 to 8 ⁇ 8, which is a variable size. Such information is supplied to each block from the VLD block.
  • the motion information 1006 is supplied to the motion compensation unit 1007 to perform motion compensation.
  • the decoded image 1010 is generated by adding the motion compensated data and the inverse frequency transform unit.
  • intra prediction there is a mode in which prediction encoding is performed using only information in a decoded frame called intra prediction, but in this embodiment, an intra prediction process is also performed in this motion compensation unit.
  • the decoded image is subjected to block noise removal by a DF unit 1011 that performs a deblocking filter.
  • the decoded image 1010 is input to the noise determination unit 1050 and determines whether noise is to be removed. Then, the noise removing unit 1051 performs noise removal. The frequency converter 1052 performs frequency conversion, and the quantization width check unit 1053 checks the quantization width. Then, the DF2 unit 1055 applies a deblocking filter, and is held and displayed in the display image holding unit 1054.
  • the noise determination unit, noise removal unit, and quantization width check unit will be described.
  • This block basically has the same functions as the noise determination unit, noise removal unit, and quantization width check unit in FIG.
  • the block division size can be known by acquiring the DCT size from the sub information in the VLD block.
  • the DF2 part will be described.
  • a deblocking filter is applied to an image from which noise has been removed by the noise removing unit, or a block that has been judged to require no noise judgment by the noise judging unit.
  • the DF2 unit is a block having the same function as the DF unit except that it determines whether or not to apply a deblocking filter when noise removal is performed by the noise removal unit, and uses the same circuit. Also good.
  • Example 4 is an example in which noise is removed from a decoded image, but an example in which noise is removed in the frequency domain is described in this example.
  • the basic idea is the same as that of the third embodiment, but since the handling standards are different, the encoding tools are different and cannot be applied as they are.
  • H. The difference between H.264 and VC1 will be described in detail.
  • FIG. 2 shows a configuration for performing noise removal on the frequency domain in the case of standards such as H.264 and VC1.
  • the decoder unit 1101 has the same configuration as the decoder unit 1001 of FIG.
  • the frequency conversion unit 1151 is a block that performs frequency conversion on the motion-compensated data created in the decoder device. When performing frequency conversion, it is necessary to perform frequency conversion in accordance with the DCT block size. Information on these DCT blocks can be obtained from the VLD block.
  • the adder 1152, the frequency conversion unit 1151, the noise determination unit 1160, the noise removal unit 1155, the correction width calculation unit 1153, the inverse frequency conversion unit 1154, and the display image holding unit 1157 have substantially the same functions as the configuration in FIG. is doing.
  • the DCT block size is variable block division of 4 ⁇ 4 to 8 ⁇ 8, and the quantization is also executed with the same block size. Therefore, the processing is performed in consideration of this block size.
  • the DF2 unit 1156 will be described. This block has substantially the same function as DF2 in FIG.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 デジタル画像圧縮されたストリームをデコードするデコーダ手段と、VLD部がデコードしたサブ情報を複数ブロック分保持しておく情報保持部と、デコーダ手段より生成された表示画像と、情報保持部に対してノイズ除去判定を行うノイズ判断部と、ノイズ判断部によりノイズ除去を行うと判定されたブロックに対して、逆量子化部から出力された画像データと、動き補償部から出力された動き補償データと、情報保持部に保持されたサブ情報と、を用いてノイズ除去を行うノイズ除去部と、ノイズ判断部によりノイズ除去を行うと判定した場合にはノイズ除去部の出力画像を、ノイズ除去を行わないと判定した場合には、デコード手段の出力を表示画像として保持する表示画像保持部と、を有する。

Description

圧縮画像ノイズ除去装置と再生装置 参照による取り込み
 本出願は、2008年7月30日に出願された日本特許出願第2008-195634号、の優先権を主張し、その内容を参照することにより本出願に取り込む。
 本特許は、デジタル圧縮画像の再生を行うデジタル映像機器が対象である。
 本技術分野の背景技術として、例えば、特開平6-70173(特許文献1)がある。該公報には「[目的]再生画像におけるリンギングの発生を防止する。[構成]ブロック毎の符号化画像を複合して得た画像の状態からエッジ判定部22でエッジが存在するかを判定する。エッジを有するブロックについては、平面近似部32でエッジの両側の領域について平面近似して、近似画像を作成する。そして、この近似画像をDCTして、周波数領域に変換する。そして、これを演算部38に供給し、周波数領域の復号画像に所定の内分比で加算する。すなわち、演算部において、量子化処理によって失われる高周波領域を付加する。この高周波領域の欠如がリンギングの原因であるため、演算器における処理によって、再生画像におけるリンギングを防止できる。」と記載されている。
特開平6-70173
 近年、デジタル放送の普及が進んでおり家庭で手軽にハイビジョンの画像を扱えるようになった。このデジタル画像は多くの情報量を有しており、通常は、動画像圧縮の国際標準方式であるMPEG2、H.264等で圧縮される。この圧縮では、画像情報を周波数変換し、高周波成分を量子化によりカットする事で、データ量の削減を行っている。この量子化によるデータ量の削減によって、圧縮画像では、高周波成分の欠落により画像のボケやモスキートノイズが発生する。
 これらのノイズの除去に関して、削減された周波数成分を予測する手法が提案されている(特開平6-70173)。しかし、該特許では、対象ブロックの画像情報のみを用いて、近似画像を作成して、その高周波成分を付加する事でノイズ削減を行っている。この近似画像の精度によっては、画像圧縮を行う元の画像(原画像)と異なる画像となってしまい、補正画像と周辺画像と異なってしまい再生画像の品質が低下してしまう場合が考えられる。
 特に、通常の動画像圧縮における、量子化幅の制御は、人間の視覚特性に基づいてエッジ部分に対しては、量子化幅を広く設けるため、よりこの近似画像の精度は低くなり、最終的な補正画像の質も低下すると考えられる。
 デジタル圧縮画像を再生する際に、量子化により失われた成分を精度良く予測して高画質な再生画像が望まれる。本発明は、圧縮画像を高画質に再生することを目的とする。
 上記目的を達成するために、特許請求の範囲に記載の構成を採用する。
 本発明によれば、圧縮画像を高画質に再生することが出来る。
 上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
第1の実施例における、本発明の基本概念の一面を示した図である。 第2の実施例の構成を示す図である。 第3の実施例の構成を示す図である。 第2の実施例における、周辺ブロックデータの使用を示す図である。 第2の実施例における、画像信号を仮定した信号を周波数変換した場合のそれぞれの信号成分を示す図である。 第2の実施例における、図5に示した信号成分を量子化するイメージを示す図である。 第2の実施例における、周辺ブロックデータを使用する場合の構成を示す図である。 第3の実施例における、原画像評価算出を用いたノイズ除去の構成を示す図である。 第3の実施例における、係数のテーブル化と係数修正の具体例を示す図である。 第4の実施例の構成を示す図である。 第5の実施例の構成を示す図である。
 以下、本発明の実施形態を図面を用いて説明する。
 図を用いて第1の実施例について説明する。本実施例は、本発明の基本概念の一面を説明するものである。図1は、本発明の基本概念の一面を示す図である。図1の(1)は元係数101を表しており、ある成分(値)をもった係数を示している。図1の(2)は、元係数をある量子化幅102で量子化する例を示している。量子化とは、アナログデータなどの連続量を、デジタルデータなどを離散的な値に近似する事である。元係数をある量子化幅で量子化を行うと、元係数の成分が量子化幅により近似され、量子化後係数107となる。
 デジタルデータ圧縮の際にも、元係数をそのまま用いるのではなく、この量子化幅と量子化後係数を用いることで、大幅なデータ量の圧縮処理を実現している。
 次にこの量子化により圧縮されたデジタルデータの復元方法の説明を行う。復元には、量子化幅と量子化後係数より復元係数105を復元する。この処理は逆量子化と呼ばれる場合もある。この処理は、量子化幅の領域において、中央値に値を復元する例である。この量子化幅のどの位置に復元するかは、量子化側と逆量子化側双方で定義しておく。
 この復元した成分である復元係数と復元前の元係数の値の差分を量子化誤差104という。これは、デジタルデータ圧縮により生じたノイズである。この量子化幅と圧縮比の関係については一般的に、量子化幅を大きくするとデータの圧縮比は高くなるが量子化誤差が多くなり、量子化幅を小さくすると量子化誤差が少なくなるがデータ圧縮比は小さくなる。
 ここまでの処理の具体例を示す。例えば、元成分が55という値を持っていた場合に、量子化幅20で量子化を行う事を考える。その場合には、圧縮に用いるのは量子化後係数2、量子化幅20という情報となる。この情報を元に逆量子化を行うと量子化幅の中間値に値を復元する場合、復元係数は50となり、量子化誤差として、(元係数)55-(復元係数)50=5が発生してしまう。
 この量子化誤差の除去については、復元係数について周辺情報やその成分の性質によりノイズの除去を行うが、ノイズ除去のために復元係数の成分を修正する場合には、106に示す様に逆量子化に用いた量子化幅領域内での成分の修正が必要となる。もし量子化誤差の除去のための処理により、復元係数の成分が106に示す逆量子化に用いた量子化幅領域を越えてしまった場合、それは元係数(原画像)と異なる係数(画像)になってしまったことを意味するからである。よって、ノイズ除去を行い忠実に元係数復元するには、この原理のノイズ除去、すなわち、量子化幅領域を越えない範囲でのノイズ除去を行うことが重要となる。
 本実施例は、画像圧縮方式としてMPEG2(ISO/IEC 13813-2)方式を用いた例とする。しかし本発明では、MPEG2方式に限定せず、その他の圧縮方式(例えば、H.264、MPEG1、MPEG4、JPEG、VC1)等でも実現可能である。
 まず本実施例の概要を説明する。画像の圧縮時(エンコーダ側)において、画像情報は周波数成分に分解され量子化される。その際の量子化幅は、量子化値と量子化マトリックスとイントラDCの量子化幅でストリームに保存される。デコーダ側では、量子化後の係数と量子化幅の情報を取得する事が出来るので、エンコード時にその係数が量子化時にどの値の範囲にあったかを推測する事は可能である。デコード側でノイズ除去を行う際には、逆量子化後の係数に対して、その量子化幅の範囲に収まる様に値の補正を行う。
 図5は、画像信号を仮定した信号を周波数変換した場合のそれぞれの信号成分(503~510)を示している。本図5では、簡単化のために8次元の成分に変換した例を示す。MPEG2では、この変換に8x8毎に変換を行うDCT(Discrete Cosine Transform)といわれる周波数変換を用いて、64次元への変換を行う。図5の横軸501は、周波数を示し、右方向に行くにつれて高周波成分である事を表している。図5の縦軸502は、それぞれの周波数成分の値を示し、絶対値が大きいほどその周波数成分が多く存在する事を示している。次に、画像圧縮ではこの周波数成分に対して量子化の処理を行う。
 図6に、図5に示した信号成分を量子化するイメージを示す。量子化は、それぞれの信号に対して個別に量子化幅601を算出して成分毎に量子化を行う。量子化幅601は、符号化を行う処理単位であるマクロブロック毎に与えられた量子化値と、ピクチャ毎に与えられる量子化マトリックスにより決定される。一般的には、高周波成分ほど量子化幅を大きくすることが画像圧縮では好ましい。この量子化幅で成分毎に個別に量子化を行い、量子化後係数と量子化幅をストリームにする事で画像圧縮を実現している。
 このストリームのデコード(復元、伸張)については、量子化係数と量子化幅より周波数成分を復元し、その周波数成分を逆周波数変換する事で画像情報に復元する。因みに、量子化に必要な情報としては、MPEG2規格では、量子化値(quantizer_scale)、量子化マトリックス(non_intra/intra_quantizer_matrix)、イントラDC量子化幅(intra_dc_precision)とIntra/Inter切り替え情報(macroblock_intra)とで表記されている。他規格においても、量子化を行うために必要な情報が対象となる。
 この画像圧縮前画像と画像復元後画像では、実施例1で説明した様な量子化誤差によりノイズが発生する。このノイズは一般的に、モスキートノイズやブロックノイズと呼ばれている。これらのノイズの除去に関しては、復元画像に各種フィルタを施すことで実現可能である。しかし、ノイズ除去を行う復元画像の修正には、圧縮に用いた量子化幅の範囲内で行わないと圧縮前の画像とは異なる画像になってしまう。ノイズの除去を行い圧縮前の画像を忠実に復元するためには、この原理のノイズ除去を行う必要がある。
 図2に本実施例の構成を示す。図2の左部分はMPEG2のデコーダ手段201を示している。MPEG2のVideoストリームは、VLD(Variable Length Decoding)ブロック202に入力され可変長逆符号化によりストリームから、量子化後係数208や量子化幅209を算出するための量子化情報205と、動きベクトル等の動き情報206との変換を行う。量子化後係数は、逆量子化部203にて逆量子化され、逆周波数変換部で逆周波数変換が行われる。量子化幅となる量子化情報205は、VLD部から逆量子化部や情報保持部に出力される。動き情報206は、動き補償部207に出力される。動き補償部では、動き情報により以前の復号画像から予測画像を生成して、逆周波数変換部の情報と加算する事で、表示を行う復号画像210を生成する。この復号画像は、次のピクチャのための参照画像として使用するため動き補償部で保持を行う。以上がデコーダ手段の説明である。これは、通常のMPEG2のデコーダと同様の動作となる。このMPEG2でデコードした画像は、量子化ノイズであるモスキートノイズやブロックノイズを含んでいるので、右側のブロックでノイズ除去を行う。本ノイズ除去は、MPEGのデコード処理のDCTの単位である8x8ブロック毎に行う。
 ノイズ判断部250について説明する。デコーダにより生成された復号画像は、ノイズ判断部に入力される。ここでは、デコードを行うブロック単位(MPEG2では8x8画素単位)に復号画像の情報や、量子化情報や、ピクチャ情報や、周辺画像情報より対象ブロックがノイズ除去を行うべきかの判断を行う。圧縮画像のノイズは、エッジ画像を含んでいる場合に多く発生する。これは、エッジには多くの高周波成分が含まれており、この高周波成分が量子化により欠落するために発生する。よって、本ブロックでは、デコーダ手段により生成した復号画像に対してエッジ情報が存在するかの解析を行う。解析方法としては、画素間の差分を取り、差分値がある閾値より大きい場合にはエッジとするなどとして検出を行う。また、エッジ検出用のフィルタを用いても良い。また、対象ブロックの量子化値を解析する事でノイズの判定を行う手法も考えられる。これは、動画像の符号化において人間の視覚特性により高周波のノイズは目立ち難いという特性があり、急峻なエッジを含んだブロックは量子化値を大きくするという傾向がある。よって、本ブロックの量子化値が大きい場合には、その部分にはエッジ情報を含んでいると判断してもよい。更に、両者(画像の情報と量子化の情報を)を用いて総合的に判断する事でより高精度のエッジ検出も可能である。
 また、動画像では画像の動きが激しい部分でのノイズは目立ち辛いという特徴がある。よって、動きが激しい部分においては、ノイズ除去を行わない判断をしても良い。
 また、ユーザの好みによりノイズ所を行わないモードが存在する場合もある。そのようなユーザ指定によりノイズ除去を行わない判断をしても良い。
 ノイズ除去部251について説明する。本ブロックは、ノイズ判断部によりノイズ削除を行うと判断したブロックのみに対してノイズ除去を行う。ノイズ除去の方法としては、画像圧縮時の周波数領域での量子化により欠落したデータを予測する事で行う。本手法の基本的な考え方を下記に示す。復号画像について、周辺画像からの絵柄の推測や、エッジとノイズの切り分けにより、エッジはよりエッジらしく、ノイズは除去する処理を行う。この操作によりノイズ除去を行った予測画像を作成する。周辺画像からの情報利用については後述する。
 周波数変換部252について説明する。本ブロックでは、ノイズ除去を行った画像に対して周波数変換を行う。周波数変換の方式としては、逆周波数変換と対応した方式とする。MPEGの場合にはDCTを用いる。
 量子化幅チェック部253について説明する。本ブロックでは、量子化後係数と量子化幅からノイズ除去後の画像が、量子化幅内の領域に存在しているかのチェックを行う。
 この量子化幅チェックにより、すべての係数が量子化幅に収まる場合には、修正は妥当と判断してその画像を表示画像として表示画保持部254に転送する。量子化幅チェックで量子化幅外になってしまった場合には、その情報を共に再度のノイズ除去部に転送してノイズ除去を行っても良いし、ノイズ除去前の画像を表示画像として表示画像保持部に転送しても良い。
 次に、図4A、4Bを用いて周辺ブロックデータの使用について説明する。図4A、4Bはデコードが終了した復号画像401を表している。デコードは矩形のマクロブロック402単位に行う。量子化値もこのマクロブロック単位に値を設定する事ができる。図4Aは、背景404とある物体403とが撮影されているシーンであり、量子化ノイズ405は物体と背景を両方含んでいるマクロブロックで多く発生する。この際の量子化値407のきざみ406の例を図4Bに示す。これは、エンコード時に設定した量子化値であり、人間の視覚特性により平坦な部分でより細かく、エッジの部分で荒く量子化されるのが一般的である。このような場合には、あるブロックのノイズ除去を行うための周辺ブロックの情報利用は、量子化値の小さいブロックからの情報を利用した方が、有効な情報を取得できる可能性が高い。これは、この量子化値が小さいブロックでは、高周波データの欠落は少なく、再生画像の品質も良いと考えられる。また、図4Aにおいて、物体と背景を含んだブロックについて、背景は背景情報408、物体は物体情報409を用いてノイズ除去を行った方がより効率よくノイズ除去が可能となる。具体的には、この周辺情報をノイズ除去部の予測画像を作成する際の情報として用いる。また、この周辺情報を用いる手法のほかに、過去や未来のフレームの情報を用いる、輝度や色差の情報を用いる等が有効である。
 図7に、この周辺ブロックの使用を行うための構成を示す。図2の構成に加えて新たにメモリ部701を追加することで、量子化値と復号画像を保持しておき、ノイズ除去部で用いる。
 このメモリ部では、ノイズ除去後のフレームを保持しておき次のフレーム以降のノイズ除去に使用しても良い。この場合には、ノイズ除去後の画像に対して動き情報を用いて動き補償を行い、予測画像としてノイズ除去を行う。
 また、メモリ部にて量子化値を保持しておき、その量子化値を用いてノイズ除去に使用しても良い。これは、I-ピクチャとP/B-ピクチャでは量子化の大きさが異なるため、I-ピクチャでの量子化値を継続的に用いてノイズ除去することで、ピクチャごとのノイズ除去を均等に処理する事が可能となり、動画での高画質なノイズ除去を実現できる。
 第2の実施例のノイズ除去は、復号画像にノイズ除去を施し、そのノイズ除去後の画像が量子化幅に収まっているかをチェックする構成であったが、第3の実施例では、デコーダ途中の周波数成分上で修正する実施例について説明する。
 図3に、本実施例の構成を示す。図内のデコーダ手段201については、第2の実施例と同様のものである。
 周波数変換部301について説明する。周波数変換部は、動き補償部から出力された予測画像に対して周波数変換を行う。周波数変換方法については、逆周波数変換部204に対応した手法とする。MPEGの場合にはDCTとする。
 そして、周波数変換部と逆量子化部203の出力の加算302を行う。これにより、復号画像をDCTしたものと同様の情報を作成する。301と302の操作は、復号画像の周波数変換情報を取得するための操作であり、デコーダ手段で作成した復号画像に対してDCTを施す方式であっても構わない。
 修正幅算出部303について説明する。デコーダ手段より量子化後係数と量子化幅の情報を取得して、復号画像の周波数成分に対して量子化幅の領域を超えない周波数成分の修正幅の計算を行う。
 逆周波数変換部305について説明する。本ブロックは、ノイズ除去を行った周波数成分を逆周波数変換して表示画像を作成するブロックである。
 表示画像保持部254は、表示画像を保持しておくブロックである。
 ノイズ判断部306について説明する。加算機302により生成された復号画像にDCTをかけた情報を入力として、対象ブロックに対してノイズ除去を行うかの判断を行う。基本的には、図のノイズ除去部250と同様の機能を有する。しかし、入力が周波数成分であるため、周波数成分での判断となる。
 本ブロックでは、逆周波数変換を行い画像領域でノイズ判断を行ってもよい。また、周辺ブロック、過去、未来のブロックを用いて判断を行ってもかまわない。ただし、その場合には、メモリを用いて判断を行う情報の保持を行っておく必要が生じる。
 ノイズ除去部304の説明を行う。ノイズ除去部は、302の加算部より出力された復号画像の周波数成分の情報に対してノイズ除去を行う。この周波数成分でのノイズ除去による値の修正の幅は、修正幅算出部で計算された幅内で修正を行う。この際、修正の方法は以下の方法が考えられる。
・自然画像等の原画像の成分をパターン化し、復号画像の周波数成分に近いパターンとする。
・図8に示す方法(後述する)
 前者の方法について、詳しく説明する。これは、周波数成分上でノイズ除去を行う方法である。自然画像や人工画像はノイズが少なくくっきりとした画像であるのが一般的である。それらの画像をDCT等の周波数変換を用いて周波数変換すると特徴的な変換結果となる。自然画像、人工画像色々なパターンを周波数変換した係数をテーブル化しておく。そして、量子化後の係数に対して一番近いパターンをテーブルから探して量子化後の係数を修正する。
 図9に、係数のテーブル化と係数修正の具体例を示す。901は、周波数変換係数を表しており、本例では8x8のDCTを用いた場合を想定しているので64係数存在する。左上の係数を直流分成分904(DC成分)として、右方向は横方向成分の低周波成分から高周波成分を表し、下方向は縦方向成分の低周波成分から高周波成分を表している。テーブル化する際には、自然画像や人工画像に対してDCTを施し、低周波のある塊である低域成分郡902(図の斜線ブロック)の組み合わせにより、高域成分郡903(図の無地ブロック)の成分をテーブル化しておく。これは、量子化後係数は、量子化により高域成分は多く削られており、低域成分は情報が多く残っている場合が多いのでそのような構成にしておくことが望ましい。また、この低域成分郡と高域成分郡との切り分けは、確保できるテーブルのメモリ量により決めることができる。多くのテーブルを確保できる場合には、低域領域郡は広めに、逆の場合には狭めにする必要がある。低域領域郡を広くした方が係数の修正をより正しくできる。
 次に、そのテーブルを用いての量子化後係数の修正方法について説明する。デコード時の逆量子化後の係数の低域成分郡係数で上記のテーブルを参照して、高域成分郡を引き出し逆量子化後の係数の高域成分郡の値を修正する。これは、特に逆量子化後の係数の高域成分郡が0であった場合に、テーブルの値を参照して値を入れ替えるのが効果的である。この際には、各広域成分郡について実施例1で説明した量子化幅の確認も行うことが望ましい。
 また、図4に示すような周辺のブロックや過去、未来の画像の周波数成分から類似したブロックの情報を参照することで、逆量子化後の係数の修正を行っても良い。
 次に後者の説明を行う。図8に、原画像評価算出を用いたノイズ除去の構成を示す。図3の構成に加えて原画像評価算出802ブロックを新たに追加する。
 原画像評価算出部は、逆周波数変換部より入力した表示画像に対して、評価関数により、評価値を算出する。この評価関数は、自然画像や人工画像等でより特徴的な数値を示す評価関数が望ましい。また、評価関数の算出にあたっては、処理対象ブロック内部の情報のみを使用するのではなく、周辺ブロックや過去・未来のフレーム内の情報を用いて算出しても良い。その場合には、別途メモリを用いて評価値算出に利用するデータの保持を行っておく。
 ノイズ除去部801は、修正幅算出部で算出したノイズ除去部で周波数成分を変更する修正幅内で、加算部302で生成した復号画像の周波数成分情報を修正する。そして、逆周波数変換を行い、現画評価値算出部にて評価値を算出する。その値を再度ノイズ除去部にフィードバックする。その操作を復号画像の周波数成分を修正するたびに行う。そして、評価値が一番原画らしさを示す周波数成分を修正後の成分として採用する。
 次に、予測画作成の際の、周辺ブロック情報の使用について説明する。動画像符号化では、量子化値を画像内部のブロック単位で切り替える。例えばMPEG2では、16x16画素のブロック単位で切り替える事で、フレーム内の画像の傾向に合わせて画像圧縮を可能としている。この量子化値が小さいブロックでは、高周波データの欠落は少なく、再生画像の品質も良いと考えられる。よって、処理対象ブロックの隣接ブロックを調査し、量子化値が小さいブロックがある場合には、そのブロックの情報を積極的に使用する。具体的には、予測画像生成において、量子化値が小さい隣接ブロックの隣接画素を、本ブロックの予測画像の値とする。こうする事で、ブロック間に生じるブロック歪についても低減する効果が期待できる。この周辺ブロックの量子化情報は、情報保持部により実現する。図3に例を示す。復号画像に対して量子化値のきざみを考慮して周辺ブロックの画像データを利用する。
 本実施例では、H.264(ITU-T H.264)/MPEG4 AVC(ISO/IEC 14496-10)やVC1(マイクロソフトが開発した動画像圧縮方式でありWindows(登録商標)Media Video 9を規格化したもの)の場合の構成について示す。これらの動画像符号化の規格においても、実施例1の原理の元ノイズ除去を行う。また、本実施例は、実施例2の方式とほぼ同様の考え方となるが、取り扱う符号化規格が異なるため符号化ツールが異なり、実施例2の方式をそのまま適用できない。よって、実施例2との差分の部分について特に詳しく説明する。
 これらの規格では、復号画像に対してループ内フィルタ(デブロッキングフィルタ)と呼ばれるフィルタリングの処理が実施される。
 図10に本実施例の構成図を示す。Videoのストリームは、VLD部1002にて可変長符号化のデコードを行い、画像データと、量子化値やマトリックスの情報など量子化幅を算出するための量子化情報1005や動き情報1006やブロックモード情報等のサブ情報に分けられる。画像データは、逆量子化部1003で逆量子化の処理を行い、逆周波数変換部1004にて逆周波数変換が行われる。この際、逆量子化ブロックには量子化情報が供給される。なお、H.264やVC1では、ブロックの分割サイズが4x4~8x8で可変サイズとなる。それらの情報は、VLDブロックから各ブロックに供給されるものとする。
 一方、動き情報1006は動き補償部1007に供給され動き補償を行う。この動き補償されたデータと逆周波数変換部を加えることで復号画像1010が生成される。
 また、本実施例の規格では、Intra予測というデコードフレーム内の情報のみを用いて予測符号化するモードもあるが、本実施例では、この動き補償部でIntra予測の処理も行う例としている。そして、この復号画像は、デブロッキングフィルタを行うDF部1011にて、ブロックノイズ除去が行われる。これらの処理は、H.264/VC1の通常のデコーダをイメージしておりデコーダ手段1001とする。
 復号画像1010は、ノイズ判断部1050に入力され、ノイズ除去を行うかの判定を行う。そして、ノイズ除去部1051にてノイズ除去を行う。そして、周波数変換部1052で周波数変換を行い、量子化幅チェック部1053にて量子化幅のチェックを行う。そして、DF2部1055にてデブロッキングフィルタを施し、表示画像保持部1054に保持され表示される。
 ノイズ判断部、ノイズ除去部、量子化幅チェック部について説明する。本ブロックは、基本的には図2のノイズ判断部、ノイズ除去部、量子化幅チェック部と同様の機能を有する。しかし、本実施例の規格では、周波数変換サイズが4x4~8x8まで可変サイズであるので、その周波数変換サイズに合わせて処理を行う。ブロック分割サイズについては、VLDブロックでのサブ情報からDCTのサイズを取得することで知ることができる。
  DF2部について説明する。本ブロックでは、ノイズ除去部でノイズ除去した画像か、ノイズ判断部でノイズ判断が必要ないと判断されたブロックについて、デブロッキングフィルタを施す。但し、ノイズ除去部でノイズ除去を行った画像については、すでにノイズ除去がされているため、本ブロックでデブロッキングフィルタを施さなくても良い。
 また、すでにノイズ除去を行った場合でも、その結果に応じてデブロッキングフィルタを行うか、行わないかを切り替えても良い。
 また、DF2部は、ノイズ除去部でノイズ除去を行った場合にデブロッキングフィルタを施すか否かの判定を行う以外は、DF部と同様の機能を有するブロックであり、同じ回路を使用しても良い。
 実施例4は、復号画像に対してノイズ除去を行う例であったが、周波数ドメインでノイズ除去を行う例を本実施例に記す。基本的な考え方は、実施例3と同様であるが、取り扱う規格が異なるため符号化ツールが異なりそのままでは適用できない。本実施例では、H.264、VC1の時の差分について詳しく説明する。
 図11は、H.264、VC1等の規格の際の周波数ドメイン上でノイズ除去を行う構成を示している。デコーダ手段1101は、図10のデコーダ手段1001と同様の構成である。
 周波数変換部1151は、デコーダ装置内で作成した動き補償後のデータを周波数変換するブロックである。周波数変換する際には、DCTのブロックサイズに合わせて周波数変換を行う必要ある。これらのDCTブロックの情報は、VLDブロックから取得することができる。
 加算機1152、周波数変換部1151、ノイズ判断部1160、ノイズ除去部1155、修正幅算出部1153、逆周波数変換部1154、表示画像保持部1157については、図3の構成とほぼ同様の機能を有している。しかし、本実施例の規格ではDCTのブロックサイズが4x4~8x8までの可変ブロック分割であり、量子化についても同ブロックサイズで実行されるため、このブロックサイズを意識しての処理となる。
 DF2部1156について説明する。本ブロックは、図10のDF2とほぼ同様の機能を有する。
 以上、添付図面を参照しながら本発明にかかる好適な実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。当業者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。

Claims (8)

  1.  デジタル画像圧縮されたストリームを画像データとサブ情報にデコードするVLD部と、
     VLD部によりデコードされた画像データを逆量子化する逆量子化部と、
     逆量子化されたデータを逆周波数変換する逆周波数変換部と、
     VLD部によりデコードされたサブ情報を元に動き補償を行う動き補償部と、を備えたデコーダ手段と、
     VLD部がデコードしたサブ情報を複数ブロック分保持しておく情報保持部と、
     デコーダ手段より生成された表示画像と、情報保持部に対してノイズ除去判定を行うノイズ判断部と、
     ノイズ判断部によりノイズ除去を行うと判定されたブロックに対して、逆量子化部から出力された画像データと、動き補償部から出力された動き補償データと、情報保持部に保持されたサブ情報と、を用いてノイズ除去を行うノイズ除去部と
     ノイズ判断部によりノイズ除去を行うと判定した場合にはノイズ除去部の出力画像を、ノイズ除去を行わないと判定した場合には、デコード手段の出力を表示画像として保持する表示画像保持部と、
     を有する事を特徴とする圧縮画像ノイズ除去装置。
  2.  請求項1の圧縮画像ノイズ除去装置において、ノイズ除去部で使用する、サブ情報とは、量子化に用いる量子化値(quanter_scale)と、量子化マトリックス(quantiser_matrix)、イントラDCの量子化幅(intra_dc_precision)の情報である事を特徴とする圧縮画像ノイズ除去装置。
  3.  請求項1の圧縮画像ノイズ除去装置において、ノイズ除去は、逆量子化部出力係数に対して係数を補正することで行い、
     その補正された係数値は、VLD部から出力されたサブ情報より算出した量子化幅で再量子化した際に、逆量子化部出力の係数値となる範囲内での補正を行う事を特徴とする圧縮画像ノイズ除去装置。
  4.  請求項1の圧縮画像ノイズ除去装置において、ノイズ除去を行うか否かの判断をそのブロックのエッジ情報や量子化値により決定する事を特徴とする圧縮画像ノイズ除去装置。
  5.  請求項1の圧縮画像ノイズ除去装置において、ノイズ除去を行う際の逆量子化係数の補正値は、本ブロックの隣接ブロックの量子化値が小さいブロックの画像データを用いて算出する事を特徴とする圧縮画像ノイズ除去装置。
  6.  請求項1の圧縮画像ノイズ除去装置において、デコード手段は、画像圧縮の国際標準方式であるMPEG2である事を特徴とする圧縮画像ノイズ除去装置。
  7.  請求項1の圧縮画像ノイズ除去装置において、デコード手段は、画像圧縮の国際標準方式であるH.264である事を特徴とする圧縮画像ノイズ除去装置。
  8.  画像データを周波数変換して係数にし、該係数を所定の量子化幅で量子化し、かつ、該量子化幅を示す量子化情報が付加された圧縮画像ストリームが入力される入力手段と、
     該入力手段に入力された圧縮画像ストリームに対し、該量子化情報が示す量子化幅を用いて逆量子化し、復元係数にする逆量子化手段と、
     該逆量子化手段で逆量子化された復元係数を補正する補正手段と、
     該補正手段が補正する範囲を、該量子化情報が示す量子化幅を用いて制限する補正範囲制限手段と、
     該補正手段で補正された復元係数を逆周波数変換する逆周波数変換手段と、
     該逆周波数変換手段で逆周波数変換された画像データを出力する出力手段と、
     を備える再生装置。
PCT/JP2009/060422 2008-07-30 2009-06-08 圧縮画像ノイズ除去装置と再生装置 WO2010013543A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020107027122A KR101223780B1 (ko) 2008-07-30 2009-06-08 압축 화상 노이즈 제거 장치와 재생 장치
JP2010522654A JP5362723B2 (ja) 2008-07-30 2009-06-08 圧縮画像ノイズ除去装置と再生装置
CN2009801208521A CN102057679B (zh) 2008-07-30 2009-06-08 压缩图像噪声去除装置和再现装置
BRPI0913589-8A BRPI0913589B1 (pt) 2008-07-30 2009-06-08 dispositivo de processamento de dados de imagem
EP09802788A EP2320662A4 (en) 2008-07-30 2009-06-08 DEVICE FOR NOISE REDUCTION IN COMPRESSED IMAGES AND IMAGE PLAYER
US12/993,920 US8929439B2 (en) 2008-07-30 2009-06-08 Compressed image noise removal device and reproduction device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-195634 2008-07-30
JP2008195634 2008-07-30

Publications (1)

Publication Number Publication Date
WO2010013543A1 true WO2010013543A1 (ja) 2010-02-04

Family

ID=41610249

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/060422 WO2010013543A1 (ja) 2008-07-30 2009-06-08 圧縮画像ノイズ除去装置と再生装置

Country Status (8)

Country Link
US (1) US8929439B2 (ja)
EP (1) EP2320662A4 (ja)
JP (1) JP5362723B2 (ja)
KR (1) KR101223780B1 (ja)
CN (1) CN102057679B (ja)
BR (1) BRPI0913589B1 (ja)
MY (1) MY154427A (ja)
WO (1) WO2010013543A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015122619A (ja) * 2013-12-24 2015-07-02 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US9552628B2 (en) * 2014-03-12 2017-01-24 Megachips Corporation Image processor
RU2646358C2 (ru) * 2016-04-07 2018-03-02 Николай Дмитриевич Егоров Способ устранения избыточности при сжатии последовательности изображений
DE102018112215B3 (de) * 2018-04-30 2019-07-25 Basler Ag Quantisiererbestimmung, computerlesbares Medium und Vorrichtung, die mindestens zwei Quantisierer implementiert

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670173A (ja) 1992-08-17 1994-03-11 Kyocera Corp 画像復号化装置および画像符号化・復号化システム
JP2006262278A (ja) * 2005-03-18 2006-09-28 Fuji Xerox Co Ltd 復号化装置、復号化方法及びこれらのプログラム
JP2007184871A (ja) * 2006-01-10 2007-07-19 Toshiba Corp 動画像復号装置及び動画像復号方法
JP2008195634A (ja) 2007-02-09 2008-08-28 Canon Inc アミン化合物、電子写真感光体、プロセスカートリッジ及び電子写真装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3536355B2 (ja) 1994-06-09 2004-06-07 ソニー株式会社 符号化装置
TW293227B (ja) 1994-11-24 1996-12-11 Victor Company Of Japan
JP2940422B2 (ja) * 1994-11-24 1999-08-25 日本ビクター株式会社 変換符号化された画像データの復号化時に生じるブロック歪の低減方法及び変換符号化された画像データの復号化装置
US5852475A (en) * 1995-06-06 1998-12-22 Compression Labs, Inc. Transform artifact reduction process
JP2005117680A (ja) 1995-12-28 2005-04-28 Sony Corp 画像信号符号化方法及び装置、画像信号伝送方法、並びに画像信号復号方法及び装置
US6256349B1 (en) * 1995-12-28 2001-07-03 Sony Corporation Picture signal encoding method and apparatus, picture signal transmitting method, picture signal decoding method and apparatus and recording medium
CN1183769C (zh) * 1996-05-28 2005-01-05 松下电器产业株式会社 图像预测编码/解码装置和方法以及记录媒体
KR100229796B1 (ko) * 1996-08-30 1999-11-15 전주범 열화영상에 대한 보상기능을 갖는 영상 복호화 시스템
KR100269125B1 (ko) * 1997-10-25 2000-10-16 윤덕용 양자화효과감소를위한영상데이터후처리방법및장치
EP1574070A1 (en) * 2002-12-10 2005-09-14 Koninklijke Philips Electronics N.V. A unified metric for digital video processing (umdvp)
US20050243914A1 (en) * 2004-04-29 2005-11-03 Do-Kyoung Kwon Adaptive de-blocking filtering apparatus and method for mpeg video decoder

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670173A (ja) 1992-08-17 1994-03-11 Kyocera Corp 画像復号化装置および画像符号化・復号化システム
JP2006262278A (ja) * 2005-03-18 2006-09-28 Fuji Xerox Co Ltd 復号化装置、復号化方法及びこれらのプログラム
JP2007184871A (ja) * 2006-01-10 2007-07-19 Toshiba Corp 動画像復号装置及び動画像復号方法
JP2008195634A (ja) 2007-02-09 2008-08-28 Canon Inc アミン化合物、電子写真感光体、プロセスカートリッジ及び電子写真装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2320662A4 *

Also Published As

Publication number Publication date
JP5362723B2 (ja) 2013-12-11
KR101223780B1 (ko) 2013-01-17
CN102057679A (zh) 2011-05-11
JPWO2010013543A1 (ja) 2012-01-12
CN102057679B (zh) 2013-10-23
BRPI0913589B1 (pt) 2020-11-24
BRPI0913589A2 (pt) 2015-10-20
MY154427A (en) 2015-06-15
US8929439B2 (en) 2015-01-06
EP2320662A4 (en) 2011-11-02
KR20100137022A (ko) 2010-12-29
US20110064135A1 (en) 2011-03-17
EP2320662A1 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
EP1246131B1 (en) Method and apparatus for the reduction of artifact in decompressed images using post-filtering
JP4372197B2 (ja) 画像符号化装置及び画像復号装置
WO2009133844A1 (ja) エッジを考慮したフィルタリング機能を備えた動画像符号化/復号化方法及び装置
EP2299720A1 (en) Dynamic image encoding/decoding method and device
US7822125B2 (en) Method for chroma deblocking
JP5362723B2 (ja) 圧縮画像ノイズ除去装置と再生装置
JP4784618B2 (ja) 動画像符号化装置、動画像復号化装置、動画像符号化プログラム、及び動画像復号化プログラム
JP5256095B2 (ja) 圧縮画像ノイズ除去装置と再生装置
JP2005260989A (ja) 画像処理装置及び画像処理方法
JP2004140863A (ja) 動画像復号装置
JPH09130791A (ja) 画像処理装置
JP2006157084A (ja) 画像符号化装置、画像符号化方法、及びコンピュータプログラム
JP2006157083A (ja) 画像符号化装置、画像符号化方法、及びコンピュータプログラム
JP2006166104A (ja) 動画像符号化装置、その方法、そのプログラム、その記憶媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980120852.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09802788

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010522654

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12993920

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2009802788

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 8354/DELNP/2010

Country of ref document: IN

Ref document number: 2009802788

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20107027122

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: PI0913589

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20101201