JP4850475B2 - Method for filtering pixels in an image - Google Patents

Method for filtering pixels in an image Download PDF

Info

Publication number
JP4850475B2
JP4850475B2 JP2005300353A JP2005300353A JP4850475B2 JP 4850475 B2 JP4850475 B2 JP 4850475B2 JP 2005300353 A JP2005300353 A JP 2005300353A JP 2005300353 A JP2005300353 A JP 2005300353A JP 4850475 B2 JP4850475 B2 JP 4850475B2
Authority
JP
Japan
Prior art keywords
pixel
filtering
pixels
block
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005300353A
Other languages
Japanese (ja)
Other versions
JP2006140999A (en
Inventor
ハオ−ソング・コング
ヤオ・ニー
アンソニー・ヴェトロ
ハイファン・スン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/965,325 external-priority patent/US7412109B2/en
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2006140999A publication Critical patent/JP2006140999A/en
Application granted granted Critical
Publication of JP4850475B2 publication Critical patent/JP4850475B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、包括的にはデジタル信号処理に関し、特に、画像中の画素を分類し、この分類に応じて画素をフィルタリングすることに関する。   The present invention relates generally to digital signal processing, and more particularly to classifying pixels in an image and filtering the pixels according to the classification.

圧縮は、デジタルカメラ、放送TVおよびDVDを含む多くの画像化の用途において、メモリに記憶することのできる画像数を増やすため、または送信帯域幅を減らすために用いられている。圧縮比が高い場合には、量子化および係数の打ち切りの副作用により、復元画像中に目に見えるアーチファクトが生じる可能性がある。現実的な解決策は、復元画像をフィルタリングして、目に見えるアーチファクトを抑え、復元画像の主観的な品質を保証することである。   Compression is used in many imaging applications, including digital cameras, broadcast TVs and DVDs, to increase the number of images that can be stored in memory or to reduce transmission bandwidth. When the compression ratio is high, visible artifacts may occur in the reconstructed image due to the side effects of quantization and coefficient truncation. A realistic solution is to filter the reconstructed image to suppress visible artifacts and to guarantee the subjective quality of the reconstructed image.

ITU−T H.26xおよびMPEG−1/2/4等のほとんどのビデオ符号化規格は、ブロックに基づくプロセスを用いる。高い圧縮比では、基礎を成すブロックに基づく処理により、いくつかのアーチファクトが目に見える。最も一般的なアーチファクトは、ブロッキングおよびリンギングである。   ITU-TH. Most video coding standards such as 26x and MPEG-1 / 2/4 use block-based processes. At high compression ratios, some artifacts are visible due to the processing based on the underlying blocks. The most common artifacts are blocking and ringing.

ブロッキングアーチファクトは、復元画像のモノトーン領域のブロック境界に沿って格子ノイズとして現れる。ブロッキングアーチファクトは、隣接するブロックが別個に処理され、ブロック境界における画素強度が復元後に完全にそろわないために生じる。リンギングアーチファクトは、復元画像のエッジに沿って、より顕著である。この効果は、ギブス現象として知られ、量子化AC係数による高周波係数の打ち切りによって生じる。   Blocking artifacts appear as lattice noise along the block boundaries of the monotone region of the restored image. Blocking artifacts occur because adjacent blocks are processed separately and the pixel intensities at the block boundaries are not perfectly aligned after restoration. Ringing artifacts are more prominent along the edges of the restored image. This effect is known as the Gibbs phenomenon and is caused by truncation of the high frequency coefficient by the quantized AC coefficient.

これらの符号化アーチファクトを除去するための多くの後処理技法が知られている。   Many post-processing techniques are known to remove these coding artifacts.

空間領域法が、Lee他に対して2003年3月25日付で発行された米国特許第6,539,060号「Image data post-processing method for reducing quantization effect, apparatus therefor」、Osaに対して2002年12月17日付で発行された米国特許第6,496,605号「Block deformation removing filter, image processing apparatus using the same, method of filtering image signal, and storage medium for storing software therefor」、Konstantinidesに対して2001年11月20日付で発行された米国特許第6,320,905号「Postprocessing system for removing blocking artifacts in block-based codecs」、Cheung他に対して2001年1月23日付で発行された米国特許第6,178,205号「Video postfiltering with motion-compensated temporal filtering and/or spatial-adaptive filtering」、Sugahara他に対して2000年12月26日付で発行された米国特許第6,167,157号「Method of reducing quantization noise generated during a decoding process of image data and device for decoding image data」、およびGupta他に対して1999年7月6日付で発行された米国特許第5,920,356号「Coding parameter adaptive transform artifact reduction process」に記載されている。   The spatial domain method is US Pat. No. 6,539,060 “Image data post-processing method for reducing quantization effect, apparatus therefor” issued to Lee et al. On March 25, 2003, 2002 to Osa. US Pat. No. 6,496,605 issued December 17, 2000, “Block deformation removing filter, image processing apparatus using the same, method of filtering image signal, and storage medium for storing software therefor”, Konstantinides US Pat. No. 6,320,905 issued on November 20, 2001, “Postprocessing system for removing blocking artifacts in block-based codecs”, US patent issued on January 23, 2001 to Cheung et al. No. 6,178,205 “Video postfiltering with motion-compensated temporal filtering and / or spatial-adaptive filtering”, December 26, 2000 to Sugahara et al. Issued on July 6, 1999 to Gupta et al., US Pat. No. 6,167,157, “Method of reducing quantization noise generated during a decoding process of image data and device for decoding image data” U.S. Pat. No. 5,920,356, “Coding parameter adaptive transform artifact reduction process”.

離散コサイン変換(DCT)領域法が、Triantafyllidis等著「Blocking artifact detection and reduction in compressed data」(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 12, October 2002)、およびChen等著「Adaptive post-filtering of transform coefficients for the reduction of blocking artifacts」(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 11, May 2001)に記載されている。   The Discrete Cosine Transform (DCT) domain method is known as “Blocking artifact detection and reduction in compressed data” (IEEE Transactions on Circuits and Systems for Video Technology, Vol. 12, October 2002) by Triantafyllidis et al., “Adaptive post- filtering of transform coefficients for the reduction of blocking artifacts "(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 11, May 2001).

ウェーブレットに基づくフィルタリング法が、Xiong等著「A deblocking algorithm for JPEG compressed images using overcomplete wavelet representations」(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 7, No. 2, August 1997)、およびLang等著「Noise reduction using an undecimated discrete wavelet transform」(Signal Processing Newsletters, Vol. 13, January 1996)に記載されている。   Wavelet-based filtering methods are described in Xiong et al., “A deblocking algorithm for JPEG compressed images using overcomplete wavelet representations” (IEEE Transactions on Circuits and Systems for Video Technology, Vol. 7, No. 2, August 1997), and Lang et al. "Noise reduction using an undecimated discrete wavelet transform" (Signal Processing Newsletters, Vol. 13, January 1996).

反復法が、Paek等著「A DCT-based spatially adaptive post-processing technique to reduce the blocking artifacts in transform coded images」(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 10, February 2000)、およびPaek等著「On the POCS-based post-processing technique to reduce the blocking artifacts in transform coded images」(IEEE Transactions on Circuits and Systems for Video Technology, Vol. 8, June 1998)に記載されている。   The iterative method is Paek et al., "A DCT-based spatially adaptive post-processing technique to reduce the blocking artifacts in transform coded images" (IEEE Transactions on Circuits and Systems for Video Technology, Vol. 10, February 2000), Paek et al. "On the POCS-based post-processing technique to reduce the blocking artifacts in transform coded images" (IEEE Transactions on Circuits and Systems for Video Technology, Vol. 8, June 1998).

ファジィルールに基づくフィルタリング法が、Arakawa著「Fuzzy rule-based signal processing and its application to image restoration」(IEEE Journal on selected areas in communications, Vol. 12, No. 9, December 1994)、およびGiura他に対して2001年12月18日付で発行された米国特許第6,332,136号「Fuzzy filtering method and associated fuzzy filter」に記載されている。   A fuzzy rule-based filtering method is proposed by Arakawa for “Fuzzy rule-based signal processing and its application to image restoration” (IEEE Journal on selected areas in communications, Vol. 12, No. 9, December 1994), and Giura et al. US Pat. No. 6,332,136 issued on Dec. 18, 2001, “Fuzzy filtering method and associated fuzzy filter”.

従来技術の方法のほとんどは、ブロッキングノイズのみを扱う。そうした方法は、リンギングノイズには効果がない。ウェーブレットに基づく方法のようないくつかの方法は、リンギングを抑えることができるが、復元画像全体をぼかしてしまう。従来技術のファジィルールに基づくフィルタリング法は、白色ガウス雑音のみを扱う。   Most prior art methods only deal with blocking noise. Such a method has no effect on ringing noise. Some methods, such as wavelet-based methods, can reduce ringing but blur the entire restored image. Prior art fuzzy rule based filtering methods only deal with white Gaussian noise.

上記の従来技術の方法は、画素に別個に作用し、各画素に同一のフィルタを適用する。そうした方法は、概して、画像の基礎を成す内容を考慮しない。したがって、それらのフィルタは、アーチファクトを除去するために画像を過度に平滑化してぼかしてしまうか、または、最小限の平滑化を適用した場合には、アーチファクトを十分に低減することができない。   The prior art methods described above operate on the pixels separately and apply the same filter to each pixel. Such methods generally do not consider the underlying content of the image. Therefore, these filters either over-smooth and blur the image to remove artifacts, or, if minimal smoothing is applied, they cannot reduce the artifacts sufficiently.

そうした方法のもう1つの問題は、計算の複雑性である。例えば、ウェーブレットに基づく方法は、ウェーブレット画像を得るために8回の畳み込みに基づくローパスおよびハイパスフィルタリング操作を必要とする。次に、それらのウェーブレット画像に対してデブロッキング操作を行って、ブロッキングアーチファクトを除去する。デブロッキングされた画像を再構成するために、12回の畳み込みに基づくローパスおよびハイパスフィルタリング操作が必要となる。したがって、その方法では、合計20回の畳み込みに基づくフィルタリング操作が必要である。この計算コストは、リアルタイム処理の要件を満たすことができない。このウェーブレットに基づく方法と同様に、DCT領域法もまた、高い計算複雑性を有する。5×5のウィンドウを用いたローパスフィルタリングの場合には、単一の8×8ブロックを処理するために25回のDCT操作が必要である。このような複雑性の高さもやはり、リアルタイム処理には非現実的である。反復法の計算コストは、上記の2つの方法よりもさらに高い。ファジィルールに基づくフィルタリング法について言えば、反復法は、多数のフィルタパラメータおよび付加的な訓練データを必要とする。   Another problem with such a method is computational complexity. For example, wavelet based methods require low and high pass filtering operations based on 8 convolutions to obtain wavelet images. Next, a deblocking operation is performed on these wavelet images to remove blocking artifacts. In order to reconstruct a deblocked image, low-pass and high-pass filtering operations based on 12 convolutions are required. Therefore, the method requires a filtering operation based on a total of 20 convolutions. This computational cost cannot meet the requirements of real-time processing. Similar to this wavelet-based method, the DCT domain method also has a high computational complexity. In the case of low-pass filtering using a 5 × 5 window, 25 DCT operations are required to process a single 8 × 8 block. Such high complexity is also impractical for real-time processing. The computational cost of the iterative method is even higher than the above two methods. For fuzzy rule based filtering methods, the iterative method requires a large number of filter parameters and additional training data.

従来技術の方法の問題に鑑みて、低い計算複雑性で、より高い画像/ビデオ画質を達成する新規のフィルタリング構造を提供することが望ましい。   In view of the problems of the prior art methods, it is desirable to provide a new filtering structure that achieves higher image / video image quality with low computational complexity.

方法は、先ず画像をブロックに分割することによって、画像中の画素をフィルタリングする。エッジブロックを特定する。各エッジブロック内の各画素の強度の分散を求める。次に、各エッジブロック内の各画素を、画素の分散に依存するフィルタによりフィルタリングする。   The method first filters the pixels in the image by dividing the image into blocks. Identify edge blocks. The variance of the intensity of each pixel in each edge block is obtained. Next, each pixel in each edge block is filtered by a filter that depends on the variance of the pixels.

図1は、本発明によるシステムおよび方法100を示す。本システムは、いかなる画像またはビデオデコーダとも独立している。本システムは、圧縮された画像またはビデオに埋め込まれたいかなる符号化パラメータにも頼らない。本発明は、画像中の局所的な特徴部に重点を置いている。本発明による方法は、局所的な特徴部を抽出し、これらを分類する。次に、画像が復元画像である場合には、分類された特徴部を用いて、画素を選択的かつ適応的にフィルタリングすることができる。   FIG. 1 illustrates a system and method 100 according to the present invention. The system is independent of any image or video decoder. The system does not rely on any coding parameters embedded in the compressed image or video. The present invention focuses on local features in the image. The method according to the invention extracts local features and classifies them. Next, if the image is a restored image, the pixels can be selectively and adaptively filtered using the classified features.

入力は、画像201である。本方法は、いずれの画像形式(例えば、YUVまたはRGB)にも有効である。本システムは、ビデオにおけるような画像シーケンスを処理できることを理解すべきである。例えば、画像201は、プログレッシブビデオまたはインタレースビデオの一部であってもよい。また、入力画像は、一度も圧縮されていない原画像であっても、復元画像であってもよいことにも留意すべきである。   The input is an image 201. This method is effective for any image format (eg, YUV or RGB). It should be understood that the system can process image sequences such as in video. For example, the image 201 may be part of progressive video or interlaced video. It should also be noted that the input image may be an original image that has never been compressed or a restored image.

しかし、入力画像が圧縮画像から得られた復元画像であり、圧縮画像が、ブロックに基づく圧縮プロセスを用いて圧縮された原画像から得られたものである場合には、以前の圧縮により、復元画像201は、圧縮画像のDCT係数ブロックの別個の量子化によって生じたブロッキングアーチファクトを有する。したがって、復元画像201は、隣接するブロック間の空間値にブロック途切れがある。復元画像中のエッジに沿ってリンギングアーチファクトが生じる可能性もある。   However, if the input image is a decompressed image obtained from a compressed image, and the compressed image is derived from an original image that was compressed using a block-based compression process, the previous compression will restore Image 201 has blocking artifacts caused by separate quantization of the DCT coefficient block of the compressed image. Therefore, the restored image 201 has a block break in the space value between adjacent blocks. Ringing artifacts can also occur along the edges in the restored image.

元の原情報を保持する一方で、これらのアーチファクトを低減するために、本発明によるフィルタリングは、入力画像201中の局所的な特徴部の分類に基づく。さらに、フィルタリングはこの分類に対して適応的である。   In order to reduce these artifacts while retaining the original original information, the filtering according to the present invention is based on the local feature classification in the input image 201. Furthermore, filtering is adaptive to this classification.

分散画像
統計的な観点から、画素の強度値の分布は、復元画像の特徴部を示す。画像の平均強度値mは、画像のDC成分を表す。平均強度値は、次式によって測定することができる。
Dispersed image From a statistical point of view, the distribution of intensity values of pixels indicates the features of the restored image. The average intensity value m of the image represents the DC component of the image. The average intensity value can be measured by the following formula.

Figure 0004850475
Figure 0004850475

ここで、MおよびNは、復元画像の画素数に換算した幅および高さであり、pxi,jは、i,jの位置に生じる画素の確率である。 Here, M and N are the width and height converted into the number of pixels of the restored image, and p xi, j is the probability of the pixel occurring at the position of i, j.

復元画像の平均パワーは、次式で表される平均二乗値である。   The average power of the restored image is an average square value expressed by the following equation.

Figure 0004850475
Figure 0004850475

平均の変動は、次式で表される分散である。   The average variation is the variance expressed by the following equation.

Figure 0004850475
Figure 0004850475

平均二乗は、画像中のDC成分の平均パワーを表し、分散は、圧縮画像201中のAC周波数成分の平均パワーを表す。したがって、強度値の分散は、画像中のエネルギーを表すACパワーの変動の尺度として用いられる。   The mean square represents the average power of the DC component in the image, and the variance represents the average power of the AC frequency component in the compressed image 201. Thus, the variance of intensity values is used as a measure of AC power variation representing energy in the image.

ある画素の分散が高い場合には、その画素は、エッジに関連する可能性が高い。分散が低い場合には、その画素は、画像の均質領域、例えば、平滑な背景の一部である。したがって、分散は、画像中の局所的な特徴部の特性を示す。   If the variance of a pixel is high, the pixel is likely related to an edge. If the variance is low, the pixel is part of a homogeneous area of the image, for example a smooth background. Therefore, the variance indicates the characteristics of local features in the image.

ブロッキングアーチファクトとリンギングアーチファクトは、ともに局所的な特徴部の特性によるものである、すなわち、アーチファクトは、ブロック境界またはエッジ付近に現れるため、局所的な特徴部は、これらのアーチファクトを示すのに十分である。したがって、本発明による分類およびフィルタリングは、上記の式(3)に記載したような画素強度値の局所分散によって測定されるエネルギー分布に基づく。特徴部の特性は、以下のように強度値211を抽出する(210)ことによって求める。   Both blocking artifacts and ringing artifacts are due to local feature characteristics, i.e., artifacts appear near block boundaries or edges, so local features are sufficient to show these artifacts. is there. Accordingly, classification and filtering according to the present invention is based on an energy distribution measured by local dispersion of pixel intensity values as described in equation (3) above. The characteristic of the feature is obtained by extracting (210) the intensity value 211 as follows.

図3に示すように、平滑3×3フィルタ301で復元画像201中の各画素302を走査する。走査は、ラスタスキャン順に行うことができる。フィルタの各中心画素301について、式(1)〜(3)に従って強度値211の平均および分散を求める(220)。分散値は、分散画像401を形成する。幾何学的な観点から、局所分散は、各画素位置における復元画像の勾配を反映する。画像中のエッジにおける勾配は、非常に高いためである。   As shown in FIG. 3, each pixel 302 in the restored image 201 is scanned with a smooth 3 × 3 filter 301. Scanning can be performed in raster scan order. For each central pixel 301 of the filter, the average and variance of the intensity values 211 are determined according to equations (1) to (3) (220). The variance value forms a variance image 401. From a geometric point of view, the local variance reflects the gradient of the restored image at each pixel location. This is because the gradient at the edge in the image is very high.

図4に示すように、特徴部の抽出および走査は、画素が強度値211を有する空間領域の復元画像201を、画素が分散411を有するエネルギー領域の分散画像401に変換する。   As shown in FIG. 4, the extraction and scanning of the feature part converts the restored image 201 in the spatial region in which the pixel has the intensity value 211 into the dispersed image 401 in the energy region in which the pixel has the variance 411.

画素の分類
図5に示すように、第1のしきい値_1未満の分散を有する画素211を、クラス_0 501として分類する(230)。これらの画素は、画像中の均質な、すなわち「平滑な」領域に対応する。第2のしきい値_2よりも大きい分散を有する画素を、クラス_1 502として分類する。これらの画素は、エッジに対応する可能性が最も高い。これら2つのしきい値の間の分散を有する画素を、クラス_2 503として分類する。これらの画素は、近傍画素の特性に応じてリンギングノイズまたはテクスチャとして考えることができる。本発明による適応的フィルタリングは、上記の分類に応じて実行される。
Pixel Classification As shown in FIG. 5, the pixel 211 having a variance less than the first threshold value_1 is classified as class_0 501 (230). These pixels correspond to homogeneous or “smooth” areas in the image. Pixels having a variance greater than the second threshold_2 are classified as class_1 502. These pixels are most likely to correspond to edges. Pixels having a variance between these two thresholds are classified as class_2 503. These pixels can be considered as ringing noise or texture depending on the characteristics of neighboring pixels. The adaptive filtering according to the present invention is performed according to the above classification.

ブロックの分類
画素ブロックも、分散画像401中の分散値に応じて「平滑」ブロック241、「テクスチャ」ブロック242および「エッジ」ブロック243に分類する(240)。ブロックの分類240は、各ブロック内の総分散に基づいて、またはブロック内の各クラスの画素数を計数することによって行うことができる。例えば、ブロック内の画素が全てクラス_0である場合には、そのブロックを平滑ブロックとして分類する。ブロック内の少なくとも1つの画素がクラス_1である場合には、そのブロックをエッジブロックとして分類する。その他の、ブロックがクラス_0とクラス_2の両方の画素を有する場合には、そのブロックをテクスチャブロックとして分類する。
Classification of Blocks The pixel blocks are also classified into a “smooth” block 241, a “texture” block 242 and an “edge” block 243 according to the variance value in the variance image 401 (240). Block classification 240 can be performed based on the total variance within each block or by counting the number of pixels of each class within the block. For example, when all the pixels in the block are class_0, the block is classified as a smooth block. When at least one pixel in the block is class_1, the block is classified as an edge block. If the block has both class_0 and class_2 pixels, the block is classified as a texture block.

ブロッキングアーチファクトの検出
最もよく知られている画像およびビデオの圧縮規格は、画素ブロックのDCT符号化に基づいている。ブロックに基づく符号化は、画像を完全に、通常は、1ブロックが8×8画素である画素ブロックに分割する。各ブロックの画素は、別個にDCT係数に変換される。次に、DCT係数は、所定の量子化行列に応じて量子化される。別個の符号化のために、ブロッキングアーチファクトがブロック境界で目に見える。
Blocking Artifact Detection The best known image and video compression standards are based on DCT coding of pixel blocks. Block-based encoding divides an image completely into pixel blocks, usually one block of 8x8 pixels. The pixels of each block are converted to DCT coefficients separately. Next, the DCT coefficients are quantized according to a predetermined quantization matrix. Due to the separate encoding, blocking artifacts are visible at the block boundaries.

図6は、8×8のブロック600上でブロッキングアーチファクトを検出する(250)方法を示す。外側の画素を星印601で示し、「内側の」画素を黒丸602で示す。内側の画素は、ブロック内の一番上の行および左の列に隣接して、それと平行に位置する。検出250は、ブロック毎に左から右へ、また上から下へ行われる。   FIG. 6 shows a method for detecting (250) blocking artifacts on an 8 × 8 block 600. Outer pixels are indicated by stars 601 and “inner” pixels are indicated by black circles 602. The inner pixel is located adjacent to and parallel to the top row and left column in the block. Detection 250 is performed from left to right and from top to bottom for each block.

ブロッキングアーチファクトが存在する場合には、外側の画素601の分散の勾配は、内側の画素602とほぼ同じである。ブロッキングアーチファクトがあることを判定する基準は、次の通りである。   In the presence of blocking artifacts, the slope of the variance of the outer pixel 601 is approximately the same as the inner pixel 602. The criteria for determining the presence of blocking artifacts are as follows.

Figure 0004850475
Figure 0004850475

sign(符号)は、+1または−1のいずれかである。上記のテストは、ブロッキングアーチファクトと、ブロック境界にあるエッジとを区別する。   The sign (sign) is either +1 or -1. The above test distinguishes between blocking artifacts and edges at block boundaries.

デブロッキングフィルタ
図7に示すように、ブロッキングアーチファクトは、復元画像中の検出されたブロック境界をフィルタリングすることによって除去される(260)。ブロッキングアーチファクトが検出された場合には、画素に対してブロック境界601に沿って1次元ローパス(平滑化)フィルタを適応的に適用する。フィルタ702、704、706のサイズ(例えば2、4、6またはそれ以上の画素数)は、ブロック境界における勾配に対応する。大きな勾配値を有する画素(すなわちエッジ画素)は、フィルタリング操作から除外し、エッジやテクスチャをぼかすことを避ける。
Deblocking Filter As shown in FIG. 7, blocking artifacts are removed by filtering the detected block boundaries in the reconstructed image (260). When a blocking artifact is detected, a one-dimensional low-pass (smoothing) filter is adaptively applied to the pixel along the block boundary 601. The size of the filters 702, 704, 706 (eg, 2, 4, 6 or more pixels) corresponds to the gradient at the block boundary. Pixels with large gradient values (ie, edge pixels) are excluded from the filtering operation to avoid blurring edges and textures.

ファジィフィルタ
ファジィフィルタ271を適用することによって、デリンギング270は、エッジブロック243のみに作用する。本発明によるファジィフィルタは、ファジィ変換理論に基づく。Nie等著「Fuzzy transformation and its applications」(IEEE International Conference on Image Processing, Barcelona, Spain, September, 2003)を参照願いたい。
By applying the fuzzy filter 271, the deringing 270 acts only on the edge block 243. The fuzzy filter according to the present invention is based on fuzzy transformation theory. See Nie et al., “Fuzzy transformation and its applications” (IEEE International Conference on Image Processing, Barcelona, Spain, September, 2003).

ファジィ変換において、空間サンプルx(例えば画素の強度値)と順序統計量xの関係は、実数値のガウス関数μ(a,b)によって確立され、ここで、iは空間インデックスi=1,2,...,Nであり、j=1,2,...,Nは順序統計量であり、x(1)≦x(2)≦...≦x(N)であり、観測またはフィルタリングウィンドウのサイズはNである。 In fuzzy transformation, the relationship between spatial samples x i (eg pixel intensity values) and order statistics x j is established by a real-valued Gaussian function μ F (a, b), where i is the spatial index i = 1, 2,. . . , N and j = 1, 2,. . . , N are order statistics, and x (1) ≤ x (2) ≤. . . ≦ x (N) and the size of the observation or filtering window is N.

メンバシップ関数は以下の制約を有する。   The membership function has the following constraints.

Figure 0004850475
Figure 0004850475

これにより、次式によって定義されるN×Nのファジィ空間ランク(SR)行列が得られる。   As a result, an N × N fuzzy space rank (SR) matrix defined by the following equation is obtained.

Figure 0004850475
Figure 0004850475

ファジィSR行列R(チルダ)の要素は、各対の画素間の値の差に依存するため、ファジィSR行列は、観測画素に埋め込まれた広がり情報を含む。   Since the elements of the fuzzy SR matrix R (tilde) depend on the difference in values between each pair of pixels, the fuzzy SR matrix includes spread information embedded in the observed pixels.

元のすなわち「はっきりした」空間画素は、はっきりした順序統計量ベクトルに行正規化ファジィSR行列を掛けることによって、ファジィ空間画素に「変換」することができる。結果として得られるファジィ空間画素は、広がり情報も反映する。本発明によるファジィフィルタ271の出力272は、観測またはフィルタリングウィンドウの中心画素がぼやけた(fuzzy)ものに相当する。   The original or “clear” spatial pixel can be “transformed” into fuzzy spatial pixels by multiplying the explicit order statistic vector by the row normalized fuzzy SR matrix. The resulting fuzzy space pixel also reflects spread information. The output 272 of the fuzzy filter 271 according to the present invention corresponds to a fuzzy central pixel of the observation or filtering window.

フィルタの出力は、以下の単純化された式を用いて得ることができる。   The output of the filter can be obtained using the following simplified formula:

Figure 0004850475
Figure 0004850475

ここで、xおよびx(チルダ)は、それぞれ、はっきりした中心画素およびぼやけた中心画素である。 Here, x c and x c (tilde) are a clear central pixel and a blurred central pixel, respectively.

フィルタの出力の最後の式から示唆されるように、順序付け操作は不要である。したがって、ファジィフィルタ271の計算複雑性は、線形フィルタよりもわずかに高いだけである。唯一の付加的な計算は、N−1対の画素間で関数の値を評価するためのものである。全画素についてμ(x,x)=1であるため、求める必要がないことに留意されたい。 As suggested by the last expression in the output of the filter, no ordering operation is necessary. Therefore, the computational complexity of the fuzzy filter 271 is only slightly higher than that of the linear filter. The only additional calculation is to evaluate the value of the function between N-1 pairs of pixels. Note that μ F (x c , x c ) = 1 for all pixels, so there is no need to determine.

本発明の1実施形態において、実数値の関数μ(a,b)は、次式のガウス関数によって定義される。 In one embodiment of the invention, the real valued function μ g (a, b) is defined by a Gaussian function:

Figure 0004850475
Figure 0004850475

ここで、広がりパラメータξは20である。   Here, the spread parameter ξ is 20.

図2は、サンプルx(i=1,2,...,N)とウィンドウの中心サンプルxの値の類似性を表すガウス関数のいくつかの値の例を示す。この所与の例において、x=128、x=180、x=20、x=100である。 FIG. 2 shows examples of several values of the Gaussian function representing the similarity between the values of the sample x i (i = 1, 2,..., N) and the window center sample x c . In this given example, x c = 128, x 1 = 180, x 2 = 20, x 3 = 100.

上記の式から、ファジィフィルタの出力は、フィルタリングウィンドウ内のサンプルの加重平均であることが分かる。ガウス関数の値、すなわち中心サンプル自体を含む各サンプルと中心サンプルの類似性の尺度は、対応するサンプルの重みとして用いられる。   From the above equation, it can be seen that the output of the fuzzy filter is a weighted average of the samples in the filtering window. The value of the Gaussian function, i.e. the measure of similarity between each sample including the center sample itself and the center sample, is used as the weight of the corresponding sample.

したがって、サンプルの値が中心サンプルに近いほど、より大きな重みがそのサンプルに割り当てられる。これは、類似した値のサンプルは、それらの局所平均の周囲でさらにクラスタリングされ、異なる値のサンプルは、ほぼそのままとなるという効果をもたらす。これは、ファジィ変換のクラスタリング特性として知られる。   Thus, the closer the sample value is to the center sample, the more weight is assigned to that sample. This has the effect that samples with similar values are further clustered around their local average, while samples with different values remain nearly intact. This is known as a clustering characteristic of fuzzy transformation.

結果として、本発明によるファジィフィルタ271は、データに適応的な平滑化機能を有するため、強いエッジを完全に保持し、その一方で、目障りなリンギングアーチファクトに関連する弱いエッジを除去することができる。   As a result, the fuzzy filter 271 according to the present invention has a smoothing function that is adaptive to the data, so that strong edges can be completely preserved while weak edges associated with annoying ringing artifacts can be removed. .

図8にこの機能を示す。この例において、「ステップ」信号の入力サンプル801は、均一に分散したノイズによって破壊されている。よって、破壊された信号は、はっきりしたサンプルの2つのグループからなり、一方のグループは0の周囲に局在し、他方のグループは1の周囲に局在している。   FIG. 8 shows this function. In this example, the “step” signal input sample 801 is corrupted by uniformly distributed noise. Thus, the corrupted signal consists of two groups of distinct samples, one group localized around 0 and the other group localized around 1.

ファジィフィルタ271によるフィルタリングの後、類似した値のサンプルを含む各グループを、そのグループの局所平均の周囲でさらに密にクラスタリングし、結果として、フィルタリングされたステップ信号802を得る。こうして、均一な領域における望ましくない摂動を平滑化し、その一方でステップエッジを回復する。この例は、強いエッジの周囲のリンギングアーチファクトを正確に模擬していることに留意されたい。したがって、この例は、ファジィフィルタが如何にこれらのアーチファクトを除去するとともにエッジを保持するかを示している。   After filtering by the fuzzy filter 271, each group containing samples of similar values is clustered more closely around the local average of that group, resulting in a filtered step signal 802. In this way, undesired perturbations in uniform regions are smoothed while the step edge is restored. Note that this example accurately simulates ringing artifacts around strong edges. Thus, this example shows how a fuzzy filter removes these artifacts and preserves edges.

適応的フィルタリング
上記の式(6)から、ウィンドウ内のぼやけた中心画素は、加重平均であることが分かる。各重みは、特に広がりパラメータξにより定められるようなガウス関数によって与えられる。広がりパラメータは、ガウス関数の形状、すなわちフィルタリングの範囲を制御する。広がりパラメータξが大きい場合には、ガウス関数は、比較的広い。これは、より平滑なフィルタに対応する。広がりパラメータξが小さい場合には、ガウス関数は狭く、フィルタリングの平滑さは低下する。ウィンドウサイズNは、同様の特性を有する。大きなウィンドウは、小さなウィンドウよりも強い平滑化効果を有する。
Adaptive Filtering From equation (6) above, it can be seen that the blurred center pixel in the window is a weighted average. Each weight is given in particular by a Gaussian function as defined by the spread parameter ξ. The spread parameter controls the shape of the Gaussian function, ie the range of filtering. When the spread parameter ξ is large, the Gaussian function is relatively wide. This corresponds to a smoother filter. When the spread parameter ξ is small, the Gaussian function is narrow and the smoothness of filtering is lowered. The window size N has similar characteristics. Large windows have a stronger smoothing effect than small windows.

したがって、本発明は、適応的ファジィフィルタリング方法を提供する。ウィンドウサイズNおよび広がりパラメータξは、分散画像401中の値に応じて適応的に決められる。   Accordingly, the present invention provides an adaptive fuzzy filtering method. The window size N and the spread parameter ξ are adaptively determined according to the values in the dispersed image 401.

ウィンドウサイズNと広がりパラメータξの可能な組み合わせとして以下の4つがある。
小さなウィンドウNと小さなξ
小さなウィンドウNと大きなξ
大きなウィンドウNと小さなξ
大きなウィンドウNと大きなξ
There are the following four possible combinations of the window size N and the spread parameter ξ.
Small window N and small ξ
Small window N and large ξ
Large window N and small ξ
Large window N and large ξ

本発明の基本原則として、小さな分散は、小さなウィンドウおよび小さな広がりパラメータξに対応し、大きな分散は、大きなウィンドウおよび大きな広がりパラメータξに対応する。   As a basic principle of the present invention, a small variance corresponds to a small window and a small spread parameter ξ, and a large variance corresponds to a large window and a large spread parameter ξ.

図9は、本発明による適応方法のステップを示す。開始910において、本方法に対する入力は、次の分類ブロック901(終了990まで)、および対応する復元画像ブロック902である。   FIG. 9 shows the steps of the adaptation method according to the invention. At start 910, the input to the method is the next classification block 901 (until end 990) and the corresponding restored image block 902.

ステップ920において、分散画像401中の分散値が22よりも大きいかどうかを判定する。真921である場合には、対応する画素は、おそらくエッジ上にある可能性が高い。したがって、エッジの鮮明さを保持するために、この画素は、オールパスフィルタリングする。基本的なファジィフィルタリングでは、上述のように、全てのエッジ画素を、同一の広がりパラメータを有する同一のフィルタによりフィルタリングする。   In step 920, it is determined whether or not the variance value in the variance image 401 is greater than 22. If true 921, the corresponding pixel is most likely on an edge. Therefore, in order to preserve the sharpness of the edge, this pixel is all-pass filtered. In basic fuzzy filtering, as described above, all edge pixels are filtered by the same filter having the same spread parameter.

反対に、偽である場合には、ステップ930により、分散値が22以下であり、かつ10以上であるかを判定する。真931である場合には、その画素は、おそらくリンギングノイズにより破壊されているため、大きな広がりパラメータ940(ξは30である)および大きなウィンドウサイズ941(Nは5×5である)を選択する。すなわち、強い平滑ファジィフィルタをフィルタリング970に用いて、リンギングアーチファクトを最大限に低減する。 On the contrary, if it is false, it is determined in step 930 whether the variance value is 22 or less and 10 or more. If true 931, the pixel is probably destroyed by ringing noise, so select a large spread parameter 940 (ξ is 30) and a large window size 941 (N is 5 × 5) . That is, a strong smooth fuzzy filter is used for filtering 970 to reduce ringing artifacts to the maximum.

反対に、偽である場合には、ステップ950により、分散が10未満であり、かつ4以上であるかを判定する。真951である場合には、対応する画素は「弱い」エッジ領域にあるか、リンギングノイズにより少し破壊されている可能性がある。この場合には、小さな広がりパラメータ960(ξは15である)および小さなウィンドウ961(Nは3×3である)、すなわち、弱い平滑ファジィフィルタをフィルタリング970に用いる。反対に、分散が4未満である場合には、その画素は、平滑領域にあるため、オールパスフィルタリングを適用し、次の画素を処理する。全ての画素を処理した後、フィルタリングされたブロックを出力し(980)、終了990まで次のブロック901を処理する。 On the other hand, if false, step 950 determines whether the variance is less than 10 and greater than or equal to 4. If true 951, the corresponding pixel may be in a “weak” edge region or it may be slightly destroyed by ringing noise. In this case, a small spread parameter 960 (ξ is 15) and a small window 961 (N is 3 × 3), ie a weak smooth fuzzy filter, is used for filtering 970. On the other hand, if the variance is less than 4, the pixel is in the smooth region, so all-pass filtering is applied to process the next pixel. After processing all the pixels, the filtered block is output (980), and the next block 901 is processed until the end 990.

分散、ウィンドウ、および広がりパラメータのさまざまな制限値、例えば(22,10,2)、(5,3)、および(30,15)は、異なる用途について変更できるが、依然として本発明の精神および範囲内にあることに留意すべきである。   Various limits of variance, window, and spread parameters, such as (22,10,2), (5,3), and (30,15) can be varied for different applications, but still remain within the spirit and scope of the present invention. It should be noted that

デブロッキングの改善
従来のインタレースビデオでは、フレームに基づく符号化方式とフィールドに基づく符号化方式とを併用して単一のフレームを符号化することができる。これにより、アーチファクトの複雑性が高まる。より良好なアーチファクト除去および細部の保持を達成するために、本発明では、各ビデオフレームの2つのフィールドを別個に処理する。異なる方式を用いて縦方向および横方向のデブロッキングを行う。異なるウィンドウサイズを有する1Dの適応的ファジィフィルタを適用して、横方向および縦方向のブロッキングアーチファクトをそれぞれ除去する。
Improved deblocking In conventional interlaced video, a single frame can be encoded using both a frame-based coding scheme and a field-based coding scheme. This increases the complexity of the artifact. In order to achieve better artifact removal and detail preservation, the present invention processes the two fields of each video frame separately. De-blocking in the vertical and horizontal directions using different schemes. Apply 1D adaptive fuzzy filters with different window sizes to remove horizontal and vertical blocking artifacts, respectively.

縦方向のブロッキングアーチファクトの検出
図10に示すように、縦方向のブロッキングアーチファクトの検出を、8×8の画素の行1011と交差する縦方向の各ブロック境界1010に沿って行う。画素強度の差G0を、G0=|x0−y7|により求める。次に、L1、L2、L3、L4およびR1、R2、R3、R4でそれぞれ示される、ブロック境界の左側および右側にある各隣接画素対の強度の差も求める。
max(L1,L2,L3,L4)<G0またはmax(R1,R2,R3,R4)<G0
である場合には、その行をマークし、その行に沿って境界ギャップを検出する。
Detection of Vertical Blocking Artifacts As shown in FIG. 10, vertical blocking artifact detection is performed along each vertical block boundary 1010 that intersects a row 1011 of 8 × 8 pixels. The pixel intensity difference G0 is obtained by G0 = | x0−y7 |. Next, the difference in intensity between each pair of adjacent pixels on the left and right sides of the block boundary indicated by L1, L2, L3, L4 and R1, R2, R3, R4, respectively, is also obtained.
max (L1, L2, L3, L4) <G0 or max (R1, R2, R3, R4) <G0
If so, the line is marked and a boundary gap is detected along the line.

行1011の8つの境界画素対すべてを、縦方向のブロック境界1010に沿って調べた後、マークされた行(すなわち境界ギャップ)の数が所定のしきい値TH1(例えばTH1=0)よりも大きい場合には、現在の縦方向のブロック境界においてブロッキングアーチファクトを検出し、この境界をまたいで1Dの適応的ファジィフィルタリングを行って縦方向のブロッキングアーチファクトを除去するか、またはフィルタリングを省略する。   After examining all eight boundary pixel pairs in row 1011 along vertical block boundary 1010, the number of marked rows (ie, boundary gaps) is greater than a predetermined threshold TH1 (eg, TH1 = 0). If so, block artifacts are detected at the current vertical block boundary, and 1D adaptive fuzzy filtering is performed across the boundary to eliminate vertical blocking artifacts, or filtering is omitted.

縦方向のブロッキングアーチファクトの除去
図11に示すように、ブロック境界にまたがるマークされた行においてのみ1Dフィルタリングを行う。
MAX(L1,L2,L3,L4)<G0
である場合(境界ギャップが左側にある隣接画素間の差と比べて明らかであることを意味する)には、画素1111、すなわちy6、y7およびx0をフィルタリングする。同様に、
MAX(R1,R2,R3,R4)<G0
である場合には、画素1112、すなわちy7、x0およびx1をフィルタリングする。
Vertical Blocking Artifact Removal As shown in FIG. 11, 1D filtering is performed only on marked rows that straddle block boundaries.
MAX (L1, L2, L3, L4) <G0
If this is the case (meaning that the boundary gap is obvious compared to the difference between adjacent pixels on the left), filter pixel 1111, ie y6, y7 and x0. Similarly,
MAX (R1, R2, R3, R4) <G0
If so, filter pixel 1112, ie, y7, x0 and x1.

境界の片側にある隣接画素対の強度差が境界ギャップよりも大きい場合(入力画像中のエッジにより生じる可能性が高い)には、境界ギャップはおそらく存在しないため、この側のおける行のフィルタリングは不要であることに留意されたい。これは、画像中のエッジを保持する一方で、エッジのように見えるブロッキングアーチファクトを依然としてフィルタリングすることにも役立つ。   If the intensity difference between adjacent pixel pairs on one side of the boundary is greater than the boundary gap (which is likely to be caused by an edge in the input image), the boundary gap probably does not exist, so row filtering on this side is Note that it is not necessary. This also helps to preserve blocking artifacts that look like edges while preserving edges in the image.

1Dファジィフィルタ
縦方向のブロッキングアーチファクトの平滑化に用いるフィルタは、フィルタリングすべき各画素(例えばy6)を中心とする5タップファジィフィルタ1113である。このファジィフィルタは、ブロック境界に沿って位置する強いエッジを保持する。
1D Fuzzy Filter A filter used for smoothing vertical blocking artifacts is a 5-tap fuzzy filter 1113 centered on each pixel to be filtered (for example, y6). This fuzzy filter preserves strong edges located along block boundaries.

ファジィフィルタの出力は、次のように表される。   The output of the fuzzy filter is expressed as follows.

Figure 0004850475
Figure 0004850475

ここで、xは、フィルタウィンドウの中心画素であり、μ(・)は、以下のように定義される区分的線形関数である。 Here, x c is the center pixel of the filter window, and μ L (·) is a piecewise linear function defined as follows.

Figure 0004850475
Figure 0004850475

横方向のブロッキングアーチファクトの検出
図12は、横方向のブロック境界1201と交差する画素列において横方向のブロッキングアーチファクトを検出する方法を示す。G0は、境界画素対の画像強度の差(すなわち、G0=|x0−y7|)であり、U1、U2、U3、U4およびB1、B2、B3、B4は、横方向の境界の上側および下側にある各隣接画素対の強度差である。GUL、GUR、GBLおよびGBRはそれぞれ、隣接する左上、右上、左下および右下の縦方向の境界における縦方向の境界ギャップの数である。
Detection of Lateral Blocking Artifacts FIG. 12 illustrates a method of detecting lateral blocking artifacts in a pixel column that intersects the lateral block boundary 1201. G0 is the difference in image intensity of the boundary pixel pair (ie G0 = | x0−y7 |), U1, U2, U3, U4 and B1, B2, B3, B4 are above and below the horizontal boundary. This is the intensity difference between each adjacent pixel pair on the side. G UL , G UR , G BL, and G BR are the numbers of vertical boundary gaps at adjacent upper left, upper right, lower left, and lower right vertical boundaries, respectively.

横方向のブロッキングアーチファクトの検出は、8×8ブロックの横方向の各境界に沿って行われる。本方法は、縦方向のブロッキングアーチファクトの検出に使用するものと同様であるが、横方向のブロッキングアーチファクトを特定する前に、追加条件を満たす必要がある。これらの条件を追加する理由は、ブロッキングアーチファクトをより正確に検出するとともに、ブロック境界に沿って存在する可能性がある画像中の横方向のエッジにまたがるフィルタリングを避けるためである。これらの本物のエッジをフィルタリングすると、目障りなアーチファクトが生じることになる。   Detection of lateral blocking artifacts is performed along each lateral boundary of the 8 × 8 block. The method is similar to that used to detect longitudinal blocking artifacts, but additional conditions must be met before identifying the lateral blocking artifacts. The reason for adding these conditions is to more accurately detect blocking artifacts and to avoid filtering across lateral edges in the image that may exist along the block boundary. Filtering these real edges will result in annoying artifacts.

先ず、縦方向の境界ギャップの検出および計数と同じ方法を用いて、横方向の境界ギャップを検出し計数する。しかし、今回は、全ての操作を、現在の横方向の境界にまたがる各列で行う。現在の横方向の境界に沿って検出される横方向の境界ギャップの数が所定のしきい値TH2(例えばTH2=5)未満である場合には、この境界にまたがるフィルタリングは行わない。そうでない場合には、現在の横方向の境界に隣接する4つの縦方向のブロック境界、すなわち、左上、右上、左下および右下の縦方向のブロック境界を調べて、現在の横方向の境界の周囲で大きな縦方向のブロッキングアーチファクトが生じているかどうかを確認する。   First, the horizontal boundary gap is detected and counted using the same method as the detection and counting of the vertical boundary gap. However, this time, all operations are performed on each row spanning the current horizontal boundary. If the number of lateral boundary gaps detected along the current lateral boundary is less than a predetermined threshold TH2 (eg, TH2 = 5), filtering across this boundary is not performed. Otherwise, examine the four vertical block boundaries adjacent to the current horizontal boundary, i.e., the upper left, upper right, lower left and lower right vertical block boundaries to determine the current horizontal boundary Check for large vertical blocking artifacts around.

UL、GUR、GBL、GBRは、それぞれ、左上、右上、左下および右下の縦方向の境界において検出される境界ギャップの数を示すものとする。以下の条件のうち少なくとも1つが満たされる場合には、大きな縦方向のブロッキングアーチファクトも検出されているため、現在の横方向の境界において横方向のブロッキングアーチファクトが生じると仮定する。 G UL , G UR , G BL , and G BR indicate the number of boundary gaps detected at the upper left, upper right, lower left, and lower right vertical boundaries, respectively. If at least one of the following conditions is met, it is assumed that large vertical blocking artifacts have also been detected, so that horizontal blocking artifacts occur at the current horizontal boundary.

条件
(GUL>TH2)かつ(GUR>TH2)
(GBL>TH2)かつ(GBR>TH2)
(GUL>7)または(GUR>7)または(GBL>7)または(GBR>7)
Conditions (G UL > TH2) and (G UR > TH2)
(G BL > TH2) and (G BR > TH2)
(G UL > 7) or (G UR > 7) or (G BL > 7) or (G BR > 7)

横方向の境界よりも先に縦方向の境界を処理するため、縦方向の各境界における縦方向の境界ギャップの数は既知である。   Since the vertical boundaries are processed before the horizontal boundaries, the number of vertical boundary gaps at each vertical boundary is known.

横方向のブロッキングアーチファクトの除去
図13に示すように、横方向のブロック境界にまたがるマークされた列においてのみ1Dフィルタリングを行う。MAX(U1,U2,U3,U4)<G0である場合(境界ギャップが上側にある隣接画素間の差と比べて明らかであることを意味する)には、画素1301、すなわちy6、y7をフィルタリングする。
Horizontal Blocking Artifact Removal As shown in FIG. 13, 1D filtering is performed only on marked columns that span horizontal block boundaries. If MAX (U1, U2, U3, U4) <G0 (meaning that the boundary gap is clear compared to the difference between adjacent pixels above), filter pixel 1301, ie y6, y7. To do.

同様に、MAX(B1,B2,B3,B4)<G0である場合には、画素1302、すなわちx0、x1をフィルタリングする。いずれの側でもx0とy7の両方をフィルタリングする縦方向の境界にまたがるフィルタリングとは異なり、いずれの側でも境界画素を1つ(x0またはy7)しかフィルタリングしないことに留意されたい。これにより、横方向のエッジにまたがるフィルタリングが低減される。横方向のブロッキングアーチファクトの平滑化に用いるフィルタは、フィルタリングすべき各画素を中心とする3タップファジィフィルタ1303である。フィルタの重みは、式(7)を用いて決定する。   Similarly, when MAX (B1, B2, B3, B4) <G0, the pixel 1302, that is, x0 and x1 is filtered. Note that, unlike filtering across vertical boundaries that filter both x0 and y7 on either side, only one boundary pixel (x0 or y7) is filtered on either side. This reduces filtering across the lateral edges. The filter used for smoothing the horizontal blocking artifact is a 3-tap fuzzy filter 1303 centered on each pixel to be filtered. The filter weight is determined using equation (7).

ブロックの分類
上述のように、ブロックの分類により、全体的な画質を下げることなく局所アーチファクトを大幅に低減することができる。しかし、ブロックの分類が同様に役立つ画像化用途は、他にも多くある。例えば、ブロックが適切に分類されれば、異なるブロックに異なる圧縮率および圧縮技法を適用することによって、全体的により高い圧縮率を達成することができる。例えば、平滑ブロックにはより高い圧縮率およびより単純な圧縮技法を適用して、より複雑なテクスチャを有するブロックに追加の帯域幅およびより高度な圧縮を適用できるようにすることができる。同様に、先ず「関心の低い」ブロックを廃棄することによって、パターン認識およびオブジェクト追跡の効率を高めることができる。さらに、画像検索システムが、分類されたブロックを選択的に用いて、コンテンツの検索および閲覧を加速することができる。
Block Classification As described above, block classification can significantly reduce local artifacts without reducing overall image quality. However, there are many other imaging applications where block classification is equally useful. For example, if the blocks are properly classified, overall higher compression ratios can be achieved by applying different compression ratios and compression techniques to different blocks. For example, higher compression ratios and simpler compression techniques can be applied to smooth blocks so that additional bandwidth and higher compression can be applied to blocks with more complex textures. Similarly, the efficiency of pattern recognition and object tracking can be increased by first discarding “low interest” blocks. Furthermore, the image search system can selectively use the classified blocks to accelerate content search and browsing.

したがって、本発明は、以下のブロック分類技法を提供する。   Accordingly, the present invention provides the following block classification technique.

図14は、本発明によるブロック内の画素を分類する別の方法を示す。画像201は、上述のように、重複しない8×8のブロックに分割される。上述のように、分散画像401において、各画素の分散を求める。次に、最大の分散または標準偏差を有する画素を用いてブロックの分類を決める(分散=σであり、STD=√(分散)である)。 FIG. 14 illustrates another method for classifying pixels in a block according to the present invention. The image 201 is divided into 8 × 8 blocks that do not overlap as described above. As described above, the variance of each pixel is obtained in the variance image 401. Next, the block classification is determined using the pixel having the maximum variance or standard deviation (variance = σ 2 and STD = √ (variance)).

各ブロックを、5つのカテゴリ、すなわち、強いエッジ1401、弱いエッジ1402、強いテクスチャ1403、弱いテクスチャ1404、および平滑1405のうちの1つに分類する。   Each block is classified into one of five categories: strong edge 1401, weak edge 1402, strong texture 1403, weak texture 1404, and smooth 1405.

Figure 0004850475
Figure 0004850475

ブロックのフィルタリング
プログレッシブビデオの場合には、各フレーム中の各ブロックについてフィルタリングを行い、インタレースビデオの場合には、各フィールド中のブロックに対してフィルタリングを行う。各ブロックのフィルタは、図14に示すように、ブロックの分類および隣接するブロックの分類に応じて選択される。さらに、フィルタリングは、フィルタの広がりパラメータが最大分散または最大標準偏差に比例する、すなわち、最大標準偏差が大きくなるほど広がりパラメータも大きくなるという点で適応的である。
Block Filtering In the case of progressive video, filtering is performed on each block in each frame, and in the case of interlaced video, filtering is performed on the blocks in each field. As shown in FIG. 14, the filter of each block is selected according to the classification of blocks and the classification of adjacent blocks. Further, filtering is adaptive in that the spread parameter of the filter is proportional to the maximum variance or maximum standard deviation, i.e., the larger the maximum standard deviation, the larger the spread parameter.

強いエッジブロック1401:8つの近傍ブロック1421(上、下、左、右、左上、右上、左下、右下)がすべて強いエッジブロックである場合には、オールパスフィルタリング1461を行ってブロックを出力し(1442)、そうでない場合には、各画素を適応的ファジィフィルタにより、広がりパラメータξを20としてフィルタリング1423を行い(強い平滑ファジィフィルタリングである)、ブロックを出力する。   Strong edge block 1401: If all eight neighboring blocks 1421 (upper, lower, left, right, upper left, upper right, lower left, lower right) are strong edge blocks, all-pass filtering 1461 is performed to output the block ( 1442) Otherwise, each pixel is filtered by an adaptive fuzzy filter with a spread parameter ξ of 20 (strong smooth fuzzy filtering), and a block is output.

弱いエッジブロック1402:各画素を適応的ファジィフィルタにより、広がりパラメータξを10に設定してフィルタリング1431を行い(弱い平滑ファジィフィルタリングである)、ブロックを出力する。   Weak edge block 1402: Each pixel is subjected to filtering 1431 with an adaptive fuzzy filter by setting the spread parameter ξ to 10 (which is weak smooth fuzzy filtering), and a block is output.

強いテクスチャブロック1403:4つの隣接するブロック1441(上、下、左、右)がすべて強いエッジブロックである場合には、オールパスフィルタリングして出力する。そうでない場合には、各画素をファジィフィルタにより、広がりパラメータξを10に設定してフィルタリング1431を行う。   Strong texture block 1403: When all four adjacent blocks 1441 (upper, lower, left, and right) are strong edge blocks, all-pass filtering is performed. Otherwise, the filtering 1431 is performed by setting the spread parameter ξ to 10 for each pixel by a fuzzy filter.

弱いテクスチャブロック1404:4つの隣接するブロックのうち少なくとも2つ1451(上、下、左、右)が平滑ブロックである場合には、各画素を適応的ファジィフィルタにより、広がりパラメータξを10に設定してフィルタリング1431を行う。   Weak texture block 1404: If at least two of the four adjacent blocks 1451 (up, down, left, right) are smooth blocks, the spread parameter ξ is set to 10 by adaptive fuzzy filter for each pixel Then, filtering 1431 is performed.

平滑ブロック1405:ブロックが平滑ブロックである場合には、オールパスフィルタ1461を適用し、ブロックを出力1442する。   Smoothing block 1405: If the block is a smoothing block, an all-pass filter 1461 is applied and the block is output 1442.

図15Aに示すように、強いエッジブロック1501が他の強いエッジブロックに完全に囲まれている場合には、そのブロックのフィルタリングは、省略することができる。これは、大きな強いエッジ領域では、マスキング効果によりリンギングアーチファクトが顕著には現れないためである。第2に、小さなアーチファクトが顕著に現れるのは平滑領域のみであるため、弱いエッジブロック1502は、隣接する平滑ブロックがある場合にのみフィルタリングすればよい。テクスチャブロックにおけるフィルタリングは、オプションとしてもよく、圧縮率に応じて選択することができる。圧縮率が高い、例えば、量子化スケールパラメータが40を上回る場合には、復元されたテクスチャブロックにリンギングアーチファクトが現れる可能性が高い。したがって、弱い平滑ファジィフィルタリングを適用すべきである。   As shown in FIG. 15A, when a strong edge block 1501 is completely surrounded by other strong edge blocks, filtering of the block can be omitted. This is because ringing artifacts do not appear remarkably in the large strong edge region due to the masking effect. Second, small artifacts only appear in smooth regions, so weak edge blocks 1502 need only be filtered when there are adjacent smooth blocks. Filtering in the texture block may be optional and can be selected according to the compression ratio. When the compression ratio is high, for example, when the quantization scale parameter exceeds 40, there is a high possibility that ringing artifacts appear in the restored texture block. Therefore, weak smooth fuzzy filtering should be applied.

本発明を、好適な実施形態の例として説明してきたが、本発明の精神および範囲内でさまざまな他の適応および変更を行うことができることが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神および範囲に入る変形および変更をすべて網羅することである。   Although the invention has been described by way of examples of preferred embodiments, it is to be understood that various other adaptations and modifications can be made within the spirit and scope of the invention. Accordingly, the purpose of the appended claims is to cover all modifications and variations that fall within the true spirit and scope of the invention.

本発明による復元画像からアーチファクトを除去する方法およびシステムのブロック図である。1 is a block diagram of a method and system for removing artifacts from a restored image according to the present invention. FIG. 本発明による画素値の類似性を評価しファジィフィルタパラメータを生成するガウス関数のグラフである。6 is a graph of a Gaussian function for evaluating similarity of pixel values according to the present invention and generating fuzzy filter parameters. 本発明による特徴部抽出のブロック図である。It is a block diagram of feature extraction according to the present invention. 本発明による強度画像と分散の間のマッピングのブロック図である。FIG. 6 is a block diagram of mapping between intensity images and variances according to the present invention. 本発明による画素を分類するブロック図である。FIG. 3 is a block diagram for classifying pixels according to the present invention. 本発明によるブロッキングアーチファクトを検出するブロック図である。FIG. 6 is a block diagram for detecting blocking artifacts according to the present invention. 本発明によるブロッキングアーチファクトをフィルタリングするブロック図である。FIG. 6 is a block diagram for filtering blocking artifacts according to the present invention. 本発明によるファジィフィルタのデータに適応的な平滑化特性を示すグラフである。It is a graph which shows the smoothing characteristic adaptive to the data of the fuzzy filter by this invention. 本発明による適応的フィルタリングのフローチャートである。3 is a flowchart of adaptive filtering according to the present invention. 縦方向のブロッキングアーチファクトの検出のブロック図である。It is a block diagram of detection of a blocking artifact in the vertical direction. 縦方向のブロッキングアーチファクトの除去のブロック図である。FIG. 7 is a block diagram of vertical blocking artifact removal. 横方向のブロッキングアーチファクトの検出のブロック図である。FIG. 6 is a block diagram of detection of horizontal blocking artifacts. 横方向のブロッキングアーチファクトの除去のブロック図である。FIG. 6 is a block diagram of removal of lateral blocking artifacts. 本発明による画素の分類およびフィルタリングのフローチャートである。3 is a flowchart of pixel classification and filtering according to the present invention. 8つの隣接するエッジブロックに囲まれたエッジブロックのブロック図である。It is a block diagram of an edge block surrounded by eight adjacent edge blocks. 少なくとも2つの平滑ブロックに囲まれたエッジブロックのブロック図である。It is a block diagram of an edge block surrounded by at least two smooth blocks.

Claims (5)

画像中の画素をフィルタリングする方法であって、
入力画像中の複数の画素を複数のブロックに分割することと、
前記複数のブロックにおいてエッジブロックを特定することと、
各エッジブロック内の各画素の強度の分散を求めることと、および
各エッジブロック内の各画素を、該画素の分散に依存するフィルタによりフィルタリングすることと
を含み、
前記フィルタは、画素の強度範囲の中心値をa、フィルタリング対象の画素の強度をとして、広がりパラメータξを有する下式
Figure 0004850475
で定義されたガウス関数を適用して、ウィンドウサイズをブロックサイズ以下のサイズNとして、ウィンドウ内の各画素の加重平均を求めることによりフィルタリングするために用いられ、小さい分散が小さいウィンドウサイズNおよび小さい広がりパラメータξに対応し、大きい分散が大きなウィンドウサイズNおよび大きな広がりパラメータξに対応し、
前記フィルタリングすることは、
前記分散が4以上10未満の範囲にある場合には、前記広がりパラメータξを15に、前記ウィンドウサイズNを3に設定することと、
前記分散が10以上22以下の範囲にある場合には、前記広がりパラメータξを30に、前記ウィンドウサイズNをに設定することと、および
それ以外の場合には、前記フィルタをオールパスフィルタに設定することと
を含む画像中の画素をフィルタリングする方法。
A method for filtering pixels in an image, comprising:
Dividing a plurality of pixels in an input image into a plurality of blocks;
Identifying an edge block in the plurality of blocks;
Determining the variance of the intensity of each pixel in each edge block, and filtering each pixel in each edge block with a filter that depends on the variance of the pixel;
The filter has a spread parameter ξ, where a is the center value of the intensity range of the pixel and b is the intensity of the pixel to be filtered.
Figure 0004850475
Is used to filter by applying a weighted average of each pixel in the window, with the window size being equal to or smaller than the block size , applying the Gaussian function defined in. Corresponding to the spread parameter ξ, a large variance corresponds to a large window size N and a large spread parameter ξ,
The filtering is
If the variance is in the range of 4 to less than 10, setting the spread parameter ξ to 15 and the window size N to 3;
When said dispersion is in the range of 10 to 22, the spread parameter ξ to 30, and setting the window size N to 5, and otherwise, sets the filter to the all-pass filter A method of filtering pixels in an image including:
2つの隣接するブロック間の縦方向の境界と交差する画素の行を特定することと、
境界ギャップを検出するために、前記縦方向の境界の左側および右側にある画素の強度差を求めることと、
前記境界ギャップが検出された場合にのみ、前記行の画素をフィルタリングすることと
をさらに含む請求項1に記載の方法。
Identifying a row of pixels that intersects the vertical boundary between two adjacent blocks;
Determining a difference in intensity between pixels on the left and right sides of the vertical boundary to detect a boundary gap;
The method of claim 1, further comprising: filtering pixels in the row only when the boundary gap is detected.
前記フィルタリングすることは、前記フィルタリングすべき行の各画素を中心とする1次元ファジィフィルタを用いる請求項2に記載の方法。   The method of claim 2, wherein the filtering uses a one-dimensional fuzzy filter centered on each pixel of the row to be filtered. 2つの隣接するブロック間の横方向の境界と交差する画素の列を特定することと、
境界ギャップを検出するために、前記横方向の境界の上側および下側にある画素の強度差を求めることと、
前記境界ギャップが検出された場合にのみ、前記列の画素をフィルタリングすることと
をさらに含む請求項1に記載の方法。
Identifying a column of pixels that intersects a lateral boundary between two adjacent blocks;
Determining an intensity difference between pixels above and below the lateral boundary to detect a boundary gap;
The method of claim 1, further comprising: filtering pixels in the column only when the boundary gap is detected.
前記フィルタリングすることは、前記フィルタリングすべき列の各画素を中心とする1次元ファジィフィルタを用いる請求項4に記載の方法。   5. The method of claim 4, wherein the filtering uses a one-dimensional fuzzy filter centered on each pixel of the column to be filtered.
JP2005300353A 2004-10-14 2005-10-14 Method for filtering pixels in an image Expired - Fee Related JP4850475B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/965,325 US7412109B2 (en) 2003-11-07 2004-10-14 System and method for filtering artifacts in images
US10/965,325 2004-10-14

Publications (2)

Publication Number Publication Date
JP2006140999A JP2006140999A (en) 2006-06-01
JP4850475B2 true JP4850475B2 (en) 2012-01-11

Family

ID=36621441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005300353A Expired - Fee Related JP4850475B2 (en) 2004-10-14 2005-10-14 Method for filtering pixels in an image

Country Status (1)

Country Link
JP (1) JP4850475B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081368A (en) * 2008-09-26 2010-04-08 Toshiba Corp Image processor, moving image decoding device, moving image encoding device, image processing method, moving image decoding method, and, moving image encoding method
TWI386068B (en) * 2008-10-22 2013-02-11 Nippon Telegraph & Telephone Deblocking processing method, deblocking processing device, deblocking processing program and computer readable storage medium in which the program is stored
US20120087595A1 (en) * 2009-06-19 2012-04-12 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, and image decoding method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3081412B2 (en) * 1993-06-01 2000-08-28 シャープ株式会社 Image signal decoder
JPH07212759A (en) * 1994-01-27 1995-08-11 Sharp Corp Picture signal decoder
JP3961600B2 (en) * 1996-12-27 2007-08-22 ソニー株式会社 Block distortion reduction method and apparatus
KR100219628B1 (en) * 1997-02-15 1999-09-01 윤종용 Signal adaptive filtering method and signal adaptive filter
JP3664626B2 (en) * 2000-02-10 2005-06-29 シャープ株式会社 Filter device
JP4069581B2 (en) * 2000-12-11 2008-04-02 セイコーエプソン株式会社 Image processing method, computer-readable recording medium on which image processing program is recorded, and image processing apparatus
JP2002232890A (en) * 2001-02-01 2002-08-16 Sony Corp Block distortion reduction circuit, reproducing device, receiver, block distortion reduction method
JP4495881B2 (en) * 2001-05-14 2010-07-07 パナソニック株式会社 Block distortion remover
JP4097587B2 (en) * 2002-10-16 2008-06-11 松下電器産業株式会社 Image processing apparatus and image processing method
US20050100235A1 (en) * 2003-11-07 2005-05-12 Hao-Song Kong System and method for classifying and filtering pixels

Also Published As

Publication number Publication date
JP2006140999A (en) 2006-06-01

Similar Documents

Publication Publication Date Title
US7551792B2 (en) System and method for reducing ringing artifacts in images
US7346224B2 (en) System and method for classifying pixels in images
US7412109B2 (en) System and method for filtering artifacts in images
US7822286B2 (en) Filtering artifacts in images with 3D spatio-temporal fuzzy filters
US20050100235A1 (en) System and method for classifying and filtering pixels
Maggioni et al. Video denoising, deblocking, and enhancement through separable 4-D nonlocal spatiotemporal transforms
EP1146748B1 (en) A method of directional filtering for post-processing compressed video
Meier et al. Reduction of blocking artifacts in image and video coding
KR101112139B1 (en) Apparatus and method for estimating scale ratio and noise strength of coded image
WO2004038648A9 (en) Method and decoder system for reducing quantization effects of a decoded image
JPH08186714A (en) Noise removal of picture data and its device
Kong et al. Edge map guided adaptive post-filter for blocking and ringing artifacts removal
JP2006148878A (en) Method for classifying pixels in image
KR100675498B1 (en) Device and method for filtering
JP2005318614A (en) Method for reducing artifact in input image
JP4850475B2 (en) Method for filtering pixels in an image
JP4065287B2 (en) Method and apparatus for removing noise from image data
JP2009095004A (en) Method of filtering pixels in sequence of images
KR100683060B1 (en) Device and method for deblocking of video frame
Young et al. Psychovisually tuned attribute operators for pre-processing digital video
Kong et al. Adaptive fuzzy post-filtering for highly compressed video
Kim et al. Signal adaptive postprocessing for blocking effects reduction in JPEG image
Do et al. A new adaptive image post-treatment for deblocking and deringing based on total variation method
Oh et al. Film grain noise modeling in advanced video coding
Mohammed et al. New approaches for DCT-Based image compression using region of interest scheme

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110614

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111019

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees