JP2001204029A - Noise detection method, noise detector and image recorder - Google Patents
Noise detection method, noise detector and image recorderInfo
- Publication number
- JP2001204029A JP2001204029A JP2000244861A JP2000244861A JP2001204029A JP 2001204029 A JP2001204029 A JP 2001204029A JP 2000244861 A JP2000244861 A JP 2000244861A JP 2000244861 A JP2000244861 A JP 2000244861A JP 2001204029 A JP2001204029 A JP 2001204029A
- Authority
- JP
- Japan
- Prior art keywords
- block
- noise
- dct
- filter
- coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、圧縮符号化された
画像の復号化技術に関し、特に、符号化に起因して生じ
た符号化ノイズを検出し、除去する技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for decoding a compressed and coded image, and more particularly to a technique for detecting and removing coding noise caused by coding.
【0002】[0002]
【従来の技術】近年、放送、通信や蓄積の分野における
画像の高能率圧縮符号化方法として、MPEG(Moving
Picture Experts Group)方式等が広く用いられてい
る。MPEG方式では、画像から空間方向及び時間方向
の冗長度を取り除くことにより符号化を行う。2. Description of the Related Art In recent years, MPEG (Moving) has been used as a highly efficient compression and encoding method for images in the fields of broadcasting, communication and storage.
Picture Experts Group) method is widely used. In the MPEG system, encoding is performed by removing redundancy in a spatial direction and a temporal direction from an image.
【0003】空間方向の冗長度を取り除くためには、離
散コサイン変換(Discrete CosineTransform、以下では
DCTと称する)と量子化処理とが用いられる。まず、
画像を、8×8画素のブロックと呼ばれる単位に分割し
た後、DCTにより周波数領域の係数(以下では、DC
T係数と称する)に変換し、DCT係数に対して量子化
処理を行う。In order to remove the redundancy in the spatial direction, a discrete cosine transform (hereinafter referred to as DCT) and a quantization process are used. First,
After the image is divided into units called blocks of 8 × 8 pixels, coefficients in the frequency domain (hereinafter, DC
(Referred to as a T coefficient), and performs a quantization process on the DCT coefficient.
【0004】量子化処理は、DCT領域の各周波数に対
応した値を有する量子化マトリクスと量子化スケールと
の両者を用いて、DCT係数を除する処理である。この
量子化処理により、DCT係数値が小さい周波数成分の
値が0になる。一般に画像信号はエネルギーが低域に集
中しているために、この処理によって高周波数成分が削
除される。しかしながら、人間の視覚特性は高域になる
ほど悪くなるので、量子化処理で用いる量子化スケール
が小さければ(量子化のステップが小さければ)、画質
劣化は目立ちにくい。[0004] The quantization process is a process of dividing a DCT coefficient by using both a quantization matrix having a value corresponding to each frequency in the DCT area and a quantization scale. By this quantization processing, the value of the frequency component having a small DCT coefficient value becomes zero. Generally, since the energy of an image signal is concentrated in a low band, a high frequency component is deleted by this processing. However, human visual characteristics become worse as the frequency becomes higher. Therefore, if the quantization scale used in the quantization process is small (the quantization step is small), the image quality degradation is not noticeable.
【0005】また時間方向の冗長度を取り除くために
は、動き補償が用いられる。動き補償では、16×16
画素のマクロブロックを単位として、参照フレームから
最も近い領域を選び出す。そして参照フレームとの差分
値を符号化する。動きがそれ程速くない場合には差分値
はほぼ0となるため、時間的冗長度を削減することがで
きる。[0005] In order to remove temporal redundancy, motion compensation is used. In motion compensation, 16 × 16
A region closest to the reference frame is selected in units of a macroblock of pixels. Then, the difference value from the reference frame is encoded. If the movement is not so fast, the difference value is almost 0, so that the temporal redundancy can be reduced.
【0006】通常、MPEG方式では、符号の伝送ビッ
トレートが高い(圧縮率が小さい)場合には、画質劣化
は非常に目立ちにくい。しかし、ビットレートが低く
(圧縮率が高く)なると、符号化ノイズが目立ち始め、
画質が劣化する。MPEG方式における符号化ノイズの
代表的なものとして、ブロックノイズ(ブロック歪みと
も呼ばれる)及びモスキートノイズ(リンギングノイ
ズ、コロナノイズとも呼ばれる)がある。Normally, in the MPEG system, when the transmission bit rate of a code is high (the compression ratio is low), the image quality is hardly noticeable. However, as the bit rate decreases (compression rate increases), coding noise starts to stand out,
Image quality deteriorates. Representative examples of the coding noise in the MPEG system include block noise (also called block distortion) and mosquito noise (also called ringing noise and corona noise).
【0007】ブロックノイズは、ブロック境界がはっき
りとタイル状に見える現象である。これは、ブロック内
の画像信号が低域周波数成分しか持たず、かつ隣接する
ブロック間での周波数成分値が異なるために生じる。[0007] Block noise is a phenomenon in which block boundaries look clear and tile-like. This occurs because an image signal in a block has only low-frequency components and frequency component values differ between adjacent blocks.
【0008】モスキートノイズは、エッジ周辺に蚊が飛
んでいるようにチラチラと生じるノイズである。これは
本来画像信号が有していた高周波数成分が、量子化処理
によりなくなることにより生じる。[0008] Mosquito noise is noise that occurs as if a mosquito were flying around the edge. This is caused by the fact that the high frequency components originally contained in the image signal are eliminated by the quantization processing.
【0009】ブロックノイズ及びモスキートノイズは、
アナログ系のノイズとは異なり、画質劣化として大きく
目立つため、これらを除去する方法がいくつか提案され
ている。Block noise and mosquito noise are:
Unlike analog noise, it is noticeable as image quality degradation, and several methods have been proposed to remove them.
【0010】ブロックノイズを除去する方法の例が、特
開平5−308623公報に開示されている(第1の従
来例)。この従来例では、DCT係数の最高周波数、及
び動きベクトルから求めた動き量に応じてフィルタの周
波数特性を決定し、フィルタを施す。An example of a method for removing block noise is disclosed in Japanese Patent Application Laid-Open No. 5-308623 (first conventional example). In this conventional example, the frequency characteristic of the filter is determined and filtered according to the highest frequency of the DCT coefficient and the amount of motion obtained from the motion vector.
【0011】また、特開平7−177521号公報で
は、量子化スケール及び動きベクトルの大きさを用いて
フィルタ特性を決定し、決定したフィルタを用いて復号
化画像のブロック境界に対してフィルタを施すことによ
り、ブロックノイズを除去する方法が開示されている
(第2の従来例)。この従来例では、量子化スケールが
大きく、動きベクトルが小さい場合には、量子化スケー
ルのみを用いてフィルタ特性を決定する。また、量子化
スケールが小さく、動きベクトルが大きい場合には、動
きベクトルの大きさのみを用いてフィルタ特性を決定す
る。また、量子化スケールと動きベクトルの大きさとが
いずれも中程度の場合には、両者を用いてフィルタ特性
を決定する。In Japanese Patent Application Laid-Open No. Hei 7-177521, a filter characteristic is determined using a quantization scale and a magnitude of a motion vector, and a filter is applied to a block boundary of a decoded image using the determined filter. Accordingly, a method of removing block noise has been disclosed (second conventional example). In this conventional example, when the quantization scale is large and the motion vector is small, the filter characteristics are determined using only the quantization scale. When the quantization scale is small and the motion vector is large, the filter characteristics are determined using only the magnitude of the motion vector. If the quantization scale and the magnitude of the motion vector are both medium, the filter characteristics are determined using both.
【0012】一方、モスキートノイズを除去する方法の
例が、特開平6−311499公報に開示されている
(第3の従来例)。この従来例では、各ブロックの特定
のDCT係数についての絶対和を求め、その値によりフ
ィルタのしきい値を変更する。また、フレーム間参照符
号化を行ったフレームに対しては、差分画像に対してモ
スキートノイズ除去を行い、その後、モスキートノイズ
除去の処理を既に施した参照フレームを加算することに
より復号化画像を得る。On the other hand, an example of a method for removing mosquito noise is disclosed in Japanese Patent Laid-Open No. Hei 6-31499 (third conventional example). In this conventional example, the absolute sum of a specific DCT coefficient of each block is obtained, and the threshold value of the filter is changed according to the value. In addition, for a frame on which inter-frame reference encoding has been performed, a mosquito noise is removed from the difference image, and thereafter, a decoded image is obtained by adding reference frames that have already been subjected to mosquito noise removal processing. .
【0013】[0013]
【発明が解決しようとする課題】一般にブロックノイズ
の発生は、DCT係数の最高周波数で決まるのではな
く、DCT係数の各周波数成分の分布及び隣接ブロック
間のDCT係数の各周波数成分の分布の差により決ま
る。ところが、前記第1の従来例のように、DCT係数
の最高周波数成分のみを用いてフィルタ特性を決定する
と、ブロックノイズの除去能力が低くなる。Generally, the occurrence of block noise is not determined by the highest frequency of the DCT coefficient, but rather by the difference between the distribution of each frequency component of the DCT coefficient and the distribution of each frequency component of the DCT coefficient between adjacent blocks. Is determined by However, if the filter characteristic is determined using only the highest frequency component of the DCT coefficient as in the first conventional example, the ability to remove block noise is reduced.
【0014】また、前記第1の従来例のような方法で
は、次のような問題点がある。すなわち、水平方向及び
垂直方向のそれぞれに対して個別にフィルタ特性を決定
すると、フィルタ決定に要する演算の処理量が多くな
る。さらに、DCT係数によりフィルタ特性を決定する
と、フレーム間符号化(非イントラ符号化)を行ってい
るような場合には、ブロックノイズの検出能力が低くな
る。さらに、動き量が大きければ強いフィルタを施す、
といった制御を行うと参照フレームの性質が考慮されな
い。例えば、動き量が大きくても正確に動き補償が行わ
れている場合、差分画像は0となるにもかかわらずフィ
ルタを施すことになり、画像にボケ等の画質劣化が生じ
る。したがって、非イントラ符号化されている画像に対
しては画質劣化が生じることになる。The method of the first conventional example has the following problems. That is, when the filter characteristics are individually determined for each of the horizontal direction and the vertical direction, the amount of computation required for the filter determination increases. Further, when the filter characteristic is determined by the DCT coefficient, the block noise detection ability is reduced in a case where inter-frame coding (non-intra coding) is performed. Furthermore, if the amount of movement is large, apply a strong filter,
When such control is performed, the property of the reference frame is not considered. For example, when the motion compensation is accurately performed even if the motion amount is large, the difference image is filtered even though it is 0, and the image quality deteriorates such as blurring. Therefore, image quality deteriorates for a non-intra-coded image.
【0015】また、動きベクトルが大きい場合であって
も、復号化画像に高周波数成分が含まれることがある。
また例えば、フレーム間符号化を施されているフレーム
の場合には、量子化スケールが大きい場合であっても、
参照フレームに高周波数成分が含まれている場合があ
り、このような場合、復号化画像に高周波数成分が含ま
れることになる。前記第2の従来例のように、このよう
な場合において復号化画像にフィルタを施すと、画質劣
化が生じる。[0015] Even when the motion vector is large, the decoded image may contain high frequency components.
For example, in the case of a frame that has been subjected to inter-frame coding, even if the quantization scale is large,
The reference frame may include a high frequency component, and in such a case, the decoded image includes the high frequency component. As in the second conventional example, if a filter is applied to the decoded image in such a case, the image quality deteriorates.
【0016】また、前記第3の従来例のような方法で
は、次のような問題点がある。すなわち、各ブロックの
特定のDCT係数についての絶対和を求めると、DCT
係数の絶対和の計算に対して大きな処理量が必要とな
る。さらに、モスキートノイズ除去の処理を既に施した
参照フレームを加算することにより復号化画像を得る
と、符号化時の参照フレームと復号化時の参照フレーム
とが異なるために、復号化画像に誤差が蓄積し画質劣化
が目立つことになる。The method of the third conventional example has the following problems. That is, when the absolute sum of a specific DCT coefficient of each block is obtained, DCT
A large amount of processing is required for calculating the absolute sum of the coefficients. Furthermore, when a decoded image is obtained by adding reference frames that have already been subjected to the mosquito noise removal processing, an error occurs in the decoded image because the reference frame at the time of encoding differs from the reference frame at the time of decoding. The accumulated image quality is noticeably deteriorated.
【0017】本発明はこのような問題点を解決するもの
であり、ブロックノイズが発生するブロック境界又はモ
スキートノイズが発生するブロックを確実に検出するこ
とができ、非イントラ符号化ブロックにおいても、これ
らの符号化ノイズを正確に検出することができるノイズ
検出方法及びノイズ検出装置を提供し、画質の劣化を最
小限に抑えながら確実に符号化ノイズを除去することが
できる画像復号化装置を提供することを課題とする。The present invention solves such a problem, and can reliably detect a block boundary where block noise occurs or a block where mosquito noise occurs. Provided is a noise detection method and a noise detection device capable of accurately detecting the encoding noise of the above, and an image decoding device capable of reliably removing the encoding noise while minimizing the deterioration of the image quality. That is the task.
【0018】[0018]
【課題を解決するための手段】前記課題を解決するた
め、請求項1の発明が講じた手段は、ノイズ検出方法と
して、画像に対する動き補償予測、ブロック単位の直交
変換、及び量子化の各処理を用いて符号化された符号列
から、各ブロックについての直交変換係数及び動きベク
トルを含んだ符号化情報を抽出する符号化情報抽出ステ
ップと、各ブロックについての動きベクトルに基づい
て、参照フレームから各ブロックの参照領域を求める参
照領域抽出ステップと、各ブロック及びその参照領域に
重なる参照フレーム内のブロックについての、前記直交
変換係数の各周波数成分の分布に基づいて、除去すべき
符号化ノイズを検出する符号化ノイズ検出ステップとを
備えたものである。Means for Solving the Problems To solve the above-mentioned problems, the invention according to claim 1 employs, as a noise detection method, motion compensation prediction for an image, orthogonal transform in block units, and quantization processing. From the code sequence coded by using the coding information extraction step of extracting the coding information including the orthogonal transform coefficient and the motion vector for each block, based on the motion vector for each block, from the reference frame A reference region extraction step for obtaining a reference region of each block, and for each block and a block in a reference frame overlapping the reference region, coding noise to be removed based on a distribution of each frequency component of the orthogonal transform coefficient. And a coding noise detecting step of detecting.
【0019】請求項1の発明によると、符号列から得ら
れる直交変換係数の各周波数成分の分布のみではなく、
動きベクトルを用い、参照フレーム中の参照領域に重な
るブロックの直交変換係数の各周波数成分の分布にも基
づいて、符号化ノイズを検出する。したがって、非イン
トラ符号化ブロックにおいて、確実に符号化ノイズを検
出することができ、また、誤検出をすることが少ない。According to the first aspect of the present invention, not only the distribution of each frequency component of the orthogonal transform coefficient obtained from the code string,
Using the motion vector, encoding noise is detected based on the distribution of each frequency component of the orthogonal transform coefficient of the block overlapping the reference area in the reference frame. Therefore, in the non-intra coded block, the coding noise can be reliably detected, and erroneous detection is less likely.
【0020】また、請求項2の発明では、請求項1に記
載のノイズ検出方法は、前記符号化ノイズとしてブロッ
クノイズを検出するものであり、前記符号化ノイズ検出
ステップでは、各ブロックを、その前記直交変換係数の
各周波数成分の分布に基づいて、複数のクラスに分類分
けし、処理対象ブロック及びこれに隣接する隣接ブロッ
クのクラスと、これらのブロックのそれぞれの参照領域
に重なる参照フレーム内のブロックのクラスとに基づい
て、前記処理対象ブロック及び前記隣接ブロックのそれ
ぞれの新たなクラスを求め、前記新たなクラスに基づい
て、前記処理対象ブロックと前記隣接ブロックとの間に
生じるブロックノイズの大きさを検出することを特徴と
する。According to a second aspect of the present invention, in the noise detection method according to the first aspect, block noise is detected as the coding noise. Based on the distribution of each frequency component of the orthogonal transform coefficients, the data is classified into a plurality of classes, and a class of a processing target block and an adjacent block adjacent thereto, and a reference frame in a reference frame overlapping each reference region of these blocks. A new class of each of the processing target block and the adjacent block is obtained based on a class of the block, and a magnitude of block noise generated between the processing target block and the adjacent block based on the new class. Is detected.
【0021】請求項2の発明によると、ノイズ除去の処
理対象ブロックのクラスのみではなく、動きベクトルを
用い、参照フレーム中の参照領域に重なるブロックのク
ラスにも基づいてノイズを検出するので、非イントラ符
号化ブロックにおいて、ブロックノイズが発生するブロ
ック境界を確実に検出することができる。また、クラス
の分類を水平方向と垂直方向とに分けずに行うので、少
ない演算処理量でブロックノイズの検出を行うことがで
きる。According to the second aspect of the present invention, noise is detected not only based on the class of the block to be subjected to noise removal but also based on the class of the block overlapping the reference area in the reference frame using the motion vector. In an intra-coded block, it is possible to reliably detect a block boundary where block noise occurs. Further, since the classification of the class is performed without dividing the horizontal direction and the vertical direction, it is possible to detect the block noise with a small amount of calculation processing.
【0022】また、請求項3の発明では、請求項1に記
載のノイズ検出方法は、前記符号化ノイズとしてモスキ
ートノイズを検出するものであり、前記符号化ノイズ検
出ステップでは、各ブロックを、その前記直交変換係数
の各周波数成分の分布に基づいて、複数のクラスに分類
分けし、処理対象ブロックのクラスと、前記処理対象ブ
ロックの参照領域に重なる参照フレーム内のブロックの
クラスとに基づいて、前記処理対象ブロックの新たなク
ラスを求め、前記新たなクラスに基づいて、前記処理対
象ブロックに生じるモスキートノイズの大きさを検出す
ることを特徴とする。According to a third aspect of the present invention, there is provided the noise detection method according to the first aspect, wherein mosquito noise is detected as the coding noise. Based on the distribution of each frequency component of the orthogonal transform coefficients, classified into a plurality of classes, based on the class of the block to be processed and the class of the block in the reference frame overlapping the reference region of the block to be processed, A new class of the processing target block is obtained, and a magnitude of mosquito noise generated in the processing target block is detected based on the new class.
【0023】請求項3の発明によると、ノイズ除去の処
理対象ブロックのクラスのみではなく、動きベクトルを
用い、参照フレーム中の参照領域に重なるブロックのク
ラスにも基づいてノイズを検出するので、非イントラ符
号化ブロックにおいて、モスキートノイズが発生するブ
ロックを確実に検出することができる。また、クラスの
分類を水平方向と垂直方向とに分けずに行うので、少な
い演算処理量でモスキートノイズの検出を行うことがで
きる。According to the third aspect of the present invention, the noise is detected not only based on the class of the block to be processed for noise removal but also based on the class of the block overlapping the reference area in the reference frame using the motion vector. In an intra-coded block, a block in which mosquito noise occurs can be reliably detected. Further, since the classification of the classes is performed without dividing the classes into the horizontal direction and the vertical direction, mosquito noise can be detected with a small amount of calculation processing.
【0024】また、請求項4の発明では、請求項1に記
載のノイズ検出方法は、前記符号化ノイズとしてブロッ
クノイズを検出するものであり、前記符号化ノイズ検出
ステップでは、前記符号化情報から処理対象ブロック及
びこれに隣接する隣接ブロックについての前記直交変換
係数の直流成分を抽出し、前記直交変換係数の各周波数
成分の分布に加えて、前記処理対象ブロックと前記隣接
ブロックとの間の前記直流成分の差の絶対値に基づい
て、前記処理対象ブロックと前記隣接ブロックとの間に
生じるブロックノイズの大きさを検出することを特徴と
する。According to a fourth aspect of the present invention, in the noise detection method according to the first aspect, a block noise is detected as the coding noise. The DC component of the orthogonal transform coefficient for the processing target block and the adjacent block adjacent thereto is extracted, and in addition to the distribution of each frequency component of the orthogonal transform coefficient, the DC component between the processing target block and the adjacent block is extracted. A magnitude of block noise generated between the processing target block and the adjacent block is detected based on an absolute value of a difference between DC components.
【0025】請求項4の発明によると、処理対象ブロッ
クと隣接ブロックとの間の直流成分の差の絶対値を調べ
るので、高精度にブロックノイズを検出することができ
る。According to the fourth aspect of the present invention, the absolute value of the difference between the DC components between the processing target block and the adjacent block is checked, so that block noise can be detected with high accuracy.
【0026】また、請求項5の発明は、請求項4に記載
のノイズ検出方法において、前記符号化ノイズ検出ステ
ップでは、前記符号化情報から前記処理対象ブロックに
ついての量子化スケールを抽出し、前記直交変換係数の
各周波数成分の分布に加えて、前記直流成分の差の絶対
値と、前記量子化スケールとに基づいて、前記処理対象
ブロックと前記隣接ブロックとの間に生じるブロックノ
イズの大きさを検出することを特徴とする。According to a fifth aspect of the present invention, in the noise detection method according to the fourth aspect, in the encoding noise detecting step, a quantization scale for the processing target block is extracted from the encoded information, In addition to the distribution of each frequency component of the orthogonal transform coefficient, the magnitude of block noise generated between the processing target block and the adjacent block based on the absolute value of the difference between the DC components and the quantization scale. Is detected.
【0027】請求項5の発明によると、処理対象ブロッ
クの量子化スケールに応じて、処理対象ブロックと隣接
ブロックとの間の直流成分の差の絶対値を調べるので、
高精度にブロックノイズを検出することができる。According to the fifth aspect of the present invention, the absolute value of the difference between the DC components between the processing target block and the adjacent block is checked according to the quantization scale of the processing target block.
Block noise can be detected with high accuracy.
【0028】また、請求項6の発明は、請求項1に記載
のノイズ検出方法において、前記直交変換係数の各周波
数成分の分布に加えて、処理対象ブロック又はこれに隣
接する隣接ブロックの動きベクトルの大きさに基づい
て、除去すべき符号化ノイズを検出することを特徴とす
る。According to a sixth aspect of the present invention, in the noise detection method according to the first aspect, in addition to the distribution of each frequency component of the orthogonal transform coefficient, the motion vector of the processing target block or an adjacent block adjacent thereto is processed. The encoding noise to be removed is detected on the basis of the magnitude of.
【0029】請求項6の発明によると、一般に、動きベ
クトルの大きさが大きいほど符号化ノイズが大きいとい
う傾向があることから、動きベクトルの大きさを用いる
ことにより、ノイズの検出を適切に行うことができる。According to the sixth aspect of the present invention, generally, there is a tendency that the larger the magnitude of the motion vector is, the larger the coding noise is. Therefore, the noise is appropriately detected by using the magnitude of the motion vector. be able to.
【0030】また、請求項7の発明では、請求項6に記
載のノイズ検出方法は、前記符号化ノイズとしてブロッ
クノイズを検出するものであり、前記符号化ノイズ検出
ステップでは、前記符号化情報から前記処理対象ブロッ
ク及びこれに隣接する隣接ブロックについての前記直交
変換係数の直流成分を抽出し、前記直交変換係数の各周
波数成分の分布及び前記動きベクトルの大きさに加え
て、前記処理対象ブロックと前記隣接ブロックとの間の
前記直流成分の差の絶対値に基づいて、前記処理対象ブ
ロックと前記隣接ブロックとの間に生じるブロックノイ
ズの大きさを検出することを特徴とする。According to a seventh aspect of the present invention, in the noise detection method according to the sixth aspect, a block noise is detected as the coding noise. The DC component of the orthogonal transform coefficient for the processing target block and an adjacent block adjacent thereto is extracted, and in addition to the distribution of each frequency component of the orthogonal transform coefficient and the size of the motion vector, the processing target block and A magnitude of block noise generated between the processing target block and the adjacent block is detected based on an absolute value of a difference of the DC component between the adjacent block.
【0031】請求項7の発明によると、処理対象ブロッ
クと隣接ブロックとの間の直流成分の差の絶対値を調べ
るので、高精度にブロックノイズを検出することができ
る。According to the seventh aspect of the present invention, since the absolute value of the difference between the DC components between the processing target block and the adjacent block is checked, block noise can be detected with high accuracy.
【0032】また、請求項8の発明は、請求項7に記載
のノイズ検出方法において、前記符号化ノイズ検出ステ
ップでは、前記符号化情報から前記処理対象ブロックに
ついての量子化スケールを抽出し、前記直交変換係数の
各周波数成分の分布及び前記各ブロックの動きベクトル
の大きさに加えて、前記直流成分の差の絶対値と、前記
量子化スケールとに基づいて、前記処理対象ブロックと
前記隣接ブロックとの間に生じるブロックノイズの大き
さを検出することを特徴とする。In the noise detection method according to the present invention, the encoding noise detecting step may include extracting a quantization scale for the processing target block from the encoded information, In addition to the distribution of each frequency component of the orthogonal transform coefficient and the magnitude of the motion vector of each block, based on the absolute value of the difference between the DC components and the quantization scale, the processing target block and the adjacent block And the magnitude of block noise occurring between the two is detected.
【0033】請求項8の発明によると、処理対象ブロッ
クの量子化スケールに応じて、処理対象ブロックと隣接
ブロックとの間の直流成分の差の絶対値を調べるので、
高精度にブロックノイズを検出することができる。According to the eighth aspect of the present invention, the absolute value of the difference between the DC components between the processing target block and the adjacent block is checked according to the quantization scale of the processing target block.
Block noise can be detected with high accuracy.
【0034】また、請求項9の発明は、請求項1に記載
のノイズ検出方法において、前記符号化ノイズとしてブ
ロックノイズとモスキートノイズとを検出し、1つのブ
ロックに係るブロックノイズ及びモスキートノイズのう
ちの一方を、これらのノイズの大きさの大小に基づい
て、除去すべき符号化ノイズとして選択することを特徴
とする。According to a ninth aspect of the present invention, in the noise detection method according to the first aspect, block noise and mosquito noise are detected as the coding noise, and the block noise and the mosquito noise of one block are detected. Is selected as coding noise to be removed based on the magnitude of these noises.
【0035】請求項9の発明によると、1つのブロック
に関しては、ブロックノイズ及びモスキートノイズのう
ちのいずれか一方を選択するので、ノイズ除去のために
必要な演算処理量やメモリ量を少なくすることができ、
ブロックノイズ及びモスキートノイズの両者を適切に除
去するようにすることができる。According to the ninth aspect of the present invention, one of the block noise and the mosquito noise is selected for one block, so that the amount of arithmetic processing and memory required for noise removal can be reduced. Can be
Both block noise and mosquito noise can be appropriately removed.
【0036】また、請求項10の発明は、請求項1に記
載のノイズ検出方法において、インターレース画像に対
しては、フィールド毎に符号化ノイズ検出処理を行うこ
とを特徴とする。According to a tenth aspect of the present invention, in the noise detection method according to the first aspect, encoding noise detection processing is performed for each interlace image for each field.
【0037】請求項10の発明によると、インターレー
ス画像においても、符号化ノイズを高精度に検出するこ
とができる。According to the tenth aspect, encoding noise can be detected with high accuracy even in an interlaced image.
【0038】また、請求項11の発明は、ノイズ検出装
置として、画像に対する動き補償予測、ブロック単位の
直交変換及び量子化の各処理を用いて符号化された符号
列から求められた、各ブロックについての直交変換係数
及び動きベクトルを含んだ符号化情報を入力とし、各ブ
ロックについての動きベクトルに基づいて、参照フレー
ムから各ブロックの参照領域を求め、各ブロック及びそ
の参照領域に重なる参照フレーム内のブロックについて
の、前記直交変換係数の各周波数成分の分布に基づい
て、除去すべき符号化ノイズを検出し、その検出結果を
出力する手段を備えたものである。According to an eleventh aspect of the present invention, as a noise detection device, each block obtained from a code sequence coded by using motion compensation prediction for an image, orthogonal transform in units of blocks, and quantization is used. The coding information including the orthogonal transformation coefficient and the motion vector is input, and the reference region of each block is obtained from the reference frame based on the motion vector of each block. Means for detecting coding noise to be removed, based on the distribution of each frequency component of the orthogonal transform coefficients, and outputting the detection result.
【0039】請求項11の発明によると、符号列から得
られる直交変換係数の各周波数成分の分布のみではな
く、動きベクトルを用い、参照フレーム中の参照領域に
重なるブロックの直交変換係数の各周波数成分の分布に
も基づいて、符号化ノイズを検出する。したがって、非
イントラ符号化ブロックにおいて、確実に符号化ノイズ
を検出することができ、また、誤検出をすることが少な
い。According to the eleventh aspect of the present invention, not only the distribution of each frequency component of the orthogonal transform coefficient obtained from the code string, but also each frequency of the orthogonal transform coefficient of the block overlapping the reference area in the reference frame using the motion vector. The coding noise is detected based on the distribution of the components. Therefore, in the non-intra coded block, the coding noise can be reliably detected, and erroneous detection is less likely.
【0040】また、請求項12の発明は、画像復号化装
置として、請求項11に記載のノイズ検出装置と、前記
符号列を復号化し、各ブロックについての前記直交変換
係数及び処理対象ブロックについての動きベクトルを含
んだ符号化情報を出力する復号化部と、前記ノイズ検出
装置が出力する検出結果に基づいて、符号化ノイズを除
去する符号化ノイズ除去部とを備えたものである。According to a twelfth aspect of the present invention, as the image decoding device, the noise detecting device according to the eleventh aspect, the code sequence is decoded, and the orthogonal transform coefficients for each block and the processing target block are processed. A decoding unit that outputs encoded information including a motion vector; and a coding noise removing unit that removes coding noise based on a detection result output by the noise detection device.
【0041】請求項12の発明によると、非イントラ符
号化ブロックにおいて、確実に符号化ノイズを検出する
ことができ、また、誤検出した符号化ノイズを除去処理
することによる画質劣化が生じることが少ない。According to the twelfth aspect of the present invention, in the non-intra coded block, the coding noise can be reliably detected, and the image quality may be degraded by removing the erroneously detected coding noise. Few.
【0042】また、請求項13の発明では、請求項12
に記載の画像復号化装置において、前記ノイズ検出装置
は、前記符号化ノイズとしてモスキートノイズを検出す
るものであり、かつ、前記符号化情報から前記処理対象
ブロックについての量子化スケールを抽出するものであ
り、前記符号化ノイズ除去部は、ノイズ除去に用いない
エッジ画素を検出するためのしきい値として、前記量子
化スケールに応じた値を用いることを特徴とする。Further, according to the invention of claim 13, according to claim 12,
In the image decoding device according to the above, the noise detection device detects mosquito noise as the encoding noise, and extracts a quantization scale for the processing target block from the encoding information. The encoding noise elimination unit uses a value corresponding to the quantization scale as a threshold for detecting an edge pixel not used for noise elimination.
【0043】請求項13の発明によると、モスキートノ
イズを除去する際に用いる画素を量子化スケールに応じ
て選択できるので、エッジ部に生じる画質の劣化を抑え
ながら確実にモスキートノイズを除去することができ
る。According to the thirteenth aspect of the present invention, the pixels used for removing the mosquito noise can be selected according to the quantization scale, so that the mosquito noise can be reliably removed while suppressing the deterioration of the image quality at the edge portion. it can.
【0044】[0044]
【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態について説明する。以下の実施形態におい
ては、画像の圧縮符号列は、例として、MPEG-2方
式により生成されているとする。以下では、DCT係数
値の集合と画素値の集合との違いを表すために、DCT
係数で構成されるブロックをDCT係数ブロック、画素
で構成されるブロックを画素ブロックと称する。Embodiments of the present invention will be described below with reference to the drawings. In the following embodiment, it is assumed that a compression code string of an image is generated by the MPEG-2 method, for example. In the following, in order to represent the difference between a set of DCT coefficient values and a set of pixel values,
A block composed of coefficients is called a DCT coefficient block, and a block composed of pixels is called a pixel block.
【0045】(第1の実施形態)第1の実施形態では、
イントラ符号化されたフレームを復号化する場合におい
て、符号化ノイズとしてブロックノイズを検出し、除去
する画像復号化装置について説明する。(First Embodiment) In the first embodiment,
An image decoding device that detects and removes block noise as coding noise when decoding an intra-coded frame will be described.
【0046】図1は第1の実施形態に係る画像復号化装
置のブロック図である。図1の画像復号化装置は、可変
長復号化手段110と、逆量子化手段111と、逆DC
T手段112と、スイッチ113,114と、フレーム
メモリ115と、ブロックノイズ除去手段116と、ブ
ロックノイズ検出手段130と、パラメータメモリ手段
118と、加算手段119とを備えている。ブロックノ
イズ検出手段130は、ノイズ検出装置として動作す
る。FIG. 1 is a block diagram of an image decoding apparatus according to the first embodiment. The image decoding apparatus shown in FIG. 1 includes a variable length decoding unit 110, an inverse quantization unit 111, an inverse DC
It includes a T unit 112, switches 113 and 114, a frame memory 115, a block noise removing unit 116, a block noise detecting unit 130, a parameter memory unit 118, and an adding unit 119. The block noise detection means 130 operates as a noise detection device.
【0047】圧縮符号列(入力ビットストリーム)は、
まず、可変長復号化手段110に入力される。圧縮符号
列は、画像に対する動き補償予測、直交変換としての8
×8画素のブロック単位のDCT、量子化、及び可変長
符号化の各処理を用いて符号化された符号列である。可
変長復号化手段110は、入力された圧縮符号列の可変
長符号を復号化し、量子化されたDCT係数及び符号化
の際に用いた符号化情報としてのパラメータ(動きベク
トル、量子化スケール等)を抽出して出力する。量子化
されたDCT係数は、水平周波数8×垂直周波数8個の
64個の係数で、量子化されたDCT係数のブロックを
構成している。The compression code string (input bit stream) is
First, it is input to the variable length decoding means 110. The compression code string is a motion compensated prediction for an image, 8
This is a code string coded using DCT, quantization, and variable-length coding in units of × 8 pixels. The variable length decoding unit 110 decodes the variable length code of the input compressed code sequence, and quantizes the DCT coefficients and parameters (motion vector, quantization scale, etc.) as coding information used in coding. ) Is extracted and output. The quantized DCT coefficients are 64 coefficients of 8 horizontal frequencies × 8 vertical frequencies, and constitute a block of quantized DCT coefficients.
【0048】図2は画像フォーマットが4:2:0フォ
ーマットの場合のマクロブロックの構成についての説明
図である。図2に示すように、マクロブロックは、輝度
信号が表す16×16画素の領域であって、輝度信号の
DCT係数ブロック4個と色差信号のDCT係数ブロッ
ク2個とで表される。色差信号に関しては、画素が間引
かれており、輝度信号と比較して、水平、垂直方向共に
画素数が半分になっている。FIG. 2 is an explanatory diagram of the configuration of a macroblock when the image format is the 4: 2: 0 format. As shown in FIG. 2, a macroblock is a region of 16 × 16 pixels represented by a luminance signal, and is represented by four DCT coefficient blocks of a luminance signal and two DCT coefficient blocks of a color difference signal. The pixels of the color difference signal are thinned out, and the number of pixels in both the horizontal and vertical directions is half that of the luminance signal.
【0049】可変長復号化手段110で得られた量子化
されたDCT係数は、マクロブロック順に逆量子化手段
111に入力される。逆量子化手段111は、可変長復
号化手段110で得られた量子化スケールと量子化マト
リクスとを用いて、マクロブロックに含まれるブロック
毎に、量子化されたDCT係数の逆量子化を行い、DC
T係数ブロックを得る。逆量子化手段111は、DCT
係数ブロックを逆DCT手段112及びブロックノイズ
検出手段130に出力する。逆DCT手段112は、D
CT係数ブロックに対して逆DCTを施して画素ブロッ
クを得る。逆DCT手段112は、マクロブロックに含
まれる全ブロックに対して逆DCTを施した後、可変長
復号化手段110で得られたDCTモードを用いて、輝
度信号のデータをフレーム構造に変換する。The quantized DCT coefficients obtained by the variable length decoding means 110 are input to the inverse quantization means 111 in the order of macro blocks. The inverse quantization means 111 performs inverse quantization of the quantized DCT coefficients for each block included in the macroblock, using the quantization scale and the quantization matrix obtained by the variable length decoding means 110. , DC
Obtain a T coefficient block. The inverse quantization means 111 uses the DCT
The coefficient block is output to the inverse DCT unit 112 and the block noise detection unit 130. The inverse DCT means 112
Inverse DCT is performed on the CT coefficient block to obtain a pixel block. The inverse DCT unit 112 performs inverse DCT on all blocks included in the macroblock, and then converts the luminance signal data into a frame structure using the DCT mode obtained by the variable length decoding unit 110.
【0050】ここで、DCTモードとは、輝度信号デー
タをフレーム構造、フィールド構造のいずれでDCTを
施しているかを示すフラグである。ただし、フレームが
プログレッシブ(順次走査)画像の場合には、DCTモ
ードはフレーム構造のみとなるので、輝度信号のデータ
のフレーム構造への変換は不要である。Here, the DCT mode is a flag indicating whether the DCT is performed on the luminance signal data in a frame structure or a field structure. However, if the frame is a progressive (sequentially scanned) image, the DCT mode has only a frame structure, so that it is not necessary to convert the luminance signal data into a frame structure.
【0051】逆DCT手段112で得られた画素ブロッ
クは、スイッチ113に入力される。スイッチ113、
114は、可変長復号化手段110が出力するマクロブ
ロック符号化モードによって切り替わる。マクロブロッ
ク符号化モードとは、そのマクロブロックがフレーム内
符号化(イントラ符号化)されているか、参照フレーム
を用いたフレーム間符号化(非イントラ符号化)されて
いるか等を示す情報である。マクロブロックがイントラ
符号化されている場合には、スイッチ113、114は
それぞれa、cに接続される。また、マクロブロックが
非イントラ符号化されている場合には、スイッチ11
3、114はそれぞれb、dに接続される。The pixel block obtained by the inverse DCT means 112 is input to the switch 113. Switch 113,
Reference numeral 114 switches according to the macroblock coding mode output from the variable length decoding unit 110. The macroblock coding mode is information indicating whether the macroblock has been subjected to intra-frame coding (intra coding) or inter-frame coding using a reference frame (non-intra coding). If the macroblock is intra-coded, switches 113 and 114 are connected to a and c, respectively. If the macroblock is non-intra-coded, the switch 11
3, 114 are connected to b and d, respectively.
【0052】したがって、イントラ符号化されているマ
クロブロックの場合には、逆DCT手段112が出力し
たマクロブロックの各画素ブロックは、そのままフレー
ムメモリ115に蓄積される。また、非イントラ符号化
されているマクロブロックの各画素ブロックは、加算器
119に入力される。MPEG-2方式では動き補償は
マクロブロック単位で行われるので、可変長復号化手段
110が出力した動きベクトルを用いて求めた、マクロ
ブロックに対応した参照フレーム内の画像も、フレーム
メモリ115から加算器119に入力される。加算器1
19は、スイッチ113から入力されてきた画素ブロッ
クとフレームメモリ115から得た参照フレーム内の画
像とを加算し、その結果をスイッチ114を介してフレ
ームメモリ115に蓄積する。Therefore, in the case of a macroblock that has been intra-coded, each pixel block of the macroblock output by the inverse DCT means 112 is stored in the frame memory 115 as it is. Also, each pixel block of the macroblock that has been non-intra coded is input to the adder 119. In the MPEG-2 system, since motion compensation is performed in units of macroblocks, an image in a reference frame corresponding to a macroblock, which is obtained using the motion vector output from the variable length decoding unit 110, is also added from the frame memory 115. Input to the device 119. Adder 1
19 adds the pixel block input from the switch 113 and the image in the reference frame obtained from the frame memory 115, and stores the result in the frame memory 115 via the switch 114.
【0053】ブロックノイズ検出手段130には、逆量
子化手段111からDCT係数が入力され、可変長復号
化手段110から量子化スケール及びマクロブロックの
符号化モードが入力されている。ブロックノイズ検出手
段130は、DCT係数の各周波数成分の分布に基づい
て、除去すべき符号化ノイズを検出し、ノイズ除去に使
用するフィルタの種類をブロックノイズ除去手段116
に通知する。また、ブロックノイズ検出手段130は、
入力されたデータから各ブロックに対するパラメータを
抽出し、このパラメータを必要に応じてパラメータメモ
リ手段118との間で入出力する。The DCT coefficient is input to the block noise detection means 130 from the inverse quantization means 111, and the quantization scale and the coding mode of the macroblock are input from the variable length decoding means 110. The block noise detecting means 130 detects coding noise to be removed based on the distribution of each frequency component of the DCT coefficient, and determines the type of filter used for noise removal by the block noise removing means 116.
Notify. In addition, the block noise detection means 130
Parameters for each block are extracted from the input data, and the parameters are input / output to / from the parameter memory unit 118 as needed.
【0054】ブロックノイズ除去手段116は、ブロッ
クノイズ検出手段130から各画素ブロックの境界に施
すフィルタの種類を受け取り、それに従って、フレーム
メモリ115が出力する画像のブロック境界にフィルタ
を施し、ブロックノイズを除去した画像を出力する。The block noise removing means 116 receives the type of filter to be applied to the boundary of each pixel block from the block noise detecting means 130, applies a filter to the block boundary of the image output from the frame memory 115, and removes the block noise. Output the removed image.
【0055】図3はブロックノイズ検出手段130の構
成を示すブロック図である。図3のブロックノイズ検出
手段130は、DCTパターン判定手段131と、DC
係数抽出手段132と、量子化スケール抽出手段133
と、フィルタ決定手段134とを備えている。FIG. 3 is a block diagram showing the configuration of the block noise detecting means 130. The block noise detecting means 130 shown in FIG.
Coefficient extracting means 132 and quantization scale extracting means 133
And a filter determining means 134.
【0056】DCTパターン判定手段131は、逆量子
化手段111からDCT係数ブロックを受け取り、DC
T係数ブロックの各周波数成分の分布から各ブロックを
分類する。次に、ブロックの分類方法について説明す
る。The DCT pattern determination means 131 receives the DCT coefficient block from the inverse quantization means 111,
Each block is classified from the distribution of each frequency component of the T coefficient block. Next, a method of classifying blocks will be described.
【0057】図4はブロックの分類に用いるDCTパタ
ーンの説明図である。図4(a)〜(d)の斜線部は、
それぞれ8×8のDCT係数ブロックのパターン(DC
Tパターン)を示したものであり、1つの正方形が1係
数に対応する。左上の係数が直流成分を示し、右のもの
ほど高い水平周波数の成分、下のものほど高い垂直周波
数の成分を示している。以下では、DCT係数のうち、
直流成分をDC係数と称する。FIG. 4 is an explanatory diagram of a DCT pattern used for classifying blocks. The shaded portions in FIGS.
Each of 8 × 8 DCT coefficient block patterns (DC
T pattern), and one square corresponds to one coefficient. The upper left coefficient indicates a DC component, and the right one indicates a high horizontal frequency component, and the lower one indicates a high vertical frequency component. In the following, of the DCT coefficients,
The DC component is called a DC coefficient.
【0058】DCTパターン判定手段131は、入力さ
れたDCT係数ブロックがDCTパターンを満たすか否
かを判定する。すなわち、図4のDCTパターンに含ま
れる周波数成分の係数であって、その絶対値が所定値よ
りも大きいものを、入力されたDCT係数ブロックが有
している場合は、入力されたDCT係数ブロックはその
DCTパターンを満たすと判定し、そうではない場合
は、満たさないと判定する。例えば、所定値が0である
とすれば、斜線を施された周波数成分の係数のうちに、
1つでも非零の係数を有していれば、入力されたDCT
係数ブロックはそのDCTパターンを満たすと判定す
る。The DCT pattern determining means 131 determines whether or not the input DCT coefficient block satisfies the DCT pattern. That is, if the input DCT coefficient block has a coefficient of a frequency component included in the DCT pattern of FIG. 4 whose absolute value is larger than a predetermined value, the input DCT coefficient block Is determined to satisfy the DCT pattern, otherwise, it is determined not to be. For example, assuming that the predetermined value is 0, among the coefficients of the hatched frequency components,
If at least one has a non-zero coefficient, the input DCT
The coefficient block is determined to satisfy the DCT pattern.
【0059】DCTパターン判定手段131は、この判
定結果に基づいて、入力されたDCT係数ブロックを複
数のDCTクラスのいずれかに分類し、この分類結果を
パラメータメモリ手段118に出力する。The DCT pattern determination means 131 classifies the input DCT coefficient block into one of a plurality of DCT classes based on the result of the determination, and outputs the classification result to the parameter memory means 118.
【0060】DCTパターンは、高周波数成分を含むよ
うに設定されているので、一般に、あるDCTパターン
を満たすDCT係数ブロックには、満たさないDCT係
数ブロックよりもブロックノイズが生じにくい。Since the DCT pattern is set so as to include a high frequency component, generally, block noise is less likely to occur in a DCT coefficient block that satisfies a certain DCT pattern than in a DCT coefficient block that does not.
【0061】DCTパターン判定手段131は、入力さ
れたDCT係数ブロックが、マクロブロック符号化モー
ドから判断してイントラ符号化ブロックであれば、図4
(a)のDCTパターンPTN1及び図4(b)のDC
TパターンPTN2を用いる。ブロックノイズは低域の
DCT係数のみを有するブロックの周辺に発生しやすい
ので、DCTパターンPTN2のみを満たすブロックの
方が、DCTパターンPTN1を満たすブロックよりも
ブロックノイズが発生しやすいと言うことができる。The DCT pattern determining means 131 determines whether the input DCT coefficient block is an intra-coded block as determined from the macroblock coding mode.
The DCT pattern PTN1 of (a) and the DC of FIG.
The T pattern PTN2 is used. Since block noise is likely to occur around a block having only low-frequency DCT coefficients, it can be said that a block satisfying only the DCT pattern PTN2 is more likely to generate block noise than a block satisfying the DCT pattern PTN1. .
【0062】図5はイントラ符号化されたブロックを分
類する処理の流れを示すフローチャートである。ここで
は、DCTパターンPTN1、DCTパターンPTN2
を用いた場合について説明する。図5に示すように、入
力DCT係数ブロックはまずステップS11においてD
CTパターンPTN1と比較される。入力DCT係数ブ
ロックがDCTパターンPTN1を満たしていれば、そ
のブロックをDCTクラスI1に分類する(ステップS
13)。入力DCT係数ブロックがDCTパターンPT
N1を満たしていなければ、次にステップS12におい
て、DCTパターンPTN2との比較を行う。入力DC
T係数ブロックがDCTパターンPTN2を満たしてい
れば、そのブロックをDCTクラスI2に分類する(ス
テップS14)。入力DCT係数ブロックがDCTパタ
ーンPTN2を満たしていなければ、そのブロックをD
CTクラスI3に分類する(ステップS15)。以上の
ようにして、DCTパターン判定手段131は、各ブロ
ックをDCTクラスI1,I2,I3のいずれかに分類
し、その分類結果をパラメータメモリ手段118に出力
する。FIG. 5 is a flowchart showing the flow of processing for classifying intra-coded blocks. Here, DCT pattern PTN1 and DCT pattern PTN2
The case where is used will be described. As shown in FIG. 5, the input DCT coefficient block first receives a D
This is compared with the CT pattern PTN1. If the input DCT coefficient block satisfies the DCT pattern PTN1, the block is classified into DCT class I1 (step S).
13). Input DCT coefficient block is DCT pattern PT
If N1 is not satisfied, next, in step S12, comparison with the DCT pattern PTN2 is performed. Input DC
If the T coefficient block satisfies the DCT pattern PTN2, the block is classified into DCT class I2 (step S14). If the input DCT coefficient block does not satisfy the DCT pattern PTN2, the block is
It is classified into CT class I3 (step S15). As described above, the DCT pattern determination unit 131 classifies each block into one of the DCT classes I1, I2, and I3, and outputs the classification result to the parameter memory unit 118.
【0063】DC係数抽出手段132は、入力されたD
CT係数からDC係数のみを抽出し、パラメータメモリ
手段118に出力する。量子化スケール抽出手段133
は、可変長復号化手段110が出力した符号化情報から
量子化スケールを抽出し、パラメータメモリ手段118
に出力する。The DC coefficient extracting means 132 outputs the input D
Only the DC coefficients are extracted from the CT coefficients and output to the parameter memory means 118. Quantization scale extracting means 133
Extracts the quantization scale from the encoded information output by the variable length decoding means 110,
Output to
【0064】以下では、このようなDCTクラス、DC
係数、及び量子化スケールを、まとめてブロックノイズ
パラメータと称する。パラメータメモリ手段118は、
入力されたブロックノイズパラメータを蓄積する。In the following, such DCT class, DC
The coefficient and the quantization scale are collectively referred to as a block noise parameter. The parameter memory means 118
The input block noise parameter is accumulated.
【0065】以上のような動作を各マクロブロック毎に
行うことにより、各ブロックに対するブロックノイズパ
ラメータがパラメータメモリ手段118に蓄積される。By performing the above operation for each macro block, block noise parameters for each block are stored in the parameter memory means 118.
【0066】1フレーム分のブロックについてのブロッ
クノイズパラメータが蓄積されると、フィルタ決定手段
134は、各ブロックの境界に施すフィルタをブロック
ノイズパラメータを参照しながら決定する。その動作に
ついて、以下で説明する。When the block noise parameters for the blocks for one frame are accumulated, the filter determining means 134 determines a filter to be applied to the boundary of each block while referring to the block noise parameters. The operation will be described below.
【0067】図6は画素ブロックの配置についての説明
図である。図6では1つの正方形が1つの画素ブロック
を示している。図6のように画素ブロックが並んでいる
とし、画素ブロック501のブロック境界にどのような
フィルタを施すかを決定する場合を考える。ここで、画
素ブロック501は、いまノイズ検出処理の対象として
いる処理対象ブロックである。まず、画素ブロック50
1と画素ブロック502との間のブロック境界511に
施すフィルタを決定する場合を考える。FIG. 6 is an explanatory diagram of the arrangement of the pixel blocks. In FIG. 6, one square indicates one pixel block. It is assumed that pixel blocks are arranged as shown in FIG. 6 and a case where a filter to be applied to a block boundary of the pixel block 501 is determined is considered. Here, the pixel block 501 is a processing target block that is currently subjected to the noise detection processing. First, the pixel block 50
Consider a case where a filter to be applied to a block boundary 511 between the pixel block 502 and the pixel block 502 is determined.
【0068】図7はフィルタの種類を求める手順を示す
フローチャートである。フィルタ決定手段134は、ス
テップS31において、パラメータメモリ手段118か
ら画素ブロック501及び画素ブロック502のブロッ
クノイズパラメータを取得する。そして、ブロックノイ
ズパラメータのうち、DCTクラスの比較を行い、フィ
ルタの種類を決定する。フィルタの種類の決定は、表1
に従って行う。FIG. 7 is a flowchart showing the procedure for obtaining the type of filter. In step S31, the filter determining unit 134 acquires the block noise parameters of the pixel blocks 501 and 502 from the parameter memory unit 118. Then, the DCT class is compared among the block noise parameters, and the type of the filter is determined. Table 1 shows the type of filter.
Perform according to.
【0069】[0069]
【表1】 [Table 1]
【0070】表1では、フィルタがF1,F2,F3の
3種類である場合の決定方法の例を示している。ここ
で、フィルタの強度(ブロックノイズを除去する能力)
は、F1が最も弱く、F3が最も強い。次にステップS
32において、フィルタ決定手段134は、ブロックノ
イズパラメータのうち、DC係数と量子化スケールとを
用いてフィルタの種類を変更する。ここでは、画素ブロ
ック501,502のDC係数をそれぞれDC1,DC
2、量子化スケールをそれぞれQS1,QS2としたと
き、次の式(1)又は(2)、すなわち、 abs(DC1−DC2)>QS1×k (QS1<QS2) …(1) abs(DC1−DC2)>QS2×k (QS1≧QS2) …(2) のいずれか一方を満たせばフィルタの種類をF1に変更
する。ここで、kは定数であり、absは絶対値演算を
示す。Table 1 shows an example of a determination method in the case where there are three types of filters, F1, F2, and F3. Here, filter strength (ability to remove block noise)
Is weakest in F1 and strongest in F3. Next, step S
At 32, the filter determination unit 134 changes the type of the filter using the DC coefficient and the quantization scale among the block noise parameters. Here, the DC coefficients of the pixel blocks 501 and 502 are respectively DC1 and DC
2. Assuming that the quantization scales are QS1 and QS2, respectively, the following equation (1) or (2): abs (DC1-DC2)> QS1 × k (QS1 <QS2) (1) abs (DC1- DC2)> QS2 × k (QS1 ≧ QS2) If any one of the following conditions is satisfied, the type of the filter is changed to F1. Here, k is a constant, and abs indicates an absolute value operation.
【0071】同様にして、フィルタ決定手段134は、
画素ブロック501と画素ブロック503,504,5
05のそれぞれとの間のブロック境界512,513,
514に施すフィルタの種類を、各ブロックのブロック
ノイズパラメータを用いて決定する。そして、フィルタ
決定手段134は、決定したフィルタの種類をブロック
ノイズ除去手段116に対して出力する。Similarly, the filter determining means 134
Pixel block 501 and pixel blocks 503, 504, 5
Block boundaries 512, 513, and
The type of filter to be applied to 514 is determined using the block noise parameter of each block. Then, the filter determining unit 134 outputs the determined filter type to the block noise removing unit 116.
【0072】このようにして決定したフィルタの種類
は、検出したブロックノイズの大きさに対応している。
すなわち、決定したフィルタの種類がF3である場合
は、フィルタ決定手段134は、強いブロックノイズを
検出したということができ、決定したフィルタの種類が
F1である場合は、弱いブロックノイズを検出した、又
は、ブロックノイズを検出しなかったということができ
る。ブロックノイズ除去手段116の動作についての例
を以下で説明する。The type of filter determined in this way corresponds to the magnitude of the detected block noise.
That is, if the determined filter type is F3, it can be said that the filter determination unit 134 has detected strong block noise, and if the determined filter type is F1, it has detected weak block noise. Alternatively, it can be said that no block noise was detected. An example of the operation of the block noise removing unit 116 will be described below.
【0073】図8はブロック間の境界に対する水平方向
のフィルタ処理についての説明図である。図8では、図
6の画素ブロック501及び画素ブロック502の画素
を示しており、1つの正方形が1画素を表している。い
ま、画素ブロック501と502との境界511にフィ
ルタを施す場合を考える。FIG. 8 is an explanatory diagram of a horizontal filtering process for a boundary between blocks. FIG. 8 shows the pixels of the pixel block 501 and the pixel block 502 in FIG. 6, and one square represents one pixel. Now, consider a case where a filter is applied to the boundary 511 between the pixel blocks 501 and 502.
【0074】ブロックノイズ検出手段130が、境界5
11に施すフィルタの種類をF1に決定した場合は、ブ
ロックノイズ除去手段116は、境界511にはフィル
タを施さない。ブロックノイズ検出手段130が境界5
11に施すフィルタの種類をF2に決定した場合は、ブ
ロックノイズ除去手段116は、境界511付近の画素
に対して弱いフィルタを施す。この場合、図8(a)に
おいて上から4ライン目の画素について考えると、例え
ば画素b,c,d,eにフィルタを施す。フィルタとし
ては、低域通過フィルタ等を用いることができる。When the block noise detecting means 130 detects that the boundary 5
If the type of filter to be applied to 11 is determined to be F1, the block noise removing unit 116 does not apply a filter to the boundary 511. Block noise detection means 130 is at boundary 5
If the type of filter applied to 11 is determined to be F2, the block noise removing unit 116 applies a weak filter to pixels near the boundary 511. In this case, considering the pixels on the fourth line from the top in FIG. 8A, for example, a filter is applied to pixels b, c, d, and e. As the filter, a low-pass filter or the like can be used.
【0075】図9はフィルタの周波数特性の例を示すグ
ラフである。フィルタの種類がF2の場合は、例えば、
図9にL2として示された周波数特性を持つ低域通過フ
ィルタを用いる。このようにフィルタを施すことによっ
て、図8(b)で示された画素値が図8(c)のように
なり、ブロックノイズが除去される。ここで、図8
(b),(c)では縦軸が画素値を示しており、横軸は
水平方向の画素位置を示している。ここでの画素位置
は、図8(a)の画素位置に対応している。FIG. 9 is a graph showing an example of the frequency characteristic of the filter. When the type of the filter is F2, for example,
A low-pass filter having a frequency characteristic indicated by L2 in FIG. 9 is used. By applying the filter in this way, the pixel values shown in FIG. 8B become as shown in FIG. 8C, and the block noise is removed. Here, FIG.
In (b) and (c), the vertical axis indicates the pixel value, and the horizontal axis indicates the pixel position in the horizontal direction. The pixel positions here correspond to the pixel positions in FIG.
【0076】ブロックノイズ検出手段130が境界51
1に施すフィルタの種類をF3に決定した場合は、ブロ
ックノイズ除去手段116は、境界511付近の画素に
対して強いフィルタを施す。この場合、フィルタの種類
がF2である場合と同等又はより広い範囲の画素にフィ
ルタを施す。図8(a)において上から4ライン目の画
素について考えると、例えば画素a,b,c,d,e,
fにフィルタを施す。フィルタとしては、フィルタの種
類がF2の場合と同様に低域通過フィルタ等を用いるこ
とができる。The block noise detecting means 130 detects the boundary 51
When the type of filter to be applied to 1 is determined to be F3, the block noise removing unit 116 applies a strong filter to pixels near the boundary 511. In this case, the filter is applied to pixels in the same or wider range as when the type of the filter is F2. Considering pixels on the fourth line from the top in FIG. 8A, for example, pixels a, b, c, d, e,
Filter f. As the filter, a low-pass filter or the like can be used as in the case of the filter type F2.
【0077】フィルタの種類がF3の場合は、例えば、
図9にL3として示された周波数特性を持つ低域通過フ
ィルタを用いる。低域通過フィルタを用いる場合には、
図9に示すように、フィルタの種類がF3の場合(L
3)の遮断周波数をF2の場合(L2)よりも低く設定
する。これにより、フィルタの種類がF2の場合よりも
F3の場合の方がブロックノイズを除去する能力が大き
くなる。このようにフィルタを施すことによって、図8
(d)で示された画素値が図8(e)のようになり、ブ
ロックノイズが除去される。When the type of the filter is F3, for example,
A low-pass filter having a frequency characteristic indicated by L3 in FIG. 9 is used. When using a low-pass filter,
As shown in FIG. 9, when the type of filter is F3 (L
The cutoff frequency of 3) is set lower than that of F2 (L2). Thus, the ability to remove block noise is greater when the type of filter is F3 than when it is F2. By applying the filter in this way, FIG.
The pixel value shown in (d) becomes as shown in FIG. 8 (e), and the block noise is removed.
【0078】ここでは水平方向にフィルタを施す場合に
ついて説明したが、フィルタの施し方は、図6の境界5
13,514等において垂直方向にフィルタを施す場合
についても同様である。Here, the case where the filter is applied in the horizontal direction has been described.
The same applies to the case of applying a filter in the vertical direction in 13, 514 and the like.
【0079】以上のようにブロックノイズ除去手段11
6でフィルタを施されたフレームは、出力画像として出
力される。As described above, the block noise removing means 11
The frame subjected to the filtering in 6 is output as an output image.
【0080】以上のように、第1の実施形態の画像復号
化装置では、圧縮符号列から得られるDCT係数を用い
て各ブロックを複数のDCTクラスに分類する。また、
隣接するブロックでのDCTクラス、量子化スケール、
DC係数を用いてそのブロック境界に施すフィルタを決
定する。ここで、フィルタの決定の際には、所定値以上
のDCT係数がより低域にのみ分布している場合である
ほど、フィルタの強度が強くなるようにする。そして、
決定したフィルタに基づいて、復号化後の画像のブロッ
ク境界の周辺画素に対してフィルタを施す。As described above, in the image decoding apparatus according to the first embodiment, each block is classified into a plurality of DCT classes using the DCT coefficients obtained from the compressed code string. Also,
DCT class in adjacent blocks, quantization scale,
A filter to be applied to the block boundary is determined using the DC coefficient. Here, when the filter is determined, the strength of the filter is set to be stronger as the DCT coefficient equal to or larger than the predetermined value is distributed only in the lower band. And
Based on the determined filter, a filter is applied to pixels around the block boundary of the decoded image.
【0081】このように、第1の実施形態の画像復号化
装置によると、隣接するブロックのDCT係数の分布か
らブロックノイズが発生するブロック境界を確実に検出
することができ、かつ、DC係数の差の絶対値を検査す
ることによって、ブロックノイズを誤検出することがな
くなる。そして、強度の異なるフィルタを複数用意し、
ブロックノイズの大きさに応じて選択して用いることに
よって、画像のボケを最小限に抑えながら確実にブロッ
クノイズを除去することができる。また、DCTクラス
の分類は、水平方向と垂直方向とに分けずに行うので、
少ない処理量で分類を行うことができる。As described above, according to the image decoding apparatus of the first embodiment, a block boundary where block noise occurs can be reliably detected from the distribution of DCT coefficients of adjacent blocks, and the DC coefficient Inspection of the absolute value of the difference eliminates erroneous detection of block noise. Then, prepare multiple filters with different intensities,
By selecting and using the block noise according to the magnitude of the block noise, it is possible to surely remove the block noise while minimizing blurring of the image. In addition, since the classification of the DCT class is performed without dividing the horizontal direction and the vertical direction,
Classification can be performed with a small amount of processing.
【0082】なお、本実施形態では、イントラ符号化ブ
ロックに対するDCTパターンとして図4(a),
(b)の2つを用い、DCT係数ブロックを3つのDC
Tクラスに分類する場合について説明したが、DCTパ
ターン数は2つには限らないし、DCTクラスの数は3
つに限らない。また、DCTパターンの周波数分布は、
図4(a),(b)の分布には限らない。In this embodiment, the DCT pattern for the intra-coded block is shown in FIG.
(B) using two DCT coefficient blocks
Although the case of classifying into the T class has been described, the number of DCT patterns is not limited to two, and the number of DCT classes is three.
Not just one. The frequency distribution of the DCT pattern is
The distribution is not limited to those shown in FIGS.
【0083】また、式(1),(2)の右辺は量子化ス
ケールを用いた式であるが、これらの式の右辺の値は量
子化スケールに関係なく固定値であってもよい。Although the right side of the equations (1) and (2) is an equation using a quantization scale, the value on the right side of these equations may be a fixed value regardless of the quantization scale.
【0084】また、ブロックノイズ除去手段116で用
いるフィルタの種類を3種類としたが、これは何種類で
あっても構わない。Although three types of filters are used in the block noise removing means 116, any number of types may be used.
【0085】また、ブロックノイズ除去手段116で用
いるフィルタが低域通過フィルタである場合について説
明したが、これはブロックノイズを除去するフィルタで
あれば他のフィルタ、例えばメディアンフィルタ等であ
ってもよい。Although the case where the filter used in the block noise removing means 116 is a low-pass filter has been described, other filters such as a median filter may be used as long as the filter removes block noise. .
【0086】また、フィルタの種類がF1である場合に
はブロック境界にはフィルタを施さないとして説明した
が、フィルタの種類がF2である場合よりも弱いフィル
タを施してもよい。Further, it has been described that no filter is applied to the block boundary when the type of filter is F1, but a weaker filter may be applied than when the type of filter is F2.
【0087】また、フィルタの種類がF2である場合に
はブロック境界付近の4画素にフィルタを施し、フィル
タの種類がF3である場合にはブロック境界付近の6画
素にフィルタを施す場合について説明したが、フィルタ
をかける画素の範囲は本実施形態とは異なる範囲であっ
てもよい。Also, a case has been described where the filter is applied to four pixels near the block boundary when the type of filter is F2, and the filter is applied to six pixels near the block boundary when the type of filter is F3. However, the range of pixels to be filtered may be a range different from that of the present embodiment.
【0088】また、フィルタF2を施す範囲とフィルタ
F3を施す範囲とが異なる場合について説明したが、こ
れは同じ範囲であっても構わない。Although the case where the range in which the filter F2 is applied is different from the range in which the filter F3 is applied has been described, the range may be the same.
【0089】また、パラメータメモリ手段118に1フ
レーム分のブロックノイズパラメータが蓄積された時点
でフィルタ決定手段134がフィルタを決定する場合に
ついて説明したが、これは1フレーム分蓄積した時点で
なくてもよい。The case where the filter determining means 134 determines the filter when the block noise parameter for one frame is stored in the parameter memory means 118 has been described. Good.
【0090】(第2の実施形態)第2の実施形態では、
非イントラ符号化されたフレームを復号化する場合にお
いて、符号化ノイズとしてブロックノイズを検出し、除
去する画像復号化装置について説明する。(Second Embodiment) In the second embodiment,
An image decoding apparatus that detects and removes block noise as coding noise when decoding a non-intra-coded frame will be described.
【0091】第2の実施形態に係る画像復号化装置は、
図1の画像復号化装置において、ブロックノイズ検出手
段130の代わりにブロックノイズ検出手段140を用
いたものである。可変長復号化手段110、逆量子化手
段111、逆DCT手段112、スイッチ113,11
4、フレームメモリ115、ブロックノイズ除去手段1
16、パラメータメモリ手段118、及び加算手段11
9については、第1の実施形態と同様であるので、同一
の番号を付してその説明を省略する。ここで、ブロック
ノイズ検出手段140は、ノイズ検出装置として動作す
る。The image decoding apparatus according to the second embodiment
In the image decoding apparatus of FIG. 1, a block noise detecting means 140 is used instead of the block noise detecting means 130. Variable length decoding means 110, inverse quantization means 111, inverse DCT means 112, switches 113 and 11
4. Frame memory 115, block noise removing means 1
16, parameter memory means 118, and adding means 11
9 is the same as that of the first embodiment, and thus the same reference numeral is assigned and the description is omitted. Here, the block noise detection means 140 operates as a noise detection device.
【0092】図10はブロックノイズ検出手段140の
構成を示すブロック図である。図10のブロックノイズ
検出手段140は、DCTパターン判定手段141と、
DC係数抽出手段142と、量子化スケール抽出手段1
43と、フィルタ決定手段144と、スイッチ145
と、パラメータ補正手段146と、参照領域パラメータ
決定手段147とを備えている。ブロックノイズ検出手
段140には、逆量子化手段111からDCT係数が入
力され、可変長復号化手段110から量子化スケール、
マクロブロックの符号化モード、及び動きベクトルが入
力される。また、パラメータメモリ手段118には、第
1の実施形態で説明した方法によって得られた、既に復
号化されたフレームに対するブロックノイズパラメータ
が保持されているとする。FIG. 10 is a block diagram showing the structure of the block noise detecting means 140. The block noise detection unit 140 in FIG. 10 includes a DCT pattern determination unit 141,
DC coefficient extracting means 142 and quantization scale extracting means 1
43, filter determining means 144, switch 145
, A parameter correction unit 146, and a reference area parameter determination unit 147. The DCT coefficient is input to the block noise detection unit 140 from the inverse quantization unit 111, and the quantization scale,
The coding mode of the macroblock and the motion vector are input. It is also assumed that the parameter memory unit 118 holds the block noise parameter for the already decoded frame obtained by the method described in the first embodiment.
【0093】DCTパターン判定手段141は、逆量子
化手段111からDCT係数ブロックを受け取り、DC
T係数ブロックの各周波数成分の分布から各ブロックを
分類し、この分類結果をスイッチ145に出力する。The DCT pattern determination means 141 receives the DCT coefficient block from the inverse quantization means 111,
Each block is classified from the distribution of each frequency component of the T coefficient block, and the classification result is output to the switch 145.
【0094】ブロックの分類方法について説明する。D
CTパターン判定手段141は、第1の実施形態で説明
したように、図4のDCTパターンにおいて斜線が施さ
れている周波数成分の係数であって、その絶対値が所定
値よりも大きいものを、入力されたDCT係数ブロック
が有している場合は、入力されたDCT係数ブロック
は、そのDCTパターンを満たすと判定する。Next, a method of classifying blocks will be described. D
As described in the first embodiment, the CT pattern determination unit 141 determines a coefficient of a frequency component which is hatched in the DCT pattern of FIG. 4 and whose absolute value is larger than a predetermined value. If the input DCT coefficient block has the input DCT coefficient block, it is determined that the input DCT coefficient block satisfies the DCT pattern.
【0095】DCTパターン判定手段141は、マクロ
ブロック符号化モードから判断して、入力されたDCT
係数ブロックがイントラ符号化ブロックである場合に
は、図4(a)のDCTパターンPTN1及び図4
(b)のDCTパターンPTN2を用いる。一方、マク
ロブロック符号化モードから判断して、入力されたDC
T係数ブロックが非イントラ符号化ブロックである場合
には、図4(c)のDCTパターンPTN3及び図4
(d)のDCTパターンPTN4を用いる。The DCT pattern determination means 141 determines from the macroblock coding mode,
When the coefficient block is an intra-coded block, the DCT pattern PTN1 of FIG.
The DCT pattern PTN2 of (b) is used. On the other hand, based on the macroblock coding mode,
When the T coefficient block is a non-intra coded block, the DCT pattern PTN3 of FIG.
(D) The DCT pattern PTN4 is used.
【0096】イントラ符号化されたブロックの処理方法
については、第1の実施形態で説明したので省略する。
以下では、非イントラ符号化されたブロックの処理方法
について説明する。The processing method for the intra-coded block has been described in the first embodiment and will not be described.
Hereinafter, a method of processing a non-intra-coded block will be described.
【0097】図11は非イントラ符号化されたブロック
を分類する処理の流れを示すフローチャートである。図
11に示すように、入力DCT係数ブロックはまずステ
ップS21においてDCTパターンPTN3と比較され
る。入力DCT係数ブロックがDCTパターンPTN3
を満たしていれば、そのブロックをDCTクラスN1に
分類する(ステップS23)。入力DCT係数ブロック
がDCTパターンPTN3を満たしていなければ、次に
ステップS22においてDCTパターンPTN4との比
較を行う。入力DCT係数ブロックがDCTパターンP
TN4を満たしていればそのブロックをDCTクラスN
2に分類する(ステップS24)。入力DCT係数ブロ
ックがDCTパターンPTN4を満たしていなければ、
そのブロックをDCTクラスN3に分類する(ステップ
S25)。以上のようにして、DCTパターン判定手段
141は、各ブロックをDCTクラスN1,N2,N3
のいずれかに分類し、その分類結果をスイッチ145に
出力する。FIG. 11 is a flowchart showing the flow of processing for classifying non-intra-coded blocks. As shown in FIG. 11, the input DCT coefficient block is first compared with the DCT pattern PTN3 in step S21. Input DCT coefficient block is DCT pattern PTN3
Is satisfied, the block is classified into the DCT class N1 (step S23). If the input DCT coefficient block does not satisfy the DCT pattern PTN3, a comparison with the DCT pattern PTN4 is performed in step S22. Input DCT coefficient block is DCT pattern P
If TN4 is satisfied, the block is DCT class N
2 (step S24). If the input DCT coefficient block does not satisfy the DCT pattern PTN4,
The block is classified into DCT class N3 (step S25). As described above, the DCT pattern determining unit 141 classifies each block into the DCT classes N1, N2, N3.
And outputs the classification result to the switch 145.
【0098】DC係数抽出手段142は、入力されたD
CT係数からDC係数のみを抽出し、スイッチ145に
出力する。量子化スケール抽出手段143は、可変長復
号化手段110から出力された符号化情報から量子化ス
ケールを抽出し、スイッチ145に出力する。The DC coefficient extracting means 142 outputs the input D
Only the DC coefficient is extracted from the CT coefficient and output to the switch 145. The quantization scale extraction unit 143 extracts a quantization scale from the encoded information output from the variable length decoding unit 110, and outputs it to the switch 145.
【0099】スイッチ145は、可変長復号化手段11
0が出力したマクロブロック符号化モードを用いて、接
続の切替を行う。マクロブロック符号化モードがイント
ラ符号化である場合には、スイッチ145はbに接続さ
れる。この場合の動作は第1の実施形態と同様である。
マクロブロック符号化モードが非イントラ符号化である
場合には、スイッチ145はaに接続される。したがっ
て、パラメータ補正手段146にブロックノイズパラメ
ータが入力される。以下では、マクロブロック符号化モ
ードが非イントラ符号化である場合について説明する。The switch 145 is connected to the variable length decoding unit 11
The connection is switched by using the macroblock coding mode output by 0. When the macroblock coding mode is the intra coding, the switch 145 is connected to b. The operation in this case is the same as in the first embodiment.
When the macroblock coding mode is non-intra coding, the switch 145 is connected to a. Therefore, the block noise parameter is input to the parameter correction unit 146. Hereinafter, a case where the macroblock coding mode is non-intra coding will be described.
【0100】参照領域パラメータ決定手段147は、可
変長復号化手段110が出力した動きベクトルを用い
て、パラメータメモリ手段118が保持する参照ブロッ
クのブロックノイズパラメータを参照し、参照領域のブ
ロックノイズパラメータを決定する。ここで、参照領域
は、ノイズ除去の対象としている処理対象ブロックを復
号化する際に、このブロックの動きベクトルに基づいて
参照する参照フレーム内のブロックである。参照ブロッ
クは、参照領域に重なる参照フレーム内の画素ブロック
である。参照領域パラメータ決定手段147の詳細な動
作について、以下で説明する。The reference area parameter determining means 147 refers to the block noise parameter of the reference block held by the parameter memory means 118 using the motion vector output from the variable length decoding means 110, and calculates the block noise parameter of the reference area. decide. Here, the reference area is a block in a reference frame that is referred to based on a motion vector of the block to be processed, which is a target of noise removal, when decoding the block. The reference block is a pixel block in the reference frame that overlaps the reference area. The detailed operation of the reference area parameter determination means 147 will be described below.
【0101】図12は処理対象ブロックとその参照領域
についての説明図である。図12(a)は、復号化中の
フレーム内において、いま、ノイズ除去の対象としてい
る処理対象ブロック521を示し、図12(b)は、参
照フレーム内の参照領域526及び参照ブロック522
〜525を示している。参照領域526は、処理対象ブ
ロック521を復号化する際に、動きベクトルを用いて
参照するブロックである。FIG. 12 is an explanatory diagram of a block to be processed and its reference area. FIG. 12A shows a processing target block 521 to be subjected to noise removal in a frame being decoded, and FIG. 12B shows a reference area 526 and a reference block 522 in a reference frame.
To 525. The reference area 526 is a block to be referred to using a motion vector when decoding the processing target block 521.
【0102】図12(a)のように、ブロック521の
フレーム内のアドレス(フレームの左上を基点とし、ブ
ロックの左上の画素の水平、垂直方向の位置を画素数で
示したもの)を(x,y)とし、動きベクトルを(MV
x,MVy)とすると、図12(b)のように、参照領
域526のアドレスは(x+MVx,y+MVy)とな
る。参照領域パラメータ決定手段147は、参照領域5
26のアドレスから参照領域526が重なっているブロ
ックを見つける。図12(b)の場合、参照領域526
はブロック522〜525と重なっているので、参照領
域パラメータ決定手段147は、ブロック522〜52
5のブロックノイズパラメータをパラメータメモリ手段
118から取得し、これらのブロックノイズパラメータ
を用いて参照領域526のブロックノイズパラメータを
求め、パラメータ補正手段146に出力する。As shown in FIG. 12A, the address in the frame of the block 521 (the horizontal and vertical position of the upper left pixel of the block in terms of the number of pixels, starting from the upper left of the frame as a base point) is represented by (x , Y), and the motion vector is (MV)
x, MVy), the address of the reference area 526 is (x + MVx, y + MVy) as shown in FIG. The reference area parameter determining means 147 determines whether the reference area 5
From the address 26, a block in which the reference area 526 overlaps is found. In the case of FIG. 12B, the reference area 526
Overlaps with the blocks 522 to 525, the reference area parameter determination unit 147 determines
The block noise parameter No. 5 is obtained from the parameter memory unit 118, the block noise parameter of the reference area 526 is obtained using these block noise parameters, and output to the parameter correction unit 146.
【0103】まず、参照領域526のブロックノイズパ
ラメータのうち、DCTクラスを求める方法について説
明する。ここでは、例として、ブロック522〜525
のDCTクラスが順にI2、I1、I2、I3であると
し、またブロック522〜525と参照領域526との
重なっている部分の画素数が、順に36、12、12、
4である場合を考える。First, a method of obtaining the DCT class from the block noise parameters of the reference area 526 will be described. Here, as an example, blocks 522 to 525
Are sequentially I2, I1, I2, and I3, and the number of pixels of the overlapping portion of the blocks 522 to 525 and the reference area 526 is 36, 12, 12,.
Consider the case of 4.
【0104】参照領域526のDCTクラスを求める第
1の方法としては、ブロック522〜525のDCTク
ラスを参照領域526と各ブロックとが重なっている部
分の画素数で重み付け平均して得られる値を、参照領域
526のDCTクラスとする方法がある。これは、ブロ
ック522〜525のDCTクラスI1を0、DCTク
ラスI2を1、DCTクラスI3を2という値に対応さ
せて、これらの値を、参照領域526とこれらのDCT
クラスに属しているブロックとが重なっている部分の画
素数で重み付けした平均値を求め、この平均値に最も近
い値に対応したDCTクラスを選ぶ方法である。As a first method for obtaining the DCT class of the reference area 526, a value obtained by weighting and averaging the DCT classes of the blocks 522 to 525 with the number of pixels of a portion where the reference area 526 overlaps each block is used. , The DCT class of the reference area 526. This is because the DCT class I1 of the blocks 522 to 525 corresponds to the value of 0, the DCT class I2 corresponds to the value of 1, and the DCT class I3 corresponds to the value of 2.
This is a method in which an average value weighted by the number of pixels of a portion where a block belonging to a class overlaps is obtained, and a DCT class corresponding to a value closest to the average value is selected.
【0105】この方法では、DCTクラスに対応させた
値の画素数での重み付け平均値は、(1×36+0×1
2+1×12+2×4)/64=0.875となる。こ
の平均値は小数第1位で四捨五入すると1であり、DC
TクラスI2が値1に対応しているので、参照領域52
6のDCTクラスをI2とする。In this method, the weighted average value of the number of pixels of the value corresponding to the DCT class is (1 × 36 + 0 × 1).
2 + 1 × 12 + 2 × 4) /64=0.875. This average value is 1 when rounded to the first decimal place, and DC
Since the T class I2 corresponds to the value 1, the reference area 52
The DCT class of No. 6 is defined as I2.
【0106】また、参照領域526のDCTクラスを求
める第2の方法としては、参照領域526と重なる部分
の画素数が最も多いブロックのDCTクラスを選択する
方法がある。この方法では、参照領域526のDCTク
ラスを、ブロック522のDCTクラスであるI2とす
る。As a second method for obtaining the DCT class of the reference area 526, there is a method of selecting a DCT class of a block having the largest number of pixels in a portion overlapping the reference area 526. In this method, the DCT class of the reference area 526 is set to the DCT class I2 of the block 522.
【0107】また、参照領域526のDCTクラスを求
める第3の方法としては、各ブロックのDCTクラスの
最小値又は最大値を取る方法がある。この方法では、最
小値を選択すれば参照領域526のDCTクラスはI1
となり、最大値を選択すれば参照領域526のDCTク
ラスはI3となる。As a third method for obtaining the DCT class of the reference area 526, there is a method of obtaining the minimum value or the maximum value of the DCT class of each block. In this method, if the minimum value is selected, the DCT class of the reference area 526 becomes I1
When the maximum value is selected, the DCT class of the reference area 526 becomes I3.
【0108】また、参照領域526のDCTクラスを求
める第4の方法としては、ブロック522〜525の4
ブロックに関する限りにおいて、最も多くのブロックが
分類されたDCTクラスを選択する方法がある。ここで
は、I2に分類されたブロックが最も多いので、この方
法では、参照領域526のDCTクラスはI2となる。As a fourth method of obtaining the DCT class of the reference area 526, the fourth method of blocks 522 to 525 is used.
As far as the blocks are concerned, there is a way to select the DCT class into which the most blocks have been classified. Here, since there are the most blocks classified into I2, the DCT class of the reference area 526 is I2 in this method.
【0109】次に、参照領域526のブロックノイズパ
ラメータのうち、DC係数を求める方法について説明す
る。Next, a method for obtaining DC coefficients among the block noise parameters of the reference area 526 will be described.
【0110】参照領域526のDC係数を求める方法と
しては、ブロック522〜525のDC係数を参照領域
526と各ブロックとが重なっている部分の画素数で重
み付け平均して得られる値を、参照領域526のDC係
数とする方法がある。As a method of obtaining the DC coefficient of the reference area 526, a value obtained by weighting and averaging the DC coefficients of the blocks 522 to 525 with the number of pixels of the portion where the reference area 526 and each block overlap each other is calculated as follows. There is a method of using 526 DC coefficients.
【0111】また、参照領域526のDC係数を求める
別の方法としては、ブロック522〜525のDC係数
の平均を求める方法がある。As another method of calculating the DC coefficient of the reference area 526, there is a method of calculating the average of the DC coefficients of the blocks 522 to 525.
【0112】次に、参照領域526のブロックノイズパ
ラメータのうち、量子化スケールを求める方法について
説明する。Next, a method of obtaining the quantization scale from the block noise parameters of the reference area 526 will be described.
【0113】参照領域526の量子化スケールを求める
方法としては、ブロック522〜525の量子化スケー
ルを参照領域526と各ブロックとが重なっている部分
の画素数で重み付け平均して得られる値を、参照領域5
26の量子化スケールとする方法がある。As a method of obtaining the quantization scale of the reference area 526, a value obtained by weighting and averaging the quantization scales of the blocks 522 to 525 with the number of pixels of the portion where the reference area 526 overlaps each block is Reference area 5
There are 26 quantization scales.
【0114】また、参照領域526の量子化スケールを
求める別の方法としては、ブロック522〜525の量
子化スケールの最小値又は最大値を求める方法がある。As another method of obtaining the quantization scale of the reference area 526, there is a method of obtaining the minimum value or the maximum value of the quantization scale in blocks 522 to 525.
【0115】パラメータ補正手段146は、スイッチ1
45を介してDCTパターン判定手段141、DC係数
抽出手段142、及び量子化スケール抽出手段143が
出力する処理対象ブロックのブロックノイズパラメータ
と、参照領域パラメータ決定手段147が出力する参照
領域のブロックノイズパラメータとを入力として受け取
る。そして、処理対象ブロックのブロックノイズパラメ
ータを参照領域のブロックノイズパラメータで補正して
パラメータメモリ手段118に出力する。パラメータメ
モリ手段118は、入力されたブロックノイズパラメー
タを蓄積する。The parameter correction means 146 is a switch 1
45, the block noise parameter of the processing target block output by the DCT pattern determination unit 141, the DC coefficient extraction unit 142, and the quantization scale extraction unit 143, and the block noise parameter of the reference area output by the reference area parameter determination unit 147 And as input. Then, the block noise parameter of the block to be processed is corrected with the block noise parameter of the reference area and output to the parameter memory unit 118. The parameter memory means 118 stores the input block noise parameters.
【0116】まず、DCTパターン判定手段141が決
定したDCTクラスを、参照領域パラメータ決定手段1
47が決定した参照領域のDCTクラスを用いて補正す
る。この補正方法の例を表2に示す。First, the DCT class determined by the DCT pattern determining means 141 is stored in the reference area parameter determining means 1.
The correction is performed using the DCT class of the reference area determined by 47. Table 2 shows an example of this correction method.
【0117】[0117]
【表2】 [Table 2]
【0118】表2に示す補正方法では、DCTパターン
判定手段141が決定したDCTクラスと参照領域パラ
メータ決定手段147が決定した参照領域のDCTクラ
スとのうち、ブロックノイズが発生しにくい方を選択す
ることになる。In the correction method shown in Table 2, of the DCT class determined by the DCT pattern determination means 141 and the DCT class of the reference area determined by the reference area parameter determination means 147, the one which is less likely to generate block noise is selected. Will be.
【0119】また、別の補正方法の例を表3に示す。Table 3 shows an example of another correction method.
【0120】[0120]
【表3】 [Table 3]
【0121】表3に示す補正方法では、DCTパターン
判定手段141が決定したDCTクラスと参照領域パラ
メータ決定手段147が決定したDCTクラスとを平均
したDCTクラスを選択することになる。In the correction method shown in Table 3, the DCT class obtained by averaging the DCT class determined by the DCT pattern determining means 141 and the DCT class determined by the reference area parameter determining means 147 is selected.
【0122】次に、DC係数抽出手段142が抽出した
DC係数を、参照領域パラメータ決定手段147が求め
たDC係数を用いて補正する。この補正方法の例として
は、DC係数抽出手段142が抽出したDC係数に、参
照領域パラメータ決定手段147が求めたDC係数を加
算する方法がある。Next, the DC coefficient extracted by the DC coefficient extracting means 142 is corrected using the DC coefficient obtained by the reference area parameter determining means 147. As an example of this correction method, there is a method of adding the DC coefficient obtained by the reference area parameter determining means 147 to the DC coefficient extracted by the DC coefficient extracting means 142.
【0123】次に、量子化スケール抽出手段143が抽
出した量子化スケールを、参照領域パラメータ決定手段
147が求めた量子化スケールを用いて補正する。この
補正方法の例としては、量子化スケール抽出手段143
が抽出した量子化スケールと参照領域パラメータ決定手
段147が求めた量子化スケールとのうち、小さい方の
値を用いる方法がある。また、これらの量子化スケール
の平均値や大きい方の値を用いる方法もある。Next, the quantization scale extracted by the quantization scale extraction means 143 is corrected using the quantization scale obtained by the reference area parameter determination means 147. As an example of this correction method, the quantization scale extraction means 143
There is a method of using the smaller value of the quantization scale extracted by the reference value and the quantization scale obtained by the reference area parameter determining means 147. There is also a method of using the average value or the larger value of these quantization scales.
【0124】1フレーム分のブロックについてのブロッ
クノイズパラメータを蓄積すると、フィルタ決定手段1
44は、各ブロックの境界に施すフィルタを、ブロック
ノイズパラメータを参照しながら、例えば表1及び式
(1),(2)に基づいて決定する。フィルタ決定手段
144は、第1の実施形態におけるフィルタ決定手段1
34と同様であるのでその説明は省略する。ここで、決
定されたフィルタの種類は、検出されたブロックノイズ
の大きさに対応しているということができる。When the block noise parameters for one frame's worth of blocks are accumulated, the filter decision means 1
A filter 44 determines a filter to be applied to the boundary of each block based on, for example, Table 1 and Expressions (1) and (2) while referring to the block noise parameter. The filter determining unit 144 is a filter determining unit 1 according to the first embodiment.
34, and the description thereof is omitted. Here, it can be said that the determined type of filter corresponds to the magnitude of the detected block noise.
【0125】以上のように、第2の実施形態の画像復号
化装置では、圧縮符号列から得られるDCT係数を用い
て各ブロックを複数のDCTクラスに分類する。また、
非イントラ符号化ブロックの場合には、動きベクトルを
用いて参照フレーム中の参照領域を求める。その後、参
照領域に重なるブロックのDCTクラス、DC係数、量
子化スケールを用いて参照領域のDCTクラス、DC係
数、量子化スケールを求め、圧縮符号列の情報から求め
た処理対象ブロックのDCTクラス、DC係数、量子化
スケールを補正する。また、隣接するブロックでのDC
Tクラス、量子化スケール、DC係数を用いてそのブロ
ック境界に施すフィルタを決定する。ここで、フィルタ
の決定の際には、所定値以上のDCT係数がより低域に
のみ分布している場合であるほど、フィルタの強度が強
くなるようにする。As described above, in the image decoding apparatus according to the second embodiment, each block is classified into a plurality of DCT classes using DCT coefficients obtained from a compressed code string. Also,
In the case of a non-intra coded block, a reference area in a reference frame is obtained using a motion vector. Thereafter, the DCT class, the DC coefficient, and the quantization scale of the reference area are obtained using the DCT class, the DC coefficient, and the quantization scale of the block that overlaps the reference area, and the DCT class of the processing target block that is obtained from the information of the compression code string; Correct DC coefficient and quantization scale. In addition, DC in adjacent blocks
A filter to be applied to the block boundary is determined using the T class, the quantization scale, and the DC coefficient. Here, when the filter is determined, the strength of the filter is increased as the DCT coefficient equal to or more than the predetermined value is distributed only in the lower band.
【0126】このように、第2の実施形態の画像復号化
装置によると、DCT係数の分布からブロックノイズが
発生するブロック境界を確実に検出することができる。
この際、非イントラ符号化ブロックに対してはイントラ
符号化ブロックとは異なるDCTパターンを用いること
によって、非イントラ符号化の特性に合った分類を行う
ことができる。また、DC係数の差の絶対値を検査する
ことによって、ブロックノイズを誤検出することがなく
なる。また、非イントラ符号化ブロックでは、参照フレ
ームのブロックノイズパラメータも用いてブロックノイ
ズパラメータを決定するため、より高精度にブロックノ
イズを検出することができる。そして、強度の異なるフ
ィルタを複数用意し、ブロックノイズの大きさに応じて
選択して用いることによって、画像のボケを最小限に抑
えながら確実にブロックノイズを除去することができ
る。As described above, according to the image decoding apparatus of the second embodiment, it is possible to reliably detect a block boundary where block noise occurs from the distribution of DCT coefficients.
At this time, by using a DCT pattern different from the intra-coded block for the non-intra-coded block, classification suitable for the characteristics of the non-intra-coded can be performed. Further, by inspecting the absolute value of the difference between the DC coefficients, erroneous detection of block noise does not occur. In a non-intra coded block, the block noise parameter is determined using the block noise parameter of the reference frame, so that the block noise can be detected with higher accuracy. By preparing a plurality of filters having different intensities and selecting and using the filters according to the magnitude of the block noise, it is possible to surely remove the block noise while minimizing blurring of the image.
【0127】なお、本実施形態では、非イントラ符号化
ブロックに対してDCTパターンとして図4(c)、
(d)の2つを用い、DCT係数ブロックを3つのDC
Tクラスに分類する場合について説明したが、DCTパ
ターン数は2つには限らないし、DCTクラスの数は3
つに限らない。また、DCTパターンの周波数分布は、
図4(c)、(d)の分布には限らない。In this embodiment, non-intra coded blocks are converted to DCT patterns as shown in FIG.
(D), the DCT coefficient block is divided into three DCT coefficients.
Although the case of classifying into the T class has been described, the number of DCT patterns is not limited to two, and the number of DCT classes is three.
Not just one. The frequency distribution of the DCT pattern is
The distribution is not limited to the distributions shown in FIGS.
【0128】また、参照領域パラメータ決定手段147
での参照領域のブロックノイズパラメータの決定方法に
ついていくつかの例を示したが、この決定方法は本実施
形態で説明した方法には限らない。The reference area parameter determining means 147
Although several examples of the method of determining the block noise parameter of the reference area in the above are described, the method of determination is not limited to the method described in the present embodiment.
【0129】また、パラメータ補正手段146における
ブロックノイズパラメータの補正方法として表2又は表
3を用いた場合について説明したが、補正方法は表2又
は表3の方法には限らない。Further, the case where Table 2 or Table 3 is used as a method of correcting the block noise parameter in the parameter correcting means 146 has been described, but the correction method is not limited to the method of Table 2 or Table 3.
【0130】また、参照領域パラメータ決定手段147
とパラメータ補正手段146とを用いてDCTクラス、
DC係数、量子化スケールを補正する方法を説明した
が、いずれかのパラメータは補正しないこととしてもよ
い。The reference area parameter determining means 147
DCT class using the parameter correction means 146 and
Although the method of correcting the DC coefficient and the quantization scale has been described, any of the parameters may not be corrected.
【0131】また、パラメータメモリ手段118に1フ
レーム分のブロックノイズパラメータが蓄積された時点
でフィルタ決定手段144がフィルタを決定する場合に
ついて説明したが、これは1フレーム分蓄積した時点で
なくてもよい。Also, a case has been described where the filter determining means 144 determines the filter when the block noise parameters for one frame are stored in the parameter memory means 118, but this does not have to be the time when the block noise parameters have been stored for one frame. Good.
【0132】また、DCTパターン判定手段141で
は、イントラ符号化ブロックと非イントラ符号化ブロッ
クとで異なるDCTパターンを用いる場合について説明
したが、同じDCTパターンを用いてもよい。Further, the case has been described where the DCT pattern determining means 141 uses different DCT patterns for the intra-coded block and the non-intra-coded block, but the same DCT pattern may be used.
【0133】(第3の実施形態)第3の実施形態では、
DCT係数に加えて、動きベクトルの大きさにも基づい
て、符号化ノイズとしてのブロックノイズ除去のための
フィルタの強度を決定し、ノイズを除去する画像復号化
装置について説明する。(Third Embodiment) In the third embodiment,
An image decoding apparatus that determines the strength of a filter for removing block noise as coding noise based on the magnitude of a motion vector in addition to the DCT coefficient and removes noise will be described.
【0134】図13は第3の実施形態に係る画像復号化
装置のブロック図である。図13の画像復号化装置は、
可変長復号化手段110と、逆量子化手段111と、逆
DCT手段112と、スイッチ113,114と、フレ
ームメモリ115と、ブロックノイズ除去手段116
と、ブロックノイズ検出手段230と、加算手段119
とを備えている。可変長復号化手段110、逆量子化手
段111、逆DCT手段112、スイッチ113,11
4、フレームメモリ115、ブロックノイズ除去手段1
16、及び加算手段119については、第1の実施形態
と同様であるので、同一の番号を付してその説明を省略
する。ここで、ブロックノイズ検出手段230は、ノイ
ズ検出装置として動作する。FIG. 13 is a block diagram of an image decoding apparatus according to the third embodiment. The image decoding device in FIG.
Variable length decoding means 110, inverse quantization means 111, inverse DCT means 112, switches 113 and 114, frame memory 115, block noise removal means 116
, Block noise detecting means 230 and adding means 119
And Variable length decoding means 110, inverse quantization means 111, inverse DCT means 112, switches 113 and 11
4. Frame memory 115, block noise removing means 1
16 and the adding means 119 are the same as those in the first embodiment, so the same numbers are assigned and the description is omitted. Here, the block noise detection means 230 operates as a noise detection device.
【0135】図14はブロックノイズ検出手段230の
構成を示すブロック図である。図14のブロックノイズ
検出手段230は、DCTパターン判定手段231と、
動きベクトル抽出手段232と、フィルタ決定手段23
3とを備えている。ブロックノイズ検出手段230に
は、逆量子化手段111からDCT係数が入力され、可
変長復号化手段110から動きベクトルが入力されてい
る。FIG. 14 is a block diagram showing the structure of the block noise detecting means 230. 14 includes a DCT pattern determination unit 231 and a block noise detection unit 230.
Motion vector extracting means 232 and filter determining means 23
3 is provided. The block noise detection unit 230 receives a DCT coefficient from the inverse quantization unit 111 and a motion vector from the variable length decoding unit 110.
【0136】DCTパターン判定手段231は、逆量子
化手段111からDCT係数ブロックを受け取る。DC
Tパターン判定手段231は、DCT係数ブロックの各
周波数成分の分布から、入力されたDCT係数ブロック
が高周波数成分を含んでいるか否かを判定する。The DCT pattern determination means 231 receives the DCT coefficient block from the inverse quantization means 111. DC
The T pattern determination means 231 determines whether or not the input DCT coefficient block includes a high frequency component from the distribution of each frequency component of the DCT coefficient block.
【0137】図15はブロックの分類に用いるDCTパ
ターンの説明図である。DCTパターン判定手段231
は、入力されたDCT係数ブロックが図15(a)のD
CTパターンを満たすか否かを判定し、その結果をフィ
ルタ決定手段233に出力する。この判定については、
第1の実施形態で説明したものと同様である。FIG. 15 is an explanatory diagram of a DCT pattern used for classifying blocks. DCT pattern determination means 231
Means that the input DCT coefficient block is D
It is determined whether or not the CT pattern is satisfied, and the result is output to the filter determining means 233. About this judgment,
This is the same as that described in the first embodiment.
【0138】以下では説明のため、DCTパターン判定
手段231は、DCT係数ブロックがDCTパターンを
満たしている場合には“Yes”、満たしていない場合
には“No”という判定結果をフィルタ決定手段233
に出力することとする。また、DCTパターンは、その
ブロックが高周波数成分を有しているか否かを判断する
ために用いるものであるので、図15(a)のDCTパ
ターンの代わりに、例えば図15(b)のDCTパター
ンを用いてもよい。For the sake of explanation, the DCT pattern determination means 231 outputs a determination result of “Yes” when the DCT coefficient block satisfies the DCT pattern and “No” when the DCT coefficient block does not satisfy the DCT pattern.
Output. Since the DCT pattern is used to determine whether or not the block has a high frequency component, for example, instead of the DCT pattern of FIG. A pattern may be used.
【0139】動きベクトル抽出手段232は、可変長復
号化手段110が出力した符号化情報から動きベクトル
を抽出し、この動きベクトルの大きさを求めてフィルタ
決定手段233に出力する。ここで、動きベクトルの大
きさを求める方法としては、動きベクトルの水平方向及
び垂直方向の成分の二乗和を求める方法、動きベクトル
の水平方向及び垂直方向の成分の絶対値和を求める方
法、動きベクトルの水平方向及び垂直方向の成分のう
ち、絶対値の大きい方の値を求める方法等がある。The motion vector extracting means 232 extracts a motion vector from the encoded information output from the variable length decoding means 110, finds the size of the motion vector, and outputs the magnitude to the filter determining means 233. Here, as a method for obtaining the magnitude of the motion vector, a method for obtaining the sum of squares of the horizontal and vertical components of the motion vector, a method for obtaining the sum of absolute values of the horizontal and vertical components of the motion vector, Among the horizontal and vertical components of the vector, there is a method of obtaining the larger absolute value.
【0140】フィルタ決定手段233は、DCTパター
ン判定手段231が出力した判定結果と、動きベクトル
抽出手段232が出力した動きベクトルの大きさとを用
いて、各ブロックの境界に施すフィルタを決定する。そ
の決定方法について以下で説明する。The filter determining means 233 determines a filter to be applied to the boundary of each block, using the determination result output from the DCT pattern determining means 231 and the magnitude of the motion vector output from the motion vector extracting means 232. The determination method will be described below.
【0141】いま、図6のように画素ブロックが並んで
いるとする。また、画素ブロック501,503,50
5,506が画素マクロブロックを構成しているとす
る。この画素マクロブロックの境界にどのようなフィル
タを施すかを決定する場合を考える。Assume that pixel blocks are arranged as shown in FIG. Also, the pixel blocks 501, 503, 50
5,506 constitute a pixel macroblock. A case will be considered where what kind of filter is to be applied to the boundary of the pixel macro block.
【0142】図16はブロックを分類する処理の流れを
示すフローチャートである。フィルタ決定手段233
は、図16に示す手順に従ってフィルタの種類を決定す
る。ここでは、画素ブロック501と画素ブロック50
2との間のブロック境界511に施すフィルタを決定す
る場合を例に挙げて説明する。FIG. 16 is a flowchart showing the flow of processing for classifying blocks. Filter determination means 233
Determines the type of filter according to the procedure shown in FIG. Here, the pixel block 501 and the pixel block 50
The case where the filter to be applied to the block boundary 511 between the two is determined will be described as an example.
【0143】まず、図16のステップS41において、
ブロック境界を挟む2つのブロック、すなわち画素ブロ
ック501及び502に対するDCTパターン判定手段
231の出力を検査する。そして、少なくとも一方のブ
ロックの判定結果が“Yes”である場合には、そのブ
ロック境界にはフィルタを施さないとする(ステップS
44)。それ以外の場合にはステップS42の処理を行
う。First, in step S41 of FIG.
The output of the DCT pattern determination unit 231 for two blocks sandwiching the block boundary, that is, the pixel blocks 501 and 502, is inspected. If the determination result of at least one block is “Yes”, no filter is applied to the block boundary (Step S).
44). Otherwise, the process of step S42 is performed.
【0144】ステップS42では、動きベクトル抽出手
段232の出力である動きベクトルの大きさと、予め定
めておいたしきい値TH1とを比較し、動きベクトルの
大きさがしきい値TH1よりも小さければ、弱いフィル
タを施すとする(ステップS45)。それ以外の場合に
はステップS43の処理を行う。ステップS43では、
動きベクトルの大きさと、予め定めておいたしきい値T
H2とを比較する。ここで、TH1<TH2である。動
きベクトルの大きさがしきい値TH2よりも小さけれ
ば、中程度のフィルタを施すとする(ステップS4
6)。それ以外の場合には強いフィルタを施すとする
(ステップS47)。In step S42, the magnitude of the motion vector output from the motion vector extracting means 232 is compared with a predetermined threshold value TH1, and if the magnitude of the motion vector is smaller than the threshold value TH1, a weak filter (Step S45). Otherwise, the process of step S43 is performed. In step S43,
The magnitude of the motion vector and a predetermined threshold T
Compare with H2. Here, TH1 <TH2. If the magnitude of the motion vector is smaller than the threshold value TH2, a medium filter is applied (step S4).
6). Otherwise, a strong filter is applied (step S47).
【0145】ここで、ステップS42,S43における
動きベクトルの大きさの比較には、両方のブロック、す
なわち、画素ブロック501及び502の動きベクトル
の大きさを用いてもよいし、一方の動きベクトルの大き
さのみを用いてもよい。例えば両方のブロックの動きベ
クトルの大きさを用いて、いずれか一方の値がしきい値
よりも大きければステップS42,S43の条件を満た
すとしてもよいし、両方の値が共にしきい値よりも大き
ければステップS42,S43の条件を満たすとしても
よい。またここで、フィルタの強度は、例えばフィルタ
が低域通過フィルタである場合、フィルタの遮断周波数
に応じたものである。この場合、遮断周波数が低いほど
強いフィルタであるといえる。Here, in comparing the magnitudes of the motion vectors in steps S42 and S43, the magnitudes of the motion vectors of both blocks, that is, the pixel blocks 501 and 502, may be used. Only the size may be used. For example, using the magnitudes of the motion vectors of both blocks, if one of the values is larger than the threshold value, the conditions of steps S42 and S43 may be satisfied, or both values may be smaller than the threshold value. If it is larger, the conditions of steps S42 and S43 may be satisfied. Here, the strength of the filter depends on the cutoff frequency of the filter when the filter is a low-pass filter, for example. In this case, it can be said that the filter is stronger as the cutoff frequency is lower.
【0146】同様にして、フィルタ決定手段233は、
他のマクロブロック境界に施すフィルタの種類を決定
し、決定したフィルタの種類をブロックノイズ除去手段
116に対して出力する。Similarly, the filter determination means 233
The type of filter to be applied to another macroblock boundary is determined, and the determined type of filter is output to the block noise removing unit 116.
【0147】図17は、図14のブロックノイズ検出手
段の他の構成例を示すブロック図である。図17のブロ
ックノイズ検出手段240は、DCTパターン判定手段
231と、動きベクトル抽出手段232と、フィルタ決
定手段243と、DC係数抽出手段244とを備えてい
る。DCTパターン判定手段231及びDC係数抽出手
段244には、逆量子化手段111からDCT係数が入
力され、動きベクトル抽出手段232には、可変長復号
化手段110から動きベクトルが入力されている。FIG. 17 is a block diagram showing another example of the configuration of the block noise detecting means of FIG. 17 includes a DCT pattern determination unit 231, a motion vector extraction unit 232, a filter determination unit 243, and a DC coefficient extraction unit 244. The DCT pattern determination unit 231 and the DC coefficient extraction unit 244 receive DCT coefficients from the inverse quantization unit 111, and the motion vector extraction unit 232 receives a motion vector from the variable length decoding unit 110.
【0148】DCTパターン判定手段231及び動きベ
クトル抽出手段232は、図14で説明したものと同様
であるので、ここではその説明を省略する。The DCT pattern determining means 231 and the motion vector extracting means 232 are the same as those described with reference to FIG.
【0149】DC係数抽出手段244は、逆量子化手段
111が出力したDCT係数ブロックからDC係数のみ
を抽出し、フィルタ決定手段243に出力する。The DC coefficient extraction means 244 extracts only DC coefficients from the DCT coefficient block output from the inverse quantization means 111, and outputs it to the filter determination means 243.
【0150】フィルタ決定手段243は、DCTパター
ン判定手段231が出力した判定結果と、動きベクトル
抽出手段232が出力した動きベクトルの大きさと、D
C係数抽出手段244が出力したDC係数とを用いて、
各ブロックの境界に施すフィルタを決定する。その動作
を以下で説明する。The filter determining means 243 determines the result of the determination output by the DCT pattern determining means 231, the magnitude of the motion vector output by the motion vector extracting means 232,
Using the DC coefficient output from the C coefficient extraction unit 244,
A filter to be applied to the boundary of each block is determined. The operation will be described below.
【0151】図18はDC係数を用いてブロックを分類
する場合の処理の流れを示すフローチャートである。フ
ィルタ決定手段243は、図18に示す手順に従ってフ
ィルタの種類を決定する。図18の処理方法が図16の
処理方法と異なる点は、ステップS41とステップS4
2との間に、ステップS51の処理が追加されているこ
とである。そこで、ステップS51の処理について説明
する。FIG. 18 is a flowchart showing the flow of processing when classifying blocks using DC coefficients. The filter determining means 243 determines the type of the filter according to the procedure shown in FIG. The difference between the processing method of FIG. 18 and the processing method of FIG.
2 is that the process of step S51 is added. Thus, the processing in step S51 will be described.
【0152】ステップS51では、隣接する2つのブロ
ックの間のDC係数の差の絶対値を求め、その絶対値が
所定のしきい値TH3よりも大きいか否かを判定する。
差の絶対値がしきい値TH3よりも大きい場合には、ブ
ロック境界511にはフィルタは施さないと判定する
(ステップS44)。それ以外の場合にはステップS4
2の処理を行う。In step S51, the absolute value of the difference between the DC coefficients between two adjacent blocks is determined, and it is determined whether the absolute value is greater than a predetermined threshold TH3.
If the absolute value of the difference is larger than the threshold value TH3, it is determined that no filter is applied to the block boundary 511 (step S44). Otherwise, step S4
Step 2 is performed.
【0153】フィルタ決定手段243は、このようにし
て決定したフィルタの種類をブロックノイズ除去手段1
16に対して出力する。The filter determining means 243 determines the type of the filter determined in this manner by the block noise removing means 1.
16 is output.
【0154】図19は、図14のブロックノイズ検出手
段のさらに他の構成例を示すブロック図である。図19
のブロックノイズ検出手段250は、DCTパターン判
定手段231と、動きベクトル抽出手段232と、フィ
ルタ決定手段253と、DC係数抽出手段244と、量
子化スケール抽出手段255とを備えている。FIG. 19 is a block diagram showing still another configuration example of the block noise detecting means of FIG. FIG.
The block noise detecting unit 250 includes a DCT pattern determining unit 231, a motion vector extracting unit 232, a filter determining unit 253, a DC coefficient extracting unit 244, and a quantization scale extracting unit 255.
【0155】DCTパターン判定手段231、動きベク
トル抽出手段232及びDC係数抽出手段244は、図
14及び図17で説明したものと同様であるので、ここ
ではその説明を省略する。The DCT pattern determining means 231, the motion vector extracting means 232, and the DC coefficient extracting means 244 are the same as those described with reference to FIGS. 14 and 17, and therefore will not be described here.
【0156】量子化スケール抽出手段255は、可変長
復号化手段110から入力された符号化情報から量子化
スケールを抽出し、フィルタ決定手段253に出力す
る。The quantization scale extracting means 255 extracts a quantization scale from the coded information input from the variable length decoding means 110 and outputs it to the filter determining means 253.
【0157】フィルタ決定手段253は、DCTパター
ン判定手段231が出力した判定結果と、動きベクトル
抽出手段232が出力した動きベクトルの大きさと、D
C係数抽出手段244が出力したDC係数と、量子化ス
ケール抽出手段255が出力した量子化スケールとを用
いて、各ブロックの境界に施すフィルタを決定する。そ
の動作を以下で説明する。The filter determination means 253 determines the determination result output from the DCT pattern determination means 231, the magnitude of the motion vector output from the motion vector extraction means 232,
Using the DC coefficient output from the C coefficient extraction unit 244 and the quantization scale output from the quantization scale extraction unit 255, a filter to be applied to the boundary of each block is determined. The operation will be described below.
【0158】フィルタ決定手段253は、図18の処理
手順とほぼ同様の処理をする。ただし、フィルタ決定手
段253では、図18のステップS51でのしきい値T
H3として、量子化スケール抽出手段255が出力する
量子化スケールを定数倍した値を用いる。フィルタ決定
手段253は、このようにして決定したフィルタの種類
をブロックノイズ除去手段116に対して出力する。The filter determining means 253 performs almost the same processing as the processing procedure shown in FIG. However, in the filter determining means 253, the threshold value T in step S51 in FIG.
As H3, a value obtained by multiplying the quantization scale output by the quantization scale extraction unit 255 by a constant is used. The filter determining unit 253 outputs the type of the filter determined in this way to the block noise removing unit 116.
【0159】ブロックノイズ除去手段116は、第1の
実施形態の場合とほぼ同様の動作をする。ただし、強度
が中程度のフィルタは、第1の実施形態におけるフィル
タF2に相当し、強度が強いフィルタは、フィルタF3
に相当する。また、決定されたフィルタの種類が弱いフ
ィルタである場合には、ブロックノイズ除去手段116
は、フィルタの種類が中程度のフィルタである場合と同
等又はより狭い範囲の画素にフィルタを施す。低域通過
フィルタを用いる場合には、図9の周波数特性L1のよ
うに、弱いフィルタの遮断周波数を中程度のフィルタよ
りも高く設定する。ここで、決定されたフィルタの種類
は、検出されたブロックノイズの大きさに対応している
ということができる。The block noise removing means 116 operates almost the same as in the first embodiment. However, the filter having the medium strength corresponds to the filter F2 in the first embodiment, and the filter having the strong strength corresponds to the filter F3.
Is equivalent to If the type of the determined filter is a weak filter, the block noise removing unit 116
Applies a filter to pixels in the same or narrower range as when the filter type is a medium filter. When a low-pass filter is used, the cutoff frequency of a weak filter is set higher than that of a medium filter, as indicated by a frequency characteristic L1 in FIG. Here, it can be said that the determined type of filter corresponds to the magnitude of the detected block noise.
【0160】フィルタの施し方は、垂直方向についても
同様である。なお、インターレース(飛越し走査)画像
の場合には、垂直方向のフィルタは同一フィールド内で
施せばよい。The same applies to the filter in the vertical direction. In the case of an interlaced (interlaced scanning) image, the filter in the vertical direction may be applied in the same field.
【0161】以上のように、第3の実施形態の画像復号
化装置では、圧縮符号列から得られるDCT係数等の直
交変換係数の周波数分布により、各ブロックが高周波数
成分を有するか否かを判定する。そして、隣接するブロ
ックでの直交変換係数の周波数分布の判定結果と、動き
ベクトルの大きさと、DC係数と、量子化スケールとを
用いてそのブロック境界に施すフィルタを決定する。As described above, in the image decoding apparatus according to the third embodiment, whether or not each block has a high frequency component is determined based on the frequency distribution of orthogonal transform coefficients such as DCT coefficients obtained from a compressed code string. judge. Then, a filter to be applied to the block boundary is determined using the determination result of the frequency distribution of the orthogonal transform coefficient in the adjacent block, the size of the motion vector, the DC coefficient, and the quantization scale.
【0162】ここで、フィルタの決定方法は次のような
ものである。すなわち、高周波数成分を有するブロック
であればフィルタを施さないように決定する。また、高
周波数成分を有しないブロックである場合には、動きベ
クトルの大きさが大きいほど、フィルタの強度が強くな
るように設定する。また、DC係数を用いる場合には、
隣接するブロックでのDC係数の差の絶対値が所定値よ
りも大きければフィルタを施さないように決定する。ま
た、この際の所定値として量子化スケールに応じた値を
用いることもできる。そして、決定したフィルタに基づ
いて、復号化後の画像のブロック境界の周辺画素に対し
てフィルタを施すことによりブロックノイズを除去す
る。Here, the method of determining the filter is as follows. That is, it is determined that no filter is applied to a block having a high frequency component. If the block does not have a high frequency component, the filter strength is set to increase as the size of the motion vector increases. When using the DC coefficient,
If the absolute value of the difference between the DC coefficients in the adjacent blocks is larger than a predetermined value, it is determined that no filtering is performed. In addition, a value corresponding to the quantization scale can be used as the predetermined value at this time. Then, based on the determined filter, block noise is removed by applying a filter to pixels around the block boundary of the decoded image.
【0163】このように、第3の実施形態の画像復号化
装置によると、隣接するブロックの動きベクトルの大き
さからブロックノイズが発生するブロック境界を確実に
検出することができ、かつ高周波数成分を有するブロッ
クにはフィルタを施さないことにより、誤検出をなくし
て画質劣化を防ぐことができる。さらに、DC係数の差
の絶対値を検査することによって、大きな輝度差を有す
るブロック間のブロック境界においてブロックノイズを
検出するような誤検出を防ぐことができる。また、DC
係数の差の絶対値の検査におけるしきい値として量子化
スケールに応じた値を用いることによって、画質に応じ
た適応的な検査を行うことができる。そして、動きベク
トルの大きさに応じて強度の異なるフィルタを複数用い
ることによって、ブロックノイズの大きさに応じたフィ
ルタリングを行うことができる。これらの効果により、
画像のボケを最小限に抑えながら確実にかつ誤検出する
ことなく、ブロックノイズを除去することができる。As described above, according to the image decoding apparatus of the third embodiment, it is possible to reliably detect a block boundary where block noise occurs from the magnitude of a motion vector of an adjacent block, and to detect a high frequency component. By not applying a filter to the block having the above, it is possible to eliminate erroneous detection and prevent image quality deterioration. Further, by checking the absolute value of the difference between the DC coefficients, it is possible to prevent erroneous detection such as detecting block noise at a block boundary between blocks having a large luminance difference. Also, DC
By using a value corresponding to the quantization scale as the threshold in the test of the absolute value of the coefficient difference, an adaptive test corresponding to the image quality can be performed. Then, by using a plurality of filters having different intensities according to the magnitude of the motion vector, it is possible to perform filtering according to the magnitude of the block noise. With these effects,
Block noise can be removed reliably and without erroneous detection while minimizing image blurring.
【0164】なお、本実施形態では、DCTパターンの
例として図15(a),(b)の2つのDCTパターン
について説明したが、DCTパターンの周波数分布は、
これらの分布には限らない。In the present embodiment, two DCT patterns shown in FIGS. 15A and 15B have been described as examples of DCT patterns.
It is not limited to these distributions.
【0165】また、ブロックノイズ除去手段116で用
いるフィルタの種類を3種類としたが、これは何種類で
あっても構わない。Although three types of filters are used in the block noise removing means 116, any number of types may be used.
【0166】また本実施形態では、動きベクトルの大き
さに対して2つのしきい値TH1、TH2を用いる場合
について説明したが、このしきい値の数は2個以外であ
ってもよい。In this embodiment, the case where two thresholds TH1 and TH2 are used for the magnitude of the motion vector has been described. However, the number of thresholds may be other than two.
【0167】また、ブロックノイズ除去手段116で用
いるフィルタが低域通過フィルタである場合について説
明したが、これはブロックノイズを除去するフィルタで
あれば、他のフィルタ、例えばメディアンフィルタや非
線形フィルタ等であってもよい。The case where the filter used in the block noise removing means 116 is a low-pass filter has been described. However, this is a filter that removes block noise, and may be another filter such as a median filter or a nonlinear filter. There may be.
【0168】(第4の実施形態)第4の実施形態では、
処理対象ブロックのDCT係数、動きベクトルの大きさ
に加えて、このブロックの参照領域に係るパラメータに
も基づいて、符号化ノイズとしてのブロックノイズ除去
のためのフィルタの強度を決定し、ノイズを除去する画
像復号化装置について説明する。(Fourth Embodiment) In the fourth embodiment,
In addition to the DCT coefficient of the processing target block and the size of the motion vector, the strength of a filter for removing block noise as coding noise is determined based on parameters related to the reference region of this block, and noise is removed. The following describes an image decoding device that performs this operation.
【0169】第4の実施形態に係る画像復号化装置は、
図1の画像復号化装置において、ブロックノイズ検出手
段130の代わりにブロックノイズ検出手段260を用
いたものである。可変長復号化手段110、逆量子化手
段111、逆DCT手段112、スイッチ113,11
4、フレームメモリ115、ブロックノイズ除去手段1
16、パラメータメモリ手段118、及び加算手段11
9については、第1の実施形態と同様であるので、同一
の番号を付してその説明を省略する。ここで、ブロック
ノイズ検出手段260は、ノイズ検出装置として動作す
る。ブロックノイズ検出手段260には、逆量子化手段
111からDCT係数が入力され、可変長復号化手段1
10から動きベクトルが入力されている。[0169] The image decoding apparatus according to the fourth embodiment comprises:
In the image decoding apparatus of FIG. 1, block noise detecting means 260 is used instead of block noise detecting means 130. Variable length decoding means 110, inverse quantization means 111, inverse DCT means 112, switches 113 and 11
4. Frame memory 115, block noise removing means 1
16, parameter memory means 118, and adding means 11
9 is the same as that of the first embodiment, and thus the same reference numeral is assigned and the description is omitted. Here, the block noise detection means 260 operates as a noise detection device. The DCT coefficient is input to the block noise detection unit 260 from the inverse quantization unit 111, and the variable length decoding unit 1
10, a motion vector is input.
【0170】図20はブロックノイズ検出手段260の
構成を示すブロック図である。図20のブロックノイズ
検出手段260は、DCTパターン判定手段261と、
動きベクトル抽出手段232と、フィルタ決定手段23
3と、参照領域パラメータ決定手段266と、パラメー
タ補正手段267とを備えている。DCTパターン判定
手段261には、逆量子化手段111からDCT係数が
入力され、動きベクトル抽出手段232及び参照領域パ
ラメータ決定手段266には、可変長復号化手段110
から動きベクトルが入力されている。また、DCTパタ
ーン判定手段261には、可変長復号化手段110から
符号化情報が入力されている。FIG. 20 is a block diagram showing the structure of the block noise detecting means 260. 20 includes a DCT pattern determination unit 261 and a block noise detection unit 260.
Motion vector extracting means 232 and filter determining means 23
3, a reference area parameter determination unit 266, and a parameter correction unit 267. The DCT coefficient is input to the DCT pattern determination unit 261 from the inverse quantization unit 111, and the variable length decoding unit 110 is input to the motion vector extraction unit 232 and the reference area parameter determination unit 266.
Is input. Further, the DCT pattern determination unit 261 receives encoded information from the variable length decoding unit 110.
【0171】動きベクトル抽出手段232は、第3の実
施形態の図14で説明したものと同様であるので、その
説明を省略する。Since the motion vector extracting means 232 is the same as that described in the third embodiment with reference to FIG. 14, the description is omitted.
【0172】DCTパターン判定手段261は、逆量子
化手段111からDCT係数ブロックを受け取る。DC
Tパターン判定手段261は、DCT係数ブロックの各
周波数成分の分布に基づき、入力されたDCT係数ブロ
ックが高周波数成分を含んでいるか否かを判定する。こ
の判定方法は、第3の実施形態で説明したものと同様で
あるので、その説明は省略する。DCTパターン判定手
段261は、判定結果をパラメータ補正手段267に対
して出力し、現在復号化中のフレームが他のフレームの
復号化時に参照されるフレームである場合(例えばMP
EG-2におけるIピクチャやPピクチャの場合)に
は、判定結果をパラメータメモリ手段118に対しても
出力する。The DCT pattern determination means 261 receives the DCT coefficient block from the inverse quantization means 111. DC
The T pattern determination unit 261 determines whether or not the input DCT coefficient block includes a high frequency component based on the distribution of each frequency component of the DCT coefficient block. This determination method is the same as that described in the third embodiment, and a description thereof will be omitted. The DCT pattern determination unit 261 outputs the determination result to the parameter correction unit 267, and if the frame currently being decoded is a frame that is referred to when decoding another frame (for example, MP
In the case of an I picture or a P picture in EG-2), the determination result is also output to the parameter memory unit 118.
【0173】参照領域パラメータ決定手段266は、可
変長復号化手段110が出力した動きベクトルを用い
て、参照領域の画素を含むブロックのDCTパターンの
判定結果を参照する。The reference area parameter determination means 266 refers to the DCT pattern determination result of the block including the pixels of the reference area using the motion vector output from the variable length decoding means 110.
【0174】第2の実施形態で図12を用いて説明した
ように、参照領域パラメータ決定手段266は、処理対
象ブロック521を復号化する際に参照する参照フレー
ム内の参照領域526及び参照領域526が重なってい
るブロック522〜525を求める。参照領域パラメー
タ決定手段266は、ブロック522〜525のDCT
パターンの判定結果をパラメータメモリ手段118から
取得し、これらのDCTパターンの判定結果を用いて参
照領域526のDCTパターン判定結果を求め、パラメ
ータ補正手段267及びパラメータメモリ手段118に
出力する。As described with reference to FIG. 12 in the second embodiment, the reference area parameter determining means 266 sets the reference area 526 and the reference area 526 in the reference frame to be referred to when decoding the processing target block 521. Are found in blocks 522 to 525 where. The reference area parameter determining means 266 determines the DCT of blocks 522 to 525.
The pattern determination result is obtained from the parameter memory unit 118, the DCT pattern determination result of the reference area 526 is obtained using these DCT pattern determination results, and output to the parameter correction unit 267 and the parameter memory unit 118.
【0175】ブロック522〜525のDCTパターン
判定結果を用いて参照領域526のDCTパターン判定
結果を求める方法としては、参照領域526と重なる部
分の画素数が最も多いブロックのDCTパターン判定結
果を選択する方法、ブロック522〜525の中に1つ
でもDCTパターンの判定結果が“Yes”であるブロ
ックがある場合には、参照領域526の判定結果は“Y
es”であると決定する方法、ブロック522〜525
のDCTパターン判定結果の多数決により決定する方法
等がある。As a method of obtaining the DCT pattern determination result of the reference area 526 using the DCT pattern determination results of the blocks 522 to 525, the DCT pattern determination result of the block having the largest number of pixels in the portion overlapping the reference area 526 is selected. If at least one of the blocks 522 to 525 has a DCT pattern determination result of “Yes”, the determination result of the reference area 526 is “Y”.
es "method, blocks 522-525
And the like by a majority decision of the DCT pattern determination result.
【0176】パラメータ補正手段267は、DCTパタ
ーン判定手段261が出力したDCTパターンの判定結
果と、参照領域パラメータ決定手段266が出力した参
照領域のDCTパターン判定結果とを入力として受け取
る。パラメータ補正手段267は、DCTパターン判定
手段261が決定した判定結果を、参照領域パラメータ
決定手段266が決定した判定結果を用いて補正する。
この場合、少なくとも一方の判定結果が“Yes”であ
れば、“Yes”をフィルタ決定手段233に対して出
力することとする。The parameter correction unit 267 receives as input the DCT pattern determination result output by the DCT pattern determination unit 261 and the DCT pattern determination result of the reference region output by the reference region parameter determination unit 266. The parameter correction unit 267 corrects the determination result determined by the DCT pattern determination unit 261 using the determination result determined by the reference area parameter determination unit 266.
In this case, if at least one of the determination results is “Yes”, “Yes” is output to the filter determining unit 233.
【0177】フィルタ決定手段233は、パラメータ補
正手段267が出力する判定結果と、動きベクトル抽出
手段232が出力した動きベクトルの大きさとを入力と
し、これらを用いて各ブロックの境界に施すフィルタを
決定する。この決定の方法は、図14のフィルタ決定手
段233について説明した方法と同様である。フィルタ
決定手段233が決定したフィルタの種類は、ブロック
ノイズ除去手段116に対して出力される。The filter determining means 233 receives as input the determination result output from the parameter correcting means 267 and the magnitude of the motion vector output from the motion vector extracting means 232, and determines a filter to be applied to the boundary of each block using these. I do. This determination method is the same as the method described for the filter determination means 233 in FIG. The type of filter determined by the filter determining unit 233 is output to the block noise removing unit 116.
【0178】ブロックノイズ除去手段116は、第3の
実施形態の場合と同様に、フレームメモリ115が出力
する画像のブロック境界にフィルタを施し、ブロックノ
イズの除去を行う。ブロックノイズ除去手段116は、
ノイズ除去を行った画像を出力画像として出力する。The block noise removing means 116 filters the block boundaries of the image output from the frame memory 115 to remove the block noise, as in the third embodiment. The block noise removing means 116
An image from which noise has been removed is output as an output image.
【0179】図21は、図20のブロックノイズ検出手
段の他の構成例を示すブロック図である。図21のブロ
ックノイズ検出手段270は、DCTパターン判定手段
261と、動きベクトル抽出手段232と、フィルタ決
定手段243と、DC係数抽出手段244と、参照領域
パラメータ決定手段276と、パラメータ補正手段27
7とを備えている。DCTパターン判定手段261及び
DC係数抽出手段244には、逆量子化手段111から
DCT係数が入力され、動きベクトル抽出手段232及
び参照領域パラメータ決定手段276には、可変長復号
化手段110から動きベクトルが入力されている。ま
た、DCTパターン判定手段261には、可変長復号化
手段110から符号化情報が入力されている。FIG. 21 is a block diagram showing another example of the configuration of the block noise detecting means of FIG. The block noise detecting means 270 in FIG. 21 includes a DCT pattern determining means 261, a motion vector extracting means 232, a filter determining means 243, a DC coefficient extracting means 244, a reference area parameter determining means 276, and a parameter correcting means 27.
7 is provided. The DCT coefficient is input to the DCT pattern determination unit 261 and the DC coefficient extraction unit 244 from the inverse quantization unit 111, and the motion vector extraction unit 232 and the reference area parameter determination unit 276 are supplied with the motion vector from the variable length decoding unit 110. Is entered. Further, the DCT pattern determination unit 261 receives encoded information from the variable length decoding unit 110.
【0180】DCTパターン判定手段261及び動きベ
クトル抽出手段232は、図20で説明したものと同様
であり、DC係数抽出手段244は、図17で説明した
ものと同様であるので、ここではその説明を省略する。The DCT pattern determining means 261 and the motion vector extracting means 232 are the same as those described with reference to FIG. 20, and the DC coefficient extracting means 244 is the same as that described with reference to FIG. Is omitted.
【0181】DCTパターン判定手段261及びDC係
数抽出手段244の出力は、パラメータ補正手段277
に入力される。また、現在復号化中のフレームが他のフ
レームの復号化時に参照されるフレームである場合に
は、DCTパターン判定手段261及びDC係数抽出手
段244の出力は、パラメータメモリ手段118に対し
ても出力される。また、動きベクトル抽出手段232の
出力は、フィルタ決定手段243に対して出力される。The outputs of the DCT pattern determining means 261 and the DC coefficient extracting means 244 are output to the parameter correcting means 277.
Is input to If the frame currently being decoded is a frame referred to when decoding another frame, the outputs of the DCT pattern determination unit 261 and the DC coefficient extraction unit 244 are also output to the parameter memory unit 118. Is done. The output of the motion vector extracting means 232 is output to the filter determining means 243.
【0182】参照領域パラメータ決定手段276は、可
変長復号化手段110が出力した動きベクトルを用い
て、パラメータメモリ手段118から参照フレームのD
CTパターンの判定結果及びDC係数を取得する。これ
らを取得する方法及び参照領域のDCTパターンの判定
結果を求める方法は、図20の参照領域パラメータ決定
手段266について説明した方法と同様である。また、
参照領域のDC係数を求める方法としては、参照領域の
画素を含むブロックのDC係数の平均値を取る方法、参
照領域と重なるブロックの重なっている部分の面積によ
る重み付け平均値を取る方法等がある。The reference area parameter determining means 276 uses the motion vector output from the variable length decoding means 110 to read the reference frame D from the parameter memory means 118.
Acquire the determination result of the CT pattern and the DC coefficient. The method of obtaining these and the method of obtaining the DCT pattern determination result of the reference region are the same as the method described for the reference region parameter determination unit 266 in FIG. Also,
As a method of obtaining the DC coefficient of the reference area, there is a method of obtaining an average value of DC coefficients of a block including pixels of the reference area, a method of obtaining a weighted average value by an area of an overlapping portion of a block overlapping the reference area, and the like. .
【0183】参照領域パラメータ決定手段276は、以
上のようにして求められた参照領域のDCTパターンの
判定結果とDC係数とを、パラメータ補正手段277及
びパラメータメモリ手段118に対して出力する。The reference area parameter determination means 276 outputs the DCT pattern determination result and DC coefficient of the reference area obtained as described above to the parameter correction means 277 and the parameter memory means 118.
【0184】パラメータ補正手段277は、DCTパタ
ーン判定手段261が出力したDCTパターンの判定結
果と、DC係数抽出手段244が出力したDC係数と、
参照領域パラメータ決定手段276が出力した参照領域
のDCTパターン判定結果及びDC係数とを、入力とし
て受け取る。そしてまず、パラメータ補正手段277
は、DCTパターン判定手段261が決定した判定結果
を、参照領域パラメータ決定手段276が決定した判定
結果を用いて補正する。この方法は、図20のパラメー
タ補正手段267について説明した方法と同様である。The parameter correction means 277 calculates the DCT pattern determination result output from the DCT pattern determination means 261, the DC coefficient output from the DC coefficient extraction means 244,
The DCT pattern determination result and the DC coefficient of the reference region output from the reference region parameter determination unit 276 are received as inputs. First, the parameter correction means 277
Corrects the determination result determined by the DCT pattern determination unit 261 using the determination result determined by the reference area parameter determination unit 276. This method is the same as the method described for the parameter correction unit 267 in FIG.
【0185】次に、パラメータ補正手段277は、DC
係数抽出手段244が出力したDC係数を、参照領域パ
ラメータ決定手段276が出力したDC係数を用いて補
正する。この補正は、DC係数抽出手段244が出力し
たDC係数に、参照領域パラメータ決定手段276が出
力したDC係数を加算することにより行う。パラメータ
補正手段277が補正したDCTパターンの判定結果及
びDC係数は、フィルタ決定手段243に対して出力さ
れる。Next, the parameter correction means 277
The DC coefficient output from the coefficient extracting unit 244 is corrected using the DC coefficient output from the reference area parameter determining unit 276. This correction is performed by adding the DC coefficient output from the reference area parameter determining means 276 to the DC coefficient output from the DC coefficient extracting means 244. The DCT pattern determination result and the DC coefficient corrected by the parameter correction unit 277 are output to the filter determination unit 243.
【0186】フィルタ決定手段243は、パラメータ補
正手段277が出力した判定結果及びDC係数、並びに
動きベクトル抽出手段232が出力した動きベクトルの
大きさを用いて、各ブロックの境界に施すフィルタを決
定する。この決定の方法は、図17のフィルタ決定手段
243について説明した方法と同様である。フィルタ決
定手段243が決定したフィルタの種類は、ブロックノ
イズ除去手段116に対して出力される。The filter determining means 243 determines a filter to be applied to the boundary of each block using the determination result and the DC coefficient output from the parameter correcting means 277 and the magnitude of the motion vector output from the motion vector extracting means 232. . This determination method is the same as the method described for the filter determination means 243 in FIG. The type of filter determined by the filter determining unit 243 is output to the block noise removing unit 116.
【0187】図22は、図20のブロックノイズ検出手
段のさらに他の構成例を示すブロック図である。図22
のブロックノイズ検出手段280は、DCTパターン判
定手段261と、動きベクトル抽出手段232と、フィ
ルタ決定手段253と、DC係数抽出手段244と、量
子化スケール抽出手段255と、参照領域パラメータ決
定手段286と、パラメータ補正手段287とを備えて
いる。DCTパターン判定手段261及びDC係数抽出
手段244には、逆量子化手段111からDCT係数が
入力され、動きベクトル抽出手段232及び参照領域パ
ラメータ決定手段286には、可変長復号化手段110
から動きベクトルが入力されている。また、可変長復号
化手段110から、量子化スケール抽出手段255には
量子化スケールが入力され、DCTパターン判定手段2
61には符号化情報が入力されている。FIG. 22 is a block diagram showing still another example of the configuration of the block noise detecting means of FIG. FIG.
The block noise detecting means 280 includes a DCT pattern determining means 261, a motion vector extracting means 232, a filter determining means 253, a DC coefficient extracting means 244, a quantization scale extracting means 255, a reference area parameter determining means 286, , Parameter correction means 287. The DCT coefficient is input to the DCT pattern determination unit 261 and the DC coefficient extraction unit 244 from the inverse quantization unit 111, and the variable length decoding unit 110 is input to the motion vector extraction unit 232 and the reference area parameter determination unit 286.
Is input. Further, the quantization scale is input from the variable length decoding unit 110 to the quantization scale extraction unit 255, and the DCT pattern determination unit 2
The encoded information is input to 61.
【0188】DCTパターン判定手段261及び動きベ
クトル抽出手段232は、図20で説明したものと同様
であり、DC係数抽出手段244は、図17で説明した
ものと同様であり、量子化スケール抽出手段255は、
図19で説明したものと同様であるので、ここではその
説明を省略する。The DCT pattern determination means 261 and the motion vector extraction means 232 are the same as those described in FIG. 20, and the DC coefficient extraction means 244 is the same as that described in FIG. 255 is
Since this is the same as that described with reference to FIG. 19, the description thereof is omitted here.
【0189】DCTパターン判定手段261、DC係数
抽出手段244及び量子化スケール抽出手段255の出
力は、パラメータ補正手段287に入力される。また、
現在復号化中のフレームが他のフレームの復号化時に参
照されるフレームである場合には、DCTパターン判定
手段261、DC係数抽出手段244及び量子化スケー
ル抽出手段255の出力は、パラメータメモリ手段11
8に対しても出力される。また、動きベクトル抽出手段
232の出力は、フィルタ決定手段253に対して出力
される。The outputs of the DCT pattern determining means 261, the DC coefficient extracting means 244 and the quantization scale extracting means 255 are input to the parameter correcting means 287. Also,
If the frame currently being decoded is a frame that is referred to when decoding another frame, the outputs of the DCT pattern determination unit 261, the DC coefficient extraction unit 244, and the quantization scale extraction unit 255 are stored in the parameter memory unit 11
8 is also output. The output of the motion vector extracting unit 232 is output to the filter determining unit 253.
【0190】参照領域パラメータ決定手段286は、可
変長復号化手段110が出力した動きベクトルを用い
て、パラメータメモリ手段118から参照フレームのD
CTパターンの判定結果、DC係数、及び量子化スケー
ルを取得する。これらを取得する方法、並びに参照領域
のDCTパターンの判定結果及び参照領域のDC係数を
求める方法は、図20の参照領域パラメータ決定手段2
66について説明した方法と同様である。また、参照領
域の量子化スケールを求める方法としては、参照領域の
画素を含むブロックの量子化スケールの平均値を取る方
法、参照領域と重なるブロックの重なっている部分の面
積による重み付け平均値を取る方法、最小値を取る方
法、最大値を取る方法等がある。The reference area parameter determining means 286 uses the motion vector output from the variable length decoding means 110 to read the reference frame D from the parameter memory means 118.
The determination result of the CT pattern, the DC coefficient, and the quantization scale are obtained. The method of obtaining these, the method of determining the DCT pattern determination result of the reference region, and the method of determining the DC coefficient of the reference region are described in reference region parameter determination unit 2 in FIG.
This is the same as the method described with reference to FIG. As a method of obtaining the quantization scale of the reference region, a method of obtaining an average value of the quantization scale of a block including pixels of the reference region, and a method of obtaining a weighted average value by an area of an overlapping portion of a block overlapping the reference region There are a method, a method of taking the minimum value, a method of taking the maximum value, and the like.
【0191】参照領域パラメータ決定手段286は、以
上のようにして求められた参照領域のDCTパターンの
判定結果、DC係数、量子化スケールをパラメータ補正
手段287及びパラメータメモリ手段118に対して出
力する。The reference area parameter determining means 286 outputs the DCT pattern determination result of the reference area, the DC coefficient and the quantization scale obtained as described above to the parameter correcting means 287 and the parameter memory means 118.
【0192】パラメータ補正手段287は、DCTパタ
ーン判定手段261が出力したDCTパターンの判定結
果と、DC係数抽出手段244が出力したDC係数と、
量子化スケール抽出手段255が出力した量子化スケー
ルと、参照領域パラメータ決定手段286が出力した参
照領域のDCTパターン判定結果,DC係数,量子化ス
ケールとを、入力として受け取る。そしてまず、パラメ
ータ補正手段287は、DCTパターン判定手段261
が決定した判定結果を、参照領域パラメータ決定手段2
86が決定した判定結果を用いて補正する。この方法
は、図20のパラメータ補正手段267について説明し
た方法と同様である。The parameter correction means 287 calculates the DCT pattern judgment result output from the DCT pattern judgment means 261 and the DC coefficient output from the DC coefficient extraction means 244,
It receives as input the quantization scale output from the quantization scale extraction unit 255 and the DCT pattern determination result, DC coefficient, and quantization scale of the reference region output from the reference region parameter determination unit 286. First, the parameter correction unit 287 includes the DCT pattern determination unit 261
The determination result determined by the reference area parameter determination means 2
Correction is performed using the determination result determined by 86. This method is the same as the method described for the parameter correction unit 267 in FIG.
【0193】次に、パラメータ補正手段287は、DC
係数抽出手段244が出力したDC係数を、参照領域パ
ラメータ決定手段286が出力したDC係数を用いて補
正する。この補正の方法は、図21のパラメータ補正手
段277について説明した方法と同様である。Next, the parameter correction means 287
The DC coefficient output from the coefficient extracting unit 244 is corrected using the DC coefficient output from the reference area parameter determining unit 286. This correction method is the same as the method described for the parameter correction unit 277 in FIG.
【0194】続いて、パラメータ補正手段287は、量
子化スケール抽出手段255が出力した量子化スケール
を、参照領域パラメータ決定手段286が出力した量子
化スケールを用いて補正する。この補正方法としては、
量子化スケール抽出手段255が出力した量子化スケー
ルと、参照領域パラメータ決定手段286が出力した量
子化スケールとの平均値を求める方法がある。また、こ
れらの2つの量子化スケールのうちの最小値又は最大値
を求める方法がある。また、量子化スケール抽出手段2
55が出力した量子化スケールを補正しないで出力して
もよい。パラメータ補正手段287が補正したDCTパ
ターンの判定結果、DC係数、及び量子化スケールは、
フィルタ決定手段253に対して出力される。Subsequently, the parameter correction means 287 corrects the quantization scale output from the quantization scale extraction means 255 using the quantization scale output from the reference area parameter determination means 286. This correction method includes:
There is a method of calculating an average value of the quantization scale output from the quantization scale extraction unit 255 and the quantization scale output from the reference area parameter determination unit 286. In addition, there is a method of obtaining the minimum value or the maximum value of these two quantization scales. Also, the quantization scale extracting means 2
The quantization scale output by the output 55 may be output without correction. The determination result, DC coefficient, and quantization scale of the DCT pattern corrected by the parameter correction unit 287 are:
It is output to the filter determining means 253.
【0195】フィルタ決定手段253は、パラメータ補
正手段287が出力したDCTパターンの判定結果、D
C係数、及び量子化スケール、並びに動きベクトル抽出
手段232が出力した動きベクトルの大きさを用いて、
各ブロックの境界に施すフィルタを決定する。この決定
の方法は、図19のフィルタ決定手段253について説
明した方法と同様である。フィルタ決定手段253が決
定したフィルタの種類は、ブロックノイズ除去手段11
6に対して出力される。ここで、決定されたフィルタの
種類は、検出されたブロックノイズの大きさに対応して
いるということができる。The filter determining means 253 determines the DCT pattern output from the parameter correcting
Using the C coefficient, the quantization scale, and the magnitude of the motion vector output by the motion vector extraction unit 232,
A filter to be applied to the boundary of each block is determined. This determination method is the same as the method described for the filter determination means 253 in FIG. The type of the filter determined by the filter determining unit 253 is determined by the block noise removing unit 11.
6 is output. Here, it can be said that the determined type of filter corresponds to the magnitude of the detected block noise.
【0196】以上のように、本実施形態の画像復号化装
置では、圧縮符号列から得られる直交変換係数(例えば
DCT係数)の周波数分布により、各ブロックが高周波
数成分を有するか否かを判定する。また、動きベクトル
を用いて参照フレーム中の参照領域を求め、参照領域に
重なるブロックの周波数分布、DC係数、量子化スケー
ルを用いて参照領域の周波数分布、DC係数、量子化ス
ケールを求める。そしてこれらの値を用いて、ビットス
トリームの情報から求めた処理対象ブロックの周波数分
布、DC係数、量子化スケールを補正する。そして、隣
接するブロックでの直交変換係数の周波数分布の判定結
果と、動きベクトルの大きさと、DC係数、量子化スケ
ールとを用いてそのブロック境界に施すフィルタを決定
する。As described above, the image decoding apparatus according to the present embodiment determines whether each block has a high frequency component based on the frequency distribution of orthogonal transform coefficients (for example, DCT coefficients) obtained from a compressed code string. I do. Further, a reference region in the reference frame is obtained using the motion vector, and a frequency distribution, a DC coefficient, and a quantization scale of the reference region are obtained using the frequency distribution, the DC coefficient, and the quantization scale of the block overlapping the reference region. Then, using these values, the frequency distribution, DC coefficient, and quantization scale of the processing target block obtained from the information of the bit stream are corrected. Then, a filter to be applied to the block boundary is determined using the determination result of the frequency distribution of the orthogonal transform coefficient in the adjacent block, the magnitude of the motion vector, the DC coefficient, and the quantization scale.
【0197】ここで、フィルタの決定方法は次のような
ものである。すなわち、直交変換係数分布が高周波数成
分を有するブロックであればフィルタを施さないように
決定する。また、直交変換係数分布が高周波数成分を有
さないブロックであれば、動きベクトルの大きさが大き
いほど、フィルタの強度が強くなるように設定する。ま
た、DC係数を用いた場合には、隣接するブロックでの
DC係数の差の絶対値が所定値よりも大きければフィル
タを施さないように決定する。また、この際の所定値と
して量子化スケールを用いることもできる。そして、以
上のように決定したフィルタを用いて、復号化後の画像
のブロック境界の周辺画素に対してフィルタを施すこと
によりブロックノイズを除去する。Here, the method of determining the filter is as follows. That is, if the orthogonal transform coefficient distribution is a block having a high frequency component, it is determined that no filter is applied. If the orthogonal transform coefficient distribution is a block having no high-frequency component, the filter strength is set to increase as the size of the motion vector increases. When the DC coefficient is used, if the absolute value of the difference between the DC coefficients in the adjacent blocks is larger than a predetermined value, it is determined that no filtering is performed. In addition, a quantization scale can be used as the predetermined value at this time. Then, using the filter determined as described above, block noise is removed by applying a filter to pixels around the block boundary of the decoded image.
【0198】このような動作により、本実施形態の画像
復号化装置によると、隣接するブロックの動きベクトル
の大きさからブロックノイズが発生するブロック境界を
確実に検出することができ、かつ高周波数成分を有する
ブロックにはフィルタを施さないことにより、誤検出を
なくして画質劣化を防ぐことができる。さらに、DC係
数の差の絶対値を検査することによって、誤検出をさら
に防ぐことができ、その際のしきい値として量子化スケ
ールを用いることによって、画質に応じた検査を行うこ
とができる。また、動き補償が行われる場合に、参照フ
レームのDCTパターンの判定結果、DC係数、量子化
スケールも用いてフィルタを決定するため、より高精度
に動き補償後の復号化画像の性質に応じたブロックノイ
ズの検出を行うことができる。そして、動きベクトルの
大きさに応じて強度の異なるフィルタを複数用いること
によって、画像のボケを最小限に抑えながら確実にブロ
ックノイズを除去することができる。With such an operation, according to the image decoding apparatus of the present embodiment, it is possible to reliably detect a block boundary where block noise occurs from the magnitude of a motion vector of an adjacent block, and to detect a high frequency component. By not applying a filter to the block having the above, it is possible to eliminate erroneous detection and prevent image quality deterioration. Further, by inspecting the absolute value of the difference between the DC coefficients, erroneous detection can be further prevented. By using a quantization scale as a threshold at that time, an inspection corresponding to image quality can be performed. In addition, when motion compensation is performed, the filter is determined using the DCT pattern determination result of the reference frame, the DC coefficient, and the quantization scale, so that the characteristics of the decoded image after motion compensation are more accurately determined. Block noise can be detected. Then, by using a plurality of filters having different intensities according to the magnitude of the motion vector, it is possible to reliably remove the block noise while minimizing the blur of the image.
【0199】(第5の実施形態)第5の実施形態では、
インターレース画像が符号化された圧縮符号列から、イ
ントラ符号化されたフレームを復号化する場合におい
て、符号化ノイズとしてブロックノイズを検出し、除去
する画像復号化装置について説明する。(Fifth Embodiment) In the fifth embodiment,
An image decoding device that detects and removes block noise as encoding noise when decoding an intra-coded frame from a compressed code string in which an interlaced image is encoded will be described.
【0200】第5の実施形態に係る画像復号化装置は、
図1の画像復号化装置において、ブロックノイズ検出手
段130の代わりにブロックノイズ検出手段330を用
いたものである。可変長復号化手段110、逆量子化手
段111、逆DCT手段112、スイッチ113,11
4、フレームメモリ115、パラメータメモリ手段11
8、及び加算手段119については、第1の実施形態と
同様であるので、同一の番号を付してその説明を省略す
る。ここで、ブロックノイズ検出手段330は、ノイズ
検出装置として動作する。[0200] The image decoding apparatus according to the fifth embodiment comprises:
In the image decoding apparatus of FIG. 1, a block noise detecting means 330 is used instead of the block noise detecting means 130. Variable length decoding means 110, inverse quantization means 111, inverse DCT means 112, switches 113 and 11
4. Frame memory 115, parameter memory means 11
8 and the addition means 119 are the same as those in the first embodiment, and therefore, are denoted by the same reference numerals and description thereof is omitted. Here, the block noise detection means 330 operates as a noise detection device.
【0201】図23は第5の実施形態に係るブロックノ
イズ検出手段の構成を示すブロック図である。図23の
ブロックノイズ検出手段330は、DCTパターン判定
手段331と、DC係数抽出手段332と、量子化スケ
ール抽出手段333と、フィルタ決定手段334とを備
えている。ブロックノイズ検出手段330には、DCT
係数が逆量子化手段111から入力され、量子化スケー
ル、マクロブロック符号化モード、及びDCTモードが
可変長復号化手段110から入力されている。FIG. 23 is a block diagram showing the configuration of the block noise detecting means according to the fifth embodiment. 23 includes a DCT pattern determination unit 331, a DC coefficient extraction unit 332, a quantization scale extraction unit 333, and a filter determination unit 334. The block noise detection means 330 includes a DCT
The coefficients are input from the inverse quantization means 111, and the quantization scale, macroblock coding mode, and DCT mode are input from the variable length decoding means 110.
【0202】DCTパターン判定手段331は、逆量子
化手段111からDCT係数ブロックを、可変長復号化
手段110からDCTモードを入力として受け取る。D
CTパターン判定手段331では、DCT係数ブロック
の各周波数成分の分布から各DCT係数ブロックを分類
する。DCT係数ブロックの分類は第1の実施形態と同
様の方法により行い、各DCT係数ブロックをDCTク
ラスI1、I2、I3に分類する。The DCT pattern determination means 331 receives the DCT coefficient block from the inverse quantization means 111 and the DCT mode from the variable length decoding means 110 as an input. D
The CT pattern determination unit 331 classifies each DCT coefficient block from the distribution of each frequency component of the DCT coefficient block. The DCT coefficient blocks are classified in the same manner as in the first embodiment, and each DCT coefficient block is classified into DCT classes I1, I2, and I3.
【0203】ここで決定されたDCTクラスは、各ブロ
ックにフィールド単位で割り当てられる。ここでは説明
の簡略化のために輝度信号ブロックのみを用いて説明す
る。The DCT class determined here is assigned to each block on a field basis. Here, for simplification of the description, the description will be made using only the luminance signal block.
【0204】図24はDCTモードがフィールドモード
である場合におけるDCT係数マクロブロックと画素ブ
ロックをフィールド別に表したものとの関係についての
説明図である。図24(a)はDCT係数ブロックを示
す説明図であり、DCT係数ブロック601〜604で
DCT係数マクロブロックを構成しているとする。図2
4(a)のDCT係数マクロブロックは、DCTモード
がフィールドモードであるので、DCT係数ブロック6
01,603が第一フィールドのDCT係数を示し、D
CT係数ブロック602,604が第二フィールドのD
CT係数を示している。したがって、図24(a)のD
CT係数マクロブロックに逆DCTを施した画素マクロ
ブロックの状態は図24(b)のようになる。FIG. 24 is an explanatory diagram showing the relationship between DCT coefficient macroblocks and pixel blocks represented by fields when the DCT mode is the field mode. FIG. 24A is an explanatory diagram showing DCT coefficient blocks, and it is assumed that DCT coefficient blocks 601 to 604 form a DCT coefficient macroblock. FIG.
Since the DCT mode is the field mode, the DCT coefficient macro block of FIG.
01 and 603 indicate DCT coefficients of the first field,
CT coefficient blocks 602 and 604 correspond to the second field D
The CT coefficient is shown. Therefore, D in FIG.
FIG. 24B shows the state of the pixel macroblock obtained by performing the inverse DCT on the CT coefficient macroblock.
【0205】図24(b)は画素マクロブロックをフレ
ーム構造で示す説明図であり、画素ブロック605〜6
08から構成される画素マクロブロックを示している。
例えば、画素ブロック605は、第一フィールドがDC
Tブロック601を逆DCTした画素から構成され、第
二フィールドがDCTブロック602を逆DCTした画
素から構成される。FIG. 24B is an explanatory diagram showing a pixel macro block in a frame structure.
8 shows a pixel macro block composed of a pixel macro block 08.
For example, the pixel block 605 has a first field of DC
The second field is composed of pixels obtained by inverse DCT of the DCT block 602.
【0206】図24(c)は画素ブロック605〜60
8をフィールド別に示す説明図である。以下では、1個
の画素ブロックに含まれる画素のうち、一方のフィール
ドの画素の集まり(8×4画素)を1つの単位とし、フ
ィールドブロックと称する。例えば、フィールドブロッ
ク609,610は、それぞれ画素ブロック605の第
一フィールド,第二フィールドの画素を集めたものであ
る。同様にして、フィールドブロック611,612は
それぞれ画素ブロック606の第一フィールド,第二フ
ィールドの画素から構成される。したがって、DCTブ
ロック601に対して決定されたDCTクラスは、フィ
ールドブロック609、611に対して割り当てられ
る。同様に、DCTブロック602に対して決定された
DCTクラスはフィールドブロック610,612に対
して、DCTブロック603に対して決定されたDCT
クラスはフィールドブロック613,615に対して、
DCTブロック604に対して決定されたDCTクラス
はフィールドブロック614,616に対して割り当て
られる。FIG. 24C shows pixel blocks 605 to 60.
FIG. 8 is an explanatory diagram showing 8 for each field. Hereinafter, among the pixels included in one pixel block, a group of pixels (8 × 4 pixels) in one field is defined as one unit and is referred to as a field block. For example, the field blocks 609 and 610 are obtained by collecting pixels of the first field and the second field of the pixel block 605, respectively. Similarly, the field blocks 611 and 612 are composed of the pixels of the first field and the second field of the pixel block 606, respectively. Therefore, the DCT class determined for the DCT block 601 is assigned to the field blocks 609 and 611. Similarly, the DCT class determined for DCT block 602 is the DCT class determined for DCT block 603 for field blocks 610 and 612.
The class is for the field blocks 613 and 615
The DCT class determined for the DCT block 604 is assigned to the field blocks 614, 616.
【0207】図25はDCTモードがフレームモードで
ある場合におけるDCT係数マクロブロックと画素ブロ
ックをフィールド別に表したものとの関係についての説
明図である。図25(a)はDCT係数ブロックを示す
説明図であり、DCT係数ブロック651〜654でD
CT係数マクロブロックを構成しているとする。図25
(a)のDCT係数マクロブロックは、DCTモードが
フレームモードであるので、図25(a)のDCT係数
マクロブロックに逆DCTを施した画素マクロブロック
の状態は図25(b)のようになる。FIG. 25 is an explanatory diagram showing the relationship between DCT coefficient macroblocks and pixel blocks represented by fields when the DCT mode is the frame mode. FIG. 25A is an explanatory diagram showing DCT coefficient blocks.
It is assumed that a CT coefficient macro block is configured. FIG.
Since the DCT mode of the DCT coefficient macroblock in (a) is the frame mode, the state of the pixel macroblock obtained by applying the inverse DCT to the DCT coefficient macroblock in FIG. 25A is as shown in FIG. .
【0208】図25(b)は画素マクロブロックをフレ
ーム構造で示す説明図であり、画素ブロック655〜6
58から構成される画素マクロブロックを示している。
例えば、画素ブロック655は、DCTブロック651
を逆DCTした画素から構成され、画素ブロック656
は、DCTブロック652を逆DCTした画素から構成
される。FIG. 25B is an explanatory diagram showing a pixel macro block in a frame structure.
The figure shows a pixel macroblock consisting of 58.
For example, the pixel block 655 includes a DCT block 651
Of the pixel block 656
Are composed of pixels obtained by inverse DCT of the DCT block 652.
【0209】図25(c)は画素ブロック655〜65
8をフィールド別に示す説明図である。例えば、フィー
ルドブロック659,660は、それぞれ画素ブロック
655の第一フィールド、第二フィールドの画素を集め
たものである。同様にしてフィールドブロック661,
662は、それぞれ画素ブロック656の第一フィール
ド、第二フィールドの画素から構成される。したがっ
て、DCTブロック651に対して決定されたDCTク
ラスは、フィールドブロック659,660に対して割
り当てられる。同様に、DCTブロック652に対して
決定されたDCTクラスはフィールドブロック661,
662に対して、DCTブロック653に対して決定さ
れたDCTクラスはフィールドブロック663,664
に対して、DCTブロック654に対して決定されたD
CTクラスはフィールドブロック665,666に対し
て割り当てられる。FIG. 25C shows pixel blocks 655 to 65.
FIG. 8 is an explanatory diagram showing 8 for each field. For example, the field blocks 659 and 660 are obtained by collecting pixels of the first field and the second field of the pixel block 655, respectively. Similarly, field blocks 661,
Reference numeral 662 includes pixels of the first field and the second field of the pixel block 656, respectively. Therefore, the DCT class determined for DCT block 651 is assigned to field blocks 659 and 660. Similarly, the DCT class determined for DCT block 652 is the field block 661,
662, the DCT class determined for the DCT block 653 is the field block 663, 664.
, The D determined for the DCT block 654
CT classes are assigned to field blocks 665 and 666.
【0210】DC係数抽出手段332は、DCT係数ブ
ロックとDCTモードとを入力とし、DCT係数からD
C係数のみを抽出し、パラメータメモリ手段118に出
力する。DC係数は、DCTパターン判定手段331と
同様に、フィールドブロック毎に割り当てられる。The DC coefficient extraction means 332 receives the DCT coefficient block and the DCT mode as inputs, and
Only the C coefficient is extracted and output to the parameter memory means 118. The DC coefficient is assigned to each field block, similarly to the DCT pattern determination unit 331.
【0211】量子化スケール抽出手段333は、可変長
復号化手段110が出力した符号化情報から量子化スケ
ールを抽出し、パラメータメモリ手段118に出力す
る。量子化スケールは、DCTパターン判定手段331
と同様に、フィールドブロック毎に割り当てられる。[0211] The quantization scale extracting means 333 extracts the quantization scale from the encoded information output from the variable length decoding means 110, and outputs it to the parameter memory means 118. The quantization scale is determined by the DCT pattern determination unit 331.
In the same manner as in the above, it is assigned for each field block.
【0212】ブロックノイズパラメータ、すなわち、D
CTパターン判定手段331が出力したDCTクラス、
DC係数抽出手段332が出力したDC係数、及び量子
化スケール抽出手段333が出力した量子化スケール
は、フィールドブロック単位でパラメータメモリ手段1
18に対して出力される。パラメータメモリ手段118
は、入力されたブロックノイズパラメータをフィールド
ブロック単位で蓄積する。The block noise parameter, ie, D
DCT class output by the CT pattern determination means 331,
The DC coefficient output from the DC coefficient extraction unit 332 and the quantization scale output from the quantization scale extraction unit 333 are stored in the parameter memory unit 1 in field block units.
18 is output. Parameter memory means 118
Accumulates the input block noise parameter in field block units.
【0213】1フレーム分のフィールドブロックについ
てのブロックノイズパラメータを蓄積すると、フィルタ
決定手段334は、各フィールドブロックの境界に施す
フィルタをブロックノイズパラメータを参照しながら決
定する。その動作を以下で説明する。After accumulating the block noise parameters for the field blocks for one frame, the filter determining means 334 determines a filter to be applied to the boundary of each field block with reference to the block noise parameters. The operation will be described below.
【0214】図26はフィールドブロックの配置につい
ての説明図である。いま、図26(a)のようにブロッ
クが並んでいるとする。図26(a)ではフレーム構造
でのブロックの並びを示しており、1つの正方形が1ブ
ロックを示している。また図26(b),(c)は、そ
れぞれ図26(a)の第一フィールド、第二フィールド
のフィールドブロックの配置を示している。例えば、ブ
ロック551は第一フィールドの画素から構成されるフ
ィールドブロック551aと第二フィールドの画素から
構成されるフィールドブロック551bとに分かれる。FIG. 26 is an explanatory diagram of the arrangement of field blocks. Now, it is assumed that the blocks are arranged as shown in FIG. FIG. 26A shows an arrangement of blocks in a frame structure, and one square indicates one block. FIGS. 26B and 26C show the arrangement of the field blocks of the first field and the second field in FIG. 26A, respectively. For example, the block 551 is divided into a field block 551a composed of pixels of the first field and a field block 551b composed of pixels of the second field.
【0215】境界に施すフィルタはフィールドブロック
単位で決定する。例えば、フィールドブロック551a
については、境界561a、562a、563a、56
4aのフィルタを決定し、フィールドブロック551b
については、境界561b、562b、563b、56
4bのフィルタを決定する。フィルタの決定方法につい
ては第1の実施形態で説明した方法と同様である。例え
ば境界561aのフィルタを決定する場合には、フィー
ルドブロック551a及び552aのブロックノイズパ
ラメータを用いる。フィルタ決定手段334が決定した
フィルタの種類は、ブロックノイズ除去手段116に対
して出力される。ここで、決定されたフィルタの種類
は、検出されたブロックノイズの大きさに対応している
ということができる。The filter to be applied to the boundary is determined on a field block basis. For example, the field block 551a
For the boundaries 561a, 562a, 563a, 56
4a is determined and the field block 551b is determined.
For the boundaries 561b, 562b, 563b, 56
4b is determined. The method for determining the filter is the same as the method described in the first embodiment. For example, when determining the filter of the boundary 561a, the block noise parameters of the field blocks 551a and 552a are used. The type of filter determined by the filter determining unit 334 is output to the block noise removing unit 116. Here, it can be said that the determined type of filter corresponds to the magnitude of the detected block noise.
【0216】ブロックノイズ除去手段116は、ブロッ
クノイズ検出手段330から各ブロックの境界に施すフ
ィルタの種類を受け取る。そしてフレームメモリ115
から出力される画像のブロック境界にフィルタを施す。
水平方向のフィルタ処理については、第1の実施形態と
同様であるのでその説明は省略する。ブロックノイズ除
去手段116が行う垂直方向のフィルタ処理の例につい
て、以下で説明する。[0216] The block noise removing means 116 receives the type of filter to be applied to the boundary of each block from the block noise detecting means 330. And the frame memory 115
Is applied to the block boundaries of the image output from.
The horizontal filtering process is the same as in the first embodiment, and a description thereof will not be repeated. An example of the vertical filtering performed by the block noise removing unit 116 will be described below.
【0217】図27はブロック間の境界に対する垂直方
向のフィルタ処理についての説明図である。図27は、
図26のブロック551及びブロック555の画素を示
しており、1つの正方形が1画素に相当する。いま、ブ
ロック551と555との境界564にフィルタを施す
場合を考える。ブロックノイズ検出手段330によって
境界564に施すフィルタの種類がF1に決定されたと
すると、ブロックノイズ除去手段116は境界564に
はフィルタを施さない。ブロックノイズ検出手段330
によって境界564に施すフィルタの種類がF2に決定
されたとすると、ブロックノイズ除去手段116は境界
564付近の画素にフィルタを施す。FIG. 27 is an explanatory diagram of the filtering process in the vertical direction for the boundary between blocks. FIG.
FIG. 26 shows pixels of blocks 551 and 555 in FIG. 26, and one square corresponds to one pixel. Now, consider a case where a filter is applied to the boundary 564 between the blocks 551 and 555. Assuming that the type of filter to be applied to the boundary 564 is determined to be F1 by the block noise detecting unit 330, the block noise removing unit 116 does not apply a filter to the boundary 564. Block noise detecting means 330
If the type of filter to be applied to the boundary 564 is determined to be F2, the block noise removing unit 116 applies a filter to pixels near the boundary 564.
【0218】例えば、図27(a)において、左から4
番目及び5番目の縦方向のラインの画素を用いて説明す
ると、画素c,d及び画素c’,d’にフィルタを施
す。ここで、第一フィールドの画素(画素c,d)に対
しては第一フィールドの画素のみを用いてフィルタを施
し、第二フィールドの画素(画素c’,d’)に対して
は第二フィールドの画素のみを用いてフィルタを施す。
また、フィルタとしては低域通過フィルタ等を用いるこ
とができる。For example, in FIG.
Explaining using the pixels in the fifth and fifth vertical lines, a filter is applied to the pixels c and d and the pixels c ′ and d ′. Here, the pixels of the first field (pixels c and d) are filtered using only the pixels of the first field, and the pixels of the second field (pixels c ′ and d ′) are filtered. Filtering is performed using only the pixels in the field.
Also, a low-pass filter or the like can be used as the filter.
【0219】このようにフィルタを施すことによって、
図27(b)で示された画素値が図27(c)のように
なり、ブロックノイズが除去される。ここで、図27
(b),(c)では、横軸が画素値を示しており、縦軸
は垂直方向の画素位置を示している。ここでの画素位置
は、図27(a)の画素位置に対応している。By applying a filter in this way,
The pixel values shown in FIG. 27B become as shown in FIG. 27C, and the block noise is removed. Here, FIG.
In (b) and (c), the horizontal axis represents the pixel value, and the vertical axis represents the pixel position in the vertical direction. The pixel positions here correspond to the pixel positions in FIG.
【0220】また、ブロックノイズ検出手段330によ
って境界564に施すフィルタの種類がF3に決定され
たとすると、ブロックノイズ除去手段116は、境界5
64付近において、フィルタの種類がF2である場合よ
りも広い範囲の画素にフィルタを施す。左から4番目及
び5番目の縦方向のラインの画素を用いて説明すると、
例えば第一フィールドの画素に対しては画素b,c,
d,eにフィルタを施し、第二フィールドの画素に対し
ては画素b’,c’,d’,e’にフィルタを施す。フ
ィルタとしてはF2の場合と同様に低域通過フィルタ等
を用いることができる。また、図9のフィルタの周波数
特性例に示すように、フィルタの種類がF3の場合(L
3)の方がF2の場合(L2)よりも遮断周波数が低
く、それだけブロックノイズを除去する能力が大きい。
このようにフィルタを施すことによって、図27(d)
で示された画素値が図27(e)のようになり、ブロッ
クノイズが除去される。If the type of filter to be applied to the boundary 564 is determined to be F3 by the block noise detecting means 330, the block noise removing means 116
In the vicinity of 64, the filter is applied to a wider range of pixels than when the type of filter is F2. The description will be made using the pixels of the fourth and fifth vertical lines from the left.
For example, for pixels in the first field, pixels b, c,
The filter is applied to d and e, and the pixels b ', c', d 'and e' are applied to the pixels in the second field. As the filter, a low-pass filter or the like can be used as in the case of F2. Further, as shown in the frequency characteristic example of the filter in FIG. 9, when the type of the filter is F3 (L
3) has a lower cutoff frequency than the case of F2 (L2), and accordingly has a greater ability to remove block noise.
By applying the filter in this way, FIG.
The pixel value indicated by becomes as shown in FIG. 27E, and the block noise is removed.
【0221】ここで、フィルタとして一次元フィルタを
用いた場合のフィルタのタップ数の決定方法の例を説明
する。一次元フィルタを用いる場合には、境界を挟んで
隣接する2つのフィールドブロックの両方の画素をフィ
ルタ処理に用い、かつ、これらの2つのフィールドブロ
ック以外の画素を用いないようにする。これを図27
(a)を用いて説明する。Here, an example of a method of determining the number of taps of a filter when a one-dimensional filter is used as a filter will be described. When a one-dimensional filter is used, both pixels of two field blocks adjacent to each other with a boundary therebetween are used for the filtering process, and pixels other than these two field blocks are not used. This is shown in FIG.
This will be described with reference to FIG.
【0222】例えばフィルタのタップ長を5とした場
合、画素cに対してフィルタを施すには、画素a,b,
c,d,eを用いて画素cの値を求めることになる。こ
れらの画素はブロック551と555とにまたがってお
り、かつブロック551及び555以外のブロックの画
素は使っていない。しかし、画素aに対してフィルタを
施そうとする場合、ブロック555の画素は用いないの
で、画素aにはタップ長5のフィルタを施すことができ
ない。すなわち、タップ長5のフィルタを用いる場合に
は、画素a〜fのうち、画素b,c,d,eに対してフ
ィルタを施すことができる。同様の考え方により、タッ
プ長7のフィルタを用いる場合には、画素a〜fのう
ち、画素c,dに対してフィルタを施すことができる。For example, assuming that the tap length of the filter is 5, to apply the filter to the pixel c, the pixels a, b,
The value of the pixel c is obtained using c, d, and e. These pixels straddle blocks 551 and 555, and pixels in blocks other than blocks 551 and 555 are not used. However, in the case where a filter is to be applied to the pixel a, since the pixels of the block 555 are not used, a filter having a tap length of 5 cannot be applied to the pixel a. That is, when a filter having a tap length of 5 is used, the filters can be applied to the pixels b, c, d, and e among the pixels a to f. According to the same concept, when a filter having a tap length of 7 is used, a filter can be applied to the pixels c and d among the pixels a to f.
【0223】以上のようにしてブロックノイズ除去手段
116でフィルタリングを施されたフレームは、出力画
像として出力される。[0223] The frame filtered by the block noise removing means 116 as described above is output as an output image.
【0224】以上のように、本実施形態の画像復号化装
置では、圧縮符号列から得られるDCT係数を用いて各
ブロックを複数のDCTクラスに分類する。このDCT
クラスへの分類は、各ブロックをフィールド毎に分けた
フィールドブロックを単位として行う。そして、隣接す
るフィールドブロック間でのDCTクラス、量子化スケ
ール、DC係数を用いてそのフィールドブロック境界に
施すフィルタを決定する。ここで、フィルタの決定の際
には、所定値以上のDCT係数がより低域にのみ分布し
ている場合であるほど、フィルタの強度が強くなるよう
にする。As described above, in the image decoding apparatus according to the present embodiment, each block is classified into a plurality of DCT classes using the DCT coefficients obtained from the compressed code string. This DCT
Classification is performed in units of field blocks obtained by dividing each block into fields. Then, a filter to be applied to the field block boundary is determined using the DCT class, quantization scale, and DC coefficient between adjacent field blocks. Here, when the filter is determined, the strength of the filter is increased as the DCT coefficient equal to or more than the predetermined value is distributed only in the lower band.
【0225】このように、本実施形態の画像復号化装置
によると、DCT係数の分布からブロックノイズが発生
するブロック境界を確実に検出することができ、かつ、
DC係数の差の絶対値を検査することによって、ブロッ
クノイズを誤検出することがなくなる。そして、ブロッ
クノイズの大きさに応じて強度の異なるフィルタを複数
用いることによって、画像のボケを最小限に抑えながら
確実にブロックノイズを除去することができる。また、
フィールドブロックを単位としてブロックノイズの検出
を行うので、インターレース画像に対してはより正確に
ブロックノイズの検出を行うことができる。また、フィ
ールドブロックを単位としてブロックノイズの除去を行
うため、画像に悪影響を与えることなくブロックノイズ
を除去することができる。また、ブロックノイズの除去
にフィルタを用いる場合、境界を挟んで隣接する2つの
フィールドブロックの両方の画素をフィルタリングに用
い、かつ、これらの2つのフィールドブロック以外の画
素を用いないようにすることにより、ブロックノイズの
除去能力を向上させることができる。As described above, according to the image decoding apparatus of this embodiment, it is possible to reliably detect a block boundary where block noise occurs from the distribution of DCT coefficients, and
Inspection of the absolute value of the difference between the DC coefficients prevents erroneous detection of block noise. Then, by using a plurality of filters having different intensities according to the magnitude of the block noise, it is possible to reliably remove the block noise while minimizing blurring of the image. Also,
Since block noise is detected in units of field blocks, block noise can be detected more accurately for interlaced images. In addition, since block noise is removed in units of field blocks, block noise can be removed without affecting the image. When a filter is used to remove block noise, both pixels of two field blocks adjacent to each other across a boundary are used for filtering, and pixels other than these two field blocks are not used. Thus, the ability to remove block noise can be improved.
【0226】なお、本実施形態では、フィルタの種類が
F2である場合にはブロック境界の2画素にフィルタを
施し、フィルタの種類がF3である場合にはブロック境
界の4画素にフィルタを施す場合について説明したが、
フィルタをかける画素の範囲は本実施形態とは異なる範
囲であってもよい。In this embodiment, when the type of filter is F2, the filter is applied to two pixels at the block boundary, and when the type of filter is F3, the filter is applied to four pixels at the block boundary. Was explained,
The range of pixels to be filtered may be a range different from that of the present embodiment.
【0227】また、本実施形態では、フィルタF2を施
す範囲とフィルタF3を施す範囲とが異なる場合につい
て説明したが、これは同じ範囲であっても構わない。In this embodiment, the case where the range in which the filter F2 is applied is different from the range in which the filter F3 is applied is described. However, the range may be the same.
【0228】また、本実施形態では、パラメータメモリ
手段118に1フレーム分のブロックノイズパラメータ
が蓄積された時点でフィルタ決定手段334がフィルタ
を決定する場合について説明したが、これは1フレーム
分蓄積した時点でなくてもよい。Also, in the present embodiment, a case has been described where the filter determining means 334 determines a filter when the block noise parameters for one frame are stored in the parameter memory means 118. It does not have to be at the time.
【0229】(第6の実施形態)第6の実施形態では、
インターレース画像が符号化された圧縮符号列から、非
イントラ符号化されたフレームを復号化する場合におい
て、符号化ノイズとしてブロックノイズを検出し、除去
する画像復号化装置について説明する。(Sixth Embodiment) In the sixth embodiment,
An image decoding device that detects and removes block noise as coding noise when decoding a non-intra-coded frame from a compressed code string in which an interlaced image is coded will be described.
【0230】第6の実施形態に係る画像復号化装置は、
図1の画像復号化装置において、ブロックノイズ検出手
段130の代わりにブロックノイズ検出手段340を用
いたものである。可変長復号化手段110、逆量子化手
段111、逆DCT手段112、スイッチ113,11
4、フレームメモリ115、ブロックノイズ除去手段1
16、パラメータメモリ手段118、及び加算手段11
9については、第1の実施形態と同様であるので、同一
の番号を付してその説明を省略する。ここで、ブロック
ノイズ検出手段340は、ノイズ検出装置として動作す
る。The image decoding apparatus according to the sixth embodiment comprises:
In the image decoding apparatus of FIG. 1, block noise detecting means 340 is used instead of block noise detecting means 130. Variable length decoding means 110, inverse quantization means 111, inverse DCT means 112, switches 113 and 11
4. Frame memory 115, block noise removing means 1
16, parameter memory means 118, and adding means 11
9 is the same as that of the first embodiment, and thus the same reference numeral is assigned and the description is omitted. Here, the block noise detection means 340 operates as a noise detection device.
【0231】図28は第6の実施形態に係るブロックノ
イズ検出手段の構成を示すブロック図である。図28の
ブロックノイズ検出手段340は、DCTパターン判定
手段341と、DC係数抽出手段342と、量子化スケ
ール抽出手段343と、フィルタ決定手段344と、ス
イッチ345と、パラメータ補正手段346と、参照領
域パラメータ決定手段347とを備えている。ブロック
ノイズ検出手段340には、DCT係数が逆量子化手段
111から入力され、量子化スケール、マクロブロック
符号化モード、動きベクトル及びDCTモードが可変長
復号化手段110から入力されている。また、パラメー
タメモリ手段118には、第5の実施の形態で説明した
方法によって得られた、既に復号化されたフレームに対
するブロックノイズパラメータが保持されているとす
る。FIG. 28 is a block diagram showing the configuration of the block noise detecting means according to the sixth embodiment. 28 includes a DCT pattern determination unit 341, a DC coefficient extraction unit 342, a quantization scale extraction unit 343, a filter determination unit 344, a switch 345, a parameter correction unit 346, and a reference area. And a parameter determining unit 347. The DCT coefficient is input to the block noise detection unit 340 from the inverse quantization unit 111, and the quantization scale, the macroblock coding mode, the motion vector, and the DCT mode are input from the variable length decoding unit 110. It is also assumed that the parameter memory unit 118 holds the block noise parameter for the already decoded frame obtained by the method described in the fifth embodiment.
【0232】DCTパターン判定手段341は、DCT
係数ブロック、DCTモード及びマクロブロック符号化
モードを受け取り、DCT係数ブロックの各周波数成分
の分布から各ブロックをDCTクラスのいずれかに分類
し、分類結果をスイッチ345に出力する。The DCT pattern determination means 341
It receives the coefficient block, the DCT mode, and the macroblock coding mode, classifies each block into one of the DCT classes from the distribution of each frequency component of the DCT coefficient block, and outputs the classification result to the switch 345.
【0233】ブロックの分類は、第1及び第2の実施の
形態で説明したように、図4のような周波数分布のDC
Tパターンを用いて行う。DCT係数ブロックの分類
は、イントラ符号化ブロックの場合には第1の実施の形
態と同様の方法により行い、各ブロックをDCTクラス
I1、I2、I3に分類するとする。非イントラ符号化
ブロックの場合には第2の実施の形態と同様の方法によ
り行い、各ブロックをDCTクラスN1、N2、N3に
分類するとする。また、ここで決定されたDCTクラス
は第5の実施の形態で説明した方法と同様の方法によ
り、フィールドブロック毎に割り当てられる。As described in the first and second embodiments, the blocks are classified into DCs having a frequency distribution as shown in FIG.
This is performed using a T pattern. DCT coefficient blocks are classified in the same manner as in the first embodiment in the case of intra-coded blocks, and the blocks are classified into DCT classes I1, I2, and I3. In the case of a non-intra coded block, the same method as in the second embodiment is used, and each block is classified into DCT classes N1, N2, and N3. The DCT class determined here is assigned to each field block by the same method as that described in the fifth embodiment.
【0234】DC係数抽出手段342には、DCT係数
ブロックとDCTモードとが入力される。DC係数抽出
手段342は、DCT係数からDC係数のみを抽出し、
スイッチ345に出力する。DC係数抽出手段342
は、DCTパターン判定手段341と同様に、抽出され
たDC係数をフィールドブロック毎に割り当てる。A DCT coefficient block and a DCT mode are input to the DC coefficient extraction means 342. DC coefficient extracting means 342 extracts only DC coefficients from DCT coefficients,
Output to the switch 345. DC coefficient extracting means 342
Assigns the extracted DC coefficient to each field block, similarly to the DCT pattern determination unit 341.
【0235】量子化スケール抽出手段343は、可変長
復号化手段110が出力した符号化情報から量子化スケ
ールを抽出し、スイッチ345に出力する。量子化スケ
ール抽出手段343は、DCTパターン判定手段341
と同様に、抽出された量子化スケールをフィールドブロ
ック毎に割り当てる。The quantization scale extraction means 343 extracts a quantization scale from the encoded information output from the variable length decoding means 110, and outputs it to the switch 345. The quantization scale extracting unit 343 is a DCT pattern determining unit 341.
Similarly to the above, the extracted quantization scale is assigned to each field block.
【0236】スイッチ345は、可変長復号化手段11
0が出力したマクロブロック符号化モードを用いてスイ
ッチの切替を行う。マクロブロック符号化モードがイン
トラ符号化である場合には、スイッチ345はbに接続
される。この場合の動作は第5の実施の形態と同様であ
る。マクロブロック符号化モードが非イントラ符号化で
ある場合には、スイッチ345はaに接続される。した
がって、ブロックノイズパラメータ(DCTクラス、D
C係数及び量子化スケール)はパラメータ補正手段34
6に入力される。The switch 345 is connected to the variable length decoding unit 11
The switch is switched using the macroblock coding mode output by 0. When the macroblock coding mode is the intra coding, the switch 345 is connected to b. The operation in this case is the same as in the fifth embodiment. When the macroblock coding mode is non-intra coding, the switch 345 is connected to a. Therefore, the block noise parameters (DCT class, D
C coefficient and quantization scale)
6 is input.
【0237】参照領域パラメータ決定手段347は、可
変長復号化手段110が出力した動きベクトルを用いて
参照ブロックのブロックノイズパラメータを参照し、参
照領域のブロックノイズパラメータを求める。参照領域
パラメータ決定手段347の詳細な動作について以下で
説明する。The reference area parameter determining means 347 refers to the block noise parameter of the reference block using the motion vector output from the variable length decoding means 110, and obtains the block noise parameter of the reference area. The detailed operation of the reference area parameter determining means 347 will be described below.
【0238】図29は参照領域のブロックノイズパラメ
ータの取得方法についての説明図である。参照領域パラ
メータ決定手段347は、可変長復号化手段110が出
力した動きベクトルを用いて、パラメータメモリ手段1
18から参照フレームのブロックノイズパラメータを取
得する。参照フレームのブロックノイズパラメータはフ
ィールドブロックを単位として取得する。FIG. 29 is an explanatory diagram of a method of obtaining a block noise parameter of a reference area. The reference area parameter determining unit 347 uses the motion vector output from the variable length
Then, a block noise parameter of the reference frame is obtained from 18. The block noise parameter of the reference frame is obtained on a field block basis.
【0239】図29(a)は現在復号化中のフレームを
示している。ここではブロック701に注目する。ま
た、ブロック701の第一フィールドの画素から構成さ
れるフィールドブロックを701aとする。図29
(b)〜(f)は、それぞれ図29(a)を復号化する
際に参照するフレームであり、ブロック702〜705
は参照フレーム内のブロックを示している。以下では、
フィールドブロック701aに対する参照フレームのブ
ロックノイズパラメータの取得方法について説明する。FIG. 29A shows a frame currently being decoded. Here, attention is paid to block 701. A field block composed of the pixels of the first field of the block 701 is denoted by 701a. FIG.
(B) to (f) are frames referred to when decoding FIG. 29A, respectively, and are blocks 702 to 705.
Indicates a block in the reference frame. Below,
A method of obtaining a block noise parameter of a reference frame for the field block 701a will be described.
【0240】図29(b)は、動きベクトルがフレーム
モードである場合の第1の例を説明する図である。い
ま、ブロック701のフレーム内のアドレスを(x,
y)、動きベクトルを(MVx,MVy)とすると、ブ
ロック701は参照領域706を参照する。ここで参照
領域706の第一フィールドの領域を領域706aとす
ると、フィールドブロック701aが参照する領域は領
域706aとなる。また、参照領域706のアドレスは
(x+MVx,y+MVy)となる。参照領域パラメー
タ決定手段347は、参照領域706のアドレスから領
域706aが重なっているブロックを見つける。図29
(b)では、領域706aは、ブロック702〜705
の第一フィールドに重なっている。そこで、ブロック7
02〜705の第一フィールドの画素から構成されるフ
ィールドブロックのブロックノイズパラメータのうち、
DCTクラスをパラメータメモリ手段118から取得す
る。FIG. 29B is a diagram for explaining a first example when the motion vector is in the frame mode. Now, the address in the frame of the block 701 is set to (x,
y), assuming that the motion vector is (MVx, MVy), the block 701 refers to the reference area 706. Here, assuming that the area of the first field of the reference area 706 is the area 706a, the area referenced by the field block 701a is the area 706a. The address of the reference area 706 is (x + MVx, y + MVy). The reference area parameter determination unit 347 finds a block where the area 706a overlaps from the address of the reference area 706. FIG.
In (b), the area 706a includes blocks 702 to 705.
Overlaps the first field. So block 7
Among the block noise parameters of the field block composed of the pixels of the first field from 02 to 705,
The DCT class is obtained from the parameter memory unit 118.
【0241】図29(c)は、動きベクトルがフレーム
モードである場合の第2の例を説明する図である。ブロ
ック701が参照する領域を参照領域707とする。こ
こで、参照領域707の第一フィールドの領域を領域7
07aとすると、フィールドブロック701aが参照す
る領域は領域707aとなる。参照領域パラメータ決定
手段347は、参照領域707のアドレスから領域70
7aが重なっているブロックを見つける。図29(c)
では、ブロック702〜705の第二フィールドが重な
っている。そこで、ブロック702〜705の第二フィ
ールドの画素から構成されるフィールドブロックのブロ
ックノイズパラメータのうち、DCTクラスをパラメー
タメモリ手段118から取得する。FIG. 29C is a view for explaining a second example in the case where the motion vector is in the frame mode. The area referred to by the block 701 is referred to as a reference area 707. Here, the area of the first field of the reference area 707 is set to the area 7
If 07a is set, the area referred to by the field block 701a is the area 707a. The reference area parameter determining means 347 calculates the area 70 from the address of the reference area 707.
Find the block where 7a overlaps. FIG. 29 (c)
Then, the second fields of the blocks 702 to 705 overlap. Therefore, the DCT class is obtained from the parameter memory unit 118 among the block noise parameters of the field blocks composed of the pixels of the second field of the blocks 702 to 705.
【0242】図29(d)は、動きベクトルがフレーム
モードである場合の第3の例を説明する図である。ブロ
ック701が参照する領域を参照領域708とする。こ
こで、参照領域708の第一フィールドの領域を領域7
08aとすると、フィールドブロック701aが参照す
る領域は領域708aとなる。参照領域パラメータ決定
手段347は、参照領域708のアドレスから領域70
8aが重なっているブロックを見つける。図29(d)
では、垂直方向の動きベクトルが1/2画素単位の大き
さを持っており、参照領域708の第一フィールドと第
二フィールドの画素の平均値が参照する画素値となる。
そこで、参照領域パラメータ決定手段347は、ブロッ
ク702〜705の第一フィールドの画素から構成され
るフィールドブロック及び第二フィールドの画素から構
成されるフィールドブロックのブロックノイズパラメー
タのうち、DCTクラスをパラメータメモリ手段118
から取得する。FIG. 29D is a view for explaining a third example in the case where the motion vector is in the frame mode. The area referred to by the block 701 is referred to as a reference area 708. Here, the area of the first field of the reference area 708 is set to the area 7
If 08a is set, the area referenced by the field block 701a is the area 708a. The reference area parameter determining means 347 calculates the area 70 from the address of the reference area 708.
Find the block where 8a overlaps. FIG. 29 (d)
In the example, the vertical motion vector has a size of a half pixel unit, and the average value of the pixels in the first field and the second field of the reference area 708 is the reference pixel value.
Therefore, the reference area parameter determining unit 347 stores the DCT class in the parameter memory of the block noise parameters of the field blocks composed of the pixels of the first field and the field blocks composed of the pixels of the second field in the blocks 702 to 705. Means 118
To get from.
【0243】図29(e)は、動きベクトルがフィール
ドモードである場合の第1の例を説明する図である。こ
こでは、参照先のフィールドが第一フィールドである場
合について説明する。ブロック701が参照する領域を
参照領域709とする。ここで、参照領域709の第一
フィールドの領域を領域709aとすると、フィールド
ブロック701aが参照する領域は領域709aとな
る。参照領域パラメータ決定手段347は、参照領域7
09のアドレスから領域709aが重なっているブロッ
クを見つける。いま、参照先のフィールドは第一フィー
ルドであるので、参照領域パラメータ決定手段347
は、ブロック702〜705の第一フィールドの画素か
ら構成されるフィールドブロックのブロックノイズパラ
メータのうち、DCTクラスをパラメータメモリ手段1
18から取得する。FIG. 29E is a diagram for explaining a first example in the case where the motion vector is in the field mode. Here, the case where the field of the reference destination is the first field will be described. The area referred to by the block 701 is referred to as a reference area 709. Here, assuming that the area of the first field of the reference area 709 is the area 709a, the area referenced by the field block 701a is the area 709a. The reference area parameter determination unit 347 determines whether the reference area 7
From the address 09, a block where the area 709a overlaps is found. Since the reference destination field is the first field, the reference area parameter determining means 347
Stores the DCT class among the block noise parameters of the field blocks composed of the pixels of the first field of the blocks 702 to 705 in the parameter memory means 1.
Obtained from 18.
【0244】図29(f)は、動きベクトルがフィール
ドモードである場合の第2の例を説明する図である。こ
こでは、参照先のフィールドが第二フィールドである場
合について説明する。ブロック701が参照する領域を
参照領域710とする。ここで、参照領域710の第一
フィールドの領域を領域710aとすると、フィールド
ブロック701aが参照する領域は領域710aとな
る。参照領域パラメータ決定手段347は、参照領域7
10のアドレスから領域710aが重なっているブロッ
クを見つける。いま、参照先のフィールドは第二フィー
ルドであるので、参照領域パラメータ決定手段347
は、ブロック702〜705の第二フィールドの画素か
ら構成されるフィールドブロックのブロックノイズパラ
メータのうち、DCTクラスをパラメータメモリ手段1
18から取得する。FIG. 29F is a diagram for explaining a second example in the case where the motion vector is in the field mode. Here, a case where the reference destination field is the second field will be described. The area referred to by the block 701 is referred to as a reference area 710. Here, assuming that the area of the first field of the reference area 710 is the area 710a, the area referenced by the field block 701a is the area 710a. The reference area parameter determination unit 347 determines whether the reference area 7
From the ten addresses, a block where the area 710a overlaps is found. Since the reference destination field is the second field, the reference area parameter determining means 347
Stores the DCT class among the block noise parameters of the field blocks composed of the pixels of the second field of the blocks 702 to 705 in the parameter memory means 1.
Obtained from 18.
【0245】以上のように、パラメータメモリ手段11
8から取得したDCTクラスを用いて参照領域のDCT
クラスを求める方法は、第2の実施形態で説明した方法
と同様であるので、その説明は省略する。As described above, the parameter memory means 11
8 using the DCT class obtained from
The method for obtaining the class is the same as the method described in the second embodiment, and a description thereof will not be repeated.
【0246】参照領域パラメータ決定手段347は、以
上のようにフィールドブロック単位で求められた参照領
域のDCTクラスを、パラメータ補正手段346に対し
て出力する。The reference area parameter determining means 347 outputs the DCT class of the reference area obtained for each field block as described above to the parameter correcting means 346.
【0247】パラメータ補正手段346は、スイッチ3
45を介して、DCTパターン判定手段341、DC係
数抽出手段342、及び量子化スケール抽出手段343
が出力したブロックノイズパラメータ、並びに参照領域
パラメータ決定手段347が出力した参照領域のDCT
クラスを入力として受け取る。そしてまずDCTパター
ン判定手段341が決定したフィールドブロック単位の
DCTクラスを、参照領域パラメータ決定手段347が
決定したDCTクラスを用いて補正する。この補正方法
は第2の実施形態で説明したものと同様であるので、そ
の説明は省略する。ただし、DCTクラスはフィールド
ブロック単位で補正する。The parameter correction means 346 is
45, a DCT pattern determination unit 341, a DC coefficient extraction unit 342, and a quantization scale extraction unit 343
And the DCT of the reference area output by the reference area parameter determination means 347.
Take a class as input. Then, first, the DCT class for each field block determined by the DCT pattern determination unit 341 is corrected using the DCT class determined by the reference area parameter determination unit 347. This correction method is the same as that described in the second embodiment, and a description thereof will not be repeated. However, the DCT class is corrected on a field block basis.
【0248】パラメータ補正手段346は、以上のよう
にして決定したDCTクラスと、DC係数抽出手段34
2が出力したDC係数と、量子化スケール抽出手段34
3が出力した量子化スケールとを、ブロックノイズパラ
メータとしてパラメータメモリ手段118に対して出力
する。パラメータメモリ手段118は、入力されたブロ
ックノイズパラメータをフィールドブロック単位で蓄積
する。The parameter correcting means 346 determines the DCT class determined as described above and the DC coefficient extracting means 34.
2 and the quantized scale extracting means 34
3 is output to the parameter memory means 118 as a block noise parameter. The parameter memory means 118 stores the input block noise parameters in field block units.
【0249】1フレーム分のブロックについてのブロッ
クノイズパラメータを蓄積すると、フィルタ決定手段3
44は、各フィールドブロックの境界に施すフィルタを
ブロックノイズパラメータを参照しながら決定する。こ
のときの動作は、第5の実施形態におけるフィルタ決定
手段334の動作と同様である。ここで、決定されたフ
ィルタの種類は、検出されたブロックノイズの大きさに
対応しているということができる。When the block noise parameters for the block for one frame are accumulated, the filter decision means 3
Reference numeral 44 determines a filter to be applied to the boundary of each field block with reference to the block noise parameter. The operation at this time is the same as the operation of the filter determining unit 334 in the fifth embodiment. Here, it can be said that the determined type of filter corresponds to the magnitude of the detected block noise.
【0250】ブロックノイズ除去手段116は、ブロッ
クノイズ検出手段340から各フィールドブロックの境
界に施すフィルタの種類を受け取る。そしてフレームメ
モリ115から出力される画像のフィールドブロック境
界にフィルタを施す。ブロックノイズ除去手段116の
動作は第5の実施形態で説明したものと同様であるの
で、その説明は省略する。本実施形態においても、ブロ
ックノイズ除去手段116でフィルタを用いる場合に
は、第5の実施形態で説明したフィルタのタップ長の決
定方法を適用することができる。The block noise removing means 116 receives the type of filter applied to the boundary of each field block from the block noise detecting means 340. Then, a filter is applied to the field block boundary of the image output from the frame memory 115. The operation of the block noise removing means 116 is the same as that described in the fifth embodiment, and a description thereof will be omitted. Also in the present embodiment, when a filter is used in the block noise removing unit 116, the method for determining the tap length of the filter described in the fifth embodiment can be applied.
【0251】以上のように、本実施形態の画像復号化装
置は、圧縮符号列から得られるDCT係数を用いて各ブ
ロックを複数のDCTクラスに分類する。このDCTク
ラスへの分類は、各ブロックをフィールド毎に分けたフ
ィールドブロックを単位として行う。また、非イントラ
符号化ブロックの場合には、動きベクトルを用いて参照
フレーム中の参照領域を求める。その後、参照領域に重
なるブロックのDCTクラス、DC係数、量子化スケー
ルを用いて参照領域のDCTクラス、DC係数、量子化
スケールを求め、ビットストリームから得られる情報を
用いて求めた処理対象ブロックのDCTクラス、DC係
数、量子化スケールを補正する。そして、隣接するブロ
ックでのDCTクラス、量子化スケール、DC係数を用
いてそのブロック境界に施すフィルタを決定する。ここ
で、フィルタの決定の際には、所定値以上のDCT係数
がより低域にのみ分布している場合であるほど、フィル
タの強度が強くなるようにする。As described above, the image decoding apparatus according to the present embodiment classifies each block into a plurality of DCT classes using the DCT coefficients obtained from the compressed code string. The classification into the DCT class is performed in units of field blocks obtained by dividing each block into fields. In the case of a non-intra coded block, a reference area in a reference frame is obtained using a motion vector. Thereafter, the DCT class, DC coefficient, and quantization scale of the reference area are obtained using the DCT class, DC coefficient, and quantization scale of the block overlapping the reference area, and the processing target block obtained using information obtained from the bit stream is obtained. Correct DCT class, DC coefficient and quantization scale. Then, a filter to be applied to the block boundary is determined using the DCT class, quantization scale, and DC coefficient of the adjacent block. Here, when the filter is determined, the strength of the filter is increased as the DCT coefficient equal to or more than the predetermined value is distributed only in the lower band.
【0252】このような動作により、本実施形態の画像
復号化装置によると、DCT係数の分布からブロックノ
イズが発生するブロック境界を確実に検出することがで
きる。この際には、非イントラ符号化ブロックに対して
はイントラ符号化ブロックとは異なるDCTパターンを
用いることによって、非イントラ符号化の特性に合った
分類を行うことができる。また、DC係数の差の絶対値
を検査することによって、ブロックノイズを誤検出する
ことがなくなる。また、非イントラ符号化ブロックで
は、参照フレームのブロックノイズパラメータを用いて
ブロックノイズパラメータを決定するため、より高精度
にブロックノイズを検出することができる。そして、ブ
ロックノイズの大きさに応じて強度の異なるフィルタを
複数用いることによって、画像のボケを最小限に抑えな
がら確実にブロックノイズを除去することができる。ま
たフィールドブロックを単位としてブロックノイズの検
出を行うので、インターレース画像に対してはより正確
にブロックノイズの検出を行うことができる。またフィ
ールドブロックを単位としてブロックノイズの除去を行
うため、画像に悪影響を与えることなくブロックノイズ
を除去することができる。According to such an operation, the image decoding apparatus of the present embodiment can reliably detect a block boundary where block noise occurs from the distribution of DCT coefficients. In this case, by using a DCT pattern different from the intra-coded block for the non-intra-coded block, classification suitable for the characteristics of the non-intra-coded can be performed. Further, by inspecting the absolute value of the difference between the DC coefficients, erroneous detection of block noise does not occur. Further, in a non-intra coded block, the block noise parameter is determined using the block noise parameter of the reference frame, so that the block noise can be detected with higher accuracy. Then, by using a plurality of filters having different intensities according to the magnitude of the block noise, it is possible to reliably remove the block noise while minimizing blurring of the image. In addition, since block noise is detected in units of field blocks, block noise can be detected more accurately for interlaced images. In addition, since block noise is removed in units of field blocks, block noise can be removed without affecting the image.
【0253】なお、本実施形態では、パラメータメモリ
手段118に1フレーム分のブロックノイズパラメータ
が蓄積された時点でフィルタ決定手段344がフィルタ
を決定する場合について説明したが、これは1フレーム
分蓄積した時点でなくてもよい。In the present embodiment, a case has been described where the filter determining means 344 determines a filter when the block noise parameters for one frame are stored in the parameter memory means 118. It does not have to be at the time.
【0254】(第7の実施形態)第7の実施形態では、
符号化ノイズとしてモスキートノイズを検出し、除去す
る画像復号化装置について説明する。(Seventh Embodiment) In the seventh embodiment,
An image decoding device that detects and removes mosquito noise as encoding noise will be described.
【0255】図30は第7の実施形態に係る画像復号化
装置のブロック図である。図30の画像復号化装置は、
可変長復号化手段110と、逆量子化手段111と、逆
DCT手段112と、スイッチ113,114と、フレ
ームメモリ115と、モスキートノイズ除去手段126
と、モスキートノイズ検出手段430と、パラメータメ
モリ手段118と、加算手段119とを備えている。可
変長復号化手段110、逆量子化手段111、逆DCT
手段112、スイッチ113,114、フレームメモリ
115、パラメータメモリ手段118、及び加算手段1
19については、第1の実施形態と同様であるので、同
一の番号を付してその説明を省略する。ここで、モスキ
ートノイズ検出手段430は、ノイズ検出装置として動
作する。FIG. 30 is a block diagram of an image decoding apparatus according to the seventh embodiment. The image decoding device in FIG.
Variable length decoding means 110, inverse quantization means 111, inverse DCT means 112, switches 113 and 114, frame memory 115, mosquito noise removal means 126
Mosquito noise detecting means 430, parameter memory means 118, and adding means 119. Variable length decoding means 110, inverse quantization means 111, inverse DCT
Means 112, switches 113 and 114, frame memory 115, parameter memory means 118, and addition means 1
19 is the same as that of the first embodiment, and thus the same reference numeral is assigned and the description is omitted. Here, the mosquito noise detection means 430 operates as a noise detection device.
【0256】図31はモスキートノイズ検出手段430
の構成を示すブロック図である。図31のモスキートノ
イズ検出手段430は、DCTパターン判定手段431
と、量子化スケール抽出手段433と、フィルタ決定手
段434と、スイッチ435と、パラメータ補正手段4
36と、参照領域パラメータ決定手段437とを備えて
いる。ブロックノイズ検出手段430には、DCT係数
が逆量子化手段111から入力され、量子化スケール、
マクロブロック符号化モード、及び動きベクトルが可変
長復号化手段110から入力されている。FIG. 31 shows the mosquito noise detecting means 430.
FIG. 3 is a block diagram showing the configuration of FIG. The mosquito noise detection means 430 of FIG.
Quantization scale extraction means 433, filter determination means 434, switch 435, parameter correction means 4
36 and a reference area parameter determining means 437. The DCT coefficient is input to the block noise detection unit 430 from the inverse quantization unit 111, and the quantization scale,
The macroblock coding mode and the motion vector are input from the variable length decoding unit 110.
【0257】まず、入力ブロックがイントラ符号化ブロ
ックである場合の動作について説明する。First, the operation when the input block is an intra-coded block will be described.
【0258】DCTパターン判定手段431は、逆量子
化手段111からDCT係数ブロックを受け取る。DC
Tパターン判定手段431は、DCT係数ブロックの各
周波数成分の分布から、各ブロックをm個(mは自然
数)のクラス{M1,M2,…,Mm}のいずれかに分
類する。ここでは、クラスM1はモスキートノイズが最
も発生しにくいクラス、クラスMmはモスキートノイズ
が最も発生しやすいクラスであるとする。The DCT pattern determination means 431 receives the DCT coefficient block from the inverse quantization means 111. DC
The T pattern determination unit 431 classifies each block into one of m (m is a natural number) classes {M1, M2,..., Mm} from the distribution of each frequency component of the DCT coefficient block. Here, it is assumed that class M1 is a class in which mosquito noise is least likely to occur, and class Mm is a class in which mosquito noise is most likely to occur.
【0259】図32はブロックの分類に用いるDCTパ
ターンの説明図である。図32(a)〜(d)はそれぞ
れ8×8のDCT係数ブロックのパターンを示したもの
で、1つの正方形が1係数に対応する。左上の係数がD
C係数を示し、右のものほど高い水平周波数の成分、下
のものほど高い垂直周波数の成分を示している。FIG. 32 is an explanatory diagram of a DCT pattern used for classifying blocks. FIGS. 32A to 32D respectively show patterns of 8 × 8 DCT coefficient blocks, and one square corresponds to one coefficient. The upper left coefficient is D
The C coefficient is shown, and the right one shows a high horizontal frequency component, and the lower one shows a high vertical frequency component.
【0260】DCTパターン判定手段431は、第1の
実施形態で説明したDCTパターン判定手段131と同
様に、入力されたDCT係数ブロックがDCTパターン
を満たすか否かを判定する。The DCT pattern determining means 431 determines whether or not the input DCT coefficient block satisfies the DCT pattern, similarly to the DCT pattern determining means 131 described in the first embodiment.
【0261】DCTパターン判定手段431は、入力さ
れたブロックが、マクロブロック符号化モードから判断
してイントラ符号化ブロックであれば、図32(a)の
DCTパターンPTN11及び図32(b)のDCTパ
ターンPTN12を用いる。ここで、モスキートノイズ
はより高域のDCT係数を有する場合に発生しやすいの
で、DCTパターンPTN12を満たすブロックの方
が、DCTパターンPTN11を満たすブロックよりも
モスキートノイズを発生しやすいと言うことができる。If the input block is an intra-coded block determined from the macroblock coding mode, the DCT pattern determination means 431 determines whether the input block is a DCT pattern PTN11 in FIG. 32 (a) or a DCT pattern in FIG. The pattern PTN12 is used. Here, since mosquito noise is likely to occur when the DCT coefficient has a higher frequency band, it can be said that a block satisfying the DCT pattern PTN12 is more likely to generate mosquito noise than a block satisfying the DCT pattern PTN11. .
【0262】図33はブロックを分類する処理の流れを
示すフローチャートである。図33は、DCTパターン
PTN11、DCTパターンPTN12を用いて各ブロ
ックを3つのクラス{M1,M2,M3}のいずれかに
分類する場合を示している。図33に示すように、入力
DCT係数ブロックはまずステップS71においてDC
TパターンPTN11と比較される。入力DCT係数ブ
ロックがDCTパターンPTN11を満たしていなけれ
ば、すなわち、図32(a)の斜線部分の係数の絶対値
がすべて所定値以下であれば、そのブロックをDCTク
ラスM1に分類する(ステップS73)。入力DCT係
数ブロックがDCTパターンPTN11を満たしていれ
ば、次にステップS72において、DCT係数ブロック
とDCTパターンPTN12との比較を行う。入力DC
T係数ブロックがDCTパターンPTN12を満たして
いなければそのブロックをDCTクラスM2に分類する
(ステップS74)。入力DCT係数ブロックがDCT
パターンPTN12を満たしていれば、そのブロックを
DCTクラスM3に分類する(ステップS75)。以上
のようにして、DCTパターン判定手段431では、各
ブロックをクラスM1,M2,M3のいずれかに分類
し、その分類結果を出力する。FIG. 33 is a flowchart showing the flow of processing for classifying blocks. FIG. 33 shows a case where each block is classified into one of three classes {M1, M2, M3} using the DCT patterns PTN11 and PTN12. As shown in FIG. 33, the input DCT coefficient block first receives the DC
This is compared with the T pattern PTN11. If the input DCT coefficient block does not satisfy the DCT pattern PTN11, that is, if all the absolute values of the coefficients in the hatched portions in FIG. 32A are equal to or smaller than a predetermined value, the block is classified into the DCT class M1 (step S73). ). If the input DCT coefficient block satisfies the DCT pattern PTN11, then in step S72, the DCT coefficient block is compared with the DCT pattern PTN12. Input DC
If the T coefficient block does not satisfy the DCT pattern PTN12, the block is classified into the DCT class M2 (step S74). Input DCT coefficient block is DCT
If the pattern PTN12 is satisfied, the block is classified into the DCT class M3 (step S75). As described above, the DCT pattern determination unit 431 classifies each block into one of the classes M1, M2, and M3, and outputs the classification result.
【0263】量子化スケール抽出手段433では、可変
長復号化手段110が出力した符号化情報から量子化ス
ケールを抽出し、出力する。The quantization scale extracting means 433 extracts a quantization scale from the encoded information output from the variable length decoding means 110 and outputs it.
【0264】ここでは、DCTパターン判定手段431
が出力したDCTクラス、及び量子化スケール抽出手段
433が出力した量子化スケールを、まとめてノイズパ
ラメータと呼ぶことにする。マクロブロック符号化モー
ドがイントラ符号化である場合には、スイッチ435は
bに接続される。したがって、ノイズパラメータはパラ
メータメモリ手段118に対して出力される。パラメー
タメモリ手段118は、入力されたノイズパラメータを
蓄積する。Here, the DCT pattern determining means 431
And the quantization scale output by the quantization scale extraction unit 433 are collectively referred to as noise parameters. When the macroblock coding mode is the intra coding, the switch 435 is connected to b. Therefore, the noise parameter is output to the parameter memory means 118. The parameter memory means 118 stores the input noise parameters.
【0265】上記のような動作を各マクロブロック毎に
行うことにより、各ブロックに対するノイズパラメータ
がパラメータメモリ手段118に蓄積されることにな
る。By performing the above operation for each macro block, noise parameters for each block are stored in the parameter memory means 118.
【0266】次に、入力ブロックが非イントラ符号化ブ
ロックである場合の動作について説明する。ここで、パ
ラメータメモリ手段118には、本実施形態において説
明した方法によって得られた、既に復号化された参照フ
レームに対するノイズパラメータが保持されているとす
る。Next, the operation when the input block is a non-intra coded block will be described. Here, it is assumed that the parameter memory unit 118 holds the noise parameter for the already decoded reference frame obtained by the method described in the present embodiment.
【0267】DCTパターン判定手段431は、逆量子
化手段111からDCT係数ブロックを受け取る。DC
Tパターン判定手段431では、DCT係数ブロックの
各周波数成分の分布から各ブロックを分類する。The DCT pattern determination means 431 receives the DCT coefficient block from the inverse quantization means 111. DC
The T pattern determination unit 431 classifies each block from the distribution of each frequency component of the DCT coefficient block.
【0268】DCTパターン判定手段431は、マクロ
ブロック符号化モードから判断して、入力されたブロッ
クが非イントラ符号化ブロックであれば、図32(c)
のDCTパターンPTN13及び図32(d)のDCT
パターンPTN14を用いる。The DCT pattern determination means 431 determines from the macroblock coding mode that the input block is a non-intra coded block, and
DCT pattern PTN13 and the DCT pattern in FIG.
The pattern PTN14 is used.
【0269】図34は非イントラ符号化されたブロック
を分類する処理の流れを示すフローチャートである。図
34は、DCTパターンPTN13、DCTパターンP
TN14を用いて各ブロックを3つのクラス{M1,M
2,M3}のいずれかに分類する場合を示している。図
34に示すように、入力DCTブロックは、まずステッ
プS81においてDCTパターンPTN13と比較され
る。入力DCTブロックがDCTパターンPTN13を
満たしていなければそのブロックをDCTクラスM1に
分類する(ステップS83)。入力DCTブロックがD
CTパターンPTN13を満たしていれば、次に、ステ
ップS82においてDCTパターンPTN14との比較
を行う。入力DCTブロックがDCTパターンPTN1
4を満たしていなければそのブロックをDCTクラスM
2に分類する(ステップS84)。入力DCTブロック
がDCTパターンPTN14を満たしていれば、そのブ
ロックをDCTクラスM3に分類する(ステップS8
5)。以上のようにして、DCTパターン判定手段43
1は、各ブロックをDCTクラスM1,M2,M3のい
ずれかに分類し、その分類結果を出力する。FIG. 34 is a flowchart showing the flow of processing for classifying non-intra-coded blocks. FIG. 34 shows DCT pattern PTN13 and DCT pattern P
Each block is divided into three classes {M1, M
2, M3}. As shown in FIG. 34, the input DCT block is first compared with the DCT pattern PTN13 in step S81. If the input DCT block does not satisfy the DCT pattern PTN13, the block is classified into the DCT class M1 (step S83). Input DCT block is D
If the CT pattern PTN13 is satisfied, next, in step S82, the comparison with the DCT pattern PTN14 is performed. Input DCT block is DCT pattern PTN1
If the block does not satisfy 4, the block is classified as DCT class M
2 (step S84). If the input DCT block satisfies the DCT pattern PTN14, the block is classified into the DCT class M3 (step S8).
5). As described above, the DCT pattern determining means 43
1 classifies each block into one of the DCT classes M1, M2, M3, and outputs the classification result.
【0270】量子化スケール抽出手段433は、可変長
復号化手段110が出力した符号化情報から量子化スケ
ールを抽出し、出力する。[0270] The quantization scale extracting means 433 extracts the quantization scale from the encoded information output from the variable length decoding means 110, and outputs it.
【0271】DCTパターン判定手段431が出力した
DCTクラスと、量子化スケール抽出手段433が出力
した量子化スケールとは、スイッチ435に対して出力
される。The DCT class output from the DCT pattern determination means 431 and the quantization scale output from the quantization scale extraction means 433 are output to the switch 435.
【0272】スイッチ435は、可変長復号化手段11
0が出力したマクロブロック符号化モードが非イントラ
符号化である場合には、スイッチをaに接続する。した
がって、ノイズパラメータはパラメータ補正手段436
に入力される。The switch 435 is connected to the variable length decoding means 11
If the macroblock coding mode output as 0 is non-intra coding, the switch is connected to a. Therefore, the noise parameter is determined by the parameter correction means 436.
Is input to
【0273】参照領域パラメータ決定手段437は、可
変長復号化手段110が出力した動きベクトルを用い
て、ノイズ除去を行う処理対象ブロックの参照領域を求
め、この参照領域と重なった参照ブロックのノイズパラ
メータを参照し、参照領域のノイズパラメータを決定す
る。The reference area parameter determination means 437 obtains a reference area of a processing target block from which noise is to be removed using the motion vector output from the variable length decoding means 110, and obtains a noise parameter of a reference block overlapping the reference area. To determine the noise parameter of the reference area.
【0274】参照領域パラメータ決定手段437は、参
照ブロックのノイズパラメータを取得するが、これにつ
いては、図12を用いて説明したように、参照領域パラ
メータ決定手段147による参照ブロック522〜52
5のブロックノイズパラメータの取得と同様なので、そ
の説明を省略する。The reference area parameter determining means 437 obtains the noise parameter of the reference block. This is done by referring to the reference blocks 522 to 52 by the reference area parameter determining means 147 as described with reference to FIG.
5, the description is omitted.
【0275】参照領域パラメータ決定手段437が取得
したノイズパラメータから、参照領域のノイズパラメー
タを求める方法について説明する。A method for obtaining the noise parameter of the reference area from the noise parameter obtained by the reference area parameter determining means 437 will be described.
【0276】まず、参照領域のノイズパラメータのう
ち、DCTクラス(M1〜M3)を求める方法について
は、第2の実施形態において説明したように、参照領域
526のDCTクラス(I1〜I3)を求める方法と同
様なので、その説明を省略する。First, as for the method of obtaining the DCT classes (M1 to M3) from the noise parameters of the reference area, as described in the second embodiment, the DCT classes (I1 to I3) of the reference area 526 are obtained. Since this is the same as the method, its description is omitted.
【0277】次に、参照領域のノイズパラメータのう
ち、量子化スケールを求める方法について、図12を参
照して説明する。Next, a method of obtaining the quantization scale from the noise parameters of the reference area will be described with reference to FIG.
【0278】参照領域526の量子化スケールを求める
方法としては、参照ブロック522〜525の量子化ス
ケールを参照領域526と各参照ブロックとが重なって
いる部分の画素数で重み付け平均して得られる値を、参
照領域526の量子化スケールとする方法がある。As a method of obtaining the quantization scale of the reference area 526, a value obtained by weighting and averaging the quantization scales of the reference blocks 522 to 525 with the number of pixels of the portion where the reference area 526 and each reference block overlap is obtained. Is the quantization scale of the reference area 526.
【0279】また、参照領域526の量子化スケールを
求める他の方法としては、参照ブロック522〜525
の量子化スケールの最小値又は最大値を求める方法があ
る。As another method for obtaining the quantization scale of the reference area 526, reference blocks 522 to 525 are used.
There is a method of calculating the minimum value or the maximum value of the quantization scale of
【0280】また、参照領域526の量子化スケールを
求めるさらに他の方法としては、DCTクラスが所定の
クラスである参照ブロックにおける、量子化スケールの
最小値、最大値、又は平均値を求める方法がある。例え
ば、DCTクラスがM2又はM3である参照ブロックの
量子化スケールに基づいて、参照領域526の量子化ス
ケールを求めることができる。As still another method for obtaining the quantization scale of the reference area 526, there is a method for obtaining the minimum value, the maximum value, or the average value of the quantization scale in the reference block whose DCT class is a predetermined class. is there. For example, the quantization scale of the reference area 526 can be obtained based on the quantization scale of the reference block whose DCT class is M2 or M3.
【0281】参照領域パラメータ決定手段437は、以
上のようにして求められた参照領域のノイズパラメータ
をパラメータ補正手段436に対して出力する。The reference area parameter determination means 437 outputs the noise parameter of the reference area obtained as described above to the parameter correction means 436.
【0282】パラメータ補正手段436では、スイッチ
435を介してDCTパターン判定手段431及び量子
化スケール抽出手段433が出力したノイズパラメータ
と、参照領域パラメータ決定手段437が出力した参照
領域のノイズパラメータとを、入力として受け取る。そ
してまず、DCTパターン判定手段431が決定したD
CTクラスを、参照領域パラメータ決定手段437が決
定したDCTクラスを用いて補正する。この補正方法の
例を表4に示す。The parameter correction means 436 compares the noise parameter output by the DCT pattern determination means 431 and the quantization scale extraction means 433 via the switch 435 with the noise parameter of the reference area output by the reference area parameter determination means 437. Take as input. First, the DT determined by the DCT pattern determination means 431
The CT class is corrected using the DCT class determined by the reference area parameter determining unit 437. Table 4 shows an example of this correction method.
【0283】[0283]
【表4】 [Table 4]
【0284】表4に示す補正方法では、DCTパターン
判定手段431が決定したDCTクラスと参照領域パラ
メータ決定手段437が決定したDCTクラスとのう
ち、モスキートノイズが発生しやすい方を選択すること
を示している。The correction method shown in Table 4 indicates that, of the DCT class determined by the DCT pattern determination means 431 and the DCT class determined by the reference area parameter determination means 437, the one which is more likely to generate mosquito noise is selected. ing.
【0285】また、別の補正方法の例を表5に示す。Table 5 shows an example of another correction method.
【0286】[0286]
【表5】 [Table 5]
【0287】表5に示す補正方法では、DCTパターン
判定手段431が決定したDCTクラスと、参照領域パ
ラメータ決定手段437が決定したDCTクラスとを、
平均したDCTクラスを選択することを示している。In the correction method shown in Table 5, the DCT class determined by the DCT pattern determining means 431 and the DCT class determined by the reference area parameter determining means 437 are
This shows that the averaged DCT class is selected.
【0288】次に、量子化スケール抽出手段433が抽
出した量子化スケールを、参照領域パラメータ決定手段
437が決定した量子化スケールを用いて補正する。こ
の補正方法の例としては、量子化スケール抽出手段43
3が抽出した量子化スケールと参照領域パラメータ決定
手段437が決定した量子化スケールとのうち、小さい
方の値を選択する方法がある。また、両者の平均値や最
大値を求めてもよい。Next, the quantization scale extracted by the quantization scale extraction means 433 is corrected using the quantization scale determined by the reference area parameter determination means 437. As an example of this correction method, the quantization scale extraction means 43
There is a method of selecting the smaller value of the quantization scale extracted by the third area 3 and the quantization scale determined by the reference area parameter determining means 437. Further, an average value or a maximum value of the two may be obtained.
【0289】また、量子化スケールを補正する別の方法
としては、参照領域のDCTクラスによって、補正する
かしないかを決定する方法もある。例えば、参照領域の
DCTクラスがM1である場合には、補正は行わずに量
子化スケール抽出手段433が抽出した量子化スケール
をそのまま出力し、参照領域のDCTクラスがM2、M
3である場合には、上記の方法で量子化スケールの補正
を行い、補正後の値を出力する。As another method of correcting the quantization scale, there is a method of determining whether or not to correct the quantization scale according to the DCT class of the reference area. For example, when the DCT class of the reference area is M1, the quantization scale extracted by the quantization scale extraction unit 433 is output without correction and the DCT class of the reference area is M2, M
If it is 3, the quantization scale is corrected by the above method, and the corrected value is output.
【0290】パラメータ補正手段436は、以上のよう
に補正されたノイズパラメータをパラメータメモリ手段
118に対して出力する。パラメータメモリ手段118
は、入力されたノイズパラメータを蓄積する。The parameter correction means 436 outputs the noise parameter corrected as described above to the parameter memory means 118. Parameter memory means 118
Accumulates the input noise parameters.
【0291】次に、フィルタ決定手段434の動作につ
いて説明する。フィルタ決定手段434の動作は、イン
トラ符号化ブロックと非イントラ符号化ブロックとで同
じである。Next, the operation of the filter determining means 434 will be described. The operation of the filter determination unit 434 is the same for an intra-coded block and a non-intra-coded block.
【0292】フィルタ決定手段434は、各ブロックに
施すフィルタの種類をノイズパラメータのうちDCTク
ラスを参照して決定する。フィルタの種類の決定は表6
により行う。The filter determining means 434 determines the type of filter to be applied to each block with reference to the DCT class among the noise parameters. Table 6 shows the type of filter.
Performed by
【0293】[0293]
【表6】 [Table 6]
【0294】表6では、フィルタがF1,F2,F3の
3種類である場合の決定方法例を示している。ここで、
フィルタの強度(モスキートノイズを除去する能力)
は、F1が最も弱く、F3が最も強いとする。そして、
フィルタ決定手段434が決定したフィルタの種類は、
モスキートノイズ除去手段126に対して出力される。
ここで、決定されたフィルタの種類は、検出されたモス
キートノイズの大きさに対応しているということができ
る。Table 6 shows an example of a determination method in the case where there are three types of filters, F1, F2, and F3. here,
Filter strength (ability to remove mosquito noise)
Is assumed that F1 is the weakest and F3 is the strongest. And
The type of the filter determined by the filter determining unit 434 is
Output to mosquito noise removing means 126.
Here, it can be said that the determined filter type corresponds to the magnitude of the detected mosquito noise.
【0295】モスキートノイズ除去手段126は、モス
キートノイズ検出手段430から各画素ブロックに施す
フィルタの種類を受け取る。そしてフレームメモリ11
5から出力される画像にフィルタを施す。モスキートノ
イズ除去手段126の動作例を以下で説明する。The mosquito noise removing unit 126 receives the type of filter applied to each pixel block from the mosquito noise detecting unit 430. And the frame memory 11
5 is filtered. An operation example of the mosquito noise removing unit 126 will be described below.
【0296】図35はフィルタ処理に用いる画素の例に
ついての説明図である。1つの正方形が1画素に相当す
るとする。フィルタ決定手段434が、画素ブロック5
44にフィルタF2を施すと決定したとする。この場
合、ブロック544の全画素に対してフィルタを施す。FIG. 35 is an explanatory diagram of an example of pixels used for the filter processing. It is assumed that one square corresponds to one pixel. The filter determining means 434 determines whether the pixel block 5
Assume that it is determined that the filter 44 is to be subjected to the filter F2. In this case, a filter is applied to all the pixels in the block 544.
【0297】いま、画素dにフィルタを施す場合を考え
る。この場合、まず画素dから上下左右に向かってエッ
ジ画素となる画素を検出する。エッジ画素の検出は、画
素dと他の画素との間で画素値の差分値の絶対値を求
め、この絶対値が所定値よりも大きければエッジ画素と
して検出することにより行う。所定値としては、各ブロ
ックのノイズパラメータである量子化スケールに予め定
めた係数を乗じた値を用いることができる。例えば、画
素dから左に向かってエッジ画素を検出する場合、画素
dと画素c,b,aとの間で差分値の絶対値を求め、所
定値と比較する。同様にして画素dから上に向かって画
素j、i,h、下に向かって画素k,l,m、右に向か
って画素e,f,gに対してエッジ検出を行う。Now, consider the case where a filter is applied to the pixel d. In this case, first, a pixel that becomes an edge pixel from the pixel d toward the top, bottom, left, and right is detected. The edge pixel is detected by calculating the absolute value of the difference between the pixel value of the pixel d and another pixel, and detecting the absolute value of the difference value as an edge pixel if the absolute value is larger than a predetermined value. As the predetermined value, a value obtained by multiplying a quantization coefficient, which is a noise parameter of each block, by a predetermined coefficient can be used. For example, when detecting an edge pixel from the pixel d toward the left, the absolute value of the difference value between the pixel d and the pixels c, b, and a is obtained and compared with a predetermined value. Similarly, edge detection is performed on pixels j, i, h upward from pixel d, pixels k, l, m downward, and pixels e, f, g downward.
【0298】このようにして検出されたエッジ画素が
a,b,f,iであったとする。この場合、エッジ画素
以外の画素c,d,e,g,h,j,k,l,mを用い
て画素dにフィルタを施す。フィルタの種類としては、
例えば低域通過型フィルタを用いることができる。It is assumed that the detected edge pixels are a, b, f, and i. In this case, the pixel d is filtered using the pixels c, d, e, g, h, j, k, l, and m other than the edge pixels. The types of filters are
For example, a low-pass filter can be used.
【0299】図36はモスキートノイズを除去するフィ
ルタ処理の例についての説明図である。ここでは、図3
6(a)の画素dに対して、画素a〜gを用いてフィル
タ処理を行う場合について説明する。FIG. 36 is an explanatory diagram of an example of filter processing for removing mosquito noise. Here, FIG.
The case where the filtering process is performed on the pixel d of FIG. 6A using the pixels a to g will be described.
【0300】図36(b)は画素a〜gの画素値を表し
ている。ここでは、画素a〜gのうち、画素dの画素値
との差分の絶対値が所定値以下の画素、すなわち、図3
6(b)において、画素dに関するしきい値を表す2本
の線の間にある画素のみを用いて、フィルタ処理を行
う。したがって、図36(c)において、黒丸で表され
た画素a,b,fは用いず、白丸で表された画素c,
d,e,gのみを用いて、画素dに対するフィルタ処理
を行う。ここで、黒丸で表された画素a,b,fはエッ
ジ画素である。FIG. 36B shows the pixel values of the pixels a to g. Here, of the pixels a to g, the pixel whose absolute value of the difference from the pixel value of the pixel d is equal to or smaller than a predetermined value, that is, FIG.
In 6 (b), the filtering process is performed using only the pixels between the two lines indicating the threshold value for the pixel d. Therefore, in FIG. 36 (c), the pixels a, b, and f represented by black circles are not used, and the pixels c,
Filter processing is performed on the pixel d using only d, e, and g. Here, the pixels a, b, and f represented by black circles are edge pixels.
【0301】図36(d)はフィルタ処理後の画素dを
表している。図36(e)は同様にして他の画素にもフ
ィルタ処理を行った後の各画素の値を表している。同一
のライン上の画素を用いてフィルタ処理を行う場合につ
いて説明したが、図35のように、同一のライン上には
ない画素を用いる場合も同様である。FIG. 36D shows a pixel d after the filtering process. FIG. 36E shows the value of each pixel after the filter processing is performed on other pixels in the same manner. The case where the filtering process is performed using the pixels on the same line has been described, but the same applies to the case where the pixels not on the same line are used as shown in FIG.
【0302】また、フィルタに用いる画素として、画素
dから見てエッジ画素の内部にある画素(エッジ画素よ
りも近い画素)のみを用いてもよい。この場合には、画
素c,d,e,j,k,l,mを用いて画素dにフィル
タを施すことになる。[0302] Alternatively, as the pixels used for the filter, only pixels inside the edge pixels (pixels closer to the edge pixels) as viewed from the pixel d may be used. In this case, the pixel d is filtered using the pixels c, d, e, j, k, l, and m.
【0303】また、エッジ画素である画素a,b,f,
iに対しては画素値を画素dの画素値と置き換えて、画
素a〜mを用いて画素dにフィルタを施してもよい。The pixels a, b, f, and
For i, the pixel value may be replaced with the pixel value of the pixel d, and the pixel d may be filtered using the pixels am.
【0304】また、フィルタ決定手段434が画素ブロ
ック544にフィルタF3を施すと決定した場合には、
フィルタF2よりも強度が強いフィルタを施す。これは
例えば、図35において画素dにフィルタを施す場合
に、画素aよりもさらに左側の画素、画素hよりもさら
に上側の画素、画素gよりもさらに右側の画素、画素m
よりもさらに下側の画素、と広い範囲の画素を用いるこ
とにより実現できる。又は、用いる画素はフィルタF2
の場合と同じにして、より遮断周波数が低くなるように
フィルタ係数を設定した低域通過フィルタを施してもよ
い。If the filter decision means 434 decides to apply the filter F3 to the pixel block 544,
A filter having a higher strength than the filter F2 is applied. For example, when a filter is applied to the pixel d in FIG. 35, a pixel further to the left of the pixel a, a pixel further above the pixel h, a pixel further right to the pixel g, and a pixel m
This can be realized by using a lower pixel and a wider range of pixels. Alternatively, the pixel used is the filter F2.
In the same manner as in the above case, a low-pass filter in which a filter coefficient is set so as to lower the cutoff frequency may be applied.
【0305】また、フィルタ決定手段434が画素ブロ
ック544に最も弱いフィルタであるフィルタF1を施
すと決定した場合には、画素ブロック544にはフィル
タを施さないか、フィルタF2よりも強度が弱いフィル
タを施す。If the filter decision means 434 decides to apply the filter F1, which is the weakest filter, to the pixel block 544, no filter is applied to the pixel block 544, or a filter having a lower intensity than the filter F2 is used. Apply.
【0306】図37はフィルタ処理に用いる画素の他の
例についての説明図である。フィルタ処理に用いる画素
は、図35で説明したものの他に図37のようなもので
あってもよい。すなわち、図37において、画素mに対
してフィルタを施す場合には画素a〜yを用いて図35
の場合と同様にフィルタを施す。FIG. 37 is an explanatory diagram of another example of the pixel used for the filter processing. The pixels used for the filter processing may be those shown in FIG. 37 in addition to those described in FIG. That is, in FIG. 37, when a filter is applied to the pixel m, the pixels a to y are used in FIG.
The filter is applied in the same way as in the case of.
【0307】また、エッジ検出における画素値の差分値
の絶対値と比較する所定値としては、量子化パラメータ
を用いずに固定値とすることもできる。エッジ検出時に
量子化スケールを用いない場合には、量子化スケール抽
出手段433、パラメータ補正手段436、参照領域パ
ラメータ決定手段437、及びパラメータメモリ手段1
18では量子化スケールを扱う必要がない。すなわち、
この場合、ノイズパラメータはDCTクラスのみとな
る。The predetermined value to be compared with the absolute value of the difference between pixel values in edge detection may be a fixed value without using a quantization parameter. When the quantization scale is not used at the time of edge detection, the quantization scale extraction unit 433, the parameter correction unit 436, the reference area parameter determination unit 437, and the parameter memory unit 1
In 18, it is not necessary to deal with the quantization scale. That is,
In this case, the noise parameter is only the DCT class.
【0308】以上のように、本実施形態の画像復号化装
置では、イントラ符号化ブロックに対しては、圧縮符号
列から得られるDCT係数を用いて各ブロックを複数の
DCTクラスに分類する。また、非イントラ符号化ブロ
ックの場合には、動きベクトルを用いて参照フレーム中
の参照領域を求める。その後、参照領域に重なるブロッ
クのDCTクラス、量子化スケールを用いて参照領域の
DCTクラス、量子化スケールを求め、圧縮符号列の情
報から求めた処理対象ブロックのDCTクラス、量子化
スケールを補正する。そして、各ブロックでのDCTク
ラスを用いてそのブロックに施すフィルタを決定する。
ここで、フィルタの決定の際には、所定値以上のDCT
係数がより高域に分布している場合であるほど、フィル
タの強度が強くなるようにする。そして決定したフィル
タに基づいて復号化後の画像の各ブロックにフィルタを
施す。フィルタを施す場合には、各ブロックの量子化ス
ケール又は所定の固定値をしきい値として用いてエッジ
検出を行い、少なくともエッジ画素を除いてフィルタを
施し、モスキートノイズを除去する。As described above, in the image decoding apparatus according to the present embodiment, for an intra-coded block, each block is classified into a plurality of DCT classes using DCT coefficients obtained from a compressed code sequence. In the case of a non-intra coded block, a reference area in a reference frame is obtained using a motion vector. Thereafter, the DCT class and the quantization scale of the reference area are obtained using the DCT class and the quantization scale of the block overlapping the reference area, and the DCT class and the quantization scale of the processing target block obtained from the information of the compressed code string are corrected. . Then, a filter to be applied to the block is determined using the DCT class of each block.
Here, when the filter is determined, a DCT equal to or more than a predetermined value is used.
The higher the distribution of the coefficients in the higher band, the stronger the filter strength. Then, a filter is applied to each block of the decoded image based on the determined filter. When a filter is applied, edge detection is performed using the quantization scale of each block or a predetermined fixed value as a threshold, and a filter is applied except for at least edge pixels to remove mosquito noise.
【0309】このように、本実施形態の画像復号化装置
によると、各ブロックのDCT係数の分布からモスキー
トノイズが発生するブロック及びモスキートノイズの大
きさを確実に検出することができる。この際には、非イ
ントラ符号化ブロックに対してはイントラ符号化ブロッ
クとは異なるDCTパターンを用いることによって、非
イントラ符号化の特性に合った分類を行うことができ
る。また、非イントラ符号化ブロックに対しては、DC
T係数から得られる差分画像に対するノイズパラメータ
を参照領域のノイズパラメータを用いて補正することに
より、非イントラ符号化ブロックであっても、高精度に
復号化画像のノイズパラメータを決定し、モスキートノ
イズの大きさを決定することができる。また、参照領域
のノイズパラメータは、参照領域に重なるブロックのノ
イズパラメータを用いて求めることから、高精度のノイ
ズパラメータを得ることができる。As described above, according to the image decoding apparatus of this embodiment, it is possible to reliably detect the block in which mosquito noise occurs and the magnitude of mosquito noise from the distribution of DCT coefficients of each block. In this case, by using a DCT pattern different from the intra-coded block for the non-intra-coded block, classification suitable for the characteristics of the non-intra-coded can be performed. For non-intra coded blocks, DC
By correcting the noise parameter for the difference image obtained from the T coefficient using the noise parameter of the reference area, the noise parameter of the decoded image is determined with high accuracy even for a non-intra coded block, and the mosquito noise The size can be determined. Further, since the noise parameter of the reference area is obtained using the noise parameter of the block overlapping the reference area, a highly accurate noise parameter can be obtained.
【0310】そして、モスキートノイズの大きさに応じ
て強度の異なるフィルタを複数用いることによって、か
つ、エッジ検出を行ってエッジ画素を用いずにフィルタ
を施すことによって、画像の、特にエッジ部分のボケを
最小限に抑えながら確実にモスキートノイズを除去する
ことができる。また、エッジ画素の検出に対するしきい
値として各ブロックの量子化スケールを用いることによ
って、各ブロック毎に適応的にしきい値を変更すること
ができ、より精度の高いエッジ検出をすることができ
る。これによって、特にエッジ部分のボケを最小限に抑
えながらさらに確実にモスキートノイズを除去すること
ができる。By using a plurality of filters having different intensities according to the magnitude of the mosquito noise, and performing the edge detection and performing the filtering without using the edge pixels, the blur of the image, particularly at the edge portion, is obtained. Mosquito noise can be reliably removed while minimizing the noise. In addition, by using the quantization scale of each block as a threshold value for detecting an edge pixel, the threshold value can be adaptively changed for each block, and more accurate edge detection can be performed. This makes it possible to more reliably remove mosquito noise while minimizing blurring particularly at edge portions.
【0311】なお、本実施形態では、イントラ符号化ブ
ロックに対してはDCTパターンとして図32(a),
(b)の2つを用いて3つのDCTクラスに分類し、非
イントラ符号化ブロックに対してはDCTパターンとし
て図32(c),(d)の2つを用いて3つのDCTク
ラスに分類する場合について説明したが、DCTパター
ン数は2つには限らないし、DCTクラスの数も3つに
は限らない。また、DCTパターンの周波数分布は、図
32(a)〜(d)の分布には限らない。また、イント
ラ符号化ブロックと非イントラ符号化ブロックとで同じ
DCTパターンを用いてもよい。In the present embodiment, a DCT pattern is used for an intra-coded block as shown in FIG.
(B) are classified into three DCT classes, and non-intra-coded blocks are classified into three DCT classes using two DCT patterns in FIGS. 32 (c) and (d). However, the number of DCT patterns is not limited to two, and the number of DCT classes is not limited to three. Further, the frequency distribution of the DCT pattern is not limited to the distributions shown in FIGS. Further, the same DCT pattern may be used for an intra-coded block and a non-intra-coded block.
【0312】また、本実施形態では、モスキートノイズ
除去手段126で用いるフィルタの種類を3種類とした
が、これは何種類であっても構わない。Further, in the present embodiment, three types of filters are used in the mosquito noise removing means 126, but any number of types may be used.
【0313】また、本実施形態では、モスキートノイズ
除去手段126で用いるフィルタが低域通過フィルタで
ある場合について説明したが、これはモスキートノイズ
を除去するフィルタであれば他のフィルタ、例えばメデ
ィアンフィルタ等であってもよい。また、フィルタに用
いる画素の位置は、図35又は図37の例には限らな
い。Further, in the present embodiment, the case where the filter used in the mosquito noise removing means 126 is a low-pass filter has been described. However, this is another filter, such as a median filter or the like, as long as it is a filter for removing mosquito noise. It may be. Further, the position of the pixel used for the filter is not limited to the example of FIG. 35 or FIG.
【0314】また、本実施形態では、参照領域パラメー
タ決定手段437での参照領域のノイズパラメータの決
定方法についていくつかの例を示したが、この決定方法
は本実施形態で説明した方法には限らない。In this embodiment, several examples of the method of determining the noise parameter of the reference area by the reference area parameter determining means 437 have been described. However, this determination method is not limited to the method described in this embodiment. Absent.
【0315】また、本実施形態では、パラメータ補正手
段436におけるノイズパラメータの補正方法として表
4,表5を用いた場合について説明したが、補正方法は
表4,表5の方法には限らない。Further, in the present embodiment, the case where Table 4 and Table 5 are used as the noise parameter correction method in the parameter correction means 436 has been described, but the correction method is not limited to the method of Table 4 or Table 5.
【0316】また、本実施形態では、参照領域パラメー
タ決定手段437とパラメータ補正手段436とを用い
てDCTクラス及び量子化スケールを補正する方法を説
明したが、いずれかのパラメータは補正しないこととし
てもよい。Further, in the present embodiment, the method of correcting the DCT class and the quantization scale by using the reference area parameter determining means 437 and the parameter correcting means 436 has been described. Good.
【0317】また、本実施形態では、モスキートノイズ
除去手段126でエッジ検出を行う方法として、例えば
図35の画素dにフィルタを施す場合には、画素dと他
の画素との差分値を用いる方法について説明した。しか
し、エッジ検出の方法はこの方法には限らず、例えば、
隣接画素の差分値を用いてエッジ検出を行うような方法
であっても構わない。In the present embodiment, as a method of detecting an edge by the mosquito noise removing means 126, for example, when a filter is applied to the pixel d of FIG. 35, a method of using a difference value between the pixel d and another pixel is used. Was explained. However, the method of edge detection is not limited to this method.
A method of performing edge detection using a difference value between adjacent pixels may be used.
【0318】(第8の実施形態)第8の実施形態では、
インターレース画像が符号化された圧縮符号列を復号化
する場合に、符号化ノイズとしてモスキートノイズを検
出し、除去する画像復号化装置について説明する。(Eighth Embodiment) In the eighth embodiment,
An image decoding device that detects and removes mosquito noise as encoding noise when decoding a compressed code string in which an interlaced image is encoded will be described.
【0319】第8の実施形態に係る画像復号化装置は、
図30の画像復号化装置において、モスキートノイズ検
出手段430の代わりにモスキートノイズ検出手段44
0を用いたものである。可変長復号化手段110、逆量
子化手段111、逆DCT手段112、スイッチ11
3,114、フレームメモリ115、パラメータメモリ
手段118、及び加算手段119については、第1の実
施形態と同様であるので、同一の番号を付してその説明
を省略する。ここで、モスキートノイズ検出手段440
は、ノイズ検出装置として動作する。[0319] The image decoding apparatus according to the eighth embodiment comprises:
In the image decoding apparatus of FIG. 30, the mosquito noise detecting means 44 is used instead of the mosquito noise detecting means 430.
0 is used. Variable length decoding means 110, inverse quantization means 111, inverse DCT means 112, switch 11
3, 114, the frame memory 115, the parameter memory means 118, and the adding means 119 are the same as those in the first embodiment, so the same numbers are assigned and the description is omitted. Here, mosquito noise detection means 440
Operate as a noise detection device.
【0320】図38は第8の実施形態に係るモスキート
ノイズ検出手段の構成を示すブロック図である。図38
のモスキートノイズ検出手段440は、DCTパターン
判定手段441と、量子化スケール抽出手段443と、
フィルタ決定手段444と、スイッチ445と、パラメ
ータ補正手段446と、参照領域パラメータ決定手段4
47とを備えている。モスキートノイズ検出手段440
には、DCT係数が逆量子化手段111から入力され、
量子化スケール、マクロブロック符号化モード、及び動
きベクトルが可変長復号化手段110から入力されてい
る。FIG. 38 is a block diagram showing the structure of the mosquito noise detecting means according to the eighth embodiment. FIG.
The mosquito noise detection means 440 includes a DCT pattern determination means 441, a quantization scale extraction means 443,
Filter determining means 444, switch 445, parameter correcting means 446, reference area parameter determining means 4
47. Mosquito noise detection means 440
, The DCT coefficient is input from the inverse quantization means 111,
The quantization scale, the macroblock coding mode, and the motion vector are input from the variable length decoding unit 110.
【0321】DCTパターン判定手段441は、逆量子
化手段111からDCT係数ブロックを、可変長復号化
手段110からDCTモードを入力として受け取る。D
CTパターン判定手段441では、DCT係数ブロック
の各周波数成分の分布から各DCT係数ブロックを分類
する。DCT係数ブロックの分類は第7の実施形態と同
様の方法により行い、DCT係数ブロックをDCTクラ
スM1、M2、M3に分類するとする。The DCT pattern determination means 441 receives a DCT coefficient block from the inverse quantization means 111 and a DCT mode from the variable length decoding means 110 as an input. D
The CT pattern determination means 441 classifies each DCT coefficient block from the distribution of each frequency component of the DCT coefficient block. The DCT coefficient blocks are classified in the same manner as in the seventh embodiment, and the DCT coefficient blocks are classified into DCT classes M1, M2, and M3.
【0322】ここで決定された各ブロックのDCTクラ
スはブロック内のフィールド毎に割り当てられる。これ
は、図24,図25で説明したものと同様である。DC
Tモードがフィールドモードである場合は、図24で説
明したように、例えば、DCTブロック601に対する
DCTクラスは、フィールドブロック609、611に
対して割り当てられる。DCTモードがフレームモード
である場合は、図25で説明したように、例えば、DC
Tブロック651に対するDCTクラスは、フィールド
ブロック659,660に対して割り当てられる。The DCT class of each block determined here is assigned to each field in the block. This is the same as that described with reference to FIGS. DC
When the T mode is the field mode, for example, the DCT class for the DCT block 601 is assigned to the field blocks 609 and 611 as described with reference to FIG. When the DCT mode is the frame mode, for example, as described in FIG.
The DCT class for the T block 651 is assigned to the field blocks 659 and 660.
【0323】量子化スケール抽出手段443は、可変長
復号化手段110が出力した符号化情報から量子化スケ
ールを抽出し、出力する。量子化スケールは、DCTパ
ターン判定手段441と同様に、フィールドブロック毎
に割り当てられる。The quantization scale extracting means 443 extracts a quantization scale from the coded information output from the variable length decoding means 110 and outputs it. The quantization scale is assigned to each field block, similarly to the DCT pattern determination unit 441.
【0324】スイッチ445は、可変長復号化手段11
0が出力したマクロブロック符号化モードを用いてスイ
ッチの切替を行う。マクロブロック符号化モードがイン
トラ符号化である場合には、スイッチ445はbに接続
される。この場合、DCTパターン判定手段441が出
力したDCTクラス、及び量子化スケール抽出手段44
3が出力した量子化スケール、すなわちノイズパラメー
タは、フィールドブロック単位でパラメータメモリ手段
118に対して出力される。また、マクロブロック符号
化モードが非イントラ符号化である場合には、スイッチ
445はaに接続される。この場合、ノイズパラメータ
はパラメータ補正手段446に入力される。The switch 445 is connected to the variable length decoding unit 11
The switch is switched using the macroblock coding mode output by 0. When the macroblock coding mode is the intra coding, the switch 445 is connected to b. In this case, the DCT class output from the DCT pattern determination unit 441 and the quantization scale extraction unit 44
3 is output to the parameter memory means 118 in field block units. When the macroblock coding mode is non-intra coding, the switch 445 is connected to a. In this case, the noise parameter is input to the parameter correction unit 446.
【0325】参照領域パラメータ決定手段447は、マ
クロブロック符号化モードが非イントラ符号化である場
合には、参照ブロックのノイズパラメータを参照し、参
照領域のノイズパラメータを求める。When the macroblock coding mode is non-intra coding, the reference area parameter determining means 447 refers to the noise parameter of the reference block to determine the noise parameter of the reference area.
【0326】参照領域パラメータ決定手段447は、可
変長復号化手段110が出力した動きベクトルを用い
て、パラメータメモリ手段118から参照フレームのノ
イズパラメータを、フィールドブロックを単位として取
得する。参照フレームのノイズパラメータの取得につい
ては、第6の実施形態において、図29を用いて説明し
たものと同様なので、その説明を省略する。The reference area parameter determining means 447 obtains the noise parameter of the reference frame from the parameter memory means 118 using the motion vector output from the variable length decoding means 110 on a field block basis. The acquisition of the noise parameter of the reference frame is the same as that described with reference to FIG. 29 in the sixth embodiment, and a description thereof will not be repeated.
【0327】また、パラメータメモリ手段118から取
得したDCTクラス、量子化スケールを用いて参照領域
のDCTクラス及び量子化スケールを求める方法は第7
の実施の形態で説明した方法と同様であるので、その説
明を省略する。The method for obtaining the DCT class and the quantization scale of the reference area using the DCT class and the quantization scale obtained from the parameter memory means 118 is the seventh method.
Since the method is the same as that described in the embodiment, the description thereof will be omitted.
【0328】参照領域パラメータ決定手段447は、以
上のようにフィールドブロック単位で求められた参照領
域のノイズパラメータを、パラメータ補正手段446に
対して出力する。The reference area parameter determination means 447 outputs the noise parameter of the reference area obtained for each field block as described above to the parameter correction means 446.
【0329】パラメータ補正手段446は、スイッチ4
45を介してDCTパターン判定手段441、及び量子
化スケール抽出手段443が出力したノイズパラメータ
を、参照領域パラメータ決定手段447が出力した参照
領域のノイズパラメータで補正する。ノイズパラメータ
を補正する方法は、第7の実施の形態と同様であるの
で、その説明を省略する。パラメータ補正手段446
は、補正されたノイズパラメータをパラメータメモリ手
段118に対して出力する。パラメータメモリ手段11
8では、入力されたノイズパラメータをフィールドブロ
ック単位で蓄積する。The parameter correcting means 446 is provided by the switch 4
The noise parameter output from the DCT pattern determination unit 441 and the quantization scale extraction unit 443 via the reference region parameter correction unit 45 is corrected by the noise parameter of the reference region output from the reference region parameter determination unit 447. The method of correcting the noise parameter is the same as in the seventh embodiment, and a description thereof will not be repeated. Parameter correction means 446
Outputs the corrected noise parameter to the parameter memory unit 118. Parameter memory means 11
In step 8, the input noise parameters are stored in field block units.
【0330】次にフィルタ決定手段444の動作につい
て説明する。フィルタ決定手段444の動作はイントラ
符号化ブロックと非イントラ符号化ブロックとで同じで
ある。フィルタ決定手段444は、各フィールドブロッ
クに施すフィルタの種類を、ノイズパラメータのうちD
CTクラスを参照して決定する。フィルタの種類の決定
は第7の実施形態と同様に表6により行う。そして、フ
ィルタ決定手段444が決定した各フィールドブロック
毎のフィルタの種類は、モスキートノイズ除去手段12
6に対して出力される。ここで、決定されたフィルタの
種類は、検出されたモスキートノイズの大きさに対応し
ているということができる。Next, the operation of the filter determining means 444 will be described. The operation of the filter determination means 444 is the same for an intra-coded block and a non-intra-coded block. The filter determining means 444 determines the type of filter to be applied to each field block as D
Determined with reference to the CT class. The determination of the type of the filter is performed according to Table 6 as in the seventh embodiment. The type of filter for each field block determined by the filter determining unit 444 is determined by the mosquito noise removing unit 12.
6 is output. Here, it can be said that the determined filter type corresponds to the magnitude of the detected mosquito noise.
【0331】モスキートノイズ除去手段126は、モス
キートノイズ検出手段440から各ブロックの境界に施
すフィルタの種類を受け取る。そしてフレームメモリ1
15から出力される画像のブロック境界にフィルタを施
す。モスキートノイズ除去手段126のフィルタの動作
例を以下で説明する。[0331] The mosquito noise removing means 126 receives from the mosquito noise detecting means 440 the type of filter applied to the boundary of each block. And the frame memory 1
A filter is applied to the block boundary of the image output from the block 15. An operation example of the filter of the mosquito noise removing unit 126 will be described below.
【0332】図39はフィルタ処理に用いる画素の例に
ついての説明図である。1つの正方形が1画素に相当す
るとする。いま、フィルタ決定手段444が画素ブロッ
ク594にフィルタF2を施すと決定したとする。この
場合、ブロック594の全画素に対してフィルタを施
す。FIG. 39 is an explanatory diagram of an example of pixels used for the filter processing. It is assumed that one square corresponds to one pixel. Now, it is assumed that the filter determination unit 444 determines to apply the filter F2 to the pixel block 594. In this case, a filter is applied to all the pixels in the block 594.
【0333】ここで、画素dにフィルタを施す場合を考
える。この場合、まず画素dから同一フィールド内の画
素に対して上下左右に向かってエッジ画素を検出する。
いま、画素dは第一フィールドの画素であるので、第一
フィールドの画素を用いてエッジ検出を行う。エッジ画
素の検出は、画素dと他の画素との画素値の差分値の絶
対値が所定値よりも大きければエッジとして検出するこ
とにより行う。所定値としては、各ブロックのノイズパ
ラメータである量子化スケールに係数を乗じた値を用い
ることができる。Here, consider the case where a filter is applied to the pixel d. In this case, first, edge pixels are detected from pixel d in the vertical, horizontal, and horizontal directions with respect to the pixels in the same field.
Since the pixel d is a pixel in the first field, edge detection is performed using the pixel in the first field. The detection of the edge pixel is performed by detecting the edge as an edge if the absolute value of the difference between the pixel value of the pixel d and another pixel is larger than a predetermined value. As the predetermined value, a value obtained by multiplying a coefficient by a quantization scale, which is a noise parameter of each block, can be used.
【0334】例えば、画素dから左に向かってエッジ画
素を検出する場合、画素dと画素c、b、aとの差分値
の絶対値を求めて所定値と比較する。同様にして画素d
から上に向かって画素j,i,h,下に向かって画素
k,l,m、右に向かって画素e,f,gに対してエッ
ジ検出を行う。For example, when detecting an edge pixel from the pixel d to the left, the absolute value of the difference value between the pixel d and the pixels c, b, a is obtained and compared with a predetermined value. Similarly, pixel d
Edge detection is performed for pixels j, i, h upward, pixels k, l, m downward, and pixels e, f, g upward.
【0335】このようにして検出されたエッジ画素が
a,b,f,iであったとする。この場合、エッジ画素
以外の画素c,d,e,g,h,j,k,l,mを用い
て画素dにフィルタを施す。すなわち第一フィールドの
画素のみを用いて画素dにフィルタを施す。フィルタの
種類としては例えば低域通過型フィルタを用いることが
できる。It is assumed that the edge pixels detected in this way are a, b, f, and i. In this case, the pixel d is filtered using the pixels c, d, e, g, h, j, k, l, and m other than the edge pixels. That is, the filter is applied to the pixel d using only the pixels in the first field. As a type of the filter, for example, a low-pass filter can be used.
【0336】また画素d’にフィルタを施す場合を考え
る。この場合、画素d’は第二フィールドの画素である
ので、第二フィールドの画素を用いてエッジ検出を行
う。すなわち画素d’に対して、画素a’〜m’を用い
てエッジ画素の検出を行う。エッジ画素の検出方法は上
記の方法と同様である。Consider a case where a filter is applied to pixel d '. In this case, since the pixel d 'is a pixel in the second field, edge detection is performed using the pixel in the second field. That is, for the pixel d ', an edge pixel is detected using the pixels a' to m '. The method of detecting an edge pixel is the same as the above method.
【0337】このようにして検出されたエッジ画素が
a’,b’,f’,i’であったとする。この場合、エ
ッジ画素以外の画素c’,d’,e’,g’,h’,
j’,k’,l’,m’を用いて画素d’にフィルタを
施す。すなわち第二フィールドの画素のみを用いて画素
d’にフィルタを施す。フィルタの種類としては第一フ
ィールドの場合と同様、例えば低域通過型フィルタを用
いることができる。Assume that the edge pixels detected in this way are a ', b', f ', and i'. In this case, the pixels c ′, d ′, e ′, g ′, h ′,
The pixel d 'is filtered using j', k ', l', and m '. That is, the filter is applied to the pixel d 'using only the pixels in the second field. As the type of the filter, for example, a low-pass filter can be used as in the case of the first field.
【0338】また、フィルタに用いる画素として、画素
d,d’から見てエッジ画素の内部にある画素(エッジ
画素よりも近い画素)のみを用いてもよい。この場合は
例えば画素dに対しては、画素c,d,e,j,k,
l,mを用いて画素dにフィルタを施すことになる。Further, as the pixels used for the filter, only the pixels (pixels closer to the edge pixels) inside the edge pixels as viewed from the pixels d and d 'may be used. In this case, for example, for pixel d, pixels c, d, e, j, k,
The pixel d is filtered using l and m.
【0339】また、フィルタ決定手段444が画素ブロ
ック594にフィルタF3を施すと決定した場合には、
フィルタF2よりも強度が強いフィルタを施す。これは
例えば、図39において画素dにフィルタを施す場合
に、画素aよりもさらに左側の画素、画素hよりもさら
に上側の画素、画素gよりもさらに右側の画素、画素m
よりもさらに下側の画素、というように、より広い範囲
の同一フィールド内の画素を用いることにより実現でき
る。又は、用いる画素はフィルタF2の場合と同じにし
て、より遮断周波数が低くなるようにフィルタ係数を設
定した低域通過フィルタを施してもよい。If the filter decision means 444 decides to apply the filter F3 to the pixel block 594,
A filter having a higher strength than the filter F2 is applied. For example, when a filter is applied to the pixel d in FIG. 39, a pixel on the left side of the pixel a, a pixel on the upper side of the pixel h, a pixel on the right side of the pixel g, and a pixel m
This can be realized by using pixels in the same field over a wider range, such as pixels on the lower side of the field. Alternatively, a low-pass filter in which a filter coefficient is set so that the cutoff frequency is lower may be applied by using the same pixel as that of the filter F2.
【0340】また、フィルタ決定手段444が画素ブロ
ック594に最も弱いフィルタであるフィルタF1を施
すと決定した場合には、画素ブロック594にはフィル
タを施さないか、フィルタF2よりも強度が弱いフィル
タを施す。If the filter decision means 444 decides to apply the filter F1, which is the weakest filter, to the pixel block 594, the filter is not applied to the pixel block 594, or a filter having a lower intensity than the filter F2 is used. Apply.
【0341】図40はフィルタ処理に用いる画素の他の
例についての説明図である。フィルタ処理に用いる画素
は、図39で説明したものの他に図40のようなもので
あってもよい。すなわち、図40において、画素mに対
してフィルタを施す場合には画素a〜yを用い、画素
m’に対してフィルタを施す場合には画素a’〜y’を
用いて、図39の場合と同様にフィルタを施す。FIG. 40 is an explanatory diagram of another example of the pixel used for the filter processing. The pixels used for the filter processing may be those shown in FIG. 40 in addition to those described in FIG. That is, in FIG. 40, the pixels a to y are used when the filter is applied to the pixel m, and the pixels a ′ to y ′ are used when the filter is applied to the pixel m ′. Apply a filter in the same way as.
【0342】また、エッジ検出における画素値の差分値
の絶対値と比較する所定値としては、量子化パラメータ
を用いずに固定値とすることもできる。エッジ検出時に
量子化スケールを用いない場合には、量子化スケール抽
出手段443、パラメータ補正手段446、参照領域パ
ラメータ決定手段447、及びパラメータメモリ手段1
18では量子化スケールを扱う必要がない。すなわち、
この場合、ノイズパラメータはDCTクラスのみとな
る。The predetermined value to be compared with the absolute value of the difference between the pixel values in edge detection may be a fixed value without using a quantization parameter. When the quantization scale is not used at the time of edge detection, the quantization scale extraction unit 443, the parameter correction unit 446, the reference area parameter determination unit 447, and the parameter memory unit 1
In 18, it is not necessary to deal with the quantization scale. That is,
In this case, the noise parameter is only the DCT class.
【0343】以上のようにしてモスキートノイズ除去手
段126でフィルタリングを施されたフレームは、出力
画像として出力される。[0343] The frame filtered by the mosquito noise removing means 126 as described above is output as an output image.
【0344】以上のように、本実施形態の画像復号化装
置では、イントラ符号化ブロックに対しては、圧縮符号
列から得られるDCT係数を用いて各ブロックを複数の
DCTクラスに分類する。このDCTクラスへの分類
は、各ブロックをフィールド毎に分けたフィールドブロ
ックを単位として行う。また、非イントラ符号化ブロッ
クの場合には、動きベクトルを用いて参照フレーム中の
参照領域を求める。その後、参照領域に重なるブロック
のDCTクラス、量子化スケールを用いて参照領域のD
CTクラス、量子化スケールを求め、ビットストリーム
から得られる情報を用いて求めた処理対象ブロックのD
CTクラス、量子化スケールを補正する。そして、各フ
ィールドブロックでのDCTクラス、量子化スケールを
用いてそのフィールドブロック内の画素に施すフィルタ
を決定する。ここで、フィルタの決定の際には、所定値
以上のDCT係数がより高域に分布している場合である
ほど、フィルタの強度が強くなるようにする。そして決
定したフィルタに基づいて復号化後の画像の各フィール
ドブロックにフィルタを施す。フィルタを施す場合に
は、各フィールドブロックの量子化スケール又は所定の
固定値をしきい値として用いてエッジ検出を行い、少な
くともエッジ画素を用いないようにしてフィルタを施
し、モスキートノイズを除去する。As described above, in the image decoding apparatus according to the present embodiment, for an intra-coded block, each block is classified into a plurality of DCT classes using DCT coefficients obtained from a compressed code sequence. The classification into the DCT class is performed in units of field blocks obtained by dividing each block into fields. In the case of a non-intra coded block, a reference area in a reference frame is obtained using a motion vector. Then, using the DCT class and quantization scale of the block overlapping the reference area,
The CT class and quantization scale are obtained, and the D of the processing target block obtained using information obtained from the bit stream is obtained.
Correct the CT class and quantization scale. Then, a filter to be applied to pixels in the field block is determined using the DCT class and quantization scale in each field block. Here, when the filter is determined, the strength of the filter is set to be stronger as the DCT coefficient of a predetermined value or more is distributed in a higher frequency band. Then, a filter is applied to each field block of the decoded image based on the determined filter. When a filter is applied, edge detection is performed using a quantization scale or a predetermined fixed value of each field block as a threshold, and a filter is applied without using at least edge pixels to remove mosquito noise.
【0345】このように、本実施形態の画像復号化装置
によると、各ブロックのDCT係数の分布からモスキー
トノイズが発生するブロック及びモスキートノイズの大
きさをフィールド単位で確実に検出することができる。
この際には、非イントラ符号化ブロックに対してはイン
トラ符号化ブロックとは異なるDCTパターンを用いる
ことによって、非イントラ符号化の特性に合った分類を
行うことができる。また非イントラ符号化ブロックに対
しては、DCT係数から得られる差分画像に対するノイ
ズパラメータを参照領域のノイズパラメータを用いて補
正することにより、非イントラ符号化ブロックであって
も、高精度に復号化画像のノイズパラメータを決定し、
モスキートノイズの大きさを決定することができる。ま
た、参照領域のノイズパラメータは、参照領域に重なる
ブロックのノイズパラメータを用いて求めることから、
高精度のノイズパラメータを得ることができる。As described above, according to the image decoding apparatus of the present embodiment, the block in which mosquito noise occurs and the magnitude of mosquito noise can be reliably detected from the distribution of the DCT coefficients of each block in field units.
In this case, by using a DCT pattern different from the intra-coded block for the non-intra-coded block, classification suitable for the characteristics of the non-intra-coded can be performed. For non-intra coded blocks, the noise parameters for the difference image obtained from the DCT coefficients are corrected using the noise parameters in the reference area, so that even non-intra coded blocks can be decoded with high accuracy. Determine the noise parameters of the image,
The magnitude of the mosquito noise can be determined. Also, since the noise parameter of the reference area is obtained using the noise parameter of the block overlapping the reference area,
A highly accurate noise parameter can be obtained.
【0346】そして、モスキートノイズの大きさに応じ
て強度の異なるフィルタを複数用いることによって、か
つ、エッジ検出を行ってエッジ画素を用いずにフィルタ
を施すことによって、画像の、特にエッジ部のボケを最
小限に抑えながら確実にモスキートノイズを除去するこ
とができる。また、フィールドブロックを単位としてモ
スキートノイズの検出、除去を行うので、インターレー
ス画像に対してはより正確にモスキートノイズの検出を
行うことができる。また、エッジ画素の検出に対するし
きい値として各ブロックの量子化スケールを用いること
によって、各ブロック毎に適応的にしきい値を変更する
ことができ、より精度の高いエッジ検出をすることがで
きる。これによって、特にエッジ部分のボケを最小限に
抑えながらさらに確実にモスキートノイズを除去するこ
とができる。また、フィールドブロックを単位としてモ
スキートノイズの検出と除去を行うため、より細かい単
位で確実にモスキートノイズの検出を行うことができ、
モスキートノイズが発生していない部分に悪影響を与え
ることなくモスキートノイズを除去することができる。Then, by using a plurality of filters having different intensities according to the magnitude of the mosquito noise, and performing the edge detection and performing the filtering without using the edge pixels, the blur of the image, particularly at the edge portion, is obtained. Mosquito noise can be reliably removed while minimizing the noise. In addition, since mosquito noise is detected and removed in units of field blocks, mosquito noise can be detected more accurately for interlaced images. In addition, by using the quantization scale of each block as a threshold value for detecting an edge pixel, the threshold value can be adaptively changed for each block, and more accurate edge detection can be performed. This makes it possible to more reliably remove mosquito noise while minimizing blurring particularly at edge portions. In addition, since mosquito noise is detected and removed in units of field blocks, mosquito noise can be reliably detected in finer units.
Mosquito noise can be removed without adversely affecting a portion where no mosquito noise is generated.
【0347】なお、本実施形態では、DCT係数ブロッ
クを3つのDCTクラスに分類し、モスキートノイズ除
去手段126で用いるフィルタの種類を3種類とした
が、DCTクラス及びフィルタの種類はこれには限らな
い。In the present embodiment, the DCT coefficient blocks are classified into three DCT classes, and three types of filters are used in the mosquito noise removing means 126. However, the types of DCT classes and filters are not limited to these. Absent.
【0348】また、本実施形態では、モスキートノイズ
除去手段126で用いるフィルタが低域通過フィルタで
ある場合について説明したが、これはモスキートノイズ
を除去するフィルタであれば他のフィルタ、例えばメデ
ィアンフィルタ等、であってもよい。またフィルタに用
いる画素の位置としては図39,図40の例には限らな
い。In this embodiment, the case where the filter used in the mosquito noise removing means 126 is a low-pass filter has been described. However, this is another filter that removes mosquito noise, such as a median filter. , May be. The positions of the pixels used for the filter are not limited to the examples shown in FIGS.
【0349】また本実施形態では、モスキートノイズ除
去手段126でエッジ検出を行う方法として、例えば図
39の画素dにフィルタを施す場合には、画素dと他の
画素との差分値を用いる方法について説明した。しか
し、エッジ検出の方法はこの方法には限らず、例えば隣
接画素の差分値を用いてエッジ検出を行うような方法で
あっても構わない。In the present embodiment, as a method of performing edge detection by the mosquito noise removing means 126, for example, when a filter is applied to the pixel d of FIG. 39, a method of using a difference value between the pixel d and another pixel is used. explained. However, the method of edge detection is not limited to this method. For example, a method of performing edge detection using a difference value between adjacent pixels may be used.
【0350】(第9の実施形態)第9の実施形態では、
1つのブロックに係るブロックノイズ及びモスキートノ
イズについては、これらのうちの一方を除去すべき符号
化ノイズとして選択する画像復号化装置について説明す
る。(Ninth Embodiment) In the ninth embodiment,
Regarding block noise and mosquito noise related to one block, an image decoding apparatus that selects one of them as coding noise to be removed will be described.
【0351】図41は第9の実施形態に係る画像復号化
装置のブロック図である。図41の画像復号化装置は、
画像復号化手段101と、ブロックノイズ検出手段10
2と、モスキートノイズ検出手段103と、ノイズ除去
領域決定手段104と、ノイズ除去手段105とを備え
ている。ブロックノイズ検出手段102と、モスキート
ノイズ検出手段103と、ノイズ除去領域決定手段10
4とは、ノイズ検出装置として動作する。FIG. 41 is a block diagram of an image decoding apparatus according to the ninth embodiment. The image decoding device in FIG.
Image decoding means 101 and block noise detection means 10
2, a mosquito noise detection unit 103, a noise removal region determination unit 104, and a noise removal unit 105. Block noise detecting means 102, mosquito noise detecting means 103, noise removing area determining means 10
4 operates as a noise detection device.
【0352】画像復号化手段101は、符号列を入力と
し、これをその符号列に適した方法で復号化して復号化
画像を得る。例えば、符号列がJPEG(joint photog
raphic image coding experts group)方式で符号化さ
れている場合にはJPEG方式で復号化を行い、MPE
G方式で符号化されている場合にはMPEG方式で復号
化を行う。画像復号化手段101は、復号化画像をブロ
ックノイズ検出手段102、モスキートノイズ検出手段
103及びノイズ除去手段105に対して出力する。The image decoding means 101 receives a code string as input and decodes it by a method suitable for the code string to obtain a decoded image. For example, if the code string is JPEG (joint photog
If it is encoded by the raphic image coding experts group), it is decoded by the JPEG method and MPE
If it is encoded by the G method, it is decoded by the MPEG method. The image decoding unit 101 outputs the decoded image to the block noise detection unit 102, the mosquito noise detection unit 103, and the noise removal unit 105.
【0353】復号化画像の画像データに基づいて、ブロ
ックノイズ検出手段102はブロックノイズが発生する
ブロック境界を検出し、モスキートノイズ検出手段10
3はモスキートノイズが発生するブロックを検出する。
ブロックノイズ検出手段102及びモスキートノイズ検
出手段103は、復号化画像の画像データの代わりに、
画像復号化手段101に入力される符号列から得られる
符号化情報に基づいて、ノイズを検出することとしても
よい。On the basis of the image data of the decoded image, the block noise detecting means 102 detects a block boundary where block noise occurs, and the mosquito noise detecting means 10
3 detects a block in which mosquito noise occurs.
The block noise detecting means 102 and the mosquito noise detecting means 103 replace the image data of the decoded image with
Noise may be detected based on coding information obtained from a code string input to the image decoding unit 101.
【0354】ブロックノイズ検出手段102におけるブ
ロックノイズの検出方法及びモスキートノイズ検出手段
103におけるモスキートノイズ検出方法としては、従
来の方法を用いることができる。また、第1〜第6の実
施形態で説明した方法によってブロックノイズが発生す
るブロック境界を検出したり、第7及び第8の実施形態
で説明した方法によってモスキートノイズが発生するブ
ロックを検出してもよい。As a method of detecting block noise in the block noise detecting means 102 and a method of detecting mosquito noise in the mosquito noise detecting means 103, a conventional method can be used. In addition, the block boundary where block noise occurs is detected by the method described in the first to sixth embodiments, and the block where mosquito noise occurs is detected by the method described in the seventh and eighth embodiments. Is also good.
【0355】図42はブロックノイズ及びモスキートノ
イズが発生した箇所の例を示す説明図である。図42に
おいては、1つの正方形が1つのブロックを示す。図4
2(a)は、ブロックノイズ検出手段102がブロック
ノイズの発生を検出したブロック境界を示している。図
42(a)において、太い実線で示したブロック境界B
Bがブロックノイズの発生が検出されたブロック境界で
ある。また、図42(b)は、モスキートノイズ検出手
段103がモスキートノイズの発生を検出したブロック
を示している。図42(b)において、斜線を施したブ
ロックMMがモスキートノイズの発生が検出されたブロ
ックである。ブロックノイズ検出手段102での検出結
果と、モスキートノイズ検出手段103での検出結果
は、ノイズ除去領域決定手段104に対して出力され
る。FIG. 42 is an explanatory diagram showing an example of a place where block noise and mosquito noise have occurred. In FIG. 42, one square indicates one block. FIG.
2A shows a block boundary at which the block noise detection unit 102 has detected the occurrence of block noise. In FIG. 42A, a block boundary B indicated by a thick solid line
B is a block boundary at which occurrence of block noise is detected. FIG. 42B shows a block in which the mosquito noise detection unit 103 has detected the occurrence of mosquito noise. In FIG. 42B, a hatched block MM is a block in which the occurrence of mosquito noise has been detected. The detection result of the block noise detection means 102 and the detection result of the mosquito noise detection means 103 are output to the noise removal area determination means 104.
【0356】ノイズ除去領域決定手段104は、ブロッ
クノイズ検出手段102及びモスキートノイズ検出手段
103の出力であるブロックノイズ及びモスキートノイ
ズの検出結果に基づき、除去すべきノイズを選択し、画
面内のどの領域でノイズ除去を行うべきかを決定する。
ノイズ除去を行う領域とは、ブロックノイズに関しては
検出されたブロック境界の周辺の画素、モスキートノイ
ズに関しては検出されたブロックのことをいう。この決
定の方法は、ブロックノイズとモスキートノイズとのど
ちらのノイズを除去することを優先するかによって異な
る。The noise removal area determination means 104 selects the noise to be removed based on the detection results of the block noise and mosquito noise output from the block noise detection means 102 and the mosquito noise detection means 103, and selects an area in the screen. Determines whether to remove noise.
The area from which noise is to be removed refers to pixels around a detected block boundary for block noise, and a detected block for mosquito noise. The method of this determination differs depending on which of the block noise and the mosquito noise is given priority for removing the noise.
【0357】図43は、図42のようにノイズが発生し
ている場合に、ノイズ除去を行うべきであると決定され
た領域を示す説明図である。図43の表記方法は図42
と同じである。FIG. 43 is an explanatory diagram showing an area where it is determined that noise removal should be performed when noise is generated as shown in FIG. 43 is shown in FIG.
Is the same as
【0358】まず、ブロックノイズの除去を優先する場
合について説明する。この場合には、ノイズ除去領域決
定手段104は、ブロックノイズ検出手段102でブロ
ックノイズが発生すると検出されたブロック境界BBに
対しては、そのままブロックノイズを除去すべきである
と決定する。そして、この時点でブロックノイズの除去
の対象となったブロック境界に接していないブロックで
あり、かつ、モスキートノイズ検出手段103でモスキ
ートノイズが発生するとして検出されたブロックMMに
対しては、モスキートノイズを除去すべきであると決定
する。First, the case where priority is given to the removal of block noise will be described. In this case, the noise removal area determination means 104 determines that the block noise should be removed as it is from the block boundary BB where the block noise detection means 102 has detected that block noise has occurred. At this time, the block MM which is not in contact with the block boundary from which the block noise has been removed and which is detected by the mosquito noise detection means 103 as generating mosquito noise is a mosquito noise. Should be removed.
【0359】すると、モスキートノイズ検出手段103
が検出したブロックMMが、ブロックノイズ検出手段1
02が検出したブロック境界BBに接する場合に、この
ブロックMMのモスキートノイズは除去せず、このブロ
ック境界BBのブロックノイズのみを除去すべきノイズ
として選択したことになる。図43(a)は、このよう
に、ブロックノイズを優先する場合に、ノイズ除去を行
うべきであると決定された領域を示す。Then, the mosquito noise detecting means 103
Is detected by the block noise detecting means 1
When 02 touches the detected block boundary BB, the mosquito noise of this block MM is not removed, and only the block noise of this block boundary BB is selected as noise to be removed. FIG. 43A shows an area where it is determined that noise removal should be performed when priority is given to block noise.
【0360】次に、モスキートノイズの除去を優先する
場合について説明する。この場合には、ノイズ除去領域
決定手段104は、モスキートノイズ検出手段103で
モスキートノイズが発生すると検出されたブロックMM
に対しては、そのままモスキートノイズを除去すべきで
あると決定する。そして、この時点でモスキートノイズ
の除去の対象となったブロックに接していないブロック
境界であり、かつ、ブロックノイズ検出手段102にお
いてブロックノイズが発生するとして検出されたブロッ
ク境界BBに対しては、ブロックノイズを除去すべきで
あると決定する。Next, the case where priority is given to the removal of mosquito noise will be described. In this case, the noise removal area determination means 104 determines whether the mosquito noise detection means 103 has detected that the mosquito noise has occurred.
It is determined that mosquito noise should be removed as it is. A block boundary that is not in contact with the block from which mosquito noise has been removed at this time and that is detected by the block noise detecting means 102 as generating block noise is a block boundary BB. Determine that noise should be removed.
【0361】すると、モスキートノイズ検出手段103
が検出したブロックMMが、ブロックノイズ検出手段1
02が検出したブロック境界BBに接する場合に、この
ブロック境界BBのブロックノイズは除去せず、このブ
ロックMMのモスキートノイズのみを除去すべきノイズ
として選択したことになる。図43(b)は、このよう
に、モスキートノイズを優先する場合に、ノイズ除去を
行うべきであると決定された領域を示している。Then, the mosquito noise detecting means 103
Is detected by the block noise detecting means 1
When 02 touches the detected block boundary BB, the block noise of this block boundary BB is not removed, and only the mosquito noise of this block MM is selected as noise to be removed. FIG. 43B shows an area where it is determined that noise removal should be performed when priority is given to mosquito noise.
【0362】また、ノイズ除去領域決定手段104にお
いて、ブロックノイズ及びモスキートノイズを除去する
領域を決定する方法として、ノイズの大きさを用いる方
法がある。この場合、ブロックノイズ検出手段102及
びモスキートノイズ検出手段103では、それぞれブロ
ックノイズ及びモスキートノイズが発生する箇所を検出
する他に、その大きさを求める。ノイズの大きさが大き
いほど目立つノイズであることを示している。As a method of determining a region from which block noise and mosquito noise are to be removed by the noise removing region determining means 104, there is a method using the magnitude of noise. In this case, the block noise detecting means 102 and the mosquito noise detecting means 103 detect the locations where the block noise and the mosquito noise occur, respectively, and also determine the magnitude thereof. The larger the magnitude of the noise, the more noticeable the noise.
【0363】ノイズの大きさを求める方法としては、例
えば、第1〜第8の実施形態で説明したように、DCT
係数の各周波数成分の分布によりブロックをいくつかの
クラス(DCTクラス)に分け、これらのクラスに基づ
いてノイズ除去のためのフィルタの種類を求め、このフ
ィルタの種類とノイズの大きさとを対応させる方法があ
る。ノイズの大きさは、他の方法を用いて求めてもよ
い。ブロックノイズ検出手段102とモスキートノイズ
検出手段103とが検出したノイズの発生箇所及び大き
さは、ノイズ除去領域決定手段104に入力される。As a method of obtaining the magnitude of the noise, for example, as described in the first to eighth embodiments, the DCT
The block is divided into several classes (DCT classes) based on the distribution of the frequency components of the coefficients, and the type of filter for noise removal is determined based on these classes, and the type of the filter is made to correspond to the magnitude of the noise. There is a way. The magnitude of the noise may be determined using another method. The location and magnitude of the noise detected by the block noise detection means 102 and the mosquito noise detection means 103 are input to the noise removal area determination means 104.
【0364】図44は、ノイズの大きさを考慮した場合
に、ノイズ除去を行うべき領域を示す説明図である。ノ
イズ除去領域決定手段104は、ブロックノイズとモス
キートノイズとのうち、大きさが大きい方のノイズの除
去を優先するように、除去すべきノイズを選択し、ノイ
ズ除去を行う領域を決定する。FIG. 44 is an explanatory diagram showing an area where noise removal is to be performed in consideration of the magnitude of noise. The noise removal area determining means 104 selects noise to be removed so as to give priority to the removal of the noise having the larger magnitude from the block noise and the mosquito noise, and determines the area from which the noise is to be removed.
【0365】図44(a)は、ブロックノイズ検出手段
102によりブロックノイズの発生が検出されたブロッ
ク境界を示している。図44(a)において、太い線で
示したブロック境界がブロックノイズが発生すると判断
された箇所であり、太い実線で示したブロック境界BB
1は、太い破線で示したブロック境界BB2よりもブロ
ックノイズの大きさが大きいことを示している。FIG. 44A shows a block boundary at which the occurrence of block noise has been detected by the block noise detecting means 102. In FIG. 44A, a block boundary indicated by a thick line is a portion where it is determined that block noise occurs, and a block boundary BB indicated by a thick solid line
1 indicates that the magnitude of the block noise is larger than the block boundary BB2 indicated by the thick broken line.
【0366】また図44(b)は、モスキートノイズ検
出手段103によりモスキートノイズの発生が検出され
たブロックを示している。図44(b)において、斜線
を施したブロックがモスキートノイズが発生すると判断
されたブロックであり、密度が高い斜線を施したブロッ
クMM1は、密度が低い斜線を施したブロックMM2よ
りもモスキートノイズの大きさが大きいことを示してい
る。FIG. 44B shows a block in which the occurrence of mosquito noise has been detected by the mosquito noise detection means 103. In FIG. 44 (b), the shaded blocks are blocks for which mosquito noise has been determined to occur, and the blocks MM1 shaded with high density are less mosquito noise than the blocks MM2 shaded with low density. This indicates that the size is large.
【0367】モスキートノイズ検出手段103が検出し
たブロックが、ブロックノイズ検出手段102が検出し
たブロック境界に接する場合には、大きさが大きいノイ
ズの方の除去を優先することとし、また、ブロックノイ
ズ及びモスキートノイズの大きさが同じであるときに
は、例えばブロックノイズの除去を優先することとす
る。When the block detected by the mosquito noise detecting means 103 is in contact with the block boundary detected by the block noise detecting means 102, priority is given to removal of the larger noise. When the magnitudes of the mosquito noises are the same, for example, priority is given to removing the block noise.
【0368】図44(c)は、このようにしてノイズ除
去領域決定手段104が決定したノイズ除去を行う領域
及びそのノイズの種類を示している。ノイズ除去領域決
定手段104は、ノイズ除去を行う領域及びそのノイズ
の種類、すなわち、除去すべきノイズの情報をノイズ除
去手段105に対して出力する。FIG. 44 (c) shows the area from which the noise removal is determined by the noise removal area determination means 104 and the type of the noise. The noise removal area determination unit 104 outputs information on the area from which noise is to be removed and the type of the noise, that is, information on the noise to be removed to the noise removal unit 105.
【0369】ノイズ除去手段105は、画像復号化手段
101から復号化画像を入力として受け取り、ノイズ除
去領域決定手段104から除去すべきノイズの情報を受
け取る。そして、ノイズ除去手段105は、除去すべき
ノイズを復号化画像から除去する。The noise removing unit 105 receives the decoded image from the image decoding unit 101 as input, and receives information on noise to be removed from the noise removing area determining unit 104. Then, the noise removing unit 105 removes noise to be removed from the decoded image.
【0370】ノイズ除去手段105は、例えば、ブロッ
クノイズを除去すべきブロック境界に対しては、その境
界周辺の画素に低域通過フィルタを施してブロックノイ
ズを除去し、モスキートノイズを除去すべきブロックに
対しては、エッジ画素以外の画素に低域通過フィルタを
施してモスキートノイズを除去する。ノイズ除去手段1
05は、例えば図43や図44(c)に従って、ブロッ
ク境界BB,BB1,BB2の周辺の画素には低域通過
フィルタを施し、ブロックMM,MM1,MM2の画素
に対してはエッジ検出を行い、エッジ画素以外の画素に
対してフィルタを施す。このような動作によりブロック
ノイズとモスキートノイズとを除去することができる。
ノイズ除去手段105は、ブロックノイズとモスキート
ノイズとを除去した復号化画像を出力画像として出力す
る。[0370] For example, for a block boundary from which block noise is to be removed, the noise removing means 105 applies a low-pass filter to pixels around the boundary to remove the block noise and remove the mosquito noise from the block. For, mosquito noise is removed by applying a low-pass filter to pixels other than the edge pixels. Noise removal means 1
In step 05, a low-pass filter is applied to pixels around the block boundaries BB, BB1 and BB2 according to, for example, FIG. 43 and FIG. , A filter is applied to pixels other than the edge pixels. With such an operation, block noise and mosquito noise can be removed.
The noise removing unit 105 outputs a decoded image from which block noise and mosquito noise have been removed as an output image.
【0371】以上のように、本実施形態の画像復号化装
置は、符号列を復号化して得られた復号化画像につい
て、ブロックノイズが発生する領域とモスキートノイズ
が発生する領域とを特定する。そして、ブロックノイズ
とモスキートノイズとのいずれか一方を優先することに
より、ブロックノイズとモスキートノイズとの両方を除
去する領域がないようにノイズ除去領域を決定する。そ
して決定されたノイズ除去領域とノイズの種類とに応じ
てノイズ除去を施すことにより、復号化画像からブロッ
クノイズとモスキートノイズとを除去する。As described above, the image decoding apparatus according to the present embodiment specifies an area where block noise occurs and an area where mosquito noise occurs in a decoded image obtained by decoding a code string. Then, by giving priority to either the block noise or the mosquito noise, the noise removal area is determined so that there is no area for removing both the block noise and the mosquito noise. Then, block noise and mosquito noise are removed from the decoded image by performing noise removal according to the determined noise removal area and the type of noise.
【0372】このように、本実施形態の画像復号化装置
によると、ブロックノイズとモスキートノイズとの両方
のノイズ除去を施す領域がなくなるので、ノイズ除去に
要する演算処理量や使用するメモリ量等を削減すること
ができる。したがって、例えばソフトウェアで実現する
場合には、処理量やメモリ量の削減を図ることができ
る。また、LSI(large-scale integration)等のハ
ードウェアで実現する場合には、チップ面積、消費電
力、メモリ量等を削減することができる。As described above, according to the image decoding apparatus of this embodiment, since there is no area for removing both the block noise and the mosquito noise, the amount of arithmetic processing required for noise removal and the amount of memory to be used are reduced. Can be reduced. Therefore, for example, when the processing is realized by software, the processing amount and the memory amount can be reduced. In addition, when realized by hardware such as an LSI (large-scale integration), the chip area, power consumption, memory amount, and the like can be reduced.
【0373】なお、本実施形態では、ブロックノイズが
発生すると判断されたブロック境界には低域通過フィル
タを施し、モスキートノイズが発生すると判断されたブ
ロックにはエッジ画素以外の画素に低域通過フィルタを
施すことにより、ブロックノイズとモスキートノイズと
を除去する場合について説明したが、これは他の方法で
あってもよい。In this embodiment, a low-pass filter is applied to a block boundary determined to generate block noise, and a low-pass filter is applied to pixels other than edge pixels to a block determined to generate mosquito noise. Has been described to remove the block noise and the mosquito noise, but this may be another method.
【0374】また、以上の実施形態では、直交変換とし
てDCTを採用した、MPEG-2方式を符号化方式と
して用いた場合について説明したが、第1,第5及び第
9の実施形態では、直交変換を用いる符号化方式であれ
ば他の符号化方式であってもよく、第2〜第4及び第6
〜第8の実施形態では、直交変換及び動き補償を用いる
符号化方式であれば他の符号化方式であってもよい。In the above embodiment, the case where the MPEG-2 system employing DCT as the orthogonal transform is used as the encoding system has been described. However, in the first, fifth and ninth embodiments, the orthogonal Any other encoding method may be used as long as it is an encoding method using conversion, and the second to fourth and sixth encoding methods may be used.
In the eighth to eighth embodiments, other encoding schemes may be used as long as the encoding scheme uses orthogonal transform and motion compensation.
【0375】また、第1〜第8の実施形態では、逆量子
化手段111からDCT係数ブロックをブロックノイズ
検出手段130等又はモスキートノイズ検出手段430
等に入力する場合について説明したが、ブロックノイズ
検出手段130等又はモスキートノイズ検出手段430
等はDCT係数の各周波数成分の分布を調べるためにD
CT係数を用いるので、可変長復号化手段110から逆
量子化を施す前の量子化されたDCT係数のブロック
を、ブロックノイズ検出手段130等又はモスキートノ
イズ検出手段430等に入力してもよい。Also, in the first to eighth embodiments, the DCT coefficient block is supplied from the inverse quantization means 111 to the block noise detection means 130 or the like or the mosquito noise detection means 430.
Has been described, but the block noise detection means 130 or the like or the mosquito noise detection means 430
Etc. are used to examine the distribution of each frequency component of the DCT coefficient.
Since the CT coefficient is used, the block of the quantized DCT coefficient before performing the inverse quantization from the variable length decoding unit 110 may be input to the block noise detection unit 130 or the mosquito noise detection unit 430 or the like.
【0376】[0376]
【発明の効果】以上のように、本発明によると、符号化
ノイズを確実に検出することができ、また、誤検出が少
なくなるので、ノイズ除去処理のために生じる画質の劣
化を防ぐことができる。非イントラ符号化ブロックにつ
いては、参照領域の符号化情報を用いるので、符号化ノ
イズを確実に検出することができる。インターレース画
像に対しては、フィールド毎に符号化ノイズ検出処理を
行うので、正確に符号化ノイズを検出することができ
る。さらに、ノイズの大きさに応じてノイズ除去処理を
行うので、画質の劣化を最小限に抑えながら確実に符号
化ノイズを除去することができる。As described above, according to the present invention, encoding noise can be reliably detected, and erroneous detection is reduced. Therefore, it is possible to prevent deterioration in image quality caused by noise removal processing. it can. For non-intra coded blocks, the coding information of the reference area is used, so that coding noise can be reliably detected. Since the encoding noise detection processing is performed for each field on the interlaced image, the encoding noise can be accurately detected. Further, since the noise removal processing is performed according to the magnitude of the noise, it is possible to reliably remove the coding noise while minimizing the deterioration of the image quality.
【図1】第1の実施形態に係る画像復号化装置のブロッ
ク図である。FIG. 1 is a block diagram of an image decoding device according to a first embodiment.
【図2】画像フォーマットが4:2:0フォーマットの
場合のマクロブロックの構成についての説明図である。FIG. 2 is an explanatory diagram of a configuration of a macro block when an image format is a 4: 2: 0 format.
【図3】ブロックノイズ検出手段の構成を示すブロック
図である。FIG. 3 is a block diagram illustrating a configuration of a block noise detection unit.
【図4】ブロックの分類に用いるDCTパターンの説明
図である。FIG. 4 is an explanatory diagram of a DCT pattern used for block classification.
【図5】イントラ符号化されたブロックを分類する処理
の流れを示すフローチャートである。FIG. 5 is a flowchart showing a flow of processing for classifying intra-coded blocks.
【図6】画素ブロックの配置についての説明図である。FIG. 6 is an explanatory diagram of an arrangement of pixel blocks.
【図7】フィルタの種類を求める手順を示すフローチャ
ートである。FIG. 7 is a flowchart showing a procedure for obtaining a type of a filter.
【図8】ブロック間の境界に対する水平方向のフィルタ
処理についての説明図である。FIG. 8 is an explanatory diagram of a horizontal filtering process on a boundary between blocks.
【図9】フィルタの周波数特性の例を示すグラフであ
る。FIG. 9 is a graph showing an example of a frequency characteristic of a filter.
【図10】第2の実施形態に係るブロックノイズ検出手
段の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a block noise detection unit according to a second embodiment.
【図11】非イントラ符号化されたブロックを分類する
処理の流れを示すフローチャートである。FIG. 11 is a flowchart illustrating a flow of processing for classifying non-intra-coded blocks.
【図12】処理対象ブロックとその参照領域についての
説明図である。FIG. 12 is an explanatory diagram of a processing target block and a reference area thereof.
【図13】第3の実施形態に係る画像復号化装置のブロ
ック図である。FIG. 13 is a block diagram of an image decoding device according to a third embodiment.
【図14】図13の画像復号化装置におけるブロックノ
イズ検出手段の構成を示すブロック図である。FIG. 14 is a block diagram illustrating a configuration of a block noise detection unit in the image decoding device in FIG. 13;
【図15】ブロックの分類に用いるDCTパターンの説
明図である。FIG. 15 is an explanatory diagram of a DCT pattern used for block classification.
【図16】ブロックを分類する処理の流れを示すフロー
チャートである。FIG. 16 is a flowchart illustrating a flow of processing for classifying blocks.
【図17】図14のブロックノイズ検出手段の他の構成
例を示すブロック図である。FIG. 17 is a block diagram showing another example of the configuration of the block noise detection means of FIG. 14;
【図18】DC係数を用いてブロックを分類する場合の
処理の流れを示すフローチャートである。FIG. 18 is a flowchart showing the flow of processing when classifying blocks using DC coefficients.
【図19】図14のブロックノイズ検出手段のさらに他
の構成例を示すブロック図である。FIG. 19 is a block diagram showing still another configuration example of the block noise detection means of FIG.
【図20】第4の実施形態に係るブロックノイズ検出手
段の構成を示すブロック図である。FIG. 20 is a block diagram illustrating a configuration of a block noise detection unit according to a fourth embodiment.
【図21】図20のブロックノイズ検出手段の他の構成
例を示すブロック図である。FIG. 21 is a block diagram showing another configuration example of the block noise detecting means of FIG. 20;
【図22】図20のブロックノイズ検出手段のさらに他
の構成例を示すブロック図である。FIG. 22 is a block diagram showing still another configuration example of the block noise detecting means of FIG. 20;
【図23】第5の実施形態に係るブロックノイズ検出手
段の構成を示すブロック図である。FIG. 23 is a block diagram illustrating a configuration of a block noise detection unit according to a fifth embodiment.
【図24】DCTモードがフィールドモードである場合
におけるDCT係数マクロブロックと画素ブロックをフ
ィールド別に表したものとの関係についての説明図であ
る。FIG. 24 is an explanatory diagram of the relationship between DCT coefficient macroblocks and pixel blocks represented by fields when the DCT mode is the field mode.
【図25】DCTモードがフレームモードである場合に
おけるDCT係数マクロブロックと画素ブロックをフィ
ールド別に表したものとの関係についての説明図であ
る。FIG. 25 is an explanatory diagram of the relationship between DCT coefficient macroblocks and pixel blocks represented by fields when the DCT mode is the frame mode.
【図26】フィールドブロックの配置についての説明図
である。FIG. 26 is an explanatory diagram of an arrangement of field blocks.
【図27】ブロック間の境界に対する垂直方向のフィル
タ処理についての説明図である。FIG. 27 is an explanatory diagram of filter processing in the vertical direction for a boundary between blocks.
【図28】第6の実施形態に係るブロックノイズ検出手
段の構成を示すブロック図である。FIG. 28 is a block diagram illustrating a configuration of a block noise detection unit according to a sixth embodiment.
【図29】参照領域のブロックノイズパラメータの取得
方法についての説明図である。FIG. 29 is an explanatory diagram of a method of acquiring a block noise parameter of a reference area.
【図30】第7の実施形態に係る画像復号化装置のブロ
ック図である。FIG. 30 is a block diagram of an image decoding device according to a seventh embodiment.
【図31】図30の画像復号化装置におけるモスキート
ノイズ検出手段の構成を示すブロック図である。FIG. 31 is a block diagram illustrating a configuration of a mosquito noise detection unit in the image decoding device in FIG. 30;
【図32】ブロックの分類に用いるDCTパターンの説
明図である。FIG. 32 is an explanatory diagram of a DCT pattern used for classifying blocks.
【図33】ブロックを分類する処理の流れを示すフロー
チャートである。FIG. 33 is a flowchart showing the flow of processing for classifying blocks.
【図34】非イントラ符号化されたブロックを分類する
処理の流れを示すフローチャートである。FIG. 34 is a flowchart showing the flow of a process for classifying non-intra-coded blocks.
【図35】フィルタ処理に用いる画素の例についての説
明図である。FIG. 35 is an explanatory diagram of an example of pixels used for filter processing.
【図36】モスキートノイズを除去するフィルタ処理の
例についての説明図である。FIG. 36 is an explanatory diagram of an example of filter processing for removing mosquito noise.
【図37】フィルタ処理に用いる画素の他の例について
の説明図である。FIG. 37 is an explanatory diagram of another example of the pixel used for the filter processing.
【図38】第8の実施形態に係るモスキートノイズ検出
手段の構成を示すブロック図である。FIG. 38 is a block diagram illustrating a configuration of a mosquito noise detection unit according to an eighth embodiment.
【図39】フィルタ処理に用いる画素の例についての説
明図である。FIG. 39 is an explanatory diagram of an example of pixels used for filter processing.
【図40】フィルタ処理に用いる画素の他の例について
の説明図である。FIG. 40 is an explanatory diagram of another example of the pixel used for the filter processing.
【図41】第9の実施形態に係る画像復号化装置のブロ
ック図である。FIG. 41 is a block diagram of an image decoding device according to a ninth embodiment.
【図42】ブロックノイズ及びモスキートノイズが発生
した箇所の例を示す説明図である。FIG. 42 is an explanatory diagram showing an example of a place where block noise and mosquito noise have occurred.
【図43】図42のようにノイズが発生している場合
に、ノイズ除去を行うべきであると決定された領域を示
す説明図である。FIG. 43 is an explanatory diagram showing a region where it is determined that noise removal should be performed when noise is occurring as in FIG. 42;
【図44】ノイズの大きさを考慮した場合に、ノイズ除
去を行うべきであると決定された領域を示す説明図であ
る。FIG. 44 is an explanatory diagram showing an area where it is determined that noise removal should be performed in consideration of the magnitude of noise.
101 画像復号化手段 102 ブロックノイズ検出手段 103 モスキートノイズ検出手段 104 ノイズ除去領域決定手段 105 ノイズ除去手段 110 可変長復号化手段 111 逆量子化手段 112 逆DCT手段 113,114 スイッチ 115 フレームメモリ 116 ブロックノイズ除去手段 118 パラメータメモリ手段 119 加算手段 126 モスキートノイズ除去手段 130,140,230,240,250,260,2
70,280,330,340 ブロックノイズ検出手
段 430,440 モスキートノイズ検出手段 131,141,231,261,331,341,4
31,441 DCTパターン判定手段 132,142,244,332,342 DC係数抽
出手段 133,143,255,333,343、433,4
43 量子化スケール抽出手段 134,144,233,243,253、334,3
44,434,444フィルタ決定手段 145,345,435、445 スイッチ 146,267,277,287,346,436,4
46 パラメータ補正手段 147,266,276,286,347,437,4
47 参照領域パラメータ決定手段 232 動きベクトル抽出手段 PTN1〜PTN4,PTN11〜PTN14 DCT
パターン BB,BB1,BB2 ブロックノイズが発生するブロ
ック境界 MM,MM1,MM2 モスキートノイズが発生するブ
ロックDESCRIPTION OF SYMBOLS 101 Image decoding means 102 Block noise detection means 103 Mosquito noise detection means 104 Noise removal area determination means 105 Noise removal means 110 Variable length decoding means 111 Inverse quantization means 112 Inverse DCT means 113,114 Switch 115 Frame memory 116 Block noise Removal means 118 Parameter memory means 119 Addition means 126 Mosquito noise removal means 130, 140, 230, 240, 250, 260, 2
70,280,330,340 Block noise detecting means 430,440 Mosquito noise detecting means 131,141,231,261,331,341,4
31, 441 DCT pattern determining means 132, 142, 244, 332, 342 DC coefficient extracting means 133, 143, 255, 333, 343, 433, 4
43 Quantization scale extraction means 134, 144, 233, 243, 253, 334, 3
44, 434, 444 filter determining means 145, 345, 435, 445 switch 146, 267, 277, 287, 346, 436, 4
46 Parameter correction means 147, 266, 276, 286, 347, 437, 4
47 Reference area parameter determination means 232 Motion vector extraction means PTN1 to PTN4, PTN11 to PTN14 DCT
Pattern BB, BB1, BB2 Block boundary in which block noise occurs MM, MM1, MM2 Block in which mosquito noise occurs
───────────────────────────────────────────────────── フロントページの続き (31)優先権主張番号 特願平11−322569 (32)優先日 平成11年11月12日(1999.11.12) (33)優先権主張国 日本(JP) (72)発明者 谷内 弘志 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 高橋 秀也 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5C059 KK03 KK04 MA00 MA04 MA05 MA23 MC11 MC32 MC34 MC38 ME01 NN01 NN23 NN28 NN38 PP04 PP16 PP25 SS01 SS06 SS11 TA69 TB08 TC04 TC10 TC12 TC42 TD08 TD12 UA05 UA11 UA33 5J064 AA02 BA09 BA13 BA16 BB03 BB07 BB11 BC01 BC02 BC08 BC12 BC22 BC25 BD01 ──────────────────────────────────────────────────続 き Continued on the front page (31) Priority claim number Japanese Patent Application No. 11-322569 (32) Priority date November 12, 1999 (November 12, 1999) (33) Priority claim country Japan (JP) (72) Inventor Hiroshi Taniuchi 1006 Kadoma, Kadoma, Osaka Pref. Matsushita Electric Industrial Co., Ltd. KK04 MA00 MA04 MA05 MA23 MC11 MC32 MC34 MC38 ME01 NN01 NN23 NN28 NN38 PP04 PP16 PP25 SS01 SS06 SS11 TA69 TB08 TC04 TC10 TC12 TC42 TD08 TD12 UA05 UA11 UA33 5J064 AA02 BA09 BA13 BA16 BB03 BB07 BC01 BC01 BC01 BC02
Claims (13)
位の直交変換、及び量子化の各処理を用いて符号化され
た符号列から、各ブロックについての直交変換係数及び
動きベクトルを含んだ符号化情報を抽出する符号化情報
抽出ステップと、 各ブロックについての動きベクトルに基づいて、参照フ
レームから各ブロックの参照領域を求める参照領域抽出
ステップと、 各ブロック及びその参照領域に重なる参照フレーム内の
ブロックについての、前記直交変換係数の各周波数成分
の分布に基づいて、除去すべき符号化ノイズを検出する
符号化ノイズ検出ステップとを備えたノイズ検出方法。An encoding information including an orthogonal transformation coefficient and a motion vector for each block from a code sequence encoded by using motion compensation prediction, a block-based orthogonal transformation, and a quantization process for an image. Encoding information extraction step of extracting a reference area of each block from a reference frame based on a motion vector of each block; and a block in a reference frame overlapping each block and the reference area. A coding noise detecting step of detecting coding noise to be removed based on a distribution of each frequency component of the orthogonal transform coefficients.
であり、 前記符号化ノイズ検出ステップでは、 各ブロックを、その前記直交変換係数の各周波数成分の
分布に基づいて、複数のクラスに分類分けし、 処理対象ブロック及びこれに隣接する隣接ブロックのク
ラスと、これらのブロックのそれぞれの参照領域に重な
る参照フレーム内のブロックのクラスとに基づいて、前
記処理対象ブロック及び前記隣接ブロックのそれぞれの
新たなクラスを求め、 前記新たなクラスに基づいて、前記処理対象ブロックと
前記隣接ブロックとの間に生じるブロックノイズの大き
さを検出することを特徴とするノイズ検出方法。2. The noise detection method according to claim 1, wherein the block noise is detected as the coding noise. In the coding noise detection step, each block is set to each frequency of the orthogonal transform coefficient. Based on the component distribution, the data is classified into a plurality of classes. Based on the class of the block to be processed and the adjacent block adjacent thereto, and the class of the block in the reference frame overlapping each of the reference regions of these blocks. Calculating a new class of each of the processing target block and the adjacent block, and detecting a magnitude of block noise generated between the processing target block and the adjacent block based on the new class. Noise detection method.
のであり、 前記符号化ノイズ検出ステップでは、 各ブロックを、その前記直交変換係数の各周波数成分の
分布に基づいて、複数のクラスに分類分けし、 処理対象ブロックのクラスと、前記処理対象ブロックの
参照領域に重なる参照フレーム内のブロックのクラスと
に基づいて、前記処理対象ブロックの新たなクラスを求
め、 前記新たなクラスに基づいて、前記処理対象ブロックに
生じるモスキートノイズの大きさを検出することを特徴
とするノイズ検出方法。3. The noise detection method according to claim 1, wherein mosquito noise is detected as the coding noise. In the coding noise detection step, each block is converted into each frequency of the orthogonal transform coefficient. Classifying into a plurality of classes based on the distribution of the components, a new class of the processing target block based on the class of the processing target block and the class of the block in the reference frame overlapping the reference region of the processing target block. A noise detection method comprising: obtaining a class; and detecting a magnitude of mosquito noise generated in the processing target block based on the new class.
であり、 前記符号化ノイズ検出ステップでは、 前記符号化情報から処理対象ブロック及びこれに隣接す
る隣接ブロックについての前記直交変換係数の直流成分
を抽出し、 前記直交変換係数の各周波数成分の分布に加えて、前記
処理対象ブロックと前記隣接ブロックとの間の前記直流
成分の差の絶対値に基づいて、前記処理対象ブロックと
前記隣接ブロックとの間に生じるブロックノイズの大き
さを検出することを特徴とするノイズ検出方法。4. The noise detection method according to claim 1, wherein a block noise is detected as the coding noise, and in the coding noise detection step, a processing target block and an adjacent block are detected from the coding information. Extract the DC component of the orthogonal transform coefficient for the adjacent block to be added, in addition to the distribution of each frequency component of the orthogonal transform coefficient, the absolute value of the difference of the DC component between the processing target block and the adjacent block A noise detection method for detecting a magnitude of block noise generated between the processing target block and the adjacent block based on the block noise.
て、 前記符号化ノイズ検出ステップでは、 前記符号化情報から前記処理対象ブロックについての量
子化スケールを抽出し、 前記直交変換係数の各周波数成分の分布に加えて、前記
直流成分の差の絶対値と、前記量子化スケールとに基づ
いて、前記処理対象ブロックと前記隣接ブロックとの間
に生じるブロックノイズの大きさを検出することを特徴
とするノイズ検出方法。5. The noise detection method according to claim 4, wherein, in the coding noise detection step, a quantization scale for the processing target block is extracted from the coding information, and each frequency component of the orthogonal transform coefficient is extracted. In addition to the distribution, the absolute value of the difference between the DC components, based on the quantization scale, to detect the magnitude of block noise generated between the processing target block and the adjacent block, Noise detection method.
て、 前記直交変換係数の各周波数成分の分布に加えて、処理
対象ブロック又はこれに隣接する隣接ブロックの動きベ
クトルの大きさに基づいて、除去すべき符号化ノイズを
検出することを特徴とするノイズ検出方法。6. The noise detection method according to claim 1, wherein, in addition to the distribution of each frequency component of the orthogonal transform coefficient, a magnitude of a motion vector of the processing target block or an adjacent block adjacent thereto is calculated based on: A noise detection method comprising detecting coding noise to be removed.
であり、 前記符号化ノイズ検出ステップでは、 前記符号化情報から前記処理対象ブロック及びこれに隣
接する隣接ブロックについての前記直交変換係数の直流
成分を抽出し、 前記直交変換係数の各周波数成分の分布及び前記動きベ
クトルの大きさに加えて、前記処理対象ブロックと前記
隣接ブロックとの間の前記直流成分の差の絶対値に基づ
いて、前記処理対象ブロックと前記隣接ブロックとの間
に生じるブロックノイズの大きさを検出することを特徴
とするノイズ検出方法。7. The noise detection method according to claim 6, wherein a block noise is detected as the coding noise. In the coding noise detection step, the processing target block and the processing target block are determined from the coding information. Extract the DC component of the orthogonal transform coefficient for the adjacent block adjacent to, in addition to the distribution of each frequency component of the orthogonal transform coefficient and the magnitude of the motion vector, between the block to be processed and the adjacent block A noise detection method, comprising: detecting a magnitude of block noise generated between the processing target block and the adjacent block based on an absolute value of the difference between the DC components.
て、 前記符号化ノイズ検出ステップでは、 前記符号化情報から前記処理対象ブロックについての量
子化スケールを抽出し、 前記直交変換係数の各周波数成分の分布及び前記各ブロ
ックの動きベクトルの大きさに加えて、前記直流成分の
差の絶対値と、前記量子化スケールとに基づいて、前記
処理対象ブロックと前記隣接ブロックとの間に生じるブ
ロックノイズの大きさを検出することを特徴とするノイ
ズ検出方法。8. The noise detection method according to claim 7, wherein in the coding noise detection step, a quantization scale for the processing target block is extracted from the coding information, and each frequency component of the orthogonal transform coefficient is extracted. Block noise generated between the block to be processed and the adjacent block based on the absolute value of the difference between the DC components and the quantization scale in addition to the distribution of the motion vector and the magnitude of the motion vector of each block. A noise detection method characterized by detecting the size of a noise.
て、 前記符号化ノイズとしてブロックノイズとモスキートノ
イズとを検出し、 1つのブロックに係るブロックノイズ及びモスキートノ
イズのうちの一方を、これらのノイズの大小に基づい
て、除去すべき符号化ノイズとして選択することを特徴
とするノイズ検出方法。9. The noise detection method according to claim 1, wherein a block noise and a mosquito noise are detected as the coding noise, and one of the block noise and the mosquito noise related to one block is detected by the noise. A noise detection method for selecting as coding noise to be removed based on the magnitude of
いて、 インターレース画像に対しては、フィールド毎に符号化
ノイズ検出処理を行うことを特徴とするノイズ検出方
法。10. The noise detection method according to claim 1, wherein a coding noise detection process is performed for each interlace image for each field.
単位の直交変換及び量子化の各処理を用いて符号化され
た符号列から求められた、各ブロックについての直交変
換係数及び動きベクトルを含んだ符号化情報を入力と
し、 各ブロックについての動きベクトルに基づいて、参照フ
レームから各ブロックの参照領域を求め、各ブロック及
びその参照領域に重なる参照フレーム内のブロックにつ
いての、前記直交変換係数の各周波数成分の分布に基づ
いて、除去すべき符号化ノイズを検出し、その検出結果
を出力する手段を備えたノイズ検出装置。11. A code including an orthogonal transform coefficient and a motion vector for each block, obtained from a code sequence coded by using motion compensation prediction, a block unit orthogonal transform, and a quantization process for an image. Input, and obtains a reference region of each block from a reference frame based on a motion vector for each block, and calculates each frequency of the orthogonal transform coefficient for each block and a block in a reference frame overlapping the reference region. A noise detection device comprising: means for detecting coding noise to be removed based on a distribution of components and outputting a result of the detection.
と、 前記符号列を復号化し、各ブロックについての前記直交
変換係数及び処理対象ブロックについての動きベクトル
を含んだ符号化情報を出力する復号化部と、 前記ノイズ検出装置が出力する検出結果に基づいて、符
号化ノイズを除去する符号化ノイズ除去部とを備えた画
像復号化装置。12. The noise detection device according to claim 11, wherein the decoding unit decodes the code string and outputs encoding information including the orthogonal transform coefficient for each block and a motion vector for a processing target block. An image decoding device comprising: a coding noise removal unit configured to remove coding noise based on a detection result output by the noise detection device.
おいて、 前記ノイズ検出装置は、 前記符号化ノイズとしてモスキートノイズを検出するも
のであり、かつ、 前記符号化情報から前記処理対象ブロックについての量
子化スケールを抽出するものであり、 前記符号化ノイズ除去部は、 ノイズ除去に用いないエッジ画素を検出するためのしき
い値として、前記量子化スケールに応じた値を用いるこ
とを特徴とする画像復号化装置。13. The image decoding device according to claim 12, wherein the noise detection device is configured to detect mosquito noise as the encoding noise, and to calculate the mosquito noise from the encoding information. Extracting a quantization scale, wherein the coding noise removing unit uses a value corresponding to the quantization scale as a threshold value for detecting an edge pixel not used for noise removal. Image decoding device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000244861A JP2001204029A (en) | 1999-08-25 | 2000-08-11 | Noise detection method, noise detector and image recorder |
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23888499 | 1999-08-25 | ||
JP23960699 | 1999-08-26 | ||
JP24753699 | 1999-09-01 | ||
JP11-322569 | 1999-11-12 | ||
JP11-247536 | 1999-11-12 | ||
JP11-238884 | 1999-11-12 | ||
JP32256999 | 1999-11-12 | ||
JP11-239606 | 1999-11-12 | ||
JP2000244861A JP2001204029A (en) | 1999-08-25 | 2000-08-11 | Noise detection method, noise detector and image recorder |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001204029A true JP2001204029A (en) | 2001-07-27 |
Family
ID=27530005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000244861A Pending JP2001204029A (en) | 1999-08-25 | 2000-08-11 | Noise detection method, noise detector and image recorder |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001204029A (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003026313A1 (en) * | 2001-09-14 | 2003-03-27 | Sharp Kabushiki Kaisha | Adaptive filtering based upon boundary strength |
JP2006350618A (en) * | 2005-06-15 | 2006-12-28 | Kddi Corp | Moving image processor |
EP2101505A2 (en) | 2008-03-11 | 2009-09-16 | Sony Corporation | Image processing device, method, and program |
JP2010507286A (en) * | 2006-10-13 | 2010-03-04 | クゥアルコム・インコーポレイテッド | Video coding with adaptive filtering for motion compensated prediction |
JP2010514246A (en) * | 2006-12-18 | 2010-04-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image compression and decompression |
WO2010074170A1 (en) * | 2008-12-25 | 2010-07-01 | シャープ株式会社 | Image decoding device and image coding device |
JP2011061554A (en) * | 2009-09-10 | 2011-03-24 | Canon Inc | Image processing apparatus, image correcting apparatus, and method for controlling them |
US7929610B2 (en) | 2001-03-26 | 2011-04-19 | Sharp Kabushiki Kaisha | Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding |
USRE43628E1 (en) | 2001-03-26 | 2012-09-04 | Sharp Kabushiki Kaisha | Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding |
JP2013501449A (en) * | 2009-08-04 | 2013-01-10 | サムスン エレクトロニクス カンパニー リミテッド | Video data deblocking filtering apparatus and method, and video decoding apparatus and method using the same |
JP2013058935A (en) * | 2011-09-08 | 2013-03-28 | Nippon Hoso Kyokai <Nhk> | Image processing device, filter processing method, and program |
WO2013153935A1 (en) * | 2012-04-11 | 2013-10-17 | シャープ株式会社 | Video processing device, video processing method, television receiver, program, and recording medium |
JP2015518350A (en) * | 2012-04-24 | 2015-06-25 | ヴィド スケール インコーポレイテッド | Method and apparatus for smooth stream switching in MPEG / 3GPP-DASH |
KR101564564B1 (en) | 2014-05-07 | 2015-10-30 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
KR101564940B1 (en) | 2014-10-29 | 2015-11-02 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
KR101564941B1 (en) | 2014-10-29 | 2015-11-02 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
KR101564939B1 (en) | 2014-10-27 | 2015-11-02 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
KR101564942B1 (en) | 2014-10-29 | 2015-11-02 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
KR101564943B1 (en) | 2014-10-29 | 2015-11-02 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
US9264738B2 (en) | 2010-01-14 | 2016-02-16 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video by using deblocking filtering, and method and apparatus for decoding video by using deblocking filtering |
CN110891177A (en) * | 2018-09-07 | 2020-03-17 | 腾讯科技(深圳)有限公司 | Denoising processing method, device and machine equipment in video denoising and video transcoding |
-
2000
- 2000-08-11 JP JP2000244861A patent/JP2001204029A/en active Pending
Cited By (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7929610B2 (en) | 2001-03-26 | 2011-04-19 | Sharp Kabushiki Kaisha | Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding |
USRE47261E1 (en) | 2001-03-26 | 2019-02-26 | Dolby Laboratories Licensing Corporation | Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding |
USRE47202E1 (en) | 2001-03-26 | 2019-01-08 | Dolby Laboratories Licensing Corporation | Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding |
USRE46491E1 (en) | 2001-03-26 | 2017-07-25 | Dolby Laboratories Licensing Corporation | Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding |
USRE46482E1 (en) | 2001-03-26 | 2017-07-18 | Dolby Laboratories Licensing Corporation | Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding |
USRE45250E1 (en) | 2001-03-26 | 2014-11-18 | Sharp Kabushiki Kaisha | Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding |
USRE44497E1 (en) | 2001-03-26 | 2013-09-17 | Sharp Kabushiki Kaisha | Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding |
USRE43628E1 (en) | 2001-03-26 | 2012-09-04 | Sharp Kabushiki Kaisha | Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding |
JP2011061851A (en) * | 2001-09-14 | 2011-03-24 | Sharp Corp | Image decoding apparatus and image decoding method |
CN1311691C (en) * | 2001-09-14 | 2007-04-18 | 夏普株式会社 | Adaptive filtering based upon boundary strength |
US10602142B2 (en) | 2001-09-14 | 2020-03-24 | Dolby Laboratories Licensing Corporation | Adaptive filtering based upon boundary strength |
US7787542B2 (en) | 2001-09-14 | 2010-08-31 | Sharp Kabushiki Kaisha | Adaptive filtering based upon boundary strength |
US10349051B1 (en) | 2001-09-14 | 2019-07-09 | Dolby Laboratories Licensing Corporation | Adaptive filtering based upon boundary strength |
US7907667B2 (en) | 2001-09-14 | 2011-03-15 | Sharp Kabushiki Kaisha | Adaptive filtering based upon boundary strength |
WO2003026313A1 (en) * | 2001-09-14 | 2003-03-27 | Sharp Kabushiki Kaisha | Adaptive filtering based upon boundary strength |
US10257511B2 (en) | 2001-09-14 | 2019-04-09 | Dolby Laboratories Licensing Corporation | Adaptive filtering based upon boundary strength |
US9124888B2 (en) | 2001-09-14 | 2015-09-01 | Sharp Kabushiki Kaisha | Adaptive filtering based upon boundary strength |
US9609327B1 (en) | 2001-09-14 | 2017-03-28 | Dolby Laboartories Licensing Corporation | Adaptive filtering based upon boundary strength |
US8040957B2 (en) | 2001-09-14 | 2011-10-18 | Sharp Kabushiki Kaisha | Adaptive filtering based upon boundary strength |
US7450641B2 (en) | 2001-09-14 | 2008-11-11 | Sharp Laboratories Of America, Inc. | Adaptive filtering based upon boundary strength |
KR100751670B1 (en) * | 2001-09-14 | 2007-08-23 | 샤프 가부시키가이샤 | Image encoding device, image decoding device and image encoding/decoding method |
US9503759B2 (en) | 2001-09-14 | 2016-11-22 | Dolby Laboratories Licensing Corporation | Adaptive filtering based upon boundary strength |
US10178386B2 (en) | 2001-09-14 | 2019-01-08 | Dolby Laboratories Licensing Corporation | Adaptive filtering based upon boundary strength |
US9872024B2 (en) | 2001-09-14 | 2018-01-16 | Dolby Laboratories Licensing Corporation | Adaptive filtering based upon boundary strength |
US7613240B2 (en) | 2001-09-14 | 2009-11-03 | Sharp Kabushiki Kaisha | Adaptive filtering based upon boundary strength |
US9866834B2 (en) | 2001-09-14 | 2018-01-09 | Dolby Laboratories Licensing Corporation | Adaptive filtering based upon boundary strength |
US9848191B2 (en) | 2001-09-14 | 2017-12-19 | Dolby Laboratories Licensing Corporation | Adaptive filtering based upon boundary strength |
US8891634B2 (en) | 2001-09-14 | 2014-11-18 | Sharp Kabushiki Kaisha | Adaptive filtering based upon boundary strength |
US8798173B2 (en) | 2001-09-14 | 2014-08-05 | Sharp Kabushiki Kaisha | Adaptive filtering based upon boundary strength |
JP2006350618A (en) * | 2005-06-15 | 2006-12-28 | Kddi Corp | Moving image processor |
JP4688147B2 (en) * | 2005-06-15 | 2011-05-25 | Kddi株式会社 | Moving image processing device |
JP2010507286A (en) * | 2006-10-13 | 2010-03-04 | クゥアルコム・インコーポレイテッド | Video coding with adaptive filtering for motion compensated prediction |
US9014280B2 (en) | 2006-10-13 | 2015-04-21 | Qualcomm Incorporated | Video coding with adaptive filtering for motion compensated prediction |
US9786066B2 (en) | 2006-12-18 | 2017-10-10 | Koninklijke Philips N.V. | Image compression and decompression |
JP2010514246A (en) * | 2006-12-18 | 2010-04-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image compression and decompression |
US8452120B2 (en) | 2008-03-11 | 2013-05-28 | Sony Corporation | Image processing device and method |
EP2101505A2 (en) | 2008-03-11 | 2009-09-16 | Sony Corporation | Image processing device, method, and program |
US8401311B2 (en) | 2008-03-11 | 2013-03-19 | Sony Corporation | Image processing device, method, and program |
EP2228990A2 (en) | 2008-03-11 | 2010-09-15 | Sony Corporation | Image processing device and method |
EA033108B1 (en) * | 2008-12-25 | 2019-08-30 | Шарп Кабусики Кайся | Image decoding device and image coding device |
JP2010154264A (en) * | 2008-12-25 | 2010-07-08 | Sharp Corp | Image decoding apparatus and image encoding apparatus |
WO2010074170A1 (en) * | 2008-12-25 | 2010-07-01 | シャープ株式会社 | Image decoding device and image coding device |
US8792738B2 (en) | 2008-12-25 | 2014-07-29 | Sharp Kabushiki Kaisha | Image decoding apparatus and image coding apparatus |
JP2013501449A (en) * | 2009-08-04 | 2013-01-10 | サムスン エレクトロニクス カンパニー リミテッド | Video data deblocking filtering apparatus and method, and video decoding apparatus and method using the same |
JP2011061554A (en) * | 2009-09-10 | 2011-03-24 | Canon Inc | Image processing apparatus, image correcting apparatus, and method for controlling them |
US10284878B2 (en) | 2010-01-14 | 2019-05-07 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video by using deblocking filtering, and method and apparatus for decoding video by using deblocking filtering |
US9264738B2 (en) | 2010-01-14 | 2016-02-16 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video by using deblocking filtering, and method and apparatus for decoding video by using deblocking filtering |
US9979986B2 (en) | 2010-01-14 | 2018-05-22 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video by using deblocking filtering, and method and apparatus for decoding video by using deblocking filtering |
JP2013058935A (en) * | 2011-09-08 | 2013-03-28 | Nippon Hoso Kyokai <Nhk> | Image processing device, filter processing method, and program |
WO2013153935A1 (en) * | 2012-04-11 | 2013-10-17 | シャープ株式会社 | Video processing device, video processing method, television receiver, program, and recording medium |
JP2013240039A (en) * | 2012-04-11 | 2013-11-28 | Sharp Corp | Video processing device, video processing method, television receiver, program, and recording medium |
CN104221361A (en) * | 2012-04-11 | 2014-12-17 | 夏普株式会社 | Video processing device, video processing method, television receiver, program, and recording medium |
JP2015518350A (en) * | 2012-04-24 | 2015-06-25 | ヴィド スケール インコーポレイテッド | Method and apparatus for smooth stream switching in MPEG / 3GPP-DASH |
KR101564564B1 (en) | 2014-05-07 | 2015-10-30 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
KR101564939B1 (en) | 2014-10-27 | 2015-11-02 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
KR101564940B1 (en) | 2014-10-29 | 2015-11-02 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
KR101564943B1 (en) | 2014-10-29 | 2015-11-02 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
KR101564942B1 (en) | 2014-10-29 | 2015-11-02 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
KR101564941B1 (en) | 2014-10-29 | 2015-11-02 | 삼성전자주식회사 | Method and apparatus for video encoding using deblocking filtering, and method and apparatus for video decoding using the same |
CN110891177A (en) * | 2018-09-07 | 2020-03-17 | 腾讯科技(深圳)有限公司 | Denoising processing method, device and machine equipment in video denoising and video transcoding |
CN110891177B (en) * | 2018-09-07 | 2023-03-21 | 腾讯科技(深圳)有限公司 | Denoising processing method, device and machine equipment in video denoising and video transcoding |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100644498B1 (en) | Noise detecting method, noise detector and image decoding apparatus | |
JP2001204029A (en) | Noise detection method, noise detector and image recorder | |
KR101275066B1 (en) | System and method to process motion vectors of video data | |
US6665346B1 (en) | Loop-filtering method for image data and apparatus therefor | |
US8311130B2 (en) | Block distortion detection method, block distortion detection apparatus, block distortion removal method, and block distortion removal apparatus | |
JP4565010B2 (en) | Image decoding apparatus and image decoding method | |
US6466625B1 (en) | Picture signal processing method and apparatus | |
JP2003244702A (en) | Filtering method and apparatus for removing blocking artifact | |
JPH08228356A (en) | Processing system for picture representing signal | |
KR20070116717A (en) | Method and device for measuring mpeg noise strength of compressed digital image | |
US20150195520A1 (en) | Video encoder with intra-prediction pre-processing and methods for use therewith | |
JP2005515730A (en) | System and method for enhancing sharpness using encoded information and local spatial characteristics | |
JP2005525014A (en) | Sharpness enhancement system and method for encoded digital video | |
JP4824708B2 (en) | Moving picture encoding method, apparatus, program, and computer-readable recording medium | |
JP4528255B2 (en) | Video decoding apparatus and video decoding program | |
TWI782853B (en) | Image encoding device, image encoding method, image decoding device, image decoding method | |
JP4449430B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
KR100987581B1 (en) | Method of Partial Block Matching for Fast Motion Estimation | |
JP2006325155A (en) | Image signal processor | |
JP4227160B2 (en) | Block distortion removal method | |
JP2001145104A (en) | Method and device for decoding image | |
WO2023200774A1 (en) | Sign prediction in video coding | |
JP2002199403A (en) | Block distortion detecting method, block distortion detector, block distortion eliminating method and block distortion eliminating device | |
Mahjoub et al. | H. 264 deblocking filter enhancement | |
JP2001359098A (en) | Image signal processor and method for processing image signal |