JP2001285882A - Device and method for reducing noise - Google Patents

Device and method for reducing noise

Info

Publication number
JP2001285882A
JP2001285882A JP2000101543A JP2000101543A JP2001285882A JP 2001285882 A JP2001285882 A JP 2001285882A JP 2000101543 A JP2000101543 A JP 2000101543A JP 2000101543 A JP2000101543 A JP 2000101543A JP 2001285882 A JP2001285882 A JP 2001285882A
Authority
JP
Japan
Prior art keywords
information
prediction
class
extracting
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000101543A
Other languages
Japanese (ja)
Other versions
JP4552262B2 (en
JP2001285882A5 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yasuhiro Fujimori
泰弘 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000101543A priority Critical patent/JP4552262B2/en
Publication of JP2001285882A publication Critical patent/JP2001285882A/en
Publication of JP2001285882A5 publication Critical patent/JP2001285882A5/ja
Application granted granted Critical
Publication of JP4552262B2 publication Critical patent/JP4552262B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the prediction accuracy and to enhance the noise reduction performance at application of a classification adaptive prediction processing to a digital information signal that is subjected to coding decoding processing. SOLUTION: A decoder 1 outputs a decoded image signal and decoding-use attached information. The attached information means signal type information, image format information, image quality information, and a motion vector or the like. A class based on the attached information is created. An area segmentation section 4 extracts pixel data of a class tap to extract a feature quantity. A class code is generated on the basis of the attached information class and the feature quantity. A prediction coefficient ROM 8 outputs a prediction coefficient set corresponding to the received class code to a prediction arithmetic section 9. The prediction coefficient is decided in advance by learning and stored. Using the pixel data of the prediction tap extracted by a prediction tap data generating section 5 and the prediction coefficient set received from the ROM 8 to apply a prediction arithmetic operation to an output image signal of the decoder 1 can generate a signal whose noise is reduced.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、符号化されたデ
ィジタル画像信号、または符号化されたディジタルオー
ディオ信号を復号化した後にノイズを低減するようにし
たノイズ低減装置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a noise reduction apparatus and method for reducing noise after decoding an encoded digital image signal or an encoded digital audio signal.

【0002】[0002]

【従来の技術】画像信号の圧縮符号化方式のひとつとし
てMPEG2(Moving Picture Expert Group phase
2) による符号化方式が用いられている。MPEG2に
よる送受信または記録再生システムでは、画像信号に対
してMPEG2による圧縮符号化処理を施して送信また
は記録し、また、受信または再生した画像信号に対し
て、MPEG2による圧縮符号化処理に対応する伸長復
号化を施すことにより、元の画像信号を復元する。
2. Description of the Related Art MPEG2 (Moving Picture Expert Group phase) is one of the compression coding methods for image signals.
2) is used. In a transmission / reception or recording / reproducing system based on MPEG2, an image signal is subjected to compression / encoding processing based on MPEG2 to be transmitted or recorded, and a received / reproduced image signal is subjected to decompression corresponding to compression / encoding processing based on MPEG2. By decoding, the original image signal is restored.

【0003】MPEG2による符号化処理では、符号化
処理に汎用性を持たせ、また、符号化による圧縮の効率
を向上させるために、符号化された画像データと共に、
復号化処理用の付加情報を伝送している。付加情報は、
MPEG2のストリーム中のヘッダ中に挿入され、復号
化装置に対して伝送される。
[0003] In the encoding process by MPEG2, in order to make the encoding process versatile and to improve the efficiency of compression by encoding, together with the encoded image data,
The additional information for the decoding process is transmitted. Additional information
It is inserted into the header in the MPEG2 stream and transmitted to the decoding device.

【0004】MPEGに限らず、復号化によって得られ
る画像信号の特性は、適用される符号化復号化方式によ
って大きく異なる。例えば輝度信号、色差信号、三原色
信号などの信号種類に応じてその物理的な特性(周波数
特性等)が大きく相違する。この相違が符号化復号化処
理を経た復号信号にも残ることになる。また、一般的に
画像の符号化復号化処理では、時空間の間引き処理を導
入することによって、符号化の対象となる画素数を低減
することが多い。間引き方法によって、画像の時空間解
像度の特性が大きく相違する。さらに、時空間解像度特
性の相違が小さい場合においても、符号化における圧縮
率(伝送レート)の条件によってS/N、符号化歪み量
などの画質特性が大きく異なる。
[0004] In addition to MPEG, the characteristics of image signals obtained by decoding differ greatly depending on the coding / decoding system applied. For example, physical characteristics (frequency characteristics and the like) greatly differ depending on signal types such as a luminance signal, a color difference signal, and three primary color signals. This difference will remain in the decoded signal that has undergone the encoding / decoding process. In general, in image coding / decoding processing, the number of pixels to be coded is often reduced by introducing space-time thinning processing. The characteristics of the spatio-temporal resolution of an image greatly differ depending on the thinning method. Further, even when the difference between the spatio-temporal resolution characteristics is small, the image quality characteristics such as S / N and the amount of coding distortion vary greatly depending on the compression rate (transmission rate) condition in coding.

【0005】本願出願人は、先に、クラス分類適応処理
を提案している。これは、予め(オフラインで)学習処
理において、実際の画像信号(教師信号および生徒信
号)を使用して予測係数をクラス毎に求め、蓄積してお
き、実際の画像変換処理では、入力画像信号からクラス
を求め、クラスに対応する予測係数と入力画像信号の複
数の画素値との予測演算によって、出力画素値を求める
ものである。クラスは、作成する画素の空間的、時間的
近傍の画素値の分布、波形に対応して決定される。実際
の画像信号を使用して予測係数を演算し、また、クラス
毎に予測係数を演算することによって、固定係数のロー
パスフィルタによるノイズ低減処理と比較して、入力画
像信号の解像度の劣化を防止しつつノイズを低減ができ
る特徴を有する。
The applicant of the present application has previously proposed a classification adaptive processing. This is because, in a learning process (offline), a prediction coefficient is obtained for each class using an actual image signal (teacher signal and student signal) and accumulated, and in an actual image conversion process, an input image signal is obtained. , And an output pixel value is obtained by a prediction operation of a prediction coefficient corresponding to the class and a plurality of pixel values of the input image signal. The class is determined according to the distribution and waveform of pixel values in the spatial and temporal vicinity of the pixel to be created. Calculates prediction coefficients using actual image signals and calculates prediction coefficients for each class to prevent degradation in resolution of input image signals compared to noise reduction processing using low-pass filters with fixed coefficients It has the characteristic that the noise can be reduced while performing.

【0006】[0006]

【発明が解決しようとする課題】復号化された画像信号
に対してクラス分類適応処理を適用することによって、
ノイズを低減する時に、対象とする画像信号が上述した
ような特性の相違を有している。それによって、クラス
分類適応処理の予測精度が低下するため、十分なノイズ
低減性能を得られないという問題があった。
By applying the classification adaptive processing to the decoded image signal,
When the noise is reduced, the target image signal has the above-described characteristic difference. As a result, the prediction accuracy of the classification adaptive processing is reduced, and there is a problem that sufficient noise reduction performance cannot be obtained.

【0007】また、クラス分類適応処理において、対象
画像信号の動き情報をクラスに導入することによって予
測性能を向上することができる。その動き情報は、動き
ベクトルのような詳細な動き情報の表現形式が効果的で
ある。しかしながら、符号化復号化処理を経た画像信号
から動きベクトルを検出する場合には、復号画像信号の
歪みのために動きベクトルの検出精度が低下し、また、
動きベクトル検出のために、多量の演算処理が必要とな
るという問題があった。
Further, in the classification adaptive processing, the prediction performance can be improved by introducing the motion information of the target image signal into the class. As the motion information, an expression form of detailed motion information such as a motion vector is effective. However, when detecting a motion vector from an image signal that has undergone encoding / decoding processing, the detection accuracy of the motion vector is reduced due to distortion of the decoded image signal, and
There is a problem that a large amount of arithmetic processing is required for motion vector detection.

【0008】従って、この発明の目的は、符号化復号化
の処理を経たディジタル情報信号に対して付加情報を使
用したクラス分類適応処理を行うことによって、ノイズ
低減処理を良好に行うことが可能なノイズ低減装置およ
び方法を提供することにある。
Accordingly, it is an object of the present invention to perform a noise reduction process satisfactorily by performing a classification adaptive process using additional information on a digital information signal that has undergone encoding and decoding processes. An object of the present invention is to provide a noise reduction device and method.

【0009】[0009]

【課題を解決するための手段】上述した課題を解決する
ために、請求項1の発明は、符号化されたディジタル情
報信号を復号化することによって生成される入力ディジ
タル情報信号のノイズを低減するようにしたノイズ低減
装置において、復号化処理用の付加情報に基づいてクラ
ス情報を生成するクラス情報生成手段と、予め決定され
た予測係数を記憶し、記憶した予測係数の内から、クラ
ス情報生成手段の出力に対応する予測係数を出力する係
数記憶手段と、入力ディジタル情報信号から複数のサン
プルからなる領域を抽出する領域切出し手段と、領域切
出し手段で抽出された複数のサンプルと予測係数とに基
づいて、予測演算を行ってサンプル値を生成する演算処
理手段とを有することを特徴とするノイズ低減装置であ
る。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention reduces the noise of an input digital information signal generated by decoding an encoded digital information signal. And a class information generating means for generating class information based on the additional information for decoding processing, storing a predetermined prediction coefficient, and generating class information from the stored prediction coefficients. Coefficient storage means for outputting a prediction coefficient corresponding to the output of the means, area extraction means for extracting an area consisting of a plurality of samples from the input digital information signal, and a plurality of samples and prediction coefficients extracted by the area extraction means. And a calculation processing means for performing a prediction calculation based on the calculation result to generate a sample value.

【0010】請求項17の発明は、符号化されたディジ
タル情報信号を復号化することによって生成される入力
ディジタル情報信号のノイズを低減するようにしたノイ
ズ低減方法において、復号化処理用の付加情報に基づい
てクラス情報を生成するクラス情報生成のステップと、
予め決定された予測係数を記憶し、記憶した予測係数の
内から、クラス情報に対応する予測係数を出力するステ
ップと、入力ディジタル情報信号から複数のサンプルか
らなる領域を抽出する領域切出しのステップと、領域切
出しのステップで抽出された複数のサンプルと予測係数
とに基づいて、予測演算を行ってサンプル値を生成する
ステップとからなることを特徴とするノイズ低減方法で
ある。
The invention according to claim 17 is a noise reduction method for reducing noise of an input digital information signal generated by decoding an encoded digital information signal. A class information generating step of generating class information based on
Storing a predetermined prediction coefficient, from among the stored prediction coefficients, outputting a prediction coefficient corresponding to the class information, and extracting a region consisting of a plurality of samples from the input digital information signal; And performing a prediction operation on the basis of the plurality of samples extracted in the region extracting step and the prediction coefficient to generate a sample value.

【0011】請求項1および17の発明によれば、復号
化処理用の付加情報を使用することによって、クラス分
類適応処理を適用したノイズ低減処理における予測精度
を向上することができる。
According to the first and 17th aspects of the present invention, by using the additional information for the decoding processing, it is possible to improve the prediction accuracy in the noise reduction processing to which the classification adaptive processing is applied.

【0012】請求項2の発明は、符号化されたディジタ
ル情報信号を復号化することによって生成される入力デ
ィジタル情報信号のノイズを低減するようにしたノイズ
低減装置において、入力ディジタル情報信号から複数の
サンプルからなる領域を抽出する第1の領域切出し手段
と、第1の領域切出し手段からのサンプルに基づいて特
徴量を抽出する特徴量抽出手段と、特徴量および復号化
処理用の付加情報に基づいてクラス情報を生成するクラ
ス情報生成手段と、予め決定された予測係数を記憶し、
記憶した予測係数の内から、クラス情報生成手段の出力
に対応する予測係数を出力する係数記憶手段と、入力デ
ィジタル情報信号から複数のサンプルからなる領域を抽
出する第2の領域切出し手段と、第2の領域切出し手段
で抽出された複数のサンプルと予測係数とに基づいて、
予測演算を行ってサンプル値を生成する演算処理手段と
を有することを特徴とするノイズ低減装置である。
According to a second aspect of the present invention, there is provided a noise reduction apparatus for reducing noise of an input digital information signal generated by decoding an encoded digital information signal. First region extracting means for extracting an area composed of samples, feature amount extracting means for extracting a characteristic amount based on a sample from the first region extracting means, and a feature amount and additional information for decoding processing. Class information generating means for generating class information, and storing a predetermined prediction coefficient,
A coefficient storage unit that outputs a prediction coefficient corresponding to the output of the class information generation unit from the stored prediction coefficients, a second region extraction unit that extracts a region including a plurality of samples from the input digital information signal, 2 based on the plurality of samples extracted by the region extracting means and the prediction coefficient,
And a calculation processing means for performing a prediction calculation to generate a sample value.

【0013】請求項18の発明は、符号化されたディジ
タル情報信号を復号化することによって生成される入力
ディジタル情報信号のノイズを低減するようにしたノイ
ズ低減方法において、入力ディジタル情報信号から複数
のサンプルからなる領域を抽出する第1の領域切出しの
ステップと、第1の領域切出しのステップで抽出された
サンプルに基づいて特徴量を抽出する特徴量抽出のステ
ップと、特徴量および復号化処理用の付加情報に基づい
てクラス情報を生成するクラス情報生成のステップと、
予め決定された予測係数を記憶し、記憶した予測係数の
内から、クラス情報に対応する予測係数を出力するステ
ップと、入力ディジタル情報信号から複数のサンプルか
らなる領域を抽出する第2の領域切出しのステップと、
第2の領域切出しのステップで抽出された複数のサンプ
ルと予測係数とに基づいて、予測演算を行ってサンプル
値を生成するステップとからなることを特徴とするノイ
ズ低減方法である。
[0013] The invention of claim 18 is a noise reduction method for reducing noise of an input digital information signal generated by decoding an encoded digital information signal. A first area segmentation step of extracting an area composed of samples, a feature quantity extraction step of extracting a feature quantity based on the sample extracted in the first area segmentation step, and a feature quantity and decoding process. A class information generating step of generating class information based on the additional information of
Storing a predetermined prediction coefficient, outputting a prediction coefficient corresponding to the class information from the stored prediction coefficients, and extracting a second region from the input digital information signal by extracting a region including a plurality of samples; Steps and
Performing a prediction operation on the basis of the plurality of samples extracted in the step of extracting the second area and the prediction coefficient to generate a sample value.

【0014】請求項2および18の発明によれば、入力
ディジタル情報信号の特徴量と共に復号化処理用の付加
情報を使用したクラス分類適応処理を行うことが可能と
なり、クラス分類適応処理を適用したノイズ低減処理に
おける予測精度を向上することができる。
According to the second and eighteenth aspects of the present invention, it is possible to perform the classification adaptive processing using the additional information for the decoding processing together with the characteristic amount of the input digital information signal, and the classification adaptive processing is applied. The prediction accuracy in the noise reduction processing can be improved.

【0015】請求項4の発明は、符号化されたディジタ
ル画像信号を復号化することによって生成される入力画
像信号のノイズを低減するようにしたノイズ低減装置に
おいて、復号化処理用の付加情報に基づいてクラス情報
を生成するクラス情報生成手段と、予め決定された予測
係数を記憶し、記憶した予測係数の内から、クラス情報
生成手段の出力に対応する予測係数を出力する係数記憶
手段と、入力画像信号から複数の画素からなる領域を抽
出する領域切出し手段と、領域切出し手段で抽出された
複数の画素と予測係数とに基づいて、予測演算を行って
画素値を生成する演算処理手段とを有することを特徴と
するノイズ低減装置である。
According to a fourth aspect of the present invention, there is provided a noise reduction apparatus for reducing noise of an input image signal generated by decoding an encoded digital image signal. Class information generating means for generating class information based on the stored prediction coefficients, from among the stored prediction coefficients, a coefficient storage means for outputting a prediction coefficient corresponding to the output of the class information generation means, Region extracting means for extracting an area consisting of a plurality of pixels from an input image signal, and an arithmetic processing means for performing a prediction operation to generate a pixel value based on the plurality of pixels and the prediction coefficient extracted by the area extracting means; A noise reduction device characterized by having:

【0016】請求項19の発明は、符号化されたディジ
タル画像信号を復号化することによって生成される入力
画像信号のノイズを低減するようにしたノイズ低減方法
において、復号化処理用の付加情報に基づいてクラス情
報を生成するクラス情報生成のステップと、予め決定さ
れた予測係数を記憶し、記憶した予測係数の内から、ク
ラス情報に対応する予測係数を出力するステップと、入
力画像信号から複数の画素からなる領域を抽出する領域
切出しのステップと、領域切出しのステップで抽出され
た複数の画素と予測係数とに基づいて、予測演算を行っ
て画素値を生成するステップとからなることを特徴とす
るノイズ低減方法である。
According to a nineteenth aspect of the present invention, there is provided a noise reduction method for reducing noise of an input image signal generated by decoding an encoded digital image signal. A step of generating class information based on the class information; a step of storing a predetermined prediction coefficient; and a step of outputting a prediction coefficient corresponding to the class information from the stored prediction coefficients. A region extracting step of extracting a region consisting of the pixels of the above, and a step of performing a prediction operation to generate a pixel value based on the plurality of pixels extracted in the region extracting step and the prediction coefficient. This is a noise reduction method.

【0017】請求項4および19の発明によれば、復号
化処理用の付加情報を使用することによって、クラス分
類適応処理を適用したノイズ低減処理における予測精度
を向上することができる。
According to the fourth and 19th aspects of the present invention, by using the additional information for the decoding processing, it is possible to improve the prediction accuracy in the noise reduction processing to which the classification adaptive processing is applied.

【0018】請求項5の発明は、符号化されたディジタ
ル画像信号を復号化することによって生成される入力画
像信号のノイズを低減するようにしたノイズ低減装置に
おいて、入力画像信号から複数の画素からなる領域を抽
出する第1の領域切出し手段と、第1の領域切出し手段
からの画素データに基づいて特徴量を抽出する特徴量抽
出手段と、特徴量および復号化処理用の付加情報に基づ
いてクラス情報を生成するクラス情報生成手段と、予め
決定された予測係数を記憶し、記憶した予測係数の内か
ら、クラス情報生成手段の出力に対応する予測係数を出
力する係数記憶手段と、入力画像信号から複数の画素か
らなる領域を抽出する第2の領域切出し手段と、第2の
領域切出し手段で抽出された複数の画素と予測係数とに
基づいて、予測演算を行って画素値を生成する演算処理
手段とを有することを特徴とするノイズ低減装置であ
る。
According to a fifth aspect of the present invention, there is provided a noise reduction apparatus for reducing noise of an input image signal generated by decoding an encoded digital image signal. A first region extracting unit for extracting a region, a feature amount extracting unit for extracting a feature amount based on pixel data from the first region extracting unit, and a feature amount and additional information for decoding processing. Class information generating means for generating class information, coefficient storing means for storing a predetermined prediction coefficient, and outputting a prediction coefficient corresponding to the output of the class information generation means from the stored prediction coefficients, and an input image A second area extracting unit for extracting an area including a plurality of pixels from the signal, and a prediction operation based on the plurality of pixels and the prediction coefficient extracted by the second area extracting unit. A noise reducing apparatus characterized in that it comprises a processing means for generating a pixel value by performing a.

【0019】請求項20の発明は、符号化されたディジ
タル画像信号を復号化することによって生成される入力
画像信号のノイズを低減するようにしたノイズ低減方法
において、入力画像信号から複数の画素からなる画素領
域を抽出する第1の領域切出しのステップと、第1の領
域切出しのステップで抽出された画素データに基づいて
特徴量を抽出する特徴量抽出のステップと、特徴量およ
び復号化処理用の付加情報に基づいてクラス情報を生成
するクラス情報生成のステップと、予め決定された予測
係数を記憶し、記憶した予測係数の内から、クラス情報
に対応する予測係数を出力するステップと、入力画像信
号から複数の画素からなる画素領域を抽出する第2の領
域切出しのステップと、第2の領域切出しのステップで
抽出された複数の画素と予測係数とに基づいて、予測演
算を行って画素値を生成するステップとからなることを
特徴とするノイズ低減方法である。
According to a twentieth aspect of the present invention, there is provided a noise reduction method for reducing noise of an input image signal generated by decoding an encoded digital image signal. A first area segmentation step of extracting a pixel area, a feature quantity extraction step of extracting a feature quantity based on the pixel data extracted in the first area segmentation step, and a feature quantity and decoding process. Generating class information based on the additional information of the class information, storing a predetermined prediction coefficient, and outputting a prediction coefficient corresponding to the class information from the stored prediction coefficients; and A second region extraction step of extracting a pixel region composed of a plurality of pixels from the image signal, and a plurality of pixel regions extracted in the second region extraction step On the basis of the prediction coefficient element, the noise reduction method is characterized by comprising the step of generating a pixel value by performing a prediction calculation.

【0020】請求項5および20の発明によれば、入力
ディジタル画像信号の特徴量と共に復号化処理用の付加
情報を使用したクラス分類適応処理を行うことが可能と
なり、クラス分類適応処理を適用したノイズ低減処理に
おける予測精度を向上することができる。
According to the fifth and twentieth aspects of the present invention, it is possible to perform the classification adaptive processing using the characteristic information of the input digital image signal and the additional information for the decoding processing. The prediction accuracy in the noise reduction processing can be improved.

【0021】[0021]

【発明の実施の形態】以下、この発明の一実施形態につ
いて説明する。まず、図1を参照して、予測画像信号の
生成に係る構成について説明する。入力ビットストリー
ムが復号器1に供給される。ここでは、入力ビットスト
リームは、送受信システム(または記録再生システム、
以下、同様である。)において、MPEG2で圧縮符号
化された画像データと、付加情報等のその他のデータと
である。復号器1からは、復号化された画像信号と、復
号化用の付加情報とが出力される。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. First, a configuration related to generation of a predicted image signal will be described with reference to FIG. An input bit stream is supplied to the decoder 1. Here, the input bit stream is transmitted and received by a transmitting / receiving system (or a recording / reproducing system,
Hereinafter, the same applies. ), Image data compressed and encoded by MPEG2 and other data such as additional information. The decoder 1 outputs a decoded image signal and additional information for decoding.

【0022】付加情報は、復号化処理に必要な付随情報
であり、入力ビットストリーム中のシーケンス層、GO
P層、ピクチャー層のそれぞれのヘッダ中に挿入されて
おり、復号器1は、付加情報を使用して復号化処理を行
い、また、付加情報を分離して出力する。
The additional information is additional information necessary for the decoding process.
Inserted in the headers of the P layer and the picture layer, the decoder 1 performs decoding processing using the additional information, and separates and outputs the additional information.

【0023】付加情報は、付加情報抽出部2に供給さ
れ、クラス分類適応処理に使用される付加情報が付加情
報抽出部2から選択的に出力される。この抽出された付
加情報が付加情報クラス生成部3に供給される。例えば
クラス分類適応処理に使用される付加情報として、以下
に挙げるものがある。
The additional information is supplied to the additional information extracting unit 2, and the additional information used for the classification adaptive processing is selectively output from the additional information extracting unit 2. The extracted additional information is supplied to the additional information class generator 3. For example, there is the following as additional information used in the classification adaptive processing.

【0024】(1) 信号種類情報:コンポーネント信号の
各成分(Y,U,Vのコンポーネント、Y,Pr,Pb
のコンポーネント、R,G,Bのコンポーネント等) (2) 画像フォーマット情報:インターレース/プログレ
ッシブの識別情報、フィールドまたはフレーム周波数
(時間解像度情報)、水平画素数や垂直ライン数の画像
サイズ情報(空間解像度情報)、4:3,16:9等の
アスペクトレシオ情報 (3) 画質情報:伝送ビットレート(圧縮率)情報 (4) 動きベクトル:水平と垂直の動き量情報 画像符号化の対象信号は、種々のものがあり、上述の付
加情報を含む各種制御信号を伝送することによって受信
側での復号を実現している。上述の付加情報で示される
種々の仕様や属性によって、復号画像信号の信号特性が
大きく異なる。そこで、この特性情報をクラス分類適応
処理に導入することによって、予測性能の向上が図られ
る。
(1) Signal type information: each component of a component signal (Y, U, V components, Y, Pr, Pb
(2) Image format information: Interlace / progressive identification information, field or frame frequency (time resolution information), image size information of horizontal pixels and vertical lines (spatial resolution) Information) 4: 3, 16: 9, etc. aspect ratio information (3) Image quality information: Transmission bit rate (compression rate) information (4) Motion vector: Horizontal and vertical motion amount information There are various types, and decoding on the receiving side is realized by transmitting various control signals including the above-described additional information. The signal characteristics of the decoded image signal greatly differ depending on various specifications and attributes indicated by the above-described additional information. Therefore, by introducing this characteristic information into the classification adaptive processing, the prediction performance is improved.

【0025】復号器1からの復号化画像信号が領域切出
し部4および予測タップデータ生成部5に供給される。
領域切出し部4は、入力画像信号から複数の画素からな
る領域を抽出し、抽出した領域に係る画素データを特徴
量抽出部6に供給する。特徴量抽出部6は、供給される
画素データに1ビットADRC等の処理を施すことによ
ってADRCコードを生成し、生成したADRCコード
をクラスコード生成部7に供給する。領域切出し部4に
おいて抽出される複数の画素領域をクラスタップと称す
る。クラスタップは、注目(目標)画素の空間的および
/または時間的近傍に存在する複数の画素からなる領域
である。後述するように、クラスは、注目(目標)画素
ごとに決定される。
The decoded image signal from the decoder 1 is supplied to an area extracting section 4 and a prediction tap data generating section 5.
The region cutout unit 4 extracts a region including a plurality of pixels from the input image signal and supplies pixel data relating to the extracted region to the feature amount extraction unit 6. The feature amount extraction unit 6 generates an ADRC code by performing processing such as 1-bit ADRC on the supplied pixel data, and supplies the generated ADRC code to the class code generation unit 7. The plurality of pixel regions extracted in the region extracting unit 4 are called class taps. A class tap is an area composed of a plurality of pixels existing in a spatial and / or temporal vicinity of a target (target) pixel. As described later, the class is determined for each attention (target) pixel.

【0026】ADRCは、クラスタップ内の画素値の最
大値および最小値を求め、最大値および最小値の差であ
るダイナミックレンジを求め、ダイナミックレンジに適
応して各画素値を再量子化するものである。1ビットA
DRCの場合では、タップ内の複数の画素値の平均値よ
り大きいか、小さいかでその画素値が1ビットに変換さ
れる。ADRCの処理は、画素値のレベル分布を表すク
ラスの数を比較的小さなものにするための処理である。
したがって、ADRCに限らず、ベクトル量子化等の画
素値のビット数を圧縮する符号化を使用するようにして
も良い。
ADRC calculates the maximum value and the minimum value of pixel values in a class tap, obtains a dynamic range that is the difference between the maximum value and the minimum value, and requantizes each pixel value according to the dynamic range. It is. 1 bit A
In the case of DRC, the pixel value is converted into one bit depending on whether it is larger or smaller than the average value of a plurality of pixel values in the tap. The ADRC process is a process for making the number of classes representing the level distribution of pixel values relatively small.
Therefore, the present invention is not limited to ADRC, and may use encoding for compressing the number of bits of a pixel value such as vector quantization.

【0027】クラスコード生成部7には、付加情報クラ
ス生成部3において、付加情報に基づいて生成された付
加情報クラスも供給される。クラスコード生成部7は、
付加情報クラスとADRCコードに基づいて、クラス分
類の結果を表すクラスコードを発生し、クラスコードを
予測係数ROM8に対してアドレスとして供給する。R
OM8は、供給されるクラスコードに対応する予測係数
セットを予測演算部9に出力する。予測係数セットは、
後述する学習処理によって予め決定され、クラス毎に、
より具体的にはクラスコードをアドレスとする形態で予
測係数ROM8に記憶されている。予測係数は、外部か
ら予測係数のダウンロードが可能なRAMの構成のメモ
リに蓄積しても良い。
The additional information class generated on the basis of the additional information in the additional information class generator 3 is also supplied to the class code generator 7. The class code generation unit 7
Based on the additional information class and the ADRC code, a class code indicating the result of the class classification is generated, and the class code is supplied to the prediction coefficient ROM 8 as an address. R
The OM 8 outputs a prediction coefficient set corresponding to the supplied class code to the prediction calculation unit 9. The prediction coefficient set is
It is determined in advance by a learning process described later, and for each class,
More specifically, it is stored in the prediction coefficient ROM 8 in a form using a class code as an address. The prediction coefficients may be stored in a memory having a RAM configuration from which the prediction coefficients can be downloaded from the outside.

【0028】一方、予測タップデータ生成部5は、入力
画像信号から複数の画素からなる所定の領域(予測タッ
プ)を抽出し、抽出した予測タップの画素データを予測
演算部9に供給する。予測タップは、クラスタップと同
様に、注目(目標)画素の空間的および/または時間的
近傍に存在する複数の画素からなる領域である。予測演
算部9は、予測タップデータ生成部5から供給される画
素データと、ROM8から供給される予測係数セットと
に基づいて以下の式(1)に従う積和演算を行うことに
よって、予測画素値を生成し、予測画素値を出力する。
予測タップと上述したクラスタップは、同一、または別
々の何れでも良い。
On the other hand, the prediction tap data generator 5 extracts a predetermined area (prediction tap) including a plurality of pixels from the input image signal, and supplies the extracted prediction tap pixel data to the prediction calculator 9. The prediction tap is an area including a plurality of pixels existing in the spatial and / or temporal vicinity of the target (target) pixel, like the class tap. The prediction operation unit 9 performs a product-sum operation according to the following equation (1) based on the pixel data supplied from the prediction tap data generation unit 5 and the prediction coefficient set supplied from the ROM 8 to obtain a predicted pixel value. And outputs a predicted pixel value.
The prediction tap and the class tap described above may be the same or different.

【0029】 y=w1 ×x1 +w2 ×x2 +‥‥+wn ×xn (1) ここで、x1 ,‥‥,xn が予測タップの各画素データ
であり、w1 ,‥‥,wn が予測係数セットである。予
測演算は、この式(1)で示す1次式に限らず、2次以
上の高次式でも良いし、非線形であっても良い。
Y = w 1 × x 1 + w 2 × x 2 + ‥‥ + w n × x n (1) where x 1 , ‥‥, and x n are pixel data of prediction taps, and w 1 , ‥‥ and w n are prediction coefficient sets. The prediction operation is not limited to the linear expression represented by the expression (1), but may be a second-order or higher-order expression, or may be nonlinear.

【0030】予測画像信号は、復号器1の出力画像信号
に対して、ノイズが低減されたものである。クラス分類
適応処理は、固定係数のローパスフィルタによってノイ
ズを除去するのと異なり、予め実際の画像信号を使用し
て求めた予測係数を使用するので、解像度を劣化させず
に、ノイズを低減することができる処理である。
The predicted image signal is obtained by reducing noise in the output image signal of the decoder 1. Unlike classification noise removal using a low-pass filter with fixed coefficients, the classification adaptive processing uses prediction coefficients that are obtained in advance using actual image signals, so that noise is reduced without deteriorating resolution. This is a process that can be performed.

【0031】図2は、領域切出し部4によって抽出され
るクラスタップの配置の一例を示す。復号化画像信号の
内で注目画素とその周辺の複数画素との合計7個の画素
によってクラスタップが設定される。図3は、予測タッ
プデータ生成部5から出力される予測タップの配置の一
例を示す。復号化画像信号の内で、注目画素と注目画素
を中心とした周辺の複数の画素との合計13個の画素に
よって予測タップが設定される。なお、図2および図3
において、実線は、第1フィールドを示し、破線が第2
フィールドを示す。また、図示のタップの配置は、一例
であって、種々の配置を使用することができる。
FIG. 2 shows an example of an arrangement of class taps extracted by the area extracting section 4. A class tap is set by a total of seven pixels including the pixel of interest and a plurality of pixels around the pixel of interest in the decoded image signal. FIG. 3 shows an example of the arrangement of prediction taps output from the prediction tap data generation unit 5. In the decoded image signal, a prediction tap is set by a total of 13 pixels including a target pixel and a plurality of pixels around the target pixel. 2 and 3
, The solid line indicates the first field, and the broken line indicates the second field.
Indicates a field. Further, the illustrated arrangement of taps is merely an example, and various arrangements can be used.

【0032】次に、図4を参照して、クラスコード生成
部7において形成されるクラスコード(予測係数ROM
のアドレス)と、予測係数ROM8に記憶されている予
測係数との一例について説明する。図4に示すクラス情
報の内で、信号種類クラス、フォーマットクラス、圧縮
率(伝送レート)クラス、第1の動きベクトルクラスお
よび第2の動きベクトルクラスは、付加情報クラス生成
部3で生成されるクラスである。信号特徴量クラスは、
特徴量抽出部6で抽出された特徴量に基づくクラス、例
えばADRCクラスである。図4の表において、最も左
側の信号種類クラスがアドレスの最上位側となり、最も
右側の信号特徴量クラスが最も下位側となる。
Next, referring to FIG. 4, a class code (prediction coefficient ROM) formed in the class code
An example of the prediction coefficient stored in the prediction coefficient ROM 8 will be described. In the class information shown in FIG. 4, a signal type class, a format class, a compression rate (transmission rate) class, a first motion vector class, and a second motion vector class are generated by the additional information class generation unit 3. Class. The signal feature class is
A class based on the feature amount extracted by the feature amount extraction unit 6, for example, an ADRC class. In the table of FIG. 4, the leftmost signal type class is the highest order of the address, and the rightmost signal feature class is the lowest order.

【0033】信号種類クラスは、例えばY,U,Vと
Y,Pr,Pbとの2種類とされ、各信号種類に対応し
て予測係数が別々に求められ、各信号種類がクラスK
0,K1で区別される。フォーマットクラスは、処理対
象の画像の時空間解像度特性に対応したもので、例えば
2種類とされ、各フォーマットクラスに対応してF0,
F1のクラスが規定される。例えばインターレースの画
像であれば、F0、プログレッシブの画像であれば、F
1のクラスが割り当てられる。画像フォーマットのクラ
スの他の例は、フィールドまたはフレーム周波数、水平
画素数または垂直ライン数である。一例として、F0,
F1,F2,・・・と番号が大きくなるほど、時空間解
像度が高くなる。
The signal type classes are, for example, two types of Y, U, V and Y, Pr, Pb. Prediction coefficients are separately obtained for each signal type.
0 and K1. The format class corresponds to the spatio-temporal resolution characteristic of the image to be processed, and is, for example, of two types.
The class of F1 is defined. For example, for an interlaced image, F0, for a progressive image, F0
One class is assigned. Other examples of image format classes are field or frame frequency, horizontal pixels or vertical lines. As an example, F0,
The larger the F1, F2,... Number, the higher the spatio-temporal resolution.

【0034】圧縮率(伝送レート)クラスは、画質情報
に基づいたクラスであり、i種類のクラスR0〜Ri-1
が用意されている。圧縮率が高いほど符号化歪み量が多
くなる。第1の動きベクトルクラスは、注目画素が含ま
れるフレーム(現フレーム)と時間的に前のフレームと
の間の動きベクトルに応じたクラスであり、j種類用意
されている。第2の動きベクトルクラスは、注目画素が
含まれるフレーム(現フレーム)と時間的に後のフレー
ムとの間の動きベクトルに応じたクラスであり、m種類
用意されている。圧縮率クラス、第1および第2の動き
ベクトルクラスは、個々の値でも良いが、その場合に
は、クラス数が多くなるので、代表的な複数の値にまと
められている。例えば適当なしきい値によって形成され
た複数の範囲毎に一つの代表値を設定し、その代表値に
対応したクラスを設定すればよい。具体的には、水平方
向および垂直方向の動きを表現した動きベクトルから静
止、小さな動き、大きな動きとの3段階のクラスを形成
しても良い。
The compression rate (transmission rate) class is a class based on image quality information, and includes i types of classes R0 to Ri-1.
Is prepared. The higher the compression ratio, the greater the amount of coding distortion. The first motion vector class is a class corresponding to a motion vector between a frame including the pixel of interest (current frame) and a temporally previous frame, and j types are prepared. The second motion vector class is a class corresponding to a motion vector between a frame including the target pixel (current frame) and a temporally later frame, and m types are prepared. The compression ratio class and the first and second motion vector classes may be individual values. In that case, however, the number of classes is large, so that they are grouped into a plurality of representative values. For example, one representative value may be set for each of a plurality of ranges formed by appropriate threshold values, and a class corresponding to the representative value may be set. More specifically, a three-stage class of still, small, and large motions may be formed from motion vectors expressing horizontal and vertical motions.

【0035】以上の5種類のクラスが付加情報クラス生
成部3において生成されるクラスである。但し、上述し
たクラスは、一例であり、一部のクラスのみを使用して
も良い。例えば付加情報クラスのみをクラスとして使用
しても良い。そして、上述した5種類のクラスの下位側
に、特徴量抽出部6において生成された信号特徴量クラ
ス(例えばADRCコードに基づくクラス)が付加され
る。信号特徴量クラスとしては、k種類用意されてい
る。
The above five types of classes are classes generated by the additional information class generation unit 3. However, the classes described above are merely examples, and only some of the classes may be used. For example, only the additional information class may be used as a class. Then, a signal feature class (for example, a class based on an ADRC code) generated by the feature extractor 6 is added to the lower side of the five types of classes described above. As the signal feature class, k kinds are prepared.

【0036】このように、5種類の付加情報クラスと1
種類の信号特徴量クラスとで定まるクラス毎に予測係数
セットがROM8に記憶されている。上述した式(1)
で示される予測演算を行う時には、w1 ,w2 ,‥‥,
n のn個の予測係数セットが各クラス毎に存在する。
As described above, five types of additional information classes and one
A prediction coefficient set is stored in the ROM 8 for each class determined by the type of signal feature amount class. Equation (1) described above
When performing the prediction operation represented by, w 1 , w 2 , ‥‥,
There are n sets of prediction coefficients of w n for each class.

【0037】図5を参照してこの発明の他の実施形態に
ついて説明する。一実施形態の構成を示す図1と対応す
る部分には、同一の参照符号を付して示す。他の実施形
態は、復号器1からの復号画像信号の特性に基づいて、
クラス分類のためのデータ抽出方法と、予測タップの構
造を変更することによって、クラス分類適応処理の予測
性能を向上するようにしたものである。
Another embodiment of the present invention will be described with reference to FIG. Parts corresponding to FIG. 1 showing the configuration of one embodiment are denoted by the same reference numerals. Another embodiment is based on the characteristics of the decoded image signal from the decoder 1,
The prediction performance of the classification adaptive processing is improved by changing the data extraction method for class classification and the structure of the prediction tap.

【0038】付加情報抽出部2によって抽出される付加
情報によって、復号画像信号の特徴量を抽出するクラス
タップ構造を変更するために、図5に示すように、付加
情報によって領域切出し部4で抽出されるクラスタップ
のパターンが切り替えられる。特徴量抽出部6がADR
Cによって特徴量としての波形、レベル分布を抽出する
場合、対象画像の空間解像度に応じてADRCの対象と
する領域の広さが変更される。また、信号の種類によっ
て信号特性が異なるので、クラスタップ構造が変更され
る。さらに、画像のアスペクト比に応じてクラスタップ
構造を変更することも可能である。
In order to change the class tap structure for extracting the characteristic amount of the decoded image signal based on the additional information extracted by the additional information extracting unit 2, as shown in FIG. The pattern of the class tap to be performed is switched. The feature extraction unit 6 uses ADR
When extracting a waveform and a level distribution as a feature value by C, the size of the region to be subjected to ADRC is changed according to the spatial resolution of the target image. Further, since the signal characteristics vary depending on the type of signal, the class tap structure is changed. Furthermore, it is also possible to change the class tap structure according to the aspect ratio of the image.

【0039】また、付加情報には、符号化復号化による
画像の歪みを示す圧縮率(伝送レート情報)も含まれ、
圧縮率の情報を付加情報から抽出することができる。一
旦復号化された画像信号中の符号化歪み量を検出するこ
とは、難しい。異なる符号化歪み量の信号に対してクラ
ス分類適応処理を適用した場合、予測性能の向上が困難
である。そこで、この圧縮率(伝送レート情報)に対応
してクラスタップの構成が変更される。さらに、第1お
よび第2の動きベクトル情報に基づいてクラスタップの
構成を変更することによって、時空間相関特性が高いク
ラスタップ構造を実現することができる。例えば静止の
場合では、フレーム内でクラスタップを構成し、動きが
あるときには、現在フレームに加えて前後のフレームに
わたってクラスタップを構成するようになされる。
The additional information also includes a compression rate (transmission rate information) indicating distortion of an image due to encoding and decoding.
Information on the compression ratio can be extracted from the additional information. It is difficult to detect the amount of coding distortion in an image signal once decoded. When the classification adaptive processing is applied to signals having different encoding distortion amounts, it is difficult to improve the prediction performance. Therefore, the configuration of the class tap is changed according to the compression rate (transmission rate information). Furthermore, by changing the configuration of class taps based on the first and second motion vector information, it is possible to realize a class tap structure having high spatio-temporal correlation characteristics. For example, in the case of stillness, a class tap is formed in a frame, and when there is movement, a class tap is formed in the previous and next frames in addition to the current frame.

【0040】さらに、図5に示すように、クラスコード
生成部7で形成されたクラスコードが予測タップデータ
生成部5に対して制御信号として供給される。それによ
って、図4に示すような付加情報を加味したクラス毎
に、最適な予測タップのパターンが設定されるようにな
される。上述したクラスタップの構造を付加情報によっ
て変更するのと同様に、クラス中の付加情報に応じて予
測タップの構造が変更され、クラスタップの場合と同様
に、予測タップを変更することによって、予測性能を向
上することができる。
Further, as shown in FIG. 5, the class code formed by the class code generator 7 is supplied to the prediction tap data generator 5 as a control signal. As a result, an optimal prediction tap pattern is set for each class in which additional information is added as shown in FIG. The structure of the prediction tap is changed according to the additional information in the class in the same way as the above-described class tap structure is changed by the additional information, and the prediction tap is changed by changing the prediction tap similarly to the case of the class tap. Performance can be improved.

【0041】図6は、タップ(クラスタップまたは予測
タップ)の領域を付加情報に応じて変更する一例を模式
的に示すものである。図6は、現フレームとその前後の
フレームにそれぞれ属する空間的なタップによって時空
間タップを設定する例を示し、破線の枠は、タップ領域
を表している。
FIG. 6 schematically shows an example in which the area of the tap (class tap or prediction tap) is changed according to the additional information. FIG. 6 shows an example in which a spatio-temporal tap is set by spatial taps belonging to the current frame and the frames before and after the current frame, and a frame of a broken line represents a tap region.

【0042】図6は、前フレームと現フレームとの間の
動きベクトルMV1が下方向であり、現フレームと次フ
レームとの間の動きベクトルMV2が上方向である場合
を示している。これらの動きベクトルMV1およびMV
2に応じてタップの領域が補正される。この動き補正に
よって、相関が強い複数画素を使用してタップを構成す
ることが可能となる。また、画像フォーマット情報例え
ば空間解像度情報F0,F1,F2に応じて、タップが
含まれる範囲の領域が変更される。空間解像度情報F
0,F1,F2は、注目された付加情報または付加情報
クラスとしてクラスコード生成部7が生成するクラス情
報中に含まれている。前述の図4の例では、F0,F1
の2種類のクラスが存在している。
FIG. 6 shows a case where the motion vector MV1 between the previous frame and the current frame is downward, and the motion vector MV2 between the current frame and the next frame is upward. These motion vectors MV1 and MV
The tap area is corrected according to 2. By this motion correction, it is possible to configure a tap using a plurality of pixels having a strong correlation. Further, the area of the range including the tap is changed according to the image format information, for example, the spatial resolution information F0, F1, F2. Spatial resolution information F
0, F1, and F2 are included in the class information generated by the class code generation unit 7 as the additional information or the additional information class of interest. In the example of FIG. 4 described above, F0, F1
There are two types of classes.

【0043】一例として、F0が空間解像度が最も低
く、F1が空間解像度が中間で、F2が最も空間解像度
が高い。空間解像度が高くなるにしたがってタップが含
まれる領域が徐々に拡大される。空間解像度が低い場合
には、相関の強い画素が存在する範囲が狭くなるため
に、タップの領域も狭いものとされる。それによって、
クラス分類適応処理によるノイズ低減処理の性能の向上
を図ることができる。
As an example, F0 has the lowest spatial resolution, F1 has an intermediate spatial resolution, and F2 has the highest spatial resolution. As the spatial resolution increases, the area including the tap is gradually enlarged. When the spatial resolution is low, the range in which pixels having a strong correlation exists is narrow, so that the tap region is also narrow. Thereby,
The performance of the noise reduction processing by the classification adaptive processing can be improved.

【0044】次に、学習すなわちクラス毎の予測係数を
求める処理について説明する。一般的には、クラス分類
適応処理によって予測されるべき画像信号と同一の信号
形式の画像信号(以下、教師信号と称する)と、教師信
号にクラス分類適応処理の目的とされる処理(すなわ
ち、ノイズ低減処理)と関連する処理を行うことによっ
て得られる画像信号(生徒信号)とに基づく所定の演算
処理によって予測係数が決定される。MPEG2規格等
に従う画像信号の符号化/復号化を経た画像信号を対象
としてなされるクラス分類適応処理においては、学習
は、例えば図7に示すような構成によって行われる。図
7は、図5に示す他の実施形態における予測係数データ
を学習するための構成である。
Next, learning, that is, a process of obtaining a prediction coefficient for each class will be described. Generally, an image signal (hereinafter, referred to as a teacher signal) having the same signal format as an image signal to be predicted by the classification adaptive processing, and a processing targeted for the classification adaptive processing in the teacher signal (ie, A prediction coefficient is determined by a predetermined calculation process based on an image signal (student signal) obtained by performing a process related to the noise reduction process). In the classification adaptive processing performed on an image signal that has been subjected to encoding / decoding of an image signal according to the MPEG2 standard or the like, learning is performed by, for example, a configuration illustrated in FIG. FIG. 7 shows a configuration for learning prediction coefficient data in another embodiment shown in FIG.

【0045】学習のために、教師信号と入力画像信号が
使用される。教師信号は、ノイズが無いか、またはノイ
ズが入力画像信号に対して少ない信号である。教師信号
にノイズを付加することによって入力画像信号を形成し
ても良い。入力画像信号が符号化器21で例えばMPE
G2によって符号化される。符号化器21の出力信号が
図1における受信信号に相当する。符号化器21の出力
信号が復号器22に供給される。復号器22からの復号
画像信号が生徒信号として使用される。また、復号器2
2で分離された復号用の付加情報が付加情報抽出部23
に供給され、付加情報が抽出される。
For learning, a teacher signal and an input image signal are used. The teacher signal is a signal that has no noise or has less noise than the input image signal. The input image signal may be formed by adding noise to the teacher signal. The input image signal is converted by the encoder 21 into, for example, an MPE.
G2. The output signal of the encoder 21 corresponds to the received signal in FIG. An output signal of the encoder 21 is supplied to a decoder 22. The decoded image signal from the decoder 22 is used as a student signal. Decoder 2
2 is added to the additional information extracting unit 23 for decoding.
And additional information is extracted.

【0046】抽出された付加情報は、付加情報クラス生
成部24および領域切出し部25に供給される。付加情
報は、上述したのと同様に、信号種類情報、画像フォー
マット情報、画質情報、動きベクトル等である。
The extracted additional information is supplied to an additional information class generator 24 and an area extractor 25. As described above, the additional information includes signal type information, image format information, image quality information, motion vectors, and the like.

【0047】復号器22からの復号画像信号、すなわ
ち、生徒信号が領域切出し部25および予測タップデー
タ生成部26に供給される。図5の構成と同様に、領域
切出し部25が付加情報抽出部23で抽出された付加情
報によって制御され、予測タップデータ生成部26がク
ラスコード生成部28で生成されたクラスの内の付加情
報クラスによって制御される。それによって、時間的お
よび/または空間的相関の高い複数の画素によってタッ
プを設定することが可能とされる。領域切出し部25で
抽出されたクラスタップのデータが特徴量抽出部27に
供給され、特徴量抽出部27においてADRC等の処理
によって、特徴量を抽出する。この特徴量がクラスコー
ド生成部28に供給される。クラスコード生成部28
は、付加情報クラスとADRCコードに基づいて、クラ
ス分類の結果を表すクラスコードを発生する。クラスコ
ードは、正規方程式加算部29に供給される。
The decoded image signal from the decoder 22, that is, the student signal, is supplied to the area extracting section 25 and the prediction tap data generating section 26. As in the configuration of FIG. 5, the area cutout unit 25 is controlled by the additional information extracted by the additional information extraction unit 23, and the prediction tap data generation unit 26 generates the additional information of the class generated by the class code generation unit 28. Controlled by class. Thereby, a tap can be set by a plurality of pixels having high temporal and / or spatial correlation. The data of the class tap extracted by the region extracting unit 25 is supplied to the feature amount extracting unit 27, and the feature amount extracting unit 27 extracts a feature amount by processing such as ADRC. This feature amount is supplied to the class code generation unit 28. Class code generator 28
Generates a class code representing the result of the classification based on the additional information class and the ADRC code. The class code is supplied to the normal equation adding unit 29.

【0048】一方、予測タップデータ生成部26により
抽出された予測タップの画素データが正規方程式加算部
29に供給される。正規方程式加算部29は、予測タッ
プデータ生成部26の出力と、教師信号とに基づく所定
の演算処理によって、クラスコード生成部28から供給
されるクラスコードに対応する予測係数セットを解とす
る正規方程式のデータを生成する。正規方程式加算部2
9の出力は、予測係数算出部30に供給される。
On the other hand, the pixel data of the prediction tap extracted by the prediction tap data generation unit 26 is supplied to the normal equation addition unit 29. The normal equation addition unit 29 performs a predetermined operation process based on the output of the prediction tap data generation unit 26 and the teacher signal to generate a normal coefficient that sets a prediction coefficient set corresponding to the class code supplied from the class code generation unit 28 as a solution. Generate equation data. Normal equation adder 2
9 is supplied to the prediction coefficient calculation unit 30.

【0049】予測係数算出部30は、供給されるデータ
に基づいて正規方程式を解くための演算処理を行う。こ
の演算処理によって算出された予測係数セットがメモリ
31に供給され、記憶される。予測推定に係る画像変換
処理を行うに先立って、図5中の予測係数ROM8にメ
モリ31の記憶内容がロードされる。
The prediction coefficient calculation unit 30 performs an operation for solving a normal equation based on the supplied data. The prediction coefficient set calculated by this calculation process is supplied to the memory 31 and stored. Prior to performing the image conversion process related to the prediction estimation, the contents stored in the memory 31 are loaded into the prediction coefficient ROM 8 in FIG.

【0050】正規方程式について以下に説明する。上述
の式(1)において、学習前は予測係数セットw1 ,‥
‥,wn が未定係数である。学習は、クラス毎に複数の
教師信号を入力することによって行う。教師信号の種類
数をmと表記する場合、式(1)から、以下の式(2)
が設定される。
The normal equation will be described below. In the above equation (1), before learning, the prediction coefficient sets w 1 , ‥
‥ and w n are undetermined coefficients. Learning is performed by inputting a plurality of teacher signals for each class. When the number of types of the teacher signal is denoted by m, the following equation (2) is obtained from the equation (1).
Is set.

【0051】 yk =w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn (2) (k=1,2,‥‥,m)Y k = w 1 × x k1 + w 2 × x k2 + ‥‥ + w n × x kn (2) (k = 1, 2, ‥‥, m)

【0052】m>nの場合、予測係数セットw1 ,‥
‥,wn は一意に決まらないので、誤差ベクトルeの要
素ek を以下の式(3)で定義して、式(4)によって
定義される誤差ベクトルeを最小とするように予測係数
セットを定めるようにする。すなわち、いわゆる最小2
乗法によって予測係数セットを一意に定める。
If m> n, the prediction coefficient sets w 1 , ‥
Since ‥ and w n are not uniquely determined, the element e k of the error vector e is defined by the following equation (3), and the prediction coefficient set is set so as to minimize the error vector e defined by the equation (4). To be determined. That is, the so-called minimum 2
A prediction coefficient set is uniquely determined by multiplication.

【0053】 ek =yk −{w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn} (3) (k=1,2,‥‥m)E k = y k − {w 1 × x k1 + w 2 × x k2 + Δ + w n × x kn } (3) (k = 1, 2, Δm)

【0054】[0054]

【数1】 (Equation 1)

【0055】式(4)のe2 を最小とする予測係数セッ
トを求めるための実際的な計算方法としては、e2 を予
測係数wi (i=1,2‥‥)で偏微分し(式(5))、iの
各値について偏微分値が0となるように各予測係数wi
を定めれば良い。
As a practical calculation method for obtaining a prediction coefficient set that minimizes e 2 in Equation (4), partial differentiation of e 2 with a prediction coefficient w i (i = 1, 2 ‥‥) is performed. (5)), each prediction coefficient w i such that the partial differential value becomes 0 for each value of i.
Should be determined.

【0056】[0056]

【数2】 (Equation 2)

【0057】式(5)から各予測係数wi を定める具体
的な手順について説明する。式(6)、(7)のように
ji,Yi を定義すると、式(5)は、式(8)の行列
式の形に書くことができる。
A specific procedure for determining each prediction coefficient w i from equation (5) will be described. If X ji and Y i are defined as in equations (6) and (7), equation (5) can be written in the form of a determinant of equation (8).

【0058】[0058]

【数3】 (Equation 3)

【0059】[0059]

【数4】 (Equation 4)

【0060】[0060]

【数5】 (Equation 5)

【0061】式(8)が一般に正規方程式と呼ばれるも
のである。予測係数算出部30は、掃き出し法等の一般
的な行列解法に従って正規方程式(8)を解くための計
算処理を行って予測係数wi を算出する。
Equation (8) is generally called a normal equation. The prediction coefficient calculation unit 30 calculates a prediction coefficient w i by performing a calculation process for solving the normal equation (8) according to a general matrix solution such as a sweeping method.

【0062】また、予測係数の生成は、図8に示すフロ
ーチャートで示されるようなソフトウェア処理によって
も行うことができる。ステップS1から処理が開始さ
れ、ステップS2において、生徒信号を生成することに
よって、予測係数を生成するのに必要十分な学習データ
を生成する。ステップS3において、予測係数を生成す
るのに必要十分な学習データが得られたどうかを判定
し、未だ必要十分な学習データが得られていないと判断
された場合には、ステップS4に処理が移行する。
The generation of the prediction coefficients can also be performed by software processing as shown in the flowchart of FIG. The process is started from step S1, and in step S2, a student signal is generated to generate necessary and sufficient learning data for generating a prediction coefficient. In step S3, it is determined whether sufficient learning data necessary to generate a prediction coefficient has been obtained. If it is determined that sufficient learning data has not been obtained yet, the process proceeds to step S4. I do.

【0063】ステップS4において、生徒信号から抽出
された特徴量と付加情報とからクラスを決定する。ステ
ップS5においては、各クラス毎に正規方程式を生成
し、ステップS2に戻って同様の処理手順を繰り返すこ
とによって、予測係数セットを生成するのに必要十分な
正規方程式を生成する。
In step S4, a class is determined from the feature amount extracted from the student signal and the additional information. In step S5, a normal equation is generated for each class, and the process returns to step S2 to repeat the same processing procedure, thereby generating a normal equation necessary and sufficient to generate a prediction coefficient set.

【0064】ステップS3において、必要十分な学習デ
ータが得られたと判断されると、ステップS6に処理が
移る。ステップS6では、正規方程式を掃き出し法によ
って解くことによって、予測係数セットw1 ,w2 ,・
・・・,wn を各クラス毎に生成する。そして、ステッ
プS7において、生成した各クラス毎の予測係数セット
1 〜wn をメモリに記憶し、ステップS8で学習処理
を終了する。
If it is determined in step S3 that necessary and sufficient learning data has been obtained, the process proceeds to step S6. In step S6, the prediction coefficient sets w 1 , w 2 ,.
.., W n are generated for each class. Then, at step S7, stores the prediction coefficient set w 1 to w n for each class generated in the memory, and ends the learning processing in step S8.

【0065】この発明は、上述したこの発明の一実施形
態に限定されるものではなく、この発明の要旨を逸脱し
ない範囲内で様々な変形や応用が可能である。例えばM
PEG2に限らず、MPEG4等の他の符号化方法を使
用する場合に対して、この発明を適用することができ
る。
The present invention is not limited to the above-described embodiment of the present invention, and various modifications and applications can be made without departing from the gist of the present invention. For example, M
The present invention is applicable not only to the case of using PEG2 but also to the case of using another encoding method such as MPEG4.

【0066】[0066]

【発明の効果】上述したように、この発明は、ノイズを
低減するために、復号化された復号信号に対してクラス
分類適応処理を適用する時に、対象とする復号信号が有
する属性や、特性を示す復号用付加情報を用いることに
よって、クラス分類適応処理の予測精度を向上すること
ができ、ノイズ低減処理の性能を向上できる。この発明
では、復号用付加情報を用いることによって、対象信号
の属性や、特性を反映したクラス分類が可能となり、ク
ラス分類適応処理の予測精度を向上することができ、ノ
イズ低減処理の性能を向上できる。この発明では、復号
用付加情報を用いることによって、対象信号の属性や、
特性を反映した適切な予測タップ構成が可能となり、ク
ラス分類適応処理の予測精度を向上することができ、ノ
イズ低減処理の性能を向上できる。
As described above, according to the present invention, when the classification adaptive processing is applied to a decoded signal to reduce noise, the attributes and characteristics of the target decoded signal are reduced. By using the additional information for decoding, the prediction accuracy of the classification adaptive processing can be improved, and the performance of the noise reduction processing can be improved. According to the present invention, the use of the additional information for decoding makes it possible to perform class classification reflecting the attributes and characteristics of the target signal, thereby improving the prediction accuracy of the class classification adaptive processing and improving the performance of the noise reduction processing. it can. According to the present invention, by using the additional information for decoding, the attribute of the target signal,
An appropriate prediction tap configuration reflecting characteristics can be configured, the prediction accuracy of the classification adaptive processing can be improved, and the performance of the noise reduction processing can be improved.

【0067】また、この発明では、対象とする復号信号
の動きベクトル情報を用いることによって、詳細なクラ
ス分類、並びに適切な予測タップ構成が可能となり、ク
ラス分類適応処理の予測精度を向上することができ、ノ
イズ低減処理の性能を向上できる。この動きベクトル情
報を復号信号から検出するのではなく、付加情報として
伝送される動きベクトル情報を使用するので、動きベク
トル検出に必要とされる膨大な演算を回避できる。しか
も、復号信号から動きベクトルを検出する場合には、符
号化歪みによって、動きベクトルの精度が低下するおそ
れがある。この発明では、付加情報に含まれる動きベク
トル情報を使用するので、高精度の動きベクトル情報を
使用でき、それによってクラス分類適応処理の予測精度
を向上することができ、ノイズ低減処理の性能を向上で
きる。
Further, according to the present invention, by using the motion vector information of the target decoded signal, a detailed class classification and an appropriate prediction tap configuration can be performed, and the prediction accuracy of the classification adaptive processing can be improved. It is possible to improve the performance of the noise reduction processing. Since the motion vector information transmitted as the additional information is used instead of detecting the motion vector information from the decoded signal, it is possible to avoid an enormous amount of calculation required for detecting the motion vector. In addition, when a motion vector is detected from a decoded signal, the accuracy of the motion vector may be reduced due to coding distortion. According to the present invention, since the motion vector information included in the additional information is used, high-precision motion vector information can be used, whereby the prediction accuracy of the classification adaptive processing can be improved, and the performance of the noise reduction processing can be improved. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態の構成を示すブロック図
である。
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.

【図2】クラスタップの画素配置の一例の略線図であ
る。
FIG. 2 is a schematic diagram illustrating an example of a pixel arrangement of a class tap.

【図3】予測タップの画素配置の一例の略線図である。FIG. 3 is a schematic diagram illustrating an example of a pixel arrangement of a prediction tap.

【図4】付加情報および特徴量に基づくクラスの一例を
示す略線図である。
FIG. 4 is a schematic diagram illustrating an example of a class based on additional information and a feature amount.

【図5】この発明の他の実施形態の構成を示すブロック
図である。
FIG. 5 is a block diagram showing a configuration of another embodiment of the present invention.

【図6】この発明の他の実施形態を説明するための略線
図である。
FIG. 6 is a schematic diagram for explaining another embodiment of the present invention.

【図7】クラス分類適応処理を行う場合の予測係数の学
習処理に係る構成の一例を示すブロック図である。
FIG. 7 is a block diagram illustrating an example of a configuration related to a prediction coefficient learning process when performing a class classification adaptive process.

【図8】学習処理をソフトウェアで行う時の処理を示す
フローチャートである。
FIG. 8 is a flowchart showing processing when the learning processing is performed by software.

【符号の説明】[Explanation of symbols]

1,22・・・復号器、2,23・・・付加情報抽出
部、3,24・・・付加情報クラス生成部、4,25・
・・領域切出し部、5,26・・・予測タップデータ生
成部、6,27・・・特徴量抽出部,7,28・・・ク
ラスコード生成部、8・・・予測係数ROM、9・・・
予測演算部
1,22 ... decoder, 2,23 ... additional information extraction unit, 3,24 ... additional information class generation unit, 4,25
..Area extraction unit, 5, 26: prediction tap data generation unit, 6, 27: feature amount extraction unit, 7, 28: class code generation unit, 8: prediction coefficient ROM, 9.・ ・
Prediction calculation unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C059 KK01 KK23 MA00 MA19 MA28 PP16 RC12 TA29 TA30 TA69 TC02 TC10 TC12 TC24 TC25 TD09 TD16 UA05 UA12 UA18 UA38  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C059 KK01 KK23 MA00 MA19 MA28 PP16 RC12 TA29 TA30 TA69 TC02 TC10 TC12 TC24 TC25 TD09 TD16 UA05 UA12 UA18 UA38

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】 符号化されたディジタル情報信号を復号
化することによって生成される入力ディジタル情報信号
のノイズを低減するようにしたノイズ低減装置におい
て、 復号化処理用の付加情報に基づいてクラス情報を生成す
るクラス情報生成手段と、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報生成手段の出力に対応する
予測係数を出力する係数記憶手段と、 上記入力ディジタル情報信号から複数のサンプルからな
る領域を抽出する領域切出し手段と、 上記領域切出し手段で抽出された複数のサンプルと上記
予測係数とに基づいて、予測演算を行ってサンプル値を
生成する演算処理手段とを有することを特徴とするノイ
ズ低減装置。
1. A noise reduction device configured to reduce noise of an input digital information signal generated by decoding an encoded digital information signal, wherein class information is determined based on additional information for decoding processing. Class information generating means for generating a predictive coefficient, a coefficient storing means for storing a predetermined predictive coefficient, and outputting a predictive coefficient corresponding to the output of the class information generating means from the stored predictive coefficients, Area extracting means for extracting an area consisting of a plurality of samples from a digital information signal; and an arithmetic processing for generating a sample value by performing a prediction operation based on the plurality of samples extracted by the area extracting means and the prediction coefficient Means for reducing noise.
【請求項2】 符号化されたディジタル情報信号を復号
化することによって生成される入力ディジタル情報信号
のノイズを低減するようにしたノイズ低減装置におい
て、 入力ディジタル情報信号から複数のサンプルからなる領
域を抽出する第1の領域切出し手段と、 上記第1の領域切出し手段からのサンプルに基づいて特
徴量を抽出する特徴量抽出手段と、 上記特徴量および復号化処理用の付加情報に基づいてク
ラス情報を生成するクラス情報生成手段と、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報生成手段の出力に対応する
予測係数を出力する係数記憶手段と、 上記入力ディジタル情報信号から複数のサンプルからな
る領域を抽出する第2の領域切出し手段と、 上記第2の領域切出し手段で抽出された複数のサンプル
と上記予測係数とに基づいて、予測演算を行ってサンプ
ル値を生成する演算処理手段とを有することを特徴とす
るノイズ低減装置。
2. A noise reduction apparatus for reducing the noise of an input digital information signal generated by decoding an encoded digital information signal, comprising the steps of: First region extracting means for extracting; feature amount extracting means for extracting a feature amount based on a sample from the first region extracting means; class information based on the feature amount and additional information for decoding processing; Class information generating means for generating a predictive coefficient, a coefficient storing means for storing a predetermined predictive coefficient, and outputting a predictive coefficient corresponding to the output of the class information generating means from the stored predictive coefficients, Second area extracting means for extracting an area consisting of a plurality of samples from the digital information signal; A noise reduction apparatus comprising: a calculation processing unit configured to perform a prediction calculation based on the plurality of samples obtained and the prediction coefficient to generate a sample value.
【請求項3】 請求項1または2において、 上記予測係数は、 ノイズの無い教師信号と上記入力ディジタル情報信号に
対応し、ノイズを含む生徒信号を用いて予め生成されて
いることを特徴とするノイズ低減装置。
3. The method according to claim 1, wherein the prediction coefficient corresponds to a noise-free teacher signal and the input digital information signal, and is generated in advance using a student signal containing noise. Noise reduction device.
【請求項4】 符号化されたディジタル画像信号を復号
化することによって生成される入力画像信号のノイズを
低減するようにしたノイズ低減装置において、 復号化処理用の付加情報に基づいてクラス情報を生成す
るクラス情報生成手段と、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報生成手段の出力に対応する
予測係数を出力する係数記憶手段と、 上記入力画像信号から複数の画素からなる領域を抽出す
る領域切出し手段と、 上記領域切出し手段で抽出された複数の画素と上記予測
係数とに基づいて、予測演算を行って画素値を生成する
演算処理手段とを有することを特徴とするノイズ低減装
置。
4. A noise reduction device configured to reduce noise of an input image signal generated by decoding an encoded digital image signal, wherein class information is determined based on additional information for decoding processing. Class information generating means for generating, a coefficient storing means for storing a predetermined prediction coefficient, and outputting a prediction coefficient corresponding to the output of the class information generating means from the stored prediction coefficients; and the input image Region extraction means for extracting an area consisting of a plurality of pixels from a signal, and operation processing means for performing a prediction operation to generate a pixel value based on the plurality of pixels extracted by the area extraction means and the prediction coefficient, and A noise reduction device comprising:
【請求項5】 符号化されたディジタル画像信号を復号
化することによって生成される入力画像信号のノイズを
低減するようにしたノイズ低減装置において、 入力画像信号から複数の画素からなる領域を抽出する第
1の領域切出し手段と、 上記第1の領域切出し手段からの画素データに基づいて
特徴量を抽出する特徴量抽出手段と、 上記特徴量および復号化処理用の付加情報に基づいてク
ラス情報を生成するクラス情報生成手段と、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報生成手段の出力に対応する
予測係数を出力する係数記憶手段と、 上記入力画像信号から複数の画素からなる領域を抽出す
る第2の領域切出し手段と、 上記第2の領域切出し手段で抽出された複数の画素と上
記予測係数とに基づいて、予測演算を行って画素値を生
成する演算処理手段とを有することを特徴とするノイズ
低減装置。
5. A noise reduction apparatus configured to reduce noise of an input image signal generated by decoding an encoded digital image signal, wherein a region including a plurality of pixels is extracted from the input image signal. A first region extracting unit, a feature amount extracting unit that extracts a feature amount based on the pixel data from the first region extracting unit, and class information based on the feature amount and the additional information for the decoding process. Class information generating means for generating, a coefficient storing means for storing a predetermined prediction coefficient, and outputting a prediction coefficient corresponding to the output of the class information generating means from the stored prediction coefficients; and the input image A second area extracting means for extracting an area composed of a plurality of pixels from the signal; and a plurality of pixels extracted by the second area extracting means and the prediction coefficient. And a calculation processing means for performing a prediction calculation to generate a pixel value.
【請求項6】 請求項4または5において、 上記付加情報が処理対象画像信号の種類を表す情報であ
ることを特徴とするノイズ低減装置。
6. The noise reduction device according to claim 4, wherein the additional information is information indicating a type of an image signal to be processed.
【請求項7】 請求項4または5において、 上記付加情報が処理対象画像信号のフォーマット情報で
あることを特徴とするノイズ低減装置。
7. The noise reduction device according to claim 4, wherein the additional information is format information of an image signal to be processed.
【請求項8】 請求項4または5において、 上記付加情報が画質情報であることを特徴とするノイズ
低減装置。
8. The noise reduction device according to claim 4, wherein the additional information is image quality information.
【請求項9】 請求項4または5において、 上記付加情報が動きベクトル情報であることを特徴とす
るノイズ低減装置。
9. The noise reduction device according to claim 4, wherein the additional information is motion vector information.
【請求項10】 請求項4または5において、 上記第1の領域切出し手段および上記第2の領域切出し
手段の少なくとも一方が上記付加情報に含まれる動きベ
クトル情報に応答して切り出す領域の位置が変更される
ことを特徴とするノイズ低減装置。
10. The position of an area to be extracted by at least one of the first area extracting means and the second area extracting means in response to motion vector information included in the additional information according to claim 4 or 5. A noise reduction device.
【請求項11】 請求項4または5において、 上記第1の領域切出し手段および上記第2の領域切出し
手段の少なくとも一方が上記付加情報に含まれる画像フ
ォーマット情報に応答して切り出す領域の大きさが変更
されることを特徴とするノイズ低減装置。
11. The method according to claim 4, wherein at least one of the first area cutout means and the second area cutout means has a size of an area cut out in response to image format information included in the additional information. A noise reduction device characterized by being changed.
【請求項12】 請求項11において、 上記画像フォーマット情報が上記画像信号の時間および
/または空間解像度情報であることを特徴とするノイズ
低減装置。
12. The noise reduction device according to claim 11, wherein the image format information is time and / or spatial resolution information of the image signal.
【請求項13】 請求項11において、 上記画像フォーマット情報が上記画像信号のアスペクト
情報であることを特徴とするノイズ低減装置。
13. The noise reduction device according to claim 11, wherein the image format information is aspect information of the image signal.
【請求項14】 請求項4または5において、 上記予測係数は、 ノイズを無い教師信号と上記入力画像信号に対応し、ノ
イズを含む生徒信号を用いて予め生成されていることを
特徴とするノイズ低減装置。
14. The noise according to claim 4, wherein the prediction coefficient corresponds to a teacher signal without noise and the input image signal, and is generated in advance using a student signal containing noise. Reduction device.
【請求項15】 請求項14において、 上記予測係数は、 上記生徒信号に付随する復号化処理用の付加情報に基づ
いてクラス情報を生成する学習用のクラス情報生成手段
と、 上記生徒信号から複数の画素からなる領域を抽出する学
習用の領域切出し手段と、 上記教師信号と、上記クラス情報生成手段の出力と、上
記領域切出し手段の出力とに基づいて、正規方程式を解
くためのデータを生成する正規方程式演算手段と、 上記正規方程式演算手段の出力に基づいて所定の演算処
理を行うことにより、上記予測係数を算出する予測係数
決定手段とによって決定されることを特徴とするノイズ
低減装置。
15. A learning class information generating means for generating class information based on additional information for decoding processing attached to the student signal according to claim 14, wherein Learning area extracting means for extracting an area consisting of pixels of the above, generating data for solving a normal equation based on the teacher signal, the output of the class information generating means, and the output of the area extracting means A noise reduction device that is determined by a normal equation calculation unit that performs a predetermined calculation process based on an output of the normal equation calculation unit to calculate the prediction coefficient.
【請求項16】 請求項14において、 上記予測係数は、 入力画像信号から複数の画素からなる領域を抽出する学
習用の第1の領域切出し手段と、 上記第1の領域切出し手段からの画素データに基づいて
特徴量を抽出する学習用の特徴量抽出手段と、 上記特徴量および上記生徒信号に付随する復号化処理用
の付加情報に基づいてクラス情報を生成する学習用のク
ラス情報生成手段と、 上記生徒信号から複数の画素からなる領域を抽出する学
習用の第2の領域切出し手段と、 上記教師信号と、上記クラス情報生成手段の出力と、上
記第2の領域切出し手段の出力とに基づいて、正規方程
式を解くためのデータを生成する正規方程式演算手段
と、 上記正規方程式演算手段の出力に基づいて所定の演算処
理を行うことにより、上記予測係数を算出する予測係数
決定手段とによって決定されることを特徴とするノイズ
低減装置。
16. The learning method according to claim 14, wherein the prediction coefficient is a first area extracting means for learning for extracting an area composed of a plurality of pixels from an input image signal, and pixel data from the first area extracting means. Learning feature extraction means for extracting a feature based on the class information; and learning class information generation means for generating class information based on the feature and the additional information for decoding associated with the student signal. A second area extracting means for learning for extracting an area composed of a plurality of pixels from the student signal; a teacher signal; an output of the class information generating means; and an output of the second area extracting means. Calculating a prediction coefficient by performing a predetermined calculation process based on an output of the normal equation calculation means; Noise reduction device characterized in that it is determined by the prediction coefficient determining means for.
【請求項17】 符号化されたディジタル情報信号を復
号化することによって生成される入力ディジタル情報信
号のノイズを低減するようにしたノイズ低減方法におい
て、 復号化処理用の付加情報に基づいてクラス情報を生成す
るクラス情報生成のステップと、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報に対応する予測係数を出力
するステップと、 上記入力ディジタル情報信号から複数のサンプルからな
る領域を抽出する領域切出しのステップと、 上記領域切出しのステップで抽出された複数のサンプル
と上記予測係数とに基づいて、予測演算を行ってサンプ
ル値を生成するステップとからなることを特徴とするノ
イズ低減方法。
17. A noise reduction method for reducing noise of an input digital information signal generated by decoding an encoded digital information signal, wherein class information is determined based on additional information for decoding processing. Generating a class information, storing a predetermined prediction coefficient, and outputting a prediction coefficient corresponding to the class information from the stored prediction coefficients; and A region extracting step of extracting a region composed of the samples of the above, and a step of performing a prediction operation to generate a sample value based on the plurality of samples extracted in the region extracting step and the prediction coefficient. A noise reduction method characterized by the following.
【請求項18】 符号化されたディジタル情報信号を復
号化することによって生成される入力ディジタル情報信
号のノイズを低減するようにしたノイズ低減方法におい
て、 入力ディジタル情報信号から複数のサンプルからなる領
域を抽出する第1の領域切出しのステップと、 上記第1の領域切出しのステップで抽出されたサンプル
に基づいて特徴量を抽出する特徴量抽出のステップと、 上記特徴量および復号化処理用の付加情報に基づいてク
ラス情報を生成するクラス情報生成のステップと、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報に対応する予測係数を出力
するステップと、 上記入力ディジタル情報信号から複数のサンプルからな
る領域を抽出する第2の領域切出しのステップと、 上記第2の領域切出しのステップで抽出された複数のサ
ンプルと上記予測係数とに基づいて、予測演算を行って
サンプル値を生成するステップとからなることを特徴と
するノイズ低減方法。
18. A noise reduction method for reducing noise of an input digital information signal generated by decoding an encoded digital information signal, comprising the steps of: A first region extraction step to be extracted; a feature amount extraction step of extracting a feature amount based on the sample extracted in the first region extraction step; the feature amount and additional information for decoding processing A class information generating step of generating class information based on: a step of storing a predetermined prediction coefficient, and outputting a prediction coefficient corresponding to the class information from the stored prediction coefficients; and A second area extracting step of extracting an area consisting of a plurality of samples from the digital information signal; Performing a prediction operation on the basis of the plurality of samples extracted in the region extraction step and the prediction coefficient to generate a sample value.
【請求項19】 符号化されたディジタル画像信号を復
号化することによって生成される入力画像信号のノイズ
を低減するようにしたノイズ低減方法において、 復号化処理用の付加情報に基づいてクラス情報を生成す
るクラス情報生成のステップと、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報に対応する予測係数を出力
するステップと、 上記入力画像信号から複数の画素からなる領域を抽出す
る領域切出しのステップと、 上記領域切出しのステップで抽出された複数の画素と上
記予測係数とに基づいて、予測演算を行って画素値を生
成するステップとからなることを特徴とするノイズ低減
方法。
19. A noise reduction method for reducing noise of an input image signal generated by decoding an encoded digital image signal, wherein class information is determined based on additional information for decoding processing. A step of generating class information to be generated; a step of storing a predetermined prediction coefficient; and a step of outputting a prediction coefficient corresponding to the class information from the stored prediction coefficients; and a step of outputting a plurality of pixels from the input image signal. And a step of generating a pixel value by performing a prediction operation based on the plurality of pixels extracted in the region extraction step and the prediction coefficient. Noise reduction method.
【請求項20】 符号化されたディジタル画像信号を復
号化することによって生成される入力画像信号のノイズ
を低減するようにしたノイズ低減方法において、 入力画像信号から複数の画素からなる画素領域を抽出す
る第1の領域切出しのステップと、 上記第1の領域切出しのステップで抽出された画素デー
タに基づいて特徴量を抽出する特徴量抽出のステップ
と、 上記特徴量および復号化処理用の付加情報に基づいてク
ラス情報を生成するクラス情報生成のステップと、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラス情報に対応する予測係数を出力
するステップと、 上記入力画像信号から複数の画素からなる画素領域を抽
出する第2の領域切出しのステップと、 上記第2の領域切出しのステップで抽出された複数の画
素と上記予測係数とに基づいて、予測演算を行って画素
値を生成するステップとからなることを特徴とするノイ
ズ低減方法。
20. A noise reduction method for reducing noise of an input image signal generated by decoding an encoded digital image signal, wherein a pixel region including a plurality of pixels is extracted from the input image signal. A first area extraction step, a feature amount extraction step of extracting a feature amount based on the pixel data extracted in the first area extraction step, a feature amount and additional information for decoding processing. A class information generating step of generating class information based on: a step of storing a predetermined prediction coefficient, and outputting a prediction coefficient corresponding to the class information from the stored prediction coefficients; A second area extraction step of extracting a pixel area composed of a plurality of pixels from the image signal; and a second area extraction step. Performing a prediction operation on the basis of the obtained plurality of pixels and the prediction coefficient to generate a pixel value.
【請求項21】 請求項19または20において、 上記付加情報が処理対象画像信号の種類を表す情報であ
ることを特徴とするノイズ低減方法。
21. The noise reduction method according to claim 19, wherein the additional information is information indicating a type of an image signal to be processed.
【請求項22】 請求項19または20において、 上記付加情報が処理対象画像信号のフォーマット情報で
あることを特徴とするノイズ低減方法。
22. The noise reduction method according to claim 19, wherein the additional information is format information of an image signal to be processed.
【請求項23】 請求項19または20において、 上記付加情報が画質情報であることを特徴とするノイズ
低減方法。
23. The noise reduction method according to claim 19, wherein the additional information is image quality information.
【請求項24】 請求項19または20において、 上記付加情報が動きベクトル情報であることを特徴とす
るノイズ低減方法。
24. The noise reduction method according to claim 19, wherein the additional information is motion vector information.
JP2000101543A 2000-04-03 2000-04-03 Noise reduction apparatus and method Expired - Fee Related JP4552262B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000101543A JP4552262B2 (en) 2000-04-03 2000-04-03 Noise reduction apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000101543A JP4552262B2 (en) 2000-04-03 2000-04-03 Noise reduction apparatus and method

Publications (3)

Publication Number Publication Date
JP2001285882A true JP2001285882A (en) 2001-10-12
JP2001285882A5 JP2001285882A5 (en) 2007-04-05
JP4552262B2 JP4552262B2 (en) 2010-09-29

Family

ID=18615572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000101543A Expired - Fee Related JP4552262B2 (en) 2000-04-03 2000-04-03 Noise reduction apparatus and method

Country Status (1)

Country Link
JP (1) JP4552262B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004047454A1 (en) * 2002-11-20 2004-06-03 Sony Corporation Image signal processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods, and computer-readable medium containing the program
EP1324607A3 (en) * 2001-12-28 2006-11-02 Sony Corporation Data processing
JP2007300678A (en) * 2007-07-24 2007-11-15 Sony Corp Information processing apparatus and method, recording medium, and program
US7336832B2 (en) 2002-07-19 2008-02-26 Sony Corporation Processor and processing method for an image signal, image display apparatus, generation apparatus and generation method for coefficient data used therein, program for executing each of these methods, and computer-readable medium recording the program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07115569A (en) * 1993-08-27 1995-05-02 Sony Corp Method and device for noise reduction
JPH07123291A (en) * 1993-10-26 1995-05-12 Graphics Commun Lab:Kk Picture signal processing unit having frame number conversion function
JPH08172628A (en) * 1994-12-20 1996-07-02 Victor Co Of Japan Ltd Reduction method of quantized noise caused when converted and coded image data are decoded and decoder for image data subjected to conversion coding
JPH0974543A (en) * 1995-06-30 1997-03-18 Sony Corp Image signal conversion device and method
JPH1070709A (en) * 1996-08-26 1998-03-10 Sony Corp Device and method for image signal conversion
JPH1146362A (en) * 1997-07-28 1999-02-16 Victor Co Of Japan Ltd Video reproducing device
JP2000059652A (en) * 1998-08-07 2000-02-25 Sony Corp Device and method for removing noise

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07115569A (en) * 1993-08-27 1995-05-02 Sony Corp Method and device for noise reduction
JPH07123291A (en) * 1993-10-26 1995-05-12 Graphics Commun Lab:Kk Picture signal processing unit having frame number conversion function
JPH08172628A (en) * 1994-12-20 1996-07-02 Victor Co Of Japan Ltd Reduction method of quantized noise caused when converted and coded image data are decoded and decoder for image data subjected to conversion coding
JPH0974543A (en) * 1995-06-30 1997-03-18 Sony Corp Image signal conversion device and method
JPH1070709A (en) * 1996-08-26 1998-03-10 Sony Corp Device and method for image signal conversion
JPH1146362A (en) * 1997-07-28 1999-02-16 Victor Co Of Japan Ltd Video reproducing device
JP2000059652A (en) * 1998-08-07 2000-02-25 Sony Corp Device and method for removing noise

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1324607A3 (en) * 2001-12-28 2006-11-02 Sony Corporation Data processing
EP1921849A2 (en) 2001-12-28 2008-05-14 Sony Corporation Data processing
EP1921851A3 (en) * 2001-12-28 2008-11-19 Sony Corporation Data processing
EP1921850A3 (en) * 2001-12-28 2008-11-19 Sony Corporation Data processing
EP1921849A3 (en) * 2001-12-28 2008-11-19 Sony Corporation Data processing
US7760270B2 (en) 2001-12-28 2010-07-20 Sony Corporation Storage device, data processing apparatus, data processing method, program, storage medium, and data processing system
US8023045B2 (en) 2001-12-28 2011-09-20 Sony Corporation Storage device, data processing apparatus, data processing method, program, storage medium and data processing system
US7336832B2 (en) 2002-07-19 2008-02-26 Sony Corporation Processor and processing method for an image signal, image display apparatus, generation apparatus and generation method for coefficient data used therein, program for executing each of these methods, and computer-readable medium recording the program
WO2004047454A1 (en) * 2002-11-20 2004-06-03 Sony Corporation Image signal processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods, and computer-readable medium containing the program
US7729558B2 (en) 2002-11-20 2010-06-01 Sony Corporation Image signal, processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods and computer readable medium containing the program
JP2007300678A (en) * 2007-07-24 2007-11-15 Sony Corp Information processing apparatus and method, recording medium, and program

Also Published As

Publication number Publication date
JP4552262B2 (en) 2010-09-29

Similar Documents

Publication Publication Date Title
JP4114885B2 (en) Image encoding apparatus, method, and program
EP2330817B1 (en) Video signal converting system
JP4462823B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
CN1695381A (en) Sharpness enhancement in post-processing of digital video signals using coding information and local spatial features
JP2008219876A (en) Moving image encoding device, moving image encoding method and moving image decoding device
EP2330818A1 (en) Frame rate converting apparatus and corresponding point estimating apparatus, corresponding point estimating method and corresponding point estimating program
JP2012235407A (en) Image processing apparatus and image processing method
JP4552261B2 (en) Digital information conversion apparatus and method, and image information conversion apparatus and method
JP3946781B2 (en) Image information conversion apparatus and method
JP2723867B2 (en) Image signal decoding device
JP2001285882A (en) Device and method for reducing noise
JP3627291B2 (en) Block distortion removing apparatus and method
JP3362463B2 (en) Frame interpolation device
JP3723995B2 (en) Image information conversion apparatus and method
JP3724008B2 (en) Image information conversion device and coefficient data creation device
JP4552264B2 (en) Error correction apparatus and method
JP4552263B2 (en) Digital signal processing apparatus and method, and digital image signal processing apparatus and method
JP5081109B2 (en) Video signal conversion system
JP3896635B2 (en) Image data conversion apparatus and method, prediction coefficient generation apparatus and method
JP2003299096A (en) Information signal processing apparatus, method therefor, video signal processing apparatus and video display apparatus, apparatus and method of generating coefficient class data using the same, apparatus and method of generating coefficient class data, program for executing each method, and computer-readable medium recording this program
JP4154772B2 (en) Image information conversion apparatus and conversion method
JP4505729B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP3767019B2 (en) Product-sum operation circuit and method
JP4001143B2 (en) Coefficient generation apparatus and method
JP4241720B2 (en) Multiply and accumulate circuit

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees