JP4140662B2 - Coefficient seed data generation apparatus and coefficient data generation apparatus - Google Patents

Coefficient seed data generation apparatus and coefficient data generation apparatus Download PDF

Info

Publication number
JP4140662B2
JP4140662B2 JP2008060110A JP2008060110A JP4140662B2 JP 4140662 B2 JP4140662 B2 JP 4140662B2 JP 2008060110 A JP2008060110 A JP 2008060110A JP 2008060110 A JP2008060110 A JP 2008060110A JP 4140662 B2 JP4140662 B2 JP 4140662B2
Authority
JP
Japan
Prior art keywords
coefficient
data
class
information
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008060110A
Other languages
Japanese (ja)
Other versions
JP2008193712A (en
Inventor
哲二郎 近藤
勉 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008060110A priority Critical patent/JP4140662B2/en
Publication of JP2008193712A publication Critical patent/JP2008193712A/en
Application granted granted Critical
Publication of JP4140662B2 publication Critical patent/JP4140662B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

この発明は、係数種データ生成装置および係数データ生成装置に関する。詳しくは、生成式に含まれるパラメータに対応し、第1の情報信号に対応する生徒信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値が入力されるパラメータ入力手段を備え、当該複数種類のパラメータに対応した係数種データを求めることで、第2の情報信号によって得られる出力の特定の質のみを入力パラメータの値を変更して段階的に調整できるようにしたものである。   The present invention relates to a coefficient seed data generation apparatus and a coefficient data generation apparatus. Specifically, parameter input means for inputting a plurality of types of parameter values corresponding to parameters included in the generation formula and for stepwise determining the quality of output information obtained by the student signal corresponding to the first information signal By obtaining coefficient seed data corresponding to the plurality of types of parameters, only the specific quality of the output obtained by the second information signal can be adjusted step by step by changing the value of the input parameter Is.

画像信号の圧縮符号化方式のひとつとしてMPEG2(Moving Picture Expert Group phase 2) による符号化方式が用いられている。MPEG2による送受信または記録再生システムでは、画像信号に対してMPEG2による圧縮符号化処理を施して送信または記録し、また、受信または再生した画像信号に対して、MPEG2による圧縮符号化処理に対応する伸長復号化を施すことにより、元の画像信号を復元する。   As one of image signal compression encoding methods, an MPEG2 (Moving Picture Expert Group phase 2) encoding method is used. In the transmission / reception or recording / reproducing system based on MPEG2, the image signal is subjected to compression coding processing according to MPEG2 to be transmitted or recorded, and the received or reproduced image signal is expanded corresponding to the compression coding processing according to MPEG2. By decoding, the original image signal is restored.

MPEG2による符号化処理では、符号化処理に汎用性を持たせ、また、符号化による圧縮効率を向上させるために、符号化された画像データと共に、復号化処理用の付加情報を伝送している。付加情報は、MPEG2のストリーム中のヘッダ中に挿入され、復号化装置に対して伝送される。   In the encoding process based on MPEG2, additional information for decoding process is transmitted together with the encoded image data in order to make the encoding process versatile and improve the compression efficiency by encoding. . The additional information is inserted into the header of the MPEG2 stream and transmitted to the decoding apparatus.

MPEGに限らず、復号化によって得られる画像信号の特性は、適用される符号化復号化方式によって大きく異なる。例えば輝度信号、色差信号、三原色信号などの信号種類に応じてその物理的な特性(周波数特性等)が大きく相違する。この相違が符号化復号化処理を経た復号信号にも残ることになる。また、一般的に画像の符号化復号化処理では、時空間の間引き処理を導入することによって、符号化の対象となる画素数を低減することが多い。間引き方法によって、画像の時空間解像度の特性が大きく相違する。さらに、時空間解像度特性の相違が小さい場合においても、符号化における圧縮率(伝送レート)の条件によってS/N、符号化歪み量などの画質特性が大きく異なる。   The characteristics of an image signal obtained by decoding, not limited to MPEG, vary greatly depending on the encoding / decoding method applied. For example, the physical characteristics (frequency characteristics, etc.) differ greatly depending on the signal type such as a luminance signal, color difference signal, and three primary color signal. This difference also remains in the decoded signal that has undergone the encoding / decoding process. Also, in general, in image coding / decoding processing, the number of pixels to be encoded is often reduced by introducing spatiotemporal thinning processing. The spatio-temporal resolution characteristics of images differ greatly depending on the thinning method. Furthermore, even when the difference in spatio-temporal resolution characteristics is small, image quality characteristics such as S / N and coding distortion amount greatly differ depending on the compression rate (transmission rate) conditions in encoding.

本出願人は、先に、クラス分類適応処理を提案している(特許文献1参照)。これは、予め、学習処理において、実際の画像信号(教師信号および生徒信号)を使用して予測係数をクラス毎に求め、蓄積しておき、実際の画像変換処理では、入力画像信号からクラスを求め、クラスに対応する予測係数と入力画像信号の複数の画素値との予測演算によって、出力画素値を求めるものである。クラスは、作成する画素の空間的、時間的近傍の画素値の分布、波形に対応して決定される。実際の画像信号を使用して予測係数を演算し、またクラス毎に予測係数を演算することによって、単なる補間フィルタの処理と比較して、入力画像信号以上の解像度を創造することができる。   The present applicant has previously proposed a classification adaptation process (see Patent Document 1). This is because, in the learning process, the actual image signal (teacher signal and student signal) is used to obtain and accumulate prediction coefficients for each class in advance, and in the actual image conversion process, the class is determined from the input image signal. The output pixel value is obtained by the prediction calculation of the prediction coefficient corresponding to the class and the plurality of pixel values of the input image signal. The class is determined according to the distribution and waveform of pixel values in the spatial and temporal vicinity of the pixel to be created. By calculating a prediction coefficient using an actual image signal and calculating a prediction coefficient for each class, it is possible to create a resolution higher than that of an input image signal as compared with a simple interpolation filter process.

上述のクラス分類適応処理では、出力画像信号によって得られる画像の解像度は固定されており、従来のコントラストやシャープネス等の調整のように、画像内容等に応じて、ユーザの好みの解像度とすることができなかった。そこで、本出願人は、さらに、ユーザが入力パラメータ値を変更して解像度を任意に調整し得るものを提案した(特許文献2、特許文献3参照)。   In the above-described class classification adaptive processing, the resolution of the image obtained by the output image signal is fixed, and it is set to the user's preferred resolution according to the image content, etc., as in the conventional adjustment of contrast, sharpness, etc. I could not. Therefore, the present applicant has further proposed that the user can arbitrarily adjust the resolution by changing the input parameter value (see Patent Document 2 and Patent Document 3).

特開平8−51599号公報JP-A-8-51599 特開2001−238185号公報JP 2001-238185 A 特願2000−348730号公報Japanese Patent Application No. 2000-348730

例えば、MPEG2のストリームを復号化して得られたデジタル画像信号を入力画像信号としてクラス分類適用処理を施し、解像度、ブロック歪、モスキート歪、ノイズ除去度等を、入力パラメータ値を変更して任意に調整することが考えられる。この場合に、解像度、ブロック歪、モスキート歪、ノイズ除去度等のうち、特定の質のみを入力パラメータの値を変更して段階的に調整できれば便利である。   For example, a digital image signal obtained by decoding an MPEG2 stream is subjected to class classification application processing as an input image signal, and resolution, block distortion, mosquito distortion, noise removal degree, etc. are arbitrarily changed by changing input parameter values. It is possible to adjust. In this case, it is convenient if only a specific quality among the resolution, block distortion, mosquito distortion, noise removal degree, etc. can be adjusted step by step by changing the value of the input parameter.

この発明の目的は、符号化されたデジタル情報信号あるいはそれを復号化して得られたデジタル情報信号である第1の情報信号を第2の情報信号に変換する際に、第2の情報信号によって得られる出力の特定の質のみを入力パラメータの値を変更して段階的に調整するための係数種データ生成装置および係数データ生成装置を提供することにある。   An object of the present invention is to convert a first information signal, which is an encoded digital information signal or a digital information signal obtained by decoding the encoded digital information signal, into a second information signal. An object of the present invention is to provide a coefficient seed data generation device and a coefficient data generation device for adjusting only a specific quality of the obtained output in stages by changing the value of an input parameter.

この発明に係る係数種データ生成装置は、符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換する情報信号に変換する際に使用される推定式で用いられる係数データを生成するための生成式における係数データである係数種データを生成する装置であって、上記生成式に含まれるパラメータに対応し、上記第1の情報信号に対応する生徒信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値が入力されるパラメータ入力手段と、上記第2の情報信号に対応する教師信号が符号化されて得られたデジタル情報信号を復号化し、該復号化の過程で上記パラメータ入力手段に入力されるパラメータの値に応じて信号を変化させ、該パラメータの値に対応した生徒信号を得る復号化手段と、上記復号化手段より出力される生徒信号から、上記教師信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、上記第1のデータ選択手段で選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出するクラス検出手段と、上記復号化手段より出力される生徒信号から、上記教師信号における注目位置の周辺に位置する複数の第2の情報データを選択する第2のデータ選択手段と、上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、クラス毎に、上記係数種データを求める演算手段とを備えるものである。   The coefficient seed data generation device according to the present invention generates a first information signal made up of a plurality of information data, which is generated by decoding an encoded digital information signal, from the first information signal. Coefficient type that is coefficient data in a generation formula for generating coefficient data used in an estimation formula used when converting to an information signal to be converted into a second information signal composed of a plurality of information data with improved quality An apparatus for generating data, which corresponds to the parameters included in the generation formula, and includes a plurality of types of parameters for determining in stages the quality of output information obtained by the student signal corresponding to the first information signal. A parameter input means for inputting a value and a digital information signal obtained by encoding a teacher signal corresponding to the second information signal; and decoding the digital information signal in the decoding process. The signal is changed in accordance with the parameter value input to the parameter input means, the decoding means for obtaining the student signal corresponding to the parameter value, and the student signal output from the decoding means, the teacher signal First data selection means for selecting a plurality of first information data located in the vicinity of the target position, and level distribution patterns of the plurality of first information data selected by the first data selection means are detected. And a class detection unit that detects a class to which the information data of the target position belongs based on the level distribution pattern, and a plurality of positions positioned around the target position in the teacher signal from the student signal output from the decoding unit. The second data selection means for selecting the second information data, the class detected by the class detection means, and the second data selection means. By using the information data of the target position in the plurality of second information data and the teacher signal, for each class, are those comprising a calculating means for obtaining the coefficient seed data.

この発明においては、第1の情報信号に対応する生徒信号によって得られる出力の質を定めるパラメータの値が入力される。そして、第2の情報信号に対応する教師信号が復号化されて得られるデジタル情報信号が符号化されて生徒信号が得られるが、この復号化の過程で入力されたパラメータの値に応じて信号を変化させることで、このパラメータの値に対応した生徒信号が得られる。   In the present invention, a parameter value that determines the quality of the output obtained by the student signal corresponding to the first information signal is input. The digital information signal obtained by decoding the teacher signal corresponding to the second information signal is encoded to obtain the student signal. The signal is determined according to the parameter value input in the decoding process. Is changed to obtain a student signal corresponding to the value of this parameter.

この生徒信号に基づいて、教師信号における注目位置の周辺に位置する複数の第1の情報データが選択され、その複数の第1の情報データに基づいて、上記注目位置の情報データが属するクラスが検出される。ここで、符号化されたデジタル情報信号に、このデジタル情報信号を復号化する際に用いられる付加情報が付加されている場合、上述した複数の第1の情報データと共にこの付加情報に基づいてクラスを検出することで、より細かなクラス分けを行うことができる。   Based on the student signal, a plurality of first information data located around the attention position in the teacher signal is selected, and based on the plurality of first information data, a class to which the information data of the attention position belongs is selected. Detected. Here, when additional information used when decoding the digital information signal is added to the encoded digital information signal, the class is based on the additional information together with the plurality of first information data described above. By detecting, more detailed classification can be performed.

また、この生徒信号に基づいて、教師信号における注目位置の周辺に位置する複数の第2の情報データが選択される。そして、入力されるパラメータの値が段階的に変更されていき、教師信号における注目位置の情報データが属するクラス、選択された複数の第2の情報データおよび教師信号における注目位置の情報データを用いて、クラス毎に、係数種データが求められる。   Further, based on this student signal, a plurality of second information data located around the attention position in the teacher signal is selected. Then, the value of the input parameter is changed step by step, and the class to which the attention position information data in the teacher signal belongs, the selected second information data, and the attention position information data in the teacher signal are used. Thus, coefficient seed data is obtained for each class.

ここで、係数種データは、第1の情報信号から第2の情報信号に変換する際に使用される推定式で用いられる係数データを生成する上記パラメータを含む生成式における係数データである。この係数種データを使用することで、生成式によって、任意に変更されたパラメータの値に対応した係数データを得ることが可能となる。これにより、ユーザは、推定式を使用して第1の情報信号から第2の情報信号に変換する場合に、パラメータの値を変更することで、第2の情報信号によって得られる出力の質を任意に調整できる。   Here, the coefficient seed data is coefficient data in a generation formula including the above parameters for generating coefficient data used in an estimation formula used when converting from the first information signal to the second information signal. By using this coefficient seed data, it is possible to obtain coefficient data corresponding to the arbitrarily changed parameter value by the generation formula. Thus, when the user converts the first information signal into the second information signal using the estimation formula, the user can change the parameter value to improve the quality of the output obtained by the second information signal. Can be adjusted arbitrarily.

上述したように、教師信号を符号化して得られたデジタル情報信号を復号化することで生徒信号が得られ、この復号化の過程でパラメータの値に応じて信号を変化させることで当該パラメータの値に対応した生徒信号が得られる。   As described above, the student signal is obtained by decoding the digital information signal obtained by encoding the teacher signal, and the parameter is changed by changing the signal according to the parameter value in the decoding process. A student signal corresponding to the value is obtained.

例えば、符号化が直交変換(離散コサイン変換、ウォーブレット変換、離散サイン変換など)を伴う符号化である場合には、復号化の過程で、パラメータの値に応じて、逆直交変換を行う際に用いられる少なくとも周波数係数または逆変換基底のいずれかが変更される。   For example, when the encoding is encoding with orthogonal transformation (discrete cosine transformation, warblet transformation, discrete sine transformation, etc.), when performing inverse orthogonal transformation according to the parameter value in the decoding process At least one of the frequency coefficient and the inverse transform base used in the above is changed.

周波数係数のうち全てのAC(交流)係数のゲインを同じ値として、パラメータの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。この場合には、上述の第2の情報信号によって得られる出力における解像度をパラメータの値に応じて段階的に調整し得る係数種データが得られる。   A plurality of student signals can be obtained by setting the gains of all AC (alternating current) coefficients among the frequency coefficients to the same value and changing the gains according to the parameter values. In this case, coefficient seed data is obtained in which the resolution at the output obtained by the second information signal described above can be adjusted stepwise according to the value of the parameter.

周波数係数が量子化されているとき、この周波数係数のうちDC(直流)係数の量子化ステップをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。この場合には、上述の第2の情報信号によって得られる出力におけるブロック歪をパラメータの値に応じて段階的に調整し得る係数種データが得られる。   When the frequency coefficient is quantized, a plurality of student signals can be obtained by changing the quantization step of the DC (direct current) coefficient among the frequency coefficients in accordance with the parameter value. In this case, coefficient seed data that can adjust the block distortion in the output obtained by the above-described second information signal in a stepwise manner according to the value of the parameter is obtained.

周波数係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。この場合には、上述の第2の情報信号によって得られる出力におけるモスキートノイズをパラメータの値に応じて段階的に調整し得る係数種データが得られる。   A plurality of student signals can be obtained by decreasing the gain of the AC coefficient of the frequency coefficient as the frequency increases and changing the degree of decrease in the gain of the AC coefficient according to the parameter value. In this case, coefficient seed data that can adjust the mosquito noise in the output obtained by the above-described second information signal stepwise according to the value of the parameter is obtained.

また、少なくとも周波数係数または逆変換基底にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。この場合には、上述の第2の情報信号によって得られる出力におけるノイズ抑圧度をパラメータの値に応じて段階的に調整し得る係数種データが得られる。   Moreover, a plurality of student signals can be obtained by adding random noise to at least the frequency coefficient or the inverse transform base and changing the level of the random noise according to the parameter value. In this case, coefficient seed data that can adjust the noise suppression degree in the output obtained by the above-described second information signal stepwise according to the parameter value is obtained.

この発明に係る係数データ生成装置は、符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換する際に使用される推定式の係数データを生成する装置であって、上記第1の情報信号に対応する生徒信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値が入力されるパラメータ入力手段と、上記第2の情報信号に対応する教師信号が符号化されて得られたデジタル情報信号を復号化し、該復号化の過程で上記パラメータ入力手段に入力されるパラメータの値に応じて信号を変化させ、該パラメータの値に対応した生徒信号を得る復号化手段と、上記復号化手段より出力される生徒信号から、上記教師信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、上記第1のデータ選択手段で選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出するクラス検出手段と、上記復号化手段より出力される生徒信号から、上記教師信号における注目位置の周辺に位置する複数の第2の情報データを選択する第2のデータ選択手段と、上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、上記クラスおよび上記パラメータの値の組み合わせ毎に、上記係数データを求める演算手段とを備えるものである。   The coefficient data generation apparatus according to the present invention provides a first information signal composed of a plurality of pieces of information data, which is generated by decoding an encoded digital information signal, with a higher quality of information than the first information signal. Is a device for generating coefficient data of an estimation formula used when converting to a second information signal composed of a plurality of information data with improved quality, obtained by a student signal corresponding to the first information signal Parameter input means for inputting a plurality of types of parameter values for determining the quality of output information in stages, and decoding a digital information signal obtained by encoding a teacher signal corresponding to the second information signal And decoding means for changing a signal in accordance with the parameter value input to the parameter input means in the decoding process to obtain a student signal corresponding to the parameter value; Selected by the first data selecting means for selecting a plurality of first information data located around the position of interest in the teacher signal, and the first data selecting means. Class detection means for detecting a level distribution pattern of the plurality of first information data, and detecting a class to which the information data of the target position belongs based on the level distribution pattern, and a student signal output from the decoding means From the second data selection means for selecting a plurality of second information data located around the position of interest in the teacher signal, the class detected by the class detection means, and the selection by the second data selection means A combination of the class and the parameter values using the plurality of second information data and the information data of the position of interest in the teacher signal To, those comprising calculating means for obtaining the coefficient data.

この発明においては、第1の情報信号に対応する生徒信号によって得られる出力の質を定めるパラメータの値が入力される。そして、第2の情報信号に対応する教師信号が符号化されて得られるデジタル情報信号が復号化されて生徒信号が得られるが、この復号化の過程で入力されたパラメータの値に応じて信号を変化させることで、このパラメータの値に対応した生徒信号が得られる。   In the present invention, a parameter value that determines the quality of the output obtained by the student signal corresponding to the first information signal is input. The digital information signal obtained by encoding the teacher signal corresponding to the second information signal is decoded to obtain the student signal. The signal is determined according to the parameter value input in the decoding process. Is changed to obtain a student signal corresponding to the value of this parameter.

この生徒信号に基づいて、教師信号における注目位置の周辺に位置する複数の第1の情報データが選択され、その複数の第1の情報データに基づいて、上記注目位置の情報データが属するクラスが検出される。ここで、符号化されたデジタル情報信号に、このデジタル情報信号を復号化する際に用いられる付加情報が付加されている場合、上述した複数の第1の情報データと共にこの付加情報に基づいてクラスを検出することで、より細かなクラス分けを行うことができる。   Based on the student signal, a plurality of first information data located around the attention position in the teacher signal is selected, and based on the plurality of first information data, a class to which the information data of the attention position belongs is selected. Detected. Here, when additional information used when decoding the digital information signal is added to the encoded digital information signal, the class is based on the additional information together with the plurality of first information data described above. By detecting, more detailed classification can be performed.

また、この生徒信号に基づいて、教師信号における注目位置の周辺に位置する複数の第2の情報データが選択される。そして、入力されるパラメータの値が段階的に変更されていき、教師信号における注目位置の情報データが属するクラス、選択された複数の第2の情報データおよび教師信号における注目位置の情報データを用いて、クラスおよび入力されるパラメータの値の組み合わせ毎に、係数データが求められる。   Further, based on this student signal, a plurality of second information data located around the attention position in the teacher signal is selected. Then, the value of the input parameter is changed step by step, and the class to which the attention position information data in the teacher signal belongs, the selected second information data, and the attention position information data in the teacher signal are used. Thus, coefficient data is obtained for each combination of class and input parameter value.

上述したようにして第1の情報信号を第2の情報信号に変換する際に使用される推定式の係数データが生成されるが、第1の情報信号から第2の情報信号に変換する際には、第2の情報信号における注目位置の情報データが属するクラスおよび変更されたパラメータの値に対応した係数データが選択的に使用されて、推定式により、注目位置の情報データが算出される。これにより、推定式を使用して第1の情報信号から第2の情報信号に変換する場合に、パラメータの値を変更することで、第2の情報信号によって得られる出力の質を任意に調整できる。   As described above, coefficient data of the estimation formula used when converting the first information signal to the second information signal is generated. When converting from the first information signal to the second information signal, In the second information signal, the class data to which the information data of the target position belongs and the coefficient data corresponding to the changed parameter value are selectively used, and the information data of the target position is calculated by the estimation formula. . Thereby, when converting from the first information signal to the second information signal using the estimation formula, the quality of the output obtained by the second information signal is arbitrarily adjusted by changing the parameter value. it can.

上述したように、教師信号を符号化して得られたデジタル情報信号を復号化することで生徒信号が得られ、この復号化の過程でパラメータの値に応じて信号を変化させることで当該パラメータの値に対応した生徒信号が得られる。   As described above, the student signal is obtained by decoding the digital information signal obtained by encoding the teacher signal, and the parameter is changed by changing the signal according to the parameter value in the decoding process. A student signal corresponding to the value is obtained.

例えば、符号化が直交変換(離散コサイン変換、ウォーブレット変換、離散サイン変換など)を伴う符号化である場合には、復号化の過程で、パラメータの値に応じて、逆直交変換を行う際に用いられる少なくとも周波数係数または逆変換基底のいずれかが変更される。これにより、上述した係数種データ生成装置におけると同様に、解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度をパラメータの値に応じて段階的に調整し得る係数データを得ることができる。   For example, when the encoding is encoding with orthogonal transformation (discrete cosine transformation, warblet transformation, discrete sine transformation, etc.), when performing inverse orthogonal transformation according to the parameter value in the decoding process At least one of the frequency coefficient and the inverse transform base used in the above is changed. As a result, as in the above-described coefficient seed data generation apparatus, it is possible to obtain coefficient data that can adjust the resolution, block distortion, mosquito noise, and noise suppression degree in a stepwise manner in accordance with the parameter values.

この発明によれば、生成式に含まれるパラメータに対応し、第1の情報信号に対応する生徒信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値が入力されるパラメータ入力手段を備え、当該複数種類のパラメータに対応した係数種データを求めることで、第2の情報信号によって得られる出力の特定の質のみを入力パラメータの値を変更して段階的に調整できる。   According to this invention, the values of a plurality of types of parameters are input corresponding to the parameters included in the generation formula and for stepwise determining the quality of the output information obtained by the student signal corresponding to the first information signal. By providing parameter input means and obtaining coefficient seed data corresponding to the plurality of types of parameters, only the specific quality of the output obtained by the second information signal can be adjusted step by step by changing the value of the input parameter .

以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのデジタル放送受信機100の構成を示している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a digital broadcast receiver 100 as an embodiment.

このデジタル放送受信機100は、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号を受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。   The digital broadcast receiver 100 includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 for receiving a remote control signal. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.

また、デジタル放送受信機100は、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106とを有している。   Also, the digital broadcast receiver 100 is supplied with a receiving antenna 105 and a broadcast signal (RF modulated signal) captured by the receiving antenna 105, performs channel selection processing, demodulation processing, error correction processing, etc. And a tuner unit 106 that obtains an MPEG2 stream as an encoded image signal.

また、デジタル放送受信機100は、チューナ部106より出力されるMPEG2ストリームを復号化して画像信号Vaを得るMPEG2復号化器107と、このMPEG2復号化器107より出力される画像信号を一時的に格納するバッファメモリ108とを有している。   The digital broadcast receiver 100 also temporarily decodes the MPEG2 decoder 107 that decodes the MPEG2 stream output from the tuner unit 106 to obtain the image signal Va, and the image signal output from the MPEG2 decoder 107. And a buffer memory 108 for storing.

また、デジタル放送受信機100は、バッファメモリ108に記憶されている画像信号Vaを、ユーザ所望の画質を提示する画像信号Vbに変換する画像信号処理部110と、この画像信号処理部110より出力される画像信号による画像を表示するディスプレイ部111とを有している。ディスプレイ部111は、例えばCRT(cathode-ray tube)ディスプレイ、あるいはLCD(liquid crystal display)等の表示器で構成されている。   Further, the digital broadcast receiver 100 converts the image signal Va stored in the buffer memory 108 into an image signal Vb that presents a user-desired image quality, and outputs from the image signal processing unit 110. And a display unit 111 for displaying an image based on the image signal. The display unit 111 includes a display such as a CRT (cathode-ray tube) display or an LCD (liquid crystal display).

図1に示すデジタル放送受信機100の動作を説明する。
チューナ部106より出力されるMPEG2ストリームはMPEG2復号化器107に供給されて復号化される。そして、この復号化器107より出力される画像信号Vaは、バッファメモリ108に供給されて一時的に格納される。
The operation of the digital broadcast receiver 100 shown in FIG. 1 will be described.
The MPEG2 stream output from the tuner unit 106 is supplied to the MPEG2 decoder 107 and decoded. The image signal Va output from the decoder 107 is supplied to the buffer memory 108 and temporarily stored.

このようにバッファメモリ108に記憶されている画像信号Vaは画像信号処理部110に供給され、ユーザ所望の画質を提示する画像信号Vbに変換される。この画像信号処理部110では、画像信号Vaを構成する画素データから、画像信号Vbを構成する画素データが得られる。   Thus, the image signal Va stored in the buffer memory 108 is supplied to the image signal processing unit 110 and converted into an image signal Vb that presents a user-desired image quality. In the image signal processing unit 110, pixel data constituting the image signal Vb is obtained from the pixel data constituting the image signal Va.

画像信号処理部110より出力される画像信号Vbはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vbによる画像が表示される。   The image signal Vb output from the image signal processing unit 110 is supplied to the display unit 111, and an image based on the image signal Vb is displayed on the screen of the display unit 111.

ユーザは、リモコン送信機200の操作によって、上述したようにディスプレイ部111の画面上に表示される画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を調整できる。画像信号処理部110では、後述するように、画像信号Vbの画素データが推定式によって算出される。この推定式の係数データとして、ユーザのリモコン送信機200の操作によって変更されたパラメータpの値に対応したものが、このパラメータpを含む生成式によって生成されて使用される。これにより、画像信号処理部110より出力される画像信号Vbによる画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度は、変更されたパラメータpの値に対応したものとなる。   The user can adjust the resolution, block distortion, mosquito noise, or noise suppression degree in the image displayed on the screen of the display unit 111 as described above by operating the remote control transmitter 200. In the image signal processing unit 110, pixel data of the image signal Vb is calculated by an estimation formula, as will be described later. As the coefficient data of this estimation formula, the data corresponding to the value of the parameter p changed by the user's operation of the remote control transmitter 200 is generated and used by the generation formula including this parameter p. Thereby, the resolution, block distortion, mosquito noise, or noise suppression degree in the image by the image signal Vb output from the image signal processing unit 110 corresponds to the changed value of the parameter p.

次に、画像信号処理部110の詳細を説明する。
画像信号処理部110は、バッファメモリ108に記憶されている画像信号Vaより、画像信号Vbにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する第1、第2のタップ選択回路121,122を有している。
Next, details of the image signal processing unit 110 will be described.
The image signal processing unit 110 selectively extracts and outputs a plurality of pixel data located around the target position in the image signal Vb from the image signal Va stored in the buffer memory 108 and outputs the first and second taps. Selection circuits 121 and 122 are provided.

第1のタップ選択回路121は、予測に使用する予測タップの複数の画素データを選択的に取り出すものである。第2のタップ選択回路122は、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すものである。予測タップおよびクラスタップの画素データは、それぞれ画像信号Vbにおける注目位置の周辺に位置する画素データである。   The first tap selection circuit 121 selectively extracts a plurality of pixel data of prediction taps used for prediction. The second tap selection circuit 122 selectively extracts a plurality of pixel data of class taps used for class classification. The pixel data of the prediction tap and the class tap are pixel data located around the target position in the image signal Vb.

ここで、注目位置の周辺とは、注目位置に対して空間的(水平方向、垂直方向)および時間的(フレーム方向)に近い位置であることを意味している。   Here, the periphery of the target position means a position that is spatially (horizontal and vertical) and temporal (frame direction) close to the target position.

図2Aは予測タップの配置の一例を示し、図2Bはクラスタップの配置の一例を示している。これらの図2A,Bにおいて、「○」はタップの位置を示し、「×」は注目位置を示している。本実施の形態においては、現フィールド(実線図示)と前フィールド(破線図示)における7個の画素データが、予測タップの画素データとして取り出され、また現フィールド(実線図示)と前フィールド(破線図示)における13個の画素データが、クラスタップの画素データとして取り出される。   FIG. 2A shows an example of the arrangement of prediction taps, and FIG. 2B shows an example of the arrangement of class taps. 2A and 2B, “◯” indicates the position of the tap, and “X” indicates the position of interest. In the present embodiment, seven pixel data in the current field (shown with a solid line) and the previous field (shown with a broken line) are extracted as pixel data of a prediction tap, and the current field (shown with a solid line) and the previous field (shown with a broken line). 13 pixel data are extracted as pixel data of the class tap.

図1に戻って、また、画像信号処理部110は、第2のタップ選択回路122で選択的に取り出されるクラスタップの画素データから特徴量を抽出する特徴量抽出部123を有している。特徴量抽出部123では、クラスタップの画素データに1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施すことによって、空間クラスを示す第1のクラス情報としてのADRCコードを生成する。   Returning to FIG. 1, the image signal processing unit 110 also includes a feature amount extraction unit 123 that extracts a feature amount from the pixel data of the class tap selectively extracted by the second tap selection circuit 122. The feature amount extraction unit 123 generates an ADRC code as first class information indicating a space class by performing processing such as 1-bit ADRC (Adaptive Dynamic Range Coding) on the pixel data of the class tap.

ADRCは、クラスタップの複数の画素データの最大値および最小値を求め、最大値と最小値の差であるダイナミックレンジを求め、ダイナミックレンジに適応して各画素値を再量子化するものである。1ビットのADRCの場合、クラスタップの複数の画素値の平均値より大きいか、小さいかでその画素値が1ビットに変換される。ADRC処理は、画素値のレベル分布を表すクラスの数を比較的小さなものにするための処理である。したがって、ADRCに限らず、VQ(ベクトル量子化)等の画素値のビット数を圧縮する符号化を使用するようにしてもよい。   ADRC calculates the maximum value and minimum value of a plurality of pixel data of a class tap, calculates a dynamic range that is the difference between the maximum value and the minimum value, and requantizes each pixel value in accordance with the dynamic range. . In the case of 1-bit ADRC, the pixel value is converted to 1 bit depending on whether it is larger or smaller than the average value of the plurality of pixel values of the class tap. The ADRC process is a process for making the number of classes representing the level distribution of pixel values relatively small. Therefore, not only ADRC but encoding which compresses the bit number of pixel values, such as VQ (vector quantization), may be used.

また、画像信号処理部110は、付加情報クラス生成部124を有している。この付加情報クラス生成部124は、MPEG2ストリームを復号化する際に用いられる付加情報に基づいて、付加情報クラスを示す第2のクラス情報を生成する。本実施の形態において、この付加情報は、MPEG2復号化器107でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)である。   The image signal processing unit 110 includes an additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the additional information used when the MPEG2 stream is decoded. In the present embodiment, this additional information is encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 107.

また、画像信号処理部110は、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLを生成するクラスコード生成部125を有している。   Further, the image signal processing unit 110 performs class classification based on the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124. A class code generation unit 125 that generates a class code CL indicating the result is included.

また、画像信号処理部110は、係数メモリ126を有している。この係数メモリ126は、後述する推定予測演算回路127で使用される推定式で用いられる複数の係数データWi(i=1〜n)を、クラス毎に、格納するものである。この係数データWiは、画像信号Vaを画像信号Vbに変換するための情報である。係数メモリ126には上述したクラスコード生成部125より出力されるクラスコードCLが読み出しアドレス情報として供給され、この係数メモリ126からはクラスコードCLに対応した推定式の係数データWiが読み出されて、推定予測演算回路127に供給される。   The image signal processing unit 110 has a coefficient memory 126. The coefficient memory 126 stores, for each class, a plurality of coefficient data Wi (i = 1 to n) used in an estimation formula used in an estimated prediction calculation circuit 127 described later. The coefficient data Wi is information for converting the image signal Va into the image signal Vb. The class code CL output from the class code generation unit 125 described above is supplied to the coefficient memory 126 as read address information, and the coefficient data Wi of the estimation formula corresponding to the class code CL is read from the coefficient memory 126. , And supplied to the estimated prediction calculation circuit 127.

また、画像信号処理部110は、情報メモリバンク128を有している。推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vbにおける注目位置の画素データyが演算される。(1)式のnは、第1のタップ選択回路121で選択される予測タップの数を表している。   The image signal processing unit 110 has an information memory bank 128. In the estimated prediction calculation circuit 127, the pixel data y of the target position in the image signal Vb to be generated is calculated from the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126 by the estimation formula (1). Calculated. In the equation (1), n represents the number of prediction taps selected by the first tap selection circuit 121.

Figure 0004140662
Figure 0004140662

この推定式の係数データWiは、(2)式に示すように、パラメータpを含む生成式によって生成される。情報メモリバンク128には、この生成式における係数データである係数種データwi0〜wi3が、クラス毎に、格納されている。
Wi=wi0+wi1p+wi22+wi33 ・・・(2)
The coefficient data Wi of this estimation formula is generated by a generation formula including the parameter p as shown in the formula (2). Information in the memory bank 128, the coefficient seed data w i0 to w i3 is the coefficient data in the production equation is, for each class, stored.
Wi = w i0 + w i1 p + w i2 p 2 + w i3 p 3 ··· (2)

また、画像信号処理部110は、各クラスの係数種データwi0〜wi3およびパラメータpの値とを用い、(2)式によって、クラス毎に、パラメータpの値に対応した推定式の係数データWi(i=1〜n)を生成する係数生成回路129を有している。この係数生成回路129には、情報メモリバンク128より、上述した各クラスの係数種データwi0〜wi3がロードされる。また、この係数生成回路129には、システムコントローラ101より、パラメータpの値が供給される。 Further, the image signal processing unit 110 uses the coefficient seed data w i0 to w i3 of each class and the value of the parameter p, and the coefficient of the estimation formula corresponding to the value of the parameter p for each class according to the equation (2). A coefficient generation circuit 129 that generates data Wi (i = 1 to n) is included. The coefficient generation circuit 129 is loaded with the above-described class seed coefficient data w i0 to w i3 from the information memory bank 128. The coefficient generation circuit 129 is supplied with the value of the parameter p from the system controller 101.

この係数生成回路129で生成される各クラスの係数データWi(i=1〜n)は、上述した係数メモリ126に格納される。この係数生成回路129における各クラスの係数データWiの生成は、例えば各垂直ブランキング期間で行われる。これにより、ユーザのリモコン送信機200の操作によってパラメータpの値が変更されても、係数メモリ126に格納される各クラスの係数データWiを、そのパラメータpの値に対応したものに即座に変更でき、ユーザによる解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度等の調整がスムーズに行われる。   The coefficient data Wi (i = 1 to n) of each class generated by the coefficient generation circuit 129 is stored in the coefficient memory 126 described above. The generation of coefficient data Wi for each class in the coefficient generation circuit 129 is performed, for example, in each vertical blanking period. Thereby, even if the value of the parameter p is changed by the user's operation of the remote control transmitter 200, the coefficient data Wi of each class stored in the coefficient memory 126 is immediately changed to the one corresponding to the value of the parameter p. The user can smoothly adjust the resolution, block distortion, mosquito noise, noise suppression degree, and the like.

ここで、上述したように情報メモリバンク128に格納されている係数種データwi0〜wi3についてさらに説明する。この係数種データwi0〜wi3は、上述したMPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化された、MPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成される。 Here, the coefficient seed data w i0 to w i3 stored in the information memory bank 128 as described above will be further described. The coefficient seed data w i0 to w i3 are signals obtained by processing the MPEG2 stream encoded in the same manner as the MPEG2 stream input to the MPEG2 decoder 107 described above according to the value of the parameter p. Is generated in advance.

すなわち、この係数種データwi0〜wi3は、それぞれパラメータpの複数の値に応じて生成され、画像信号Vaに対応した複数の生徒信号と、画像信号Vbに対応した教師信号とを用いて予め生成される。この場合、生徒信号は、教師信号をMPEG2符号化して得られたMPEG2ストリームを復号化することで得られ、この復号化の過程でパラメータpの値に応じて信号を変化させることで、当該パラメータpの値に対応した生徒信号が得られる。本実施の形態においては、パラメータpの値に応じて、逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。 That is, the coefficient seed data w i0 to w i3 are respectively generated according to a plurality of values of the parameter p, and using a plurality of student signals corresponding to the image signal Va and a teacher signal corresponding to the image signal Vb. Pre-generated. In this case, the student signal is obtained by decoding the MPEG2 stream obtained by MPEG2 encoding the teacher signal, and the signal is changed according to the value of the parameter p in the process of decoding, so that the parameter A student signal corresponding to the value of p is obtained. In the present embodiment, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing the inverse discrete cosine transform (inverse DCT) is changed according to the value of the parameter p.

例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られた複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vbによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能となる。 For example, it is possible to obtain a plurality of student signals by changing the gain according to the value of the parameter p while setting the gain of all AC coefficients of the DCT coefficients to the same value. In the information memory bank 128, when this way the coefficient seed data w i0 to w i3 generated in advance using a plurality of student signal obtained is stored is obtained by the image signal Vb above image Can be adjusted stepwise according to the value of the parameter p.

また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られた複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vbによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能となる。 Further, for example, a plurality of student signals can be obtained by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p. In the information memory bank 128, when this way the coefficient seed data w i0 to w i3 generated in advance using a plurality of student signal obtained is stored is obtained by the image signal Vb above image The block distortion can be adjusted stepwise according to the value of the parameter p.

また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られた複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vbによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能となる。 In addition, for example, a plurality of student signals can be obtained by reducing the gain of the AC coefficient of the DCT coefficient as the frequency increases and changing the degree of decrease in the gain of the AC coefficient according to the parameter value. Can do. In the information memory bank 128, when this way the coefficient seed data w i0 to w i3 generated in advance using a plurality of student signal obtained is stored is obtained by the image signal Vb above image The mosquito noise can be adjusted stepwise according to the value of the parameter p.

また例えば、少なくともDCT係数または逆変換基底にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られた複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vbによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能となる。 Also, for example, a plurality of student signals can be obtained by adding random noise to at least the DCT coefficient or the inverse transform base and changing the level of the random noise according to the value of the parameter p. In the information memory bank 128, when this way the coefficient seed data w i0 to w i3 generated in advance using a plurality of student signal obtained is stored is obtained by the image signal Vb above image The noise suppression degree can be adjusted stepwise according to the value of the parameter p.

また、画像信号処理部110は、第1のタップ選択回路121で選択的に取り出される予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vbにおける注目位置の画素データyを演算する推定予測演算回路127を有している。   In addition, the image signal processing unit 110 uses the estimation formula (1) from the prediction tap pixel data xi selectively extracted by the first tap selection circuit 121 and the coefficient data Wi read from the coefficient memory 126. And an estimated prediction calculation circuit 127 for calculating pixel data y of the target position in the image signal Vb to be created.

次に、画像信号処理部110の動作を説明する。
バッファメモリ108に記憶されている画像信号Vaより、第2のタップ選択回路122で、作成すべき画像信号Vbにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
Next, the operation of the image signal processing unit 110 will be described.
From the image signal Va stored in the buffer memory 108, the second tap selection circuit 122 selectively extracts pixel data of class taps located around the target position in the image signal Vb to be created. The pixel data of this class tap is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code as first class information indicating a space class is generated.

MPEG2復号化器107でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部124に供給される。この付加情報クラス生成部124では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。   Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 107 is supplied to the additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the encoding control information.

そして、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報はクラスコード生成部125に供給される。このクラスコード生成部125では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。   Then, the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124 are supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the first class information and the second class information.

このクラスコードCLは、画像信号Vbにおける注目位置の画素データが属するクラスの検出結果を表している。このクラスコードCLは、係数メモリ126に読み出しアドレス情報として供給される。係数メモリ126には、例えば各垂直ブランキング期間に、係数生成回路129で、ユーザによって調整されたパラメータpの値に対応して、クラス毎に、係数種データwi0〜wi3を用いて推定式の係数データWi(i=1〜n)が求められて格納される((2)式参照)。 The class code CL represents the detection result of the class to which the pixel data at the target position in the image signal Vb belongs. The class code CL is supplied to the coefficient memory 126 as read address information. In the coefficient memory 126, for example, in each vertical blanking period, the coefficient generation circuit 129 estimates for each class using the coefficient seed data w i0 to w i3 corresponding to the value of the parameter p adjusted by the user. Coefficient data Wi (i = 1 to n) of the equation is obtained and stored (see equation (2)).

係数メモリ126に上述したようにクラスコードCLが読み出しアドレス情報として供給されることで、この係数メモリ126からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路127に供給される。また、バッファメモリ108に記憶されている画像信号Vaより、第1のタップ選択回路121で、画像信号Vbにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。   As described above, the class code CL is supplied to the coefficient memory 126 as read address information, whereby the coefficient data Wi corresponding to the class code CL is read from the coefficient memory 126 and supplied to the estimated prediction calculation circuit 127. The Further, the pixel data of the prediction tap located around the target position in the image signal Vb is selectively extracted by the first tap selection circuit 121 from the image signal Va stored in the buffer memory 108.

推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとを用いて、推定式((1)式参照)に基づいて、作成すべき画像信号Vbにおける注目位置の画素データyが求められる。   The estimated prediction calculation circuit 127 uses the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126, and based on the estimation formula (see formula (1)), attention is paid to the image signal Vb to be generated. Pixel data y at the position is obtained.

このように、画像信号処理部110では、パラメータpの値に対応した推定式の係数データWi(i=1〜n)が使用されて、画素データyが演算される。したがって、ユーザは、パラメータpの値を変更することで、画像信号Vbによる画像の解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を任意に調整できる。   In this manner, the image signal processing unit 110 calculates the pixel data y using the coefficient data Wi (i = 1 to n) of the estimation formula corresponding to the value of the parameter p. Therefore, the user can arbitrarily adjust the resolution, block distortion, mosquito noise, or noise suppression degree of the image by the image signal Vb by changing the value of the parameter p.

また、係数データWiを生成するための係数種データwi0〜wi3は、上述したMPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成されたものであり、画像信号Vbによる画像の特定の質のみ、例えば解像度のみ、ブロック歪のみ、モスキートノイズのみあるいはノイズ抑圧度のみを段階的に調整できる。 The coefficient seed data w i0 to w i3 for generating the coefficient data Wi is an MPEG2 stream encoded in the same manner as the MPEG2 stream input to the MPEG2 decoder 107 described above, according to the value of the parameter p. Are generated in advance based on the signal obtained by the processing, and only the specific quality of the image by the image signal Vb, for example, only the resolution, only the block distortion, only the mosquito noise, or only the noise suppression degree is stepwise. Can be adjusted.

次に、係数種データwの生成方法の一例について説明する。この例においては、上述した(2)式の生成式における係数データである係数種データwi0〜wi3を求める例を示すものとする。 Next, an example of a method for generating the coefficient seed data w will be described. In this example, an example in which coefficient seed data w i0 to w i3 which are coefficient data in the generation formula of the above-described formula (2) is obtained is shown.

ここで、以下の説明のため、(3)式のように、tj(j=0〜3)を定義する。
0=1,t1=p,t2=p2,t3=p3 ・・・(3)
この(3)式を用いると、(2)式は、(4)式のように書き換えられる。
Here, for the following explanation, t j (j = 0 to 3) is defined as shown in equation (3).
t 0 = 1, t 1 = p, t 2 = p 2 , t 3 = p 3 (3)
Using this equation (3), equation (2) can be rewritten as equation (4).

Figure 0004140662
Figure 0004140662

最終的に、学習によって未定係数wijを求める。すなわち、クラス毎に、画像信号Vaに対応する生徒信号の画素データと、画像信号Vbに対応する教師信号の画素データとを用いて、二乗誤差を最小にする係数値を決定する。いわゆる最小二乗法による解法である。学習数をm、k(1≦k≦m)番目の学習データにおける残差をek、二乗誤差の総和をEとすると、(1)式および(2)式を用いて、Eは(5)式で表される。ここで、xikは生徒信号のi番目の予測タップ位置におけるk番目の画素データ、ykはそれに対応するk番目の教師信号の画素データを表している。 Finally, the undetermined coefficient w ij is obtained by learning. That is, for each class, the coefficient value that minimizes the square error is determined using the pixel data of the student signal corresponding to the image signal Va and the pixel data of the teacher signal corresponding to the image signal Vb. This is a so-called least square method. If the learning number is m, the residual in the kth (1 ≦ k ≦ m) learning data is e k , and the sum of the squared errors is E, using Eqs. (1) and (2), E is (5 ) Expression. Here, x ik represents k-th pixel data at the i-th predicted tap position of the student signal, and y k represents pixel data of the corresponding k-th teacher signal.

Figure 0004140662
Figure 0004140662

最小二乗法による解法では、(5)式のwijによる偏微分が0になるようなwijを求める。これは、(6)式で示される。 The solution according to the minimum square method, determine the w ij such that 0 is partial differentiation by (5) of w ij. This is shown by equation (6).

Figure 0004140662
Figure 0004140662

以下、(7)式、(8)式のように、Xipjq、Yipを定義すると、(6)式は、(9)式のように行列を用いて書き換えられる。 Hereinafter, when X ipjq and Y ip are defined as in equations (7) and (8), equation (6) can be rewritten using a matrix as in equation (9).

Figure 0004140662
Figure 0004140662

Figure 0004140662
Figure 0004140662

この方程式は一般に正規方程式と呼ばれている。この正規方程式は、掃き出し法(Gauss-Jordanの消去法)等を用いて、wijについて解かれ、係数種データが算出される。 This equation is generally called a normal equation. This normal equation is solved for w ij by using a sweep-out method (Gauss-Jordan elimination method) or the like, and coefficient seed data is calculated.

図3は、上述した係数種データの生成方法の一例の概念を示している。画像信号Vbに対応した教師信号から、画像信号Vaに対応した複数の生徒信号を生成する。例えば、パラメータpを9段階に可変して、9種類の生徒信号を生成する。このようにして生成された複数の生徒信号と教師信号との間で学習を行って係数種データを生成する。   FIG. 3 shows an example of the concept of the above-described coefficient seed data generation method. A plurality of student signals corresponding to the image signal Va are generated from the teacher signal corresponding to the image signal Vb. For example, the parameter p is varied in nine steps to generate nine types of student signals. The coefficient seed data is generated by performing learning between the plurality of student signals and the teacher signal generated as described above.

図4は、上述したデジタル放送受信機100の情報メモリバンク128に格納される係数種データwi0〜wi3を生成するための係数種データ生成装置150の構成を示している。 FIG. 4 shows the configuration of the coefficient seed data generation device 150 for generating the coefficient seed data w i0 to w i3 stored in the information memory bank 128 of the digital broadcast receiver 100 described above.

この係数種データ生成装置150は、画像信号Vbに対応した教師信号STが入力される入力端子151と、この教師信号に対して符号化を行ってMPEG2ストリームを得るMPEG2符号化器152と、このMPEG2ストリームに対して復号化を行って生徒信号SSを得るMPEG2復号化器153とを有している。このMPEG2復号化器153には、パラメータpの値が入力される。   The coefficient seed data generation device 150 includes an input terminal 151 to which a teacher signal ST corresponding to the image signal Vb is input, an MPEG2 encoder 152 that encodes the teacher signal to obtain an MPEG2 stream, An MPEG2 decoder 153 that decodes the MPEG2 stream to obtain the student signal SS. The value of the parameter p is input to the MPEG2 decoder 153.

この復号化器153では、復号化の過程で、パラメータpの値に応じて信号が変化するようにされ、当該パラメータpの値に対応した生徒信号が得られる。本実施の形態では、逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。   In the decoder 153, in the decoding process, the signal is changed according to the value of the parameter p, and a student signal corresponding to the value of the parameter p is obtained. In this embodiment, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing inverse discrete cosine transform (inverse DCT) is changed.

ここで、DCTでは、画素値f(i,j)に対するDCT係数(周波数係数)F(u,v)は、(10)式で与えられる。一方、逆DCTでは、DCT係数(周波数係数)F(u,v)に対する画素値f(i,j)は、(11)式で与えられる。ここで、C(w)=1/√2(w=0)、C(w)=1(w≠0)である。このように、逆DCTにおいて、画素値f(i,j)は、DCT係数(周波数係数)と逆変換基底との積和演算で求められる。   Here, in DCT, a DCT coefficient (frequency coefficient) F (u, v) for a pixel value f (i, j) is given by equation (10). On the other hand, in inverse DCT, a pixel value f (i, j) with respect to a DCT coefficient (frequency coefficient) F (u, v) is given by equation (11). Here, C (w) = 1 / √2 (w = 0) and C (w) = 1 (w ≠ 0). Thus, in inverse DCT, the pixel value f (i, j) is obtained by a product-sum operation of the DCT coefficient (frequency coefficient) and the inverse transform base.

Figure 0004140662
Figure 0004140662

例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。ここで、元のAC係数をAC[m]、ゲインをgainとすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]*gainとなる。この場合、各AC係数の間の相関関係は保持できることから、このようにして得られる複数の生徒信号を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vbによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能なものとなる。 For example, it is possible to obtain a plurality of student signals by changing the gain according to the value of the parameter p while setting the gain of all AC coefficients of the DCT coefficients to the same value. Here, if the original AC coefficient is AC [m] and the gain is gain, the new AC coefficient newAC [m] is newAC [m] = AC [m] * gain. In this case, since the correlation between the AC coefficients can be maintained, the coefficient seed data w i0 to w i3 generated using the plurality of student signals obtained in this way is obtained by the image signal Vb described above. The resolution of the image can be adjusted stepwise according to the value of the parameter p.

また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。ここで、元のDC係数をDC[m]、元の量子化ステップをQst、新たな量子化ステップをnewQstとすると、新たなDC係数をnewDC[m]は、newDC[m]={DC[m]*Qst/newQst}となる。{}は整数演算を表している。この場合、DC係数の変動を操作可能となり、このようにして得られる複数の生徒信号を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vbによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能なものとなる。 Further, for example, a plurality of student signals can be obtained by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p. Here, assuming that the original DC coefficient is DC [m], the original quantization step is Qst, and the new quantization step is newQst, the new DC coefficient newDC [m] is newDC [m] = {DC [ m] * Qst / newQst}. {} Represents an integer operation. In this case, it is possible to manipulate the variation of the DC coefficient, and the coefficient seed data w i0 to w i3 generated using the plurality of student signals obtained in this way is the block distortion of the image obtained by the image signal Vb described above. Can be adjusted stepwise according to the value of the parameter p.

また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。ここで、元のAC係数をAC[m]、ゲインをgain[m]とすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]*gain[m]となる。この場合、各AC係数の間の相関関係を段階的に崩すものであり、このようにして得られる複数の生徒信号を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vbによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能なものとなる。 Further, for example, by reducing the gain of the AC coefficient of the DCT coefficient as the high frequency region is changed, and the degree of decrease in the high frequency gain of the AC coefficient is changed according to the value of the parameter p, a plurality of student signals are obtained. be able to. Here, if the original AC coefficient is AC [m] and the gain is gain [m], the new AC coefficient newAC [m] is newAC [m] = AC [m] * gain [m]. In this case, the correlation between the AC coefficients is broken stepwise, and the coefficient seed data w i0 to w i3 generated using the plurality of student signals obtained in this way are the above-described image signals. The mosquito noise of the image obtained by Vb can be adjusted stepwise according to the value of the parameter p.

また例えば、少なくともDCT係数または逆変換基底にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。元のAC係数をAC[m]、ランダムノイズをrdmNとすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]+rdmNとなる。同様に、元のDC係数をDC[m]、ランダムノイズをrdmNとすると、新たなDC係数newDC[m]は、newDC[m]=DC[m]+rdmNとなる。また同様に、元の基底をREF[m]、ランダムノイズをrdmNとすると、新たな基底newREF[m]は、newREF=REF[m]+rdmNとなる。この場合、ランダムノイズのレベルを段階的に切り換えることにより、それによって得られる複数の生徒信号を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vbによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能なものとなる。 Also, for example, a plurality of student signals can be obtained by adding random noise to at least the DCT coefficient or the inverse transform base and changing the level of the random noise according to the value of the parameter p. When the original AC coefficient is AC [m] and the random noise is rdmN, the new AC coefficient newAC [m] is newAC [m] = AC [m] + rdmN. Similarly, if the original DC coefficient is DC [m] and the random noise is rdmN, the new DC coefficient newDC [m] is newDC [m] = DC [m] + rdmN. Similarly, when the original base is REF [m] and the random noise is rdmN, the new base newREF [m] is newREF = REF [m] + rdmN. In this case, coefficient level data w i0 to w i3 generated using a plurality of student signals obtained by switching the level of random noise step by step is the noise of the image obtained by the image signal Vb described above. The degree of suppression can be adjusted stepwise according to the value of the parameter p.

図6は、MPEG2復号化器153の構成を示している。
この復号化器153は、MPEG2ストリームが入力される入力端子181と、この入力端子181に入力されたMPEG2ストリームを一時的に格納するストリームバッファ182とを有している。
FIG. 6 shows the configuration of the MPEG2 decoder 153.
The decoder 153 has an input terminal 181 to which an MPEG2 stream is input, and a stream buffer 182 that temporarily stores the MPEG2 stream input to the input terminal 181.

また、この復号化器153は、ストリームバッファ182に格納されているMPEG2ストリームより周波数係数としてのDCT(Discrete Cosine Transform:離散コサイン変換)係数を抽出する抽出回路183と、この抽出回路183で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路184とを有している。   The decoder 153 extracts the DCT (Discrete Cosine Transform) coefficient as a frequency coefficient from the MPEG2 stream stored in the stream buffer 182 and the extraction circuit 183 extracts the DCT coefficient. A variable length decoding circuit 184 that performs variable length decoding on DCT coefficients that have been subjected to variable length coding, for example, Huffman coding.

また、この復号化器153は、ストリームバッファ182に格納されているMPEG2ストリームより量子化特性指定情報を抽出する抽出回路185と、この抽出回路185で抽出される量子化特性指定情報に基づいて、可変長復号化回路184より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路186と、逆量子化回路186より出力されるDCT係数に対して逆DCTを行う逆DCT回路187とを有している。   The decoder 153 also extracts an extraction circuit 185 for extracting quantization characteristic designation information from the MPEG2 stream stored in the stream buffer 182, and the quantization characteristic designation information extracted by the extraction circuit 185. An inverse quantization circuit 186 that performs inverse quantization on the quantized DCT coefficient output from the variable length decoding circuit 184, and an inverse DCT circuit that performs inverse DCT on the DCT coefficient output from the inverse quantization circuit 186 187.

また、復号化器153は、Iピクチャ(Intra-Picture)およびPピクチャ(Predictive-Picture)の画像信号をメモリ(図示せず)に記憶すると共に、これらの画像信号を用いて逆DCT回路187からPピクチャまたはBピクチャ(Bidirectionally predictive-Picture)の画像信号が出力されるとき、対応する参照画像信号Vrefを生成して出力する予測メモリ回路188を有している。   Further, the decoder 153 stores the image signals of the I picture (Intra-Picture) and the P picture (Predictive-Picture) in a memory (not shown) and uses the image signals from the inverse DCT circuit 187. When an image signal of a P picture or a B picture (Bidirectionally predictive-Picture) is output, a prediction memory circuit 188 that generates and outputs a corresponding reference image signal Vref is provided.

また、復号化器153は、逆DCT回路187からPピクチャまたはBピクチャの画像信号が出力されるとき、その画像信号に予測メモリ回路188で生成された参照画像信号Vrefを加算する加算回路189を有している。なお、逆DCT回路187からIピクチャの画像信号が出力されるとき、予測メモリ回路188から加算回路189に参照画像信号Vrefは供給されず、従って加算回路189からは逆DCT回路187より出力されるIピクチャの画像信号がそのまま出力される。   In addition, when the inverse DCT circuit 187 outputs a P picture or B picture image signal, the decoder 153 adds an adder circuit 189 that adds the reference image signal Vref generated by the prediction memory circuit 188 to the image signal. Have. When the image signal of the I picture is output from the inverse DCT circuit 187, the reference image signal Vref is not supplied from the prediction memory circuit 188 to the adder circuit 189, and accordingly, the adder circuit 189 outputs from the inverse DCT circuit 187. The image signal of the I picture is output as it is.

また、復号化器153は、加算回路189より出力されるIピクチャおよびPピクチャの画像信号を予測メモリ回路188に供給してメモリに記憶させると共に、この加算回路189より出力される各ピクチャの画像信号を正しい順に並べ直して出力するピクチャ選択回路190と、このピクチャ選択回路190より出力される画像信号を出力する出力端子191とを有している。   In addition, the decoder 153 supplies the I-picture and P-picture image signals output from the adder circuit 189 to the prediction memory circuit 188 and stores them in the memory, and at the same time, the image of each picture output from the adder circuit 189. It has a picture selection circuit 190 that rearranges and outputs signals in the correct order, and an output terminal 191 that outputs an image signal output from the picture selection circuit 190.

また、復号化器153は、ストリームバッファ182に格納されているMPEG2ストリームより符号化制御情報、すなわちピクチャ情報PI、動きベクトル情報MIを抽出する抽出回路192と、この符号化制御情報を出力する出力端子193とを有している。この抽出回路192で抽出される動きベクトル情報MIは予測メモリ回路188に供給され、予測メモリ回路188ではこの動きベクトル情報MIを用いて参照画像信号Vrefを生成する際に動き補償が行われる。また、抽出回路192で抽出されるピクチャ情報PIは予測メモリ回路188、ピクチャ選択回路190に供給され、これら予測メモリ回路188、ピクチャ選択回路190ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。   The decoder 153 also extracts an extraction circuit 192 that extracts encoding control information, that is, picture information PI and motion vector information MI, from the MPEG2 stream stored in the stream buffer 182, and an output that outputs the encoding control information. Terminal 193. The motion vector information MI extracted by the extraction circuit 192 is supplied to the prediction memory circuit 188, and the prediction memory circuit 188 performs motion compensation when generating the reference image signal Vref using the motion vector information MI. The picture information PI extracted by the extraction circuit 192 is supplied to the prediction memory circuit 188 and the picture selection circuit 190, and the prediction memory circuit 188 and the picture selection circuit 190 identify pictures based on the picture information PI. .

図6に示すMPEG2復号化器153の動作を説明する。
ストリームバッファ182に記憶されているMPEG2ストリームが抽出回路183に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路184に供給されて復号化される。そして、この可変長復号化回路184より出力される量子化DCT係数が逆量子化回路186に供給されて逆量子化が施される。
The operation of the MPEG2 decoder 153 shown in FIG. 6 will be described.
The MPEG2 stream stored in the stream buffer 182 is supplied to the extraction circuit 183, and DCT coefficients as frequency coefficients are extracted. This DCT coefficient is variable-length encoded, and this DCT coefficient is supplied to the variable-length decoding circuit 184 and decoded. Then, the quantized DCT coefficient output from the variable length decoding circuit 184 is supplied to the inverse quantization circuit 186 and subjected to inverse quantization.

逆量子化回路186より出力されるDCT係数に対して逆DCT回路187で逆DCTが施されて各ピクチャの画像信号が得られる。この各ピクチャの画像信号は加算回路189を介してピクチャ選択回路190に供給される。この場合、PピクチャおよびBピクチャの画像信号に対しては、加算回路189で予測メモリ回路188より出力される参照画像信号Vrefが加算される。そして、各ピクチャの画像信号は、ピクチャ選択回路190で正しい順に並べ直されて出力端子191に出力される。   The DCT coefficients output from the inverse quantization circuit 186 are subjected to inverse DCT by the inverse DCT circuit 187, and an image signal of each picture is obtained. The picture signal of each picture is supplied to the picture selection circuit 190 via the addition circuit 189. In this case, the reference image signal Vref output from the prediction memory circuit 188 is added by the addition circuit 189 to the image signals of the P picture and the B picture. The picture signals of each picture are rearranged in the correct order by the picture selection circuit 190 and output to the output terminal 191.

図4に戻って、また、係数種データ生成装置150は、MPEG2復号化器153より出力される生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する第1のタップ選択回路154および第2のタップ選択回路155を有している。これら第1、第2のタップ選択回路154,155は、それぞれ上述した画像信号処理部110の第1,第2のタップ選択回路121,122と同様に構成される。   Returning to FIG. 4, the coefficient seed data generation apparatus 150 selectively extracts a plurality of pixel data located around the target position in the teacher signal ST from the student signal SS output from the MPEG2 decoder 153. A first tap selection circuit 154 and a second tap selection circuit 155 that output the first tap. The first and second tap selection circuits 154 and 155 are configured similarly to the first and second tap selection circuits 121 and 122 of the image signal processing unit 110 described above, respectively.

また、係数種データ生成装置150は、第2のタップ選択回路155で選択的に取り出されるクラスタップの画素データから特徴量を抽出する特徴量抽出部156を有している。この特徴量抽出部156は、上述した画像信号処理部110の特徴量抽出部123と同様に構成され、空間クラスを示す第1のクラス情報としてのADRCコードを生成する。   In addition, the coefficient seed data generation device 150 includes a feature amount extraction unit 156 that extracts a feature amount from pixel data of class taps that are selectively extracted by the second tap selection circuit 155. The feature amount extraction unit 156 is configured in the same manner as the feature amount extraction unit 123 of the image signal processing unit 110 described above, and generates an ADRC code as first class information indicating a space class.

また、係数種データ生成装置150は、MPEG2復号化器153でMPEG2ストリームより抽出される符号化情報(ピクチャ情報PI、動きベクトル情報MI)に基づいて、付加情報クラスを示す第2のクラス情報を生成する付加情報クラス生成部157を有している。この付加情報クラス生成部157は、上述した画像信号処理部110の付加情報クラス生成部124と同様に構成される。   Also, the coefficient seed data generation device 150 generates second class information indicating the additional information class based on the encoded information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 153. An additional information class generation unit 157 is generated. The additional information class generation unit 157 is configured in the same manner as the additional information class generation unit 124 of the image signal processing unit 110 described above.

また、係数種データ生成装置150は、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部157で生成される第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLを生成するクラスコード生成部158を有している。このクラスコード生成部158は、上述した画像信号処理部110のクラスコード生成部125と同様に構成される。このクラスコードCLは、教師信号STにおける注目位置の画素データyの属するクラスを示すものである。   In addition, the coefficient seed data generation device 150 performs class classification based on the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157. A class code generation unit 158 that generates a class code CL indicating the result of the above. The class code generation unit 158 is configured in the same manner as the class code generation unit 125 of the image signal processing unit 110 described above. The class code CL indicates a class to which the pixel data y at the target position in the teacher signal ST belongs.

また、係数種データ生成装置150は、入力端子151に供給される教師信号STの時間調整を行うための遅延回路159と、この遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとから、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)を生成する正規方程式生成部160を有している。 The coefficient seed data generation device 150 also includes a delay circuit 159 for adjusting the time of the teacher signal ST supplied to the input terminal 151, and each attention position obtained from the teacher signal ST adjusted in time by the delay circuit 159. Pixel data y, prediction tap pixel data xi selectively extracted by the first tap selection circuit 154 in correspondence with the pixel data y of each target position, the value of the parameter p, and each target position A normal equation (see equation (9)) for obtaining coefficient seed data w i0 to w i3 is generated for each class from the class code CL generated by the class code generation unit 158 corresponding to each pixel data y. A normal equation generating unit 160 for performing

この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、パラメータpの値に応じてMPEG2復号化器153で複数の生徒信号SSが順次生成されていき、教師信号と各生徒信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部160では、パラメータpの値が異なる多くの学習データが登録された正規方程式が生成され、係数種データwi0〜wi3を求めることが可能となる。 In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding to the piece of pixel data y. A plurality of student signals SS are sequentially generated, and learning data is generated between the teacher signal and each student signal. As a result, the normal equation generation unit 160 generates a normal equation in which many pieces of learning data having different values of the parameter p are registered, and the coefficient seed data w i0 to w i3 can be obtained.

また、係数種データ生成装置150は、正規方程式生成部160で、クラス毎に生成された正規方程式のデータが供給され、当該正規方程式を解いて、クラス毎に、係数種データwi0〜wi3を求める係数種データ決定部161と、この求められた係数種データを格納する係数種メモリ162とを有している。係数種データ決定部161では、正規方程式が例えば掃き出し法などによって解かれて、係数種データが求められる。 In addition, the coefficient seed data generation device 150 is supplied with the data of the normal equation generated for each class by the normal equation generation unit 160, solves the normal equation, and generates coefficient seed data w i0 to w i3 for each class. Is provided with a coefficient seed data determining unit 161 and a coefficient seed memory 162 for storing the obtained coefficient seed data. In the coefficient seed data determination unit 161, the normal equation is solved, for example, by a sweeping method, and coefficient coefficient data is obtained.

図4に示す係数種データ生成装置150の動作を説明する。
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてこの教師信号STに対してMPEG2符号化器152で、符号化が施されてMPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。
The operation of the coefficient seed data generation device 150 shown in FIG. 4 will be described.
A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the teacher signal ST is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153.

このMPEG2復号化器153には、パラメータpの値が入力され、復号化の過程で、当該パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じて逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。これにより、パラメータpの値に対応した生徒信号SSが得られる。   The value of the parameter p is input to the MPEG2 decoder 153 so that the signal changes in accordance with the value of the parameter p in the decoding process. That is, in the present embodiment, as described above, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing the inverse discrete cosine transform (inverse DCT) according to the value of the parameter p. Is changed. Thereby, the student signal SS corresponding to the value of the parameter p is obtained.

また、MPEG2復号化器153より出力される生徒信号SSより、第2のタップ選択回路155で、教師信号STにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップの画素データに基づいて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。   Further, from the student signal SS output from the MPEG2 decoder 153, the second tap selection circuit 155 selectively extracts pixel data of class taps located around the target position in the teacher signal ST. The pixel data of this class tap is supplied to the feature amount extraction unit 156. The feature amount extraction unit 156 generates an ADRC code as first class information indicating a space class based on the pixel data of the class tap.

また、MPEG2復号化器153でMPEG2ストリームより抽出される符号化情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部157に供給される。この付加情報クラス生成部157では、符号化情報に基づいて付加情報クラスを示す第2のクラス情報が生成される。   Also, encoded information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 153 is supplied to the additional information class generation unit 157. The additional information class generation unit 157 generates second class information indicating the additional information class based on the encoded information.

そして、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)と、付加情報クラス生成部157で生成される第2のクラス情報は、それぞれクラスコード生成部158に供給される。このクラスコード生成部158では、第1のクラス情報および第2のクラス情報に基づいて、教師信号STにおける注目位置の画素データyが属するクラス(クラス分類の結果)を示すクラスコードCLが生成される。   Then, the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157 are supplied to the class code generation unit 158, respectively. In this class code generation unit 158, based on the first class information and the second class information, a class code CL indicating the class (class classification result) to which the pixel data y at the target position in the teacher signal ST belongs is generated. The

また、MPEG2復号化器153より出力される生徒信号SSより、第1のタップ選択回路154で、教師信号STにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。   Also, from the student signal SS output from the MPEG2 decoder 153, the first tap selection circuit 154 selectively extracts pixel data of the prediction tap located around the target position in the teacher signal ST.

そして、遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとを用いて、正規方程式生成部160では、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)が生成される。 Then, the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 159 and the first tap selection circuit 154 selectively corresponding to the pixel data y of each target position. The normal equation generation unit 160 uses the predicted tap pixel data xi, the value of the parameter p, and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position. For each class, a normal equation (see equation (9)) for generating coefficient seed data w i0 to w i3 is generated.

そして、係数種データ決定部161で各正規方程式が解かれ、クラス毎の係数種データwi0〜wi3が求められ、それらの係数種データwi0〜wi3は係数種メモリ162に格納される。 Then, each normal equation is solved by the coefficient seed data decision section 161, coefficient seed data w i0 to w i3 of each class is determined, their coefficient seed data w i0 to w i3 is stored in the coefficient seed memory 162 .

このように、図4に示す係数種データ生成装置150においては、図1の画像信号処理部110の情報メモリバンク128に格納される、クラス毎の、推定式((1)式参照)で用いられる係数データWiを求めるための生成式((2)式参照)における係数データである係数種データwi0〜wi3を生成することができる。 As described above, the coefficient seed data generation device 150 shown in FIG. 4 uses the estimation formula (see formula (1)) for each class stored in the information memory bank 128 of the image signal processing unit 110 in FIG. It is possible to generate coefficient seed data w i0 to w i3 which are coefficient data in a generation formula (see formula (2)) for determining the coefficient data Wi to be obtained.

次に、係数種データの生成方法の他の例について説明する。この例においても、上述した(2)式の生成式における係数データである係数種データwi0〜wi3を求める例を示すものとする。 Next, another example of the coefficient seed data generation method will be described. Also in this example, an example in which coefficient seed data w i0 to w i3 which are coefficient data in the generation formula of the above-described formula (2) is obtained is shown.

図7は、この例の概念を示している。教師信号から複数の生徒信号を生成する。例えば、パラメータpの値を9段階に可変して、9種類の生徒信号を生成する。このようにして生成された各生徒信号と教師信号との間で学習を行って、(1)式の推定式の係数データWiを生成する。そして、各生徒信号に対応して生成された係数データWiを使用して、(2)式の生成式における係数データである係数種データwi0〜wi3を生成する。 FIG. 7 shows the concept of this example. A plurality of student signals are generated from the teacher signal. For example, the value of the parameter p is varied in 9 steps to generate 9 types of student signals. Learning is performed between each student signal and the teacher signal generated in this way, and coefficient data Wi of the estimation formula (1) is generated. Then, using the coefficient data Wi generated corresponding to each student signal, coefficient seed data w i0 to w i3 , which is coefficient data in the generation formula of formula (2), is generated.

まず、推定式の係数データの求め方を説明する。ここでは、(1)式の推定式の係数データWi(i=1〜n)を最小二乗法により求める例を示すものとする。   First, how to obtain coefficient data of the estimation formula will be described. Here, an example is shown in which the coefficient data Wi (i = 1 to n) of the estimation formula (1) is obtained by the least square method.

上述の、(1)式において、学習前は係数データW1 ,W2,‥‥,Wn は未定係数である。学習は、クラス毎に、複数の信号データに対して行う。学習データ数がmの場合、(1)式に従って、以下に示す(12)式が設定される。nは予測タップの数を示している。
k =W1 ×xk1+W2 ×xk2+‥‥+Wn ×xkn ・・・(12)
(k=1,2,‥‥,m)
m>nの場合、係数データW1 ,W2,‥‥,Wnは、一意に決まらないので、誤差ベクトルeの要素ekを、以下の式(13)で定義して、(14)式のe2を最小にする係数データを求める。いわゆる最小2乗法によって係数データを一意に定める。
k=yk−{w1×xk1+w2×xk2+‥‥+wn×xkn} ・・・(13)
(k=1,2,‥‥m)
In the above equation (1), before learning, coefficient data W 1 , W 2 ,..., W n are undetermined coefficients. Learning is performed on a plurality of signal data for each class. When the number of learning data is m, the following equation (12) is set according to equation (1). n indicates the number of prediction taps.
y k = W 1 × x k1 + W 2 × x k2 +... + W n × x kn (12)
(K = 1, 2,..., M)
When m> n, the coefficient data W 1 , W 2 ,..., W n are not uniquely determined, so the element e k of the error vector e is defined by the following equation (13), and (14) Coefficient data that minimizes e 2 in the equation is obtained. Coefficient data is uniquely determined by a so-called least square method.
e k = y k − {w 1 × x k1 + w 2 × x k2 +... + w n × x kn } (13)
(K = 1, 2, ... m)

Figure 0004140662
Figure 0004140662

(14)式のe2を最小とする係数データを求めるための実際的な計算方法としては、まず、(15)式に示すように、e2を係数データWi(i=1,2,・・・,n)で偏微分し、iの各値について偏微分値が0となるように係数データWiを求めればよい。 As a practical calculation method for obtaining coefficient data that minimizes e 2 in equation (14), first, as shown in equation (15), e 2 is expressed as coefficient data Wi (i = 1, 2,. .., N), and the coefficient data Wi may be obtained so that the partial differential value becomes 0 for each value of i.

Figure 0004140662
Figure 0004140662

(15)式から係数データWiを求める具体的な手順について説明する。(16)式、(17)式のようにXji,Yi を定義すると、(15)式は、(18)式の行列式の形に書くことができる。   A specific procedure for obtaining the coefficient data Wi from the equation (15) will be described. If Xji and Yi are defined as in equations (16) and (17), equation (15) can be written in the form of a determinant of equation (18).

Figure 0004140662
Figure 0004140662

Figure 0004140662
Figure 0004140662

(18)式は、一般に正規方程式と呼ばれるものである。この正規方程式を掃き出し法(Gauss-Jordanの消去法)等の一般解法で解くことにより、係数データWi(i=1,2,・・・,n)を求めることができる。   Equation (18) is generally called a normal equation. Coefficient data Wi (i = 1, 2,..., N) can be obtained by solving this normal equation by a general solution method such as a sweep-out method (Gauss-Jordan elimination method).

次に、各生徒信号に対応して生成された係数データWiを使用した、係数種データの求め方を説明する。   Next, how to obtain coefficient seed data using coefficient data Wi generated corresponding to each student signal will be described.

パラメータpの値に対応した生徒信号を用いた学習による、あるクラスの係数データが、kpiになったとする。ここで、iは予測タップの番号である。このkpiから、このクラスの係数種データを求める。 It is assumed that coefficient data of a certain class obtained by learning using a student signal corresponding to the value of the parameter p becomes k pi . Here, i is the number of the prediction tap. The coefficient seed data of this class is obtained from this k pi .

係数データWi(i=1〜n)は、係数種データwi0〜wi3を使って、上述した(2)式で表現される。ここで、係数データWiに対して最小二乗法を使用することを考えると、残差は、(19)式で表される。 The coefficient data Wi (i = 1 to n) is expressed by the above-described equation (2) using the coefficient seed data w i0 to w i3 . Here, considering that the least square method is used for the coefficient data Wi, the residual is expressed by equation (19).

Figure 0004140662
Figure 0004140662

ここで、tjは、上述の(3)式に示されている。(19)式に最小二乗法を作用させると、(20)式が得られる。 Here, t j is shown in the above equation (3). When the least square method is applied to equation (19), equation (20) is obtained.

Figure 0004140662
Figure 0004140662

ここで、Xjk,Yjをそれぞれ(21)式、(22)式のように定義すると、(20)式は(23)式のように書き換えられる。この(23)式も正規方程式であり、この式を掃き出し法等の一般解法で解くことにより、係数種データwi0〜wi3を算出することができる。 Here, if X jk and Y j are defined as in the equations (21) and (22), respectively, the equation (20) is rewritten as in the equation (23). The equation (23) is also a normal equation, and the coefficient seed data w i0 to w i3 can be calculated by solving this equation by a general solution such as a sweep-out method.

Figure 0004140662
Figure 0004140662

図8は、図7に示す概念に基づいて係数種データを生成する係数種データ生成装置150Aの構成を示している。この図8において、図4と対応する部分には同一符号を付し、その詳細説明は省略する。   FIG. 8 shows a configuration of a coefficient seed data generation device 150A that generates coefficient seed data based on the concept shown in FIG. In FIG. 8, parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.

係数種データ生成装置150Aは、遅延回路159で時間調整された教師信号STより得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとから、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((18)式参照)を生成する正規方程式生成部163を有している。   The coefficient seed data generation device 150A includes pixel data y at each position of interest obtained from the teacher signal ST time-adjusted by the delay circuit 159, and a first tap selection circuit corresponding to the pixel data y at each position of interest. From the pixel data xi of the prediction tap selectively extracted in 154 and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position, coefficient data Wi ( A normal equation generation unit 163 that generates a normal equation (see equation (18)) for obtaining i = 1 to n) is provided.

この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、パラメータpの値に応じてMPEG2復号化器153で複数の生徒信号SSが順次生成されていき、教師信号と各生徒信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部163では、各生徒信号のそれぞれに対応して、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式が生成される。   In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding to the piece of pixel data y. A plurality of student signals SS are sequentially generated, and learning data is generated between the teacher signal and each student signal. As a result, the normal equation generation unit 163 generates a normal equation for obtaining coefficient data Wi (i = 1 to n) for each class corresponding to each student signal.

また、係数種データ生成装置150Aは、正規方程式生成部163で生成された正規方程式のデータが供給され、その正規方程式を解いて、各生徒信号にそれぞれ対応した、各クラスの係数データWiを求める係数データ決定部164と、パラメータpの値および各生徒信号にそれぞれ対応した係数データWiとを使用して、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((23)式参照)を生成する正規方程式生成部165とを有している。 The coefficient seed data generation device 150A is supplied with the data of the normal equation generated by the normal equation generation unit 163, solves the normal equation, and obtains the coefficient data Wi of each class corresponding to each student signal. A normal equation ((23)) for obtaining coefficient seed data w i0 to w i3 for each class using the coefficient data determination unit 164 and coefficient data Wi corresponding to the value of the parameter p and each student signal. And a normal equation generation unit 165 that generates (see Equation).

また、係数種データ生成装置150Aは、正規方程式生成部165でクラス毎に生成された正規方程式のデータが供給され、クラス毎に正規方程式を解いて、各クラスの係数種データwi0〜wi3を求める係数種データ決定部166と、この求められた係数種データwi0〜wi3を格納する係数種メモリ162とを有している。 The coefficient seed data generation device 150A is supplied with the data of the normal equation generated for each class by the normal equation generation unit 165, solves the normal equation for each class, and generates coefficient seed data w i0 to w i3 for each class. A coefficient seed data determination unit 166 and a coefficient seed memory 162 for storing the determined coefficient seed data w i0 to w i3 .

図8に示す係数種データ生成装置150Aのその他は、図4に示す係数種データ生成装置150と同様に構成される。   The rest of the coefficient seed data generation device 150A shown in FIG. 8 is configured in the same manner as the coefficient seed data generation device 150 shown in FIG.

次に、図8に示す係数種データ生成装置150Aの動作を説明する。
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてこの教師信号STに対してMPEG2符号化器152で、符号化が施されてMPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。
Next, the operation of the coefficient seed data generation device 150A shown in FIG. 8 will be described.
A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the teacher signal ST is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153.

このMPEG2復号化器153には、パラメータpの値が入力され、復号化の過程で、当該パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じて逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。これにより、パラメータpの値に対応した生徒信号SSが得られる。   The value of the parameter p is input to the MPEG2 decoder 153 so that the signal changes in accordance with the value of the parameter p in the decoding process. That is, in the present embodiment, as described above, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing the inverse discrete cosine transform (inverse DCT) according to the value of the parameter p. Is changed. Thereby, the student signal SS corresponding to the value of the parameter p is obtained.

また、MPEG2復号化器153より出力される生徒信号SSより、第2のタップ選択回路155で、教師信号STにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップの画素データに基づいて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。   Further, from the student signal SS output from the MPEG2 decoder 153, the second tap selection circuit 155 selectively extracts pixel data of class taps located around the target position in the teacher signal ST. The pixel data of this class tap is supplied to the feature amount extraction unit 156. The feature amount extraction unit 156 generates an ADRC code as first class information indicating a space class based on the pixel data of the class tap.

また、MPEG2復号化器153でMPEG2ストリームより抽出される符号化情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部157に供給される。この付加情報クラス生成部157では、符号化情報に基づいて付加情報クラスを示す第2のクラス情報が生成される。   Also, encoded information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 153 is supplied to the additional information class generation unit 157. The additional information class generation unit 157 generates second class information indicating the additional information class based on the encoded information.

そして、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)と、付加情報クラス生成部157で生成される第2のクラス情報は、それぞれクラスコード生成部158に供給される。このクラスコード生成部158では、第1のクラス情報および第2のクラス情報に基づいて、教師信号STにおける注目位置の画素データyが属するクラス(クラス分類の結果)を示すクラスコードCLが生成される。   Then, the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157 are supplied to the class code generation unit 158, respectively. In this class code generation unit 158, based on the first class information and the second class information, a class code CL indicating the class (class classification result) to which the pixel data y at the target position in the teacher signal ST belongs is generated. The

また、MPEG2復号化器153より出力される生徒信号SSより、第1のタップ選択回路154で、教師信号STにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。   Also, from the student signal SS output from the MPEG2 decoder 153, the first tap selection circuit 154 selectively extracts pixel data of the prediction tap located around the target position in the teacher signal ST.

そして、遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとを用いて、正規方程式生成部163では、MPEG2復号化器153より出力される、パラメータpの複数の値にそれぞれ対応した複数の生徒信号SSについて、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((18)式参照)が生成される。   Then, the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 159 and the first tap selection circuit 154 selectively corresponding to the pixel data y of each target position. The normal equation generation unit 163 uses the pixel data xi of the predicted tap, the value of the parameter p, and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position. , A normal equation (((n = 1 to n)) for obtaining coefficient data Wi (i = 1 to n) for each class for a plurality of student signals SS respectively corresponding to a plurality of values of the parameter p output from the MPEG2 decoder 153. 18) is generated.

そして、係数データ決定部164でその正規方程式が解かれ、複数の生徒信号SSのそれぞれ対応した、各クラスの係数データWiが求められる。正規方程式生成部165では、この複数の生徒信号SSのそれぞれ対応した各クラスの係数データWiを用いて、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((23)式参照)が生成される。 Then, the coefficient data determining unit 164 solves the normal equation, and the coefficient data Wi of each class corresponding to each of the plurality of student signals SS is obtained. The normal equation generation unit 165 uses the coefficient data Wi of each class corresponding to each of the plurality of student signals SS to obtain a normal equation (equation (23)) for obtaining coefficient seed data w i0 to w i3 for each class. Reference) is generated.

そして、係数種データ決定部166でその正規方程式が解かれ、各クラスの係数種データwi0〜wi3が求められ、その係数種データwi0〜wi3は係数種メモリ162に格納される。 Then, the normal equation is solved by the coefficient seed data determination section 166, the coefficient seed data w i0 to w i3 of each class is determined, the coefficient seed data w i0 to w i3 is stored in the coefficient seed memory 162.

このように、図8に示す係数種データ生成装置150Aにおいても、図1の画像信号処理部110の情報メモリバンク128に格納される、各クラスの係数種データwi0〜wi3を生成することができる。 As described above, the coefficient seed data generation device 150A shown in FIG. 8 also generates the coefficient seed data w i0 to w i3 of each class stored in the information memory bank 128 of the image signal processing unit 110 in FIG. Can do.

図1の画像信号処理部110では、係数データWi(i=1〜n)を生成するために(2)式の生成式を使用したが、次数の異なった多項式や、他の関数で表現される式でも実現可能である。   In the image signal processing unit 110 of FIG. 1, the generation formula of the formula (2) is used to generate the coefficient data Wi (i = 1 to n), but it is expressed by a polynomial having a different order or another function. It is also possible to use this formula.

また、図1の画像信号処理部110では、特徴量抽出部123より出力される空間クラスを示す第1のクラス情報(ADRCコード)の他に、付加情報クラス生成部124で生成された付加情報クラスを示す第2のクラス情報にも基づいて、クラスコード生成部125ではクラスコードCLを生成するものであるが、第1のクラス情報のみを用いてクラスコードCLを生成してもよい。ただし、第2のクラス情報をも加味してクラスコードCLを生成することで、より細かなクラス分けを行うことができ、画像信号Vbの画素データの生成精度を高めることができる。   Further, in the image signal processing unit 110 of FIG. 1, in addition to the first class information (ADRC code) indicating the space class output from the feature amount extraction unit 123, the additional information generated by the additional information class generation unit 124. Based on the second class information indicating the class, the class code generation unit 125 generates the class code CL. However, the class code CL may be generated using only the first class information. However, by generating the class code CL in consideration of the second class information, finer classification can be performed, and the generation accuracy of the pixel data of the image signal Vb can be improved.

なお、図1の画像信号処理部110における処理を、例えば図9に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。   Note that the processing in the image signal processing unit 110 in FIG. 1 can be realized by software, for example, by an image signal processing apparatus 300 as shown in FIG.

まず、図9に示す画像信号処理装置300について説明する。この画像信号処理装置300は、装置全体の動作を制御するCPU301と、このCPU301の動作プログラムや係数種データ等が格納されたROM(read only memory)302と、CPU301の作業領域を構成するRAM(random access memory)303とを有している。これらCPU301、ROM302およびRAM303は、それぞれバス304に接続されている。   First, the image signal processing apparatus 300 shown in FIG. 9 will be described. The image signal processing apparatus 300 includes a CPU 301 that controls the operation of the entire apparatus, a ROM (read only memory) 302 that stores an operation program of the CPU 301, coefficient seed data, and the like, and a RAM ( random access memory) 303. These CPU 301, ROM 302, and RAM 303 are each connected to a bus 304.

また、画像信号処理装置300は、外部記憶装置としてのハードディスクドライブ(HDD)305と、フロッピー(登録商標)ディスク306をドライブするドライブ(FDD)307とを有している。これらドライブ305,307は、それぞれバス304に接続されている。   The image signal processing apparatus 300 also includes a hard disk drive (HDD) 305 as an external storage device and a drive (FDD) 307 that drives a floppy (registered trademark) disk 306. These drives 305 and 307 are each connected to a bus 304.

また、画像信号処理装置300は、インターネット等の通信網400に有線または無線で接続する通信部308を有している。この通信部308は、インタフェース309を介してバス304に接続されている。   In addition, the image signal processing apparatus 300 includes a communication unit 308 that connects to a communication network 400 such as the Internet by wire or wirelessly. The communication unit 308 is connected to the bus 304 via the interface 309.

また、画像信号処理装置300は、ユーザインタフェース部を備えている。このユーザインタフェース部は、リモコン送信機200からのリモコン信号RMを受信するリモコン信号受信回路310と、LCD(liquid crystal display)等からなるディスプレイ311とを有している。受信回路310はインタフェース312を介してバス304に接続され、同様にディスプレイ311はインタフェース313を介してバス304に接続されている。   In addition, the image signal processing device 300 includes a user interface unit. The user interface unit includes a remote control signal receiving circuit 310 that receives a remote control signal RM from the remote control transmitter 200, and a display 311 that includes an LCD (liquid crystal display) or the like. The receiving circuit 310 is connected to the bus 304 via the interface 312, and similarly the display 311 is connected to the bus 304 via the interface 313.

また、画像信号処理装置300は、画像信号Vaを入力するための入力端子314と、画像信号Vbを出力するための出力端子315とを有している。入力端子314はインタフェース316を介してバス304に接続され、同様に出力端子315はインタフェース317を介してバス304に接続される。   Further, the image signal processing apparatus 300 has an input terminal 314 for inputting the image signal Va and an output terminal 315 for outputting the image signal Vb. The input terminal 314 is connected to the bus 304 via the interface 316, and similarly, the output terminal 315 is connected to the bus 304 via the interface 317.

ここで、上述したようにROM302に処理プログラムや係数種データ等を予め格納しておく代わりに、例えばインターネットなどの通信網400より通信部308を介してダウンロードし、ハードディスクやRAM303に蓄積して使用することもできる。また、これら処理プログラムや係数種データ等をフロッピー(登録商標)ディスク306で提供するようにしてもよい。   Here, instead of storing the processing program, coefficient seed data, and the like in the ROM 302 in advance as described above, for example, they are downloaded from the communication network 400 such as the Internet via the communication unit 308 and stored in the hard disk or RAM 303 for use. You can also Further, these processing programs, coefficient seed data, and the like may be provided on a floppy (registered trademark) disk 306.

また、処理すべき画像信号Vaを入力端子314より入力する代わりに、予めハードディスクに記録しておき、あるいはインターネットなどの通信網400より通信部308を介してダウンロードしてもよい。また、処理後の画像信号Vbを出力端子315に出力する代わり、あるいはそれと並行してディスプレイ311に供給して画像表示をしたり、さらにはハードディスクに格納したり、通信部308を介してインターネットなどの通信網400に送出するようにしてもよい。   Further, instead of inputting the image signal Va to be processed from the input terminal 314, it may be recorded in advance on a hard disk or downloaded from the communication network 400 such as the Internet via the communication unit 308. Further, instead of outputting the processed image signal Vb to the output terminal 315 or in parallel therewith, it is supplied to the display 311 to display an image, further stored in a hard disk, the Internet via the communication unit 308, etc. It may be sent to the communication network 400.

図10のフローチャートを参照して、図9に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。   A processing procedure for obtaining the image signal Vb from the image signal Va in the image signal processing apparatus 300 shown in FIG. 9 will be described with reference to the flowchart of FIG.

まず、ステップST1で、処理を開始し、ステップST2で、例えば入力端子314より装置内に1フレーム分または1フィールド分の画像信号Vaを入力する。このように入力端子314より入力される画像信号Vaを構成する画素データはRAM303に一時的に格納される。なお、この画像信号Vaが装置内のハードディスクドライブ307に予め記録されている場合には、このドライブ307からこの画像信号Vaを読み出し、この画像信号Vaを構成する画素データをRAM303に一時的に格納する。   First, in step ST1, processing is started, and in step ST2, for example, an image signal Va for one frame or one field is input into the apparatus from the input terminal 314. Thus, the pixel data constituting the image signal Va input from the input terminal 314 is temporarily stored in the RAM 303. When the image signal Va is recorded in advance in the hard disk drive 307 in the apparatus, the image signal Va is read from the drive 307, and the pixel data constituting the image signal Va is temporarily stored in the RAM 303. To do.

そして、ステップST3で、画像信号Vaの全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST4で、処理を終了する。一方、処理が終わっていないときは、ステップST5に進む。   In step ST3, it is determined whether or not processing of all frames or all fields of the image signal Va has been completed. When the process is finished, the process ends in step ST4. On the other hand, when the process is not finished, the process proceeds to step ST5.

このステップST5では、ユーザのリモコン送信機200の操作によって入力された画質指定値であるパラメータpの値を、例えばRAM303より取得する。そして、ステップST6で、パラメータPの値、各クラスの係数種データを用いて、生成式(例えば(2)式)によって、各クラスの推定式((1)式参照)の係数データWiを生成する。   In step ST5, the value of the parameter p, which is the image quality designation value input by the user's operation of the remote control transmitter 200, is acquired from the RAM 303, for example. In step ST6, using the value of the parameter P and the coefficient seed data of each class, the coefficient data Wi of the estimation formula (see formula (1)) of each class is generated by a generation formula (for example, formula (2)). To do.

次に、ステップST7で、ステップST2で入力された画像信号Vaより、画像信号Vbにおける注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST8で、ステップST2で入力された1フレーム分または1フィールド分の画像信号Vaの画素データの全領域において画像信号Vbの画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST2に戻り、次の1フレーム分または1フィールド分の画像信号Vaの入力処理に移る。一方、処理が終了していないときは、ステップST9に進む。   Next, in step ST7, pixel data of class taps and prediction taps are acquired from the image signal Va input in step ST2 corresponding to the target position in the image signal Vb. In step ST8, it is determined whether or not the processing for obtaining the pixel data of the image signal Vb has been completed in the entire region of the pixel data of the image signal Va for one frame or one field input in step ST2. If completed, the process returns to step ST2, and the process proceeds to input processing of the image signal Va for the next one frame or one field. On the other hand, when the process has not ended, the process proceeds to step ST9.

このステップST9では、ステップST7で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST10で、そのクラスコードCLに対応した係数データWiと予測タップの画素データを使用して、推定式により、画像信号Vbにおける注目位置の画素データを生成し、その後にステップST7に戻って、上述したと同様の処理を繰り返す。   In step ST9, a class code CL is generated from the pixel data of the class tap acquired in step ST7. In step ST10, using the coefficient data Wi corresponding to the class code CL and the pixel data of the prediction tap, the pixel data of the target position in the image signal Vb is generated by the estimation formula, and then the process returns to step ST7. Then, the same processing as described above is repeated.

このように、図10に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。   As described above, by performing processing according to the flowchart shown in FIG. 10, the pixel data of the input image signal Va can be processed to obtain the pixel data of the image signal Vb. As described above, the image signal Vb obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be supplied to the hard disk. Or is recorded.

なお、ステップST9では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、入力端子314からは画像信号Vaの他に、この画像信号Vaに関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)も入力されるようにし、図1の画像信号処理部110におけると同様に、この符号化制御情報をも用いてクラスコードCLを生成するようにしてもよい。   In step ST9, the class code CL is generated from the pixel data of the class tap. However, in addition to the image signal Va, encoding control information (picture information PI, motion vector information MI) related to the image signal Va is also input from the input terminal 314, and the image signal processing unit 110 in FIG. As in, the class code CL may be generated using this encoding control information.

また、処理装置の図示は省略するが、図4の係数種データ生成装置150における処理を、ソフトウェアで実現することも可能である。   Further, although illustration of the processing device is omitted, the processing in the coefficient seed data generation device 150 in FIG. 4 can also be realized by software.

図11のフローチャートを参照して、係数種データを生成するための処理手順を説明する。
まず、ステップST21で、処理を開始し、ステップST22で、学習に使われる、画質パターン(パラメータpの値で特定される)を選択する。そして、ステップST23で、全ての画質パターンに対して学習が終わったか否かを判定する。全ての画質パターンに対して学習が終わっていないときは、ステップST24に進む。
A processing procedure for generating coefficient seed data will be described with reference to the flowchart of FIG.
First, in step ST21, processing is started, and in step ST22, an image quality pattern (specified by the value of parameter p) used for learning is selected. In step ST23, it is determined whether learning has been completed for all image quality patterns. If learning has not been completed for all image quality patterns, the process proceeds to step ST24.

このステップST24では、教師信号を1フレーム分または1フィールド分だけ入力する。そして、ステップST25で、教師信号の全フレームまたは全フィールドの処理が終了したか否かを判定する。終了したときは、ステップST22に戻って、次の画質パターンの選択を行って、上述したと同様の処理を繰り返す。一方、終了していないときは、ステップST26に進む。   In this step ST24, the teacher signal is inputted for one frame or one field. In step ST25, it is determined whether or not the processing of all the frames or fields of the teacher signal has been completed. When the process is completed, the process returns to step ST22, the next image quality pattern is selected, and the same process as described above is repeated. On the other hand, when not completed, the process proceeds to step ST26.

このステップST26では、ステップST24で入力された教師信号より、ステップST22で選択された画質パターンに基づいて、生徒信号を生成する。そして、ステップST27で、ステップST26で生成された生徒信号より、ステップST24で入力された教師信号における注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST28で、ステップST24で入力された教師信号の全領域において学習処理を終了しているか否かを判定する。学習処理を終了しているときは、ステップST24に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、処理が終了していないときは、ステップST29に進む。   In step ST26, a student signal is generated based on the image quality pattern selected in step ST22 from the teacher signal input in step ST24. In step ST27, the pixel data of the class tap and the prediction tap are acquired from the student signal generated in step ST26 corresponding to the attention position in the teacher signal input in step ST24. In step ST28, it is determined whether or not the learning process has been completed in all regions of the teacher signal input in step ST24. When the learning process is completed, the process returns to step ST24, the teacher signal for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the process has not ended, the process proceeds to step ST29.

このステップST29では、ステップST27で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST30で、正規方程式((9)式参照)を生成する。その後に、ステップST27に戻る。   In step ST29, a class code CL is generated from the pixel data of the class tap acquired in step ST27. In step ST30, a normal equation (see equation (9)) is generated. Thereafter, the process returns to step ST27.

また、ステップST23で、全ての画質パターンに対して学習が終わったときは、ステップST31に進む。このステップST31では、正規方程式を掃き出し法等で解くことによって、各クラスの係数種データを算出し、ステップST32で、その係数種データをメモリに保存し、その後にステップST33で、処理を終了する。   If learning for all image quality patterns is completed in step ST23, the process proceeds to step ST31. In this step ST31, the coefficient seed data of each class is calculated by solving the normal equation by a sweeping method or the like. In step ST32, the coefficient seed data is stored in the memory, and then the process is terminated in step ST33. .

このように、図11に示すフローチャートに沿って処理をすることで、図4に示す係数種データ生成装置150と同様の手法によって、係数種データを得ることができる。   In this way, by performing the processing according to the flowchart shown in FIG. 11, coefficient seed data can be obtained by the same method as the coefficient seed data generating apparatus 150 shown in FIG.

なお、ステップST29では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、図4の係数種データ生成装置150と同様に、生徒信号に関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)をも用いてクラスコードCLを生成するようにしてもよい。   In step ST29, the class code CL is generated from the pixel data of the class tap. However, similar to the coefficient seed data generation device 150 of FIG. 4, the class code CL may be generated using also the encoding control information (picture information PI, motion vector information MI) related to the student signal.

また、処理装置の図示は省略するが、図8の係数種データ生成装置150Aにおける処理も、ソフトウェアで実現可能である。   Although illustration of the processing device is omitted, the processing in the coefficient seed data generation device 150A in FIG. 8 can also be realized by software.

図12のフローチャートを参照して、係数種データを生成するための処理手順を説明する。
まず、ステップST41で、処理を開始し、ステップST42で、学習に使われる、画質パターン(パラメータpの値で特定される)を選択する。そして、ステップST43で、全ての画質パターンに対して学習が終わったか否かを判定する。全ての画質パターンに対して学習が終わっていないときは、ステップST44に進む。
A processing procedure for generating coefficient seed data will be described with reference to the flowchart of FIG.
First, in step ST41, processing is started, and in step ST42, an image quality pattern (specified by the value of parameter p) used for learning is selected. In step ST43, it is determined whether or not learning has been completed for all image quality patterns. If learning has not been completed for all image quality patterns, the process proceeds to step ST44.

このステップST44では、教師信号を1フレーム分または1フィールド分だけ入力する。そして、ステップST45で、教師信号の全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST46で、ステップST44で入力された教師信号より、ステップST42で選択された画質パターンに基づいて、生徒信号を生成する。   In this step ST44, the teacher signal is inputted for one frame or one field. In step ST45, it is determined whether or not the processing of all the frames or fields of the teacher signal has been completed. If not completed, a student signal is generated in step ST46 based on the image quality pattern selected in step ST42 from the teacher signal input in step ST44.

そして、ステップST47で、ステップST46で生成された生徒信号より、ステップST44で入力された教師信号における注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST48で、ステップST44で入力された教師信号の全領域において学習処理を終了しているか否かを判定する。学習処理を終了しているときは、ステップST44に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、学習処理を終了していないときは、ステップST49に進む。   In step ST47, the pixel data of the class tap and the prediction tap are acquired from the student signal generated in step ST46 corresponding to the attention position in the teacher signal input in step ST44. In step ST48, it is determined whether or not the learning process has been completed in all regions of the teacher signal input in step ST44. When the learning process is finished, the process returns to step ST44, the teacher signal for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the learning process is not ended, the process proceeds to step ST49.

このステップST49では、ステップST47で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST50で、係数データを得るための正規方程式((18)式参照)を生成する。その後に、ステップST47に戻る。   In step ST49, a class code CL is generated from the pixel data of the class tap acquired in step ST47. In step ST50, a normal equation for obtaining coefficient data (see equation (18)) is generated. Thereafter, the process returns to step ST47.

上述したステップST45で、処理が終了したときは、ステップST51で、ステップST50で生成された正規方程式を掃き出し法などで解いて、各クラスの係数データを算出する。その後に、ステップST42に戻って、次の画質パターンの選択を行って、上述したと同様の処理を繰り返し、次の画質パターンに対応した、各クラスの係数データを求める。   When the processing is completed in step ST45 described above, in step ST51, the normal equation generated in step ST50 is solved by a sweeping method or the like to calculate coefficient data for each class. Thereafter, the process returns to step ST42, the next image quality pattern is selected, the same processing as described above is repeated, and the coefficient data of each class corresponding to the next image quality pattern is obtained.

また、上述のステップST43で、全ての画質パターンに対する係数データの算出処理が終了したときは、ステップST52に進む。このステップST52では、全ての画質パターンに対する係数データから、係数種データを求めるための正規方程式((23)式参照)を生成する。   If the coefficient data calculation process for all image quality patterns is completed in step ST43, the process proceeds to step ST52. In step ST52, a normal equation (see equation (23)) for obtaining coefficient seed data is generated from the coefficient data for all image quality patterns.

そして、ステップST53で、ステップST52で生成された正規方程式を掃き出し法等で解くことによって、各クラスの係数種データを算出し、ステップST54で、その係数種データをメモリに保存し、その後にステップST55で、処理を終了する。   Then, in step ST53, the coefficient equation data of each class is calculated by solving the normal equation generated in step ST52 by the sweep method or the like, and in step ST54, the coefficient species data is stored in the memory, and then the step In ST55, the process ends.

このように、図12に示すフローチャートに沿って処理をすることで、図8に示す係数種データ生成装置150Aと同様の手法によって、係数種データを得ることができる。   In this way, by performing processing according to the flowchart shown in FIG. 12, coefficient seed data can be obtained by the same method as the coefficient seed data generating apparatus 150A shown in FIG.

なお、ステップST49では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、図8の係数種データ生成装置150Aと同様に、生徒信号に関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)をも用いてクラスコードCLを生成するようにしてもよい。   In step ST49, the class code CL is generated from the pixel data of the class tap. However, similar to the coefficient seed data generation device 150A of FIG. 8, the class code CL may be generated using also the encoding control information (picture information PI, motion vector information MI) related to the student signal.

次に、この発明の他の実施の形態について説明する。   Next, another embodiment of the present invention will be described.

図13は、他の実施の形態としてのデジタル放送受信機100Aの構成を示している。この図13において、図1と対応する部分には同一符号を付して示している。   FIG. 13 shows a configuration of a digital broadcast receiver 100A as another embodiment. In FIG. 13, portions corresponding to those in FIG.

デジタル放送受信機100Aは、図1に示すデジタル放送受信機100の画像信号処理部110が画像信号処理部110Aに置き換えられたものであって、デジタル放送受信機100と同様の動作をする。   The digital broadcast receiver 100A is obtained by replacing the image signal processing unit 110 of the digital broadcast receiver 100 shown in FIG. 1 with the image signal processing unit 110A, and operates in the same manner as the digital broadcast receiver 100.

画像信号処理部110Aの詳細を説明する。この画像信号処理部110Aにおいて、図1に示す画像信号処理部110と対応する部分には同一符号を付し、その詳細説明は省略する。   Details of the image signal processing unit 110A will be described. In this image signal processing unit 110A, parts corresponding to those of the image signal processing unit 110 shown in FIG.

この画像信号処理部110Aは、情報メモリバンク128Aを有している。この情報メモリバンク128Aには、クラスおよびパラメータpの値の組み合わせ毎に、係数データWi(i=1〜n)が予め格納されている。この係数データWiの生成方法については後述する。   The image signal processing unit 110A has an information memory bank 128A. In this information memory bank 128A, coefficient data Wi (i = 1 to n) is stored in advance for each combination of class and parameter p values. A method for generating the coefficient data Wi will be described later.

このように情報メモリバンク128Aに格納されている係数データWiも、上述した図1の画像信号処理部110の情報メモリバンク128に格納されている係数種データwi0〜wi3と同様に、MPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化された、MPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成される。 In this way, the coefficient data Wi stored in the information memory bank 128A is also encoded in the MPEG2 format in the same manner as the coefficient seed data w i0 to w i3 stored in the information memory bank 128 of the image signal processing unit 110 in FIG. The MPEG2 stream encoded in the same manner as the MPEG2 stream input to the decoder 107 is generated in advance based on a signal obtained by processing according to the value of the parameter p.

すなわち、この係数データWiは、それぞれパラメータpの複数の値に応じて生成され、画像信号Vaに対応した複数の生徒信号と、画像信号Vbに対応した教師信号とを用いて予め生成される。   That is, the coefficient data Wi is generated according to a plurality of values of the parameter p, and is generated in advance using a plurality of student signals corresponding to the image signal Va and a teacher signal corresponding to the image signal Vb.

この場合、生徒信号は、教師信号をMPEG2符号化して得られたMPEG2ストリームを復号化することで得られ、この復号化の過程でパラメータpの値に応じて信号を変化させることで、当該パラメータpの値に対応した生徒信号が得られる。この場合、パラメータpの値に応じて、逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。   In this case, the student signal is obtained by decoding the MPEG2 stream obtained by MPEG2 encoding the teacher signal, and the signal is changed according to the value of the parameter p in the process of decoding, so that the parameter A student signal corresponding to the value of p is obtained. In this case, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing inverse discrete cosine transform (inverse DCT) is changed according to the value of the parameter p.

例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128Aに、このようにして得られる複数の生徒信号を用いて予め生成された係数データWiが格納されている場合には、上述の画像信号Vbによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能となる。   For example, it is possible to obtain a plurality of student signals by changing the gain according to the value of the parameter p while setting the gain of all AC coefficients of the DCT coefficients to the same value. When the coefficient data Wi generated in advance using a plurality of student signals obtained in this way is stored in the information memory bank 128A, the resolution of the image obtained by the image signal Vb is set to the parameter p. It can be adjusted in stages according to the value.

また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128Aに、このようにして得られる複数の生徒信号を用いて予め生成された係数データWiが格納されている場合には、上述の画像信号Vbによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能となる。   Further, for example, a plurality of student signals can be obtained by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p. When the coefficient data Wi generated in advance using a plurality of student signals obtained in this way is stored in the information memory bank 128A, the block distortion of the image obtained by the image signal Vb is set as the parameter p. It becomes possible to adjust in steps according to the value of.

また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128Aに、このようにして得られる複数の生徒信号を用いて予め生成された係数データWiが格納されている場合には、上述の画像信号Vbによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能となる。   In addition, for example, a plurality of student signals can be obtained by reducing the gain of the AC coefficient of the DCT coefficient as the frequency increases and changing the degree of decrease in the gain of the AC coefficient according to the parameter value. Can do. When coefficient data Wi generated in advance using a plurality of student signals obtained in this way is stored in the information memory bank 128A, the mosquito noise of the image obtained by the image signal Vb is set as the parameter p. It becomes possible to adjust in steps according to the value of.

また例えば、少なくともDCT係数または逆変換基底にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128Aに、このようにして得られる複数の生徒信号を用いて予め生成された係数種データWiが格納されている場合には、上述の画像信号Vbによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能となる。   Also, for example, a plurality of student signals can be obtained by adding random noise to at least the DCT coefficient or the inverse transform base and changing the level of the random noise according to the value of the parameter p. When the coefficient seed data Wi generated in advance using a plurality of student signals obtained in this way is stored in the information memory bank 128A, the noise suppression degree of the image obtained by the image signal Vb described above is set. The adjustment can be made in stages according to the value of the parameter p.

この画像信号処理部110Aの動作を説明する。
バッファメモリ108に記憶されている画像信号Vaより、第2のタップ選択回路122で、作成すべき画像信号Vbにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
The operation of the image signal processing unit 110A will be described.
From the image signal Va stored in the buffer memory 108, the second tap selection circuit 122 selectively extracts pixel data of class taps located around the target position in the image signal Vb to be created. The pixel data of this class tap is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code as first class information indicating a space class is generated.

MPEG2復号化器107でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部124に供給される。この付加情報クラス生成部124では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。   Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 107 is supplied to the additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the encoding control information.

そして、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報はクラスコード生成部125に供給される。このクラスコード生成部125では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。   Then, the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124 are supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the first class information and the second class information.

このクラスコードCLは、画像信号Vbにおける注目位置の画素データが属するクラスの検出結果を表している。このクラスコードCLは、係数メモリ126に読み出しアドレス情報として供給される。   The class code CL represents the detection result of the class to which the pixel data at the target position in the image signal Vb belongs. The class code CL is supplied to the coefficient memory 126 as read address information.

係数メモリ126には、例えば垂直ブランキング期間に、ユーザによって調整されたパラメータpの値に対応した、各クラスの係数データWiが、システムコントローラ101の制御によって、情報メモリバンク128Aよりロードされて格納される。   In the coefficient memory 126, for example, coefficient data Wi of each class corresponding to the value of the parameter p adjusted by the user during the vertical blanking period is loaded from the information memory bank 128A and stored under the control of the system controller 101. Is done.

なお、情報メモリバンク128Aに、調整されたパラメータpの値に対応した係数データWiが蓄えられていない場合には、その調整されたパラメータpの値の前後の値に対応した係数データWiを情報メモリバンク128Aより読み出し、それらを用いた補間演算処理によって、調整されたパラメータpの値に対応した係数データを得るようにしてもよい。   When the coefficient data Wi corresponding to the adjusted parameter p value is not stored in the information memory bank 128A, the coefficient data Wi corresponding to the values before and after the adjusted parameter p value is stored in the information memory bank 128A. The coefficient data corresponding to the adjusted value of the parameter p may be obtained by reading from the memory bank 128A and performing an interpolation calculation process using them.

係数メモリ126に上述したようにクラスコードCLが読み出しアドレス情報として供給されることで、この係数メモリ126からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路127に供給される。また、バッファメモリ108に記憶されている画像信号Vaより、第1のタップ選択回路121で、画像信号Vbにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。   As described above, the class code CL is supplied to the coefficient memory 126 as read address information, whereby the coefficient data Wi corresponding to the class code CL is read from the coefficient memory 126 and supplied to the estimated prediction calculation circuit 127. The Further, the pixel data of the prediction tap located around the target position in the image signal Vb is selectively extracted by the first tap selection circuit 121 from the image signal Va stored in the buffer memory 108.

推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとを用いて、推定式((1)式参照)に基づいて、作成すべき画像信号Vbにおける注目位置の画素データyが求められる。   The estimated prediction calculation circuit 127 uses the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126, and based on the estimation formula (see formula (1)), attention is paid to the image signal Vb to be generated. Pixel data y at the position is obtained.

このように、画像信号処理部110Aでは、パラメータpの値に対応した推定式の係数データWi(i=1〜n)が使用されて、画素データyが演算される。したがって、ユーザは、パラメータpの値を変更することで、画像信号Vbによる画像の解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を任意に調整できる。   Thus, in the image signal processing unit 110A, the pixel data y is calculated using the coefficient data Wi (i = 1 to n) of the estimation formula corresponding to the value of the parameter p. Therefore, the user can arbitrarily adjust the resolution, block distortion, mosquito noise, or noise suppression degree of the image by the image signal Vb by changing the value of the parameter p.

また、この係数データWiは、上述したMPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化された、MPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成されたものであり、画像信号Vbによる画像の特定の質のみ、例えば解像度のみ、ブロック歪のみ、モスキートノイズのみあるいはノイズ抑圧度のみを段階的に調整できる。   The coefficient data Wi is based on a signal obtained by processing an MPEG2 stream encoded in the same manner as the MPEG2 stream input to the MPEG2 decoder 107 described above according to the value of the parameter p. It is generated in advance, and only the specific quality of the image based on the image signal Vb, for example, only the resolution, only the block distortion, only the mosquito noise, or only the noise suppression degree can be adjusted in stages.

次に、係数データWi(i=1〜n)の生成方法について説明する。
上述では、係数種データの生成方法の他の例として、まずパラメータpの値を段階的に可変して得られる生徒信号毎に、それを用いた学習によって各クラスの係数データWiを生成し、次に生徒信号毎の係数データWiを使用して、各クラスの係数種データw10〜wn9を求めるものを説明した。情報メモリバンク128Aに予め蓄えられる、クラスおよびパラメータpの値の組み合わせ毎の係数データWiは、この係数種データの生成方法における、前半部分と同様の方法で生成することができる。
Next, a method for generating the coefficient data Wi (i = 1 to n) will be described.
In the above, as another example of the coefficient seed data generation method, for each student signal obtained by changing the value of the parameter p stepwise, the coefficient data Wi of each class is generated by learning using the signal, then use the coefficient data Wi for each student signal, have been described herein what obtaining coefficient seed data w 10 to w n9 for each class. The coefficient data Wi for each combination of class and parameter p values stored in advance in the information memory bank 128A can be generated in the same manner as in the first half of this coefficient seed data generation method.

図14は、係数データ生成装置170を示している。この係数データ生成装置170において、図8に示す係数種データ生成装置150Aと対応する部分には同一符号を付し、その詳細説明は省略する。   FIG. 14 shows the coefficient data generation device 170. In this coefficient data generation device 170, parts corresponding to those of the coefficient seed data generation device 150A shown in FIG.

この係数データ生成装置170では、係数メモリ167を有している。この係数メモリ167には、係数データ決定部164で決定された、パラメータpの各値に対応した、各クラスの係数データWiが記憶される。この係数データ生成装置170のその他は、図8に示す係数種データ生成装置150Aと同様に構成され、同様に動作する。   This coefficient data generation device 170 has a coefficient memory 167. The coefficient memory 167 stores coefficient data Wi of each class corresponding to each value of the parameter p determined by the coefficient data determination unit 164. The rest of the coefficient data generation device 170 is configured in the same manner as the coefficient seed data generation device 150A shown in FIG. 8 and operates in the same manner.

このように、図14に示す係数データ生成装置170においては、図13の画像信号処理部110Aの情報メモリバンク128Aに格納される、クラスおよびパラメータpの値の組み合わせ毎の係数データWiを生成することができる。   14 generates coefficient data Wi for each combination of class and parameter p values stored in the information memory bank 128A of the image signal processing unit 110A of FIG. be able to.

また、図13の画像信号処理部110Aにおける処理を、図1の画像信号処理部110における処理と同様に、例えば図9に示す画像信号処理装置300によって、ソフトウェアで実現することも可能である。この場合、ROM302等に、係数データが予め格納されて使用される。   Also, the processing in the image signal processing unit 110A in FIG. 13 can be realized by software, for example, by the image signal processing device 300 shown in FIG. In this case, coefficient data is stored in advance in the ROM 302 or the like and used.

図15のフローチャートを参照して、図9に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。   A processing procedure for obtaining the image signal Vb from the image signal Va in the image signal processing apparatus 300 shown in FIG. 9 will be described with reference to the flowchart of FIG.

まず、ステップST61で、処理を開始し、ステップS62で、例えば入力端子314より装置内に1フレーム分または1フィールド分の画像信号Vaを入力する。このように入力端子314より入力される画像信号Vaを構成する画素データはRAM303に一時的に格納される。なお、この画像信号Vaが装置内のハードディスクドライブ307に予め記録されている場合には、このドライブ307からこの画像信号Vaを読み出し、この画像信号Vaを構成する画素データをRAM303に一時的に格納する。   First, in step ST61, the processing is started, and in step S62, for example, an image signal Va for one frame or one field is input into the apparatus from the input terminal 314. Thus, the pixel data constituting the image signal Va input from the input terminal 314 is temporarily stored in the RAM 303. When the image signal Va is recorded in advance in the hard disk drive 307 in the apparatus, the image signal Va is read from the drive 307, and the pixel data constituting the image signal Va is temporarily stored in the RAM 303. To do.

そして、ステップST63で、画像信号Vaの全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST64で、処理を終了する。一方、処理が終わっていないときは、ステップST65に進む。   In step ST63, it is determined whether or not the processing of all frames or all fields of the image signal Va has been completed. When the process is finished, the process ends at step ST64. On the other hand, when the process is not finished, the process proceeds to step ST65.

このステップST65では、ユーザのリモコン送信機200の操作によって入力された画質指定値であるパラメータpの値を、例えばRAM303より取得する。そして、ステップST66で、取得されたパラメータpの値に基づいて、ROM302等からそのパラメータpの値に対応した、各クラスの係数データWiを読み出し、RAM303に一時的に格納する。   In step ST65, the value of the parameter p, which is an image quality designation value input by the user's operation of the remote control transmitter 200, is acquired from the RAM 303, for example. In step ST66, based on the acquired value of the parameter p, the coefficient data Wi of each class corresponding to the value of the parameter p is read from the ROM 302 or the like and temporarily stored in the RAM 303.

次に、ステップST67で、ステップST62で入力された画像信号Vaより、画像信号Vbにおける注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST68で、ステップST62で入力された1フレームまたは1フィールド分の画像信号Vaの画素データの全領域において画像信号Vbの画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST62に戻り、次の1フレーム分または1フィールド分の画像信号Vaの入力処理に移る。一方、処理が終了していないときは、ステップST69に進む。   Next, in step ST67, pixel data of class taps and prediction taps are acquired from the image signal Va input in step ST62, corresponding to the target position in the image signal Vb. In step ST68, it is determined whether or not the processing for obtaining the pixel data of the image signal Vb has been completed in the entire area of the pixel data of the image signal Va for one frame or one field input in step ST62. If completed, the process returns to step ST62, and the process proceeds to input processing of the image signal Va for the next one frame or one field. On the other hand, when the process has not ended, the process proceeds to step ST69.

このステップST69では、ステップST67で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST70で、そのクラスコードCLに対応した係数データWiと予測タップの画素データを使用して、推定式により、画像信号Vbにおける注目位置の画素データを生成し、その後にステップST67に戻って、上述したと同様の処理を繰り返す。   In step ST69, the class code CL is generated from the pixel data of the class tap acquired in step ST67. In step ST70, the coefficient data Wi corresponding to the class code CL and the pixel data of the prediction tap are used to generate pixel data of the target position in the image signal Vb by the estimation formula, and then the process returns to step ST67. Then, the same processing as described above is repeated.

このように、図15に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。   As described above, by performing processing according to the flowchart shown in FIG. 15, the pixel data of the input image signal Va can be processed to obtain the pixel data of the image signal Vb. As described above, the image signal Vb obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be supplied to the hard disk. Or is recorded.

なお、ステップST69では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、入力端子314からは画像信号Vaの他に、この画像信号Vaに関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)も入力されるようにし、図13の画像信号処理部110Aにおけると同様に、この符号化制御情報をも用いてクラスコードCLを生成するようにしてもよい。   In step ST69, the class code CL is generated from the pixel data of the class tap. However, in addition to the image signal Va, encoding control information (picture information PI, motion vector information MI) related to the image signal Va is also input from the input terminal 314, and the image signal processing unit 110A in FIG. As in, the class code CL may be generated using this encoding control information.

また、処理装置の図示は省略するが、図14の係数データ生成装置170における処理も、ソフトウェアで実現可能である。   Although illustration of the processing device is omitted, the processing in the coefficient data generation device 170 in FIG. 14 can also be realized by software.

図16のフローチャートを参照して、係数データを生成するための処理手順を説明する。
まず、ステップST81で、処理を開始し、ステップST82で、学習に使われる、画質パターン(パラメータpの値で特定される)を選択する。そして、ステップST83で、全ての画質パターンに対して学習が終わったか否かを判定する。全ての画質パターンに対して学習が終わっていないときは、ステップST84に進む。
A processing procedure for generating coefficient data will be described with reference to the flowchart of FIG.
First, in step ST81, processing is started, and in step ST82, an image quality pattern (specified by the value of parameter p) used for learning is selected. In step ST83, it is determined whether learning has been completed for all image quality patterns. If learning has not been completed for all image quality patterns, the process proceeds to step ST84.

このステップST84では、教師信号を1フレーム分または1フィールド分だけ入力する。そして、ステップST85で、教師信号の全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST86で、ステップST84で入力された教師信号より、ステップST82で選択された画質パターンに基づいて、生徒信号を生成する。   In this step ST84, the teacher signal is inputted for one frame or one field. In step ST85, it is determined whether or not the processing of all the frames or fields of the teacher signal has been completed. If not completed, a student signal is generated in step ST86 based on the image quality pattern selected in step ST82 from the teacher signal input in step ST84.

そして、ステップST87で、ステップST86で生成された生徒信号より、ステップST84で入力された教師信号における注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST88で、ステップST84で入力された教師信号の全領域において学習処理を終了しているか否かを判定する。学習処理を終了しているときは、ステップST84に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、学習処理を終了していないときは、ステップST89に進む。   Then, in step ST87, pixel data of class taps and prediction taps are acquired from the student signal generated in step ST86, corresponding to the target position in the teacher signal input in step ST84. In step ST88, it is determined whether or not the learning process has been completed in all regions of the teacher signal input in step ST84. When the learning process is finished, the process returns to step ST84, the teacher signal for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the learning process is not ended, the process proceeds to step ST89.

このステップST89では、ステップST87で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST90で、係数データを得るための正規方程式((18)式参照)を生成する。その後に、ステップST87に戻る。   In step ST89, a class code CL is generated from the pixel data of the class tap acquired in step ST87. In step ST90, a normal equation for obtaining coefficient data (see equation (18)) is generated. Thereafter, the process returns to step ST87.

上述したステップST85で、処理が終了したときは、ステップST91で、ステップST90で生成された正規方程式を掃き出し法などで解いて、各クラスの係数データを算出する。その後に、ステップST82に戻って、次の画質パターンの選択を行って、上述したと同様の処理を繰り返し、次の画質パターンに対応した、各クラスの係数データを求める。   When the processing is completed in step ST85 described above, in step ST91, the normal equation generated in step ST90 is solved by a sweeping method or the like to calculate coefficient data of each class. Thereafter, the process returns to step ST82, the next image quality pattern is selected, the same processing as described above is repeated, and the coefficient data of each class corresponding to the next image quality pattern is obtained.

また、上述のステップST83で、全ての画質パターンに対する係数データの算出処理が終了したときは、ステップST92で、全ての画質パターンに対する各クラスの係数データをメモリに保存し、その後にステップST93で、処理を終了する。   When the coefficient data calculation processing for all image quality patterns is completed in step ST83, the class coefficient data for all image quality patterns is stored in the memory in step ST92, and then in step ST93. The process ends.

このように、図16に示すフローチャートに沿って処理をすることで、図14に示す係数データ生成装置170と同様の手法によって、係数データを得ることができる。なお、ステップST89では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、図14の係数データ生成装置170と同様に、生徒信号に関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)をも用いてクラスコードCLを生成するようにしてもよい。   In this way, by performing processing according to the flowchart shown in FIG. 16, coefficient data can be obtained by a method similar to that of the coefficient data generating apparatus 170 shown in FIG. In step ST89, the class code CL is generated from the pixel data of the class tap. However, similarly to the coefficient data generation device 170 of FIG. 14, the class code CL may be generated using also the encoding control information (picture information PI, motion vector information MI) related to the student signal.

次に、この発明のさらに他の実施の形態について説明する。
図17は、他の実施の形態としてのデジタル放送受信機100Bの構成を示している。この図17において、図1と対応する部分には同一符号を付して示している。
Next, still another embodiment of the present invention will be described.
FIG. 17 shows a configuration of a digital broadcast receiver 100B as another embodiment. In FIG. 17, parts corresponding to those in FIG. 1 are given the same reference numerals.

デジタル放送受信機100Bは、図1に示すデジタル放送受信機100の画像信号処理部110が画像信号処理部110Bに置き換えられたものであって、デジタル放送受信機100と同様の動作をする。   The digital broadcast receiver 100B is obtained by replacing the image signal processing unit 110 of the digital broadcast receiver 100 shown in FIG. 1 with the image signal processing unit 110B, and operates in the same manner as the digital broadcast receiver 100.

画像信号処理部110Bの詳細を説明する。この画像信号処理部110Bにおいて、図1に示す画像信号処理部110と対応する部分には同一符号を付し、その詳細説明は省略する。   Details of the image signal processing unit 110B will be described. In this image signal processing unit 110B, portions corresponding to those of the image signal processing unit 110 shown in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.

この画像信号処理部110Bは、蓄積テーブル131を有している。この蓄積テーブル131には、クラスおよびパラメータpの値の組み合わせ毎に、差分データDFが予め格納されている。この差分データDFは、画素値の差分データあるいはDCT処理により得られるDCT係数(周波数係数)の差分データである。蓄積テーブル131には、クラスコード生成部125より出力されるクラスコードCLおよびシステムコントローラ101より出力されるパラメータpの値が読み出しアドレス情報として供給される。この蓄積テーブル131からは、クラスコードCLおよびパラメータpの値に対応した差分データDFが読み出されて、後述する加算部134に供給される。   The image signal processing unit 110B has an accumulation table 131. In the accumulation table 131, difference data DF is stored in advance for each combination of class and parameter p values. The difference data DF is difference data of pixel values or DCT coefficients (frequency coefficients) obtained by DCT processing. The accumulation table 131 is supplied with the class code CL output from the class code generation unit 125 and the value of the parameter p output from the system controller 101 as read address information. The difference data DF corresponding to the value of the class code CL and the parameter p is read from the accumulation table 131 and supplied to the adding unit 134 described later.

この蓄積テーブル131に格納されている差分データDFも、上述した図1の画像信号処理部110の情報メモリバンク128に格納されている係数種データwi0〜wi3と同様に、MPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化された、MPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成される。 The difference data DF stored in the accumulation table 131 is also an MPEG2 decoder, similarly to the coefficient seed data w i0 to w i3 stored in the information memory bank 128 of the image signal processing unit 110 in FIG. The MPEG2 stream encoded in the same manner as the MPEG2 stream input to 107 is generated in advance based on a signal obtained by processing according to the value of the parameter p.

すなわち、この差分データDFは、それぞれパラメータpの複数の値に応じて生成され、画像信号Vaに対応した複数の生徒信号と、画像信号Vbに対応した教師信号とを用いて予め生成される。   That is, the difference data DF is generated according to a plurality of values of the parameter p, and is generated in advance using a plurality of student signals corresponding to the image signal Va and a teacher signal corresponding to the image signal Vb.

この場合、生徒信号は、教師信号をMPEG2符号化して得られたMPEG2ストリームを復号化することで得られ、この復号化の過程でパラメータpの値に応じて信号を変化させることで、当該パラメータpの値に対応した生徒信号が得られる。この場合、パラメータpの値に応じて、逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。   In this case, the student signal is obtained by decoding the MPEG2 stream obtained by MPEG2 encoding the teacher signal, and the signal is changed according to the value of the parameter p in the process of decoding, so that the parameter A student signal corresponding to the value of p is obtained. In this case, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing inverse discrete cosine transform (inverse DCT) is changed according to the value of the parameter p.

例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。蓄積テーブル131に、このようにして得られる複数の生徒信号を用いて予め生成された差分データDFが格納されている場合には、上述の画像信号Vbによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能となる。   For example, it is possible to obtain a plurality of student signals by changing the gain according to the value of the parameter p while setting the gain of all AC coefficients of the DCT coefficients to the same value. When difference data DF previously generated using a plurality of student signals obtained in this way is stored in the accumulation table 131, the resolution of the image obtained by the image signal Vb is set to the value of the parameter p. It becomes possible to adjust in stages according to.

また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。蓄積テーブル131に、このようにして得られる複数の生徒信号を用いて予め生成された差分データDFが格納されている場合には、上述の画像信号Vbによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能となる。   Further, for example, a plurality of student signals can be obtained by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p. In the case where the difference data DF generated in advance using a plurality of student signals obtained in this way is stored in the accumulation table 131, the block distortion of the image obtained by the image signal Vb is set to the parameter p. It can be adjusted in stages according to the value.

また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。蓄積テーブル131に、このようにして得られる複数の生徒信号を用いて予め生成された差分データDFが格納されている場合には、上述の画像信号Vbによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能となる。   In addition, for example, a plurality of student signals can be obtained by reducing the gain of the AC coefficient of the DCT coefficient as the frequency increases and changing the degree of decrease in the gain of the AC coefficient according to the parameter value. Can do. In the case where the difference data DF generated in advance using a plurality of student signals obtained in this way is stored in the accumulation table 131, the mosquito noise of the image obtained by the image signal Vb is set to the parameter p. It can be adjusted in stages according to the value.

また例えば、少なくともDCT係数または逆変換基底にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。蓄積テーブル131に、このようにして得られる複数の生徒信号を用いて予め生成された差分データDFが格納されている場合には、上述の画像信号Vbによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能となる。   Also, for example, a plurality of student signals can be obtained by adding random noise to at least the DCT coefficient or the inverse transform base and changing the level of the random noise according to the value of the parameter p. When difference data DF previously generated using a plurality of student signals obtained in this way is stored in the accumulation table 131, the noise suppression degree of the image obtained by the image signal Vb is set as the parameter p. It becomes possible to adjust in steps according to the value of.

また、デジタル放送受信機100Bは、バッファメモリ108に記憶されている画像信号Vaに対してDCT処理を施してDCT係数を得るDCT回路132と、このDCT回路132より出力されるDCT係数がa側の固定端子に入力されると共に、そのb側の固定端子にバッファメモリ108より出力される画像信号Vaが入力される切換スイッチ133を有している。この切換スイッチ133は、蓄積テーブル131に格納されている差分データDFが、画素値の差分データであるときはb側に接続され、DCT処理により得られるDCT係数の差分データであるときはa側に接続される。   The digital broadcast receiver 100B also includes a DCT circuit 132 that obtains a DCT coefficient by performing DCT processing on the image signal Va stored in the buffer memory 108, and a DCT coefficient output from the DCT circuit 132 is on the a side. And a selector switch 133 to which the image signal Va output from the buffer memory 108 is input to the fixed terminal on the b side. The changeover switch 133 is connected to the b side when the difference data DF stored in the accumulation table 131 is the difference data of the pixel value, and the a side when the difference data DF is the difference data of the DCT coefficient obtained by the DCT processing. Connected to.

また、画像信号処理部110Bは、切換スイッチ133の可動端子より出力される、画像信号Vbにおける注目位置に対応した画素データ(画素値あるいはDCT係数)xに、蓄積テーブル131より読み出される差分データDFを加算して、画像信号Vbにおける注目位置の画素データyを生成する加算部134を有している。   Further, the image signal processing unit 110B outputs the difference data DF read from the accumulation table 131 to the pixel data (pixel value or DCT coefficient) x corresponding to the target position in the image signal Vb output from the movable terminal of the changeover switch 133. Are added to generate pixel data y of the target position in the image signal Vb.

また、画像信号処理部110Bは、加算部134の出力信号に対して逆DCT処理を施す逆DCT回路135と、この逆DCT回路135の出力信号がa側の固定端子に入力されると共に、そのb側の固定端子に加算部134の出力信号が入力される切換スイッチ136とを有している。この切換スイッチ136は、蓄積テーブル131に格納されている差分データDFが、画素値の差分データであるときはb側に接続され、DCT処理により得られるDCT係数の差分データであるときはa側に接続される。この切換スイッチ136の可動端子より出力される信号は画像信号Vbとしてディスプレイ部111に供給される。   In addition, the image signal processing unit 110B includes an inverse DCT circuit 135 that performs inverse DCT processing on the output signal of the adder 134, and the output signal of the inverse DCT circuit 135 is input to a fixed terminal on the a side. and a selector switch 136 to which the output signal of the adder 134 is input to a fixed terminal on the b side. This changeover switch 136 is connected to the b side when the difference data DF stored in the accumulation table 131 is the difference data of the pixel value, and is the a side when it is the difference data of the DCT coefficient obtained by the DCT processing. Connected to. A signal output from the movable terminal of the changeover switch 136 is supplied to the display unit 111 as an image signal Vb.

また、画像信号処理部110Bは、図1に示す画像信号処理部110における第2のタップ選択回路122に相当するタップ選択回路122Bを有している。このタップ選択回路122Bは、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すものである。   Further, the image signal processing unit 110B includes a tap selection circuit 122B corresponding to the second tap selection circuit 122 in the image signal processing unit 110 illustrated in FIG. The tap selection circuit 122B selectively extracts a plurality of pixel data of class taps used for class classification.

ここで、蓄積テーブル131に格納されている差分データDFが画素値の差分データであるときは、このタップ選択回路122Bでは、画像信号Vbにおける注目位置の周辺に位置する複数の画素データがクラスタップの画素データとして選択的に取り出される。そして、クラスコード生成部125からは、当該画像信号Vbにおける注目位置の画素データ(1個)が属するクラスを示すクラスコードCLが生成される。そして、蓄積テーブル131からは、このクラスコードCLに基づいて、画像信号Vbにおける注目位置に対応した1個の差分データDFが読み出されて加算部134に供給される。   Here, when the difference data DF stored in the accumulation table 131 is pixel value difference data, the tap selection circuit 122B stores a plurality of pixel data located around the target position in the image signal Vb as class taps. Are selectively extracted as pixel data. The class code generator 125 generates a class code CL indicating the class to which the pixel data (one piece) at the target position in the image signal Vb belongs. Then, based on the class code CL, one difference data DF corresponding to the target position in the image signal Vb is read from the accumulation table 131 and supplied to the adding unit 134.

一方、蓄積テーブル131に格納されている差分データDFがDCT処理により得られるDCT係数の差分データであるときは、このタップ選択回路122Bでは、画像信号Vaから、例えば画像信号Vbにおける注目画素ブロック(DCT処理の単位となるDCTブロックに対応)に対応する複数の画素データがクラスタップの画素データとして選択的に取り出される。そして、クラスコード生成部125からは、当該画像信号Vbにおける注目画素ブロックが属するクラスを示すクラスコードCLが生成される。そして、蓄積テーブル131からは、このクラスコードCLに基づいて、画素ブロック内の画素データ数に対応した複数個の差分データDFが読み出されて加算部134に供給される。   On the other hand, when the difference data DF stored in the accumulation table 131 is DCT coefficient difference data obtained by DCT processing, the tap selection circuit 122B uses the pixel block of interest (for example, the pixel block ( A plurality of pixel data corresponding to a DCT block as a unit of DCT processing) is selectively extracted as class tap pixel data. Then, the class code generator 125 generates a class code CL indicating the class to which the target pixel block in the image signal Vb belongs. Then, based on the class code CL, a plurality of difference data DF corresponding to the number of pixel data in the pixel block is read from the accumulation table 131 and supplied to the adding unit 134.

この画像信号処理部110Bの動作を説明する。
まず、蓄積テーブル131に格納されている差分データDFが画素値の差分データである場合について説明する。この場合、切換スイッチ133,136はそれぞれb側に接続されている。
The operation of the image signal processing unit 110B will be described.
First, a case where the difference data DF stored in the accumulation table 131 is pixel value difference data will be described. In this case, the changeover switches 133 and 136 are respectively connected to the b side.

バッファメモリ108に記憶されている画像信号Vaより、タップ選択回路122Bで、作成すべき画像信号Vbにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。   From the image signal Va stored in the buffer memory 108, the tap selection circuit 122B selectively extracts pixel data of the class tap located around the target position in the image signal Vb to be created. The pixel data of this class tap is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code as first class information indicating a space class is generated.

MPEG2復号化器107でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部124に供給される。この付加情報クラス生成部124では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。   Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 107 is supplied to the additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the encoding control information.

そして、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報はクラスコード生成部125に供給される。このクラスコード生成部125では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。このクラスコードCLは、画像信号Vbにおける注目位置の画素データ(1個)が属するクラスを示すものとなる。   Then, the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124 are supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the first class information and the second class information. The class code CL indicates a class to which pixel data (one piece) at the target position in the image signal Vb belongs.

このクラスコードCLは、蓄積テーブル131に読み出しアドレス情報として供給される。蓄積テーブル131からは、このクラスコードCLに基づいて、画像信号Vbにおける注目位置に対応した1個の差分データDFが読み出されて加算部134に供給される。   The class code CL is supplied to the accumulation table 131 as read address information. Based on the class code CL, one difference data DF corresponding to the target position in the image signal Vb is read from the accumulation table 131 and supplied to the adding unit 134.

また、バッファメモリ108に記憶されている画像信号Vaのうち、画像信号Vbにおける注目位置に対応した画素データxが切換スイッチ133のb側を介して加算部134に供給される。加算部134では、この画素データxに、蓄積テーブルより読み出される差分データDFが加算されて、画像信号Vbにおける注目位置の画素データyが生成される。そして、この画素データyが切換スイッチ136のb側を介して画像信号処理部110Bの出力信号として出力される。   Of the image signal Va stored in the buffer memory 108, pixel data x corresponding to the target position in the image signal Vb is supplied to the adding unit 134 via the b side of the changeover switch 133. In the adder 134, the difference data DF read from the accumulation table is added to the pixel data x, and the pixel data y at the target position in the image signal Vb is generated. The pixel data y is output as an output signal of the image signal processing unit 110B via the b side of the changeover switch 136.

次に、蓄積テーブル131に格納されている差分データDFがDCT処理により得られるDCT係数の差分データである場合について説明する。この場合、切換スイッチ133,136はそれぞれa側に接続されている。   Next, a case where the difference data DF stored in the accumulation table 131 is DCT coefficient difference data obtained by DCT processing will be described. In this case, the changeover switches 133 and 136 are respectively connected to the a side.

バッファメモリ108に記憶されている画像信号Vaより、タップ選択回路122Bで、作成すべき画像信号Vbにおける注目画素ブロックに対応する複数の画素データがクラスタップの画素データとして選択的に取り出される。このクラスタップの画素データは特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。   From the image signal Va stored in the buffer memory 108, the tap selection circuit 122B selectively extracts a plurality of pixel data corresponding to the target pixel block in the image signal Vb to be created as pixel data of the class tap. The pixel data of this class tap is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code as first class information indicating a space class is generated.

MPEG2復号化器107でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部124に供給される。この付加情報クラス生成部124では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。   Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 107 is supplied to the additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the encoding control information.

そして、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報はクラスコード生成部125に供給される。このクラスコード生成部125では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。このクラスコードCLは、画像信号Vbにおける注目画素ブロックが属するクラスを示すものとなる。   Then, the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124 are supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the first class information and the second class information. The class code CL indicates the class to which the target pixel block in the image signal Vb belongs.

このクラスコードCLは、蓄積テーブル131に読み出しアドレス情報として供給される。蓄積テーブル131からは、このクラスコードCLに基づいて、複数個の差分データDFが読み出されて加算部134に供給される。   The class code CL is supplied to the accumulation table 131 as read address information. Based on the class code CL, a plurality of difference data DF is read from the accumulation table 131 and supplied to the adding unit 134.

また、DCT回路132より得られる、画像信号Vbにおける注目画素ブロック(このブロック内の全ての画素データが注目位置の画素データとなる)に対応した、画像信号Vaの複数の画素データに対してDCT処理を施して得られたDCTブロックを構成する複数個のDCT係数xが切換スイッチ133のa側を介して加算部134に供給される。加算部134では、この複数個のDCT係数xに、蓄積テーブルより読み出される複数の差分データDFがそれぞれ加算されて、画像信号Vbにおける注目画素ブロックに対応したDCTブロックのDCT係数yが生成される。   Also, DCT is obtained for a plurality of pixel data of the image signal Va corresponding to the pixel block of interest in the image signal Vb (all pixel data in this block becomes pixel data of the target position) obtained from the DCT circuit 132. A plurality of DCT coefficients x constituting the DCT block obtained by performing the processing are supplied to the adding unit 134 via the a side of the changeover switch 133. In the adder 134, the plurality of difference data DF read from the accumulation table is added to the plurality of DCT coefficients x, respectively, and the DCT coefficient y of the DCT block corresponding to the target pixel block in the image signal Vb is generated. .

そして、画像信号Vbにおける各注目ブロックに対応して加算部134より順次出力される各DCTブロックの複数個のDCT係数yは逆DCT回路135に供給される。この逆DCT回路135では、各DCTブロックの複数のDCT係数yに対して逆DCT処理が施されてそれぞれ画素ブロックの画素データ(画素値)が得られる。このように逆DCT回路135より出力される画素データが切換スイッチ136のa側を介して画像信号処理部110Bの出力信号として出力される。   A plurality of DCT coefficients y of each DCT block sequentially output from the adder 134 corresponding to each block of interest in the image signal Vb are supplied to the inverse DCT circuit 135. In the inverse DCT circuit 135, inverse DCT processing is performed on a plurality of DCT coefficients y of each DCT block to obtain pixel data (pixel value) of each pixel block. In this manner, the pixel data output from the inverse DCT circuit 135 is output as an output signal of the image signal processing unit 110B via the a side of the changeover switch 136.

このように、画像信号処理部110Bでは、パラメータpの値に対応した差分データDFが使用されて、画素データ(DCT係数)yが演算される。したがって、ユーザは、パラメータpの値を変更することで、画像信号Vbによる画像の解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を任意に調整できる。   In this way, in the image signal processing unit 110B, the difference data DF corresponding to the value of the parameter p is used to calculate pixel data (DCT coefficient) y. Therefore, the user can arbitrarily adjust the resolution, block distortion, mosquito noise, or noise suppression degree of the image by the image signal Vb by changing the value of the parameter p.

また、この差分データDFは、上述したMPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成されたものであり、画像信号Vbによる画像の特定の質のみ、例えば解像度のみ、ブロック歪のみ、モスキートノイズのみあるいはノイズ抑圧度のみを段階的に調整できる。   The difference data DF is preliminarily determined based on a signal obtained by processing an MPEG2 stream encoded in the same manner as the MPEG2 stream input to the MPEG2 decoder 107 described above according to the value of the parameter p. Only the specific quality of the image generated by the image signal Vb, for example, only the resolution, only the block distortion, only the mosquito noise, or only the noise suppression level can be adjusted stepwise.

図18は、図17の画像信号処理部110Bの蓄積テーブル131に格納すべき差分データDFを生成する差分データ生成装置210の構成を示している。この図18において、図4と対応する部分には同一符号を付し、その詳細説明は省略する。   FIG. 18 shows a configuration of the difference data generation device 210 that generates the difference data DF to be stored in the accumulation table 131 of the image signal processing unit 110B of FIG. 18, parts corresponding to those in FIG. 4 are given the same reference numerals, and detailed descriptions thereof are omitted.

この差分データ生成装置210は、MPEG2復号化器153より出力される生徒信号SSに対してDCT処理を施してDCT係数を得るDCT回路171と、このDCT回路171より出力されるDCT係数がa側の固定端子に入力されると共に、そのb側の固定端子にMPEG2復号化器153より出力される生徒信号SSが入力される切換スイッチ172を有している。この切換スイッチ172は、後述する蓄積テーブル177に蓄積する差分データDFが、画素値の差分データであるときはb側に接続され、DCT処理により得られるDCT係数の差分データであるときはa側に接続される。   The differential data generation device 210 performs DCT processing on the student signal SS output from the MPEG2 decoder 153 to obtain a DCT coefficient, and the DCT coefficient output from the DCT circuit 171 is a side. The changeover switch 172 to which the student signal SS output from the MPEG2 decoder 153 is input is input to the fixed terminal on the b side. The changeover switch 172 is connected to the b side when the difference data DF accumulated in the accumulation table 177 described later is the difference data of the pixel value, and the a side when the difference data DF is the difference data of the DCT coefficient obtained by the DCT processing. Connected to.

また、差分データ生成装置210は、遅延回路159で時間調整された教師信号STに対してDCT処理を施して周波数係数を得るDCT回路173と、このDCT回路173より出力される周波数係数がa側の固定端子に入力されると共に、そのb側の固定端子に遅延回路159で時間調整された教師信号STが入力される切換スイッチ174を有している。この切換スイッチ174は、後述する蓄積テーブル177に蓄積する差分データDFが、画素値の差分データであるときはb側に接続され、DCT処理により得られるDCT係数の差分データであるときはa側に接続される。   Further, the differential data generation device 210 performs a DCT process on the teacher signal ST time-adjusted by the delay circuit 159 to obtain a frequency coefficient, and the frequency coefficient output from the DCT circuit 173 is the a side. And a changeover switch 174 to which the teacher signal ST adjusted in time by the delay circuit 159 is input to the b-side fixed terminal. The changeover switch 174 is connected to the b side when the difference data DF accumulated in the accumulation table 177 to be described later is the difference data of the pixel value, and the a side when the difference data DF is the difference data of the DCT coefficient obtained by the DCT processing. Connected to.

また、差分データ生成装置210は、切換スイッチ174の可動端子より出力される、教師信号STの注目位置の画素データ(画素値あるいはDCT係数)yから、切換スイッチ174の可動端子より出力される、当該教師信号STの注目位置に対応した画素データ(画素値あるいはDCT係数)xを差し引いて差分データdfを得る減算部175を有している。   Further, the difference data generation device 210 is output from the movable terminal of the changeover switch 174 from pixel data (pixel value or DCT coefficient) y at the target position of the teacher signal ST output from the movable terminal of the changeover switch 174. A subtracting unit 175 that subtracts pixel data (pixel value or DCT coefficient) x corresponding to the target position of the teacher signal ST to obtain difference data df is provided.

また、差分データ生成装置210は、減算部175より順次出力される差分データdfに対して、クラスコード生成部158より出力されるクラスコードCLおよびMPEG2復号化器153に入力されるパラメータpの値に基づいて、クラスおよびパラメータpの値の組み合わせ毎に、平均化処理を施し、その結果を蓄積テーブル177に差分データDFとして格納する蓄積制御部176を有している。   Further, the difference data generation device 210 applies the class code CL output from the class code generation unit 158 and the value of the parameter p input to the MPEG2 decoder 153 to the difference data df sequentially output from the subtraction unit 175. Is stored in the accumulation table 177 as difference data DF, and an averaging process is performed for each combination of class and parameter p.

また、差分データ生成装置210は、図4に示す係数種データ生成装置150における第2のタップ選択回路155に相当するタップ選択回路155Aを有している。このタップ選択回路155Aは、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すものである。   Further, the difference data generation device 210 has a tap selection circuit 155A corresponding to the second tap selection circuit 155 in the coefficient seed data generation device 150 shown in FIG. The tap selection circuit 155A selectively extracts a plurality of pixel data of class taps used for class classification.

ここで、蓄積テーブル177に格納する差分データDFが画素値の差分データであるときは、このタップ選択回路155Aでは、教師信号STにおける注目位置の周辺に位置する複数の画素データがクラスタップの画素データとして選択的に取り出される。そして、クラスコード生成部158からは、当該教師信号STにおける注目位置の画素データ(1個)が属するクラスを示すクラスコードCLが生成される。   Here, when the difference data DF stored in the accumulation table 177 is pixel value difference data, in the tap selection circuit 155A, a plurality of pixel data located around the target position in the teacher signal ST is a pixel of a class tap. It is selectively retrieved as data. Then, the class code generation unit 158 generates a class code CL indicating the class to which the pixel data (one piece) at the target position in the teacher signal ST belongs.

一方、蓄積テーブル177に格納する差分データDFがDCT処理により得られるDCT係数の差分データであるときは、このタップ選択回路155Aでは、生徒信号SSから、例えば教師信号STにおける注目画素ブロック(DCT処理の単位となるDCTブロックに対応)に対応する複数の画素データがクラスタップの画素データとして選択的に取り出される。そして、クラスコード生成部158からは、当該教師信号STにおける注目画素ブロックが属するクラスを示すクラスコードCLが生成される。   On the other hand, when the difference data DF stored in the accumulation table 177 is DCT coefficient difference data obtained by DCT processing, the tap selection circuit 155A uses, for example, the target pixel block (DCT processing) in the teacher signal ST from the student signal SS. A plurality of pixel data corresponding to a DCT block which is a unit of () are selectively extracted as class tap pixel data. The class code generation unit 158 generates a class code CL indicating the class to which the pixel block of interest belongs in the teacher signal ST.

なお、図18に示す差分データ生成装置210のその他は、図4に示す係数種データ生成装置150と同様に構成される。   The rest of the difference data generation device 210 shown in FIG. 18 is configured in the same manner as the coefficient seed data generation device 150 shown in FIG.

次に、図18に示す差分データ生成装置210の動作を説明する。
まず、蓄積テーブル177に格納する差分データDFが画素値の差分データである場合について説明する。この場合、切換スイッチ172,174はそれぞれb側に接続されている。
Next, the operation of the difference data generation device 210 shown in FIG. 18 will be described.
First, a case where the difference data DF stored in the accumulation table 177 is pixel value difference data will be described. In this case, the changeover switches 172 and 174 are respectively connected to the b side.

入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてこの教師信号STに対してMPEG2符号化器152で、符号化が施されてMPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。   A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the teacher signal ST is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153.

このMPEG2復号化器153には、パラメータpの値が入力され、復号化の過程で、当該パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じて逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。これにより、パラメータpの値に対応した生徒信号SSが得られる。   The value of the parameter p is input to the MPEG2 decoder 153 so that the signal changes in accordance with the value of the parameter p in the decoding process. That is, in the present embodiment, as described above, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing the inverse discrete cosine transform (inverse DCT) according to the value of the parameter p. Is changed. Thereby, the student signal SS corresponding to the value of the parameter p is obtained.

遅延回路159で時間調整された教師信号STのうち、注目位置の画素データyは切換スイッチ174のb側を介して減算部175に供給される。この減算部175には、MPEG2復号化器153より出力される生徒信号SSのうち、教師信号STにおける注目位置に対応した画素データxが切換スイッチ172のb側を介して供給される。そして、減算部175では、画素データyから画素データxが差し引かれて差分データdfが生成される。この減算部175より順次出力される教師信号STにおける各注目位置に対応した差分データdfは、蓄積制御部176に供給される。   Of the teacher signal ST time-adjusted by the delay circuit 159, the pixel data y at the target position is supplied to the subtraction unit 175 via the b side of the changeover switch 174. Of the student signal SS output from the MPEG2 decoder 153, pixel data x corresponding to the position of interest in the teacher signal ST is supplied to the subtracting unit 175 via the b side of the changeover switch 172. Then, in the subtraction unit 175, the pixel data x is subtracted from the pixel data y to generate difference data df. The difference data df corresponding to each position of interest in the teacher signal ST sequentially output from the subtraction unit 175 is supplied to the accumulation control unit 176.

また、MPEG2復号化器153で得られる生徒信号SSより、タップ選択回路155Aで、教師信号STにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。   Also, from the student signal SS obtained by the MPEG2 decoder 153, the pixel data of the class tap located around the target position in the teacher signal ST is selectively extracted by the tap selection circuit 155A. The pixel data of this class tap is supplied to the feature amount extraction unit 156. In the feature amount extraction unit 156, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code serving as first class information indicating a space class is generated.

MPEG2復号化器153でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部157に供給される。この付加情報クラス生成部157では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。   Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 153 is supplied to the additional information class generation unit 157. The additional information class generation unit 157 generates second class information indicating the additional information class based on the encoding control information.

そして、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部157で生成される第2のクラス情報はクラスコード生成部158に供給される。このクラスコード生成部158では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。このクラスコードCLは、教師信号STにおける注目位置の画素データ(1個)が属するクラスを示すものとなる。   Then, the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157 are supplied to the class code generation unit 158. The class code generation unit 158 generates a class code CL indicating the result of class classification based on the first class information and the second class information. The class code CL indicates a class to which pixel data (one piece) at the target position in the teacher signal ST belongs.

このクラスコードCLは、蓄積制御部176に供給される。また、この蓄積制御部176には、MPEG2復号化器153に入力されるパラメータpの値も供給される。蓄積制御部176は、減算部175より順次出力される差分データdfに対して、クラスコードCLおよびパラメータpの値に基づいて、クラスおよびパラメータpの組み合わせ毎に、平均化処理を施し、その結果を蓄積テーブル177に差分データDFとして格納する。   The class code CL is supplied to the accumulation control unit 176. The accumulation control unit 176 is also supplied with the value of the parameter p input to the MPEG2 decoder 153. The accumulation control unit 176 performs an averaging process on the difference data df sequentially output from the subtraction unit 175 based on the class code CL and the value of the parameter p for each combination of the class and the parameter p. Is stored in the accumulation table 177 as difference data DF.

次に、蓄積テーブル177に格納する差分データDFがDCT処理により得られるDCT係数の差分データである場合について説明する。この場合、切換スイッチ172,174はそれぞれa側に接続されている。   Next, a case where the difference data DF stored in the accumulation table 177 is DCT coefficient difference data obtained by DCT processing will be described. In this case, the changeover switches 172 and 174 are respectively connected to the a side.

入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてこの教師信号STに対してMPEG2符号化器152で、符号化が施されてMPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。   A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the teacher signal ST is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153.

このMPEG2復号化器153には、パラメータpの値が入力され、復号化の過程で、当該パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じて逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。これにより、パラメータpの値に対応した生徒信号SSが得られる。   The value of the parameter p is input to the MPEG2 decoder 153 so that the signal changes in accordance with the value of the parameter p in the decoding process. That is, in the present embodiment, as described above, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing the inverse discrete cosine transform (inverse DCT) according to the value of the parameter p. Is changed. Thereby, the student signal SS corresponding to the value of the parameter p is obtained.

DCT回路173より得られる、教師信号STにおける注目画素ブロック(このブロック内の全ての画素データが注目位置の画素データとなる)の複数の画素データに対してDCT処理を施して得られたDCTブロックの複数個のDCT係数yは切換スイッチ174のa側を介して減算部175に供給される。   A DCT block obtained by performing DCT processing on a plurality of pixel data of the target pixel block (all pixel data in this block becomes pixel data at the target position) in the teacher signal ST obtained from the DCT circuit 173 The plurality of DCT coefficients y are supplied to the subtracting unit 175 via the a side of the changeover switch 174.

また、この減算部175には、DCT回路171より得られる、教師信号STにおける注目画素ブロックに対応した、生徒信号SSの複数の画素データに対してDCT処理を施して得られたDCTブロックの複数個のDCT係数xが切換スイッチ172のa側を介して供給される。そして、減算部175では、複数個のDCT係数yから複数個のDCT係数xがそれぞれ差し引かれて複数の差分データdfが生成される。この減算部175より順次出力される教師信号STにおける各注目画素ブロックに対応した複数の差分データdfは、蓄積制御部176に供給される。   The subtracting unit 175 also includes a plurality of DCT blocks obtained by performing DCT processing on a plurality of pixel data of the student signal SS corresponding to the target pixel block in the teacher signal ST obtained from the DCT circuit 171. DCT coefficients x are supplied through the a side of the changeover switch 172. The subtracting unit 175 then subtracts the plurality of DCT coefficients x from the plurality of DCT coefficients y to generate a plurality of difference data df. A plurality of difference data df corresponding to each target pixel block in the teacher signal ST sequentially output from the subtraction unit 175 is supplied to the accumulation control unit 176.

また、MPEG2復号化器153で得られる生徒信号SSより、タップ選択回路155Aで、教師信号STにおける注目画素ブロックに対応する複数の画素データがクラスタップの画素データとして選択的に取り出される。このクラスタップの画素データは特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。   Further, from the student signal SS obtained by the MPEG2 decoder 153, a plurality of pixel data corresponding to the pixel block of interest in the teacher signal ST is selectively extracted as class tap pixel data by the tap selection circuit 155A. The pixel data of this class tap is supplied to the feature amount extraction unit 156. In the feature amount extraction unit 156, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code serving as first class information indicating a space class is generated.

MPEG2復号化器153でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部157に供給される。この付加情報クラス生成部157では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。   Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 153 is supplied to the additional information class generation unit 157. The additional information class generation unit 157 generates second class information indicating the additional information class based on the encoding control information.

そして、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部157で生成される第2のクラス情報はクラスコード生成部158に供給される。このクラスコード生成部158では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。このクラスコードCLは、教師信号STにおける注目位置画素ブロックが属するクラスを示すものとなる。   Then, the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157 are supplied to the class code generation unit 158. The class code generation unit 158 generates a class code CL indicating the result of class classification based on the first class information and the second class information. The class code CL indicates the class to which the target position pixel block in the teacher signal ST belongs.

このクラスコードCLは、蓄積制御部176に供給される。また、この蓄積制御部176には、MPEG2復号化器153に入力されるパラメータpの値も供給される。蓄積制御部176は、減算部175より順次出力される複数の差分データdfのそれぞれに対して、クラスコードCLおよびパラメータpの値に基づいて、クラスおよびパラメータpの組み合わせ毎に、平均化処理を施し、その結果を蓄積テーブル177に複数の差分データDFとして格納する。   The class code CL is supplied to the accumulation control unit 176. The accumulation control unit 176 is also supplied with the value of the parameter p input to the MPEG2 decoder 153. The accumulation control unit 176 performs an averaging process on each of the plurality of difference data df sequentially output from the subtraction unit 175 for each combination of the class and the parameter p based on the value of the class code CL and the parameter p. The result is stored in the accumulation table 177 as a plurality of difference data DF.

このように、図18に示す差分データ生成装置210においては、図17の画像信号処理部110Bの蓄積テーブル131に格納される、クラスおよびパラメータpの値の組み合わせ毎の差分データDFを生成することができる。   As described above, the difference data generation device 210 illustrated in FIG. 18 generates the difference data DF for each combination of the class and parameter p values stored in the accumulation table 131 of the image signal processing unit 110B in FIG. Can do.

なお、図17の画像信号処理部110Bにおける処理も、例えば図9に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。この場合、ROM302等に、差分データが予め格納されて使用される。   Note that the processing in the image signal processing unit 110B of FIG. 17 can also be realized by software, for example, by an image signal processing device 300 as shown in FIG. In this case, the difference data is stored in advance in the ROM 302 or the like and used.

図19のフローチャートを参照して、図9に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。   A processing procedure for obtaining the image signal Vb from the image signal Va in the image signal processing apparatus 300 shown in FIG. 9 will be described with reference to the flowchart of FIG.

まず、ステップST101で、処理を開始し、ステップS102で、例えば入力端子314より装置内に1フレーム分または1フィールド分の画像信号Vaを入力する。このように入力端子314より入力される画像信号Vaを構成する画素データはRAM303に一時的に格納される。なお、この画像信号Vaが装置内のハードディスクドライブ307に予め記録されている場合には、このドライブ307からこの画像信号Vaを読み出し、この画像信号Vaを構成する画素データをRAM303に一時的に格納する。   First, in step ST101, processing is started, and in step S102, for example, an image signal Va for one frame or one field is input into the apparatus from the input terminal 314. Thus, the pixel data constituting the image signal Va input from the input terminal 314 is temporarily stored in the RAM 303. When the image signal Va is recorded in advance in the hard disk drive 307 in the apparatus, the image signal Va is read from the drive 307, and the pixel data constituting the image signal Va is temporarily stored in the RAM 303. To do.

そして、ステップST103で、画像信号Vaの全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST104で、処理を終了する。一方、処理が終わっていないときは、ステップST105に進む。   In step ST103, it is determined whether or not processing of all frames or all fields of the image signal Va has been completed. If the process is finished, the process ends in step ST104. On the other hand, when the process is not finished, the process proceeds to step ST105.

このステップST105では、ユーザのリモコン送信機200の操作によって入力された画質指定値であるパラメータpの値を、例えばRAM303より取得する。そして、ステップST106で、ステップST102で入力された画像信号Vaより、画像信号Vbにおける注目位置に対応して、クラスタップの画素データを取得する。そして、ステップST107で、クラスタップの画素データからクラスコードCLを生成する。   In step ST105, the value of the parameter p, which is an image quality designation value input by the user's operation of the remote control transmitter 200, is acquired from the RAM 303, for example. In step ST106, the pixel data of the class tap is acquired from the image signal Va input in step ST102 corresponding to the target position in the image signal Vb. In step ST107, a class code CL is generated from the pixel data of the class tap.

次に、ステップST108で、ステップST105で取得されたパラメータpの値およびステップST107で生成されたクラスコードCLに基づいて、ROM302等からそのパラメータpの値およびクラスコードCLに対応した差分データDFを読み出し、RAM303に一時的に格納する。   Next, in step ST108, based on the value of the parameter p acquired in step ST105 and the class code CL generated in step ST107, the difference data DF corresponding to the value of the parameter p and the class code CL is obtained from the ROM 302 or the like. Read and temporarily store in RAM 303.

次に、ステップST109で、画像信号Vaのうち、画像信号Vbにおける注目位置に対応した画素データxに、ステップST108で読み出された差分データDFを加算して、画像信号Vbにおける注目位置の画素データyを生成する。   Next, in step ST109, the difference data DF read in step ST108 is added to the pixel data x corresponding to the target position in the image signal Vb in the image signal Va, and the pixel at the target position in the image signal Vb. Data y is generated.

ここで、ROM302等に格納されている差分データDFがDCT処理により得られるDCT係数の差分データであるときは、加算結果である画素データyはDCT係数であるから、ステップST109では、さらに逆DCT処理を行う。また、その場合には、上述のステップST102で入力された画像信号Vaに対してDCT処理を施し、画像信号Vbにおける注目位置に対応した画素データxをDCT係数とする。   Here, when the difference data DF stored in the ROM 302 or the like is the difference data of the DCT coefficient obtained by the DCT process, the pixel data y as the addition result is a DCT coefficient. Therefore, in step ST109, the inverse DCT is further performed. Process. In that case, DCT processing is performed on the image signal Va input in step ST102 described above, and the pixel data x corresponding to the target position in the image signal Vb is used as the DCT coefficient.

次に、ステップST110で、ステップST102で入力された1フレーム分または1フィールド分の画像信号Vaの画素データの全領域において画像信号Vbの画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST102に戻り、次の1フレーム分または1フィールド分の画像信号Vaの入力処理に移る。一方、処理が終了していないときは、ステップST106に戻り、上述したと同様の処理を繰り返す。   Next, in step ST110, it is determined whether or not the processing for obtaining the pixel data of the image signal Vb in the entire region of the pixel data of the image signal Va for one frame or one field input in step ST102 is completed. If completed, the process returns to step ST102, and the process proceeds to input processing of the image signal Va for the next one frame or one field. On the other hand, when the process has not ended, the process returns to step ST106, and the same process as described above is repeated.

このように、図19に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。   In this way, by performing processing according to the flowchart shown in FIG. 19, the pixel data of the input image signal Va can be processed, and the pixel data of the image signal Vb can be obtained. As described above, the image signal Vb obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be supplied to the hard disk. Or is recorded.

なお、ステップST107では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、入力端子314からは画像信号Vaの他に、この画像信号Vaに関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)も入力されるようにし、図17の画像信号処理部110Bにおけると同様に、この符号化制御情報をも用いてクラスコードCLを生成するようにしてもよい。   In step ST107, the class code CL is generated from the pixel data of the class tap. However, in addition to the image signal Va, encoding control information (picture information PI, motion vector information MI) related to the image signal Va is also input from the input terminal 314, and the image signal processing unit 110B in FIG. As in, the class code CL may be generated using this encoding control information.

また、処理装置の図示は省略するが、図18の差分データ生成装置210における処理も、ソフトウェアで実現可能である。   Although illustration of the processing device is omitted, the processing in the differential data generation device 210 in FIG. 18 can also be realized by software.

図20のフローチャートを参照して、差分データを生成するための処理手順を説明する。
まず、ステップST121で、処理を開始し、ステップST122で、画質パターン(パラメータpの値で特定される)を選択する。そして、ステップST123で、全ての画質パターンに対し差分データDFの生成処理が終わったか否かを判定する。全ての画質パターンに対して差分データDFの生成処理が終わっていないときは、ステップST124に進む。
A processing procedure for generating difference data will be described with reference to the flowchart of FIG.
First, in step ST121, processing is started, and in step ST122, an image quality pattern (specified by the value of parameter p) is selected. In step ST123, it is determined whether or not the difference data DF generation processing has been completed for all image quality patterns. If the generation process of the difference data DF has not been completed for all image quality patterns, the process proceeds to step ST124.

このステップST124では、教師信号を1フレーム分または1フィールド分だけ入力する。そして、ステップST125で、教師信号の全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST126で、ステップST124で入力された教師信号より、ステップST122で選択された画質パターンに基づいて、生徒信号を生成する。   In this step ST124, the teacher signal is inputted for one frame or one field. In step ST125, it is determined whether or not processing of all the frames or fields of the teacher signal has been completed. If not completed, a student signal is generated in step ST126 based on the image quality pattern selected in step ST122 from the teacher signal input in step ST124.

そして、ステップST127で、ステップST126で生成された生徒信号より、ステップST124で入力された教師信号における注目位置に対応して、クラスタップの画素データを取得する。そして、ステップST128で、クラスタップの画素データからクラスコードCLを生成する。   In step ST127, class tap pixel data is acquired from the student signal generated in step ST126, corresponding to the target position in the teacher signal input in step ST124. In step ST128, a class code CL is generated from the pixel data of the class tap.

次に、ステップST129で、教師信号の注目位置の画素データyから、この教師信号の注目位置に対応した、生徒信号の画素データxを差し引いて差分データdfを求める。さらに、このステップST129では、ステップST128で生成されたクラスコードCLに基づいて、クラス毎に、平均化処理を施し、差分データDFを生成する。   Next, in step ST129, the difference data df is obtained by subtracting the pixel data x of the student signal corresponding to the target position of the teacher signal from the pixel data y of the target position of the teacher signal. Furthermore, in this step ST129, based on the class code CL generated in step ST128, an averaging process is performed for each class to generate difference data DF.

次に、ステップST130で、ステップST124で入力された教師信号の全領域において差分データDFの生成処理を終了しているか否かを判定する。差分データDFの生成処理を終了しているときは、ステップST124に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、差分データの生成処理を終了していないときは、ステップST127に戻って、上述したと同様の処理を繰り返す。   Next, in step ST130, it is determined whether or not the generation process of the difference data DF has been completed in all regions of the teacher signal input in step ST124. When the generation process of the difference data DF has been completed, the process returns to step ST124, the next one frame or one field of teacher signals are input, and the same process as described above is repeated. On the other hand, when the difference data generation process has not ended, the process returns to step ST127 and the same process as described above is repeated.

上述したステップST125で、処理が終了したときは、ステップST122に戻って、次の画質パターンの選択を行って、上述したと同様の処理を繰り返し、次の画質パターンに対応した、各クラスの差分データDFを求める。   When the process is completed in step ST125 described above, the process returns to step ST122, the next image quality pattern is selected, the same process as described above is repeated, and the difference of each class corresponding to the next image quality pattern is determined. Find the data DF.

ここで、差分データDFとしてDCT処理により得られるDCT係数の差分データを生成するときは、減算結果である差分データdfをDCT係数とする必要がある。その場合、上述のステップST124で入力された教師信号に対してDCT処理を施し、教師信号における注目位置に対応した画素データyをDCT係数とする。また、上述のステップST126で生成された生徒信号に対してDCT処理を施し、教師信号における注目位置に対応した、生徒信号の画素データxをDCT係数とする。   Here, when generating the difference data of the DCT coefficient obtained by the DCT processing as the difference data DF, it is necessary to use the difference data df as the subtraction result as the DCT coefficient. In that case, DCT processing is performed on the teacher signal input in step ST124 described above, and pixel data y corresponding to the target position in the teacher signal is used as a DCT coefficient. Also, the student signal generated in step ST126 is subjected to DCT processing, and the pixel signal x of the student signal corresponding to the target position in the teacher signal is used as the DCT coefficient.

また、上述のステップST123で、全ての画質パターンに対する差分データDFの算出処理が終了したときは、ステップST131で、全ての画質パターンに対する各クラスの差分データDFをメモリに保存し、その後にステップST132で、処理を終了する。   When the difference data DF calculation processing for all image quality patterns is completed in step ST123, the class difference data DF for all image quality patterns is stored in the memory in step ST131, and then step ST132 is performed. Then, the process ends.

このように、図20に示すフローチャートに沿って処理をすることで、図18に示す差分データ生成装置210と同様の手法によって、差分データDFを得ることができる。なお、ステップST128では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、図18の差分データ生成装置210と同様に、生徒信号に関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)をも用いてクラスコードCLを生成するようにしてもよい。   As described above, by performing the processing according to the flowchart shown in FIG. 20, the difference data DF can be obtained by the same method as that of the difference data generation device 210 shown in FIG. In step ST128, the class code CL is generated from the pixel data of the class tap. However, similar to the difference data generation device 210 of FIG. 18, the class code CL may be generated using also the encoding control information (picture information PI, motion vector information MI) related to the student signal.

次に、この発明の別の実施の形態について説明する。
図21は、別の実施の形態としてのデジタル放送受信機100Cの構成を示している。この図21において、図1と対応する部分には同一符号を付して示している。
Next, another embodiment of the present invention will be described.
FIG. 21 shows the configuration of a digital broadcast receiver 100C as another embodiment. In FIG. 21, parts corresponding to those in FIG.

このデジタル放送受信機100Cは、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号を受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。   The digital broadcast receiver 100C includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 that receives a remote control signal. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.

また、デジタル放送受信機100Cは、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106と、このチューナ部106より出力されるMPEG2ストリームVcを一時的に格納するストリームバッファ109とを有している。   Also, the digital broadcast receiver 100C is supplied with a receiving antenna 105 and a broadcast signal (RF modulated signal) captured by the receiving antenna 105, performs channel selection processing, demodulation processing, error correction processing, etc. And a stream buffer 109 for temporarily storing the MPEG2 stream Vc output from the tuner unit 106. The tuner unit 106 obtains an MPEG2 stream as an encoded image signal.

また、デジタル放送受信機100Cは、ストリームバッファ109に記憶されているMPEG2ストリームVcを、ユーザ所望の画質を提示する、復号化された画像信号Vdに変換する画像信号処理部110Cと、この画像信号処理部110Cより出力される画像信号Vdによる画像を表示するディスプレイ部111とを有している。   Also, the digital broadcast receiver 100C converts the MPEG2 stream Vc stored in the stream buffer 109 into a decoded image signal Vd that presents a user-desired image quality, and this image signal. And a display unit 111 that displays an image based on the image signal Vd output from the processing unit 110C.

図21に示すデジタル放送受信機100Cの動作を説明する。
チューナ部106より出力されるMPEG2ストリームVcはストリームバッファ109に供給されて一時的に格納される。
The operation of the digital broadcast receiver 100C shown in FIG. 21 will be described.
The MPEG2 stream Vc output from the tuner unit 106 is supplied to the stream buffer 109 and temporarily stored.

このようにストリームバッファ109に記憶されているMPEG2ストリームVcは画像信号処理部110Cに供給され、ユーザ所望の画質を提示する、復号化された画像信号Vdに変換される。この画像信号処理部110Cでは、MPEG2ストリームVcを構成するDCT係数から、画像信号Vdを構成する画素データが得られる。   In this way, the MPEG2 stream Vc stored in the stream buffer 109 is supplied to the image signal processing unit 110C and converted into a decoded image signal Vd that presents a user-desired image quality. In this image signal processing unit 110C, pixel data constituting the image signal Vd is obtained from the DCT coefficients constituting the MPEG2 stream Vc.

画像信号処理部110Cより出力される画像信号Vdはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vdによる画像が表示される。   The image signal Vd output from the image signal processing unit 110C is supplied to the display unit 111, and an image based on the image signal Vd is displayed on the screen of the display unit 111.

ユーザは、リモコン送信機200の操作によって、上述したようにディスプレイ部111の画面上に表示される画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を調整できる。画像信号処理部110Cでは、後述するように、画像信号Vdの画素データが推定式によって算出されるが、この推定式の係数データとして、ユーザのリモコン送信機200の操作によって変更されたパラメータpの値に対応したものが、このパラメータpを含む生成式によって生成されて使用される。これにより、画像信号処理部110Cより出力される画像信号Vdによる画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度は、変更されたパラメータpの値に対応したものとなる。   The user can adjust the resolution, block distortion, mosquito noise, or noise suppression degree in the image displayed on the screen of the display unit 111 as described above by operating the remote control transmitter 200. As will be described later, in the image signal processing unit 110C, pixel data of the image signal Vd is calculated by an estimation formula. As coefficient data of this estimation formula, the parameter p changed by the user's operation of the remote control transmitter 200 is used. The one corresponding to the value is generated and used by a generation formula including this parameter p. As a result, the resolution, block distortion, mosquito noise, or noise suppression degree in the image based on the image signal Vd output from the image signal processing unit 110C corresponds to the changed value of the parameter p.

画像信号処理部110Cの詳細を説明する。この画像信号処理部110Cにおいて、図1に示す画像信号処理部110と対応する部分には同一符号を付し、その詳細説明は省略する。   Details of the image signal processing unit 110C will be described. In this image signal processing unit 110C, parts corresponding to those of the image signal processing unit 110 shown in FIG.

画像信号処理部110Cは、ストリームバッファ109に記憶されているMPEG2ストリームVcより周波数係数としてのDCT係数を抽出するDCT係数抽出回路221と、この抽出回路221で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路222とを有している。   The image signal processing unit 110C includes a DCT coefficient extraction circuit 221 that extracts a DCT coefficient as a frequency coefficient from the MPEG2 stream Vc stored in the stream buffer 109, and variable-length encoding extracted by the extraction circuit 221 such as Huffman A variable-length decoding circuit 222 that performs variable-length decoding on the encoded DCT coefficients.

また、画像信号処理部110Cは、ストリームバッファ109に格納されているMPEG2ストリームVcより量子化特性指定情報を抽出する量子化特性指定情報抽出回路223と、この抽出回路223で抽出される量子化特性指定情報に基づいて、可変長復号化回路222より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路224とを有している。   The image signal processing unit 110C also includes a quantization characteristic designation information extraction circuit 223 that extracts quantization characteristic designation information from the MPEG2 stream Vc stored in the stream buffer 109, and a quantization characteristic extracted by the extraction circuit 223. And an inverse quantization circuit 224 that performs inverse quantization on the quantized DCT coefficient output from the variable length decoding circuit 222 based on the designation information.

また、画像信号処理部110Cは、逆量子化回路224より出力されるDCT係数より、画像信号Vdにおける注目位置に対応したDCT係数を選択的に取り出し、また後述する参照画像信号Vrefより、画像信号Vdにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する第1、第2のタップ選択回路225,226を有している。   Further, the image signal processing unit 110C selectively extracts a DCT coefficient corresponding to the target position in the image signal Vd from the DCT coefficient output from the inverse quantization circuit 224, and the image signal from the reference image signal Vref described later. There are first and second tap selection circuits 225 and 226 for selectively extracting and outputting a plurality of pixel data located around the target position in Vd.

第1のタップ選択回路225は、予測に使用する予測タップの複数の画素データ(DCT係数も含む)を選択的に取り出すものである。図2Aは、第1のタップ選択回路225において、参照画像信号Vrefより選択的に取り出す予測タップの画素データの配置の一例を示している。この図において、「○」は予測タップのタップ位置を示しており、「×」は注目位置を示している。本実施の形態においては、現フィールド(実線図示)と前フィールド(破線図示)における7個の画素データが、予測タップの画素データとして取り出される。   The first tap selection circuit 225 selectively extracts a plurality of pixel data (including DCT coefficients) of prediction taps used for prediction. FIG. 2A shows an example of the arrangement of pixel data of prediction taps that are selectively extracted from the reference image signal Vref in the first tap selection circuit 225. In this figure, “◯” indicates the tap position of the prediction tap, and “X” indicates the position of interest. In the present embodiment, seven pieces of pixel data in the current field (shown by a solid line) and the previous field (shown by a broken line) are extracted as pixel data of a prediction tap.

また、図22Aは、第1のタップ選択回路225において、逆量子化回路224より出力されるDCT係数より選択的に取り出す予測タップのDCT係数の一例を示している。本実施の形態においては、画像信号Vdにおける注目位置が属する画素ブロック(DCT処理の単位となる8×8の小ブロックに対応)を注目画素ブロックとし、この注目画素ブロックに対応するDCT係数のブロック(以下、「DCTブロック」という)の全てのDCT係数、即ち64(8×8)個のDCT係数が、予測タップのDCT係数として取り出される。   FIG. 22A shows an example of the DCT coefficient of the prediction tap that is selectively extracted from the DCT coefficient output from the inverse quantization circuit 224 in the first tap selection circuit 225. In the present embodiment, a pixel block to which the target position in the image signal Vd belongs (corresponding to an 8 × 8 small block serving as a unit of DCT processing) is a target pixel block, and a block of DCT coefficients corresponding to the target pixel block. All DCT coefficients (hereinafter referred to as “DCT blocks”), that is, 64 (8 × 8) DCT coefficients are extracted as DCT coefficients of the prediction tap.

また、第2のタップ選択回路226は、クラス分類に使用するクラスタップの複数の画素データ(DCT係数も含む)を選択的に取り出すものである。図2Bは、第2のタップ選択回路226において、参照画像信号Vrefより選択的に取り出すクラスタップの画素データの配置の一例を示している。この図において、「○」は予測タップのタップ位置を示しており、「×」は注目位置を示している。本実施の形態においては、現フィールド(実線図示)と前フィールド(破線図示)における13個の画素データが、クラスタップの画素データとして取り出される。   The second tap selection circuit 226 selectively extracts a plurality of pixel data (including DCT coefficients) of class taps used for class classification. FIG. 2B shows an example of the arrangement of pixel data of class taps selectively extracted from the reference image signal Vref in the second tap selection circuit 226. In this figure, “◯” indicates the tap position of the prediction tap, and “X” indicates the position of interest. In the present embodiment, 13 pieces of pixel data in the current field (shown with solid lines) and the previous field (shown with broken lines) are extracted as pixel data of class taps.

また、図22Bは、第2のタップ選択回路226において、逆量子化回路224より出力されるDCT係数より選択的に取り出すクラスタップのDCT係数の一例を示している。本実施の形態においては、注目画素ブロックに対応するDCTブロックと、その上下左右に隣接する4個のDCTブロックとの、合計で5個のDCTブロックの320(8×8×5)個のDCT係数が、クラスタップのDCT係数として取り出される。   FIG. 22B shows an example of class tap DCT coefficients that are selectively extracted from the DCT coefficients output from the inverse quantization circuit 224 in the second tap selection circuit 226. In the present embodiment, 320 (8 × 8 × 5) DCTs of a total of five DCT blocks including a DCT block corresponding to the pixel block of interest and four DCT blocks adjacent in the vertical and horizontal directions. The coefficients are extracted as class tap DCT coefficients.

また、画像信号処理部110Cは、第2のタップ選択回路226で選択的に取り出されるクラスタップの画素データ(DCT係数も含む)から特徴量を抽出する特徴量抽出部123を有している。特徴量抽出部123では、クラスタップの画素データに1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施すことによって、空間クラスを示す第1のクラス情報としてのADRCコードを生成する。   In addition, the image signal processing unit 110C includes a feature amount extraction unit 123 that extracts feature amounts from pixel data (including DCT coefficients) of class taps selectively extracted by the second tap selection circuit 226. The feature amount extraction unit 123 generates an ADRC code as first class information indicating a space class by performing processing such as 1-bit ADRC (Adaptive Dynamic Range Coding) on the pixel data of the class tap.

また、画像信号処理部110Cは、ストリームバッファ109に格納されているMPEG2ストリームVcより付加情報としての符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)を抽出する符号化制御情報抽出回路227と、この抽出回路227で抽出される符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報を生成する付加情報クラス生成部124とを有している。   Also, the image signal processing unit 110C includes an encoding control information extraction circuit 227 that extracts encoding control information (picture information PI, motion vector information MI) as additional information from the MPEG2 stream Vc stored in the stream buffer 109. And an additional information class generation unit 124 that generates second class information indicating the additional information class based on the encoding control information extracted by the extraction circuit 227.

また、画像信号処理部110Cは、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLを生成するクラスコード生成部125を有している。このクラスコードCLは、画像信号Vdにおける注目位置の画素データが属するクラスを示すものとなる。   In addition, the image signal processing unit 110C performs class classification based on the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124. A class code generation unit 125 that generates a class code CL indicating the result is included. The class code CL indicates the class to which the pixel data at the target position in the image signal Vd belongs.

また、画像信号処理部110Cは、係数メモリ126を有している。この係数メモリ126は、後述する推定予測演算回路127で使用される推定式で用いられる複数の係数データWi(i=1〜n)を、クラス毎に、格納するものである。この係数データWiは、MPEG2ストリームVcを画像信号Vdに変換するための情報である。係数メモリ126には上述したクラスコード生成部125より出力されるクラスコードCLが読み出しアドレス情報として供給され、この係数メモリ126からはクラスコードCLに対応した推定式の係数データWiが読み出されて、推定予測演算回路127に供給される。   The image signal processing unit 110 </ b> C has a coefficient memory 126. The coefficient memory 126 stores, for each class, a plurality of coefficient data Wi (i = 1 to n) used in an estimation formula used in an estimated prediction calculation circuit 127 described later. The coefficient data Wi is information for converting the MPEG2 stream Vc into the image signal Vd. The class code CL output from the class code generation unit 125 described above is supplied to the coefficient memory 126 as read address information, and the coefficient data Wi of the estimation formula corresponding to the class code CL is read from the coefficient memory 126. , And supplied to the estimated prediction calculation circuit 127.

また、画像信号処理部110Cは、情報メモリバンク128を有している。後述する推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとから、上述した(1)式の推定式によって、作成すべき画像信号Vdにおける注目位置の画素データyが演算される。(1)式のnは、第1のタップ選択回路225で選択される予測タップの数を表している。   The image signal processing unit 110 </ b> C has an information memory bank 128. In the estimated prediction calculation circuit 127 described later, the position of interest in the image signal Vd to be created is calculated from the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126 by the above-described estimation formula (1). Pixel data y is calculated. In Expression (1), n represents the number of prediction taps selected by the first tap selection circuit 225.

この推定式の係数データWiは、上述した(2)式に示すように、パラメータpを含む生成式によって生成される。情報メモリバンク128には、この生成式における係数データである係数種データwi0〜wi3が、クラス毎に、格納されている。 The coefficient data Wi of this estimation formula is generated by a generation formula including the parameter p, as shown in the above formula (2). Information in the memory bank 128, the coefficient seed data w i0 to w i3 is the coefficient data in the production equation is, for each class, stored.

また、画像信号処理部110Cは、各クラスの係数種データwi0〜wi3およびパラメータpの値とを用い、(2)式によって、クラス毎に、パラメータpの値に対応した推定式の係数データWi(i=1〜n)を生成する係数生成回路129を有している。この係数生成回路129には、情報メモリバンク128より、上述した各クラスの係数種データwi0〜wi3がロードされる。また、この係数生成回路129には、システムコントローラ101より、パラメータpの値が供給される。 Further, the image signal processing unit 110C uses the coefficient seed data w i0 to w i3 of each class and the value of the parameter p, and the coefficient of the estimation formula corresponding to the value of the parameter p for each class according to the equation (2). A coefficient generation circuit 129 that generates data Wi (i = 1 to n) is included. The coefficient generation circuit 129 is loaded with the above-described class seed coefficient data w i0 to w i3 from the information memory bank 128. The coefficient generation circuit 129 is supplied with the value of the parameter p from the system controller 101.

この係数生成回路129で生成される各クラスの係数データWi(i=1〜n)は、上述した係数メモリ126に格納される。この係数生成回路129における各クラスの係数データWiの生成は、例えば各垂直ブランキング期間で行われる。これにより、ユーザのリモコン送信機200の操作によってパラメータpの値が変更されても、係数メモリ126に格納される各クラスの係数データWiを、そのパラメータpの値に対応したものに即座に変更でき、ユーザによる解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度等の調整がスムーズに行われる。   The coefficient data Wi (i = 1 to n) of each class generated by the coefficient generation circuit 129 is stored in the coefficient memory 126 described above. The generation of coefficient data Wi for each class in the coefficient generation circuit 129 is performed, for example, in each vertical blanking period. Thereby, even if the value of the parameter p is changed by the user's operation of the remote control transmitter 200, the coefficient data Wi of each class stored in the coefficient memory 126 is immediately changed to the one corresponding to the value of the parameter p. The user can smoothly adjust the resolution, block distortion, mosquito noise, noise suppression degree, and the like.

ここで、上述したように情報メモリバンク128に格納されている係数種データwi0〜wi3についてさらに説明する。この係数種データwi0〜wi3は、上述したストリームバッファ109に格納されるMPEG2ストリームVcと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた生徒信号に基づいて予め生成される。 Here, the coefficient seed data w i0 to w i3 stored in the information memory bank 128 as described above will be further described. The coefficient seed data w i0 to w i3 are converted into a student signal obtained by processing an MPEG2 stream encoded in the same manner as the MPEG2 stream Vc stored in the stream buffer 109 according to the value of the parameter p. Pre-generated based on.

すなわち、この係数種データwi0〜wi3は、それぞれパラメータpの複数の値に応じて生成され、MPEG2ストリームVcに対応した複数の生徒信号と、画像信号Vdに対応した教師信号とを用いて予め生成される。この場合、生徒信号は、教師信号をMPEG2符号化して得られたMPEG2ストリームを、パラメータpの値に応じて処理することで、当該パラメータpの値に対応した生徒信号が得られる。この場合、パラメータpの値に応じて、DCT係数(周波数係数)が変更される。 That is, the coefficient seed data w i0 to w i3 are respectively generated according to a plurality of values of the parameter p, and using a plurality of student signals corresponding to the MPEG2 stream Vc and a teacher signal corresponding to the image signal Vd. Pre-generated. In this case, a student signal corresponding to the value of the parameter p is obtained by processing an MPEG2 stream obtained by MPEG2 encoding the teacher signal according to the value of the parameter p. In this case, the DCT coefficient (frequency coefficient) is changed according to the value of the parameter p.

例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られる生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vdによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能となる。 For example, it is possible to obtain a plurality of student signals by changing the gain according to the value of the parameter p while setting the gain of all AC coefficients of the DCT coefficients to the same value. When the coefficient seed data w i0 to w i3 generated in advance using the student signal obtained in this way is stored in the information memory bank 128, the resolution of the image obtained by the image signal Vd described above is set. The adjustment can be made in stages according to the value of the parameter p.

また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られる複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vdによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能となる。 Further, for example, a plurality of student signals can be obtained by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p. In the information memory bank 128, when this way the coefficient seed data w i0 to w i3 generated in advance using a plurality of student signal obtained is stored, the image obtained by the image signal Vd of the above The block distortion can be adjusted stepwise according to the value of the parameter p.

また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られる複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vdによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能となる。 In addition, for example, a plurality of student signals can be obtained by reducing the gain of the AC coefficient of the DCT coefficient as the frequency increases and changing the degree of decrease in the gain of the AC coefficient according to the parameter value. Can do. In the information memory bank 128, when this way the coefficient seed data w i0 to w i3 generated in advance using a plurality of student signal obtained is stored, the image obtained by the image signal Vd of the above The mosquito noise can be adjusted stepwise according to the value of the parameter p.

また例えば、DCT係数にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られる複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vdによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能となる。 Further, for example, a plurality of student signals can be obtained by adding random noise to the DCT coefficient and changing the level of the random noise in accordance with the value of the parameter p. The information memory bank 128, when this way the coefficient seed data w i0 to w i3 generated in advance using a plurality of student signal obtained is stored, the image obtained by the image signal Vd of the above The noise suppression degree can be adjusted stepwise according to the value of the parameter p.

また、画像信号処理部110Cは、第1のタップ選択回路225で選択的に取り出される予測タップの画素データ(DCT係数を含む)xiと、係数メモリ126より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vdにおける注目位置の画素データyを演算する推定予測演算回路127を有している。   In addition, the image signal processing unit 110 </ b> C uses the pixel data (including DCT coefficients) xi of the prediction tap selectively extracted by the first tap selection circuit 225 and the coefficient data Wi read from the coefficient memory 126 as (1 The estimation prediction calculation circuit 127 that calculates pixel data y of the target position in the image signal Vd to be created is provided by the estimation formula (1).

また、画像信号処理部110Cは、予測メモリ回路228を有している。この予測メモリ回路228は、Iピクチャ(Intra-Picture)およびPピクチャ(Predictive-Picture)の画像信号をメモリ(図示せず)に記憶すると共に、これらの画像信号を用いて、逆量子化回路224からPピクチャまたはBピクチャ(Bidirectionally predictive-Picture)に係るDCT係数が出力されるとき、対応する参照画像信号Vrefを生成して第1、第2のタップ選択回路225,226に供給する。因みに、逆量子化回路224からIピクチャに係るDCT係数が出力されるとき、第1、第2のタップ選択回路225,226には参照画像信号Vrefは供給されない。   The image signal processing unit 110 </ b> C includes a prediction memory circuit 228. The prediction memory circuit 228 stores image signals of an I picture (Intra-Picture) and a P picture (Predictive-Picture) in a memory (not shown), and uses these image signals to use an inverse quantization circuit 224. When a DCT coefficient related to a P picture or a B picture (Bidirectionally predictive-Picture) is output, the corresponding reference image signal Vref is generated and supplied to the first and second tap selection circuits 225 and 226. Incidentally, when the DCT coefficient related to the I picture is output from the inverse quantization circuit 224, the reference image signal Vref is not supplied to the first and second tap selection circuits 225 and 226.

また、画像信号処理部110Cは、ピクチャ選択回路229を有している。このピクチャ選択回路229は、推定予測演算回路127から出力されるIピクチャおよびPピクチャの画像信号を予測メモリ回路228に供給してメモリに記憶させると共に、この推定予測演算回路127から出力される各ピクチャの画像信号を正しい順に並べ直して出力する。   In addition, the image signal processing unit 110C includes a picture selection circuit 229. The picture selection circuit 229 supplies the image signals of the I picture and P picture output from the estimated prediction calculation circuit 127 to the prediction memory circuit 228 and stores them in the memory, and also outputs each of the image signals output from the estimated prediction calculation circuit 127. The picture signals of pictures are rearranged in the correct order and output.

上述した抽出回路227で抽出される動きベクトル情報MIは予測メモリ回路228に供給され、予測メモリ回路228ではこの動きベクトル情報MIを用いて参照画像信号を生成する際に動き補償が行われる。また、抽出回路227で抽出されるピクチャ情報PIは予測メモリ回路228、ピクチャ選択回路229に供給され、これら予測メモリ回路228、ピクチャ選択回路229ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。   The motion vector information MI extracted by the extraction circuit 227 described above is supplied to the prediction memory circuit 228, and the prediction memory circuit 228 performs motion compensation when generating the reference image signal using the motion vector information MI. The picture information PI extracted by the extraction circuit 227 is supplied to the prediction memory circuit 228 and the picture selection circuit 229, and the prediction memory circuit 228 and the picture selection circuit 229 identify pictures based on the picture information PI. .

次に、画像信号処理部110Cの動作を説明する。
ストリームバッファ109に記憶されているMPEG2ストリームVcが抽出回路221に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路222に供給されて復号化される。そして、この可変長復号化回路222より出力される量子化DCT係数が逆量子化回路224に供給されて逆量子化が施される。
Next, the operation of the image signal processing unit 110C will be described.
The MPEG2 stream Vc stored in the stream buffer 109 is supplied to the extraction circuit 221 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable length encoded, and this DCT coefficient is supplied to the variable length decoding circuit 222 and decoded. Then, the quantized DCT coefficient output from the variable length decoding circuit 222 is supplied to the inverse quantization circuit 224 and subjected to inverse quantization.

第2のタップ選択回路226では、クラスタップの複数の画素データ(DCT係数も含む)が選択的に取り出される。すなわち、逆量子化回路224より出力されるDCT係数より、画像信号Vdにおける注目位置に対応したDCT係数が選択的に取り出されると共に、予測メモリ回路228より供給される参照画像信号Vrefより、画像信号Vdにおける注目位置の周辺に位置する複数の画素データが選択的に取り出される。   In the second tap selection circuit 226, a plurality of class tap pixel data (including DCT coefficients) is selectively extracted. That is, the DCT coefficient corresponding to the target position in the image signal Vd is selectively extracted from the DCT coefficient output from the inverse quantization circuit 224, and the image signal is output from the reference image signal Vref supplied from the prediction memory circuit 228. A plurality of pixel data located around the target position in Vd are selectively extracted.

このように第2のタップ選択回路226で取り出されるクラスタップの画素データは、特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。   As described above, the pixel data of the class tap extracted by the second tap selection circuit 226 is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code as first class information indicating a space class is generated.

また、抽出回路227でMPEG2ストリームVcより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部124に供給される。この付加情報クラス生成部124では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。   Also, the encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream Vc by the extraction circuit 227 is supplied to the additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the encoding control information.

そして、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報はクラスコード生成部125に供給される。このクラスコード生成部125では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。   Then, the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124 are supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the first class information and the second class information.

このクラスコードCLは、画像信号Vdにおける注目位置の画素データが属するクラスの検出結果を表している。このクラスコードCLは、係数メモリ126に読み出しアドレス情報として供給される。係数メモリ126には、例えば各垂直ブランキング期間に、係数生成回路129で、ユーザによって調整されたパラメータpの値に対応して、クラス毎に、係数種データwi0〜wi3を用いて推定式の係数データWi(i=1〜n)が求められて格納される((2)式参照)。 The class code CL represents the detection result of the class to which the pixel data at the target position in the image signal Vd belongs. The class code CL is supplied to the coefficient memory 126 as read address information. In the coefficient memory 126, for example, in each vertical blanking period, the coefficient generation circuit 129 estimates for each class using the coefficient seed data w i0 to w i3 corresponding to the value of the parameter p adjusted by the user. Coefficient data Wi (i = 1 to n) of the equation is obtained and stored (see equation (2)).

係数メモリ126に上述したようにクラスコードCLが読み出しアドレス情報として供給されることで、この係数メモリ126からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路127に供給される。   As described above, the class code CL is supplied to the coefficient memory 126 as read address information, whereby the coefficient data Wi corresponding to the class code CL is read from the coefficient memory 126 and supplied to the estimated prediction calculation circuit 127. The

また、第1のタップ選択回路225では、予測タップの複数の画素データ(DCT係数も含む)が選択的に取り出される。すなわち、逆量子化回路224より出力されるDCT係数より、画像信号Vdにおける注目位置に対応したDCT係数が選択的に取り出されると共に、予測メモリ回路228より供給される参照画像信号Vrefより、画像信号Vdにおける注目位置の周辺に位置する複数の画素データが選択的に取り出される。このように第1のタップ選択回路265で取り出される予測タップの画素データは、推定予測演算回路127に供給される。   The first tap selection circuit 225 selectively extracts a plurality of pixel data (including DCT coefficients) of the prediction tap. That is, the DCT coefficient corresponding to the target position in the image signal Vd is selectively extracted from the DCT coefficient output from the inverse quantization circuit 224, and the image signal is output from the reference image signal Vref supplied from the prediction memory circuit 228. A plurality of pixel data located around the target position in Vd are selectively extracted. In this way, the pixel data of the prediction tap extracted by the first tap selection circuit 265 is supplied to the estimated prediction calculation circuit 127.

推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとを用いて、推定式((1)式参照)に基づいて、作成すべき画像信号Vdにおける注目位置の画素データyが求められる。推定予測演算回路127より出力される各ピクチャの画像信号はピクチャ選択回路229で正しい順に並べ直され、画像信号Vdとして出力される。   The estimated prediction calculation circuit 127 uses the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126 to draw attention in the image signal Vd to be created based on the estimation expression (see Expression (1)). Pixel data y at the position is obtained. The picture signals of the pictures output from the estimated prediction calculation circuit 127 are rearranged in the correct order by the picture selection circuit 229 and output as an image signal Vd.

このように、画像信号処理部110Cでは、パラメータpの値に対応した推定式の係数データWi(i=1〜n)が使用されて、画素データyが演算される。したがって、ユーザは、パラメータpの値を変更することで、画像信号Vdによる画像の解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を任意に調整できる。   In this way, the image signal processing unit 110C calculates the pixel data y using the coefficient data Wi (i = 1 to n) of the estimation formula corresponding to the value of the parameter p. Therefore, the user can arbitrarily adjust the resolution, block distortion, mosquito noise, or noise suppression degree of the image by the image signal Vd by changing the value of the parameter p.

また、この係数データWiを生成するための係数種データwi0〜wi3は、上述したストリームバッファ109に格納されるMPEG2ストリームVcと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた生徒信号に基づいて予め生成されたものであり、画像信号Vdによる画像の特定の質のみ、例えば解像度のみ、ブロック歪のみ、モスキートノイズのみあるいはノイズ抑圧度のみを段階的に調整できる。 Further, the coefficient seed data w i0 to w i3 for generating the coefficient data Wi is an MPEG2 stream encoded in the same manner as the MPEG2 stream Vc stored in the stream buffer 109 described above according to the value of the parameter p. Is generated in advance based on the student signal obtained by processing, and only the specific quality of the image by the image signal Vd, for example, only the resolution, only the block distortion, only the mosquito noise, or only the noise suppression degree is stepwise. Can be adjusted.

図21の画像信号処理部110Cの情報メモリバンク128に格納される係数種データwi0〜wi3も、図1の画像信号処理部110の情報メモリバンク128に格納される係数種データwi0〜wi3と同様に、複数の生徒信号と教師信号との間で学習を行うことによって生成される(図3参照)。 The coefficient seed data w i0 to w i3 stored in the information memory bank 128 of the image signal processing unit 110C in FIG. 21 is also the coefficient seed data w i0 to w i0 stored in the information memory bank 128 of the image signal processing unit 110 in FIG. Similar to w i3 , it is generated by learning between a plurality of student signals and teacher signals (see FIG. 3).

図23は、上述した画像信号処理部110Cの情報メモリバンク128に格納される係数種データwi0〜wi3を生成するための係数種データ生成装置150Cの構成を示している。この図23において、図4と対応する部分には同一符号を付して示している。 FIG. 23 shows a configuration of a coefficient seed data generation device 150C for generating the coefficient seed data w i0 to w i3 stored in the information memory bank 128 of the image signal processing unit 110C described above. In FIG. 23, portions corresponding to those in FIG.

この係数種データ生成装置150Cは、画像信号Vdに対応した教師信号STが入力される入力端子151と、この教師信号STに対して符号化を行って生徒信号SSであるMPEG2ストリームを得るMPEG2符号化器152とを有している。   The coefficient seed data generation device 150C includes an input terminal 151 to which a teacher signal ST corresponding to the image signal Vd is input, and an MPEG2 code that encodes the teacher signal ST to obtain an MPEG2 stream that is a student signal SS. Generator 152.

また、係数種データ生成装置150Cは、MPEG2符号化器152で得られる生徒信号SSより周波数係数としてのDCT係数を抽出するDCT係数抽出回路231と、この抽出回路231で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路232とを有している。   The coefficient seed data generation device 150C also includes a DCT coefficient extraction circuit 231 that extracts a DCT coefficient as a frequency coefficient from the student signal SS obtained by the MPEG2 encoder 152, and a variable length encoding extracted by the extraction circuit 231. For example, it has a variable length decoding circuit 232 that performs variable length decoding on DCT coefficients that are Huffman encoded.

また、係数種データ生成装置150Cは、MPEG2符号化器152で得られる生徒信号SSより量子化特性指定情報を抽出する量子化特性指定情報抽出回路233と、この抽出回路233で抽出される量子化特性指定情報に基づいて、可変長復号化回路232より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路234とを有している。   The coefficient seed data generation device 150C also includes a quantization characteristic designation information extraction circuit 233 that extracts quantization characteristic designation information from the student signal SS obtained by the MPEG2 encoder 152, and a quantization that is extracted by the extraction circuit 233. And an inverse quantization circuit 234 that performs inverse quantization on the quantized DCT coefficient output from the variable length decoding circuit 232 based on the characteristic designation information.

この逆量子化回路234には、パラメータpの値が入力される。この逆量子化回路234では、逆量子化の信号処理の過程で、パラメータpの値に応じて信号が変化するようにされ、当該パラメータpの値に対応した、生徒信号に係るDCT係数が得られる。本実施の形態では、DCT係数(周波数係数)が変更される。   The value of the parameter p is input to the inverse quantization circuit 234. In the inverse quantization circuit 234, the signal is changed in accordance with the value of the parameter p in the process of inverse quantization signal processing, and the DCT coefficient related to the student signal corresponding to the value of the parameter p is obtained. It is done. In the present embodiment, the DCT coefficient (frequency coefficient) is changed.

例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号に係るDCT係数を得ることができる。ここで、元のAC係数をAC[m]、ゲインをgainとすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]*gainとなる。この場合、各AC係数の間の相関関係は保持できることから、このようにして得られる複数の生徒信号に係るDCT係数を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vdによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能なものとなる。 For example, DCT coefficients related to a plurality of student signals can be obtained by changing the gain according to the value of the parameter p while setting the gains of all the AC coefficients of the DCT coefficients to the same value. Here, if the original AC coefficient is AC [m] and the gain is gain, the new AC coefficient newAC [m] is newAC [m] = AC [m] * gain. In this case, since the correlation between the AC coefficients can be maintained, the coefficient seed data w i0 to w i3 generated using the DCT coefficients related to the plurality of student signals obtained in this way are the above-described image signals. The resolution of the image obtained by Vd can be adjusted stepwise according to the value of the parameter p.

また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号に係るDCT係数を得ることができる。ここで、元のDC係数をDC[m]、元の量子化ステップをQst、新たな量子化ステップをnewQstとすると、新たなDC係数をnewDC[m]は、newDC[m]={DC[m]*Qst/newQst}となる。{}は整数演算を表している。この場合、DC係数の変動を操作可能となり、このようにして得られる複数の生徒信号に係るDCT係数を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vdによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能なものとなる。 Further, for example, by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p, it is possible to obtain DCT coefficients related to a plurality of student signals. Here, assuming that the original DC coefficient is DC [m], the original quantization step is Qst, and the new quantization step is newQst, the new DC coefficient newDC [m] is newDC [m] = {DC [ m] * Qst / newQst}. {} Represents an integer operation. In this case, the variation of the DC coefficient can be manipulated, and the coefficient seed data w i0 to w i3 generated using the DCT coefficients related to the plurality of student signals obtained in this way are obtained by the image signal Vd described above. The block distortion of the image can be adjusted stepwise according to the value of the parameter p.

また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータpの値に応じて変更することにより、複数の生徒信号に係るDCT係数を得ることができる。ここで、元のAC係数をAC[m]、ゲインをgain[m]とすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]*gain[m]となる。この場合、各AC係数の間の相関関係を段階的に崩すものであり、このようにして得られる複数の生徒信号に係るDCT係数を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vdによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能なものとなる。 Further, for example, by reducing the gain of the AC coefficient of the DCT coefficient as the high frequency region is changed, and the degree of decrease in the high frequency gain of the AC coefficient is changed according to the value of the parameter p, DCT coefficients can be obtained. Here, if the original AC coefficient is AC [m] and the gain is gain [m], the new AC coefficient newAC [m] is newAC [m] = AC [m] * gain [m]. In this case, the correlation between the AC coefficients is broken stepwise, and the coefficient seed data w i0 to w i3 generated using the DCT coefficients related to the plurality of student signals thus obtained are The mosquito noise of the image obtained by the image signal Vd described above can be adjusted stepwise according to the value of the parameter p.

また例えば、DCT係数にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号に係るDCT係数を得ることができる。元のAC係数をAC[m]、ランダムノイズをrdmNとすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]+rdmNとなる。同様に、元のDC係数をDC[m]、ランダムノイズをrdmNとすると、新たなDC係数newDC[m]は、newDC[m]=DC[m]+rdmNとなる。この場合、ランダムノイズのレベルを段階的に切り換えることにより、それによって得られる複数の生徒信号に係るDCT係数を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vdによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能なものとなる。 Further, for example, by adding random noise to the DCT coefficient and changing the level of the random noise according to the value of the parameter p, DCT coefficients related to a plurality of student signals can be obtained. When the original AC coefficient is AC [m] and the random noise is rdmN, the new AC coefficient newAC [m] is newAC [m] = AC [m] + rdmN. Similarly, if the original DC coefficient is DC [m] and the random noise is rdmN, the new DC coefficient newDC [m] is newDC [m] = DC [m] + rdmN. In this case, by switching the level of random noise in stages, the coefficient seed data w i0 to w i3 generated using the DCT coefficients related to the plurality of student signals obtained thereby are obtained by the image signal Vd described above. The noise suppression degree of the image to be adjusted can be adjusted stepwise according to the value of the parameter p.

また、係数種データ生成装置150Cは、逆量子化回路234より出力されるDCT係数より、画像信号Vdにおける注目位置に対応したDCT係数を選択的に取り出し、また後述する参照画像信号Vrefより、画像信号Vdにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する第1、第2のタップ選択回路235,236を有している。これら第1、第2のタップ選択回路235,236は、それぞれ上記した画像信号処理部110Cの第1、第2のタップ選択回路225,226と同様に構成される。   Further, the coefficient seed data generation device 150C selectively extracts a DCT coefficient corresponding to the target position in the image signal Vd from the DCT coefficient output from the inverse quantization circuit 234, and also extracts an image from a reference image signal Vref described later. There are first and second tap selection circuits 235 and 236 that selectively extract and output a plurality of pixel data located around the target position in the signal Vd. The first and second tap selection circuits 235 and 236 are configured in the same manner as the first and second tap selection circuits 225 and 226 of the image signal processing unit 110C described above, respectively.

また、係数種データ生成装置150Cは、第2のタップ選択回路236で選択的に取り出されるクラスタップの画素データから特徴量を抽出する特徴量抽出部156を有している。この特徴量抽出部156は、上述した画像信号処理部110Cの特徴量抽出部123と同様に構成され、空間クラスを示す第1のクラス情報としてのADRCコードを生成する。   The coefficient seed data generation device 150 </ b> C includes a feature amount extraction unit 156 that extracts a feature amount from the class tap pixel data that is selectively extracted by the second tap selection circuit 236. The feature amount extraction unit 156 is configured in the same manner as the feature amount extraction unit 123 of the image signal processing unit 110C described above, and generates an ADRC code as first class information indicating a space class.

また、係数種データ生成装置150Cは、MPEG2符号化器152で得られる生徒信号SSより付加情報としての符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)を抽出する符号化制御情報抽出回路237と、この抽出回路237で抽出される符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報を生成する付加情報クラス生成部157とを有している。この付加情報クラス生成部157は、上述した画像信号処理部110Cの付加情報クラス生成部124と同様に構成される。   The coefficient seed data generation device 150C extracts encoding control information (picture information PI, motion vector information MI) as additional information from the student signal SS obtained by the MPEG2 encoder 152, and an encoding control information extraction circuit 237. And an additional information class generation unit 157 that generates second class information indicating the additional information class based on the encoding control information extracted by the extraction circuit 237. The additional information class generation unit 157 is configured in the same manner as the additional information class generation unit 124 of the image signal processing unit 110C described above.

また、係数種データ生成装置150Cは、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部157で生成される第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLを生成するクラスコード生成部158を有している。このクラスコード生成部158は、上述した画像信号処理部110Cのクラスコード生成部125と同様に構成される。   Further, the coefficient seed data generation device 150C performs class classification based on the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157. A class code generation unit 158 that generates a class code CL indicating the result of the above. The class code generation unit 158 is configured in the same manner as the class code generation unit 125 of the image signal processing unit 110C described above.

また、係数種データ生成装置150Cは、入力端子151に供給される教師信号STの時間調整を行うための遅延回路159と、この遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路235で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとから、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)を生成する正規方程式生成部160を有している。 Further, the coefficient seed data generation device 150C has a delay circuit 159 for adjusting the time of the teacher signal ST supplied to the input terminal 151, and each attention position obtained from the teacher signal ST adjusted in time by the delay circuit 159. Pixel data y, prediction tap pixel data xi selectively extracted by the first tap selection circuit 235 in correspondence with the pixel data y of each target position, the value of the parameter p, and each target position A normal equation (see equation (9)) for obtaining coefficient seed data w i0 to w i3 is generated for each class from the class code CL generated by the class code generation unit 158 corresponding to each pixel data y. A normal equation generating unit 160 for performing

この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、パラメータpの値に応じて、逆量子化回路234からは複数の生徒信号に係るDCT係数が順次得られ、教師信号と各生徒信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部160では、パラメータpの値が異なる多くの学習データが登録された正規方程式が生成され、係数種データwi0〜wi3を求めることが可能となる。 In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding to the piece of pixel data y, but the inverse quantization circuit 234 depends on the value of the parameter p. The DCT coefficients related to a plurality of student signals are sequentially obtained from the, and learning data is generated between the teacher signal and each student signal. As a result, the normal equation generation unit 160 generates a normal equation in which many pieces of learning data having different values of the parameter p are registered, and the coefficient seed data w i0 to w i3 can be obtained.

また、係数種データ生成装置150Cは、正規方程式生成部160で、クラス毎に生成された正規方程式のデータが供給され、当該正規方程式を解いて、クラス毎に、係数種データwi0〜wi3を求める係数種データ決定部161と、この求められた係数種データを格納する係数種メモリ162とを有している。係数種データ決定部161では、正規方程式が例えば掃き出し法などによって解かれて、係数種データが求められる。 Further, the coefficient seed data generation device 150C is supplied with data of normal equations generated for each class by the normal equation generation unit 160, solves the normal equations, and generates coefficient seed data w i0 to w i3 for each class. Is provided with a coefficient seed data determining unit 161 and a coefficient seed memory 162 for storing the obtained coefficient seed data. In the coefficient seed data determination unit 161, the normal equation is solved, for example, by a sweeping method, and coefficient coefficient data is obtained.

また、係数種データ生成装置150Cは、予測メモリ回路238を有している。この予測メモリ回路228は、遅延回路159で時間調整された教師信号STのうち、生徒信号SSのIピクチャおよびPピクチャの画像信号をメモリ(図示せず)に記憶すると共に、これらの画像信号を用いて、逆量子化回路234からPピクチャまたはBピクチャに係るDCT係数が出力されるとき、対応する参照画像信号Vrefを生成して第1、第2のタップ選択回路235,236に供給する。因みに、逆量子化回路234からIピクチャに係るDCT係数が出力されるとき、第1、第2のタップ選択回路235,236には参照画像信号Vrefは供給されない。   In addition, the coefficient seed data generation device 150 </ b> C includes a prediction memory circuit 238. The prediction memory circuit 228 stores in the memory (not shown) the image signals of the I picture and the P picture of the student signal SS among the teacher signals ST time-adjusted by the delay circuit 159, and also stores these image signals. When the DCT coefficient related to the P picture or B picture is output from the inverse quantization circuit 234, the corresponding reference image signal Vref is generated and supplied to the first and second tap selection circuits 235 and 236. Incidentally, when the DCT coefficient related to the I picture is output from the inverse quantization circuit 234, the reference image signal Vref is not supplied to the first and second tap selection circuits 235 and 236.

また、係数種データ生成装置150Cは、ピクチャ選択回路239を有している。このピクチャ選択回路239は、遅延回路159で時間調整された教師信号STのうち、IピクチャおよびPピクチャの画像信号を予測メモリ回路238に供給してメモリに記憶させる。   The coefficient seed data generation device 150C has a picture selection circuit 239. The picture selection circuit 239 supplies the image signals of the I picture and the P picture among the teacher signals ST adjusted in time by the delay circuit 159 to the prediction memory circuit 238 and stores them in the memory.

上述した抽出回路237で抽出される動きベクトル情報MIは予測メモリ回路238に供給され、予測メモリ回路238ではこの動きベクトル情報MIを用いて参照画像信号Vrefを生成する際に動き補償が行われる。また、抽出回路237で抽出されるピクチャ情報PIは予測メモリ回路238、ピクチャ選択回路239に供給され、これら予測メモリ回路238、ピクチャ選択回路239ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。   The motion vector information MI extracted by the extraction circuit 237 is supplied to the prediction memory circuit 238, and the prediction memory circuit 238 performs motion compensation when generating the reference image signal Vref using the motion vector information MI. The picture information PI extracted by the extraction circuit 237 is supplied to the prediction memory circuit 238 and the picture selection circuit 239, and the prediction memory circuit 238 and the picture selection circuit 239 identify pictures based on the picture information PI. .

図23に示す係数種データ生成装置150Cの動作を説明する。
入力端子151には画像信号Vdに対応した教師信号STが供給され、そしてこの教師信号STに対してMPEG2符号化器152で、符号化が施されて生徒信号SSとしてのMPEG2ストリームが生成される。
The operation of the coefficient seed data generation device 150C shown in FIG. 23 will be described.
A teacher signal ST corresponding to the image signal Vd is supplied to the input terminal 151. The teacher signal ST is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream as the student signal SS. .

MPEG2符号化器152で得られる生徒信号SSは抽出回路231に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路232に供給されて復号化される。そして、この可変長復号化回路232より出力される量子化DCT係数が逆量子化回路234に供給されて逆量子化が施される。   The student signal SS obtained by the MPEG2 encoder 152 is supplied to the extraction circuit 231 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable-length encoded, and this DCT coefficient is supplied to the variable-length decoding circuit 232 and decoded. Then, the quantized DCT coefficient output from the variable length decoding circuit 232 is supplied to the inverse quantization circuit 234 and subjected to inverse quantization.

この逆量子化回路234には、パラメータpの値が入力される。この逆量子化回路234では、逆量子化の信号処理の過程で、パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じてDCT係数が変更される。これにより、パラメータpの値に対応した、生徒信号に係るDCT係数が得られる。   The value of the parameter p is input to the inverse quantization circuit 234. In the inverse quantization circuit 234, the signal changes in accordance with the value of the parameter p in the process of inverse quantization signal processing. That is, in the present embodiment, as described above, the DCT coefficient is changed according to the value of the parameter p. Thereby, the DCT coefficient concerning the student signal corresponding to the value of the parameter p is obtained.

また、第2のタップ選択回路236では、クラスタップの複数の画素データ(DCT係数も含む)が選択的に取り出される。すなわち、逆量子化回路234より出力されるDCT係数より、教師信号STにおける注目位置に対応したDCT係数が選択的に取り出されると共に、予測メモリ回路228より供給される参照画像信号Vrefより、教師信号STにおける注目位置の周辺に位置する複数の画素データが選択的に取り出される。   Further, the second tap selection circuit 236 selectively extracts a plurality of pixel data (including DCT coefficients) of the class tap. That is, the DCT coefficient corresponding to the target position in the teacher signal ST is selectively extracted from the DCT coefficient output from the inverse quantization circuit 234, and the teacher signal is received from the reference image signal Vref supplied from the prediction memory circuit 228. A plurality of pixel data located around the target position in ST are selectively extracted.

このように第2のタップ選択回路236で取り出されるクラスタップの画素データは、特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。   Thus, the pixel data of the class tap extracted by the second tap selection circuit 236 is supplied to the feature amount extraction unit 156. In the feature amount extraction unit 156, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code serving as first class information indicating a space class is generated.

また、抽出回路237で生徒信号SSより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部157に供給される。この付加情報クラス生成部157では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。   Also, the encoding control information (picture information PI, motion vector information MI) extracted from the student signal SS by the extraction circuit 237 is supplied to the additional information class generation unit 157. The additional information class generation unit 157 generates second class information indicating the additional information class based on the encoding control information.

そして、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部157で生成される第2のクラス情報はクラスコード生成部158に供給される。このクラスコード生成部158では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。   Then, the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157 are supplied to the class code generation unit 158. The class code generation unit 158 generates a class code CL indicating the result of class classification based on the first class information and the second class information.

また、第1のタップ選択回路235では、予測タップの複数の画素データ(DCT係数も含む)が選択的に取り出される。すなわち、逆量子化回路234より出力されるDCT係数より、教師信号STにおける注目位置に対応したDCT係数が選択的に取り出されると共に、予測メモリ回路238より供給される参照画像信号Vrefより、教師信号STにおける注目位置の周辺に位置する複数の画素データが選択的に取り出される。   The first tap selection circuit 235 selectively extracts a plurality of pixel data (including DCT coefficients) of the prediction tap. That is, the DCT coefficient corresponding to the position of interest in the teacher signal ST is selectively extracted from the DCT coefficient output from the inverse quantization circuit 234, and the teacher signal from the reference image signal Vref supplied from the prediction memory circuit 238. A plurality of pixel data located around the target position in ST are selectively extracted.

そして、遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路235で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとを用いて、正規方程式生成部160では、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)が生成される。 The pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 159 and the first tap selection circuit 235 selectively extract the pixel data y corresponding to each pixel data y of each target position. The normal equation generation unit 160 uses the predicted tap pixel data xi, the value of the parameter p, and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position. For each class, a normal equation (see equation (9)) for generating coefficient seed data w i0 to w i3 is generated.

そして、係数種データ決定部161で各正規方程式が解かれ、クラス毎の係数種データwi0〜wi3が求められ、それらの係数種データwi0〜wi3は係数種メモリ162に格納される。 Then, each normal equation is solved by the coefficient seed data decision section 161, coefficient seed data w i0 to w i3 of each class is determined, their coefficient seed data w i0 to w i3 is stored in the coefficient seed memory 162 .

このように、図23に示す係数種データ生成装置150Cにおいては、図21の画像信号処理部110Cの情報メモリバンク128に格納される、クラス毎の、推定式((1)式参照)で用いられる係数データWiを求めるための生成式((2)式参照)における係数データである係数種データwi0〜wi3を生成することができる。 As described above, in the coefficient seed data generation device 150C shown in FIG. 23, it is used in the estimation formula (see formula (1)) for each class stored in the information memory bank 128 of the image signal processing unit 110C in FIG. It is possible to generate coefficient seed data w i0 to w i3 which are coefficient data in a generation formula (see formula (2)) for determining the coefficient data Wi to be obtained.

なお、図23に示す係数種データ生成装置150Cにおいては、時間調整された教師信号STに基づいて参照画像信号Vrefを生成するものを示したが、これに限定されるものではない。図24に示すように、演算回路239Aを設け、この演算回路239Aで生成される画像信号に基づいて参照画像信号Vrefを生成するようにしてもよい。   In the coefficient seed data generation device 150C shown in FIG. 23, the reference image signal Vref is generated based on the time-adjusted teacher signal ST. However, the present invention is not limited to this. As shown in FIG. 24, an arithmetic circuit 239A may be provided, and the reference image signal Vref may be generated based on the image signal generated by the arithmetic circuit 239A.

この演算回路239Aには、第1のタップ選択回路235で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、クラスコード生成部158で生成されるクラスコードCLとが供給される。詳細説明は省略するが、この演算回路239Aは、図21に示す画像信号処理部110Cにおける推定予測演算回路127、係数メモリ126、係数生成回路129、情報メモリバンク128の部分と同様に構成されている。なお、情報メモリバンク128には、図23に示す係数種データ生成装置150Cとは別の系で予め生成された係数種データwi0〜wi3が格納されているものとする。 The arithmetic circuit 239A is supplied with the pixel data xi of the prediction tap selectively extracted by the first tap selection circuit 235, the value of the parameter p, and the class code CL generated by the class code generation unit 158. The Although detailed description is omitted, the arithmetic circuit 239A is configured in the same manner as the estimated prediction arithmetic circuit 127, the coefficient memory 126, the coefficient generation circuit 129, and the information memory bank 128 in the image signal processing unit 110C shown in FIG. Yes. Note that the information memory bank 128 stores coefficient seed data w i0 to w i3 generated in advance in a system different from the coefficient seed data generating apparatus 150C shown in FIG.

図21の画像信号処理部110Cでは、係数データWi(i=1〜n)を生成するために(2)式の生成式を使用したが、次数の異なった多項式や、他の関数で表現される式でも実現可能である。   In the image signal processing unit 110C of FIG. 21, the generation formula of the formula (2) is used to generate the coefficient data Wi (i = 1 to n), but it is expressed by a polynomial having a different order or another function. It is also possible to use this formula.

また、図21の画像信号処理部110Cでは、特徴量抽出部123より出力される空間クラスを示す第1のクラス情報(ADRCコード)の他に、付加情報クラス生成部124で生成された付加情報クラスを示す第2のクラス情報にも基づいて、クラスコード生成部125ではクラスコードCLを生成するものであるが、第1のクラス情報のみを用いてクラスコードCLを生成してもよい。ただし、第2のクラス情報をも加味してクラスコードCLを生成することで、より細かなクラス分けを行うことができ、画像信号Vdの画素データの生成精度を高めることができる。   Further, in the image signal processing unit 110 </ b> C of FIG. 21, in addition to the first class information (ADRC code) indicating the space class output from the feature amount extraction unit 123, the additional information generated by the additional information class generation unit 124. Based on the second class information indicating the class, the class code generation unit 125 generates the class code CL. However, the class code CL may be generated using only the first class information. However, by generating the class code CL in consideration of the second class information, finer classification can be performed, and the generation accuracy of the pixel data of the image signal Vd can be increased.

なお、詳細説明は省略するが、図21の画像信号処理部110Cにおける処理を、例えば図9に示す画像信号処理装置300によって、図1の画像信号処理部110における処理と同様に、ソフトウェアで実現することも可能である(図10のフローチャート参照)。また、詳細説明は省略するが、図23、図24の係数種データ生成装置150Cにおける処理も、図4の係数種データ生成装置150における処理と同様に、ソフトウェアで実現することも可能である(図11のフローチャート参照)。   Although detailed description is omitted, the processing in the image signal processing unit 110C in FIG. 21 is realized by software, for example, by the image signal processing device 300 shown in FIG. 9, as in the processing in the image signal processing unit 110 in FIG. It is also possible to do this (see the flowchart in FIG. 10). Further, although detailed description is omitted, the processing in the coefficient seed data generation device 150C of FIGS. 23 and 24 can also be realized by software in the same manner as the processing in the coefficient seed data generation device 150 of FIG. (Refer to the flowchart of FIG. 11).

また、図23、図24に示す係数種データ生成装置150Cは、図4に示す係数種データ生成装置150に対応したものであるが、図8に示す係数種データ生成装置150Aに対応したものとすることもできる。すなわち、パラメータpの各値に対応した各クラスの係数データWiを求め、その後にパラメータpの各値に対応した各クラスの係数データWiを用いて、各クラスの係数種データwi0〜wi3を求めるものである。 23 and 24 correspond to the coefficient seed data generation device 150 shown in FIG. 4, but correspond to the coefficient seed data generation device 150A shown in FIG. You can also That is, the coefficient data Wi of each class corresponding to each value of the parameter p is obtained, and thereafter, the coefficient data Wi of each class corresponding to each value of the parameter p is used to calculate the coefficient seed data w i0 to w i3 of each class. Is what you want.

また、図21に示す画像信号処理部110Cでは、情報メモリバンク128に格納されている係数種データwi0〜wi3に基づいて、係数生成回路129でパラメータpの値に対応した各クラスの係数データWiを生成し、この各クラスの係数データWiを係数メモリ126に格納して使用するものである。しかし、図13の画像信号処理部110Aと同様に、情報メモリバンク128Aにクラスおよびパラメータpの値の各組み合わせの係数データWiを格納しておき、パラメータpの値に対応した各クラスの係数データWiを情報メモリバンク128Aより係数メモリ126にロードして使用するように構成してもよい。 Further, in the image signal processing unit 110C illustrated in FIG. 21, the coefficient generation circuit 129 uses the coefficient of each class corresponding to the value of the parameter p based on the coefficient seed data w i0 to w i3 stored in the information memory bank 128. Data Wi is generated, and the coefficient data Wi of each class is stored in the coefficient memory 126 and used. However, like the image signal processing unit 110A of FIG. 13, the coefficient data Wi of each combination of the class and the parameter p is stored in the information memory bank 128A, and the coefficient data of each class corresponding to the value of the parameter p. Wi may be configured to be loaded from the information memory bank 128A into the coefficient memory 126 and used.

次に、この発明のさらに別の実施の形態について説明する。
図25は、さらに別の実施の形態としてのデジタル放送受信機100Dの構成を示している。この図25において、図1、図21と対応する部分には同一符号を付して示している。
Next, still another embodiment of the present invention will be described.
FIG. 25 shows a configuration of a digital broadcast receiver 100D as still another embodiment. In FIG. 25, portions corresponding to those in FIGS. 1 and 21 are denoted by the same reference numerals.

このデジタル放送受信機100Dは、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号を受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。   The digital broadcast receiver 100D includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 that receives a remote control signal. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.

また、デジタル放送受信機100Dは、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106と、このチューナ部106より出力されるMPEG2ストリームVcを一時的に格納するストリームバッファ109とを有している。   Also, the digital broadcast receiver 100D is supplied with a receiving antenna 105 and a broadcast signal (RF modulated signal) captured by the receiving antenna 105, and performs a channel selection process, a demodulation process, an error correction process, and the like, and a predetermined program And a stream buffer 109 for temporarily storing the MPEG2 stream Vc output from the tuner unit 106. The tuner unit 106 obtains an MPEG2 stream as an encoded image signal.

また、デジタル放送受信機100Dは、ストリームバッファ109に記憶されているMPEG2ストリームVcを、ユーザ所望の画質を提示する、復号化された画像信号Vdに変換する画像信号処理部110Dと、この画像信号処理部110Dより出力される画像信号Vdによる画像を表示するディスプレイ部111とを有している。   The digital broadcast receiver 100D also converts the MPEG2 stream Vc stored in the stream buffer 109 into a decoded image signal Vd that presents the user-desired image quality, and this image signal. And a display unit 111 that displays an image based on the image signal Vd output from the processing unit 110D.

図25に示すデジタル放送受信機100Dの動作を説明する。
チューナ部106より出力されるMPEG2ストリームVcはストリームバッファ109に供給されて一時的に格納される。
The operation of the digital broadcast receiver 100D shown in FIG. 25 will be described.
The MPEG2 stream Vc output from the tuner unit 106 is supplied to the stream buffer 109 and temporarily stored.

このようにストリームバッファ109に記憶されているMPEG2ストリームVcは画像信号処理部110Dに供給され、ユーザ所望の画質を提示する、復号化された画像信号Vdに変換される。この画像信号処理部110Dでは、MPEG2ストリームVcを構成するDCT係数から画像信号Vdを得るための新たなDCT係数が得られ、この新たなDCT係数に対して逆DCTを施して画像信号Vdが得られる。   The MPEG2 stream Vc stored in the stream buffer 109 in this way is supplied to the image signal processing unit 110D and converted into a decoded image signal Vd that presents the user-desired image quality. In this image signal processing unit 110D, a new DCT coefficient for obtaining the image signal Vd is obtained from the DCT coefficient constituting the MPEG2 stream Vc, and the inverse DCT is performed on the new DCT coefficient to obtain the image signal Vd. It is done.

画像信号処理部110Dより出力される画像信号Vdはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vdによる画像が表示される。   The image signal Vd output from the image signal processing unit 110D is supplied to the display unit 111, and an image based on the image signal Vd is displayed on the screen of the display unit 111.

ユーザは、リモコン送信機200の操作によって、上述したようにディスプレイ部111の画面上に表示される画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を調整できる。画像信号処理部110Dでは、後述するように、画像信号Vdを得るためのDCT係数が推定式によって算出されるが、この推定式の係数データとして、ユーザのリモコン送信機200の操作によって変更されたパラメータpの値に対応したものが、このパラメータpを含む生成式によって生成されて使用される。これにより、画像信号処理部110Dより出力される画像信号Vdによる画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度は、変更されたパラメータpの値に対応したものとなる。   The user can adjust the resolution, block distortion, mosquito noise, or noise suppression degree in the image displayed on the screen of the display unit 111 as described above by operating the remote control transmitter 200. As will be described later, in the image signal processing unit 110D, the DCT coefficient for obtaining the image signal Vd is calculated by the estimation formula. The coefficient data of the estimation formula is changed by the user's operation of the remote control transmitter 200. A value corresponding to the value of the parameter p is generated and used by a generation formula including the parameter p. As a result, the resolution, block distortion, mosquito noise, or noise suppression degree in the image based on the image signal Vd output from the image signal processing unit 110D corresponds to the changed value of the parameter p.

画像信号処理部110Dの詳細を説明する。この画像信号処理部110Dにおいて、図1に示す画像信号処理部110、図21に示す画像信号処理部110Cと対応する部分には同一符号を付し、その詳細説明は省略する。   Details of the image signal processing unit 110D will be described. In this image signal processing unit 110D, portions corresponding to those of the image signal processing unit 110 shown in FIG. 1 and the image signal processing unit 110C shown in FIG. 21 are denoted by the same reference numerals, and detailed description thereof is omitted.

画像信号処理部110Dは、ストリームバッファ109に記憶されているMPEG2ストリームVcより周波数係数としてのDCT係数を抽出する抽出回路221と、この抽出回路221で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路222とを有している。   The image signal processing unit 110D extracts an extraction circuit 221 that extracts a DCT coefficient as a frequency coefficient from the MPEG2 stream Vc stored in the stream buffer 109, and variable-length coding extracted by the extraction circuit 221 such as Huffman coding And a variable length decoding circuit 222 that performs variable length decoding on the DCT coefficients.

また、画像信号処理部110Dは、ストリームバッファ109に格納されているMPEG2ストリームVcより量子化特性指定情報を抽出する量子化特性指定情報抽出回路223と、この抽出回路223で抽出される量子化特性指定情報に基づいて、可変長復号化回路222より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路224とを有している。   The image signal processing unit 110D also includes a quantization characteristic designation information extraction circuit 223 that extracts quantization characteristic designation information from the MPEG2 stream Vc stored in the stream buffer 109, and a quantization characteristic extracted by the extraction circuit 223. And an inverse quantization circuit 224 that performs inverse quantization on the quantized DCT coefficient output from the variable length decoding circuit 222 based on the designation information.

また、画像信号処理部110Dは、逆量子化回路224より出力されるDCT係数より、画像信号Vdにおける注目位置に対応したDCT係数を選択的に取り出して出力する第1、第2のタップ選択回路241,242を有している。   Further, the image signal processing unit 110D first and second tap selection circuits that selectively extract and output the DCT coefficient corresponding to the position of interest in the image signal Vd from the DCT coefficient output from the inverse quantization circuit 224. 241,242.

第1のタップ選択回路241は、予測に使用する予測タップの複数個のDCT係数を選択的に取り出すものである。図22Aは、第1のタップ選択回路241において、逆量子化回路224より出力されるDCT係数より選択的に取り出す予測タップのDCT係数の一例を示している。本実施の形態においては、画像信号Vdの注目画素ブロックを得るためのDCTブロックを注目DCTブロックとし、この注目DCTブロックに対応するDCTブロックの全てのDCT係数、即ち64(8×8)個のDCT係数が、予測タップのDCT係数として取り出される。   The first tap selection circuit 241 selectively extracts a plurality of DCT coefficients of a prediction tap used for prediction. FIG. 22A shows an example of a DCT coefficient of a prediction tap that is selectively extracted from the DCT coefficient output from the inverse quantization circuit 224 in the first tap selection circuit 241. In the present embodiment, a DCT block for obtaining a pixel block of interest of the image signal Vd is a target DCT block, and all DCT coefficients of the DCT block corresponding to this target DCT block, that is, 64 (8 × 8) pieces of DCT blocks. The DCT coefficient is extracted as the DCT coefficient of the prediction tap.

また、第2のタップ選択回路242は、クラス分類に使用するクラスタップの複数個のDCT係数を選択的に取り出すものである。図22Bは、第2のタップ選択回路242において、逆量子化回路224より出力されるDCT係数より選択的に取り出すクラスタップのDCT係数の一例を示している。本実施の形態においては、注目DCTブロックに対応するDCTブロックと、その上下左右に隣接する4個のDCTブロックとの、合計で5個のDCTブロックの320(8×8×5)個のDCT係数が、クラスタップのDCT係数として取り出される。   The second tap selection circuit 242 selectively extracts a plurality of DCT coefficients of class taps used for class classification. FIG. 22B shows an example of DCT coefficients of class taps that are selectively extracted from the DCT coefficients output from the inverse quantization circuit 224 in the second tap selection circuit 242. In the present embodiment, 320 (8 × 8 × 5) DCTs of a total of five DCT blocks including a DCT block corresponding to the target DCT block and four DCT blocks adjacent in the vertical and horizontal directions. The coefficients are extracted as class tap DCT coefficients.

また、画像信号処理部110Dは、第2のタップ選択回路242で選択的に取り出されるクラスタップのDCT係数から特徴量を抽出する特徴量抽出部123を有している。特徴量抽出部123では、クラスタップのDCT係数に1ビットのADRC等の処理を施すことによって、クラスコードCLとしてのADRCコードを生成する。このクラスコードCLは、注目DCTブロックが属するクラスを示すものとなる。   The image signal processing unit 110 </ b> D includes a feature amount extraction unit 123 that extracts a feature amount from the class tap DCT coefficients selectively extracted by the second tap selection circuit 242. The feature amount extraction unit 123 generates an ADRC code as the class code CL by performing processing such as 1-bit ADRC on the DCT coefficient of the class tap. This class code CL indicates the class to which the target DCT block belongs.

また、画像信号処理部110Dは、係数メモリ126を有している。この係数メモリ126は、後述する推定予測演算回路127で使用される推定式で用いられる複数の係数データWi(i=1〜n)を、クラス毎に、格納するものである。この係数データWiは、MPEG2ストリームVcのDCT係数を、画像信号Vdを得るための新たなDCT係数に変換するための情報である。   The image signal processing unit 110D has a coefficient memory 126. The coefficient memory 126 stores, for each class, a plurality of coefficient data Wi (i = 1 to n) used in an estimation formula used in an estimated prediction calculation circuit 127 described later. The coefficient data Wi is information for converting the DCT coefficient of the MPEG2 stream Vc into a new DCT coefficient for obtaining the image signal Vd.

係数メモリ126には上述した特徴量抽出部123より出力されるクラスコードCLが読み出しアドレス情報として供給される。この係数メモリ126からは、クラスコードCLに対応した推定式の係数データWiが読み出されて、推定予測演算回路127に供給される。この場合、注目DCTブロックを構成する全てのDCT係数を算出するために、この注目DCTブロック内のDCT係数の個数分の係数データWiが推定予測演算回路127に供給される。   The class code CL output from the above-described feature amount extraction unit 123 is supplied to the coefficient memory 126 as read address information. From the coefficient memory 126, the coefficient data Wi of the estimation formula corresponding to the class code CL is read and supplied to the estimated prediction calculation circuit 127. In this case, coefficient data Wi corresponding to the number of DCT coefficients in the target DCT block is supplied to the estimated prediction calculation circuit 127 in order to calculate all DCT coefficients constituting the target DCT block.

また、画像信号処理部110Dは、情報メモリバンク128を有している。推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとから、上述した(1)式の推定式によって、注目DCTブロックを構成するDCT係数yが演算される。(1)式のnは、第1のタップ選択回路241で選択される予測タップの数を表している。   Further, the image signal processing unit 110D has an information memory bank 128. In the estimated prediction calculation circuit 127, the DCT coefficient y constituting the target DCT block is calculated from the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126 by the estimation formula of the above-described formula (1). The In the expression (1), n represents the number of prediction taps selected by the first tap selection circuit 241.

この推定式の係数データWiは、上述した(2)式に示すように、パラメータpを含む生成式によって生成される。情報メモリバンク128には、この生成式における係数データである係数種データwi0〜wi3が、クラス毎に、格納されている。この場合、各クラスの係数種データwi0〜wi3は、それぞれ注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3からなっている。 The coefficient data Wi of this estimation formula is generated by a generation formula including the parameter p, as shown in the above formula (2). Information in the memory bank 128, the coefficient seed data w i0 to w i3 is the coefficient data in the production equation is, for each class, stored. In this case, the coefficient seed data w i0 to w i3 of each class is comprised of a plurality of sets of coefficient seed data w i0 to w i3 corresponding to each DCT coefficient of each target DCT blocks.

また、画像信号処理部110Dは、各クラスの係数種データwi0〜wi3およびパラメータpの値とを用い、(2)式によって、クラス毎に、パラメータpの値に対応した推定式の係数データWi(i=1〜n)を生成する係数生成回路129を有している。この係数生成回路129には、情報メモリバンク128より、上述した各クラスの係数種データwi0〜wi3がロードされる。また、この係数生成回路129には、システムコントローラ101より、パラメータpの値が供給される。 Further, the image signal processing unit 110D uses the coefficient seed data w i0 to w i3 of each class and the value of the parameter p, and the coefficient of the estimation formula corresponding to the value of the parameter p for each class according to the equation (2). A coefficient generation circuit 129 that generates data Wi (i = 1 to n) is included. The coefficient generation circuit 129 is loaded with the above-described class seed coefficient data w i0 to w i3 from the information memory bank 128. The coefficient generation circuit 129 is supplied with the value of the parameter p from the system controller 101.

この係数生成回路129で生成される各クラスの係数データWi(i=1〜n)は、上述した係数メモリ126に格納される。この係数生成回路129における各クラスの係数データWiの生成は、例えば各垂直ブランキング期間で行われる。これにより、リモコン送信機200の操作によってパラメータpの値が変更されても、係数メモリ126に格納される各クラスの係数データWiを、そのパラメータpの値に対応したものに即座に変更でき、ユーザによる解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度等の調整がスムーズに行われる。   The coefficient data Wi (i = 1 to n) of each class generated by the coefficient generation circuit 129 is stored in the coefficient memory 126 described above. The generation of coefficient data Wi for each class in the coefficient generation circuit 129 is performed, for example, in each vertical blanking period. Thereby, even if the value of the parameter p is changed by the operation of the remote control transmitter 200, the coefficient data Wi of each class stored in the coefficient memory 126 can be immediately changed to one corresponding to the value of the parameter p, The user can smoothly adjust the resolution, block distortion, mosquito noise, noise suppression degree, and the like.

ここで、情報メモリバンク128に格納されている係数種データwi0〜wi3は、図21の画像信号処理部110Cの情報メモリバンク128に格納されている係数種データwi0〜wi3と同様に、上述したストリームバッファ109に格納されるMPEG2ストリームVcと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた生徒信号に基づいて予め生成される。これにより、画像信号Vdによって得られる画像の解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度等をパラメータpの値に応じて段階的に調整可能となる。 Here, the coefficient seed data w i0 to w i3 stored in the information memory bank 128 are the same as the coefficient seed data w i0 to w i3 stored in the information memory bank 128 of the image signal processing unit 110C in FIG. In addition, the MPEG2 stream encoded in the same manner as the MPEG2 stream Vc stored in the stream buffer 109 described above is generated in advance based on the student signal obtained by processing according to the value of the parameter p. Thereby, the resolution, block distortion, mosquito noise, noise suppression degree, and the like of the image obtained from the image signal Vd can be adjusted stepwise according to the value of the parameter p.

また、画像信号処理部110Dは、推定予測演算回路127より出力されるDCT係数に対して逆DCTを行う逆DCT回路243と、IピクチャおよびPピクチャの画像信号をメモリ(図示せず)に記憶すると共に、これらの画像信号を用いて逆DCT回路243からPピクチャまたはBピクチャの画像信号が出力されるとき、対応する参照画像信号Vrefを生成して出力する予測メモリ回路244とを有している。   In addition, the image signal processing unit 110D stores, in a memory (not shown), an inverse DCT circuit 243 that performs inverse DCT on the DCT coefficient output from the estimated prediction calculation circuit 127, and image signals of I and P pictures. And a prediction memory circuit 244 that generates and outputs a corresponding reference image signal Vref when an image signal of a P picture or a B picture is output from the inverse DCT circuit 243 using these image signals. Yes.

また、画像信号処理部110Dは、逆DCT回路243からPピクチャまたはBピクチャの画像信号が出力されるとき、その画像信号に予測メモリ回路244で生成された参照画像信号Vrefを加算する加算回路245を有している。なお、逆DCT回路243からIピクチャの画像信号が出力されるとき、予測メモリ回路244から加算回路245に参照画像信号Vrefは供給されず、従って加算回路245からは逆DCT回路243より出力されるIピクチャの画像信号がそのまま出力される。   In addition, when the inverse DCT circuit 243 outputs an image signal of a P picture or a B picture, the image signal processing unit 110D adds the reference image signal Vref generated by the prediction memory circuit 244 to the image signal. have. Note that when the image signal of the I picture is output from the inverse DCT circuit 243, the reference image signal Vref is not supplied from the prediction memory circuit 244 to the adder circuit 245, and thus is output from the adder circuit 245 from the inverse DCT circuit 243. The image signal of the I picture is output as it is.

また、画像信号処理部110Dは、加算回路245より出力されるIピクチャおよびPピクチャの画像信号を予測メモリ回路244に供給してメモリに記憶させると共に、この加算回路245より出力される各ピクチャの画像信号を正しい順に並べ直して画像信号Vdとして出力するピクチャ選択回路246とを有している。   In addition, the image signal processing unit 110D supplies the I-picture and P-picture image signals output from the adder circuit 245 to the prediction memory circuit 244 and stores them in the memory, and also stores each picture output from the adder circuit 245. A picture selection circuit 246 that rearranges the image signals in the correct order and outputs them as an image signal Vd.

また、画像信号処理部110Dは、ストリームバッファ109に格納されているMPEG2ストリームより符号化制御情報、すなわちピクチャ情報PI、動きベクトル情報MIを抽出する抽出回路227を有している。この抽出回路227で抽出される動きベクトル情報MIは予測メモリ回路244に供給され、予測メモリ回路244ではこの動きベクトル情報MIを用いて参照画像信号Vrefを生成する際に動き補償が行われる。また、抽出回路227で抽出されるピクチャ情報PIは予測メモリ回路244、ピクチャ選択回路246に供給され、これら予測メモリ回路244、ピクチャ選択回路246ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。   The image signal processing unit 110D has an extraction circuit 227 that extracts encoding control information, that is, picture information PI and motion vector information MI, from the MPEG2 stream stored in the stream buffer 109. The motion vector information MI extracted by the extraction circuit 227 is supplied to the prediction memory circuit 244, and the prediction memory circuit 244 performs motion compensation when generating the reference image signal Vref using the motion vector information MI. The picture information PI extracted by the extraction circuit 227 is supplied to the prediction memory circuit 244 and the picture selection circuit 246, and the prediction memory circuit 244 and the picture selection circuit 246 identify pictures based on the picture information PI. .

次に、画像信号処理部110Dの動作を説明する。
ストリームバッファ109に記憶されているMPEG2ストリームVcが抽出回路221に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路222に供給されて復号化される。そして、この可変長復号化回路222より出力される量子化DCT係数が逆量子化回路224に供給されて逆量子化が施される。
Next, the operation of the image signal processing unit 110D will be described.
The MPEG2 stream Vc stored in the stream buffer 109 is supplied to the extraction circuit 221 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable length encoded, and this DCT coefficient is supplied to the variable length decoding circuit 222 and decoded. Then, the quantized DCT coefficient output from the variable length decoding circuit 222 is supplied to the inverse quantization circuit 224 and subjected to inverse quantization.

第2のタップ選択回路242では、逆量子化回路224より出力されるDCT係数より、クラスタップの複数個のDCT係数が選択的に取り出される。このクラスタップの複数個のDCT係数は、特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップのDCT係数に1ビットのADRC等の処理が施されて、クラスコードCLとしてのADRCコードが生成される。このクラスコードCLは、画像信号Vdの注目画素ブロックを得るためのDCTブロックが属するクラスを示すものとなる。   The second tap selection circuit 242 selectively extracts a plurality of class tap DCT coefficients from the DCT coefficients output from the inverse quantization circuit 224. The plurality of DCT coefficients of the class tap are supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the DCT coefficient of the class tap, and an ADRC code as the class code CL is generated. The class code CL indicates a class to which a DCT block for obtaining a target pixel block of the image signal Vd belongs.

このクラスコードCLは、係数メモリ126に読み出しアドレス情報として供給される。係数メモリ126には、例えば各垂直ブランキング期間に、係数生成回路129で、ユーザによって調整されたパラメータpの値に対応して、クラス毎に、注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3を用いて、注目DCTブロックの各DCT係数に対応した推定式の係数データWi(i=1〜n)が求められて格納される((2)式参照)。 The class code CL is supplied to the coefficient memory 126 as read address information. In the coefficient memory 126, for example, in each vertical blanking period, the coefficient generation circuit 129 corresponds to the value of the parameter p adjusted by the user, and a plurality of DCT coefficients corresponding to each DCT coefficient of the DCT block of interest for each class. Coefficient data Wi (i = 1 to n) of the estimation formula corresponding to each DCT coefficient of the DCT block of interest is obtained and stored using the set of coefficient seed data w i0 to w i3 (see formula (2)). ).

係数メモリ126に上述したようにクラスコードCLが読み出しアドレス情報として供給されることで、この係数メモリ126からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路127に供給される。この場合、注目DCTブロックを構成する全てのDCT係数を算出するために、この注目DCTブロック内のDCT係数の個数分の係数データWiが推定予測演算回路127に供給される。   As described above, the class code CL is supplied to the coefficient memory 126 as read address information, whereby the coefficient data Wi corresponding to the class code CL is read from the coefficient memory 126 and supplied to the estimated prediction calculation circuit 127. The In this case, coefficient data Wi corresponding to the number of DCT coefficients in the target DCT block is supplied to the estimated prediction calculation circuit 127 in order to calculate all DCT coefficients constituting the target DCT block.

また、第1のタップ選択回路225では、逆量子化回路224より出力されるDCT係数より、予測タップの複数個のDCT係数が選択的に取り出される。この予測タップの複数個のDCT係数xiは、推定予測演算回路127に供給される。推定予測演算回路127では、予測タップの複数個のDCT係数xiと、係数メモリ126より読み出される係数データWiとを用いて、推定式((1)式参照)に基づいて、注目DCTブロックを構成する複数個のDCT係数yがそれぞれ求められる。   Further, the first tap selection circuit 225 selectively extracts a plurality of DCT coefficients of the prediction tap from the DCT coefficients output from the inverse quantization circuit 224. The plurality of DCT coefficients xi of the prediction tap are supplied to the estimated prediction calculation circuit 127. In the estimated prediction calculation circuit 127, the DCT block of interest is configured based on the estimation equation (see equation (1)) using the plurality of DCT coefficients xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126. A plurality of DCT coefficients y to be obtained are respectively obtained.

また、推定予測演算回路127より出力されるDCT係数に対して逆DCT回路243で逆DCTが施されて各ピクチャの画像信号が得られる。この各ピクチャの画像信号は加算回路245を介してピクチャ選択回路246に供給される。この場合、PピクチャおよびBピクチャの画像信号に対しては、加算回路245で予測メモリ回路244より出力される参照画像信号Vrefが加算される。そして、各ピクチャの画像信号は、ピクチャ選択回路229で正しい順に並べ直されて画像信号Vdとして出力される。   Further, the inverse DCT circuit 243 performs inverse DCT on the DCT coefficient output from the estimated prediction calculation circuit 127 to obtain an image signal of each picture. The image signal of each picture is supplied to the picture selection circuit 246 via the addition circuit 245. In this case, the reference image signal Vref output from the prediction memory circuit 244 is added by the addition circuit 245 to the image signals of the P picture and the B picture. The picture signals of the pictures are rearranged in the correct order by the picture selection circuit 229 and output as the picture signal Vd.

このように、画像信号処理部110Dでは、パラメータpの値に対応した推定式の係数データWi(i=1〜n)が使用されて、画像信号Vdを得るためのDCT係数yが演算される。したがって、ユーザは、パラメータpの値を変更することで、画像信号Vdによる画像の解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を任意に調整できる。   Thus, in the image signal processing unit 110D, the coefficient data Wi (i = 1 to n) of the estimation formula corresponding to the value of the parameter p is used to calculate the DCT coefficient y for obtaining the image signal Vd. . Therefore, the user can arbitrarily adjust the resolution, block distortion, mosquito noise, or noise suppression degree of the image by the image signal Vd by changing the value of the parameter p.

また、係数データWiを生成するための係数種データwi0〜wi3は、上述したストリームバッファ109に格納されるMPEG2ストリームVcと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた生徒信号に基づいて予め生成されたものであり、画像信号Vdによる画像の特定の質のみ、例えば解像度のみ、ブロック歪のみ、モスキートノイズのみあるいはノイズ抑圧度のみを段階的に調整できる。 The coefficient seed data w i0 to w i3 for generating the coefficient data Wi is an MPEG2 stream encoded in the same manner as the MPEG2 stream Vc stored in the stream buffer 109 described above according to the value of the parameter p. It is generated in advance based on the student signal obtained by processing, and only the specific quality of the image by the image signal Vd, for example, only the resolution, only the block distortion, only the mosquito noise, or only the noise suppression degree is stepwise. Can be adjusted.

図25の画像信号処理部110Dの情報メモリバンク128に格納される係数種データwi0〜wi3も、図1の画像信号処理部110の情報メモリバンク128に格納される係数種データwi0〜wi3と同様に、複数の生徒信号と教師信号との間で学習を行うことによって生成される(図3参照)。 The coefficient seed data w i0 to w i3 stored in the information memory bank 128 of the image signal processing unit 110D in FIG. 25 are also the coefficient seed data w i0 to w i0 stored in the information memory bank 128 of the image signal processing unit 110 in FIG. Similar to w i3 , it is generated by learning between a plurality of student signals and teacher signals (see FIG. 3).

図26は、上述したデジタル放送受信機100Dの情報メモリバンク128に格納される係数種データwi0〜wi3を生成するための係数種データ生成装置150Dの構成を示している。この図26において、図4、図23と対応する部分には同一符号を付して示している。 FIG. 26 shows a configuration of a coefficient seed data generation device 150D for generating the coefficient seed data w i0 to w i3 stored in the information memory bank 128 of the digital broadcast receiver 100D described above. In FIG. 26, portions corresponding to those in FIGS. 4 and 23 are denoted by the same reference numerals.

この係数種データ生成装置150Dは、画像信号Vdに対応した画像信号Vd′が入力される入力端子151と、この画像信号Vd′に対して符号化を行って生徒信号SSであるMPEG2ストリームを得るMPEG2符号化器152とを有している。なお、このMPEG2符号化器152からは、画像信号Vd′より生成されたMPEG2ストリームを構成するDCT係数が教師信号STとして出力される。   The coefficient seed data generation apparatus 150D obtains an MPEG2 stream that is a student signal SS by encoding the image signal Vd ′ and an input terminal 151 to which the image signal Vd ′ corresponding to the image signal Vd is input. An MPEG2 encoder 152. The MPEG2 encoder 152 outputs DCT coefficients constituting the MPEG2 stream generated from the image signal Vd ′ as the teacher signal ST.

また、係数種データ生成装置150Dは、MPEG2符号化器152で得られる生徒信号SSより周波数係数としてのDCT係数を抽出するDCT係数抽出回路231と、この抽出回路231で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路232とを有している。   The coefficient seed data generation device 150D also includes a DCT coefficient extraction circuit 231 that extracts a DCT coefficient as a frequency coefficient from the student signal SS obtained by the MPEG2 encoder 152, and a variable length encoding extracted by the extraction circuit 231. For example, it has a variable length decoding circuit 232 that performs variable length decoding on DCT coefficients that are Huffman encoded.

また、係数種データ生成装置150Dは、MPEG2符号化器152で得られる生徒信号SSより量子化特性指定情報を抽出する量子化特性指定情報抽出回路233と、この抽出回路233で抽出される量子化特性指定情報に基づいて、可変長復号化回路232より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路234とを有している。   The coefficient seed data generation device 150D also includes a quantization characteristic designation information extraction circuit 233 that extracts quantization characteristic designation information from the student signal SS obtained by the MPEG2 encoder 152, and a quantization that is extracted by the extraction circuit 233. And an inverse quantization circuit 234 that performs inverse quantization on the quantized DCT coefficient output from the variable length decoding circuit 232 based on the characteristic designation information.

この逆量子化回路234には、パラメータpの値が入力される。この逆量子化回路234では、図23の係数種データ生成装置150Cで説明したと同様に逆量子化の信号処理の過程で、パラメータpの値に応じてDCT係数が変化するようにされ、当該パラメータpの値に対応した、生徒信号に係るDCT係数が得られる。これにより、複数の生徒信号に係るDCT係数を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vdによって得られる画像の解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度等をパラメータpの値に応じて段階的に調整可能なものとなる。 The value of the parameter p is input to the inverse quantization circuit 234. In the inverse quantization circuit 234, the DCT coefficient is changed in accordance with the value of the parameter p in the process of inverse quantization signal processing in the same manner as described in the coefficient seed data generation device 150C in FIG. A DCT coefficient related to the student signal corresponding to the value of the parameter p is obtained. As a result, the coefficient seed data w i0 to w i3 generated using the DCT coefficients related to a plurality of student signals has the image resolution, block distortion, mosquito noise, noise suppression degree, and the like obtained from the image signal Vd described above. It can be adjusted stepwise according to the value of the parameter p.

また、係数種データ生成装置150Dは、逆量子化回路234より出力されるDCT係数より、教師信号STにおける注目位置に対応したDCT係数を選択的に取り出して出力する第1、第2のタップ選択回路251,252を有している。これら第1、第2のタップ選択回路251,252は、それぞれ上記した画像信号処理部110Dの第1、第2のタップ選択回路241,242と同様に構成される。   Further, the coefficient seed data generation device 150D first and second tap selection that selectively extracts and outputs the DCT coefficient corresponding to the target position in the teacher signal ST from the DCT coefficient output from the inverse quantization circuit 234. Circuits 251 and 252 are included. The first and second tap selection circuits 251 and 252 are configured in the same manner as the first and second tap selection circuits 241 and 242 of the image signal processing unit 110D described above, respectively.

第1のタップ選択回路251は、予測に使用する予測タップの複数個のDCT係数を選択的に取り出すものである。図22Aは、第1のタップ選択回路251において、逆量子化回路234より出力されるDCT係数より選択的に取り出す予測タップのDCT係数の一例を示している。本実施の形態においては、教師信号STの注目DCTブロックに対応するDCTブロックの全てのDCT係数、即ち64(8×8)個のDCT係数が、予測タップのDCT係数として取り出される。   The first tap selection circuit 251 selectively extracts a plurality of DCT coefficients of a prediction tap used for prediction. FIG. 22A shows an example of the DCT coefficient of the prediction tap that is selectively extracted from the DCT coefficient output from the inverse quantization circuit 234 in the first tap selection circuit 251. In the present embodiment, all DCT coefficients of the DCT block corresponding to the target DCT block of the teacher signal ST, that is, 64 (8 × 8) DCT coefficients are extracted as DCT coefficients of the prediction tap.

また、第2のタップ選択回路252は、クラス分類に使用するクラスタップの複数個のDCT係数を選択的に取り出すものである。図22Bは、第2のタップ選択回路252において、逆量子化回路234より出力されるDCT係数より選択的に取り出すクラスタップのDCT係数の一例を示している。本実施の形態においては、注目DCTブロックに対応するDCTブロックと、その上下左右に隣接する4個のDCTブロックとの、合計で5個のDCTブロックの320(8×8×5)個のDCT係数が、クラスタップのDCT係数として取り出される。   The second tap selection circuit 252 selectively extracts a plurality of DCT coefficients of class taps used for class classification. FIG. 22B shows an example of DCT coefficients of class taps that are selectively extracted from the DCT coefficients output from the inverse quantization circuit 234 in the second tap selection circuit 252. In the present embodiment, 320 (8 × 8 × 5) DCTs of a total of five DCT blocks including a DCT block corresponding to the target DCT block and four DCT blocks adjacent in the vertical and horizontal directions. The coefficients are extracted as class tap DCT coefficients.

また、係数種データ生成装置150Dは、第2のタップ選択回路252で選択的に取り出されるクラスタップのDCT係数から特徴量を抽出する特徴量抽出部156を有している。この特徴量抽出部156は、上述した画像信号処理部110Dの特徴量抽出部123と同様に構成される。この特徴量抽出部156では、クラスタップのDCT係数に1ビットのADRC等の処理を施すことによって、クラスコードCLとしてのADRCコードを生成する。このクラスコードCLは、教師信号STにおける注目DCTブロックが属するクラスを示すものとなる。   The coefficient seed data generation device 150 </ b> D includes a feature quantity extraction unit 156 that extracts a feature quantity from the class tap DCT coefficients selectively extracted by the second tap selection circuit 252. The feature quantity extraction unit 156 is configured in the same manner as the feature quantity extraction unit 123 of the image signal processing unit 110D described above. The feature amount extraction unit 156 generates an ADRC code as the class code CL by performing processing such as 1-bit ADRC on the DCT coefficient of the class tap. This class code CL indicates the class to which the target DCT block in the teacher signal ST belongs.

また、係数種データ生成装置150Dは、MPEG2符号化器152より出力される教師信号(DCT係数)STの時間調整を行うための遅延回路159と、この遅延回路159で時間調整された教師信号STの各注目DCTブロックのDCT係数yと、この各注目DCTブロックにそれぞれ対応して第1のタップ選択回路251で選択的に取り出される予測タップのDCT係数xiと、パラメータpの値と、各注目DCTブロックにそれぞれ対応して特徴量抽出部156で生成されるクラスコードCLとから、クラス毎に、注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3をそれぞれ得るための正規方程式((9)式参照)を生成する正規方程式生成部160を有している。 The coefficient seed data generation device 150D also includes a delay circuit 159 for adjusting the time of the teacher signal (DCT coefficient) ST output from the MPEG2 encoder 152, and the teacher signal ST adjusted in time by the delay circuit 159. The DCT coefficient y of each DCT block of interest, the DCT coefficient xi of the prediction tap selectively extracted by the first tap selection circuit 251 corresponding to each DCT block of interest, the value of the parameter p, A plurality of sets of coefficient seed data w i0 to w i3 respectively corresponding to each DCT coefficient of the DCT block of interest for each class from the class code CL generated by the feature quantity extraction unit 156 corresponding to each DCT block It has a normal equation generation unit 160 that generates a normal equation (see equation (9)) to obtain.

この場合、1個のDCT係数yとそれに対応するn個の予測タップのDCT係数xiとの組み合わせで1個の学習データが生成される。パラメータpの値に応じて、逆量子化回路234からは複数の生徒信号に係るDCT係数が順次得られ、教師信号と各生徒信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部160では、パラメータpの値が異なる多くの学習データが登録された正規方程式が生成され、係数種データwi0〜wi3を求めることが可能となる。 In this case, one learning data is generated by a combination of one DCT coefficient y and the corresponding DCT coefficient xi of n prediction taps. Depending on the value of the parameter p, the inverse quantization circuit 234 sequentially obtains DCT coefficients related to a plurality of student signals, and learning data is generated between the teacher signal and each student signal. As a result, the normal equation generation unit 160 generates a normal equation in which many pieces of learning data having different values of the parameter p are registered, and the coefficient seed data w i0 to w i3 can be obtained.

また、係数種データ生成装置150Dは、正規方程式生成部160で、クラス毎に生成された、注目DCTブロックの各DCT係数にそれぞれ対応した正規方程式のデータが供給され、当該正規方程式を解いて、クラス毎に、注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3を求める係数種データ決定部161と、この求められた係数種データを格納する係数種メモリ162とを有している。係数種データ決定部161では、正規方程式が例えば掃き出し法などによって解かれて、係数種データが求められる。 Further, the coefficient seed data generation device 150D is supplied with data of normal equations corresponding to the respective DCT coefficients of the DCT block of interest generated for each class by the normal equation generation unit 160, and solves the normal equations. For each class, a coefficient seed data determining unit 161 for obtaining a plurality of sets of coefficient seed data w i0 to w i3 corresponding to each DCT coefficient of the DCT block of interest, and a coefficient seed memory 162 for storing the obtained coefficient seed data And have. In the coefficient seed data determination unit 161, the normal equation is solved, for example, by a sweeping method, and coefficient coefficient data is obtained.

図26に示す係数種データ生成装置150Dの動作を説明する。
入力端子151には画像信号Vdに対応した画像信号Vd′が供給され、そしてこの画像信号Vd′に対してMPEG2符号化器152で符号化が施されて生徒信号SSとしてのMPEG2ストリームが生成される。
The operation of the coefficient seed data generation device 150D shown in FIG. 26 will be described.
An image signal Vd ′ corresponding to the image signal Vd is supplied to the input terminal 151, and the image signal Vd ′ is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream as the student signal SS. The

MPEG2符号化器152で得られる生徒信号SSは抽出回路231に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路232に供給されて復号化される。そして、この可変長復号化回路232より出力される量子化DCT係数が逆量子化回路234に供給されて逆量子化が施される。   The student signal SS obtained by the MPEG2 encoder 152 is supplied to the extraction circuit 231 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable-length encoded, and this DCT coefficient is supplied to the variable-length decoding circuit 232 and decoded. Then, the quantized DCT coefficient output from the variable length decoding circuit 232 is supplied to the inverse quantization circuit 234 and subjected to inverse quantization.

この逆量子化回路234には、パラメータpの値が入力される。この逆量子化回路234では、逆量子化の信号処理の過程で、パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じてDCT係数が変更される。これにより、パラメータpの値に対応した、生徒信号に係るDCT係数が得られる。   The value of the parameter p is input to the inverse quantization circuit 234. In the inverse quantization circuit 234, the signal changes in accordance with the value of the parameter p in the process of inverse quantization signal processing. That is, in the present embodiment, as described above, the DCT coefficient is changed according to the value of the parameter p. Thereby, the DCT coefficient concerning the student signal corresponding to the value of the parameter p is obtained.

また、第2のタップ選択回路252では、逆量子化回路234より出力されるDCT係数より、クラスタップの複数個のDCT係数が選択的に取り出される。このクラスタップの複数個のDCT係数は、特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップのDCT係数に1ビットのADRC等の処理が施されて、クラスコードCLとしてのADRCコードが生成される。このクラスコードCLは、教師信号STの注目DCTブロックが属するクラスを示すものとなる。   The second tap selection circuit 252 selectively extracts a plurality of class tap DCT coefficients from the DCT coefficients output from the inverse quantization circuit 234. The plurality of DCT coefficients of the class tap are supplied to the feature amount extraction unit 156. In the feature quantity extraction unit 156, the DCT coefficient of the class tap is subjected to processing such as 1-bit ADRC, and an ADRC code as the class code CL is generated. This class code CL indicates the class to which the target DCT block of the teacher signal ST belongs.

また、第1のタップ選択回路251では、逆量子化回路234より出力されるDCT係数より、教師信号STの注目DCTブロックに対応する、予測タップの複数個のDCT係数が選択的に取り出される。   The first tap selection circuit 251 selectively extracts a plurality of DCT coefficients of the prediction tap corresponding to the target DCT block of the teacher signal ST from the DCT coefficients output from the inverse quantization circuit 234.

そして、遅延回路159で時間調整された教師信号STの各注目DCTブロックのDCT係数yと、この各注目DCTブロックにそれぞれ対応して第1のタップ選択回路251で選択的に取り出される予測タップのDCT係数xiと、パラメータpの値と、各注目DCTブロックにそれぞれ対応して特徴量抽出部156で生成されるクラスコードCLとを用いて、正規方程式生成部160では、クラス毎に、注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3をそれぞれ得るための正規方程式((9)式参照)が生成される。 Then, the DCT coefficient y of each target DCT block of the teacher signal ST time-adjusted by the delay circuit 159, and the prediction tap selectively extracted by the first tap selection circuit 251 corresponding to each target DCT block, respectively. Using the DCT coefficient xi, the value of the parameter p, and the class code CL generated by the feature amount extraction unit 156 corresponding to each target DCT block, the normal equation generation unit 160 uses the target DCT for each class. A normal equation (see equation (9)) for generating a plurality of sets of coefficient seed data w i0 to w i3 respectively corresponding to each DCT coefficient of the block is generated.

そして、係数種データ決定部161で各正規方程式が解かれ、クラス毎に、注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3を求められ、それらの係数種データwi0〜wi3は係数種メモリ162に格納される。 Then, each of the normal equations is solved by the coefficient seed data determination unit 161, and a plurality of sets of coefficient seed data w i0 to w i3 corresponding to each DCT coefficient of the DCT block of interest are obtained for each class. Data w i0 to w i3 are stored in the coefficient seed memory 162.

このように、図26に示す係数種データ生成装置150Dにおいては、図25の画像信号処理部110Dの情報メモリバンク128に格納される、クラス毎の、推定式((1)式参照)で用いられる係数データWiを求めるための生成式((2)式参照)における係数データである係数種データwi0〜wi3を生成することができる。 As described above, in the coefficient seed data generation device 150D shown in FIG. 26, it is used in the estimation formula (see formula (1)) for each class stored in the information memory bank 128 of the image signal processing unit 110D in FIG. It is possible to generate coefficient seed data w i0 to w i3 which are coefficient data in a generation formula (see formula (2)) for determining the coefficient data Wi to be obtained.

なお、図25の画像信号処理部110Dでは、係数データWi(i=1〜n)を生成するために(2)式の生成式を使用したが、次数の異なった多項式や、他の関数で表現される式でも実現可能である。   In the image signal processing unit 110D of FIG. 25, the generation formula (2) is used to generate the coefficient data Wi (i = 1 to n). However, a polynomial having a different order or another function is used. It can also be realized with an expression.

また、詳細説明は省略するが、図25の画像信号処理部110Dにおける処理を、例えば図9に示す画像信号処理装置300によって、図1の画像信号処理部110における処理と同様に、ソフトウェアで実現することも可能である(図10のフローチャート参照)。また、詳細説明は省略するが、図26の係数種データ生成装置150Dにおける処理も、図4の係数種データ生成装置150における処理と同様に、ソフトウェアで実現することも可能である(図11のフローチャート参照)。   Although detailed description is omitted, the processing in the image signal processing unit 110D in FIG. 25 is realized by software, for example, by the image signal processing device 300 shown in FIG. It is also possible to do this (see the flowchart in FIG. 10). Further, although detailed description is omitted, the processing in the coefficient seed data generation device 150D in FIG. 26 can also be realized by software in the same manner as the processing in the coefficient seed data generation device 150 in FIG. 4 (FIG. 11). (Refer to the flowchart).

また、図26に示す係数種データ生成装置150Dは、図4に示す係数種データ生成装置150に対応したものであるが、図8に示す係数種データ生成装置150Aに対応したものとすることもできる。すなわち、パラメータpの各値に対応した各クラスの係数データWiを求め、その後にパラメータpの各値に対応した各クラスの係数データWiを用いて、各クラスの係数種データwi0〜wi3を求めるものである。 26 corresponds to the coefficient seed data generation device 150 shown in FIG. 4, but may also correspond to the coefficient seed data generation device 150A shown in FIG. it can. That is, the coefficient data Wi of each class corresponding to each value of the parameter p is obtained, and thereafter, the coefficient data Wi of each class corresponding to each value of the parameter p is used to calculate the coefficient seed data w i0 to w i3 of each class. Is what you want.

また、図25に示す画像信号処理部110Dでは、情報メモリバンク128に格納されている係数種データwi0〜wi3に基づいて、係数生成回路129でパラメータpの値に対応した各クラスの係数データWiを生成し、この各クラスの係数データWiを係数メモリ126に格納して使用するものである。しかし、図13の画像信号処理部110Aと同様に、情報メモリバンク128Aにクラスおよびパラメータpの値の各組み合わせの係数データWiを格納しておき、パラメータpの値に対応した各クラスの係数データWiを情報メモリバンク128Aより係数メモリ126にロードして使用するように構成してもよい。 Also, in the image signal processing unit 110D shown in FIG. 25, the coefficient generation circuit 129 uses the coefficient of each class corresponding to the value of the parameter p based on the coefficient seed data w i0 to w i3 stored in the information memory bank 128. Data Wi is generated, and the coefficient data Wi of each class is stored in the coefficient memory 126 and used. However, like the image signal processing unit 110A of FIG. 13, the coefficient data Wi of each combination of the class and the parameter p is stored in the information memory bank 128A, and the coefficient data of each class corresponding to the value of the parameter p. Wi may be configured to be loaded from the information memory bank 128A into the coefficient memory 126 and used.

なお、上述実施の形態においては、DCTを伴うMPEG2ストリームを取り扱うものを示したが、この発明は、その他の符号化されたデジタル情報信号を取り扱うものにも同様に適用することができる。また、DCTの代わりに、ウォーブレット変換、離散サイン変換などのその他の直交変換を伴う符号化であってもよい。   In the above-described embodiment, the MPEG2 stream handling DCT is shown. However, the present invention can be applied to other handling of encoded digital information signals. Further, instead of DCT, encoding with other orthogonal transforms such as a wavelet transform and a discrete sine transform may be used.

また、図4に示す係数種データ生成装置150、図8に示す係数種データ生成装置150A、図14に示す係数データ生成装置170、図18に示す差分データ生成装置210、図23に示す係数種データ生成装置150C、図26に示す係数種データ生成装置150Dのいずれにおいても、MPEG2符号化器152を設け、このMPEG2符号化器152によりMPEG2ストリームを得る構成としているが、このMPEG2ストリームを外部から入力する構成としてもよい。   Also, the coefficient seed data generating device 150 shown in FIG. 4, the coefficient seed data generating device 150A shown in FIG. 8, the coefficient data generating device 170 shown in FIG. 14, the difference data generating device 210 shown in FIG. 18, and the coefficient seed shown in FIG. In both of the data generation device 150C and the coefficient seed data generation device 150D shown in FIG. 26, an MPEG2 encoder 152 is provided, and an MPEG2 stream is obtained by the MPEG2 encoder 152. It is good also as a structure which inputs.

また、上述実施の形態においては、情報信号が画像信号である場合を示したが、この発明はこれに限定されない。例えば、情報信号が音声信号である場合にも、この発明を同様に適用することができる。   Moreover, although the case where the information signal is an image signal has been described in the above embodiment, the present invention is not limited to this. For example, the present invention can be similarly applied when the information signal is an audio signal.

デジタル放送受信機などに適用して好適である。   It is suitable for application to a digital broadcast receiver or the like.

実施の形態としてのデジタル放送受信機の構成を示すブロック図である。It is a block diagram which shows the structure of the digital broadcast receiver as embodiment. 予測タップ、クラスタップの一例を示す図である。It is a figure which shows an example of a prediction tap and a class tap. 係数種データの生成方法の一例を説明するための図である。It is a figure for demonstrating an example of the production | generation method of coefficient seed data. 係数種データ生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a coefficient seed data generation apparatus. モスキートノイズを段階的に調整する際のAC係数のゲインの変更を説明するための図である。It is a figure for demonstrating the change of the gain of AC coefficient at the time of adjusting mosquito noise in steps. MPEG2復号化器の構成を示すブロック図である。It is a block diagram which shows the structure of an MPEG2 decoder. 係数種データ生成方法の他の例を説明するための図である。It is a figure for demonstrating the other example of the coefficient seed | species data generation method. 係数種データ生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a coefficient seed data generation apparatus. ソフトウェアで実現するための画像信号処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image signal processing apparatus for implement | achieving by software. 画像信号処理を示すフローチャートである。It is a flowchart which shows an image signal process. 係数種データ生成処理(その1)を示すフローチャートである。It is a flowchart which shows coefficient seed data generation processing (the 1). 係数種データ生成処理(その2)を示すフローチャートである。It is a flowchart which shows coefficient seed data generation processing (the 2). 他の実施の形態としてのデジタル放送受信機の構成を示すブロック図である。It is a block diagram which shows the structure of the digital broadcast receiver as other embodiment. 係数データ生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a coefficient data generation apparatus. 画像信号処理を示すフローチャートである。It is a flowchart which shows an image signal process. 係数データ生成処理を示すフローチャートである。It is a flowchart which shows coefficient data generation processing. さらに他の実施の形態としてのデジタル放送受信機の構成を示すブロック図である。It is a block diagram which shows the structure of the digital broadcast receiver as other embodiment. 差分データ生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a difference data generation apparatus. 画像信号処理を示すフローチャートである。It is a flowchart which shows an image signal process. 差分データ生成処理を示すフローチャートである。It is a flowchart which shows a difference data generation process. 別の実施の形態としてのデジタル放送受信機の構成を示すブロック図である。It is a block diagram which shows the structure of the digital broadcast receiver as another embodiment. DCT係数の予測タップ、クラスタップの一例を示す図である。It is a figure which shows an example of the prediction tap of a DCT coefficient, and a class tap. 係数種データ生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a coefficient seed data generation apparatus. 係数種データ生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a coefficient seed data generation apparatus. さらに別の実施の形態としてのデジタル放送受信機の構成を示すブロック図である。It is a block diagram which shows the structure of the digital broadcast receiver as another embodiment. 係数種データ生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a coefficient seed data generation apparatus.

符号の説明Explanation of symbols

100,100A,100B,100C,100D・・・デジタル放送受信機、101・・・システムコントローラ、102・・・リモコン信号受信回路、105・・・受信アンテナ、106・・・チューナ部、107・・・MPEG2復号化器、108・・・バッファメモリ、109・・・ストリームバッファ、110,110A,110B,110C・・・画像信号処理部、111・・・ディスプレイ部、121,225,241・・・第1のタップ選択回路、122,226,242・・・第2のタップ選択回路、122B・・・タップ選択回路、123・・・特徴量抽出部、124・・・付加情報クラス生成部、125・・・クラスコード生成部、126・・・係数メモリ、127・・・推定予測演算回路、128,128A・・・情報メモリバンク、129・・・係数生成回路、131・・・蓄積テーブル、132・・・DCT回路、133,136・・・切換スイッチ、134・・・加算部、135,243・・・逆DCT回路、150・・・係数種データ生成装置、151・・・入力端子、152・・・MPEG2符号化器、153・・・MPEG2復号化器、154,235,251・・・第1のタップ選択回路、155,236,252・・・第2のタップ選択回路、156・・・特徴量抽出部、157・・・付加情報クラス生成部、158・・・クラスコード生成部、159・・・遅延回路、160,163,165・・・正規方程式生成部、161,166・・・係数種データ決定部、162・・・係数メモリ、164・・・係数データ決定部、167・・・係数メモリ、170・・・係数データ生成装置、171,173・・・DCT回路、172,174・・・切換スイッチ、175・・・減算部、176・・・蓄積制御部、177・・・蓄積テーブル、210・・・差分データ生成装置、221,231・・・DCT係数抽出回路、222,232・・・可変長復号化回路、223,233・・・量子化特性指定情報抽出回路、224,234・・・逆量子化回路、227,237・・・符号化制御情報抽出回路、228,238,244・・・予測メモリ回路、229,239,246・・・ピクチャ選択回路、239A・・・演算回路、245・・・加算回路、300・・・画像信号処理装置   100, 100A, 100B, 100C, 100D ... Digital broadcast receiver, 101 ... System controller, 102 ... Remote control signal receiving circuit, 105 ... Receiving antenna, 106 ... Tuner unit, 107 ... MPEG2 decoder 108 ... buffer memory 109 ... stream buffer 110,110A, 110B, 110C ... image signal processing unit 111 ... display unit 121,225,241 ... First tap selection circuit, 122, 226, 242 ... second tap selection circuit, 122B ... tap selection circuit, 123 ... feature quantity extraction unit, 124 ... additional information class generation unit, 125 ... Class code generator, 126 ... Coefficient memory, 127 ... Estimated prediction arithmetic circuit, 128, 128A ... Information memory bank, 129... Coefficient generation circuit, 131... Storage table, 132... DCT circuit, 133, 136, changeover switch, 134, adder, 135, 243, reverse DCT Circuit 150 ... Coefficient seed data generator 151 ... Input terminal 152 ... MPEG2 encoder 153 ... MPEG2 decoder 154, 235, 251 ... First tap selection Circuit, 155, 236, 252 ... second tap selection circuit, 156 ... feature quantity extraction unit, 157 ... additional information class generation unit, 158 ... class code generation unit, 159 ... delay Circuit, 160, 163, 165 ... Normal equation generation unit, 161, 166 ... Coefficient seed data determination unit, 162 ... Coefficient memory, 164 ... Coefficient data determination unit, 167 ... Coefficient memory, 170 ... Coefficient data generation device, 171, 173 ... DCT circuit, 172, 174 ... Changeover switch, 175 ... Subtraction unit, 176 ... Accumulation control unit, 177 ... Accumulation Table, 210... Difference data generation device, 221, 231... DCT coefficient extraction circuit, 222, 232... Variable length decoding circuit, 223, 233. 234 ... Inverse quantization circuit, 227, 237 ... Coding control information extraction circuit, 228, 238, 244 ... Prediction memory circuit, 229, 239, 246 ... Picture selection circuit, 239A ... Arithmetic circuit, 245 ... adder circuit, 300 ... image signal processing apparatus

Claims (19)

符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換する情報信号に変換する際に使用される推定式で用いられる係数データを生成するための生成式における係数データである係数種データを生成する装置であって、
上記生成式に含まれるパラメータに対応し、上記第1の情報信号に対応する生徒信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値が入力されるパラメータ入力手段と、
上記第2の情報信号に対応する教師信号が符号化されて得られたデジタル情報信号を復号化し、該復号化の過程で上記パラメータ入力手段に入力されるパラメータの値に応じて信号を変化させ、該パラメータの値に対応した生徒信号を得る復号化手段と、
上記復号化手段より出力される生徒信号から、上記教師信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出するクラス検出手段と、
上記復号化手段より出力される生徒信号から、上記教師信号における注目位置の周辺に位置する複数の第2の情報データを選択する第2のデータ選択手段と、
上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、クラス毎に、上記係数種データを求める演算手段と
を備えることを特徴とする係数種データ生成装置。
A first information signal made up of a plurality of information data, which is generated by decoding an encoded digital information signal, is made up of a plurality of information data whose information quality is improved over that of the first information signal. An apparatus for generating coefficient seed data which is coefficient data in a generation formula for generating coefficient data used in an estimation formula used when converting into an information signal to be converted into a second information signal,
Parameter input means for inputting values of a plurality of types of parameters for determining in stages the quality of output information obtained by the student signal corresponding to the first information signal, corresponding to the parameters included in the generation formula; ,
The digital information signal obtained by encoding the teacher signal corresponding to the second information signal is decoded, and the signal is changed according to the parameter value input to the parameter input means in the decoding process. Decoding means for obtaining a student signal corresponding to the value of the parameter;
First data selection means for selecting a plurality of first information data located around the target position in the teacher signal from the student signal output from the decoding means;
Class detection means for detecting a level distribution pattern of the plurality of first information data selected by the first data selection means and detecting a class to which the information data of the target position belongs based on the level distribution pattern; ,
Second data selection means for selecting a plurality of second information data located around the target position in the teacher signal from the student signal output from the decoding means;
The coefficient seed data for each class using the class detected by the class detection means, the plurality of second information data selected by the second data selection means, and the information data of the attention position in the teacher signal And a coefficient seed data generating device.
上記演算手段は、
上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、クラス毎に、上記係数種データを得るための正規方程式を生成する正規方程式生成部と、
上記正規方程式を解いて、上記クラス毎に、上記係数種データを得る係数種データ演算部とを有してなる
ことを特徴とする請求項1に記載の係数種データ生成装置。
The computing means is
The coefficient seed data for each class using the class detected by the class detection means, the plurality of second information data selected by the second data selection means, and the information data of the attention position in the teacher signal A normal equation generation unit for generating a normal equation for obtaining
The coefficient seed data generation device according to claim 1, further comprising a coefficient seed data calculation unit that solves the normal equation and obtains the coefficient seed data for each class.
上記演算手段は、
上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、上記クラスおよび上記パラメータ入力手段に入力されるパラメータの値の組み合わせ毎に、上記推定式で用いられる係数データを得るための第1の正規方程式を生成する第1の正規方程式生成部と、
上記第1の正規方程式を解いて、上記組み合わせ毎に、上記推定式の係数データを得る係数データ演算部と、
上記係数データ演算部で得られた上記組み合わせ毎の係数データを用いて、クラス毎に、上記係数種データを得るための第2の正規方程式を生成する第2の正規方程式生成部と、
上記第2の正規方程式を解いて、上記クラス毎に、係数種データを得る係数種データ演算部とを有してなる
ことを特徴とする請求項1に記載の係数種データ生成装置。
The computing means is
Using the class detected by the class detecting unit, the plurality of second information data selected by the second data selecting unit, and the information data of the position of interest in the teacher signal, the class and the parameter input unit A first normal equation generation unit that generates a first normal equation for obtaining coefficient data used in the estimation equation for each combination of input parameter values;
A coefficient data calculation unit that solves the first normal equation and obtains coefficient data of the estimation formula for each combination;
A second normal equation generation unit that generates a second normal equation for obtaining the coefficient seed data for each class using the coefficient data for each combination obtained by the coefficient data calculation unit;
The coefficient seed data generation apparatus according to claim 1, further comprising a coefficient seed data calculation unit that solves the second normal equation and obtains coefficient seed data for each class.
上記教師信号が符号化されて得られたデジタル情報信号には、該デジタル情報信号を復号化する際に用いられる付加情報が付加されており、
上記クラス検出手段は、上記複数の第1の情報データと共に上記付加情報に基づいて、上記注目位置の情報データが属するクラスを検出する
ことを特徴とする請求項1に記載の係数種データ生成装置。
Additional information used when decoding the digital information signal is added to the digital information signal obtained by encoding the teacher signal.
2. The coefficient seed data generation device according to claim 1, wherein the class detection unit detects a class to which the information data of the target position belongs based on the additional information together with the plurality of first information data. .
上記符号化は直交変換を伴う符号化であって、
上記復号化手段は、上記復号化の過程で上記パラメータの値に応じて、逆直交変換を行う際に用いられる少なくとも周波数係数または逆変換基底のいずれかを変更する
ことを特徴とする請求項1に記載の係数種データ生成装置。
The encoding is encoding with orthogonal transformation,
2. The decoding unit according to claim 1, wherein at least one of a frequency coefficient and an inverse transform base used for performing inverse orthogonal transform is changed according to a value of the parameter in the decoding process. The coefficient seed data generation device described in 1.
上記直交変換は離散コサイン変換である
ことを特徴とする請求項5に記載の係数種データ生成装置。
The coefficient seed data generation device according to claim 5, wherein the orthogonal transform is a discrete cosine transform.
上記周波数係数のうち全てのAC係数のゲインを同じ値として、上記パラメータの値に応じて上記ゲインを変更する
ことを特徴とする請求項5に記載の係数種データ生成装置。
The coefficient seed data generation device according to claim 5, wherein the gain of all AC coefficients of the frequency coefficients is set to the same value, and the gain is changed according to the value of the parameter.
上記周波数係数は量子化されたものであり、上記周波数係数のうちDC係数の量子化ステップを上記パラメータの値に応じて変更する
ことを特徴とする請求項5に記載の係数種データ生成装置。
6. The coefficient seed data generation apparatus according to claim 5, wherein the frequency coefficient is quantized, and a quantization step of a DC coefficient among the frequency coefficients is changed according to the value of the parameter.
上記周波数係数のうちAC係数のゲインを高域程小さくすると共に、該AC係数の高域のゲインの低下の度合いを上記パラメータの値に応じて変更する
ことを特徴とする請求項5に記載の係数種データ生成装置。
6. The AC coefficient gain of the frequency coefficient is reduced as the frequency increases, and the degree of decrease in the gain of the AC coefficient in the high frequency is changed according to the value of the parameter. Coefficient seed data generator.
少なくとも上記周波数係数または上記逆変換基底にランダムノイズを付加すると共に、上記ランダムノイズのレベルを上記パラメータの値に応じて変更する
ことを特徴とする請求項5に記載の係数種データ生成装置。
6. The coefficient seed data generation apparatus according to claim 5, wherein random noise is added to at least the frequency coefficient or the inverse transform base, and the level of the random noise is changed according to the value of the parameter.
符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換する際に使用される推定式の係数データを生成する装置であって、
上記第1の情報信号に対応する生徒信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値が入力されるパラメータ入力手段と、
上記第2の情報信号に対応する教師信号が符号化されて得られたデジタル情報信号を復号化し、該復号化の過程で上記パラメータ入力手段に入力されるパラメータの値に応じて信号を変化させ、該パラメータの値に対応した生徒信号を得る復号化手段と、
上記復号化手段より出力される生徒信号から、上記教師信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出するクラス検出手段と、
上記復号化手段より出力される生徒信号から、上記教師信号における注目位置の周辺に位置する複数の第2の情報データを選択する第2のデータ選択手段と、
上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、上記クラスおよび上記パラメータの値の組み合わせ毎に、上記係数データを求める演算手段と
を備えることを特徴とする係数データ生成装置。
A first information signal made up of a plurality of information data, which is generated by decoding an encoded digital information signal, is made up of a plurality of information data whose information quality is improved over that of the first information signal. An apparatus for generating coefficient data of an estimation equation used when converting into a second information signal,
Parameter input means for inputting values of a plurality of types of parameters for determining in stages the quality of the output information obtained by the student signal corresponding to the first information signal;
The digital information signal obtained by encoding the teacher signal corresponding to the second information signal is decoded, and the signal is changed according to the parameter value input to the parameter input means in the decoding process. Decoding means for obtaining a student signal corresponding to the value of the parameter;
First data selection means for selecting a plurality of first information data located around the target position in the teacher signal from the student signal output from the decoding means;
Class detection means for detecting a level distribution pattern of the plurality of first information data selected by the first data selection means and detecting a class to which the information data of the target position belongs based on the level distribution pattern; ,
Second data selection means for selecting a plurality of second information data located around the target position in the teacher signal from the student signal output from the decoding means;
Using the class detected by the class detecting unit, the plurality of second information data selected by the second data selecting unit, and the information data of the position of interest in the teacher signal, the values of the class and the parameter A coefficient data generating apparatus comprising: an arithmetic means for obtaining the coefficient data for each combination.
上記演算手段は、
上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、上記クラスおよび上記パラメータの値の組み合わせ毎に、上記推定式の係数データを得るための正規方程式を生成する正規方程式生成部と、
上記正規方程式を解いて、上記組み合わせ毎の上記係数データを得る係数データ演算部とを有してなる
ことを特徴とする請求項11に記載の係数データ生成装置。
The computing means is
Using the class detected by the class detecting unit, the plurality of second information data selected by the second data selecting unit, and the information data of the position of interest in the teacher signal, the values of the class and the parameter For each combination, a normal equation generation unit that generates a normal equation for obtaining coefficient data of the estimation equation,
The coefficient data generation device according to claim 11, further comprising: a coefficient data calculation unit that solves the normal equation and obtains the coefficient data for each combination.
上記教師信号が符号化されて得られたデジタル情報信号には、該デジタル情報信号を復号化する際に用いられる付加情報が付加されており、
上記クラス検出手段は、上記複数の第1の情報データと共に上記付加情報に基づいて、上記注目位置の情報データが属するクラスを検出する
ことを特徴とする請求項11に記載の係数データ生成装置。
Additional information used when decoding the digital information signal is added to the digital information signal obtained by encoding the teacher signal.
The coefficient data generation device according to claim 11, wherein the class detection unit detects a class to which the information data of the target position belongs based on the additional information together with the plurality of first information data.
上記符号化は直交変換を伴う符号化であって、
上記復号化手段は、上記復号化の過程で上記パラメータの値に応じて、逆直交変換を行う際に用いられる少なくとも周波数係数または逆変換基底のいずれかを変更する
ことを特徴とする請求項11に記載の係数データ生成装置。
The encoding is encoding with orthogonal transformation,
12. The decoding unit according to claim 11, wherein at least one of a frequency coefficient and an inverse transform base used when performing an inverse orthogonal transform is changed according to a value of the parameter in the decoding process. The coefficient data generation device described in 1.
上記直交変換は離散コサイン変換である
ことを特徴とする請求項14に記載の係数データ生成装置。
The coefficient data generation device according to claim 14, wherein the orthogonal transform is a discrete cosine transform.
上記周波数係数のうち全てのAC係数のゲインを同じ値として、上記パラメータの値に応じて上記ゲインを変更する
ことを特徴とする請求項14に記載の係数データ生成装置。
The coefficient data generation device according to claim 14, wherein the gain of all AC coefficients among the frequency coefficients is set to the same value, and the gain is changed according to the value of the parameter.
上記周波数係数は量子化されたものであり、上記周波数係数のうちDC係数の量子化ステップを上記パラメータの値に応じて変更する
ことを特徴とする請求項14に記載の係数データ生成装置。
The coefficient data generation apparatus according to claim 14, wherein the frequency coefficient is quantized, and a quantization step of a DC coefficient among the frequency coefficients is changed according to a value of the parameter.
上記周波数係数のうちAC係数のゲインを高域程小さくすると共に、該AC係数の高域のゲインの低下の度合いを上記パラメータの値に応じて変更する
ことを特徴とする請求項14に記載の係数データ生成装置。
15. The AC coefficient gain of the frequency coefficient is reduced as the frequency increases, and the degree of decrease in the high frequency gain of the AC coefficient is changed according to the value of the parameter. Coefficient data generator.
少なくとも上記周波数係数または上記逆変換基底にランダムノイズを付加すると共に、上記ランダムノイズのレベルを上記パラメータの値に応じて変更する
ことを特徴とする請求項14に記載の係数データ生成装置。
The coefficient data generation device according to claim 14, wherein random noise is added to at least the frequency coefficient or the inverse transform base, and the level of the random noise is changed according to the value of the parameter.
JP2008060110A 2008-03-10 2008-03-10 Coefficient seed data generation apparatus and coefficient data generation apparatus Expired - Fee Related JP4140662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008060110A JP4140662B2 (en) 2008-03-10 2008-03-10 Coefficient seed data generation apparatus and coefficient data generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008060110A JP4140662B2 (en) 2008-03-10 2008-03-10 Coefficient seed data generation apparatus and coefficient data generation apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002095625A Division JP4140259B2 (en) 2002-03-29 2002-03-29 Information signal processing apparatus, information signal processing method, program, and computer-readable medium

Publications (2)

Publication Number Publication Date
JP2008193712A JP2008193712A (en) 2008-08-21
JP4140662B2 true JP4140662B2 (en) 2008-08-27

Family

ID=39753294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008060110A Expired - Fee Related JP4140662B2 (en) 2008-03-10 2008-03-10 Coefficient seed data generation apparatus and coefficient data generation apparatus

Country Status (1)

Country Link
JP (1) JP4140662B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102622950B1 (en) * 2018-11-12 2024-01-10 삼성전자주식회사 Display apparatus, method for controlling thereof and recording media thereof

Also Published As

Publication number Publication date
JP2008193712A (en) 2008-08-21

Similar Documents

Publication Publication Date Title
US6633676B1 (en) Encoding a video signal
JP4462823B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JPH11112973A (en) Device and method for converting video signal
KR101049922B1 (en) Image processing apparatus, image processing method and program
JP4696388B2 (en) Information signal processing apparatus, information signal processing method, image signal processing apparatus and image display apparatus using the same, coefficient seed data generation apparatus, coefficient data generation apparatus, and information recording medium
JP2006279917A (en) Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system
JP4023324B2 (en) Watermark embedding and image compression unit
JPH07212761A (en) Hierarchical coder and hierarchical decoder
JP4140259B2 (en) Information signal processing apparatus, information signal processing method, program, and computer-readable medium
EP1352515A1 (en) Apparatus and method for providing a usefulness metric based on coding information for video enhancement
JP2001285881A (en) Digital information converter and method, and image information converter and method
JP4140662B2 (en) Coefficient seed data generation apparatus and coefficient data generation apparatus
JP4078906B2 (en) Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
US8767831B2 (en) Method and system for motion compensated picture rate up-conversion using information extracted from a compressed video stream
US8848793B2 (en) Method and system for video compression with integrated picture rate up-conversion
JP4158479B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP2002010267A (en) Motion vector conversion apparatus and its method
JP3991800B2 (en) INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE SIGNAL PROCESSING DEVICE AND IMAGE DISPLAY DEVICE, CORRECTION DATA GENERATION DEVICE AND GENERATION METHOD USED FOR THE SAME, PROGRAM FOR EXECUTING each METHOD, AND COMPUTER READABLE RECORDING THE PROGRAM Medium
JP3859118B2 (en) Variable image rate encoding apparatus, variable image rate decoding apparatus, variable image rate encoding method, and variable image rate decoding method
JP4552263B2 (en) Digital signal processing apparatus and method, and digital image signal processing apparatus and method
JP2006311078A (en) High efficiency coding recorder
JP4206730B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP5038400B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP4055487B2 (en) Image signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and computer-readable recording of the program Medium
JP2001285882A (en) Device and method for reducing noise

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130620

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees