JP4140259B2 - Information signal processing apparatus, information signal processing method, program, and computer-readable medium - Google Patents

Information signal processing apparatus, information signal processing method, program, and computer-readable medium Download PDF

Info

Publication number
JP4140259B2
JP4140259B2 JP2002095625A JP2002095625A JP4140259B2 JP 4140259 B2 JP4140259 B2 JP 4140259B2 JP 2002095625 A JP2002095625 A JP 2002095625A JP 2002095625 A JP2002095625 A JP 2002095625A JP 4140259 B2 JP4140259 B2 JP 4140259B2
Authority
JP
Japan
Prior art keywords
data
information
coefficient
class
information signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002095625A
Other languages
Japanese (ja)
Other versions
JP2003299096A5 (en
JP2003299096A (en
Inventor
哲二郎 近藤
勉 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002095625A priority Critical patent/JP4140259B2/en
Publication of JP2003299096A publication Critical patent/JP2003299096A/en
Publication of JP2003299096A5 publication Critical patent/JP2003299096A5/ja
Application granted granted Critical
Publication of JP4140259B2 publication Critical patent/JP4140259B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、情報信号処理装置、情報信号処理方法、プログラムおよびコンピュータ読み取り可能な媒体に関する。
【0002】
詳しくは、符号化されたデジタル情報信号あるいはそれを復号化して得られたデジタル情報信号である第1の情報信号を第2の情報信号に変換する際に、第2の情報信号における注目位置の情報データを入力パラメータの値に対応して生成し、その場合上記符号化されたデジタル情報信号と同様に符号化されたデジタル情報信号をパラメータの値に応じて処理して得られた信号に基づいて予め生成された所定データを用いて、第2の情報信号における注目位置の情報データを生成することによって、第2の情報信号によって得られる出力の特定の質のみを入力パラメータの値を変更して段階的に調整できるようにした情報信号処理装置等に係るものである。
【0003】
【従来の技術】
画像信号の圧縮符号化方式のひとつとしてMPEG2(Moving Picture Expert Group phase 2) による符号化方式が用いられている。MPEG2による送受信または記録再生システムでは、画像信号に対してMPEG2による圧縮符号化処理を施して送信または記録し、また、受信または再生した画像信号に対して、MPEG2による圧縮符号化処理に対応する伸長復号化を施すことにより、元の画像信号を復元する。
【0004】
MPEG2による符号化処理では、符号化処理に汎用性を持たせ、また、符号化による圧縮効率を向上させるために、符号化された画像データと共に、復号化処理用の付加情報を伝送している。付加情報は、MPEG2のストリーム中のヘッダ中に挿入され、復号化装置に対して伝送される。
【0005】
MPEGに限らず、復号化によって得られる画像信号の特性は、適用される符号化復号化方式によって大きく異なる。例えば輝度信号、色差信号、三原色信号などの信号種類に応じてその物理的な特性(周波数特性等)が大きく相違する。この相違が符号化復号化処理を経た復号信号にも残ることになる。また、一般的に画像の符号化復号化処理では、時空間の間引き処理を導入することによって、符号化の対象となる画素数を低減することが多い。間引き方法によって、画像の時空間解像度の特性が大きく相違する。さらに、時空間解像度特性の相違が小さい場合においても、符号化における圧縮率(伝送レート)の条件によってS/N、符号化歪み量などの画質特性が大きく異なる。
【0006】
本出願人は、先に、クラス分類適応処理を提案している(特開平8−51599号参照)。これは、予め、学習処理において、実際の画像信号(教師信号および生徒信号)を使用して予測係数をクラス毎に求め、蓄積しておき、実際の画像変換処理では、入力画像信号からクラスを求め、クラスに対応する予測係数と入力画像信号の複数の画素値との予測演算によって、出力画素値を求めるものである。クラスは、作成する画素の空間的、時間的近傍の画素値の分布、波形に対応して決定される。実際の画像信号を使用して予測係数を演算し、またクラス毎に予測係数を演算することによって、単なる補間フィルタの処理と比較して、入力画像信号以上の解像度を創造することができる。
【0007】
上述のクラス分類適応処理では、出力画像信号によって得られる画像の解像度は固定されており、従来のコントラストやシャープネス等の調整のように、画像内容等に応じて、ユーザの好みの解像度とすることができなかった。そこで、本出願人は、さらに、ユーザが入力パラメータ値を変更して解像度を任意に調整し得るものを提案した(特開2001−238185号、特願2000−348730号参照)。
【0008】
【発明が解決しようとする課題】
例えば、MPEG2のストリームを復号化して得られたデジタル画像信号を入力画像信号としてクラス分類適用処理を施し、解像度、ブロック歪、モスキート歪、ノイズ除去度等を、入力パラメータ値を変更して任意に調整することが考えられる。この場合に、解像度、ブロック歪、モスキート歪、ノイズ除去度等のうち、特定の質のみを入力パラメータの値を変更して段階的に調整できれば便利である。
【0009】
この発明の目的は、符号化されたデジタル情報信号あるいはそれを復号化して得られたデジタル情報信号である第1の情報信号を第2の情報信号に変換する際に、第2の情報信号によって得られる出力の特定の質のみを入力パラメータの値を変更して段階的に調整し得る情報信号処理装置等を提供することにある。
【0010】
【課題を解決するための手段】
この発明に係る情報信号処理装置は、符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換する情報信号処理装置であって、上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、上記第1のデータ選択手段で選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出するクラス検出手段と、上記第2の情報信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値が入力されるパラメータ入力手段と、上記クラス検出手段で検出されたクラスおよび上記パラメータ入力手段に入力されたパラメータの値に対応して、上記注目位置の情報データを生成する情報データ生成手段とを備え、上記情報データ生成手段は、上記複数種類のパラメータに対応して予め生成された係数種データと、上記パラメータ入力手段により入力されたパラメータの値とを演算して係数データを求めて当該係数データを上記クラス毎に格納し、当該係数データを当該クラスを参照して選択する係数データ発生手段と、上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第2のデータ選択手段と、上記第2のデータ選択手段で選択された複数の第2の情報データと上記係数データ発生手段で選択された係数データとを演算して、上記注目位置の情報データを求める演算手段とを備えることを特徴とするものである。
【0011】
また、この発明に係る情報信号処理方法は、符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換する情報信号処理方法であって、上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、上記第1のステップで選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出する第2のステップと、上記第2の情報信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値を取得する第3のステップと、上記第2のステップで検出されたクラスおよび上記第2のステップで取得されたパラメータの値に対応して、上記注目位置の情報データを生成する第4のステップとを備え、上記第4のステップでは、上記複数種類のパラメータに対応して予め生成された係数種データと、上記第3のステップで入力したパラメータの値とを演算して係数データを求めて当該係数データを上記クラス毎に格納し、当該係数データを当該クラスを参照して選択する第5のステップと、上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第6のステップと、上記第6のステップで選択された複数の第2の情報データと、上記第5のステップで上記クラスを参照して選択された係数データとを演算して上記注目位置の情報データを求める第7のステップとを有することを特徴とするものである。
【0012】
また、この発明に係るプログラムは、上述の情報信号処理方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。
【0015】
この発明において、複数の情報データからなる第1の情報信号は、符号化されたデジタル情報信号を復号化することによって生成されたものである。この第1の情報信号に基づいて、第2の情報信号における注目位置の周辺に位置する複数の第1の情報データが選択され、その複数の第1の情報データに基づいて、上記注目位置の情報データが属するクラスが検出される。例えば、複数の第1の情報データのレベル分布パターンが検出され、このレベル分布パターンに基づいて上記注目位置の情報データが属するクラスが検出される。情報信号は、例えば画像信号や音声信号である。
【0016】
ここで、符号化されたデジタル情報情報信号に、このデジタル情報信号を復号化する際に用いられる付加情報が付加されている場合、上述した複数の第1の情報データと共にこの付加情報に基づいてクラスを検出することで、より細かなクラス分けを行うことができ、情報データの生成精度を高めることができる。
【0017】
パラメータ入力手段には、第2の情報信号によって得られる出力の質を定めるパラメータの値が入力される。例えば、符号化されたデジタル情報信号がMPEG2ストリームであるとき、入力されるパラメータの値により、解像度、ブロック歪、モスキートノイズ、ノイズ抑圧度等が定められる。
【0018】
上述したように検出されたクラスおよび入力されたパラメータの値に対応して、注目位置の情報データが生成される。この場合、符号化されたデジタル情報信号をパラメータの値に応じて処理して得られた信号に基づいて予め生成された所定データを用いて、注目位置の情報データが生成される。
【0019】
例えば、クラス毎に予め求められた推定式で用いられる係数データを生成するための生成式における係数データである、上述所定データとしての係数種データが予め記憶手段に記憶されており、この係数種データと入力されたパラメータの値とを用いて、検出されたクラスおよび入力されたパラメータの値に対応した推定式の係数データが発生されると共に、第1の情報信号から第2の情報信号における注目位置の周辺に位置する複数の第2の情報データが選択され、この係数データと複数の第2の情報データとから、推定式を用いて、注目位置の情報データが生成される。
【0020】
また例えば、クラスおよびパラメータの値の組み合わせ毎に予め生成された、上述所定データとしての推定式の係数データが記憶手段に記憶されており、この記憶手段より検出されたクラスおよび入力されたパラメータの値に対応した推定式の係数データが読み出されると共に、第1の情報信号から第2の情報信号における注目位置の周辺に位置する複数の第2の情報データが選択され、この係数データと複数の第2の情報データとから、推定式を用いて、上記注目位置の情報データが生成される。
【0021】
また例えば、クラスおよびパラメータの値の組み合わせ毎に予め生成された、上述所定データとしての差分データが記憶手段に記憶されており、この記憶手段より検出されたクラスおよび入力されたパラメータの値に対応した差分データが読み出され、第1の情報信号を構成する複数の情報データのうち第2の情報信号における注目位置に対応した第2の情報データに、読み出された差分データが加算されて注目位置の情報データが生成される。
【0022】
また例えば、クラスおよびパラメータの値の組み合わせ毎に予め生成された、上述所定データとしての周波数係数の差分データが記憶手段に記憶されており、この記憶手段より検出されたクラスおよび入力されたパラメータの値に対応した差分データが読み出され、第1の情報信号を構成する複数の情報データのうち第2の情報信号における注目位置に対応した第2の情報データに対して直交変換が行われ、直交変換により得られる周波数係数に、読み出された差分データが加算され、さらにその加算出力に対して逆直交変換が行われて注目位置の情報データが生成される。
【0023】
上述した係数種データ、係数データ、差分データ、周波数係数の差分データは、例えば、それぞれパラメータの複数の値に対応して生成され、第1の情報信号に対応した複数の生徒信号と、第2の情報信号に対応した教師信号とを用いて予め生成される。そして例えば、生徒信号は、教師信号を符号化して得られたデジタル情報信号を復号化することで得られ、この復号化の過程でパラメータの値に応じて信号を変化させることで、当該パラメータの値に対応した生徒信号が得られる。
【0024】
例えば、符号化が直交変換(離散コサイン変換、ウォーブレット変換、離散サイン変換など)を伴う符号化である場合には、復号化の過程で、パラメータの値に応じて、逆直交変換を行う際に用いられる少なくとも周波数係数または逆変換基底のいずれかが変更される。
【0025】
周波数係数のうち全てのAC(交流)係数のゲインを同じ値として、パラメータの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。この場合には、上述の第2の情報信号によって得られる出力における解像度を、パラメータの値に応じて段階的に調整可能となる。
【0026】
周波数係数が量子化されているとき、この周波数係数のうちDC(直流)係数の量子化ステップをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。この場合には、上述の第2の情報信号によって得られる出力におけるブロック歪を、パラメータの値に応じて段階的に調整可能となる。
【0027】
周波数係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。この場合には、上述の第2の情報信号によって得られる出力におけるモスキートノイズを、パラメータの値に応じて段階的に調整可能となる。
【0028】
また、少なくとも周波数係数または逆変換基底にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。この場合には、上述の第2の情報信号によって得られる出力におけるノイズ抑圧度を、パラメータの値に応じて段階的に調整可能となる。
【0029】
このように、符号化されたデジタル情報信号をパラメータの値に応じて処理して得られた信号に基づいて予め生成された所定データ(係数種データ、係数データ、差分データ、周波数係数の差分データなど)を用いて、注目位置の情報データを生成することにより、第2の情報信号によって得られる出力の特定の質のみを入力パラメータの値を変更して段階的に調整可能となる。
【0103】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのデジタル放送受信機100の構成を示している。
このデジタル放送受信機100は、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号を受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。
【0104】
また、デジタル放送受信機100は、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106とを有している。
【0105】
また、デジタル放送受信機100は、チューナ部106より出力されるMPEG2ストリームを復号化して画像信号Vaを得るMPEG2復号化器107と、このMPEG2復号化器107より出力される画像信号を一時的に格納するバッファメモリ108とを有している。
【0106】
また、デジタル放送受信機100は、バッファメモリ108に記憶されている画像信号Vaを、ユーザ所望の画質を提示する画像信号Vbに変換する画像信号処理部110と、この画像信号処理部110より出力される画像信号による画像を表示するディスプレイ部111とを有している。ディスプレイ部111は、例えばCRT(cathode-ray tube)ディスプレイ、あるいはLCD(liquid crystal display)等の表示器で構成されている。
【0107】
図1に示すデジタル放送受信機100の動作を説明する。
チューナ部106より出力されるMPEG2ストリームはMPEG2復号化器107に供給されて復号化される。そして、この復号化器107より出力される画像信号Vaは、バッファメモリ108に供給されて一時的に格納される。
このようにバッファメモリ108に記憶されている画像信号Vaは画像信号処理部110に供給され、ユーザ所望の画質を提示する画像信号Vbに変換される。この画像信号処理部110では、画像信号Vaを構成する画素データから、画像信号Vbを構成する画素データが得られる。
画像信号処理部110より出力される画像信号Vbはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vbによる画像が表示される。
【0108】
ユーザは、リモコン送信機200の操作によって、上述したようにディスプレイ部111の画面上に表示される画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を調整できる。画像信号処理部110では、後述するように、画像信号Vbの画素データが推定式によって算出される。この推定式の係数データとして、ユーザのリモコン送信機200の操作によって変更されたパラメータpの値に対応したものが、このパラメータpを含む生成式によって生成されて使用される。これにより、画像信号処理部110より出力される画像信号Vbによる画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度は、変更されたパラメータpの値に対応したものとなる。
【0109】
次に、画像信号処理部110の詳細を説明する。
画像信号処理部110は、バッファメモリ108に記憶されている画像信号Vaより、画像信号Vbにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する第1、第2のタップ選択回路121,122を有している。
【0110】
第1のタップ選択回路121は、予測に使用する予測タップの複数の画素データを選択的に取り出すものである。第2のタップ選択回路122は、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すものである。予測タップおよびクラスタップの画素データは、それぞれ画像信号Vbにおける注目位置の周辺に位置する画素データである。
ここで、注目位置の周辺とは、注目位置に対して空間的(水平方向、垂直方向)および時間的(フレーム方向)に近い位置であることを意味している。
【0111】
図2Aは予測タップの配置の一例を示し、図2Bはクラスタップの配置の一例を示している。これらの図2A,Bにおいて、「○」はタップの位置を示し、「×」は注目位置を示している。本実施の形態においては、現フィールド(実線図示)と前フィールド(破線図示)における7個の画素データが、予測タップの画素データとして取り出され、また現フィールド(実線図示)と前フィールド(破線図示)における13個の画素データが、クラスタップの画素データとして取り出される。
【0112】
図1に戻って、また、画像信号処理部110は、第2のタップ選択回路122で選択的に取り出されるクラスタップの画素データから特徴量を抽出する特徴量抽出部123を有している。特徴量抽出部123では、クラスタップの画素データに1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施すことによって、空間クラスを示す第1のクラス情報としてのADRCコードを生成する。
【0113】
ADRCは、クラスタップの複数の画素データの最大値および最小値を求め、最大値と最小値の差であるダイナミックレンジを求め、ダイナミックレンジに適応して各画素値を再量子化するものである。1ビットのADRCの場合、クラスタップの複数の画素値の平均値より大きいか、小さいかでその画素値が1ビットに変換される。ADRC処理は、画素値のレベル分布を表すクラスの数を比較的小さなものにするための処理である。したがって、ADRCに限らず、VQ(ベクトル量子化)等の画素値のビット数を圧縮する符号化を使用するようにしてもよい。
【0114】
また、画像信号処理部110は、付加情報クラス生成部124を有している。この付加情報クラス生成部124は、MPEG2ストリームを復号化する際に用いられる付加情報に基づいて、付加情報クラスを示す第2のクラス情報を生成する。本実施の形態において、この付加情報は、MPEG復号化器107でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)である。
【0115】
また、画像信号処理部110は、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLを生成するクラスコード生成部125を有している。
【0116】
また、画像信号処理部110は、係数メモリ126を有している。この係数メモリ126は、後述する推定予測演算回路127で使用される推定式で用いられる複数の係数データWi(i=1〜n)を、クラス毎に、格納するものである。この係数データWiは、画像信号Vaを画像信号Vbに変換するための情報である。係数メモリ126には上述したクラスコード生成部125より出力されるクラスコードCLが読み出しアドレス情報として供給され、この係数メモリ126からはクラスコードCLに対応した推定式の係数データWiが読み出されて、推定予測演算回路127に供給される。
【0117】
また、画像信号処理部110は、情報メモリバンク128を有している。推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vbにおける注目位置の画素データyが演算される。(1)式のnは、第1のタップ選択回路121で選択される予測タップの数を表している。
【0118】
【数1】

Figure 0004140259
【0119】
この推定式の係数データWiは、(2)式に示すように、パラメータpを含む生成式によって生成される。情報メモリバンク128には、この生成式における係数データである係数種データwi0〜wi3が、クラス毎に、格納されている。
Wi=wi0+wi1p+wi22+wi33 ・・・(2)
【0120】
また、画像信号処理部110は、各クラスの係数種データwi0〜wi3およびパラメータpの値とを用い、(2)式によって、クラス毎に、パラメータpの値に対応した推定式の係数データWi(i=1〜n)を生成する係数生成回路129を有している。この係数生成回路129には、情報メモリバンク128より、上述した各クラスの係数種データwi0〜wi3がロードされる。また、この係数生成回路129には、システムコントローラ101より、パラメータpの値が供給される。
【0121】
この係数生成回路129で生成される各クラスの係数データWi(i=1〜n)は、上述した係数メモリ126に格納される。この係数生成回路129における各クラスの係数データWiの生成は、例えば各垂直ブランキング期間で行われる。これにより、ユーザのリモコン送信機200の操作によってパラメータpの値が変更されても、係数メモリ126に格納される各クラスの係数データWiを、そのパラメータpの値に対応したものに即座に変更でき、ユーザによる解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度等の調整がスムーズに行われる。
【0122】
ここで、上述したように情報メモリバンク128に格納されている係数種データwi0〜wi3についてさらに説明する。この係数種データwi0〜wi3は、上述したMPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化された、MPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成される。
【0123】
すなわち、この係数種データwi0〜wi3は、それぞれパラメータpの複数の値に応じて生成され、画像信号Vaに対応した複数の生徒信号と、画像信号Vbに対応した教師信号とを用いて予め生成される。この場合、生徒信号は、教師信号をMPEG2符号化して得られたMPEG2ストリームを復号化することで得られ、この復号化の過程でパラメータpの値に応じて信号を変化させることで、当該パラメータpの値に対応した生徒信号が得られる。本実施の形態においては、パラメータpの値に応じて、逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。
【0124】
例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られた複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vbによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能となる。
【0125】
また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られた複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vbによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能となる。
【0126】
また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られた複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vbによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能となる。
【0127】
また例えば、少なくともDCT係数または逆変換基底にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られた複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vbによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能となる。
【0128】
また、画像信号処理部110は、第1のタップ選択回路121で選択的に取り出される予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vbにおける注目位置の画素データyを演算する推定予測演算回路127を有している。
【0129】
次に、画像信号処理部110の動作を説明する。
バッファメモリ108に記憶されている画像信号Vaより、第2のタップ選択回路122で、作成すべき画像信号Vbにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
【0130】
MPEG2復号化器107でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部124に供給される。この付加情報クラス生成部124では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。
【0131】
そして、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報はクラスコード生成部125に供給される。このクラスコード生成部125では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。
【0132】
このクラスコードCLは、画像信号Vbにおける注目位置の画素データが属するクラスの検出結果を表している。このクラスコードCLは、係数メモリ126に読み出しアドレス情報として供給される。係数メモリ126には、例えば各垂直ブランキング期間に、係数生成回路129で、ユーザによって調整されたパラメータpの値に対応して、クラス毎に、係数種データwi0〜wi3を用いて推定式の係数データWi(i=1〜n)が求められて格納される((2)式参照)。
【0133】
係数メモリ126に上述したようにクラスコードCLが読み出しアドレス情報として供給されることで、この係数メモリ126からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路127に供給される。また、バッファメモリ108に記憶されている画像信号Vaより、第1のタップ選択回路121で、画像信号Vbにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0134】
推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとを用いて、推定式((1)式参照)に基づいて、作成すべき画像信号Vbにおける注目位置の画素データyが求められる。
【0135】
このように、画像信号処理部110では、パラメータpの値に対応した推定式の係数データWi(i=1〜n)が使用されて、画素データyが演算される。したがって、ユーザは、パラメータpの値を変更することで、画像信号Vbによる画像の解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を任意に調整できる。
【0136】
また、係数データWiを生成するための係数種データwi0〜wi3は、上述したMPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成されたものであり、画像信号Vbによる画像の特定の質のみ、例えば解像度のみ、ブロック歪のみ、モスキートノイズのみあるいはノイズ抑圧度のみを段階的に調整できる。
【0137】
次に、係数種データwの生成方法の一例について説明する。この例においては、上述した(2)式の生成式における係数データである係数種データwi0〜wi3を求める例を示すものとする。
ここで、以下の説明のため、(3)式のように、tj(j=0〜3)を定義する。
0=1,t1=p,t2=p2,t3=p3 ・・・(3)
この(3)式を用いると、(2)式は、(4)式のように書き換えられる。
【0138】
【数2】
Figure 0004140259
【0139】
最終的に、学習によって未定係数wijを求める。すなわち、クラス毎に、画像信号Vaに対応する生徒信号の画素データと、画像信号Vbに対応する教師信号の画素データとを用いて、二乗誤差を最小にする係数値を決定する。いわゆる最小二乗法による解法である。学習数をm、k(1≦k≦m)番目の学習データにおける残差をek、二乗誤差の総和をEとすると、(1)式および(2)式を用いて、Eは(5)式で表される。ここで、xikは生徒信号のi番目の予測タップ位置におけるk番目の画素データ、ykはそれに対応するk番目の教師信号の画素データを表している。
【0140】
【数3】
Figure 0004140259
【0141】
最小二乗法による解法では、(5)式のwijによる偏微分が0になるようなwijを求める。これは、(6)式で示される。
【0142】
【数4】
Figure 0004140259
【0143】
以下、(7)式、(8)式のように、Xipjq、Yipを定義すると、(6)式は、(9)式のように行列を用いて書き換えられる。
【0144】
【数5】
Figure 0004140259
【0145】
【数6】
Figure 0004140259
【0146】
この方程式は一般に正規方程式と呼ばれている。この正規方程式は、掃き出し法(Gauss-Jordanの消去法)等を用いて、wijについて解かれ、係数種データが算出される。
【0147】
図3は、上述した係数種データの生成方法の一例の概念を示している。画像信号Vbに対応した教師信号から、画像信号Vaに対応した複数の生徒信号を生成する。例えば、パラメータpを9段階に可変して、9種類の生徒信号を生成する。このようにして生成された複数の生徒信号と教師信号との間で学習を行って係数種データを生成する。
【0148】
図4は、上述したデジタル放送受信機100の情報メモリバンク128に格納される係数種データwi0〜wi3を生成するための係数種データ生成装置150の構成を示している。
【0149】
この係数種データ生成装置150は、画像信号Vbに対応した教師信号STが入力される入力端子151と、この教師信号に対して符号化を行ってMPEG2ストリームを得るMPE2符号化器152と、このMPEG2ストリームに対して復号化を行って生徒信号SSを得るMPEG2復号化器153とを有している。このMPEG2復号化器153には、パラメータpの値が入力される。
【0150】
この復号化器153では、復号化の過程で、パラメータpの値に応じて信号が変化するようにされ、当該パラメータpの値に対応した生徒信号が得られる。本実施の形態では、逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。
【0151】
ここで、DCTでは、画素値f(i,j)に対するDCT係数(周波数係数)F(u,v)は、(10)式で与えられる。一方、逆DCTでは、DCT係数(周波数係数)F(u,v)に対する画素値f(i,j)は、(11)式で与えられる。ここで、C(w)=1/√2(w=0)、C(w)=1(w≠0)である。このように、逆DCTにおいて、画素値f(i,j)は、DCT係数(周波数係数)と逆変換基底との積和演算で求められる。
【0152】
【数7】
Figure 0004140259
【0153】
例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。ここで、元のAC係数をAC[m]、ゲインをgainとすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]*gainとなる。この場合、各AC係数の間の相関関係は保持できることから、このようにして得られる複数の生徒信号を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vbによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能なものとなる。
【0154】
また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。ここで、元のDC係数をDC[m]、元の量子化ステップをQst、新たな量子化ステップをnewQstとすると、新たなDC係数をnewDC[m]は、newDC[m]={DC[m]*Qst/newQst}となる。{}は整数演算を表している。この場合、DC係数の変動を操作可能となり、このようにして得られる複数の生徒信号を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vbによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能なものとなる。
【0155】
また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。ここで、元のAC係数をAC[m]、ゲインをgain[m]とすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]*gain[m]となる。この場合、各AC係数の間の相関関係を段階的に崩すものであり、このようにして得られる複数の生徒信号を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vbによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能なものとなる。
【0156】
また例えば、少なくともDCT係数または逆変換基底にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。元のAC係数をAC[m]、ランダムノイズをrdmNとすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]+rdmNとなる。同様に、元のDC係数をDC[m]、ランダムノイズをrdmNとすると、新たなDC係数newDC[m]は、newDC[m]=DC[m]+rdmNとなる。また同様に、元の基底をREF[m]、ランダムノイズをrdmNとすると、新たな基底newREF[m]は、newREF=REF[m]+rdmNとなる。この場合、ランダムノイズのレベルを段階的に切り換えることにより、それによって得られる複数の生徒信号を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vbによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能なものとなる。
【0157】
図6は、MPEG2復号化器153の構成を示している。
この復号化器153は、MPEG2ストリームが入力される入力端子181と、この入力端子181に入力されたMPEG2ストリームを一時的に格納するストリームバッファ182とを有している。
【0158】
また、この復号化器153は、ストリームバッファ182に格納されているMPEG2ストリームより周波数係数としてのDCT(Discrete Cosine Transform:離散コサイン変換)係数を抽出する抽出回路183と、この抽出回路183で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路184とを有している。
【0159】
また、この復号化器153は、ストリームバッファ182に格納されているMPEG2ストリームより量子化特性指定情報を抽出する抽出回路185と、この抽出回路185で抽出される量子化特性指定情報に基づいて、可変長復号化回路184より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路186と、逆量子化回路186より出力されるDCT係数に対して逆DCTを行う逆DCT回路187とを有している。
【0160】
また、復号化器153は、Iピクチャ(Intra-Picture)およびPピクチャ(Predictive-Picture)の画像信号をメモリ(図示せず)に記憶すると共に、これらの画像信号を用いて逆DCT回路187からPピクチャまたはBピクチャ(Bidirectionally predictive-Picture)の画像信号が出力されるとき、対応する参照画像信号Vrefを生成して出力する予測メモリ回路188を有している。
【0161】
また、復号化器153は、逆DCT回路187からPピクチャまたはBピクチャの画像信号が出力されるとき、その画像信号に予測メモリ回路188で生成された参照画像信号Vrefを加算する加算回路189を有している。なお、逆DCT回路187からIピクチャの画像信号が出力されるとき、予測メモリ回路188から加算回路189に参照画像信号Vrefは供給されず、従って加算回路189からは逆DCT回路187より出力されるIピクチャの画像信号がそのまま出力される。
【0162】
また、復号化器153は、加算回路189より出力されるIピクチャおよびPピクチャの画像信号を予測メモリ回路188に供給してメモリに記憶させると共に、この加算回路189より出力される各ピクチャの画像信号を正しい順に並べ直して出力するピクチャ選択回路190と、このピクチャ選択回路190より出力される画像信号を出力する出力端子191とを有している。
【0163】
また、復号化器153は、ストリームバッファ182に格納されているMPEG2ストリームより符号化制御情報、すなわちピクチャ情報PI、動きベクトル情報MIを抽出する抽出回路192と、この符号化制御情報を出力する出力端子193とを有している。この抽出回路192で抽出される動きベクトル情報MIは予測メモリ回路188に供給され、予測メモリ回路188ではこの動きベクトル情報MIを用いて参照画像信号Vrefを生成する際に動き補償が行われる。また、抽出回路192で抽出されるピクチャ情報PIは予測メモリ回路188、ピクチャ選択回路190に供給され、これら予測メモリ回路188、ピクチャ選択回路190ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。
【0164】
図6に示すMPEG2復号化器153の動作を説明する。
ストリームバッファ182に記憶されているMPEG2ストリームが抽出回路183に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路184に供給されて復号化される。そして、この可変長復号化回路184より出力される量子化DCT係数が逆量子化回路186に供給されて逆量子化が施される。
【0165】
逆量子化回路186より出力されるDCT係数に対して逆DCT回路183で逆DCTが施されて各ピクチャの画像信号が得られる。この各ピクチャの画像信号は加算回路189を介してピクチャ選択回路190に供給される。この場合、PピクチャおよびBピクチャの画像信号に対しては、加算回路189で予測メモリ回路188より出力される参照画像信号Vrefが加算される。そして、各ピクチャの画像信号は、ピクチャ選択回路190で正しい順に並べ直されて出力端子191に出力される。
【0166】
図4に戻って、また、係数種データ生成装置150は、MPEG2復号化器153より出力される生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する第1のタップ選択回路154および第2のタップ選択回路155を有している。これら第1、第2のタップ選択回路154,155は、それぞれ上述した画像信号処理部110の第1,第2のタップ選択回路121,122と同様に構成される。
【0167】
また、係数種データ生成装置150は、第2のタップ選択回路155で選択的に取り出されるクラスタップの画素データから特徴量を抽出する特徴量抽出部156を有している。この特徴量抽出部156は、上述した画像信号処理部110の特徴量抽出部123と同様に構成され、空間クラスを示す第1のクラス情報としてのADRCコードを生成する。
【0168】
また、係数種データ生成装置150は、MPEG2復号化器153でMPEG2ストリームより抽出される符号化情報(ピクチャ情報PI、動きベクトル情報MI)に基づいて、付加情報クラスを示す第2のクラス情報を生成する付加情報クラス生成部157を有している。この付加情報クラス生成部157は、上述した画像信号処理部110の付加情報クラス生成部124と同様に構成される。
【0169】
また、係数種データ生成装置150は、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部157で生成される第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLを生成するクラスコード生成部158を有している。このクラスコード生成部158は、上述した画像信号処理部110のクラスコード生成部125と同様に構成される。このクラスコードCLは、教師信号STにおける注目位置の画素データyの属するクラスを示すものである。
【0170】
また、係数種データ生成装置150は、入力端子151に供給される教師信号STの時間調整を行うための遅延回路159と、この遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとから、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)を生成する正規方程式生成部160を有している。
【0171】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、パラメータpの値に応じてMPEG2復号化器153で複数の生徒信号SSが順次生成されていき、教師信号と各生徒信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部160では、パラメータpの値が異なる多くの学習データが登録された正規方程式が生成され、係数種データwi0〜wi3を求めることが可能となる。
【0172】
また、係数種データ生成装置150は、正規方程式生成部160で、クラス毎に生成された正規方程式のデータが供給され、当該正規方程式を解いて、クラス毎に、係数種データwi0〜wi3を求める係数種データ決定部161と、この求められた係数種データを格納する係数種メモリ162とを有している。係数種データ決定部161では、正規方程式が例えば掃き出し法などによって解かれて、係数種データが求められる。
【0173】
図4に示す係数種データ生成装置150の動作を説明する。
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてこの教師信号STに対してMPEG2符号化器152で、符号化が施されてMPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。
【0174】
このMPEG2復号化器153には、パラメータpの値が入力され、復号化の過程で、当該パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じて逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。これにより、パラメータpの値に対応した生徒信号SSが得られる。
【0175】
また、MPEG2復号化器153より出力される生徒信号SSより、第2のタップ選択回路155で、教師信号STにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップの画素データに基づいて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
【0176】
また、MPEG2復号化器153でMPEG2ストリームより抽出される符号化情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部157に供給される。この付加情報クラス生成部157では、符号化情報に基づいて付加情報クラスを示す第2のクラス情報が生成される。
【0177】
そして、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)と、付加情報クラス生成部157で生成される第2のクラス情報は、それぞれクラスコード生成部158に供給される。このクラスコード生成部158では、第1のクラス情報および第2のクラス情報に基づいて、教師信号STにおける注目位置の画素データyが属するクラス(クラス分類の結果)を示すクラスコードCLが生成される。
【0178】
また、MPEG復号化器153より出力される生徒信号SSより、第1のタップ選択回路154で、教師信号STにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0179】
そして、遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとを用いて、正規方程式生成部160では、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)が生成される。
【0180】
そして、係数種データ決定部161で各正規方程式が解かれ、クラス毎の係数種データwi0〜wi3が求められ、それらの係数種データwi0〜wi3は係数種メモリ162に格納される。
【0181】
このように、図4に示す係数種データ生成装置150においては、図1の画像信号処理部110の情報メモリバンク128に格納される、クラス毎の、推定式((1)式参照)で用いられる係数データWiを求めるための生成式((2)式参照)における係数データである係数種データwi0〜wi3を生成することができる。
【0182】
次に、係数種データの生成方法の他の例について説明する。この例においても、上述した(2)式の生成式における係数データである係数種データwi0〜wi3を求める例を示すものとする。
図7は、この例の概念を示している。教師信号から複数の生徒信号を生成する。例えば、パラメータpの値を9段階に可変して、9種類の生徒信号を生成する。このようにして生成された各生徒信号と教師信号との間で学習を行って、(1)式の推定式の係数データWiを生成する。そして、各生徒信号に対応して生成された係数データWiを使用して、(2)式の生成式における係数データである係数種データwi0〜wi3を生成する。
【0183】
まず、推定式の係数データの求め方を説明する。ここでは、(1)式の推定式の係数データWi(i=1〜n)を最小二乗法により求める例を示すものとする。
上述の、(1)式において、学習前は係数データW1 ,W2,‥‥,Wn は未定係数である。学習は、クラス毎に、複数の信号データに対して行う。学習データ数がmの場合、(1)式に従って、以下に示す(12)式が設定される。nは予測タップの数を示している。
k =W1 ×xk1+W2 ×xk2+‥‥+Wn ×xkn ・・・(12)
(k=1,2,‥‥,m)
m>nの場合、係数データW1 ,W2,‥‥,Wnは、一意に決まらないので、誤差ベクトルeの要素ekを、以下の式(13)で定義して、(14)式のe2を最小にする係数データを求める。いわゆる最小2乗法によって係数データを一意に定める。
k=yk−{w1×xk1+w2×xk2+‥‥+wn×xkn} ・・・(13)
(k=1,2,‥‥m)
【0184】
【数8】
Figure 0004140259
【0185】
(14)式のe2を最小とする係数データを求めるための実際的な計算方法としては、まず、(15)式に示すように、e2を係数データWi(i=1,2,・・・,n)で偏微分し、iの各値について偏微分値が0となるように係数データWiを求めればよい。
【0186】
【数9】
Figure 0004140259
【0187】
(15)式から係数データWiを求める具体的な手順について説明する。(16)式、(17)式のようにXji,Yi を定義すると、(15)式は、(18)式の行列式の形に書くことができる。
【0188】
【数10】
Figure 0004140259
【0189】
【数11】
Figure 0004140259
【0190】
(18)式は、一般に正規方程式と呼ばれるものである。この正規方程式を掃き出し法(Gauss-Jordanの消去法)等の一般解法で解くことにより、係数データWi(i=1,2,・・・,n)を求めることができる。
【0191】
次に、各生徒信号に対応して生成された係数データWiを使用した、係数種データの求め方を説明する。
パラメータpの値に対応した生徒信号を用いた学習による、あるクラスの係数データが、kpiになったとする。ここで、iは予測タップの番号である。このkpiから、このクラスの係数種データを求める。
【0192】
係数データWi(i=1〜n)は、係数種データwi0〜wi3を使って、上述した(2)式で表現される。ここで、係数データWiに対して最小二乗法を使用することを考えると、残差は、(19)式で表される。
【0193】
【数12】
Figure 0004140259
【0194】
ここで、tjは、上述の(3)式に示されている。(19)式に最小二乗法を作用させると、(20)式が得られる。
【0195】
【数13】
Figure 0004140259
【0196】
ここで、Xjk,Yjをそれぞれ(21)式、(22)式のように定義すると、(20)式は(23)式のように書き換えられる。この(23)式も正規方程式であり、この式を掃き出し法等の一般解法で解くことにより、係数種データwi0〜wi3を算出することができる。
【0197】
【数14】
Figure 0004140259
【0198】
図8は、図7に示す概念に基づいて係数種データを生成する係数種データ生成装置150Aの構成を示している。この図8において、図4と対応する部分には同一符号を付し、その詳細説明は省略する。
【0199】
係数種データ生成装置150Aは、遅延回路159で時間調整された教師信号STより得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとから、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((18)式参照)を生成する正規方程式生成部163を有している。
【0200】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、パラメータpの値に応じてMPEG2復号化器153で複数の生徒信号SSが順次生成されていき、教師信号と各生徒信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部163では、各生徒信号のそれぞれに対応して、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式が生成される。
【0201】
また、係数種データ生成装置150Aは、正規方程式生成部163で生成された正規方程式のデータが供給され、その正規方程式を解いて、各生徒信号にそれぞれ対応した、各クラスの係数データWiを求める係数データ決定部164と、パラメータpの値および各生徒信号にそれぞれ対応した係数データWiとを使用して、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((23)式参照)を生成する正規方程式生成部165とを有している。
【0202】
また、係数種データ生成装置150Aは、正規方程式生成部165でクラス毎に生成された正規方程式のデータが供給され、クラス毎に正規方程式を解いて、各クラスの係数種データwi0〜wi3を求める係数種データ決定部166と、この求められた係数種データwi0〜wi3を格納する係数種メモリ162とを有している。
図8に示す係数種データ生成装置150Aのその他は、図4に示す係数種データ生成装置150と同様に構成される。
【0203】
次に、図8に示す係数種データ生成装置150Aの動作を説明する。
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてこの教師信号STに対してMPEG2符号化器152で、符号化が施されてMPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。
【0204】
このMPEG2復号化器153には、パラメータpの値が入力され、復号化の過程で、当該パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じて逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。これにより、パラメータpの値に対応した生徒信号SSが得られる。
【0205】
また、MPEG2復号化器153より出力される生徒信号SSより、第2のタップ選択回路155で、教師信号STにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップの画素データに基づいて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
【0206】
また、MPEG2復号化器153でMPEG2ストリームより抽出される符号化情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部157に供給される。この付加情報クラス生成部157では、符号化情報に基づいて付加情報クラスを示す第2のクラス情報が生成される。
【0207】
そして、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)と、付加情報クラス生成部157で生成される第2のクラス情報は、それぞれクラスコード生成部158に供給される。このクラスコード生成部158では、第1のクラス情報および第2のクラス情報に基づいて、教師信号STにおける注目位置の画素データyが属するクラス(クラス分類の結果)を示すクラスコードCLが生成される。
【0208】
また、MPEG復号化器153より出力される生徒信号SSより、第1のタップ選択回路154で、教師信号STにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0209】
そして、遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとを用いて、正規方程式生成部163では、MPEG2復号化器153より出力される、パラメータpの複数の値にそれぞれ対応した複数の生徒信号SSについて、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((18)式参照)が生成される。
【0210】
そして、係数データ決定部164でその正規方程式が解かれ、複数の生徒信号SSのそれぞれ対応した、各クラスの係数データWiが求められる。正規方程式生成部165では、この複数の生徒信号SSのそれぞれ対応した各クラスの係数データWiを用いて、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((23)式参照)が生成される。
【0211】
そして、係数種データ決定部166でその正規方程式が解かれ、各クラスの係数種データwi0〜wi3が求められ、その係数種データwi0〜wi3は係数種メモリ162に格納される。
【0212】
このように、図8に示す係数種データ生成装置150Aにおいても、図1の画像信号処理部110の情報メモリバンク128に格納される、各クラスの係数種データwi0〜wi3を生成することができる。
【0213】
図1の画像信号処理部110では、係数データWi(i=1〜n)を生成するために(2)式の生成式を使用したが、次数の異なった多項式や、他の関数で表現される式でも実現可能である。
【0214】
また、図1の画像信号処理部110では、特徴量抽出部123より出力される空間クラスを示す第1のクラス情報(ADRCコード)の他に、付加情報クラス生成部124で生成された付加情報クラスを示す第2のクラス情報にも基づいて、クラスコード生成部125ではクラスコードCLを生成するものであるが、第1のクラス情報のみを用いてクラスコードCLを生成してもよい。ただし、第2のクラス情報をも加味してクラスコードCLを生成することで、より細かなクラス分けを行うことができ、画像信号Vbの画素データの生成精度を高めることができる。
【0215】
なお、図1の画像信号処理部110における処理を、例えば図9に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。
【0216】
まず、図9に示す画像信号処理装置300について説明する。この画像信号処理装置300は、装置全体の動作を制御するCPU301と、このCPU301の動作プログラムや係数種データ等が格納されたROM(read only memory)302と、CPU301の作業領域を構成するRAM(random access memory)303とを有している。これらCPU301、ROM302およびRAM303は、それぞれバス304に接続されている。
【0217】
また、画像信号処理装置300は、外部記憶装置としてのハードディスクドライブ(HDD)305と、フロッピー(登録商標)ディスク306をドライブするドライブ(FDD)307とを有している。これらドライブ305,307は、それぞれバス304に接続されている。
【0218】
また、画像信号処理装置300は、インターネット等の通信網400に有線または無線で接続する通信部308を有している。この通信部308は、インタフェース309を介してバス304に接続されている。
【0219】
また、画像信号処理装置300は、ユーザインタフェース部を備えている。このユーザインタフェース部は、リモコン送信機200からのリモコン信号RMを受信するリモコン信号受信回路310と、LCD(liquid crystal display)等からなるディスプレイ311とを有している。受信回路310はインタフェース312を介してバス304に接続され、同様にディスプレイ311はインタフェース313を介してバス304に接続されている。
【0220】
また、画像信号処理装置300は、画像信号Vaを入力するための入力端子314と、画像信号Vbを出力するための出力端子315とを有している。入力端子314はインタフェース316を介してバス304に接続され、同様に出力端子315はインタフェース317を介してバス304に接続される。
【0221】
ここで、上述したようにROM302に処理プログラムや係数種データ等を予め格納しておく代わりに、例えばインターネットなどの通信網400より通信部308を介してダウンロードし、ハードディスクやRAM303に蓄積して使用することもできる。また、これら処理プログラムや係数種データ等をフロッピー(登録商標)ディスク306で提供するようにしてもよい。
【0222】
また、処理すべき画像信号Vaを入力端子314より入力する代わりに、予めハードディスクに記録しておき、あるいはインターネットなどの通信網400より通信部308を介してダウンロードしてもよい。また、処理後の画像信号Vbを出力端子315に出力する代わり、あるいはそれと並行してディスプレイ311に供給して画像表示をしたり、さらにはハードディスクに格納したり、通信部308を介してインターネットなどの通信網400に送出するようにしてもよい。
【0223】
図10のフローチャートを参照して、図9に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。
まず、ステップST1で、処理を開始し、ステップST2で、例えば入力端子314より装置内に1フレーム分または1フィールド分の画像信号Vaを入力する。このように入力端子314より入力される画像信号Vaを構成する画素データはRAM303に一時的に格納される。なお、この画像信号Vaが装置内のハードディスクドライブ307に予め記録されている場合には、このドライブ307からこの画像信号Vaを読み出し、この画像信号Vaを構成する画素データをRAM303に一時的に格納する。
【0224】
そして、ステップST3で、画像信号Vaの全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST4で、処理を終了する。一方、処理が終わっていないときは、ステップST5に進む。
【0225】
このステップST5では、ユーザのリモコン送信機200の操作によって入力された画質指定値であるパラメータpの値を、例えばRAM303より取得する。そして、ステップST6で、パラメータPの値、各クラスの係数種データを用いて、生成式(例えば(2)式)によって、各クラスの推定式((1)式参照)の係数データWiを生成する。
【0226】
次に、ステップST7で、ステップST2で入力された画像信号Vaより、画像信号Vbにおける注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST8で、ステップST2で入力された1フレーム分または1フィールド分の画像信号Vaの画素データの全領域において画像信号Vbの画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST2に戻り、次の1フレーム分または1フィールド分の画像信号Vaの入力処理に移る。一方、処理が終了していないときは、ステップST9に進む。
【0227】
このステップST9では、ステップST7で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST10で、そのクラスコードCLに対応した係数データWiと予測タップの画素データを使用して、推定式により、画像信号Vbにおける注目位置の画素データを生成し、その後にステップST7に戻って、上述したと同様の処理を繰り返す。
【0228】
このように、図10に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0229】
なお、ステップST9では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、入力端子314からは画像信号Vaの他に、この画像信号Vaに関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)も入力されるようにし、図1の画像信号処理部110におけると同様に、この符号化制御情報をも用いてクラスコードCLを生成するようにしてもよい。
また、処理装置の図示は省略するが、図4の係数種データ生成装置150における処理を、ソフトウェアで実現することも可能である。
【0230】
図11のフローチャートを参照して、係数種データを生成するための処理手順を説明する。
まず、ステップST21で、処理を開始し、ステップST22で、学習に使われる、画質パターン(パラメータpの値で特定される)を選択する。そして、ステップST23で、全ての画質パターンに対して学習が終わったか否かを判定する。全ての画質パターンに対して学習が終わっていないときは、ステップST24に進む。
【0231】
このステップST24では、教師信号を1フレーム分または1フィールド分だけ入力する。そして、ステップST25で、教師信号の全フレームまたは全フィールドの処理が終了したか否かを判定する。終了したときは、ステップST22に戻って、次の画質パターンの選択を行って、上述したと同様の処理を繰り返す。一方、終了していないときは、ステップST26に進む。
【0232】
このステップST26では、ステップST24で入力された教師信号より、ステップST22で選択された画質パターンに基づいて、生徒信号を生成する。そして、ステップST27で、ステップST26で生成された生徒信号より、ステップST24で入力された教師信号における注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST28で、ステップST24で入力された教師信号の全領域において学習処理を終了しているか否かを判定する。学習処理を終了しているときは、ステップST24に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、処理が終了していないときは、ステップST29に進む。
【0233】
このステップST29では、ステップST27で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST30で、正規方程式((9)式参照)を生成する。その後に、ステップST27に戻る。
【0234】
また、ステップST23で、全ての画質パターンに対して学習が終わったときは、ステップST31に進む。このステップST31では、正規方程式を掃き出し法等で解くことによって、各クラスの係数種データを算出し、ステップST32で、その係数種データをメモリに保存し、その後にステップST33で、処理を終了する。
【0235】
このように、図11に示すフローチャートに沿って処理をすることで、図4に示す係数種データ生成装置150と同様の手法によって、係数種データを得ることができる。
【0236】
なお、ステップST29では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、図4の係数種データ生成装置150と同様に、生徒信号に関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)をも用いてクラスコードCLを生成するようにしてもよい。
また、処理装置の図示は省略するが、図8の係数種データ生成装置150Aにおける処理も、ソフトウェアで実現可能である。
【0237】
図12のフローチャートを参照して、係数種データを生成するための処理手順を説明する。
まず、ステップST41で、処理を開始し、ステップST42で、学習に使われる、画質パターン(パラメータpの値で特定される)を選択する。そして、ステップST43で、全ての画質パターンに対して学習が終わったか否かを判定する。全ての画質パターンに対して学習が終わっていないときは、ステップST44に進む。
【0238】
このステップST44では、教師信号を1フレーム分または1フィールド分だけ入力する。そして、ステップST45で、教師信号の全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST46で、ステップST44で入力された教師信号より、ステップST42で選択された画質パターンに基づいて、生徒信号を生成する。
【0239】
そして、ステップST47で、ステップST46で生成された生徒信号より、ステップST44で入力された教師信号における注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST48で、ステップST44で入力された教師信号の全領域において学習処理を終了しているか否かを判定する。学習処理を終了しているときは、ステップST44に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、学習処理を終了していないときは、ステップST49に進む。
【0240】
このステップST49では、ステップST47で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST50で、係数データを得るための正規方程式((18)式参照)を生成する。その後に、ステップST47に戻る。
【0241】
上述したステップST45で、処理が終了したときは、ステップST51で、ステップST50で生成された正規方程式を掃き出し法などで解いて、各クラスの係数データを算出する。その後に、ステップST42に戻って、次の画質パターンの選択を行って、上述したと同様の処理を繰り返し、次の画質パターンに対応した、各クラスの係数データを求める。
【0242】
また、上述のステップST43で、全ての画質パターンに対する係数データの算出処理が終了したときは、ステップST52に進む。このステップST52では、全ての画質パターンに対する係数データから、係数種データを求めるための正規方程式((23)式参照)を生成する。
【0243】
そして、ステップST53で、ステップST52で生成された正規方程式を掃き出し法等で解くことによって、各クラスの係数種データを算出し、ステップST54で、その係数種データをメモリに保存し、その後にステップST55で、処理を終了する。
【0244】
このように、図12に示すフローチャートに沿って処理をすることで、図8に示す係数種データ生成装置150Aと同様の手法によって、係数種データを得ることができる。
【0245】
なお、ステップST49では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、図8の係数種データ生成装置150Aと同様に、生徒信号に関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)をも用いてクラスコードCLを生成するようにしてもよい。
【0246】
次に、この発明の他の実施の形態について説明する。
図13は、他の実施の形態としてのデジタル放送受信機100Aの構成を示している。この図13において、図1と対応する部分には同一符号を付して示している。
【0247】
デジタル放送受信機100Aは、図1に示すデジタル放送受信機100の画像信号処理部110が画像信号処理部110Aに置き換えられたものであって、デジタル放送受信機100と同様の動作をする。
【0248】
画像信号処理部110Aの詳細を説明する。この画像信号処理部110Aにおいて、図1に示す画像信号処理部110と対応する部分には同一符号を付し、その詳細説明は省略する。
【0249】
この画像信号処理部110Aは、情報メモリバンク128Aを有している。この情報メモリバンク128Aには、クラスおよびパラメータpの値の組み合わせ毎に、係数データWi(i=1〜n)が予め格納されている。この係数データWiの生成方法については後述する。
【0250】
このように情報メモリバンク128Aに格納されている係数データWiも、上述した図1の画像信号処理部110の情報メモリバンク128に格納されている係数種データwi0〜wi3と同様に、MPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化された、MPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成される。
【0251】
すなわち、この係数データWiは、それぞれパラメータpの複数の値に応じて生成され、画像信号Vaに対応した複数の生徒信号と、画像信号Vbに対応した教師信号とを用いて予め生成される。
【0252】
この場合、生徒信号は、教師信号をMPEG2符号化して得られたMPEG2ストリームを復号化することで得られ、この復号化の過程でパラメータpの値に応じて信号を変化させることで、当該パラメータpの値に対応した生徒信号が得られる。この場合、パラメータpの値に応じて、逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。
【0253】
例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128Aに、このようにして得られる複数の生徒信号を用いて予め生成された係数データWiが格納されている場合には、上述の画像信号Vbによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能となる。
【0254】
また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128Aに、このようにして得られる複数の生徒信号を用いて予め生成された係数データWiが格納されている場合には、上述の画像信号Vbによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能となる。
【0255】
また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128Aに、このようにして得られる複数の生徒信号を用いて予め生成された係数データWiが格納されている場合には、上述の画像信号Vbによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能となる。
【0256】
また例えば、少なくともDCT係数または逆変換基底にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128Aに、このようにして得られる複数の生徒信号を用いて予め生成された係数種データWiが格納されている場合には、上述の画像信号Vbによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能となる。
【0257】
この画像信号処理部110Aの動作を説明する。
バッファメモリ108に記憶されている画像信号Vaより、第2のタップ選択回路122で、作成すべき画像信号Vbにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
【0258】
MPEG復号化器107でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部124に供給される。この付加情報クラス生成部124では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。
【0259】
そして、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報はクラスコード生成部125に供給される。このクラスコード生成部125では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。
【0260】
このクラスコードCLは、画像信号Vbにおける注目位置の画素データが属するクラスの検出結果を表している。このクラスコードCLは、係数メモリ126に読み出しアドレス情報として供給される。
【0261】
係数メモリ126には、例えば垂直ブランキング期間に、ユーザによって調整されたパラメータpの値に対応した、各クラスの係数データWiが、システムコントローラ101の制御によって、情報メモリバンク128Aよりロードされて格納される。
【0262】
なお、情報メモリバンク128Aに、調整されたパラメータpの値に対応した係数データWiが蓄えられていない場合には、その調整されたパラメータpの値の前後の値に対応した係数データWiを情報メモリバンク128Aより読み出し、それらを用いた補間演算処理によって、調整されたパラメータpの値に対応した係数データを得るようにしてもよい。
【0263】
係数メモリ126に上述したようにクラスコードCLが読み出しアドレス情報として供給されることで、この係数メモリ126からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路127に供給される。また、バッファメモリ108に記憶されている画像信号Vaより、第1のタップ選択回路121で、画像信号Vbにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0264】
推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとを用いて、推定式((1)式参照)に基づいて、作成すべき画像信号Vbにおける注目位置の画素データyが求められる。
【0265】
このように、画像信号処理部110Aでは、パラメータpの値に対応した推定式の係数データWi(i=1〜n)が使用されて、画素データyが演算される。したがって、ユーザは、パラメータpの値を変更することで、画像信号Vbによる画像の解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を任意に調整できる。
【0266】
また、この係数データWiは、上述したMPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化された、MPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成されたものであり、画像信号Vbによる画像の特定の質のみ、例えば解像度のみ、ブロック歪のみ、モスキートノイズのみあるいはノイズ抑圧度のみを段階的に調整できる。
【0267】
次に、係数データWi(i=1〜n)の生成方法について説明する。
上述では、係数種データの生成方法の他の例として、まずパラメータpの値を段階的に可変して得られる生徒信号毎に、それを用いた学習によって各クラスの係数データWiを生成し、次に生徒信号毎の係数データWiを使用して、各クラスの係数種データw10〜wn9を求めるものを説明した。情報メモリバンク128Aに予め蓄えられる、クラスおよびパラメータpの値の組み合わせ毎の係数データWiは、この係数種データの生成方法における、前半部分と同様の方法で生成することができる。
【0268】
図14は、係数データ生成装置170を示している。この係数データ生成装置170において、図8に示す係数種データ生成装置150Aと対応する部分には同一符号を付し、その詳細説明は省略する。
【0269】
この係数データ生成装置170では、係数メモリ167を有している。この係数メモリ167には、係数データ決定部164で決定された、パラメータpの各値に対応した、各クラスの係数データWiが記憶される。この係数データ生成装置170のその他は、図8に示す係数種データ生成装置150Aと同様に構成され、同様に動作する。
【0270】
このように、図14に示す係数データ生成装置170においては、図13の画像信号処理部110Aの情報メモリバンク128Aに格納される、クラスおよびパラメータpの値の組み合わせ毎の係数データWiを生成することができる。
【0271】
また、図13の画像信号処理部110Aにおける処理を、図1の画像信号処理部110における処理と同様に、例えば図9に示す画像信号処理装置300によって、ソフトウェアで実現することも可能である。この場合、ROM302等に、係数データが予め格納されて使用される。
【0272】
図15のフローチャートを参照して、図9に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。
まず、ステップST61で、処理を開始し、ステップS62で、例えば入力端子314より装置内に1フレーム分または1フィールド分の画像信号Vaを入力する。このように入力端子314より入力される画像信号Vaを構成する画素データはRAM303に一時的に格納される。なお、この画像信号Vaが装置内のハードディスクドライブ307に予め記録されている場合には、このドライブ307からこの画像信号Vaを読み出し、この画像信号Vaを構成する画素データをRAM303に一時的に格納する。
【0273】
そして、ステップST63で、画像信号Vaの全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST64で、処理を終了する。一方、処理が終わっていないときは、ステップST65に進む。
【0274】
このステップST65では、ユーザのリモコン送信機200の操作によって入力された画質指定値であるパラメータpの値を、例えばRAM303より取得する。そして、ステップST66で、取得されたパラメータpの値に基づいて、ROM302等からそのパラメータpの値に対応した、各クラスの係数データWiを読み出し、RAM303に一時的に格納する。
【0275】
次に、ステップST67で、ステップST62で入力された画像信号Vaより、画像信号Vbにおける注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST68で、ステップST62で入力された1フレームまたは1フィールド分の画像信号Vaの画素データの全領域において画像信号Vbの画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST62に戻り、次の1フレーム分または1フィールド分の画像信号Vaの入力処理に移る。一方、処理が終了していないときは、ステップST69に進む。
【0276】
このステップST69では、ステップST67で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST70で、そのクラスコードCLに対応した係数データWiと予測タップの画素データを使用して、推定式により、画像信号Vbにおける注目位置の画素データを生成し、その後にステップST67に戻って、上述したと同様の処理を繰り返す。
【0277】
このように、図15に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0278】
なお、ステップST69では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、入力端子314からは画像信号Vaの他に、この画像信号Vaに関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)も入力されるようにし、図13の画像信号処理部110Aにおけると同様に、この符号化制御情報をも用いてクラスコードCLを生成するようにしてもよい。
また、処理装置の図示は省略するが、図14の係数データ生成装置170における処理も、ソフトウェアで実現可能である。
【0279】
図16のフローチャートを参照して、係数データを生成するための処理手順を説明する。
まず、ステップST81で、処理を開始し、ステップST82で、学習に使われる、画質パターン(パラメータpの値で特定される)を選択する。そして、ステップST83で、全ての画質パターンに対して学習が終わったか否かを判定する。全ての画質パターンに対して学習が終わっていないときは、ステップST84に進む。
【0280】
このステップST84では、教師信号を1フレーム分または1フィールド分だけ入力する。そして、ステップST85で、教師信号の全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST86で、ステップST84で入力された教師信号より、ステップST82で選択された画質パターンに基づいて、生徒信号を生成する。
【0281】
そして、ステップST87で、ステップST86で生成された生徒信号より、ステップST84で入力された教師信号における注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST88で、ステップST84で入力された教師信号の全領域において学習処理を終了しているか否かを判定する。学習処理を終了しているときは、ステップST84に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、学習処理を終了していないときは、ステップST89に進む。
【0282】
このステップST89では、ステップST87で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST90で、係数データを得るための正規方程式((18)式参照)を生成する。その後に、ステップST87に戻る。
【0283】
上述したステップST85で、処理が終了したときは、ステップST91で、ステップST90で生成された正規方程式を掃き出し法などで解いて、各クラスの係数データを算出する。その後に、ステップST82に戻って、次の画質パターンの選択を行って、上述したと同様の処理を繰り返し、次の画質パターンに対応した、各クラスの係数データを求める。
【0284】
また、上述のステップST83で、全ての画質パターンに対する係数データの算出処理が終了したときは、ステップST92で、全ての画質パターンに対する各クラスの係数データをメモリに保存し、その後にステップST93で、処理を終了する。
【0285】
このように、図16に示すフローチャートに沿って処理をすることで、図14に示す係数データ生成装置170と同様の手法によって、係数データを得ることができる。なお、ステップST89では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、図14の係数データ生成装置170と同様に、生徒信号に関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)をも用いてクラスコードCLを生成するようにしてもよい。
【0286】
次に、この発明のさらに他の実施の形態について説明する。
図17は、他の実施の形態としてのデジタル放送受信機100Bの構成を示している。この図17において、図1と対応する部分には同一符号を付して示している。
【0287】
デジタル放送受信機100Bは、図1に示すデジタル放送受信機100の画像信号処理部110が画像信号処理部110Bに置き換えられたものであって、デジタル放送受信機100と同様の動作をする。
【0288】
画像信号処理部110Bの詳細を説明する。この画像信号処理部110Bにおいて、図1に示す画像信号処理部110と対応する部分には同一符号を付し、その詳細説明は省略する。
【0289】
この画像信号処理部110Bは、蓄積テーブル131を有している。この蓄積テーブル131には、クラスおよびパラメータpの値の組み合わせ毎に、差分データDFが予め格納されている。この差分データDFは、画素値の差分データあるいはDCT処理により得られるDCT係数(周波数係数)の差分データである。蓄積テーブル131には、クラスコード生成部125より出力されるクラスコードCLおよびシステムコントローラ101より出力されるパラメータpの値が読み出しアドレス情報として供給される。この蓄積テーブル131からは、クラスコードCLおよびパラメータpの値に対応した差分データDFが読み出されて、後述する加算部134に供給される。
【0290】
この蓄積テーブル131に格納されている差分データDFも、上述した図1の画像信号処理部110の情報メモリバンク128に格納されている係数種データwi0〜wi3と同様に、MPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化された、MPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成される。
【0291】
すなわち、この差分データDFは、それぞれパラメータpの複数の値に応じて生成され、画像信号Vaに対応した複数の生徒信号と、画像信号Vbに対応した教師信号とを用いて予め生成される。
【0292】
この場合、生徒信号は、教師信号をMPEG2符号化して得られたMPEG2ストリームを復号化することで得られ、この復号化の過程でパラメータpの値に応じて信号を変化させることで、当該パラメータpの値に対応した生徒信号が得られる。この場合、パラメータpの値に応じて、逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。
【0293】
例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。蓄積テーブル131に、このようにして得られる複数の生徒信号を用いて予め生成された差分データDFが格納されている場合には、上述の画像信号Vbによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能となる。
【0294】
また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。蓄積テーブル131に、このようにして得られる複数の生徒信号を用いて予め生成された差分データDFが格納されている場合には、上述の画像信号Vbによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能となる。
【0295】
また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。蓄積テーブル131に、このようにして得られる複数の生徒信号を用いて予め生成された差分データDFが格納されている場合には、上述の画像信号Vbによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能となる。
【0296】
また例えば、少なくともDCT係数または逆変換基底にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。蓄積テーブル131に、このようにして得られる複数の生徒信号を用いて予め生成された差分データDFが格納されている場合には、上述の画像信号Vbによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能となる。
【0297】
また、画像信号処理部100Bは、バッファメモリ108に記憶されている画像信号Vaに対してDCT処理を施してDCT係数を得るDCT回路132と、このDCT回路132より出力されるDCT係数がa側の固定端子に入力されると共に、そのb側の固定端子にバッファメモリ108より出力される画像信号Vaが入力される切換スイッチ133を有している。この切換スイッチ133は、蓄積テーブル131に格納されている差分データDFが、画素値の差分データであるときはb側に接続され、DCT処理により得られるDCT係数の差分データであるときはa側に接続される。
【0298】
また、画像信号処理部110Bは、切換スイッチ133の可動端子より出力される、画像信号Vbにおける注目位置に対応した画素データ(画素値あるいはDCT係数)xに、蓄積テーブル131より読み出される差分データDFを加算して、画像信号Vbにおける注目位置の画素データyを生成する加算部134を有している。
【0299】
また、画像信号処理部110Bは、加算部134の出力信号に対して逆DCT処理を施す逆DCT回路135と、この逆DCT回路135の出力信号がa側の固定端子に入力されると共に、そのb側の固定端子に加算部134の出力信号が入力される切換スイッチ136とを有している。この切換スイッチ136は、蓄積テーブル131に格納されている差分データDFが、画素値の差分データであるときはb側に接続され、DCT処理により得られるDCT係数の差分データであるときはa側に接続される。この切換スイッチ136の可動端子より出力される信号は画像信号Vbとしてディスプレイ部111に供給される。
【0300】
また、画像信号処理部110Bは、図1に示す画像信号処理部110における第2のタップ選択回路122に相当するタップ選択回路122Bを有している。このタップ選択回路122Bは、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すものである。
【0301】
ここで、蓄積テーブル131に格納されている差分データDFが画素値の差分データであるときは、このタップ選択回路122Bでは、画像信号Vbにおける注目位置の周辺に位置する複数の画素データがクラスタップの画素データとして選択的に取り出される。そして、クラスコード生成部125からは、当該画像信号Vbにおける注目位置の画素データ(1個)が属するクラスを示すクラスコードCLが生成される。そして、蓄積テーブル131からは、このクラスコードCLに基づいて、画像信号Vbにおける注目位置に対応した1個の差分データDFが読み出されて加算部134に供給される。
【0302】
一方、蓄積テーブル131に格納されている差分データDFがDCT処理により得られるDCT係数の差分データであるときは、このタップ選択回路122Bでは、画像信号Vaから、例えば画像信号Vbにおける注目画素ブロック(DCT処理の単位となるDCTブロックに対応)に対応する複数の画素データがクラスタップの画素データとして選択的に取り出される。そして、クラスコード生成部125からは、当該画像信号Vbにおける注目画素ブロックが属するクラスを示すクラスコードCLが生成される。そして、蓄積テーブル131からは、このクラスコードCLに基づいて、画素ブロック内の画素データ数に対応した複数個の差分データDFが読み出されて加算部134に供給される。
【0303】
この画像信号処理部110Bの動作を説明する。
まず、蓄積テーブル131に格納されている差分データDFが画素値の差分データである場合について説明する。この場合、切換スイッチ133,136はそれぞれb側に接続されている。
【0304】
バッファメモリ108に記憶されている画像信号Vaより、タップ選択回路122Bで、作成すべき画像信号Vbにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
【0305】
MPEG復号化器107でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部124に供給される。この付加情報クラス生成部124では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。
【0306】
そして、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報はクラスコード生成部125に供給される。このクラスコード生成部125では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。このクラスコードCLは、画像信号Vbにおける注目位置の画素データ(1個)が属するクラスを示すものとなる。
【0307】
このクラスコードCLは、蓄積テーブル131に読み出しアドレス情報として供給される。蓄積テーブル131からは、このクラスコードCLに基づいて、画像信号Vbにおける注目位置に対応した1個の差分データDFが読み出されて加算部134に供給される。
【0308】
また、バッファメモリ108に記憶されている画像信号Vaのうち、画像信号Vbにおける注目位置に対応した画素データxが切換スイッチ133のb側を介して加算部134に供給される。加算部134では、この画素データxに、蓄積テーブルより読み出される差分データDFが加算されて、画像信号Vbにおける注目位置の画素データyが生成される。そして、この画素データyが切換スイッチ136のb側を介して画像信号処理部110Bの出力信号として出力される。
【0309】
次に、蓄積テーブル131に格納されている差分データDFがDCT処理により得られるDCT係数の差分データである場合について説明する。この場合、切換スイッチ133,136はそれぞれa側に接続されている。
【0310】
バッファメモリ108に記憶されている画像信号Vaより、タップ選択回路122Bで、作成すべき画像信号Vbにおける注目画素ブロックに対応する複数の画素データがクラスタップの画素データとして選択的に取り出される。このクラスタップの画素データは特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
【0311】
MPEG復号化器107でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部124に供給される。この付加情報クラス生成部124では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。
【0312】
そして、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報はクラスコード生成部125に供給される。このクラスコード生成部125では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。このクラスコードCLは、画像信号Vbにおける注目画素ブロックが属するクラスを示すものとなる。
【0313】
このクラスコードCLは、蓄積テーブル131に読み出しアドレス情報として供給される。蓄積テーブル131からは、このクラスコードCLに基づいて、複数個の差分データDFが読み出されて加算部134に供給される。
【0314】
また、DCT回路132より得られる、画像信号Vbにおける注目画素ブロック(このブロック内の全ての画素データが注目位置の画素データとなる)に対応した、画像信号Vaの複数の画素データに対してDCT処理を施して得られたDCTブロックを構成する複数個のDCT係数xが切換スイッチ133のa側を介して加算部134に供給される。加算部134では、この複数個のDCT係数xに、蓄積テーブルより読み出される複数の差分データDFがそれぞれ加算されて、画像信号Vbにおける注目画素ブロックに対応したDCTブロックのDCT係数yが生成される。
【0315】
そして、画像信号Vbにおける各注目ブロックに対応して加算部134より順次出力される各DCTブロックの複数個のDCT係数yは逆DCT回路135に供給される。この逆DCT回路135では、各DCTブロックの複数のDCT係数yに対して逆DCT処理が施されてそれぞれ画素ブロックの画素データ(画素値)が得られる。このように逆DCT回路135より出力される画素データが切換スイッチ136のa側を介して画像信号処理部110Bの出力信号として出力される。
【0316】
このように、画像信号処理部110Bでは、パラメータpの値に対応した差分データDFが使用されて、画素データ(DCT係数)yが演算される。したがって、ユーザは、パラメータpの値を変更することで、画像信号Vbによる画像の解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を任意に調整できる。
【0317】
また、この差分データDFは、上述したMPEG2復号化器107に入力されるMPEG2ストリームと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた信号に基づいて予め生成されたものであり、画像信号Vbによる画像の特定の質のみ、例えば解像度のみ、ブロック歪のみ、モスキートノイズのみあるいはノイズ抑圧度のみを段階的に調整できる。
【0318】
図18は、図17の画像信号処理部110Bの蓄積テーブル131に格納すべき差分データDFを生成する差分データ生成装置210の構成を示している。この図18において、図4と対応する部分には同一符号を付し、その詳細説明は省略する。
【0319】
この差分データ生成装置210は、MPEG2復号化器153より出力される生徒信号SSに対してDCT処理を施してDCT係数を得るDCT回路171と、このDCT回路171より出力されるDCT係数がa側の固定端子に入力されると共に、そのb側の固定端子にMPEG2復号化器153より出力される生徒信号SSが入力される切換スイッチ172を有している。この切換スイッチ172は、後述する蓄積テーブル177に蓄積する差分データDFが、画素値の差分データであるときはb側に接続され、DCT処理により得られるDCT係数の差分データであるときはa側に接続される。
【0320】
また、差分データ生成装置210は、遅延回路159で時間調整された教師信号STに対してDCT処理を施して周波数係数を得るDCT回路173と、このDCT回路173より出力される周波数係数がa側の固定端子に入力されると共に、そのb側の固定端子に遅延回路159で時間調整された教師信号STが入力される切換スイッチ174を有している。この切換スイッチ174は、後述する蓄積テーブル177に蓄積する差分データDFが、画素値の差分データであるときはb側に接続され、DCT処理により得られるDCT係数の差分データであるときはa側に接続される。
【0321】
また、差分データ生成装置210は、切換スイッチ174の可動端子より出力される、教師信号STの注目位置の画素データ(画素値あるいはDCT係数)yから、切換スイッチ174の可動端子より出力される、当該教師信号STの注目位置に対応した画素データ(画素値あるいはDCT係数)xを差し引いて差分データdfを得る減算部175を有している。
【0322】
また、差分データ生成装置210は、減算部175より順次出力される差分データdfに対して、クラスコード生成部158より出力されるクラスコードCLおよびMPEG2復号化器153に入力されるパラメータpの値に基づいて、クラスおよびパラメータpの値の組み合わせ毎に、平均化処理を施し、その結果を蓄積テーブル177に差分データDFとして格納する蓄積制御部176を有している。
【0323】
また、差分データ生成装置210は、図4に示す係数種データ生成装置150における第2のタップ選択回路155に相当するタップ選択回路155Aを有している。このタップ選択回路155Aは、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すものである。
【0324】
ここで、蓄積テーブル177に格納する差分データDFが画素値の差分データであるときは、このタップ選択回路155Aでは、教師信号STにおける注目位置の周辺に位置する複数の画素データがクラスタップの画素データとして選択的に取り出される。そして、クラスコード生成部158からは、当該教師信号STにおける注目位置の画素データ(1個)が属するクラスを示すクラスコードCLが生成される。
【0325】
一方、蓄積テーブル177に格納する差分データDFがDCT処理により得られるDCT係数の差分データであるときは、このタップ選択回路155Aでは、生徒信号SSから、例えば教師信号STにおける注目画素ブロック(DCT処理の単位となるDCTブロックに対応)に対応する複数の画素データがクラスタップの画素データとして選択的に取り出される。そして、クラスコード生成部158からは、当該教師信号STにおける注目画素ブロックが属するクラスを示すクラスコードCLが生成される。
なお、図18に示す差分データ生成装置210のその他は、図4に示す係数種データ生成装置150と同様に構成される。
【0326】
次に、図18に示す差分データ生成装置210の動作を説明する。
まず、蓄積テーブル177に格納する差分データDFが画素値の差分データである場合について説明する。この場合、切換スイッチ172,174はそれぞれb側に接続されている。
【0327】
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてこの教師信号STに対してMPEG2符号化器152で、符号化が施されてMPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。
【0328】
このMPEG2復号化器153には、パラメータpの値が入力され、復号化の過程で、当該パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じて逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。これにより、パラメータpの値に対応した生徒信号SSが得られる。
【0329】
遅延回路159で時間調整された教師信号STのうち、注目位置の画素データyは切換スイッチ174のb側を介して減算部175に供給される。この減算部175には、MPEG2復号化器153より出力される生徒信号SSのうち、教師信号STにおける注目位置に対応した画素データxが切換スイッチ172のb側を介して供給される。そして、減算部175では、画素データyから画素データxが差し引かれて差分データdfが生成される。この減算部175より順次出力される教師信号STにおける各注目位置に対応した差分データdfは、蓄積制御部176に供給される。
【0330】
また、MPEG2復号化器153で得られる生徒信号SSより、タップ選択回路155Aで、教師信号STにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
【0331】
MPEG復号化器153でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部157に供給される。この付加情報クラス生成部157では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。
【0332】
そして、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部157で生成される第2のクラス情報はクラスコード生成部158に供給される。このクラスコード生成部158では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。このクラスコードCLは、教師信号STにおける注目位置の画素データ(1個)が属するクラスを示すものとなる。
【0333】
このクラスコードCLは、蓄積制御部176に供給される。また、この蓄積制御部176には、MPEG2復号化器153に入力されるパラメータpの値も供給される。蓄積制御部176は、減算部175より順次出力される差分データdfに対して、クラスコードCLおよびパラメータpの値に基づいて、クラスおよびパラメータpの組み合わせ毎に、平均化処理を施し、その結果を蓄積テーブル177に差分データDFとして格納する。
【0334】
次に、蓄積テーブル177に格納する差分データDFがDCT処理により得られるDCT係数の差分データである場合について説明する。この場合、切換スイッチ172,174はそれぞれa側に接続されている。
【0335】
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてこの教師信号STに対してMPEG2符号化器152で、符号化が施されてMPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。
【0336】
このMPEG2復号化器153には、パラメータpの値が入力され、復号化の過程で、当該パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じて逆離散コサイン変換(逆DCT)を行う際に用いられる少なくともDCT係数(周波数係数)または逆変換基底のいずれかが変更される。これにより、パラメータpの値に対応した生徒信号SSが得られる。
【0337】
DCT回路173より得られる、教師信号STにおける注目画素ブロック(このブロック内の全ての画素データが注目位置の画素データとなる)の複数の画素データに対してDCT処理を施して得られたDCTブロックの複数個のDCT係数yは切換スイッチ174のa側を介して減算部175に供給される。
【0338】
また、この減算部175には、DCT回路171より得られる、教師信号STにおける注目画素ブロックに対応した、生徒信号SSの複数の画素データに対してDCT処理を施して得られたDCTブロックの複数個のDCT係数xが切換スイッチ172のa側を介して供給される。そして、減算部175では、複数個のDCT係数yから複数個のDCT係数xがそれぞれ差し引かれて複数の差分データdfが生成される。この減算部175より順次出力される教師信号STにおける各注目画素ブロックに対応した複数の差分データdfは、蓄積制御部176に供給される。
【0339】
また、MPEG2復号化器153で得られる生徒信号SSより、タップ選択回路155Aで、教師信号STにおける注目画素ブロックに対応する複数の画素データがクラスタップの画素データとして選択的に取り出される。このクラスタップの画素データは特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
【0340】
MPEG復号化器153でMPEG2ストリームより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部157に供給される。この付加情報クラス生成部157では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。
【0341】
そして、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部157で生成される第2のクラス情報はクラスコード生成部158に供給される。このクラスコード生成部158では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。このクラスコードCLは、教師信号STにおける注目位置画素ブロックが属するクラスを示すものとなる。
【0342】
このクラスコードCLは、蓄積制御部176に供給される。また、この蓄積制御部176には、MPEG2復号化器153に入力されるパラメータpの値も供給される。蓄積制御部176は、減算部175より順次出力される複数の差分データdfのそれぞれに対して、クラスコードCLおよびパラメータpの値に基づいて、クラスおよびパラメータpの組み合わせ毎に、平均化処理を施し、その結果を蓄積テーブル177に複数の差分データDFとして格納する。
【0343】
このように、図18に示す差分データ生成装置210においては、図17の画像信号処理部110Bの蓄積テーブル131に格納される、クラスおよびパラメータpの値の組み合わせ毎の差分データDFを生成することができる。
【0344】
なお、図17の画像信号処理部110Bにおける処理も、例えば図9に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。この場合、ROM302等に、差分データが予め格納されて使用される。
【0345】
図19のフローチャートを参照して、図9に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。
まず、ステップST101で、処理を開始し、ステップS102で、例えば入力端子314より装置内に1フレーム分または1フィールド分の画像信号Vaを入力する。このように入力端子314より入力される画像信号Vaを構成する画素データはRAM303に一時的に格納される。なお、この画像信号Vaが装置内のハードディスクドライブ307に予め記録されている場合には、このドライブ307からこの画像信号Vaを読み出し、この画像信号Vaを構成する画素データをRAM303に一時的に格納する。
【0346】
そして、ステップST103で、画像信号Vaの全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST104で、処理を終了する。一方、処理が終わっていないときは、ステップST105に進む。
【0347】
このステップST105では、ユーザのリモコン送信機200の操作によって入力された画質指定値であるパラメータpの値を、例えばRAM303より取得する。そして、ステップST106で、ステップST102で入力された画像信号Vaより、画像信号Vbにおける注目位置に対応して、クラスタップの画素データを取得する。そして、ステップST107で、クラスタップの画素データからクラスコードCLを生成する。
【0348】
次に、ステップST108で、ステップST105で取得されたパラメータpの値およびステップST107で生成されたクラスコードCLに基づいて、ROM302等からそのパラメータpの値およびクラスコードCLに対応した差分データDFを読み出し、RAM303に一時的に格納する。
【0349】
次に、ステップST109で、画像信号Vaのうち、画像信号Vbにおける注目位置に対応した画素データxに、ステップST108で読み出された差分データDFを加算して、画像信号Vbにおける注目位置の画素データyを生成する。
【0350】
ここで、ROM302等に格納されている差分データDFがDCT処理により得られるDCT係数の差分データであるときは、加算結果である画素データyはDCT係数であるから、ステップST109では、さらに逆DCT処理を行う。また、その場合には、上述のステップST102で入力された画像信号Vaに対してDCT処理を施し、画像信号Vbにおける注目位置に対応した画素データxをDCT係数とする。
【0351】
次に、ステップST110で、ステップST102で入力された1フレーム分または1フィールド分の画像信号Vaの画素データの全領域において画像信号Vbの画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST102に戻り、次の1フレーム分または1フィールド分の画像信号Vaの入力処理に移る。一方、処理が終了していないときは、ステップST106に戻り、上述したと同様の処理を繰り返す。
【0352】
このように、図19に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0353】
なお、ステップST107では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、入力端子314からは画像信号Vaの他に、この画像信号Vaに関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)も入力されるようにし、図17の画像信号処理部110Bにおけると同様に、この符号化制御情報をも用いてクラスコードCLを生成するようにしてもよい。
また、処理装置の図示は省略するが、図18の差分データ生成装置210における処理も、ソフトウェアで実現可能である。
【0354】
図20のフローチャートを参照して、差分データを生成するための処理手順を説明する。
まず、ステップST121で、処理を開始し、ステップST122で、画質パターン(パラメータpの値で特定される)を選択する。そして、ステップST123で、全ての画質パターンに対し差分データDFの生成処理が終わったか否かを判定する。全ての画質パターンに対して差分データDFの生成処理が終わっていないときは、ステップST124に進む。
【0355】
このステップST124では、教師信号を1フレーム分または1フィールド分だけ入力する。そして、ステップST125で、教師信号の全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST126で、ステップST124で入力された教師信号より、ステップST122で選択された画質パターンに基づいて、生徒信号を生成する。
【0356】
そして、ステップST127で、ステップST126で生成された生徒信号より、ステップST124で入力された教師信号における注目位置に対応して、クラスタップの画素データを取得する。そして、ステップST128で、クラスタップの画素データからクラスコードCLを生成する。
【0357】
次に、ステップST129で、教師信号の注目位置の画素データyから、この教師信号の注目位置に対応した、生徒信号の画素データxを差し引いて差分データdfを求める。さらに、このステップST129では、ステップST128で生成されたクラスコードCLに基づいて、クラス毎に、平均化処理を施し、差分データDFを生成する。
【0358】
次に、ステップST130で、ステップST124で入力された教師信号の全領域において差分データDFの生成処理を終了しているか否かを判定する。差分データDFの生成処理を終了しているときは、ステップST124に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、差分データの生成処理を終了していないときは、ステップST127に戻って、上述したと同様の処理を繰り返す。
【0359】
上述したステップST125で、処理が終了したときは、ステップST122に戻って、次の画質パターンの選択を行って、上述したと同様の処理を繰り返し、次の画質パターンに対応した、各クラスの差分データDFを求める。
【0360】
ここで、差分データDFとしてDCT処理により得られるDCT係数の差分データを生成するときは、減算結果である差分データdfをDCT係数とする必要がある。その場合、上述のステップST124で入力された教師信号に対してDCT処理を施し、教師信号における注目位置に対応した画素データyをDCT係数とする。また、上述のステップST126で生成された生徒信号に対してDCT処理を施し、教師信号における注目位置に対応した、生徒信号の画素データxをDCT係数とする。
【0361】
また、上述のステップST123で、全ての画質パターンに対する差分データDFの算出処理が終了したときは、ステップST131で、全ての画質パターンに対する各クラスの差分データDFをメモリに保存し、その後にステップST132で、処理を終了する。
【0362】
このように、図20に示すフローチャートに沿って処理をすることで、図18に示す差分データ生成装置210と同様の手法によって、差分データDFを得ることができる。なお、ステップST128では、クラスタップの画素データからクラスコードCLを生成するように説明した。しかし、図18の差分データ生成装置210と同様に、生徒信号に関連した符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)をも用いてクラスコードCLを生成するようにしてもよい。
【0363】
次に、この発明の別の実施の形態について説明する。
図21は、別の実施の形態としてのデジタル放送受信機100Cの構成を示している。この図21において、図1と対応する部分には同一符号を付して示している。
【0364】
このデジタル放送受信機100Cは、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号を受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。
【0365】
また、デジタル放送受信機100Cは、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106と、このチューナ部106より出力されるMPEG2ストリームVcを一時的に格納するストリームバッファ109とを有している。
【0366】
また、デジタル放送受信機100Cは、ストリームバッファ109に記憶されているMPEG2ストリームVcを、ユーザ所望の画質を提示する、復号化された画像信号Vdに変換する画像信号処理部110Cと、この画像信号処理部110Cより出力される画像信号Vdによる画像を表示するディスプレイ部111とを有している。
【0367】
図21に示すデジタル放送受信機100Cの動作を説明する。
チューナ部106より出力されるMPEG2ストリームVcはストリームバッファ109に供給されて一時的に格納される。
【0368】
このようにストリームバッファ109に記憶されているMPEG2ストリームVcは画像信号処理部110Cに供給され、ユーザ所望の画質を提示する、復号化された画像信号Vdに変換される。この画像信号処理部110Cでは、MPEG2ストリームVcを構成するDCT係数から、画像信号Vdを構成する画素データが得られる。
画像信号処理部110Cより出力される画像信号Vdはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vdによる画像が表示される。
【0369】
ユーザは、リモコン送信機200の操作によって、上述したようにディスプレイ部111の画面上に表示される画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を調整できる。画像信号処理部110Cでは、後述するように、画像信号Vdの画素データが推定式によって算出されるが、この推定式の係数データとして、ユーザのリモコン送信機200の操作によって変更されたパラメータpの値に対応したものが、このパラメータpを含む生成式によって生成されて使用される。これにより、画像信号処理部110Cより出力される画像信号Vdによる画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度は、変更されたパラメータpの値に対応したものとなる。
【0370】
画像信号処理部110Cの詳細を説明する。この画像信号処理部110Cにおいて、図1に示す画像信号処理部110と対応する部分には同一符号を付し、その詳細説明は省略する。
【0371】
画像信号処理部110Cは、ストリームバッファ109に記憶されているMPEG2ストリームVcより周波数係数としてのDCT係数を抽出するDCT係数抽出回路221と、この抽出回路221で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路222とを有している。
【0372】
また、画像信号処理部110Cは、ストリームバッファ109に格納されているMPEG2ストリームVcより量子化特性指定情報を抽出する量子化特性指定情報抽出回路223と、この抽出回路223で抽出される量子化特性指定情報に基づいて、可変長復号化回路222より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路224とを有している。
【0373】
また、画像信号処理部110Cは、逆量子化回路224より出力されるDCT係数より、画像信号Vdにおける注目位置に対応したDCT係数を選択的に取り出し、また後述する参照画像信号Vrefより、画像信号Vdにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する第1、第2のタップ選択回路225,226を有している。
【0374】
第1のタップ選択回路225は、予測に使用する予測タップの複数の画素データ(DCT係数も含む)を選択的に取り出すものである。図2Aは、第1のタップ選択回路225において、参照画像信号Vrefより選択的に取り出す予測タップの画素データの配置の一例を示している。この図において、「○」は予測タップのタップ位置を示しており、「×」は注目位置を示している。本実施の形態においては、現フィールド(実線図示)と前フィールド(破線図示)における7個の画素データが、予測タップの画素データとして取り出される。
【0375】
また、図22Aは、第1のタップ選択回路225において、逆量子化回路224より出力されるDCT係数より選択的に取り出す予測タップのDCT係数の一例を示している。本実施の形態においては、画像信号Vdにおける注目位置が属する画素ブロック(DCT処理の単位となる8×8の小ブロックに対応)を注目画素ブロックとし、この注目画素ブロックに対応するDCT係数のブロック(以下、「DCTブロック」という)の全てのDCT係数、即ち64(8×8)個のDCT係数が、予測タップのDCT係数として取り出される。
【0376】
また、第2のタップ選択回路226は、クラス分類に使用するクラスタップの複数の画素データ(DCT係数も含む)を選択的に取り出すものである。図2Bは、第2のタップ選択回路226において、参照画像信号Vrefより選択的に取り出すクラスタップの画素データの配置の一例を示している。この図において、「○」は予測タップのタップ位置を示しており、「×」は注目位置を示している。本実施の形態においては、現フィールド(実線図示)と前フィールド(破線図示)における13個の画素データが、クラスタップの画素データとして取り出される。
【0377】
また、図22Bは、第2のタップ選択回路226において、逆量子化回路224より出力されるDCT係数より選択的に取り出すクラスタップのDCT係数の一例を示している。本実施の形態においては、注目画素ブロックに対応するDCTブロックと、その上下左右に隣接する4個のDCTブロックとの、合計で5個のDCTブロックの320(8×8×5)個のDCT係数が、クラスタップのDCT係数として取り出される。
【0378】
また、画像信号処理部110Cは、第2のタップ選択回路226で選択的に取り出されるクラスタップの画素データ(DCT係数も含む)から特徴量を抽出する特徴量抽出部123を有している。特徴量抽出部123では、クラスタップの画素データに1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施すことによって、空間クラスを示す第1のクラス情報としてのADRCコードを生成する。
【0379】
また、画像信号処理部110Cは、ストリームバッファ109に格納されているMPEG2ストリームVcより付加情報としての符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)を抽出する符号化制御情報抽出回路227と、この抽出回路227で抽出される符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報を生成する付加情報クラス生成部124とを有している。
【0380】
また、画像信号処理部110Cは、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLを生成するクラスコード生成部125を有している。このクラスコードCLは、画像信号Vdにおける注目位置の画素データが属するクラスを示すものとなる。
【0381】
また、画像信号処理部110Cは、係数メモリ126を有している。この係数メモリ126は、後述する推定予測演算回路127で使用される推定式で用いられる複数の係数データWi(i=1〜n)を、クラス毎に、格納するものである。この係数データWiは、MPEG2ストリームVcを画像信号Vdに変換するための情報である。係数メモリ126には上述したクラスコード生成部125より出力されるクラスコードCLが読み出しアドレス情報として供給され、この係数メモリ126からはクラスコードCLに対応した推定式の係数データWiが読み出されて、推定予測演算回路127に供給される。
【0382】
また、画像信号処理部110Cは、情報メモリバンク128を有している。後述する推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとから、上述した(1)式の推定式によって、作成すべき画像信号Vdにおける注目位置の画素データyが演算される。(1)式のnは、第1のタップ選択回路225で選択される予測タップの数を表している。
【0383】
この推定式の係数データWiは、上述した(2)式に示すように、パラメータpを含む生成式によって生成される。情報メモリバンク128には、この生成式における係数データである係数種データwi0〜wi3が、クラス毎に、格納されている。
【0384】
また、画像信号処理部110Cは、各クラスの係数種データwi0〜wi3およびパラメータpの値とを用い、(2)式によって、クラス毎に、パラメータpの値に対応した推定式の係数データWi(i=1〜n)を生成する係数生成回路129を有している。この係数生成回路129には、情報メモリバンク128より、上述した各クラスの係数種データwi0〜wi3がロードされる。また、この係数生成回路129には、システムコントローラ101より、パラメータpの値が供給される。
【0385】
この係数生成回路129で生成される各クラスの係数データWi(i=1〜n)は、上述した係数メモリ126に格納される。この係数生成回路129における各クラスの係数データWiの生成は、例えば各垂直ブランキング期間で行われる。これにより、ユーザのリモコン送信機200の操作によってパラメータpの値が変更されても、係数メモリ126に格納される各クラスの係数データWiを、そのパラメータpの値に対応したものに即座に変更でき、ユーザによる解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度等の調整がスムーズに行われる。
【0386】
ここで、上述したように情報メモリバンク128に格納されている係数種データwi0〜wi3についてさらに説明する。この係数種データwi0〜wi3は、上述したストリームバッファ109に格納されるMPEG2ストリームVcと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた生徒信号に基づいて予め生成される。
【0387】
すなわち、この係数種データwi0〜wi3は、それぞれパラメータpの複数の値に応じて生成され、MPEG2ストリームVcに対応した複数の生徒信号と、画像信号Vdに対応した教師信号とを用いて予め生成される。この場合、生徒信号は、教師信号をMPEG2符号化して得られたMPEG2ストリームを、パラメータpの値に応じて処理することで、当該パラメータpの値に対応した生徒信号が得られる。この場合、パラメータpの値に応じて、DCT係数(周波数係数)が変更される。
【0388】
例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られる生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vdによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能となる。
【0389】
また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られる複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vdによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能となる。
【0390】
また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られる複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vdによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能となる。
【0391】
また例えば、DCT係数にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号を得ることができる。情報メモリバンク128に、このようにして得られる複数の生徒信号を用いて予め生成された係数種データwi0〜wi3が格納されている場合には、上述の画像信号Vdによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能となる。
【0392】
また、画像信号処理部110Cは、第1のタップ選択回路225で選択的に取り出される予測タップの画素データ(DCT係数を含む)xiと、係数メモリ126より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vdにおける注目位置の画素データyを演算する推定予測演算回路127を有している。
【0393】
また、画像信号処理部110Cは、予測メモリ回路228を有している。この予測メモリ回路228は、Iピクチャ(Intra-Picture)およびPピクチャ(Predictive-Picture)の画像信号をメモリ(図示せず)に記憶すると共に、これらの画像信号を用いて、逆量子化回路224からPピクチャまたはBピクチャ(Bidirectionally predictive-Picture)に係るDCT係数が出力されるとき、対応する参照画像信号Vrefを生成して第1、第2のタップ選択回路225,226に供給する。因みに、逆量子化回路224からIピクチャに係るDCT係数が出力されるとき、第1、第2のタップ選択回路225,226には参照画像信号Vrefは供給されない。
【0394】
また、画像信号処理部110Cは、ピクチャ選択回路229を有している。このピクチャ選択回路229は、推定予測演算回路127から出力されるIピクチャおよびPピクチャの画像信号を予測メモリ回路228に供給してメモリに記憶させると共に、この推定予測演算回路127から出力される各ピクチャの画像信号を正しい順に並べ直して出力する。
【0395】
上述した抽出回路227で抽出される動きベクトル情報MIは予測メモリ回路228に供給され、予測メモリ回路228ではこの動きベクトル情報MIを用いて参照画像信号を生成する際に動き補償が行われる。また、抽出回路227で抽出されるピクチャ情報PIは予測メモリ回路228、ピクチャ選択回路229に供給され、これら予測メモリ回路228、ピクチャ選択回路229ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。
【0396】
次に、画像信号処理部110Cの動作を説明する。
ストリームバッファ109に記憶されているMPEG2ストリームVcが抽出回路221に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路222に供給されて復号化される。そして、この可変長復号化回路222より出力される量子化DCT係数が逆量子化回路224に供給されて逆量子化が施される。
【0397】
第2のタップ選択回路226では、クラスタップの複数の画素データ(DCT係数も含む)が選択的に取り出される。すなわち、逆量子化回路224より出力されるDCT係数より、画像信号Vdにおける注目位置に対応したDCT係数が選択的に取り出されると共に、予測メモリ回路228より供給される参照画像信号Vrefより、画像信号Vdにおける注目位置の周辺に位置する複数の画素データが選択的に取り出される。
【0398】
このように第2のタップ選択回路226で取り出されるクラスタップの画素データは、特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
【0399】
また、抽出回路227でMPEG2ストリームVcより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部124に供給される。この付加情報クラス生成部124では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。
【0400】
そして、特徴量抽出部123で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部124で生成される第2のクラス情報はクラスコード生成部125に供給される。このクラスコード生成部125では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。
【0401】
このクラスコードCLは、画像信号Vdにおける注目位置の画素データが属するクラスの検出結果を表している。このクラスコードCLは、係数メモリ126に読み出しアドレス情報として供給される。係数メモリ126には、例えば各垂直ブランキング期間に、係数生成回路129で、ユーザによって調整されたパラメータpの値に対応して、クラス毎に、係数種データwi0〜wi3を用いて推定式の係数データWi(i=1〜n)が求められて格納される((2)式参照)。
【0402】
係数メモリ126に上述したようにクラスコードCLが読み出しアドレス情報として供給されることで、この係数メモリ126からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路127に供給される。
【0403】
また、第1のタップ選択回路225では、予測タップの複数の画素データ(DCT係数も含む)が選択的に取り出される。すなわち、逆量子化回路224より出力されるDCT係数より、画像信号Vdにおける注目位置に対応したDCT係数が選択的に取り出されると共に、予測メモリ回路228より供給される参照画像信号Vrefより、画像信号Vdにおける注目位置の周辺に位置する複数の画素データが選択的に取り出される。このように第1のタップ選択回路265で取り出される予測タップの画素データは、推定予測演算回路127に供給される。
【0404】
推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとを用いて、推定式((1)式参照)に基づいて、作成すべき画像信号Vdにおける注目位置の画素データyが求められる。推定予測演算回路127より出力される各ピクチャの画像信号はピクチャ選択回路229で正しい順に並べ直され、画像信号Vdとして出力される。
【0405】
このように、画像信号処理部110Cでは、パラメータpの値に対応した推定式の係数データWi(i=1〜n)が使用されて、画素データyが演算される。したがって、ユーザは、パラメータpの値を変更することで、画像信号Vdによる画像の解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を任意に調整できる。
【0406】
また、この係数データWiを生成するための係数種データwi0〜wi3は、上述したストリームバッファ109に格納されるMPEG2ストリームVcと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた生徒信号に基づいて予め生成されたものであり、画像信号Vdによる画像の特定の質のみ、例えば解像度のみ、ブロック歪のみ、モスキートノイズのみあるいはノイズ抑圧度のみを段階的に調整できる。
【0407】
図21の画像信号処理部110Cの情報メモリバンク128に格納される係数種データwi0〜wi3も、図1の画像信号処理部110の情報メモリバンク128に格納される係数種データwi0〜wi3と同様に、複数の生徒信号と教師信号との間で学習を行うことによって生成される(図3参照)。
【0408】
図23は、上述した画像信号処理部110Cの情報メモリバンク128に格納される係数種データwi0〜wi3を生成するための係数種データ生成装置150Cの構成を示している。この図23において、図4と対応する部分には同一符号を付して示している。
【0409】
この係数種データ生成装置150Cは、画像信号Vdに対応した教師信号STが入力される入力端子151と、この教師信号STに対して符号化を行って生徒信号SSであるMPEG2ストリームを得るMPE2符号化器152とを有している。
【0410】
また、係数種データ生成装置150Cは、MPEG2符号化器152で得られる生徒信号SSより周波数係数としてのDCT係数を抽出するDCT係数抽出回路231と、この抽出回路231で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路232とを有している。
【0411】
また、係数種データ生成装置150Cは、MPEG2符号化器152で得られる生徒信号SSより量子化特性指定情報を抽出する量子化特性指定情報抽出回路233と、この抽出回路233で抽出される量子化特性指定情報に基づいて、可変長復号化回路232より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路234とを有している。
【0412】
この逆量子化回路234には、パラメータpの値が入力される。この逆量子化回路234では、逆量子化の信号処理の過程で、パラメータpの値に応じて信号が変化するようにされ、当該パラメータpの値に対応した、生徒信号に係るDCT係数が得られる。本実施の形態では、DCT係数(周波数係数)が変更される。
【0413】
例えば、DCT係数のうち全てのAC係数のゲインを同じ値として、パラメータpの値に応じてゲインを変更することにより、複数の生徒信号に係るDCT係数を得ることができる。ここで、元のAC係数をAC[m]、ゲインをgainとすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]*gainとなる。この場合、各AC係数の間の相関関係は保持できることから、このようにして得られる複数の生徒信号に係るDCT係数を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vdによって得られる画像の解像度をパラメータpの値に応じて段階的に調整可能なものとなる。
【0414】
また例えば、DCT係数のうちDC係数の量子化ステップをパラメータpの値に応じて変更することにより、複数の生徒信号に係るDCT係数を得ることができる。ここで、元のDC係数をDC[m]、元の量子化ステップをQst、新たな量子化ステップをnewQstとすると、新たなDC係数をnewDC[m]は、newDC[m]={DC[m]*Qst/newQst}となる。{}は整数演算を表している。この場合、DC係数の変動を操作可能となり、このようにして得られる複数の生徒信号に係るDCT係数を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vdによって得られる画像のブロック歪みをパラメータpの値に応じて段階的に調整可能なものとなる。
【0415】
また例えば、DCT係数のうちAC係数のゲインを高域程小さくすると共に、このAC係数の高域のゲインの低下の度合いをパラメータpの値に応じて変更することにより、複数の生徒信号に係るDCT係数を得ることができる。ここで、元のAC係数をAC[m]、ゲインをgain[m]とすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]*gain[m]となる。この場合、各AC係数の間の相関関係を段階的に崩すものであり、このようにして得られる複数の生徒信号に係るDCT係数を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vdによって得られる画像のモスキートノイズをパラメータpの値に応じて段階的に調整可能なものとなる。
【0416】
また例えば、DCT係数にランダムノイズを付加すると共に、このランダムノイズのレベルをパラメータpの値に応じて変更することにより、複数の生徒信号に係るDCT係数を得ることができる。元のAC係数をAC[m]、ランダムノイズをrdmNとすると、新たなAC係数newAC[m]は、newAC[m]=AC[m]+rdmNとなる。同様に、元のDC係数をDC[m]、ランダムノイズをrdmNとすると、新たなDC係数newDC[m]は、newDC[m]=DC[m]+rdmNとなる。この場合、ランダムノイズのレベルを段階的に切り換えることにより、それによって得られる複数の生徒信号に係るDCT係数を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vdによって得られる画像のノイズ抑圧度をパラメータpの値に応じて段階的に調整可能なものとなる。
【0417】
また、係数種データ生成装置150Cは、逆量子化回路234より出力されるDCT係数より、画像信号Vdにおける注目位置に対応したDCT係数を選択的に取り出し、また後述する参照画像信号Vrefより、画像信号Vdにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する第1、第2のタップ選択回路235,236を有している。これら第1、第2のタップ選択回路235,236は、それぞれ上記した画像信号処理部110Cの第1、第2のタップ選択回路225,226と同様に構成される。
【0418】
また、係数種データ生成装置150Cは、第2のタップ選択回路236で選択的に取り出されるクラスタップの画素データから特徴量を抽出する特徴量抽出部156を有している。この特徴量抽出部156は、上述した画像信号処理部110Cの特徴量抽出部123と同様に構成され、空間クラスを示す第1のクラス情報としてのADRCコードを生成する。
【0419】
また、係数種データ生成装置150Cは、MPEG2符号化器152で得られる生徒信号SSより付加情報としての符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)を抽出する符号化制御情報抽出回路237と、この抽出回路237で抽出される符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報を生成する付加情報クラス生成部157とを有している。この付加情報クラス生成部157は、上述した画像信号処理部110Cの付加情報クラス生成部124と同様に構成される。
【0420】
また、係数種データ生成装置150Cは、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部157で生成される第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLを生成するクラスコード生成部158を有している。このクラスコード生成部158は、上述した画像信号処理部110Cのクラスコード生成部125と同様に構成される。
【0421】
また、係数種データ生成装置150Cは、入力端子151に供給される教師信号STの時間調整を行うための遅延回路159と、この遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路235で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとから、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)を生成する正規方程式生成部160を有している。
【0422】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、パラメータpの値に応じて、逆量子化回路234からは複数の生徒信号に係るDCT係数が順次得られ、教師信号と各生徒信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部160では、パラメータpの値が異なる多くの学習データが登録された正規方程式が生成され、係数種データwi0〜wi3を求めることが可能となる。
【0423】
また、係数種データ生成装置150Cは、正規方程式生成部160で、クラス毎に生成された正規方程式のデータが供給され、当該正規方程式を解いて、クラス毎に、係数種データwi0〜wi3を求める係数種データ決定部161と、この求められた係数種データを格納する係数種メモリ162とを有している。係数種データ決定部161では、正規方程式が例えば掃き出し法などによって解かれて、係数種データが求められる。
【0424】
また、係数種データ生成装置150Cは、予測メモリ回路238を有している。この予測メモリ回路228は、遅延回路159で時間調整された教師信号STのうち、生徒信号SSのIピクチャおよびPピクチャの画像信号をメモリ(図示せず)に記憶すると共に、これらの画像信号を用いて、逆量子化回路234からPピクチャまたはBピクチャに係るDCT係数が出力されるとき、対応する参照画像信号Vrefを生成して第1、第2のタップ選択回路235,236に供給する。因みに、逆量子化回路234からIピクチャに係るDCT係数が出力されるとき、第1、第2のタップ選択回路235,236には参照画像信号Vrefは供給されない。
【0425】
また、係数種データ生成装置150Cは、ピクチャ選択回路239を有している。このピクチャ選択回路239は、遅延回路159で時間調整された教師信号STのうち、IピクチャおよびPピクチャの画像信号を予測メモリ回路238に供給してメモリに記憶させる。
【0426】
上述した抽出回路237で抽出される動きベクトル情報MIは予測メモリ回路238に供給され、予測メモリ回路238ではこの動きベクトル情報MIを用いて参照画像信号Vrefを生成する際に動き補償が行われる。また、抽出回路237で抽出されるピクチャ情報PIは予測メモリ回路238、ピクチャ選択回路239に供給され、これら予測メモリ回路238、ピクチャ選択回路239ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。
【0427】
図23に示す係数種データ生成装置150Cの動作を説明する。
入力端子151には画像信号Vdに対応した教師信号STが供給され、そしてこの教師信号STに対してMPEG2符号化器152で、符号化が施されて生徒信号SSとしてのMPEG2ストリームが生成される。
【0428】
MPEG2符号化器152で得られる生徒信号SSは抽出回路231に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路232に供給されて復号化される。そして、この可変長復号化回路232より出力される量子化DCT係数が逆量子化回路234に供給されて逆量子化が施される。
【0429】
この逆量子化回路234には、パラメータpの値が入力される。この逆量子化回路234では、逆量子化の信号処理の過程で、パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じてDCT係数が変更される。これにより、パラメータpの値に対応した、生徒信号に係るDCT係数が得られる。
【0430】
また、第2のタップ選択回路236では、クラスタップの複数の画素データ(DCT係数も含む)が選択的に取り出される。すなわち、逆量子化回路234より出力されるDCT係数より、教師信号STにおける注目位置に対応したDCT係数が選択的に取り出されると共に、予測メモリ回路228より供給される参照画像信号Vrefより、教師信号STにおける注目位置の周辺に位置する複数の画素データが選択的に取り出される。
【0431】
このように第2のタップ選択回路236で取り出されるクラスタップの画素データは、特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示す第1のクラス情報としてのADRCコードが生成される。
【0432】
また、抽出回路237で生徒信号SSより抽出される符号化制御情報(ピクチャ情報PI、動きベクトル情報MI)が付加情報クラス生成部157に供給される。この付加情報クラス生成部157では、この符号化制御情報に基づいて、付加情報クラスを示す第2のクラス情報が生成される。
【0433】
そして、特徴量抽出部156で生成される第1のクラス情報(ADRCコード)および付加情報クラス生成部157で生成される第2のクラス情報はクラスコード生成部158に供給される。このクラスコード生成部158では、これら第1のクラス情報および第2のクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。
【0434】
また、第1のタップ選択回路235では、予測タップの複数の画素データ(DCT係数も含む)が選択的に取り出される。すなわち、逆量子化回路234より出力されるDCT係数より、教師信号STにおける注目位置に対応したDCT係数が選択的に取り出されると共に、予測メモリ回路238より供給される参照画像信号Vrefより、教師信号STにおける注目位置の周辺に位置する複数の画素データが選択的に取り出される。
【0435】
そして、遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路235で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとを用いて、正規方程式生成部160では、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)が生成される。
【0436】
そして、係数種データ決定部161で各正規方程式が解かれ、クラス毎の係数種データwi0〜wi3が求められ、それらの係数種データwi0〜wi3は係数種メモリ162に格納される。
【0437】
このように、図23に示す係数種データ生成装置150Cにおいては、図21の画像信号処理部110Cの情報メモリバンク128に格納される、クラス毎の、推定式((1)式参照)で用いられる係数データWiを求めるための生成式((2)式参照)における係数データである係数種データwi0〜wi3を生成することができる。
【0438】
なお、図23に示す係数種データ生成装置150Cにおいては、時間調整された教師信号STに基づいて参照画像信号Vrefを生成するものを示したが、これに限定されるものではない。図24に示すように、演算回路239Aを設け、この演算回路239Aで生成される画像信号に基づいて参照画像信号Vrefを生成するようにしてもよい。
【0439】
この演算回路239Aには、第1のタップ選択回路235で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、クラスコード生成部158で生成されるクラスコードCLとが供給される。詳細説明は省略するが、この演算回路239Aは、図21に示す画像信号処理部110Cにおける推定予測演算回路127、係数メモリ126、係数生成回路129、情報メモリバンク128の部分と同様に構成されている。なお、情報メモリバンク128には、図23に示す係数種データ生成装置150Cとは別の系で予め生成された係数種データwi0〜wi3が格納されているものとする。
【0440】
図21の画像信号処理部110Cでは、係数データWi(i=1〜n)を生成するために(2)式の生成式を使用したが、次数の異なった多項式や、他の関数で表現される式でも実現可能である。
また、図21の画像信号処理部110Cでは、特徴量抽出部123より出力される空間クラスを示す第1のクラス情報(ADRCコード)の他に、付加情報クラス生成部124で生成された付加情報クラスを示す第2のクラス情報にも基づいて、クラスコード生成部125ではクラスコードCLを生成するものであるが、第1のクラス情報のみを用いてクラスコードCLを生成してもよい。ただし、第2のクラス情報をも加味してクラスコードCLを生成することで、より細かなクラス分けを行うことができ、画像信号Vdの画素データの生成精度を高めることができる。
【0441】
なお、詳細説明は省略するが、図21の画像信号処理部110Cにおける処理を、例えば図9に示す画像信号処理装置300によって、図1の画像信号処理部110における処理と同様に、ソフトウエアで実現することも可能である(図10のフローチャート参照)。また、詳細説明は省略するが、図23、図24の係数種データ生成装置150Cにおける処理も、図4の係数種データ生成装置150における処理と同様に、ソフトウエアで実現することも可能である(図11のフローチャート参照)。
【0442】
また、図23、図24に示す係数種データ生成装置150Cは、図4に示す係数種データ生成装置150に対応したものであるが、図8に示す係数種データ生成装置150Aに対応したものとすることもできる。すなわち、パラメータpの各値に対応した各クラスの係数データWiを求め、その後にパラメータpの各値に対応した各クラスの係数データWiを用いて、各クラスの係数種データwi0〜wi3を求めるものである。
【0443】
また、図21に示す画像信号処理部110Cでは、情報メモリバンク128に格納されている係数種データwi0〜wi3に基づいて、係数生成回路129でパラメータpの値に対応した各クラスの係数データWiを生成し、この各クラスの係数データWiを係数メモリ126に格納して使用するものである。しかし、図13の画像信号処理部110Aと同様に、情報メモリバンク128Aにクラスおよびパラメータpの値の各組み合わせの係数データWiを格納しておき、パラメータpの値に対応した各クラスの係数データWiを情報メモリバンク128Aより係数メモリ126にロードして使用するように構成してもよい。
【0444】
次に、この発明のさらに別の実施の形態について説明する。
図25は、さらに別の実施の形態としてのデジタル放送受信機100Dの構成を示している。この図25において、図1、図21と対応する部分には同一符号を付して示している。
【0445】
このデジタル放送受信機100Dは、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号を受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。
【0446】
また、デジタル放送受信機100Dは、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106と、このチューナ部106より出力されるMPEG2ストリームVcを一時的に格納するストリームバッファ109とを有している。
【0447】
また、デジタル放送受信機100Dは、ストリームバッファ109に記憶されているMPEG2ストリームVcを、ユーザ所望の画質を提示する、復号化された画像信号Vdに変換する画像信号処理部110Dと、この画像信号処理部110Dより出力される画像信号Vdによる画像を表示するディスプレイ部111とを有している。
【0448】
図25に示すデジタル放送受信機100Dの動作を説明する。
チューナ部106より出力されるMPEG2ストリームVcはストリームバッファ109に供給されて一時的に格納される。
【0449】
このようにストリームバッファ109に記憶されているMPEG2ストリームVcは画像信号処理部110Dに供給され、ユーザ所望の画質を提示する、復号化された画像信号Vdに変換される。この画像信号処理部110Dでは、MPEG2ストリームVcを構成するDCT係数から画像信号Vdを得るための新たなDCT係数が得られ、この新たなDCT係数に対して逆DCTを施して画像信号Vdが得られる。
画像信号処理部110Dより出力される画像信号Vdはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vdによる画像が表示される。
【0450】
ユーザは、リモコン送信機200の操作によって、上述したようにディスプレイ部111の画面上に表示される画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を調整できる。画像信号処理部110Dでは、後述するように、画像信号Vdを得るためのDCT係数が推定式によって算出されるが、この推定式の係数データとして、ユーザのリモコン送信機200の操作によって変更されたパラメータpの値に対応したものが、このパラメータpを含む生成式によって生成されて使用される。これにより、画像信号処理部110Dより出力される画像信号Vdによる画像における解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度は、変更されたパラメータpの値に対応したものとなる。
【0451】
画像信号処理部110Dの詳細を説明する。この画像信号処理部110Dにおいて、図1に示す画像信号処理部110、図21に示す画像信号処理部110Cと対応する部分には同一符号を付し、その詳細説明は省略する。
画像信号処理部110Dは、ストリームバッファ109に記憶されているMPEG2ストリームVcより周波数係数としてのDCT係数を抽出する抽出回路221と、この抽出回路221で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路222とを有している。
【0452】
また、画像信号処理部110Dは、ストリームバッファ109に格納されているMPEG2ストリームVcより量子化特性指定情報を抽出する量子化特性指定情報抽出回路223と、この抽出回路223で抽出される量子化特性指定情報に基づいて、可変長復号化回路222より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路224とを有している。
【0453】
また、画像信号処理部110Dは、逆量子化回路224より出力されるDCT係数より、画像信号Vdにおける注目位置に対応したDCT係数を選択的に取り出して出力する第1、第2のタップ選択回路241,242を有している。
【0454】
第1のタップ選択回路241は、予測に使用する予測タップの複数個のDCT係数を選択的に取り出すものである。図22Aは、第1のタップ選択回路241において、逆量子化回路224より出力されるDCT係数より選択的に取り出す予測タップのDCT係数の一例を示している。本実施の形態においては、画像信号Vdの注目画素ブロックを得るためのDCTブロックを注目DCTブロックとし、この注目DCTブロックに対応するDCTブロックの全てのDCT係数、即ち64(8×8)個のDCT係数が、予測タップのDCT係数として取り出される。
【0455】
また、第2のタップ選択回路242は、クラス分類に使用するクラスタップの複数個のDCT係数を選択的に取り出すものである。図22Bは、第2のタップ選択回路242において、逆量子化回路224より出力されるDCT係数より選択的に取り出すクラスタップのDCT係数の一例を示している。本実施の形態においては、注目DCTブロックに対応するDCTブロックと、その上下左右に隣接する4個のDCTブロックとの、合計で5個のDCTブロックの320(8×8×5)個のDCT係数が、クラスタップのDCT係数として取り出される。
【0456】
また、画像信号処理部110Dは、第2のタップ選択回路242で選択的に取り出されるクラスタップのDCT係数から特徴量を抽出する特徴量抽出部123を有している。特徴量抽出部123では、クラスタップのDCT係数に1ビットのADRC等の処理を施すことによって、クラスコードCLとしてのADRCコードを生成する。このクラスコードCLは、注目DCTブロックが属するクラスを示すものとなる。
【0457】
また、画像信号処理部110Dは、係数メモリ126を有している。この係数メモリ126は、後述する推定予測演算回路127で使用される推定式で用いられる複数の係数データWi(i=1〜n)を、クラス毎に、格納するものである。この係数データWiは、MPEG2ストリームVcのDCT係数を、画像信号Vdを得るための新たなDCT係数に変換するための情報である。
【0458】
係数メモリ126には上述した特徴量抽出部123より出力されるクラスコードCLが読み出しアドレス情報として供給される。この係数メモリ126からは、クラスコードCLに対応した推定式の係数データWiが読み出されて、推定予測演算回路127に供給される。この場合、注目DCTブロックを構成する全てのDCT係数を算出するために、この注目DCTブロック内のDCT係数の個数分の係数データWiが推定予測演算回路127に供給される。
【0459】
また、画像信号処理部110Dは、情報メモリバンク128を有している。推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとから、上述した(1)式の推定式によって、注目DCTブロックを構成するDCT係数yが演算される。(1)式のnは、第1のタップ選択回路241で選択される予測タップの数を表している。
【0460】
この推定式の係数データWiは、上述した(2)式に示すように、パラメータpを含む生成式によって生成される。情報メモリバンク128には、この生成式における係数データである係数種データwi0〜wi3が、クラス毎に、格納されている。この場合、各クラスの係数種データwi0〜wi3は、それぞれ注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3からなっている。
【0461】
また、画像信号処理部110Dは、各クラスの係数種データwi0〜wi3およびパラメータpの値とを用い、(2)式によって、クラス毎に、パラメータpの値に対応した推定式の係数データWi(i=1〜n)を生成する係数生成回路129を有している。この係数生成回路129には、情報メモリバンク128より、上述した各クラスの係数種データwi0〜wi3がロードされる。また、この係数生成回路129には、システムコントローラ101より、パラメータpの値が供給される。
【0462】
この係数生成回路129で生成される各クラスの係数データWi(i=1〜n)は、上述した係数メモリ126に格納される。この係数生成回路129における各クラスの係数データWiの生成は、例えば各垂直ブランキング期間で行われる。これにより、リモコン送信機200の操作によってパラメータpの値が変更されても、係数メモリ126に格納される各クラスの係数データWiを、そのパラメータpの値に対応したものに即座に変更でき、ユーザによる解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度等の調整がスムーズに行われる。
【0463】
ここで、情報メモリバンク128に格納されている係数種データwi0〜wi3は、図21の画像信号処理部110Cの情報メモリバンク128に格納されている係数種データwi0〜wi3と同様に、上述したストリームバッファ109に格納されるMPEG2ストリームVcと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた生徒信号に基づいて予め生成される。これにより、画像信号Vdによって得られる画像の解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度等をパラメータpの値に応じて段階的に調整可能となる。
【0464】
また、画像信号処理部110Dは、推定予測演算回路127より出力されるDCT係数に対して逆DCTを行う逆DCT回路243と、IピクチャおよびPピクチャの画像信号をメモリ(図示せず)に記憶すると共に、これらの画像信号を用いて逆DCT回路243からPピクチャまたはBピクチャの画像信号が出力されるとき、対応する参照画像信号Vrefを生成して出力する予測メモリ回路244とを有している。
【0465】
また、画像信号処理部110Dは、逆DCT回路243からPピクチャまたはBピクチャの画像信号が出力されるとき、その画像信号に予測メモリ回路244で生成された参照画像信号Vrefを加算する加算回路245を有している。なお、逆DCT回路243からIピクチャの画像信号が出力されるとき、予測メモリ回路244から加算回路245に参照画像信号Vrefは供給されず、従って加算回路245からは逆DCT回路243より出力されるIピクチャの画像信号がそのまま出力される。
【0466】
また、画像信号処理部110Dは、加算回路245より出力されるIピクチャおよびPピクチャの画像信号を予測メモリ回路244に供給してメモリに記憶させると共に、この加算回路245より出力される各ピクチャの画像信号を正しい順に並べ直して画像信号Vdとして出力するピクチャ選択回路246とを有している。
【0467】
また、画像信号処理部110Dは、ストリームバッファ109に格納されているMPEG2ストリームより符号化制御情報、すなわちピクチャ情報PI、動きベクトル情報MIを抽出する抽出回路227を有している。この抽出回路227で抽出される動きベクトル情報MIは予測メモリ回路244に供給され、予測メモリ回路244ではこの動きベクトル情報MIを用いて参照画像信号Vrefを生成する際に動き補償が行われる。また、抽出回路227で抽出されるピクチャ情報PIは予測メモリ回路244、ピクチャ選択回路246に供給され、これら予測メモリ回路244、ピクチャ選択回路246ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。
【0468】
次に、画像信号処理部110Dの動作を説明する。
ストリームバッファ109に記憶されているMPEG2ストリームVcが抽出回路221に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路222に供給されて復号化される。そして、この可変長復号化回路222より出力される量子化DCT係数が逆量子化回路224に供給されて逆量子化が施される。
【0469】
第2のタップ選択回路242では、逆量子化回路224より出力されるDCT係数より、クラスタップの複数個のDCT係数が選択的に取り出される。このクラスタップの複数個のDCT係数は、特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップのDCT係数に1ビットのADRC等の処理が施されて、クラスコードCLとしてのADRCコードが生成される。このクラスコードCLは、画像信号Vdの注目画素ブロックを得るためのDCTブロックが属するクラスを示すものとなる。
【0470】
このクラスコードCLは、係数メモリ126に読み出しアドレス情報として供給される。係数メモリ126には、例えば各垂直ブランキング期間に、係数生成回路129で、ユーザによって調整されたパラメータpの値に対応して、クラス毎に、注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3を用いて、注目DCTブロックの各DCT係数に対応した推定式の係数データWi(i=1〜n)が求められて格納される((2)式参照)。
【0471】
係数メモリ126に上述したようにクラスコードCLが読み出しアドレス情報として供給されることで、この係数メモリ126からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路127に供給される。この場合、注目DCTブロックを構成する全てのDCT係数を算出するために、この注目DCTブロック内のDCT係数の個数分の係数データWiが推定予測演算回路127に供給される。
【0472】
また、第1のタップ選択回路225では、逆量子化回路224より出力されるDCT係数より、予測タップの複数個のDCT係数が選択的に取り出される。この予測タップの複数個のDCT係数xiは、推定予測演算回路127に供給される。推定予測演算回路127では、予測タップの複数個のDCT係数xiと、係数メモリ126より読み出される係数データWiとを用いて、推定式((1)式参照)に基づいて、注目DCTブロックを構成する複数個のDCT係数yがそれぞれ求められる。
【0473】
また、推定予測演算回路127より出力されるDCT係数に対して逆DCT回路243で逆DCTが施されて各ピクチャの画像信号が得られる。この各ピクチャの画像信号は加算回路245を介してピクチャ選択回路246に供給される。この場合、PピクチャおよびBピクチャの画像信号に対しては、加算回路245で予測メモリ回路244より出力される参照画像信号Vrefが加算される。そして、各ピクチャの画像信号は、ピクチャ選択回路229で正しい順に並べ直されて画像信号Vdとして出力される。
【0474】
このように、画像信号処理部110Dでは、パラメータpの値に対応した推定式の係数データWi(i=1〜n)が使用されて、画像信号Vdを得るためのDCT係数yが演算される。したがって、ユーザは、パラメータpの値を変更することで、画像信号Vdによる画像の解像度、ブロック歪、モスキートノイズあるいはノイズ抑圧度を任意に調整できる。
【0475】
また、係数データWiを生成するための係数種データwi0〜wi3は、上述したストリームバッファ109に格納されるMPEG2ストリームVcと同様に符号化されたMPEG2ストリームを、パラメータpの値に応じて処理して得られた生徒信号に基づいて予め生成されたものであり、画像信号Vdによる画像の特定の質のみ、例えば解像度のみ、ブロック歪のみ、モスキートノイズのみあるいはノイズ抑圧度のみを段階的に調整できる。
【0476】
図25の画像信号処理部110Dの情報メモリバンク128に格納される係数種データwi0〜wi3も、図1の画像信号処理部110の情報メモリバンク128に格納される係数種データwi0〜wi3と同様に、複数の生徒信号と教師信号との間で学習を行うことによって生成される(図3参照)。
【0477】
図26は、上述したデジタル放送受信機100Dの情報メモリバンク128に格納される係数種データwi0〜wi3を生成するための係数種データ生成装置150Dの構成を示している。この図26において、図4、図23と対応する部分には同一符号を付して示している。
【0478】
この係数種データ生成装置150Dは、画像信号Vdに対応した画像信号Vd′が入力される入力端子151と、この画像信号Vd′に対して符号化を行って生徒信号SSであるMPEG2ストリームを得るMPE2符号化器152とを有している。なお、このMPEG2符号化器152からは、画像信号Vd′より生成されたMPEG2ストリームを構成するDCT係数が教師信号STとして出力される。
【0479】
また、係数種データ生成装置150Dは、MPEG2符号化器152で得られる生徒信号SSより周波数係数としてのDCT係数を抽出するDCT係数抽出回路231と、この抽出回路231で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路232とを有している。
【0480】
また、係数種データ生成装置150Dは、MPEG2符号化器152で得られる生徒信号SSより量子化特性指定情報を抽出する量子化特性指定情報抽出回路233と、この抽出回路233で抽出される量子化特性指定情報に基づいて、可変長復号化回路232より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路234とを有している。
【0481】
この逆量子化器回路234には、パラメータpの値が入力される。この逆量子化回路234では、図23の係数種データ生成装置150Cで説明したと同様に逆量子化の信号処理の過程で、パラメータpの値に応じてDCT係数が変化するようにされ、当該パラメータpの値に対応した、生徒信号に係るDCT係数が得られる。これにより、複数の生徒信号に係るDCT係数を用いて生成される係数種データwi0〜wi3は、上述の画像信号Vdによって得られる画像の解像度、ブロック歪み、モスキートノイズ、ノイズ抑圧度等をパラメータpの値に応じて段階的に調整可能なものとなる。
【0482】
また、係数種データ生成装置150Dは、逆量子化回路234より出力されるDCT係数より、教師信号STにおける注目位置に対応したDCT係数を選択的に取り出して出力する第1、第2のタップ選択回路251,252を有している。これら第1、第2のタップ選択回路251,252は、それぞれ上記した画像信号処理部110Dの第1、第2のタップ選択回路241,242と同様に構成される。
【0483】
第1のタップ選択回路251は、予測に使用する予測タップの複数個のDCT係数を選択的に取り出すものである。図22Aは、第1のタップ選択回路251において、逆量子化回路234より出力されるDCT係数より選択的に取り出す予測タップのDCT係数の一例を示している。本実施の形態においては、教師信号STの注目DCTブロックに対応するDCTブロックの全てのDCT係数、即ち64(8×8)個のDCT係数が、予測タップのDCT係数として取り出される。
【0484】
また、第2のタップ選択回路252は、クラス分類に使用するクラスタップの複数個のDCT係数を選択的に取り出すものである。図22Bは、第2のタップ選択回路252において、逆量子化回路234より出力されるDCT係数より選択的に取り出すクラスタップのDCT係数の一例を示している。本実施の形態においては、注目DCTブロックに対応するDCTブロックと、その上下左右に隣接する4個のDCTブロックとの、合計で5個のDCTブロックの320(8×8×5)個のDCT係数が、クラスタップのDCT係数として取り出される。
【0485】
また、係数種データ生成装置150Dは、第2のタップ選択回路252で選択的に取り出されるクラスタップのDCT係数から特徴量を抽出する特徴量抽出部156を有している。この特徴量抽出部156は、上述した画像信号処理部110Dの特徴量抽出部123と同様に構成される。この特徴量抽出部156では、クラスタップのDCT係数に1ビットのADRC等の処理を施すことによって、クラスコードCLとしてのADRCコードを生成する。このクラスコードCLは、教師信号STにおける注目DCTブロックが属するクラスを示すものとなる。
【0486】
また、係数種データ生成装置150Dは、MPEG2符号化器152より出力される教師信号(DCT係数)STの時間調整を行うための遅延回路159と、この遅延回路159で時間調整された教師信号STの各注目DCTブロックのDCT係数yと、この各注目DCTブロックにそれぞれ対応して第1のタップ選択回路251で選択的に取り出される予測タップのDCT係数xiと、パラメータpの値と、各注目DCTブロックにそれぞれ対応して特徴量抽出部156で生成されるクラスコードCLとから、クラス毎に、注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3をそれぞれ得るための正規方程式((9)式参照)を生成する正規方程式生成部160を有している。
【0487】
この場合、1個のDCT係数yとそれに対応するn個の予測タップのDCT係数xiとの組み合わせで1個の学習データが生成される。パラメータpの値に応じて、逆量子化回路234からは複数の生徒信号に係るDCT係数が順次得られ、教師信号と各生徒信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部160では、パラメータpの値が異なる多くの学習データが登録された正規方程式が生成され、係数種データwi0〜wi3を求めることが可能となる。
【0488】
また、係数種データ生成装置150Dは、正規方程式生成部160で、クラス毎に生成された、注目DCTブロックの各DCT係数にそれぞれ対応した正規方程式のデータが供給され、当該正規方程式を解いて、クラス毎に、注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3を求める係数種データ決定部161と、この求められた係数種データを格納する係数種メモリ162とを有している。係数種データ決定部161では、正規方程式が例えば掃き出し法などによって解かれて、係数種データが求められる。
【0489】
図26に示す係数種データ生成装置150Dの動作を説明する。
入力端子151には画像信号Vdに対応した画像信号Vd′が供給され、そしてこの画像信号Vd′に対してMPEG2符号化器152で符号化が施されて生徒信号SSとしてのMPEG2ストリームが生成される。
【0490】
MPEG2符号化器152で得られる生徒信号SSは抽出回路231に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路232に供給されて復号化される。そして、この可変長復号化回路232より出力される量子化DCT係数が逆量子化回路234に供給されて逆量子化が施される。
【0491】
この逆量子化器234には、パラメータpの値が入力される。この逆量子化回路234では、逆量子化の信号処理の過程で、パラメータpの値に応じて信号が変化するようにされる。すなわち、本実施の形態においては、上述したように、当該パラメータpの値に応じてDCT係数が変更される。これにより、パラメータpの値に対応した、生徒信号に係るDCT係数が得られる。
【0492】
また、第2のタップ選択回路252では、逆量子化回路234より出力されるDCT係数より、クラスタップの複数個のDCT係数が選択的に取り出される。このクラスタップの複数個のDCT係数は、特徴量抽出部156に供給される。この特徴量抽出部156では、クラスタップのDCT係数に1ビットのADRC等の処理が施されて、クラスコードCLとしてのADRCコードが生成される。このクラスコードCLは、教師信号STの注目DCTブロックが属するクラスを示すものとなる。
【0493】
また、第1のタップ選択回路251では、逆量子化回路234より出力されるDCT係数より、教師信号STの注目DCTブロックに対応する、予測タップの複数個のDCT係数が選択的に取り出される。
【0494】
そして、遅延回路159で時間調整された教師信号STの各注目DCTブロックのDCT係数yと、この各注目DCTブロックにそれぞれ対応して第1のタップ選択回路251で選択的に取り出される予測タップのDCT係数xiと、パラメータpの値と、各注目DCTブロックにそれぞれ対応して特徴量抽出部156で生成されるクラスコードCLとを用いて、正規方程式生成部160では、クラス毎に、注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3をそれぞれ得るための正規方程式((9)式参照)が生成される。
【0495】
そして、係数種データ決定部161で各正規方程式が解かれ、クラス毎に、注目DCTブロックの各DCT係数にそれぞれ対応した複数組の係数種データwi0〜wi3を求められ、それらの係数種データwi0〜wi3は係数種メモリ162に格納される。
【0496】
このように、図26に示す係数種データ生成装置150Dにおいては、図25の画像信号処理部110Dの情報メモリバンク128に格納される、クラス毎の、推定式((1)式参照)で用いられる係数データWiを求めるための生成式((2)式参照)における係数データである係数種データwi0〜wi3を生成することができる。
【0497】
なお、図25の画像信号処理部110Dでは、係数データWi(i=1〜n)を生成するために(2)式の生成式を使用したが、次数の異なった多項式や、他の関数で表現される式でも実現可能である。
【0498】
また、詳細説明は省略するが、図25の画像信号処理部110Dにおける処理を、例えば図9に示す画像信号処理装置300によって、図1の画像信号処理部110における処理と同様に、ソフトウエアで実現することも可能である(図10のフローチャート参照)。また、詳細説明は省略するが、図26の係数種データ生成装置150Dにおける処理も、図4の係数種データ生成装置150における処理と同様に、ソフトウエアで実現することも可能である(図11のフローチャート参照)。
【0499】
また、図26に示す係数種データ生成装置150Dは、図4に示す係数種データ生成装置150に対応したものであるが、図8に示す係数種データ生成装置150Aに対応したものとすることもできる。すなわち、パラメータpの各値に対応した各クラスの係数データWiを求め、その後にパラメータpの各値に対応した各クラスの係数データWiを用いて、各クラスの係数種データwi0〜wi3を求めるものである。
【0500】
また、図25に示す画像信号処理部110Dでは、情報メモリバンク128に格納されている係数種データwi0〜wi3に基づいて、係数生成回路129でパラメータpの値に対応した各クラスの係数データWiを生成し、この各クラスの係数データWiを係数メモリ126に格納して使用するものである。しかし、図13の画像信号処理部110Aと同様に、情報メモリバンク128Aにクラスおよびパラメータpの値の各組み合わせの係数データWiを格納しておき、パラメータpの値に対応した各クラスの係数データWiを情報メモリバンク128Aより係数メモリ126にロードして使用するように構成してもよい。
【0501】
なお、上述実施の形態においては、DCTを伴うMPEG2ストリームを取り扱うものを示したが、この発明は、その他の符号化されたデジタル情報信号を取り扱うものにも同様に適用することができる。また、DCTの代わりに、ウォーブレット変換、離散サイン変換などのその他の直交変換を伴う符号化であってもよい。
【0502】
また、図4に示す係数種データ生成装置150、図8に示す係数種データ生成装置150A、図14に示す係数データ生成装置170、図18に示す差分データ生成装置210、図23に示す係数種データ生成装置150C、図26に示す係数種データ生成装置150Dのいずれにおいても、MPEG2符号化器152を設け、このMPEG2符号化器152によりMPEG2ストリームを得る構成としているが、このMPEG2ストリームを外部から入力する構成としてもよい。
【0503】
また、上述実施の形態においては、情報信号が画像信号である場合を示したが、この発明はこれに限定されない。例えば、情報信号が音声信号である場合にも、この発明を同様に適用することができる。
【0504】
【発明の効果】
この発明によれば、符号化されたデジタル情報信号あるいはそれを復号化して得られたデジタル情報信号である第1の情報信号を、当該第1の情報信号より情報の質を向上させた第2の情報信号に変換する際に、複数種類のパラメータに対応して予め生成された係数種データと、入力されたパラメータの値とを演算して係数データを求めて当該係数データをクラス毎に格納し、この格納された係数データをクラスを参照して選択する。この選択された係数データと、第2の情報信号における注目位置の周辺に位置する複数の第2の情報データとを演算して注目位置の情報データを求める。これにより、第2の情報信号によって得られる出力の特定の質のみを入力パラメータの値を変更して段階的に調整できる。
【図面の簡単な説明】
【図1】実施の形態としてのデジタル放送受信機の構成を示すブロック図である。
【図2】予測タップ、クラスタップの一例を示す図である。
【図3】係数種データの生成方法の一例を説明するための図である。
【図4】係数種データ生成装置の構成例を示すブロック図である。
【図5】モスキートノイズを段階的に調整する際のAC係数のゲインの変更を説明するための図である。
【図6】MPEG2復号化器の構成を示すブロック図である。
【図7】係数種データ生成方法の他の例を説明するための図である。
【図8】係数種データ生成装置の構成例を示すブロック図である。
【図9】ソフトウェアで実現するための画像信号処理装置の構成例を示すブロック図である。
【図10】画像信号処理を示すフローチャートである。
【図11】係数種データ生成処理(その1)を示すフローチャートである。
【図12】係数種データ生成処理(その2)を示すフローチャートである。
【図13】他の実施の形態としてのデジタル放送受信機の構成を示すブロック図である。
【図14】係数データ生成装置の構成例を示すブロック図である。
【図15】画像信号処理を示すフローチャートである。
【図16】係数データ生成処理を示すフローチャートである。
【図17】さらに他の実施の形態としてのデジタル放送受信機の構成を示すブロック図である。
【図18】差分データ生成装置の構成例を示すブロック図である。
【図19】画像信号処理を示すフローチャートである。
【図20】差分データ生成処理を示すフローチャートである。
【図21】別の実施の形態としてのデジタル放送受信機の構成を示すブロック図である。
【図22】DCT係数の予測タップ、クラスタップの一例を示す図である。
【図23】係数種データ生成装置の構成例を示すブロック図である。
【図24】係数種データ生成装置の構成例を示すブロック図である。
【図25】さらに別の実施の形態としてのデジタル放送受信機の構成を示すブロック図である。
【図26】係数種データ生成装置の構成例を示すブロック図である。
【符号の説明】
100,100A,100B,100C,100D・・・デジタル放送受信機、101・・・システムコントローラ、102・・・リモコン信号受信回路、105・・・受信アンテナ、106・・・チューナ部、107・・・MPEG2復号化器、108・・・バッファメモリ、109・・・ストリームバッファ、110,110A,110B,110C・・・画像信号処理部、111・・・ディスプレイ部、121,225,241・・・第1のタップ選択回路、122,226,242・・・第2のタップ選択回路、122B・・・タップ選択回路、123・・・特徴量抽出部、124・・・付加情報クラス生成部、125・・・クラスコード生成部、126・・・係数メモリ、127・・・推定予測演算回路、128,128A・・・情報メモリバンク、129・・・係数生成回路、131・・・蓄積テーブル、132・・・DCT回路、133,136・・・切換スイッチ、134・・・加算部、135,243・・・逆DCT回路、150・・・係数種データ生成装置、151・・・入力端子、152・・・MPEG2符号化器、153・・・MPEG2復号化器、154,235,251・・・第1のタップ選択回路、155,236,252・・・第2のタップ選択回路、156・・・特徴量抽出部、157・・・付加情報クラス生成部、158・・・クラスコード生成部、159・・・遅延回路、160,163,165・・・正規方程式生成部、161,166・・・係数種データ決定部、162・・・係数メモリ、164・・・係数データ決定部、167・・・係数メモリ、170・・・係数データ生成装置、171,173・・・DCT回路、172,174・・・切換スイッチ、175・・・減算部、176・・・蓄積制御部、177・・・蓄積テーブル、210・・・差分データ生成装置、221,231・・・DCT係数抽出回路、222,232・・・可変長復号化回路、223,233・・・量子化特性指定情報抽出回路、224,234・・・逆量子化回路、227,237・・・符号化制御情報抽出回路、228,238,244・・・予測メモリ回路、229,239,246・・・ピクチャ選択回路、239A・・・演算回路、245・・・加算回路、300・・・画像信号処理装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information signal processing apparatus and an information signal processing method. , Program and computer readable media.
[0002]
Specifically, when the first information signal that is the encoded digital information signal or the digital information signal obtained by decoding the encoded digital information signal is converted into the second information signal, the position of interest in the second information signal is changed. Information data is generated corresponding to the value of the input parameter, and in this case, based on the signal obtained by processing the encoded digital information signal according to the parameter value in the same manner as the encoded digital information signal. By generating predetermined position information data in the second information signal using predetermined data generated in advance, only the specific quality of the output obtained by the second information signal is changed, and the value of the input parameter is changed. The present invention relates to an information signal processing apparatus that can be adjusted step by step.
[0003]
[Prior art]
As one of image signal compression encoding methods, an MPEG2 (Moving Picture Expert Group phase 2) encoding method is used. In the transmission / reception or recording / reproducing system based on MPEG2, the image signal is subjected to compression coding processing according to MPEG2 to be transmitted or recorded, and the received or reproduced image signal is expanded corresponding to the compression coding processing according to MPEG2. By decoding, the original image signal is restored.
[0004]
In the encoding process based on MPEG2, additional information for decoding process is transmitted together with the encoded image data in order to give versatility to the encoding process and to improve the compression efficiency by encoding. . The additional information is inserted into the header of the MPEG2 stream and transmitted to the decoding apparatus.
[0005]
The characteristics of an image signal obtained by decoding, not limited to MPEG, vary greatly depending on the applied encoding / decoding method. For example, the physical characteristics (frequency characteristics, etc.) differ greatly depending on the signal types such as luminance signal, color difference signal, and three primary color signals. This difference also remains in the decoded signal that has undergone the encoding / decoding process. Also, in general, in image coding / decoding processing, the number of pixels to be encoded is often reduced by introducing spatiotemporal thinning processing. The spatio-temporal resolution characteristics of images differ greatly depending on the thinning method. Furthermore, even when the difference in spatio-temporal resolution characteristics is small, image quality characteristics such as S / N and coding distortion amount greatly differ depending on the compression rate (transmission rate) conditions in encoding.
[0006]
The present applicant has previously proposed a classification adaptation process (see JP-A-8-51599). This is because, in the learning process, the actual image signal (teacher signal and student signal) is used to obtain and accumulate prediction coefficients for each class in advance, and in the actual image conversion process, the class is determined from the input image signal. The output pixel value is obtained by the prediction calculation of the prediction coefficient corresponding to the class and the plurality of pixel values of the input image signal. The class is determined according to the distribution and waveform of pixel values in the spatial and temporal vicinity of the pixel to be created. By calculating a prediction coefficient using an actual image signal and calculating a prediction coefficient for each class, it is possible to create a resolution higher than that of an input image signal as compared with a simple interpolation filter process.
[0007]
In the above-described class classification adaptive processing, the resolution of the image obtained by the output image signal is fixed, and it is set to the user's preferred resolution according to the image content, etc., as in the conventional adjustment of contrast, sharpness, etc. I could not. Therefore, the present applicant has further proposed that the user can arbitrarily adjust the resolution by changing the input parameter value (see Japanese Patent Application Laid-Open No. 2001-238185 and Japanese Patent Application No. 2000-348730).
[0008]
[Problems to be solved by the invention]
For example, a digital image signal obtained by decoding an MPEG2 stream is subjected to class classification application processing as an input image signal, and resolution, block distortion, mosquito distortion, noise removal degree, etc. are arbitrarily changed by changing input parameter values. It is possible to adjust. In this case, it is convenient if only a specific quality among the resolution, block distortion, mosquito distortion, noise removal degree, etc. can be adjusted step by step by changing the value of the input parameter.
[0009]
An object of the present invention is to convert a first information signal, which is an encoded digital information signal or a digital information signal obtained by decoding the encoded digital information signal, into a second information signal. An object of the present invention is to provide an information signal processing device or the like that can adjust only a specific quality of an output obtained by changing the value of an input parameter in a stepwise manner.
[0010]
[Means for Solving the Problems]
An information signal processing apparatus according to the present invention provides a first information signal composed of a plurality of pieces of information data generated by decoding an encoded digital information signal. Improved information quality over the first information signal An information signal processing device for converting to a second information signal comprising a plurality of information data, wherein the first information signal From , First data selection means for selecting a plurality of first information data located around the position of interest in the second information signal, and the plurality of first data selected by the first data selection means. Information data Level distribution pattern is detected and the level distribution pattern is detected. Based on Above Class detection means for detecting a class to which the information data of the noted position belongs, and an output obtained by the second information signal information The quality of Step by step Define For multiple types Parameter input means for inputting parameter values, and information data generation for generating information data of the attention position corresponding to the class detected by the class detection means and the parameter values input to the parameter input means Means for generating the information data. The coefficient seed data generated in advance corresponding to the plurality of types of parameters and the value of the parameter input by the parameter input means are calculated to obtain coefficient data, and the coefficient data is stored for each class. Coefficient data generating means for selecting the coefficient data with reference to the class, and a plurality of second information data located around the position of interest in the second information signal is selected from the first information signal. The second data selection means, the plurality of second information data selected by the second data selection means, and the coefficient data selected by the coefficient data generation means are calculated to obtain the information data of the target position Computing means for obtaining It is characterized by providing.
[0011]
Moreover, the information signal processing method according to the present invention provides a first information signal composed of a plurality of pieces of information data generated by decoding an encoded digital information signal. Improved information quality over the first information signal An information signal processing method for converting to a second information signal comprising a plurality of information data, wherein the first information signal is From A first step of selecting a plurality of first information data located around a target position in the second information signal, and the plurality of first information data selected in the first step Level distribution pattern is detected and the level distribution pattern is detected. Based on Above A second step of detecting a class to which the information data of the noted position belongs, and an output obtained by the second information signal information The quality of Step by step Define For multiple types A third step of acquiring a parameter value, a class detected in the second step and a parameter value acquired in the second step, and generating information data of the attention position 4 steps, and in the fourth step, The coefficient seed data generated in advance corresponding to the plurality of types of parameters and the value of the parameter input in the third step are calculated to obtain coefficient data, and the coefficient data is stored for each class. A fifth step of selecting the coefficient data with reference to the class, and a plurality of second information data located around the position of interest in the second information signal is selected from the first information signal. The sixth step, the plurality of second information data selected in the sixth step, and the coefficient data selected with reference to the class in the fifth step are calculated to calculate the position of the target position. And a seventh step for obtaining information data. It is characterized by this.
[0012]
A program according to the present invention is for causing a computer to execute the above information signal processing method. A computer-readable medium according to the present invention records the above-described program.
[0015]
In the present invention, the first information signal composed of a plurality of information data is generated by decoding the encoded digital information signal. Based on the first information signal, a plurality of first information data located around the target position in the second information signal is selected, and based on the plurality of first information data, the position of the target position is selected. The class to which the information data belongs is detected. For example, a level distribution pattern of a plurality of first information data is detected, and a class to which the information data of the target position belongs is detected based on the level distribution pattern. The information signal is, for example, an image signal or an audio signal.
[0016]
Here, when additional information used when decoding the digital information signal is added to the encoded digital information information signal, the additional information based on the additional information together with the plurality of first information data described above is used. By detecting a class, finer classification can be performed, and the generation accuracy of information data can be improved.
[0017]
The parameter input means receives a parameter value that determines the quality of the output obtained by the second information signal. For example, when the encoded digital information signal is an MPEG2 stream, the resolution, block distortion, mosquito noise, noise suppression degree, and the like are determined by the input parameter values.
[0018]
Corresponding to the detected class and the input parameter value as described above, information data of the target position is generated. In this case, information data of a target position is generated using predetermined data generated in advance based on a signal obtained by processing the encoded digital information signal according to the parameter value.
[0019]
For example, the coefficient seed data as the predetermined data, which is the coefficient data in the generation formula for generating the coefficient data used in the estimation formula obtained in advance for each class, is stored in the storage unit in advance, and this coefficient seed Coefficient data of an estimation formula corresponding to the detected class and the input parameter value is generated using the data and the input parameter value, and the first information signal to the second information signal are generated. A plurality of second information data located around the attention position is selected, and information data of the attention position is generated from the coefficient data and the plurality of second information data using an estimation formula.
[0020]
Further, for example, the coefficient data of the estimation formula as the predetermined data previously generated for each combination of the class and the parameter value is stored in the storage unit, and the class detected by the storage unit and the input parameter The coefficient data of the estimation formula corresponding to the value is read out, and a plurality of second information data located around the position of interest in the second information signal is selected from the first information signal. From the second information data, the information data of the attention position is generated using the estimation formula.
[0021]
Further, for example, the difference data as the above-mentioned predetermined data generated in advance for each combination of class and parameter value is stored in the storage means, and corresponds to the class detected from the storage means and the input parameter value. The read difference data is added to the second information data corresponding to the position of interest in the second information signal among the plurality of information data constituting the first information signal. Information data of the attention position is generated.
[0022]
In addition, for example, the frequency coefficient difference data as the above-described predetermined data, which is generated in advance for each combination of the class and the parameter value, is stored in the storage unit, and the class detected by the storage unit and the input parameter Difference data corresponding to the value is read out, orthogonal transformation is performed on the second information data corresponding to the position of interest in the second information signal among the plurality of information data constituting the first information signal, The read difference data is added to the frequency coefficient obtained by the orthogonal transformation, and further, the inverse orthogonal transformation is performed on the added output to generate the information data of the target position.
[0023]
The coefficient seed data, the coefficient data, the difference data, and the frequency coefficient difference data described above are generated, for example, corresponding to a plurality of parameter values, respectively, a plurality of student signals corresponding to the first information signal, and a second Is generated in advance using a teacher signal corresponding to the information signal. For example, the student signal is obtained by decoding the digital information signal obtained by encoding the teacher signal, and the signal is changed according to the parameter value in the decoding process, so that A student signal corresponding to the value is obtained.
[0024]
For example, when the encoding is encoding with orthogonal transformation (discrete cosine transformation, warblet transformation, discrete sine transformation, etc.), when performing inverse orthogonal transformation according to the parameter value in the decoding process At least one of the frequency coefficient and the inverse transform base used in the above is changed.
[0025]
A plurality of student signals can be obtained by setting the gains of all AC (alternating current) coefficients among the frequency coefficients to the same value and changing the gains according to the parameter values. In this case, the resolution in the output obtained by the second information signal described above can be adjusted stepwise according to the parameter value.
[0026]
When the frequency coefficient is quantized, a plurality of student signals can be obtained by changing the quantization step of the DC (direct current) coefficient among the frequency coefficients in accordance with the parameter value. In this case, the block distortion in the output obtained by the second information signal can be adjusted stepwise according to the parameter value.
[0027]
A plurality of student signals can be obtained by decreasing the gain of the AC coefficient of the frequency coefficient as the frequency increases and changing the degree of decrease in the gain of the AC coefficient according to the parameter value. In this case, the mosquito noise in the output obtained by the second information signal described above can be adjusted stepwise according to the parameter value.
[0028]
Moreover, a plurality of student signals can be obtained by adding random noise to at least the frequency coefficient or the inverse transform base and changing the level of the random noise according to the parameter value. In this case, the degree of noise suppression in the output obtained by the second information signal can be adjusted stepwise according to the parameter value.
[0029]
Predetermined data (coefficient seed data, coefficient data, difference data, difference data of frequency coefficients) generated in advance based on a signal obtained by processing the encoded digital information signal according to the parameter value in this way Etc.), it is possible to adjust only the specific quality of the output obtained by the second information signal stepwise by changing the value of the input parameter.
[0103]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a digital broadcast receiver 100 as an embodiment.
The digital broadcast receiver 100 includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 for receiving a remote control signal. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.
[0104]
Also, the digital broadcast receiver 100 is supplied with a receiving antenna 105 and a broadcast signal (RF modulated signal) captured by the receiving antenna 105, performs channel selection processing, demodulation processing, error correction processing, etc. And a tuner unit 106 that obtains an MPEG2 stream as an encoded image signal.
[0105]
The digital broadcast receiver 100 also temporarily decodes the MPEG2 decoder 107 that decodes the MPEG2 stream output from the tuner unit 106 to obtain the image signal Va, and the image signal output from the MPEG2 decoder 107. And a buffer memory 108 for storing.
[0106]
Further, the digital broadcast receiver 100 converts the image signal Va stored in the buffer memory 108 into an image signal Vb that presents a user-desired image quality, and outputs from the image signal processing unit 110. And a display unit 111 for displaying an image based on the image signal. The display unit 111 includes a display such as a CRT (cathode-ray tube) display or an LCD (liquid crystal display).
[0107]
The operation of the digital broadcast receiver 100 shown in FIG. 1 will be described.
The MPEG2 stream output from the tuner unit 106 is supplied to the MPEG2 decoder 107 and decoded. The image signal Va output from the decoder 107 is supplied to the buffer memory 108 and temporarily stored.
Thus, the image signal Va stored in the buffer memory 108 is supplied to the image signal processing unit 110 and converted into an image signal Vb that presents a user-desired image quality. In the image signal processing unit 110, pixel data constituting the image signal Vb is obtained from the pixel data constituting the image signal Va.
The image signal Vb output from the image signal processing unit 110 is supplied to the display unit 111, and an image based on the image signal Vb is displayed on the screen of the display unit 111.
[0108]
The user can adjust the resolution, block distortion, mosquito noise, or noise suppression degree in the image displayed on the screen of the display unit 111 as described above by operating the remote control transmitter 200. In the image signal processing unit 110, pixel data of the image signal Vb is calculated by an estimation formula, as will be described later. As the coefficient data of this estimation formula, the data corresponding to the value of the parameter p changed by the user's operation of the remote control transmitter 200 is generated and used by the generation formula including this parameter p. Thereby, the resolution, block distortion, mosquito noise, or noise suppression degree in the image by the image signal Vb output from the image signal processing unit 110 corresponds to the changed value of the parameter p.
[0109]
Next, details of the image signal processing unit 110 will be described.
The image signal processing unit 110 selectively extracts and outputs a plurality of pixel data located around the target position in the image signal Vb from the image signal Va stored in the buffer memory 108 and outputs the first and second taps. Selection circuits 121 and 122 are provided.
[0110]
The first tap selection circuit 121 selectively extracts a plurality of pixel data of prediction taps used for prediction. The second tap selection circuit 122 selectively extracts a plurality of pixel data of class taps used for class classification. The pixel data of the prediction tap and the class tap are pixel data located around the target position in the image signal Vb.
Here, the periphery of the target position means a position that is spatially (horizontal and vertical) and temporal (frame direction) close to the target position.
[0111]
FIG. 2A shows an example of the arrangement of prediction taps, and FIG. 2B shows an example of the arrangement of class taps. 2A and 2B, “◯” indicates the position of the tap, and “X” indicates the position of interest. In the present embodiment, seven pixel data in the current field (shown with a solid line) and the previous field (shown with a broken line) are extracted as pixel data of a prediction tap, and the current field (shown with a solid line) and the previous field (shown with a broken line). 13 pixel data are extracted as pixel data of the class tap.
[0112]
Returning to FIG. 1, the image signal processing unit 110 also includes a feature amount extraction unit 123 that extracts a feature amount from the pixel data of the class tap selectively extracted by the second tap selection circuit 122. The feature amount extraction unit 123 generates an ADRC code as first class information indicating a space class by performing processing such as 1-bit ADRC (Adaptive Dynamic Range Coding) on the pixel data of the class tap.
[0113]
ADRC calculates the maximum value and minimum value of a plurality of pixel data of a class tap, calculates a dynamic range that is the difference between the maximum value and the minimum value, and requantizes each pixel value in accordance with the dynamic range. . In the case of 1-bit ADRC, the pixel value is converted to 1 bit depending on whether it is larger or smaller than the average value of the plurality of pixel values of the class tap. The ADRC process is a process for making the number of classes representing the level distribution of pixel values relatively small. Therefore, not limited to ADRC, encoding that compresses the number of bits of a pixel value such as VQ (vector quantization) may be used.
[0114]
The image signal processing unit 110 includes an additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the additional information used when the MPEG2 stream is decoded. In the present embodiment, this additional information is encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG decoder 107.
[0115]
Further, the image signal processing unit 110 performs class classification based on the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124. A class code generation unit 125 that generates a class code CL indicating the result is included.
[0116]
The image signal processing unit 110 has a coefficient memory 126. The coefficient memory 126 stores, for each class, a plurality of coefficient data Wi (i = 1 to n) used in an estimation formula used in an estimated prediction calculation circuit 127 described later. The coefficient data Wi is information for converting the image signal Va into the image signal Vb. The class code CL output from the class code generation unit 125 described above is supplied to the coefficient memory 126 as read address information, and the coefficient data Wi of the estimation formula corresponding to the class code CL is read from the coefficient memory 126. , And supplied to the estimated prediction calculation circuit 127.
[0117]
The image signal processing unit 110 has an information memory bank 128. In the estimated prediction calculation circuit 127, the pixel data y of the target position in the image signal Vb to be generated is calculated from the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126 by the estimation formula (1). Calculated. In the equation (1), n represents the number of prediction taps selected by the first tap selection circuit 121.
[0118]
[Expression 1]
Figure 0004140259
[0119]
The coefficient data Wi of this estimation formula is generated by a generation formula including the parameter p as shown in the formula (2). In the information memory bank 128, coefficient seed data w which is coefficient data in this generation formula is stored. i0 ~ W i3 Is stored for each class.
Wi = w i0 + W i1 p + w i2 p 2 + W i3 p Three ... (2)
[0120]
In addition, the image signal processing unit 110 performs coefficient seed data w for each class. i0 ~ W i3 And a coefficient generation circuit 129 that generates coefficient data Wi (i = 1 to n) of an estimation expression corresponding to the value of the parameter p for each class, using the value of the parameter p and the value of the parameter p. Yes. The coefficient generation circuit 129 receives from the information memory bank 128 the coefficient seed data w of each class described above. i0 ~ W i3 Is loaded. The coefficient generation circuit 129 is supplied with the value of the parameter p from the system controller 101.
[0121]
The coefficient data Wi (i = 1 to n) of each class generated by the coefficient generation circuit 129 is stored in the coefficient memory 126 described above. The generation of coefficient data Wi for each class in the coefficient generation circuit 129 is performed, for example, in each vertical blanking period. Thereby, even if the value of the parameter p is changed by the user's operation of the remote control transmitter 200, the coefficient data Wi of each class stored in the coefficient memory 126 is immediately changed to the one corresponding to the value of the parameter p. The user can smoothly adjust the resolution, block distortion, mosquito noise, noise suppression degree, and the like.
[0122]
Here, the coefficient seed data w stored in the information memory bank 128 as described above. i0 ~ W i3 Will be further described. This coefficient seed data w i0 ~ W i3 Is generated in advance based on a signal obtained by processing an MPEG2 stream encoded in the same manner as the MPEG2 stream input to the MPEG2 decoder 107 described above according to the value of the parameter p.
[0123]
That is, this coefficient seed data w i0 ~ W i3 Are respectively generated according to a plurality of values of the parameter p, and are generated in advance using a plurality of student signals corresponding to the image signal Va and a teacher signal corresponding to the image signal Vb. In this case, the student signal is obtained by decoding the MPEG2 stream obtained by MPEG2 encoding the teacher signal, and the signal is changed according to the value of the parameter p in the process of decoding, so that the parameter A student signal corresponding to the value of p is obtained. In the present embodiment, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing the inverse discrete cosine transform (inverse DCT) is changed according to the value of the parameter p.
[0124]
For example, it is possible to obtain a plurality of student signals by changing the gain according to the value of the parameter p while setting the gain of all AC coefficients of the DCT coefficients to the same value. The coefficient seed data w generated in advance in the information memory bank 128 using the plurality of student signals thus obtained. i0 ~ W i3 Is stored, the resolution of the image obtained by the image signal Vb can be adjusted stepwise according to the value of the parameter p.
[0125]
Further, for example, a plurality of student signals can be obtained by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p. The coefficient seed data w generated in advance in the information memory bank 128 using the plurality of student signals thus obtained. i0 ~ W i3 Is stored, the block distortion of the image obtained by the image signal Vb described above can be adjusted stepwise according to the value of the parameter p.
[0126]
In addition, for example, a plurality of student signals can be obtained by reducing the gain of the AC coefficient of the DCT coefficient as the frequency increases and changing the degree of decrease in the gain of the AC coefficient according to the parameter value. Can do. The coefficient seed data w generated in advance in the information memory bank 128 using the plurality of student signals thus obtained. i0 ~ W i3 Is stored, the mosquito noise of the image obtained by the image signal Vb can be adjusted stepwise according to the value of the parameter p.
[0127]
Also, for example, a plurality of student signals can be obtained by adding random noise to at least the DCT coefficient or the inverse transform base and changing the level of the random noise according to the value of the parameter p. The coefficient seed data w generated in advance in the information memory bank 128 using the plurality of student signals thus obtained. i0 ~ W i3 Is stored, the noise suppression degree of the image obtained by the image signal Vb can be adjusted stepwise according to the value of the parameter p.
[0128]
In addition, the image signal processing unit 110 uses the estimation formula (1) from the prediction tap pixel data xi selectively extracted by the first tap selection circuit 121 and the coefficient data Wi read from the coefficient memory 126. And an estimated prediction calculation circuit 127 for calculating pixel data y of the target position in the image signal Vb to be created.
[0129]
Next, the operation of the image signal processing unit 110 will be described.
From the image signal Va stored in the buffer memory 108, the second tap selection circuit 122 selectively extracts pixel data of class taps located around the target position in the image signal Vb to be created. The pixel data of this class tap is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code as first class information indicating a space class is generated.
[0130]
Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 107 is supplied to the additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the encoding control information.
[0131]
Then, the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124 are supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the first class information and the second class information.
[0132]
The class code CL represents the detection result of the class to which the pixel data at the target position in the image signal Vb belongs. The class code CL is supplied to the coefficient memory 126 as read address information. The coefficient memory 126 stores, for each class, coefficient seed data w for each class corresponding to the value of the parameter p adjusted by the user by the coefficient generation circuit 129 in each vertical blanking period. i0 ~ W i3 Is used to determine and store coefficient data Wi (i = 1 to n) of the estimation formula (see formula (2)).
[0133]
As described above, the class code CL is supplied to the coefficient memory 126 as read address information, whereby the coefficient data Wi corresponding to the class code CL is read from the coefficient memory 126 and supplied to the estimated prediction calculation circuit 127. The Further, the pixel data of the prediction tap located around the target position in the image signal Vb is selectively extracted by the first tap selection circuit 121 from the image signal Va stored in the buffer memory 108.
[0134]
The estimated prediction calculation circuit 127 uses the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126, and based on the estimation formula (see formula (1)), attention is paid to the image signal Vb to be generated. The pixel data y of the position is obtained.
[0135]
In this way, the image signal processing unit 110 calculates the pixel data y using the coefficient data Wi (i = 1 to n) of the estimation formula corresponding to the value of the parameter p. Therefore, the user can arbitrarily adjust the resolution, block distortion, mosquito noise, or noise suppression degree of the image by the image signal Vb by changing the value of the parameter p.
[0136]
Also, coefficient seed data w for generating coefficient data Wi i0 ~ W i3 Is generated in advance based on a signal obtained by processing an MPEG2 stream encoded in the same manner as the MPEG2 stream input to the MPEG2 decoder 107 described above according to the value of the parameter p. Only the specific quality of the image based on the image signal Vb, for example, only the resolution, only the block distortion, only the mosquito noise, or only the noise suppression degree can be adjusted stepwise.
[0137]
Next, an example of a method for generating the coefficient seed data w will be described. In this example, coefficient seed data w which is coefficient data in the generation formula of the above-described formula (2). i0 ~ W i3 The example which calculates | requires is shown.
Here, for the following explanation, as shown in equation (3), t j (J = 0 to 3) is defined.
t 0 = 1, t 1 = P, t 2 = P 2 , T Three = P Three ... (3)
Using this equation (3), equation (2) can be rewritten as equation (4).
[0138]
[Expression 2]
Figure 0004140259
[0139]
Finally, the undetermined coefficient w ij Ask for. That is, for each class, the coefficient value that minimizes the square error is determined using the pixel data of the student signal corresponding to the image signal Va and the pixel data of the teacher signal corresponding to the image signal Vb. This is a so-called least square method. The learning number is m, and the residual in the kth learning data (1 ≦ k ≦ m) is e. k If the sum of squared errors is E, E is expressed by equation (5) using equations (1) and (2). Where x ik Is the k-th pixel data at the i-th predicted tap position of the student signal, y k Represents pixel data of the k-th teacher signal corresponding thereto.
[0140]
[Equation 3]
Figure 0004140259
[0141]
In the least square method, w in equation (5) ij W such that the partial differential due to becomes zero ij Ask for. This is shown by equation (6).
[0142]
[Expression 4]
Figure 0004140259
[0143]
Hereinafter, as shown in the equations (7) and (8), X ipjq , Y ip Is defined, equation (6) can be rewritten using a matrix like equation (9).
[0144]
[Equation 5]
Figure 0004140259
[0145]
[Formula 6]
Figure 0004140259
[0146]
This equation is generally called a normal equation. This normal equation can be calculated using the sweep-out method (Gauss-Jordan elimination method), etc. ij The coefficient seed data is calculated.
[0147]
FIG. 3 shows an example of the concept of the above-described coefficient seed data generation method. A plurality of student signals corresponding to the image signal Va are generated from the teacher signal corresponding to the image signal Vb. For example, the parameter p is varied in nine steps to generate nine types of student signals. The coefficient seed data is generated by performing learning between the plurality of student signals and the teacher signal generated as described above.
[0148]
FIG. 4 shows coefficient seed data w stored in the information memory bank 128 of the digital broadcast receiver 100 described above. i0 ~ W i3 2 shows a configuration of a coefficient seed data generation device 150 for generating.
[0149]
The coefficient seed data generation device 150 includes an input terminal 151 to which a teacher signal ST corresponding to the image signal Vb is input, an MPE2 encoder 152 that performs encoding on the teacher signal to obtain an MPEG2 stream, An MPEG2 decoder 153 that decodes the MPEG2 stream to obtain a student signal SS. The value of the parameter p is input to the MPEG2 decoder 153.
[0150]
In the decoder 153, in the decoding process, the signal is changed according to the value of the parameter p, and a student signal corresponding to the value of the parameter p is obtained. In this embodiment, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing inverse discrete cosine transform (inverse DCT) is changed.
[0151]
Here, in DCT, a DCT coefficient (frequency coefficient) F (u, v) with respect to a pixel value f (i, j) is given by equation (10). On the other hand, in inverse DCT, a pixel value f (i, j) with respect to a DCT coefficient (frequency coefficient) F (u, v) is given by equation (11). Here, C (w) = 1 / √2 (w = 0) and C (w) = 1 (w ≠ 0). Thus, in inverse DCT, the pixel value f (i, j) is obtained by a product-sum operation of the DCT coefficient (frequency coefficient) and the inverse transform base.
[0152]
[Expression 7]
Figure 0004140259
[0153]
For example, it is possible to obtain a plurality of student signals by changing the gain according to the value of the parameter p while setting the gain of all AC coefficients of the DCT coefficients to the same value. Here, if the original AC coefficient is AC [m] and the gain is gain, the new AC coefficient newAC [m] is newAC [m] = AC [m] * gain. In this case, since the correlation between the AC coefficients can be maintained, the coefficient seed data w generated using the plurality of student signals obtained in this way is used. i0 ~ W i3 Can adjust the resolution of the image obtained by the image signal Vb in a stepwise manner in accordance with the value of the parameter p.
[0154]
Further, for example, a plurality of student signals can be obtained by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p. Here, assuming that the original DC coefficient is DC [m], the original quantization step is Qst, and the new quantization step is newQst, the new DC coefficient newDC [m] is newDC [m] = {DC [ m] * Qst / newQst}. {} Represents an integer operation. In this case, the variation of the DC coefficient can be manipulated, and the coefficient seed data w generated using the plurality of student signals obtained in this way. i0 ~ W i3 The block distortion of the image obtained by the image signal Vb can be adjusted stepwise according to the value of the parameter p.
[0155]
Further, for example, by reducing the gain of the AC coefficient of the DCT coefficient as the high frequency region is changed, and the degree of decrease in the high frequency gain of the AC coefficient is changed according to the value of the parameter p, a plurality of student signals are obtained. be able to. Here, if the original AC coefficient is AC [m] and the gain is gain [m], the new AC coefficient newAC [m] is newAC [m] = AC [m] * gain [m]. In this case, the correlation between the AC coefficients is broken stepwise, and coefficient seed data w generated using a plurality of student signals obtained in this way. i0 ~ W i3 Can adjust the mosquito noise of the image obtained by the image signal Vb in a stepwise manner in accordance with the value of the parameter p.
[0156]
Also, for example, a plurality of student signals can be obtained by adding random noise to at least the DCT coefficient or the inverse transform base and changing the level of the random noise according to the value of the parameter p. When the original AC coefficient is AC [m] and the random noise is rdmN, the new AC coefficient newAC [m] is newAC [m] = AC [m] + rdmN. Similarly, if the original DC coefficient is DC [m] and the random noise is rdmN, the new DC coefficient newDC [m] is newDC [m] = DC [m] + rdmN. Similarly, when the original base is REF [m] and the random noise is rdmN, the new base newREF [m] is newREF = REF [m] + rdmN. In this case, coefficient level data w generated using a plurality of student signals obtained by switching the level of random noise in stages. i0 ~ W i3 Can adjust the noise suppression degree of the image obtained by the image signal Vb in a stepwise manner in accordance with the value of the parameter p.
[0157]
FIG. 6 shows the configuration of the MPEG2 decoder 153.
The decoder 153 has an input terminal 181 to which an MPEG2 stream is input, and a stream buffer 182 that temporarily stores the MPEG2 stream input to the input terminal 181.
[0158]
The decoder 153 extracts the DCT (Discrete Cosine Transform) coefficient as a frequency coefficient from the MPEG2 stream stored in the stream buffer 182 and the extraction circuit 183 extracts the DCT coefficient. A variable length decoding circuit 184 that performs variable length decoding on DCT coefficients that have been subjected to variable length coding, for example, Huffman coding.
[0159]
The decoder 153 also extracts an extraction circuit 185 for extracting quantization characteristic designation information from the MPEG2 stream stored in the stream buffer 182, and the quantization characteristic designation information extracted by the extraction circuit 185. Inverse quantization circuit 186 that performs inverse quantization on the quantized DCT coefficient output from variable length decoding circuit 184, and an inverse DCT circuit that performs inverse DCT on the DCT coefficient output from inverse quantization circuit 186 187.
[0160]
Further, the decoder 153 stores the image signals of the I picture (Intra-Picture) and the P picture (Predictive-Picture) in a memory (not shown) and uses the image signals from the inverse DCT circuit 187. When an image signal of a P picture or a B picture (Bidirectionally predictive-Picture) is output, a prediction memory circuit 188 that generates and outputs a corresponding reference image signal Vref is provided.
[0161]
In addition, when the inverse DCT circuit 187 outputs a P picture or B picture image signal, the decoder 153 adds an adder circuit 189 that adds the reference image signal Vref generated by the prediction memory circuit 188 to the image signal. Have. When the image signal of the I picture is output from the inverse DCT circuit 187, the reference image signal Vref is not supplied from the prediction memory circuit 188 to the adder circuit 189. The image signal of the I picture is output as it is.
[0162]
In addition, the decoder 153 supplies the image signals of the I picture and the P picture output from the adder circuit 189 to the prediction memory circuit 188 and stores them in the memory, and also stores the image of each picture output from the adder circuit 189. It has a picture selection circuit 190 that rearranges and outputs signals in the correct order, and an output terminal 191 that outputs an image signal output from the picture selection circuit 190.
[0163]
The decoder 153 also extracts an extraction circuit 192 that extracts encoding control information, that is, picture information PI and motion vector information MI, from the MPEG2 stream stored in the stream buffer 182, and an output that outputs the encoding control information. Terminal 193. The motion vector information MI extracted by the extraction circuit 192 is supplied to the prediction memory circuit 188, and the prediction memory circuit 188 performs motion compensation when generating the reference image signal Vref using the motion vector information MI. The picture information PI extracted by the extraction circuit 192 is supplied to the prediction memory circuit 188 and the picture selection circuit 190, and the prediction memory circuit 188 and the picture selection circuit 190 identify pictures based on the picture information PI. .
[0164]
The operation of the MPEG2 decoder 153 shown in FIG. 6 will be described.
The MPEG2 stream stored in the stream buffer 182 is supplied to the extraction circuit 183, and DCT coefficients as frequency coefficients are extracted. This DCT coefficient is variable-length encoded, and this DCT coefficient is supplied to the variable-length decoding circuit 184 and decoded. Then, the quantized DCT coefficient output from the variable length decoding circuit 184 is supplied to the inverse quantization circuit 186 and subjected to inverse quantization.
[0165]
The DCT coefficient output from the inverse quantization circuit 186 is subjected to inverse DCT by the inverse DCT circuit 183, and an image signal of each picture is obtained. The picture signal of each picture is supplied to the picture selection circuit 190 via the addition circuit 189. In this case, the reference image signal Vref output from the prediction memory circuit 188 is added by the addition circuit 189 to the image signals of the P picture and the B picture. The picture signals of each picture are rearranged in the correct order by the picture selection circuit 190 and output to the output terminal 191.
[0166]
Returning to FIG. 4, the coefficient seed data generation apparatus 150 selectively extracts a plurality of pixel data located around the target position in the teacher signal ST from the student signal SS output from the MPEG2 decoder 153. A first tap selection circuit 154 and a second tap selection circuit 155 that output the first tap. The first and second tap selection circuits 154 and 155 are configured similarly to the first and second tap selection circuits 121 and 122 of the image signal processing unit 110 described above, respectively.
[0167]
In addition, the coefficient seed data generation device 150 includes a feature amount extraction unit 156 that extracts a feature amount from pixel data of class taps that are selectively extracted by the second tap selection circuit 155. The feature amount extraction unit 156 is configured in the same manner as the feature amount extraction unit 123 of the image signal processing unit 110 described above, and generates an ADRC code as first class information indicating a space class.
[0168]
Also, the coefficient seed data generation device 150 generates second class information indicating the additional information class based on the encoded information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 153. An additional information class generation unit 157 is generated. The additional information class generation unit 157 is configured in the same manner as the additional information class generation unit 124 of the image signal processing unit 110 described above.
[0169]
In addition, the coefficient seed data generation device 150 performs class classification based on the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157. A class code generation unit 158 that generates a class code CL indicating the result of the above. The class code generation unit 158 is configured in the same manner as the class code generation unit 125 of the image signal processing unit 110 described above. The class code CL indicates a class to which the pixel data y at the target position in the teacher signal ST belongs.
[0170]
The coefficient seed data generation device 150 also includes a delay circuit 159 for adjusting the time of the teacher signal ST supplied to the input terminal 151, and each attention position obtained from the teacher signal ST adjusted in time by the delay circuit 159. Pixel data y, prediction tap pixel data xi selectively extracted by the first tap selection circuit 154 in correspondence with the pixel data y of each target position, the value of the parameter p, and each target position Coefficient seed data w for each class from the class code CL generated by the class code generating unit 158 corresponding to each pixel data y. i0 ~ W i3 A normal equation generating unit 160 for generating a normal equation (see equation (9)) for obtaining
[0171]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding to the piece of pixel data y. A plurality of student signals SS are sequentially generated, and learning data is generated between the teacher signal and each student signal. As a result, the normal equation generation unit 160 generates a normal equation in which many pieces of learning data having different values of the parameter p are registered, and the coefficient seed data w i0 ~ W i3 Can be obtained.
[0172]
Further, the coefficient seed data generation device 150 is supplied with data of normal equations generated for each class by the normal equation generation unit 160, solves the normal equations, and generates coefficient seed data w for each class. i0 ~ W i3 Is provided with a coefficient seed data determining unit 161 and a coefficient seed memory 162 for storing the obtained coefficient seed data. In the coefficient seed data determination unit 161, the normal equation is solved, for example, by a sweeping method, and coefficient coefficient data is obtained.
[0173]
The operation of the coefficient seed data generation device 150 shown in FIG. 4 will be described.
A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the teacher signal ST is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153.
[0174]
The value of the parameter p is input to the MPEG2 decoder 153 so that the signal changes in accordance with the value of the parameter p in the decoding process. That is, in the present embodiment, as described above, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing the inverse discrete cosine transform (inverse DCT) according to the value of the parameter p. Is changed. Thereby, the student signal SS corresponding to the value of the parameter p is obtained.
[0175]
Further, from the student signal SS output from the MPEG2 decoder 153, the second tap selection circuit 155 selectively extracts pixel data of class taps located around the target position in the teacher signal ST. The pixel data of this class tap is supplied to the feature amount extraction unit 156. The feature amount extraction unit 156 generates an ADRC code as first class information indicating a space class based on the pixel data of the class tap.
[0176]
Also, encoded information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 153 is supplied to the additional information class generation unit 157. The additional information class generation unit 157 generates second class information indicating the additional information class based on the encoded information.
[0177]
Then, the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157 are supplied to the class code generation unit 158, respectively. In this class code generation unit 158, based on the first class information and the second class information, a class code CL indicating the class to which the pixel data y at the target position in the teacher signal ST belongs (result of class classification) is generated. The
[0178]
Also, from the student signal SS output from the MPEG decoder 153, the first tap selection circuit 154 selectively extracts pixel data of prediction taps located around the target position in the teacher signal ST.
[0179]
Then, the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 159 and the first tap selection circuit 154 selectively corresponding to the pixel data y of each target position. The normal equation generation unit 160 uses the predicted tap pixel data xi, the value of the parameter p, and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position. Coefficient seed data w for each class i0 ~ W i3 A normal equation (see equation (9)) is obtained.
[0180]
Then, the coefficient seed data determination unit 161 solves each normal equation, and the coefficient seed data w for each class. i0 ~ W i3 Are obtained, and their coefficient seed data w i0 ~ W i3 Is stored in the coefficient seed memory 162.
[0181]
As described above, the coefficient seed data generation device 150 shown in FIG. 4 uses the estimation formula (see formula (1)) for each class stored in the information memory bank 128 of the image signal processing unit 110 in FIG. Coefficient data w which is coefficient data in a generation formula (see formula (2)) for obtaining the coefficient data Wi i0 ~ W i3 Can be generated.
[0182]
Next, another example of the coefficient seed data generation method will be described. Also in this example, coefficient seed data w which is coefficient data in the generation formula of the above-described formula (2) i0 ~ W i3 The example which calculates | requires is shown.
FIG. 7 shows the concept of this example. A plurality of student signals are generated from the teacher signal. For example, the value of the parameter p is varied in 9 steps to generate 9 types of student signals. Learning is performed between each student signal and the teacher signal generated in this way, and coefficient data Wi of the estimation formula (1) is generated. Then, using the coefficient data Wi generated corresponding to each student signal, the coefficient seed data w which is the coefficient data in the generation equation (2) i0 ~ W i3 Is generated.
[0183]
First, how to obtain coefficient data of the estimation formula will be described. Here, an example is shown in which the coefficient data Wi (i = 1 to n) of the estimation formula (1) is obtained by the least square method.
In the above equation (1), before learning, coefficient data W 1 , W 2 , ..., W n Is an undetermined coefficient. Learning is performed on a plurality of signal data for each class. When the number of learning data is m, the following equation (12) is set according to equation (1). n indicates the number of prediction taps.
y k = W 1 X k1 + W 2 X k2 + ... + W n X kn (12)
(K = 1, 2,..., M)
If m> n, coefficient data W 1 , W 2 , ..., W n Is not uniquely determined, so the element e of the error vector e k Is defined by the following equation (13), and e in equation (14) 2 Find coefficient data that minimizes. Coefficient data is uniquely determined by a so-called least square method.
e k = Y k -{W 1 X k1 + W 2 X k2 + ... + w n X kn } (13)
(K = 1, 2, ... m)
[0184]
[Equation 8]
Figure 0004140259
[0185]
E in equation (14) 2 As a practical calculation method for obtaining coefficient data that minimizes the value, first, as shown in the equation (15), e 2 Is partially differentiated with the coefficient data Wi (i = 1, 2,..., N), and the coefficient data Wi may be obtained so that the partial differential value becomes 0 for each value of i.
[0186]
[Equation 9]
Figure 0004140259
[0187]
A specific procedure for obtaining the coefficient data Wi from the equation (15) will be described. If Xji and Yi are defined as in equations (16) and (17), equation (15) can be written in the form of a determinant of equation (18).
[0188]
[Expression 10]
Figure 0004140259
[0189]
## EQU11 ##
Figure 0004140259
[0190]
Equation (18) is generally called a normal equation. Coefficient data Wi (i = 1, 2,..., N) can be obtained by solving this normal equation by a general solution method such as a sweep-out method (Gauss-Jordan elimination method).
[0191]
Next, how to obtain coefficient seed data using coefficient data Wi generated corresponding to each student signal will be described.
The coefficient data of a certain class obtained by learning using the student signal corresponding to the value of the parameter p is k pi Suppose that Here, i is the number of the prediction tap. This k pi From this, coefficient class data of this class is obtained.
[0192]
The coefficient data Wi (i = 1 to n) is the coefficient seed data w i0 ~ W i3 Is expressed by the above-described equation (2). Here, considering that the least square method is used for the coefficient data Wi, the residual is expressed by equation (19).
[0193]
[Expression 12]
Figure 0004140259
[0194]
Where t j Is shown in the above equation (3). When the least square method is applied to equation (19), equation (20) is obtained.
[0195]
[Formula 13]
Figure 0004140259
[0196]
Where X jk , Y j Are defined as equations (21) and (22), respectively, equation (20) can be rewritten as equation (23). This equation (23) is also a normal equation, and the coefficient seed data w i0 ~ W i3 Can be calculated.
[0197]
[Expression 14]
Figure 0004140259
[0198]
FIG. 8 shows a configuration of a coefficient seed data generation device 150A that generates coefficient seed data based on the concept shown in FIG. In FIG. 8, parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0199]
The coefficient seed data generation device 150A includes pixel data y at each position of interest obtained from the teacher signal ST time-adjusted by the delay circuit 159, and a first tap selection circuit corresponding to the pixel data y at each position of interest. From the pixel data xi of the prediction tap selectively extracted in 154 and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position, coefficient data Wi ( A normal equation generation unit 163 that generates a normal equation (see equation (18)) for obtaining i = 1 to n) is provided.
[0200]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding to the piece of pixel data y. A plurality of student signals SS are sequentially generated, and learning data is generated between the teacher signal and each student signal. As a result, the normal equation generation unit 163 generates a normal equation for obtaining coefficient data Wi (i = 1 to n) for each class corresponding to each student signal.
[0201]
Further, the coefficient seed data generation device 150A is supplied with the data of the normal equation generated by the normal equation generation unit 163, solves the normal equation, and obtains the coefficient data Wi of each class corresponding to each student signal. Using the coefficient data determination unit 164 and coefficient data Wi corresponding to the value of the parameter p and each student signal, the coefficient seed data w i0 ~ W i3 And a normal equation generation unit 165 that generates a normal equation (see equation (23)) for obtaining.
[0202]
Further, the coefficient seed data generation device 150A is supplied with the data of the normal equation generated for each class by the normal equation generation unit 165, solves the normal equation for each class, and generates coefficient seed data w for each class. i0 ~ W i3 The coefficient seed data determination unit 166 for determining the coefficient seed data w i0 ~ W i3 And a coefficient seed memory 162 for storing.
The rest of the coefficient seed data generation device 150A shown in FIG. 8 is configured in the same manner as the coefficient seed data generation device 150 shown in FIG.
[0203]
Next, the operation of the coefficient seed data generation device 150A shown in FIG. 8 will be described.
A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the teacher signal ST is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153.
[0204]
The value of the parameter p is input to the MPEG2 decoder 153 so that the signal changes in accordance with the value of the parameter p in the decoding process. That is, in the present embodiment, as described above, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing the inverse discrete cosine transform (inverse DCT) according to the value of the parameter p. Is changed. Thereby, the student signal SS corresponding to the value of the parameter p is obtained.
[0205]
Further, from the student signal SS output from the MPEG2 decoder 153, the second tap selection circuit 155 selectively extracts pixel data of class taps located around the target position in the teacher signal ST. The pixel data of this class tap is supplied to the feature amount extraction unit 156. The feature amount extraction unit 156 generates an ADRC code as first class information indicating a space class based on the pixel data of the class tap.
[0206]
Also, encoded information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG2 decoder 153 is supplied to the additional information class generation unit 157. The additional information class generation unit 157 generates second class information indicating the additional information class based on the encoded information.
[0207]
Then, the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157 are supplied to the class code generation unit 158, respectively. In this class code generation unit 158, based on the first class information and the second class information, a class code CL indicating the class to which the pixel data y at the target position in the teacher signal ST belongs (result of class classification) is generated. The
[0208]
Also, from the student signal SS output from the MPEG decoder 153, the first tap selection circuit 154 selectively extracts pixel data of prediction taps located around the target position in the teacher signal ST.
[0209]
Then, the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 159 and the first tap selection circuit 154 selectively corresponding to the pixel data y of each target position. The normal equation generation unit 163 uses the pixel data xi of the predicted tap, the value of the parameter p, and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position. , A normal equation (((n = 1 to n)) for obtaining coefficient data Wi (i = 1 to n) for each class for a plurality of student signals SS respectively corresponding to a plurality of values of the parameter p output from the MPEG2 decoder 153. 18) is generated.
[0210]
Then, the coefficient data determining unit 164 solves the normal equation, and the coefficient data Wi of each class corresponding to each of the plurality of student signals SS is obtained. The normal equation generation unit 165 uses the coefficient data Wi of each class corresponding to each of the plurality of student signals SS to generate coefficient seed data w for each class. i0 ~ W i3 A normal equation (see equation (23)) is obtained.
[0211]
Then, the coefficient seed data determining unit 166 solves the normal equation, and the coefficient seed data w of each class. i0 ~ W i3 Is obtained and its coefficient seed data w i0 ~ W i3 Is stored in the coefficient seed memory 162.
[0212]
As described above, also in the coefficient seed data generation apparatus 150A shown in FIG. 8, the coefficient seed data w of each class stored in the information memory bank 128 of the image signal processing unit 110 in FIG. i0 ~ W i3 Can be generated.
[0213]
In the image signal processing unit 110 of FIG. 1, the generation formula of the formula (2) is used to generate the coefficient data Wi (i = 1 to n), but it is expressed by a polynomial having a different order or another function. It is also possible to use this formula.
[0214]
Further, in the image signal processing unit 110 of FIG. 1, in addition to the first class information (ADRC code) indicating the space class output from the feature amount extraction unit 123, the additional information generated by the additional information class generation unit 124. Based on the second class information indicating the class, the class code generation unit 125 generates the class code CL. However, the class code CL may be generated using only the first class information. However, by generating the class code CL in consideration of the second class information, finer classification can be performed, and the generation accuracy of the pixel data of the image signal Vb can be improved.
[0215]
Note that the processing in the image signal processing unit 110 in FIG. 1 can be realized by software, for example, by an image signal processing apparatus 300 as shown in FIG.
[0216]
First, the image signal processing apparatus 300 shown in FIG. 9 will be described. The image signal processing apparatus 300 includes a CPU 301 that controls the operation of the entire apparatus, a ROM (read only memory) 302 that stores an operation program of the CPU 301, coefficient seed data, and the like, and a RAM ( random access memory) 303. These CPU 301, ROM 302, and RAM 303 are each connected to a bus 304.
[0217]
The image signal processing apparatus 300 also includes a hard disk drive (HDD) 305 as an external storage device and a drive (FDD) 307 that drives a floppy (registered trademark) disk 306. These drives 305 and 307 are each connected to a bus 304.
[0218]
In addition, the image signal processing apparatus 300 includes a communication unit 308 that is connected to a communication network 400 such as the Internet by wire or wirelessly. The communication unit 308 is connected to the bus 304 via the interface 309.
[0219]
In addition, the image signal processing device 300 includes a user interface unit. The user interface unit includes a remote control signal receiving circuit 310 that receives a remote control signal RM from the remote control transmitter 200, and a display 311 that includes an LCD (liquid crystal display) or the like. The receiving circuit 310 is connected to the bus 304 via the interface 312, and similarly the display 311 is connected to the bus 304 via the interface 313.
[0220]
Further, the image signal processing apparatus 300 has an input terminal 314 for inputting the image signal Va and an output terminal 315 for outputting the image signal Vb. The input terminal 314 is connected to the bus 304 via the interface 316, and similarly, the output terminal 315 is connected to the bus 304 via the interface 317.
[0221]
Here, instead of storing the processing program, coefficient seed data, and the like in the ROM 302 in advance as described above, for example, they are downloaded from the communication network 400 such as the Internet via the communication unit 308 and stored in the hard disk or RAM 303 for use. You can also Further, these processing programs, coefficient seed data, and the like may be provided on a floppy (registered trademark) disk 306.
[0222]
Further, instead of inputting the image signal Va to be processed from the input terminal 314, it may be recorded in advance on a hard disk or downloaded from the communication network 400 such as the Internet via the communication unit 308. Further, instead of outputting the processed image signal Vb to the output terminal 315 or in parallel therewith, it is supplied to the display 311 to display an image, further stored in a hard disk, the Internet via the communication unit 308, etc. It may be sent to the communication network 400.
[0223]
A processing procedure for obtaining the image signal Vb from the image signal Va in the image signal processing apparatus 300 shown in FIG. 9 will be described with reference to the flowchart of FIG.
First, in step ST1, processing is started, and in step ST2, for example, an image signal Va for one frame or one field is input into the apparatus from the input terminal 314. Thus, the pixel data constituting the image signal Va input from the input terminal 314 is temporarily stored in the RAM 303. When the image signal Va is recorded in advance in the hard disk drive 307 in the apparatus, the image signal Va is read from the drive 307, and the pixel data constituting the image signal Va is temporarily stored in the RAM 303. To do.
[0224]
In step ST3, it is determined whether or not processing of all frames or all fields of the image signal Va has been completed. When the process is finished, the process ends in step ST4. On the other hand, when the process is not finished, the process proceeds to step ST5.
[0225]
In step ST5, the value of the parameter p, which is the image quality designation value input by the user's operation of the remote control transmitter 200, is acquired from the RAM 303, for example. In step ST6, using the value of the parameter P and the coefficient seed data of each class, the coefficient data Wi of the estimation formula (see formula (1)) of each class is generated by a generation formula (for example, formula (2)). To do.
[0226]
Next, in step ST7, pixel data of class taps and prediction taps are acquired from the image signal Va input in step ST2 corresponding to the target position in the image signal Vb. In step ST8, it is determined whether or not the processing for obtaining the pixel data of the image signal Vb has been completed in the entire region of the pixel data of the image signal Va for one frame or one field input in step ST2. If completed, the process returns to step ST2, and the process proceeds to input processing of the image signal Va for the next one frame or one field. On the other hand, when the process has not ended, the process proceeds to step ST9.
[0227]
In step ST9, a class code CL is generated from the pixel data of the class tap acquired in step ST7. In step ST10, using the coefficient data Wi corresponding to the class code CL and the pixel data of the prediction tap, the pixel data of the target position in the image signal Vb is generated by the estimation formula, and then the process returns to step ST7. Then, the same processing as described above is repeated.
[0228]
As described above, by performing processing according to the flowchart shown in FIG. 10, the pixel data of the input image signal Va can be processed to obtain the pixel data of the image signal Vb. As described above, the image signal Vb obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be supplied to the hard disk. Or is recorded.
[0229]
In step ST9, the class code CL is generated from the pixel data of the class tap. However, in addition to the image signal Va, encoding control information (picture information PI, motion vector information MI) related to the image signal Va is also input from the input terminal 314, and the image signal processing unit 110 in FIG. As in, the class code CL may be generated using this encoding control information.
Further, although illustration of the processing device is omitted, the processing in the coefficient seed data generation device 150 in FIG. 4 can also be realized by software.
[0230]
A processing procedure for generating coefficient seed data will be described with reference to the flowchart of FIG.
First, in step ST21, processing is started, and in step ST22, an image quality pattern (specified by the value of parameter p) used for learning is selected. In step ST23, it is determined whether learning has been completed for all image quality patterns. If learning has not been completed for all image quality patterns, the process proceeds to step ST24.
[0231]
In this step ST24, the teacher signal is inputted for one frame or one field. In step ST25, it is determined whether or not the processing of all the frames or fields of the teacher signal has been completed. When the process is completed, the process returns to step ST22, the next image quality pattern is selected, and the same process as described above is repeated. On the other hand, when not completed, the process proceeds to step ST26.
[0232]
In step ST26, a student signal is generated based on the image quality pattern selected in step ST22 from the teacher signal input in step ST24. In step ST27, the pixel data of the class tap and the prediction tap are acquired from the student signal generated in step ST26 corresponding to the attention position in the teacher signal input in step ST24. In step ST28, it is determined whether or not the learning process has been completed in all regions of the teacher signal input in step ST24. When the learning process is completed, the process returns to step ST24, the teacher signal for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the process has not ended, the process proceeds to step ST29.
[0233]
In step ST29, the class code CL is generated from the pixel data of the class tap acquired in step ST27. In step ST30, a normal equation (see equation (9)) is generated. Thereafter, the process returns to step ST27.
[0234]
If learning for all image quality patterns is completed in step ST23, the process proceeds to step ST31. In this step ST31, the coefficient seed data of each class is calculated by solving the normal equation by a sweeping method or the like. In step ST32, the coefficient seed data is stored in the memory, and then the process is terminated in step ST33. .
[0235]
In this way, by performing the processing according to the flowchart shown in FIG. 11, coefficient seed data can be obtained by the same method as the coefficient seed data generating apparatus 150 shown in FIG.
[0236]
In step ST29, the class code CL is generated from the pixel data of the class tap. However, similar to the coefficient seed data generation device 150 of FIG. 4, the class code CL may be generated using also the encoding control information (picture information PI, motion vector information MI) related to the student signal.
Although illustration of the processing device is omitted, the processing in the coefficient seed data generation device 150A in FIG. 8 can also be realized by software.
[0237]
A processing procedure for generating coefficient seed data will be described with reference to the flowchart of FIG.
First, in step ST41, processing is started, and in step ST42, an image quality pattern (specified by the value of parameter p) used for learning is selected. In step ST43, it is determined whether or not learning has been completed for all image quality patterns. If learning has not been completed for all image quality patterns, the process proceeds to step ST44.
[0238]
In this step ST44, the teacher signal is inputted for one frame or one field. In step ST45, it is determined whether or not the processing of all the frames or fields of the teacher signal has been completed. If not completed, a student signal is generated in step ST46 based on the image quality pattern selected in step ST42 from the teacher signal input in step ST44.
[0239]
In step ST47, the pixel data of the class tap and the prediction tap are acquired from the student signal generated in step ST46 corresponding to the attention position in the teacher signal input in step ST44. In step ST48, it is determined whether or not the learning process has been completed in all regions of the teacher signal input in step ST44. When the learning process is finished, the process returns to step ST44, the teacher signal for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the learning process is not ended, the process proceeds to step ST49.
[0240]
In step ST49, a class code CL is generated from the pixel data of the class tap acquired in step ST47. In step ST50, a normal equation for obtaining coefficient data (see equation (18)) is generated. Thereafter, the process returns to step ST47.
[0241]
When the processing is completed in step ST45 described above, in step ST51, the normal equation generated in step ST50 is solved by a sweeping method or the like to calculate coefficient data for each class. Thereafter, the process returns to step ST42, the next image quality pattern is selected, the same processing as described above is repeated, and the coefficient data of each class corresponding to the next image quality pattern is obtained.
[0242]
If the coefficient data calculation process for all image quality patterns is completed in step ST43, the process proceeds to step ST52. In this step ST52, a normal equation (see equation (23)) for obtaining coefficient seed data is generated from coefficient data for all image quality patterns.
[0243]
Then, in step ST53, the coefficient equation data of each class is calculated by solving the normal equation generated in step ST52 by a sweeping method or the like, and in step ST54, the coefficient species data is stored in the memory, and then the step In ST55, the process ends.
[0244]
In this way, by performing processing according to the flowchart shown in FIG. 12, coefficient seed data can be obtained by the same method as the coefficient seed data generating apparatus 150A shown in FIG.
[0245]
In step ST49, the class code CL is generated from the pixel data of the class tap. However, similar to the coefficient seed data generation device 150A of FIG. 8, the class code CL may be generated using also the encoding control information (picture information PI, motion vector information MI) related to the student signal.
[0246]
Next, another embodiment of the present invention will be described.
FIG. 13 shows a configuration of a digital broadcast receiver 100A as another embodiment. In FIG. 13, portions corresponding to those in FIG.
[0247]
The digital broadcast receiver 100A is obtained by replacing the image signal processing unit 110 of the digital broadcast receiver 100 shown in FIG. 1 with the image signal processing unit 110A, and operates in the same manner as the digital broadcast receiver 100.
[0248]
Details of the image signal processing unit 110A will be described. In this image signal processing unit 110A, parts corresponding to those of the image signal processing unit 110 shown in FIG.
[0249]
The image signal processing unit 110A has an information memory bank 128A. In this information memory bank 128A, coefficient data Wi (i = 1 to n) is stored in advance for each combination of class and parameter p values. A method for generating the coefficient data Wi will be described later.
[0250]
The coefficient data Wi stored in the information memory bank 128A in this way is also the coefficient seed data w stored in the information memory bank 128 of the image signal processing unit 110 in FIG. i0 ~ W i3 Similarly, the MPEG2 stream encoded in the same manner as the MPEG2 stream input to the MPEG2 decoder 107 is generated in advance based on a signal obtained by processing according to the value of the parameter p.
[0251]
That is, the coefficient data Wi is generated according to a plurality of values of the parameter p, and is generated in advance using a plurality of student signals corresponding to the image signal Va and a teacher signal corresponding to the image signal Vb.
[0252]
In this case, the student signal is obtained by decoding the MPEG2 stream obtained by MPEG2 encoding the teacher signal, and the signal is changed according to the value of the parameter p in the process of decoding, so that the parameter A student signal corresponding to the value of p is obtained. In this case, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing inverse discrete cosine transform (inverse DCT) is changed according to the value of the parameter p.
[0253]
For example, it is possible to obtain a plurality of student signals by changing the gain according to the value of the parameter p while setting the gain of all AC coefficients of the DCT coefficients to the same value. When the coefficient data Wi generated in advance using a plurality of student signals obtained in this way is stored in the information memory bank 128A, the resolution of the image obtained by the image signal Vb is set to the parameter p. It can be adjusted in stages according to the value.
[0254]
Further, for example, a plurality of student signals can be obtained by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p. When the coefficient data Wi generated in advance using a plurality of student signals obtained in this way is stored in the information memory bank 128A, the block distortion of the image obtained by the image signal Vb is set as the parameter p. It becomes possible to adjust in steps according to the value of.
[0255]
In addition, for example, a plurality of student signals can be obtained by reducing the gain of the AC coefficient of the DCT coefficient as the frequency increases and changing the degree of decrease in the gain of the AC coefficient according to the parameter value. Can do. When coefficient data Wi generated in advance using a plurality of student signals obtained in this way is stored in the information memory bank 128A, the mosquito noise of the image obtained by the image signal Vb is set as the parameter p. It becomes possible to adjust in steps according to the value of.
[0256]
Also, for example, a plurality of student signals can be obtained by adding random noise to at least the DCT coefficient or the inverse transform base and changing the level of the random noise according to the value of the parameter p. When the coefficient seed data Wi generated in advance using a plurality of student signals obtained in this way is stored in the information memory bank 128A, the noise suppression degree of the image obtained by the image signal Vb described above is set. The adjustment can be made in stages according to the value of the parameter p.
[0257]
The operation of the image signal processing unit 110A will be described.
From the image signal Va stored in the buffer memory 108, the second tap selection circuit 122 selectively extracts pixel data of class taps located around the target position in the image signal Vb to be created. The pixel data of this class tap is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code as first class information indicating a space class is generated.
[0258]
Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG decoder 107 is supplied to the additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the encoding control information.
[0259]
Then, the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124 are supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the first class information and the second class information.
[0260]
The class code CL represents the detection result of the class to which the pixel data at the target position in the image signal Vb belongs. The class code CL is supplied to the coefficient memory 126 as read address information.
[0261]
In the coefficient memory 126, for example, coefficient data Wi of each class corresponding to the value of the parameter p adjusted by the user during the vertical blanking period is loaded from the information memory bank 128A and stored under the control of the system controller 101. Is done.
[0262]
When the coefficient data Wi corresponding to the adjusted parameter p value is not stored in the information memory bank 128A, the coefficient data Wi corresponding to the values before and after the adjusted parameter p value is stored in the information memory bank 128A. The coefficient data corresponding to the adjusted value of the parameter p may be obtained by reading from the memory bank 128A and performing an interpolation calculation process using them.
[0263]
As described above, the class code CL is supplied to the coefficient memory 126 as read address information, whereby the coefficient data Wi corresponding to the class code CL is read from the coefficient memory 126 and supplied to the estimated prediction calculation circuit 127. The Further, the pixel data of the prediction tap located around the target position in the image signal Vb is selectively extracted by the first tap selection circuit 121 from the image signal Va stored in the buffer memory 108.
[0264]
The estimated prediction calculation circuit 127 uses the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126, and based on the estimation formula (see formula (1)), attention is paid to the image signal Vb to be generated. The pixel data y of the position is obtained.
[0265]
Thus, in the image signal processing unit 110A, the pixel data y is calculated using the coefficient data Wi (i = 1 to n) of the estimation formula corresponding to the value of the parameter p. Therefore, the user can arbitrarily adjust the resolution, block distortion, mosquito noise, or noise suppression degree of the image by the image signal Vb by changing the value of the parameter p.
[0266]
The coefficient data Wi is based on a signal obtained by processing an MPEG2 stream encoded in the same manner as the MPEG2 stream input to the MPEG2 decoder 107 described above according to the value of the parameter p. It is generated in advance, and only the specific quality of the image based on the image signal Vb, for example, only the resolution, only the block distortion, only the mosquito noise, or only the noise suppression degree can be adjusted in stages.
[0267]
Next, a method for generating the coefficient data Wi (i = 1 to n) will be described.
In the above, as another example of the coefficient seed data generation method, for each student signal obtained by changing the value of the parameter p stepwise, the coefficient data Wi of each class is generated by learning using the signal, Next, using the coefficient data Wi for each student signal, coefficient seed data w for each class Ten ~ W n9 I explained what I wanted. The coefficient data Wi for each combination of class and parameter p values stored in advance in the information memory bank 128A can be generated in the same manner as in the first half of this coefficient seed data generation method.
[0268]
FIG. 14 shows the coefficient data generation device 170. In this coefficient data generation device 170, parts corresponding to those of the coefficient seed data generation device 150A shown in FIG.
[0269]
This coefficient data generation device 170 has a coefficient memory 167. The coefficient memory 167 stores coefficient data Wi of each class corresponding to each value of the parameter p determined by the coefficient data determination unit 164. The rest of the coefficient data generation device 170 is configured in the same manner as the coefficient seed data generation device 150A shown in FIG. 8 and operates in the same manner.
[0270]
14 generates coefficient data Wi for each combination of class and parameter p values stored in the information memory bank 128A of the image signal processing unit 110A of FIG. be able to.
[0271]
In addition, the processing in the image signal processing unit 110A in FIG. 13 can be realized by software, for example, by the image signal processing device 300 shown in FIG. 9, similarly to the processing in the image signal processing unit 110 in FIG. In this case, coefficient data is stored in advance in the ROM 302 or the like and used.
[0272]
A processing procedure for obtaining the image signal Vb from the image signal Va in the image signal processing apparatus 300 shown in FIG. 9 will be described with reference to the flowchart of FIG.
First, in step ST61, processing is started. In step S62, for example, an image signal Va for one frame or one field is input into the apparatus from the input terminal 314. Thus, the pixel data constituting the image signal Va input from the input terminal 314 is temporarily stored in the RAM 303. When the image signal Va is recorded in advance in the hard disk drive 307 in the apparatus, the image signal Va is read from the drive 307, and the pixel data constituting the image signal Va is temporarily stored in the RAM 303. To do.
[0273]
In step ST63, it is determined whether or not the processing of all frames or all fields of the image signal Va has been completed. When the process is finished, the process ends at step ST64. On the other hand, when the process is not finished, the process proceeds to step ST65.
[0274]
In step ST65, the value of the parameter p, which is an image quality designation value input by the user's operation of the remote control transmitter 200, is acquired from the RAM 303, for example. In step ST66, based on the acquired value of the parameter p, the coefficient data Wi of each class corresponding to the value of the parameter p is read from the ROM 302 or the like and temporarily stored in the RAM 303.
[0275]
Next, in step ST67, pixel data of class taps and prediction taps are acquired from the image signal Va input in step ST62, corresponding to the target position in the image signal Vb. In step ST68, it is determined whether or not the processing for obtaining the pixel data of the image signal Vb has been completed in the entire area of the pixel data of the image signal Va for one frame or one field input in step ST62. If completed, the process returns to step ST62, and the process proceeds to input processing of the image signal Va for the next one frame or one field. On the other hand, when the process has not ended, the process proceeds to step ST69.
[0276]
In step ST69, the class code CL is generated from the pixel data of the class tap acquired in step ST67. In step ST70, the coefficient data Wi corresponding to the class code CL and the pixel data of the prediction tap are used to generate pixel data of the target position in the image signal Vb by the estimation formula, and then the process returns to step ST67. Then, the same processing as described above is repeated.
[0277]
As described above, by performing processing according to the flowchart shown in FIG. 15, the pixel data of the input image signal Va can be processed to obtain the pixel data of the image signal Vb. As described above, the image signal Vb obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be supplied to the hard disk. Or is recorded.
[0278]
In step ST69, the class code CL is generated from the pixel data of the class tap. However, in addition to the image signal Va, encoding control information (picture information PI, motion vector information MI) related to the image signal Va is also input from the input terminal 314, and the image signal processing unit 110A in FIG. As in, the class code CL may be generated using this encoding control information.
Although illustration of the processing device is omitted, the processing in the coefficient data generation device 170 in FIG. 14 can also be realized by software.
[0279]
A processing procedure for generating coefficient data will be described with reference to the flowchart of FIG.
First, in step ST81, processing is started, and in step ST82, an image quality pattern (specified by the value of parameter p) used for learning is selected. In step ST83, it is determined whether learning has been completed for all image quality patterns. If learning has not been completed for all image quality patterns, the process proceeds to step ST84.
[0280]
In this step ST84, the teacher signal is inputted for one frame or one field. In step ST85, it is determined whether or not the processing of all the frames or fields of the teacher signal has been completed. If not completed, a student signal is generated in step ST86 based on the image quality pattern selected in step ST82 from the teacher signal input in step ST84.
[0281]
Then, in step ST87, pixel data of class taps and prediction taps are acquired from the student signal generated in step ST86, corresponding to the target position in the teacher signal input in step ST84. In step ST88, it is determined whether or not the learning process has been completed in all regions of the teacher signal input in step ST84. When the learning process is finished, the process returns to step ST84, the teacher signal for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the learning process is not ended, the process proceeds to step ST89.
[0282]
In step ST89, a class code CL is generated from the pixel data of the class tap acquired in step ST87. In step ST90, a normal equation for obtaining coefficient data (see equation (18)) is generated. Thereafter, the process returns to step ST87.
[0283]
When the processing is completed in step ST85 described above, in step ST91, the normal equation generated in step ST90 is solved by a sweeping method or the like to calculate coefficient data of each class. Thereafter, the process returns to step ST82, the next image quality pattern is selected, the same processing as described above is repeated, and the coefficient data of each class corresponding to the next image quality pattern is obtained.
[0284]
When the coefficient data calculation processing for all image quality patterns is completed in step ST83, the class coefficient data for all image quality patterns is stored in the memory in step ST92, and then in step ST93. The process ends.
[0285]
In this way, by performing processing according to the flowchart shown in FIG. 16, coefficient data can be obtained by a method similar to that of the coefficient data generating apparatus 170 shown in FIG. In step ST89, the class code CL is generated from the pixel data of the class tap. However, similarly to the coefficient data generation device 170 of FIG. 14, the class code CL may be generated using also the encoding control information (picture information PI, motion vector information MI) related to the student signal.
[0286]
Next, still another embodiment of the present invention will be described.
FIG. 17 shows a configuration of a digital broadcast receiver 100B as another embodiment. In FIG. 17, parts corresponding to those in FIG. 1 are given the same reference numerals.
[0287]
The digital broadcast receiver 100B is obtained by replacing the image signal processing unit 110 of the digital broadcast receiver 100 shown in FIG. 1 with the image signal processing unit 110B, and operates in the same manner as the digital broadcast receiver 100.
[0288]
Details of the image signal processing unit 110B will be described. In this image signal processing unit 110B, portions corresponding to those of the image signal processing unit 110 shown in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0289]
The image signal processing unit 110B has an accumulation table 131. In the accumulation table 131, difference data DF is stored in advance for each combination of class and parameter p values. The difference data DF is difference data of pixel values or DCT coefficients (frequency coefficients) obtained by DCT processing. The accumulation table 131 is supplied with the class code CL output from the class code generation unit 125 and the value of the parameter p output from the system controller 101 as read address information. The difference data DF corresponding to the value of the class code CL and the parameter p is read from the accumulation table 131 and supplied to the adding unit 134 described later.
[0290]
The difference data DF stored in the accumulation table 131 is also the coefficient seed data w stored in the information memory bank 128 of the image signal processing unit 110 in FIG. i0 ~ W i3 Similarly, the MPEG2 stream encoded in the same manner as the MPEG2 stream input to the MPEG2 decoder 107 is generated in advance based on a signal obtained by processing according to the value of the parameter p.
[0291]
That is, the difference data DF is generated according to a plurality of values of the parameter p, and is generated in advance using a plurality of student signals corresponding to the image signal Va and a teacher signal corresponding to the image signal Vb.
[0292]
In this case, the student signal is obtained by decoding the MPEG2 stream obtained by MPEG2 encoding the teacher signal, and the signal is changed according to the value of the parameter p in the process of decoding, so that the parameter A student signal corresponding to the value of p is obtained. In this case, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing inverse discrete cosine transform (inverse DCT) is changed according to the value of the parameter p.
[0293]
For example, it is possible to obtain a plurality of student signals by changing the gain according to the value of the parameter p while setting the gain of all AC coefficients of the DCT coefficients to the same value. When difference data DF previously generated using a plurality of student signals obtained in this way is stored in the accumulation table 131, the resolution of the image obtained by the image signal Vb is set to the value of the parameter p. It becomes possible to adjust in stages according to.
[0294]
Further, for example, a plurality of student signals can be obtained by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p. In the case where the difference data DF generated in advance using a plurality of student signals obtained in this way is stored in the accumulation table 131, the block distortion of the image obtained by the image signal Vb is set to the parameter p. It can be adjusted in stages according to the value.
[0295]
In addition, for example, a plurality of student signals can be obtained by reducing the gain of the AC coefficient of the DCT coefficient as the frequency increases and changing the degree of decrease in the gain of the AC coefficient according to the parameter value. Can do. In the case where the difference data DF generated in advance using a plurality of student signals obtained in this way is stored in the accumulation table 131, the mosquito noise of the image obtained by the image signal Vb is set to the parameter p. It can be adjusted in stages according to the value.
[0296]
Also, for example, a plurality of student signals can be obtained by adding random noise to at least the DCT coefficient or the inverse transform base and changing the level of the random noise according to the value of the parameter p. When difference data DF generated in advance using a plurality of student signals obtained in this way is stored in the accumulation table 131, the noise suppression degree of the image obtained by the image signal Vb is set as the parameter p. It becomes possible to adjust in steps according to the value of.
[0297]
The image signal processing unit 100B also performs DCT processing on the image signal Va stored in the buffer memory 108 to obtain a DCT coefficient, and the DCT coefficient output from the DCT circuit 132 is the a side. And a selector switch 133 to which the image signal Va output from the buffer memory 108 is input to the fixed terminal on the b side. The changeover switch 133 is connected to the b side when the difference data DF stored in the accumulation table 131 is the difference data of the pixel value, and the a side when the difference data DF is the difference data of the DCT coefficient obtained by the DCT processing. Connected to.
[0298]
Further, the image signal processing unit 110B outputs the difference data DF read from the accumulation table 131 to the pixel data (pixel value or DCT coefficient) x corresponding to the target position in the image signal Vb output from the movable terminal of the changeover switch 133. Are added to generate pixel data y of the target position in the image signal Vb.
[0299]
In addition, the image signal processing unit 110B includes an inverse DCT circuit 135 that performs an inverse DCT process on the output signal of the adder 134, and an output signal of the inverse DCT circuit 135 is input to a fixed terminal on the a side. and a selector switch 136 to which the output signal of the adder 134 is input to a fixed terminal on the b side. This changeover switch 136 is connected to the b side when the difference data DF stored in the accumulation table 131 is the difference data of the pixel value, and is the a side when it is the difference data of the DCT coefficient obtained by the DCT processing. Connected to. A signal output from the movable terminal of the changeover switch 136 is supplied to the display unit 111 as an image signal Vb.
[0300]
Further, the image signal processing unit 110B includes a tap selection circuit 122B corresponding to the second tap selection circuit 122 in the image signal processing unit 110 illustrated in FIG. The tap selection circuit 122B selectively extracts a plurality of pixel data of class taps used for class classification.
[0301]
Here, when the difference data DF stored in the accumulation table 131 is pixel value difference data, the tap selection circuit 122B stores a plurality of pixel data located around the target position in the image signal Vb as class taps. Are selectively extracted as pixel data. The class code generator 125 generates a class code CL indicating the class to which the pixel data (one piece) at the target position in the image signal Vb belongs. Then, based on the class code CL, one difference data DF corresponding to the target position in the image signal Vb is read from the accumulation table 131 and supplied to the adding unit 134.
[0302]
On the other hand, when the difference data DF stored in the accumulation table 131 is DCT coefficient difference data obtained by DCT processing, the tap selection circuit 122B uses the pixel block of interest (for example, the pixel block ( A plurality of pixel data corresponding to a DCT block as a unit of DCT processing) is selectively extracted as class tap pixel data. Then, the class code generator 125 generates a class code CL indicating the class to which the target pixel block in the image signal Vb belongs. Then, based on the class code CL, a plurality of difference data DF corresponding to the number of pixel data in the pixel block is read from the accumulation table 131 and supplied to the adding unit 134.
[0303]
The operation of the image signal processing unit 110B will be described.
First, a case where the difference data DF stored in the accumulation table 131 is pixel value difference data will be described. In this case, the changeover switches 133 and 136 are respectively connected to the b side.
[0304]
From the image signal Va stored in the buffer memory 108, the tap selection circuit 122B selectively extracts pixel data of the class tap located around the target position in the image signal Vb to be created. The pixel data of this class tap is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code as first class information indicating a space class is generated.
[0305]
Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG decoder 107 is supplied to the additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the encoding control information.
[0306]
Then, the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124 are supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the first class information and the second class information. The class code CL indicates a class to which pixel data (one piece) at the target position in the image signal Vb belongs.
[0307]
This class code CL is Accumulation table 131 Is supplied as read address information. Based on the class code CL, one difference data DF corresponding to the target position in the image signal Vb is read from the accumulation table 131 and supplied to the adding unit 134.
[0308]
Of the image signal Va stored in the buffer memory 108, pixel data x corresponding to the target position in the image signal Vb is supplied to the adding unit 134 via the b side of the changeover switch 133. In the adder 134, the difference data DF read from the accumulation table is added to the pixel data x, and the pixel data y at the target position in the image signal Vb is generated. The pixel data y is output as an output signal of the image signal processing unit 110B via the b side of the changeover switch 136.
[0309]
Next, a case where the difference data DF stored in the accumulation table 131 is DCT coefficient difference data obtained by DCT processing will be described. In this case, the changeover switches 133 and 136 are respectively connected to the a side.
[0310]
From the image signal Va stored in the buffer memory 108, the tap selection circuit 122B selectively extracts a plurality of pixel data corresponding to the target pixel block in the image signal Vb to be created as pixel data of the class tap. The pixel data of this class tap is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code as first class information indicating a space class is generated.
[0311]
Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG decoder 107 is supplied to the additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the encoding control information.
[0312]
Then, the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124 are supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the first class information and the second class information. The class code CL indicates the class to which the target pixel block in the image signal Vb belongs.
[0313]
This class code CL is Accumulation table 131 Is supplied as read address information. Based on the class code CL, a plurality of difference data DF is read from the accumulation table 131 and supplied to the adding unit 134.
[0314]
Also, DCT is obtained for a plurality of pixel data of the image signal Va corresponding to the pixel block of interest in the image signal Vb (all pixel data in this block becomes pixel data of the target position) obtained from the DCT circuit 132. A plurality of DCT coefficients x constituting the DCT block obtained by performing the processing are supplied to the adding unit 134 via the a side of the changeover switch 133. In the adder 134, the plurality of difference data DF read from the accumulation table is added to the plurality of DCT coefficients x, respectively, and the DCT coefficient y of the DCT block corresponding to the target pixel block in the image signal Vb is generated. .
[0315]
A plurality of DCT coefficients y of each DCT block sequentially output from the adder 134 corresponding to each block of interest in the image signal Vb are supplied to the inverse DCT circuit 135. In the inverse DCT circuit 135, inverse DCT processing is performed on a plurality of DCT coefficients y of each DCT block to obtain pixel data (pixel value) of each pixel block. In this manner, the pixel data output from the inverse DCT circuit 135 is output as an output signal of the image signal processing unit 110B via the a side of the changeover switch 136.
[0316]
As described above, the image signal processing unit 110B calculates the pixel data (DCT coefficient) y using the difference data DF corresponding to the value of the parameter p. Therefore, the user can arbitrarily adjust the resolution, block distortion, mosquito noise, or noise suppression degree of the image by the image signal Vb by changing the value of the parameter p.
[0317]
The difference data DF is preliminarily determined based on a signal obtained by processing an MPEG2 stream encoded in the same manner as the MPEG2 stream input to the MPEG2 decoder 107 described above according to the value of the parameter p. Only the specific quality of the image generated by the image signal Vb, for example, only the resolution, only the block distortion, only the mosquito noise, or only the noise suppression level can be adjusted stepwise.
[0318]
FIG. 18 shows a configuration of the difference data generation device 210 that generates the difference data DF to be stored in the accumulation table 131 of the image signal processing unit 110B of FIG. 18, parts corresponding to those in FIG. 4 are given the same reference numerals, and detailed descriptions thereof are omitted.
[0319]
The differential data generation device 210 performs DCT processing on the student signal SS output from the MPEG2 decoder 153 to obtain a DCT coefficient, and the DCT coefficient output from the DCT circuit 171 is a side. The changeover switch 172 to which the student signal SS output from the MPEG2 decoder 153 is input is input to the fixed terminal on the b side. The changeover switch 172 is connected to the b side when the difference data DF accumulated in the accumulation table 177 described later is the difference data of the pixel value, and the a side when the difference data DF is the difference data of the DCT coefficient obtained by the DCT processing. Connected to.
[0320]
Further, the differential data generation device 210 performs a DCT process on the teacher signal ST time-adjusted by the delay circuit 159 to obtain a frequency coefficient, and the frequency coefficient output from the DCT circuit 173 is the a side. And a changeover switch 174 to which the teacher signal ST adjusted in time by the delay circuit 159 is input to the b-side fixed terminal. The changeover switch 174 is connected to the b side when the difference data DF accumulated in the accumulation table 177 to be described later is the difference data of the pixel value, and the a side when the difference data DF is the difference data of the DCT coefficient obtained by the DCT processing. Connected to.
[0321]
Further, the difference data generation device 210 is output from the movable terminal of the changeover switch 174 from the pixel data (pixel value or DCT coefficient) y of the target position of the teacher signal ST output from the movable terminal of the changeover switch 174. A subtracting unit 175 that subtracts pixel data (pixel value or DCT coefficient) x corresponding to the target position of the teacher signal ST to obtain difference data df is provided.
[0322]
Further, the difference data generation device 210 applies the class code CL output from the class code generation unit 158 and the value of the parameter p input to the MPEG2 decoder 153 to the difference data df sequentially output from the subtraction unit 175. Is stored in the accumulation table 177 as difference data DF, and an averaging process is performed for each combination of class and parameter p.
[0323]
Further, the difference data generation device 210 has a tap selection circuit 155A corresponding to the second tap selection circuit 155 in the coefficient seed data generation device 150 shown in FIG. The tap selection circuit 155A selectively extracts a plurality of pixel data of class taps used for class classification.
[0324]
Here, when the difference data DF stored in the accumulation table 177 is pixel value difference data, in the tap selection circuit 155A, a plurality of pixel data located around the target position in the teacher signal ST is a pixel of a class tap. It is selectively retrieved as data. Then, the class code generation unit 158 generates a class code CL indicating the class to which the pixel data (one piece) at the target position in the teacher signal ST belongs.
[0325]
On the other hand, when the difference data DF stored in the accumulation table 177 is DCT coefficient difference data obtained by DCT processing, the tap selection circuit 155A uses, for example, the target pixel block (DCT processing) in the teacher signal ST from the student signal SS. A plurality of pixel data corresponding to a DCT block which is a unit of () are selectively extracted as class tap pixel data. The class code generation unit 158 generates a class code CL indicating the class to which the pixel block of interest belongs in the teacher signal ST.
The rest of the difference data generation device 210 shown in FIG. 18 is configured in the same manner as the coefficient seed data generation device 150 shown in FIG.
[0326]
Next, the operation of the difference data generation device 210 shown in FIG. 18 will be described.
First, a case where the difference data DF stored in the accumulation table 177 is pixel value difference data will be described. In this case, the changeover switches 172 and 174 are respectively connected to the b side.
[0327]
A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the teacher signal ST is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153.
[0328]
The value of the parameter p is input to the MPEG2 decoder 153 so that the signal changes in accordance with the value of the parameter p in the decoding process. That is, in the present embodiment, as described above, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing the inverse discrete cosine transform (inverse DCT) according to the value of the parameter p. Is changed. Thereby, the student signal SS corresponding to the value of the parameter p is obtained.
[0329]
Of the teacher signal ST time-adjusted by the delay circuit 159, the pixel data y at the target position is supplied to the subtraction unit 175 via the b side of the changeover switch 174. Of the student signal SS output from the MPEG2 decoder 153, pixel data x corresponding to the position of interest in the teacher signal ST is supplied to the subtracting unit 175 via the b side of the changeover switch 172. Then, in the subtraction unit 175, the pixel data x is subtracted from the pixel data y to generate difference data df. The difference data df corresponding to each position of interest in the teacher signal ST sequentially output from the subtraction unit 175 is supplied to the accumulation control unit 176.
[0330]
Also, from the student signal SS obtained by the MPEG2 decoder 153, the pixel data of the class tap located around the target position in the teacher signal ST is selectively extracted by the tap selection circuit 155A. The pixel data of this class tap is supplied to the feature amount extraction unit 156. In the feature amount extraction unit 156, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code serving as first class information indicating a space class is generated.
[0331]
Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG decoder 153 is supplied to the additional information class generation unit 157. The additional information class generation unit 157 generates second class information indicating the additional information class based on the encoding control information.
[0332]
Then, the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157 are supplied to the class code generation unit 158. The class code generation unit 158 generates a class code CL indicating the result of class classification based on the first class information and the second class information. The class code CL indicates a class to which pixel data (one piece) at the target position in the teacher signal ST belongs.
[0333]
The class code CL is supplied to the accumulation control unit 176. The accumulation control unit 176 is also supplied with the value of the parameter p input to the MPEG2 decoder 153. The accumulation control unit 176 performs an averaging process on the difference data df sequentially output from the subtraction unit 175 based on the class code CL and the value of the parameter p for each combination of the class and the parameter p. Is stored in the accumulation table 177 as difference data DF.
[0334]
Next, a case where the difference data DF stored in the accumulation table 177 is DCT coefficient difference data obtained by DCT processing will be described. In this case, the changeover switches 172 and 174 are respectively connected to the a side.
[0335]
A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the teacher signal ST is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153.
[0336]
The value of the parameter p is input to the MPEG2 decoder 153 so that the signal changes in accordance with the value of the parameter p in the decoding process. That is, in the present embodiment, as described above, at least one of the DCT coefficient (frequency coefficient) or the inverse transform base used when performing the inverse discrete cosine transform (inverse DCT) according to the value of the parameter p. Is changed. Thereby, the student signal SS corresponding to the value of the parameter p is obtained.
[0337]
A DCT block obtained by performing DCT processing on a plurality of pixel data of the target pixel block (all pixel data in this block becomes pixel data at the target position) in the teacher signal ST obtained from the DCT circuit 173 The plurality of DCT coefficients y are supplied to the subtracting unit 175 via the a side of the changeover switch 174.
[0338]
The subtracting unit 175 also includes a plurality of DCT blocks obtained by performing DCT processing on a plurality of pixel data of the student signal SS corresponding to the target pixel block in the teacher signal ST obtained from the DCT circuit 171. DCT coefficients x are supplied through the a side of the changeover switch 172. The subtracting unit 175 then subtracts the plurality of DCT coefficients x from the plurality of DCT coefficients y to generate a plurality of difference data df. A plurality of difference data df corresponding to each target pixel block in the teacher signal ST sequentially output from the subtraction unit 175 is supplied to the accumulation control unit 176.
[0339]
Further, from the student signal SS obtained by the MPEG2 decoder 153, a plurality of pixel data corresponding to the pixel block of interest in the teacher signal ST is selectively extracted as class tap pixel data by the tap selection circuit 155A. The pixel data of this class tap is supplied to the feature amount extraction unit 156. In the feature amount extraction unit 156, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code serving as first class information indicating a space class is generated.
[0340]
Encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream by the MPEG decoder 153 is supplied to the additional information class generation unit 157. The additional information class generation unit 157 generates second class information indicating the additional information class based on the encoding control information.
[0341]
Then, the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157 are supplied to the class code generation unit 158. The class code generation unit 158 generates a class code CL indicating the result of class classification based on the first class information and the second class information. The class code CL indicates the class to which the target position pixel block in the teacher signal ST belongs.
[0342]
The class code CL is supplied to the accumulation control unit 176. The accumulation control unit 176 is also supplied with the value of the parameter p input to the MPEG2 decoder 153. The accumulation control unit 176 performs an averaging process on each of the plurality of difference data df sequentially output from the subtraction unit 175 for each combination of the class and the parameter p based on the value of the class code CL and the parameter p. The result is stored in the accumulation table 177 as a plurality of difference data DF.
[0343]
As described above, the difference data generation device 210 illustrated in FIG. 18 generates the difference data DF for each combination of the class and parameter p values stored in the accumulation table 131 of the image signal processing unit 110B in FIG. Can do.
[0344]
Note that the processing in the image signal processing unit 110B of FIG. 17 can also be realized by software, for example, by an image signal processing device 300 as shown in FIG. In this case, the difference data is stored in advance in the ROM 302 or the like and used.
[0345]
A processing procedure for obtaining the image signal Vb from the image signal Va in the image signal processing apparatus 300 shown in FIG. 9 will be described with reference to the flowchart of FIG.
First, in step ST101, processing is started, and in step S102, for example, an image signal Va for one frame or one field is input into the apparatus from the input terminal 314. Thus, the pixel data constituting the image signal Va input from the input terminal 314 is temporarily stored in the RAM 303. When the image signal Va is recorded in advance in the hard disk drive 307 in the apparatus, the image signal Va is read from the drive 307, and the pixel data constituting the image signal Va is temporarily stored in the RAM 303. To do.
[0346]
In step ST103, it is determined whether or not processing of all frames or all fields of the image signal Va has been completed. If the process is finished, the process ends in step ST104. On the other hand, when the processing is not finished, step ST 105 Proceed to
[0347]
In step ST105, the value of the parameter p, which is an image quality designation value input by the user's operation of the remote control transmitter 200, is acquired from the RAM 303, for example. In step ST106, the pixel data of the class tap is acquired from the image signal Va input in step ST102 corresponding to the target position in the image signal Vb. In step ST107, a class code CL is generated from the pixel data of the class tap.
[0348]
Next, in step ST108, based on the value of the parameter p acquired in step ST105 and the class code CL generated in step ST107, the difference data DF corresponding to the value of the parameter p and the class code CL is obtained from the ROM 302 or the like. Read and temporarily store in RAM 303.
[0349]
Next, in step ST109, the difference data DF read in step ST108 is added to the pixel data x corresponding to the target position in the image signal Vb in the image signal Va, and the pixel at the target position in the image signal Vb. Data y is generated.
[0350]
Here, when the difference data DF stored in the ROM 302 or the like is the difference data of the DCT coefficient obtained by the DCT process, the pixel data y as the addition result is a DCT coefficient. Therefore, in step ST109, the inverse DCT is further performed. Process. In that case, DCT processing is performed on the image signal Va input in step ST102 described above, and the pixel data x corresponding to the target position in the image signal Vb is used as the DCT coefficient.
[0351]
Next, in step ST110, it is determined whether or not the processing for obtaining the pixel data of the image signal Vb in the entire region of the pixel data of the image signal Va for one frame or one field input in step ST102 is completed. When finished, step ST 102 Referring back to FIG. 4, the process proceeds to input processing of the image signal Va for the next one frame or one field. On the other hand, when the process has not ended, the process returns to step ST106, and the same process as described above is repeated.
[0352]
In this way, by performing processing according to the flowchart shown in FIG. 19, the pixel data of the input image signal Va can be processed, and the pixel data of the image signal Vb can be obtained. As described above, the image signal Vb obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be supplied to the hard disk. Or is recorded.
[0353]
In step ST107, the class code CL is generated from the pixel data of the class tap. However, in addition to the image signal Va, encoding control information (picture information PI, motion vector information MI) related to the image signal Va is also input from the input terminal 314, and the image signal processing unit 110B in FIG. As in, the class code CL may be generated using this encoding control information.
Although illustration of the processing device is omitted, the processing in the differential data generation device 210 in FIG. 18 can also be realized by software.
[0354]
Referring to the flowchart of FIG. Difference A processing procedure for generating data will be described.
First, in step ST121, processing is started, and in step ST122, an image quality pattern (specified by the value of parameter p) is selected. In step ST123, it is determined whether or not the difference data DF generation processing has been completed for all image quality patterns. If the generation process of the difference data DF has not been completed for all image quality patterns, the process proceeds to step ST124.
[0355]
In this step ST124, the teacher signal is inputted for one frame or one field. In step ST125, it is determined whether or not processing of all the frames or fields of the teacher signal has been completed. If not completed, a student signal is generated in step ST126 based on the image quality pattern selected in step ST122 from the teacher signal input in step ST124.
[0356]
In step ST127, class tap pixel data is acquired from the student signal generated in step ST126, corresponding to the target position in the teacher signal input in step ST124. In step ST128, a class code CL is generated from the pixel data of the class tap.
[0357]
Next, in step ST129, the difference data df is obtained by subtracting the pixel data x of the student signal corresponding to the target position of the teacher signal from the pixel data y of the target position of the teacher signal. In addition, this step ST In 129, an averaging process is performed for each class based on the class code CL generated in step ST128, and difference data DF is generated.
[0358]
Next, in step ST130, it is determined whether or not the generation process of the difference data DF has been completed in all regions of the teacher signal input in step ST124. When the generation process of the difference data DF has been completed, the process returns to step ST124, the next one frame or one field of teacher signals are input, and the same process as described above is repeated. On the other hand, when the difference data generation process has not ended, the process returns to step ST127 and the same process as described above is repeated.
[0359]
When the process is completed in step ST125 described above, the process returns to step ST122, the next image quality pattern is selected, the same process as described above is repeated, and the difference of each class corresponding to the next image quality pattern is determined. Find the data DF.
[0360]
Here, when generating the difference data of the DCT coefficient obtained by the DCT process as the difference data DF, it is necessary to use the difference data df as the subtraction result as the DCT coefficient. In that case, DCT processing is performed on the teacher signal input in step ST124 described above, and pixel data y corresponding to the target position in the teacher signal is used as a DCT coefficient. Further, DCT processing is performed on the student signal generated in step ST126 described above, and pixel data x of the student signal corresponding to the target position in the teacher signal is used as a DCT coefficient.
[0361]
When the difference data DF calculation processing for all image quality patterns is completed in step ST123, the class difference data DF for all image quality patterns is stored in the memory in step ST131, and then step ST132 is performed. Then, the process ends.
[0362]
As described above, by performing the processing according to the flowchart shown in FIG. 20, the difference data DF can be obtained by the same method as that of the difference data generation device 210 shown in FIG. In step ST128, the class code CL is generated from the pixel data of the class tap. However, similar to the difference data generation device 210 of FIG. 18, the class code CL may be generated using also the encoding control information (picture information PI, motion vector information MI) related to the student signal.
[0363]
Next, another embodiment of the present invention will be described.
FIG. 21 shows the configuration of a digital broadcast receiver 100C as another embodiment. In FIG. 21, parts corresponding to those in FIG.
[0364]
The digital broadcast receiver 100C includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 that receives a remote control signal. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.
[0365]
Also, the digital broadcast receiver 100C is supplied with a receiving antenna 105 and a broadcast signal (RF modulated signal) captured by the receiving antenna 105, performs channel selection processing, demodulation processing, error correction processing, etc. And a stream buffer 109 for temporarily storing the MPEG2 stream Vc output from the tuner unit 106. The tuner unit 106 obtains an MPEG2 stream as an encoded image signal.
[0366]
Also, the digital broadcast receiver 100C converts the MPEG2 stream Vc stored in the stream buffer 109 into a decoded image signal Vd that presents a user-desired image quality, and this image signal. And a display unit 111 that displays an image based on the image signal Vd output from the processing unit 110C.
[0367]
The operation of the digital broadcast receiver 100C shown in FIG. 21 will be described.
The MPEG2 stream Vc output from the tuner unit 106 is supplied to the stream buffer 109 and temporarily stored.
[0368]
In this way, the MPEG2 stream Vc stored in the stream buffer 109 is supplied to the image signal processing unit 110C and converted into a decoded image signal Vd that presents the user-desired image quality. In the image signal processing unit 110C, pixel data constituting the image signal Vd is obtained from the DCT coefficients constituting the MPEG2 stream Vc.
The image signal Vd output from the image signal processing unit 110C is supplied to the display unit 111, and an image based on the image signal Vd is displayed on the screen of the display unit 111.
[0369]
The user can adjust the resolution, block distortion, mosquito noise, or noise suppression degree in the image displayed on the screen of the display unit 111 as described above by operating the remote control transmitter 200. As will be described later, in the image signal processing unit 110C, pixel data of the image signal Vd is calculated by an estimation formula. As coefficient data of this estimation formula, the parameter p changed by the user's operation of the remote control transmitter 200 is used. The one corresponding to the value is generated and used by a generation formula including this parameter p. As a result, the resolution, block distortion, mosquito noise, or noise suppression degree in the image based on the image signal Vd output from the image signal processing unit 110C corresponds to the changed value of the parameter p.
[0370]
Details of the image signal processing unit 110C will be described. In this image signal processing unit 110C, parts corresponding to those of the image signal processing unit 110 shown in FIG.
[0371]
The image signal processing unit 110C includes a DCT coefficient extraction circuit 221 that extracts a DCT coefficient as a frequency coefficient from the MPEG2 stream Vc stored in the stream buffer 109, and variable-length encoding extracted by the extraction circuit 221 such as Huffman A variable-length decoding circuit 222 that performs variable-length decoding on the encoded DCT coefficients.
[0372]
The image signal processing unit 110C also includes a quantization characteristic designation information extraction circuit 223 that extracts quantization characteristic designation information from the MPEG2 stream Vc stored in the stream buffer 109, and a quantization characteristic extracted by the extraction circuit 223. And an inverse quantization circuit 224 that performs inverse quantization on the quantized DCT coefficient output from the variable length decoding circuit 222 based on the designation information.
[0373]
Further, the image signal processing unit 110C selectively extracts a DCT coefficient corresponding to the target position in the image signal Vd from the DCT coefficient output from the inverse quantization circuit 224, and the image signal from the reference image signal Vref described later. There are first and second tap selection circuits 225 and 226 for selectively extracting and outputting a plurality of pixel data located around the target position in Vd.
[0374]
The first tap selection circuit 225 selectively extracts a plurality of pixel data (including DCT coefficients) of prediction taps used for prediction. FIG. 2A shows an example of the arrangement of pixel data of prediction taps that are selectively extracted from the reference image signal Vref in the first tap selection circuit 225. In this figure, “◯” indicates the tap position of the prediction tap, and “X” indicates the position of interest. In the present embodiment, seven pieces of pixel data in the current field (shown by a solid line) and the previous field (shown by a broken line) are extracted as pixel data of a prediction tap.
[0375]
FIG. 22A shows an example of the DCT coefficient of the prediction tap that is selectively extracted from the DCT coefficient output from the inverse quantization circuit 224 in the first tap selection circuit 225. In the present embodiment, a pixel block to which the target position in the image signal Vd belongs (corresponding to an 8 × 8 small block serving as a unit of DCT processing) is a target pixel block, and a block of DCT coefficients corresponding to this target pixel block All DCT coefficients (hereinafter referred to as “DCT blocks”), that is, 64 (8 × 8) DCT coefficients are extracted as DCT coefficients of the prediction tap.
[0376]
The second tap selection circuit 226 selectively extracts a plurality of pixel data (including DCT coefficients) of class taps used for class classification. FIG. 2B shows an example of the arrangement of pixel data of class taps selectively extracted from the reference image signal Vref in the second tap selection circuit 226. In this figure, “◯” indicates the tap position of the prediction tap, and “X” indicates the position of interest. In the present embodiment, 13 pieces of pixel data in the current field (shown with solid lines) and the previous field (shown with broken lines) are extracted as pixel data of class taps.
[0377]
FIG. 22B shows an example of class tap DCT coefficients that are selectively extracted from the DCT coefficients output from the inverse quantization circuit 224 in the second tap selection circuit 226. In the present embodiment, 320 (8 × 8 × 5) DCTs of a total of five DCT blocks including a DCT block corresponding to the pixel block of interest and four DCT blocks adjacent in the vertical and horizontal directions. The coefficients are extracted as class tap DCT coefficients.
[0378]
In addition, the image signal processing unit 110C includes a feature amount extraction unit 123 that extracts feature amounts from pixel data (including DCT coefficients) of class taps selectively extracted by the second tap selection circuit 226. The feature amount extraction unit 123 generates an ADRC code as first class information indicating a space class by performing processing such as 1-bit ADRC (Adaptive Dynamic Range Coding) on the pixel data of the class tap.
[0379]
Also, the image signal processing unit 110C includes an encoding control information extraction circuit 227 that extracts encoding control information (picture information PI, motion vector information MI) as additional information from the MPEG2 stream Vc stored in the stream buffer 109. And an additional information class generation unit 124 that generates second class information indicating the additional information class based on the encoding control information extracted by the extraction circuit 227.
[0380]
In addition, the image signal processing unit 110C performs class classification based on the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124. A class code generation unit 125 that generates a class code CL indicating the result is included. The class code CL indicates the class to which the pixel data at the target position in the image signal Vd belongs.
[0381]
The image signal processing unit 110 </ b> C has a coefficient memory 126. The coefficient memory 126 stores, for each class, a plurality of coefficient data Wi (i = 1 to n) used in an estimation formula used in an estimated prediction calculation circuit 127 described later. The coefficient data Wi is information for converting the MPEG2 stream Vc into the image signal Vd. The class code CL output from the class code generation unit 125 described above is supplied to the coefficient memory 126 as read address information, and the coefficient data Wi of the estimation formula corresponding to the class code CL is read from the coefficient memory 126. , And supplied to the estimated prediction calculation circuit 127.
[0382]
The image signal processing unit 110 </ b> C has an information memory bank 128. In the estimated prediction calculation circuit 127 described later, the position of interest in the image signal Vd to be created is calculated from the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126 by the above-described estimation formula (1). Pixel data y is calculated. In Expression (1), n represents the number of prediction taps selected by the first tap selection circuit 225.
[0383]
The coefficient data Wi of this estimation formula is generated by a generation formula including the parameter p, as shown in the above formula (2). In the information memory bank 128, coefficient seed data w which is coefficient data in this generation formula is stored. i0 ~ W i3 Is stored for each class.
[0384]
In addition, the image signal processing unit 110 </ b> C receives coefficient class data w for each class. i0 ~ W i3 And a coefficient generation circuit 129 that generates coefficient data Wi (i = 1 to n) of an estimation expression corresponding to the value of the parameter p for each class, using the value of the parameter p and the value of the parameter p. Yes. The coefficient generation circuit 129 receives from the information memory bank 128 the coefficient seed data w of each class described above. i0 ~ W i3 Is loaded. The coefficient generation circuit 129 is supplied with the value of the parameter p from the system controller 101.
[0385]
The coefficient data Wi (i = 1 to n) of each class generated by the coefficient generation circuit 129 is stored in the coefficient memory 126 described above. The generation of coefficient data Wi for each class in the coefficient generation circuit 129 is performed, for example, in each vertical blanking period. Thereby, even if the value of the parameter p is changed by the user's operation of the remote control transmitter 200, the coefficient data Wi of each class stored in the coefficient memory 126 is immediately changed to the one corresponding to the value of the parameter p. The user can smoothly adjust the resolution, block distortion, mosquito noise, noise suppression degree, and the like.
[0386]
Here, the coefficient seed data w stored in the information memory bank 128 as described above. i0 ~ W i3 Will be further described. This coefficient seed data w i0 ~ W i3 Is generated in advance based on the student signal obtained by processing the MPEG2 stream encoded in the same manner as the MPEG2 stream Vc stored in the stream buffer 109 described above according to the value of the parameter p.
[0387]
That is, this coefficient seed data w i0 ~ W i3 Are respectively generated according to a plurality of values of the parameter p, and are generated in advance using a plurality of student signals corresponding to the MPEG2 stream Vc and a teacher signal corresponding to the image signal Vd. In this case, a student signal corresponding to the value of the parameter p is obtained by processing an MPEG2 stream obtained by MPEG2 encoding the teacher signal according to the value of the parameter p. In this case, the DCT coefficient (frequency coefficient) is changed according to the value of the parameter p.
[0388]
For example, it is possible to obtain a plurality of student signals by changing the gain according to the value of the parameter p while setting the gain of all AC coefficients of the DCT coefficients to the same value. The coefficient seed data w generated in advance in the information memory bank 128 using the student signal thus obtained. i0 ~ W i3 Is stored, the resolution of the image obtained by the image signal Vd can be adjusted stepwise according to the value of the parameter p.
[0389]
Further, for example, a plurality of student signals can be obtained by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p. The coefficient seed data w generated in advance in the information memory bank 128 using the plurality of student signals thus obtained. i0 ~ W i3 Is stored, the block distortion of the image obtained by the image signal Vd described above can be adjusted stepwise according to the value of the parameter p.
[0390]
In addition, for example, a plurality of student signals can be obtained by reducing the gain of the AC coefficient of the DCT coefficient as the frequency increases and changing the degree of decrease in the gain of the AC coefficient according to the parameter value. Can do. The coefficient seed data w generated in advance in the information memory bank 128 using the plurality of student signals thus obtained. i0 ~ W i3 Is stored, the mosquito noise of the image obtained by the image signal Vd can be adjusted stepwise according to the value of the parameter p.
[0390]
Further, for example, a plurality of student signals can be obtained by adding random noise to the DCT coefficient and changing the level of the random noise in accordance with the value of the parameter p. The coefficient seed data w generated in advance in the information memory bank 128 using the plurality of student signals thus obtained. i0 ~ W i3 Is stored, the noise suppression degree of the image obtained by the image signal Vd can be adjusted stepwise according to the value of the parameter p.
[0392]
In addition, the image signal processing unit 110 </ b> C uses the pixel data (including DCT coefficients) xi of the prediction tap selectively extracted by the first tap selection circuit 225 and the coefficient data Wi read from the coefficient memory 126 as (1 The estimation prediction calculation circuit 127 that calculates pixel data y of the target position in the image signal Vd to be created is provided by the estimation formula (1).
[0393]
The image signal processing unit 110 </ b> C includes a prediction memory circuit 228. The prediction memory circuit 228 stores image signals of an I picture (Intra-Picture) and a P picture (Predictive-Picture) in a memory (not shown), and uses these image signals to use an inverse quantization circuit 224. When a DCT coefficient related to a P picture or a B picture (Bidirectionally predictive-Picture) is output, the corresponding reference image signal Vref is generated and supplied to the first and second tap selection circuits 225 and 226. Incidentally, when the DCT coefficient related to the I picture is output from the inverse quantization circuit 224, the reference image signal Vref is not supplied to the first and second tap selection circuits 225 and 226.
[0394]
In addition, the image signal processing unit 110C includes a picture selection circuit 229. The picture selection circuit 229 supplies the image signals of the I picture and P picture output from the estimated prediction calculation circuit 127 to the prediction memory circuit 228 and stores them in the memory, and also outputs each of the image signals output from the estimated prediction calculation circuit 127. The picture signals of pictures are rearranged in the correct order and output.
[0395]
The motion vector information MI extracted by the extraction circuit 227 described above is supplied to the prediction memory circuit 228, and the prediction memory circuit 228 performs motion compensation when generating the reference image signal using the motion vector information MI. The picture information PI extracted by the extraction circuit 227 is supplied to the prediction memory circuit 228 and the picture selection circuit 229, and the prediction memory circuit 228 and the picture selection circuit 229 identify pictures based on the picture information PI. .
[0396]
Next, the operation of the image signal processing unit 110C will be described.
The MPEG2 stream Vc stored in the stream buffer 109 is supplied to the extraction circuit 221 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable length encoded, and this DCT coefficient is supplied to the variable length decoding circuit 222 and decoded. Then, the quantized DCT coefficient output from the variable length decoding circuit 222 is supplied to the inverse quantization circuit 224 and subjected to inverse quantization.
[0397]
In the second tap selection circuit 226, a plurality of class tap pixel data (including DCT coefficients) is selectively extracted. That is, the DCT coefficient corresponding to the target position in the image signal Vd is selectively extracted from the DCT coefficient output from the inverse quantization circuit 224, and the image signal is output from the reference image signal Vref supplied from the prediction memory circuit 228. A plurality of pixel data located around the target position in Vd are selectively extracted.
[0398]
As described above, the pixel data of the class tap extracted by the second tap selection circuit 226 is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code as first class information indicating a space class is generated.
[0399]
Also, the encoding control information (picture information PI, motion vector information MI) extracted from the MPEG2 stream Vc by the extraction circuit 227 is supplied to the additional information class generation unit 124. The additional information class generation unit 124 generates second class information indicating the additional information class based on the encoding control information.
[0400]
Then, the first class information (ADRC code) generated by the feature amount extraction unit 123 and the second class information generated by the additional information class generation unit 124 are supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the first class information and the second class information.
[0401]
The class code CL represents the detection result of the class to which the pixel data at the target position in the image signal Vd belongs. The class code CL is supplied to the coefficient memory 126 as read address information. The coefficient memory 126 stores, for each class, coefficient seed data w for each class corresponding to the value of the parameter p adjusted by the user by the coefficient generation circuit 129 in each vertical blanking period. i0 ~ W i3 Is used to determine and store coefficient data Wi (i = 1 to n) of the estimation formula (see formula (2)).
[0402]
As described above, the class code CL is supplied to the coefficient memory 126 as read address information, whereby the coefficient data Wi corresponding to the class code CL is read from the coefficient memory 126 and supplied to the estimated prediction calculation circuit 127. The
[0403]
The first tap selection circuit 225 selectively extracts a plurality of pixel data (including DCT coefficients) of the prediction tap. That is, the DCT coefficient corresponding to the target position in the image signal Vd is selectively extracted from the DCT coefficient output from the inverse quantization circuit 224, and the image signal is output from the reference image signal Vref supplied from the prediction memory circuit 228. A plurality of pixel data located around the target position in Vd are selectively extracted. In this way, the pixel data of the prediction tap extracted by the first tap selection circuit 265 is supplied to the estimated prediction calculation circuit 127.
[0404]
The estimated prediction calculation circuit 127 uses the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126 to draw attention in the image signal Vd to be created based on the estimation expression (see Expression (1)). Pixel data y at the position is obtained. The picture signals of the pictures output from the estimated prediction calculation circuit 127 are rearranged in the correct order by the picture selection circuit 229 and output as an image signal Vd.
[0405]
Thus, in the image signal processing unit 110C, the pixel data y is calculated using the coefficient data Wi (i = 1 to n) of the estimation formula corresponding to the value of the parameter p. Therefore, the user can arbitrarily adjust the resolution, block distortion, mosquito noise, or noise suppression degree of the image by the image signal Vd by changing the value of the parameter p.
[0406]
Also, coefficient seed data w for generating the coefficient data Wi i0 ~ W i3 Is generated in advance based on a student signal obtained by processing an MPEG2 stream encoded in the same manner as the MPEG2 stream Vc stored in the stream buffer 109 described above according to the value of the parameter p. Only the specific quality of the image based on the image signal Vd, for example, only the resolution, only the block distortion, only the mosquito noise, or only the noise suppression level can be adjusted stepwise.
[0407]
Coefficient seed data w stored in the information memory bank 128 of the image signal processing unit 110C in FIG. i0 ~ W i3 The coefficient seed data w stored in the information memory bank 128 of the image signal processing unit 110 in FIG. i0 ~ W i3 In the same manner as above, it is generated by learning between a plurality of student signals and teacher signals (see FIG. 3).
[0408]
FIG. 23 shows coefficient seed data w stored in the information memory bank 128 of the image signal processing unit 110C described above. i0 ~ W i3 The configuration of the coefficient seed data generation device 150C for generating In FIG. 23, portions corresponding to those in FIG.
[0409]
The coefficient seed data generation device 150C includes an input terminal 151 to which a teacher signal ST corresponding to the image signal Vd is input, and an MPE2 code that encodes the teacher signal ST to obtain an MPEG2 stream that is a student signal SS. Generator 152.
[0410]
The coefficient seed data generation device 150C also includes a DCT coefficient extraction circuit 231 that extracts a DCT coefficient as a frequency coefficient from the student signal SS obtained by the MPEG2 encoder 152, and a variable length encoding extracted by the extraction circuit 231. For example, it has a variable length decoding circuit 232 that performs variable length decoding on DCT coefficients that are Huffman encoded.
[0411]
The coefficient seed data generation device 150C also includes a quantization characteristic designation information extraction circuit 233 that extracts quantization characteristic designation information from the student signal SS obtained by the MPEG2 encoder 152, and a quantization that is extracted by the extraction circuit 233. And an inverse quantization circuit 234 that performs inverse quantization on the quantized DCT coefficient output from the variable length decoding circuit 232 based on the characteristic designation information.
[0412]
The value of the parameter p is input to the inverse quantization circuit 234. In the inverse quantization circuit 234, the signal is changed in accordance with the value of the parameter p in the process of inverse quantization signal processing, and the DCT coefficient related to the student signal corresponding to the value of the parameter p is obtained. It is done. In the present embodiment, the DCT coefficient (frequency coefficient) is changed.
[0413]
For example, DCT coefficients related to a plurality of student signals can be obtained by changing the gain according to the value of the parameter p while setting the gains of all the AC coefficients of the DCT coefficients to the same value. Here, if the original AC coefficient is AC [m] and the gain is gain, the new AC coefficient newAC [m] is newAC [m] = AC [m] * gain. In this case, since the correlation between the AC coefficients can be maintained, the coefficient seed data w generated using the DCT coefficients related to the plurality of student signals obtained in this way. i0 ~ W i3 The resolution of the image obtained by the image signal Vd described above can be adjusted stepwise according to the value of the parameter p.
[0414]
Further, for example, by changing the quantization step of the DC coefficient among the DCT coefficients according to the value of the parameter p, it is possible to obtain DCT coefficients related to a plurality of student signals. Here, assuming that the original DC coefficient is DC [m], the original quantization step is Qst, and the new quantization step is newQst, the new DC coefficient newDC [m] is newDC [m] = {DC [ m] * Qst / newQst}. {} Represents an integer operation. In this case, the variation of the DC coefficient can be manipulated, and the coefficient seed data w generated using the DCT coefficients related to the plurality of student signals obtained in this way. i0 ~ W i3 The block distortion of the image obtained by the image signal Vd can be adjusted stepwise according to the value of the parameter p.
[0415]
Further, for example, by reducing the gain of the AC coefficient of the DCT coefficient as the high frequency region is changed, and the degree of decrease in the high frequency gain of the AC coefficient is changed according to the value of the parameter p, DCT coefficients can be obtained. Here, if the original AC coefficient is AC [m] and the gain is gain [m], the new AC coefficient newAC [m] is newAC [m] = AC [m] * gain [m]. In this case, the correlation between the AC coefficients is broken stepwise, and coefficient seed data w generated using the DCT coefficients related to the plurality of student signals obtained in this way. i0 ~ W i3 Can adjust the mosquito noise of the image obtained by the image signal Vd in a stepwise manner in accordance with the value of the parameter p.
[0416]
Further, for example, by adding random noise to the DCT coefficient and changing the level of the random noise according to the value of the parameter p, DCT coefficients related to a plurality of student signals can be obtained. When the original AC coefficient is AC [m] and the random noise is rdmN, the new AC coefficient newAC [m] is newAC [m] = AC [m] + rdmN. Similarly, if the original DC coefficient is DC [m] and the random noise is rdmN, the new DC coefficient newDC [m] is newDC [m] = DC [m] + rdmN. In this case, coefficient level data w generated using DCT coefficients related to a plurality of student signals obtained by switching the level of random noise in stages. i0 ~ W i3 Can adjust the noise suppression degree of the image obtained by the image signal Vd in a stepwise manner in accordance with the value of the parameter p.
[0417]
Further, the coefficient seed data generation device 150C selectively extracts a DCT coefficient corresponding to the target position in the image signal Vd from the DCT coefficient output from the inverse quantization circuit 234, and also extracts an image from a reference image signal Vref described later. There are first and second tap selection circuits 235 and 236 that selectively extract and output a plurality of pixel data located around the target position in the signal Vd. The first and second tap selection circuits 235 and 236 are configured in the same manner as the first and second tap selection circuits 225 and 226 of the image signal processing unit 110C described above, respectively.
[0418]
The coefficient seed data generation device 150 </ b> C includes a feature amount extraction unit 156 that extracts a feature amount from the class tap pixel data that is selectively extracted by the second tap selection circuit 236. The feature amount extraction unit 156 is configured in the same manner as the feature amount extraction unit 123 of the image signal processing unit 110C described above, and generates an ADRC code as first class information indicating a space class.
[0419]
The coefficient seed data generation device 150C extracts encoding control information (picture information PI, motion vector information MI) as additional information from the student signal SS obtained by the MPEG2 encoder 152, and an encoding control information extraction circuit 237. And an additional information class generation unit 157 that generates second class information indicating the additional information class based on the encoding control information extracted by the extraction circuit 237. The additional information class generation unit 157 is configured in the same manner as the additional information class generation unit 124 of the image signal processing unit 110C described above.
[0420]
Further, the coefficient seed data generation device 150C performs class classification based on the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157. A class code generation unit 158 that generates a class code CL indicating the result of the above. The class code generation unit 158 is configured in the same manner as the class code generation unit 125 of the image signal processing unit 110C described above.
[0421]
Further, the coefficient seed data generation device 150C has a delay circuit 159 for adjusting the time of the teacher signal ST supplied to the input terminal 151, and each attention position obtained from the teacher signal ST adjusted in time by the delay circuit 159. Pixel data y, prediction tap pixel data xi selectively extracted by the first tap selection circuit 235 in correspondence with the pixel data y of each target position, the value of the parameter p, and each target position Coefficient seed data w for each class from the class code CL generated by the class code generating unit 158 corresponding to each pixel data y. i0 ~ W i3 A normal equation generating unit 160 for generating a normal equation (see equation (9)) for obtaining
[0422]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding to the piece of pixel data y, but the inverse quantization circuit 234 depends on the value of the parameter p. The DCT coefficients related to a plurality of student signals are sequentially obtained from the, and learning data is generated between the teacher signal and each student signal. As a result, the normal equation generation unit 160 generates a normal equation in which many pieces of learning data having different values of the parameter p are registered, and the coefficient seed data w i0 ~ W i3 Can be obtained.
[0423]
Further, the coefficient seed data generation device 150C is supplied with data of normal equations generated for each class by the normal equation generation unit 160, solves the normal equations, and generates coefficient seed data w for each class. i0 ~ W i3 Is provided with a coefficient seed data determining unit 161 and a coefficient seed memory 162 for storing the obtained coefficient seed data. In the coefficient seed data determination unit 161, the normal equation is solved, for example, by a sweeping method, and coefficient coefficient data is obtained.
[0424]
The coefficient seed data generation device 150 </ b> C includes a prediction memory circuit 238. The prediction memory circuit 228 stores in the memory (not shown) the image signals of the I picture and the P picture of the student signal SS among the teacher signals ST time-adjusted by the delay circuit 159, and also stores these image signals. When the DCT coefficient related to the P picture or B picture is output from the inverse quantization circuit 234, the corresponding reference image signal Vref is generated and supplied to the first and second tap selection circuits 235 and 236. Incidentally, when the DCT coefficient related to the I picture is output from the inverse quantization circuit 234, the reference image signal Vref is not supplied to the first and second tap selection circuits 235 and 236.
[0425]
The coefficient seed data generation device 150C has a picture selection circuit 239. The picture selection circuit 239 supplies the image signals of the I picture and the P picture among the teacher signals ST adjusted in time by the delay circuit 159 to the prediction memory circuit 238 and stores them in the memory.
[0426]
The motion vector information MI extracted by the extraction circuit 237 is supplied to the prediction memory circuit 238, and the prediction memory circuit 238 performs motion compensation when generating the reference image signal Vref using the motion vector information MI. The picture information PI extracted by the extraction circuit 237 is supplied to the prediction memory circuit 238 and the picture selection circuit 239, and the prediction memory circuit 238 and the picture selection circuit 239 identify pictures based on the picture information PI. .
[0427]
The operation of the coefficient seed data generation device 150C shown in FIG. 23 will be described.
A teacher signal ST corresponding to the image signal Vd is supplied to the input terminal 151. The teacher signal ST is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream as the student signal SS. .
[0428]
The student signal SS obtained by the MPEG2 encoder 152 is supplied to the extraction circuit 231 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable-length encoded, and this DCT coefficient is supplied to the variable-length decoding circuit 232 and decoded. Then, the quantized DCT coefficient output from the variable length decoding circuit 232 is supplied to the inverse quantization circuit 234 and subjected to inverse quantization.
[0429]
The value of the parameter p is input to the inverse quantization circuit 234. In the inverse quantization circuit 234, the signal changes in accordance with the value of the parameter p in the process of inverse quantization signal processing. That is, in the present embodiment, as described above, the DCT coefficient is changed according to the value of the parameter p. Thereby, the DCT coefficient concerning the student signal corresponding to the value of the parameter p is obtained.
[0430]
Further, the second tap selection circuit 236 selectively extracts a plurality of pixel data (including DCT coefficients) of the class tap. That is, the DCT coefficient corresponding to the target position in the teacher signal ST is selectively extracted from the DCT coefficient output from the inverse quantization circuit 234, and the teacher signal is received from the reference image signal Vref supplied from the prediction memory circuit 228. A plurality of pixel data located around the target position in ST are selectively extracted.
[0431]
Thus, the pixel data of the class tap extracted by the second tap selection circuit 236 is supplied to the feature amount extraction unit 156. In the feature amount extraction unit 156, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and an ADRC code serving as first class information indicating a space class is generated.
[0432]
Also, the encoding control information (picture information PI, motion vector information MI) extracted from the student signal SS by the extraction circuit 237 is supplied to the additional information class generation unit 157. The additional information class generation unit 157 generates second class information indicating the additional information class based on the encoding control information.
[0433]
Then, the first class information (ADRC code) generated by the feature amount extraction unit 156 and the second class information generated by the additional information class generation unit 157 are supplied to the class code generation unit 158. The class code generation unit 158 generates a class code CL indicating the result of class classification based on the first class information and the second class information.
[0434]
The first tap selection circuit 235 selectively extracts a plurality of pixel data (including DCT coefficients) of the prediction tap. That is, the DCT coefficient corresponding to the position of interest in the teacher signal ST is selectively extracted from the DCT coefficient output from the inverse quantization circuit 234, and the teacher signal from the reference image signal Vref supplied from the prediction memory circuit 238. A plurality of pixel data located around the target position in ST are selectively extracted.
[0435]
The pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 159 and the first tap selection circuit 235 selectively extract the pixel data y corresponding to each pixel data y of each target position. The normal equation generation unit 160 uses the predicted tap pixel data xi, the value of the parameter p, and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position. Coefficient seed data w for each class i0 ~ W i3 A normal equation (see equation (9)) is obtained.
[0436]
Then, the coefficient seed data determination unit 161 solves each normal equation, and the coefficient seed data w for each class. i0 ~ W i3 Are obtained, and their coefficient seed data w i0 ~ W i3 Is stored in the coefficient seed memory 162.
[0437]
As described above, in the coefficient seed data generation device 150C shown in FIG. 23, it is used in the estimation formula (see formula (1)) for each class stored in the information memory bank 128 of the image signal processing unit 110C in FIG. Coefficient data w which is coefficient data in a generation formula (see formula (2)) for obtaining the coefficient data Wi i0 ~ W i3 Can be generated.
[0438]
In the coefficient seed data generation device 150C shown in FIG. 23, the reference image signal Vref is generated based on the time-adjusted teacher signal ST. However, the present invention is not limited to this. As shown in FIG. 24, an arithmetic circuit 239A may be provided, and the reference image signal Vref may be generated based on the image signal generated by the arithmetic circuit 239A.
[0439]
The arithmetic circuit 239A is supplied with the pixel data xi of the prediction tap selectively extracted by the first tap selection circuit 235, the value of the parameter p, and the class code CL generated by the class code generation unit 158. The Although detailed description is omitted, the arithmetic circuit 239A is configured in the same manner as the estimated prediction arithmetic circuit 127, the coefficient memory 126, the coefficient generation circuit 129, and the information memory bank 128 in the image signal processing unit 110C shown in FIG. Yes. In the information memory bank 128, coefficient seed data w generated in advance in a system different from the coefficient seed data generating apparatus 150C shown in FIG. i0 ~ W i3 Is stored.
[0440]
In the image signal processing unit 110C of FIG. 21, the generation formula of the formula (2) is used to generate the coefficient data Wi (i = 1 to n), but it is expressed by a polynomial having a different order or another function. It is also possible to use this formula.
Further, in the image signal processing unit 110 </ b> C of FIG. 21, in addition to the first class information (ADRC code) indicating the space class output from the feature amount extraction unit 123, the additional information generated by the additional information class generation unit 124. Based on the second class information indicating the class, the class code generation unit 125 generates the class code CL. However, the class code CL may be generated using only the first class information. However, by generating the class code CL in consideration of the second class information, finer classification can be performed, and the generation accuracy of the pixel data of the image signal Vd can be increased.
[0441]
Although detailed description is omitted, the processing in the image signal processing unit 110C in FIG. 21 is performed by software, for example, by the image signal processing device 300 shown in FIG. 9 as in the processing in the image signal processing unit 110 in FIG. It can also be realized (see the flowchart of FIG. 10). Further, although detailed description is omitted, the processing in the coefficient seed data generation device 150C in FIGS. 23 and 24 can also be realized by software in the same manner as the processing in the coefficient seed data generation device 150 in FIG. (Refer to the flowchart of FIG. 11).
[0442]
23 and 24 correspond to the coefficient seed data generation device 150 shown in FIG. 4, but correspond to the coefficient seed data generation device 150A shown in FIG. You can also That is, the coefficient data Wi of each class corresponding to each value of the parameter p is obtained, and thereafter, the coefficient data Wi of each class corresponding to each value of the parameter p is used to calculate the coefficient seed data w of each class. i0 ~ W i3 Is what you want.
[0443]
In the image signal processing unit 110C shown in FIG. 21, the coefficient seed data w stored in the information memory bank 128 is used. i0 ~ W i3 The coefficient generation circuit 129 generates the coefficient data Wi for each class corresponding to the value of the parameter p, and stores the coefficient data Wi for each class in the coefficient memory 126 for use. However, like the image signal processing unit 110A of FIG. 13, the coefficient data Wi of each combination of the class and the parameter p is stored in the information memory bank 128A, and the coefficient data of each class corresponding to the value of the parameter p. Wi may be configured to be loaded from the information memory bank 128A into the coefficient memory 126 and used.
[0444]
Next, still another embodiment of the present invention will be described.
FIG. 25 shows a configuration of a digital broadcast receiver 100D as still another embodiment. In FIG. 25, portions corresponding to those in FIGS. 1 and 21 are denoted by the same reference numerals.
[0445]
The digital broadcast receiver 100D includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 that receives a remote control signal. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.
[0446]
Also, the digital broadcast receiver 100D is supplied with a receiving antenna 105 and a broadcast signal (RF modulated signal) captured by the receiving antenna 105, and performs a channel selection process, a demodulation process, an error correction process, and the like, and a predetermined program And a stream buffer 109 for temporarily storing the MPEG2 stream Vc output from the tuner unit 106. The tuner unit 106 obtains an MPEG2 stream as an encoded image signal.
[0447]
The digital broadcast receiver 100D also converts the MPEG2 stream Vc stored in the stream buffer 109 into a decoded image signal Vd that presents the user-desired image quality, and this image signal. And a display unit 111 that displays an image based on the image signal Vd output from the processing unit 110D.
[0448]
The operation of the digital broadcast receiver 100D shown in FIG. 25 will be described.
The MPEG2 stream Vc output from the tuner unit 106 is supplied to the stream buffer 109 and temporarily stored.
[0449]
The MPEG2 stream Vc stored in the stream buffer 109 in this way is supplied to the image signal processing unit 110D and converted into a decoded image signal Vd that presents the user-desired image quality. In this image signal processing unit 110D, a new DCT coefficient for obtaining the image signal Vd is obtained from the DCT coefficient constituting the MPEG2 stream Vc, and the inverse DCT is performed on the new DCT coefficient to obtain the image signal Vd. It is done.
The image signal Vd output from the image signal processing unit 110D is supplied to the display unit 111, and an image based on the image signal Vd is displayed on the screen of the display unit 111.
[0450]
The user can adjust the resolution, block distortion, mosquito noise, or noise suppression degree in the image displayed on the screen of the display unit 111 as described above by operating the remote control transmitter 200. As will be described later, in the image signal processing unit 110D, the DCT coefficient for obtaining the image signal Vd is calculated by the estimation formula. The coefficient data of the estimation formula is changed by the user's operation of the remote control transmitter 200. A value corresponding to the value of the parameter p is generated and used by a generation formula including the parameter p. As a result, the resolution, block distortion, mosquito noise, or noise suppression degree in the image based on the image signal Vd output from the image signal processing unit 110D corresponds to the changed value of the parameter p.
[0451]
Details of the image signal processing unit 110D will be described. In this image signal processing unit 110D, portions corresponding to those of the image signal processing unit 110 shown in FIG. 1 and the image signal processing unit 110C shown in FIG. 21 are denoted by the same reference numerals, and detailed description thereof is omitted.
The image signal processing unit 110D extracts an extraction circuit 221 that extracts a DCT coefficient as a frequency coefficient from the MPEG2 stream Vc stored in the stream buffer 109, and variable-length coding extracted by the extraction circuit 221 such as Huffman coding And a variable length decoding circuit 222 that performs variable length decoding on the DCT coefficients.
[0452]
The image signal processing unit 110D also includes a quantization characteristic designation information extraction circuit 223 that extracts quantization characteristic designation information from the MPEG2 stream Vc stored in the stream buffer 109, and a quantization characteristic extracted by the extraction circuit 223. And an inverse quantization circuit 224 that performs inverse quantization on the quantized DCT coefficient output from the variable length decoding circuit 222 based on the designation information.
[0453]
Further, the image signal processing unit 110D first and second tap selection circuits that selectively extract and output the DCT coefficient corresponding to the position of interest in the image signal Vd from the DCT coefficient output from the inverse quantization circuit 224. 241,242.
[0454]
The first tap selection circuit 241 selectively extracts a plurality of DCT coefficients of a prediction tap used for prediction. FIG. 22A shows an example of a DCT coefficient of a prediction tap that is selectively extracted from the DCT coefficient output from the inverse quantization circuit 224 in the first tap selection circuit 241. In the present embodiment, a DCT block for obtaining a pixel block of interest of the image signal Vd is a target DCT block, and all DCT coefficients of the DCT block corresponding to this target DCT block, that is, 64 (8 × 8) pieces of DCT blocks. The DCT coefficient is extracted as the DCT coefficient of the prediction tap.
[0455]
The second tap selection circuit 242 selectively extracts a plurality of DCT coefficients of class taps used for class classification. FIG. 22B shows an example of DCT coefficients of class taps that are selectively extracted from the DCT coefficients output from the inverse quantization circuit 224 in the second tap selection circuit 242. In the present embodiment, 320 (8 × 8 × 5) DCTs of a total of five DCT blocks including a DCT block corresponding to the target DCT block and four DCT blocks adjacent in the vertical and horizontal directions. The coefficients are extracted as class tap DCT coefficients.
[0456]
The image signal processing unit 110 </ b> D includes a feature amount extraction unit 123 that extracts a feature amount from the class tap DCT coefficients selectively extracted by the second tap selection circuit 242. The feature amount extraction unit 123 generates an ADRC code as the class code CL by performing processing such as 1-bit ADRC on the DCT coefficient of the class tap. This class code CL indicates the class to which the target DCT block belongs.
[0457]
The image signal processing unit 110D has a coefficient memory 126. The coefficient memory 126 stores, for each class, a plurality of coefficient data Wi (i = 1 to n) used in an estimation formula used in an estimated prediction calculation circuit 127 described later. The coefficient data Wi is information for converting the DCT coefficient of the MPEG2 stream Vc into a new DCT coefficient for obtaining the image signal Vd.
[0458]
The class code CL output from the above-described feature amount extraction unit 123 is supplied to the coefficient memory 126 as read address information. From the coefficient memory 126, the coefficient data Wi of the estimation formula corresponding to the class code CL is read and supplied to the estimated prediction calculation circuit 127. In this case, coefficient data Wi corresponding to the number of DCT coefficients in the target DCT block is supplied to the estimated prediction calculation circuit 127 in order to calculate all DCT coefficients constituting the target DCT block.
[0459]
Further, the image signal processing unit 110D has an information memory bank 128. In the estimated prediction calculation circuit 127, the DCT coefficient y constituting the target DCT block is calculated from the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126 by the estimation formula of the above-described formula (1). The In the expression (1), n represents the number of prediction taps selected by the first tap selection circuit 241.
[0460]
The coefficient data Wi of this estimation formula is generated by a generation formula including the parameter p, as shown in the above formula (2). In the information memory bank 128, coefficient seed data w which is coefficient data in this generation formula is stored. i0 ~ W i3 Is stored for each class. In this case, coefficient seed data w for each class i0 ~ W i3 Is a plurality of sets of coefficient seed data w respectively corresponding to each DCT coefficient of the DCT block of interest. i0 ~ W i3 It is made up of.
[0461]
In addition, the image signal processing unit 110D performs coefficient seed data w for each class. i0 ~ W i3 And a coefficient generation circuit 129 that generates coefficient data Wi (i = 1 to n) of an estimation expression corresponding to the value of the parameter p for each class, using the value of the parameter p and the value of the parameter p. Yes. The coefficient generation circuit 129 receives from the information memory bank 128 the coefficient seed data w of each class described above. i0 ~ W i3 Is loaded. The coefficient generation circuit 129 is supplied with the value of the parameter p from the system controller 101.
[0462]
The coefficient data Wi (i = 1 to n) of each class generated by the coefficient generation circuit 129 is stored in the coefficient memory 126 described above. The generation of coefficient data Wi for each class in the coefficient generation circuit 129 is performed, for example, in each vertical blanking period. Thereby, even if the value of the parameter p is changed by the operation of the remote control transmitter 200, the coefficient data Wi of each class stored in the coefficient memory 126 can be immediately changed to one corresponding to the value of the parameter p, The user can smoothly adjust the resolution, block distortion, mosquito noise, noise suppression degree, and the like.
[0463]
Here, coefficient seed data w stored in the information memory bank 128 i0 ~ W i3 Is the coefficient seed data w stored in the information memory bank 128 of the image signal processor 110C of FIG. i0 ~ W i3 Similarly, the MPEG2 stream encoded in the same manner as the MPEG2 stream Vc stored in the stream buffer 109 is generated in advance based on the student signal obtained by processing according to the value of the parameter p. Thereby, the resolution, block distortion, mosquito noise, noise suppression degree, and the like of the image obtained from the image signal Vd can be adjusted stepwise according to the value of the parameter p.
[0464]
In addition, the image signal processing unit 110D stores, in a memory (not shown), an inverse DCT circuit 243 that performs inverse DCT on the DCT coefficient output from the estimated prediction calculation circuit 127, and image signals of I and P pictures. And a prediction memory circuit 244 that generates and outputs a corresponding reference image signal Vref when an image signal of a P picture or a B picture is output from the inverse DCT circuit 243 using these image signals. Yes.
[0465]
In addition, when the inverse DCT circuit 243 outputs an image signal of a P picture or a B picture, the image signal processing unit 110D adds the reference image signal Vref generated by the prediction memory circuit 244 to the image signal. have. Note that when the image signal of the I picture is output from the inverse DCT circuit 243, the reference image signal Vref is not supplied from the prediction memory circuit 244 to the adder circuit 245. The image signal of the I picture is output as it is.
[0466]
In addition, the image signal processing unit 110D supplies the I-picture and P-picture image signals output from the adder circuit 245 to the prediction memory circuit 244 and stores them in the memory, and also stores each picture output from the adder circuit 245. A picture selection circuit 246 that rearranges the image signals in the correct order and outputs them as an image signal Vd.
[0467]
The image signal processing unit 110D has an extraction circuit 227 that extracts encoding control information, that is, picture information PI and motion vector information MI, from the MPEG2 stream stored in the stream buffer 109. The motion vector information MI extracted by the extraction circuit 227 is supplied to the prediction memory circuit 244, and the prediction memory circuit 244 performs motion compensation when generating the reference image signal Vref using the motion vector information MI. The picture information PI extracted by the extraction circuit 227 is supplied to the prediction memory circuit 244 and the picture selection circuit 246, and the prediction memory circuit 244 and the picture selection circuit 246 identify pictures based on the picture information PI. .
[0468]
Next, the operation of the image signal processing unit 110D will be described.
The MPEG2 stream Vc stored in the stream buffer 109 is supplied to the extraction circuit 221 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable length encoded, and this DCT coefficient is supplied to the variable length decoding circuit 222 and decoded. Then, the quantized DCT coefficient output from the variable length decoding circuit 222 is supplied to the inverse quantization circuit 224 and subjected to inverse quantization.
[0469]
The second tap selection circuit 242 selectively extracts a plurality of class tap DCT coefficients from the DCT coefficients output from the inverse quantization circuit 224. The plurality of DCT coefficients of the class tap are supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, processing such as 1-bit ADRC is performed on the DCT coefficient of the class tap to generate an ADRC code as the class code CL. The class code CL indicates a class to which a DCT block for obtaining a target pixel block of the image signal Vd belongs.
[0470]
The class code CL is supplied to the coefficient memory 126 as read address information. In the coefficient memory 126, for example, in each vertical blanking period, the coefficient generation circuit 129 corresponds to the value of the parameter p adjusted by the user, and a plurality of DCT coefficients corresponding to each DCT coefficient of the DCT block of interest for each class. Coefficient seed data w i0 ~ W i3 The coefficient data Wi (i = 1 to n) of the estimation formula corresponding to each DCT coefficient of the target DCT block is obtained and stored (see formula (2)).
[0471]
As described above, the class code CL is supplied to the coefficient memory 126 as read address information, whereby the coefficient data Wi corresponding to the class code CL is read from the coefficient memory 126 and supplied to the estimated prediction calculation circuit 127. The In this case, coefficient data Wi corresponding to the number of DCT coefficients in the target DCT block is supplied to the estimated prediction calculation circuit 127 in order to calculate all DCT coefficients constituting the target DCT block.
[0472]
Further, the first tap selection circuit 225 selectively extracts a plurality of DCT coefficients of the prediction tap from the DCT coefficients output from the inverse quantization circuit 224. The plurality of DCT coefficients xi of the prediction tap are supplied to the estimated prediction calculation circuit 127. In the estimated prediction calculation circuit 127, the DCT block of interest is configured based on the estimation equation (see equation (1)) using the plurality of DCT coefficients xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126. A plurality of DCT coefficients y to be obtained are respectively obtained.
[0473]
Further, the DCT coefficient output from the estimated prediction calculation circuit 127 is subjected to inverse DCT by the inverse DCT circuit 243 to obtain an image signal of each picture. The image signal of each picture is supplied to the picture selection circuit 246 via the addition circuit 245. In this case, the reference image signal Vref output from the prediction memory circuit 244 is added by the addition circuit 245 to the image signals of the P picture and the B picture. The picture signals of the pictures are rearranged in the correct order by the picture selection circuit 229 and output as the picture signal Vd.
[0474]
Thus, in the image signal processing unit 110D, the coefficient data Wi (i = 1 to n) of the estimation formula corresponding to the value of the parameter p is used to calculate the DCT coefficient y for obtaining the image signal Vd. . Therefore, the user can arbitrarily adjust the resolution, block distortion, mosquito noise, or noise suppression degree of the image by the image signal Vd by changing the value of the parameter p.
[0475]
Also, coefficient seed data w for generating coefficient data Wi i0 ~ W i3 Is generated in advance based on a student signal obtained by processing an MPEG2 stream encoded in the same manner as the MPEG2 stream Vc stored in the stream buffer 109 described above according to the value of the parameter p. Only the specific quality of the image based on the image signal Vd, for example, only the resolution, only the block distortion, only the mosquito noise, or only the noise suppression level can be adjusted stepwise.
[0476]
Coefficient seed data w stored in the information memory bank 128 of the image signal processing unit 110D of FIG. i0 ~ W i3 The coefficient seed data w stored in the information memory bank 128 of the image signal processing unit 110 in FIG. i0 ~ W i3 In the same manner as above, it is generated by learning between a plurality of student signals and teacher signals (see FIG. 3).
[0477]
FIG. 26 shows coefficient seed data w stored in the information memory bank 128 of the digital broadcast receiver 100D described above. i0 ~ W i3 The configuration of the coefficient seed data generation device 150D for generating In FIG. 26, portions corresponding to those in FIGS. 4 and 23 are denoted by the same reference numerals.
[0478]
The coefficient seed data generation apparatus 150D obtains an MPEG2 stream that is a student signal SS by encoding the image signal Vd ′ and an input terminal 151 to which the image signal Vd ′ corresponding to the image signal Vd is input. And an MPE2 encoder 152. The MPEG2 encoder 152 outputs DCT coefficients constituting the MPEG2 stream generated from the image signal Vd ′ as the teacher signal ST.
[0479]
The coefficient seed data generation device 150D also includes a DCT coefficient extraction circuit 231 that extracts a DCT coefficient as a frequency coefficient from the student signal SS obtained by the MPEG2 encoder 152, and a variable length encoding extracted by the extraction circuit 231. For example, a variable-length decoding circuit 232 that performs variable-length decoding on DCT coefficients that are Huffman-encoded.
[0480]
The coefficient seed data generation device 150D also includes a quantization characteristic designation information extraction circuit 233 that extracts quantization characteristic designation information from the student signal SS obtained by the MPEG2 encoder 152, and a quantization that is extracted by the extraction circuit 233. And an inverse quantization circuit 234 that performs inverse quantization on the quantized DCT coefficient output from the variable length decoding circuit 232 based on the characteristic designation information.
[0481]
The value of the parameter p is input to the inverse quantizer circuit 234. In the inverse quantization circuit 234, the DCT coefficient is changed in accordance with the value of the parameter p in the process of inverse quantization signal processing in the same manner as described in the coefficient seed data generation device 150C in FIG. A DCT coefficient related to the student signal corresponding to the value of the parameter p is obtained. Thus, coefficient seed data w generated using DCT coefficients related to a plurality of student signals i0 ~ W i3 Can adjust the resolution, block distortion, mosquito noise, noise suppression degree, and the like of the image obtained from the image signal Vd in a stepwise manner in accordance with the value of the parameter p.
[0482]
Further, the coefficient seed data generation device 150D first and second tap selection that selectively extracts and outputs the DCT coefficient corresponding to the target position in the teacher signal ST from the DCT coefficient output from the inverse quantization circuit 234. Circuits 251 and 252 are included. The first and second tap selection circuits 251 and 252 are configured in the same manner as the first and second tap selection circuits 241 and 242 of the image signal processing unit 110D described above, respectively.
[0483]
The first tap selection circuit 251 selectively extracts a plurality of DCT coefficients of a prediction tap used for prediction. FIG. 22A shows an example of the DCT coefficient of the prediction tap that is selectively extracted from the DCT coefficient output from the inverse quantization circuit 234 in the first tap selection circuit 251. In the present embodiment, all DCT coefficients of the DCT block corresponding to the target DCT block of the teacher signal ST, that is, 64 (8 × 8) DCT coefficients are extracted as DCT coefficients of the prediction tap.
[0484]
The second tap selection circuit 252 selectively extracts a plurality of DCT coefficients of class taps used for class classification. FIG. 22B shows an example of DCT coefficients of class taps that are selectively extracted from the DCT coefficients output from the inverse quantization circuit 234 in the second tap selection circuit 252. In the present embodiment, 320 (8 × 8 × 5) DCTs of a total of five DCT blocks including a DCT block corresponding to the target DCT block and four DCT blocks adjacent in the vertical and horizontal directions. The coefficients are extracted as class tap DCT coefficients.
[0485]
The coefficient seed data generation device 150 </ b> D includes a feature quantity extraction unit 156 that extracts a feature quantity from the class tap DCT coefficients selectively extracted by the second tap selection circuit 252. The feature quantity extraction unit 156 is configured in the same manner as the feature quantity extraction unit 123 of the image signal processing unit 110D described above. The feature amount extraction unit 156 generates an ADRC code as the class code CL by performing processing such as 1-bit ADRC on the DCT coefficient of the class tap. This class code CL indicates the class to which the target DCT block in the teacher signal ST belongs.
[0486]
The coefficient seed data generation device 150D also includes a delay circuit 159 for adjusting the time of the teacher signal (DCT coefficient) ST output from the MPEG2 encoder 152, and the teacher signal ST adjusted in time by the delay circuit 159. The DCT coefficient y of each DCT block of interest, the DCT coefficient xi of the prediction tap selectively extracted by the first tap selection circuit 251 corresponding to each DCT block of interest, the value of the parameter p, A plurality of sets of coefficient seed data w corresponding to each DCT coefficient of the DCT block of interest for each class from the class code CL generated by the feature quantity extraction unit 156 corresponding to each DCT block. i0 ~ W i3 The normal equation generation unit 160 for generating normal equations (see equation (9)) for obtaining each of the above.
[0487]
In this case, one learning data is generated by a combination of one DCT coefficient y and the corresponding DCT coefficient xi of n prediction taps. Depending on the value of the parameter p, the inverse quantization circuit 234 sequentially obtains DCT coefficients related to a plurality of student signals, and learning data is generated between the teacher signal and each student signal. As a result, the normal equation generation unit 160 generates a normal equation in which many pieces of learning data having different values of the parameter p are registered, and the coefficient seed data w i0 ~ W i3 Can be obtained.
[0488]
Further, the coefficient seed data generation device 150D is supplied with data of normal equations corresponding to the respective DCT coefficients of the DCT block of interest generated for each class by the normal equation generation unit 160, and solves the normal equations. For each class, a plurality of sets of coefficient seed data w corresponding to each DCT coefficient of the target DCT block i0 ~ W i3 Is provided with a coefficient seed data determining unit 161 and a coefficient seed memory 162 for storing the obtained coefficient seed data. In the coefficient seed data determination unit 161, the normal equation is solved, for example, by a sweeping method, and coefficient coefficient data is obtained.
[0489]
The operation of the coefficient seed data generation device 150D shown in FIG. 26 will be described.
An image signal Vd ′ corresponding to the image signal Vd is supplied to the input terminal 151, and the image signal Vd ′ is encoded by the MPEG2 encoder 152 to generate an MPEG2 stream as the student signal SS. The
[0490]
The student signal SS obtained by the MPEG2 encoder 152 is supplied to the extraction circuit 231 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable-length encoded, and this DCT coefficient is supplied to the variable-length decoding circuit 232 and decoded. Then, the quantized DCT coefficient output from the variable length decoding circuit 232 is supplied to the inverse quantization circuit 234 and subjected to inverse quantization.
[0491]
The value of the parameter p is input to the inverse quantizer 234. In the inverse quantization circuit 234, the signal changes in accordance with the value of the parameter p in the process of inverse quantization signal processing. That is, in the present embodiment, as described above, the DCT coefficient is changed according to the value of the parameter p. Thereby, the DCT coefficient concerning the student signal corresponding to the value of the parameter p is obtained.
[0492]
The second tap selection circuit 252 selectively extracts a plurality of class tap DCT coefficients from the DCT coefficients output from the inverse quantization circuit 234. The plurality of DCT coefficients of the class tap are supplied to the feature amount extraction unit 156. In this feature amount extraction unit 156, processing such as 1-bit ADRC is performed on the DCT coefficient of the class tap to generate an ADRC code as the class code CL. This class code CL indicates the class to which the target DCT block of the teacher signal ST belongs.
[0493]
The first tap selection circuit 251 selectively extracts a plurality of DCT coefficients of the prediction tap corresponding to the target DCT block of the teacher signal ST from the DCT coefficients output from the inverse quantization circuit 234.
[0494]
Then, the DCT coefficient y of each target DCT block of the teacher signal ST time-adjusted by the delay circuit 159, and the prediction tap selectively extracted by the first tap selection circuit 251 corresponding to each target DCT block, respectively. Using the DCT coefficient xi, the value of the parameter p, and the class code CL generated by the feature amount extraction unit 156 corresponding to each target DCT block, the normal equation generation unit 160 uses the target DCT for each class. Multiple sets of coefficient seed data w corresponding to each DCT coefficient of the block i0 ~ W i3 A normal equation (see equation (9)) for obtaining each of the above is generated.
[0495]
Then, each coefficient equation data determination unit 161 solves each normal equation, and for each class, a plurality of sets of coefficient seed data w corresponding to each DCT coefficient of the DCT block of interest. i0 ~ W i3 And their coefficient seed data w i0 ~ W i3 Is stored in the coefficient seed memory 162.
[0496]
As described above, in the coefficient seed data generation device 150D shown in FIG. 26, it is used in the estimation formula (see formula (1)) for each class stored in the information memory bank 128 of the image signal processing unit 110D in FIG. Coefficient data w which is coefficient data in a generation formula (see formula (2)) for obtaining the coefficient data Wi i0 ~ W i3 Can be generated.
[0497]
In the image signal processing unit 110D of FIG. 25, the generation formula (2) is used to generate the coefficient data Wi (i = 1 to n). However, a polynomial having a different order or another function is used. It can also be realized with an expression.
[0498]
Further, although detailed description is omitted, the processing in the image signal processing unit 110D in FIG. 25 is performed by software, for example, by the image signal processing device 300 shown in FIG. 9 in the same manner as the processing in the image signal processing unit 110 in FIG. It can also be realized (see the flowchart of FIG. 10). Further, although detailed description is omitted, the processing in the coefficient seed data generation device 150D in FIG. 26 can also be realized by software in the same manner as the processing in the coefficient seed data generation device 150 in FIG. 4 (FIG. 11). (Refer to the flowchart).
[0499]
26 corresponds to the coefficient seed data generation device 150 shown in FIG. 4, but may also correspond to the coefficient seed data generation device 150A shown in FIG. it can. That is, the coefficient data Wi of each class corresponding to each value of the parameter p is obtained, and thereafter, the coefficient data Wi of each class corresponding to each value of the parameter p is used to calculate the coefficient seed data w of each class. i0 ~ W i3 Is what you want.
[0500]
Further, in the image signal processing unit 110D shown in FIG. 25, coefficient seed data w stored in the information memory bank 128 is stored. i0 ~ W i3 The coefficient generation circuit 129 generates the coefficient data Wi for each class corresponding to the value of the parameter p, and stores the coefficient data Wi for each class in the coefficient memory 126 for use. However, like the image signal processing unit 110A of FIG. 13, the coefficient data Wi of each combination of the class and the parameter p is stored in the information memory bank 128A, and the coefficient data of each class corresponding to the value of the parameter p. Wi may be configured to be loaded from the information memory bank 128A into the coefficient memory 126 and used.
[0501]
In the above-described embodiment, the MPEG2 stream handling DCT is shown. However, the present invention can be applied to other handling of encoded digital information signals. Further, instead of DCT, encoding with other orthogonal transforms such as a wavelet transform and a discrete sine transform may be used.
[0502]
Also, the coefficient seed data generating device 150 shown in FIG. 4, the coefficient seed data generating device 150A shown in FIG. 8, the coefficient data generating device 170 shown in FIG. 14, the difference data generating device 210 shown in FIG. 18, and the coefficient seed shown in FIG. In both of the data generation device 150C and the coefficient seed data generation device 150D shown in FIG. 26, an MPEG2 encoder 152 is provided, and an MPEG2 stream is obtained by the MPEG2 encoder 152. It is good also as a structure which inputs.
[0503]
Moreover, although the case where the information signal is an image signal has been described in the above embodiment, the present invention is not limited to this. For example, the present invention can be similarly applied when the information signal is an audio signal.
[0504]
【The invention's effect】
According to the present invention, the encoded digital information signal or the first information signal which is a digital information signal obtained by decoding the encoded digital information signal is obtained. , Improved the quality of information than the first information signal When converting to the second information signal, The coefficient seed data generated in advance corresponding to a plurality of types of parameters and the value of the input parameter are calculated to obtain coefficient data, and the coefficient data is stored for each class. Browse to select a class. The selected coefficient data and a plurality of second information data located around the position of interest in the second information signal are calculated to obtain information data of the position of interest. This Only the specific quality of the output obtained by the second information signal can be adjusted step by step by changing the value of the input parameter.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a digital broadcast receiver as an embodiment.
FIG. 2 is a diagram illustrating an example of a prediction tap and a class tap.
FIG. 3 is a diagram for explaining an example of a generation method of coefficient seed data.
FIG. 4 is a block diagram illustrating a configuration example of a coefficient seed data generation apparatus.
FIG. 5 is a diagram for explaining a change in gain of an AC coefficient when adjusting mosquito noise in stages.
FIG. 6 is a block diagram showing a configuration of an MPEG2 decoder.
FIG. 7 is a diagram for explaining another example of the coefficient seed data generation method.
FIG. 8 is a block diagram illustrating a configuration example of a coefficient seed data generation apparatus.
FIG. 9 is a block diagram illustrating a configuration example of an image signal processing device to be realized by software.
FIG. 10 is a flowchart showing image signal processing.
FIG. 11 is a flowchart illustrating a coefficient seed data generation process (part 1).
FIG. 12 is a flowchart showing a coefficient seed data generation process (No. 2).
FIG. 13 is a block diagram showing a configuration of a digital broadcast receiver as another embodiment.
FIG. 14 is a block diagram illustrating a configuration example of a coefficient data generation device.
FIG. 15 is a flowchart showing image signal processing;
FIG. 16 is a flowchart showing coefficient data generation processing.
FIG. 17 is a block diagram showing a configuration of a digital broadcast receiver as still another embodiment.
FIG. 18 is a block diagram illustrating a configuration example of a difference data generation device.
FIG. 19 is a flowchart showing image signal processing;
FIG. 20 is a flowchart showing difference data generation processing.
FIG. 21 is a block diagram showing a configuration of a digital broadcast receiver as another embodiment.
FIG. 22 is a diagram illustrating an example of a DCT coefficient prediction tap and a class tap.
FIG. 23 is a block diagram illustrating a configuration example of a coefficient seed data generation device.
FIG. 24 is a block diagram illustrating a configuration example of a coefficient seed data generation device.
FIG. 25 is a block diagram showing a configuration of a digital broadcast receiver as still another embodiment.
FIG. 26 is a block diagram illustrating a configuration example of a coefficient seed data generation device.
[Explanation of symbols]
100, 100A, 100B, 100C, 100D ... Digital broadcast receiver, 101 ... System controller, 102 ... Remote control signal receiving circuit, 105 ... Receiving antenna, 106 ... Tuner unit, 107 ... MPEG2 decoder 108 ... buffer memory 109 ... stream buffer 110,110A, 110B, 110C ... image signal processing unit 111 ... display unit 121,225,241 ... First tap selection circuit, 122, 226, 242 ... second tap selection circuit, 122B ... tap selection circuit, 123 ... feature quantity extraction unit, 124 ... additional information class generation unit, 125 ... Class code generator, 126 ... Coefficient memory, 127 ... Estimated prediction arithmetic circuit, 128, 128A ... Information memory bank, 129... Coefficient generation circuit, 131... Storage table, 132... DCT circuit, 133, 136, changeover switch, 134, adder, 135, 243, reverse DCT Circuit 150 ... Coefficient seed data generator 151 ... Input terminal 152 ... MPEG2 encoder 153 ... MPEG2 decoder 154, 235, 251 ... First tap selection Circuit, 155, 236, 252 ... second tap selection circuit, 156 ... feature quantity extraction unit, 157 ... additional information class generation unit, 158 ... class code generation unit, 159 ... delay Circuit, 160, 163, 165 ... Normal equation generation unit, 161, 166 ... Coefficient seed data determination unit, 162 ... Coefficient memory, 164 ... Coefficient data determination unit, 167 ... Coefficient memory, 170 ... Coefficient data generation device, 171, 173 ... DCT circuit, 172, 174 ... Changeover switch, 175 ... Subtraction unit, 176 ... Accumulation control unit, 177 ... Accumulation Table, 210... Difference data generation device, 221, 231... DCT coefficient extraction circuit, 222, 232... Variable length decoding circuit, 223, 233. 234 ... Inverse quantization circuit, 227, 237 ... Coding control information extraction circuit, 228, 238, 244 ... Prediction memory circuit, 229, 239, 246 ... Picture selection circuit, 239A ... Arithmetic circuit, 245 ... adder circuit, 300 ... image signal processing apparatus

Claims (40)

符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換する情報信号処理装置であって、
上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出するクラス検出手段と、
上記第2の情報信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値が入力されるパラメータ入力手段と、
上記クラス検出手段で検出されたクラスおよび上記パラメータ入力手段に入力されたパラメータの値に対応して、上記注目位置の情報データを生成する情報データ生成手段とを備え、
上記情報データ生成手段は、
上記複数種類のパラメータに対応して予め生成された係数種データと、上記パラメータ入力手段により入力されたパラメータの値とを演算して係数データを求めて当該係数データを上記クラス毎に格納し、当該係数データを当該クラスを参照して選択する係数データ発生手段と、
上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第2のデータ選択手段と、
上記第2のデータ選択手段で選択された複数の第2の情報データと上記係数データ発生手段で選択された係数データとを演算して、上記注目位置の情報データを求める演算手段と
を備えることを特徴とする情報信号処理装置。
A first information signal made up of a plurality of information data, which is generated by decoding an encoded digital information signal, is made up of a plurality of information data whose information quality is improved over that of the first information signal. An information signal processing device for converting to a second information signal,
First data selection means for selecting, from the first information signal, a plurality of first information data located around the position of interest in the second information signal;
The first is to detect the level distribution pattern of the plurality of first information data selected by the data selection means, class detection means for detecting a class information data above Symbol target position belongs, based on the level distribution pattern When,
Parameter input means for inputting values of a plurality of types of parameters for determining in stages the quality of output information obtained by the second information signal;
Corresponding to the class detected by the class detection means and the parameter value input to the parameter input means, the information data generation means for generating information data of the position of interest,
The information data generating means includes
The coefficient seed data generated in advance corresponding to the plurality of types of parameters and the value of the parameter input by the parameter input means are calculated to obtain coefficient data, and the coefficient data is stored for each class. Coefficient data generation means for selecting the coefficient data with reference to the class;
Second data selection means for selecting a plurality of second information data located around the position of interest in the second information signal from the first information signal;
Computation means for computing a plurality of second information data selected by the second data selection means and coefficient data selected by the coefficient data generation means to obtain information data of the target position An information signal processing device.
上記符号化されたデジタル情報信号を復号化する復号化手段を備え、
上記符号化されたデジタル情報信号には、該デジタル情報信号を上記復号化手段により復号化する際に用いられる付加情報が付加されており、
上記クラス検出手段は、上記複数の第1の情報データと共に上記付加情報に基づいて、上記注目位置の情報データが属するクラスを検出する
ことを特徴とする請求項1に記載の情報信号処理装置。
Decoding means for decoding the encoded digital information signal,
Additional information used when the digital information signal is decoded by the decoding means is added to the encoded digital information signal,
The information signal processing apparatus according to claim 1, wherein the class detection unit detects a class to which the information data of the target position belongs based on the additional information together with the plurality of first information data.
上記係数データ発生手段は、
記係数種データをクラス毎に格納する第1の記憶手段と、
上記第1の記憶手段に格納されている係数種データと上記パラメータ入力手段に入力されたパラメータの値とを演算して、クラス毎に上記係数データを生成する係数データ生成手段と、
上記係数データ生成手段で生成された各クラスにおける上記係数データを格納する第2の記憶手段と、
上記第2の記憶手段より上記クラス検出手段で検出されたクラスに対応した上記係数データを読み出して出力するデータ読み出し手段とを有する
ことを特徴とする請求項に記載の情報信号処理装置。
The coefficient data generating means is
First storage means for storing the upper SL coefficient several data for each class,
And calculates the value of the parameters entered in the coefficient seed data and the parameter input unit stored in the first storage means, and coefficient data generation means for generating on the SL coefficient data for each class,
Second storage means for storing the upper SL coefficient data in each class generated by the coefficient data generation means,
Information signal processing apparatus according to claim 1, characterized in that it comprises a data reading means for reading and outputting on SL coefficient data corresponding to the detected class by the class detection means from said second storage means .
上記係数種データは、
それぞれ上記複数種類のパラメータに応じて生成され、上記第1の情報信号に対応した複数の生徒信号と、上記第2の情報信号に対応した教師信号とを用いて予め生成される
ことを特徴とする請求項に記載の情報信号処理装置。
The coefficient seed data is
Features are respectively generated in accordance with the plural kinds of parameters, and a plurality of student signal corresponding to the first information signal, to be generated in advance by using the teacher signal corresponding to said second information signal The information signal processing apparatus according to claim 3 .
上記生徒信号は、上記教師信号を符号化して得られたデジタル情報信号を復号化することで得られ、
上記復号化の過程で上記パラメータの値に応じて信号を変化させることで該パラメータの値に対応した生徒信号を得る
ことを特徴とする請求項に記載の情報信号処理装置。
The student signal is obtained by decoding a digital information signal obtained by encoding the teacher signal,
5. The information signal processing apparatus according to claim 4 , wherein a student signal corresponding to the parameter value is obtained by changing the signal in accordance with the parameter value in the decoding process.
上記符号化は直交変換を伴う符号化である
ことを特徴とする請求項1に記載の情報信号処理装置。
The information signal processing apparatus according to claim 1, wherein the encoding is encoding accompanied by orthogonal transformation.
上記符号化は直交変換を伴う符号化であって、
上記復号化の過程で上記パラメータの値に応じて、逆直交変換を行う際に用いられる少なくとも周波数係数または逆変換基底のいずれかを変更する
ことを特徴とする請求項に記載の情報信号処理装置。
The encoding is encoding with orthogonal transformation,
6. The information signal processing according to claim 5 , wherein at least one of a frequency coefficient and an inverse transform base used when performing inverse orthogonal transform is changed in accordance with a value of the parameter in the decoding process. apparatus.
上記周波数係数のうち全てのAC係数のゲインを同じ値として、上記パラメータの値に応じて上記ゲインを変更する
ことを特徴とする請求項に記載の情報信号処理装置。
The information signal processing apparatus according to claim 7 , wherein the gain of all AC coefficients among the frequency coefficients is set to the same value, and the gain is changed according to the value of the parameter.
上記周波数係数は量子化されたものであり、上記周波数係数のうちDC係数の量子化ステップを上記パラメータの値に応じて変更する
ことを特徴とする請求項に記載の情報信号処理装置。
The information signal processing apparatus according to claim 7 , wherein the frequency coefficient is quantized, and a DC coefficient quantization step of the frequency coefficient is changed according to the value of the parameter.
上記周波数係数のうちAC係数のゲインを高域程小さくすると共に、該AC係数の高域のゲインの低下の度合いを上記パラメータの値に応じて変更する
ことを特徴とする請求項に記載の情報信号処理装置。
The gain of the AC coefficients of said frequency coefficients with smaller as the high band, the degree of reduction of the gain in the high range of the AC coefficient according to claim 7 and changes according to the value of the parameter Information signal processing device.
少なくとも上記周波数係数または上記逆変換基底にランダムノイズを付加すると共に、上記ランダムノイズのレベルを上記パラメータの値に応じて変更する
ことを特徴とする請求項に記載の情報信号処理装置。
The information signal processing apparatus according to claim 7 , wherein random noise is added to at least the frequency coefficient or the inverse transform base, and the level of the random noise is changed according to the value of the parameter.
上記係数データ発生手段は、
上記クラスおよび上記パラメータの値の各組み合わせにおける、上記係数種データとしての係数データを格納する第1の記憶手段と、
上記第1の記憶手段より上記パラメータ入力手段に入力されたパラメータの値に対応する各クラスにおける上記係数データを読み出す第1のデータ読み出し手段と、
上記第1のデータ読み出し手段で読み出された各クラスにおける上記係数データを格納する第2の記憶手段と、
上記第2の記憶手段より上記クラス検出手段で検出されたクラスに対応した上記係数データを読み出して出力する第2のデータ読み出し手段とを有する
ことを特徴とする請求項に記載の情報信号処理装置。
The coefficient data generating means is
In each combination of the values of the classes and the parameters, first memory means for storing coefficient data of the above coefficient seed data,
A first data reading means for reading the upper SL coefficient data in each class corresponding to the value of the first parameter that is input to the parameter input means from the storage means,
Second storage means for storing the upper SL coefficient data in each class read in the first data reading means,
Information according to claim 1, characterized in that a second data reading means for reading and outputting on SL coefficient data corresponding to the detected class by the class detection means from said second storage means Signal processing device.
上記複数種類のパラメータに対応した係数データは、
それぞれ上記複数種類のパラメータに応じて生成され、上記第1の情報信号に対応した複数の生徒信号と、上記第2の情報信号に対応した教師信号とを用いて予め生成される
ことを特徴とする請求項12に記載の情報信号処理装置。
Coefficients corresponding to said plurality of types of parameter data,
Features are respectively generated in accordance with the plural kinds of parameters, and a plurality of student signal corresponding to the first information signal, to be generated in advance by using the teacher signal corresponding to said second information signal The information signal processing apparatus according to claim 12 .
上記符号化されたデジタル情報信号を復号化する復号化手段を備え、
上記生徒信号は、上記教師信号を符号化して得られたデジタル情報信号を上記復号化手段により復号化することで得られ、
上記復号化の過程で上記パラメータの値に応じて信号を変化させることで該パラメータの値に対応した生徒信号を得る
ことを特徴とする請求項13に記載の情報信号処理装置。
Decoding means for decoding the encoded digital information signal,
The student signal is obtained by decoding the digital information signal obtained by encoding the teacher signal by the decoding means ,
14. The information signal processing apparatus according to claim 13 , wherein a student signal corresponding to the parameter value is obtained by changing the signal according to the parameter value in the decoding process.
上記符号化は直交変換を伴う符号化であって、
上記復号化の過程で上記パラメータの値に応じて、逆直交変換を行う際に用いられる少なくとも周波数係数または逆変換基底のいずれかを変更する
ことを特徴とする請求項14に記載の情報信号処理装置。
The encoding is encoding with orthogonal transformation,
15. The information signal processing according to claim 14 , wherein at least one of a frequency coefficient and an inverse transform base used when performing an inverse orthogonal transform is changed according to a value of the parameter in the decoding process. apparatus.
上記周波数係数のうち全てのAC係数のゲインを同じ値として、上記パラメータの値に応じて上記ゲインを変更する
ことを特徴とする請求項15に記載の情報信号処理装置。
The information signal processing apparatus according to claim 15 , wherein the gain of all AC coefficients among the frequency coefficients is set to the same value, and the gain is changed according to the value of the parameter.
上記周波数係数は量子化されたものであり、上記周波数係数のうちDC係数の量子化ステップを上記パラメータの値に応じて変更する
ことを特徴とする請求項15に記載の情報信号処理装置。
The information signal processing apparatus according to claim 15 , wherein the frequency coefficient is quantized, and a DC coefficient quantization step of the frequency coefficient is changed according to the value of the parameter.
上記周波数係数のうちAC係数のゲインを高域程小さくすると共に、該AC係数の高域のゲインの低下の度合いを上記パラメータの値に応じて変更する
ことを特徴とする請求項15に記載の情報信号処理装置。
The gain of the AC coefficients of said frequency coefficients as well as smaller as the high band, the degree of reduction of the gain in the high range of the AC coefficients of claim 15, wherein the changing according to the value of the parameter Information signal processing device.
少なくとも上記周波数係数または上記逆変換基底にランダムノイズを付加すると共に、上記ランダムノイズのレベルを上記パラメータの値に応じて変更する
ことを特徴とする請求項15に記載の情報信号処理装置。
The information signal processing apparatus according to claim 15 , wherein random noise is added to at least the frequency coefficient or the inverse transform base, and the level of the random noise is changed according to the value of the parameter.
符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換する情報信号処理方法であって、
上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出する第2のステップと、
上記第2の情報信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値を取得する第3のステップと、
上記第2のステップで検出されたクラスおよび上記第2のステップで取得されたパラメータの値に対応して、上記注目位置の情報データを生成する第4のステップとを備え、
上記第4のステップでは、
上記複数種類のパラメータに対応して予め生成された係数種データと、上記第3のステップで入力したパラメータの値とを演算して係数データを求めて当該係数データを上記クラス毎に格納し、当該係数データを当該クラスを参照して選択する第5のステップと、
上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第6のステップと、
上記第6のステップで選択された複数の第2の情報データと、上記第5のステップで上記クラスを参照して選択された係数データとを演算して上記注目位置の情報データを求める第7のステップとを有する
ことを特徴とする情報信号処理方法。
A first information signal made up of a plurality of information data, which is generated by decoding an encoded digital information signal, is made up of a plurality of information data whose information quality is improved over that of the first information signal. An information signal processing method for converting to a second information signal,
A first step of selecting, from the first information signal, a plurality of first information data located around a position of interest in the second information signal;
The detecting the level distribution pattern of the first information data is selected of the plurality in the first step, a second step of information data on SL target position is detected belongs classes based on the level distribution pattern ,
A third step of acquiring values of a plurality of types of parameters for determining in stages the quality of output information obtained by the second information signal;
A fourth step of generating information data of the position of interest corresponding to the class detected in the second step and the value of the parameter acquired in the second step;
In the fourth step,
The coefficient seed data generated in advance corresponding to the plurality of types of parameters and the value of the parameter input in the third step are calculated to obtain coefficient data, and the coefficient data is stored for each class. A fifth step of selecting the coefficient data with reference to the class;
A sixth step of selecting a plurality of second information data located around the position of interest in the second information signal from the first information signal;
A seventh step of calculating the plurality of second information data selected in the sixth step and the coefficient data selected by referring to the class in the fifth step to obtain the information data of the target position; An information signal processing method comprising the steps of :
符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換するために、
上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出する第2のステップと、
上記第2の情報信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値を取得する第3のステップと、
上記第2のステップで検出されたクラスおよび上記第2のステップで取得されたパラメータの値に対応して、上記注目位置の情報データを生成する第4のステップとを有し、
上記第4のステップでは、
上記複数種類のパラメータに対応して予め生成された係数種データと、上記第3のステップで入力したパラメータの値とを演算して係数データを求めて当該係数データを上記クラス毎に格納し、当該係数データを当該クラスを参照して選択する第5のステップと、
上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第6のステップと、
上記第6のステップで選択された複数の第2の情報データと、上記第5のステップで上記クラスを参照して選択された係数データとを演算して上記注目位置の情報データを求める第7のステップとを有する情報信号処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。
A first information signal made up of a plurality of information data, which is generated by decoding an encoded digital information signal, is made up of a plurality of information data whose information quality is improved over that of the first information signal. To convert to a second information signal,
A first step of selecting, from the first information signal, a plurality of first information data located around a position of interest in the second information signal;
The detecting the level distribution pattern of the first information data is selected of the plurality in the first step, a second step of information data on SL target position is detected belongs classes based on the level distribution pattern ,
A third step of acquiring values of a plurality of types of parameters for determining in stages the quality of output information obtained by the second information signal;
Corresponding to the class detected in the second step and the value of the parameter acquired in the second step, and a fourth step of generating information data of the target position,
In the fourth step,
The coefficient seed data generated in advance corresponding to the plurality of types of parameters and the value of the parameter input in the third step are calculated to obtain coefficient data, and the coefficient data is stored for each class. A fifth step of selecting the coefficient data with reference to the class;
A sixth step of selecting a plurality of second information data located around the position of interest in the second information signal from the first information signal;
A seventh step of calculating the plurality of second information data selected in the sixth step and the coefficient data selected by referring to the class in the fifth step to obtain the information data of the target position; a computer-readable medium storing a program for executing the information signal processing method and a step in the computer.
符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換するために、
上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出する第2のステップと、
上記第2の情報信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値を取得する第3のステップと、
上記第2のステップで検出されたクラスおよび上記第2のステップで取得されたパラメータの値に対応して、上記注目位置の情報データを生成する第4のステップとを有し、
上記第4のステップでは、上記複数種類のパラメータに対応して予め生成された係数種データと、上記第3のステップで入力したパラメータの値とを演算して係数データを求めて当該係数データを上記クラス毎に格納し、当該係数データを当該クラスを参照して選択する第5のステップと、
上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第6のステップと、
上記第6のステップで選択された複数の第2の情報データと、上記第5のステップで上記クラスを参照して選択された係数データとを演算して上記注目位置の情報データを求める第7のステップとを有する情報信号処理方法をコンピュータに実行させるためのプログラム。
A first information signal made up of a plurality of information data, which is generated by decoding an encoded digital information signal, is made up of a plurality of information data whose information quality is improved over that of the first information signal. To convert to a second information signal,
A first step of selecting, from the first information signal, a plurality of first information data located around a position of interest in the second information signal;
The detecting the level distribution pattern of the first information data is selected of the plurality in the first step, a second step of information data on SL target position is detected belongs classes based on the level distribution pattern ,
A third step of acquiring values of a plurality of types of parameters for determining in stages the quality of output information obtained by the second information signal;
Corresponding to the class detected in the second step and the value of the parameter acquired in the second step, and a fourth step of generating information data of the target position,
In the fourth step, the coefficient seed data generated in advance corresponding to the plurality of types of parameters and the value of the parameter input in the third step are calculated to obtain coefficient data, and the coefficient data is obtained. A fifth step of storing for each class and selecting the coefficient data with reference to the class;
A sixth step of selecting a plurality of second information data located around the position of interest in the second information signal from the first information signal;
A seventh step of calculating the plurality of second information data selected in the sixth step and the coefficient data selected by referring to the class in the fifth step to obtain the information data of the target position; A program for causing a computer to execute an information signal processing method comprising the steps of:
符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換する情報信号処理装置であって、
上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出するクラス検出手段と、
上記第2の情報信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値が入力されるパラメータ入力手段と、
上記クラス検出手段で検出されたクラスおよび上記パラメータ入力手段に入力されたパラメータの値に対応して、上記注目位置の情報データを生成する情報データ生成手段とを備え、
上記情報データ生成手段は、
記クラス検出手段で検出されたクラスおよび上記パラメータ入力手段に入力されたパラメータの値に対応した、上記第1の情報信号の情報データと上記第2の情報信号の情報データとの差分を示す差分データを発生する差分データ発生手段と、
上記第1の情報信号を構成する複数の情報データのうち、上記第2の情報信号における注目位置に対応した第2の情報データに、上記差分データ発生手段で発生された差分データを加算して上記注目位置の情報データを得る加算手段とを有する
ことを特徴とする情報信号処理装置。
A first information signal made up of a plurality of information data, which is generated by decoding an encoded digital information signal, is made up of a plurality of information data whose information quality is improved over that of the first information signal. An information signal processing device for converting to a second information signal,
First data selection means for selecting, from the first information signal, a plurality of first information data located around the position of interest in the second information signal;
Class detection means for detecting a level distribution pattern of the plurality of first information data selected by the first data selection means and detecting a class to which the information data of the target position belongs based on the level distribution pattern; ,
Parameter input means for inputting values of a plurality of types of parameters for determining in stages the quality of output information obtained by the second information signal;
Corresponding to the class detected by the class detection means and the parameter value input to the parameter input means, the information data generation means for generating information data of the position of interest,
The information data generating means includes
Corresponding to the value of the input parameters to the detected class and the parameter input means above Symbol class detection means, indicating a difference between the information data of the first information signal of the information data and the second information signal Differential data generating means for generating differential data;
Of the plurality of pieces of information data constituting the first information signal, the difference data generated by the difference data generation means is added to the second information data corresponding to the position of interest in the second information signal. information signal processing apparatus you; and a summing means for obtaining the information data of the target position.
上記差分データ発生手段は、
上記クラスおよび上記パラメータの値の組み合わせ毎の上記差分データを格納する記憶手段と、
上記記憶手段より上記クラス検出手段で検出されたクラスおよび上記パラメータ入力手段に入力されたパラメータの値に対応する差分データを読み出すデータ読み出し手段とを有する
ことを特徴とする請求項23に記載の情報信号処理装置。
The difference data generating means is
Storage means for storing the upper Symbol differential data of each combination of values of the classes and the parameters,
The information according to claim 23 , further comprising: a data reading unit that reads out difference data corresponding to a class detected by the class detecting unit and a parameter value input to the parameter input unit from the storage unit. Signal processing device.
記差分データは、
それぞれ上記複数種類のパラメータの値に応じて生成され、上記第1の情報信号に対応した複数の生徒信号と、上記第2の情報信号に対応した教師信号とが減算されて予め生成される
ことを特徴とする請求項24に記載の情報信号処理装置。
Minute data on Symbol difference,
Are respectively generated in accordance with the value of said plurality of types of parameters are generated in advance the plurality of the student signal corresponding to the first information signal, and the teacher signal corresponding to the second information signal is subtracted 25. The information signal processing apparatus according to claim 24 .
上記符号化されたデジタル情報信号を復号化する復号化手段を備え、
上記生徒信号は、上記教師信号を符号化して得られたデジタル情報信号を上記復号化手段により復号化することで得られ、
上記復号化の過程で上記パラメータの値に応じて信号を変化させることで該パラメータの値に対応した生徒信号を得る
ことを特徴とする請求項25に記載の情報信号処理装置。
Decoding means for decoding the encoded digital information signal,
The student signal is obtained by decoding the digital information signal obtained by encoding the teacher signal by the decoding means ,
26. The information signal processing apparatus according to claim 25 , wherein a student signal corresponding to the parameter value is obtained by changing the signal according to the parameter value in the decoding process.
上記符号化は直交変換を伴う符号化であって、
上記復号化の過程で上記パラメータの値に応じて、逆直交変換を行う際に用いられる少なくとも周波数係数または逆変換基底のいずれかを変更する
ことを特徴とする請求項26に記載の情報信号処理装置。
The encoding is encoding with orthogonal transformation,
27. The information signal processing according to claim 26 , wherein at least one of a frequency coefficient and an inverse transform base used when performing inverse orthogonal transform is changed in accordance with a value of the parameter in the decoding process. apparatus.
上記周波数係数のうち全てのAC係数のゲインを同じ値として、上記パラメータの値に応じて上記ゲインを変更する
ことを特徴とする請求項27に記載の情報信号処理装置。
28. The information signal processing apparatus according to claim 27 , wherein the gain of all AC coefficients of the frequency coefficients is set to the same value, and the gain is changed according to the value of the parameter.
上記周波数係数は量子化されたものであり、上記周波数係数のうちDC係数の量子化ステップを上記パラメータの値に応じて変更する
ことを特徴とする請求項27に記載の情報信号処理装置。
The information signal processing apparatus according to claim 27 , wherein the frequency coefficient is quantized, and a quantization step of a DC coefficient among the frequency coefficients is changed according to a value of the parameter.
上記周波数係数のうちAC係数のゲインを高域程小さくすると共に、該AC係数の高域のゲインの低下の度合いを上記パラメータの値に応じて変更する
ことを特徴とする請求項27に記載の情報信号処理装置。
The gain of the AC coefficients of said frequency coefficients as well as smaller as the high band, the degree of reduction of the gain in the high range of the AC coefficients of claim 27, wherein changing according to the value of the parameter Information signal processing device.
少なくとも上記周波数係数または上記逆変換基底にランダムノイズを付加すると共に、上記ランダムノイズのレベルを上記パラメータの値に応じて変更する
ことを特徴とする請求項27に記載の情報信号処理装置。
The information signal processing apparatus according to claim 27 , wherein random noise is added to at least the frequency coefficient or the inverse transform base, and the level of the random noise is changed according to the value of the parameter.
符号化されたデジタル情報信号を復号化することによって生成される、複数の情報データからなる第1の情報信号を、当該第1の情報信号より情報の質を向上させた複数の情報データからなる第2の情報信号に変換する情報信号処理装置であって、
上記第1の情報信号から、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された上記複数の第1の情報データのレベル分布パターンを検出し、当該レベル分布パターンに基づいて上記注目位置の情報データが属するクラスを検出するクラス検出手段と、
上記第2の情報信号によって得られる出力情報の質を段階的に定めるための複数種類のパラメータの値が入力されるパラメータ入力手段と、
上記クラス検出手段で検出されたクラスおよび上記パラメータ入力手段に入力されたパラメータの値に対応して、上記注目位置の情報データを生成する情報データ生成手段とを備え、
上記係数データ生成手段は、
上記クラス検出手段で検出されたクラスおよび上記パラメータ入力手段に入力されたパラメータの値に対応した、上記第1及び第2の情報信号における直交変換により得られる各々の周波数係数の差分を示す差分データを発生する差分データ発生手段と、
上記第1の情報信号を構成する複数の情報データのうち、上記第2の情報信号における注目位置に対応した第2の情報データに対して直交変換を行う直交変換手段と、
上記直交変換手段より出力される周波数係数に上記差分データ発生手段で発生された差分データを加算する加算手段と、
上記加算手段より出力される周波数係数に対して逆直交変換を行って上記注目位置の情報データを得る逆直交変換手段とを有する
ことを特徴とする情報信号処理装置。
A first information signal made up of a plurality of information data, which is generated by decoding an encoded digital information signal, is made up of a plurality of information data whose information quality is improved over that of the first information signal. An information signal processing device for converting to a second information signal,
First data selection means for selecting, from the first information signal, a plurality of first information data located around the position of interest in the second information signal;
Class detection means for detecting a level distribution pattern of the plurality of first information data selected by the first data selection means and detecting a class to which the information data of the target position belongs based on the level distribution pattern; ,
Parameter input means for inputting values of a plurality of types of parameters for determining in stages the quality of output information obtained by the second information signal;
Corresponding to the class detected by the class detection means and the parameter value input to the parameter input means, the information data generation means for generating information data of the position of interest,
The coefficient data generating means is
Difference data indicating the difference between the respective frequency coefficients obtained by orthogonal transformation in the first and second information signals corresponding to the class detected by the class detection means and the parameter values input to the parameter input means. Differential data generating means for generating
Orthogonal transform means for performing orthogonal transform on the second information data corresponding to the position of interest in the second information signal among the plurality of information data constituting the first information signal;
Adding means for adding the difference data generated by the difference data generating means to the frequency coefficient output from the orthogonal transform means;
Information signal processing apparatus you; and a inverse orthogonal transform means for obtaining information data of the target position by performing inverse orthogonal transformation on the frequency coefficients outputted from said adding means.
上記差分データ発生手段は、
上記クラスおよび上記パラメータの値の組み合わせ毎の、上記差分データを格納する記憶手段と、
上記記憶手段より上記クラス検出手段で検出されたクラスおよび上記パラメータ入力手段に入力されたパラメータの値に対応する差分データを読み出すデータ読み出し手段とを有する
ことを特徴とする請求項32に記載の情報信号処理装置。
The difference data generating means is
Storage means for storing the difference data for each combination of the class and the parameter values;
33. The information according to claim 32 , further comprising: a data reading unit that reads out difference data corresponding to the class detected by the class detection unit and the parameter value input to the parameter input unit from the storage unit. Signal processing device.
記差分データは、
それぞれ上記複数種類のパラメータに応じて生成され、上記第1の情報信号に対応した複数の生徒信号と、上記第2の情報信号に対応した教師信号とが減算されて予め生成される
ことを特徴とする請求項33に記載の情報信号処理装置。
Minute data on Symbol difference,
They are respectively generated in accordance with the plural kinds of parameters, and a plurality of student signal corresponding to the first information signal, in that the said teacher signal corresponding to the second information signal is generated in advance is subtracted 34. The information signal processing apparatus according to claim 33 , wherein
上記符号化されたデジタル情報信号を復号化する復号化手段を備え、
上記生徒信号は、上記教師信号を符号化して得られたデジタル情報信号を上記復号化手段により復号化することで得られ、
上記復号化の過程で上記パラメータの値に応じて信号を変化させることで該パラメータの値に対応した生徒信号を得る
ことを特徴とする請求項34に記載の情報信号処理装置。
Decoding means for decoding the encoded digital information signal,
The student signal is obtained by decoding the digital information signal obtained by encoding the teacher signal by the decoding means ,
The information signal processing apparatus according to claim 34 , wherein a student signal corresponding to the parameter value is obtained by changing the signal in accordance with the parameter value in the decoding process.
上記符号化は直交変換を伴う符号化であって、
上記復号化の過程で上記パラメータの値に応じて、逆直交変換を行う際に用いられる少なくとも周波数係数または逆変換基底のいずれかを変更する
ことを特徴とする請求項35に記載の情報信号処理装置。
The encoding is encoding with orthogonal transformation,
36. The information signal processing according to claim 35 , wherein at least one of a frequency coefficient and an inverse transform base used when performing inverse orthogonal transform is changed according to the value of the parameter in the decoding process. apparatus.
上記周波数係数のうち全てのAC係数のゲインを同じ値として、上記パラメータの値に応じて上記ゲインを変更する
ことを特徴とする請求項36に記載の情報信号処理装置。
37. The information signal processing apparatus according to claim 36 , wherein the gain of all AC coefficients among the frequency coefficients is set to the same value, and the gain is changed according to the value of the parameter.
上記周波数係数は量子化されたものであり、上記周波数係数のうちDC係数の量子化ステップを上記パラメータの値に応じて変更する
ことを特徴とする請求項36に記載の情報信号処理装置。
37. The information signal processing apparatus according to claim 36 , wherein the frequency coefficient is quantized, and a DC coefficient quantization step of the frequency coefficient is changed according to the value of the parameter.
上記周波数係数のうちAC係数のゲインを高域程小さくすると共に、該AC係数の高域のゲインの低下の度合いを上記パラメータに値に応じて変更する
ことを特徴とする請求項36に記載の情報信号処理装置。
The gain of the AC coefficients of said frequency coefficients as well as smaller as the high band, the degree of reduction of the gain in the high range of the AC coefficients of claim 36, wherein changing according to the value on the parameter Information signal processing device.
少なくとも上記周波数係数または上記逆変換基底にランダムノイズを付加すると共に、上記ランダムノイズのレベルを上記パラメータの値に応じて変更する
ことを特徴とする請求項36に記載の情報信号処理装置。
The information signal processing apparatus according to claim 36 , wherein random noise is added to at least the frequency coefficient or the inverse transform base, and the level of the random noise is changed according to the value of the parameter.
JP2002095625A 2002-03-29 2002-03-29 Information signal processing apparatus, information signal processing method, program, and computer-readable medium Expired - Fee Related JP4140259B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002095625A JP4140259B2 (en) 2002-03-29 2002-03-29 Information signal processing apparatus, information signal processing method, program, and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002095625A JP4140259B2 (en) 2002-03-29 2002-03-29 Information signal processing apparatus, information signal processing method, program, and computer-readable medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008060110A Division JP4140662B2 (en) 2008-03-10 2008-03-10 Coefficient seed data generation apparatus and coefficient data generation apparatus

Publications (3)

Publication Number Publication Date
JP2003299096A JP2003299096A (en) 2003-10-17
JP2003299096A5 JP2003299096A5 (en) 2005-09-08
JP4140259B2 true JP4140259B2 (en) 2008-08-27

Family

ID=29387266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002095625A Expired - Fee Related JP4140259B2 (en) 2002-03-29 2002-03-29 Information signal processing apparatus, information signal processing method, program, and computer-readable medium

Country Status (1)

Country Link
JP (1) JP4140259B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7694326B2 (en) 2002-05-17 2010-04-06 Sony Corporation Signal processing system and method, signal processing apparatus and method, recording medium, and program
JP4569844B2 (en) * 2007-12-27 2010-10-27 ソニー株式会社 Signal processing system, signal processing apparatus and method, and program
JPWO2017191749A1 (en) * 2016-05-02 2019-03-07 ソニー株式会社 Image processing apparatus and image processing method
US10645384B2 (en) * 2016-05-02 2020-05-05 Sony Corporation Encoding apparatus and encoding method as well as decoding apparatus and decoding method
JPWO2018173873A1 (en) * 2017-03-24 2020-01-23 ソニー株式会社 Encoding device and encoding method, and decoding device and decoding method
US11451833B2 (en) 2017-12-01 2022-09-20 Sony Corporation Encoding device, encoding method, decoding device, and decoding method

Also Published As

Publication number Publication date
JP2003299096A (en) 2003-10-17

Similar Documents

Publication Publication Date Title
JP4186242B2 (en) Image signal processing apparatus and image signal processing method
US6633676B1 (en) Encoding a video signal
JP4462823B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JPH11112973A (en) Device and method for converting video signal
JP4696388B2 (en) Information signal processing apparatus, information signal processing method, image signal processing apparatus and image display apparatus using the same, coefficient seed data generation apparatus, coefficient data generation apparatus, and information recording medium
JP2006509437A (en) Unified Metric for Digital Video Processing (UMDVP)
JP4023324B2 (en) Watermark embedding and image compression unit
JP4140259B2 (en) Information signal processing apparatus, information signal processing method, program, and computer-readable medium
KR20030005219A (en) Apparatus and method for providing a usefulness metric based on coding information for video enhancement
JP4078906B2 (en) Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JP2001285881A (en) Digital information converter and method, and image information converter and method
JP4140662B2 (en) Coefficient seed data generation apparatus and coefficient data generation apparatus
KR100994295B1 (en) Information signal processing device, information signal processing method, image signal processing device, image displaying device, device and method for producing correction data used in them, device and method for producing coefficient data, programs for executing these methods, and computer-readable medium in which thos
Martins et al. A unified approach to restoration, deinterlacing and resolution enhancement in decoding MPEG-2 video
JP3991800B2 (en) INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE SIGNAL PROCESSING DEVICE AND IMAGE DISPLAY DEVICE, CORRECTION DATA GENERATION DEVICE AND GENERATION METHOD USED FOR THE SAME, PROGRAM FOR EXECUTING each METHOD, AND COMPUTER READABLE RECORDING THE PROGRAM Medium
JP4158479B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JPH07336684A (en) Picture signal decoding device
JP3348776B2 (en) Moving picture coding apparatus and method
JP4206730B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP3991801B2 (en) Information signal processing apparatus, information signal processing method and image signal processing apparatus, correction data generation apparatus and generation method used therefor, coefficient data generation apparatus and generation method, and program for executing each method
JP4552263B2 (en) Digital signal processing apparatus and method, and digital image signal processing apparatus and method
JP4100067B2 (en) Image information conversion method and image information conversion apparatus
JP4154961B2 (en) Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JP4143535B2 (en) Image data processing apparatus, image data processing method, image data distribution apparatus, and image data transmission system
JP4158476B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130620

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees