JP4206730B2 - Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method - Google Patents

Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method Download PDF

Info

Publication number
JP4206730B2
JP4206730B2 JP2002337197A JP2002337197A JP4206730B2 JP 4206730 B2 JP4206730 B2 JP 4206730B2 JP 2002337197 A JP2002337197 A JP 2002337197A JP 2002337197 A JP2002337197 A JP 2002337197A JP 4206730 B2 JP4206730 B2 JP 4206730B2
Authority
JP
Japan
Prior art keywords
image signal
pixel data
data
frame
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002337197A
Other languages
Japanese (ja)
Other versions
JP2004173012A (en
Inventor
哲二郎 近藤
勉 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002337197A priority Critical patent/JP4206730B2/en
Publication of JP2004173012A publication Critical patent/JP2004173012A/en
Application granted granted Critical
Publication of JP4206730B2 publication Critical patent/JP4206730B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムに関する。
【0002】
詳しくは、この発明は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる符号化雑音が軽減された第2の画像信号に変換する際、第2の画像信号における注目位置に対応した第1の画像信号の画素データを得る際に用いられたリファレンスデータの動き補償に使用された第1の動きベクトル情報の不正確さを示す情報を取得し、少なくともこの不正確さを示す情報を用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成することによって、クラス分類の精度を上げ、第2の画像信号の品質の向上を図るようにした画像信号処理装置等に係るものである。
【0003】
【従来の技術】
画像信号の圧縮符号化方式として、DCT(Discrete Cosine Transform)を用いたMPEG2(Moving Picture Experts Group 2)による符号化方式がある。この符号化方式では、ブロック毎に動き補償予測符号化が行われる。
【0004】
DCTは、ブロック内の画素に対して離散コサイン変換を施し、その離散コサイン変換により得られた係数データを再量子化し、さらにこの再量子化された係数データを可変長符号化するものである。この可変長符号化には、ハフマン符号等のエントロピー符号化が用いられることが多い。画像信号は直交変換されることにより、低周波から高周波までの多数の周波数データに分割される。
【0005】
この分割された周波数データに再量子化を施す場合、人間の視覚特性を考慮し、重要度の高い低周波データに関しては、細かく量子化を施し、重要度の低い高周波のデータに関しては、粗く量子化を施すことで、高画質を保持し、しかも効率が良い圧縮が実現できるという特長を有している。
【0006】
従来のDCTを用いた復号は、各周波数成分毎の量子化データをそのコードの代表値に変換し、それらの成分に対して逆DCT(IDCT:Inverce DCT)を施すことにより、再生データを得る。この代表値へ変換する時には、符号化時の量子化ステップ幅が使用される。
【0007】
【発明が解決しようとする課題】
上述のように、DCTを用いたMPEGによる符号化方式では、人間の視覚特性を考慮した符号化を行うことにより、高画質を保持し、高効率の圧縮が実現できるという特長がある。
【0008】
しかし、DCTを行う符号化はブロックを単位とした処理であることから、圧縮率が高くなるに従い、ブロック状の雑音、いわゆるブロック雑音(ブロック歪み)が発生することがある。また、エッジ等の急激な輝度変化がある部分には、高周波成分を粗く量子化したことによるざわざわとした雑音、いわゆるモスキート雑音が発生する。
【0009】
これらブロック雑音、モスキート雑音等の符号化雑音を、クラス分類適応処理によって軽減することが考えられる。すなわち、符号化雑音を含む画像信号を第1の画像信号とし、符号化雑音が軽減された画像信号を第2の画像信号とし、第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものである。この場合、第2の画像信号の品質の向上を図るには、クラス分類の精度を上げる必要がある。
【0010】
なお、第2の画像信号における注目位置に対応した第1の画像信号の画素データのうち、Pピクチャ、Bピクチャに係る画素データは、DCT変換を施して得られた残差データに、動き補償用ベクトル情報で動き補償されたリファレンスデータを加算することで生成される。
【0011】
そのため、このPピクチャ、Bピクチャに係る画素データは、動き補償用ベクトル情報の不正確さにより影響を受けたものとなっている。したがって、この動き補償用ベクトル情報の不正確さの情報に基づいてクラス分類を行えば、クラス分類の精度が上がるものと考えられる。
【0012】
この発明は、クラス分類の精度を上げ、第2の画像信号の品質の向上を図ることを目的とする。
【0013】
【課題を解決するための手段】
この発明に係る画像信号処理装置は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する画像信号処理装置であって、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1の抽出手段と、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2の抽出手段と、上記第1の抽出手段で抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2の抽出手段で抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記第2の画像信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する動きベクトル取得手段と、少なくとも上記動きベクトル取得手段で取得された第2の動きベクトル情報から、上記第2の画像信号における注目位置の画素データが属するクラスを生成するクラス生成手段と、上記クラス生成手段で生成されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化雑音を含む生徒信号と上記第2の画像信号に対応して符号化雑音を含まない教師信号との誤差を最小にする係数データを発生する係数データ発生手段と、上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、上記係数データ発生手段で発生された係数データおよび上記データ選択手段で選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る演算手段とを備えものである。
【0014】
また、この発明に係る画像信号処理方法は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する画像信号処理方法であって、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1のステップと、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2のステップと、上記第1のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記第2の画像信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第3のステップと、少なくとも上記第3のステップで取得された第2の動きベクトル情報から、上記第2の画像信号における注目位置の画素データが属するクラスを生成する第のステップと、上記第4のステップで生成されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化雑音を含む生徒信号と上記第2の画像信号に対応して符号化雑音を含まない教師信号との誤差を最小にする係数データを発生する第5のステップと、上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、上記第5のステップで発生された係数データおよび上記第6のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第7のステップとを備えものである。
【0015】
また、この発明に係るプログラムは、上述の画像信号処理方法をコンピュータに実行させるためのものである。
【0016】
この発明において、複数の画素データからなる第1の画像信号は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成されたものである。例えば、デジタル画像信号は、MPEG方式の符号化が行われたものである。
【0017】
第2の画像信号における注目位置に対応した第1の画像信号の画素データは、その注目位置に対応した残差データに、第1の動きベクトル情報で動き補償されたリファレンスデータを加算することで生成される。この第1の動きベクトル情報の不正確さを示す情報が取得される。
【0018】
例えば、この不正確さを示す情報は、以下のようにして取得される。すなわち、第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分が抽出され、このエッジ成分からなるフレームが第1のフレームとされる。また、第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分が抽出され、このエッジ成分からなるフレームが第2のフレームとされる。そして、これら第1、第2のフレームが用いられて、第2の画像信号における注目位置に対応した第2の動きベクトル情報が検出され、これが不正確さを示す情報とされる。
【0019】
この場合、第2の動きベクトル情報は、例えば以下のようにして得られる。すなわち、第1または第2のフレームが参照フレームとされ、第2または第1のフレームが探索フレームとされる。そして、参照フレームの第2の画像信号における注目位置に対応したエッジ成分を含む参照ブロックと、探索フレームの第2の画像信号における注目位置を中心とした所定の探索範囲内の複数の候補ブロックとの間の相関情報が検出される。そして、検出された複数の候補ブロックに対応した相関情報に基づき、参照ブロックと最も相関の高い候補ブロックの位置情報が、第2の動きベクトル情報として出力される。
【0020】
少なくとも、この第1の動きベクトル情報の不正確さを示す情報を用いて、第2の画像信号における注目位置の画素データが属するクラスが検出される。なお、この不正確さを示す情報として、上述したように第2の動きベクトル情報を出力するものにあっては、例えば最も相関の高い候補ブロックの相関情報で示される相関レベルが予め設定された閾値より小さいときは、その旨を示す所定情報を出力するようにされる。その場合には、第2の動きベクトル情報に代わって、この所定情報を用いて、第2の画像信号における注目位置の画素データが属するクラスが検出される。この場合には、この第2の動きベクトル情報自体の不正確さが大きいことから、これを用いたクラス分類をすることによって、逆にクラス分類の精度の低下を招くからである。
【0021】
このように検出されたクラスに対応して、第2の画像信号における注目位置の画素データが生成される。例えば、以下のようにして、画素データが生成される。すなわち、クラスに対応した、推定式で用いられる係数データが発生される。また、第1の画像信号に基づいて、第2の画像信号における注目位置の周辺に位置する複数の画素データが選択される。そして、これら係数データおよび複数の画素データが用いられ、推定式に基づいて第2の画像信号における注目位置の画素データが算出される。
【0022】
このように、第2の画像信号における注目位置に対応した第1の画像信号の画素データを得る際に用いられたリファレンスデータの動き補償に使用された第1の動きベクトル情報の不正確さを示す情報を取得し、少なくともこの不正確さを示す情報を用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものであり、クラス分類の精度を上げることができ、第2の画像信号の品質の向上を図ることができる。
【0023】
この発明に係る係数データ生成装置は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する際に使用される係数データを生成する装置であって、上記第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る復号化手段と、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1の抽出手段と、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2の抽出手段と、上記第1の抽出手段で抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2の抽出手段で抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記教師信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する動きベクトル取得手段と、少なくとも上記動きベクトル取得手段で取得された第2の動きベクトル情報から、上記教師信号における注目位置の画素データが属するクラスを生成するクラス生成手段と、上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、上記クラス生成手段で生成されたクラス、上記データ選択手段で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める演算手段とを備えものである。
【0024】
また、この発明に係る係数データ生成方法は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する際に使用される係数データを生成する方法であって、上記第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る第1のステップと、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第2のステップと、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第3のステップと、上記第2のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第3のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記教師信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第4のステップと、少なくとも上記第4のステップで取得された第2の動きベクトル情報から、上記教師信号における注目位置の画素データが属するクラスを生成する第のステップと、上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第のステップと、上記第のステップで生成されたクラス、上記第のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第のステップとを備えものである。
【0025】
また、この発明に係るプログラムは、上述の係数データ生成方法をコンピュータに実行させるためのものである。
【0026】
この発明において、複数の画素データからなる第1の画像信号は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成されたものである。この発明は、この第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際に使用される推定式の係数データを生成するものである。
【0027】
教師信号における注目位置に対応した生徒信号の画素データは、その注目位置に対応した残差データに、第1の動きベクトル情報で動き補償されたリファレンスデータを加算することで生成される。この第1の動きベクトル情報の不正確さを示す情報が取得される。そして、少なくとも、この不正確さを示す情報を用いて、教師信号における注目位置の画素データが属するクラスが検出される。
【0028】
また、生徒信号に基づいて、教師信号における注目位置の周辺に位置する複数の画素データが選択される。そして、教師信号における注目位置の画素データが属するクラス、選択された複数の画素データおよび教師信号における注目位置の画素データを用いて、クラス毎に、係数データが求められる。
【0029】
上述したようにして第1の画像信号を第2の画像信号に変換する際に使用される推定式の係数データが生成されるが、第1の画像信号から第2の画像信号に変換する際には、第2の画像信号における注目位置の画素データが属するクラスに対応した係数データが選択的に使用されて、推定式により、第2の画像信号における注目位置の画素データが算出される。
【0030】
これにより、推定式を使用して第1の画像信号から第2の画像信号に変換する場合に、クラス分類の精度を向上させることができ、第2の画像信号の品質の向上を図ることができる。
【0031】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのデジタル放送受信機100の構成を示している。
【0032】
このデジタル放送受信機100は、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号RMを受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。
【0033】
また、デジタル放送受信機100は、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106とを有している。
【0034】
また、デジタル放送受信機100は、このチューナ部106より出力されるMPEG2ストリームを復号化して画像信号Vaを得るMPEG2復号化器107と、このMPEG2復号化器107より出力される画像信号Vaを一時的に格納するバッファメモリ108とを有している。
【0035】
なお、本実施の形態において、MPEG2復号化器107からは、画像信号Vaを構成する各画素データの他に、ピクチャ情報PIも出力される。バッファメモリ108には、各画素データと対にしてピクチャ情報PIも格納される。ピクチャ情報PIは、出力される画素データがIピクチャ(Intra-Picture)、Pピクチャ(Predictive-Picture)、Bピクチャ(Bidirectionally predictive-Picture)のいずれのピクチャに係るものであったかを示す情報である。
【0036】
さらに、MPEG2復号化器107からは、画像信号Vaを構成する画素データのうちPピクチャ、Bピクチャに係る画素データに対応して、その画素データを得る際に使用された残差データおよびリファレンスデータも出力される。この場合、リファレンスデータは、動き補償用ベクトル情報MIに基づいて、動き補償されたものである。バッファメモリ108には、Pピクチャ、Bピクチャの画素データと対にして、残差データおよびリファレンスデータも格納される。
【0037】
ここで、Pピクチャの場合には前方向からの予測符号化であるので、1個の画素データに対応してリファレンスデータは前方向についてのみ存在するが、Bピクチャの場合には両方向からの予測符号化であるので、1個の画素データに対応してリファレンスデータはそれぞれの方向について存在する。因に、Bピクチャの場合には、これらそれぞれの方向についてのリファレンスデータの加算平均値が、残差データに加算すべきリファレンスデータVrefとなる。
【0038】
図2は、MPEG2復号化器107の構成を示している。
この復号化器107は、MPEG2ストリームが入力される入力端子71と、この入力端子71に入力されたMPEG2ストリームを一時的に格納するストリームバッファ72とを有している。
【0039】
また、この復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより周波数係数としてのDCT(Discrete Cosine Transform:離散コサイン変換)係数を抽出する抽出回路73と、この抽出回路73で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路74とを有している。
【0040】
また、この復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより量子化特性指定情報QIを抽出する抽出回路75と、この量子化特性指定情報QIに基づいて、可変長復号化回路74より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路76と、この逆量子化回路76より出力されるDCT係数に対して逆DCTを行う逆DCT回路77とを有している。
【0041】
また、復号化器107は、IピクチャおよびPピクチャの画素データをメモリ(図示せず)に記憶すると共に、これらの画素データを用いて逆DCT回路77からPピクチャまたはBピクチャの残差データが出力されるとき、対応するリファレンスデータVrefを生成して出力する予測メモリ回路78を有している。
【0042】
また、復号化器107は、逆DCT回路77からPピクチャまたはBピクチャの残差データが出力されるとき、その残差データに予測メモリ回路78で生成されたリファレンスデータVrefを加算する加算回路79と、この加算回路79より出力される各ピクチャの画素データを画像信号Vaとして出力する出力端子81とを有している。なお、逆DCT回路77からIピクチャの画素データが出力されるとき、予測メモリ回路78から加算回路79にリファレンスデータVrefは供給されず、従って加算回路79からは逆DCT回路77より出力されるIピクチャの画素データがそのまま出力される。
【0043】
ここで、MPEG方式の符号化では、従来周知のように、実際のフレーム/フィールドの順番とは異なる順番で符号化が行われている。すなわち、Iピクチャ、Pピクチャの画像信号が先に符号化され、それらの間に挟まれたBピクチャの画像信号はその後に符号化される。出力端子81には、その符号化の順番で各ピクチャの画像信号Vaが出力される。なお、本実施の形態においては、上述したバッファメモリ108から画像信号Vaを読み出す際に、各ピクチャの画像信号が符号化の順番から実際のフレーム/フィールドの順番に並べ直される。
【0044】
また、復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより符号化制御情報、すなわちピクチャ情報PI、動き補償用ベクトル情報MIを抽出する抽出回路82と、この抽出回路82で抽出されたピクチャ情報PIを出力する出力端子83とを有している。
【0045】
抽出回路82で抽出される動き補償用ベクトル情報MIは予測メモリ回路78に供給され、この予測メモリ回路78ではこの動き補償用ベクトル情報MIを用いてリファレンスデータVrefを生成する際に動き補償が行われる。抽出回路82で抽出されるピクチャ情報PIも予測メモリ回路78に供給される。予測メモリ回路78ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。
【0046】
また、復号化器107は、逆DCT回路77から出力されるPピクチャ、Bピクチャに係る残差データを出力する出力端子84と、予測メモリ回路78より出力されるPピクチャ、Bピクチャに係るリファレンスデータを出力する出力端子85とを有している。
【0047】
図2に示すMPEG2復号化器107の動作を説明する。
ストリームバッファ72に記憶されているMPEG2ストリームが抽出回路73に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路74に供給されて復号化される。そして、この可変長復号化回路74より出力される各DCTブロックの量子化DCT係数が逆量子化回路76に供給されて逆量子化が施される。
【0048】
逆量子化回路76より出力される各DCTブロックのDCT係数に対して逆DCT回路77で逆DCTが施されて各ピクチャのデータが得られる。この各ピクチャのデータは加算回路79を介して出力端子81に出力される。この場合、逆DCT回路77からPピクチャまたはBピクチャの残差データが出力されるとき、加算回路79で予測メモリ回路78より出力されるリファレンスデータVrefが加算される。
【0049】
なお、出力端子81より出力される画像信号Vaを構成する各画素データと対となって、出力端子83に、ピクチャ情報PIが出力される。また、出力端子81より出力される画像信号Vaを構成する画素データのうちPピクチャ、Bピクチャに係る画素データと対となって、出力端子84および出力端子85に、それぞれ、その画素データを得る際に使用された残差データおよびリファレンスデータも出力される。
【0050】
図1に戻って、また、デジタル放送受信機100は、バッファメモリ108に記憶されている画像信号Vaを、ブロック雑音(ブロック歪み)やモスキート雑音などの符号化雑音が低減された画像信号Vbに変換する画像信号処理部110と、この画像信号処理部110より出力される画像信号Vbによる画像を表示するディスプレイ部111とを有している。ディスプレイ部111は、例えばCRT(Cathode-Ray Tube)ディスプレイ、あるいはLCD(Liquid Crystal Display)等の表示器で構成されている。
【0051】
図1に示すデジタル放送受信機100の動作を説明する。
チューナ部106より出力されるMPEG2ストリームはMPEG2復号化器107に供給されて復号化される。そして、この復号化器107より出力される画像信号Vaは、バッファメモリ108に供給されて一時的に格納される。
【0052】
この場合、復号器107からは、画像信号Vaの各画素データと対となって、ピクチャ情報PIが出力される。また、符号化器107からは、Pピクチャ、Bピクチャに係る画素データと対となって、残差データおよびリファレンスデータも出力される。これらの情報およびデーターもバッファメモリ108に一時的に格納される。
【0053】
このようにバッファメモリ108に一時的に格納された画像信号Vaは画像信号処理部110に供給され、符号化雑音が低減された画像信号Vbに変換される。この画像信号処理部110では、画像信号Vaを構成する画素データから、画像信号Vbを構成する画素データが生成される。この画像信号処理部110では、バッファメモリ108に格納されているピクチャ情報PI、さらには残差データおよびリファレンスデータが用いられて、後述するように変換処理が行われる。
【0054】
画像信号処理部110より出力される画像信号Vbはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vbによる画像が表示される。
【0055】
次に、画像信号処理部110の詳細を説明する。
画像信号処理部110は、画像信号Vbにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成するクラス生成部121を有している。クラス生成部121では、バッファメモリ108に格納されている、ピクチャ情報PI、残差データおよびリファレンスデータが用いられて、クラスコードCL0が生成される。
【0056】
図3は、クラス生成部121の具体的な構成を示している。
このクラス生成部121は、上述したバッファメモリ108にPピクチャ、Bピクチャに係る画素データと対となって格納されているリファレンスデータが入力される入力端子31と、この入力端子31に入力されたリファレンスデータからエッジ成分を抽出するエッジ成分抽出回路32と、この抽出回路32で抽出されたリファレンスデータのエッジ成分を一時的に格納するバッファメモリ33とを有している。
【0057】
エッジ成分抽出回路32は、2次元微分フィルタ、例えば3×3のラプラシアンフィルタで構成される。図4は、3×3のラプラシアンフィルタの係数比の一例を示している。上述したように、Pピクチャの場合には1個の画素データに対応してリファレンスデータは前方向についてのみ存在するが、Bピクチャの場合には1個の画素データに対応してリファレンスデータはそれぞれの方向について存在する。そのため、エッジ成分抽出回路32は、Pピクチャの場合には前方向のリファレンスデータからエッジ成分を検出するが、Bピクチャの場合には前方向および後方向のリファレンスデータのそれぞれからエッジ成分を検出する。
【0058】
また、クラス生成部121は、上述したバッファメモリ108にPピクチャ、Bピクチャに係る画素データと対となって格納されている残差データが入力される入力端子34と、この入力端子34に入力された残差データからエッジ成分を抽出するエッジ成分抽出回路35と、この抽出回路35で抽出されたリファレンスデータのエッジ成分を一時的に格納するバッファメモリ36とを有している。
【0059】
エッジ成分抽出回路35も、上述したエッジ成分抽出回路32と同様に、2次元微分フィルタ、例えば3×3のラプラシアンフィルタで構成される。この場合、残差データは負の値も採るので、残差データの全ての値が正の値となるようにオフセットした上で、エッジ成分の抽出処理をする。例えば、残差データが−128〜+128の値を採る場合、残差データに+128を加算した後に、エッジ成分の抽出処理をする。
【0060】
また、クラス生成部121は、画像信号Vbにおける注目位置に対応した動きベクトル情報(第2の動きベクトル情報)を、動き補償用ベクトル情報MI(第1の動きベクトル情報)の不正確さを示す情報として得る、動きベクトル取得手段としての相関判定部37を有している。相関判定部37は、第1のフレームおよび第2のフレームを用いて、画像信号Vbにおける注目位置に対応した動きベクトル情報を取得する。
【0061】
ここで、第1のフレームは、バッファメモリ36に格納された、画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データに係る残差データのエッジ成分を含むフレームである。第2のフレームは、バッファメモリ33に格納された、画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データに係るリファレンスデータのエッジ成分を含むフレームである。
【0062】
相関判定部37は、例えばブロックマッチング法によって、動きベクトル情報を取得する。この場合、画素毎またはブロック毎に、動きベクトル情報を取得する。
【0063】
図5を参照して、画素毎に、動きベクトル情報(Δx,Δy)を取得する場合について説明する。
この場合、例えば、図示のように、第1のフレームを参照フレームとし、第2のフレームを探索フレームとする。なお、第2のフレームを参照フレームとし、第1のフレームを探索フレームとしてもよい。そして、参照フレームに、画像信号Vbにおける注目位置に対応した注目画素を中心とした参照ブロックを考える。また、探索フレームに、画像信号Vbにおける注目位置を中心とした探索範囲を考える。探索範囲は、例えば垂直、水平のそれぞれの方向に±2程度とする。
【0064】
そして、参照ブロックと探索範囲内の複数の候補ブロックとの間の相関情報を検出する。相関情報は、例えば参照ブロックと候補ブロックとの間の対応するエッジ成分同士の差分絶対値を加算した差分絶対値和とされる。この差分絶対値和は、参照ブロックと候補ブロックとの相関レベルが高いほど小さくなる。
【0065】
そして、このように検出された複数の候補ブロックに対応した相関情報に基づき、最も相関の高い候補ブロックの位置情報を、動きベクトル情報(Δx,Δy)として出力する。この場合、相関情報が上述の差分絶対値和であるときは、その差分絶対値和が最も小さい候補ブロックが最も相関の高い候補ブロックとなる。
【0066】
図6を参照して、ブロック毎に、動きベクトル情報を取得する場合について説明する。
この場合、例えば、図示のように、第1のフレームを参照フレームとし、第2のフレームを探索フレームとする。なお、第2のフレームを参照フレームとし、第1のフレームを探索フレームとしてもよい。そして、参照フレームに、画像信号Vbにおける注目位置に対応した注目画素を含む参照ブロックを考える。この参照ブロックは、例えば画像信号Vbにおける注目位置に対応した画像信号Vaの画素データを得る際に用いられたDCTブロックに対応したブロックである。また、探索フレームに、画像信号Vbにおける注目位置を中心とした探索範囲を考える。例えば、探索範囲は、例えば垂直、水平のそれぞれの方向に±2程度とする。
【0067】
そして、参照ブロックと探索範囲内の複数の候補ブロックとの間の相関情報を検出する。相関情報は、例えば参照ブロックと候補ブロックとの間の対応するエッジ成分同士の差分絶対値を加算した差分絶対値和とされる。この差分絶対値和は、参照ブロックと候補ブロックとの相関レベルが高いほど小さくなる。
【0068】
そして、このように検出された複数の候補ブロックに対応した相関情報に基づき、最も相関の高い候補ブロックの位置情報を、動きベクトル情報(Δx,Δy)として出力する。この場合、相関情報が上述の差分絶対値和であるときは、その差分絶対値和が最も小さい候補ブロックが最も相関の高い候補ブロックとなる。
【0069】
このように、相関判定部37は、相関情報を検出する相関検出手段および動きベクトル情報を出力する情報出力手段として機能し、動きベクトル情報(Δx,Δy)を出力する。上述したように、リファレンスデータは、復号化器107(図2参照)において、動き補償用ベクトル情報MIに基づいて動き補償されたものである。そのため、本来、第2のフレームにおけるリファレンスデータから抽出されたエッジ成分と第1のフレームにおける残差データから抽出されたエッジ成分とは対応しており、動きベクトル情報(Δx,Δy)=(0,0)となるはずである。
【0070】
しかし、動き補償用ベクトル情報MIが不正確である場合には、動きベクトル情報(Δx,Δy)=(0,0)とはならず、不正確の度合いが高くなるほどΔx,Δyの値(絶対値)は大きくなる。したがって、この動きベクトル情報(Δx,Δy)は、動き補償用ベクトル情報MIの不正確さを示す情報と言える。
【0071】
なお、上述したように、Pピクチャの場合には1個の画素データに対応してリファレンスデータは前方向についてのみ存在するが、Bピクチャの場合には1個の画素データに対応してリファレンスデータはそれぞれの方向について存在する。そのため、相関判定部37は、Pピクチャの場合には前方向のリファレンスデータに係る動きベクトル情報(Δx,Δy)のみを取得するが、Bピクチャの場合には前方向および後方向のリファレンスデータのそれぞれに係る動きベクトル情報(Δx,Δy)を取得する。
【0072】
また、相関判定部37は、最も相関の高い候補ブロックの相関レベルが予め設定された閾値より小さいとき、例えば最も相関の高い候補ブロックに係る差分絶対値和が閾値より大きいときは、動きベクトル情報に代えてその旨を示す情報NGを出力する。これは、不正確な動きベクトル情報(Δx,Δy)によるクラス分類を回避し、クラス分類の精度が低下を防止するためである。
【0073】
また、クラス生成部37は、クラス生成回路38と、このクラス生成回路38で生成されたクラスコードCL0を出力する出力端子39とを有している。クラス生成回路38には、画像信号Vbにおける注目位置に対応した画像信号Vaの画素データと対となっているピクチャ情報PIが、動作制御情報として供給される。
【0074】
クラス生成回路38は、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成する。また、クラス生成回路38は、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、相関判定部37より出力される動きベクトル情報(Δx,Δy)または情報NGに基づいて、クラスコードCL0を生成する。
【0075】
図3に示す残差クラス生成部121において、画像信号Vbにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成するための動作を説明する。
【0076】
入力端子31には、バッファメモリ108にPピクチャ、Bピクチャに係る画素データと対となって格納されているリファレンスデータが入力され、このリファレンスデータはエッジ成分抽出回路32に供給される。エッジ成分抽出回路32はリファレンスデータからエッジ成分を抽出する。この抽出回路32で抽出されたエッジ成分はバッファメモリ33に供給されて一時的に格納される。
【0077】
また、入力端子34には、バッファメモリ108にPピクチャ、Bピクチャに係る画素データと対となって格納されている残差データが入力され、この残差データはエッジ成分抽出回路35に供給される。エッジ成分抽出回路35は残差データからエッジ成分を抽出する。この抽出回路35で抽出されたエッジ成分はバッファメモリ36に供給されて一時的に格納される。
【0078】
相関判定部37は、バッファメモリ36に格納された、画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データに係る残差データのエッジ成分を含むフレームを第1のフレームとし、またバッファメモリ33に格納された、画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データに係るリファレンスデータのエッジ成分を含むフレームを第2のフレームとする。そして、相関判定部37は、これら第1のフレームおよび第2のフレームを用いて、画像信号Vbにおける注目位置に対応した動きベクトル情報(Δx,Δy)を、例えばブロックマッチング法によって取得する。この動きベクトル情報(Δx,Δy)は、動き補償用ベクトル情報MIの不正確さを示す情報となる。
【0079】
この場合、相関判定部37は、Pピクチャの場合には前方向のリファレンスデータに係る動きベクトル情報(Δx,Δy)のみを取得するが、Bピクチャの場合には前方向および後方向のリファレンスデータのそれぞれに係る動きベクトル情報(Δx,Δy)を取得する。また、最も相関の高い候補ブロックの相関レベルが予め設定された閾値より小さいときは、動きベクトル情報に代えてその旨を示す情報NGを出力する。
【0080】
相関判定部37より出力される動きベクトル情報(Δx,Δy)または情報NGは、クラス生成回路38に供給される。クラス生成回路38は、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成する。また、クラス生成回路38は、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、動きベクトル情報(Δx,Δy)または情報NGに基づいて、クラスコードCL0を生成する。このように生成されたクラスコードCL0は出力端子39に出力される。
【0081】
このように図3に示すクラス生成部121では、画像信号Vbにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0が生成される。
【0082】
図1に戻って、また、画像信号処理部110は、バッファメモリ108に記憶されている画像信号Vaより、画像信号Vbにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力するデータ選択手段としての予測タップ選択回路122を有している。この予測タップ選択回路122は、予測に使用する予測タップの複数の画素データを選択的に取り出すものである。
【0083】
また、画像信号処理部110は、画像信号Vbにおける注目位置の画素データが属するクラスを検出するクラス検出手段としてのクラス分類部123を有している。
【0084】
このクラス分類部123は、バッファメモリ108に記憶されている画像信号Vaを構成する複数の画素データおよびクラス生成部121で生成されクラスコードCL0を用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0085】
は、クラス分類部123の構成を示している。
このクラス分類部123は、画像信号Vaを入力する入力端子50Aと、この入力端子50Aに入力される画像信号Vaに基づいて、画像信号Vbにおける注目位置の画素データが属するn種類のクラスを検出するために使用するクラスタップの複数の画素データをそれぞれ選択的に取り出すタップ選択回路50B1〜50Bnと、このタップ選択回路50B1〜50Bnで取り出された画素データをそれぞれ用いてn種類のクラスを示すクラスコードCL1〜CLnを生成するクラス生成回路50C1〜50Cnとを有している。
【0086】
本実施の形態においては、6種類のクラスを示すクラスコードCL1〜CL6を生成する。6種類のクラスは、空間波形クラス、時間変動クラス、AC変動クラス、フラットクラス、ライン相関クラス、ブロックエッジクラスである。各クラスについて簡単に説明する。
【0087】
▲1▼空間波形クラスを説明する。タップ選択回路50B1およびクラス生成回路50C1は、この空間波形クラスの検出系を構成しているものとする。
タップ選択回路50B1は、画像信号VaのTフレーム(現在フレーム)およびT−1フレーム(1フレーム前のフレーム)より、画像信号Vbにおける注目位置に対して空間方向(水平方向、垂直方向)の周辺に位置する複数の画素データを選択的に取り出すものであり、上述した予測タップ選択回路122と同様のものである。クラス生成回路50C1は、タップ選択回路50B1で選択された複数の画素データのそれぞれに例えば1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施し、空間波形クラスを示すクラスコードCL1を生成する。
【0088】
▲2▼時間変動クラスを説明する。タップ選択回路50B2およびクラス生成回路50C2は、この時間変動クラスの検出系を構成しているものとする。
タップ選択回路50B2は、画像信号Vaの現在フレーム(Tフレーム)から、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図8に示す注目ブロック)の画素データを取り出すと共に、画像信号Vaの1フレーム前の過去フレーム(T−1フレーム)から、注目ブロックに対応したブロック(図8に示す過去ブロック)の画素データを取り出す。
【0089】
クラス生成回路50C2は、注目ブロックの8×8個の画素データと過去ブロックの8×8個の画素データとの間で対応する画素毎に減算を行って8×8個の差分値を求め、さらにこの8×8個の差分値の二乗和を求め、この二乗和を閾値判定して、時間変動クラスを示すクラスコードCL2を生成する。
【0090】
▲3▼AC変動クラスを説明する。タップ選択回路50B3およびクラス生成回路50C3は、このAC変動クラスの検出系を構成しているものとする。
タップ選択回路50B3は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図8に示す注目ブロック)の画素データを取り出すと共に、画像信号Vaの1フレーム前の過去フレームから、注目ブロックに対応したブロック(図8に示す過去ブロック)の画素データを取り出す。
【0091】
クラス生成回路50C3は、注目ブロックの8×8個の画素データと、過去ブロックの8×8個の画素データとのそれぞれに対して、DCT処理を施してDCT係数(周波数係数)を求める。そして、クラス生成回路50C3は、AC部分の各基底位置において、どちらかに係数が存在する基底位置の数m1と、そのうち符号反転しているものおよび片方の係数が0であるものの基底位置の数m2を求め、m1/m2を閾値判定して、AC変動クラスを示すクラスコードCL3を生成する。時間変動の少ないブロックでは、このAC変動クラスにより、モスキート歪みに対応したクラス分類を行うことが可能である。
【0092】
▲4▼フラットクラスを説明する。タップ選択回路50B4およびクラス生成回路50C4は、このフラットクラスの検出系を構成しているものとする。
タップ選択回路50B4は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図8に示す注目ブロック)の画素データを取り出す。クラス生成回路50C4は、注目ブロックの8×8個の画素データの最大値と最小値を検出し、その差分であるダイナミックレンジを閾値判定して、フラットクラスを示すクラスコードCL4を生成する。
【0093】
▲5▼ライン相関クラスについて説明する。タップ選択回路50B5およびクラス生成回路50C5は、このライン相関クラスの検出系を構成しているものとする。
タップ選択回路50B5は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図8に示す注目ブロック)の画素データを取り出す。
【0094】
クラス生成回路50C5は、注目ブロックの8×8個の画素データの1ライン目と2ライン目、3ライン目と4ライン目、5ライン目と6ライン目、7ライン目と8ライン目の画素間で対応する画素毎に減算を行って8×4個の差分値を求め、さらにこの8×4個の差分値の二乗和を求め、この二乗和を閾値判定して、ライン相関クラスを示すクラスコードCL5を生成する。このライン相関クラスは、静止画像などフレーム内の相関が高いか、あるいは動きが速くフレーム内よりもフィールド内の相関が高いかを示すものとなる。
【0095】
▲6▼ブロックエッジクラスについて説明する。タップ選択回路50B6およびクラス生成回路50C6は、このブロックエッジクラスの検出系を構成しているものとする。
タップ選択回路50B6は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図8に示す注目ブロック)の画素データを取り出すと共に、その現在フレームから、注目ブロックに対して上下左右に隣接したブロック(図8に示す隣接ブロック)の画素データを取り出す。
【0096】
クラス生成回路50C6は、注目ブロックの4辺の各8個の画素データとそれに隣接する隣接ブロックの画素データとの間で対応する画素毎に減算を行って4×8個の差分値を求め、さらにこの各8個の差分値の二乗和を求め、注目ブロックの4辺にそれぞれ対応した4個の二乗和をそれぞれ閾値判定して、ブロックエッジクラスを示すクラスコードCL6を生成する。
【0097】
また、クラス分類部123は、クラスコードCL0を入力する入力端子50Dと、クラス生成回路50C1〜50Cnで生成されるクラスコードCL1〜CLn、入力端子50Dに入力されるクラスコードCL0を統合して1個のクラスコードCLとするクラス統合回路50Eと、このクラスコードCLを出力する出力端子50Fとを有している。本実施の形態において、クラス統合回路50Eは、クラス生成回路50C1〜50C6で生成されたクラスコードCL1〜CL6、さらにはクラスコードCL0を統合して、1つのクラスコードCLとする。
【0098】
図1に戻って、また、画像信号処理部110は、係数メモリ124を有している。この係数メモリ124は、後述する推定予測演算回路125で使用される推定式で用いられる係数データWi(i=1〜n、nは予測タップの個数)を、クラス毎に、格納するものである。
【0099】
この係数データWiは、画像信号Vaを画像信号Vbに変換するための情報である。この係数メモリ124に格納される係数データWiは、予め画像信号Vaに対応した生徒信号と画像信号Vbに対応した教師信号との間の学習によって生成される。この係数メモリ124には上述したクラス分類部123より出力されるクラスコードCLが読み出しアドレス情報として供給され、この係数メモリ124からはクラスコードCLに対応した推定式の係数データWiが読み出されて、推定予測演算回路125に供給される。係数データWiの生成方法については後述する。
【0100】
また、画像信号処理部110は、予測タップ選択回路122で選択的に取り出される予測タップの画素データxiと、係数メモリ124より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vbにおける注目位置の画素データyを演算する推定予測演算回路125を有している。
【0101】
【数1】

Figure 0004206730
【0102】
この画像信号処理部110の動作を説明する。
クラス生成部121では、バッファメモリ108に格納されている、ピクチャ情報PI、残差データおよびリファレンスデータが用いられて、画像信号Vbにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成される。
【0103】
また、クラス分類部123では、バッファメモリ108に記憶されている画像信号Vaを構成する複数の画素データおよびクラス生成部121で生成されるクラスコードCL0を用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLが生成される。
【0104】
このようにクラス分類部123で生成されるクラスコードCLは読み出しアドレス情報として係数メモリ124に供給される。これにより、係数メモリ124からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路125に供給される。
【0105】
また、バッファメモリ108に記憶されている画像信号Vaより、予測タップ選択回路122で、画像信号Vbにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0106】
推定予測演算回路125では、予測タップの画素データxiと、係数メモリ124より読み出される係数データWiとを用いて、上述の(1)式に示す推定式に基づいて、作成すべき画像信号Vbにおける注目位置の画素データyが求められる。
【0107】
このように画像信号処理部110では、画像信号Vaから係数データWiを用いて画像信号Vbが得られる。この場合、画像信号Vaに基づいて選択された、画像信号Vbにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)、およびこの画像信号Vbにおける注目位置の画素データが属するクラスCLに対応した係数データWiを用いて、推定式に基づいて画像信号Vbにおける注目位置の画素データyを生成するものである。
【0108】
したがって、係数データWiとして、画像信号Vaに対応しこの画像信号Vaと同様の符号化雑音を含む生徒信号と画像信号Vbに対応した符号化雑音を含まない教師信号とを用いた学習によって得られた係数データWiを用いることで、画像信号Vbとして画像信号Vaに比べて符号化雑音が大幅に軽減されたものを良好に得ることができる。
【0109】
また、クラス生成部121では、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0が生成される。そして、クラス分類部123では、このクラスコードCL0が他のクラスコードと統合されて、クラスコードCLが生成される。そのため、画像信号処理部110では、動き補償用ベクトル情報MIの不正確さの情報に基づいてクラス分類が行われることとなり、画像信号Vbの品質の向上を図ることができる。
【0110】
また、クラス生成部121の相関判定部37は、最も相関の高い候補ブロックの相関レベルが予め設定された閾値より小さいときは、動きベクトル情報に代えてその旨を示す情報NGを出力する。そして、クラス生成回路38は、クラスコードCL0としてその情報NGに対応したものを出力する。したがって、クラス生成部121から不正確な動きベクトル情報(Δx,Δy)によるクラスコードCL0が出力されることがなく、クラス分類の精度が低下することを防止できる。
【0111】
次に、係数メモリ124に記憶される係数データWiの生成方法について説明する。この係数データWiは、予め学習によって生成されたものである。
【0112】
まず、この学習方法について説明する。上述の、(1)式において、学習前は係数データW1,W2,‥‥,Wnは未定係数である。学習は、クラス毎に、複数の信号データに対して行う。学習データ数がmの場合、(1)式に従って、以下に示す(2)式が設定される。nは予測タップの数を示している。
k=W1×xk1+W2×xk2+‥‥+Wn×xkn ・・・(2)
(k=1,2,‥‥,m)
【0113】
m>nの場合、係数データW1,W2,‥‥,Wnは、一意に決まらないので、誤差ベクトルeの要素ekを、以下の式(3)で定義して、(4)式のe2を最小にする係数データを求める。いわゆる最小2乗法によって係数データを一意に定める。
k=yk−{W1×xk1+W2×xk2+‥‥+Wn×xkn} ・・・(3)
(k=1,2,‥‥m)
【0114】
【数2】
Figure 0004206730
【0115】
(4)式のe2を最小とする係数データを求めるための実際的な計算方法としては、まず、(5)式に示すように、e2を係数データWi(i=1,2,・・・,n)で偏微分し、iの各値について偏微分値が0となるように係数データWiを求めればよい。
【0116】
【数3】
Figure 0004206730
【0117】
(5)式から係数データWiを求める具体的な手順について説明する。(6)式、(7)式のようにXji,Yiを定義すると、(5)式は、(8)式の行列式の形に書くことができる。
【0118】
【数4】
Figure 0004206730
【0119】
【数5】
Figure 0004206730
【0120】
(8)式は、一般に正規方程式と呼ばれるものである。この正規方程式を掃き出し法(Gauss-Jordanの消去法)等の一般解法で解くことにより、係数データWi(i=1,2,・・・,n)を求めることができる。
【0121】
図9は、図1の画像信号処理部110の係数メモリ124に格納すべき係数データWiを生成する係数データ生成装置150の構成を示している。
この係数データ生成装置150は、画像信号Vbに対応した教師信号STが入力される入力端子151と、この教師信号STに対して符号化を行ってMPEG2ストリームを得るMPEG2符号化器152と、このMPEG2ストリームに対して復号化を行って画像信号Vaに対応した生徒信号SSを得るMPEG2復号化器153とを有している。ここで、MPEG2復号化器153は、図1に示すデジタル放送受信機100におけるMPEG2復号化器107およびバッファメモリ108に対応したものである。
【0122】
また、係数データ生成装置150は、クラス生成部154を有している。このクラス生成部154は、上述した画像信号処理部110のクラス生成部121と同様に構成され、教師信号STにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成する。このクラス生成部154では、復号化器153より出力されるピクチャ情報PI、残差データおよびリファレンスデータが用いられて、クラスコードCL0が生成される。
【0123】
また、係数データ生成装置150は、MPEG2復号化器153より出力される生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する予測タップ選択回路155を有している。この予測タップ選択回路155は、上述した画像信号処理部110の予測タップ選択回路122と同様に構成される。
【0124】
また、係数データ生成装置150は、教師信号STにおける注目位置の画素データが属するクラスを検出するクラス検出手段としてのクラス分類部156を有している。このクラス分類部156は、上述した画像信号処理部110のクラス分類部123と同様に構成される。
【0125】
このクラス分類部156は、MPEG2復号化器153より得られる生徒信号SSを構成する複数の画素データおよびクラス生成部154で生成されるクラスコードCL0を用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0126】
また、係数データ生成装置150は、入力端子151に供給される教師信号STの時間調整を行うための遅延回路157と、この遅延回路157で時間調整された教師信号STより得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス分類部156で生成されるクラスコードCLとから、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式(上述の(8)式参照)を生成する正規方程式生成部158を有している。
【0127】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、教師信号STと生徒信号SSとの間で、クラス毎に、多くの学習データが生成されていく。これにより、正規方程式生成部158では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式が生成される。
【0128】
また、係数データ生成装置150は、正規方程式生成部158で生成された正規方程式のデータが供給され、その正規方程式を解いて、各クラスの係数データWiを求める係数データ決定部159と、この求められた各クラスの係数データWiを格納する係数メモリ160とを有している。
【0129】
次に、図9に示す係数データ生成装置150の動作を説明する。
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてMPEG2符号化器152で、この教師信号STに対して符号化が施されて、MPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。MPEG2復号化器153で、このMPEG2ストリームに対して復号化が施されて、画像信号Vaに対応した生徒信号SSが生成される。
【0130】
クラス生成部154では、復号化器153より出力されるピクチャ情報PI、残差データおよびリファレンスデータを用いて、教師信号STにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0が生成される。
【0131】
クラス分類部156では、MPEG2復号化器153より得られる生徒信号SSを構成する複数の画素データおよびクラス生成部154で生成されたクラスコードCL0が用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLが生成される。
【0132】
また、MPEG2復号化器153より得られる生徒信号SSより、予測タップ選択回路155で、教師信号STにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0133】
そして、遅延回路157で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス分類部156で生成されるクラスコードCLとを用いて、正規方程式生成部158では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((8)式参照)が生成される。この正規方程式は係数データ決定部159で解かれて各クラスの係数データWiが求められ、その係数データWiは係数メモリ160に格納される。
【0134】
このように、図9に示す係数データ生成装置150においては、図1の画像信号処理部110の係数メモリ124に格納される各クラスの係数データWiを生成することができる。
【0135】
生徒信号SSは、教師信号STに対して符号化を施してMPEG2ストリームを生成し、その後このMPEG2ストリームに対して復号化を施して得たものである。したがって、この生徒信号SSは、画像信号Vaと同様の符号化雑音を含んだものとなる。そのため、図1に示す画像信号処理部110において、画像信号Vaからこの係数データWiを用いて得られる画像信号Vbは、画像信号Vaに比べて符号化雑音が軽減されたものとなる。
【0136】
なお、図1の画像信号処理部110における処理を、例えば図10に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。
【0137】
まず、図10に示す画像信号処理装置300について説明する。この画像信号処理装置300は、装置全体の動作を制御するCPU301と、このCPU301の制御プログラムや係数データ等が格納されたROM(Read Only Memory)302と、CPU301の作業領域を構成するRAM(Random Access Memory)303とを有している。これらCPU301、ROM302およびRAM303は、それぞれバス304に接続されている。
【0138】
また、画像信号処理装置300は、外部記憶装置としてのハードディスクドライブ(HDD)305と、フロッピー(登録商標)ディスク306をドライブするドライブ(FDD)307とを有している。これらドライブ305,307は、それぞれバス304に接続されている。
【0139】
また、画像信号処理装置300は、インターネット等の通信網400に有線または無線で接続する通信部308を有している。この通信部308は、インタフェース309を介してバス304に接続されている。
【0140】
また、画像信号処理装置300は、ユーザインタフェース部を備えている。このユーザインタフェース部は、リモコン送信機200からのリモコン信号RMを受信するリモコン信号受信回路310と、LCD(liquid Crystal Display)等からなるディスプレイ311とを有している。受信回路310はインタフェース312を介してバス304に接続され、同様にディスプレイ311はインタフェース313を介してバス304に接続されている。
【0141】
また、画像信号処理装置300は、画像信号Vaを入力するための入力端子314と、画像信号Vbを出力するための出力端子315とを有している。入力端子314はインタフェース316を介してバス304に接続され、同様に出力端子315はインタフェース317を介してバス304に接続される。
【0142】
ここで、上述したようにROM302に制御プログラムや係数データ等を予め格納しておく代わりに、例えばインターネットなどの通信網400より通信部308を介してダウンロードし、ハードディスクやRAM303に蓄積して使用することもできる。また、これら制御プログラムや係数データ等をフロッピー(登録商標)ディスク306で提供するようにしてもよい。
【0143】
また、処理すべき画像信号Vaを入力端子314より入力する代わりに、予めハードディスクに記録しておき、あるいはインターネットなどの通信網400より通信部308を介してダウンロードしてもよい。また、処理後の画像信号Vbを出力端子315に出力する代わり、あるいはそれと並行してディスプレイ311に供給して画像表示をしたり、さらにはハードディスクに格納したり、通信部308を介してインターネットなどの通信網400に送出するようにしてもよい。
【0144】
図11のフローチャートを参照して、図10に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。
まず、ステップST21で、処理を開始し、ステップS22で、例えば入力端子314より装置内に1フレーム分または1フィールド分の画像信号Vaを入力する。この場合、画像信号Vaの各画素データと対となっているピクチャ情報PIも入力する。ピクチャ情報PIは、画素データがIピクチャ、Pピクチャ、Bピクチャのいずれのピクチャに係るものであったかを示す情報である。またこの場合、画像信号Vaの各画素データと対となっている、その画素データを得る際に使用された残差データおよびリファレンスデータも入力する。
【0145】
このように入力端子314より入力される画像信号Va等はRAM303に一時的に格納される。なお、この画像信号Va等が装置内のハードディスクドライブ305に予め記録されている場合には、このドライブ305からこの画像信号Va等を読み出し、この画像信号Va等をRAM303に一時的に格納する。
【0146】
そして、ステップST23で、画像信号Vaの全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST24で、処理を終了する。一方、処理が終わっていないときは、ステップST25に進む。
【0147】
ステップST25では、画像信号Vbにおける注目位置に対応した画像信号Vaの画素データと対となっているピクチャ情報PI、残差データおよびリファレンスデータを用いて、画像信号Vbにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成し、さらにこのクラスコードCL0および画像信号Vaを構成する複数の画素データを用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0148】
次に、ステップST26で、ステップST22で入力された画像信号Vaより、画像信号Vbにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)を取得する。そして、ステップST27で、ステップST25で生成されたクラスコードCLに対応した係数データWiとステップST26で取得された予測タップの画素データxiを使用して、(1)式の推定式に基づいて、画像信号Vbにおける注目位置の画素データyを生成する。
【0149】
次に、ステップST28で、ステップST22で入力された1フレームまたは1フィールド分の画像信号Vaの画素データの全領域において画像信号Vbの画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST22に戻り、次の1フレーム分または1フィールド分の画像信号Vaの入力処理に移る。一方、処理が終了していないときは、ステップST25に戻って、次の注目位置についての処理に移る。
【0150】
このように、図11に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0151】
また、処理装置の図示は省略するが、図9の係数データ生成装置150における処理も、ソフトウェアで実現可能である。
【0152】
図12のフローチャートを参照して、係数データを生成するための処理手順を説明する。
まず、ステップST31で、処理を開始し、ステップST32で、教師信号STを1フレーム分または1フィールド分だけ入力する。そして、ステップST33で、教師信号STの全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST34で、ステップST32で入力された教師信号STから生徒信号SSを生成する。
【0153】
この場合、生徒信号SSの各画素データと対となっているピクチャ情報PI、さらには各画素データと対となっているその画素データを得る際に使用された残差データおよびリファレンスデータも得るようにする。
【0154】
そして、ステップST35で、教師信号STの注目位置に対応した生徒信号SSの画素データと対となっているピクチャ情報PIと、残差データおよびリファレンスデータを用いて、教師信号STにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成し、さらにこのクラスコードCL0および生徒信号SSを構成する複数の画素データを用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0155】
次に、ステップST36で、ステップST34で生成された生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)を取得する。
【0156】
そして、ステップST37で、ステップST35で生成されたクラスコードCL、ステップST36で取得された予測タップの画素データxiおよび教師信号STにおける注目位置の画素データyを用いて、クラス毎に、(8)式に示す正規方程式を得るための加算をする((6)式、(7)式参照)。
【0157】
次に、ステップST38で、ステップST32で入力された1フレーム分または1フィールド分の教師信号STの画素データの全領域において学習処理が終了したか否かを判定する。学習処理を終了しているときは、ステップST32に戻って、次の1フレーム分または1フィールド分の教師信号STの入力を行って、上述したと同様の処理を繰り返す。一方、学習処理を終了していないときは、ステップST35に戻って、次の注目位置についての処理に移る。
【0158】
上述したステップST33で、処理が終了したときは、ステップST39で、上述のステップST37の加算処理によって生成された、各クラスの正規方程式を掃き出し法などで解いて、各クラスの係数データWiを算出する。そして、ステップST40で、各クラスの係数データWiをメモリに保存し、その後にステップST41で、処理を終了する。
【0159】
このように、図12に示すフローチャートに沿って処理をすることで、図9に示す係数データ生成装置150と同様の手法によって、各クラスの係数データWiを得ることができる。
【0160】
なお、上述実施の形態においては、リファレンスデータから抽出されたエッジ成分と残差データから抽出されたエッジ成分とを用いて動きベクトル情報(Δx,Δy)を検出し、これを復号時に使用した動き補償用ベクトル情報MIの不正確さを示す情報としたものである。
【0161】
しかし、動き補償用ベクトル情報MIの不正確さを示す情報はこの動きベクトル情報(Δx,Δy)に限定されるものではない。例えば、画像信号Vaからブロックマッチング法、勾配法等の方法によって動きベクトル情報を新たに検出し、これと復号時に使用した動き補償用ベクトル情報MIとを比較することで、動き補償用ベクトル情報MIの不正確さを示す情報を得るようにしてもよい。
【0162】
また、上述実施の形態においては、DCTを伴うMPEG2ストリームを取り扱うものを示したが、この発明は、動き補償予測符号化が行われたその他の符号化されたデジタル画像信号を取り扱うものにも同様に適用することができる。また、DCTの代わりに、ウォーブレット変換、離散サイン変換などのその他の直交変換を伴う符号化であってもよい。
【0163】
【発明の効果】
この発明によれば、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる符号化雑音が軽減された第2の画像信号に変換する際、第2の画像信号における注目位置に対応した第1の画像信号の画素データを得る際に用いられたリファレンスデータの動き補償に使用された第1の動きベクトル情報の不正確さを示す情報を取得し、少なくともこの不正確さを示す情報を用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものであり、クラス分類の精度を上げることができ、第2の画像信号の品質の向上を図ることができる。
【図面の簡単な説明】
【図1】実施の形態としてのデジタル放送受信機の構成を示すブロック図である。
【図2】MPEG2復号化器の構成を示すブロック図である。
【図3】クラス生成部の構成を示すブロック図である。
【図4】3×3のラプラシアンフィルタの係数比の一例を示す図である。
【図5】相関判定のためのブロックマッチングの一例を説明するための図である。
【図6】相関判定のためのブロックマッチングの他の例を説明するための図である。
【図7】クラス分類部の構成を示すブロック図である。
【図8】タップ選択用ブロックを示す図である。
【図9】係数データ生成装置の構成を示すブロック図である。
【図10】ソフトウェアで実現するための画像信号処理装置の構成例を示すブロック図である。
【図11】画像信号処理を示すフローチャートである。
【図12】係数データ生成処理を示すフローチャートである。
【符号の説明】
31,32・・・入力端子、32,35・・・エッジ成分抽出回路、33,36・・・バッファメモリ、37・・・相関判定部、38・・・クラス生成回路、39・・・出力端子、100・・・デジタル放送受信機、101・・・システムコントローラ、102・・・リモコン信号受信回路、105・・・受信アンテナ、106・・・チューナ部、107・・・MPEG2復号化器、108・・・バッファメモリ、110・・・画像信号処理部、111・・・ディスプレイ部、121・・・クラス生成部、122・・・予測タップ選択回路、123・・・クラス分類部、124・・・係数メモリ、125・・・推定予測演算回路、150・・・係数データ生成装置、300・・・画像信号処理装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image signal processing device and processing method, a coefficient data generating device and generating method used therefor, and a program for executing each method.
[0002]
More specifically, the present invention encodes a first image signal composed of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation predictive coding, into a plurality of pixel data. Used for motion compensation of reference data used when obtaining pixel data of the first image signal corresponding to the position of interest in the second image signal when converting to the second image signal with reduced noise Acquire information indicating the inaccuracy of the first motion vector information, detect a class to which the pixel data of the target position in the second image signal belongs using at least the information indicating the inaccuracy, and correspond to this class Then, by generating pixel data at the position of interest in the second image signal, the image signal processing is designed to improve the accuracy of the classification and improve the quality of the second image signal. It is those related to 置等.
[0003]
[Prior art]
As an image signal compression encoding method, there is an MPEG2 (Moving Picture Experts Group 2) encoding method using DCT (Discrete Cosine Transform). In this encoding method, motion compensation prediction encoding is performed for each block.
[0004]
DCT performs discrete cosine transform on pixels in a block, requantizes coefficient data obtained by the discrete cosine transform, and further variable-length codes the requantized coefficient data. For this variable length coding, entropy coding such as Huffman code is often used. The image signal is orthogonally transformed to be divided into a large number of frequency data from low frequency to high frequency.
[0005]
When re-quantization is performed on this divided frequency data, human visual characteristics are taken into consideration, and low frequency data with high importance is finely quantized, and high frequency data with low importance is roughly quantized. In this way, the image quality can be maintained and high-efficiency compression can be realized.
[0006]
In conventional decoding using DCT, quantized data for each frequency component is converted into a representative value of the code, and reproduction data is obtained by performing inverse DCT (IDCT: Inverce DCT) on these components. . When converting to this representative value, the quantization step width at the time of encoding is used.
[0007]
[Problems to be solved by the invention]
As described above, the MPEG encoding method using DCT has the advantage that high-quality compression can be realized while maintaining high image quality by performing encoding in consideration of human visual characteristics.
[0008]
However, since coding for performing DCT is processing in units of blocks, block noise, so-called block noise (block distortion), may occur as the compression rate increases. In addition, in a portion where there is a rapid luminance change such as an edge, a noise that is a result of coarse quantization of high-frequency components, so-called mosquito noise, is generated.
[0009]
It is conceivable to reduce coding noise such as block noise and mosquito noise by class classification adaptive processing. That is, an image signal including coding noise is set as a first image signal, an image signal with reduced coding noise is set as a second image signal, and a class to which pixel data of a target position in the second image signal belongs is detected. Then, pixel data of the target position in the second image signal is generated corresponding to this class. In this case, in order to improve the quality of the second image signal, it is necessary to increase the accuracy of the classification.
[0010]
Of the pixel data of the first image signal corresponding to the target position in the second image signal, the pixel data related to the P picture and the B picture is subjected to motion compensation on the residual data obtained by performing DCT conversion. It is generated by adding the reference data motion-compensated with the vector information.
[0011]
Therefore, the pixel data related to the P picture and B picture is affected by the inaccuracy of the motion compensation vector information. Therefore, if class classification is performed based on inaccuracy information of the motion compensation vector information, it is considered that the accuracy of class classification is improved.
[0012]
An object of the present invention is to improve the classification accuracy and improve the quality of the second image signal.
[0013]
[Means for Solving the Problems]
An image signal processing apparatus according to the present invention is configured to decode a first image signal composed of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation prediction encoding, Reduced coding noise An image signal processing device for converting to a second image signal composed of a plurality of pixel data, First extraction means for extracting an edge component from residual data used when obtaining pixel data of the first image signal corresponding to a target position in the second image signal; Reference data used when obtaining pixel data of the first image signal corresponding to the position of interest in the second image signal A frame composed of the edge component extracted from the second extraction means, and a frame composed of the edge component extracted by the first extraction means as a first frame. And second motion vector information corresponding to the position of interest in the second image signal is obtained from the correlation information between the block of the first frame and the block of the second frame. Motion vector acquisition means for acquiring the second motion vector information as information indicating inaccuracy of the first motion vector information used for motion compensation of the reference data; At least above Motion vector acquisition means Obtained in From the second motion vector information The class to which the pixel data of the target position in the second image signal belongs is Generation Class Generation Means, A teacher signal that is obtained in advance for each class generated by the class generating means and includes a student signal including encoding noise corresponding to the first image signal and an encoding noise corresponding to the second image signal. Coefficient data generating means for generating coefficient data for minimizing an error from the signal, and data selection for selecting a plurality of pixel data located around the position of interest in the second image signal from the first image signal And calculation means for calculating the coefficient data generated by the coefficient data generation means and the plurality of pixel data selected by the data selection means to obtain pixel data of the target position in the second image signal And with Ru Is.
[0014]
In addition, the image signal processing method according to the present invention provides a first image signal composed of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation predictive coding, Reduced coding noise An image signal processing method for converting to a second image signal composed of a plurality of pixel data, A first step of extracting an edge component from residual data used when obtaining pixel data of the first image signal corresponding to a target position in the second image signal; Reference data used when obtaining pixel data of the first image signal corresponding to the position of interest in the second image signal A second step of extracting an edge component from the first step and a frame composed of the edge component extracted in the first step as a first frame, and a frame composed of the edge component extracted in the second step as a second frame. Second motion vector information corresponding to the position of interest in the second image signal is obtained from the correlation information between the block of the first frame and the block of the second frame, and the reference data A third step of acquiring the second motion vector information as information indicating inaccuracy of the first motion vector information used for motion compensation of At least above Third step Obtained in From the second motion vector information The class to which the pixel data of the target position in the second image signal belongs is Generation First 4 And the steps A student signal that is obtained in advance for each class generated in the fourth step and includes coding noise corresponding to the first image signal and does not include coding noise corresponding to the second image signal. A fifth step of generating coefficient data that minimizes an error from the teacher signal; and a plurality of pixel data positioned around the target position in the second image signal from the first image signal. And calculating the coefficient data generated in step 6 and the fifth step and the plurality of pixel data selected in the sixth step to obtain pixel data of the target position in the second image signal. Steps And with Ru Is.
[0015]
A program according to the present invention is for causing a computer to execute the above-described image signal processing method.
[0016]
In the present invention, the first image signal composed of a plurality of pixel data is generated by decoding a digital image signal that has been subjected to motion compensation predictive coding. For example, the digital image signal has been subjected to MPEG encoding.
[0017]
The pixel data of the first image signal corresponding to the target position in the second image signal is obtained by adding the reference data compensated for motion with the first motion vector information to the residual data corresponding to the target position. Generated. Information indicating the inaccuracy of the first motion vector information is acquired.
[0018]
For example, information indicating this inaccuracy is acquired as follows. That is, an edge component is extracted from the residual data used when obtaining the pixel data of the first image signal, and a frame including the edge component is set as the first frame. In addition, an edge component is extracted from the reference data used when obtaining the pixel data of the first image signal, and a frame including the edge component is set as a second frame. Then, using these first and second frames, second motion vector information corresponding to the position of interest in the second image signal is detected, and this is information indicating inaccuracy.
[0019]
In this case, the second motion vector information is obtained as follows, for example. That is, the first or second frame is a reference frame, and the second or first frame is a search frame. A reference block including an edge component corresponding to the target position in the second image signal of the reference frame; and a plurality of candidate blocks within a predetermined search range centered on the target position in the second image signal of the search frame; Correlation information between is detected. Then, based on the correlation information corresponding to the plurality of detected candidate blocks, the position information of the candidate block having the highest correlation with the reference block is output as the second motion vector information.
[0020]
The class to which the pixel data at the target position in the second image signal belongs is detected using at least information indicating the inaccuracy of the first motion vector information. As information indicating this inaccuracy, in the case of outputting the second motion vector information as described above, for example, the correlation level indicated by the correlation information of the candidate block with the highest correlation is set in advance. When the value is smaller than the threshold value, predetermined information indicating that fact is output. In that case, the class to which the pixel data of the target position in the second image signal belongs is detected using this predetermined information instead of the second motion vector information. In this case, since the inaccuracy of the second motion vector information itself is large, class classification using the second motion vector information itself causes a decrease in accuracy of class classification.
[0021]
Corresponding to the class detected in this way, pixel data of the target position in the second image signal is generated. For example, pixel data is generated as follows. That is, coefficient data used in the estimation formula corresponding to the class is generated. Further, based on the first image signal, a plurality of pixel data located around the target position in the second image signal are selected. Then, these coefficient data and a plurality of pixel data are used, and pixel data of the target position in the second image signal is calculated based on the estimation formula.
[0022]
As described above, the inaccuracy of the first motion vector information used for the motion compensation of the reference data used when obtaining the pixel data of the first image signal corresponding to the target position in the second image signal is determined. Information indicating that the pixel data of the target position in the second image signal belongs is detected using at least the information indicating the inaccuracy, and the target position of the second image signal corresponding to this class is detected. Pixel data is generated, the classification accuracy can be improved, and the quality of the second image signal can be improved.
[0023]
A coefficient data generation device according to the present invention is configured to generate a first image signal composed of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation prediction encoding, Reduced coding noise Used when converting to a second image signal consisting of multiple pixel data Person in charge Decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal And First extraction means for extracting an edge component from residual data used when obtaining pixel data of the student signal corresponding to a target position in the teacher signal; Reference data used to obtain pixel data of the student signal corresponding to the position of interest in the teacher signal A frame composed of the edge component extracted from the second extraction means, and a frame composed of the edge component extracted by the first extraction means as a first frame. Is the second frame, second motion vector information corresponding to the position of interest in the teacher signal is obtained from the correlation information between the block of the first frame and the block of the second frame, and the reference data Motion vector acquisition means for acquiring the second motion vector information as information indicating inaccuracy of the first motion vector information used for motion compensation of At least above Motion vector acquisition means Obtained in From the second motion vector information , The class to which the pixel data of the target position in the teacher signal belongs Generation Class Generation Means and student signal above From , A data selection means for selecting a plurality of pixel data located around a target position in the teacher signal, and the class Generation By means Generation Class data, a plurality of pixel data selected by the data selection means, and pixel data of a target position in the teacher signal To above For each class, Minimizing an error between a plurality of pixel data related to the student signal and pixel data at a target position in the teacher signal And calculation means for obtaining coefficient data Ru Is.
[0024]
Further, the coefficient data generation method according to the present invention provides a first image signal made up of a plurality of pixel data, which is generated by decoding a digital image signal that has been subjected to motion compensation prediction encoding, Reduced coding noise Used when converting to a second image signal consisting of multiple pixel data Person in charge A method of generating numerical data, wherein a digital image signal obtained by encoding a teacher signal corresponding to the second image signal is decoded to obtain a student signal corresponding to the first image signal. 1 step, A second step of extracting an edge component from the residual data used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal; Reference data used to obtain pixel data of the student signal corresponding to the position of interest in the teacher signal A frame composed of the edge component extracted in the third step and the edge component extracted in the second step is defined as a first frame, and a frame composed of the edge component extracted in the third step is defined as a second frame. Second motion vector information corresponding to the position of interest in the teacher signal is obtained from correlation information between the block of the first frame and the block of the second frame, and motion compensation of the reference data is performed. A fourth step of acquiring the second motion vector information as information indicating inaccuracy of the first motion vector information used for At least above Fourth step Obtained in From the second motion vector information , The class to which the pixel data of the target position in the teacher signal belongs Generation First 5 Steps and student signal above From Selecting a plurality of pixel data located around the target position in the teacher signal; 6 And the above steps 5 In steps Generation Class, above 6 A plurality of pixel data selected in the above step and pixel data of the target position in the teacher signal To above For each class, Minimizing an error between a plurality of pixel data related to the student signal and pixel data at a target position in the teacher signal Find coefficient data 7 With steps Ru Is.
[0025]
A program according to the present invention is for causing a computer to execute the coefficient data generation method described above.
[0026]
In the present invention, the first image signal composed of a plurality of pixel data is generated by decoding a digital image signal that has been subjected to motion compensation predictive coding. The present invention generates coefficient data of an estimation formula used when converting the first image signal into a second image signal composed of a plurality of pixel data.
[0027]
The pixel data of the student signal corresponding to the attention position in the teacher signal is generated by adding the reference data compensated for motion by the first motion vector information to the residual data corresponding to the attention position. Information indicating the inaccuracy of the first motion vector information is acquired. The class to which the pixel data at the target position in the teacher signal belongs is detected using at least information indicating the inaccuracy.
[0028]
Further, based on the student signal, a plurality of pixel data located around the attention position in the teacher signal are selected. Then, coefficient data is obtained for each class using the class to which the pixel data at the target position in the teacher signal belongs, the selected pixel data, and the pixel data at the target position in the teacher signal.
[0029]
As described above, coefficient data of the estimation formula used when converting the first image signal to the second image signal is generated. When converting from the first image signal to the second image signal, The coefficient data corresponding to the class to which the pixel data of the target position in the second image signal belongs is selectively used to calculate the pixel data of the target position in the second image signal by the estimation formula.
[0030]
Thereby, when converting from the first image signal to the second image signal using the estimation formula, the accuracy of the class classification can be improved, and the quality of the second image signal can be improved. it can.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a digital broadcast receiver 100 as an embodiment.
[0032]
The digital broadcast receiver 100 includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 for receiving a remote control signal RM. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.
[0033]
Also, the digital broadcast receiver 100 is supplied with a receiving antenna 105 and a broadcast signal (RF modulated signal) captured by the receiving antenna 105, performs channel selection processing, demodulation processing, error correction processing, etc. And a tuner unit 106 that obtains an MPEG2 stream as an encoded image signal.
[0034]
The digital broadcast receiver 100 also temporarily decodes the MPEG2 decoder 107 that decodes the MPEG2 stream output from the tuner unit 106 to obtain the image signal Va, and the image signal Va output from the MPEG2 decoder 107. A buffer memory 108 for storing the data.
[0035]
In the present embodiment, the MPEG2 decoder 107 also outputs picture information PI in addition to each pixel data constituting the image signal Va. The buffer memory 108 also stores picture information PI in pairs with each pixel data. The picture information PI is information indicating whether the output pixel data relates to an I picture (Intra-Picture), a P picture (Predictive-Picture), or a B picture (Bidirectionally predictive-Picture).
[0036]
Further, from the MPEG2 decoder 107, residual data and reference data used in obtaining the pixel data corresponding to the pixel data related to the P picture and the B picture among the pixel data constituting the image signal Va. Is also output. In this case, the reference data has been subjected to motion compensation based on the motion compensation vector information MI. In the buffer memory 108, residual data and reference data are also stored in pairs with the pixel data of the P picture and the B picture.
[0037]
Here, in the case of a P picture, prediction encoding is performed in the forward direction, so that reference data exists only in the forward direction corresponding to one pixel data, but in the case of a B picture, prediction from both directions is performed. Since it is encoding, reference data exists in each direction corresponding to one pixel data. Incidentally, in the case of a B picture, the addition average value of the reference data in each of these directions becomes the reference data Vref to be added to the residual data.
[0038]
FIG. 2 shows the configuration of the MPEG2 decoder 107.
The decoder 107 has an input terminal 71 to which an MPEG2 stream is input, and a stream buffer 72 that temporarily stores the MPEG2 stream input to the input terminal 71.
[0039]
The decoder 107 extracts the DCT (Discrete Cosine Transform) coefficient as a frequency coefficient from the MPEG2 stream stored in the stream buffer 72 and the extraction circuit 73 extracts the DCT coefficient. A variable-length decoding circuit 74 that performs variable-length decoding on DCT coefficients that have been subjected to variable-length coding, for example, Huffman coding.
[0040]
The decoder 107 also includes an extraction circuit 75 that extracts quantization characteristic designation information QI from the MPEG2 stream stored in the stream buffer 72, and a variable length decoding circuit based on the quantization characteristic designation information QI. 74 has an inverse quantization circuit 76 that performs inverse quantization on the quantized DCT coefficient output from 74, and an inverse DCT circuit 77 that performs inverse DCT on the DCT coefficient output from the inverse quantization circuit 76. is doing.
[0041]
Further, the decoder 107 stores the pixel data of the I picture and the P picture in a memory (not shown), and the residual data of the P picture or the B picture is obtained from the inverse DCT circuit 77 using these pixel data. A prediction memory circuit 78 that generates and outputs corresponding reference data Vref when output is provided.
[0042]
In addition, when the P-picture or B-picture residual data is output from the inverse DCT circuit 77, the decoder 107 adds the reference data Vref generated by the prediction memory circuit 78 to the residual data. And an output terminal 81 that outputs pixel data of each picture output from the adder circuit 79 as an image signal Va. When the pixel data of the I picture is output from the inverse DCT circuit 77, the reference data Vref is not supplied from the prediction memory circuit 78 to the adder circuit 79. Therefore, the I circuit output from the inverse DCT circuit 77 from the adder circuit 79. The pixel data of the picture is output as it is.
[0043]
Here, in MPEG encoding, encoding is performed in an order different from the actual frame / field order, as is conventionally known. That is, the image signal of the I picture and the P picture is encoded first, and the image signal of the B picture sandwiched between them is encoded thereafter. The image signal Va of each picture is output to the output terminal 81 in the encoding order. In the present embodiment, when the image signal Va is read from the buffer memory 108 described above, the image signal of each picture is rearranged from the encoding order to the actual frame / field order.
[0044]
The decoder 107 extracts an encoding control information, that is, picture information PI and motion compensation vector information MI from the MPEG2 stream stored in the stream buffer 72, and the extraction circuit 82 extracts the decoding control information. And an output terminal 83 for outputting the picture information PI.
[0045]
The motion compensation vector information MI extracted by the extraction circuit 82 is supplied to the prediction memory circuit 78, and the prediction memory circuit 78 performs motion compensation when generating the reference data Vref using the motion compensation vector information MI. Is called. The picture information PI extracted by the extraction circuit 82 is also supplied to the prediction memory circuit 78. The prediction memory circuit 78 identifies a picture based on the picture information PI.
[0046]
The decoder 107 also outputs an output terminal 84 that outputs residual data related to the P picture and B picture output from the inverse DCT circuit 77, and a reference related to the P picture and B picture output from the prediction memory circuit 78. And an output terminal 85 for outputting data.
[0047]
The operation of the MPEG2 decoder 107 shown in FIG. 2 will be described.
The MPEG2 stream stored in the stream buffer 72 is supplied to the extraction circuit 73 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable length encoded, and this DCT coefficient is supplied to the variable length decoding circuit 74 and decoded. The quantized DCT coefficient of each DCT block output from the variable length decoding circuit 74 is supplied to the inverse quantization circuit 76 and subjected to inverse quantization.
[0048]
The inverse DCT circuit 77 performs inverse DCT on the DCT coefficient of each DCT block output from the inverse quantization circuit 76, thereby obtaining data of each picture. The data of each picture is output to the output terminal 81 via the adding circuit 79. In this case, when P-picture or B-picture residual data is output from the inverse DCT circuit 77, the adder circuit 79 adds the reference data Vref output from the prediction memory circuit 78.
[0049]
The picture information PI is output to the output terminal 83 in pairs with each pixel data constituting the image signal Va output from the output terminal 81. In addition, the pixel data corresponding to the P picture and B picture among the pixel data constituting the image signal Va output from the output terminal 81 is paired with the pixel data obtained at the output terminal 84 and the output terminal 85, respectively. The residual data and reference data used at the time are also output.
[0050]
Returning to FIG. 1, the digital broadcast receiver 100 also converts the image signal Va stored in the buffer memory 108 into an image signal Vb in which coding noise such as block noise (block distortion) and mosquito noise is reduced. An image signal processing unit 110 for conversion and a display unit 111 for displaying an image based on the image signal Vb output from the image signal processing unit 110 are provided. The display unit 111 includes a display such as a CRT (Cathode-Ray Tube) display or an LCD (Liquid Crystal Display).
[0051]
The operation of the digital broadcast receiver 100 shown in FIG. 1 will be described.
The MPEG2 stream output from the tuner unit 106 is supplied to the MPEG2 decoder 107 and decoded. The image signal Va output from the decoder 107 is supplied to the buffer memory 108 and temporarily stored.
[0052]
In this case, the decoder 107 outputs picture information PI in pairs with each pixel data of the image signal Va. The encoder 107 also outputs residual data and reference data in pairs with pixel data related to the P picture and B picture. Such information and data are also temporarily stored in the buffer memory 108.
[0053]
The image signal Va temporarily stored in the buffer memory 108 in this way is supplied to the image signal processing unit 110 and converted into an image signal Vb with reduced coding noise. In the image signal processing unit 110, pixel data constituting the image signal Vb is generated from the pixel data constituting the image signal Va. In the image signal processing unit 110, the picture information PI stored in the buffer memory 108, and the residual data and reference data are used, and conversion processing is performed as will be described later.
[0054]
The image signal Vb output from the image signal processing unit 110 is supplied to the display unit 111, and an image based on the image signal Vb is displayed on the screen of the display unit 111.
[0055]
Next, details of the image signal processing unit 110 will be described.
The image signal processing unit 110 includes a class generation unit 121 that generates a class code CL0 indicating a class based on the inaccuracy of the motion compensation vector information MI to which the pixel data of the target position in the image signal Vb belongs. The class generation unit 121 uses the picture information PI, residual data, and reference data stored in the buffer memory 108 to generate a class code CL0.
[0056]
FIG. 3 shows a specific configuration of the class generation unit 121.
The class generation unit 121 has an input terminal 31 to which reference data stored as a pair with pixel data related to P picture and B picture is input to the buffer memory 108 described above, and input to the input terminal 31. An edge component extraction circuit 32 that extracts edge components from the reference data and a buffer memory 33 that temporarily stores the edge components of the reference data extracted by the extraction circuit 32 are provided.
[0057]
The edge component extraction circuit 32 is configured by a two-dimensional differential filter, for example, a 3 × 3 Laplacian filter. FIG. 4 shows an example of the coefficient ratio of a 3 × 3 Laplacian filter. As described above, in the case of a P picture, the reference data exists only in the forward direction corresponding to one pixel data, whereas in the case of a B picture, the reference data corresponds to one pixel data. Exist in the direction of. Therefore, the edge component extraction circuit 32 detects the edge component from the forward reference data in the case of the P picture, but detects the edge component from each of the forward and backward reference data in the case of the B picture. .
[0058]
In addition, the class generation unit 121 has an input terminal 34 to which the residual data stored in a pair with the pixel data related to the P picture and the B picture in the buffer memory 108 described above is input, and an input to the input terminal 34. The edge component extraction circuit 35 extracts an edge component from the residual data, and the buffer memory 36 temporarily stores the edge component of the reference data extracted by the extraction circuit 35.
[0059]
Similarly to the edge component extraction circuit 32 described above, the edge component extraction circuit 35 is also constituted by a two-dimensional differential filter, for example, a 3 × 3 Laplacian filter. In this case, since the residual data also takes a negative value, the edge component is extracted after being offset so that all the values of the residual data become positive values. For example, when the residual data takes a value of −128 to +128, edge component extraction processing is performed after adding +128 to the residual data.
[0060]
In addition, the class generation unit 121 indicates motion vector information (second motion vector information) corresponding to the target position in the image signal Vb, and indicates inaccuracies in the motion compensation vector information MI (first motion vector information). It has the correlation determination part 37 as a motion vector acquisition means obtained as information. The correlation determination unit 37 acquires motion vector information corresponding to the target position in the image signal Vb using the first frame and the second frame.
[0061]
Here, the first frame is a frame including the edge component of the residual data related to the pixel data of the image signal Va corresponding to the pixel data of the target position in the image signal Vb stored in the buffer memory 36. The second frame is a frame including the edge component of the reference data related to the pixel data of the image signal Va corresponding to the pixel data of the target position in the image signal Vb stored in the buffer memory 33.
[0062]
The correlation determination unit 37 acquires motion vector information by, for example, a block matching method. In this case, motion vector information is acquired for each pixel or block.
[0063]
A case where motion vector information (Δx, Δy) is acquired for each pixel will be described with reference to FIG.
In this case, for example, as shown in the figure, the first frame is a reference frame, and the second frame is a search frame. Note that the second frame may be a reference frame, and the first frame may be a search frame. Then, a reference block centered on the target pixel corresponding to the target position in the image signal Vb is considered in the reference frame. Further, a search range centered on the target position in the image signal Vb is considered in the search frame. The search range is, for example, about ± 2 in the vertical and horizontal directions.
[0064]
Then, correlation information between the reference block and a plurality of candidate blocks within the search range is detected. The correlation information is, for example, a difference absolute value sum obtained by adding the difference absolute values of corresponding edge components between the reference block and the candidate block. The difference absolute value sum decreases as the correlation level between the reference block and the candidate block increases.
[0065]
Then, based on the correlation information corresponding to the plurality of candidate blocks detected as described above, the position information of the candidate block having the highest correlation is output as motion vector information (Δx, Δy). In this case, when the correlation information is the above-described sum of absolute differences, the candidate block with the smallest sum of absolute differences is the candidate block with the highest correlation.
[0066]
A case where motion vector information is acquired for each block will be described with reference to FIG.
In this case, for example, as shown in the figure, the first frame is a reference frame, and the second frame is a search frame. Note that the second frame may be a reference frame, and the first frame may be a search frame. Then, a reference block including a target pixel corresponding to a target position in the image signal Vb in the reference frame is considered. This reference block is a block corresponding to the DCT block used when obtaining the pixel data of the image signal Va corresponding to the target position in the image signal Vb, for example. Further, a search range centered on the target position in the image signal Vb is considered in the search frame. For example, the search range is, for example, about ± 2 in the vertical and horizontal directions.
[0067]
Then, correlation information between the reference block and a plurality of candidate blocks within the search range is detected. The correlation information is, for example, a difference absolute value sum obtained by adding the difference absolute values of corresponding edge components between the reference block and the candidate block. The difference absolute value sum decreases as the correlation level between the reference block and the candidate block increases.
[0068]
Then, based on the correlation information corresponding to the plurality of candidate blocks detected as described above, the position information of the candidate block having the highest correlation is output as motion vector information (Δx, Δy). In this case, when the correlation information is the above-described sum of absolute differences, the candidate block with the smallest sum of absolute differences is the candidate block with the highest correlation.
[0069]
As described above, the correlation determination unit 37 functions as a correlation detection unit that detects correlation information and an information output unit that outputs motion vector information, and outputs motion vector information (Δx, Δy). As described above, the reference data has been subjected to motion compensation in the decoder 107 (see FIG. 2) based on the motion compensation vector information MI. Therefore, originally, the edge component extracted from the reference data in the second frame corresponds to the edge component extracted from the residual data in the first frame, and motion vector information (Δx, Δy) = (0 , 0).
[0070]
However, when the motion compensation vector information MI is inaccurate, the motion vector information (Δx, Δy) = (0, 0) is not satisfied, and as the degree of inaccuracy increases, the values of Δx, Δy (absolute Value) increases. Therefore, it can be said that the motion vector information (Δx, Δy) is information indicating the inaccuracy of the motion compensation vector information MI.
[0071]
As described above, in the case of the P picture, the reference data exists only in the forward direction corresponding to one pixel data, but in the case of the B picture, the reference data corresponds to one pixel data. Exists for each direction. Therefore, the correlation determination unit 37 acquires only the motion vector information (Δx, Δy) related to the forward reference data in the case of the P picture, but in the case of the B picture, the correlation data of the forward and backward reference data. The motion vector information (Δx, Δy) related to each is acquired.
[0072]
Further, when the correlation level of the candidate block with the highest correlation is smaller than a preset threshold value, for example, when the sum of absolute differences related to the candidate block with the highest correlation is larger than the threshold value, the correlation determination unit 37 Instead, information NG indicating that is output. This is to avoid class classification due to inaccurate motion vector information (Δx, Δy) and prevent degradation of class classification.
[0073]
The class generation unit 37 includes a class generation circuit 38 and an output terminal 39 that outputs the class code CL0 generated by the class generation circuit 38. The class generation circuit 38 is supplied with the picture information PI paired with the pixel data of the image signal Va corresponding to the target position in the image signal Vb as the operation control information.
[0074]
When the picture information PI indicates an I picture, the class generation circuit 38 generates a specific code as the residual class code CL0. Further, when the picture information PI indicates a P picture or a B picture, the class generation circuit 38 generates a class code CL0 based on the motion vector information (Δx, Δy) or information NG output from the correlation determination unit 37. To do.
[0075]
The operation for generating the class code CL0 indicating the class based on the inaccuracy of the motion compensation vector information MI to which the pixel data of the target position in the image signal Vb belongs in the residual class generation unit 121 illustrated in FIG. 3 will be described. To do.
[0076]
The input terminal 31 receives reference data stored in the buffer memory 108 as a pair with pixel data related to the P picture and B picture, and the reference data is supplied to the edge component extraction circuit 32. The edge component extraction circuit 32 extracts edge components from the reference data. The edge component extracted by the extraction circuit 32 is supplied to the buffer memory 33 and temporarily stored.
[0077]
Further, residual data stored as a pair with pixel data relating to P picture and B picture is input to the buffer memory 108 to the input terminal 34, and this residual data is supplied to the edge component extraction circuit 35. The The edge component extraction circuit 35 extracts edge components from the residual data. The edge component extracted by the extraction circuit 35 is supplied to the buffer memory 36 and temporarily stored.
[0078]
The correlation determination unit 37 sets, as a first frame, a frame including an edge component of residual data related to the pixel data of the image signal Va corresponding to the pixel data of the target position in the image signal Vb stored in the buffer memory 36, A frame including the edge component of the reference data related to the pixel data of the image signal Va corresponding to the pixel data of the target position in the image signal Vb stored in the buffer memory 33 is defined as a second frame. Then, the correlation determination unit 37 acquires motion vector information (Δx, Δy) corresponding to the target position in the image signal Vb by using the first frame and the second frame, for example, by a block matching method. This motion vector information (Δx, Δy) is information indicating the inaccuracy of the motion compensation vector information MI.
[0079]
In this case, the correlation determination unit 37 acquires only motion vector information (Δx, Δy) related to forward reference data in the case of a P picture, but forward and backward reference data in the case of a B picture. The motion vector information (Δx, Δy) relating to each is acquired. When the correlation level of the candidate block with the highest correlation is smaller than a preset threshold value, information NG indicating that is output instead of the motion vector information.
[0080]
The motion vector information (Δx, Δy) or information NG output from the correlation determination unit 37 is supplied to the class generation circuit 38. When the picture information PI indicates an I picture, the class generation circuit 38 generates a specific code as the residual class code CL0. In addition, when the picture information PI indicates a P picture or a B picture, the class generation circuit 38 generates a class code CL0 based on the motion vector information (Δx, Δy) or the information NG. The class code CL0 generated in this way is output to the output terminal 39.
[0081]
3 generates the class code CL0 indicating the class based on the inaccuracy of the motion compensation vector information MI to which the pixel data of the target position in the image signal Vb belongs.
[0082]
Returning to FIG. 1, the image signal processing unit 110 selectively extracts and outputs a plurality of pixel data located around the target position in the image signal Vb from the image signal Va stored in the buffer memory 108. And a prediction tap selection circuit 122 as a data selection means. The prediction tap selection circuit 122 selectively extracts a plurality of pixel data of prediction taps used for prediction.
[0083]
Further, the image signal processing unit 110 includes a class classification unit 123 as a class detection unit that detects a class to which the pixel data of the target position in the image signal Vb belongs.
[0084]
The class classification unit 123 uses the plurality of pixel data constituting the image signal Va stored in the buffer memory 108 and the class code CL0 generated by the class generation unit 121 to obtain pixel data of the target position in the image signal Vb. A class code CL indicating the class to which it belongs is generated.
[0085]
Figure 7 Shows the configuration of the class classification unit 123.
The class classification unit 123 detects n types of classes to which pixel data of the target position in the image signal Vb belongs based on the input terminal 50A for inputting the image signal Va and the image signal Va input to the input terminal 50A. Tap selection circuit 50B for selectively extracting a plurality of pixel data of class taps used for 1 ~ 50B n And this tap selection circuit 50B 1 ~ 50B n A class generation circuit 50C for generating class codes CL1 to CLn indicating n types of classes using the pixel data extracted in step S1. 1 ~ 50C n And have.
[0086]
In the present embodiment, class codes CL1 to CL6 indicating six types of classes are generated. The six types of classes are a spatial waveform class, a time variation class, an AC variation class, a flat class, a line correlation class, and a block edge class. A brief description of each class.
[0087]
(1) The spatial waveform class will be described. Tap selection circuit 50B 1 And class generation circuit 50C 1 Suppose that this spatial waveform class detection system is configured.
Tap selection circuit 50B 1 Are a plurality of positions located in the space direction (horizontal direction and vertical direction) around the position of interest in the image signal Vb from the T frame (current frame) and T-1 frame (frame one frame before) of the image signal Va. The pixel data is selectively extracted and is similar to the prediction tap selection circuit 122 described above. Class generation circuit 50C 1 The tap selection circuit 50B 1 For example, 1-bit ADRC (Adaptive Dynamic Range Coding) or the like is applied to each of the plurality of pixel data selected in step S1 to generate a class code CL1 indicating a spatial waveform class.
[0088]
(2) The time variation class will be described. Tap selection circuit 50B 2 And class generation circuit 50C 2 Is configured as a detection system of this time variation class.
Tap selection circuit 50B 2 Extracts the pixel data of the DCT block (the target block shown in FIG. 8) corresponding to the pixel data at the target position in the image signal Vb from the current frame (T frame) of the image signal Va, and at the same time before the image signal Va. The pixel data of the block (the past block shown in FIG. 8) corresponding to the block of interest is extracted from the past frame (T-1 frame).
[0089]
Class generation circuit 50C 2 Are subtracted for each corresponding pixel between the 8 × 8 pixel data of the block of interest and the 8 × 8 pixel data of the past block to obtain 8 × 8 difference values, and this 8 × The sum of squares of the eight difference values is obtained, the square sum is determined as a threshold value, and the class code CL2 indicating the time variation class is generated.
[0090]
(3) The AC variation class will be described. Tap selection circuit 50B Three And class generation circuit 50C Three Constitutes a detection system of this AC fluctuation class.
Tap selection circuit 50B Three Extracts the pixel data of the DCT block (the target block shown in FIG. 8) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va, and from the previous frame one frame before the image signal Va. Then, pixel data of a block (the past block shown in FIG. 8) corresponding to the target block is extracted.
[0091]
Class generation circuit 50C Three Performs DCT processing on each of 8 × 8 pixel data of the block of interest and 8 × 8 pixel data of the past block to obtain DCT coefficients (frequency coefficients). Then, the class generation circuit 50C Three Is the number m of base positions where a coefficient exists in either base position of the AC part. 1 And the number m of base positions of which the sign is inverted and one of the coefficients is 0 2 M 1 / M 2 Is determined as a threshold value, and a class code CL3 indicating an AC variation class is generated. In a block with little time variation, it is possible to perform class classification corresponding to mosquito distortion by this AC variation class.
[0092]
(4) The flat class will be described. Tap selection circuit 50B Four And class generation circuit 50C Four Suppose that this flat class detection system is configured.
Tap selection circuit 50B Four Extracts the pixel data of the DCT block (the target block shown in FIG. 8) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va. Class generation circuit 50C Four Detects the maximum value and the minimum value of 8 × 8 pixel data of the block of interest, determines the threshold of the dynamic range that is the difference, and generates the class code CL4 indicating the flat class.
[0093]
(5) The line correlation class will be described. Tap selection circuit 50B Five And class generation circuit 50C Five Constitutes a detection system of this line correlation class.
Tap selection circuit 50B Five Extracts the pixel data of the DCT block (the target block shown in FIG. 8) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va.
[0094]
Class generation circuit 50C Five Corresponds to the pixels of the 1st line, 2nd line, 3rd line, 4th line, 5th line, 6th line, 7th line and 8th line of the 8 × 8 pixel data of the target block Subtraction is performed for each pixel to obtain 8 × 4 difference values, and a square sum of the 8 × 4 difference values is obtained, and the square sum is determined as a threshold value, and a class code CL5 indicating a line correlation class is obtained. Generate. This line correlation class indicates whether the correlation in a frame such as a still image is high, or whether the correlation in the field is higher than in the frame because of fast movement.
[0095]
(6) The block edge class will be described. Tap selection circuit 50B 6 And class generation circuit 50C 6 Suppose that this block edge class detection system is configured.
Tap selection circuit 50B 6 Extracts pixel data of the DCT block (the target block shown in FIG. 8) corresponding to the pixel data of the target position in the image signal Vb from the current frame of the image signal Va, and moves up and down with respect to the target block from the current frame. Pixel data of blocks adjacent to the left and right (adjacent blocks shown in FIG. 8) are extracted.
[0096]
Class generation circuit 50C 6 Are subtracted for each corresponding pixel between the 8 pixel data of each of the 4 sides of the block of interest and the pixel data of the adjacent block adjacent thereto to obtain 4 × 8 difference values, and each 8 A square sum of the difference values is obtained, and four square sums respectively corresponding to the four sides of the block of interest are threshold-determined to generate a class code CL6 indicating a block edge class.
[0097]
The class classification unit 123 includes an input terminal 50D for inputting the class code CL0, and a class generation circuit 50C. 1 ~ 50C n A class integration circuit 50E that integrates the class codes CL1 to CLn generated in step S1 and the class code CL0 input to the input terminal 50D into one class code CL, and an output terminal 50F that outputs the class code CL. Have. In the present embodiment, the class integration circuit 50E includes a class generation circuit 50C. 1 ~ 50C 6 The class codes CL1 to CL6 generated in step 1 and the class code CL0 are integrated into one class code CL.
[0098]
Returning to FIG. 1, the image signal processing unit 110 also includes a coefficient memory 124. The coefficient memory 124 stores coefficient data Wi (i = 1 to n, n is the number of prediction taps) used in an estimation formula used in the estimation prediction calculation circuit 125 described later for each class. .
[0099]
The coefficient data Wi is information for converting the image signal Va into the image signal Vb. The coefficient data Wi stored in the coefficient memory 124 is generated by learning between a student signal corresponding to the image signal Va and a teacher signal corresponding to the image signal Vb in advance. The coefficient memory 124 is supplied with the class code CL output from the above-described class classification unit 123 as read address information. The coefficient memory 124 reads the coefficient data Wi of the estimation formula corresponding to the class code CL. , And supplied to the estimated prediction calculation circuit 125. A method for generating the coefficient data Wi will be described later.
[0100]
In addition, the image signal processing unit 110 creates the prediction tap pixel data xi selectively extracted by the prediction tap selection circuit 122 and the coefficient data Wi read from the coefficient memory 124 by using the estimation expression (1). It has an estimated prediction calculation circuit 125 for calculating pixel data y at the target position in the image signal Vb to be processed.
[0101]
[Expression 1]
Figure 0004206730
[0102]
The operation of the image signal processing unit 110 will be described.
In the class generation unit 121, the picture information PI, residual data, and reference data stored in the buffer memory 108 are used, and the motion compensation vector information MI to which the pixel data of the target position in the image signal Vb belongs is not included. A class code CL0 indicating a class based on accuracy is generated.
[0103]
Further, the class classification unit 123 uses the plurality of pixel data constituting the image signal Va stored in the buffer memory 108 and the class code CL0 generated by the class generation unit 121, and the pixel at the target position in the image signal Vb. A class code CL indicating the class to which the data belongs is generated.
[0104]
Thus, the class code CL generated by the class classification unit 123 is supplied to the coefficient memory 124 as read address information. As a result, the coefficient data Wi corresponding to the class code CL is read from the coefficient memory 124 and supplied to the estimated prediction calculation circuit 125.
[0105]
Further, the prediction tap selection circuit 122 selectively extracts pixel data of the prediction tap located around the target position in the image signal Vb from the image signal Va stored in the buffer memory 108.
[0106]
The estimated prediction calculation circuit 125 uses the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 124, based on the estimation expression shown in the above equation (1), in the image signal Vb to be created. Pixel data y at the target position is obtained.
[0107]
As described above, the image signal processing unit 110 obtains the image signal Vb from the image signal Va using the coefficient data Wi. In this case, a plurality of pixel data (prediction tap pixel data) located around the target position in the image signal Vb, selected based on the image signal Va, and a class to which the pixel data of the target position in the image signal Vb belong. Pixel data y at the target position in the image signal Vb is generated based on the estimation formula using the coefficient data Wi corresponding to CL.
[0108]
Therefore, the coefficient data Wi is obtained by learning using a student signal corresponding to the image signal Va and including coding noise similar to the image signal Va and a teacher signal corresponding to the image signal Vb and not including coding noise. By using the coefficient data Wi, it is possible to satisfactorily obtain an image signal Vb in which coding noise is significantly reduced as compared with the image signal Va.
[0109]
Further, the class generation unit 121 generates a class code CL0 indicating a class based on the inaccuracy of the motion compensation vector information MI. Then, in the class classification unit 123, the class code CL0 is integrated with other class codes, and the class code CL is generated. Therefore, in the image signal processing unit 110, class classification is performed based on inaccuracy information of the motion compensation vector information MI, and the quality of the image signal Vb can be improved.
[0110]
Further, when the correlation level of the candidate block with the highest correlation is smaller than a preset threshold, the correlation determination unit 37 of the class generation unit 121 outputs information NG indicating that instead of the motion vector information. Then, the class generation circuit 38 outputs the class code CL0 corresponding to the information NG. Therefore, the class code CL0 based on inaccurate motion vector information (Δx, Δy) is not output from the class generation unit 121, and the accuracy of class classification can be prevented from being lowered.
[0111]
Next, a method for generating the coefficient data Wi stored in the coefficient memory 124 will be described. The coefficient data Wi is generated in advance by learning.
[0112]
First, this learning method will be described. In the above equation (1), before learning, coefficient data W 1 , W 2 , ..., W n Is an undetermined coefficient. Learning is performed on a plurality of signal data for each class. When the number of learning data is m, the following equation (2) is set according to the equation (1). n indicates the number of prediction taps.
y k = W 1 X k1 + W 2 X k2 + ... + W n X kn ... (2)
(K = 1, 2,..., M)
[0113]
If m> n, coefficient data W 1 , W 2 , ..., W n Is not uniquely determined, so the element e of the error vector e k Is defined by the following equation (3), and e in equation (4) 2 Find coefficient data that minimizes. Coefficient data is uniquely determined by a so-called least square method.
e k = Y k -{W 1 X k1 + W 2 X k2 + ... + W n X kn } (3)
(K = 1, 2, ... m)
[0114]
[Expression 2]
Figure 0004206730
[0115]
E in equation (4) 2 As a practical calculation method for obtaining coefficient data that minimizes the value, first, as shown in the equation (5), e 2 Is partially differentiated with the coefficient data Wi (i = 1, 2,..., N), and the coefficient data Wi is obtained so that the partial differential value becomes 0 for each value of i.
[0116]
[Equation 3]
Figure 0004206730
[0117]
A specific procedure for obtaining the coefficient data Wi from the equation (5) will be described. If Xji and Yi are defined as in the equations (6) and (7), the equation (5) can be written in the form of the determinant of the equation (8).
[0118]
[Expression 4]
Figure 0004206730
[0119]
[Equation 5]
Figure 0004206730
[0120]
Equation (8) is generally called a normal equation. Coefficient data Wi (i = 1, 2,..., N) can be obtained by solving this normal equation by a general solution method such as a sweep-out method (Gauss-Jordan elimination method).
[0121]
FIG. 9 shows a configuration of a coefficient data generation device 150 that generates coefficient data Wi to be stored in the coefficient memory 124 of the image signal processing unit 110 of FIG.
The coefficient data generation device 150 includes an input terminal 151 to which a teacher signal ST corresponding to the image signal Vb is input, an MPEG2 encoder 152 that encodes the teacher signal ST to obtain an MPEG2 stream, An MPEG2 decoder 153 that decodes the MPEG2 stream to obtain a student signal SS corresponding to the image signal Va. Here, the MPEG2 decoder 153 corresponds to the MPEG2 decoder 107 and the buffer memory 108 in the digital broadcast receiver 100 shown in FIG.
[0122]
Further, the coefficient data generation device 150 includes a class generation unit 154. The class generation unit 154 is configured in the same manner as the class generation unit 121 of the image signal processing unit 110 described above, and is based on the inaccuracy of the motion compensation vector information MI to which the pixel data at the target position in the teacher signal ST belongs. Class code CL0 is generated. In this class generation unit 154, the class code CL0 is generated using the picture information PI, residual data, and reference data output from the decoder 153.
[0123]
Also, the coefficient data generation device 150 selectively extracts a plurality of pixel data located around the target position in the teacher signal ST from the student signal SS output from the MPEG2 decoder 153, and outputs the selected pixel data. 155. The prediction tap selection circuit 155 is configured in the same manner as the prediction tap selection circuit 122 of the image signal processing unit 110 described above.
[0124]
In addition, the coefficient data generation apparatus 150 includes a class classification unit 156 as a class detection unit that detects a class to which pixel data of the target position in the teacher signal ST belongs. The class classification unit 156 is configured in the same manner as the class classification unit 123 of the image signal processing unit 110 described above.
[0125]
This class classification unit 156 uses the plurality of pixel data constituting the student signal SS obtained from the MPEG2 decoder 153 and the class code CL0 generated by the class generation unit 154 to use the pixel data of the target position in the teacher signal ST. A class code CL indicating the class to which the file belongs is generated.
[0126]
The coefficient data generation device 150 also includes a delay circuit 157 for adjusting the time of the teacher signal ST supplied to the input terminal 151, and each position of interest obtained from the teacher signal ST adjusted in time by the delay circuit 157. The pixel data y, the pixel data xi of the prediction tap selectively extracted by the prediction tap selection circuit 155 corresponding to the pixel data y of each target position, and the class corresponding to the pixel data y of each target position From the class code CL generated by the classification unit 156, a normal equation generation unit 158 that generates a normal equation (see the above equation (8)) for obtaining coefficient data Wi (i = 1 to n) for each class. have.
[0127]
In this case, one learning data is generated by combining one pixel data y and pixel data xi of n prediction taps corresponding to the pixel data y. A lot of learning data is generated every time. As a result, the normal equation generation unit 158 generates a normal equation for obtaining coefficient data Wi (i = 1 to n) for each class.
[0128]
The coefficient data generation device 150 is supplied with the data of the normal equation generated by the normal equation generation unit 158, solves the normal equation, and obtains the coefficient data Wi of each class, and the coefficient data determination unit 159. And a coefficient memory 160 for storing the obtained coefficient data Wi of each class.
[0129]
Next, the operation of the coefficient data generation device 150 shown in FIG. 9 will be described.
A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the MPEG2 encoder 152 encodes the teacher signal ST to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153. The MPEG2 decoder 153 decodes the MPEG2 stream to generate a student signal SS corresponding to the image signal Va.
[0130]
The class generation unit 154 uses the picture information PI, residual data, and reference data output from the decoder 153, and the inaccuracy of the motion compensation vector information MI to which the pixel data of the target position in the teacher signal ST belongs. A class code CL0 indicating a class based on is generated.
[0131]
The class classification unit 156 uses the plurality of pixel data constituting the student signal SS obtained from the MPEG2 decoder 153 and the class code CL0 generated by the class generation unit 154 to generate pixel data of the target position in the teacher signal ST. A class code CL indicating the class to which it belongs is generated.
[0132]
In addition, the prediction tap selection circuit 155 selectively extracts pixel data of prediction taps located around the target position in the teacher signal ST from the student signal SS obtained from the MPEG2 decoder 153.
[0133]
Then, the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 157, and the prediction selectively extracted by the prediction tap selection circuit 155 corresponding to the pixel data y of each target position. Using the tap pixel data xi and the class code CL generated by the class classification unit 156 corresponding to the pixel data y of each target position, the normal equation generation unit 158 uses the coefficient data Wi ( A normal equation (see equation (8)) for obtaining i = 1 to n) is generated. This normal equation is solved by the coefficient data determination unit 159 to obtain the coefficient data Wi of each class, and the coefficient data Wi is stored in the coefficient memory 160.
[0134]
As described above, the coefficient data generation device 150 illustrated in FIG. 9 can generate the coefficient data Wi of each class stored in the coefficient memory 124 of the image signal processing unit 110 in FIG.
[0135]
The student signal SS is obtained by encoding the teacher signal ST to generate an MPEG2 stream and then decoding the MPEG2 stream. Therefore, the student signal SS includes the same coding noise as the image signal Va. Therefore, in the image signal processing unit 110 shown in FIG. 1, the image signal Vb obtained from the image signal Va using the coefficient data Wi has a coding noise reduced as compared with the image signal Va.
[0136]
Note that the processing in the image signal processing unit 110 in FIG. 1 can be realized by software, for example, by an image signal processing apparatus 300 as shown in FIG.
[0137]
First, the image signal processing apparatus 300 shown in FIG. 10 will be described. The image signal processing apparatus 300 includes a CPU 301 that controls the operation of the entire apparatus, a ROM (Read Only Memory) 302 that stores a control program of the CPU 301, coefficient data, and the like, and a RAM (Random) that constitutes a work area of the CPU 301. Access Memory) 303. These CPU 301, ROM 302, and RAM 303 are each connected to a bus 304.
[0138]
The image signal processing apparatus 300 also includes a hard disk drive (HDD) 305 as an external storage device and a drive (FDD) 307 that drives a floppy (registered trademark) disk 306. These drives 305 and 307 are each connected to a bus 304.
[0139]
In addition, the image signal processing apparatus 300 includes a communication unit 308 that is connected to a communication network 400 such as the Internet by wire or wirelessly. The communication unit 308 is connected to the bus 304 via the interface 309.
[0140]
In addition, the image signal processing device 300 includes a user interface unit. The user interface unit includes a remote control signal receiving circuit 310 that receives a remote control signal RM from the remote control transmitter 200, and a display 311 that includes an LCD (liquid Crystal Display) or the like. The receiving circuit 310 is connected to the bus 304 via the interface 312, and similarly the display 311 is connected to the bus 304 via the interface 313.
[0141]
Further, the image signal processing apparatus 300 has an input terminal 314 for inputting the image signal Va and an output terminal 315 for outputting the image signal Vb. The input terminal 314 is connected to the bus 304 via the interface 316, and similarly, the output terminal 315 is connected to the bus 304 via the interface 317.
[0142]
Here, instead of storing the control program and coefficient data in the ROM 302 in advance as described above, for example, they are downloaded from the communication network 400 such as the Internet via the communication unit 308 and stored in the hard disk or RAM 303 for use. You can also. These control programs, coefficient data, and the like may be provided on a floppy (registered trademark) disk 306.
[0143]
Further, instead of inputting the image signal Va to be processed from the input terminal 314, it may be recorded in advance on a hard disk or downloaded from the communication network 400 such as the Internet via the communication unit 308. Further, instead of outputting the processed image signal Vb to the output terminal 315 or in parallel therewith, it is supplied to the display 311 to display an image, further stored in a hard disk, the Internet via the communication unit 308, etc. It may be sent to the communication network 400.
[0144]
A processing procedure for obtaining the image signal Vb from the image signal Va in the image signal processing apparatus 300 shown in FIG. 10 will be described with reference to the flowchart of FIG.
First, in step ST21, processing is started, and in step S22, for example, an image signal Va for one frame or one field is input into the apparatus from the input terminal 314. In this case, picture information PI paired with each pixel data of the image signal Va is also input. The picture information PI is information indicating whether the pixel data relates to an I picture, a P picture, or a B picture. Further, in this case, residual data and reference data that are paired with each pixel data of the image signal Va and used when obtaining the pixel data are also input.
[0145]
Thus, the image signal Va and the like input from the input terminal 314 are temporarily stored in the RAM 303. If the image signal Va or the like is recorded in advance in the hard disk drive 305 in the apparatus, the image signal Va or the like is read from the drive 305 and the image signal Va or the like is temporarily stored in the RAM 303.
[0146]
In step ST23, it is determined whether or not the processing of all frames or all fields of the image signal Va has been completed. When the process is finished, the process ends in step ST24. On the other hand, when the process is not finished, the process proceeds to step ST25.
[0147]
In step ST25, the pixel data of the target position in the image signal Vb belongs using the picture information PI, residual data, and reference data paired with the pixel data of the image signal Va corresponding to the target position in the image signal Vb. The class code CL0 indicating the class based on the inaccuracy of the motion compensation vector information MI is generated, and the position of the target position in the image signal Vb is generated using the class code CL0 and a plurality of pixel data constituting the image signal Va. A class code CL indicating the class to which the pixel data belongs is generated.
[0148]
Next, in step ST26, a plurality of pixel data (prediction tap pixel data) located around the target position in the image signal Vb is acquired from the image signal Va input in step ST22. Then, in step ST27, using the coefficient data Wi corresponding to the class code CL generated in step ST25 and the pixel data xi of the prediction tap acquired in step ST26, based on the estimation expression of the expression (1), Pixel data y at the target position in the image signal Vb is generated.
[0149]
Next, in step ST28, it is determined whether or not the processing for obtaining the pixel data of the image signal Vb has been completed in the entire region of the pixel data of the image signal Va for one frame or one field input in step ST22. If completed, the process returns to step ST22, and the process proceeds to input processing of the image signal Va for the next one frame or one field. On the other hand, when the process has not been completed, the process returns to step ST25 and proceeds to the process for the next target position.
[0150]
In this way, by performing processing according to the flowchart shown in FIG. 11, the pixel data of the input image signal Va can be processed to obtain the pixel data of the image signal Vb. As described above, the image signal Vb obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be supplied to the hard disk. Or is recorded.
[0151]
Although illustration of the processing device is omitted, the processing in the coefficient data generation device 150 in FIG. 9 can also be realized by software.
[0152]
A processing procedure for generating coefficient data will be described with reference to the flowchart of FIG.
First, in step ST31, the process is started, and in step ST32, the teacher signal ST is input for one frame or one field. In step ST33, it is determined whether or not processing of all frames or all fields of the teacher signal ST has been completed. If not finished, in step ST34, the student signal SS is generated from the teacher signal ST input in step ST32.
[0153]
In this case, picture information PI paired with each pixel data of the student signal SS, and residual data and reference data used when obtaining the pixel data paired with each pixel data are also obtained. To.
[0154]
In step ST35, the pixel of the target position in the teacher signal ST is used by using the picture information PI paired with the pixel data of the student signal SS corresponding to the target position of the teacher signal ST, the residual data, and the reference data. A class code CL0 indicating a class based on the inaccuracy of the motion compensation vector information MI to which the data belongs is generated, and further using the class code CL0 and a plurality of pixel data constituting the student signal SS, the teacher signal ST A class code CL indicating the class to which the pixel data at the target position belongs is generated.
[0155]
Next, in step ST36, a plurality of pixel data (prediction tap pixel data) located around the target position in the teacher signal ST is acquired from the student signal SS generated in step ST34.
[0156]
Then, in step ST37, for each class, using the class code CL generated in step ST35, the pixel data xi of the prediction tap acquired in step ST36, and the pixel data y of the target position in the teacher signal ST, (8) Addition is performed to obtain the normal equation shown in the equation (see equations (6) and (7)).
[0157]
Next, in step ST38, it is determined whether or not the learning process has been completed in all regions of the pixel data of the teacher signal ST for one frame or one field input in step ST32. When the learning process is finished, the process returns to step ST32, the teacher signal ST for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the learning process is not finished, the process returns to step ST35 and moves to the process for the next attention position.
[0158]
When the process is completed in step ST33 described above, in step ST39, the normal equation of each class generated by the addition process in step ST37 described above is solved by a sweeping method or the like to calculate the coefficient data Wi of each class. To do. In step ST40, the coefficient data Wi of each class is stored in the memory, and then the process ends in step ST41.
[0159]
In this way, by performing processing according to the flowchart shown in FIG. 12, the coefficient data Wi of each class can be obtained by the same method as the coefficient data generation device 150 shown in FIG.
[0160]
In the above embodiment, the motion vector information (Δx, Δy) is detected using the edge component extracted from the reference data and the edge component extracted from the residual data, and this is used for decoding. This is information indicating the inaccuracy of the compensation vector information MI.
[0161]
However, the information indicating the inaccuracy of the motion compensation vector information MI is not limited to the motion vector information (Δx, Δy). For example, motion vector information MI is newly detected from the image signal Va by a method such as a block matching method or a gradient method, and this is compared with the vector information MI for motion compensation used at the time of decoding, thereby obtaining vector information MI for motion compensation. You may make it obtain the information which shows inaccuracy.
[0162]
In the above embodiment, the MPEG2 stream with DCT is handled. However, the present invention is also applicable to other coded digital image signals subjected to motion compensation predictive coding. Can be applied to. Further, instead of DCT, encoding with other orthogonal transforms such as a wavelet transform and a discrete sine transform may be used.
[0163]
【The invention's effect】
According to the present invention, a first image signal made up of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation predictive coding is encoded noise from a plurality of pixel data. Is converted to the second image signal with reduced light, the second used for motion compensation of the reference data used to obtain the pixel data of the first image signal corresponding to the position of interest in the second image signal Information indicating the inaccuracy of one motion vector information is acquired, and a class to which the pixel data of the target position in the second image signal belongs is detected using at least the information indicating the inaccuracy, and the class Thus, pixel data of the target position in the second image signal is generated, the accuracy of classification can be improved, and the quality of the second image signal can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a digital broadcast receiver as an embodiment.
FIG. 2 is a block diagram showing a configuration of an MPEG2 decoder.
FIG. 3 is a block diagram illustrating a configuration of a class generation unit.
FIG. 4 is a diagram illustrating an example of a coefficient ratio of a 3 × 3 Laplacian filter.
FIG. 5 is a diagram for explaining an example of block matching for correlation determination;
FIG. 6 is a diagram for explaining another example of block matching for correlation determination.
FIG. 7 is a block diagram illustrating a configuration of a class classification unit.
FIG. 8 is a diagram illustrating a tap selection block.
FIG. 9 is a block diagram illustrating a configuration of a coefficient data generation device.
FIG. 10 is a block diagram illustrating a configuration example of an image signal processing apparatus to be realized by software.
FIG. 11 is a flowchart showing image signal processing;
FIG. 12 is a flowchart showing coefficient data generation processing.
[Explanation of symbols]
31, 32... Input terminal, 32, 35... Edge component extraction circuit, 33, 36... Buffer memory, 37. Terminal: 100 ... Digital broadcast receiver 101 ... System controller 102 ... Remote control signal receiving circuit 105 ... Receiving antenna 106 ... Tuner unit 107 ... MPEG2 decoder 108, buffer memory, 110, image signal processing unit, 111, display unit, 121, class generation unit, 122, prediction tap selection circuit, 123, class classification unit, 124 .. Coefficient memory, 125 ... Estimated prediction calculation circuit, 150 ... Coefficient data generation device, 300 ... Image signal processing device

Claims (9)

動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する画像信号処理装置であって、
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1の抽出手段と、
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2の抽出手段と、
上記第1の抽出手段で抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2の抽出手段で抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記第2の画像信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する動きベクトル取得手段と、
少なくとも上記動きベクトル取得手段で取得された第2の動きベクトル情報から、上記第2の画像信号における注目位置の画素データが属するクラスを生成するクラス生成手段と、
上記クラス生成手段で生成されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化雑音を含む生徒信号と上記第2の画像信号に対応して符号化雑音を含まない教師信号との誤差を最小にする係数データを発生する係数データ発生手段と、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、
上記係数データ発生手段で発生された係数データおよび上記データ選択手段で選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る演算手段とを備える画像信号処理装置。
A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . An image signal processing device for converting to an image signal of
First extraction means for extracting an edge component from residual data used when obtaining pixel data of the first image signal corresponding to a target position in the second image signal;
Second extraction means for extracting an edge component from reference data used in obtaining pixel data of the first image signal corresponding to a target position in the second image signal ;
The frame composed of the edge component extracted by the first extraction means is defined as a first frame, the frame composed of the edge component extracted by the second extraction means is defined as a second frame, and the frame of the first frame From the correlation information between the block and the block of the second frame, second motion vector information corresponding to the position of interest in the second image signal is obtained, and the first motion vector used for motion compensation of the reference data is obtained. Motion vector acquisition means for acquiring the second motion vector information as information indicating inaccuracy of the motion vector information;
Class generation means for generating a class to which the pixel data at the position of interest in the second image signal belongs from at least the second motion vector information acquired by the motion vector acquisition means ;
A teacher signal that is obtained in advance for each class generated by the class generating means and includes a student signal including encoding noise corresponding to the first image signal and an encoding noise corresponding to the second image signal. Coefficient data generating means for generating coefficient data that minimizes an error from the signal;
Data selection means for selecting, from the first image signal, a plurality of pixel data located around the position of interest in the second image signal;
Images that calculates a plurality of pixel data selected by the generated coefficient data and said data selecting means in said coefficient data generation means Ru and an arithmetic means for obtaining pixel data of the target position in the second image signal Signal processing device.
上記動きベクトル取得手段は、
上記第1のフレームまたは上記第2のフレームを参照フレームとし、上記第2のフレームまたは上記第1のフレームを探索フレームとし、上記参照フレームの上記第2の画像信号における注目位置に対応したエッジ成分を含む参照ブロックと上記探索フレームの上記第2の画像信号における注目位置を中心とした所定の探索範囲内の複数の候補ブロックとの間の相関情報を検出する相関検出手段と、
上記相関検出手段で検出された上記複数の候補ブロックに対応した相関情報から、上記参照ブロックと最も相関の高い候補ブロックの位置情報を、上記第2の動きベクトル情報として出力する情報出力手段とを有する請求項に記載の画像信号処理装置。
The motion vector acquisition means includes
The first frame or the second frame is a reference frame, the second frame or the first frame is a search frame, and an edge component corresponding to the position of interest in the second image signal of the reference frame Correlation detecting means for detecting correlation information between a reference block including a plurality of candidate blocks within a predetermined search range centered on a target position in the second image signal of the search frame;
Information output means for outputting position information of a candidate block having the highest correlation with the reference block as the second motion vector information from correlation information corresponding to the plurality of candidate blocks detected by the correlation detection means. the image signal processing apparatus according to Motomeko 1 that Yusuke.
上記情報出力手段は、上記最も相関の高い候補ブロックの相関情報で示される相関レベルが予め設定された閾値より小さいときは、その旨を示す所定情報を出力し、
上記クラス生成手段は、上記情報出力手段が上記所定情報を出力するとき、上記第2の動きベクトル情報に代わって、該所定情報を用いて、上記第2の画像信号における注目位置の画素データが属するクラスを生成る請求項に記載の画像信号処理装置。
When the correlation level indicated by the correlation information of the candidate block with the highest correlation is smaller than a preset threshold, the information output means outputs predetermined information indicating that,
When the information output means outputs the predetermined information, the class generation means uses the predetermined information instead of the second motion vector information to obtain pixel data of the target position in the second image signal. the image signal processing apparatus according to Motomeko 2 that generates a class to which it belongs.
上記デジタル画像信号はMPEG方式の符号化が行われたものであって、
上記参照ブロックは、上記第2の画像信号における注目位置に対応した第1の画像信号の画素データを得る際に用いられたDCTブロックに対応したブロックである請求項に記載の画像信号処理装置。
The digital image signal has been subjected to MPEG encoding,
The reference block, an image signal according to Motomeko 2 Ru blocks der corresponding to DCT blocks used in obtaining the pixel data of the first image signal corresponding to the target position in the second image signal Processing equipment.
動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する画像信号処理方法であって、
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1のステップと、
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2のステップと、
上記第1のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記第2の画像信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第3のステップと、
少なくとも上記第3のステップで取得された第2の動きベクトル情報から、上記第2の画像信号における注目位置の画素データが属するクラスを生成する第のステップと、
上記第4のステップで生成されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化雑音を含む生徒信号と上記第2の画像信号に対応して符号化雑音を含まない教師信号との誤差を最小にする係数データを発生する第5のステップと、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、
上記第5のステップで発生された係数データおよび上記第6のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第7のステップとを備える画像信号処理方法。
A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensated predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . An image signal processing method for converting into an image signal of
A first step of extracting an edge component from residual data used when obtaining pixel data of the first image signal corresponding to a target position in the second image signal;
A second step of extracting an edge component from the reference data used in obtaining the pixel data of the first image signal corresponding to the target position in the second image signal ;
The frame composed of the edge component extracted in the first step is defined as a first frame, the frame composed of the edge component extracted in the second step is defined as a second frame, and the block of the first frame is defined as First motion vector used for motion compensation of the reference data by obtaining second motion vector information corresponding to the position of interest in the second image signal from the correlation information between the blocks of the second frame. A third step of obtaining the second motion vector information as information indicating information inaccuracy;
A fourth step of generating a class to which the pixel data of the target position in the second image signal belongs from at least the second motion vector information acquired in the third step;
A student signal that is obtained in advance for each class generated in the fourth step and includes coding noise corresponding to the first image signal and does not include coding noise corresponding to the second image signal. A fifth step of generating coefficient data that minimizes an error from the teacher signal;
A sixth step of selecting, from the first image signal, a plurality of pixel data located around a target position in the second image signal;
A seventh step of obtaining the pixel data of the target position in the second image signal by calculating the coefficient data generated in the fifth step and the plurality of pixel data selected in the sixth step. images signal processing method that.
動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換するために、
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1のステップと、
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2のステップと、
上記第1のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記第2の画像信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第3のステップと、
少なくとも上記第3のステップで取得された第2の動きベクトル情報から、上記第2の画像信号における注目位置の画素データが属するクラスを生成する第のステップと、
上記第4のステップで生成されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化雑音を含む生徒信号と上記第2の画像信号に対応して符号化雑音を含まない教師信号との誤差を最小にする係数データを発生する第5のステップと、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、
上記第5のステップで発生された係数データおよび上記第6のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第7のステップとを備える画像信号処理方法をコンピュータに実行させるためのプログラム。
A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensated predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . To convert the image signal to
A first step of extracting an edge component from residual data used when obtaining pixel data of the first image signal corresponding to a target position in the second image signal;
A second step of extracting an edge component from the reference data used in obtaining the pixel data of the first image signal corresponding to the target position in the second image signal ;
The frame composed of the edge component extracted in the first step is defined as a first frame, the frame composed of the edge component extracted in the second step is defined as a second frame, and the block of the first frame is defined as First motion vector used for motion compensation of the reference data by obtaining second motion vector information corresponding to the position of interest in the second image signal from the correlation information between the blocks of the second frame. A third step of obtaining the second motion vector information as information indicating information inaccuracy;
A fourth step of generating a class to which the pixel data of the target position in the second image signal belongs from at least the second motion vector information acquired in the third step;
A student signal that is obtained in advance for each class generated in the fourth step and includes coding noise corresponding to the first image signal and does not include coding noise corresponding to the second image signal. A fifth step of generating coefficient data that minimizes an error from the teacher signal;
A sixth step of selecting, from the first image signal, a plurality of pixel data located around a target position in the second image signal;
A seventh step of obtaining the pixel data of the target position in the second image signal by calculating the coefficient data generated in the fifth step and the plurality of pixel data selected in the sixth step. A program for causing a computer to execute an image signal processing method.
動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する際に使用される係数データを生成する装置であって、
上記第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る復号化手段と、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1の抽出手段と、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2の抽出手段と、
上記第1の抽出手段で抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2の抽出手段で抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記教師信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する動きベクトル取得手段と、
少なくとも上記動きベクトル取得手段で取得された第2の動きベクトル情報から、上記教師信号における注目位置の画素データが属するクラスを生成するクラス生成手段と、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、
上記クラス生成手段で生成されたクラス、上記データ選択手段で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める演算手段とを備える係数データ生成装置。
A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensated predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . an apparatus for generating a locking number data that is used when converting the image signal,
Decoding means for decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal;
First extraction means for extracting an edge component from residual data used when obtaining pixel data of the student signal corresponding to a target position in the teacher signal;
Second extraction means for extracting an edge component from reference data used when obtaining pixel data of the student signal corresponding to a target position in the teacher signal ;
The frame composed of the edge component extracted by the first extraction means is defined as a first frame, the frame composed of the edge component extracted by the second extraction means is defined as a second frame, and the frame of the first frame First motion vector information used for motion compensation of the reference data by obtaining second motion vector information corresponding to the position of interest in the teacher signal from the correlation information between the block and the block of the second frame Motion vector acquisition means for acquiring the second motion vector information as information indicating the inaccuracy of
Class generation means for generating a class to which the pixel data of the target position in the teacher signal belongs from at least the second motion vector information acquired by the motion vector acquisition means ;
Data selection means for selecting a plurality of pixel data located around the target position in the teacher signal from the student signal;
Class generated by the class generation means, from the pixel data for each of the classes of the target position in the plurality of pixel data and the teacher signal selected by the data selection means, a plurality of pixel data and the teacher according to the student signal engaging the number of data generating device Ru and an arithmetic means for obtaining the coefficient data that minimizes the error between the pixel data of the target position in the signal.
動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する際に使用される係数データを生成する方法であって、
上記第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る第1のステップと、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第2のステップと、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第3のステップと、
上記第2のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第3のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記教師信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第4のステップと、
少なくとも上記第4のステップで取得された第2の動きベクトル情報から、上記教師信号における注目位置の画素データが属するクラスを生成する第のステップと、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第のステップと、
上記第のステップで生成されたクラス、上記第のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第のステップとを備える係数データ生成方法。
A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensated predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . a method of producing the engagement number data that are used in converting the image signals,
A first step of decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal;
A second step of extracting an edge component from the residual data used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal;
A third step of extracting an edge component from reference data used when obtaining pixel data of the student signal corresponding to the target position in the teacher signal ;
The frame composed of the edge component extracted in the second step is a first frame, the frame composed of the edge component extracted in the third step is a second frame, and the block of the first frame is From the correlation information between the blocks of the second frame, second motion vector information corresponding to the position of interest in the teacher signal is obtained, and the first motion vector information used for motion compensation of the reference data is determined. A fourth step of acquiring the second motion vector information as information indicating accuracy;
A fifth step of generating a class to which the pixel data of the target position in the teacher signal belongs from at least the second motion vector information acquired in the fourth step;
A sixth step of selecting, from the student signal, a plurality of pixel data located around a target position in the teacher signal;
The fifth class generated in step, from the pixel data for each of the classes of the target position in the sixth plurality of pixel data and the teacher signal selected in step, and a plurality of pixel data in accordance with the student signal seventh step and engaging number data generation process of Ru with a seeking coefficient data that minimizes the error between the pixel data of the target position in the teacher signal.
動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する際に使用される係数データを生成するために、
上記第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る第1のステップと、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第2のステップと、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第3のステップと、
上記第2のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、 上記第3のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記教師信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第4のステップと、
少なくとも上記第4のステップで取得された第2の動きベクトル情報から、上記教師信号における注目位置の画素データが属するクラスを生成する第のステップと、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第のステップと、
上記第のステップで生成されたクラス、上記第のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第のステップとを備える係数データ生成方法をコンピュータに実行させるためのプログラム。
A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensated predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . to generate the engagement number data that is used when converting the image signal,
A first step of decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal;
A second step of extracting an edge component from the residual data used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal;
A third step of extracting an edge component from reference data used when obtaining pixel data of the student signal corresponding to the target position in the teacher signal ;
The frame composed of the edge component extracted in the second step is a first frame, the frame composed of the edge component extracted in the third step is a second frame, and the block of the first frame is From the correlation information between the blocks of the second frame, second motion vector information corresponding to the position of interest in the teacher signal is obtained, and the first motion vector information used for motion compensation of the reference data is determined. A fourth step of acquiring the second motion vector information as information indicating accuracy;
A fifth step of generating a class to which the pixel data of the target position in the teacher signal belongs from at least the second motion vector information acquired in the fourth step;
A sixth step of selecting, from the student signal, a plurality of pixel data located around a target position in the teacher signal;
The fifth class generated in step, from the pixel data for each of the classes of the target position in the sixth plurality of pixel data and the teacher signal selected in step, and a plurality of pixel data in accordance with the student signal A program for causing a computer to execute a coefficient data generation method comprising: a seventh step for obtaining coefficient data that minimizes an error from pixel data of a target position in the teacher signal .
JP2002337197A 2002-11-20 2002-11-20 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method Expired - Fee Related JP4206730B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002337197A JP4206730B2 (en) 2002-11-20 2002-11-20 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002337197A JP4206730B2 (en) 2002-11-20 2002-11-20 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method

Publications (2)

Publication Number Publication Date
JP2004173012A JP2004173012A (en) 2004-06-17
JP4206730B2 true JP4206730B2 (en) 2009-01-14

Family

ID=32700810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002337197A Expired - Fee Related JP4206730B2 (en) 2002-11-20 2002-11-20 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method

Country Status (1)

Country Link
JP (1) JP4206730B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1968308B1 (en) 2005-12-26 2011-02-23 Nikon Corporation Image processing method, image processing program, image processing device, and imaging device
JP4878047B2 (en) * 2008-10-22 2012-02-15 日本電信電話株式会社 Video encoding method, video decoding method, video encoding device, video decoding device, video encoding program, video decoding program, and recording medium thereof

Also Published As

Publication number Publication date
JP2004173012A (en) 2004-06-17

Similar Documents

Publication Publication Date Title
JP4462823B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
US8514939B2 (en) Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing
US20040184666A1 (en) Image encoder, image decoder, image encoding method, and image decoding method
JPH08307874A (en) Video signal encoding device
CN1293872A (en) Motion vector extrapolation for transcoding video sequences
JP4847076B2 (en) Method and transcoder for estimating output macroblocks and motion vectors for transcoding
JP2000278688A (en) Motion vector detector, its method and image processor
JP3874179B2 (en) Encoded video converter
JP4078906B2 (en) Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JP4206730B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
US7991054B2 (en) Information signal processing device, information signal processing method, image signal processing device, image displaying device, device and method for producing correction data used in them, device and method for producing coefficient data, programs for executing these methods, and computer-readable medium for storing the program
JP4158479B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP4140259B2 (en) Information signal processing apparatus, information signal processing method, program, and computer-readable medium
JP4158474B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP4158476B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP4154961B2 (en) Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JP3991800B2 (en) INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE SIGNAL PROCESSING DEVICE AND IMAGE DISPLAY DEVICE, CORRECTION DATA GENERATION DEVICE AND GENERATION METHOD USED FOR THE SAME, PROGRAM FOR EXECUTING each METHOD, AND COMPUTER READABLE RECORDING THE PROGRAM Medium
JP2004173013A (en) Motion vector detector and detection method, image signal processor using the method and processing method, coeeficient data generator for use in the processor and generation method, and program for implementing these methods
JP3991801B2 (en) Information signal processing apparatus, information signal processing method and image signal processing apparatus, correction data generation apparatus and generation method used therefor, coefficient data generation apparatus and generation method, and program for executing each method
KR100657714B1 (en) Method for coding image data using of 3d scanning
JP2002142222A (en) Screen size-changing device of compressed image
JP2008193712A (en) Coefficient type data generating apparatus and coefficient data generating apparatus
JP2005294967A (en) Video encoder
KR19990086000A (en) Detection method of reference macro block of MPEG decoder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051110

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080924

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081007

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121031

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131031

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees