JP4206730B2 - Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method - Google Patents
Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method Download PDFInfo
- Publication number
- JP4206730B2 JP4206730B2 JP2002337197A JP2002337197A JP4206730B2 JP 4206730 B2 JP4206730 B2 JP 4206730B2 JP 2002337197 A JP2002337197 A JP 2002337197A JP 2002337197 A JP2002337197 A JP 2002337197A JP 4206730 B2 JP4206730 B2 JP 4206730B2
- Authority
- JP
- Japan
- Prior art keywords
- image signal
- pixel data
- data
- frame
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
この発明は、画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムに関する。
【0002】
詳しくは、この発明は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる符号化雑音が軽減された第2の画像信号に変換する際、第2の画像信号における注目位置に対応した第1の画像信号の画素データを得る際に用いられたリファレンスデータの動き補償に使用された第1の動きベクトル情報の不正確さを示す情報を取得し、少なくともこの不正確さを示す情報を用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成することによって、クラス分類の精度を上げ、第2の画像信号の品質の向上を図るようにした画像信号処理装置等に係るものである。
【0003】
【従来の技術】
画像信号の圧縮符号化方式として、DCT(Discrete Cosine Transform)を用いたMPEG2(Moving Picture Experts Group 2)による符号化方式がある。この符号化方式では、ブロック毎に動き補償予測符号化が行われる。
【0004】
DCTは、ブロック内の画素に対して離散コサイン変換を施し、その離散コサイン変換により得られた係数データを再量子化し、さらにこの再量子化された係数データを可変長符号化するものである。この可変長符号化には、ハフマン符号等のエントロピー符号化が用いられることが多い。画像信号は直交変換されることにより、低周波から高周波までの多数の周波数データに分割される。
【0005】
この分割された周波数データに再量子化を施す場合、人間の視覚特性を考慮し、重要度の高い低周波データに関しては、細かく量子化を施し、重要度の低い高周波のデータに関しては、粗く量子化を施すことで、高画質を保持し、しかも効率が良い圧縮が実現できるという特長を有している。
【0006】
従来のDCTを用いた復号は、各周波数成分毎の量子化データをそのコードの代表値に変換し、それらの成分に対して逆DCT(IDCT:Inverce DCT)を施すことにより、再生データを得る。この代表値へ変換する時には、符号化時の量子化ステップ幅が使用される。
【0007】
【発明が解決しようとする課題】
上述のように、DCTを用いたMPEGによる符号化方式では、人間の視覚特性を考慮した符号化を行うことにより、高画質を保持し、高効率の圧縮が実現できるという特長がある。
【0008】
しかし、DCTを行う符号化はブロックを単位とした処理であることから、圧縮率が高くなるに従い、ブロック状の雑音、いわゆるブロック雑音(ブロック歪み)が発生することがある。また、エッジ等の急激な輝度変化がある部分には、高周波成分を粗く量子化したことによるざわざわとした雑音、いわゆるモスキート雑音が発生する。
【0009】
これらブロック雑音、モスキート雑音等の符号化雑音を、クラス分類適応処理によって軽減することが考えられる。すなわち、符号化雑音を含む画像信号を第1の画像信号とし、符号化雑音が軽減された画像信号を第2の画像信号とし、第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものである。この場合、第2の画像信号の品質の向上を図るには、クラス分類の精度を上げる必要がある。
【0010】
なお、第2の画像信号における注目位置に対応した第1の画像信号の画素データのうち、Pピクチャ、Bピクチャに係る画素データは、DCT変換を施して得られた残差データに、動き補償用ベクトル情報で動き補償されたリファレンスデータを加算することで生成される。
【0011】
そのため、このPピクチャ、Bピクチャに係る画素データは、動き補償用ベクトル情報の不正確さにより影響を受けたものとなっている。したがって、この動き補償用ベクトル情報の不正確さの情報に基づいてクラス分類を行えば、クラス分類の精度が上がるものと考えられる。
【0012】
この発明は、クラス分類の精度を上げ、第2の画像信号の品質の向上を図ることを目的とする。
【0013】
【課題を解決するための手段】
この発明に係る画像信号処理装置は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する画像信号処理装置であって、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1の抽出手段と、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2の抽出手段と、上記第1の抽出手段で抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2の抽出手段で抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記第2の画像信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する動きベクトル取得手段と、少なくとも上記動きベクトル取得手段で取得された第2の動きベクトル情報から、上記第2の画像信号における注目位置の画素データが属するクラスを生成するクラス生成手段と、上記クラス生成手段で生成されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化雑音を含む生徒信号と上記第2の画像信号に対応して符号化雑音を含まない教師信号との誤差を最小にする係数データを発生する係数データ発生手段と、上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、上記係数データ発生手段で発生された係数データおよび上記データ選択手段で選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る演算手段とを備えるものである。
【0014】
また、この発明に係る画像信号処理方法は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する画像信号処理方法であって、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1のステップと、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2のステップと、上記第1のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記第2の画像信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第3のステップと、少なくとも上記第3のステップで取得された第2の動きベクトル情報から、上記第2の画像信号における注目位置の画素データが属するクラスを生成する第4のステップと、上記第4のステップで生成されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化雑音を含む生徒信号と上記第2の画像信号に対応して符号化雑音を含まない教師信号との誤差を最小にする係数データを発生する第5のステップと、上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、上記第5のステップで発生された係数データおよび上記第6のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第7のステップとを備えるものである。
【0015】
また、この発明に係るプログラムは、上述の画像信号処理方法をコンピュータに実行させるためのものである。
【0016】
この発明において、複数の画素データからなる第1の画像信号は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成されたものである。例えば、デジタル画像信号は、MPEG方式の符号化が行われたものである。
【0017】
第2の画像信号における注目位置に対応した第1の画像信号の画素データは、その注目位置に対応した残差データに、第1の動きベクトル情報で動き補償されたリファレンスデータを加算することで生成される。この第1の動きベクトル情報の不正確さを示す情報が取得される。
【0018】
例えば、この不正確さを示す情報は、以下のようにして取得される。すなわち、第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分が抽出され、このエッジ成分からなるフレームが第1のフレームとされる。また、第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分が抽出され、このエッジ成分からなるフレームが第2のフレームとされる。そして、これら第1、第2のフレームが用いられて、第2の画像信号における注目位置に対応した第2の動きベクトル情報が検出され、これが不正確さを示す情報とされる。
【0019】
この場合、第2の動きベクトル情報は、例えば以下のようにして得られる。すなわち、第1または第2のフレームが参照フレームとされ、第2または第1のフレームが探索フレームとされる。そして、参照フレームの第2の画像信号における注目位置に対応したエッジ成分を含む参照ブロックと、探索フレームの第2の画像信号における注目位置を中心とした所定の探索範囲内の複数の候補ブロックとの間の相関情報が検出される。そして、検出された複数の候補ブロックに対応した相関情報に基づき、参照ブロックと最も相関の高い候補ブロックの位置情報が、第2の動きベクトル情報として出力される。
【0020】
少なくとも、この第1の動きベクトル情報の不正確さを示す情報を用いて、第2の画像信号における注目位置の画素データが属するクラスが検出される。なお、この不正確さを示す情報として、上述したように第2の動きベクトル情報を出力するものにあっては、例えば最も相関の高い候補ブロックの相関情報で示される相関レベルが予め設定された閾値より小さいときは、その旨を示す所定情報を出力するようにされる。その場合には、第2の動きベクトル情報に代わって、この所定情報を用いて、第2の画像信号における注目位置の画素データが属するクラスが検出される。この場合には、この第2の動きベクトル情報自体の不正確さが大きいことから、これを用いたクラス分類をすることによって、逆にクラス分類の精度の低下を招くからである。
【0021】
このように検出されたクラスに対応して、第2の画像信号における注目位置の画素データが生成される。例えば、以下のようにして、画素データが生成される。すなわち、クラスに対応した、推定式で用いられる係数データが発生される。また、第1の画像信号に基づいて、第2の画像信号における注目位置の周辺に位置する複数の画素データが選択される。そして、これら係数データおよび複数の画素データが用いられ、推定式に基づいて第2の画像信号における注目位置の画素データが算出される。
【0022】
このように、第2の画像信号における注目位置に対応した第1の画像信号の画素データを得る際に用いられたリファレンスデータの動き補償に使用された第1の動きベクトル情報の不正確さを示す情報を取得し、少なくともこの不正確さを示す情報を用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものであり、クラス分類の精度を上げることができ、第2の画像信号の品質の向上を図ることができる。
【0023】
この発明に係る係数データ生成装置は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する際に使用される係数データを生成する装置であって、上記第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る復号化手段と、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1の抽出手段と、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2の抽出手段と、上記第1の抽出手段で抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2の抽出手段で抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記教師信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する動きベクトル取得手段と、少なくとも上記動きベクトル取得手段で取得された第2の動きベクトル情報から、上記教師信号における注目位置の画素データが属するクラスを生成するクラス生成手段と、上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、上記クラス生成手段で生成されたクラス、上記データ選択手段で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める演算手段とを備えるものである。
【0024】
また、この発明に係る係数データ生成方法は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、符号化雑音が低減された複数の画素データからなる第2の画像信号に変換する際に使用される係数データを生成する方法であって、上記第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る第1のステップと、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第2のステップと、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第3のステップと、上記第2のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第3のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記教師信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第4のステップと、少なくとも上記第4のステップで取得された第2の動きベクトル情報から、上記教師信号における注目位置の画素データが属するクラスを生成する第5のステップと、上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、上記第5のステップで生成されたクラス、上記第6のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第7のステップとを備えるものである。
【0025】
また、この発明に係るプログラムは、上述の係数データ生成方法をコンピュータに実行させるためのものである。
【0026】
この発明において、複数の画素データからなる第1の画像信号は、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成されたものである。この発明は、この第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際に使用される推定式の係数データを生成するものである。
【0027】
教師信号における注目位置に対応した生徒信号の画素データは、その注目位置に対応した残差データに、第1の動きベクトル情報で動き補償されたリファレンスデータを加算することで生成される。この第1の動きベクトル情報の不正確さを示す情報が取得される。そして、少なくとも、この不正確さを示す情報を用いて、教師信号における注目位置の画素データが属するクラスが検出される。
【0028】
また、生徒信号に基づいて、教師信号における注目位置の周辺に位置する複数の画素データが選択される。そして、教師信号における注目位置の画素データが属するクラス、選択された複数の画素データおよび教師信号における注目位置の画素データを用いて、クラス毎に、係数データが求められる。
【0029】
上述したようにして第1の画像信号を第2の画像信号に変換する際に使用される推定式の係数データが生成されるが、第1の画像信号から第2の画像信号に変換する際には、第2の画像信号における注目位置の画素データが属するクラスに対応した係数データが選択的に使用されて、推定式により、第2の画像信号における注目位置の画素データが算出される。
【0030】
これにより、推定式を使用して第1の画像信号から第2の画像信号に変換する場合に、クラス分類の精度を向上させることができ、第2の画像信号の品質の向上を図ることができる。
【0031】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのデジタル放送受信機100の構成を示している。
【0032】
このデジタル放送受信機100は、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号RMを受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。
【0033】
また、デジタル放送受信機100は、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106とを有している。
【0034】
また、デジタル放送受信機100は、このチューナ部106より出力されるMPEG2ストリームを復号化して画像信号Vaを得るMPEG2復号化器107と、このMPEG2復号化器107より出力される画像信号Vaを一時的に格納するバッファメモリ108とを有している。
【0035】
なお、本実施の形態において、MPEG2復号化器107からは、画像信号Vaを構成する各画素データの他に、ピクチャ情報PIも出力される。バッファメモリ108には、各画素データと対にしてピクチャ情報PIも格納される。ピクチャ情報PIは、出力される画素データがIピクチャ(Intra-Picture)、Pピクチャ(Predictive-Picture)、Bピクチャ(Bidirectionally predictive-Picture)のいずれのピクチャに係るものであったかを示す情報である。
【0036】
さらに、MPEG2復号化器107からは、画像信号Vaを構成する画素データのうちPピクチャ、Bピクチャに係る画素データに対応して、その画素データを得る際に使用された残差データおよびリファレンスデータも出力される。この場合、リファレンスデータは、動き補償用ベクトル情報MIに基づいて、動き補償されたものである。バッファメモリ108には、Pピクチャ、Bピクチャの画素データと対にして、残差データおよびリファレンスデータも格納される。
【0037】
ここで、Pピクチャの場合には前方向からの予測符号化であるので、1個の画素データに対応してリファレンスデータは前方向についてのみ存在するが、Bピクチャの場合には両方向からの予測符号化であるので、1個の画素データに対応してリファレンスデータはそれぞれの方向について存在する。因に、Bピクチャの場合には、これらそれぞれの方向についてのリファレンスデータの加算平均値が、残差データに加算すべきリファレンスデータVrefとなる。
【0038】
図2は、MPEG2復号化器107の構成を示している。
この復号化器107は、MPEG2ストリームが入力される入力端子71と、この入力端子71に入力されたMPEG2ストリームを一時的に格納するストリームバッファ72とを有している。
【0039】
また、この復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより周波数係数としてのDCT(Discrete Cosine Transform:離散コサイン変換)係数を抽出する抽出回路73と、この抽出回路73で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路74とを有している。
【0040】
また、この復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより量子化特性指定情報QIを抽出する抽出回路75と、この量子化特性指定情報QIに基づいて、可変長復号化回路74より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路76と、この逆量子化回路76より出力されるDCT係数に対して逆DCTを行う逆DCT回路77とを有している。
【0041】
また、復号化器107は、IピクチャおよびPピクチャの画素データをメモリ(図示せず)に記憶すると共に、これらの画素データを用いて逆DCT回路77からPピクチャまたはBピクチャの残差データが出力されるとき、対応するリファレンスデータVrefを生成して出力する予測メモリ回路78を有している。
【0042】
また、復号化器107は、逆DCT回路77からPピクチャまたはBピクチャの残差データが出力されるとき、その残差データに予測メモリ回路78で生成されたリファレンスデータVrefを加算する加算回路79と、この加算回路79より出力される各ピクチャの画素データを画像信号Vaとして出力する出力端子81とを有している。なお、逆DCT回路77からIピクチャの画素データが出力されるとき、予測メモリ回路78から加算回路79にリファレンスデータVrefは供給されず、従って加算回路79からは逆DCT回路77より出力されるIピクチャの画素データがそのまま出力される。
【0043】
ここで、MPEG方式の符号化では、従来周知のように、実際のフレーム/フィールドの順番とは異なる順番で符号化が行われている。すなわち、Iピクチャ、Pピクチャの画像信号が先に符号化され、それらの間に挟まれたBピクチャの画像信号はその後に符号化される。出力端子81には、その符号化の順番で各ピクチャの画像信号Vaが出力される。なお、本実施の形態においては、上述したバッファメモリ108から画像信号Vaを読み出す際に、各ピクチャの画像信号が符号化の順番から実際のフレーム/フィールドの順番に並べ直される。
【0044】
また、復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより符号化制御情報、すなわちピクチャ情報PI、動き補償用ベクトル情報MIを抽出する抽出回路82と、この抽出回路82で抽出されたピクチャ情報PIを出力する出力端子83とを有している。
【0045】
抽出回路82で抽出される動き補償用ベクトル情報MIは予測メモリ回路78に供給され、この予測メモリ回路78ではこの動き補償用ベクトル情報MIを用いてリファレンスデータVrefを生成する際に動き補償が行われる。抽出回路82で抽出されるピクチャ情報PIも予測メモリ回路78に供給される。予測メモリ回路78ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。
【0046】
また、復号化器107は、逆DCT回路77から出力されるPピクチャ、Bピクチャに係る残差データを出力する出力端子84と、予測メモリ回路78より出力されるPピクチャ、Bピクチャに係るリファレンスデータを出力する出力端子85とを有している。
【0047】
図2に示すMPEG2復号化器107の動作を説明する。
ストリームバッファ72に記憶されているMPEG2ストリームが抽出回路73に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路74に供給されて復号化される。そして、この可変長復号化回路74より出力される各DCTブロックの量子化DCT係数が逆量子化回路76に供給されて逆量子化が施される。
【0048】
逆量子化回路76より出力される各DCTブロックのDCT係数に対して逆DCT回路77で逆DCTが施されて各ピクチャのデータが得られる。この各ピクチャのデータは加算回路79を介して出力端子81に出力される。この場合、逆DCT回路77からPピクチャまたはBピクチャの残差データが出力されるとき、加算回路79で予測メモリ回路78より出力されるリファレンスデータVrefが加算される。
【0049】
なお、出力端子81より出力される画像信号Vaを構成する各画素データと対となって、出力端子83に、ピクチャ情報PIが出力される。また、出力端子81より出力される画像信号Vaを構成する画素データのうちPピクチャ、Bピクチャに係る画素データと対となって、出力端子84および出力端子85に、それぞれ、その画素データを得る際に使用された残差データおよびリファレンスデータも出力される。
【0050】
図1に戻って、また、デジタル放送受信機100は、バッファメモリ108に記憶されている画像信号Vaを、ブロック雑音(ブロック歪み)やモスキート雑音などの符号化雑音が低減された画像信号Vbに変換する画像信号処理部110と、この画像信号処理部110より出力される画像信号Vbによる画像を表示するディスプレイ部111とを有している。ディスプレイ部111は、例えばCRT(Cathode-Ray Tube)ディスプレイ、あるいはLCD(Liquid Crystal Display)等の表示器で構成されている。
【0051】
図1に示すデジタル放送受信機100の動作を説明する。
チューナ部106より出力されるMPEG2ストリームはMPEG2復号化器107に供給されて復号化される。そして、この復号化器107より出力される画像信号Vaは、バッファメモリ108に供給されて一時的に格納される。
【0052】
この場合、復号器107からは、画像信号Vaの各画素データと対となって、ピクチャ情報PIが出力される。また、符号化器107からは、Pピクチャ、Bピクチャに係る画素データと対となって、残差データおよびリファレンスデータも出力される。これらの情報およびデーターもバッファメモリ108に一時的に格納される。
【0053】
このようにバッファメモリ108に一時的に格納された画像信号Vaは画像信号処理部110に供給され、符号化雑音が低減された画像信号Vbに変換される。この画像信号処理部110では、画像信号Vaを構成する画素データから、画像信号Vbを構成する画素データが生成される。この画像信号処理部110では、バッファメモリ108に格納されているピクチャ情報PI、さらには残差データおよびリファレンスデータが用いられて、後述するように変換処理が行われる。
【0054】
画像信号処理部110より出力される画像信号Vbはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vbによる画像が表示される。
【0055】
次に、画像信号処理部110の詳細を説明する。
画像信号処理部110は、画像信号Vbにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成するクラス生成部121を有している。クラス生成部121では、バッファメモリ108に格納されている、ピクチャ情報PI、残差データおよびリファレンスデータが用いられて、クラスコードCL0が生成される。
【0056】
図3は、クラス生成部121の具体的な構成を示している。
このクラス生成部121は、上述したバッファメモリ108にPピクチャ、Bピクチャに係る画素データと対となって格納されているリファレンスデータが入力される入力端子31と、この入力端子31に入力されたリファレンスデータからエッジ成分を抽出するエッジ成分抽出回路32と、この抽出回路32で抽出されたリファレンスデータのエッジ成分を一時的に格納するバッファメモリ33とを有している。
【0057】
エッジ成分抽出回路32は、2次元微分フィルタ、例えば3×3のラプラシアンフィルタで構成される。図4は、3×3のラプラシアンフィルタの係数比の一例を示している。上述したように、Pピクチャの場合には1個の画素データに対応してリファレンスデータは前方向についてのみ存在するが、Bピクチャの場合には1個の画素データに対応してリファレンスデータはそれぞれの方向について存在する。そのため、エッジ成分抽出回路32は、Pピクチャの場合には前方向のリファレンスデータからエッジ成分を検出するが、Bピクチャの場合には前方向および後方向のリファレンスデータのそれぞれからエッジ成分を検出する。
【0058】
また、クラス生成部121は、上述したバッファメモリ108にPピクチャ、Bピクチャに係る画素データと対となって格納されている残差データが入力される入力端子34と、この入力端子34に入力された残差データからエッジ成分を抽出するエッジ成分抽出回路35と、この抽出回路35で抽出されたリファレンスデータのエッジ成分を一時的に格納するバッファメモリ36とを有している。
【0059】
エッジ成分抽出回路35も、上述したエッジ成分抽出回路32と同様に、2次元微分フィルタ、例えば3×3のラプラシアンフィルタで構成される。この場合、残差データは負の値も採るので、残差データの全ての値が正の値となるようにオフセットした上で、エッジ成分の抽出処理をする。例えば、残差データが−128〜+128の値を採る場合、残差データに+128を加算した後に、エッジ成分の抽出処理をする。
【0060】
また、クラス生成部121は、画像信号Vbにおける注目位置に対応した動きベクトル情報(第2の動きベクトル情報)を、動き補償用ベクトル情報MI(第1の動きベクトル情報)の不正確さを示す情報として得る、動きベクトル取得手段としての相関判定部37を有している。相関判定部37は、第1のフレームおよび第2のフレームを用いて、画像信号Vbにおける注目位置に対応した動きベクトル情報を取得する。
【0061】
ここで、第1のフレームは、バッファメモリ36に格納された、画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データに係る残差データのエッジ成分を含むフレームである。第2のフレームは、バッファメモリ33に格納された、画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データに係るリファレンスデータのエッジ成分を含むフレームである。
【0062】
相関判定部37は、例えばブロックマッチング法によって、動きベクトル情報を取得する。この場合、画素毎またはブロック毎に、動きベクトル情報を取得する。
【0063】
図5を参照して、画素毎に、動きベクトル情報(Δx,Δy)を取得する場合について説明する。
この場合、例えば、図示のように、第1のフレームを参照フレームとし、第2のフレームを探索フレームとする。なお、第2のフレームを参照フレームとし、第1のフレームを探索フレームとしてもよい。そして、参照フレームに、画像信号Vbにおける注目位置に対応した注目画素を中心とした参照ブロックを考える。また、探索フレームに、画像信号Vbにおける注目位置を中心とした探索範囲を考える。探索範囲は、例えば垂直、水平のそれぞれの方向に±2程度とする。
【0064】
そして、参照ブロックと探索範囲内の複数の候補ブロックとの間の相関情報を検出する。相関情報は、例えば参照ブロックと候補ブロックとの間の対応するエッジ成分同士の差分絶対値を加算した差分絶対値和とされる。この差分絶対値和は、参照ブロックと候補ブロックとの相関レベルが高いほど小さくなる。
【0065】
そして、このように検出された複数の候補ブロックに対応した相関情報に基づき、最も相関の高い候補ブロックの位置情報を、動きベクトル情報(Δx,Δy)として出力する。この場合、相関情報が上述の差分絶対値和であるときは、その差分絶対値和が最も小さい候補ブロックが最も相関の高い候補ブロックとなる。
【0066】
図6を参照して、ブロック毎に、動きベクトル情報を取得する場合について説明する。
この場合、例えば、図示のように、第1のフレームを参照フレームとし、第2のフレームを探索フレームとする。なお、第2のフレームを参照フレームとし、第1のフレームを探索フレームとしてもよい。そして、参照フレームに、画像信号Vbにおける注目位置に対応した注目画素を含む参照ブロックを考える。この参照ブロックは、例えば画像信号Vbにおける注目位置に対応した画像信号Vaの画素データを得る際に用いられたDCTブロックに対応したブロックである。また、探索フレームに、画像信号Vbにおける注目位置を中心とした探索範囲を考える。例えば、探索範囲は、例えば垂直、水平のそれぞれの方向に±2程度とする。
【0067】
そして、参照ブロックと探索範囲内の複数の候補ブロックとの間の相関情報を検出する。相関情報は、例えば参照ブロックと候補ブロックとの間の対応するエッジ成分同士の差分絶対値を加算した差分絶対値和とされる。この差分絶対値和は、参照ブロックと候補ブロックとの相関レベルが高いほど小さくなる。
【0068】
そして、このように検出された複数の候補ブロックに対応した相関情報に基づき、最も相関の高い候補ブロックの位置情報を、動きベクトル情報(Δx,Δy)として出力する。この場合、相関情報が上述の差分絶対値和であるときは、その差分絶対値和が最も小さい候補ブロックが最も相関の高い候補ブロックとなる。
【0069】
このように、相関判定部37は、相関情報を検出する相関検出手段および動きベクトル情報を出力する情報出力手段として機能し、動きベクトル情報(Δx,Δy)を出力する。上述したように、リファレンスデータは、復号化器107(図2参照)において、動き補償用ベクトル情報MIに基づいて動き補償されたものである。そのため、本来、第2のフレームにおけるリファレンスデータから抽出されたエッジ成分と第1のフレームにおける残差データから抽出されたエッジ成分とは対応しており、動きベクトル情報(Δx,Δy)=(0,0)となるはずである。
【0070】
しかし、動き補償用ベクトル情報MIが不正確である場合には、動きベクトル情報(Δx,Δy)=(0,0)とはならず、不正確の度合いが高くなるほどΔx,Δyの値(絶対値)は大きくなる。したがって、この動きベクトル情報(Δx,Δy)は、動き補償用ベクトル情報MIの不正確さを示す情報と言える。
【0071】
なお、上述したように、Pピクチャの場合には1個の画素データに対応してリファレンスデータは前方向についてのみ存在するが、Bピクチャの場合には1個の画素データに対応してリファレンスデータはそれぞれの方向について存在する。そのため、相関判定部37は、Pピクチャの場合には前方向のリファレンスデータに係る動きベクトル情報(Δx,Δy)のみを取得するが、Bピクチャの場合には前方向および後方向のリファレンスデータのそれぞれに係る動きベクトル情報(Δx,Δy)を取得する。
【0072】
また、相関判定部37は、最も相関の高い候補ブロックの相関レベルが予め設定された閾値より小さいとき、例えば最も相関の高い候補ブロックに係る差分絶対値和が閾値より大きいときは、動きベクトル情報に代えてその旨を示す情報NGを出力する。これは、不正確な動きベクトル情報(Δx,Δy)によるクラス分類を回避し、クラス分類の精度が低下を防止するためである。
【0073】
また、クラス生成部37は、クラス生成回路38と、このクラス生成回路38で生成されたクラスコードCL0を出力する出力端子39とを有している。クラス生成回路38には、画像信号Vbにおける注目位置に対応した画像信号Vaの画素データと対となっているピクチャ情報PIが、動作制御情報として供給される。
【0074】
クラス生成回路38は、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成する。また、クラス生成回路38は、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、相関判定部37より出力される動きベクトル情報(Δx,Δy)または情報NGに基づいて、クラスコードCL0を生成する。
【0075】
図3に示す残差クラス生成部121において、画像信号Vbにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成するための動作を説明する。
【0076】
入力端子31には、バッファメモリ108にPピクチャ、Bピクチャに係る画素データと対となって格納されているリファレンスデータが入力され、このリファレンスデータはエッジ成分抽出回路32に供給される。エッジ成分抽出回路32はリファレンスデータからエッジ成分を抽出する。この抽出回路32で抽出されたエッジ成分はバッファメモリ33に供給されて一時的に格納される。
【0077】
また、入力端子34には、バッファメモリ108にPピクチャ、Bピクチャに係る画素データと対となって格納されている残差データが入力され、この残差データはエッジ成分抽出回路35に供給される。エッジ成分抽出回路35は残差データからエッジ成分を抽出する。この抽出回路35で抽出されたエッジ成分はバッファメモリ36に供給されて一時的に格納される。
【0078】
相関判定部37は、バッファメモリ36に格納された、画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データに係る残差データのエッジ成分を含むフレームを第1のフレームとし、またバッファメモリ33に格納された、画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データに係るリファレンスデータのエッジ成分を含むフレームを第2のフレームとする。そして、相関判定部37は、これら第1のフレームおよび第2のフレームを用いて、画像信号Vbにおける注目位置に対応した動きベクトル情報(Δx,Δy)を、例えばブロックマッチング法によって取得する。この動きベクトル情報(Δx,Δy)は、動き補償用ベクトル情報MIの不正確さを示す情報となる。
【0079】
この場合、相関判定部37は、Pピクチャの場合には前方向のリファレンスデータに係る動きベクトル情報(Δx,Δy)のみを取得するが、Bピクチャの場合には前方向および後方向のリファレンスデータのそれぞれに係る動きベクトル情報(Δx,Δy)を取得する。また、最も相関の高い候補ブロックの相関レベルが予め設定された閾値より小さいときは、動きベクトル情報に代えてその旨を示す情報NGを出力する。
【0080】
相関判定部37より出力される動きベクトル情報(Δx,Δy)または情報NGは、クラス生成回路38に供給される。クラス生成回路38は、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成する。また、クラス生成回路38は、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、動きベクトル情報(Δx,Δy)または情報NGに基づいて、クラスコードCL0を生成する。このように生成されたクラスコードCL0は出力端子39に出力される。
【0081】
このように図3に示すクラス生成部121では、画像信号Vbにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0が生成される。
【0082】
図1に戻って、また、画像信号処理部110は、バッファメモリ108に記憶されている画像信号Vaより、画像信号Vbにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力するデータ選択手段としての予測タップ選択回路122を有している。この予測タップ選択回路122は、予測に使用する予測タップの複数の画素データを選択的に取り出すものである。
【0083】
また、画像信号処理部110は、画像信号Vbにおける注目位置の画素データが属するクラスを検出するクラス検出手段としてのクラス分類部123を有している。
【0084】
このクラス分類部123は、バッファメモリ108に記憶されている画像信号Vaを構成する複数の画素データおよびクラス生成部121で生成されクラスコードCL0を用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0085】
図7は、クラス分類部123の構成を示している。
このクラス分類部123は、画像信号Vaを入力する入力端子50Aと、この入力端子50Aに入力される画像信号Vaに基づいて、画像信号Vbにおける注目位置の画素データが属するn種類のクラスを検出するために使用するクラスタップの複数の画素データをそれぞれ選択的に取り出すタップ選択回路50B1〜50Bnと、このタップ選択回路50B1〜50Bnで取り出された画素データをそれぞれ用いてn種類のクラスを示すクラスコードCL1〜CLnを生成するクラス生成回路50C1〜50Cnとを有している。
【0086】
本実施の形態においては、6種類のクラスを示すクラスコードCL1〜CL6を生成する。6種類のクラスは、空間波形クラス、時間変動クラス、AC変動クラス、フラットクラス、ライン相関クラス、ブロックエッジクラスである。各クラスについて簡単に説明する。
【0087】
▲1▼空間波形クラスを説明する。タップ選択回路50B1およびクラス生成回路50C1は、この空間波形クラスの検出系を構成しているものとする。
タップ選択回路50B1は、画像信号VaのTフレーム(現在フレーム)およびT−1フレーム(1フレーム前のフレーム)より、画像信号Vbにおける注目位置に対して空間方向(水平方向、垂直方向)の周辺に位置する複数の画素データを選択的に取り出すものであり、上述した予測タップ選択回路122と同様のものである。クラス生成回路50C1は、タップ選択回路50B1で選択された複数の画素データのそれぞれに例えば1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施し、空間波形クラスを示すクラスコードCL1を生成する。
【0088】
▲2▼時間変動クラスを説明する。タップ選択回路50B2およびクラス生成回路50C2は、この時間変動クラスの検出系を構成しているものとする。
タップ選択回路50B2は、画像信号Vaの現在フレーム(Tフレーム)から、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図8に示す注目ブロック)の画素データを取り出すと共に、画像信号Vaの1フレーム前の過去フレーム(T−1フレーム)から、注目ブロックに対応したブロック(図8に示す過去ブロック)の画素データを取り出す。
【0089】
クラス生成回路50C2は、注目ブロックの8×8個の画素データと過去ブロックの8×8個の画素データとの間で対応する画素毎に減算を行って8×8個の差分値を求め、さらにこの8×8個の差分値の二乗和を求め、この二乗和を閾値判定して、時間変動クラスを示すクラスコードCL2を生成する。
【0090】
▲3▼AC変動クラスを説明する。タップ選択回路50B3およびクラス生成回路50C3は、このAC変動クラスの検出系を構成しているものとする。
タップ選択回路50B3は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図8に示す注目ブロック)の画素データを取り出すと共に、画像信号Vaの1フレーム前の過去フレームから、注目ブロックに対応したブロック(図8に示す過去ブロック)の画素データを取り出す。
【0091】
クラス生成回路50C3は、注目ブロックの8×8個の画素データと、過去ブロックの8×8個の画素データとのそれぞれに対して、DCT処理を施してDCT係数(周波数係数)を求める。そして、クラス生成回路50C3は、AC部分の各基底位置において、どちらかに係数が存在する基底位置の数m1と、そのうち符号反転しているものおよび片方の係数が0であるものの基底位置の数m2を求め、m1/m2を閾値判定して、AC変動クラスを示すクラスコードCL3を生成する。時間変動の少ないブロックでは、このAC変動クラスにより、モスキート歪みに対応したクラス分類を行うことが可能である。
【0092】
▲4▼フラットクラスを説明する。タップ選択回路50B4およびクラス生成回路50C4は、このフラットクラスの検出系を構成しているものとする。
タップ選択回路50B4は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図8に示す注目ブロック)の画素データを取り出す。クラス生成回路50C4は、注目ブロックの8×8個の画素データの最大値と最小値を検出し、その差分であるダイナミックレンジを閾値判定して、フラットクラスを示すクラスコードCL4を生成する。
【0093】
▲5▼ライン相関クラスについて説明する。タップ選択回路50B5およびクラス生成回路50C5は、このライン相関クラスの検出系を構成しているものとする。
タップ選択回路50B5は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図8に示す注目ブロック)の画素データを取り出す。
【0094】
クラス生成回路50C5は、注目ブロックの8×8個の画素データの1ライン目と2ライン目、3ライン目と4ライン目、5ライン目と6ライン目、7ライン目と8ライン目の画素間で対応する画素毎に減算を行って8×4個の差分値を求め、さらにこの8×4個の差分値の二乗和を求め、この二乗和を閾値判定して、ライン相関クラスを示すクラスコードCL5を生成する。このライン相関クラスは、静止画像などフレーム内の相関が高いか、あるいは動きが速くフレーム内よりもフィールド内の相関が高いかを示すものとなる。
【0095】
▲6▼ブロックエッジクラスについて説明する。タップ選択回路50B6およびクラス生成回路50C6は、このブロックエッジクラスの検出系を構成しているものとする。
タップ選択回路50B6は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図8に示す注目ブロック)の画素データを取り出すと共に、その現在フレームから、注目ブロックに対して上下左右に隣接したブロック(図8に示す隣接ブロック)の画素データを取り出す。
【0096】
クラス生成回路50C6は、注目ブロックの4辺の各8個の画素データとそれに隣接する隣接ブロックの画素データとの間で対応する画素毎に減算を行って4×8個の差分値を求め、さらにこの各8個の差分値の二乗和を求め、注目ブロックの4辺にそれぞれ対応した4個の二乗和をそれぞれ閾値判定して、ブロックエッジクラスを示すクラスコードCL6を生成する。
【0097】
また、クラス分類部123は、クラスコードCL0を入力する入力端子50Dと、クラス生成回路50C1〜50Cnで生成されるクラスコードCL1〜CLn、入力端子50Dに入力されるクラスコードCL0を統合して1個のクラスコードCLとするクラス統合回路50Eと、このクラスコードCLを出力する出力端子50Fとを有している。本実施の形態において、クラス統合回路50Eは、クラス生成回路50C1〜50C6で生成されたクラスコードCL1〜CL6、さらにはクラスコードCL0を統合して、1つのクラスコードCLとする。
【0098】
図1に戻って、また、画像信号処理部110は、係数メモリ124を有している。この係数メモリ124は、後述する推定予測演算回路125で使用される推定式で用いられる係数データWi(i=1〜n、nは予測タップの個数)を、クラス毎に、格納するものである。
【0099】
この係数データWiは、画像信号Vaを画像信号Vbに変換するための情報である。この係数メモリ124に格納される係数データWiは、予め画像信号Vaに対応した生徒信号と画像信号Vbに対応した教師信号との間の学習によって生成される。この係数メモリ124には上述したクラス分類部123より出力されるクラスコードCLが読み出しアドレス情報として供給され、この係数メモリ124からはクラスコードCLに対応した推定式の係数データWiが読み出されて、推定予測演算回路125に供給される。係数データWiの生成方法については後述する。
【0100】
また、画像信号処理部110は、予測タップ選択回路122で選択的に取り出される予測タップの画素データxiと、係数メモリ124より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vbにおける注目位置の画素データyを演算する推定予測演算回路125を有している。
【0101】
【数1】
【0102】
この画像信号処理部110の動作を説明する。
クラス生成部121では、バッファメモリ108に格納されている、ピクチャ情報PI、残差データおよびリファレンスデータが用いられて、画像信号Vbにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成される。
【0103】
また、クラス分類部123では、バッファメモリ108に記憶されている画像信号Vaを構成する複数の画素データおよびクラス生成部121で生成されるクラスコードCL0を用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLが生成される。
【0104】
このようにクラス分類部123で生成されるクラスコードCLは読み出しアドレス情報として係数メモリ124に供給される。これにより、係数メモリ124からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路125に供給される。
【0105】
また、バッファメモリ108に記憶されている画像信号Vaより、予測タップ選択回路122で、画像信号Vbにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0106】
推定予測演算回路125では、予測タップの画素データxiと、係数メモリ124より読み出される係数データWiとを用いて、上述の(1)式に示す推定式に基づいて、作成すべき画像信号Vbにおける注目位置の画素データyが求められる。
【0107】
このように画像信号処理部110では、画像信号Vaから係数データWiを用いて画像信号Vbが得られる。この場合、画像信号Vaに基づいて選択された、画像信号Vbにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)、およびこの画像信号Vbにおける注目位置の画素データが属するクラスCLに対応した係数データWiを用いて、推定式に基づいて画像信号Vbにおける注目位置の画素データyを生成するものである。
【0108】
したがって、係数データWiとして、画像信号Vaに対応しこの画像信号Vaと同様の符号化雑音を含む生徒信号と画像信号Vbに対応した符号化雑音を含まない教師信号とを用いた学習によって得られた係数データWiを用いることで、画像信号Vbとして画像信号Vaに比べて符号化雑音が大幅に軽減されたものを良好に得ることができる。
【0109】
また、クラス生成部121では、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0が生成される。そして、クラス分類部123では、このクラスコードCL0が他のクラスコードと統合されて、クラスコードCLが生成される。そのため、画像信号処理部110では、動き補償用ベクトル情報MIの不正確さの情報に基づいてクラス分類が行われることとなり、画像信号Vbの品質の向上を図ることができる。
【0110】
また、クラス生成部121の相関判定部37は、最も相関の高い候補ブロックの相関レベルが予め設定された閾値より小さいときは、動きベクトル情報に代えてその旨を示す情報NGを出力する。そして、クラス生成回路38は、クラスコードCL0としてその情報NGに対応したものを出力する。したがって、クラス生成部121から不正確な動きベクトル情報(Δx,Δy)によるクラスコードCL0が出力されることがなく、クラス分類の精度が低下することを防止できる。
【0111】
次に、係数メモリ124に記憶される係数データWiの生成方法について説明する。この係数データWiは、予め学習によって生成されたものである。
【0112】
まず、この学習方法について説明する。上述の、(1)式において、学習前は係数データW1,W2,‥‥,Wnは未定係数である。学習は、クラス毎に、複数の信号データに対して行う。学習データ数がmの場合、(1)式に従って、以下に示す(2)式が設定される。nは予測タップの数を示している。
yk=W1×xk1+W2×xk2+‥‥+Wn×xkn ・・・(2)
(k=1,2,‥‥,m)
【0113】
m>nの場合、係数データW1,W2,‥‥,Wnは、一意に決まらないので、誤差ベクトルeの要素ekを、以下の式(3)で定義して、(4)式のe2を最小にする係数データを求める。いわゆる最小2乗法によって係数データを一意に定める。
ek=yk−{W1×xk1+W2×xk2+‥‥+Wn×xkn} ・・・(3)
(k=1,2,‥‥m)
【0114】
【数2】
【0115】
(4)式のe2を最小とする係数データを求めるための実際的な計算方法としては、まず、(5)式に示すように、e2を係数データWi(i=1,2,・・・,n)で偏微分し、iの各値について偏微分値が0となるように係数データWiを求めればよい。
【0116】
【数3】
【0117】
(5)式から係数データWiを求める具体的な手順について説明する。(6)式、(7)式のようにXji,Yiを定義すると、(5)式は、(8)式の行列式の形に書くことができる。
【0118】
【数4】
【0119】
【数5】
【0120】
(8)式は、一般に正規方程式と呼ばれるものである。この正規方程式を掃き出し法(Gauss-Jordanの消去法)等の一般解法で解くことにより、係数データWi(i=1,2,・・・,n)を求めることができる。
【0121】
図9は、図1の画像信号処理部110の係数メモリ124に格納すべき係数データWiを生成する係数データ生成装置150の構成を示している。
この係数データ生成装置150は、画像信号Vbに対応した教師信号STが入力される入力端子151と、この教師信号STに対して符号化を行ってMPEG2ストリームを得るMPEG2符号化器152と、このMPEG2ストリームに対して復号化を行って画像信号Vaに対応した生徒信号SSを得るMPEG2復号化器153とを有している。ここで、MPEG2復号化器153は、図1に示すデジタル放送受信機100におけるMPEG2復号化器107およびバッファメモリ108に対応したものである。
【0122】
また、係数データ生成装置150は、クラス生成部154を有している。このクラス生成部154は、上述した画像信号処理部110のクラス生成部121と同様に構成され、教師信号STにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成する。このクラス生成部154では、復号化器153より出力されるピクチャ情報PI、残差データおよびリファレンスデータが用いられて、クラスコードCL0が生成される。
【0123】
また、係数データ生成装置150は、MPEG2復号化器153より出力される生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する予測タップ選択回路155を有している。この予測タップ選択回路155は、上述した画像信号処理部110の予測タップ選択回路122と同様に構成される。
【0124】
また、係数データ生成装置150は、教師信号STにおける注目位置の画素データが属するクラスを検出するクラス検出手段としてのクラス分類部156を有している。このクラス分類部156は、上述した画像信号処理部110のクラス分類部123と同様に構成される。
【0125】
このクラス分類部156は、MPEG2復号化器153より得られる生徒信号SSを構成する複数の画素データおよびクラス生成部154で生成されるクラスコードCL0を用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0126】
また、係数データ生成装置150は、入力端子151に供給される教師信号STの時間調整を行うための遅延回路157と、この遅延回路157で時間調整された教師信号STより得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス分類部156で生成されるクラスコードCLとから、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式(上述の(8)式参照)を生成する正規方程式生成部158を有している。
【0127】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、教師信号STと生徒信号SSとの間で、クラス毎に、多くの学習データが生成されていく。これにより、正規方程式生成部158では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式が生成される。
【0128】
また、係数データ生成装置150は、正規方程式生成部158で生成された正規方程式のデータが供給され、その正規方程式を解いて、各クラスの係数データWiを求める係数データ決定部159と、この求められた各クラスの係数データWiを格納する係数メモリ160とを有している。
【0129】
次に、図9に示す係数データ生成装置150の動作を説明する。
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてMPEG2符号化器152で、この教師信号STに対して符号化が施されて、MPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。MPEG2復号化器153で、このMPEG2ストリームに対して復号化が施されて、画像信号Vaに対応した生徒信号SSが生成される。
【0130】
クラス生成部154では、復号化器153より出力されるピクチャ情報PI、残差データおよびリファレンスデータを用いて、教師信号STにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0が生成される。
【0131】
クラス分類部156では、MPEG2復号化器153より得られる生徒信号SSを構成する複数の画素データおよびクラス生成部154で生成されたクラスコードCL0が用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLが生成される。
【0132】
また、MPEG2復号化器153より得られる生徒信号SSより、予測タップ選択回路155で、教師信号STにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0133】
そして、遅延回路157で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス分類部156で生成されるクラスコードCLとを用いて、正規方程式生成部158では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((8)式参照)が生成される。この正規方程式は係数データ決定部159で解かれて各クラスの係数データWiが求められ、その係数データWiは係数メモリ160に格納される。
【0134】
このように、図9に示す係数データ生成装置150においては、図1の画像信号処理部110の係数メモリ124に格納される各クラスの係数データWiを生成することができる。
【0135】
生徒信号SSは、教師信号STに対して符号化を施してMPEG2ストリームを生成し、その後このMPEG2ストリームに対して復号化を施して得たものである。したがって、この生徒信号SSは、画像信号Vaと同様の符号化雑音を含んだものとなる。そのため、図1に示す画像信号処理部110において、画像信号Vaからこの係数データWiを用いて得られる画像信号Vbは、画像信号Vaに比べて符号化雑音が軽減されたものとなる。
【0136】
なお、図1の画像信号処理部110における処理を、例えば図10に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。
【0137】
まず、図10に示す画像信号処理装置300について説明する。この画像信号処理装置300は、装置全体の動作を制御するCPU301と、このCPU301の制御プログラムや係数データ等が格納されたROM(Read Only Memory)302と、CPU301の作業領域を構成するRAM(Random Access Memory)303とを有している。これらCPU301、ROM302およびRAM303は、それぞれバス304に接続されている。
【0138】
また、画像信号処理装置300は、外部記憶装置としてのハードディスクドライブ(HDD)305と、フロッピー(登録商標)ディスク306をドライブするドライブ(FDD)307とを有している。これらドライブ305,307は、それぞれバス304に接続されている。
【0139】
また、画像信号処理装置300は、インターネット等の通信網400に有線または無線で接続する通信部308を有している。この通信部308は、インタフェース309を介してバス304に接続されている。
【0140】
また、画像信号処理装置300は、ユーザインタフェース部を備えている。このユーザインタフェース部は、リモコン送信機200からのリモコン信号RMを受信するリモコン信号受信回路310と、LCD(liquid Crystal Display)等からなるディスプレイ311とを有している。受信回路310はインタフェース312を介してバス304に接続され、同様にディスプレイ311はインタフェース313を介してバス304に接続されている。
【0141】
また、画像信号処理装置300は、画像信号Vaを入力するための入力端子314と、画像信号Vbを出力するための出力端子315とを有している。入力端子314はインタフェース316を介してバス304に接続され、同様に出力端子315はインタフェース317を介してバス304に接続される。
【0142】
ここで、上述したようにROM302に制御プログラムや係数データ等を予め格納しておく代わりに、例えばインターネットなどの通信網400より通信部308を介してダウンロードし、ハードディスクやRAM303に蓄積して使用することもできる。また、これら制御プログラムや係数データ等をフロッピー(登録商標)ディスク306で提供するようにしてもよい。
【0143】
また、処理すべき画像信号Vaを入力端子314より入力する代わりに、予めハードディスクに記録しておき、あるいはインターネットなどの通信網400より通信部308を介してダウンロードしてもよい。また、処理後の画像信号Vbを出力端子315に出力する代わり、あるいはそれと並行してディスプレイ311に供給して画像表示をしたり、さらにはハードディスクに格納したり、通信部308を介してインターネットなどの通信網400に送出するようにしてもよい。
【0144】
図11のフローチャートを参照して、図10に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。
まず、ステップST21で、処理を開始し、ステップS22で、例えば入力端子314より装置内に1フレーム分または1フィールド分の画像信号Vaを入力する。この場合、画像信号Vaの各画素データと対となっているピクチャ情報PIも入力する。ピクチャ情報PIは、画素データがIピクチャ、Pピクチャ、Bピクチャのいずれのピクチャに係るものであったかを示す情報である。またこの場合、画像信号Vaの各画素データと対となっている、その画素データを得る際に使用された残差データおよびリファレンスデータも入力する。
【0145】
このように入力端子314より入力される画像信号Va等はRAM303に一時的に格納される。なお、この画像信号Va等が装置内のハードディスクドライブ305に予め記録されている場合には、このドライブ305からこの画像信号Va等を読み出し、この画像信号Va等をRAM303に一時的に格納する。
【0146】
そして、ステップST23で、画像信号Vaの全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST24で、処理を終了する。一方、処理が終わっていないときは、ステップST25に進む。
【0147】
ステップST25では、画像信号Vbにおける注目位置に対応した画像信号Vaの画素データと対となっているピクチャ情報PI、残差データおよびリファレンスデータを用いて、画像信号Vbにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成し、さらにこのクラスコードCL0および画像信号Vaを構成する複数の画素データを用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0148】
次に、ステップST26で、ステップST22で入力された画像信号Vaより、画像信号Vbにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)を取得する。そして、ステップST27で、ステップST25で生成されたクラスコードCLに対応した係数データWiとステップST26で取得された予測タップの画素データxiを使用して、(1)式の推定式に基づいて、画像信号Vbにおける注目位置の画素データyを生成する。
【0149】
次に、ステップST28で、ステップST22で入力された1フレームまたは1フィールド分の画像信号Vaの画素データの全領域において画像信号Vbの画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST22に戻り、次の1フレーム分または1フィールド分の画像信号Vaの入力処理に移る。一方、処理が終了していないときは、ステップST25に戻って、次の注目位置についての処理に移る。
【0150】
このように、図11に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0151】
また、処理装置の図示は省略するが、図9の係数データ生成装置150における処理も、ソフトウェアで実現可能である。
【0152】
図12のフローチャートを参照して、係数データを生成するための処理手順を説明する。
まず、ステップST31で、処理を開始し、ステップST32で、教師信号STを1フレーム分または1フィールド分だけ入力する。そして、ステップST33で、教師信号STの全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST34で、ステップST32で入力された教師信号STから生徒信号SSを生成する。
【0153】
この場合、生徒信号SSの各画素データと対となっているピクチャ情報PI、さらには各画素データと対となっているその画素データを得る際に使用された残差データおよびリファレンスデータも得るようにする。
【0154】
そして、ステップST35で、教師信号STの注目位置に対応した生徒信号SSの画素データと対となっているピクチャ情報PIと、残差データおよびリファレンスデータを用いて、教師信号STにおける注目位置の画素データが属する、動き補償用ベクトル情報MIの不正確さに基づくクラスを示すクラスコードCL0を生成し、さらにこのクラスコードCL0および生徒信号SSを構成する複数の画素データを用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0155】
次に、ステップST36で、ステップST34で生成された生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)を取得する。
【0156】
そして、ステップST37で、ステップST35で生成されたクラスコードCL、ステップST36で取得された予測タップの画素データxiおよび教師信号STにおける注目位置の画素データyを用いて、クラス毎に、(8)式に示す正規方程式を得るための加算をする((6)式、(7)式参照)。
【0157】
次に、ステップST38で、ステップST32で入力された1フレーム分または1フィールド分の教師信号STの画素データの全領域において学習処理が終了したか否かを判定する。学習処理を終了しているときは、ステップST32に戻って、次の1フレーム分または1フィールド分の教師信号STの入力を行って、上述したと同様の処理を繰り返す。一方、学習処理を終了していないときは、ステップST35に戻って、次の注目位置についての処理に移る。
【0158】
上述したステップST33で、処理が終了したときは、ステップST39で、上述のステップST37の加算処理によって生成された、各クラスの正規方程式を掃き出し法などで解いて、各クラスの係数データWiを算出する。そして、ステップST40で、各クラスの係数データWiをメモリに保存し、その後にステップST41で、処理を終了する。
【0159】
このように、図12に示すフローチャートに沿って処理をすることで、図9に示す係数データ生成装置150と同様の手法によって、各クラスの係数データWiを得ることができる。
【0160】
なお、上述実施の形態においては、リファレンスデータから抽出されたエッジ成分と残差データから抽出されたエッジ成分とを用いて動きベクトル情報(Δx,Δy)を検出し、これを復号時に使用した動き補償用ベクトル情報MIの不正確さを示す情報としたものである。
【0161】
しかし、動き補償用ベクトル情報MIの不正確さを示す情報はこの動きベクトル情報(Δx,Δy)に限定されるものではない。例えば、画像信号Vaからブロックマッチング法、勾配法等の方法によって動きベクトル情報を新たに検出し、これと復号時に使用した動き補償用ベクトル情報MIとを比較することで、動き補償用ベクトル情報MIの不正確さを示す情報を得るようにしてもよい。
【0162】
また、上述実施の形態においては、DCTを伴うMPEG2ストリームを取り扱うものを示したが、この発明は、動き補償予測符号化が行われたその他の符号化されたデジタル画像信号を取り扱うものにも同様に適用することができる。また、DCTの代わりに、ウォーブレット変換、離散サイン変換などのその他の直交変換を伴う符号化であってもよい。
【0163】
【発明の効果】
この発明によれば、動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる符号化雑音が軽減された第2の画像信号に変換する際、第2の画像信号における注目位置に対応した第1の画像信号の画素データを得る際に用いられたリファレンスデータの動き補償に使用された第1の動きベクトル情報の不正確さを示す情報を取得し、少なくともこの不正確さを示す情報を用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものであり、クラス分類の精度を上げることができ、第2の画像信号の品質の向上を図ることができる。
【図面の簡単な説明】
【図1】実施の形態としてのデジタル放送受信機の構成を示すブロック図である。
【図2】MPEG2復号化器の構成を示すブロック図である。
【図3】クラス生成部の構成を示すブロック図である。
【図4】3×3のラプラシアンフィルタの係数比の一例を示す図である。
【図5】相関判定のためのブロックマッチングの一例を説明するための図である。
【図6】相関判定のためのブロックマッチングの他の例を説明するための図である。
【図7】クラス分類部の構成を示すブロック図である。
【図8】タップ選択用ブロックを示す図である。
【図9】係数データ生成装置の構成を示すブロック図である。
【図10】ソフトウェアで実現するための画像信号処理装置の構成例を示すブロック図である。
【図11】画像信号処理を示すフローチャートである。
【図12】係数データ生成処理を示すフローチャートである。
【符号の説明】
31,32・・・入力端子、32,35・・・エッジ成分抽出回路、33,36・・・バッファメモリ、37・・・相関判定部、38・・・クラス生成回路、39・・・出力端子、100・・・デジタル放送受信機、101・・・システムコントローラ、102・・・リモコン信号受信回路、105・・・受信アンテナ、106・・・チューナ部、107・・・MPEG2復号化器、108・・・バッファメモリ、110・・・画像信号処理部、111・・・ディスプレイ部、121・・・クラス生成部、122・・・予測タップ選択回路、123・・・クラス分類部、124・・・係数メモリ、125・・・推定予測演算回路、150・・・係数データ生成装置、300・・・画像信号処理装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image signal processing device and processing method, a coefficient data generating device and generating method used therefor, and a program for executing each method.
[0002]
More specifically, the present invention encodes a first image signal composed of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation predictive coding, into a plurality of pixel data. Used for motion compensation of reference data used when obtaining pixel data of the first image signal corresponding to the position of interest in the second image signal when converting to the second image signal with reduced noise Acquire information indicating the inaccuracy of the first motion vector information, detect a class to which the pixel data of the target position in the second image signal belongs using at least the information indicating the inaccuracy, and correspond to this class Then, by generating pixel data at the position of interest in the second image signal, the image signal processing is designed to improve the accuracy of the classification and improve the quality of the second image signal. It is those related to 置等.
[0003]
[Prior art]
As an image signal compression encoding method, there is an MPEG2 (Moving Picture Experts Group 2) encoding method using DCT (Discrete Cosine Transform). In this encoding method, motion compensation prediction encoding is performed for each block.
[0004]
DCT performs discrete cosine transform on pixels in a block, requantizes coefficient data obtained by the discrete cosine transform, and further variable-length codes the requantized coefficient data. For this variable length coding, entropy coding such as Huffman code is often used. The image signal is orthogonally transformed to be divided into a large number of frequency data from low frequency to high frequency.
[0005]
When re-quantization is performed on this divided frequency data, human visual characteristics are taken into consideration, and low frequency data with high importance is finely quantized, and high frequency data with low importance is roughly quantized. In this way, the image quality can be maintained and high-efficiency compression can be realized.
[0006]
In conventional decoding using DCT, quantized data for each frequency component is converted into a representative value of the code, and reproduction data is obtained by performing inverse DCT (IDCT: Inverce DCT) on these components. . When converting to this representative value, the quantization step width at the time of encoding is used.
[0007]
[Problems to be solved by the invention]
As described above, the MPEG encoding method using DCT has the advantage that high-quality compression can be realized while maintaining high image quality by performing encoding in consideration of human visual characteristics.
[0008]
However, since coding for performing DCT is processing in units of blocks, block noise, so-called block noise (block distortion), may occur as the compression rate increases. In addition, in a portion where there is a rapid luminance change such as an edge, a noise that is a result of coarse quantization of high-frequency components, so-called mosquito noise, is generated.
[0009]
It is conceivable to reduce coding noise such as block noise and mosquito noise by class classification adaptive processing. That is, an image signal including coding noise is set as a first image signal, an image signal with reduced coding noise is set as a second image signal, and a class to which pixel data of a target position in the second image signal belongs is detected. Then, pixel data of the target position in the second image signal is generated corresponding to this class. In this case, in order to improve the quality of the second image signal, it is necessary to increase the accuracy of the classification.
[0010]
Of the pixel data of the first image signal corresponding to the target position in the second image signal, the pixel data related to the P picture and the B picture is subjected to motion compensation on the residual data obtained by performing DCT conversion. It is generated by adding the reference data motion-compensated with the vector information.
[0011]
Therefore, the pixel data related to the P picture and B picture is affected by the inaccuracy of the motion compensation vector information. Therefore, if class classification is performed based on inaccuracy information of the motion compensation vector information, it is considered that the accuracy of class classification is improved.
[0012]
An object of the present invention is to improve the classification accuracy and improve the quality of the second image signal.
[0013]
[Means for Solving the Problems]
An image signal processing apparatus according to the present invention is configured to decode a first image signal composed of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation prediction encoding, Reduced coding noise An image signal processing device for converting to a second image signal composed of a plurality of pixel data, First extraction means for extracting an edge component from residual data used when obtaining pixel data of the first image signal corresponding to a target position in the second image signal; Reference data used when obtaining pixel data of the first image signal corresponding to the position of interest in the second image signal A frame composed of the edge component extracted from the second extraction means, and a frame composed of the edge component extracted by the first extraction means as a first frame. And second motion vector information corresponding to the position of interest in the second image signal is obtained from the correlation information between the block of the first frame and the block of the second frame. Motion vector acquisition means for acquiring the second motion vector information as information indicating inaccuracy of the first motion vector information used for motion compensation of the reference data; At least above Motion vector acquisition means Obtained in From the second motion vector information The class to which the pixel data of the target position in the second image signal belongs is Generation Class Generation Means, A teacher signal that is obtained in advance for each class generated by the class generating means and includes a student signal including encoding noise corresponding to the first image signal and an encoding noise corresponding to the second image signal. Coefficient data generating means for generating coefficient data for minimizing an error from the signal, and data selection for selecting a plurality of pixel data located around the position of interest in the second image signal from the first image signal And calculation means for calculating the coefficient data generated by the coefficient data generation means and the plurality of pixel data selected by the data selection means to obtain pixel data of the target position in the second image signal And with Ru Is.
[0014]
In addition, the image signal processing method according to the present invention provides a first image signal composed of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation predictive coding, Reduced coding noise An image signal processing method for converting to a second image signal composed of a plurality of pixel data, A first step of extracting an edge component from residual data used when obtaining pixel data of the first image signal corresponding to a target position in the second image signal; Reference data used when obtaining pixel data of the first image signal corresponding to the position of interest in the second image signal A second step of extracting an edge component from the first step and a frame composed of the edge component extracted in the first step as a first frame, and a frame composed of the edge component extracted in the second step as a second frame. Second motion vector information corresponding to the position of interest in the second image signal is obtained from the correlation information between the block of the first frame and the block of the second frame, and the reference data A third step of acquiring the second motion vector information as information indicating inaccuracy of the first motion vector information used for motion compensation of At least above Third step Obtained in From the second motion vector information The class to which the pixel data of the target position in the second image signal belongs is Generation First 4 And the steps A student signal that is obtained in advance for each class generated in the fourth step and includes coding noise corresponding to the first image signal and does not include coding noise corresponding to the second image signal. A fifth step of generating coefficient data that minimizes an error from the teacher signal; and a plurality of pixel data positioned around the target position in the second image signal from the first image signal. And calculating the coefficient data generated in
[0015]
A program according to the present invention is for causing a computer to execute the above-described image signal processing method.
[0016]
In the present invention, the first image signal composed of a plurality of pixel data is generated by decoding a digital image signal that has been subjected to motion compensation predictive coding. For example, the digital image signal has been subjected to MPEG encoding.
[0017]
The pixel data of the first image signal corresponding to the target position in the second image signal is obtained by adding the reference data compensated for motion with the first motion vector information to the residual data corresponding to the target position. Generated. Information indicating the inaccuracy of the first motion vector information is acquired.
[0018]
For example, information indicating this inaccuracy is acquired as follows. That is, an edge component is extracted from the residual data used when obtaining the pixel data of the first image signal, and a frame including the edge component is set as the first frame. In addition, an edge component is extracted from the reference data used when obtaining the pixel data of the first image signal, and a frame including the edge component is set as a second frame. Then, using these first and second frames, second motion vector information corresponding to the position of interest in the second image signal is detected, and this is information indicating inaccuracy.
[0019]
In this case, the second motion vector information is obtained as follows, for example. That is, the first or second frame is a reference frame, and the second or first frame is a search frame. A reference block including an edge component corresponding to the target position in the second image signal of the reference frame; and a plurality of candidate blocks within a predetermined search range centered on the target position in the second image signal of the search frame; Correlation information between is detected. Then, based on the correlation information corresponding to the plurality of detected candidate blocks, the position information of the candidate block having the highest correlation with the reference block is output as the second motion vector information.
[0020]
The class to which the pixel data at the target position in the second image signal belongs is detected using at least information indicating the inaccuracy of the first motion vector information. As information indicating this inaccuracy, in the case of outputting the second motion vector information as described above, for example, the correlation level indicated by the correlation information of the candidate block with the highest correlation is set in advance. When the value is smaller than the threshold value, predetermined information indicating that fact is output. In that case, the class to which the pixel data of the target position in the second image signal belongs is detected using this predetermined information instead of the second motion vector information. In this case, since the inaccuracy of the second motion vector information itself is large, class classification using the second motion vector information itself causes a decrease in accuracy of class classification.
[0021]
Corresponding to the class detected in this way, pixel data of the target position in the second image signal is generated. For example, pixel data is generated as follows. That is, coefficient data used in the estimation formula corresponding to the class is generated. Further, based on the first image signal, a plurality of pixel data located around the target position in the second image signal are selected. Then, these coefficient data and a plurality of pixel data are used, and pixel data of the target position in the second image signal is calculated based on the estimation formula.
[0022]
As described above, the inaccuracy of the first motion vector information used for the motion compensation of the reference data used when obtaining the pixel data of the first image signal corresponding to the target position in the second image signal is determined. Information indicating that the pixel data of the target position in the second image signal belongs is detected using at least the information indicating the inaccuracy, and the target position of the second image signal corresponding to this class is detected. Pixel data is generated, the classification accuracy can be improved, and the quality of the second image signal can be improved.
[0023]
A coefficient data generation device according to the present invention is configured to generate a first image signal composed of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation prediction encoding, Reduced coding noise Used when converting to a second image signal consisting of multiple pixel data Person in charge Decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal And First extraction means for extracting an edge component from residual data used when obtaining pixel data of the student signal corresponding to a target position in the teacher signal; Reference data used to obtain pixel data of the student signal corresponding to the position of interest in the teacher signal A frame composed of the edge component extracted from the second extraction means, and a frame composed of the edge component extracted by the first extraction means as a first frame. Is the second frame, second motion vector information corresponding to the position of interest in the teacher signal is obtained from the correlation information between the block of the first frame and the block of the second frame, and the reference data Motion vector acquisition means for acquiring the second motion vector information as information indicating inaccuracy of the first motion vector information used for motion compensation of At least above Motion vector acquisition means Obtained in From the second motion vector information , The class to which the pixel data of the target position in the teacher signal belongs Generation Class Generation Means and student signal above From , A data selection means for selecting a plurality of pixel data located around a target position in the teacher signal, and the class Generation By means Generation Class data, a plurality of pixel data selected by the data selection means, and pixel data of a target position in the teacher signal To above For each class, Minimizing an error between a plurality of pixel data related to the student signal and pixel data at a target position in the teacher signal And calculation means for obtaining coefficient data Ru Is.
[0024]
Further, the coefficient data generation method according to the present invention provides a first image signal made up of a plurality of pixel data, which is generated by decoding a digital image signal that has been subjected to motion compensation prediction encoding, Reduced coding noise Used when converting to a second image signal consisting of multiple pixel data Person in charge A method of generating numerical data, wherein a digital image signal obtained by encoding a teacher signal corresponding to the second image signal is decoded to obtain a student signal corresponding to the first image signal. 1 step, A second step of extracting an edge component from the residual data used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal; Reference data used to obtain pixel data of the student signal corresponding to the position of interest in the teacher signal A frame composed of the edge component extracted in the third step and the edge component extracted in the second step is defined as a first frame, and a frame composed of the edge component extracted in the third step is defined as a second frame. Second motion vector information corresponding to the position of interest in the teacher signal is obtained from correlation information between the block of the first frame and the block of the second frame, and motion compensation of the reference data is performed. A fourth step of acquiring the second motion vector information as information indicating inaccuracy of the first motion vector information used for At least above Fourth step Obtained in From the second motion vector information , The class to which the pixel data of the target position in the teacher signal belongs
[0025]
A program according to the present invention is for causing a computer to execute the coefficient data generation method described above.
[0026]
In the present invention, the first image signal composed of a plurality of pixel data is generated by decoding a digital image signal that has been subjected to motion compensation predictive coding. The present invention generates coefficient data of an estimation formula used when converting the first image signal into a second image signal composed of a plurality of pixel data.
[0027]
The pixel data of the student signal corresponding to the attention position in the teacher signal is generated by adding the reference data compensated for motion by the first motion vector information to the residual data corresponding to the attention position. Information indicating the inaccuracy of the first motion vector information is acquired. The class to which the pixel data at the target position in the teacher signal belongs is detected using at least information indicating the inaccuracy.
[0028]
Further, based on the student signal, a plurality of pixel data located around the attention position in the teacher signal are selected. Then, coefficient data is obtained for each class using the class to which the pixel data at the target position in the teacher signal belongs, the selected pixel data, and the pixel data at the target position in the teacher signal.
[0029]
As described above, coefficient data of the estimation formula used when converting the first image signal to the second image signal is generated. When converting from the first image signal to the second image signal, The coefficient data corresponding to the class to which the pixel data of the target position in the second image signal belongs is selectively used to calculate the pixel data of the target position in the second image signal by the estimation formula.
[0030]
Thereby, when converting from the first image signal to the second image signal using the estimation formula, the accuracy of the class classification can be improved, and the quality of the second image signal can be improved. it can.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a
[0032]
The
[0033]
Also, the
[0034]
The
[0035]
In the present embodiment, the
[0036]
Further, from the
[0037]
Here, in the case of a P picture, prediction encoding is performed in the forward direction, so that reference data exists only in the forward direction corresponding to one pixel data, but in the case of a B picture, prediction from both directions is performed. Since it is encoding, reference data exists in each direction corresponding to one pixel data. Incidentally, in the case of a B picture, the addition average value of the reference data in each of these directions becomes the reference data Vref to be added to the residual data.
[0038]
FIG. 2 shows the configuration of the
The
[0039]
The
[0040]
The
[0041]
Further, the
[0042]
In addition, when the P-picture or B-picture residual data is output from the
[0043]
Here, in MPEG encoding, encoding is performed in an order different from the actual frame / field order, as is conventionally known. That is, the image signal of the I picture and the P picture is encoded first, and the image signal of the B picture sandwiched between them is encoded thereafter. The image signal Va of each picture is output to the output terminal 81 in the encoding order. In the present embodiment, when the image signal Va is read from the
[0044]
The
[0045]
The motion compensation vector information MI extracted by the extraction circuit 82 is supplied to the
[0046]
The
[0047]
The operation of the
The MPEG2 stream stored in the
[0048]
The
[0049]
The picture information PI is output to the output terminal 83 in pairs with each pixel data constituting the image signal Va output from the output terminal 81. In addition, the pixel data corresponding to the P picture and B picture among the pixel data constituting the image signal Va output from the output terminal 81 is paired with the pixel data obtained at the output terminal 84 and the output terminal 85, respectively. The residual data and reference data used at the time are also output.
[0050]
Returning to FIG. 1, the
[0051]
The operation of the
The MPEG2 stream output from the
[0052]
In this case, the
[0053]
The image signal Va temporarily stored in the
[0054]
The image signal Vb output from the image signal processing unit 110 is supplied to the display unit 111, and an image based on the image signal Vb is displayed on the screen of the display unit 111.
[0055]
Next, details of the image signal processing unit 110 will be described.
The image signal processing unit 110 includes a
[0056]
FIG. 3 shows a specific configuration of the
The
[0057]
The edge
[0058]
In addition, the
[0059]
Similarly to the edge
[0060]
In addition, the
[0061]
Here, the first frame is a frame including the edge component of the residual data related to the pixel data of the image signal Va corresponding to the pixel data of the target position in the image signal Vb stored in the
[0062]
The
[0063]
A case where motion vector information (Δx, Δy) is acquired for each pixel will be described with reference to FIG.
In this case, for example, as shown in the figure, the first frame is a reference frame, and the second frame is a search frame. Note that the second frame may be a reference frame, and the first frame may be a search frame. Then, a reference block centered on the target pixel corresponding to the target position in the image signal Vb is considered in the reference frame. Further, a search range centered on the target position in the image signal Vb is considered in the search frame. The search range is, for example, about ± 2 in the vertical and horizontal directions.
[0064]
Then, correlation information between the reference block and a plurality of candidate blocks within the search range is detected. The correlation information is, for example, a difference absolute value sum obtained by adding the difference absolute values of corresponding edge components between the reference block and the candidate block. The difference absolute value sum decreases as the correlation level between the reference block and the candidate block increases.
[0065]
Then, based on the correlation information corresponding to the plurality of candidate blocks detected as described above, the position information of the candidate block having the highest correlation is output as motion vector information (Δx, Δy). In this case, when the correlation information is the above-described sum of absolute differences, the candidate block with the smallest sum of absolute differences is the candidate block with the highest correlation.
[0066]
A case where motion vector information is acquired for each block will be described with reference to FIG.
In this case, for example, as shown in the figure, the first frame is a reference frame, and the second frame is a search frame. Note that the second frame may be a reference frame, and the first frame may be a search frame. Then, a reference block including a target pixel corresponding to a target position in the image signal Vb in the reference frame is considered. This reference block is a block corresponding to the DCT block used when obtaining the pixel data of the image signal Va corresponding to the target position in the image signal Vb, for example. Further, a search range centered on the target position in the image signal Vb is considered in the search frame. For example, the search range is, for example, about ± 2 in the vertical and horizontal directions.
[0067]
Then, correlation information between the reference block and a plurality of candidate blocks within the search range is detected. The correlation information is, for example, a difference absolute value sum obtained by adding the difference absolute values of corresponding edge components between the reference block and the candidate block. The difference absolute value sum decreases as the correlation level between the reference block and the candidate block increases.
[0068]
Then, based on the correlation information corresponding to the plurality of candidate blocks detected as described above, the position information of the candidate block having the highest correlation is output as motion vector information (Δx, Δy). In this case, when the correlation information is the above-described sum of absolute differences, the candidate block with the smallest sum of absolute differences is the candidate block with the highest correlation.
[0069]
As described above, the
[0070]
However, when the motion compensation vector information MI is inaccurate, the motion vector information (Δx, Δy) = (0, 0) is not satisfied, and as the degree of inaccuracy increases, the values of Δx, Δy (absolute Value) increases. Therefore, it can be said that the motion vector information (Δx, Δy) is information indicating the inaccuracy of the motion compensation vector information MI.
[0071]
As described above, in the case of the P picture, the reference data exists only in the forward direction corresponding to one pixel data, but in the case of the B picture, the reference data corresponds to one pixel data. Exists for each direction. Therefore, the
[0072]
Further, when the correlation level of the candidate block with the highest correlation is smaller than a preset threshold value, for example, when the sum of absolute differences related to the candidate block with the highest correlation is larger than the threshold value, the
[0073]
The
[0074]
When the picture information PI indicates an I picture, the class generation circuit 38 generates a specific code as the residual class code CL0. Further, when the picture information PI indicates a P picture or a B picture, the class generation circuit 38 generates a class code CL0 based on the motion vector information (Δx, Δy) or information NG output from the
[0075]
The operation for generating the class code CL0 indicating the class based on the inaccuracy of the motion compensation vector information MI to which the pixel data of the target position in the image signal Vb belongs in the residual
[0076]
The
[0077]
Further, residual data stored as a pair with pixel data relating to P picture and B picture is input to the
[0078]
The
[0079]
In this case, the
[0080]
The motion vector information (Δx, Δy) or information NG output from the
[0081]
3 generates the class code CL0 indicating the class based on the inaccuracy of the motion compensation vector information MI to which the pixel data of the target position in the image signal Vb belongs.
[0082]
Returning to FIG. 1, the image signal processing unit 110 selectively extracts and outputs a plurality of pixel data located around the target position in the image signal Vb from the image signal Va stored in the
[0083]
Further, the image signal processing unit 110 includes a
[0084]
The
[0085]
Figure 7 Shows the configuration of the
The
[0086]
In the present embodiment, class codes CL1 to CL6 indicating six types of classes are generated. The six types of classes are a spatial waveform class, a time variation class, an AC variation class, a flat class, a line correlation class, and a block edge class. A brief description of each class.
[0087]
(1) The spatial waveform class will be described. Tap selection circuit 50B 1 And class generation circuit 50C 1 Suppose that this spatial waveform class detection system is configured.
Tap selection circuit 50B 1 Are a plurality of positions located in the space direction (horizontal direction and vertical direction) around the position of interest in the image signal Vb from the T frame (current frame) and T-1 frame (frame one frame before) of the image signal Va. The pixel data is selectively extracted and is similar to the prediction
[0088]
(2) The time variation class will be described. Tap selection circuit 50B 2 And class generation circuit 50C 2 Is configured as a detection system of this time variation class.
Tap selection circuit 50B 2 Extracts the pixel data of the DCT block (the target block shown in FIG. 8) corresponding to the pixel data at the target position in the image signal Vb from the current frame (T frame) of the image signal Va, and at the same time before the image signal Va. The pixel data of the block (the past block shown in FIG. 8) corresponding to the block of interest is extracted from the past frame (T-1 frame).
[0089]
Class generation circuit 50C 2 Are subtracted for each corresponding pixel between the 8 × 8 pixel data of the block of interest and the 8 × 8 pixel data of the past block to obtain 8 × 8 difference values, and this 8 × The sum of squares of the eight difference values is obtained, the square sum is determined as a threshold value, and the class code CL2 indicating the time variation class is generated.
[0090]
(3) The AC variation class will be described. Tap selection circuit 50B Three And class generation circuit 50C Three Constitutes a detection system of this AC fluctuation class.
Tap selection circuit 50B Three Extracts the pixel data of the DCT block (the target block shown in FIG. 8) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va, and from the previous frame one frame before the image signal Va. Then, pixel data of a block (the past block shown in FIG. 8) corresponding to the target block is extracted.
[0091]
Class generation circuit 50C Three Performs DCT processing on each of 8 × 8 pixel data of the block of interest and 8 × 8 pixel data of the past block to obtain DCT coefficients (frequency coefficients). Then, the class generation circuit 50C Three Is the number m of base positions where a coefficient exists in either base position of the AC part. 1 And the number m of base positions of which the sign is inverted and one of the coefficients is 0 2 M 1 / M 2 Is determined as a threshold value, and a class code CL3 indicating an AC variation class is generated. In a block with little time variation, it is possible to perform class classification corresponding to mosquito distortion by this AC variation class.
[0092]
(4) The flat class will be described. Tap selection circuit 50B Four And class generation circuit 50C Four Suppose that this flat class detection system is configured.
Tap selection circuit 50B Four Extracts the pixel data of the DCT block (the target block shown in FIG. 8) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va. Class generation circuit 50C Four Detects the maximum value and the minimum value of 8 × 8 pixel data of the block of interest, determines the threshold of the dynamic range that is the difference, and generates the class code CL4 indicating the flat class.
[0093]
(5) The line correlation class will be described. Tap selection circuit 50B Five And class generation circuit 50C Five Constitutes a detection system of this line correlation class.
Tap selection circuit 50B Five Extracts the pixel data of the DCT block (the target block shown in FIG. 8) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va.
[0094]
Class generation circuit 50C Five Corresponds to the pixels of the 1st line, 2nd line, 3rd line, 4th line, 5th line, 6th line, 7th line and 8th line of the 8 × 8 pixel data of the target block Subtraction is performed for each pixel to obtain 8 × 4 difference values, and a square sum of the 8 × 4 difference values is obtained, and the square sum is determined as a threshold value, and a class code CL5 indicating a line correlation class is obtained. Generate. This line correlation class indicates whether the correlation in a frame such as a still image is high, or whether the correlation in the field is higher than in the frame because of fast movement.
[0095]
(6) The block edge class will be described. Tap selection circuit 50B 6 And class generation circuit 50C 6 Suppose that this block edge class detection system is configured.
Tap selection circuit 50B 6 Extracts pixel data of the DCT block (the target block shown in FIG. 8) corresponding to the pixel data of the target position in the image signal Vb from the current frame of the image signal Va, and moves up and down with respect to the target block from the current frame. Pixel data of blocks adjacent to the left and right (adjacent blocks shown in FIG. 8) are extracted.
[0096]
Class generation circuit 50C 6 Are subtracted for each corresponding pixel between the 8 pixel data of each of the 4 sides of the block of interest and the pixel data of the adjacent block adjacent thereto to obtain 4 × 8 difference values, and each 8 A square sum of the difference values is obtained, and four square sums respectively corresponding to the four sides of the block of interest are threshold-determined to generate a class code CL6 indicating a block edge class.
[0097]
The
[0098]
Returning to FIG. 1, the image signal processing unit 110 also includes a
[0099]
The coefficient data Wi is information for converting the image signal Va into the image signal Vb. The coefficient data Wi stored in the
[0100]
In addition, the image signal processing unit 110 creates the prediction tap pixel data xi selectively extracted by the prediction
[0101]
[Expression 1]
[0102]
The operation of the image signal processing unit 110 will be described.
In the
[0103]
Further, the
[0104]
Thus, the class code CL generated by the
[0105]
Further, the prediction
[0106]
The estimated
[0107]
As described above, the image signal processing unit 110 obtains the image signal Vb from the image signal Va using the coefficient data Wi. In this case, a plurality of pixel data (prediction tap pixel data) located around the target position in the image signal Vb, selected based on the image signal Va, and a class to which the pixel data of the target position in the image signal Vb belong. Pixel data y at the target position in the image signal Vb is generated based on the estimation formula using the coefficient data Wi corresponding to CL.
[0108]
Therefore, the coefficient data Wi is obtained by learning using a student signal corresponding to the image signal Va and including coding noise similar to the image signal Va and a teacher signal corresponding to the image signal Vb and not including coding noise. By using the coefficient data Wi, it is possible to satisfactorily obtain an image signal Vb in which coding noise is significantly reduced as compared with the image signal Va.
[0109]
Further, the
[0110]
Further, when the correlation level of the candidate block with the highest correlation is smaller than a preset threshold, the
[0111]
Next, a method for generating the coefficient data Wi stored in the
[0112]
First, this learning method will be described. In the above equation (1), before learning, coefficient data W 1 , W 2 , ..., W n Is an undetermined coefficient. Learning is performed on a plurality of signal data for each class. When the number of learning data is m, the following equation (2) is set according to the equation (1). n indicates the number of prediction taps.
y k = W 1 X k1 + W 2 X k2 + ... + W n X kn ... (2)
(K = 1, 2,..., M)
[0113]
If m> n, coefficient data W 1 , W 2 , ..., W n Is not uniquely determined, so the element e of the error vector e k Is defined by the following equation (3), and e in equation (4) 2 Find coefficient data that minimizes. Coefficient data is uniquely determined by a so-called least square method.
e k = Y k -{W 1 X k1 + W 2 X k2 + ... + W n X kn } (3)
(K = 1, 2, ... m)
[0114]
[Expression 2]
[0115]
E in equation (4) 2 As a practical calculation method for obtaining coefficient data that minimizes the value, first, as shown in the equation (5), e 2 Is partially differentiated with the coefficient data Wi (i = 1, 2,..., N), and the coefficient data Wi is obtained so that the partial differential value becomes 0 for each value of i.
[0116]
[Equation 3]
[0117]
A specific procedure for obtaining the coefficient data Wi from the equation (5) will be described. If Xji and Yi are defined as in the equations (6) and (7), the equation (5) can be written in the form of the determinant of the equation (8).
[0118]
[Expression 4]
[0119]
[Equation 5]
[0120]
Equation (8) is generally called a normal equation. Coefficient data Wi (i = 1, 2,..., N) can be obtained by solving this normal equation by a general solution method such as a sweep-out method (Gauss-Jordan elimination method).
[0121]
FIG. 9 shows a configuration of a coefficient
The coefficient
[0122]
Further, the coefficient
[0123]
Also, the coefficient
[0124]
In addition, the coefficient
[0125]
This
[0126]
The coefficient
[0127]
In this case, one learning data is generated by combining one pixel data y and pixel data xi of n prediction taps corresponding to the pixel data y. A lot of learning data is generated every time. As a result, the normal
[0128]
The coefficient
[0129]
Next, the operation of the coefficient
A teacher signal ST corresponding to the image signal Vb is supplied to the
[0130]
The
[0131]
The
[0132]
In addition, the prediction
[0133]
Then, the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the
[0134]
As described above, the coefficient
[0135]
The student signal SS is obtained by encoding the teacher signal ST to generate an MPEG2 stream and then decoding the MPEG2 stream. Therefore, the student signal SS includes the same coding noise as the image signal Va. Therefore, in the image signal processing unit 110 shown in FIG. 1, the image signal Vb obtained from the image signal Va using the coefficient data Wi has a coding noise reduced as compared with the image signal Va.
[0136]
Note that the processing in the image signal processing unit 110 in FIG. 1 can be realized by software, for example, by an image
[0137]
First, the image
[0138]
The image
[0139]
In addition, the image
[0140]
In addition, the image
[0141]
Further, the image
[0142]
Here, instead of storing the control program and coefficient data in the
[0143]
Further, instead of inputting the image signal Va to be processed from the input terminal 314, it may be recorded in advance on a hard disk or downloaded from the
[0144]
A processing procedure for obtaining the image signal Vb from the image signal Va in the image
First, in step ST21, processing is started, and in step S22, for example, an image signal Va for one frame or one field is input into the apparatus from the input terminal 314. In this case, picture information PI paired with each pixel data of the image signal Va is also input. The picture information PI is information indicating whether the pixel data relates to an I picture, a P picture, or a B picture. Further, in this case, residual data and reference data that are paired with each pixel data of the image signal Va and used when obtaining the pixel data are also input.
[0145]
Thus, the image signal Va and the like input from the input terminal 314 are temporarily stored in the
[0146]
In step ST23, it is determined whether or not the processing of all frames or all fields of the image signal Va has been completed. When the process is finished, the process ends in step ST24. On the other hand, when the process is not finished, the process proceeds to step ST25.
[0147]
In step ST25, the pixel data of the target position in the image signal Vb belongs using the picture information PI, residual data, and reference data paired with the pixel data of the image signal Va corresponding to the target position in the image signal Vb. The class code CL0 indicating the class based on the inaccuracy of the motion compensation vector information MI is generated, and the position of the target position in the image signal Vb is generated using the class code CL0 and a plurality of pixel data constituting the image signal Va. A class code CL indicating the class to which the pixel data belongs is generated.
[0148]
Next, in step ST26, a plurality of pixel data (prediction tap pixel data) located around the target position in the image signal Vb is acquired from the image signal Va input in step ST22. Then, in step ST27, using the coefficient data Wi corresponding to the class code CL generated in step ST25 and the pixel data xi of the prediction tap acquired in step ST26, based on the estimation expression of the expression (1), Pixel data y at the target position in the image signal Vb is generated.
[0149]
Next, in step ST28, it is determined whether or not the processing for obtaining the pixel data of the image signal Vb has been completed in the entire region of the pixel data of the image signal Va for one frame or one field input in step ST22. If completed, the process returns to step ST22, and the process proceeds to input processing of the image signal Va for the next one frame or one field. On the other hand, when the process has not been completed, the process returns to step ST25 and proceeds to the process for the next target position.
[0150]
In this way, by performing processing according to the flowchart shown in FIG. 11, the pixel data of the input image signal Va can be processed to obtain the pixel data of the image signal Vb. As described above, the image signal Vb obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be supplied to the hard disk. Or is recorded.
[0151]
Although illustration of the processing device is omitted, the processing in the coefficient
[0152]
A processing procedure for generating coefficient data will be described with reference to the flowchart of FIG.
First, in step ST31, the process is started, and in step ST32, the teacher signal ST is input for one frame or one field. In step ST33, it is determined whether or not processing of all frames or all fields of the teacher signal ST has been completed. If not finished, in step ST34, the student signal SS is generated from the teacher signal ST input in step ST32.
[0153]
In this case, picture information PI paired with each pixel data of the student signal SS, and residual data and reference data used when obtaining the pixel data paired with each pixel data are also obtained. To.
[0154]
In step ST35, the pixel of the target position in the teacher signal ST is used by using the picture information PI paired with the pixel data of the student signal SS corresponding to the target position of the teacher signal ST, the residual data, and the reference data. A class code CL0 indicating a class based on the inaccuracy of the motion compensation vector information MI to which the data belongs is generated, and further using the class code CL0 and a plurality of pixel data constituting the student signal SS, the teacher signal ST A class code CL indicating the class to which the pixel data at the target position belongs is generated.
[0155]
Next, in step ST36, a plurality of pixel data (prediction tap pixel data) located around the target position in the teacher signal ST is acquired from the student signal SS generated in step ST34.
[0156]
Then, in step ST37, for each class, using the class code CL generated in step ST35, the pixel data xi of the prediction tap acquired in step ST36, and the pixel data y of the target position in the teacher signal ST, (8) Addition is performed to obtain the normal equation shown in the equation (see equations (6) and (7)).
[0157]
Next, in step ST38, it is determined whether or not the learning process has been completed in all regions of the pixel data of the teacher signal ST for one frame or one field input in step ST32. When the learning process is finished, the process returns to step ST32, the teacher signal ST for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the learning process is not finished, the process returns to step ST35 and moves to the process for the next attention position.
[0158]
When the process is completed in step ST33 described above, in step ST39, the normal equation of each class generated by the addition process in step ST37 described above is solved by a sweeping method or the like to calculate the coefficient data Wi of each class. To do. In step ST40, the coefficient data Wi of each class is stored in the memory, and then the process ends in step ST41.
[0159]
In this way, by performing processing according to the flowchart shown in FIG. 12, the coefficient data Wi of each class can be obtained by the same method as the coefficient
[0160]
In the above embodiment, the motion vector information (Δx, Δy) is detected using the edge component extracted from the reference data and the edge component extracted from the residual data, and this is used for decoding. This is information indicating the inaccuracy of the compensation vector information MI.
[0161]
However, the information indicating the inaccuracy of the motion compensation vector information MI is not limited to the motion vector information (Δx, Δy). For example, motion vector information MI is newly detected from the image signal Va by a method such as a block matching method or a gradient method, and this is compared with the vector information MI for motion compensation used at the time of decoding, thereby obtaining vector information MI for motion compensation. You may make it obtain the information which shows inaccuracy.
[0162]
In the above embodiment, the MPEG2 stream with DCT is handled. However, the present invention is also applicable to other coded digital image signals subjected to motion compensation predictive coding. Can be applied to. Further, instead of DCT, encoding with other orthogonal transforms such as a wavelet transform and a discrete sine transform may be used.
[0163]
【The invention's effect】
According to the present invention, a first image signal made up of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation predictive coding is encoded noise from a plurality of pixel data. Is converted to the second image signal with reduced light, the second used for motion compensation of the reference data used to obtain the pixel data of the first image signal corresponding to the position of interest in the second image signal Information indicating the inaccuracy of one motion vector information is acquired, and a class to which the pixel data of the target position in the second image signal belongs is detected using at least the information indicating the inaccuracy, and the class Thus, pixel data of the target position in the second image signal is generated, the accuracy of classification can be improved, and the quality of the second image signal can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a digital broadcast receiver as an embodiment.
FIG. 2 is a block diagram showing a configuration of an MPEG2 decoder.
FIG. 3 is a block diagram illustrating a configuration of a class generation unit.
FIG. 4 is a diagram illustrating an example of a coefficient ratio of a 3 × 3 Laplacian filter.
FIG. 5 is a diagram for explaining an example of block matching for correlation determination;
FIG. 6 is a diagram for explaining another example of block matching for correlation determination.
FIG. 7 is a block diagram illustrating a configuration of a class classification unit.
FIG. 8 is a diagram illustrating a tap selection block.
FIG. 9 is a block diagram illustrating a configuration of a coefficient data generation device.
FIG. 10 is a block diagram illustrating a configuration example of an image signal processing apparatus to be realized by software.
FIG. 11 is a flowchart showing image signal processing;
FIG. 12 is a flowchart showing coefficient data generation processing.
[Explanation of symbols]
31, 32... Input terminal, 32, 35... Edge component extraction circuit, 33, 36... Buffer memory, 37. Terminal: 100 ... Digital broadcast receiver 101 ...
Claims (9)
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1の抽出手段と、
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2の抽出手段と、
上記第1の抽出手段で抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2の抽出手段で抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記第2の画像信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する動きベクトル取得手段と、
少なくとも上記動きベクトル取得手段で取得された第2の動きベクトル情報から、上記第2の画像信号における注目位置の画素データが属するクラスを生成するクラス生成手段と、
上記クラス生成手段で生成されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化雑音を含む生徒信号と上記第2の画像信号に対応して符号化雑音を含まない教師信号との誤差を最小にする係数データを発生する係数データ発生手段と、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、
上記係数データ発生手段で発生された係数データおよび上記データ選択手段で選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る演算手段とを備える画像信号処理装置。A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . An image signal processing device for converting to an image signal of
First extraction means for extracting an edge component from residual data used when obtaining pixel data of the first image signal corresponding to a target position in the second image signal;
Second extraction means for extracting an edge component from reference data used in obtaining pixel data of the first image signal corresponding to a target position in the second image signal ;
The frame composed of the edge component extracted by the first extraction means is defined as a first frame, the frame composed of the edge component extracted by the second extraction means is defined as a second frame, and the frame of the first frame From the correlation information between the block and the block of the second frame, second motion vector information corresponding to the position of interest in the second image signal is obtained, and the first motion vector used for motion compensation of the reference data is obtained. Motion vector acquisition means for acquiring the second motion vector information as information indicating inaccuracy of the motion vector information;
Class generation means for generating a class to which the pixel data at the position of interest in the second image signal belongs from at least the second motion vector information acquired by the motion vector acquisition means ;
A teacher signal that is obtained in advance for each class generated by the class generating means and includes a student signal including encoding noise corresponding to the first image signal and an encoding noise corresponding to the second image signal. Coefficient data generating means for generating coefficient data that minimizes an error from the signal;
Data selection means for selecting, from the first image signal, a plurality of pixel data located around the position of interest in the second image signal;
Images that calculates a plurality of pixel data selected by the generated coefficient data and said data selecting means in said coefficient data generation means Ru and an arithmetic means for obtaining pixel data of the target position in the second image signal Signal processing device.
上記第1のフレームまたは上記第2のフレームを参照フレームとし、上記第2のフレームまたは上記第1のフレームを探索フレームとし、上記参照フレームの上記第2の画像信号における注目位置に対応したエッジ成分を含む参照ブロックと上記探索フレームの上記第2の画像信号における注目位置を中心とした所定の探索範囲内の複数の候補ブロックとの間の相関情報を検出する相関検出手段と、
上記相関検出手段で検出された上記複数の候補ブロックに対応した相関情報から、上記参照ブロックと最も相関の高い候補ブロックの位置情報を、上記第2の動きベクトル情報として出力する情報出力手段とを有する請求項1に記載の画像信号処理装置。The motion vector acquisition means includes
The first frame or the second frame is a reference frame, the second frame or the first frame is a search frame, and an edge component corresponding to the position of interest in the second image signal of the reference frame Correlation detecting means for detecting correlation information between a reference block including a plurality of candidate blocks within a predetermined search range centered on a target position in the second image signal of the search frame;
Information output means for outputting position information of a candidate block having the highest correlation with the reference block as the second motion vector information from correlation information corresponding to the plurality of candidate blocks detected by the correlation detection means. the image signal processing apparatus according to 請 Motomeko 1 that Yusuke.
上記クラス生成手段は、上記情報出力手段が上記所定情報を出力するとき、上記第2の動きベクトル情報に代わって、該所定情報を用いて、上記第2の画像信号における注目位置の画素データが属するクラスを生成する請求項2に記載の画像信号処理装置。When the correlation level indicated by the correlation information of the candidate block with the highest correlation is smaller than a preset threshold, the information output means outputs predetermined information indicating that,
When the information output means outputs the predetermined information, the class generation means uses the predetermined information instead of the second motion vector information to obtain pixel data of the target position in the second image signal. the image signal processing apparatus according to 請 Motomeko 2 that generates a class to which it belongs.
上記参照ブロックは、上記第2の画像信号における注目位置に対応した第1の画像信号の画素データを得る際に用いられたDCTブロックに対応したブロックである請求項2に記載の画像信号処理装置。The digital image signal has been subjected to MPEG encoding,
The reference block, an image signal according to 請 Motomeko 2 Ru blocks der corresponding to DCT blocks used in obtaining the pixel data of the first image signal corresponding to the target position in the second image signal Processing equipment.
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1のステップと、
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2のステップと、
上記第1のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記第2の画像信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第3のステップと、
少なくとも上記第3のステップで取得された第2の動きベクトル情報から、上記第2の画像信号における注目位置の画素データが属するクラスを生成する第4のステップと、
上記第4のステップで生成されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化雑音を含む生徒信号と上記第2の画像信号に対応して符号化雑音を含まない教師信号との誤差を最小にする係数データを発生する第5のステップと、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、
上記第5のステップで発生された係数データおよび上記第6のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第7のステップとを備える画像信号処理方法。A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensated predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . An image signal processing method for converting into an image signal of
A first step of extracting an edge component from residual data used when obtaining pixel data of the first image signal corresponding to a target position in the second image signal;
A second step of extracting an edge component from the reference data used in obtaining the pixel data of the first image signal corresponding to the target position in the second image signal ;
The frame composed of the edge component extracted in the first step is defined as a first frame, the frame composed of the edge component extracted in the second step is defined as a second frame, and the block of the first frame is defined as First motion vector used for motion compensation of the reference data by obtaining second motion vector information corresponding to the position of interest in the second image signal from the correlation information between the blocks of the second frame. A third step of obtaining the second motion vector information as information indicating information inaccuracy;
A fourth step of generating a class to which the pixel data of the target position in the second image signal belongs from at least the second motion vector information acquired in the third step;
A student signal that is obtained in advance for each class generated in the fourth step and includes coding noise corresponding to the first image signal and does not include coding noise corresponding to the second image signal. A fifth step of generating coefficient data that minimizes an error from the teacher signal;
A sixth step of selecting, from the first image signal, a plurality of pixel data located around a target position in the second image signal;
A seventh step of obtaining the pixel data of the target position in the second image signal by calculating the coefficient data generated in the fifth step and the plurality of pixel data selected in the sixth step. images signal processing method that.
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1のステップと、
上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2のステップと、
上記第1のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記第2の画像信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第3のステップと、
少なくとも上記第3のステップで取得された第2の動きベクトル情報から、上記第2の画像信号における注目位置の画素データが属するクラスを生成する第4のステップと、
上記第4のステップで生成されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化雑音を含む生徒信号と上記第2の画像信号に対応して符号化雑音を含まない教師信号との誤差を最小にする係数データを発生する第5のステップと、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、
上記第5のステップで発生された係数データおよび上記第6のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第7のステップとを備える画像信号処理方法をコンピュータに実行させるためのプログラム。A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensated predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . To convert the image signal to
A first step of extracting an edge component from residual data used when obtaining pixel data of the first image signal corresponding to a target position in the second image signal;
A second step of extracting an edge component from the reference data used in obtaining the pixel data of the first image signal corresponding to the target position in the second image signal ;
The frame composed of the edge component extracted in the first step is defined as a first frame, the frame composed of the edge component extracted in the second step is defined as a second frame, and the block of the first frame is defined as First motion vector used for motion compensation of the reference data by obtaining second motion vector information corresponding to the position of interest in the second image signal from the correlation information between the blocks of the second frame. A third step of obtaining the second motion vector information as information indicating information inaccuracy;
A fourth step of generating a class to which the pixel data of the target position in the second image signal belongs from at least the second motion vector information acquired in the third step;
A student signal that is obtained in advance for each class generated in the fourth step and includes coding noise corresponding to the first image signal and does not include coding noise corresponding to the second image signal. A fifth step of generating coefficient data that minimizes an error from the teacher signal;
A sixth step of selecting, from the first image signal, a plurality of pixel data located around a target position in the second image signal;
A seventh step of obtaining the pixel data of the target position in the second image signal by calculating the coefficient data generated in the fifth step and the plurality of pixel data selected in the sixth step. A program for causing a computer to execute an image signal processing method.
上記第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る復号化手段と、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第1の抽出手段と、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第2の抽出手段と、
上記第1の抽出手段で抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第2の抽出手段で抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記教師信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する動きベクトル取得手段と、
少なくとも上記動きベクトル取得手段で取得された第2の動きベクトル情報から、上記教師信号における注目位置の画素データが属するクラスを生成するクラス生成手段と、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、
上記クラス生成手段で生成されたクラス、上記データ選択手段で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める演算手段とを備える係数データ生成装置。A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensated predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . an apparatus for generating a locking number data that is used when converting the image signal,
Decoding means for decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal;
First extraction means for extracting an edge component from residual data used when obtaining pixel data of the student signal corresponding to a target position in the teacher signal;
Second extraction means for extracting an edge component from reference data used when obtaining pixel data of the student signal corresponding to a target position in the teacher signal ;
The frame composed of the edge component extracted by the first extraction means is defined as a first frame, the frame composed of the edge component extracted by the second extraction means is defined as a second frame, and the frame of the first frame First motion vector information used for motion compensation of the reference data by obtaining second motion vector information corresponding to the position of interest in the teacher signal from the correlation information between the block and the block of the second frame Motion vector acquisition means for acquiring the second motion vector information as information indicating the inaccuracy of
Class generation means for generating a class to which the pixel data of the target position in the teacher signal belongs from at least the second motion vector information acquired by the motion vector acquisition means ;
Data selection means for selecting a plurality of pixel data located around the target position in the teacher signal from the student signal;
Class generated by the class generation means, from the pixel data for each of the classes of the target position in the plurality of pixel data and the teacher signal selected by the data selection means, a plurality of pixel data and the teacher according to the student signal engaging the number of data generating device Ru and an arithmetic means for obtaining the coefficient data that minimizes the error between the pixel data of the target position in the signal.
上記第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る第1のステップと、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第2のステップと、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第3のステップと、
上記第2のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、上記第3のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記教師信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第4のステップと、
少なくとも上記第4のステップで取得された第2の動きベクトル情報から、上記教師信号における注目位置の画素データが属するクラスを生成する第5のステップと、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、
上記第5のステップで生成されたクラス、上記第6のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第7のステップとを備える係数データ生成方法。A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensated predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . a method of producing the engagement number data that are used in converting the image signals,
A first step of decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal;
A second step of extracting an edge component from the residual data used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal;
A third step of extracting an edge component from reference data used when obtaining pixel data of the student signal corresponding to the target position in the teacher signal ;
The frame composed of the edge component extracted in the second step is a first frame, the frame composed of the edge component extracted in the third step is a second frame, and the block of the first frame is From the correlation information between the blocks of the second frame, second motion vector information corresponding to the position of interest in the teacher signal is obtained, and the first motion vector information used for motion compensation of the reference data is determined. A fourth step of acquiring the second motion vector information as information indicating accuracy;
A fifth step of generating a class to which the pixel data of the target position in the teacher signal belongs from at least the second motion vector information acquired in the fourth step;
A sixth step of selecting, from the student signal, a plurality of pixel data located around a target position in the teacher signal;
The fifth class generated in step, from the pixel data for each of the classes of the target position in the sixth plurality of pixel data and the teacher signal selected in step, and a plurality of pixel data in accordance with the student signal seventh step and engaging number data generation process of Ru with a seeking coefficient data that minimizes the error between the pixel data of the target position in the teacher signal.
上記第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る第1のステップと、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた残差データからエッジ成分を抽出する第2のステップと、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられたリファレンスデータからエッジ成分を抽出する第3のステップと、
上記第2のステップで抽出されたエッジ成分からなるフレームを第1のフレームとし、 上記第3のステップで抽出されたエッジ成分からなるフレームを第2のフレームとし、上記第1のフレームのブロックと上記第2のフレームのブロックの間の相関情報から、上記教師信号における注目位置に対応した第2の動きベクトル情報を求め、上記リファレンスデータの動き補償に使用される第1の動きベクトル情報の不正確さを示す情報として上記第2の動きベクトル情報を取得する第4のステップと、
少なくとも上記第4のステップで取得された第2の動きベクトル情報から、上記教師信号における注目位置の画素データが属するクラスを生成する第5のステップと、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、
上記第5のステップで生成されたクラス、上記第6のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第7のステップとを備える係数データ生成方法をコンピュータに実行させるためのプログラム。A first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensated predictive coding is converted into a second image composed of a plurality of pixel data with reduced coding noise . to generate the engagement number data that is used when converting the image signal,
A first step of decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal;
A second step of extracting an edge component from the residual data used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal;
A third step of extracting an edge component from reference data used when obtaining pixel data of the student signal corresponding to the target position in the teacher signal ;
The frame composed of the edge component extracted in the second step is a first frame, the frame composed of the edge component extracted in the third step is a second frame, and the block of the first frame is From the correlation information between the blocks of the second frame, second motion vector information corresponding to the position of interest in the teacher signal is obtained, and the first motion vector information used for motion compensation of the reference data is determined. A fourth step of acquiring the second motion vector information as information indicating accuracy;
A fifth step of generating a class to which the pixel data of the target position in the teacher signal belongs from at least the second motion vector information acquired in the fourth step;
A sixth step of selecting, from the student signal, a plurality of pixel data located around a target position in the teacher signal;
The fifth class generated in step, from the pixel data for each of the classes of the target position in the sixth plurality of pixel data and the teacher signal selected in step, and a plurality of pixel data in accordance with the student signal A program for causing a computer to execute a coefficient data generation method comprising: a seventh step for obtaining coefficient data that minimizes an error from pixel data of a target position in the teacher signal .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002337197A JP4206730B2 (en) | 2002-11-20 | 2002-11-20 | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002337197A JP4206730B2 (en) | 2002-11-20 | 2002-11-20 | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004173012A JP2004173012A (en) | 2004-06-17 |
JP4206730B2 true JP4206730B2 (en) | 2009-01-14 |
Family
ID=32700810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002337197A Expired - Fee Related JP4206730B2 (en) | 2002-11-20 | 2002-11-20 | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4206730B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1968308B1 (en) | 2005-12-26 | 2011-02-23 | Nikon Corporation | Image processing method, image processing program, image processing device, and imaging device |
JP4878047B2 (en) * | 2008-10-22 | 2012-02-15 | 日本電信電話株式会社 | Video encoding method, video decoding method, video encoding device, video decoding device, video encoding program, video decoding program, and recording medium thereof |
-
2002
- 2002-11-20 JP JP2002337197A patent/JP4206730B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004173012A (en) | 2004-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4462823B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
US8514939B2 (en) | Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing | |
US20040184666A1 (en) | Image encoder, image decoder, image encoding method, and image decoding method | |
JPH08307874A (en) | Video signal encoding device | |
CN1293872A (en) | Motion vector extrapolation for transcoding video sequences | |
JP4847076B2 (en) | Method and transcoder for estimating output macroblocks and motion vectors for transcoding | |
JP2000278688A (en) | Motion vector detector, its method and image processor | |
JP3874179B2 (en) | Encoded video converter | |
JP4078906B2 (en) | Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program | |
JP4206730B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
US7991054B2 (en) | Information signal processing device, information signal processing method, image signal processing device, image displaying device, device and method for producing correction data used in them, device and method for producing coefficient data, programs for executing these methods, and computer-readable medium for storing the program | |
JP4158479B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
JP4140259B2 (en) | Information signal processing apparatus, information signal processing method, program, and computer-readable medium | |
JP4158474B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
JP4158476B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
JP4154961B2 (en) | Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program | |
JP3991800B2 (en) | INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE SIGNAL PROCESSING DEVICE AND IMAGE DISPLAY DEVICE, CORRECTION DATA GENERATION DEVICE AND GENERATION METHOD USED FOR THE SAME, PROGRAM FOR EXECUTING each METHOD, AND COMPUTER READABLE RECORDING THE PROGRAM Medium | |
JP2004173013A (en) | Motion vector detector and detection method, image signal processor using the method and processing method, coeeficient data generator for use in the processor and generation method, and program for implementing these methods | |
JP3991801B2 (en) | Information signal processing apparatus, information signal processing method and image signal processing apparatus, correction data generation apparatus and generation method used therefor, coefficient data generation apparatus and generation method, and program for executing each method | |
KR100657714B1 (en) | Method for coding image data using of 3d scanning | |
JP2002142222A (en) | Screen size-changing device of compressed image | |
JP2008193712A (en) | Coefficient type data generating apparatus and coefficient data generating apparatus | |
JP2005294967A (en) | Video encoder | |
KR19990086000A (en) | Detection method of reference macro block of MPEG decoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051110 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080701 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080924 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081007 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111031 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121031 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131031 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |