JP4158474B2 - Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method - Google Patents
Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method Download PDFInfo
- Publication number
- JP4158474B2 JP4158474B2 JP2002296691A JP2002296691A JP4158474B2 JP 4158474 B2 JP4158474 B2 JP 4158474B2 JP 2002296691 A JP2002296691 A JP 2002296691A JP 2002296691 A JP2002296691 A JP 2002296691A JP 4158474 B2 JP4158474 B2 JP 4158474B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel data
- data
- block
- image signal
- coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
この発明は、画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムに関する。
【0002】
詳しくは、この発明は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際、少なくとも差分データブロックを用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものにあって、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を差分データブロックから除去し、この補正成分が除去された差分データブロックを上述のクラス検出に用いることによって、クラス分類の精度を上げ、第2の画像信号の品質の向上を図るようにした画像信号処理装置等に係るものである。
【0003】
【従来の技術】
画像信号の圧縮符号化方式として、DCT(Discrete Cosine Transform)を用いたMPEG2(Moving Picture Experts Group 2)による符号化方式がある。この符号化方式では、ブロック毎に動き補償予測符号化が行われる。
【0004】
DCTは、ブロック内の画素に対して離散コサイン変換を施し、その離散コサイン変換により得られた係数データを再量子化し、さらにこの再量子化された係数データを可変長符号化するものである。この可変長符号化には、ハフマン符号等のエントロピー符号化が用いられることが多い。画像信号は直交変換されることにより、低周波から高周波までの多数の周波数データに分割される。
【0005】
この分割された周波数データに再量子化を施す場合、人間の視覚特性を考慮し、重要度の高い低周波データに関しては、細かく量子化を施し、重要度の低い高周波のデータに関しては、粗く量子化を施すことで、高画質を保持し、しかも効率が良い圧縮が実現できるという特長を有している。
【0006】
従来のDCTを用いた復号は、各周波数成分毎の量子化データをそのコードの代表値に変換し、それらの成分に対して逆DCT(IDCT:Inverse DCT)を施すことにより、再生データを得る。この代表値へ変換する時には、符号化時の量子化ステップ幅が使用される。
【0007】
【発明が解決しようとする課題】
上述のように、DCTを用いたMPEGによる符号化方式では、人間の視覚特性を考慮した符号化を行うことにより、高画質を保持し、高効率の圧縮が実現できるという特長がある。
【0008】
しかし、DCTを行う符号化はブロックを単位とした処理であることから、圧縮率が高くなるに従い、ブロック状の雑音、いわゆるブロック雑音(ブロック歪み)が発生することがある。また、エッジ等の急激な輝度変化がある部分には、高周波成分を粗く量子化したことによるざわざわとした雑音、いわゆるモスキート雑音が発生する。
【0009】
これらブロック雑音、モスキート雑音等の符号化雑音を、クラス分類適応処理によって除去することが考えられる。すなわち、符号化雑音を含む画像信号を第1の画像信号とし、符号化雑音が除去された画像信号を第2の画像信号とし、第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものである。
【0010】
この場合、少なくとも差分データブロックとしてのDCTデータブロックを用いて、第2の画像信号における注目位置の画素データが属するクラスを検出することも考えられる。
【0011】
しかし、このDCTデータブロックは、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を持っている。そのため、このDCTデータブロックをそのまま用いてクラス分類を行うとすれば、その補正成分によりクラス分類を精度よく行うことができず、第2の画像信号の品質の向上を図ることが困難となる。
【0012】
そこで、この発明では、クラス分類の精度を上げ、第2の画像信号の品質の向上を図ることを目的とする。
【0013】
【課題を解決するための手段】
この発明に係る画像信号処理装置は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に変換する場合に、当該第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す直交逆変換手段と、上記直交逆変換手段で得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得るブロック化手段と、上記ブロック化手段で得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る直交変換手段と、上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する補正成分除去手段と、少なくとも、上記補正成分が除去された差分データブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、上記クラス検出手段で検出されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化歪みを含む生徒信号と上記第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する係数データ発生手段と、上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、上記係数データ発生手段で発生された係数データおよび上記データ選択手段で選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る演算手段とを備えるものである。
【0014】
また、この発明に係る画像信号処理方法は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に変換する場合に、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す第1のステップと、上記第1のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第2のステップと、上記第2のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第3のステップと、上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第4のステップと、少なくとも上記第4のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出する第5のステップと、上記第5のステップで検出されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化歪みを含む生徒信号と上記第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第6のステップと、上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第7のステップと、上記第6のステップで発生された係数データおよび上記第7のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第8のステップとを備えるものである。
【0015】
また、この発明に係るプログラムは、上述の画像信号処理方法をコンピュータに実行させるためのものである。
【0016】
この発明において、複数の画素データからなる第1の画像信号は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成されたものである。例えば、デジタル画像信号は、MPEG方式の符号化が行われたものである。
【0017】
第2の画像信号における注目位置に対応した第1の画像信号の画素データは、所定の差分データブロック、およびこの差分データブロックに係るリファレンスデータブロックとを用いて得られる。
【0018】
所定の差分データブロックは、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。このリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個のデータブロックを用いて、上述の補正成分を除去するための補正データが得られる。
【0019】
ここで、リファレンスデータブロックは、差分データブロックに対して動き補償されて得られたものであって、上述した一個または複数個のデータブロックのデータを含むものとなる。そのため、このリファレンスデータブロックには、これら一個または複数個のデータブロックによるブロック段差歪みが含まれる。
【0020】
そして、所定の差分データブロックは、符号化時に、所定のデータブロックからこのリファレンスデータブロックを差し引くことで得られたものである。したがって、所定の差分データブロックは、上述したように、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。
【0021】
差分データブロックが有するブロック段差歪みを補正する成分は、上述したように得られる補正データを用いて除去される。少なくとも、このように補正成分が除去された差分データブロックを用いて、第2の画像信号における注目位置の画素データが属するクラスが検出される。
【0022】
そして、このように検出されたクラスに対応して、第2の画像信号における注目位置の画素データが生成される。例えば、クラスに対応した、推定式で用いられる係数データが発生される。また、第1の画像信号に基づいて、第2の画像信号における注目位置の周辺に位置する複数の画素データが選択される。そして、これら係数データおよび複数の画素データが用いられ、推定式に基づいて第2の画像信号における注目位置の画素データが算出される。
【0023】
例えば、上述したようにデジタル画像信号はMPEG方式の符号化が行われたものであって、差分データブロックがDCT係数からなるDCTデータブロックである場合、以下のようにして、補正データが取得される。
【0024】
すなわち、差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の、DCT係数からなるDCTデータブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個のDCTデータブロックに対して逆離散コサイン変換が施される。
【0025】
この逆離散コサイン変換によって得られた一個または複数個の、画素データからなる画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データが選択的に取り出されて一個の、画素データからなる画素データブロックが得られる。そして、この画素データブロックに対して離散コサイン変換を施すことで、補正データとしてのDCT係数からなるDCTデータブロックが得られる。
【0026】
あるいは、差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の、画素データからなる画素データブロックにおける画素データの平均値がブロック毎に得られる。
【0027】
一個または複数個の画素データブロックを構成する画素データが、上述のように得られた平均値で置き換えられた状態で、この一個または複数個の画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出されて一個の、画素データからなる画素データブロックが得られる。そして、この画素データブロックに対して離散コサイン変換を施すことで、補正データとしてのDCT係数からなるDCTデータブロックが得られる。
【0028】
上述したように補正データが得られる場合、差分データブロックの各AC係数に補正データの対応するAC係数が加算されることで、差分データブロックが有する補正成分が除去される。またその場合、少なくとも、補正成分が除去された差分データブロックのAC係数を用いて、第2の画像信号における注目位置の画素データが属するクラスが検出される。
【0029】
このように、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際、少なくとも差分データブロックを用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものにあって、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を差分データブロックから除去し、この補正成分が除去された差分データブロックを上述のクラス検出に用いるものであり、クラス分類の精度を向上させることができ、第2の画像信号の品質の向上を図ることができる。
【0030】
この発明に係る係数データ生成装置は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る復号化手段と、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す直交逆変換手段と、上記直交逆変換手段で得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得るブロック化手段と、上記ブロック化手段で得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る直交変換手段と、上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する補正成分除去手段と、少なくとも上記補正成分除去手段で補正成分が除去された差分データブロックのAC係数のレベル分布から、上記教師信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、上記クラス検出手段で検出されたクラス、上記データ選択手段で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める演算手段とを備えるものである。
【0031】
また、この発明に係る係数データ生成方法は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る第1のステップと、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す第2のステップと、上記第2のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第3のステップと、上記第3のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第4のステップと、上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第5のステップと、少なくとも上記第5のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記教師信号における注目位置の画素データが属するクラスを検出する第6のステップと、上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第7のステップと、上記第6のステップで検出されたクラス、上記第7のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第8のステップとを備えるものである。
【0032】
また、この発明に係るプログラムは、上述の係数データ生成方法をコンピュータに実行させるためのものである。
【0033】
この発明において、複数の画素データからなる第1の画像信号は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成されたものである。この発明は、この第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際に使用される推定式の係数データを生成するものである。
【0034】
教師信号における注目位置に対応した生徒信号の画素データは、所定の差分データブロック、およびこの差分データブロックに係るリファレンスデータブロックとを用いて得られる。所定の差分データブロックは、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。このリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個のデータブロックを用いて、上述の補正成分を除去するための補正データが得られる。
【0035】
差分データブロックが有するブロック段差歪みを補正する成分は、上述したように得られる補正データを用いて除去される。そして、少なくとも、このように補正成分が除去された差分データブロックを用いて、教師信号における注目位置の画素データが属するクラスが検出される。
【0036】
また、生徒信号に基づいて、教師信号における注目位置の周辺に位置する複数の画素データが選択される。そして、教師信号における注目位置の画素データが属するクラス、選択された複数の画素データおよび教師信号における注目位置の画素データを用いて、クラス毎に、係数データが求められる。
【0037】
上述したようにして第1の画像信号を第2の画像信号に変換する際に使用される推定式の係数データが生成されるが、第1の画像信号から第2の画像信号に変換する際には、第2の画像信号における注目位置の画素データが属するクラスに対応した係数データが選択的に使用されて、推定式により、第2の画像信号における注目位置の画素データが算出される。
【0038】
これにより、推定式を使用して第1の画像信号から第2の画像信号に変換する場合に、クラス分類の精度を向上させることができ、第2の画像信号の品質の向上を図ることができる。
【0039】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのデジタル放送受信機100の構成を示している。
このデジタル放送受信機100は、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号RMを受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。
【0040】
また、デジタル放送受信機100は、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106とを有している。
【0041】
また、デジタル放送受信機100は、このチューナ部106より出力されるMPEG2ストリームを復号化して画像信号Vaを得るMPEG2復号化器107と、このMPEG2復号化器107より出力される画像信号Vaを一時的に格納するバッファメモリ108とを有している。
【0042】
なお、本実施の形態において、MPEG2復号化器107からは、画像信号Vaを構成する各画素データの他に、画素位置モード情報pi、ピクチャ情報PI,動き補償用ベクトル情報MIも出力される。画素位置モード情報piは、出力される画素データが例えばDCTブロックの8×8の画素位置のいずれにあったかを示す情報である。ピクチャ情報PIは、出力される画素データがIピクチャ(Intra-Picture)、Pピクチャ(Predictive-Picture)、Bピクチャ(Bidirectionally predictive-Picture)のいずれのピクチャに係るものであったかを示す情報である。動き補償用ベクトル情報MIは、出力される画素データがPピクチャ、Bピクチャに係るものである場合、その画素データを復号する際のリファレンスデータブロックがどのように動き補償されたかを示す情報である。
【0043】
バッファメモリ108には、各画素データと対にして情報pi,PI,MIも格納される。さらに、MPEG2復号化器107からは、後述する抽出回路75で抽出される各DCTブロックに対応した量子化特性指定情報QIおよび可変長復号化回路74で得られる各DCTブロックの量子化DCT係数も出力される。これら量子化特性指定情報QIおよびDCT係数は、後述する画像信号処理部110を構成する残差クラス生成部121に内蔵されたメモリに格納される。
【0044】
図2は、MPEG2復号化器107の構成を示している。
この復号化器107は、MPEG2ストリームが入力される入力端子71と、この入力端子71に入力されたMPEG2ストリームを一時的に格納するストリームバッファ72とを有している。
【0045】
また、この復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより周波数係数としてのDCT(Discrete Cosine Transform:離散コサイン変換)係数を抽出する抽出回路73と、この抽出回路73で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路74とを有している。
【0046】
また、この復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより量子化特性指定情報QIを抽出する抽出回路75と、この量子化特性指定情報QIに基づいて、可変長復号化回路74より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路76と、この逆量子化回路76より出力されるDCT係数に対して逆DCTを行う逆DCT回路77とを有している。
【0047】
また、復号化器107は、IピクチャおよびPピクチャのデータブロックをメモリ(図示せず)に記憶すると共に、これらのデータブロックを用いて逆DCT回路77からPピクチャまたはBピクチャの差分(残差)データブロックが出力されるとき、対応するリファレンスデータブロックVrefを生成して出力する予測メモリ回路78を有している。
【0048】
また、復号化器107は、逆DCT回路77からPピクチャまたはBピクチャの差分データブロックが出力されるとき、その差分データブロックに予測メモリ回路78で生成されたリファレンスデータブロックVrefを加算する加算回路79を有している。なお、逆DCT回路77からIピクチャのデータブロックが出力されるとき、予測メモリ回路78から加算回路79にリファレンスデータブロックVrefは供給されず、従って加算回路79からは逆DCT回路77より出力されるIピクチャのデータブロックがそのまま出力される。
【0049】
また、復号化器107は、加算回路79より出力されるIピクチャおよびPピクチャのデータブロックを予測メモリ回路78に供給してメモリに記憶させると共に、この加算回路79より出力される各ピクチャのデータブロックを正しい順に並べ直して画像信号Vaとして出力するピクチャ選択回路80と、このピクチャ選択回路80より出力される画像信号Vaを出力する出力端子81とを有している。
【0050】
また、復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより符号化制御情報、すなわちピクチャ情報PI、動き補償用ベクトル情報MIを抽出する抽出回路82を有している。抽出回路82で抽出される動き補償用ベクトル情報MIは予測メモリ回路78に供給され、この予測メモリ回路78ではこの動き補償用ベクトル情報MIを用いてリファレンスデータブロックVrefを生成する際に動き補償が行われる。抽出回路82で抽出されるピクチャ情報PIは予測メモリ回路78、ピクチャ選択回路80に供給され、これら予測メモリ回路78、ピクチャ選択回路80ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。
【0051】
なお、ピクチャ選択回路80から画像信号Vaを出力する際、この画像信号Vaを構成する各画素データの他に、それぞれの画素データと対となって、その画素データがDCTブロックの8×8の画素位置のいずれにあったかを示す画素位置モード情報pi、さらにはその画素データに対応した動き補償用ベクトル情報MIおよびピクチャ情報PIも出力される。
【0052】
また、復号化器107は、抽出回路75で抽出される各DCTブロックに対応した量子化特性指定情報QIを出力する出力端子83と、可変長復号化回路74で得られる各DCTブロックの量子化DCT係数を出力する出力端子84とを有している。
【0053】
図2に示すMPEG2復号化器107の動作を説明する。
ストリームバッファ72に記憶されているMPEG2ストリームが抽出回路73に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路74に供給されて復号化される。そして、この可変長復号化回路74より出力される各DCTブロックの量子化DCT係数が逆量子化回路76に供給されて逆量子化が施される。
【0054】
逆量子化回路76より出力される各DCTブロックのDCT係数に対して逆DCT回路77で逆DCTが施されて各ピクチャのデータブロックが得られる。この各ピクチャのデータブロックは加算回路79を介してピクチャ選択回路80に供給される。この場合、逆DCT回路77からPピクチャまたはBピクチャの差分(残差)データブロックが出力されるとき、加算回路79で予測メモリ回路78より出力されるリファレンスデータブロックVrefが加算される。そして、加算回路79より出力される各ピクチャのデータブロック(画素データブロック)はピクチャ回路80で正しい順に並べ直されて出力端子81に出力される。
【0055】
なお、このようにピクチャ選択回路80から画像信号Vaが出力される場合、この画像信号Vaを構成する各画素データの他に、それぞれの画素データと対となって、画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PIも出力される。
【0056】
また、抽出回路75で抽出される各DCTブロックに対応した量子化特性指定情報QIは出力端子83に出力される。さらに、可変長復号化回路74で得られる各DCTブロックの量子化DCT係数は出力端子84に出力される。
【0057】
図1に戻って、また、デジタル放送受信機100は、バッファメモリ108に記憶されている画像信号Vaを、ブロック雑音(ブロック歪み)やモスキート雑音などの符号化雑音が低減された画像信号Vbに変換する画像信号処理部110と、この画像信号処理部110より出力される画像信号Vbによる画像を表示するディスプレイ部111とを有している。ディスプレイ部111は、例えばCRT(Cathode-Ray Tube)ディスプレイ、あるいはLCD(Liquid Crystal Display)等の表示器で構成されている。
【0058】
図1に示すデジタル放送受信機100の動作を説明する。
チューナ部106より出力されるMPEG2ストリームはMPEG2復号化器107に供給されて復号化される。そして、この復号化器107より出力される画像信号Vaは、バッファメモリ108に供給されて一時的に格納される。
【0059】
この場合、復号器107からは、画像信号Vaの各画素データと対となって、画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PIが出力される。これら画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PIもバッファメモリ108に一時的に格納される。
【0060】
またこの場合、復号器107からは、各DCTブロックに対応した量子化特性指定情報QIおよび各DCTデータブロックの量子化DCT係数も出力される。これら量子化特性指定情報QIおよび量子化DCT係数は、画像信号処理部110を構成する残差クラス生成部121に内蔵されたメモリに格納される。
【0061】
このようにバッファメモリ108に記憶されている画像信号Vaは画像信号処理部110に供給され、符号化雑音が低減された画像信号Vbに変換される。この画像信号処理部110では、画像信号Vaを構成する画素データから、画像信号Vbを構成する画素データが得られる。この画像信号処理部110では、バッファメモリ108に格納されている画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PI、さらには残差クラス生成部121内のメモリに格納されている量子化特性指定情報QIおよび量子化DCT係数が用いられて、変換処理が行われる。
【0062】
画像信号処理部110より出力される画像信号Vbはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vbによる画像が表示される。
【0063】
次に、画像信号処理部110の詳細を説明する。
画像信号処理部110は、画像信号Vbにおける注目位置の画素データが属する残差クラスを示す残差クラスコードCL0を生成する残差クラス生成部121を有している。この残差クラス生成部121では、画像信号Vbの注目位置に対応した画像信号Vaの画素データと対となってバッファメモリ108に記憶されている動き補償用ベクトル情報MIおよびピクチャ情報PIと、内蔵のメモリに格納されている量子化特性指定情報QIおよび量子化DCT係数が用いられて、残差クラスコードCL0が生成される。
【0064】
図3は、残差クラス生成部121の具体的な構成を示している。
この残差クラス生成部121は、上述したMPEG2復号化器107より出力される量子化特性指定情報QIが入力される入力端子31と、この入力端子31に入力される量子化特性指定情報QIを一時的に格納するためのメモリ32と、上述したMPEG2復号化器107より出力される量子化DCT係数が入力される入力端子33と、この入力端子33に入力される量子化DCT係数を一時的に格納するためのメモリ34とを有している。
【0065】
また、残差クラス生成部121は、動き補償用ベクトル情報MIおよびピクチャ情報PIが入力される入力端子35を有している。情報MI,PIは、メモリ32,34に読み出し制御情報として供給されると共に、情報PIは後述するクラス生成回路43に動作制御情報として供給される。
【0066】
ここで、画像信号Vbにおける注目位置に対応した画像信号Vaの画素データを得る際に用いられたDCT係数からなるDCTデータブロックを注目DCTデータブロックとすると共に、この注目DCTデータブロックに逆DCTを施して得られた画素データブロックに加算されるリファレンスデータブロックを注目リファレンスデータブロックとする。また、注目リファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なり、この注目リファレンスデータブロックを構成する際に用いられた一個または複数個の画素データブロックを使用画素データブロックとし、さらにこの使用画素データブロックを得る際に用いられたDCTデータブロックを使用DCTデータブロックとする。
【0067】
ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ34からは、注目DCTデータブロックが読み出されると共に、使用DCTデータブロックのDC係数が読み出される。ここで、Pピクチャの場合には前方向からの予測符号化であるので、使用画素データブロックは1個、2個または4個となり、Bピクチャの場合には両方向からの予測符号化であるので、使用画素データブロックはそれぞれの方向で1個、2個または4個である。
【0068】
図4Aは、例えば、Pピクチャの場合であって、使用画素データブロックが4個であり、その4個の使用画素データブロックを得る際に用いられる4個の使用DCTデータブロックDB1〜DB4を示している。この図4Aにおいて、破線は、注目リファレンスデータブロックのブロック位置を示している。この場合、メモリ34からは、この4個のDCTデータブロックDB1〜DB4のDC係数DC1〜DC4が読み出される。
【0069】
同様に、ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ32からは、注目DCTデータブロックに対応した量子化特性指定情報QIaが読み出されると共に、使用DCTデータブロックに対応した量子化特性指定情報QIbが読み出される。
【0070】
また、残差クラス生成部121は、メモリ34より読み出される使用DCTデータブロックのDC係数を、メモリ32より読み出されるその使用DCTデータブロックに対応した量子化特性指定情報QIbに基づいて逆量子化する逆量子化回路36と、使用DCTデータブロックのそれぞれに対応して、逆量子化回路36で得られたDC係数をDC係数とすると共に全てのAC係数を0としたDCTデータブロックに対して逆DCTを施す逆DCT回路37とを有している。この場合、使用DCTデータブロックの個数に対応した個数の画素データブロックが得られるが、個々の画素データブロックにおいては、それを構成する8×8の画素データは全て同じ値となる。
【0071】
図4Bは、図4Aに示す4個のDCTデータブロックDB1〜DB4に対応して得られた4個の画素データブロックDB1′〜DB4′を示している。この図4Bにおいて、破線は、注目リファレンスデータブロックのブロック位置を示している。この場合、画素データブロックDB1′〜DB4′は、それぞれdc1〜dc4の値の画素データからなっている。なお、この図4Bは、図面の簡単化のため、画素データブロックDB1′〜DB4′が4×4の画素データを含むように示している。
【0072】
また、残差クラス生成部121は、逆DCT回路37で得られた画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して、一個の画素データブロックを得るブロック化回路38を有している。
【0073】
図4Cは、図4Bに示すように4個の画素データブロックDB1′〜DB4′が得られた場合に、ブロック化回路38で得られる一個の画素データブロックDB0を示している。
【0074】
なお、上述せずも、ピクチャ情報PIがPピクチャを示す場合には、上述したようにしてブロック化回路38で一個の画素データブロックDB0が得られる。しかし、ピクチャ情報PIがBピクチャを示す場合には、両方向の使用DCTデータブロックに対応して、上述した逆量子化回路36、逆DCT回路37およびブロック化回路38で並行して処理し、それぞれ一個の画素データブロックDB0を得るようにする。そして、ブロック化回路38は、最終的に両方向の画素データブロックDB0の対応する画素データ同士を加算平均し、一個の画素データブロックDB0を得る。
【0075】
また、残差クラス生成部121は、ブロック化回路38で得られた画素データブロックDB0に対してDCTを施して、DCTデータブロックを得るDCT回路39を有している。図4Dは、DCT回路39で得られるDCTデータブロックDB0′の一例を示している。C0〜C15はDCT係数を示し、C0はDC係数、C1〜C15はAC係数を示している。
【0076】
また、残差クラス生成部121は、DCT回路39で得られたDCTデータブロックのDCT係数を、メモリ32より読み出される注目DCTブロックに対応した量子化特性指定情報QIaに基づいて量子化して補正データとしてのDCTデータブロックを得る量子化回路40とを有している。この場合、量子化特性指定情報QIaに基づいて量子化を行うのは、補正データとしてのDCTデータブロックの量子化特性を注目DCTデータブロックの量子化特性に合わせるためである。
【0077】
ここで、この補正データとしてのDCTデータブロックは、一個または複数個の使用データブロックのDC係数に基づいて得られた画素データブロックにDCTを施して得られたものである。そのため、このDCTデータブロックを構成するAC係数は、注目リファレンスデータブロックに含まれるブロック段差歪みに対応したものとなる。
【0078】
また、注目リファレンスデータブロックは、注目DCTデータブロックに対して動き補償されて得られたものであって、上述した一個または複数個の使用データブロックのデータを含むものとなる。そのため、この注目リファレンスデータブロックには、これら一個または複数個のデータブロックによるブロック段差歪みが含まれる。
【0079】
そして、注目DCTデータブロックは、符号化時に、所定のデータブロックからこの注目リファレンスデータブロックを差し引いて得られた差分(残差)データブロックに、さらにDCTが施されて得られたものである。したがって、注目DCTデータブロックは、そのAC係数部分に、上述したように注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。
【0080】
また、残差クラス生成部121は、メモリ34から読み出された注目DCTデータブロックの各AC係数に量子化回路40で得られた補正データとしてのDCTデータブロックの対応するAC係数を加算して、注目DCTデータブロックが有する注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を除去する加算回路41を有している。
【0081】
上述したように補正データとしてのDCTデータブロックを構成するAC係数は、注目リファレンスデータブロックに含まれるブロック段差歪みに対応したものとなると共に、注目DCTデータブロックのAC係数は注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。そのため、注目DCTデータブロックの各AC係数に補正データとしてのDCTデータブロックの対応するAC係数を加算することで、注目DCTデータブロックのAC係数が有する注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分は除去される。
【0082】
また、残差クラス生成部121は、加算回路41で得られたブロック段差歪みの補正成分を除去した注目DCTデータブロックのDCT係数を、メモリ32より読み出される注目DCTデータブロックに対応した量子化特性指定情報QIaに基づいて逆量子化する逆量子化回路42を有している。
【0083】
また、残差クラス生成部121は、クラス生成回路43と、このクラス生成回路43で生成された残差クラスコードCL0を出力する出力端子44とを有している。クラス生成回路43は、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成する。一方、クラス生成回路43は、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、逆量子化回路42で得られるDCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成する。
【0084】
この場合、クラス生成回路43は、逆量子化回路42で得られるDCTデータブロックの各AC係数のそれぞれに例えば1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施し、レベル分布を示す残差クラスコードCL0を生成する。
【0085】
ADRCは、DCTデータブロックの全てのAC係数の最大値および最小値を求め、最大値と最小値の差であるダイナミックレンジを求め、ダイナミックレンジに適応して各AC係数を量子化するものである。1ビットのADRCの場合、各AC係数が平均値より大きいか、小さいかで1ビットに変換される。ADRC処理は、AC係数のレベル分布を表すクラスの数を比較的小さなものにするための処理である。したがって、ADRCに限らず、VQ(ベクトル量子化)等のデータビット数を圧縮する符号化を使用するようにしてもよい。
【0086】
なお、クラス生成回路43は、PピクチャおよびBピクチャを区別した状態で残差クラスコードCL0を生成するようにしてもよい。これにより、PピクチャかBピクチャかで異なるクラス分類が行われることとなり、画像信号処理部110で生成される画像信号Vbの品質の向上を図ることができる。
【0087】
図3に示す残差クラス生成部121において、画像信号Vbにおける注目位置の画素データが属する残差クラスを示す残差クラスコードCL0を生成するための動作を説明する。
【0088】
ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ34から一個または複数個の使用DCTデータブロックのDC係数が読み出されて逆量子化回路36に供給され、またメモリ32からその使用DCTデータブロックに対応した量子化特性指定情報QIbを読み出されて逆量子化回路36に供給される(図4AのDC1〜DC4参照)。逆量子化回路36は、使用DCTデータブロックのDC係数を情報QIbに基づいて逆量子化する。
【0089】
逆量子化回路36で逆量子化されたDC係数は逆DCT回路37に供給される。逆DCT回路37は、逆量子化されたDC係数をDC係数とすると共に全てのAC係数を0としたDCTデータブロックに対して、逆DCTを施して画素データブロックを得る。この場合、使用DCTデータブロックの個数に対応した個数の画素データブロックが得られるが、個々の画素データブロックを構成する各画素データは全て同じ値となる(図4BのDB1′〜DB4′参照)。
【0090】
逆DCT回路37で得られた画素データブロックはブロック化回路38に供給される。ブロック化回路38は、逆DCTが施されて得られた画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して、一個の画素データブロックを得る(図4CのDB0参照)。
【0091】
このブロック化回路38で得られた一個の画素データブロックはDCT回路39に供給される。DCT回路39は、その一個の画素データブロックに対してDCTを施し、DCTデータブロックを得る(図4DのDB0′参照)。このようにDCT回路39で得られたDCTデータブロックは量子化回路40に供給される。この量子化回路40には、さらに、メモリ32から注目DCTデータブロックに対応した量子化特性指定情報QIaが読み出されて供給される。量子化回路40は、DCT回路39で得られたDCTデータブロックを、情報QIaに基づいて量子化し、補正データとしてのDCTデータブロックを得る。
【0092】
この補正データとしてのDCTデータブロックは、一個または複数個の使用DCTデータブロックのDC係数に基づいて得られた画素データブロックにDCTを施して得られたものである。そのため、この補正データとしてのDCTデータブロックを構成するAC係数は、注目リファレンスデータブロックに含まれるブロック段差歪みに対応したものとなる。
【0093】
量子化回路40で得られた補正データとしてのDCTデータブロックは加算回路41に供給される。この加算回路41には、メモリ34から注目DCTデータブロックが読み出されて供給される。この注目DCTデータブロックは、そのAC係数部分に、注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。加算回路41は、注目DCTデータブロックの各AC係数に、補正データとしてのDCTデータブロックの対応するAC係数を加算する。これにより、注目DCTデータブロックが有する、注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分が除去される。
【0094】
加算回路41でブロック段差歪みの補正成分が除去された注目DCTデータブロックは逆量子化回路42に供給される。この逆量子化回路42には、メモリ32から注目DCTデータブロックに対応した量子化特性指定情報QIaが読み出されて供給される。逆量子化回路42は、ブロック段差歪みの補正成分が除去された注目DCTデータブロックを、情報QIaに基づいて逆量子化する。
【0095】
そして、クラス生成回路43は、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成する。一方、クラス生成回路43は、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、逆量子化回路42で得られるDCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成する。このようにクラス生成回路43で生成されるクラスコードCL0は出力端子44に出力される。
【0096】
このように図3に示す残差クラス生成部121は、ピクチャ情報PIがPピクチャまたはBピクチャを示すとき、注目DCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成するものであるが、この注目DCTデータブロックの各AC係数として、注目リファレンスデータブロックに含まれるブロック段差歪みの補正成分が除去されたものが用いられる。したがって、残差クラスのクラス分類の精度を向上させることができ、画像信号Vbの品質の向上を図ることができる。
【0097】
図5のフローチャートは、上述した残差クラスコードCLOの生成処理の手順を示している。
まず、ステップST1で処理を開始し、ステップST2で、ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ34から一個または複数個の使用DCTデータブロックのDC係数を読み出す。そして、ステップST3で、メモリ32から使用DCTデータブロックに対応した量子化特性指定情報QIbを読み出し、この情報QIbに基づいて、ステップST2で読み出されたDC係数を逆量子化する。
【0098】
次に、ステップST4で、逆量子化されたDC係数をDC係数とすると共に全てのAC係数を0としたDCTデータブロックに対して、逆DCTを施して画素データブロックを得る。そして、ステップST5で、逆DCTが施されて得られた画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の画素データブロックを生成する。
【0099】
次に、ステップST6で、生成された一個の画素データブロックに対してDCTを施し、さらにメモリ32から注目DCTデータブロックに対応した量子化特性指定情報QIaを読み出し、この情報QIaに基づいて量子化し、補正データとしてのDCTデータブロックを得る。そして、ステップST7で、メモリ34から注目DCTデータブロックを読み出し、その各AC係数に補正データとしてのDCTデータブロックの対応するAC係数を加算して、注目DCTデータブロックが有する注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を除去する。
【0100】
次に、ステップST8で、ブロック段差歪みの補正成分が除去された注目DCTデータブロックを、注目DCTデータブロックに対応した量子化特性指定情報QIaに基づいて逆量子化する。そして、ステップST9で、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成し、一方、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、ステップ8で得られたDCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成する。その後に、ステップST10で処理を終了する。
【0101】
図1に戻って、また、画像信号処理部110は、バッファメモリ108に記憶されている画像信号Vaより、画像信号Vbにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力するデータ選択手段としての予測タップ選択回路122を有している。この予測タップ選択回路122は、予測に使用する予測タップの複数の画素データを選択的に取り出すものである。
【0102】
また、画像信号処理部110は、画像信号Vbにおける注目位置の画素データが属するクラスを検出するクラス検出手段としてのクラス分類部123を有している。
【0103】
このクラス分類部123は、バッファメモリ108に記憶されている画像信号Vaを構成する複数の画素データ、バッファメモリ108に画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データと対となって格納されている画素位置モードの情報pi、および残差クラス生成部121で生成された残差クラスコードCL0を用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0104】
図6は、クラス分類部123の構成を示している。
このクラス分類部123は、画像信号Vaを入力する入力端子50Aと、この入力端子50Aに入力される画像信号Vaに基づいて、画像信号Vbにおける注目位置の画素データが属するn種類のクラスを検出するために使用するクラスタップの複数の画素データをそれぞれ選択的に取り出すタップ選択回路50B1〜50Bnと、このタップ選択回路50B1〜50Bnで取り出された画素データをそれぞれ用いてn種類のクラスを示すクラスコードCL1〜CLnを生成するクラス生成回路50C1〜50Cnとを有している。
【0105】
本実施の形態においては、6種類のクラスを示すクラスコードCL1〜CL6を生成する。6種類のクラスは、空間波形クラス、時間変動クラス、AC変動クラス、フラットクラス、ライン相関クラス、ブロックエッジクラスである。各クラスについて簡単に説明する。
【0106】
▲1▼空間波形クラスを説明する。タップ選択回路50B1およびクラス生成回路50C1は、この空間波形クラスの検出系を構成しているものとする。
タップ選択回路50B1は、画像信号VaのTフレーム(現在フレーム)およびT−1フレーム(1フレーム前のフレーム)より、画像信号Vbにおける注目位置に対して空間方向の周辺に位置する複数の画素データを選択的に取り出すものであり、上述した予測タップ選択回路122と同様のものである。クラス生成回路50C1は、タップ選択回路50B1で選択された複数の画素データのそれぞれに例えば1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施し、空間波形クラスを示すクラスコードCL1を生成する。
【0107】
▲2▼時間変動クラスを説明する。タップ選択回路50B2およびクラス生成回路50C2は、この時間変動クラスの検出系を構成しているものとする。
タップ選択回路50B2は、画像信号Vaの現在フレーム(Tフレーム)から、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図7に示す注目ブロック)の画素データを取り出すと共に、画像信号Vaの1フレーム前の過去フレーム(T−1フレーム)から、注目ブロックに対応したブロック(図7に示す過去ブロック)の画素データを取り出す。
【0108】
クラス生成回路50C2は、注目ブロックの8×8個の画素データと過去ブロックの8×8個の画素データとの間で対応する画素毎に減算を行って8×8個の差分値を求め、さらにこの8×8個の差分値の二乗和を求め、この二乗和を閾値判定して、時間変動クラスを示すクラスコードCL2を生成する。
【0109】
▲3▼AC変動クラスを説明する。タップ選択回路50B3およびクラス生成回路50C3は、このAC変動クラスの検出系を構成しているものとする。
タップ選択回路50B3は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図7に示す注目ブロック)の画素データを取り出すと共に、画像信号Vaの1フレーム前の過去フレームから、注目ブロックに対応したブロック(図7に示す過去ブロック)の画素データを取り出す。
【0110】
クラス生成回路50C3は、注目ブロックの8×8個の画素データと、過去ブロックの8×8個の画素データとのそれぞれに対して、DCT処理を施してDCT係数(周波数係数)を求める。そして、クラス生成回路50C3は、AC部分の各基底位置において、どちらかに係数が存在する基底位置の数m1と、そのうち符号反転しているものおよび片方の係数が0であるものの基底位置の数m2を求め、m1/m2を閾値判定して、AC変動クラスを示すクラスコードCL3を生成する。時間変動の少ないブロックでは、このAC変動クラスにより、モスキート歪みに対応したクラス分類を行うことが可能である。
【0111】
▲4▼フラットクラスを説明する。タップ選択回路50B4およびクラス生成回路50C4は、このフラットクラスの検出系を構成しているものとする。
タップ選択回路50B4は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図7に示す注目ブロック)の画素データを取り出す。クラス生成回路50C4は、注目ブロックの8×8個の画素データの最大値と最小値を検出し、その差分であるダイナミックレンジを閾値判定して、フラットクラスを示すクラスコードCL4を生成する。
【0112】
▲5▼ライン相関クラスについて説明する。タップ選択回路50B5およびクラス生成回路50C5は、このライン相関クラスの検出系を構成しているものとする。
タップ選択回路50B5は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図7に示す注目ブロック)の画素データを取り出す。
【0113】
クラス生成回路50C5は、注目ブロックの8×8個の画素データの1ライン目と2ライン目、3ライン目と4ライン目、5ライン目と6ライン目、7ライン目と8ライン目の画素間で対応する画素毎に減算を行って8×4個の差分値を求め、さらにこの8×4個の差分値の二乗和を求め、この二乗和を閾値判定して、ライン相関クラスを示すクラスコードCL5を生成する。このライン相関クラスは、静止画像などフレーム内の相関が高いか、あるいは動きが速くフレーム内よりもフィールド内の相関が高いかを示すものとなる。
【0114】
▲6▼ブロックエッジクラスについて説明する。タップ選択回路50B6およびクラス生成回路50C6は、このブロックエッジクラスの検出系を構成しているものとする。
タップ選択回路50B6は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図7に示す注目ブロック)の画素データを取り出すと共に、その現在フレームから、注目ブロックに対して上下左右に隣接したブロック(図7に示す隣接ブロック)の画素データを取り出す。
【0115】
クラス生成回路50C6は、注目ブロックの4辺の各8個の画素データとそれに隣接する隣接ブロックの画素データとの間で対応する画素毎に減算を行って4×8個の差分値を求め、さらにこの各8個の差分値の二乗和を求め、注目ブロックの4辺にそれぞれ対応した4個の二乗和をそれぞれ閾値判定して、ブロックエッジクラスを示すクラスコードCL6を生成する。
【0116】
また、クラス分類部123は、画素位置モードの情報piを入力する入力端子50Dと、残差クラスコードCL0を入力する入力端子50Eを有している。画素位置モードの情報piは、そのまま画素位置モードクラスを示すクラスコードCLpとなる。例えば、DCTブロックが8×8の画素データからなるとき、このクラスコードCLpは64の画素位置モードのいずれかを表すコードとなる。
【0117】
また、クラス分類部123は、クラス生成回路50C1〜50Cnで生成されるクラスコードCL1〜CLn、入力端子50D,50Eに入力されるクラスコードCLp,CL0を統合して1個のクラスコードCLとするクラス統合回路50Fと、このクラスコードCLを出力する出力端子50Gとを有している。
【0118】
本実施の形態において、クラス統合回路50Fは、クラス生成回路50C1〜50C6で生成されたクラスコードCL1〜CL6、さらにはクラスコードCLp,CL0を統合して、1つのクラスコードCLとする。
【0119】
図1に戻って、また、画像信号処理部110は、係数メモリ124を有している。この係数メモリ124は、後述する推定予測演算回路125で使用される推定式で用いられる係数データWi(i=1〜n、nは予測タップの個数)を、クラス毎に、格納するものである。
【0120】
この係数データWiは、画像信号Vaを画像信号Vbに変換するための情報である。この係数メモリ124に格納される係数データWiは、予め画像信号Vaに対応した生徒信号と画像信号Vbに対応した教師信号との間の学習によって生成される。この係数メモリ124には上述したクラス分類部123より出力されるクラスコードCLが読み出しアドレス情報として供給され、この係数メモリ124からはクラスコードCLに対応した推定式の係数データWiが読み出されて、推定予測演算回路125に供給される。係数データWiの生成方法については後述する。
【0121】
また、画像信号処理部110は、予測タップ選択回路122で選択的に取り出される予測タップの画素データxiと、係数メモリ124より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vbにおける注目位置の画素データyを演算する推定予測演算回路125を有している。
【0122】
【数1】
【0123】
この画像信号処理部110の動作を説明する。
残差クラス生成部121では、画像信号Vbの注目位置に対応した画像信号Vaの画素データと対となってバッファメモリ108に記憶されている動き補償用ベクトル情報MIおよびピクチャ情報PIと、内蔵のメモリ32,34に格納されている量子化特性指定情報QIおよび量子化DCT係数が用いられて、残差クラスコードCL0が生成される。この残差クラスコードCL0は、ピクチャ情報PIがIピクチャを示す場合には特定のコードとなり、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、ブロック段差歪みの補正成分が除去された注目DCTデータブロックの各AC係数に基づいて生成される。
【0124】
また、クラス分類部123では、バッファメモリ108に記憶されている画像信号Vaを構成する複数の画素データ、バッファメモリ108に画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データと対となって格納されている画素位置モード情報pi、残差クラス生成部121で生成される残差クラスコードCL0を用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLが生成される。
【0125】
このようにクラス分類部123で生成されるクラスコードCLは読み出しアドレス情報として係数メモリ124に供給される。これにより、係数メモリ124からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路125に供給される。
【0126】
また、バッファメモリ108に記憶されている画像信号Vaより、予測タップ選択回路122で、画像信号Vbにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0127】
推定予測演算回路125では、予測タップの画素データxiと、係数メモリ124より読み出される係数データWiとを用いて、上述の(1)式に示す推定式に基づいて、作成すべき画像信号Vbにおける注目位置の画素データyが求められる。
【0128】
このように画像信号処理部110では、画像信号Vaから係数データWiを用いて画像信号Vbが得られる。この場合、画像信号Vaに基づいて選択された、画像信号Vbにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)、およびこの画像信号Vbにおける注目位置の画素データが属するクラスCLに対応した係数データWiを用いて、推定式に基づいて画像信号Vbにおける注目位置の画素データyを生成するものである。
【0129】
したがって、係数データWiとして、画像信号Vaに対応しこの画像信号Vaと同様の符号化雑音を含む生徒信号と画像信号Vbに対応した符号化雑音を含まない教師信号とを用いた学習によって得られた係数データWiを用いることで、画像信号Vbとして画像信号Vaに比べて符号化雑音が大幅に軽減されたものを良好に得ることができる。
【0130】
また、残差クラス生成部121では、ピクチャ情報PIがPピクチャまたはBピクチャを示すとき、注目DCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成するものであるが、この注目DCTデータブロックの各AC係数として、注目リファレンスデータブロックに含まれるブロック段差歪みの補正成分が除去されたものが用いられるものであり、残差クラスのクラス分類の精度を向上させることができ、画像信号Vbの品質の向上を図ることができる。
【0131】
次に、係数メモリ124に記憶される係数データWiの生成方法について説明する。この係数データWiは、予め学習によって生成されたものである。
【0132】
まず、この学習方法について説明する。上述の、(1)式において、学習前は係数データW1,W2,‥‥,Wnは未定係数である。学習は、クラス毎に、複数の信号データに対して行う。学習データ数がmの場合、(1)式に従って、以下に示す(2)式が設定される。nは予測タップの数を示している。
【0133】
yk=W1×xk1+W2×xk2+‥‥+Wn×xkn ・・・(2)
(k=1,2,‥‥,m)
【0134】
m>nの場合、係数データW1,W2,‥‥,Wnは、一意に決まらないので、誤差ベクトルeの要素ekを、以下の式(3)で定義して、(4)式のe2を最小にする係数データを求める。いわゆる最小2乗法によって係数データを一意に定める。
【0135】
ek=yk−{W1×xk1+W2×xk2+‥‥+Wn×xkn} ・・・(3)
(k=1,2,‥‥m)
【0136】
【数2】
【0137】
(4)式のe2を最小とする係数データを求めるための実際的な計算方法としては、まず、(5)式に示すように、e2を係数データWi(i=1,2,・・・,n)で偏微分し、iの各値について偏微分値が0となるように係数データWiを求めればよい。
【0138】
【数3】
【0139】
(5)式から係数データWiを求める具体的な手順について説明する。(6)式、(7)式のようにXji,Yiを定義すると、(5)式は、(8)式の行列式の形に書くことができる。
【0140】
【数4】
【0141】
【数5】
【0142】
(8)式は、一般に正規方程式と呼ばれるものである。この正規方程式を掃き出し法(Gauss-Jordanの消去法)等の一般解法で解くことにより、係数データWi(i=1,2,・・・,n)を求めることができる。
【0143】
図8は、図1の画像信号処理部110の係数メモリ124に格納すべき係数データWiを生成する係数データ生成装置150の構成を示している。
この係数データ生成装置150は、画像信号Vbに対応した教師信号STが入力される入力端子151と、この教師信号STに対して符号化を行ってMPEG2ストリームを得るMPEG2符号化器152と、このMPEG2ストリームに対して復号化を行って画像信号Vaに対応した生徒信号SSを得るMPEG2復号化器153とを有している。ここで、MPEG2復号化器153は、図1に示すデジタル放送受信機100におけるMPEG2復号化器107およびバッファメモリ108に対応したものである。
【0144】
また、係数データ生成装置150は、残差クラス生成部154を有している。この残差クラス生成部154は、上述した画像信号処理部110の残差クラス生成部121と同様に構成され、教師信号STにおける注目位置の画素データが属する残差クラスを示す残差クラスコードCL0を生成する。この残差クラス生成部154に内蔵されたメモリには、MPEG2復号化器153より出力される量子化特性指定情報QIおよび量子化DCT係数が一時的に格納される。この残差クラス生成部154では、教師信号STの注目位置に対応した生徒信号SSの画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIと、内蔵のメモリに格納されている量子化特性指定情報QIおよび量子化DCT係数が用いられて、残差クラスコードCL0が生成される。
【0145】
また、係数データ生成装置150は、MPEG2復号化器153より出力される生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する予測タップ選択回路155を有している。この予測タップ選択回路155は、上述した画像信号処理部110の予測タップ選択回路122と同様に構成される。
【0146】
また、係数データ生成装置150は、教師信号STにおける注目位置の画素データが属するクラスを検出するクラス検出手段としてのクラス分類部156を有している。このクラス分類部156は、上述した画像信号処理部110のクラス分類部123と同様に構成される。
【0147】
このクラス分類部156は、MPEG2復号化器153より得られる生徒信号SSを構成する複数の画素データ、MPEG2復号化器153より得られる、教師信号STにおける注目位置の画素データに対応した生徒信号SSの画素データと対となっている画素位置モード情報pi、および残差クラス生成部154で生成される残差クラスコードCL0を用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0148】
また、係数データ生成装置150は、入力端子151に供給される教師信号STの時間調整を行うための遅延回路157と、この遅延回路157で時間調整された教師信号STより得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス分類部156で生成されるクラスコードCLとから、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式(上述の(8)式参照)を生成する正規方程式生成部158を有している。
【0149】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、教師信号STと生徒信号SSとの間で、クラス毎に、多くの学習データが生成されていく。これにより、正規方程式生成部158では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式が生成される。
【0150】
また、係数データ生成装置150は、正規方程式生成部158で生成された正規方程式のデータが供給され、その正規方程式を解いて、各クラスの係数データWiを求める係数データ決定部159と、この求められた各クラスの係数データWiを格納する係数メモリ160とを有している。
【0151】
次に、図8に示す係数データ生成装置150の動作を説明する。
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてMPEG2符号化器152で、この教師信号STに対して符号化が施されて、MPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。MPEG2復号化器153で、このMPEG2ストリームに対して復号化が施されて、画像信号Vaに対応した生徒信号SSが生成される。
【0152】
残差クラス生成部154では、教師信号STの注目位置に対応した生徒信号SSの画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIと、内蔵のメモリに格納されている量子化特性指定情報QIおよび量子化DCT係数が用いられて、教師信号STにおける注目位置の画素データが属する残差クラスを示す残差クラスコードCL0が生成される。
【0153】
クラス分類部156では、MPEG2復号化器153より得られる生徒信号SSを構成する複数の画素データ、MPEG2復号化器153より得られる、教師信号STにおける注目位置の画素データに対応した生徒信号SSの画素データと対となっている画素位置モード情報pi、残差クラス生成部154で生成された残差クラスコードCL0を用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLが生成される。
【0154】
また、MPEG2復号化器153より得られる生徒信号SSより、予測タップ選択回路155で、教師信号STにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0155】
そして、遅延回路157で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス分類部156で生成されるクラスコードCLとを用いて、正規方程式生成部158では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((8)式参照)が生成される。この正規方程式は係数データ決定部159で解かれて各クラスの係数データWiが求められ、その係数データWiは係数メモリ160に格納される。
【0156】
このように、図8に示す係数データ生成装置150においては、図1の画像信号処理部110の係数メモリ124に格納される各クラスの係数データWiを生成することができる。
【0157】
生徒信号SSは、教師信号STに対して符号化を施してMPEG2ストリームを生成し、その後このMPEG2ストリームに対して復号化を施して得たものである。したがって、この生徒信号SSは、画像信号Vaと同様の符号化雑音を含んだものとなる。そのため、図1に示す画像信号処理部110において、画像信号Vaからこの係数データWiを用いて得られる画像信号Vbは、画像信号Vaに比べて符号化雑音が軽減されたものとなる。
【0158】
なお、図1の画像信号処理部110における処理を、例えば図9に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。
【0159】
まず、図9に示す画像信号処理装置300について説明する。この画像信号処理装置300は、装置全体の動作を制御するCPU301と、このCPU301の制御プログラムや係数データ等が格納されたROM(Read Only Memory)302と、CPU301の作業領域を構成するRAM(Random Access Memory)303とを有している。これらCPU301、ROM302およびRAM303は、それぞれバス304に接続されている。
【0160】
また、画像信号処理装置300は、外部記憶装置としてのハードディスクドライブ(HDD)305と、フロッピー(登録商標)ディスク306をドライブするドライブ(FDD)307とを有している。これらドライブ305,307は、それぞれバス304に接続されている。
【0161】
また、画像信号処理装置300は、インターネット等の通信網400に有線または無線で接続する通信部308を有している。この通信部308は、インタフェース309を介してバス304に接続されている。
【0162】
また、画像信号処理装置300は、ユーザインタフェース部を備えている。このユーザインタフェース部は、リモコン送信機200からのリモコン信号RMを受信するリモコン信号受信回路310と、LCD(liquid Crystal Display)等からなるディスプレイ311とを有している。受信回路310はインタフェース312を介してバス304に接続され、同様にディスプレイ311はインタフェース313を介してバス304に接続されている。
【0163】
また、画像信号処理装置300は、画像信号Vaを入力するための入力端子314と、画像信号Vbを出力するための出力端子315とを有している。入力端子314はインタフェース316を介してバス304に接続され、同様に出力端子315はインタフェース317を介してバス304に接続される。
【0164】
ここで、上述したようにROM302に制御プログラムや係数データ等を予め格納しておく代わりに、例えばインターネットなどの通信網400より通信部308を介してダウンロードし、ハードディスクやRAM303に蓄積して使用することもできる。また、これら制御プログラムや係数データ等をフロッピー(登録商標)ディスク306で提供するようにしてもよい。
【0165】
また、処理すべき画像信号Vaを入力端子314より入力する代わりに、予めハードディスクに記録しておき、あるいはインターネットなどの通信網400より通信部308を介してダウンロードしてもよい。また、処理後の画像信号Vbを出力端子315に出力する代わり、あるいはそれと並行してディスプレイ311に供給して画像表示をしたり、さらにはハードディスクに格納したり、通信部308を介してインターネットなどの通信網400に送出するようにしてもよい。
【0166】
図10のフローチャートを参照して、図9に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。
まず、ステップST21で、処理を開始し、ステップS22で、例えば入力端子314より装置内に1フレーム分または1フィールド分の画像信号Vaを入力する。この場合、画像信号Vaの各DCTブロック部分に対応したDCT係数および量子化特性指定情報QI、さらには画像信号Vaの画素データと対となっている画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PIも入力する。
【0167】
このように入力端子314より入力される画像信号Va等はRAM303に一時的に格納される。なお、この画像信号Va等が装置内のハードディスクドライブ305に予め記録されている場合には、このドライブ305からこの画像信号Va等を読み出し、この画像信号Va等をRAM303に一時的に格納する。
【0168】
そして、ステップST23で、画像信号Vaの全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST24で、処理を終了する。一方、処理が終わっていないときは、ステップST25に進む。
【0169】
ステップST25では、画像信号Vbの注目位置に対応した画像信号Vaの画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIと、量子化特性指定情報QIおよびDCT係数を用いて、残差クラスコードCL0を生成し、さらにこの残差クラスコードCL0、画像信号Vaを構成する複数の画素データおよび画素位置モード情報piを用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0170】
次に、ステップST26で、ステップST22で入力された画像信号Vaより、画像信号Vbにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)を取得する。そして、ステップST27で、ステップST25で生成されたクラスコードCLに対応した係数データWiとステップST26で取得された予測タップの画素データxiを使用して、(1)式の推定式に基づいて、画像信号Vbにおける注目位置の画素データyを生成する。
【0171】
次に、ステップST28で、ステップST22で入力された1フレームまたは1フィールド分の画像信号Vaの画素データの全領域において画像信号Vbの画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST22に戻り、次の1フレーム分または1フィールド分の画像信号Vaの入力処理に移る。一方、処理が終了していないときは、ステップST25に戻って、次の注目位置についての処理に移る。
【0172】
このように、図10に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0173】
また、処理装置の図示は省略するが、図8の係数データ生成装置150における処理も、ソフトウェアで実現可能である。
【0174】
図11のフローチャートを参照して、係数データを生成するための処理手順を説明する。
まず、ステップST31で、処理を開始し、ステップST32で、教師信号STを1フレーム分または1フィールド分だけ入力する。そして、ステップST33で、教師信号STの全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST34で、ステップST32で入力された教師信号STから生徒信号SSを生成する。この場合、生徒信号SSの各DCTブロック部分に対応したDCT係数および量子化特性指定情報QI、さらには生徒信号SSの画素データと対となっている画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PIも得る。
【0175】
そして、ステップST35で、教師信号STの注目位置に対応した生徒信号SSの画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIと、量子化特性指定情報QIおよびDCT係数を用いて、残差クラスコードCL0を生成し、さらにこの残差クラスコードCL0、生徒信号SSを構成する複数の画素データおよび画素位置モード情報piを用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0176】
次に、ステップST36で、ステップST34で生成された生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)を取得する。
【0177】
そして、ステップST37で、ステップST35で生成されたクラスコードCL、ステップST36で取得された予測タップの画素データxiおよび教師信号STにおける注目位置の画素データyを用いて、クラス毎に、(8)式に示す正規方程式を得るための加算をする((6)式、(7)式参照)。
【0178】
次に、ステップST38で、ステップST32で入力された1フレーム分または1フィールド分の教師信号STの画素データの全領域において学習処理が終了したか否かを判定する。学習処理を終了しているときは、ステップST32に戻って、次の1フレーム分または1フィールド分の教師信号STの入力を行って、上述したと同様の処理を繰り返す。一方、学習処理を終了していないときは、ステップST35に戻って、次の注目位置についての処理に移る。
【0179】
上述したステップST33で、処理が終了したときは、ステップST39で、上述のステップST37の加算処理によって生成された、各クラスの正規方程式を掃き出し法などで解いて、各クラスの係数データWiを算出する。そして、ステップST40で、各クラスの係数データWiをメモリに保存し、その後にステップST41で、処理を終了する。
【0180】
このように、図11に示すフローチャートに沿って処理をすることで、図8に示す係数データ生成装置150と同様の手法によって、各クラスの係数データWiを得ることができる。
【0181】
なお、上述実施の形態において、画像信号処理部110の残差クラス生成部121では、使用DCTデータブロックを用いるものを示したが、この代わりに使用画素データブロックを用いる構成とすることもできる。
【0182】
図12は、その場合における残差クラス生成部121Aの構成を示している。この図12において、図3と対応する部分には同一符号を付し、その詳細説明は省略する。
【0183】
この残差クラス生成部121Aは、上述したMPEG2復号化器107(図2参)より出力される画像信号Vaが入力される入力端子45と、この入力端子45に入力される画像信号Vaを一時的に格納するためのメモリ46とを有している。入力端子35に入力される情報MI,PIは、メモリ46に読み出し制御情報として供給される。ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ46からは、一個または複数個の使用画素データブロックが読み出される。図13Aは、例えば、Pピクチャの場合であって、4個の使用画素データブロックDBa〜DBdが用いられた場合を示している。この図13Aにおいて、破線は、注目リファレンスデータブロックのブロック位置を示している。なお、この図13Aは、図面の簡単化のため、画素データブロックDBa〜DBdが4×4の画素データを含むように示している。
【0184】
また、残差クラス生成部121Aは、メモリ46より読み出された画素データブロックにおける画素データの平均値をブロック毎に得る平均回路47を有している。この場合、使用画素データブロックの個数に対応した個数の平均値が得られる。図13Aのように、使用画素データブロックの個数が4個である場合には、4個の平均値が得られる。
【0185】
また、残差クラス生成部121Aは、上述した一個または複数個の使用画素データブロックを構成する画素データが平均回路47で得られた平均値で置き換えられた状態で、この一個または複数個の使用画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の画素データブロックを得るブロック化回路48を有している。
【0186】
例えば、図13Aに示すような4個の使用画素データブロックDBa〜DBdを構成する画素データを平均値で置き換えた場合には、図13Bに示すようになる。この場合、daはa0〜a15の平均値、dbはb0〜b15の平均値、dcはc0〜c15の平均値、ddはd0〜d15の平均値である。また、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して得られる一個の画素データブロックDB0は、図13Cに示すようになる。
【0187】
図12に示す残差クラス生成部121Aのその他は、図3に示す残差クラス生成部121と同様に構成される。
図12に示す残差クラス生成部121において、画像信号Vbにおける注目位置の画素データが属する残差クラスを示す残差クラスコードCL0を生成するための動作を説明する。
【0188】
ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ46から一個または複数個の使用画素データブロックのDCT係数が読み出されて平均回路47に供給される(図13AのDBa〜DBd参照)。平均回路47は、メモリ46より読み出された画素データブロックにおける画素データの平均値をブロック毎に求める。
【0189】
平均回路47で求められた平均値はブロック化回路48に供給される。ブロック化回路48は、上述した一個または複数個の使用画素データブロックを構成する画素データが平均回路47で得られた平均値で置き換えられた状態で(図13B参照)、この一個または複数個の使用画素データブロックより、リファレンスデータブロックのブロック位置(破線図示)に重なる位置に存在する画素データを選択的に取り出して一個の画素データブロックを得る(図13CのDB0参照)。
【0190】
このブロック化回路38で得られた一個の画素データブロックはDCT回路39に供給される。DCT回路39は、その一個の画素データブロックに対してDCTを施し、DCTデータブロックを得る(図4DのDB0′参照)。このようにDCT回路39で得られたDCTデータブロックは量子化回路40に供給される。この量子化回路40には、さらに、メモリ32から注目DCTデータブロックに対応した量子化特性指定情報QIaが読み出されて供給される。量子化回路40は、DCT回路39で得られたDCTデータブロックを、情報QIaに基づいて量子化し、補正データとしてのDCTデータブロックを得る。
【0191】
この補正データとしてのDCTデータブロックは、一個または複数個の使用画素データブロックを構成する画素データの平均値に基づいて得られた画素データブロックにDCTを施して得られたものである。そのため、この補正データとしてのDCTデータブロックを構成するAC係数も、図3に示す残差クラス生成部121におけると同様に、注目リファレンスデータブロックに含まれるブロック段差歪みに対応したものとなる。
【0192】
量子化回路40で得られた補正データとしてのDCTデータブロックは加算回路41に供給される。この加算回路41には、メモリ34から注目DCTデータブロックが読み出されて供給される。この注目DCTデータブロックは、そのAC係数部分に、注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。加算回路41は、注目DCTデータブロックの各AC係数に、補正データとしてのDCTデータブロックの対応するAC係数を加算する。これにより、注目DCTデータブロックが有する、注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分が除去される。
【0193】
加算回路41でブロック段差歪みの補正成分が除去された注目DCTデータブロックは逆量子化回路42に供給される。この逆量子化回路42には、メモリ32から注目DCTデータブロックに対応した量子化特性指定情報QIaが読み出されて供給される。逆量子化回路42は、ブロック段差歪みの補正成分が除去された注目DCTデータブロックを、情報QIaに基づいて逆量子化する。
【0194】
そして、クラス生成回路43は、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成する。一方、クラス生成回路43は、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、逆量子化回路42で得られるDCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成する。このようにクラス生成回路43で生成されるクラスコードCL0は出力端子44に出力される。
【0195】
このように図12に示す残差クラス生成部121Aは、ピクチャ情報PIがPピクチャまたはBピクチャを示すとき、注目DCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成するものであるが、この注目DCTデータブロックの各AC係数として、注目リファレンスデータブロックに含まれるブロック段差歪みの補正成分が除去されたものが用いられる。したがって、残差クラスのクラス分類の精度を向上させることができ、画像信号Vbの品質の向上を図ることができる。
【0196】
図14のフローチャートは、上述した残差クラスコードCLOの生成処理の手順を示している。この図14において、図5と対応する部分には同一符号を付して示している。
【0197】
まず、ステップST1で処理を開始し、ステップST11で、ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ46から一個または複数個の使用画素データブロックを読み出す。そして、ステップST12で、読み出された一個または複数個の使用画素データブロックの画素データの平均値をブロック毎に求める。
【0198】
次に、ステップST13で、一個または複数個の使用画素データブロックを構成する画素データが平均値で置き換えられた状態で、この一個または複数個の使用画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の画素データブロックを生成する。
【0199】
次に、ステップST6に進む。このステップST6以下は、上述した図5のフローチャートと同様であるので、説明は省略する。
【0200】
また、上述実施の形態においては、MPEG2復号化器107から可変長復号化回路74で得られる量子化DCT係数が出力され、この量子化DCT係数を残差クラス生成部121,121Aのメモリ34に格納して、残差クラスコードCL0の生成に利用するものである。
【0201】
しかし、MPEG2復号化器107から逆量子化回路76で得られる逆量子化されたDCT係数が出力されるようにし、この逆量子化されたDCT係数を残差クラス生成部121,121Aのメモリ34に格納して、残差クラスコードCL0の生成に利用するように構成することもできる。
【0202】
その場合には、残差クラス生成部121,121Aにおいて、逆量子化、量子化等の処理は不要となる。したがってその場合には、図3の残差クラス生成部121において、メモリ32、逆量子化回路36,42、量子化回路40は不要となる。同様に、図12の残差クラス生成部121Aにおいて、メモリ32、量子化回路40、逆量子化回路42は不要となる。
【0203】
また、上述実施の形態においては、DCTを伴うMPEG2ストリームを取り扱うものを示したが、この発明は、ブロック毎に動き補償予測符号化が行われたその他の符号化されたデジタル画像信号を取り扱うものにも同様に適用することができる。また、DCTの代わりに、ウェーブレット変換、離散サイン変換などのその他の直交変換を伴う符号化であってもよい。
【0204】
【発明の効果】
この発明によれば、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際、少なくとも差分データブロックを用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものにあって、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を差分データブロックから除去し、この補正成分が除去された差分データブロックを上述のクラス検出に用いるものであり、クラス分類の精度が向上することから、第2の画像信号の品質の向上を図ることができる。
【図面の簡単な説明】
【図1】実施の形態としてのデジタル放送受信機の構成を示すブロック図である。
【図2】MPEG2復号化器の構成を示すブロック図である。
【図3】残差クラス生成部の構成を示すブロック図である。
【図4】残差クラス生成部の処理を説明するための図である。
【図5】残差クラス生成処理を示すフローチャートである。
【図6】クラス分類部の構成を示すブロック図である。
【図7】タップ選択用ブロックを示す図である。
【図8】係数データ生成装置の構成を示すブロック図である。
【図9】ソフトウェアで実現するための画像信号処理装置の構成例を示すブロック図である。
【図10】画像信号処理を示すフローチャートである。
【図11】係数データ生成処理を示すフローチャートである。
【図12】残差クラス生成部の他の構成を示すブロック図である。
【図13】残差クラス生成部の処理を説明するための図である。
【図14】残差クラス生成処理を示すフローチャートである。
【符号の説明】
100・・・デジタル放送受信機、101・・・システムコントローラ、102・・・リモコン信号受信回路、105・・・受信アンテナ、106・・・チューナ部、107・・・MPEG2復号化器、108・・・バッファメモリ、110・・・画像信号処理部、111・・・ディスプレイ部、121,121A・・・残差クラス生成部、122・・・予測タップ選択回路、123・・・クラス分類部、124・・・係数メモリ、125・・・推定予測演算回路、150・・・係数データ生成装置、300・・・画像信号処理装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image signal processing device and processing method, a coefficient data generating device and generating method used therefor, and a program for executing each method.
[0002]
Specifically, according to the present invention, a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is generated from the plurality of pixel data. When converting to the second image signal, the class to which the pixel data of the target position in the second image signal belongs is detected using at least the difference data block, and the target position in the second image signal corresponding to this class The component that generates the pixel data of the reference data block, the component that corrects the block step distortion included in the reference data block is removed from the difference data block, and the difference data block from which the correction component is removed is used for the above-described class detection. According to the image signal processing apparatus or the like that improves the accuracy of the classification and improves the quality of the second image signal. Than is.
[0003]
[Prior art]
As an image signal compression encoding method, there is an MPEG2 (Moving Picture Experts Group 2) encoding method using DCT (Discrete Cosine Transform). In this encoding method, motion compensation prediction encoding is performed for each block.
[0004]
DCT performs discrete cosine transform on pixels in a block, requantizes coefficient data obtained by the discrete cosine transform, and further variable-length-encodes the requantized coefficient data. For this variable length coding, entropy coding such as Huffman code is often used. The image signal is orthogonally transformed to be divided into a large number of frequency data from low frequency to high frequency.
[0005]
When re-quantization is performed on this divided frequency data, human visual characteristics are taken into consideration, and low frequency data with high importance is finely quantized, and high frequency data with low importance is roughly quantized. In this way, the image quality can be maintained and high-efficiency compression can be realized.
[0006]
In conventional decoding using DCT, quantized data for each frequency component is converted into a representative value of the code, and reproduction data is obtained by performing inverse DCT (IDCT: Inverse DCT) on these components. . When converting to this representative value, the quantization step width at the time of encoding is used.
[0007]
[Problems to be solved by the invention]
As described above, the MPEG encoding method using DCT has the advantage that high-quality compression can be realized while maintaining high image quality by performing encoding in consideration of human visual characteristics.
[0008]
However, since coding for performing DCT is processing in units of blocks, block noise, so-called block noise (block distortion), may occur as the compression rate increases. In addition, in a portion where there is a rapid luminance change such as an edge, a noise that is a result of coarse quantization of high-frequency components, so-called mosquito noise, is generated.
[0009]
It can be considered that coding noise such as block noise and mosquito noise is removed by class classification adaptive processing. That is, an image signal including coding noise is set as a first image signal, an image signal from which coding noise is removed is set as a second image signal, and a class to which pixel data of a target position in the second image signal belongs is detected. Then, pixel data of the target position in the second image signal is generated corresponding to this class.
[0010]
In this case, it is also conceivable to detect the class to which the pixel data of the target position in the second image signal belongs using at least a DCT data block as a difference data block.
[0011]
However, this DCT data block has a component for correcting block step distortion included in the reference data block. Therefore, if classifying is performed using the DCT data block as it is, class classification cannot be performed with accuracy by the correction component, and it becomes difficult to improve the quality of the second image signal.
[0012]
Therefore, an object of the present invention is to improve the classification accuracy and improve the quality of the second image signal.
[0013]
[Means for Solving the Problems]
The image signal processing apparatus according to the present invention is configured to decode a first image signal made up of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation predictive coding for each block. Reduced distortion caused by encoding From multiple pixel data First 2 image signals When converting to the second image signal, One or a plurality of block positions that overlap all or part of the block position of the reference data block related to the difference data block used when obtaining the pixel data of the first image signal corresponding to the target position in Orthogonal inverse transform means for performing orthogonal inverse transform on one or a plurality of difference data blocks in which each DC coefficient is a DC coefficient and all AC coefficients are 0, and the orthogonal inverse transform From one or a plurality of pixel data blocks made up of pixel data obtained by the conversion means, pixel data existing at a position overlapping the block position of the reference data block is selectively taken out to obtain a single pixel made up of pixel data. Blocking means for obtaining a data block, orthogonal transformation means for performing orthogonal transformation on the pixel data block obtained by the blocking means to obtain a difference data block composed of transformation coefficients as the correction data, and the difference data By adding the AC coefficient corresponding to the correction data to each AC coefficient of the block, Removing correction component difference data block has Correction component removal means; At least from the level distribution of the AC coefficient of the difference data block from which the correction component is removed Class detecting means for detecting a class to which the pixel data of the target position in the second image signal belongs; A teacher signal that is obtained in advance for each class detected by the class detecting means and includes a student signal including encoding distortion corresponding to the first image signal and not including encoding distortion corresponding to the second image signal. Coefficient data generating means for generating coefficient data for minimizing an error from the signal, and data selection for selecting a plurality of pixel data located around the position of interest in the second image signal from the first image signal Means for calculating the coefficient data generated by the coefficient data generating means and the plurality of pixel data selected by the data selecting means to obtain pixel data of the target position in the second image signal; With Ru Is.
[0014]
Further, the image signal processing method according to the present invention provides a first image signal made up of a plurality of pixel data, which is generated by decoding a digital image signal that has been subjected to motion compensation predictive coding for each block. Reduced distortion caused by encoding Convert to a second image signal consisting of a plurality of pixel data In case All or part of the block position overlaps the block position of the reference data block related to the difference data block used when obtaining the pixel data of the first image signal corresponding to the target position in the second image signal. One or more A first step of performing orthogonal inverse transform on one or a plurality of difference data blocks in which the DC coefficients of the difference data blocks made up of transform coefficients are DC coefficients and all AC coefficients are 0; The pixel data existing in the position overlapping the block position of the reference data block is selectively taken out from one or a plurality of pixel data blocks made up of pixel data obtained in the above step, and one pixel made up of pixel data. A second step of obtaining a data block; a third step of performing orthogonal transformation on the pixel data block obtained in the second step to obtain a difference data block composed of transformation coefficients as the correction data; By adding the corresponding AC coefficient of the correction data to each AC coefficient of the difference data block, A first component for removing the correction component of the difference data block. 4 And at least the above-mentioned
[0015]
A program according to the present invention is for causing a computer to execute the above-described image signal processing method.
[0016]
In the present invention, the first image signal composed of a plurality of pixel data is generated by decoding a digital image signal that has been subjected to motion compensation prediction coding for each block. For example, the digital image signal has been subjected to MPEG encoding.
[0017]
Pixel data of the first image signal corresponding to the target position in the second image signal is obtained using a predetermined difference data block and a reference data block related to the difference data block.
[0018]
The predetermined difference data block has a component that corrects block step distortion included in the reference data block. Correction data for removing the above-described correction component is obtained by using one or a plurality of data blocks in which all or part of the block positions overlap the block positions of the reference data block.
[0019]
Here, the reference data block is obtained by performing motion compensation on the differential data block, and includes data of one or a plurality of data blocks described above. Therefore, this reference data block includes block step distortion caused by one or a plurality of data blocks.
[0020]
The predetermined difference data block is obtained by subtracting the reference data block from the predetermined data block at the time of encoding. Therefore, the predetermined difference data block has a component for correcting the block step distortion included in the reference data block as described above.
[0021]
The component for correcting the block step distortion included in the difference data block is removed using the correction data obtained as described above. At least the class to which the pixel data at the target position in the second image signal belongs is detected using the difference data block from which the correction component has been removed in this way.
[0022]
Then, corresponding to the detected class, pixel data of the target position in the second image signal is generated. For example, coefficient data used in the estimation formula corresponding to the class is generated. Further, based on the first image signal, a plurality of pixel data located around the target position in the second image signal are selected. Then, these coefficient data and a plurality of pixel data are used, and pixel data of the target position in the second image signal is calculated based on the estimation formula.
[0023]
For example, as described above, when the digital image signal is MPEG-coded and the difference data block is a DCT data block including DCT coefficients, correction data is acquired as follows. The
[0024]
That is, the DC coefficients of one or a plurality of DCT data blocks composed of DCT coefficients, in which all or a part of the block position overlaps the block position of the reference data block related to the differential data block, are set as DC coefficients and all AC coefficients Inverse discrete cosine transform is performed on one or a plurality of DCT data blocks with 0 being zero.
[0025]
From one or more pixel data blocks made up of the pixel data obtained by the inverse discrete cosine transform, pixel data existing at a position overlapping the block position of the reference data block is selectively taken out to obtain one piece of pixel data. A pixel data block consisting of A DCT data block composed of DCT coefficients as correction data is obtained by performing discrete cosine transform on the pixel data block.
[0026]
Alternatively, an average value of pixel data in one or a plurality of pixel data blocks composed of pixel data in which all or a part of the block position overlaps the block position of the reference data block related to the difference data block is obtained for each block.
[0027]
The pixel data constituting one or a plurality of pixel data blocks is replaced with the block position of the reference data block from the one or a plurality of pixel data blocks in a state where the pixel data is replaced with the average value obtained as described above. Pixel data existing at the position is selectively extracted to obtain a single pixel data block made up of pixel data. A DCT data block composed of DCT coefficients as correction data is obtained by performing discrete cosine transform on the pixel data block.
[0028]
When the correction data is obtained as described above, the correction component of the difference data block is removed by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block. In that case, at least the class to which the pixel data of the target position in the second image signal belongs is detected using the AC coefficient of the difference data block from which the correction component has been removed.
[0029]
Thus, the first image signal composed of a plurality of pixel data generated by decoding the digital image signal subjected to motion compensation prediction coding for each block is converted into a second image signal composed of a plurality of pixel data. At the time of conversion to the image signal, the class to which the pixel data of the target position in the second image signal belongs is detected using at least the difference data block, and the pixel data of the target position in the second image signal corresponding to this class The component that corrects the block step distortion included in the reference data block is removed from the difference data block, and the difference data block from which the correction component has been removed is used for the above-described class detection. The accuracy of classification can be improved, and the quality of the second image signal can be improved.
[0030]
The coefficient data generation device according to the present invention is configured to decode a first image signal composed of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation prediction coding for each block. Reduced distortion caused by encoding From multiple pixel data First Decoding means for decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal, and corresponding to a target position in the teacher signal One or a plurality of block positions that overlap all or part of the block position of the reference data block related to the difference data block used when obtaining the pixel data of the student signal. Orthogonal inverse transform means for performing orthogonal inverse transform on one or a plurality of difference data blocks in which each DC coefficient is a DC coefficient and all AC coefficients are 0, and the orthogonal inverse transform From one or a plurality of pixel data blocks made up of pixel data obtained by the conversion means, pixel data existing at a position overlapping the block position of the reference data block is selectively taken out to obtain a single pixel made up of pixel data. Blocking means for obtaining a data block, orthogonal transformation means for performing orthogonal transformation on the pixel data block obtained by the blocking means to obtain a difference data block composed of transformation coefficients as the correction data, and the difference data By adding the corresponding AC coefficient of the correction data to each AC coefficient of the block, Correction component removal means for removing the correction component of the difference data block, and difference data block from which the correction component has been removed at least by the correction component removal means From the AC coefficient level distribution Class detecting means for detecting a class to which pixel data of a target position in the teacher signal belongs; and the student signal From , A data selection means for selecting a plurality of pixel data located around a target position in the teacher signal, a class detected by the class detection means, a plurality of pixel data selected by the data selection means, and the teacher signal Pixel data of the target position in To above For each class, Minimizing an error between a plurality of pixel data related to the student signal and pixel data at a target position in the teacher signal And calculation means for obtaining coefficient data Ru Is.
[0031]
Further, the coefficient data generation method according to the present invention provides a first image signal composed of a plurality of pixel data generated by decoding a digital image signal that has been subjected to motion compensation prediction coding for each block. Reduced distortion caused by encoding From multiple pixel data First A first step of decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal; and a target position in the teacher signal. One or more blocks in which all or part of the block position overlaps the block position of the reference data block related to the difference data block used when obtaining the corresponding pixel data of the student signal A second step of performing orthogonal inverse transformation on one or a plurality of difference data blocks in which the DC coefficients of the difference data blocks made up of transform coefficients are DC coefficients and all AC coefficients are 0; The pixel data existing in the position overlapping the block position of the reference data block is selectively taken out from one or a plurality of pixel data blocks made up of pixel data obtained in the above step, and one pixel made up of pixel data. A third step of obtaining a data block; and a fourth step of performing orthogonal transformation on the pixel data block obtained in the third step to obtain a difference data block including transformation coefficients as the correction data; By adding the corresponding AC coefficient of the correction data to each AC coefficient of the difference data block, A first component for removing the correction component of the difference data block. 5 And at least the above-mentioned
[0032]
A program according to the present invention is for causing a computer to execute the coefficient data generation method described above.
[0033]
In the present invention, the first image signal composed of a plurality of pixel data is generated by decoding a digital image signal that has been subjected to motion compensation prediction coding for each block. The present invention generates coefficient data of an estimation formula used when converting the first image signal into a second image signal composed of a plurality of pixel data.
[0034]
The pixel data of the student signal corresponding to the target position in the teacher signal is obtained using a predetermined difference data block and a reference data block related to the difference data block. The predetermined difference data block has a component that corrects block step distortion included in the reference data block. Correction data for removing the above-described correction component is obtained by using one or a plurality of data blocks in which all or part of the block positions overlap the block positions of the reference data block.
[0035]
The component for correcting the block step distortion included in the difference data block is removed using the correction data obtained as described above. At least the class to which the pixel data at the target position in the teacher signal belongs is detected using at least the difference data block from which the correction component has been removed.
[0036]
Further, based on the student signal, a plurality of pixel data located around the attention position in the teacher signal are selected. Then, coefficient data is obtained for each class using the class to which the pixel data at the target position in the teacher signal belongs, the selected pixel data, and the pixel data at the target position in the teacher signal.
[0037]
As described above, coefficient data of the estimation formula used when converting the first image signal to the second image signal is generated. When converting from the first image signal to the second image signal, The coefficient data corresponding to the class to which the pixel data of the target position in the second image signal belongs is selectively used to calculate the pixel data of the target position in the second image signal by the estimation formula.
[0038]
Thereby, when converting from the first image signal to the second image signal using the estimation formula, the accuracy of the class classification can be improved, and the quality of the second image signal can be improved. it can.
[0039]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a
The
[0040]
Also, the
[0041]
The
[0042]
In the present embodiment, the
[0043]
The
[0044]
FIG. 2 shows the configuration of the
The
[0045]
The
[0046]
The
[0047]
In addition, the
[0048]
In addition, when the differential data block of P picture or B picture is output from the
[0049]
Further, the
[0050]
The
[0051]
In addition, when the image signal Va is output from the picture selection circuit 80, in addition to the pixel data constituting the image signal Va, the pixel data is paired with each pixel data, and the pixel data is 8 × 8 of the DCT block. Pixel position mode information pi indicating where the pixel position is located, and motion compensation vector information MI and picture information PI corresponding to the pixel data are also output.
[0052]
The
[0053]
The operation of the
The MPEG2 stream stored in the
[0054]
The inverse DCT is performed on the DCT coefficient of each DCT block output from the
[0055]
When the image signal Va is output from the picture selection circuit 80 in this way, in addition to the pixel data constituting the image signal Va, the pixel position mode information pi, the motion is paired with each pixel data. Compensation vector information MI and picture information PI are also output.
[0056]
Further, the quantization characteristic designation information QI corresponding to each DCT block extracted by the
[0057]
Returning to FIG. 1, the
[0058]
The operation of the
The MPEG2 stream output from the
[0059]
In this case, the
[0060]
In this case, the
[0061]
In this way, the image signal Va stored in the
[0062]
The image signal Vb output from the image signal processing unit 110 is supplied to the display unit 111, and an image based on the image signal Vb is displayed on the screen of the display unit 111.
[0063]
Next, details of the image signal processing unit 110 will be described.
The image signal processing unit 110 includes a residual
[0064]
FIG. 3 shows a specific configuration of the residual
The residual
[0065]
The
[0066]
Here, the DCT data block composed of the DCT coefficients used when obtaining the pixel data of the image signal Va corresponding to the target position in the image signal Vb is set as the target DCT data block, and the inverse DCT is applied to the target DCT data block. A reference data block to be added to the pixel data block obtained by performing the processing is defined as a reference data block of interest. In addition, all or part of the block position overlaps the block position of the target reference data block, and one or a plurality of pixel data blocks used when configuring the target reference data block are used as pixel data blocks. The DCT data block used in obtaining the used pixel data block is defined as a used DCT data block.
[0067]
When the picture information PI indicates a P picture or a B picture, the DCT data block of interest is read from the
[0068]
FIG. 4A shows, for example, four used DCT data blocks DB1 to DB4 that are used in obtaining four used pixel data blocks in the case of a P picture. ing. In FIG. 4A, the broken line indicates the block position of the reference data block of interest. In this case, the DC coefficients DC1 to DC4 of the four DCT data blocks DB1 to DB4 are read from the
[0069]
Similarly, when the picture information PI indicates a P picture or a B picture, the quantization characteristic designation information QIa corresponding to the DCT data block of interest is read from the
[0070]
The residual
[0071]
FIG. 4B shows four pixel data blocks DB1 ′ to DB4 ′ obtained corresponding to the four DCT data blocks DB1 to DB4 shown in FIG. 4A. In FIG. 4B, the broken line indicates the block position of the reference data block of interest. In this case, the pixel data blocks DB1 ′ to DB4 ′ are composed of pixel data having values of dc1 to dc4, respectively. Note that FIG. 4B shows that the pixel data blocks DB1 ′ to DB4 ′ include 4 × 4 pixel data for simplification of the drawing.
[0072]
In addition, the residual
[0073]
FIG. 4C shows one pixel data block DB0 obtained by the blocking
[0074]
Although not described above, when the picture information PI indicates a P picture, one pixel data block DB0 is obtained by the blocking
[0075]
Further, the residual
[0076]
Further, the residual
[0077]
Here, the DCT data block as the correction data is obtained by applying DCT to the pixel data block obtained based on the DC coefficient of one or a plurality of used data blocks. Therefore, the AC coefficient constituting this DCT data block corresponds to the block step distortion included in the reference data block of interest.
[0078]
The reference data block of interest is obtained by performing motion compensation on the DCT data block of interest, and includes data of one or a plurality of use data blocks described above. Therefore, the reference data block of interest includes block step distortion due to one or a plurality of data blocks.
[0079]
The noted DCT data block is obtained by further applying DCT to a difference (residual) data block obtained by subtracting the noted reference data block from a predetermined data block at the time of encoding. Therefore, the DCT data block of interest has a component for correcting block step distortion included in the reference data block of interest as described above in the AC coefficient portion.
[0080]
Further, the residual
[0081]
As described above, the AC coefficient constituting the DCT data block as the correction data corresponds to the block step distortion included in the target reference data block, and the AC coefficient of the target DCT data block is included in the target reference data block. It has a component that corrects block step distortion. Therefore, by adding the corresponding AC coefficient of the DCT data block as correction data to each AC coefficient of the target DCT data block, the block step distortion included in the target reference data block of the AC coefficient of the target DCT data block is corrected. The component to be removed is removed.
[0082]
Also, the residual
[0083]
The residual
[0084]
In this case, the class generation circuit 43 performs a process such as 1-bit ADRC (Adaptive Dynamic Range Coding) on each AC coefficient of the DCT data block obtained by the
[0085]
ADRC calculates the maximum value and minimum value of all AC coefficients of a DCT data block, calculates the dynamic range that is the difference between the maximum value and minimum value, and quantizes each AC coefficient in accordance with the dynamic range. . In the case of 1-bit ADRC, each AC coefficient is converted into 1 bit depending on whether it is larger or smaller than the average value. The ADRC process is a process for making the number of classes representing the AC coefficient level distribution relatively small. Therefore, not only ADRC but encoding which compresses the number of data bits such as VQ (vector quantization) may be used.
[0086]
The class generation circuit 43 may generate the residual class code CL0 in a state where the P picture and the B picture are distinguished. As a result, different class classifications are performed depending on whether the picture is a P picture or a B picture, and the quality of the image signal Vb generated by the image signal processing unit 110 can be improved.
[0087]
An operation for generating the residual class code CL0 indicating the residual class to which the pixel data of the target position in the image signal Vb belongs in the residual
[0088]
When the picture information PI indicates a P picture or a B picture, the DC coefficient of one or a plurality of used DCT data blocks is read from the
[0089]
The DC coefficient inversely quantized by the
[0090]
The pixel data block obtained by the
[0091]
One pixel data block obtained by the blocking
[0092]
The DCT data block as the correction data is obtained by applying DCT to the pixel data block obtained based on the DC coefficient of one or a plurality of used DCT data blocks. Therefore, the AC coefficient constituting the DCT data block as the correction data corresponds to the block step distortion included in the target reference data block.
[0093]
The DCT data block as correction data obtained by the
[0094]
The DCT data block of interest from which the correction component of the block step distortion has been removed by the adder circuit 41 is supplied to the
[0095]
Then, when the picture information PI indicates an I picture, the class generation circuit 43 generates a specific code as the residual class code CL0. On the other hand, when the picture information PI indicates a P picture or a B picture, the class generation circuit 43 generates a residual class code CL0 based on each AC coefficient of the DCT data block obtained by the
[0096]
As described above, the residual
[0097]
The flowchart of FIG. 5 shows the procedure of the generation process of the residual class code CLO described above.
First, processing is started in step ST1, and when the picture information PI indicates a P picture or a B picture in step ST2, DC coefficients of one or a plurality of used DCT data blocks are read from the memory. In step ST3, the quantization characteristic designation information QIb corresponding to the used DCT data block is read from the
[0098]
Next, in step ST4, the inverse DCT is performed on the DCT data block in which the inversely quantized DC coefficient is a DC coefficient and all AC coefficients are 0 to obtain a pixel data block. In step ST5, pixel data existing at a position overlapping the block position of the reference data block is selectively extracted from the pixel data block obtained by performing inverse DCT to generate one pixel data block.
[0099]
Next, in step ST6, the generated one pixel data block is subjected to DCT, and the quantization characteristic designation information QIa corresponding to the target DCT data block is read from the
[0100]
Next, in step ST8, the target DCT data block from which the block level distortion correction component is removed is inversely quantized based on the quantization characteristic designation information QIa corresponding to the target DCT data block. In step ST9, if the picture information PI indicates an I picture, a specific code is generated as the residual class code CL0. On the other hand, if the picture information PI indicates a P picture or a B picture,
[0101]
Returning to FIG. 1, the image signal processing unit 110 selectively extracts and outputs a plurality of pixel data located around the target position in the image signal Vb from the image signal Va stored in the
[0102]
Further, the image signal processing unit 110 includes a
[0103]
The
[0104]
FIG. 6 shows the configuration of the
The
[0105]
In the present embodiment, class codes CL1 to CL6 indicating six types of classes are generated. The six types of classes are a spatial waveform class, a time variation class, an AC variation class, a flat class, a line correlation class, and a block edge class. A brief description of each class.
[0106]
(1) The spatial waveform class will be described. Tap selection circuit 50B 1 And class generation circuit 50C 1 Suppose that this spatial waveform class detection system is configured.
Tap selection circuit 50B 1 Selectively selects a plurality of pixel data located in the periphery in the spatial direction with respect to the target position in the image signal Vb from the T frame (current frame) and the T-1 frame (frame one frame before) of the image signal Va. This is taken out and is similar to the prediction tap selection circuit 122 described above. Class generation circuit 50C 1 The tap selection circuit 50B 1 For example, 1-bit ADRC (Adaptive Dynamic Range Coding) or the like is applied to each of the plurality of pixel data selected in step S1 to generate a class code CL1 indicating a spatial waveform class.
[0107]
(2) The time variation class will be described. Tap selection circuit 50B 2 And class generation circuit 50C 2 Is configured as a detection system of this time variation class.
Tap selection circuit 50B 2 Extracts the pixel data of the DCT block (the target block shown in FIG. 7) corresponding to the pixel data at the target position in the image signal Vb from the current frame (T frame) of the image signal Va, and at the same time before the image signal Va. The pixel data of the block (the past block shown in FIG. 7) corresponding to the block of interest is extracted from the past frame (T-1 frame).
[0108]
Class generation circuit 50C 2 Are subtracted for each corresponding pixel between the 8 × 8 pixel data of the block of interest and the 8 × 8 pixel data of the past block to obtain 8 × 8 difference values, and this 8 × The sum of squares of the eight difference values is obtained, the square sum is determined as a threshold value, and the class code CL2 indicating the time variation class is generated.
[0109]
(3) The AC variation class will be described. Tap selection circuit 50B Three And class generation circuit 50C Three Constitutes a detection system of this AC fluctuation class.
Tap selection circuit 50B Three Extracts the pixel data of the DCT block (the target block shown in FIG. 7) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va, and from the previous frame one frame before the image signal Va. Then, the pixel data of the block (the past block shown in FIG. 7) corresponding to the block of interest is extracted.
[0110]
Class generation circuit 50C Three Performs DCT processing on each of 8 × 8 pixel data of the block of interest and 8 × 8 pixel data of the past block to obtain DCT coefficients (frequency coefficients). Then, the class generation circuit 50C Three Is the number m of base positions where a coefficient exists in either base position of the AC part. 1 And the number m of base positions of which the sign is inverted and one of the coefficients is 0 2 M 1 / M 2 Is determined as a threshold value, and a class code CL3 indicating an AC variation class is generated. In a block with little time variation, it is possible to perform class classification corresponding to mosquito distortion by this AC variation class.
[0111]
(4) The flat class will be described. Tap selection circuit 50B Four And class generation circuit 50C Four Suppose that this flat class detection system is configured.
Tap selection circuit 50B Four Extracts the pixel data of the DCT block (the target block shown in FIG. 7) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va. Class generation circuit 50C Four Detects the maximum value and the minimum value of 8 × 8 pixel data of the block of interest, determines the threshold of the dynamic range that is the difference, and generates the class code CL4 indicating the flat class.
[0112]
(5) The line correlation class will be described. Tap selection circuit 50B Five And class generation circuit 50C Five Constitutes a detection system of this line correlation class.
Tap selection circuit 50B Five Extracts the pixel data of the DCT block (the target block shown in FIG. 7) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va.
[0113]
Class generation circuit 50C Five Corresponds to the pixels of the 1st line, 2nd line, 3rd line, 4th line, 5th line, 6th line, 7th line and 8th line of the 8 × 8 pixel data of the target block Subtraction is performed for each pixel to obtain 8 × 4 difference values, and a square sum of the 8 × 4 difference values is obtained, and the square sum is determined as a threshold value, and a class code CL5 indicating a line correlation class is obtained. Generate. This line correlation class indicates whether the correlation in a frame such as a still image is high, or whether the correlation in the field is higher than in the frame because of fast movement.
[0114]
(6) The block edge class will be described. Tap selection circuit 50B 6 And class generation circuit 50C 6 Suppose that this block edge class detection system is configured.
Tap selection circuit 50B 6 Extracts the pixel data of the DCT block (the target block shown in FIG. 7) corresponding to the pixel data of the target position in the image signal Vb from the current frame of the image signal Va, and moves up and down the target block from the current frame. Pixel data of blocks adjacent to the left and right (adjacent blocks shown in FIG. 7) are extracted.
[0115]
Class generation circuit 50C 6 Are subtracted for each corresponding pixel between the 8 pixel data of each of the 4 sides of the block of interest and the pixel data of the adjacent block adjacent thereto to obtain 4 × 8 difference values, and each 8 A square sum of the difference values is obtained, and four square sums respectively corresponding to the four sides of the block of interest are threshold-determined to generate a class code CL6 indicating a block edge class.
[0116]
Further, the
[0117]
In addition, the
[0118]
In the present embodiment, the
[0119]
Returning to FIG. 1, the image signal processing unit 110 also includes a
[0120]
The coefficient data Wi is information for converting the image signal Va into the image signal Vb. The coefficient data Wi stored in the
[0121]
In addition, the image signal processing unit 110 creates the prediction tap pixel data xi selectively extracted by the prediction tap selection circuit 122 and the coefficient data Wi read from the
[0122]
[Expression 1]
[0123]
The operation of the image signal processing unit 110 will be described.
In the residual
[0124]
The
[0125]
Thus, the class code CL generated by the
[0126]
Further, the prediction tap selection circuit 122 selectively extracts pixel data of the prediction tap located around the target position in the image signal Vb from the image signal Va stored in the
[0127]
The estimated
[0128]
As described above, the image signal processing unit 110 obtains the image signal Vb from the image signal Va using the coefficient data Wi. In this case, a plurality of pixel data (prediction tap pixel data) located around the target position in the image signal Vb, selected based on the image signal Va, and a class to which the pixel data of the target position in the image signal Vb belong. Pixel data y at the target position in the image signal Vb is generated based on the estimation formula using the coefficient data Wi corresponding to CL.
[0129]
Therefore, the coefficient data Wi is obtained by learning using a student signal corresponding to the image signal Va and including coding noise similar to the image signal Va and a teacher signal corresponding to the image signal Vb and not including coding noise. By using the coefficient data Wi, it is possible to satisfactorily obtain an image signal Vb in which coding noise is significantly reduced as compared with the image signal Va.
[0130]
The residual
[0131]
Next, a method for generating the coefficient data Wi stored in the
[0132]
First, this learning method will be described. In the above equation (1), before learning, coefficient data W 1 , W 2 , ..., W n Is an undetermined coefficient. Learning is performed on a plurality of signal data for each class. When the number of learning data is m, the following equation (2) is set according to the equation (1). n indicates the number of prediction taps.
[0133]
y k = W 1 X k1 + W 2 X k2 + ... + W n X kn ... (2)
(K = 1, 2,..., M)
[0134]
If m> n, coefficient data W 1 , W 2 , ..., W n Is not uniquely determined, so the element e of the error vector e k Is defined by the following equation (3), and e in equation (4) 2 Find coefficient data that minimizes. Coefficient data is uniquely determined by a so-called least square method.
[0135]
e k = Y k -{W 1 X k1 + W 2 X k2 + ... + W n X kn } (3)
(K = 1, 2, ... m)
[0136]
[Expression 2]
[0137]
E in equation (4) 2 As a practical calculation method for obtaining coefficient data that minimizes the value, first, as shown in equation (5), e 2 Is partially differentiated with the coefficient data Wi (i = 1, 2,..., N), and the coefficient data Wi may be obtained so that the partial differential value becomes 0 for each value of i.
[0138]
[Equation 3]
[0139]
A specific procedure for obtaining the coefficient data Wi from the equation (5) will be described. If Xji and Yi are defined as in the equations (6) and (7), the equation (5) can be written in the form of the determinant of the equation (8).
[0140]
[Expression 4]
[0141]
[Equation 5]
[0142]
Equation (8) is generally called a normal equation. Coefficient data Wi (i = 1, 2,..., N) can be obtained by solving this normal equation by a general solution method such as a sweep-out method (Gauss-Jordan elimination method).
[0143]
FIG. 8 shows a configuration of a coefficient
The coefficient
[0144]
Further, the coefficient
[0145]
Also, the coefficient
[0146]
In addition, the coefficient
[0147]
The class classification unit 156 includes a plurality of pixel data constituting the student signal SS obtained from the
[0148]
The coefficient
[0149]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding to the piece of pixel data y. A lot of learning data is generated every time. As a result, the normal
[0150]
The coefficient
[0151]
Next, the operation of the coefficient
A teacher signal ST corresponding to the image signal Vb is supplied to the
[0152]
In the residual class generation unit 154, motion compensation vector information MI and picture information PI paired with the pixel data of the student signal SS corresponding to the target position of the teacher signal ST, and the quantum stored in the built-in memory. The residual class code CL0 indicating the residual class to which the pixel data at the target position in the teacher signal ST belongs is generated using the quantization characteristic designation information QI and the quantized DCT coefficient.
[0153]
In the class classification unit 156, a plurality of pixel data constituting the student signal SS obtained from the
[0154]
In addition, the prediction
[0155]
Then, the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the
[0156]
As described above, the coefficient
[0157]
The student signal SS is obtained by encoding the teacher signal ST to generate an MPEG2 stream and then decoding the MPEG2 stream. Therefore, the student signal SS includes the same coding noise as the image signal Va. Therefore, in the image signal processing unit 110 shown in FIG. 1, the image signal Vb obtained from the image signal Va using the coefficient data Wi has a coding noise reduced compared to the image signal Va.
[0158]
Note that the processing in the image signal processing unit 110 in FIG. 1 can be realized by software, for example, by an image
[0159]
First, the image
[0160]
The image
[0161]
In addition, the image
[0162]
In addition, the image
[0163]
Further, the image
[0164]
Here, instead of storing the control program and coefficient data in the
[0165]
Further, instead of inputting the image signal Va to be processed from the
[0166]
A processing procedure for obtaining the image signal Vb from the image signal Va in the image
First, in step ST21, processing is started, and in step S22, for example, an image signal Va for one frame or one field is input into the apparatus from the
[0167]
Thus, the image signal Va and the like input from the
[0168]
In step ST23, it is determined whether or not the processing of all frames or all fields of the image signal Va has been completed. When the process is finished, the process ends in step ST24. On the other hand, when the process is not finished, the process proceeds to step ST25.
[0169]
In step ST25, using motion compensation vector information MI and picture information PI paired with pixel data of the image signal Va corresponding to the target position of the image signal Vb, quantization characteristic designation information QI and DCT coefficients, A residual class code CL0 is generated, and a class to which pixel data of the target position in the image signal Vb belongs is generated using the residual class code CL0, a plurality of pixel data constituting the image signal Va, and pixel position mode information pi. The class code CL shown is generated.
[0170]
Next, in step ST26, a plurality of pixel data (prediction tap pixel data) located around the target position in the image signal Vb is acquired from the image signal Va input in step ST22. Then, in step ST27, using the coefficient data Wi corresponding to the class code CL generated in step ST25 and the pixel data xi of the prediction tap acquired in step ST26, based on the estimation expression of the expression (1), Pixel data y at the target position in the image signal Vb is generated.
[0171]
Next, in step ST28, it is determined whether or not the processing for obtaining the pixel data of the image signal Vb has been completed in the entire region of the pixel data of the image signal Va for one frame or one field input in step ST22. If completed, the process returns to step ST22, and the process proceeds to input processing of the image signal Va for the next one frame or one field. On the other hand, when the process has not been completed, the process returns to step ST25 and proceeds to the process for the next target position.
[0172]
As described above, by performing processing according to the flowchart shown in FIG. 10, the pixel data of the input image signal Va can be processed to obtain the pixel data of the image signal Vb. As described above, the image signal Vb obtained by such processing is output to the
[0173]
Although illustration of the processing device is omitted, the processing in the coefficient
[0174]
A processing procedure for generating coefficient data will be described with reference to the flowchart of FIG.
First, in step ST31, the process is started, and in step ST32, the teacher signal ST is input for one frame or one field. In step ST33, it is determined whether or not processing of all frames or all fields of the teacher signal ST has been completed. If not finished, in step ST34, the student signal SS is generated from the teacher signal ST input in step ST32. In this case, the DCT coefficient and quantization characteristic designation information QI corresponding to each DCT block portion of the student signal SS, pixel position mode information pi paired with the pixel data of the student signal SS, and motion compensation vector information MI And picture information PI.
[0175]
In step ST35, the motion compensation vector information MI and picture information PI, the quantization characteristic designation information QI, and the DCT coefficient paired with the pixel data of the student signal SS corresponding to the target position of the teacher signal ST are used. Thus, the residual class code CL0 is generated, and the pixel data of the target position in the teacher signal ST belongs using the residual class code CL0, the plurality of pixel data constituting the student signal SS and the pixel position mode information pi. A class code CL indicating the class is generated.
[0176]
Next, in step ST36, a plurality of pixel data (prediction tap pixel data) located around the target position in the teacher signal ST is acquired from the student signal SS generated in step ST34.
[0177]
In step ST37, (8) for each class using the class code CL generated in step ST35, the pixel data xi of the prediction tap acquired in step ST36, and the pixel data y of the target position in the teacher signal ST. Addition is performed to obtain the normal equation shown in the equation (see equations (6) and (7)).
[0178]
Next, in step ST38, it is determined whether or not the learning process has been completed in all regions of the pixel data of the teacher signal ST for one frame or one field input in step ST32. When the learning process is finished, the process returns to step ST32, the teacher signal ST for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the learning process is not finished, the process returns to step ST35 and moves to the process for the next attention position.
[0179]
When the process is completed in step ST33 described above, in step ST39, the normal equation of each class generated by the addition process in step ST37 described above is solved by a sweeping method or the like to calculate the coefficient data Wi of each class. To do. In step ST40, the coefficient data Wi of each class is stored in the memory, and then the process ends in step ST41.
[0180]
In this way, by performing processing according to the flowchart shown in FIG. 11, coefficient data Wi of each class can be obtained by the same method as the coefficient
[0181]
In the above-described embodiment, the residual
[0182]
FIG. 12 shows the configuration of the residual class generation unit 121A in that case. 12, parts corresponding to those in FIG. 3 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0183]
The residual class generation unit 121A temporarily receives an input terminal 45 to which the image signal Va output from the above-described MPEG2 decoder 107 (see FIG. 2) is input, and an image signal Va input to the input terminal 45. And a
[0184]
Further, the residual class generation unit 121A includes an average circuit 47 that obtains an average value of pixel data in the pixel data block read from the
[0185]
In addition, the residual class generation unit 121A is configured to use the one or more usages in a state where the pixel data constituting the one or more used pixel data blocks is replaced with the average value obtained by the averaging circuit 47. A
[0186]
For example, when the pixel data constituting the four used pixel data blocks DBa to DBd as shown in FIG. 13A are replaced with average values, the result is as shown in FIG. 13B. In this case, da is a 0 ~ A 15 Average value of db, b is b 0 ~ B 15 The average value of dc is c 0 ~ C 15 The average value of dd is d 0 ~ D 15 Is the average value. Further, one pixel data block DB0 obtained by selectively extracting pixel data existing at a position overlapping the block position of the reference data block is as shown in FIG. 13C.
[0187]
The rest of the residual class generator 121A shown in FIG. 12 is configured in the same manner as the
An operation for generating the residual class code CL0 indicating the residual class to which the pixel data of the target position in the image signal Vb belongs in the residual
[0188]
When the picture information PI indicates a P picture or a B picture, the DCT coefficients of one or a plurality of used pixel data blocks are read from the
[0189]
The average value obtained by the averaging circuit 47 is supplied to the blocking
[0190]
One pixel data block obtained by the blocking
[0191]
This DCT data block as correction data is obtained by applying DCT to a pixel data block obtained based on an average value of pixel data constituting one or a plurality of used pixel data blocks. Therefore, the AC coefficient constituting the DCT data block as the correction data also corresponds to the block step distortion included in the reference data block of interest as in the residual
[0192]
The DCT data block as correction data obtained by the
[0193]
The DCT data block of interest from which the correction component of the block step distortion has been removed by the adder circuit 41 is supplied to the
[0194]
Then, when the picture information PI indicates an I picture, the class generation circuit 43 generates a specific code as the residual class code CL0. On the other hand, when the picture information PI indicates a P picture or a B picture, the class generation circuit 43 generates a residual class code CL0 based on each AC coefficient of the DCT data block obtained by the
[0195]
As described above, the residual class generation unit 121A illustrated in FIG. 12 generates the residual class code CL0 based on each AC coefficient of the DCT data block of interest when the picture information PI indicates a P picture or a B picture. However, as the AC coefficients of the target DCT data block, those obtained by removing the correction component of the block step distortion included in the target reference data block are used. Therefore, the accuracy of classification of the residual class can be improved, and the quality of the image signal Vb can be improved.
[0196]
The flowchart of FIG. 14 shows the procedure of the generation process of the residual class code CLO described above. In FIG. 14, parts corresponding to those in FIG.
[0197]
First, processing is started in step ST1, and in step ST11, when the picture information PI indicates a P picture or a B picture, one or a plurality of used pixel data blocks are read from the
[0198]
Next, in step ST13, the pixel data constituting one or a plurality of used pixel data blocks is replaced with an average value, and the block data of the reference data block is moved from the one or a plurality of used pixel data blocks. The pixel data existing at the overlapping position is selectively extracted to generate one pixel data block.
[0199]
Next, the process proceeds to step ST6. Since step ST6 and subsequent steps are the same as those in the flowchart of FIG. 5 described above, description thereof will be omitted.
[0200]
In the above-described embodiment, the quantized DCT coefficient obtained by the variable
[0201]
However, the inverse quantized DCT coefficient obtained by the
[0202]
In this case, the residual
[0203]
In the above embodiment, the MPEG2 stream with DCT is handled. However, the present invention deals with other encoded digital image signals subjected to motion compensation prediction coding for each block. It can be similarly applied to. Also, instead of DCT, Wavelet It may be an encoding with other orthogonal transformation such as transformation or discrete sine transformation.
[0204]
【The invention's effect】
According to the present invention, the first image signal composed of a plurality of pixel data, which is generated by decoding the digital image signal subjected to motion compensation prediction coding for each block, is composed of a plurality of pixel data. When converting to the second image signal, the class to which the pixel data of the target position in the second image signal belongs is detected using at least the difference data block, and the target position of the second image signal corresponding to this class is detected. A component that generates pixel data and removes a component that corrects block step distortion included in a reference data block from the difference data block and uses the difference data block from which the correction component has been removed for the above-described class detection. In addition, since the accuracy of classification is improved, the quality of the second image signal can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a digital broadcast receiver as an embodiment.
FIG. 2 is a block diagram showing a configuration of an MPEG2 decoder.
FIG. 3 is a block diagram illustrating a configuration of a residual class generation unit.
FIG. 4 is a diagram for explaining processing of a residual class generation unit;
FIG. 5 is a flowchart showing a residual class generation process.
FIG. 6 is a block diagram illustrating a configuration of a class classification unit.
FIG. 7 is a diagram illustrating a tap selection block.
FIG. 8 is a block diagram illustrating a configuration of a coefficient data generation device.
FIG. 9 is a block diagram illustrating a configuration example of an image signal processing device to be realized by software.
FIG. 10 is a flowchart showing image signal processing.
FIG. 11 is a flowchart showing coefficient data generation processing.
FIG. 12 is a block diagram illustrating another configuration of a residual class generation unit.
FIG. 13 is a diagram for explaining processing of a residual class generation unit;
FIG. 14 is a flowchart showing a residual class generation process.
[Explanation of symbols]
DESCRIPTION OF
Claims (8)
上記直交逆変換手段で得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得るブロック化手段と、
上記ブロック化手段で得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る直交変換手段と、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する補正成分除去手段と、
少なくとも、上記補正成分が除去された差分データブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、
上記クラス検出手段で検出されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化歪みを含む生徒信号と上記第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する係数データ発生手段と、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、
上記係数データ発生手段で発生された係数データおよび上記データ選択手段で選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る演算手段とを備える画像信号処理装置。A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. when converting the second image signal that Do from the data, the reference according to the difference data block used in obtaining the pixel data of the above corresponding to the target position definitive to the second image signal a first image signal The DC coefficient of the difference data block consisting of one or a plurality of transform coefficients whose block positions overlap all or part of the block position of the data block is a DC coefficient and one or a plurality of DC coefficients where all AC coefficients are 0 Orthogonal inverse transform means for performing orthogonal inverse transform on the difference data block;
From one or a plurality of pixel data blocks composed of pixel data obtained by the orthogonal inverse transform means, pixel data existing at a position overlapping the block position of the reference data block is selectively extracted to obtain a piece of pixel data. Blocking means for obtaining a pixel data block comprising:
Orthogonal transformation means for performing orthogonal transformation on the pixel data block obtained by the blocking means to obtain a difference data block comprising transformation coefficients as the correction data;
Correction component removal means for removing the correction component of the difference data block by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block ;
Class detection means for detecting a class to which pixel data at the position of interest in the second image signal belongs from at least the AC coefficient level distribution of the difference data block from which the correction component has been removed ;
A teacher signal that is obtained in advance for each class detected by the class detecting means and includes a student signal including encoding distortion corresponding to the first image signal and not including encoding distortion corresponding to the second image signal. Coefficient data generating means for generating coefficient data that minimizes an error from the signal;
Data selecting means for selecting, from the first image signal, a plurality of pixel data located around the position of interest in the second image signal;
Images that calculates a plurality of pixel data selected by the generated coefficient data and said data selecting means in said coefficient data generation means Ru and an arithmetic means for obtaining pixel data of the target position in the second image signal Signal processing device.
上記直交逆変換手段としての逆DCT手段は、
上記差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の、DCT係数からなるDCTデータブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個のDCTデータブロックに対して逆離散コサイン変換を施し、
上記ブロック化手段は、
上記逆DCT手段で得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを取得し、
上記直交変換手段としてDCT手段は、
上記ブロック化手段で得られた画素データブロックに対して離散コサイン変換を施して、上記補正データとしてDCT係数からなるDCTデータブロックを取得し、
上記補正成分除去手段は、
上記DCTデータブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記DCTデータブロックが有する補正成分を除去し、
上記クラス検出手段は、
少なくとも、上記補正成分が除去されたDCTデータブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出する請求項1に記載の画像信号処理装置。The digital image signal has been subjected to MPEG encoding, and the differential data block is a DCT data block composed of DCT coefficients,
The inverse DCT means as the orthogonal inverse transform means is
The DC coefficients of one or more DCT data blocks composed of DCT coefficients, each of which overlaps the block position of the reference data block related to the difference data block, are all DC coefficients, and all AC coefficients are and facilities inverse discrete cosine transform on 0 and the one or a plurality of DCT data blocks,
The blocking means is
From one or a plurality of pixel data blocks made up of pixel data obtained by the inverse DCT means, pixel data existing at a position overlapping with the block position of the reference data block is selectively taken out from one piece of pixel data. and it acquired the composed pixel data blocks,
The DCT means as the orthogonal transform means is:
By performing discrete cosine transform on the pixel data blocks obtained by the blocking means, and acquired the DCT data block of DCT coefficients as the correction data,
The correction component removing means includes
By adding the corresponding AC coefficients of the correction data to each AC coefficient of the DCT data block, remove the correction component which the DCT data block has,
The class detection means is
At least, the a level distribution of correction AC coefficient components DCT data block that has been removed, the image signal processing apparatus according to 請 Motomeko 1 detect a class to which pixel data belongs of the target position in the second image signal .
上記直交逆変換手段としての平均値取得手段は、
上記差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の、画素データからなる画素データブロックにおける画素データの平均値をブロック毎に取得し、
上記ブロック化手段は、
上記一個または複数個の画素データブロックを構成する画素データが上記平均値取得手段で得られた平均値で置き換えられた状態で、該一個または複数個の画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを取得し、
上記直交変換手段としてDCT手段は、
上記ブロック化手段で得られた画素データブロックに対して離散コサイン変換を施して、上記補正データとしてDCT係数からなるDCTデータブロックを取得し、
上記補正成分除去手段は、
上記DCTデータブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記DCTデータブロックが有する補正成分を除去し、
上記クラス検出手段は、
少なくとも、上記補正成分が除去されたDCTデータブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出する請求項1に記載の画像信号処理装置。The digital image signal has been subjected to MPEG encoding, and the differential data block is a DCT data block composed of DCT coefficients,
Mean value acquisition means as the orthogonal inverse transform means,
The whole or part of the block located in the blocking position of the reference data block according to the difference data block is one or more overlapping, and acquired the average value of the pixel data for each block in the pixel data block of pixel data,
The blocking means is
In a state where the pixel data constituting the one or more pixel data blocks is replaced with the average value obtained by the average value acquisition means, the block of the reference data block from the one or more pixel data blocks and the pixel data at the position overlapping the regioselectively extraction was acquired the one of the pixel data block of pixel data,
The DCT means as the orthogonal transform means is:
By performing discrete cosine transform on the pixel data blocks obtained by the blocking means, and acquired the DCT data block of DCT coefficients as the correction data,
The correction component removing means includes
By adding the corresponding AC coefficients of the correction data to each AC coefficient of the DCT data block, remove the correction component which the DCT data block has,
The class detection means is
At least, the a level distribution of correction AC coefficient components DCT data block that has been removed, the image signal processing apparatus according to 請 Motomeko 1 detect a class to which pixel data belongs of the target position in the second image signal .
上記第1のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第2のステップと、
上記第2のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第3のステップと、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第4のステップと、
少なくとも上記第4のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出する第5のステップと、
上記第5のステップで検出されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化歪みを含む生徒信号と上記第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第6のステップと、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第7のステップと、
上記第6のステップで発生された係数データおよび上記第7のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第8のステップとを備える画像信号処理方法。A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. when converting the second image signal consisting of data, reference data blocks of the differential data blocks used in obtaining the pixel data of the above which corresponds to the target position in the second image signal a first image signal One or a plurality of difference data in which a DC coefficient of a difference data block made up of one or a plurality of transform coefficients whose whole or a part of the block position overlaps with a block position is a DC coefficient and all AC coefficients are 0 A first step of performing an orthogonal inverse transform on the block;
From the one or a plurality of pixel data blocks made up of pixel data obtained in the first step, the pixel data existing at a position overlapping the block position of the reference data block is selectively extracted to obtain one piece of pixel data. A second step of obtaining a pixel data block comprising:
A third step of performing orthogonal transformation on the pixel data block obtained in the second step to obtain a difference data block composed of transformation coefficients as the correction data;
A fourth step of removing the correction component of the difference data block by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block;
A fifth step of detecting a class to which the pixel data of the target position in the second image signal belongs from the level distribution of the AC coefficient of the difference data block from which the correction component has been removed at least in the fourth step;
A student signal that is obtained in advance for each class detected in the fifth step and includes coding distortion corresponding to the first image signal and does not include coding distortion corresponding to the second image signal. A sixth step of generating coefficient data that minimizes an error from the teacher signal;
A seventh step of selecting, from the first image signal, a plurality of pixel data located around a target position in the second image signal;
And an eighth step of obtaining the pixel data of the target position in the second image signal by calculating the coefficient data generated in the sixth step and the plurality of pixel data selected in the seventh step. images signal processing method that.
上記第1のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第2のステップと、
上記第2のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第3のステップと、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第4のステップと、
少なくとも上記第4のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出する第5のステップと、
上記第5のステップで検出されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化歪みを含む生徒信号と上記第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第6のステップと、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第7のステップと、
上記第6のステップで発生された係数データおよび上記第7のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第8のステップとを備える画像信号処理方法をコンピュータに実行させるためのプログラム。A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. when converting the second image signal consisting of data, reference data blocks of the differential data blocks used in obtaining the pixel data of the above which corresponds to the target position in the second image signal a first image signal One or a plurality of difference data in which a DC coefficient of a difference data block made up of one or a plurality of transform coefficients whose whole or a part of the block position overlaps with a block position is a DC coefficient and all AC coefficients are 0 A first step of performing an orthogonal inverse transform on the block;
From the one or a plurality of pixel data blocks made up of pixel data obtained in the first step, the pixel data existing at a position overlapping the block position of the reference data block is selectively extracted to obtain one piece of pixel data. A second step of obtaining a pixel data block comprising:
A third step of performing orthogonal transformation on the pixel data block obtained in the second step to obtain a difference data block composed of transformation coefficients as the correction data;
A fourth step of removing the correction component of the difference data block by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block;
A fifth step of detecting a class to which the pixel data of the target position in the second image signal belongs from the level distribution of the AC coefficient of the difference data block from which the correction component has been removed at least in the fourth step;
A student signal that is obtained in advance for each class detected in the fifth step and includes coding distortion corresponding to the first image signal and does not include coding distortion corresponding to the second image signal. A sixth step of generating coefficient data that minimizes an error from the teacher signal;
A seventh step of selecting, from the first image signal, a plurality of pixel data located around a target position in the second image signal;
And an eighth step of obtaining the pixel data of the target position in the second image signal by calculating the coefficient data generated in the sixth step and the plurality of pixel data selected in the seventh step. program for executing a that images signal processing method on a computer.
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す直交逆変換手段と、
上記直交逆変換手段で得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得るブロック化手段と、
上記ブロック化手段で得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る直交変換手段と、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する補正成分除去手段と、
少なくとも上記補正成分除去手段で補正成分が除去された差分データブロックのAC係数のレベル分布から、上記教師信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、
上記クラス検出手段で検出されたクラス、上記データ選択手段で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最 小にする係数データを求める演算手段とを備える係数データ生成装置。A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. decoding means for obtaining a student signal that the teacher signal corresponding to decodes the digital image signal obtained by coding the first image signal corresponding to Do that the second image signals from the data,
One or a plurality of transform coefficients in which all or part of the block position overlaps the block position of the reference data block related to the difference data block used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal Orthogonal inverse transform means for performing orthogonal inverse transform on one or a plurality of difference data blocks in which each of the DC coefficients of the difference data block is a DC coefficient and all AC coefficients are 0;
From one or a plurality of pixel data blocks composed of pixel data obtained by the orthogonal inverse transform means, pixel data existing at a position overlapping the block position of the reference data block is selectively extracted to obtain a piece of pixel data. Blocking means for obtaining a pixel data block comprising:
Orthogonal transformation means for performing orthogonal transformation on the pixel data block obtained by the blocking means to obtain a difference data block comprising transformation coefficients as the correction data;
By adding the corresponding AC coefficients of the correction data to each AC coefficient of the differential data blocks, and the correction component removing means for removing a correction component that the differential data blocks have,
Class detection means for detecting a class to which pixel data of a target position in the teacher signal belongs from at least the AC coefficient level distribution of the difference data block from which the correction component has been removed by the correction component removal means;
Data selection means for selecting a plurality of pixel data located around the target position in the teacher signal from the student signal;
The detected class by the class detection means, the pixel data for each of the classes of the target position in the plurality of pixel data and the teacher signal selected by the data selection means, a plurality of pixel data and the teacher according to the student signal engaging the number of data generating device Ru and an arithmetic means for obtaining the coefficient data to the minimum error between the pixel data of the target position in the signal.
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す第2のステップと、
上記第2のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第3のステップと、
上記第3のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第4のステップと、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第5のステップと、
少なくとも上記第5のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記教師信号における注目位置の画素データが属するクラスを検出する第6のステップと、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第7のステップと、
上記第6のステップで検出されたクラス、上記第7のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第8のステップとを備える係数データ生成方法。A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. a first step of obtaining a student signal that the teacher signal corresponding to the encoded said first decodes the digital image signal obtained by the image signals corresponding to Do that the second image signals from the data,
One or a plurality of transform coefficients in which all or part of the block position overlaps the block position of the reference data block related to the difference data block used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal A second step of performing orthogonal inverse transform on one or a plurality of difference data blocks in which each DC coefficient of the difference data block is a DC coefficient and all AC coefficients are 0;
From the one or a plurality of pixel data blocks made up of pixel data obtained in the second step, the pixel data existing at the position overlapping the block position of the reference data block is selectively extracted to obtain one piece of pixel data. A third step of obtaining a pixel data block comprising:
A fourth step of performing orthogonal transformation on the pixel data block obtained in the third step to obtain a difference data block including transformation coefficients as the correction data;
A fifth step of removing the correction component of the difference data block by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block;
A sixth step of detecting a class to which the pixel data of the target position in the teacher signal belongs from the level distribution of the AC coefficient of the difference data block from which the correction component is removed at least in the fifth step;
A seventh step of selecting, from the student signal, a plurality of pixel data located around a target position in the teacher signal;
The sixth class detected in step, from the pixel data for each of the classes of the target position in the seventh plurality of pixel data and the teacher signal selected in step, and a plurality of pixel data in accordance with the student signal eighth step and engaging number data generation process of Ru with a seeking coefficient data that minimizes the error between the pixel data of the target position in the teacher signal.
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す第2のステップと、
上記第2のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第3のステップと、
上記第3のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第4のステップと、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第5のステップと、
少なくとも上記第5のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記教師信号における注目位置の画素データが属するクラスを検出する第6のステップと、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第7のステップと、
上記第6のステップで検出されたクラス、上記第7のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第8のステップとを備える係数データ生成方法をコンピュータに実行させるためのプログラム。A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. a first step of obtaining a student signal that the teacher signal corresponding to the encoded said first decodes the digital image signal obtained by the image signals corresponding to Do that the second image signals from the data,
One or a plurality of transform coefficients in which all or part of the block position overlaps the block position of the reference data block related to the difference data block used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal A second step of performing orthogonal inverse transform on one or a plurality of difference data blocks in which each DC coefficient of the difference data block is a DC coefficient and all AC coefficients are 0;
From the one or a plurality of pixel data blocks made up of pixel data obtained in the second step, the pixel data existing at the position overlapping the block position of the reference data block is selectively extracted to obtain one piece of pixel data. A third step of obtaining a pixel data block comprising:
A fourth step of performing orthogonal transformation on the pixel data block obtained in the third step to obtain a difference data block including transformation coefficients as the correction data;
A fifth step of removing the correction component of the difference data block by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block;
A sixth step of detecting a class to which the pixel data of the target position in the teacher signal belongs from the level distribution of the AC coefficient of the difference data block from which the correction component is removed at least in the fifth step;
A seventh step of selecting, from the student signal, a plurality of pixel data located around a target position in the teacher signal;
The sixth class detected in step, from the pixel data for each of the classes of the target position in the seventh plurality of pixel data and the teacher signal selected in step, and a plurality of pixel data in accordance with the student signal program to execute the eighth step and the engaging speed data generating method Ru comprising the obtaining coefficient data that minimizes the error between the pixel data of the target position in the teacher signal to the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002296691A JP4158474B2 (en) | 2002-10-09 | 2002-10-09 | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002296691A JP4158474B2 (en) | 2002-10-09 | 2002-10-09 | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004134998A JP2004134998A (en) | 2004-04-30 |
JP4158474B2 true JP4158474B2 (en) | 2008-10-01 |
Family
ID=32286600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002296691A Expired - Fee Related JP4158474B2 (en) | 2002-10-09 | 2002-10-09 | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4158474B2 (en) |
-
2002
- 2002-10-09 JP JP2002296691A patent/JP4158474B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004134998A (en) | 2004-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4462823B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
AU2007202789B2 (en) | High-fidelity motion summarisation method | |
US20070036450A1 (en) | Data processing apparatus and method and recording medium | |
JP4847076B2 (en) | Method and transcoder for estimating output macroblocks and motion vectors for transcoding | |
JPH08307874A (en) | Video signal encoding device | |
JP2003274428A (en) | Encoding moving picture converter | |
JP4078906B2 (en) | Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program | |
JP4158474B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
JP4206730B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
US7991054B2 (en) | Information signal processing device, information signal processing method, image signal processing device, image displaying device, device and method for producing correction data used in them, device and method for producing coefficient data, programs for executing these methods, and computer-readable medium for storing the program | |
JP4158479B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
JP4140259B2 (en) | Information signal processing apparatus, information signal processing method, program, and computer-readable medium | |
JP4158476B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
CN113822801A (en) | Compressed video super-resolution reconstruction method based on multi-branch convolutional neural network | |
JP4154961B2 (en) | Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program | |
JP4552262B2 (en) | Noise reduction apparatus and method | |
JP4154772B2 (en) | Image information conversion apparatus and conversion method | |
JP4140662B2 (en) | Coefficient seed data generation apparatus and coefficient data generation apparatus | |
JP3991800B2 (en) | INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE SIGNAL PROCESSING DEVICE AND IMAGE DISPLAY DEVICE, CORRECTION DATA GENERATION DEVICE AND GENERATION METHOD USED FOR THE SAME, PROGRAM FOR EXECUTING each METHOD, AND COMPUTER READABLE RECORDING THE PROGRAM Medium | |
JP2004173013A (en) | Motion vector detector and detection method, image signal processor using the method and processing method, coeeficient data generator for use in the processor and generation method, and program for implementing these methods | |
JP4518727B2 (en) | Image encoding apparatus and method, recording medium, and program | |
JP2002142222A (en) | Screen size-changing device of compressed image | |
JP2001285870A (en) | Device and method for processing digital signal and device and method for processing digital picture signal | |
JP2001313948A (en) | Device and method for motion vector conversion | |
JPH07203460A (en) | Locus display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050929 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080624 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080707 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110725 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120725 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130725 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |