JP4158474B2 - Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method - Google Patents

Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method Download PDF

Info

Publication number
JP4158474B2
JP4158474B2 JP2002296691A JP2002296691A JP4158474B2 JP 4158474 B2 JP4158474 B2 JP 4158474B2 JP 2002296691 A JP2002296691 A JP 2002296691A JP 2002296691 A JP2002296691 A JP 2002296691A JP 4158474 B2 JP4158474 B2 JP 4158474B2
Authority
JP
Japan
Prior art keywords
pixel data
data
block
image signal
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002296691A
Other languages
Japanese (ja)
Other versions
JP2004134998A (en
Inventor
哲二郎 近藤
勉 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002296691A priority Critical patent/JP4158474B2/en
Publication of JP2004134998A publication Critical patent/JP2004134998A/en
Application granted granted Critical
Publication of JP4158474B2 publication Critical patent/JP4158474B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムに関する。
【0002】
詳しくは、この発明は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際、少なくとも差分データブロックを用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものにあって、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を差分データブロックから除去し、この補正成分が除去された差分データブロックを上述のクラス検出に用いることによって、クラス分類の精度を上げ、第2の画像信号の品質の向上を図るようにした画像信号処理装置等に係るものである。
【0003】
【従来の技術】
画像信号の圧縮符号化方式として、DCT(Discrete Cosine Transform)を用いたMPEG2(Moving Picture Experts Group 2)による符号化方式がある。この符号化方式では、ブロック毎に動き補償予測符号化が行われる。
【0004】
DCTは、ブロック内の画素に対して離散コサイン変換を施し、その離散コサイン変換により得られた係数データを再量子化し、さらにこの再量子化された係数データを可変長符号化するものである。この可変長符号化には、ハフマン符号等のエントロピー符号化が用いられることが多い。画像信号は直交変換されることにより、低周波から高周波までの多数の周波数データに分割される。
【0005】
この分割された周波数データに再量子化を施す場合、人間の視覚特性を考慮し、重要度の高い低周波データに関しては、細かく量子化を施し、重要度の低い高周波のデータに関しては、粗く量子化を施すことで、高画質を保持し、しかも効率が良い圧縮が実現できるという特長を有している。
【0006】
従来のDCTを用いた復号は、各周波数成分毎の量子化データをそのコードの代表値に変換し、それらの成分に対して逆DCT(IDCT:Inverse DCT)を施すことにより、再生データを得る。この代表値へ変換する時には、符号化時の量子化ステップ幅が使用される。
【0007】
【発明が解決しようとする課題】
上述のように、DCTを用いたMPEGによる符号化方式では、人間の視覚特性を考慮した符号化を行うことにより、高画質を保持し、高効率の圧縮が実現できるという特長がある。
【0008】
しかし、DCTを行う符号化はブロックを単位とした処理であることから、圧縮率が高くなるに従い、ブロック状の雑音、いわゆるブロック雑音(ブロック歪み)が発生することがある。また、エッジ等の急激な輝度変化がある部分には、高周波成分を粗く量子化したことによるざわざわとした雑音、いわゆるモスキート雑音が発生する。
【0009】
これらブロック雑音、モスキート雑音等の符号化雑音を、クラス分類適応処理によって除去することが考えられる。すなわち、符号化雑音を含む画像信号を第1の画像信号とし、符号化雑音が除去された画像信号を第2の画像信号とし、第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものである。
【0010】
この場合、少なくとも差分データブロックとしてのDCTデータブロックを用いて、第2の画像信号における注目位置の画素データが属するクラスを検出することも考えられる。
【0011】
しかし、このDCTデータブロックは、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を持っている。そのため、このDCTデータブロックをそのまま用いてクラス分類を行うとすれば、その補正成分によりクラス分類を精度よく行うことができず、第2の画像信号の品質の向上を図ることが困難となる。
【0012】
そこで、この発明では、クラス分類の精度を上げ、第2の画像信号の品質の向上を図ることを目的とする。
【0013】
【課題を解決するための手段】
この発明に係る画像信号処理装置は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に変換する場合に、当該第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す直交逆変換手段と、上記直交逆変換手段で得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得るブロック化手段と、上記ブロック化手段で得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る直交変換手段と、上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する補正成分除去手段と、少なくとも、上記補正成分が除去された差分データブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、上記クラス検出手段で検出されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化歪みを含む生徒信号と上記第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する係数データ発生手段と、上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、上記係数データ発生手段で発生された係数データおよび上記データ選択手段で選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る演算手段とを備えものである。
【0014】
また、この発明に係る画像信号処理方法は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に変換する場合に、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す第1のステップと、上記第1のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第2のステップと、上記第2のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第3のステップと、上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第のステップと、少なくとも上記第のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出する第のステップと、上記第のステップで検出されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化歪みを含む生徒信号と上記第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第6のステップと、上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第7のステップと、上記第6のステップで発生された係数データおよび上記第7のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第8のステップとを備えものである。
【0015】
また、この発明に係るプログラムは、上述の画像信号処理方法をコンピュータに実行させるためのものである。
【0016】
この発明において、複数の画素データからなる第1の画像信号は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成されたものである。例えば、デジタル画像信号は、MPEG方式の符号化が行われたものである。
【0017】
第2の画像信号における注目位置に対応した第1の画像信号の画素データは、所定の差分データブロック、およびこの差分データブロックに係るリファレンスデータブロックとを用いて得られる。
【0018】
所定の差分データブロックは、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。このリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個のデータブロックを用いて、上述の補正成分を除去するための補正データが得られる。
【0019】
ここで、リファレンスデータブロックは、差分データブロックに対して動き補償されて得られたものであって、上述した一個または複数個のデータブロックのデータを含むものとなる。そのため、このリファレンスデータブロックには、これら一個または複数個のデータブロックによるブロック段差歪みが含まれる。
【0020】
そして、所定の差分データブロックは、符号化時に、所定のデータブロックからこのリファレンスデータブロックを差し引くことで得られたものである。したがって、所定の差分データブロックは、上述したように、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。
【0021】
差分データブロックが有するブロック段差歪みを補正する成分は、上述したように得られる補正データを用いて除去される。少なくとも、このように補正成分が除去された差分データブロックを用いて、第2の画像信号における注目位置の画素データが属するクラスが検出される。
【0022】
そして、このように検出されたクラスに対応して、第2の画像信号における注目位置の画素データが生成される。例えば、クラスに対応した、推定式で用いられる係数データが発生される。また、第1の画像信号に基づいて、第2の画像信号における注目位置の周辺に位置する複数の画素データが選択される。そして、これら係数データおよび複数の画素データが用いられ、推定式に基づいて第2の画像信号における注目位置の画素データが算出される。
【0023】
例えば、上述したようにデジタル画像信号はMPEG方式の符号化が行われたものであって、差分データブロックがDCT係数からなるDCTデータブロックである場合、以下のようにして、補正データが取得される。
【0024】
すなわち、差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の、DCT係数からなるDCTデータブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個のDCTデータブロックに対して逆離散コサイン変換が施される。
【0025】
この逆離散コサイン変換によって得られた一個または複数個の、画素データからなる画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データが選択的に取り出されて一個の、画素データからなる画素データブロックが得られる。そして、この画素データブロックに対して離散コサイン変換を施すことで、補正データとしてのDCT係数からなるDCTデータブロックが得られる。
【0026】
あるいは、差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の、画素データからなる画素データブロックにおける画素データの平均値がブロック毎に得られる。
【0027】
一個または複数個の画素データブロックを構成する画素データが、上述のように得られた平均値で置き換えられた状態で、この一個または複数個の画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出されて一個の、画素データからなる画素データブロックが得られる。そして、この画素データブロックに対して離散コサイン変換を施すことで、補正データとしてのDCT係数からなるDCTデータブロックが得られる。
【0028】
上述したように補正データが得られる場合、差分データブロックの各AC係数に補正データの対応するAC係数が加算されることで、差分データブロックが有する補正成分が除去される。またその場合、少なくとも、補正成分が除去された差分データブロックのAC係数を用いて、第2の画像信号における注目位置の画素データが属するクラスが検出される。
【0029】
このように、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際、少なくとも差分データブロックを用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものにあって、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を差分データブロックから除去し、この補正成分が除去された差分データブロックを上述のクラス検出に用いるものであり、クラス分類の精度を向上させることができ、第2の画像信号の品質の向上を図ることができる。
【0030】
この発明に係る係数データ生成装置は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る復号化手段と、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す直交逆変換手段と、上記直交逆変換手段で得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得るブロック化手段と、上記ブロック化手段で得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る直交変換手段と、上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する補正成分除去手段と、少なくとも上記補正成分除去手段で補正成分が除去された差分データブロックのAC係数のレベル分布から、上記教師信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、上記クラス検出手段で検出されたクラス、上記データ選択手段で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める演算手段とを備えものである。
【0031】
また、この発明に係る係数データ生成方法は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る第1のステップと、上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す第2のステップと、上記第2のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第3のステップと、上記第3のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第4のステップと、上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第のステップと、少なくとも上記第のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記教師信号における注目位置の画素データが属するクラスを検出する第のステップと、上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第のステップと、上記第のステップで検出されたクラス、上記第のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第のステップとを備えものである。
【0032】
また、この発明に係るプログラムは、上述の係数データ生成方法をコンピュータに実行させるためのものである。
【0033】
この発明において、複数の画素データからなる第1の画像信号は、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成されたものである。この発明は、この第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際に使用される推定式の係数データを生成するものである。
【0034】
教師信号における注目位置に対応した生徒信号の画素データは、所定の差分データブロック、およびこの差分データブロックに係るリファレンスデータブロックとを用いて得られる。所定の差分データブロックは、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。このリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個のデータブロックを用いて、上述の補正成分を除去するための補正データが得られる。
【0035】
差分データブロックが有するブロック段差歪みを補正する成分は、上述したように得られる補正データを用いて除去される。そして、少なくとも、このように補正成分が除去された差分データブロックを用いて、教師信号における注目位置の画素データが属するクラスが検出される。
【0036】
また、生徒信号に基づいて、教師信号における注目位置の周辺に位置する複数の画素データが選択される。そして、教師信号における注目位置の画素データが属するクラス、選択された複数の画素データおよび教師信号における注目位置の画素データを用いて、クラス毎に、係数データが求められる。
【0037】
上述したようにして第1の画像信号を第2の画像信号に変換する際に使用される推定式の係数データが生成されるが、第1の画像信号から第2の画像信号に変換する際には、第2の画像信号における注目位置の画素データが属するクラスに対応した係数データが選択的に使用されて、推定式により、第2の画像信号における注目位置の画素データが算出される。
【0038】
これにより、推定式を使用して第1の画像信号から第2の画像信号に変換する場合に、クラス分類の精度を向上させることができ、第2の画像信号の品質の向上を図ることができる。
【0039】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのデジタル放送受信機100の構成を示している。
このデジタル放送受信機100は、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号RMを受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。
【0040】
また、デジタル放送受信機100は、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106とを有している。
【0041】
また、デジタル放送受信機100は、このチューナ部106より出力されるMPEG2ストリームを復号化して画像信号Vaを得るMPEG2復号化器107と、このMPEG2復号化器107より出力される画像信号Vaを一時的に格納するバッファメモリ108とを有している。
【0042】
なお、本実施の形態において、MPEG2復号化器107からは、画像信号Vaを構成する各画素データの他に、画素位置モード情報pi、ピクチャ情報PI,動き補償用ベクトル情報MIも出力される。画素位置モード情報piは、出力される画素データが例えばDCTブロックの8×8の画素位置のいずれにあったかを示す情報である。ピクチャ情報PIは、出力される画素データがIピクチャ(Intra-Picture)、Pピクチャ(Predictive-Picture)、Bピクチャ(Bidirectionally predictive-Picture)のいずれのピクチャに係るものであったかを示す情報である。動き補償用ベクトル情報MIは、出力される画素データがPピクチャ、Bピクチャに係るものである場合、その画素データを復号する際のリファレンスデータブロックがどのように動き補償されたかを示す情報である。
【0043】
バッファメモリ108には、各画素データと対にして情報pi,PI,MIも格納される。さらに、MPEG2復号化器107からは、後述する抽出回路75で抽出される各DCTブロックに対応した量子化特性指定情報QIおよび可変長復号化回路74で得られる各DCTブロックの量子化DCT係数も出力される。これら量子化特性指定情報QIおよびDCT係数は、後述する画像信号処理部110を構成する残差クラス生成部121に内蔵されたメモリに格納される。
【0044】
図2は、MPEG2復号化器107の構成を示している。
この復号化器107は、MPEG2ストリームが入力される入力端子71と、この入力端子71に入力されたMPEG2ストリームを一時的に格納するストリームバッファ72とを有している。
【0045】
また、この復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより周波数係数としてのDCT(Discrete Cosine Transform:離散コサイン変換)係数を抽出する抽出回路73と、この抽出回路73で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路74とを有している。
【0046】
また、この復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより量子化特性指定情報QIを抽出する抽出回路75と、この量子化特性指定情報QIに基づいて、可変長復号化回路74より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路76と、この逆量子化回路76より出力されるDCT係数に対して逆DCTを行う逆DCT回路77とを有している。
【0047】
また、復号化器107は、IピクチャおよびPピクチャのデータブロックをメモリ(図示せず)に記憶すると共に、これらのデータブロックを用いて逆DCT回路77からPピクチャまたはBピクチャの差分(残差)データブロックが出力されるとき、対応するリファレンスデータブロックVrefを生成して出力する予測メモリ回路78を有している。
【0048】
また、復号化器107は、逆DCT回路77からPピクチャまたはBピクチャの差分データブロックが出力されるとき、その差分データブロックに予測メモリ回路78で生成されたリファレンスデータブロックVrefを加算する加算回路79を有している。なお、逆DCT回路77からIピクチャのデータブロックが出力されるとき、予測メモリ回路78から加算回路79にリファレンスデータブロックVrefは供給されず、従って加算回路79からは逆DCT回路77より出力されるIピクチャのデータブロックがそのまま出力される。
【0049】
また、復号化器107は、加算回路79より出力されるIピクチャおよびPピクチャのデータブロックを予測メモリ回路78に供給してメモリに記憶させると共に、この加算回路79より出力される各ピクチャのデータブロックを正しい順に並べ直して画像信号Vaとして出力するピクチャ選択回路80と、このピクチャ選択回路80より出力される画像信号Vaを出力する出力端子81とを有している。
【0050】
また、復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより符号化制御情報、すなわちピクチャ情報PI、動き補償用ベクトル情報MIを抽出する抽出回路82を有している。抽出回路82で抽出される動き補償用ベクトル情報MIは予測メモリ回路78に供給され、この予測メモリ回路78ではこの動き補償用ベクトル情報MIを用いてリファレンスデータブロックVrefを生成する際に動き補償が行われる。抽出回路82で抽出されるピクチャ情報PIは予測メモリ回路78、ピクチャ選択回路80に供給され、これら予測メモリ回路78、ピクチャ選択回路80ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。
【0051】
なお、ピクチャ選択回路80から画像信号Vaを出力する際、この画像信号Vaを構成する各画素データの他に、それぞれの画素データと対となって、その画素データがDCTブロックの8×8の画素位置のいずれにあったかを示す画素位置モード情報pi、さらにはその画素データに対応した動き補償用ベクトル情報MIおよびピクチャ情報PIも出力される。
【0052】
また、復号化器107は、抽出回路75で抽出される各DCTブロックに対応した量子化特性指定情報QIを出力する出力端子83と、可変長復号化回路74で得られる各DCTブロックの量子化DCT係数を出力する出力端子84とを有している。
【0053】
図2に示すMPEG2復号化器107の動作を説明する。
ストリームバッファ72に記憶されているMPEG2ストリームが抽出回路73に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路74に供給されて復号化される。そして、この可変長復号化回路74より出力される各DCTブロックの量子化DCT係数が逆量子化回路76に供給されて逆量子化が施される。
【0054】
逆量子化回路76より出力される各DCTブロックのDCT係数に対して逆DCT回路77で逆DCTが施されて各ピクチャのデータブロックが得られる。この各ピクチャのデータブロックは加算回路79を介してピクチャ選択回路80に供給される。この場合、逆DCT回路77からPピクチャまたはBピクチャの差分(残差)データブロックが出力されるとき、加算回路79で予測メモリ回路78より出力されるリファレンスデータブロックVrefが加算される。そして、加算回路79より出力される各ピクチャのデータブロック(画素データブロック)はピクチャ回路80で正しい順に並べ直されて出力端子81に出力される。
【0055】
なお、このようにピクチャ選択回路80から画像信号Vaが出力される場合、この画像信号Vaを構成する各画素データの他に、それぞれの画素データと対となって、画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PIも出力される。
【0056】
また、抽出回路75で抽出される各DCTブロックに対応した量子化特性指定情報QIは出力端子83に出力される。さらに、可変長復号化回路74で得られる各DCTブロックの量子化DCT係数は出力端子84に出力される。
【0057】
図1に戻って、また、デジタル放送受信機100は、バッファメモリ108に記憶されている画像信号Vaを、ブロック雑音(ブロック歪み)やモスキート雑音などの符号化雑音が低減された画像信号Vbに変換する画像信号処理部110と、この画像信号処理部110より出力される画像信号Vbによる画像を表示するディスプレイ部111とを有している。ディスプレイ部111は、例えばCRT(Cathode-Ray Tube)ディスプレイ、あるいはLCD(Liquid Crystal Display)等の表示器で構成されている。
【0058】
図1に示すデジタル放送受信機100の動作を説明する。
チューナ部106より出力されるMPEG2ストリームはMPEG2復号化器107に供給されて復号化される。そして、この復号化器107より出力される画像信号Vaは、バッファメモリ108に供給されて一時的に格納される。
【0059】
この場合、復号器107からは、画像信号Vaの各画素データと対となって、画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PIが出力される。これら画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PIもバッファメモリ108に一時的に格納される。
【0060】
またこの場合、復号器107からは、各DCTブロックに対応した量子化特性指定情報QIおよび各DCTデータブロックの量子化DCT係数も出力される。これら量子化特性指定情報QIおよび量子化DCT係数は、画像信号処理部110を構成する残差クラス生成部121に内蔵されたメモリに格納される。
【0061】
このようにバッファメモリ108に記憶されている画像信号Vaは画像信号処理部110に供給され、符号化雑音が低減された画像信号Vbに変換される。この画像信号処理部110では、画像信号Vaを構成する画素データから、画像信号Vbを構成する画素データが得られる。この画像信号処理部110では、バッファメモリ108に格納されている画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PI、さらには残差クラス生成部121内のメモリに格納されている量子化特性指定情報QIおよび量子化DCT係数が用いられて、変換処理が行われる。
【0062】
画像信号処理部110より出力される画像信号Vbはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vbによる画像が表示される。
【0063】
次に、画像信号処理部110の詳細を説明する。
画像信号処理部110は、画像信号Vbにおける注目位置の画素データが属する残差クラスを示す残差クラスコードCL0を生成する残差クラス生成部121を有している。この残差クラス生成部121では、画像信号Vbの注目位置に対応した画像信号Vaの画素データと対となってバッファメモリ108に記憶されている動き補償用ベクトル情報MIおよびピクチャ情報PIと、内蔵のメモリに格納されている量子化特性指定情報QIおよび量子化DCT係数が用いられて、残差クラスコードCL0が生成される。
【0064】
図3は、残差クラス生成部121の具体的な構成を示している。
この残差クラス生成部121は、上述したMPEG2復号化器107より出力される量子化特性指定情報QIが入力される入力端子31と、この入力端子31に入力される量子化特性指定情報QIを一時的に格納するためのメモリ32と、上述したMPEG2復号化器107より出力される量子化DCT係数が入力される入力端子33と、この入力端子33に入力される量子化DCT係数を一時的に格納するためのメモリ34とを有している。
【0065】
また、残差クラス生成部121は、動き補償用ベクトル情報MIおよびピクチャ情報PIが入力される入力端子35を有している。情報MI,PIは、メモリ32,34に読み出し制御情報として供給されると共に、情報PIは後述するクラス生成回路43に動作制御情報として供給される。
【0066】
ここで、画像信号Vbにおける注目位置に対応した画像信号Vaの画素データを得る際に用いられたDCT係数からなるDCTデータブロックを注目DCTデータブロックとすると共に、この注目DCTデータブロックに逆DCTを施して得られた画素データブロックに加算されるリファレンスデータブロックを注目リファレンスデータブロックとする。また、注目リファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なり、この注目リファレンスデータブロックを構成する際に用いられた一個または複数個の画素データブロックを使用画素データブロックとし、さらにこの使用画素データブロックを得る際に用いられたDCTデータブロックを使用DCTデータブロックとする。
【0067】
ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ34からは、注目DCTデータブロックが読み出されると共に、使用DCTデータブロックのDC係数が読み出される。ここで、Pピクチャの場合には前方向からの予測符号化であるので、使用画素データブロックは1個、2個または4個となり、Bピクチャの場合には両方向からの予測符号化であるので、使用画素データブロックはそれぞれの方向で1個、2個または4個である。
【0068】
図4Aは、例えば、Pピクチャの場合であって、使用画素データブロックが4個であり、その4個の使用画素データブロックを得る際に用いられる4個の使用DCTデータブロックDB1〜DB4を示している。この図4Aにおいて、破線は、注目リファレンスデータブロックのブロック位置を示している。この場合、メモリ34からは、この4個のDCTデータブロックDB1〜DB4のDC係数DC1〜DC4が読み出される。
【0069】
同様に、ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ32からは、注目DCTデータブロックに対応した量子化特性指定情報QIaが読み出されると共に、使用DCTデータブロックに対応した量子化特性指定情報QIbが読み出される。
【0070】
また、残差クラス生成部121は、メモリ34より読み出される使用DCTデータブロックのDC係数を、メモリ32より読み出されるその使用DCTデータブロックに対応した量子化特性指定情報QIbに基づいて逆量子化する逆量子化回路36と、使用DCTデータブロックのそれぞれに対応して、逆量子化回路36で得られたDC係数をDC係数とすると共に全てのAC係数を0としたDCTデータブロックに対して逆DCTを施す逆DCT回路37とを有している。この場合、使用DCTデータブロックの個数に対応した個数の画素データブロックが得られるが、個々の画素データブロックにおいては、それを構成する8×8の画素データは全て同じ値となる。
【0071】
図4Bは、図4Aに示す4個のDCTデータブロックDB1〜DB4に対応して得られた4個の画素データブロックDB1′〜DB4′を示している。この図4Bにおいて、破線は、注目リファレンスデータブロックのブロック位置を示している。この場合、画素データブロックDB1′〜DB4′は、それぞれdc1〜dc4の値の画素データからなっている。なお、この図4Bは、図面の簡単化のため、画素データブロックDB1′〜DB4′が4×4の画素データを含むように示している。
【0072】
また、残差クラス生成部121は、逆DCT回路37で得られた画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して、一個の画素データブロックを得るブロック化回路38を有している。
【0073】
図4Cは、図4Bに示すように4個の画素データブロックDB1′〜DB4′が得られた場合に、ブロック化回路38で得られる一個の画素データブロックDB0を示している。
【0074】
なお、上述せずも、ピクチャ情報PIがPピクチャを示す場合には、上述したようにしてブロック化回路38で一個の画素データブロックDB0が得られる。しかし、ピクチャ情報PIがBピクチャを示す場合には、両方向の使用DCTデータブロックに対応して、上述した逆量子化回路36、逆DCT回路37およびブロック化回路38で並行して処理し、それぞれ一個の画素データブロックDB0を得るようにする。そして、ブロック化回路38は、最終的に両方向の画素データブロックDB0の対応する画素データ同士を加算平均し、一個の画素データブロックDB0を得る。
【0075】
また、残差クラス生成部121は、ブロック化回路38で得られた画素データブロックDB0に対してDCTを施して、DCTデータブロックを得るDCT回路39を有している。図4Dは、DCT回路39で得られるDCTデータブロックDB0′の一例を示している。C0〜C15はDCT係数を示し、C0はDC係数、C1〜C15はAC係数を示している。
【0076】
また、残差クラス生成部121は、DCT回路39で得られたDCTデータブロックのDCT係数を、メモリ32より読み出される注目DCTブロックに対応した量子化特性指定情報QIaに基づいて量子化して補正データとしてのDCTデータブロックを得る量子化回路40とを有している。この場合、量子化特性指定情報QIaに基づいて量子化を行うのは、補正データとしてのDCTデータブロックの量子化特性を注目DCTデータブロックの量子化特性に合わせるためである。
【0077】
ここで、この補正データとしてのDCTデータブロックは、一個または複数個の使用データブロックのDC係数に基づいて得られた画素データブロックにDCTを施して得られたものである。そのため、このDCTデータブロックを構成するAC係数は、注目リファレンスデータブロックに含まれるブロック段差歪みに対応したものとなる。
【0078】
また、注目リファレンスデータブロックは、注目DCTデータブロックに対して動き補償されて得られたものであって、上述した一個または複数個の使用データブロックのデータを含むものとなる。そのため、この注目リファレンスデータブロックには、これら一個または複数個のデータブロックによるブロック段差歪みが含まれる。
【0079】
そして、注目DCTデータブロックは、符号化時に、所定のデータブロックからこの注目リファレンスデータブロックを差し引いて得られた差分(残差)データブロックに、さらにDCTが施されて得られたものである。したがって、注目DCTデータブロックは、そのAC係数部分に、上述したように注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。
【0080】
また、残差クラス生成部121は、メモリ34から読み出された注目DCTデータブロックの各AC係数に量子化回路40で得られた補正データとしてのDCTデータブロックの対応するAC係数を加算して、注目DCTデータブロックが有する注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を除去する加算回路41を有している。
【0081】
上述したように補正データとしてのDCTデータブロックを構成するAC係数は、注目リファレンスデータブロックに含まれるブロック段差歪みに対応したものとなると共に、注目DCTデータブロックのAC係数は注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。そのため、注目DCTデータブロックの各AC係数に補正データとしてのDCTデータブロックの対応するAC係数を加算することで、注目DCTデータブロックのAC係数が有する注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分は除去される。
【0082】
また、残差クラス生成部121は、加算回路41で得られたブロック段差歪みの補正成分を除去した注目DCTデータブロックのDCT係数を、メモリ32より読み出される注目DCTデータブロックに対応した量子化特性指定情報QIaに基づいて逆量子化する逆量子化回路42を有している。
【0083】
また、残差クラス生成部121は、クラス生成回路43と、このクラス生成回路43で生成された残差クラスコードCL0を出力する出力端子44とを有している。クラス生成回路43は、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成する。一方、クラス生成回路43は、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、逆量子化回路42で得られるDCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成する。
【0084】
この場合、クラス生成回路43は、逆量子化回路42で得られるDCTデータブロックの各AC係数のそれぞれに例えば1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施し、レベル分布を示す残差クラスコードCL0を生成する。
【0085】
ADRCは、DCTデータブロックの全てのAC係数の最大値および最小値を求め、最大値と最小値の差であるダイナミックレンジを求め、ダイナミックレンジに適応して各AC係数を量子化するものである。1ビットのADRCの場合、各AC係数が平均値より大きいか、小さいかで1ビットに変換される。ADRC処理は、AC係数のレベル分布を表すクラスの数を比較的小さなものにするための処理である。したがって、ADRCに限らず、VQ(ベクトル量子化)等のデータビット数を圧縮する符号化を使用するようにしてもよい。
【0086】
なお、クラス生成回路43は、PピクチャおよびBピクチャを区別した状態で残差クラスコードCL0を生成するようにしてもよい。これにより、PピクチャかBピクチャかで異なるクラス分類が行われることとなり、画像信号処理部110で生成される画像信号Vbの品質の向上を図ることができる。
【0087】
図3に示す残差クラス生成部121において、画像信号Vbにおける注目位置の画素データが属する残差クラスを示す残差クラスコードCL0を生成するための動作を説明する。
【0088】
ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ34から一個または複数個の使用DCTデータブロックのDC係数が読み出されて逆量子化回路36に供給され、またメモリ32からその使用DCTデータブロックに対応した量子化特性指定情報QIbを読み出されて逆量子化回路36に供給される(図4AのDC1〜DC4参照)。逆量子化回路36は、使用DCTデータブロックのDC係数を情報QIbに基づいて逆量子化する。
【0089】
逆量子化回路36で逆量子化されたDC係数は逆DCT回路37に供給される。逆DCT回路37は、逆量子化されたDC係数をDC係数とすると共に全てのAC係数を0としたDCTデータブロックに対して、逆DCTを施して画素データブロックを得る。この場合、使用DCTデータブロックの個数に対応した個数の画素データブロックが得られるが、個々の画素データブロックを構成する各画素データは全て同じ値となる(図4BのDB1′〜DB4′参照)。
【0090】
逆DCT回路37で得られた画素データブロックはブロック化回路38に供給される。ブロック化回路38は、逆DCTが施されて得られた画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して、一個の画素データブロックを得る(図4CのDB0参照)。
【0091】
このブロック化回路38で得られた一個の画素データブロックはDCT回路39に供給される。DCT回路39は、その一個の画素データブロックに対してDCTを施し、DCTデータブロックを得る(図4DのDB0′参照)。このようにDCT回路39で得られたDCTデータブロックは量子化回路40に供給される。この量子化回路40には、さらに、メモリ32から注目DCTデータブロックに対応した量子化特性指定情報QIaが読み出されて供給される。量子化回路40は、DCT回路39で得られたDCTデータブロックを、情報QIaに基づいて量子化し、補正データとしてのDCTデータブロックを得る。
【0092】
この補正データとしてのDCTデータブロックは、一個または複数個の使用DCTデータブロックのDC係数に基づいて得られた画素データブロックにDCTを施して得られたものである。そのため、この補正データとしてのDCTデータブロックを構成するAC係数は、注目リファレンスデータブロックに含まれるブロック段差歪みに対応したものとなる。
【0093】
量子化回路40で得られた補正データとしてのDCTデータブロックは加算回路41に供給される。この加算回路41には、メモリ34から注目DCTデータブロックが読み出されて供給される。この注目DCTデータブロックは、そのAC係数部分に、注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。加算回路41は、注目DCTデータブロックの各AC係数に、補正データとしてのDCTデータブロックの対応するAC係数を加算する。これにより、注目DCTデータブロックが有する、注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分が除去される。
【0094】
加算回路41でブロック段差歪みの補正成分が除去された注目DCTデータブロックは逆量子化回路42に供給される。この逆量子化回路42には、メモリ32から注目DCTデータブロックに対応した量子化特性指定情報QIaが読み出されて供給される。逆量子化回路42は、ブロック段差歪みの補正成分が除去された注目DCTデータブロックを、情報QIaに基づいて逆量子化する。
【0095】
そして、クラス生成回路43は、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成する。一方、クラス生成回路43は、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、逆量子化回路42で得られるDCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成する。このようにクラス生成回路43で生成されるクラスコードCL0は出力端子44に出力される。
【0096】
このように図3に示す残差クラス生成部121は、ピクチャ情報PIがPピクチャまたはBピクチャを示すとき、注目DCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成するものであるが、この注目DCTデータブロックの各AC係数として、注目リファレンスデータブロックに含まれるブロック段差歪みの補正成分が除去されたものが用いられる。したがって、残差クラスのクラス分類の精度を向上させることができ、画像信号Vbの品質の向上を図ることができる。
【0097】
図5のフローチャートは、上述した残差クラスコードCLOの生成処理の手順を示している。
まず、ステップST1で処理を開始し、ステップST2で、ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ34から一個または複数個の使用DCTデータブロックのDC係数を読み出す。そして、ステップST3で、メモリ32から使用DCTデータブロックに対応した量子化特性指定情報QIbを読み出し、この情報QIbに基づいて、ステップST2で読み出されたDC係数を逆量子化する。
【0098】
次に、ステップST4で、逆量子化されたDC係数をDC係数とすると共に全てのAC係数を0としたDCTデータブロックに対して、逆DCTを施して画素データブロックを得る。そして、ステップST5で、逆DCTが施されて得られた画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の画素データブロックを生成する。
【0099】
次に、ステップST6で、生成された一個の画素データブロックに対してDCTを施し、さらにメモリ32から注目DCTデータブロックに対応した量子化特性指定情報QIaを読み出し、この情報QIaに基づいて量子化し、補正データとしてのDCTデータブロックを得る。そして、ステップST7で、メモリ34から注目DCTデータブロックを読み出し、その各AC係数に補正データとしてのDCTデータブロックの対応するAC係数を加算して、注目DCTデータブロックが有する注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を除去する。
【0100】
次に、ステップST8で、ブロック段差歪みの補正成分が除去された注目DCTデータブロックを、注目DCTデータブロックに対応した量子化特性指定情報QIaに基づいて逆量子化する。そして、ステップST9で、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成し、一方、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、ステップ8で得られたDCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成する。その後に、ステップST10で処理を終了する。
【0101】
図1に戻って、また、画像信号処理部110は、バッファメモリ108に記憶されている画像信号Vaより、画像信号Vbにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力するデータ選択手段としての予測タップ選択回路122を有している。この予測タップ選択回路122は、予測に使用する予測タップの複数の画素データを選択的に取り出すものである。
【0102】
また、画像信号処理部110は、画像信号Vbにおける注目位置の画素データが属するクラスを検出するクラス検出手段としてのクラス分類部123を有している。
【0103】
このクラス分類部123は、バッファメモリ108に記憶されている画像信号Vaを構成する複数の画素データ、バッファメモリ108に画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データと対となって格納されている画素位置モードの情報pi、および残差クラス生成部121で生成された残差クラスコードCL0を用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0104】
図6は、クラス分類部123の構成を示している。
このクラス分類部123は、画像信号Vaを入力する入力端子50Aと、この入力端子50Aに入力される画像信号Vaに基づいて、画像信号Vbにおける注目位置の画素データが属するn種類のクラスを検出するために使用するクラスタップの複数の画素データをそれぞれ選択的に取り出すタップ選択回路50B1〜50Bnと、このタップ選択回路50B1〜50Bnで取り出された画素データをそれぞれ用いてn種類のクラスを示すクラスコードCL1〜CLnを生成するクラス生成回路50C1〜50Cnとを有している。
【0105】
本実施の形態においては、6種類のクラスを示すクラスコードCL1〜CL6を生成する。6種類のクラスは、空間波形クラス、時間変動クラス、AC変動クラス、フラットクラス、ライン相関クラス、ブロックエッジクラスである。各クラスについて簡単に説明する。
【0106】
▲1▼空間波形クラスを説明する。タップ選択回路50B1およびクラス生成回路50C1は、この空間波形クラスの検出系を構成しているものとする。
タップ選択回路50B1は、画像信号VaのTフレーム(現在フレーム)およびT−1フレーム(1フレーム前のフレーム)より、画像信号Vbにおける注目位置に対して空間方向の周辺に位置する複数の画素データを選択的に取り出すものであり、上述した予測タップ選択回路122と同様のものである。クラス生成回路50C1は、タップ選択回路50B1で選択された複数の画素データのそれぞれに例えば1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施し、空間波形クラスを示すクラスコードCL1を生成する。
【0107】
▲2▼時間変動クラスを説明する。タップ選択回路50B2およびクラス生成回路50C2は、この時間変動クラスの検出系を構成しているものとする。
タップ選択回路50B2は、画像信号Vaの現在フレーム(Tフレーム)から、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図7に示す注目ブロック)の画素データを取り出すと共に、画像信号Vaの1フレーム前の過去フレーム(T−1フレーム)から、注目ブロックに対応したブロック(図7に示す過去ブロック)の画素データを取り出す。
【0108】
クラス生成回路50C2は、注目ブロックの8×8個の画素データと過去ブロックの8×8個の画素データとの間で対応する画素毎に減算を行って8×8個の差分値を求め、さらにこの8×8個の差分値の二乗和を求め、この二乗和を閾値判定して、時間変動クラスを示すクラスコードCL2を生成する。
【0109】
▲3▼AC変動クラスを説明する。タップ選択回路50B3およびクラス生成回路50C3は、このAC変動クラスの検出系を構成しているものとする。
タップ選択回路50B3は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図7に示す注目ブロック)の画素データを取り出すと共に、画像信号Vaの1フレーム前の過去フレームから、注目ブロックに対応したブロック(図7に示す過去ブロック)の画素データを取り出す。
【0110】
クラス生成回路50C3は、注目ブロックの8×8個の画素データと、過去ブロックの8×8個の画素データとのそれぞれに対して、DCT処理を施してDCT係数(周波数係数)を求める。そして、クラス生成回路50C3は、AC部分の各基底位置において、どちらかに係数が存在する基底位置の数m1と、そのうち符号反転しているものおよび片方の係数が0であるものの基底位置の数m2を求め、m1/m2を閾値判定して、AC変動クラスを示すクラスコードCL3を生成する。時間変動の少ないブロックでは、このAC変動クラスにより、モスキート歪みに対応したクラス分類を行うことが可能である。
【0111】
▲4▼フラットクラスを説明する。タップ選択回路50B4およびクラス生成回路50C4は、このフラットクラスの検出系を構成しているものとする。
タップ選択回路50B4は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図7に示す注目ブロック)の画素データを取り出す。クラス生成回路50C4は、注目ブロックの8×8個の画素データの最大値と最小値を検出し、その差分であるダイナミックレンジを閾値判定して、フラットクラスを示すクラスコードCL4を生成する。
【0112】
▲5▼ライン相関クラスについて説明する。タップ選択回路50B5およびクラス生成回路50C5は、このライン相関クラスの検出系を構成しているものとする。
タップ選択回路50B5は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図7に示す注目ブロック)の画素データを取り出す。
【0113】
クラス生成回路50C5は、注目ブロックの8×8個の画素データの1ライン目と2ライン目、3ライン目と4ライン目、5ライン目と6ライン目、7ライン目と8ライン目の画素間で対応する画素毎に減算を行って8×4個の差分値を求め、さらにこの8×4個の差分値の二乗和を求め、この二乗和を閾値判定して、ライン相関クラスを示すクラスコードCL5を生成する。このライン相関クラスは、静止画像などフレーム内の相関が高いか、あるいは動きが速くフレーム内よりもフィールド内の相関が高いかを示すものとなる。
【0114】
▲6▼ブロックエッジクラスについて説明する。タップ選択回路50B6およびクラス生成回路50C6は、このブロックエッジクラスの検出系を構成しているものとする。
タップ選択回路50B6は、画像信号Vaの現在フレームから、画像信号Vbにおける注目位置の画素データに対応したDCTブロック(図7に示す注目ブロック)の画素データを取り出すと共に、その現在フレームから、注目ブロックに対して上下左右に隣接したブロック(図7に示す隣接ブロック)の画素データを取り出す。
【0115】
クラス生成回路50C6は、注目ブロックの4辺の各8個の画素データとそれに隣接する隣接ブロックの画素データとの間で対応する画素毎に減算を行って4×8個の差分値を求め、さらにこの各8個の差分値の二乗和を求め、注目ブロックの4辺にそれぞれ対応した4個の二乗和をそれぞれ閾値判定して、ブロックエッジクラスを示すクラスコードCL6を生成する。
【0116】
また、クラス分類部123は、画素位置モードの情報piを入力する入力端子50Dと、残差クラスコードCL0を入力する入力端子50Eを有している。画素位置モードの情報piは、そのまま画素位置モードクラスを示すクラスコードCLpとなる。例えば、DCTブロックが8×8の画素データからなるとき、このクラスコードCLpは64の画素位置モードのいずれかを表すコードとなる。
【0117】
また、クラス分類部123は、クラス生成回路50C1〜50Cnで生成されるクラスコードCL1〜CLn、入力端子50D,50Eに入力されるクラスコードCLp,CL0を統合して1個のクラスコードCLとするクラス統合回路50Fと、このクラスコードCLを出力する出力端子50Gとを有している。
【0118】
本実施の形態において、クラス統合回路50Fは、クラス生成回路50C1〜50C6で生成されたクラスコードCL1〜CL6、さらにはクラスコードCLp,CL0を統合して、1つのクラスコードCLとする。
【0119】
図1に戻って、また、画像信号処理部110は、係数メモリ124を有している。この係数メモリ124は、後述する推定予測演算回路125で使用される推定式で用いられる係数データWi(i=1〜n、nは予測タップの個数)を、クラス毎に、格納するものである。
【0120】
この係数データWiは、画像信号Vaを画像信号Vbに変換するための情報である。この係数メモリ124に格納される係数データWiは、予め画像信号Vaに対応した生徒信号と画像信号Vbに対応した教師信号との間の学習によって生成される。この係数メモリ124には上述したクラス分類部123より出力されるクラスコードCLが読み出しアドレス情報として供給され、この係数メモリ124からはクラスコードCLに対応した推定式の係数データWiが読み出されて、推定予測演算回路125に供給される。係数データWiの生成方法については後述する。
【0121】
また、画像信号処理部110は、予測タップ選択回路122で選択的に取り出される予測タップの画素データxiと、係数メモリ124より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vbにおける注目位置の画素データyを演算する推定予測演算回路125を有している。
【0122】
【数1】

Figure 0004158474
【0123】
この画像信号処理部110の動作を説明する。
残差クラス生成部121では、画像信号Vbの注目位置に対応した画像信号Vaの画素データと対となってバッファメモリ108に記憶されている動き補償用ベクトル情報MIおよびピクチャ情報PIと、内蔵のメモリ32,34に格納されている量子化特性指定情報QIおよび量子化DCT係数が用いられて、残差クラスコードCL0が生成される。この残差クラスコードCL0は、ピクチャ情報PIがIピクチャを示す場合には特定のコードとなり、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、ブロック段差歪みの補正成分が除去された注目DCTデータブロックの各AC係数に基づいて生成される。
【0124】
また、クラス分類部123では、バッファメモリ108に記憶されている画像信号Vaを構成する複数の画素データ、バッファメモリ108に画像信号Vbにおける注目位置の画素データに対応した画像信号Vaの画素データと対となって格納されている画素位置モード情報pi、残差クラス生成部121で生成される残差クラスコードCL0を用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLが生成される。
【0125】
このようにクラス分類部123で生成されるクラスコードCLは読み出しアドレス情報として係数メモリ124に供給される。これにより、係数メモリ124からクラスコードCLに対応した係数データWiが読み出されて、推定予測演算回路125に供給される。
【0126】
また、バッファメモリ108に記憶されている画像信号Vaより、予測タップ選択回路122で、画像信号Vbにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0127】
推定予測演算回路125では、予測タップの画素データxiと、係数メモリ124より読み出される係数データWiとを用いて、上述の(1)式に示す推定式に基づいて、作成すべき画像信号Vbにおける注目位置の画素データyが求められる。
【0128】
このように画像信号処理部110では、画像信号Vaから係数データWiを用いて画像信号Vbが得られる。この場合、画像信号Vaに基づいて選択された、画像信号Vbにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)、およびこの画像信号Vbにおける注目位置の画素データが属するクラスCLに対応した係数データWiを用いて、推定式に基づいて画像信号Vbにおける注目位置の画素データyを生成するものである。
【0129】
したがって、係数データWiとして、画像信号Vaに対応しこの画像信号Vaと同様の符号化雑音を含む生徒信号と画像信号Vbに対応した符号化雑音を含まない教師信号とを用いた学習によって得られた係数データWiを用いることで、画像信号Vbとして画像信号Vaに比べて符号化雑音が大幅に軽減されたものを良好に得ることができる。
【0130】
また、残差クラス生成部121では、ピクチャ情報PIがPピクチャまたはBピクチャを示すとき、注目DCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成するものであるが、この注目DCTデータブロックの各AC係数として、注目リファレンスデータブロックに含まれるブロック段差歪みの補正成分が除去されたものが用いられるものであり、残差クラスのクラス分類の精度を向上させることができ、画像信号Vbの品質の向上を図ることができる。
【0131】
次に、係数メモリ124に記憶される係数データWiの生成方法について説明する。この係数データWiは、予め学習によって生成されたものである。
【0132】
まず、この学習方法について説明する。上述の、(1)式において、学習前は係数データW1,W2,‥‥,Wnは未定係数である。学習は、クラス毎に、複数の信号データに対して行う。学習データ数がmの場合、(1)式に従って、以下に示す(2)式が設定される。nは予測タップの数を示している。
【0133】
k=W1×xk1+W2×xk2+‥‥+Wn×xkn ・・・(2)
(k=1,2,‥‥,m)
【0134】
m>nの場合、係数データW1,W2,‥‥,Wnは、一意に決まらないので、誤差ベクトルeの要素ekを、以下の式(3)で定義して、(4)式のe2を最小にする係数データを求める。いわゆる最小2乗法によって係数データを一意に定める。
【0135】
k=yk−{W1×xk1+W2×xk2+‥‥+Wn×xkn} ・・・(3)
(k=1,2,‥‥m)
【0136】
【数2】
Figure 0004158474
【0137】
(4)式のe2を最小とする係数データを求めるための実際的な計算方法としては、まず、(5)式に示すように、e2を係数データWi(i=1,2,・・・,n)で偏微分し、iの各値について偏微分値が0となるように係数データWiを求めればよい。
【0138】
【数3】
Figure 0004158474
【0139】
(5)式から係数データWiを求める具体的な手順について説明する。(6)式、(7)式のようにXji,Yiを定義すると、(5)式は、(8)式の行列式の形に書くことができる。
【0140】
【数4】
Figure 0004158474
【0141】
【数5】
Figure 0004158474
【0142】
(8)式は、一般に正規方程式と呼ばれるものである。この正規方程式を掃き出し法(Gauss-Jordanの消去法)等の一般解法で解くことにより、係数データWi(i=1,2,・・・,n)を求めることができる。
【0143】
図8は、図1の画像信号処理部110の係数メモリ124に格納すべき係数データWiを生成する係数データ生成装置150の構成を示している。
この係数データ生成装置150は、画像信号Vbに対応した教師信号STが入力される入力端子151と、この教師信号STに対して符号化を行ってMPEG2ストリームを得るMPEG2符号化器152と、このMPEG2ストリームに対して復号化を行って画像信号Vaに対応した生徒信号SSを得るMPEG2復号化器153とを有している。ここで、MPEG2復号化器153は、図1に示すデジタル放送受信機100におけるMPEG2復号化器107およびバッファメモリ108に対応したものである。
【0144】
また、係数データ生成装置150は、残差クラス生成部154を有している。この残差クラス生成部154は、上述した画像信号処理部110の残差クラス生成部121と同様に構成され、教師信号STにおける注目位置の画素データが属する残差クラスを示す残差クラスコードCL0を生成する。この残差クラス生成部154に内蔵されたメモリには、MPEG2復号化器153より出力される量子化特性指定情報QIおよび量子化DCT係数が一時的に格納される。この残差クラス生成部154では、教師信号STの注目位置に対応した生徒信号SSの画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIと、内蔵のメモリに格納されている量子化特性指定情報QIおよび量子化DCT係数が用いられて、残差クラスコードCL0が生成される。
【0145】
また、係数データ生成装置150は、MPEG2復号化器153より出力される生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する予測タップ選択回路155を有している。この予測タップ選択回路155は、上述した画像信号処理部110の予測タップ選択回路122と同様に構成される。
【0146】
また、係数データ生成装置150は、教師信号STにおける注目位置の画素データが属するクラスを検出するクラス検出手段としてのクラス分類部156を有している。このクラス分類部156は、上述した画像信号処理部110のクラス分類部123と同様に構成される。
【0147】
このクラス分類部156は、MPEG2復号化器153より得られる生徒信号SSを構成する複数の画素データ、MPEG2復号化器153より得られる、教師信号STにおける注目位置の画素データに対応した生徒信号SSの画素データと対となっている画素位置モード情報pi、および残差クラス生成部154で生成される残差クラスコードCL0を用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0148】
また、係数データ生成装置150は、入力端子151に供給される教師信号STの時間調整を行うための遅延回路157と、この遅延回路157で時間調整された教師信号STより得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス分類部156で生成されるクラスコードCLとから、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式(上述の(8)式参照)を生成する正規方程式生成部158を有している。
【0149】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、教師信号STと生徒信号SSとの間で、クラス毎に、多くの学習データが生成されていく。これにより、正規方程式生成部158では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式が生成される。
【0150】
また、係数データ生成装置150は、正規方程式生成部158で生成された正規方程式のデータが供給され、その正規方程式を解いて、各クラスの係数データWiを求める係数データ決定部159と、この求められた各クラスの係数データWiを格納する係数メモリ160とを有している。
【0151】
次に、図8に示す係数データ生成装置150の動作を説明する。
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてMPEG2符号化器152で、この教師信号STに対して符号化が施されて、MPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。MPEG2復号化器153で、このMPEG2ストリームに対して復号化が施されて、画像信号Vaに対応した生徒信号SSが生成される。
【0152】
残差クラス生成部154では、教師信号STの注目位置に対応した生徒信号SSの画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIと、内蔵のメモリに格納されている量子化特性指定情報QIおよび量子化DCT係数が用いられて、教師信号STにおける注目位置の画素データが属する残差クラスを示す残差クラスコードCL0が生成される。
【0153】
クラス分類部156では、MPEG2復号化器153より得られる生徒信号SSを構成する複数の画素データ、MPEG2復号化器153より得られる、教師信号STにおける注目位置の画素データに対応した生徒信号SSの画素データと対となっている画素位置モード情報pi、残差クラス生成部154で生成された残差クラスコードCL0を用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLが生成される。
【0154】
また、MPEG2復号化器153より得られる生徒信号SSより、予測タップ選択回路155で、教師信号STにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0155】
そして、遅延回路157で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス分類部156で生成されるクラスコードCLとを用いて、正規方程式生成部158では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((8)式参照)が生成される。この正規方程式は係数データ決定部159で解かれて各クラスの係数データWiが求められ、その係数データWiは係数メモリ160に格納される。
【0156】
このように、図8に示す係数データ生成装置150においては、図1の画像信号処理部110の係数メモリ124に格納される各クラスの係数データWiを生成することができる。
【0157】
生徒信号SSは、教師信号STに対して符号化を施してMPEG2ストリームを生成し、その後このMPEG2ストリームに対して復号化を施して得たものである。したがって、この生徒信号SSは、画像信号Vaと同様の符号化雑音を含んだものとなる。そのため、図1に示す画像信号処理部110において、画像信号Vaからこの係数データWiを用いて得られる画像信号Vbは、画像信号Vaに比べて符号化雑音が軽減されたものとなる。
【0158】
なお、図1の画像信号処理部110における処理を、例えば図9に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。
【0159】
まず、図9に示す画像信号処理装置300について説明する。この画像信号処理装置300は、装置全体の動作を制御するCPU301と、このCPU301の制御プログラムや係数データ等が格納されたROM(Read Only Memory)302と、CPU301の作業領域を構成するRAM(Random Access Memory)303とを有している。これらCPU301、ROM302およびRAM303は、それぞれバス304に接続されている。
【0160】
また、画像信号処理装置300は、外部記憶装置としてのハードディスクドライブ(HDD)305と、フロッピー(登録商標)ディスク306をドライブするドライブ(FDD)307とを有している。これらドライブ305,307は、それぞれバス304に接続されている。
【0161】
また、画像信号処理装置300は、インターネット等の通信網400に有線または無線で接続する通信部308を有している。この通信部308は、インタフェース309を介してバス304に接続されている。
【0162】
また、画像信号処理装置300は、ユーザインタフェース部を備えている。このユーザインタフェース部は、リモコン送信機200からのリモコン信号RMを受信するリモコン信号受信回路310と、LCD(liquid Crystal Display)等からなるディスプレイ311とを有している。受信回路310はインタフェース312を介してバス304に接続され、同様にディスプレイ311はインタフェース313を介してバス304に接続されている。
【0163】
また、画像信号処理装置300は、画像信号Vaを入力するための入力端子314と、画像信号Vbを出力するための出力端子315とを有している。入力端子314はインタフェース316を介してバス304に接続され、同様に出力端子315はインタフェース317を介してバス304に接続される。
【0164】
ここで、上述したようにROM302に制御プログラムや係数データ等を予め格納しておく代わりに、例えばインターネットなどの通信網400より通信部308を介してダウンロードし、ハードディスクやRAM303に蓄積して使用することもできる。また、これら制御プログラムや係数データ等をフロッピー(登録商標)ディスク306で提供するようにしてもよい。
【0165】
また、処理すべき画像信号Vaを入力端子314より入力する代わりに、予めハードディスクに記録しておき、あるいはインターネットなどの通信網400より通信部308を介してダウンロードしてもよい。また、処理後の画像信号Vbを出力端子315に出力する代わり、あるいはそれと並行してディスプレイ311に供給して画像表示をしたり、さらにはハードディスクに格納したり、通信部308を介してインターネットなどの通信網400に送出するようにしてもよい。
【0166】
図10のフローチャートを参照して、図9に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。
まず、ステップST21で、処理を開始し、ステップS22で、例えば入力端子314より装置内に1フレーム分または1フィールド分の画像信号Vaを入力する。この場合、画像信号Vaの各DCTブロック部分に対応したDCT係数および量子化特性指定情報QI、さらには画像信号Vaの画素データと対となっている画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PIも入力する。
【0167】
このように入力端子314より入力される画像信号Va等はRAM303に一時的に格納される。なお、この画像信号Va等が装置内のハードディスクドライブ305に予め記録されている場合には、このドライブ305からこの画像信号Va等を読み出し、この画像信号Va等をRAM303に一時的に格納する。
【0168】
そして、ステップST23で、画像信号Vaの全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST24で、処理を終了する。一方、処理が終わっていないときは、ステップST25に進む。
【0169】
ステップST25では、画像信号Vbの注目位置に対応した画像信号Vaの画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIと、量子化特性指定情報QIおよびDCT係数を用いて、残差クラスコードCL0を生成し、さらにこの残差クラスコードCL0、画像信号Vaを構成する複数の画素データおよび画素位置モード情報piを用いて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0170】
次に、ステップST26で、ステップST22で入力された画像信号Vaより、画像信号Vbにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)を取得する。そして、ステップST27で、ステップST25で生成されたクラスコードCLに対応した係数データWiとステップST26で取得された予測タップの画素データxiを使用して、(1)式の推定式に基づいて、画像信号Vbにおける注目位置の画素データyを生成する。
【0171】
次に、ステップST28で、ステップST22で入力された1フレームまたは1フィールド分の画像信号Vaの画素データの全領域において画像信号Vbの画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST22に戻り、次の1フレーム分または1フィールド分の画像信号Vaの入力処理に移る。一方、処理が終了していないときは、ステップST25に戻って、次の注目位置についての処理に移る。
【0172】
このように、図10に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0173】
また、処理装置の図示は省略するが、図8の係数データ生成装置150における処理も、ソフトウェアで実現可能である。
【0174】
図11のフローチャートを参照して、係数データを生成するための処理手順を説明する。
まず、ステップST31で、処理を開始し、ステップST32で、教師信号STを1フレーム分または1フィールド分だけ入力する。そして、ステップST33で、教師信号STの全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST34で、ステップST32で入力された教師信号STから生徒信号SSを生成する。この場合、生徒信号SSの各DCTブロック部分に対応したDCT係数および量子化特性指定情報QI、さらには生徒信号SSの画素データと対となっている画素位置モード情報pi、動き補償用ベクトル情報MIおよびピクチャ情報PIも得る。
【0175】
そして、ステップST35で、教師信号STの注目位置に対応した生徒信号SSの画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIと、量子化特性指定情報QIおよびDCT係数を用いて、残差クラスコードCL0を生成し、さらにこの残差クラスコードCL0、生徒信号SSを構成する複数の画素データおよび画素位置モード情報piを用いて、教師信号STにおける注目位置の画素データが属するクラスを示すクラスコードCLを生成する。
【0176】
次に、ステップST36で、ステップST34で生成された生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)を取得する。
【0177】
そして、ステップST37で、ステップST35で生成されたクラスコードCL、ステップST36で取得された予測タップの画素データxiおよび教師信号STにおける注目位置の画素データyを用いて、クラス毎に、(8)式に示す正規方程式を得るための加算をする((6)式、(7)式参照)。
【0178】
次に、ステップST38で、ステップST32で入力された1フレーム分または1フィールド分の教師信号STの画素データの全領域において学習処理が終了したか否かを判定する。学習処理を終了しているときは、ステップST32に戻って、次の1フレーム分または1フィールド分の教師信号STの入力を行って、上述したと同様の処理を繰り返す。一方、学習処理を終了していないときは、ステップST35に戻って、次の注目位置についての処理に移る。
【0179】
上述したステップST33で、処理が終了したときは、ステップST39で、上述のステップST37の加算処理によって生成された、各クラスの正規方程式を掃き出し法などで解いて、各クラスの係数データWiを算出する。そして、ステップST40で、各クラスの係数データWiをメモリに保存し、その後にステップST41で、処理を終了する。
【0180】
このように、図11に示すフローチャートに沿って処理をすることで、図8に示す係数データ生成装置150と同様の手法によって、各クラスの係数データWiを得ることができる。
【0181】
なお、上述実施の形態において、画像信号処理部110の残差クラス生成部121では、使用DCTデータブロックを用いるものを示したが、この代わりに使用画素データブロックを用いる構成とすることもできる。
【0182】
図12は、その場合における残差クラス生成部121Aの構成を示している。この図12において、図3と対応する部分には同一符号を付し、その詳細説明は省略する。
【0183】
この残差クラス生成部121Aは、上述したMPEG2復号化器107(図2参)より出力される画像信号Vaが入力される入力端子45と、この入力端子45に入力される画像信号Vaを一時的に格納するためのメモリ46とを有している。入力端子35に入力される情報MI,PIは、メモリ46に読み出し制御情報として供給される。ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ46からは、一個または複数個の使用画素データブロックが読み出される。図13Aは、例えば、Pピクチャの場合であって、4個の使用画素データブロックDBa〜DBdが用いられた場合を示している。この図13Aにおいて、破線は、注目リファレンスデータブロックのブロック位置を示している。なお、この図13Aは、図面の簡単化のため、画素データブロックDBa〜DBdが4×4の画素データを含むように示している。
【0184】
また、残差クラス生成部121Aは、メモリ46より読み出された画素データブロックにおける画素データの平均値をブロック毎に得る平均回路47を有している。この場合、使用画素データブロックの個数に対応した個数の平均値が得られる。図13Aのように、使用画素データブロックの個数が4個である場合には、4個の平均値が得られる。
【0185】
また、残差クラス生成部121Aは、上述した一個または複数個の使用画素データブロックを構成する画素データが平均回路47で得られた平均値で置き換えられた状態で、この一個または複数個の使用画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の画素データブロックを得るブロック化回路48を有している。
【0186】
例えば、図13Aに示すような4個の使用画素データブロックDBa〜DBdを構成する画素データを平均値で置き換えた場合には、図13Bに示すようになる。この場合、daはa0〜a15の平均値、dbはb0〜b15の平均値、dcはc0〜c15の平均値、ddはd0〜d15の平均値である。また、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して得られる一個の画素データブロックDB0は、図13Cに示すようになる。
【0187】
図12に示す残差クラス生成部121Aのその他は、図3に示す残差クラス生成部121と同様に構成される。
図12に示す残差クラス生成部121において、画像信号Vbにおける注目位置の画素データが属する残差クラスを示す残差クラスコードCL0を生成するための動作を説明する。
【0188】
ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ46から一個または複数個の使用画素データブロックのDCT係数が読み出されて平均回路47に供給される(図13AのDBa〜DBd参照)。平均回路47は、メモリ46より読み出された画素データブロックにおける画素データの平均値をブロック毎に求める。
【0189】
平均回路47で求められた平均値はブロック化回路48に供給される。ブロック化回路48は、上述した一個または複数個の使用画素データブロックを構成する画素データが平均回路47で得られた平均値で置き換えられた状態で(図13B参照)、この一個または複数個の使用画素データブロックより、リファレンスデータブロックのブロック位置(破線図示)に重なる位置に存在する画素データを選択的に取り出して一個の画素データブロックを得る(図13CのDB0参照)。
【0190】
このブロック化回路38で得られた一個の画素データブロックはDCT回路39に供給される。DCT回路39は、その一個の画素データブロックに対してDCTを施し、DCTデータブロックを得る(図4DのDB0′参照)。このようにDCT回路39で得られたDCTデータブロックは量子化回路40に供給される。この量子化回路40には、さらに、メモリ32から注目DCTデータブロックに対応した量子化特性指定情報QIaが読み出されて供給される。量子化回路40は、DCT回路39で得られたDCTデータブロックを、情報QIaに基づいて量子化し、補正データとしてのDCTデータブロックを得る。
【0191】
この補正データとしてのDCTデータブロックは、一個または複数個の使用画素データブロックを構成する画素データの平均値に基づいて得られた画素データブロックにDCTを施して得られたものである。そのため、この補正データとしてのDCTデータブロックを構成するAC係数も、図3に示す残差クラス生成部121におけると同様に、注目リファレンスデータブロックに含まれるブロック段差歪みに対応したものとなる。
【0192】
量子化回路40で得られた補正データとしてのDCTデータブロックは加算回路41に供給される。この加算回路41には、メモリ34から注目DCTデータブロックが読み出されて供給される。この注目DCTデータブロックは、そのAC係数部分に、注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を有している。加算回路41は、注目DCTデータブロックの各AC係数に、補正データとしてのDCTデータブロックの対応するAC係数を加算する。これにより、注目DCTデータブロックが有する、注目リファレンスデータブロックに含まれるブロック段差歪みを補正する成分が除去される。
【0193】
加算回路41でブロック段差歪みの補正成分が除去された注目DCTデータブロックは逆量子化回路42に供給される。この逆量子化回路42には、メモリ32から注目DCTデータブロックに対応した量子化特性指定情報QIaが読み出されて供給される。逆量子化回路42は、ブロック段差歪みの補正成分が除去された注目DCTデータブロックを、情報QIaに基づいて逆量子化する。
【0194】
そして、クラス生成回路43は、ピクチャ情報PIがIピクチャを示す場合には、残差クラスコードCL0として、特定のコードを生成する。一方、クラス生成回路43は、ピクチャ情報PIがPピクチャまたはBピクチャを示すときは、逆量子化回路42で得られるDCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成する。このようにクラス生成回路43で生成されるクラスコードCL0は出力端子44に出力される。
【0195】
このように図12に示す残差クラス生成部121Aは、ピクチャ情報PIがPピクチャまたはBピクチャを示すとき、注目DCTデータブロックの各AC係数に基づいて残差クラスコードCL0を生成するものであるが、この注目DCTデータブロックの各AC係数として、注目リファレンスデータブロックに含まれるブロック段差歪みの補正成分が除去されたものが用いられる。したがって、残差クラスのクラス分類の精度を向上させることができ、画像信号Vbの品質の向上を図ることができる。
【0196】
図14のフローチャートは、上述した残差クラスコードCLOの生成処理の手順を示している。この図14において、図5と対応する部分には同一符号を付して示している。
【0197】
まず、ステップST1で処理を開始し、ステップST11で、ピクチャ情報PIがPピクチャまたはBピクチャを示す場合、メモリ46から一個または複数個の使用画素データブロックを読み出す。そして、ステップST12で、読み出された一個または複数個の使用画素データブロックの画素データの平均値をブロック毎に求める。
【0198】
次に、ステップST13で、一個または複数個の使用画素データブロックを構成する画素データが平均値で置き換えられた状態で、この一個または複数個の使用画素データブロックより、リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の画素データブロックを生成する。
【0199】
次に、ステップST6に進む。このステップST6以下は、上述した図5のフローチャートと同様であるので、説明は省略する。
【0200】
また、上述実施の形態においては、MPEG2復号化器107から可変長復号化回路74で得られる量子化DCT係数が出力され、この量子化DCT係数を残差クラス生成部121,121Aのメモリ34に格納して、残差クラスコードCL0の生成に利用するものである。
【0201】
しかし、MPEG2復号化器107から逆量子化回路76で得られる逆量子化されたDCT係数が出力されるようにし、この逆量子化されたDCT係数を残差クラス生成部121,121Aのメモリ34に格納して、残差クラスコードCL0の生成に利用するように構成することもできる。
【0202】
その場合には、残差クラス生成部121,121Aにおいて、逆量子化、量子化等の処理は不要となる。したがってその場合には、図3の残差クラス生成部121において、メモリ32、逆量子化回路36,42、量子化回路40は不要となる。同様に、図12の残差クラス生成部121Aにおいて、メモリ32、量子化回路40、逆量子化回路42は不要となる。
【0203】
また、上述実施の形態においては、DCTを伴うMPEG2ストリームを取り扱うものを示したが、この発明は、ブロック毎に動き補償予測符号化が行われたその他の符号化されたデジタル画像信号を取り扱うものにも同様に適用することができる。また、DCTの代わりに、ウェーブレット変換、離散サイン変換などのその他の直交変換を伴う符号化であってもよい。
【0204】
【発明の効果】
この発明によれば、ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際、少なくとも差分データブロックを用いて第2の画像信号における注目位置の画素データが属するクラスを検出し、このクラスに対応して第2の画像信号における注目位置の画素データを生成するものにあって、リファレンスデータブロックに含まれるブロック段差歪みを補正する成分を差分データブロックから除去し、この補正成分が除去された差分データブロックを上述のクラス検出に用いるものであり、クラス分類の精度が向上することから、第2の画像信号の品質の向上を図ることができる。
【図面の簡単な説明】
【図1】実施の形態としてのデジタル放送受信機の構成を示すブロック図である。
【図2】MPEG2復号化器の構成を示すブロック図である。
【図3】残差クラス生成部の構成を示すブロック図である。
【図4】残差クラス生成部の処理を説明するための図である。
【図5】残差クラス生成処理を示すフローチャートである。
【図6】クラス分類部の構成を示すブロック図である。
【図7】タップ選択用ブロックを示す図である。
【図8】係数データ生成装置の構成を示すブロック図である。
【図9】ソフトウェアで実現するための画像信号処理装置の構成例を示すブロック図である。
【図10】画像信号処理を示すフローチャートである。
【図11】係数データ生成処理を示すフローチャートである。
【図12】残差クラス生成部の他の構成を示すブロック図である。
【図13】残差クラス生成部の処理を説明するための図である。
【図14】残差クラス生成処理を示すフローチャートである。
【符号の説明】
100・・・デジタル放送受信機、101・・・システムコントローラ、102・・・リモコン信号受信回路、105・・・受信アンテナ、106・・・チューナ部、107・・・MPEG2復号化器、108・・・バッファメモリ、110・・・画像信号処理部、111・・・ディスプレイ部、121,121A・・・残差クラス生成部、122・・・予測タップ選択回路、123・・・クラス分類部、124・・・係数メモリ、125・・・推定予測演算回路、150・・・係数データ生成装置、300・・・画像信号処理装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image signal processing device and processing method, a coefficient data generating device and generating method used therefor, and a program for executing each method.
[0002]
Specifically, according to the present invention, a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is generated from the plurality of pixel data. When converting to the second image signal, the class to which the pixel data of the target position in the second image signal belongs is detected using at least the difference data block, and the target position in the second image signal corresponding to this class The component that generates the pixel data of the reference data block, the component that corrects the block step distortion included in the reference data block is removed from the difference data block, and the difference data block from which the correction component is removed is used for the above-described class detection. According to the image signal processing apparatus or the like that improves the accuracy of the classification and improves the quality of the second image signal. Than is.
[0003]
[Prior art]
As an image signal compression encoding method, there is an MPEG2 (Moving Picture Experts Group 2) encoding method using DCT (Discrete Cosine Transform). In this encoding method, motion compensation prediction encoding is performed for each block.
[0004]
DCT performs discrete cosine transform on pixels in a block, requantizes coefficient data obtained by the discrete cosine transform, and further variable-length-encodes the requantized coefficient data. For this variable length coding, entropy coding such as Huffman code is often used. The image signal is orthogonally transformed to be divided into a large number of frequency data from low frequency to high frequency.
[0005]
When re-quantization is performed on this divided frequency data, human visual characteristics are taken into consideration, and low frequency data with high importance is finely quantized, and high frequency data with low importance is roughly quantized. In this way, the image quality can be maintained and high-efficiency compression can be realized.
[0006]
In conventional decoding using DCT, quantized data for each frequency component is converted into a representative value of the code, and reproduction data is obtained by performing inverse DCT (IDCT: Inverse DCT) on these components. . When converting to this representative value, the quantization step width at the time of encoding is used.
[0007]
[Problems to be solved by the invention]
As described above, the MPEG encoding method using DCT has the advantage that high-quality compression can be realized while maintaining high image quality by performing encoding in consideration of human visual characteristics.
[0008]
However, since coding for performing DCT is processing in units of blocks, block noise, so-called block noise (block distortion), may occur as the compression rate increases. In addition, in a portion where there is a rapid luminance change such as an edge, a noise that is a result of coarse quantization of high-frequency components, so-called mosquito noise, is generated.
[0009]
It can be considered that coding noise such as block noise and mosquito noise is removed by class classification adaptive processing. That is, an image signal including coding noise is set as a first image signal, an image signal from which coding noise is removed is set as a second image signal, and a class to which pixel data of a target position in the second image signal belongs is detected. Then, pixel data of the target position in the second image signal is generated corresponding to this class.
[0010]
In this case, it is also conceivable to detect the class to which the pixel data of the target position in the second image signal belongs using at least a DCT data block as a difference data block.
[0011]
However, this DCT data block has a component for correcting block step distortion included in the reference data block. Therefore, if classifying is performed using the DCT data block as it is, class classification cannot be performed with accuracy by the correction component, and it becomes difficult to improve the quality of the second image signal.
[0012]
Therefore, an object of the present invention is to improve the classification accuracy and improve the quality of the second image signal.
[0013]
[Means for Solving the Problems]
The image signal processing apparatus according to the present invention is configured to decode a first image signal made up of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation predictive coding for each block. Reduced distortion caused by encoding From multiple pixel data First 2 image signals When converting to the second image signal, One or a plurality of block positions that overlap all or part of the block position of the reference data block related to the difference data block used when obtaining the pixel data of the first image signal corresponding to the target position in Orthogonal inverse transform means for performing orthogonal inverse transform on one or a plurality of difference data blocks in which each DC coefficient is a DC coefficient and all AC coefficients are 0, and the orthogonal inverse transform From one or a plurality of pixel data blocks made up of pixel data obtained by the conversion means, pixel data existing at a position overlapping the block position of the reference data block is selectively taken out to obtain a single pixel made up of pixel data. Blocking means for obtaining a data block, orthogonal transformation means for performing orthogonal transformation on the pixel data block obtained by the blocking means to obtain a difference data block composed of transformation coefficients as the correction data, and the difference data By adding the AC coefficient corresponding to the correction data to each AC coefficient of the block, Removing correction component difference data block has Correction component removal means; At least from the level distribution of the AC coefficient of the difference data block from which the correction component is removed Class detecting means for detecting a class to which the pixel data of the target position in the second image signal belongs; A teacher signal that is obtained in advance for each class detected by the class detecting means and includes a student signal including encoding distortion corresponding to the first image signal and not including encoding distortion corresponding to the second image signal. Coefficient data generating means for generating coefficient data for minimizing an error from the signal, and data selection for selecting a plurality of pixel data located around the position of interest in the second image signal from the first image signal Means for calculating the coefficient data generated by the coefficient data generating means and the plurality of pixel data selected by the data selecting means to obtain pixel data of the target position in the second image signal; With Ru Is.
[0014]
Further, the image signal processing method according to the present invention provides a first image signal made up of a plurality of pixel data, which is generated by decoding a digital image signal that has been subjected to motion compensation predictive coding for each block. Reduced distortion caused by encoding Convert to a second image signal consisting of a plurality of pixel data In case All or part of the block position overlaps the block position of the reference data block related to the difference data block used when obtaining the pixel data of the first image signal corresponding to the target position in the second image signal. One or more A first step of performing orthogonal inverse transform on one or a plurality of difference data blocks in which the DC coefficients of the difference data blocks made up of transform coefficients are DC coefficients and all AC coefficients are 0; The pixel data existing in the position overlapping the block position of the reference data block is selectively taken out from one or a plurality of pixel data blocks made up of pixel data obtained in the above step, and one pixel made up of pixel data. A second step of obtaining a data block; a third step of performing orthogonal transformation on the pixel data block obtained in the second step to obtain a difference data block composed of transformation coefficients as the correction data; By adding the corresponding AC coefficient of the correction data to each AC coefficient of the difference data block, A first component for removing the correction component of the difference data block. 4 And at least the above-mentioned step 4 Difference data block from which correction components have been removed in step From the AC coefficient level distribution Detecting a class to which pixel data of a target position in the second image signal belongs. 5 And the above steps 5 Detected in the previous step A coefficient which is obtained every time and minimizes an error between a student signal including encoding distortion corresponding to the first image signal and a teacher signal not including encoding distortion corresponding to the second image signal. A sixth step of generating data, a seventh step of selecting a plurality of pixel data located around the position of interest in the second image signal from the first image signal, and the sixth step An eighth step of obtaining the pixel data of the target position in the second image signal by calculating the coefficient data generated in step S5 and the plurality of pixel data selected in the seventh step And with Ru Is.
[0015]
A program according to the present invention is for causing a computer to execute the above-described image signal processing method.
[0016]
In the present invention, the first image signal composed of a plurality of pixel data is generated by decoding a digital image signal that has been subjected to motion compensation prediction coding for each block. For example, the digital image signal has been subjected to MPEG encoding.
[0017]
Pixel data of the first image signal corresponding to the target position in the second image signal is obtained using a predetermined difference data block and a reference data block related to the difference data block.
[0018]
The predetermined difference data block has a component that corrects block step distortion included in the reference data block. Correction data for removing the above-described correction component is obtained by using one or a plurality of data blocks in which all or part of the block positions overlap the block positions of the reference data block.
[0019]
Here, the reference data block is obtained by performing motion compensation on the differential data block, and includes data of one or a plurality of data blocks described above. Therefore, this reference data block includes block step distortion caused by one or a plurality of data blocks.
[0020]
The predetermined difference data block is obtained by subtracting the reference data block from the predetermined data block at the time of encoding. Therefore, the predetermined difference data block has a component for correcting the block step distortion included in the reference data block as described above.
[0021]
The component for correcting the block step distortion included in the difference data block is removed using the correction data obtained as described above. At least the class to which the pixel data at the target position in the second image signal belongs is detected using the difference data block from which the correction component has been removed in this way.
[0022]
Then, corresponding to the detected class, pixel data of the target position in the second image signal is generated. For example, coefficient data used in the estimation formula corresponding to the class is generated. Further, based on the first image signal, a plurality of pixel data located around the target position in the second image signal are selected. Then, these coefficient data and a plurality of pixel data are used, and pixel data of the target position in the second image signal is calculated based on the estimation formula.
[0023]
For example, as described above, when the digital image signal is MPEG-coded and the difference data block is a DCT data block including DCT coefficients, correction data is acquired as follows. The
[0024]
That is, the DC coefficients of one or a plurality of DCT data blocks composed of DCT coefficients, in which all or a part of the block position overlaps the block position of the reference data block related to the differential data block, are set as DC coefficients and all AC coefficients Inverse discrete cosine transform is performed on one or a plurality of DCT data blocks with 0 being zero.
[0025]
From one or more pixel data blocks made up of the pixel data obtained by the inverse discrete cosine transform, pixel data existing at a position overlapping the block position of the reference data block is selectively taken out to obtain one piece of pixel data. A pixel data block consisting of A DCT data block composed of DCT coefficients as correction data is obtained by performing discrete cosine transform on the pixel data block.
[0026]
Alternatively, an average value of pixel data in one or a plurality of pixel data blocks composed of pixel data in which all or a part of the block position overlaps the block position of the reference data block related to the difference data block is obtained for each block.
[0027]
The pixel data constituting one or a plurality of pixel data blocks is replaced with the block position of the reference data block from the one or a plurality of pixel data blocks in a state where the pixel data is replaced with the average value obtained as described above. Pixel data existing at the position is selectively extracted to obtain a single pixel data block made up of pixel data. A DCT data block composed of DCT coefficients as correction data is obtained by performing discrete cosine transform on the pixel data block.
[0028]
When the correction data is obtained as described above, the correction component of the difference data block is removed by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block. In that case, at least the class to which the pixel data of the target position in the second image signal belongs is detected using the AC coefficient of the difference data block from which the correction component has been removed.
[0029]
Thus, the first image signal composed of a plurality of pixel data generated by decoding the digital image signal subjected to motion compensation prediction coding for each block is converted into a second image signal composed of a plurality of pixel data. At the time of conversion to the image signal, the class to which the pixel data of the target position in the second image signal belongs is detected using at least the difference data block, and the pixel data of the target position in the second image signal corresponding to this class The component that corrects the block step distortion included in the reference data block is removed from the difference data block, and the difference data block from which the correction component has been removed is used for the above-described class detection. The accuracy of classification can be improved, and the quality of the second image signal can be improved.
[0030]
The coefficient data generation device according to the present invention is configured to decode a first image signal composed of a plurality of pixel data, which is generated by decoding a digital image signal subjected to motion compensation prediction coding for each block. Reduced distortion caused by encoding From multiple pixel data First Decoding means for decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal, and corresponding to a target position in the teacher signal One or a plurality of block positions that overlap all or part of the block position of the reference data block related to the difference data block used when obtaining the pixel data of the student signal. Orthogonal inverse transform means for performing orthogonal inverse transform on one or a plurality of difference data blocks in which each DC coefficient is a DC coefficient and all AC coefficients are 0, and the orthogonal inverse transform From one or a plurality of pixel data blocks made up of pixel data obtained by the conversion means, pixel data existing at a position overlapping the block position of the reference data block is selectively taken out to obtain a single pixel made up of pixel data. Blocking means for obtaining a data block, orthogonal transformation means for performing orthogonal transformation on the pixel data block obtained by the blocking means to obtain a difference data block composed of transformation coefficients as the correction data, and the difference data By adding the corresponding AC coefficient of the correction data to each AC coefficient of the block, Correction component removal means for removing the correction component of the difference data block, and difference data block from which the correction component has been removed at least by the correction component removal means From the AC coefficient level distribution Class detecting means for detecting a class to which pixel data of a target position in the teacher signal belongs; and the student signal From , A data selection means for selecting a plurality of pixel data located around a target position in the teacher signal, a class detected by the class detection means, a plurality of pixel data selected by the data selection means, and the teacher signal Pixel data of the target position in To above For each class, Minimizing an error between a plurality of pixel data related to the student signal and pixel data at a target position in the teacher signal And calculation means for obtaining coefficient data Ru Is.
[0031]
Further, the coefficient data generation method according to the present invention provides a first image signal composed of a plurality of pixel data generated by decoding a digital image signal that has been subjected to motion compensation prediction coding for each block. Reduced distortion caused by encoding From multiple pixel data First A first step of decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal to obtain a student signal corresponding to the first image signal; and a target position in the teacher signal. One or more blocks in which all or part of the block position overlaps the block position of the reference data block related to the difference data block used when obtaining the corresponding pixel data of the student signal A second step of performing orthogonal inverse transformation on one or a plurality of difference data blocks in which the DC coefficients of the difference data blocks made up of transform coefficients are DC coefficients and all AC coefficients are 0; The pixel data existing in the position overlapping the block position of the reference data block is selectively taken out from one or a plurality of pixel data blocks made up of pixel data obtained in the above step, and one pixel made up of pixel data. A third step of obtaining a data block; and a fourth step of performing orthogonal transformation on the pixel data block obtained in the third step to obtain a difference data block including transformation coefficients as the correction data; By adding the corresponding AC coefficient of the correction data to each AC coefficient of the difference data block, A first component for removing the correction component of the difference data block. 5 And at least the above-mentioned step 5 Difference data block from which correction components have been removed in step From the AC coefficient level distribution Detecting a class to which the pixel data of the target position in the teacher signal belongs. 6 Steps and student signal above From Selecting a plurality of pixel data located around the target position in the teacher signal; 7 And the above steps 6 The class detected in step 7 A plurality of pixel data selected in the above step and pixel data of the target position in the teacher signal To above For each class, Minimizing an error between a plurality of pixel data related to the student signal and pixel data at a target position in the teacher signal Find coefficient data 8 With steps Ru Is.
[0032]
A program according to the present invention is for causing a computer to execute the coefficient data generation method described above.
[0033]
In the present invention, the first image signal composed of a plurality of pixel data is generated by decoding a digital image signal that has been subjected to motion compensation prediction coding for each block. The present invention generates coefficient data of an estimation formula used when converting the first image signal into a second image signal composed of a plurality of pixel data.
[0034]
The pixel data of the student signal corresponding to the target position in the teacher signal is obtained using a predetermined difference data block and a reference data block related to the difference data block. The predetermined difference data block has a component that corrects block step distortion included in the reference data block. Correction data for removing the above-described correction component is obtained by using one or a plurality of data blocks in which all or part of the block positions overlap the block positions of the reference data block.
[0035]
The component for correcting the block step distortion included in the difference data block is removed using the correction data obtained as described above. At least the class to which the pixel data at the target position in the teacher signal belongs is detected using at least the difference data block from which the correction component has been removed.
[0036]
Further, based on the student signal, a plurality of pixel data located around the attention position in the teacher signal are selected. Then, coefficient data is obtained for each class using the class to which the pixel data at the target position in the teacher signal belongs, the selected pixel data, and the pixel data at the target position in the teacher signal.
[0037]
As described above, coefficient data of the estimation formula used when converting the first image signal to the second image signal is generated. When converting from the first image signal to the second image signal, The coefficient data corresponding to the class to which the pixel data of the target position in the second image signal belongs is selectively used to calculate the pixel data of the target position in the second image signal by the estimation formula.
[0038]
Thereby, when converting from the first image signal to the second image signal using the estimation formula, the accuracy of the class classification can be improved, and the quality of the second image signal can be improved. it can.
[0039]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a digital broadcast receiver 100 as an embodiment.
The digital broadcast receiver 100 includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 for receiving a remote control signal RM. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.
[0040]
Also, the digital broadcast receiver 100 is supplied with a receiving antenna 105 and a broadcast signal (RF modulated signal) captured by the receiving antenna 105, performs channel selection processing, demodulation processing, error correction processing, etc. And a tuner unit 106 that obtains an MPEG2 stream as an encoded image signal.
[0041]
The digital broadcast receiver 100 also temporarily decodes the MPEG2 decoder 107 that decodes the MPEG2 stream output from the tuner unit 106 to obtain the image signal Va, and the image signal Va output from the MPEG2 decoder 107. A buffer memory 108 for storing the data.
[0042]
In the present embodiment, the MPEG2 decoder 107 outputs pixel position mode information pi, picture information PI, and motion compensation vector information MI in addition to the pixel data constituting the image signal Va. The pixel position mode information pi is information indicating which of the 8 × 8 pixel positions of the DCT block the output pixel data is, for example. The picture information PI is information indicating whether the output pixel data relates to an I picture (Intra-Picture), a P picture (Predictive-Picture), or a B picture (Bidirectionally predictive-Picture). The motion compensation vector information MI is information indicating how the reference data block for decoding the pixel data is motion compensated when the output pixel data relates to a P picture and a B picture. .
[0043]
The buffer memory 108 also stores information pi, PI, MI in pairs with each pixel data. Further, from the MPEG2 decoder 107, the quantization characteristic designation information QI corresponding to each DCT block extracted by the extraction circuit 75 described later and the quantized DCT coefficient of each DCT block obtained by the variable length decoding circuit 74 are also obtained. Is output. These quantization characteristic designation information QI and DCT coefficients are stored in a memory built in a residual class generation unit 121 constituting the image signal processing unit 110 described later.
[0044]
FIG. 2 shows the configuration of the MPEG2 decoder 107.
The decoder 107 has an input terminal 71 to which an MPEG2 stream is input, and a stream buffer 72 that temporarily stores the MPEG2 stream input to the input terminal 71.
[0045]
The decoder 107 extracts the DCT (Discrete Cosine Transform) coefficient as a frequency coefficient from the MPEG2 stream stored in the stream buffer 72 and the extraction circuit 73 extracts the DCT coefficient. A variable-length decoding circuit 74 that performs variable-length decoding on DCT coefficients that have been subjected to variable-length coding, for example, Huffman coding.
[0046]
The decoder 107 also includes an extraction circuit 75 that extracts quantization characteristic designation information QI from the MPEG2 stream stored in the stream buffer 72, and a variable length decoding circuit based on the quantization characteristic designation information QI. 74 has an inverse quantization circuit 76 that performs inverse quantization on the quantized DCT coefficient output from 74, and an inverse DCT circuit 77 that performs inverse DCT on the DCT coefficient output from the inverse quantization circuit 76. is doing.
[0047]
In addition, the decoder 107 stores data blocks of I and P pictures in a memory (not shown), and uses these data blocks to generate a difference (residual) between the P picture and the B picture from the inverse DCT circuit 77. When the data block is output, the prediction memory circuit 78 generates and outputs a corresponding reference data block Vref.
[0048]
In addition, when the differential data block of P picture or B picture is output from the inverse DCT circuit 77, the decoder 107 adds the reference data block Vref generated by the prediction memory circuit 78 to the differential data block. 79. When the data block of the I picture is output from the inverse DCT circuit 77, the reference data block Vref is not supplied from the prediction memory circuit 78 to the adder circuit 79. Therefore, the adder circuit 79 outputs from the inverse DCT circuit 77. The data block of the I picture is output as it is.
[0049]
Further, the decoder 107 supplies the I and P picture data blocks output from the adder circuit 79 to the prediction memory circuit 78 and stores them in the memory, and the data of each picture output from the adder circuit 79. A picture selection circuit 80 that rearranges the blocks in the correct order and outputs them as an image signal Va, and an output terminal 81 that outputs an image signal Va output from the picture selection circuit 80 are provided.
[0050]
The decoder 107 also has an extraction circuit 82 that extracts encoding control information, that is, picture information PI and motion compensation vector information MI, from the MPEG2 stream stored in the stream buffer 72. The motion compensation vector information MI extracted by the extraction circuit 82 is supplied to the prediction memory circuit 78. The prediction memory circuit 78 performs motion compensation when generating the reference data block Vref using the motion compensation vector information MI. Done. The picture information PI extracted by the extraction circuit 82 is supplied to the prediction memory circuit 78 and the picture selection circuit 80, and the prediction memory circuit 78 and the picture selection circuit 80 identify pictures based on the picture information PI.
[0051]
In addition, when the image signal Va is output from the picture selection circuit 80, in addition to the pixel data constituting the image signal Va, the pixel data is paired with each pixel data, and the pixel data is 8 × 8 of the DCT block. Pixel position mode information pi indicating where the pixel position is located, and motion compensation vector information MI and picture information PI corresponding to the pixel data are also output.
[0052]
The decoder 107 also outputs an output terminal 83 for outputting quantization characteristic designation information QI corresponding to each DCT block extracted by the extraction circuit 75, and quantization of each DCT block obtained by the variable length decoding circuit 74. And an output terminal 84 for outputting a DCT coefficient.
[0053]
The operation of the MPEG2 decoder 107 shown in FIG. 2 will be described.
The MPEG2 stream stored in the stream buffer 72 is supplied to the extraction circuit 73 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable length encoded, and this DCT coefficient is supplied to the variable length decoding circuit 74 and decoded. The quantized DCT coefficient of each DCT block output from the variable length decoding circuit 74 is supplied to the inverse quantization circuit 76 and subjected to inverse quantization.
[0054]
The inverse DCT is performed on the DCT coefficient of each DCT block output from the inverse quantization circuit 76 by the inverse DCT circuit 77 to obtain a data block of each picture. The data block of each picture is supplied to the picture selection circuit 80 via the addition circuit 79. In this case, when a difference (residual) data block of P picture or B picture is output from the inverse DCT circuit 77, the reference data block Vref output from the prediction memory circuit 78 is added by the adding circuit 79. The picture data blocks (pixel data blocks) output from the adder circuit 79 are rearranged in the correct order by the picture circuit 80 and output to the output terminal 81.
[0055]
When the image signal Va is output from the picture selection circuit 80 in this way, in addition to the pixel data constituting the image signal Va, the pixel position mode information pi, the motion is paired with each pixel data. Compensation vector information MI and picture information PI are also output.
[0056]
Further, the quantization characteristic designation information QI corresponding to each DCT block extracted by the extraction circuit 75 is output to the output terminal 83. Further, the quantized DCT coefficient of each DCT block obtained by the variable length decoding circuit 74 is output to the output terminal 84.
[0057]
Returning to FIG. 1, the digital broadcast receiver 100 also converts the image signal Va stored in the buffer memory 108 into an image signal Vb in which coding noise such as block noise (block distortion) and mosquito noise is reduced. An image signal processing unit 110 for conversion and a display unit 111 for displaying an image based on the image signal Vb output from the image signal processing unit 110 are provided. The display unit 111 includes a display such as a CRT (Cathode-Ray Tube) display or an LCD (Liquid Crystal Display).
[0058]
The operation of the digital broadcast receiver 100 shown in FIG. 1 will be described.
The MPEG2 stream output from the tuner unit 106 is supplied to the MPEG2 decoder 107 and decoded. The image signal Va output from the decoder 107 is supplied to the buffer memory 108 and temporarily stored.
[0059]
In this case, the decoder 107 outputs pixel position mode information pi, motion compensation vector information MI, and picture information PI in pairs with each pixel data of the image signal Va. These pixel position mode information pi, motion compensation vector information MI, and picture information PI are also temporarily stored in the buffer memory 108.
[0060]
In this case, the decoder 107 also outputs quantization characteristic designation information QI corresponding to each DCT block and quantized DCT coefficients of each DCT data block. The quantization characteristic designation information QI and the quantized DCT coefficient are stored in a memory built in the residual class generation unit 121 constituting the image signal processing unit 110.
[0061]
In this way, the image signal Va stored in the buffer memory 108 is supplied to the image signal processing unit 110 and converted into the image signal Vb with reduced coding noise. In the image signal processing unit 110, pixel data constituting the image signal Vb is obtained from the pixel data constituting the image signal Va. In this image signal processing unit 110, pixel position mode information pi, motion compensation vector information MI and picture information PI stored in the buffer memory 108, and also a quantum stored in a memory in the residual class generation unit 121. Conversion processing is performed using the quantization characteristic designation information QI and the quantized DCT coefficient.
[0062]
The image signal Vb output from the image signal processing unit 110 is supplied to the display unit 111, and an image based on the image signal Vb is displayed on the screen of the display unit 111.
[0063]
Next, details of the image signal processing unit 110 will be described.
The image signal processing unit 110 includes a residual class generation unit 121 that generates a residual class code CL0 indicating a residual class to which pixel data at the target position in the image signal Vb belongs. In this residual class generation unit 121, motion compensation vector information MI and picture information PI stored in the buffer memory 108 as a pair with the pixel data of the image signal Va corresponding to the target position of the image signal Vb, and built-in The residual class code CL0 is generated using the quantization characteristic designation information QI and the quantized DCT coefficient stored in the memory.
[0064]
FIG. 3 shows a specific configuration of the residual class generation unit 121.
The residual class generation unit 121 receives an input terminal 31 to which the quantization characteristic designation information QI output from the above-described MPEG2 decoder 107 is input, and a quantization characteristic designation information QI input to the input terminal 31. The memory 32 for temporarily storing, the input terminal 33 to which the quantized DCT coefficient output from the MPEG2 decoder 107 is input, and the quantized DCT coefficient input to the input terminal 33 are temporarily stored. And a memory 34 for storing the data.
[0065]
The residual class generator 121 has an input terminal 35 to which the motion compensation vector information MI and the picture information PI are input. The information MI and PI are supplied as read control information to the memories 32 and 34, and the information PI is supplied as operation control information to a class generation circuit 43 described later.
[0066]
Here, the DCT data block composed of the DCT coefficients used when obtaining the pixel data of the image signal Va corresponding to the target position in the image signal Vb is set as the target DCT data block, and the inverse DCT is applied to the target DCT data block. A reference data block to be added to the pixel data block obtained by performing the processing is defined as a reference data block of interest. In addition, all or part of the block position overlaps the block position of the target reference data block, and one or a plurality of pixel data blocks used when configuring the target reference data block are used as pixel data blocks. The DCT data block used in obtaining the used pixel data block is defined as a used DCT data block.
[0067]
When the picture information PI indicates a P picture or a B picture, the DCT data block of interest is read from the memory 34, and the DC coefficient of the used DCT data block is read. Here, since prediction encoding is performed in the forward direction in the case of a P picture, the number of used pixel data blocks is one, two, or four, and in the case of a B picture, prediction encoding is performed in both directions. The number of used pixel data blocks is one, two, or four in each direction.
[0068]
FIG. 4A shows, for example, four used DCT data blocks DB1 to DB4 that are used in obtaining four used pixel data blocks in the case of a P picture. ing. In FIG. 4A, the broken line indicates the block position of the reference data block of interest. In this case, the DC coefficients DC1 to DC4 of the four DCT data blocks DB1 to DB4 are read from the memory 34.
[0069]
Similarly, when the picture information PI indicates a P picture or a B picture, the quantization characteristic designation information QIa corresponding to the DCT data block of interest is read from the memory 32, and the quantization characteristic designation corresponding to the used DCT data block is read out. Information QIb is read.
[0070]
The residual class generation unit 121 inversely quantizes the DC coefficient of the used DCT data block read from the memory 34 based on the quantization characteristic designation information QIb corresponding to the used DCT data block read from the memory 32. Corresponding to each of the inverse quantization circuit 36 and the DCT data block to be used, the DC coefficient obtained by the inverse quantization circuit 36 is set as the DC coefficient, and the inverse of the DCT data block with all the AC coefficients set to 0 And an inverse DCT circuit 37 for performing DCT. In this case, although the number of pixel data blocks corresponding to the number of used DCT data blocks is obtained, all the 8 × 8 pixel data constituting the pixel data blocks have the same value.
[0071]
FIG. 4B shows four pixel data blocks DB1 ′ to DB4 ′ obtained corresponding to the four DCT data blocks DB1 to DB4 shown in FIG. 4A. In FIG. 4B, the broken line indicates the block position of the reference data block of interest. In this case, the pixel data blocks DB1 ′ to DB4 ′ are composed of pixel data having values of dc1 to dc4, respectively. Note that FIG. 4B shows that the pixel data blocks DB1 ′ to DB4 ′ include 4 × 4 pixel data for simplification of the drawing.
[0072]
In addition, the residual class generation unit 121 selectively extracts pixel data existing at a position overlapping the block position of the reference data block from the pixel data block obtained by the inverse DCT circuit 37, and obtains one pixel data block. The resulting blocking circuit 38 is provided.
[0073]
FIG. 4C shows one pixel data block DB0 obtained by the blocking circuit 38 when four pixel data blocks DB1 ′ to DB4 ′ are obtained as shown in FIG. 4B.
[0074]
Although not described above, when the picture information PI indicates a P picture, one pixel data block DB0 is obtained by the blocking circuit 38 as described above. However, when the picture information PI indicates a B picture, the inverse quantization circuit 36, the inverse DCT circuit 37, and the blocking circuit 38 described above process in parallel corresponding to the DCT data blocks used in both directions, One pixel data block DB0 is obtained. Then, the blocking circuit 38 finally adds and averages the corresponding pixel data of the pixel data blocks DB0 in both directions to obtain one pixel data block DB0.
[0075]
Further, the residual class generation unit 121 includes a DCT circuit 39 that performs DCT on the pixel data block DB0 obtained by the blocking circuit 38 to obtain a DCT data block. FIG. 4D shows an example of the DCT data block DB0 ′ obtained by the DCT circuit 39. C0 to C15 indicate DCT coefficients, C0 indicates a DC coefficient, and C1 to C15 indicate AC coefficients.
[0076]
Further, the residual class generation unit 121 quantizes the DCT coefficient of the DCT data block obtained by the DCT circuit 39 based on the quantization characteristic designation information QIa corresponding to the target DCT block read from the memory 32, and corrects the correction data. And a quantization circuit 40 for obtaining a DCT data block. In this case, the quantization is performed based on the quantization characteristic designation information QIa in order to match the quantization characteristic of the DCT data block as the correction data with the quantization characteristic of the target DCT data block.
[0077]
Here, the DCT data block as the correction data is obtained by applying DCT to the pixel data block obtained based on the DC coefficient of one or a plurality of used data blocks. Therefore, the AC coefficient constituting this DCT data block corresponds to the block step distortion included in the reference data block of interest.
[0078]
The reference data block of interest is obtained by performing motion compensation on the DCT data block of interest, and includes data of one or a plurality of use data blocks described above. Therefore, the reference data block of interest includes block step distortion due to one or a plurality of data blocks.
[0079]
The noted DCT data block is obtained by further applying DCT to a difference (residual) data block obtained by subtracting the noted reference data block from a predetermined data block at the time of encoding. Therefore, the DCT data block of interest has a component for correcting block step distortion included in the reference data block of interest as described above in the AC coefficient portion.
[0080]
Further, the residual class generation unit 121 adds the corresponding AC coefficient of the DCT data block as the correction data obtained by the quantization circuit 40 to each AC coefficient of the target DCT data block read from the memory 34. And an adder circuit 41 that removes a component that corrects block step distortion included in the target reference data block included in the target DCT data block.
[0081]
As described above, the AC coefficient constituting the DCT data block as the correction data corresponds to the block step distortion included in the target reference data block, and the AC coefficient of the target DCT data block is included in the target reference data block. It has a component that corrects block step distortion. Therefore, by adding the corresponding AC coefficient of the DCT data block as correction data to each AC coefficient of the target DCT data block, the block step distortion included in the target reference data block of the AC coefficient of the target DCT data block is corrected. The component to be removed is removed.
[0082]
Also, the residual class generation unit 121 uses the DCT coefficient of the target DCT data block obtained by removing the block level distortion correction component obtained by the adder circuit 41 as a quantization characteristic corresponding to the target DCT data block read from the memory 32. An inverse quantization circuit 42 that performs inverse quantization based on the designation information QIa is provided.
[0083]
The residual class generation unit 121 includes a class generation circuit 43 and an output terminal 44 that outputs the residual class code CL0 generated by the class generation circuit 43. When the picture information PI indicates an I picture, the class generation circuit 43 generates a specific code as the residual class code CL0. On the other hand, when the picture information PI indicates a P picture or a B picture, the class generation circuit 43 generates a residual class code CL0 based on each AC coefficient of the DCT data block obtained by the inverse quantization circuit 42.
[0084]
In this case, the class generation circuit 43 performs a process such as 1-bit ADRC (Adaptive Dynamic Range Coding) on each AC coefficient of the DCT data block obtained by the inverse quantization circuit 42 to obtain a residual indicating a level distribution. A class code CL0 is generated.
[0085]
ADRC calculates the maximum value and minimum value of all AC coefficients of a DCT data block, calculates the dynamic range that is the difference between the maximum value and minimum value, and quantizes each AC coefficient in accordance with the dynamic range. . In the case of 1-bit ADRC, each AC coefficient is converted into 1 bit depending on whether it is larger or smaller than the average value. The ADRC process is a process for making the number of classes representing the AC coefficient level distribution relatively small. Therefore, not only ADRC but encoding which compresses the number of data bits such as VQ (vector quantization) may be used.
[0086]
The class generation circuit 43 may generate the residual class code CL0 in a state where the P picture and the B picture are distinguished. As a result, different class classifications are performed depending on whether the picture is a P picture or a B picture, and the quality of the image signal Vb generated by the image signal processing unit 110 can be improved.
[0087]
An operation for generating the residual class code CL0 indicating the residual class to which the pixel data of the target position in the image signal Vb belongs in the residual class generating unit 121 illustrated in FIG. 3 will be described.
[0088]
When the picture information PI indicates a P picture or a B picture, the DC coefficient of one or a plurality of used DCT data blocks is read from the memory 34 and supplied to the inverse quantization circuit 36, and the used DCT data is also read from the memory 32. The quantization characteristic designation information QIb corresponding to the block is read and supplied to the inverse quantization circuit 36 (see DC1 to DC4 in FIG. 4A). The inverse quantization circuit 36 inversely quantizes the DC coefficient of the used DCT data block based on the information QIb.
[0089]
The DC coefficient inversely quantized by the inverse quantization circuit 36 is supplied to the inverse DCT circuit 37. The inverse DCT circuit 37 performs inverse DCT on a DCT data block in which the inversely quantized DC coefficient is a DC coefficient and all AC coefficients are 0 to obtain a pixel data block. In this case, the number of pixel data blocks corresponding to the number of used DCT data blocks is obtained, but all the pixel data constituting each pixel data block have the same value (see DB1 ′ to DB4 ′ in FIG. 4B). .
[0090]
The pixel data block obtained by the inverse DCT circuit 37 is supplied to the blocking circuit 38. The blocking circuit 38 selectively extracts pixel data existing at a position overlapping the block position of the reference data block from the pixel data block obtained by performing the inverse DCT, and obtains one pixel data block (see FIG. (See 4C DB0).
[0091]
One pixel data block obtained by the blocking circuit 38 is supplied to the DCT circuit 39. The DCT circuit 39 performs DCT on the one pixel data block to obtain a DCT data block (see DB0 ′ in FIG. 4D). Thus, the DCT data block obtained by the DCT circuit 39 is supplied to the quantization circuit 40. The quantization circuit 40 is further supplied with the quantization characteristic designation information QIa corresponding to the DCT data block of interest read from the memory 32. The quantization circuit 40 quantizes the DCT data block obtained by the DCT circuit 39 based on the information QIa, and obtains a DCT data block as correction data.
[0092]
The DCT data block as the correction data is obtained by applying DCT to the pixel data block obtained based on the DC coefficient of one or a plurality of used DCT data blocks. Therefore, the AC coefficient constituting the DCT data block as the correction data corresponds to the block step distortion included in the target reference data block.
[0093]
The DCT data block as correction data obtained by the quantization circuit 40 is supplied to the addition circuit 41. The DCT data block of interest is read from the memory 34 and supplied to the adder circuit 41. This attention DCT data block has a component for correcting block step distortion included in the attention reference data block in its AC coefficient portion. The adder circuit 41 adds the corresponding AC coefficient of the DCT data block as the correction data to each AC coefficient of the target DCT data block. Thereby, the component which correct | amends the block level | step distortion contained in the attention reference data block which the attention DCT data block has is removed.
[0094]
The DCT data block of interest from which the correction component of the block step distortion has been removed by the adder circuit 41 is supplied to the inverse quantization circuit 42. The inverse quantization circuit 42 is read from the memory 32 and supplied with quantization characteristic designation information QIa corresponding to the target DCT data block. The inverse quantization circuit 42 inversely quantizes the target DCT data block from which the block level distortion correction component has been removed based on the information QIa.
[0095]
Then, when the picture information PI indicates an I picture, the class generation circuit 43 generates a specific code as the residual class code CL0. On the other hand, when the picture information PI indicates a P picture or a B picture, the class generation circuit 43 generates a residual class code CL0 based on each AC coefficient of the DCT data block obtained by the inverse quantization circuit 42. The class code CL0 generated in this way by the class generation circuit 43 is output to the output terminal 44.
[0096]
As described above, the residual class generation unit 121 shown in FIG. 3 generates the residual class code CL0 based on each AC coefficient of the DCT data block of interest when the picture information PI indicates a P picture or a B picture. However, as the AC coefficients of the target DCT data block, those obtained by removing the correction component of the block step distortion included in the target reference data block are used. Therefore, the accuracy of classification of the residual class can be improved, and the quality of the image signal Vb can be improved.
[0097]
The flowchart of FIG. 5 shows the procedure of the generation process of the residual class code CLO described above.
First, processing is started in step ST1, and when the picture information PI indicates a P picture or a B picture in step ST2, DC coefficients of one or a plurality of used DCT data blocks are read from the memory. In step ST3, the quantization characteristic designation information QIb corresponding to the used DCT data block is read from the memory 32, and the DC coefficient read in step ST2 is inversely quantized based on this information QIb.
[0098]
Next, in step ST4, the inverse DCT is performed on the DCT data block in which the inversely quantized DC coefficient is a DC coefficient and all AC coefficients are 0 to obtain a pixel data block. In step ST5, pixel data existing at a position overlapping the block position of the reference data block is selectively extracted from the pixel data block obtained by performing inverse DCT to generate one pixel data block.
[0099]
Next, in step ST6, the generated one pixel data block is subjected to DCT, and the quantization characteristic designation information QIa corresponding to the target DCT data block is read from the memory 32, and the quantization is performed based on the information QIa. Then, a DCT data block as correction data is obtained. Then, in step ST7, the target DCT data block is read from the memory 34, and the corresponding AC coefficient of the DCT data block as the correction data is added to each AC coefficient to be included in the target reference data block included in the target DCT data block. The component which corrects the block step distortion is removed.
[0100]
Next, in step ST8, the target DCT data block from which the block level distortion correction component is removed is inversely quantized based on the quantization characteristic designation information QIa corresponding to the target DCT data block. In step ST9, if the picture information PI indicates an I picture, a specific code is generated as the residual class code CL0. On the other hand, if the picture information PI indicates a P picture or a B picture, step 8 The residual class code CL0 is generated based on each AC coefficient of the DCT data block obtained in step (1). Thereafter, the process ends at step ST10.
[0101]
Returning to FIG. 1, the image signal processing unit 110 selectively extracts and outputs a plurality of pixel data located around the target position in the image signal Vb from the image signal Va stored in the buffer memory 108. And a prediction tap selection circuit 122 as a data selection means. The prediction tap selection circuit 122 selectively extracts a plurality of pixel data of prediction taps used for prediction.
[0102]
Further, the image signal processing unit 110 includes a class classification unit 123 as a class detection unit that detects a class to which the pixel data of the target position in the image signal Vb belongs.
[0103]
The class classifying unit 123 pairs the pixel data of the image signal Va stored in the buffer memory 108 with the pixel data of the image signal Va corresponding to the pixel data of the target position in the image signal Vb. The class code indicating the class to which the pixel data of the target position in the image signal Vb belongs using the pixel position mode information pi stored in the above and the residual class code CL0 generated by the residual class generation unit 121. CL is generated.
[0104]
FIG. 6 shows the configuration of the class classification unit 123.
The class classification unit 123 detects n types of classes to which pixel data of the target position in the image signal Vb belongs based on the input terminal 50A for inputting the image signal Va and the image signal Va input to the input terminal 50A. Tap selection circuit 50B for selectively extracting a plurality of pixel data of class taps used for 1 ~ 50B n And this tap selection circuit 50B 1 ~ 50B n A class generation circuit 50C for generating class codes CL1 to CLn indicating n types of classes using the pixel data extracted in step S1. 1 ~ 50C n And have.
[0105]
In the present embodiment, class codes CL1 to CL6 indicating six types of classes are generated. The six types of classes are a spatial waveform class, a time variation class, an AC variation class, a flat class, a line correlation class, and a block edge class. A brief description of each class.
[0106]
(1) The spatial waveform class will be described. Tap selection circuit 50B 1 And class generation circuit 50C 1 Suppose that this spatial waveform class detection system is configured.
Tap selection circuit 50B 1 Selectively selects a plurality of pixel data located in the periphery in the spatial direction with respect to the target position in the image signal Vb from the T frame (current frame) and the T-1 frame (frame one frame before) of the image signal Va. This is taken out and is similar to the prediction tap selection circuit 122 described above. Class generation circuit 50C 1 The tap selection circuit 50B 1 For example, 1-bit ADRC (Adaptive Dynamic Range Coding) or the like is applied to each of the plurality of pixel data selected in step S1 to generate a class code CL1 indicating a spatial waveform class.
[0107]
(2) The time variation class will be described. Tap selection circuit 50B 2 And class generation circuit 50C 2 Is configured as a detection system of this time variation class.
Tap selection circuit 50B 2 Extracts the pixel data of the DCT block (the target block shown in FIG. 7) corresponding to the pixel data at the target position in the image signal Vb from the current frame (T frame) of the image signal Va, and at the same time before the image signal Va. The pixel data of the block (the past block shown in FIG. 7) corresponding to the block of interest is extracted from the past frame (T-1 frame).
[0108]
Class generation circuit 50C 2 Are subtracted for each corresponding pixel between the 8 × 8 pixel data of the block of interest and the 8 × 8 pixel data of the past block to obtain 8 × 8 difference values, and this 8 × The sum of squares of the eight difference values is obtained, the square sum is determined as a threshold value, and the class code CL2 indicating the time variation class is generated.
[0109]
(3) The AC variation class will be described. Tap selection circuit 50B Three And class generation circuit 50C Three Constitutes a detection system of this AC fluctuation class.
Tap selection circuit 50B Three Extracts the pixel data of the DCT block (the target block shown in FIG. 7) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va, and from the previous frame one frame before the image signal Va. Then, the pixel data of the block (the past block shown in FIG. 7) corresponding to the block of interest is extracted.
[0110]
Class generation circuit 50C Three Performs DCT processing on each of 8 × 8 pixel data of the block of interest and 8 × 8 pixel data of the past block to obtain DCT coefficients (frequency coefficients). Then, the class generation circuit 50C Three Is the number m of base positions where a coefficient exists in either base position of the AC part. 1 And the number m of base positions of which the sign is inverted and one of the coefficients is 0 2 M 1 / M 2 Is determined as a threshold value, and a class code CL3 indicating an AC variation class is generated. In a block with little time variation, it is possible to perform class classification corresponding to mosquito distortion by this AC variation class.
[0111]
(4) The flat class will be described. Tap selection circuit 50B Four And class generation circuit 50C Four Suppose that this flat class detection system is configured.
Tap selection circuit 50B Four Extracts the pixel data of the DCT block (the target block shown in FIG. 7) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va. Class generation circuit 50C Four Detects the maximum value and the minimum value of 8 × 8 pixel data of the block of interest, determines the threshold of the dynamic range that is the difference, and generates the class code CL4 indicating the flat class.
[0112]
(5) The line correlation class will be described. Tap selection circuit 50B Five And class generation circuit 50C Five Constitutes a detection system of this line correlation class.
Tap selection circuit 50B Five Extracts the pixel data of the DCT block (the target block shown in FIG. 7) corresponding to the pixel data at the target position in the image signal Vb from the current frame of the image signal Va.
[0113]
Class generation circuit 50C Five Corresponds to the pixels of the 1st line, 2nd line, 3rd line, 4th line, 5th line, 6th line, 7th line and 8th line of the 8 × 8 pixel data of the target block Subtraction is performed for each pixel to obtain 8 × 4 difference values, and a square sum of the 8 × 4 difference values is obtained, and the square sum is determined as a threshold value, and a class code CL5 indicating a line correlation class is obtained. Generate. This line correlation class indicates whether the correlation in a frame such as a still image is high, or whether the correlation in the field is higher than in the frame because of fast movement.
[0114]
(6) The block edge class will be described. Tap selection circuit 50B 6 And class generation circuit 50C 6 Suppose that this block edge class detection system is configured.
Tap selection circuit 50B 6 Extracts the pixel data of the DCT block (the target block shown in FIG. 7) corresponding to the pixel data of the target position in the image signal Vb from the current frame of the image signal Va, and moves up and down the target block from the current frame. Pixel data of blocks adjacent to the left and right (adjacent blocks shown in FIG. 7) are extracted.
[0115]
Class generation circuit 50C 6 Are subtracted for each corresponding pixel between the 8 pixel data of each of the 4 sides of the block of interest and the pixel data of the adjacent block adjacent thereto to obtain 4 × 8 difference values, and each 8 A square sum of the difference values is obtained, and four square sums respectively corresponding to the four sides of the block of interest are threshold-determined to generate a class code CL6 indicating a block edge class.
[0116]
Further, the class classification unit 123 has an input terminal 50D for inputting pixel position mode information pi and an input terminal 50E for inputting a residual class code CL0. The pixel position mode information pi is the class code CLp indicating the pixel position mode class as it is. For example, when the DCT block is composed of 8 × 8 pixel data, this class code CLp is a code representing one of 64 pixel position modes.
[0117]
In addition, the class classification unit 123 includes a class generation circuit 50C. 1 ~ 50C n Class integration circuit 50F that integrates the class codes CL1 to CLn generated in step 1 and the class codes CLp and CL0 input to the input terminals 50D and 50E into one class code CL, and an output for outputting the class code CL Terminal 50G.
[0118]
In the present embodiment, the class integration circuit 50F includes a class generation circuit 50C. 1 ~ 50C 6 The class codes CL1 to CL6 generated in step 1 and the class codes CLp and CL0 are integrated into one class code CL.
[0119]
Returning to FIG. 1, the image signal processing unit 110 also includes a coefficient memory 124. The coefficient memory 124 stores coefficient data Wi (i = 1 to n, n is the number of prediction taps) used in an estimation formula used in the estimation prediction calculation circuit 125 described later for each class. .
[0120]
The coefficient data Wi is information for converting the image signal Va into the image signal Vb. The coefficient data Wi stored in the coefficient memory 124 is generated by learning between a student signal corresponding to the image signal Va and a teacher signal corresponding to the image signal Vb in advance. The coefficient memory 124 is supplied with the class code CL output from the class classification unit 123 described above as read address information, and the coefficient memory 124 reads the coefficient data Wi of the estimation formula corresponding to the class code CL. To the estimated prediction calculation circuit 125. A method for generating the coefficient data Wi will be described later.
[0121]
In addition, the image signal processing unit 110 creates the prediction tap pixel data xi selectively extracted by the prediction tap selection circuit 122 and the coefficient data Wi read from the coefficient memory 124 by using the estimation expression (1). It has an estimated prediction calculation circuit 125 for calculating pixel data y at the target position in the image signal Vb to be processed.
[0122]
[Expression 1]
Figure 0004158474
[0123]
The operation of the image signal processing unit 110 will be described.
In the residual class generation unit 121, motion compensation vector information MI and picture information PI stored in the buffer memory 108 as a pair with the pixel data of the image signal Va corresponding to the target position of the image signal Vb, The residual class code CL0 is generated using the quantization characteristic designation information QI and the quantized DCT coefficient stored in the memories 32 and 34. This residual class code CL0 is a specific code when the picture information PI indicates an I picture, and when the picture information PI indicates a P picture or a B picture, the DCT of interest from which the correction component for block step distortion has been removed. It is generated based on each AC coefficient of the data block.
[0124]
The class classification unit 123 also includes a plurality of pixel data constituting the image signal Va stored in the buffer memory 108, and pixel data of the image signal Va corresponding to the pixel data of the target position in the image signal Vb in the buffer memory 108. Using the pixel position mode information pi stored in pairs and the residual class code CL0 generated by the residual class generating unit 121, a class code CL indicating the class to which the pixel data of the target position in the image signal Vb belongs. Is generated.
[0125]
Thus, the class code CL generated by the class classification unit 123 is supplied to the coefficient memory 124 as read address information. As a result, the coefficient data Wi corresponding to the class code CL is read from the coefficient memory 124 and supplied to the estimated prediction calculation circuit 125.
[0126]
Further, the prediction tap selection circuit 122 selectively extracts pixel data of the prediction tap located around the target position in the image signal Vb from the image signal Va stored in the buffer memory 108.
[0127]
The estimated prediction calculation circuit 125 uses the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 124, based on the estimation expression shown in the above equation (1), in the image signal Vb to be created. Pixel data y at the target position is obtained.
[0128]
As described above, the image signal processing unit 110 obtains the image signal Vb from the image signal Va using the coefficient data Wi. In this case, a plurality of pixel data (prediction tap pixel data) located around the target position in the image signal Vb, selected based on the image signal Va, and a class to which the pixel data of the target position in the image signal Vb belong. Pixel data y at the target position in the image signal Vb is generated based on the estimation formula using the coefficient data Wi corresponding to CL.
[0129]
Therefore, the coefficient data Wi is obtained by learning using a student signal corresponding to the image signal Va and including coding noise similar to the image signal Va and a teacher signal corresponding to the image signal Vb and not including coding noise. By using the coefficient data Wi, it is possible to satisfactorily obtain an image signal Vb in which coding noise is significantly reduced as compared with the image signal Va.
[0130]
The residual class generation unit 121 generates a residual class code CL0 based on each AC coefficient of the DCT data block of interest when the picture information PI indicates a P picture or a B picture. As the AC coefficients of the data block, those obtained by removing the correction component of the block level distortion included in the reference data block of interest are used, and the accuracy of classification of the residual class can be improved. The quality of Vb can be improved.
[0131]
Next, a method for generating the coefficient data Wi stored in the coefficient memory 124 will be described. The coefficient data Wi is generated in advance by learning.
[0132]
First, this learning method will be described. In the above equation (1), before learning, coefficient data W 1 , W 2 , ..., W n Is an undetermined coefficient. Learning is performed on a plurality of signal data for each class. When the number of learning data is m, the following equation (2) is set according to the equation (1). n indicates the number of prediction taps.
[0133]
y k = W 1 X k1 + W 2 X k2 + ... + W n X kn ... (2)
(K = 1, 2,..., M)
[0134]
If m> n, coefficient data W 1 , W 2 , ..., W n Is not uniquely determined, so the element e of the error vector e k Is defined by the following equation (3), and e in equation (4) 2 Find coefficient data that minimizes. Coefficient data is uniquely determined by a so-called least square method.
[0135]
e k = Y k -{W 1 X k1 + W 2 X k2 + ... + W n X kn } (3)
(K = 1, 2, ... m)
[0136]
[Expression 2]
Figure 0004158474
[0137]
E in equation (4) 2 As a practical calculation method for obtaining coefficient data that minimizes the value, first, as shown in equation (5), e 2 Is partially differentiated with the coefficient data Wi (i = 1, 2,..., N), and the coefficient data Wi may be obtained so that the partial differential value becomes 0 for each value of i.
[0138]
[Equation 3]
Figure 0004158474
[0139]
A specific procedure for obtaining the coefficient data Wi from the equation (5) will be described. If Xji and Yi are defined as in the equations (6) and (7), the equation (5) can be written in the form of the determinant of the equation (8).
[0140]
[Expression 4]
Figure 0004158474
[0141]
[Equation 5]
Figure 0004158474
[0142]
Equation (8) is generally called a normal equation. Coefficient data Wi (i = 1, 2,..., N) can be obtained by solving this normal equation by a general solution method such as a sweep-out method (Gauss-Jordan elimination method).
[0143]
FIG. 8 shows a configuration of a coefficient data generation device 150 that generates coefficient data Wi to be stored in the coefficient memory 124 of the image signal processing unit 110 of FIG.
The coefficient data generation device 150 includes an input terminal 151 to which a teacher signal ST corresponding to the image signal Vb is input, an MPEG2 encoder 152 that encodes the teacher signal ST to obtain an MPEG2 stream, An MPEG2 decoder 153 that decodes the MPEG2 stream to obtain a student signal SS corresponding to the image signal Va. Here, the MPEG2 decoder 153 corresponds to the MPEG2 decoder 107 and the buffer memory 108 in the digital broadcast receiver 100 shown in FIG.
[0144]
Further, the coefficient data generation device 150 has a residual class generation unit 154. The residual class generation unit 154 is configured in the same manner as the residual class generation unit 121 of the image signal processing unit 110 described above, and a residual class code CL0 indicating the residual class to which the pixel data at the target position in the teacher signal ST belongs. Is generated. The memory built in the residual class generation unit 154 temporarily stores the quantization characteristic designation information QI and the quantized DCT coefficient output from the MPEG2 decoder 153. In this residual class generation unit 154, motion compensation vector information MI and picture information PI paired with pixel data of the student signal SS corresponding to the target position of the teacher signal ST, and the built-in memory are stored. The residual class code CL0 is generated using the quantization characteristic designation information QI and the quantized DCT coefficient.
[0145]
Also, the coefficient data generation device 150 selectively extracts a plurality of pixel data located around the target position in the teacher signal ST from the student signal SS output from the MPEG2 decoder 153 and outputs the data. 155. The prediction tap selection circuit 155 is configured in the same manner as the prediction tap selection circuit 122 of the image signal processing unit 110 described above.
[0146]
In addition, the coefficient data generation apparatus 150 includes a class classification unit 156 as a class detection unit that detects a class to which pixel data of the target position in the teacher signal ST belongs. The class classification unit 156 is configured in the same manner as the class classification unit 123 of the image signal processing unit 110 described above.
[0147]
The class classification unit 156 includes a plurality of pixel data constituting the student signal SS obtained from the MPEG2 decoder 153 and a student signal SS corresponding to the pixel data at the target position in the teacher signal ST obtained from the MPEG2 decoder 153. Class indicating the class to which the pixel data of the target position in the teacher signal ST belongs, using the pixel position mode information pi that is paired with the pixel data and the residual class code CL0 generated by the residual class generation unit 154 A code CL is generated.
[0148]
The coefficient data generation device 150 also includes a delay circuit 157 for adjusting the time of the teacher signal ST supplied to the input terminal 151, and each position of interest obtained from the teacher signal ST adjusted in time by the delay circuit 157. The pixel data y, the pixel data xi of the prediction tap selectively extracted by the prediction tap selection circuit 155 corresponding to the pixel data y of each target position, and the class corresponding to the pixel data y of each target position From the class code CL generated by the classification unit 156, a normal equation generation unit 158 that generates a normal equation (see the above equation (8)) for obtaining coefficient data Wi (i = 1 to n) for each class. have.
[0149]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding to the piece of pixel data y. A lot of learning data is generated every time. As a result, the normal equation generation unit 158 generates a normal equation for obtaining coefficient data Wi (i = 1 to n) for each class.
[0150]
The coefficient data generation device 150 is supplied with the data of the normal equation generated by the normal equation generation unit 158, solves the normal equation, and obtains the coefficient data Wi of each class, and the coefficient data determination unit 159. And a coefficient memory 160 for storing the obtained coefficient data Wi of each class.
[0151]
Next, the operation of the coefficient data generation device 150 shown in FIG. 8 will be described.
A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the MPEG2 encoder 152 encodes the teacher signal ST to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153. The MPEG2 decoder 153 decodes the MPEG2 stream to generate a student signal SS corresponding to the image signal Va.
[0152]
In the residual class generation unit 154, motion compensation vector information MI and picture information PI paired with the pixel data of the student signal SS corresponding to the target position of the teacher signal ST, and the quantum stored in the built-in memory. The residual class code CL0 indicating the residual class to which the pixel data at the target position in the teacher signal ST belongs is generated using the quantization characteristic designation information QI and the quantized DCT coefficient.
[0153]
In the class classification unit 156, a plurality of pixel data constituting the student signal SS obtained from the MPEG2 decoder 153 and the student signal SS corresponding to the pixel data at the target position in the teacher signal ST obtained from the MPEG2 decoder 153 A class code CL indicating a class to which the pixel data of the target position in the teacher signal ST belongs using the pixel position mode information pi paired with the pixel data and the residual class code CL0 generated by the residual class generating unit 154. Is generated.
[0154]
In addition, the prediction tap selection circuit 155 selectively extracts pixel data of prediction taps located around the target position in the teacher signal ST from the student signal SS obtained from the MPEG2 decoder 153.
[0155]
Then, the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 157, and the prediction selectively extracted by the prediction tap selection circuit 155 corresponding to the pixel data y of each target position. Using the tap pixel data xi and the class code CL generated by the class classification unit 156 corresponding to the pixel data y of each target position, the normal equation generation unit 158 uses the coefficient data Wi ( A normal equation (see equation (8)) for obtaining i = 1 to n) is generated. This normal equation is solved by the coefficient data determination unit 159 to obtain the coefficient data Wi of each class, and the coefficient data Wi is stored in the coefficient memory 160.
[0156]
As described above, the coefficient data generation device 150 shown in FIG. 8 can generate the coefficient data Wi of each class stored in the coefficient memory 124 of the image signal processing unit 110 of FIG.
[0157]
The student signal SS is obtained by encoding the teacher signal ST to generate an MPEG2 stream and then decoding the MPEG2 stream. Therefore, the student signal SS includes the same coding noise as the image signal Va. Therefore, in the image signal processing unit 110 shown in FIG. 1, the image signal Vb obtained from the image signal Va using the coefficient data Wi has a coding noise reduced compared to the image signal Va.
[0158]
Note that the processing in the image signal processing unit 110 in FIG. 1 can be realized by software, for example, by an image signal processing apparatus 300 as shown in FIG.
[0159]
First, the image signal processing apparatus 300 shown in FIG. 9 will be described. The image signal processing apparatus 300 includes a CPU 301 that controls the operation of the entire apparatus, a ROM (Read Only Memory) 302 that stores a control program of the CPU 301, coefficient data, and the like, and a RAM (Random) that constitutes a work area of the CPU 301. Access Memory) 303. These CPU 301, ROM 302, and RAM 303 are each connected to a bus 304.
[0160]
The image signal processing apparatus 300 also includes a hard disk drive (HDD) 305 as an external storage device and a drive (FDD) 307 that drives a floppy (registered trademark) disk 306. These drives 305 and 307 are each connected to a bus 304.
[0161]
In addition, the image signal processing apparatus 300 includes a communication unit 308 that is connected to a communication network 400 such as the Internet by wire or wirelessly. The communication unit 308 is connected to the bus 304 via the interface 309.
[0162]
In addition, the image signal processing device 300 includes a user interface unit. The user interface unit includes a remote control signal receiving circuit 310 that receives a remote control signal RM from the remote control transmitter 200, and a display 311 that includes an LCD (liquid Crystal Display) or the like. The receiving circuit 310 is connected to the bus 304 via the interface 312, and similarly the display 311 is connected to the bus 304 via the interface 313.
[0163]
Further, the image signal processing apparatus 300 has an input terminal 314 for inputting the image signal Va and an output terminal 315 for outputting the image signal Vb. The input terminal 314 is connected to the bus 304 via the interface 316, and similarly, the output terminal 315 is connected to the bus 304 via the interface 317.
[0164]
Here, instead of storing the control program and coefficient data in the ROM 302 in advance as described above, for example, they are downloaded from the communication network 400 such as the Internet via the communication unit 308 and stored in the hard disk or RAM 303 for use. You can also. These control programs, coefficient data, and the like may be provided on a floppy (registered trademark) disk 306.
[0165]
Further, instead of inputting the image signal Va to be processed from the input terminal 314, it may be recorded in advance on a hard disk or downloaded from the communication network 400 such as the Internet via the communication unit 308. Further, instead of outputting the processed image signal Vb to the output terminal 315 or in parallel therewith, it is supplied to the display 311 to display an image, further stored in a hard disk, the Internet via the communication unit 308, etc. It may be sent to the communication network 400.
[0166]
A processing procedure for obtaining the image signal Vb from the image signal Va in the image signal processing apparatus 300 shown in FIG. 9 will be described with reference to the flowchart of FIG.
First, in step ST21, processing is started, and in step S22, for example, an image signal Va for one frame or one field is input into the apparatus from the input terminal 314. In this case, the DCT coefficient and quantization characteristic designation information QI corresponding to each DCT block portion of the image signal Va, pixel position mode information pi paired with the pixel data of the image signal Va, and motion compensation vector information MI And picture information PI are also input.
[0167]
Thus, the image signal Va and the like input from the input terminal 314 are temporarily stored in the RAM 303. When the image signal Va or the like is recorded in advance in the hard disk drive 305 in the apparatus, the image signal Va or the like is read from the drive 305 and the image signal Va or the like is temporarily stored in the RAM 303.
[0168]
In step ST23, it is determined whether or not the processing of all frames or all fields of the image signal Va has been completed. When the process is finished, the process ends in step ST24. On the other hand, when the process is not finished, the process proceeds to step ST25.
[0169]
In step ST25, using motion compensation vector information MI and picture information PI paired with pixel data of the image signal Va corresponding to the target position of the image signal Vb, quantization characteristic designation information QI and DCT coefficients, A residual class code CL0 is generated, and a class to which pixel data of the target position in the image signal Vb belongs is generated using the residual class code CL0, a plurality of pixel data constituting the image signal Va, and pixel position mode information pi. The class code CL shown is generated.
[0170]
Next, in step ST26, a plurality of pixel data (prediction tap pixel data) located around the target position in the image signal Vb is acquired from the image signal Va input in step ST22. Then, in step ST27, using the coefficient data Wi corresponding to the class code CL generated in step ST25 and the pixel data xi of the prediction tap acquired in step ST26, based on the estimation expression of the expression (1), Pixel data y at the target position in the image signal Vb is generated.
[0171]
Next, in step ST28, it is determined whether or not the processing for obtaining the pixel data of the image signal Vb has been completed in the entire region of the pixel data of the image signal Va for one frame or one field input in step ST22. If completed, the process returns to step ST22, and the process proceeds to input processing of the image signal Va for the next one frame or one field. On the other hand, when the process has not been completed, the process returns to step ST25 and proceeds to the process for the next target position.
[0172]
As described above, by performing processing according to the flowchart shown in FIG. 10, the pixel data of the input image signal Va can be processed to obtain the pixel data of the image signal Vb. As described above, the image signal Vb obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be supplied to the hard disk. Or is recorded.
[0173]
Although illustration of the processing device is omitted, the processing in the coefficient data generation device 150 in FIG. 8 can also be realized by software.
[0174]
A processing procedure for generating coefficient data will be described with reference to the flowchart of FIG.
First, in step ST31, the process is started, and in step ST32, the teacher signal ST is input for one frame or one field. In step ST33, it is determined whether or not processing of all frames or all fields of the teacher signal ST has been completed. If not finished, in step ST34, the student signal SS is generated from the teacher signal ST input in step ST32. In this case, the DCT coefficient and quantization characteristic designation information QI corresponding to each DCT block portion of the student signal SS, pixel position mode information pi paired with the pixel data of the student signal SS, and motion compensation vector information MI And picture information PI.
[0175]
In step ST35, the motion compensation vector information MI and picture information PI, the quantization characteristic designation information QI, and the DCT coefficient paired with the pixel data of the student signal SS corresponding to the target position of the teacher signal ST are used. Thus, the residual class code CL0 is generated, and the pixel data of the target position in the teacher signal ST belongs using the residual class code CL0, the plurality of pixel data constituting the student signal SS and the pixel position mode information pi. A class code CL indicating the class is generated.
[0176]
Next, in step ST36, a plurality of pixel data (prediction tap pixel data) located around the target position in the teacher signal ST is acquired from the student signal SS generated in step ST34.
[0177]
In step ST37, (8) for each class using the class code CL generated in step ST35, the pixel data xi of the prediction tap acquired in step ST36, and the pixel data y of the target position in the teacher signal ST. Addition is performed to obtain the normal equation shown in the equation (see equations (6) and (7)).
[0178]
Next, in step ST38, it is determined whether or not the learning process has been completed in all regions of the pixel data of the teacher signal ST for one frame or one field input in step ST32. When the learning process is finished, the process returns to step ST32, the teacher signal ST for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the learning process is not finished, the process returns to step ST35 and moves to the process for the next attention position.
[0179]
When the process is completed in step ST33 described above, in step ST39, the normal equation of each class generated by the addition process in step ST37 described above is solved by a sweeping method or the like to calculate the coefficient data Wi of each class. To do. In step ST40, the coefficient data Wi of each class is stored in the memory, and then the process ends in step ST41.
[0180]
In this way, by performing processing according to the flowchart shown in FIG. 11, coefficient data Wi of each class can be obtained by the same method as the coefficient data generation device 150 shown in FIG.
[0181]
In the above-described embodiment, the residual class generation unit 121 of the image signal processing unit 110 uses the use DCT data block. However, the use pixel data block may be used instead.
[0182]
FIG. 12 shows the configuration of the residual class generation unit 121A in that case. 12, parts corresponding to those in FIG. 3 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0183]
The residual class generation unit 121A temporarily receives an input terminal 45 to which the image signal Va output from the above-described MPEG2 decoder 107 (see FIG. 2) is input, and an image signal Va input to the input terminal 45. And a memory 46 for storing data. Information MI and PI input to the input terminal 35 is supplied to the memory 46 as read control information. When the picture information PI indicates a P picture or a B picture, one or a plurality of used pixel data blocks are read from the memory 46. FIG. 13A shows, for example, a case of a P picture, in which four used pixel data blocks DBa to DBd are used. In FIG. 13A, the broken line indicates the block position of the reference data block of interest. FIG. 13A shows that the pixel data blocks DBa to DBd include 4 × 4 pixel data for simplification of the drawing.
[0184]
Further, the residual class generation unit 121A includes an average circuit 47 that obtains an average value of pixel data in the pixel data block read from the memory 46 for each block. In this case, an average value corresponding to the number of used pixel data blocks is obtained. As shown in FIG. 13A, when the number of used pixel data blocks is four, four average values are obtained.
[0185]
In addition, the residual class generation unit 121A is configured to use the one or more usages in a state where the pixel data constituting the one or more used pixel data blocks is replaced with the average value obtained by the averaging circuit 47. A block circuit 48 is provided which selectively extracts pixel data existing at a position overlapping the block position of the reference data block from the pixel data block to obtain one pixel data block.
[0186]
For example, when the pixel data constituting the four used pixel data blocks DBa to DBd as shown in FIG. 13A are replaced with average values, the result is as shown in FIG. 13B. In this case, da is a 0 ~ A 15 Average value of db, b is b 0 ~ B 15 The average value of dc is c 0 ~ C 15 The average value of dd is d 0 ~ D 15 Is the average value. Further, one pixel data block DB0 obtained by selectively extracting pixel data existing at a position overlapping the block position of the reference data block is as shown in FIG. 13C.
[0187]
The rest of the residual class generator 121A shown in FIG. 12 is configured in the same manner as the residual class generator 121 shown in FIG.
An operation for generating the residual class code CL0 indicating the residual class to which the pixel data of the target position in the image signal Vb belongs in the residual class generating unit 121 illustrated in FIG. 12 will be described.
[0188]
When the picture information PI indicates a P picture or a B picture, the DCT coefficients of one or a plurality of used pixel data blocks are read from the memory 46 and supplied to the averaging circuit 47 (see DBa to DBd in FIG. 13A). The average circuit 47 obtains the average value of the pixel data in the pixel data block read from the memory 46 for each block.
[0189]
The average value obtained by the averaging circuit 47 is supplied to the blocking circuit 48. The block forming circuit 48 replaces the pixel data constituting the one or more used pixel data blocks with the average value obtained by the averaging circuit 47 (see FIG. 13B). From the used pixel data block, pixel data existing at a position overlapping the block position (shown by a broken line) of the reference data block is selectively extracted to obtain one pixel data block (see DB0 in FIG. 13C).
[0190]
One pixel data block obtained by the blocking circuit 38 is supplied to the DCT circuit 39. The DCT circuit 39 performs DCT on the one pixel data block to obtain a DCT data block (see DB0 ′ in FIG. 4D). Thus, the DCT data block obtained by the DCT circuit 39 is supplied to the quantization circuit 40. The quantization circuit 40 is further supplied with the quantization characteristic designation information QIa corresponding to the DCT data block of interest read from the memory 32. The quantization circuit 40 quantizes the DCT data block obtained by the DCT circuit 39 based on the information QIa, and obtains a DCT data block as correction data.
[0191]
This DCT data block as correction data is obtained by applying DCT to a pixel data block obtained based on an average value of pixel data constituting one or a plurality of used pixel data blocks. Therefore, the AC coefficient constituting the DCT data block as the correction data also corresponds to the block step distortion included in the reference data block of interest as in the residual class generation unit 121 shown in FIG.
[0192]
The DCT data block as correction data obtained by the quantization circuit 40 is supplied to the addition circuit 41. The DCT data block of interest is read from the memory 34 and supplied to the adder circuit 41. This attention DCT data block has a component for correcting block step distortion included in the attention reference data block in its AC coefficient portion. The adder circuit 41 adds the corresponding AC coefficient of the DCT data block as the correction data to each AC coefficient of the target DCT data block. Thereby, the component which correct | amends the block level | step distortion contained in the attention reference data block which the attention DCT data block has is removed.
[0193]
The DCT data block of interest from which the correction component of the block step distortion has been removed by the adder circuit 41 is supplied to the inverse quantization circuit 42. The inverse quantization circuit 42 is read from the memory 32 and supplied with quantization characteristic designation information QIa corresponding to the target DCT data block. The inverse quantization circuit 42 inversely quantizes the target DCT data block from which the block level distortion correction component has been removed based on the information QIa.
[0194]
Then, when the picture information PI indicates an I picture, the class generation circuit 43 generates a specific code as the residual class code CL0. On the other hand, when the picture information PI indicates a P picture or a B picture, the class generation circuit 43 generates a residual class code CL0 based on each AC coefficient of the DCT data block obtained by the inverse quantization circuit 42. The class code CL0 generated in this way by the class generation circuit 43 is output to the output terminal 44.
[0195]
As described above, the residual class generation unit 121A illustrated in FIG. 12 generates the residual class code CL0 based on each AC coefficient of the DCT data block of interest when the picture information PI indicates a P picture or a B picture. However, as the AC coefficients of the target DCT data block, those obtained by removing the correction component of the block step distortion included in the target reference data block are used. Therefore, the accuracy of classification of the residual class can be improved, and the quality of the image signal Vb can be improved.
[0196]
The flowchart of FIG. 14 shows the procedure of the generation process of the residual class code CLO described above. In FIG. 14, parts corresponding to those in FIG.
[0197]
First, processing is started in step ST1, and in step ST11, when the picture information PI indicates a P picture or a B picture, one or a plurality of used pixel data blocks are read from the memory 46. In step ST12, an average value of pixel data of one or a plurality of used pixel data blocks read out is obtained for each block.
[0198]
Next, in step ST13, the pixel data constituting one or a plurality of used pixel data blocks is replaced with an average value, and the block data of the reference data block is moved from the one or a plurality of used pixel data blocks. The pixel data existing at the overlapping position is selectively extracted to generate one pixel data block.
[0199]
Next, the process proceeds to step ST6. Since step ST6 and subsequent steps are the same as those in the flowchart of FIG. 5 described above, description thereof will be omitted.
[0200]
In the above-described embodiment, the quantized DCT coefficient obtained by the variable length decoding circuit 74 is output from the MPEG2 decoder 107, and the quantized DCT coefficient is output to the memory 34 of the residual class generating units 121 and 121A. This is stored and used for generating the residual class code CL0.
[0201]
However, the inverse quantized DCT coefficient obtained by the inverse quantization circuit 76 is output from the MPEG2 decoder 107, and this inverse quantized DCT coefficient is output to the memory 34 of the residual class generating units 121 and 121A. It can also be configured to be stored in and used to generate the residual class code CL0.
[0202]
In this case, the residual class generation units 121 and 121A do not require processing such as inverse quantization and quantization. Therefore, in that case, the memory 32, the inverse quantization circuits 36 and 42, and the quantization circuit 40 are unnecessary in the residual class generation unit 121 of FIG. Similarly, the memory 32, the quantization circuit 40, and the inverse quantization circuit 42 are unnecessary in the residual class generation unit 121A of FIG.
[0203]
In the above embodiment, the MPEG2 stream with DCT is handled. However, the present invention deals with other encoded digital image signals subjected to motion compensation prediction coding for each block. It can be similarly applied to. Also, instead of DCT, Wavelet It may be an encoding with other orthogonal transformation such as transformation or discrete sine transformation.
[0204]
【The invention's effect】
According to the present invention, the first image signal composed of a plurality of pixel data, which is generated by decoding the digital image signal subjected to motion compensation prediction coding for each block, is composed of a plurality of pixel data. When converting to the second image signal, the class to which the pixel data of the target position in the second image signal belongs is detected using at least the difference data block, and the target position of the second image signal corresponding to this class is detected. A component that generates pixel data and removes a component that corrects block step distortion included in a reference data block from the difference data block and uses the difference data block from which the correction component has been removed for the above-described class detection. In addition, since the accuracy of classification is improved, the quality of the second image signal can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a digital broadcast receiver as an embodiment.
FIG. 2 is a block diagram showing a configuration of an MPEG2 decoder.
FIG. 3 is a block diagram illustrating a configuration of a residual class generation unit.
FIG. 4 is a diagram for explaining processing of a residual class generation unit;
FIG. 5 is a flowchart showing a residual class generation process.
FIG. 6 is a block diagram illustrating a configuration of a class classification unit.
FIG. 7 is a diagram illustrating a tap selection block.
FIG. 8 is a block diagram illustrating a configuration of a coefficient data generation device.
FIG. 9 is a block diagram illustrating a configuration example of an image signal processing device to be realized by software.
FIG. 10 is a flowchart showing image signal processing.
FIG. 11 is a flowchart showing coefficient data generation processing.
FIG. 12 is a block diagram illustrating another configuration of a residual class generation unit.
FIG. 13 is a diagram for explaining processing of a residual class generation unit;
FIG. 14 is a flowchart showing a residual class generation process.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Digital broadcast receiver, 101 ... System controller, 102 ... Remote control signal receiving circuit, 105 ... Receiving antenna, 106 ... Tuner part, 107 ... MPEG2 decoder, 108. ..Buffer memory, 110... Image signal processing unit, 111... Display unit, 121, 121 A... Residual class generation unit, 122. 124 ... Coefficient memory, 125 ... Estimated prediction calculation circuit, 150 ... Coefficient data generation device, 300 ... Image signal processing device

Claims (8)

ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に変換する場合に、当該第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す直交逆変換手段と、
上記直交逆変換手段で得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得るブロック化手段と、
上記ブロック化手段で得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る直交変換手段と、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する補正成分除去手段と、
少なくとも、上記補正成分が除去された差分データブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、
上記クラス検出手段で検出されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化歪みを含む生徒信号と上記第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する係数データ発生手段と、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、
上記係数データ発生手段で発生された係数データおよび上記データ選択手段で選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る演算手段とを備える画像信号処理装置。
A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. when converting the second image signal that Do from the data, the reference according to the difference data block used in obtaining the pixel data of the above corresponding to the target position definitive to the second image signal a first image signal The DC coefficient of the difference data block consisting of one or a plurality of transform coefficients whose block positions overlap all or part of the block position of the data block is a DC coefficient and one or a plurality of DC coefficients where all AC coefficients are 0 Orthogonal inverse transform means for performing orthogonal inverse transform on the difference data block;
From one or a plurality of pixel data blocks composed of pixel data obtained by the orthogonal inverse transform means, pixel data existing at a position overlapping the block position of the reference data block is selectively extracted to obtain a piece of pixel data. Blocking means for obtaining a pixel data block comprising:
Orthogonal transformation means for performing orthogonal transformation on the pixel data block obtained by the blocking means to obtain a difference data block comprising transformation coefficients as the correction data;
Correction component removal means for removing the correction component of the difference data block by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block ;
Class detection means for detecting a class to which pixel data at the position of interest in the second image signal belongs from at least the AC coefficient level distribution of the difference data block from which the correction component has been removed ;
A teacher signal that is obtained in advance for each class detected by the class detecting means and includes a student signal including encoding distortion corresponding to the first image signal and not including encoding distortion corresponding to the second image signal. Coefficient data generating means for generating coefficient data that minimizes an error from the signal;
Data selecting means for selecting, from the first image signal, a plurality of pixel data located around the position of interest in the second image signal;
Images that calculates a plurality of pixel data selected by the generated coefficient data and said data selecting means in said coefficient data generation means Ru and an arithmetic means for obtaining pixel data of the target position in the second image signal Signal processing device.
上記デジタル画像信号はMPEG方式の符号化が行われたものであって、上記差分データブロックはDCT係数からなるDCTデータブロックであり、
上記直交逆変換手段としての逆DCT手段は、
上記差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の、DCT係数からなるDCTデータブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個のDCTデータブロックに対して逆離散コサイン変換を施
上記ブロック化手段は、
上記逆DCT手段で得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを
上記直交変換手段としてDCT手段は、
上記ブロック化手段で得られた画素データブロックに対して離散コサイン変換を施して、上記補正データとしてDCT係数からなるDCTデータブロックを
上記補正成分除去手段は、
上記DCTデータブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記DCTデータブロックが有する補正成分を除去し、
上記クラス検出手段は、
少なくとも、上記補正成分が除去されたDCTデータブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出する請求項1に記載の画像信号処理装置。
The digital image signal has been subjected to MPEG encoding, and the differential data block is a DCT data block composed of DCT coefficients,
The inverse DCT means as the orthogonal inverse transform means is
The DC coefficients of one or more DCT data blocks composed of DCT coefficients, each of which overlaps the block position of the reference data block related to the difference data block, are all DC coefficients, and all AC coefficients are and facilities inverse discrete cosine transform on 0 and the one or a plurality of DCT data blocks,
The blocking means is
From one or a plurality of pixel data blocks made up of pixel data obtained by the inverse DCT means, pixel data existing at a position overlapping with the block position of the reference data block is selectively taken out from one piece of pixel data. and it acquired the composed pixel data blocks,
The DCT means as the orthogonal transform means is:
By performing discrete cosine transform on the pixel data blocks obtained by the blocking means, and acquired the DCT data block of DCT coefficients as the correction data,
The correction component removing means includes
By adding the corresponding AC coefficients of the correction data to each AC coefficient of the DCT data block, remove the correction component which the DCT data block has,
The class detection means is
At least, the a level distribution of correction AC coefficient components DCT data block that has been removed, the image signal processing apparatus according to Motomeko 1 detect a class to which pixel data belongs of the target position in the second image signal .
上記デジタル画像信号はMPEG方式の符号化が行われたものであって、上記差分データブロックはDCT係数からなるDCTデータブロックであり、
上記直交逆変換手段としての平均値取得手段は、
上記差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の、画素データからなる画素データブロックにおける画素データの平均値をブロック毎に
上記ブロック化手段は、
上記一個または複数個の画素データブロックを構成する画素データが上記平均値取得手段で得られた平均値で置き換えられた状態で、該一個または複数個の画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを
上記直交変換手段としてDCT手段は、
上記ブロック化手段で得られた画素データブロックに対して離散コサイン変換を施して、上記補正データとしてDCT係数からなるDCTデータブロックを
上記補正成分除去手段は、
上記DCTデータブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記DCTデータブロックが有する補正成分を除去し、
上記クラス検出手段は、
少なくとも、上記補正成分が除去されたDCTデータブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出する請求項1に記載の画像信号処理装置。
The digital image signal has been subjected to MPEG encoding, and the differential data block is a DCT data block composed of DCT coefficients,
Mean value acquisition means as the orthogonal inverse transform means,
The whole or part of the block located in the blocking position of the reference data block according to the difference data block is one or more overlapping, and acquired the average value of the pixel data for each block in the pixel data block of pixel data,
The blocking means is
In a state where the pixel data constituting the one or more pixel data blocks is replaced with the average value obtained by the average value acquisition means, the block of the reference data block from the one or more pixel data blocks and the pixel data at the position overlapping the regioselectively extraction was acquired the one of the pixel data block of pixel data,
The DCT means as the orthogonal transform means is:
By performing discrete cosine transform on the pixel data blocks obtained by the blocking means, and acquired the DCT data block of DCT coefficients as the correction data,
The correction component removing means includes
By adding the corresponding AC coefficients of the correction data to each AC coefficient of the DCT data block, remove the correction component which the DCT data block has,
The class detection means is
At least, the a level distribution of correction AC coefficient components DCT data block that has been removed, the image signal processing apparatus according to Motomeko 1 detect a class to which pixel data belongs of the target position in the second image signal .
ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に変換する場合に、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す第1のステップと、
上記第1のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第2のステップと、
上記第2のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第3のステップと、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第のステップと、
少なくとも上記第のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出する第のステップと、
上記第のステップで検出されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化歪みを含む生徒信号と上記第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第6のステップと、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第7のステップと、
上記第6のステップで発生された係数データおよび上記第7のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第8のステップとを備える画像信号処理方法。
A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. when converting the second image signal consisting of data, reference data blocks of the differential data blocks used in obtaining the pixel data of the above which corresponds to the target position in the second image signal a first image signal One or a plurality of difference data in which a DC coefficient of a difference data block made up of one or a plurality of transform coefficients whose whole or a part of the block position overlaps with a block position is a DC coefficient and all AC coefficients are 0 A first step of performing an orthogonal inverse transform on the block;
From the one or a plurality of pixel data blocks made up of pixel data obtained in the first step, the pixel data existing at a position overlapping the block position of the reference data block is selectively extracted to obtain one piece of pixel data. A second step of obtaining a pixel data block comprising:
A third step of performing orthogonal transformation on the pixel data block obtained in the second step to obtain a difference data block composed of transformation coefficients as the correction data;
A fourth step of removing the correction component of the difference data block by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block;
A fifth step of detecting a class to which the pixel data of the target position in the second image signal belongs from the level distribution of the AC coefficient of the difference data block from which the correction component has been removed at least in the fourth step;
A student signal that is obtained in advance for each class detected in the fifth step and includes coding distortion corresponding to the first image signal and does not include coding distortion corresponding to the second image signal. A sixth step of generating coefficient data that minimizes an error from the teacher signal;
A seventh step of selecting, from the first image signal, a plurality of pixel data located around a target position in the second image signal;
And an eighth step of obtaining the pixel data of the target position in the second image signal by calculating the coefficient data generated in the sixth step and the plurality of pixel data selected in the seventh step. images signal processing method that.
ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に変換する場合に、上記第2の画像信号における注目位置に対応した上記第1の画像信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す第1のステップと、
上記第1のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第2のステップと、
上記第2のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第3のステップと、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第のステップと、
少なくとも上記第のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記第2の画像信号における注目位置の画素データが属するクラスを検出する第のステップと、
上記第のステップで検出されたクラス毎に予め求められ、上記第1の画像信号に対応して符号化歪みを含む生徒信号と上記第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第6のステップと、
上記第1の画像信号から、上記第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第7のステップと、
上記第6のステップで発生された係数データおよび上記第7のステップで選択された複数の画素データを演算して上記第2の画像信号における注目位置の画素データを得る第8のステップとを備える画像信号処理方法をコンピュータに実行させるためのプログラム。
A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. when converting the second image signal consisting of data, reference data blocks of the differential data blocks used in obtaining the pixel data of the above which corresponds to the target position in the second image signal a first image signal One or a plurality of difference data in which a DC coefficient of a difference data block made up of one or a plurality of transform coefficients whose whole or a part of the block position overlaps with a block position is a DC coefficient and all AC coefficients are 0 A first step of performing an orthogonal inverse transform on the block;
From the one or a plurality of pixel data blocks made up of pixel data obtained in the first step, the pixel data existing at a position overlapping the block position of the reference data block is selectively extracted to obtain one piece of pixel data. A second step of obtaining a pixel data block comprising:
A third step of performing orthogonal transformation on the pixel data block obtained in the second step to obtain a difference data block composed of transformation coefficients as the correction data;
A fourth step of removing the correction component of the difference data block by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block;
A fifth step of detecting a class to which the pixel data of the target position in the second image signal belongs from the level distribution of the AC coefficient of the difference data block from which the correction component has been removed at least in the fourth step;
A student signal that is obtained in advance for each class detected in the fifth step and includes coding distortion corresponding to the first image signal and does not include coding distortion corresponding to the second image signal. A sixth step of generating coefficient data that minimizes an error from the teacher signal;
A seventh step of selecting, from the first image signal, a plurality of pixel data located around a target position in the second image signal;
And an eighth step of obtaining the pixel data of the target position in the second image signal by calculating the coefficient data generated in the sixth step and the plurality of pixel data selected in the seventh step. program for executing a that images signal processing method on a computer.
ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る復号化手段と、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す直交逆変換手段と、
上記直交逆変換手段で得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得るブロック化手段と、
上記ブロック化手段で得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る直交変換手段と、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する補正成分除去手段と、
少なくとも上記補正成分除去手段で補正成分が除去された差分データブロックのAC係数のレベル分布から、上記教師信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択するデータ選択手段と、
上記クラス検出手段で検出されたクラス、上記データ選択手段で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最 小にする係数データを求める演算手段とを備える係数データ生成装置。
A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. decoding means for obtaining a student signal that the teacher signal corresponding to decodes the digital image signal obtained by coding the first image signal corresponding to Do that the second image signals from the data,
One or a plurality of transform coefficients in which all or part of the block position overlaps the block position of the reference data block related to the difference data block used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal Orthogonal inverse transform means for performing orthogonal inverse transform on one or a plurality of difference data blocks in which each of the DC coefficients of the difference data block is a DC coefficient and all AC coefficients are 0;
From one or a plurality of pixel data blocks composed of pixel data obtained by the orthogonal inverse transform means, pixel data existing at a position overlapping the block position of the reference data block is selectively extracted to obtain a piece of pixel data. Blocking means for obtaining a pixel data block comprising:
Orthogonal transformation means for performing orthogonal transformation on the pixel data block obtained by the blocking means to obtain a difference data block comprising transformation coefficients as the correction data;
By adding the corresponding AC coefficients of the correction data to each AC coefficient of the differential data blocks, and the correction component removing means for removing a correction component that the differential data blocks have,
Class detection means for detecting a class to which pixel data of a target position in the teacher signal belongs from at least the AC coefficient level distribution of the difference data block from which the correction component has been removed by the correction component removal means;
Data selection means for selecting a plurality of pixel data located around the target position in the teacher signal from the student signal;
The detected class by the class detection means, the pixel data for each of the classes of the target position in the plurality of pixel data and the teacher signal selected by the data selection means, a plurality of pixel data and the teacher according to the student signal engaging the number of data generating device Ru and an arithmetic means for obtaining the coefficient data to the minimum error between the pixel data of the target position in the signal.
ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る第1のステップと、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す第2のステップと、
上記第2のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第3のステップと、
上記第3のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第4のステップと、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第のステップと、
少なくとも上記第のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記教師信号における注目位置の画素データが属するクラスを検出する第のステップと、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第のステップと、
上記第のステップで検出されたクラス、上記第のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第のステップとを備える係数データ生成方法。
A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. a first step of obtaining a student signal that the teacher signal corresponding to the encoded said first decodes the digital image signal obtained by the image signals corresponding to Do that the second image signals from the data,
One or a plurality of transform coefficients in which all or part of the block position overlaps the block position of the reference data block related to the difference data block used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal A second step of performing orthogonal inverse transform on one or a plurality of difference data blocks in which each DC coefficient of the difference data block is a DC coefficient and all AC coefficients are 0;
From the one or a plurality of pixel data blocks made up of pixel data obtained in the second step, the pixel data existing at the position overlapping the block position of the reference data block is selectively extracted to obtain one piece of pixel data. A third step of obtaining a pixel data block comprising:
A fourth step of performing orthogonal transformation on the pixel data block obtained in the third step to obtain a difference data block including transformation coefficients as the correction data;
A fifth step of removing the correction component of the difference data block by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block;
A sixth step of detecting a class to which the pixel data of the target position in the teacher signal belongs from the level distribution of the AC coefficient of the difference data block from which the correction component is removed at least in the fifth step;
A seventh step of selecting, from the student signal, a plurality of pixel data located around a target position in the teacher signal;
The sixth class detected in step, from the pixel data for each of the classes of the target position in the seventh plurality of pixel data and the teacher signal selected in step, and a plurality of pixel data in accordance with the student signal eighth step and engaging number data generation process of Ru with a seeking coefficient data that minimizes the error between the pixel data of the target position in the teacher signal.
ブロック毎に動き補償予測符号化が行われたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、当該符号化に伴う歪みを低減した複数の画素データからなる第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記第1の画像信号に対応した生徒信号を得る第1のステップと、
上記教師信号における注目位置に対応した上記生徒信号の画素データを得る際に用いられた差分データブロックに係るリファレンスデータブロックのブロック位置にブロック位置の全部または一部が重なる一個または複数個の変換係数からなる差分データブロックのDC係数をそれぞれDC係数とすると共に全てのAC係数を0とした一個または複数個の差分データブロックに対して直交逆変換を施す第2のステップと、
上記第2のステップで得られた一個または複数個の、画素データからなる画素データブロックより、上記リファレンスデータブロックのブロック位置に重なる位置に存在する画素データを選択的に取り出して一個の、画素データからなる画素データブロックを得る第3のステップと、
上記第3のステップで得られた画素データブロックに対して直交変換を施して、上記補正データとして変換係数からなる差分データブロックを得る第4のステップと、
上記差分データブロックの各AC係数に上記補正データの対応するAC係数を加算することで、上記差分データブロックが有する補正成分を除去する第のステップと、
少なくとも上記第のステップで補正成分が除去された差分データブロックのAC係数のレベル分布から、上記教師信号における注目位置の画素データが属するクラスを検出する第のステップと、
上記生徒信号から、上記教師信号における注目位置の周辺に位置する複数の画素データを選択する第のステップと、
上記第のステップで検出されたクラス、上記第のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記生徒信号に係る複数の画素データと上記教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第のステップとを備える係数データ生成方法をコンピュータに実行させるためのプログラム。
A plurality of pixels in which a first image signal composed of a plurality of pixel data generated by decoding a digital image signal subjected to motion compensation prediction coding for each block is reduced in distortion due to the coding. a first step of obtaining a student signal that the teacher signal corresponding to the encoded said first decodes the digital image signal obtained by the image signals corresponding to Do that the second image signals from the data,
One or a plurality of transform coefficients in which all or part of the block position overlaps the block position of the reference data block related to the difference data block used when obtaining the pixel data of the student signal corresponding to the target position in the teacher signal A second step of performing orthogonal inverse transform on one or a plurality of difference data blocks in which each DC coefficient of the difference data block is a DC coefficient and all AC coefficients are 0;
From the one or a plurality of pixel data blocks made up of pixel data obtained in the second step, the pixel data existing at the position overlapping the block position of the reference data block is selectively extracted to obtain one piece of pixel data. A third step of obtaining a pixel data block comprising:
A fourth step of performing orthogonal transformation on the pixel data block obtained in the third step to obtain a difference data block including transformation coefficients as the correction data;
A fifth step of removing the correction component of the difference data block by adding the AC coefficient corresponding to the correction data to each AC coefficient of the difference data block;
A sixth step of detecting a class to which the pixel data of the target position in the teacher signal belongs from the level distribution of the AC coefficient of the difference data block from which the correction component is removed at least in the fifth step;
A seventh step of selecting, from the student signal, a plurality of pixel data located around a target position in the teacher signal;
The sixth class detected in step, from the pixel data for each of the classes of the target position in the seventh plurality of pixel data and the teacher signal selected in step, and a plurality of pixel data in accordance with the student signal program to execute the eighth step and the engaging speed data generating method Ru comprising the obtaining coefficient data that minimizes the error between the pixel data of the target position in the teacher signal to the computer.
JP2002296691A 2002-10-09 2002-10-09 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method Expired - Fee Related JP4158474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002296691A JP4158474B2 (en) 2002-10-09 2002-10-09 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002296691A JP4158474B2 (en) 2002-10-09 2002-10-09 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method

Publications (2)

Publication Number Publication Date
JP2004134998A JP2004134998A (en) 2004-04-30
JP4158474B2 true JP4158474B2 (en) 2008-10-01

Family

ID=32286600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002296691A Expired - Fee Related JP4158474B2 (en) 2002-10-09 2002-10-09 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method

Country Status (1)

Country Link
JP (1) JP4158474B2 (en)

Also Published As

Publication number Publication date
JP2004134998A (en) 2004-04-30

Similar Documents

Publication Publication Date Title
JP4462823B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
AU2007202789B2 (en) High-fidelity motion summarisation method
US20070036450A1 (en) Data processing apparatus and method and recording medium
JP4847076B2 (en) Method and transcoder for estimating output macroblocks and motion vectors for transcoding
JPH08307874A (en) Video signal encoding device
JP2003274428A (en) Encoding moving picture converter
JP4078906B2 (en) Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JP4158474B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP4206730B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
US7991054B2 (en) Information signal processing device, information signal processing method, image signal processing device, image displaying device, device and method for producing correction data used in them, device and method for producing coefficient data, programs for executing these methods, and computer-readable medium for storing the program
JP4158479B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP4140259B2 (en) Information signal processing apparatus, information signal processing method, program, and computer-readable medium
JP4158476B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
CN113822801A (en) Compressed video super-resolution reconstruction method based on multi-branch convolutional neural network
JP4154961B2 (en) Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JP4552262B2 (en) Noise reduction apparatus and method
JP4154772B2 (en) Image information conversion apparatus and conversion method
JP4140662B2 (en) Coefficient seed data generation apparatus and coefficient data generation apparatus
JP3991800B2 (en) INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE SIGNAL PROCESSING DEVICE AND IMAGE DISPLAY DEVICE, CORRECTION DATA GENERATION DEVICE AND GENERATION METHOD USED FOR THE SAME, PROGRAM FOR EXECUTING each METHOD, AND COMPUTER READABLE RECORDING THE PROGRAM Medium
JP2004173013A (en) Motion vector detector and detection method, image signal processor using the method and processing method, coeeficient data generator for use in the processor and generation method, and program for implementing these methods
JP4518727B2 (en) Image encoding apparatus and method, recording medium, and program
JP2002142222A (en) Screen size-changing device of compressed image
JP2001285870A (en) Device and method for processing digital signal and device and method for processing digital picture signal
JP2001313948A (en) Device and method for motion vector conversion
JPH07203460A (en) Locus display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080707

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees