JP4082079B2 - 画像信号処理装置及びその方法 - Google Patents
画像信号処理装置及びその方法 Download PDFInfo
- Publication number
- JP4082079B2 JP4082079B2 JP2002129440A JP2002129440A JP4082079B2 JP 4082079 B2 JP4082079 B2 JP 4082079B2 JP 2002129440 A JP2002129440 A JP 2002129440A JP 2002129440 A JP2002129440 A JP 2002129440A JP 4082079 B2 JP4082079 B2 JP 4082079B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- block
- class
- frame
- taps
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、DCT変換及びDCT変換後に得られるDCT係数の量子化により生じた歪み等の除去を図った画像信号処理装置及びその方法に関する。
【0002】
【従来の技術】
映像・音声・データ等を限られた伝送帯域幅の中で高品質に伝送したり、限られた容量の記録媒体に記録したりするために、ディジタル画像・音声圧縮技術やディジタル伝送技術の発展が不可欠である。このような圧縮技術として、現在では特にMPEG2(Moving Picture Experts Group 2)やMPEG1といったMPEG方式が用いられている。
【0003】
MPEG方式で画像データを圧縮(エンコード)する場合、画像データが8×8の正方形のDCT(Discrete Cosine Transform)ブロックに分割され、このDCTブロック毎にDCT変換が行われ、DCT変換後の各係数は所定の量子化ステップで除算されて量子化され、データの圧縮されたデータストリームが生成される。
【0004】
また、MPEG方式で圧縮されたデータを伸長(デコード)する場合、8×8の正方形のDCTブロック毎の各係数に量子化ステップが乗算され、このDCTブロック毎に逆DCT変換が行われ、画像データが復号される。
【0005】
【発明が解決しようとする課題】
しかしながら、DCTブロックのDCT係数を粗く量子化すると、直交変換符号化時特有の雑音、すなわちブロック歪やモスキート・ノイズが発生してしまう。したがって、復号処理によって得られる画像データは、視覚的に大きく画像が劣化する。
【0006】
このブロック歪及びモスキート・ノイズの発生メカニズムについて、図34を参照しながら説明する。なお、この図34では、DCTブロックの水平方向の波形に着目し、右端の1画素のみが明るいパターンの場合の歪みの発生について説明する。原波形が図34の太線で示すようなステップ波形である場合、これをDCT変換して得られるDCTの基底の波形は、図34に示すようなAC成分7本とDC成分とからなる形となる。
【0007】
MPEG1/MPEG2では、これらの波形の振幅及びDCレベルをある量子化テーブルによって量子化し、図35に示すAC/DC成分のように情報量を削減する。この際、通常は高周波成分がより粗く量子化されるため、量子化誤差を含んだ低周波成分のみを表示波形とするような波形が復号される。このとき、原波形のステップ波形に見られない波がブロック左に現れ、これがモスキート・ノイズと呼ばれる画像の歪みとして見える。
【0008】
また、ブロックの境界部分の画素値で、原波形と復号した表示波形との間には誤差があり、この誤差の現れ方が左右に隣接するブロック間でまちまちになることで段差が生じる。この段差は、一定の位置に固定されたDCTブロックの境界に沿って現れるため、ブロック歪として知覚されやすい。さらにブロック歪は、隣接するブロック間での波形の食い違いとしても現れる。図35の太線で示す表示波形は、原波形に対してエッジが鈍っており、エッジが半画素程度左にずれたように見える。このようなずれの程度は、エッジの走り方や量子化の粗さに影響されるため、例えば原波形で上下の隣接ブロック間で連続していたエッジが、復号後の表示波形ではブロック境界で不連続になってしまうという問題が発生する。
【0009】
なお、図34は理想化された模式図であり、実際には量子化テーブル、量子化スケール、原波形の形状や振幅等の要因により、歪みの発生パターンは必ずしも一定ではない。
【0010】
ところで、既存のDVD(Digital Versatile Disk)プレーヤ等でもBNR(Block Noise Reduction)等の名称でブロック歪やモスキート・ノイズの除去を行っている例はあるが、処理としてはブロック境界部や画像のエッジ付近をローパス・フィルタによってぼかす程度であり、能動的な歪み除去とは言い難いものであった。また、画像が本来有しているエッジもぼかしてしまうため、解像度の低下を招来するといった問題点があった。
【0011】
本発明は、このような従来の実情に鑑みて提案されたものであり、画像データの圧縮を行ったときに生じた歪を効率的に除去する画像信号処理装置及びその方法を提供することを目的とする。
【0012】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係る画像信号処理装置は、入力される第1の画像に対して所定の推定演算を行って上記第1の画像を第2の画像に変換する画像信号処理装置において、上記第1の画像をフレーム毎に記憶する複数のフレームメモリと、上記第1の画像の注目画素を含む注目フレーム及びこの注目フレームの前後の複数のフレームが入力され、これら全てのフレームにおいて上記注目画素と同一の位置の画素を予測タップとして切り出す領域切出手段と、上記予測タップのうち所定の位置関係を有する画素間の画素値の差分値を算出する差分値算出手段と、上記フレーム毎のブロックデータが入力され、上記注目画素が属する注目ブロックにおいて水平方向及び垂直方向に隣接する各画素間の画素値の差分値をブロック画素間差分値として算出するブロック画素間差分値算出手段と、上記ブロック画素間差分値算出手段で算出された上記注目ブロックにおける上記ブロック画素間差分値の統計に基づきブロック閾値を算出するブロック特徴量算出手段と、上記予測タップにおける隣接フレームの画素間差分値と上記フレーム毎の上記ブロック閾値の最大値とに基づき上記注目画素の時間クラスを分類するクラス分類手段と、上記注目画素が分類されたクラスに対応する予測係数を読み出す読出手段と、読み出された上記予測係数と上記予測タップとから上記所定の推定演算により上記注目画素の画素値を第2の画像の画素値に変換する推定演算手段とを有することを特徴とする。
【0013】
本発明においては、クラスタップの画素間の差分値を算出して、この差分値に基づきクラスタップのクラス分類を行って所定の推定演算を行うクラス分類適応処理により、画像信号を変換処理する際に、本来画像が有するエッジは抽出し、逆にモスキート・ノイズ及びブロック歪等を効果的に抑圧することができる。
【0024】
更にまた、上記予測タップにおける隣接フレームの画素間の差分値が上記フレーム毎の上記ブロック閾値の最大値より大きい場合は、上記差分値を算出したフレームから上記注目フレームとは離隔する方向のフレームの画素を使用不可タップとし、この使用不可タップ以外の画素を使用可能タップとし、上記クラス分類手段は、上記タップの種類(使用可能タップであるか使用不可タップであるか)に基づき上記時間クラスを分類することができる。
【0025】
また、予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、推定演算時の予測タップは、上記未来方向に1以上の上記使用可能タップが存在し、且つ、上記過去方向に1以上の上記使用可能タップが存在する場合、上記注目画素は、第1の時間クラスに分類され、上記学習時の予測タップは、全ての予測タップが上記使用可能タップである場合、上記注目画素は、上記第1の時間クラスに分類され、上記推定演算時に上記第1の時間クラスに分類される上記予測タップにおける上記使用不可タップに相当する上記第1の時間クラスに分類され学習された上記学習手段における上記予測タップの予測係数を、上記推定演算時の上記予測タップにおける全ての上記使用可能タップに分配すると共に、該使用不可タップの予測係数を0にすることにより、正確に学習すると共に効率よくマッピングすることができる。
【0028】
本発明に係る画像信号処理方法は、入力される第1の画像に対して所定の推定演算を行って上記第1の画像を第2の画像に変換する画像信号処理方法において、上記第1の画像をフレーム毎に複数のフレームメモリに記憶する記憶工程と、上記第1の画像の注目画素を含む注目フレーム及びこの注目フレームの前後の複数のフレームが入力され、これら全てのフレームにおいて上記注目画素と同一の位置の画素を予測タップとして切り出す領域切出工程と、上記予測タップのうち所定の位置関係を有する画素間の差分値を算出する差分値算出工程と、上記フレーム毎のブロックデータが入力され、上記注目画素が属する注目ブロックにおいて水平方向及び垂直方向に隣接する各画素間の画素値の差分値をブロック画素間差分値として算出するブロック画素間差分値算出工程と、上記ブロック画素間差分値算出工程で算出された上記注目ブロックにおける上記ブロック画素間差分値の統計に基づきブロック閾値を算出するブロック特徴量算出工程と、上記予測タップにおける隣接フレームの画素間差分値と上記フレーム毎の上記ブロック閾値の最大値とに基づき上記注目画素の時間クラスを分類するクラス分類工程と、上記注目画素が分類されたクラスに対応する予測係数を読み出す読出工程と、読み出された上記予測係数と上記予測タップとから上記所定の推定演算により上記注目画素の画素値を第2の画像の画素値に変換する推定演算工程とを有することを特徴とする。
【0030】
【発明の実施の形態】
本願発明者等は、上述した課題を解決するために鋭意実験研究した結果、上述の図35に示す原波形のエッジ近辺では表示波形の画素間差分が大きく、モスキート・ノイズ部分の画素間差分は相対的に小さいこと、及び原波形がブロック間で連続であれば、ブロック間で生じる段差も表示波形のエッジ付近の画素間差分値よりは小さくなることを知見した。但し、極端な高圧縮率のために量子化ステップが非常に粗くなり、AC成分がほとんど残らないような場合はその限りではない。本願発明者等は、上記の知見に基づき、ブロック内部での画素間差分絶対値の分布を調べれば、画像本来のエッジとそれ以外の歪成分とを区別することができることを見出した。即ち、画素間差分絶対値の統計量を使用してエッジ検出を行い、エッジの有無及びブロック内での配置に基づきクラス分類することにより、効率的な歪抑圧を行うことができることを見出した。
【0031】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。本実施の形態は、本発明をMPEGデコードされた画像データに生じるブロック歪み及びモスキート・ノイズを除去するための画像信号処理装置及び方法に適用したものである。
【0032】
(1)クラス分類適応処理の原理
先ず、本実施の形態の説明に先立ち、理解を容易とするために、クラス分類適応処理の概要について説明する。図1は、クラス分類適応処理を使用した画像信号処理装置の一例を示すブロック図を示す。図1に示すように、画像信号処理装置100は、第1の画像データD1が入力され、所定の領域の画像を切り出す第1及び第2の領域切出部101、102と、第1の領域切出部101により切り出されたデータD2からクラスコードを生成するクラスコード生成部103と、クラスコード生成部103から供給されるクラスコードに対応する予測係数を読み出すROM(Read Only Memory)テーブル104と、第2の領域切出部102により切り出されたデータD3及びROMテーブル24から読み出された予測係数が入力され、所定の推定演算を行って第2の画像データD4を生成する推定演算部105とから構成されている。
【0033】
後述する本実施の形態においては、第1の画像データとして、MPEG復号画像データが入力され、この第1の画像データから変換する第2の画像データとして、MPEG復号画像データのブロック歪及びモスキート・ノイズ等が除去された歪除去処理済画像を生成する。
【0034】
第1の領域切出部101は、画像データD1から例えば、注目画素及びこの注目画素を中心しとした複数の周辺画素から構成される例えば合計7画素(タップ)をクラス分類用の画素(以下、これをクラスタップという。)として切り出し、これら7タップの画素値をクラスコード生成部103に供給する。
【0035】
クラスコード生成部103は、供給されたクラスタップの信号レベル分布に基づいて、注目画素のクラスを示すクラスコードを生成する。クラスコードの生成方法としては、画像データD1が例えばパルス符号変調PCM(Pulse Code Modulation)データであるときは、このPCMデータをそのままクラスコードとして使用する方法や、いわゆるADRC(Adaptive Dynamic Range Coding)等のデータ圧縮方法を使用してクラス数を削減する方法等がる。このうち、PCMデータをそのままクラスコードとする方法では、クラスタップとして8ビットのPCMデータを7タップ使用する場合、クラス数が256という膨大な数のクラス数に分類されることになり、実用上問題がある。そこで実際には、クラスコード生成部103は、ADRCのようなデータ圧縮処理(すなわち再量子化処理)を施すことによりクラス数を削減するようになされている。ADRCによる分類法は、領域内のダイナミックレンジから再量子化ビット数に応じた量子化ステップ幅を算出し、入力画素値から最小画素値を減算した画素値を量子化ステップ幅に応じて再量子化するものである。例えば、領域内の7タップにおいて、各クラスタップを1ビットに再量子化する1ビットADRCを行う場合では、領域内のダイナミックレンジに基づいて7タップの各入力画素値を適応的に1ビット量子化し、その結果、7タップの入力画素値を7ビットのデータに削減することができるので、全体としてクラス数を128クラスにまで削減することができる。
【0036】
生成されたクラスコードは、ROMテーブル104に送られる。ROMテーブル104は、後述する学習回路によって予め学習された各クラスコードに対応する予測係数が格納されている。そしてROMテーブル104にて、クラスコードに応じた予測係数が読み出され、この予測係数が推定演算部105に送出される。
【0037】
一方、第2の領域切出部102は、画像データD1から、注目画素及びこの注目画素を中心しとした複数の周辺画素から構成される例えば合計13タップを予測演算用の画素(以下、これを予測タップという。)として切り出し、この予測タップの画素値を推定演算部105に供給する。
【0038】
推定演算部105は、第2の領域切出部102から供給された予測タップの各画素値と、ROMテーブル104から読み出された予測係数とを使用して、積和演算を行うことにより、予測タップには存在しない、例えば高解像度HD(High Definition)の画素の集まりであるHD画像データ等の第2の画像データの画素値を生成する。
【0039】
本発明は、このような画像信号処理装置において、第1の画像データとして入力されるMPEGデコードされた画像データを変換し、第1の画像データに生じるブロック歪み及びモスキート・ノイズを除去した歪除去処理済画像データを第2の画像データとして生成する(以下、マッピングという。)際のクラスタップ及び予測タップ、並びに後述する学習回路において使用する際のクラスタップ及び予測タップにおいて、ブロック歪み及びモスキート・ノイズを効率よく除去するためのタップ構造を提案するものである。
【0040】
次に、ROMテーブル104に格納されている予測係数を学習する学習回路について説明する。学習は、教師画像と、変換対象である生徒画像との間で行う。即ち、本発明の画像信号処理装置であれば、教師画像としてMPEG圧縮符号化前の原画像、即ち、歪等がない画像を使用し、生徒画像としてMPEG復号画像データを使用して学習することにより、MPEG復号画像データから歪を除去して原画像に近づけた歪除去処理済画像を生成するための予測計数を学習する。即ち、学習回路は、生徒画像から教師画像へ変換するための予測係数を学習するものである。
【0041】
図2は、図1に示す画像信号処理装置の学習回路の一例を示すブロック図である。ここでは、高解像度画像である教師画像と、低域通過フィルタ(LPF)を通して解像度を下げた生徒画像との間で行う学習について説明する。学習回路130は、予測係数を予め学習して、これを図1に示すROMテーブル104に格納するようになされている。この学習回路130は、教師画像データD11が入力される垂直間引きフィルタLPF131と、LPF131から出力された低解像度データD12(生徒画像データ)からクラスタップ及び予測タップを切り出す第1及び第2の領域切出部132、133と、第1の領域切出部132から供給されたクラスタップの画素値に基づきクラスコードを生成するクラスコード生成部134と、第2の領域切出部133から供給される予測タップの画素値、クラスコード生成部134から供給されるクラスコード、及び画像データ(教師画像データ)D11が入力され、正規方程式により予測係数を演算する正規方程式演算部135と、予測係数を決定する予測係数決定部136と、決定された予測係数をクラスコードと共に格納するメモリ137とから構成される。
【0042】
第1の領域切出部132、第2の領域切出部133及びクラスコード生成部134は、図1に示す画像信号処理装置における第1の領域切出部101、第2の領域切出部102及びクラスコード生成部103と同様の構成とすることができ、第1の領域切出部132に入力される生徒画像データD12からクラスタップを切り出し、クラスコード生成部134がクラスタップの信号レベル分布に基づいてクラスコードを生成した後、これを正規化方程式演算部135に送出する。また、第2の領域切出部133は、生徒画像データD12から予測タップを切り出し、正規化方程式演算部135に供給する。
【0043】
正規化方程式演算部135は、教師画像データD11及び予測タップの画素値を基に、予測係数を算出して予測係数決定部136で決定された予測係数をクラスコードと共にメモリ137に格納する。このような画像信号変換装置においては、クラス分類適応処理により、予め学習された予測係数を使用して所定の推定演算をすることにより、変換対象の第1の画像データを所望の画像データに変換することができる。
【0044】
以下、本発明の実施の形態について説明する。図3は、本発明の実施の形態に係る画像信号処理装置を示すブロック図である。本実施の形態の画像信号処理装置10は、第1の画像であるMPEG復号画像が入力され、第2の画像である歪除去処理済画像の予測値を求める所定の推定演算により、MPEG復号画像を歪除去処理済画像に変換するものである。
【0045】
本実施の形態においては、MPEG復号画像から注目画素を含む複数の画素をクラスタップとして切り出してクラス分類する際、注目画素を空間クラス及び時間クラスに分類する。この際の処理をブロック単位で行うため、ブロック毎の特徴量を抽出し、空間及び時間クラス分類に使用する。
【0046】
(2)画像信号処理装置(マッピング処理装置)の構成
先ず、空間クラスを分類する際の処理は、図3に示すように、MPEG復号画像のブロックデータから注目画素及び注目画素を含む水平方向及び垂直方向のラインデータを空間クラス分類に使用する空間クラスタップとして出力するラインメモリ15と、統計量算出部13と、メモリ14と、特徴量抽出部20とで行われる。差分値算出手部12は、空間クラスタップのうち所定の位置関係を有する画素間の差分値を算出する。統計量算出部13は、クラスタップの差分値の統計からクラスタップの特徴を抽出する。メモリ14は、クラスタップの特徴量を記憶する。また、特徴量抽出部20は、クラスタップの特徴量から空間クラスを分類する。
【0047】
また、時間クラスを分類する際の処理は、注目画素が属する注目フレームとその前後の複数のフレームを記憶する並列(メモリバンク状)に接続されたフレームメモリ16と、注目フレーム及びその前後の複数のフレームが入力され、注目画素及び注目画素と同一の位置にある画素を時間クラス分類に使用する時間クラスタップとして切り出す領域切出部17と、時間クラスタップにおいて時間方向に隣接する画素間の差分値を算出する画素間差分値算出部18と、時間クラスタップの差分値の統計から時間クラスタップの特徴を抽出する統計量算出部19と、特徴量抽出部20とで行われる。特徴量抽出部20は、時間クラスタップの画素間差分値及び特徴から時間クラスを分類する。
【0048】
また、ブロック単位の特徴を抽出する処理は、画素間差分値算出部12、統計量算出部13及び特徴量メモリ14で行われる。画素間差分値算出部12は、ブロック毎のデータも入力されブロック内の隣接する画素間の画素値の差分値を算出する。統計量算出部13は、画素間差分値の統計からブロック毎の特徴を抽出し、これを特徴量メモリ14に送出する。
【0049】
更に、画像信号処理装置10は、特徴量抽出部20にて分類された空間クラス及び時間クラス等から注目画素のクラスを識別するクラスコードを発生するクラスコード発生部21と、後述する学習回路にて予め学習された複数のクラス毎の予測係数のうち、上記クラスコードに対応する予測係数を読み出すROMテーブル22と、フレームメモリから注目フレーム及びその前後のフレームデータが入力され、注目画素及びこの注目画素が属するブロック内の複数個の空間予測タップ及び時間方向に異なるブロックにおいて注目画素と同一位置にある時間予測タップを切り出す領域切出部23と、予測係数及び予測タップから推定演算して注目画素の画素値を算出する推定演算部24とを有している。
【0050】
(3)学習回路の構成
図4は、画像信号処理装置10で使用される予測係数を学習する学習回路を示す。基本的な構成は、画像信号処理装置10と同様である。教師画像として、原画像データD21が入力され、この原画データD21をMPEG符号化し、更に復号化し、MPEG歪を不可した生徒画像D22を生成する歪付加部31を有している。また、正規化方程式演算部44には、クラスコード、予測タップ及び教師画像である原画像データD21が入力され、予測係数を所定の正規化方程式により演算して決定し、決定された予測係数をクラスコードと共にメモリ42に記憶する。ここで、詳しくは、後述するが、学習時とマッピング時とでは、時間クラスタップの構成が異なり、学習時にはより正確な予測係数を求めるために、使用可能な時間クラスタップをマッピング時よりも制限する。
【0051】
上述した如く、DVDやCS放送、BSハイビジョン放送等で使用されるMPEG2、又はMPEG1による画像圧縮では、圧縮方式の基礎になっているDCD変換と、変換後に得られるDCT係数の量子化が主な発生原因となり、ブロック歪やモスキート・ノイズと呼ばれる特有の歪が発生する。更に、MPEG2の場合には、復号したイントラ・フレームから動き補償を行い、DCT残差を加えてノンイントラ・フレームを作るため、時間的な画質の変動も加わる。
【0052】
本実施の形態の画像信号処理装置においては、ノイズが発生しやすく、且つ目立ちやすい場合、具体的には、DCTブロック内の画像に鋭いエッジが含まれ、その周辺が平坦である場合等に着目してクラス分類を行うことにより、モスキート・ノイズ抑圧することができる。
【0053】
また、ノイズの発生パターンはブロック内のエッジの位置とある程度の相関があるため、エッジの位置にも着目し、画像が本来有するエッジの抽出と、モスキート・ノイズ成分との判別/分離には、上下及び左右の画素間の差分値をブロック内や注目画素周辺について求め、その統計量(最大及び最小値)から求めた閾値と、差分値とを比較することでクラス分類を行う。
【0054】
更に、予測タップの一部が常に注目ブロックの上下左右の隣接ブロックに配置されるタップ構造とし、動きぼけを防止する。
【0055】
更にまた、このようなクラス分類及びタップ構造を使用して、MPEG2符号化/復号した画像を生徒画像、原画像を教師画像として学習を行い、予測係数を生成するものである。
【0056】
以下、本実施の形態における画像信号処理装置10及び学習回路30にて行われる信号処理について詳細に説明する。
【0057】
先ず、DCTブロックの輝度信号の処理について説明する。なお、後述するクロマ信号(色差信号)の処理についても、基本的には輝度信号と同様に行うものとする。
【0058】
先ず、クラス分類適応処理を施す画像信号処理装置10におけるクラス分類方法を説明する。本実施の形態におけるクラス分類方法は、DCTブロック単位毎のブロック特徴量を抽出する第1の工程と、同一フレームデータから空間クラスを分類する第2の工程と、複数のフレームデータから時間クラスを分類する第3の工程とを有している。以下、画像信号処理装置10によりMPEG復号画像を歪除去処理済画像に変換するマッピング時の処理について説明するが、学習回路において予測係数を学習する学習時においても基本的には同様であるため、その詳細な説明は省略する。
【0059】
(4)ブロック特徴量の算出
ブロック特徴量は、図3に示す画像信号処理装置10の画素間差分値算出部12と、統計量算出部13と、ブロック特徴量メモリ14とから抽出される。抽出したブロック特徴量は、後述する空間クラス分類及び時間クラス分類の何れにおいても使用する。画素間差分値算出部12は、16×16画素のマクロブロック単位のMPEG復号画像が入力され、このマクロブロックがフィールドDCT構造であるか、またはフレームDCT構造であるかのブロックタイプを判定すると共に、8×8画素のブロックにおいて、隣接する各画素間の画素値の微分値から画素間絶対差分値を算出する。統計量算出部13は、画素間絶対差分値が入力され、ブロック毎の画素間絶対差分値の統計量をとって、ブロックが平坦であるか否かを示す平坦フラグを算出し、空間クラス分類に使用する。また、統計量から時間クラス分類において使用するブロック単位の閾値(ブロック閾値Bth)を算出する。ブロック特徴量メモリ14は、ブロックタイプ、平坦フラグ及びブロック閾値Bth等のデータを記憶する。以下、このブロック特徴量の抽出について詳細に説明する。
【0060】
(4−1)ブロックタイプの判定
図5は、ブロック単位の閾値Bthを算出する工程を示すフローチャートである。図5に示すように、先ず、ステップS1において、マクロブロック毎の輝度値が読み込まれ、ステップS2において、そのブロック構造がフィールドブロックであるか、又はフレームブロックであるかが判定される。すなわち、本実施の形態におけるDCTブロックは、MPEGのエンコード時に選択されるブロック構造を想定しているため、フィールドDCTブロックとフレームDCTブロックの2通りが存在し得る。ここで、ブロック構造をフィールド又はフレームの何れにするかは、MPEGのビットストリームから情報が得られる場合はそれに従う。また、既に復号された画像のように、ブロック情報が得られない場合には、MPEG1/MPEG2で行われるのと同様の手法を適用する等して、DCTブロックの構造を判定する。後者の場合には、判定結果であるブロックタイプフラグBtype_flagを後述するブロック単位閾値Bth等と共に記憶しておく。
【0061】
(4−2)画素間差分値算出
次に、ステップS3において、8×8画素のDCTブロック毎の画素の輝度値が抽出され、ステップS4において、水平方向及び垂直方向の隣接画素間の差分絶対値が算出される。
【0062】
図6(a)及び(b)は、8×8画素のDCTブロックを示す模式図である。先ず、図6(a)に示すように、ブロックB1において、水平方向の隣接画素間の輝度の差分値(以下、水平差分値という。)を算出する。ブロックB1は、水平方向に8画素配列されているため、水平差分値は、各行毎に7個求まり、ブロックB1全体では、7×8(列)=56個が算出される。また、図6(b)に示すように、ブロック画素11において、垂直方向の隣接画素間の輝度の差分値(以下、垂直差分値という。)を算出する。垂直方向にも8画素配列されているため、垂直差分値は、各列毎に7個求まり、ブロックB1全体では、7×8(行)=56個が算出される。これらの水平差分値及び垂直差分値が統計量算出部13に送られる。
【0063】
(4−3)ブロック画素間差分値統計量の算出
次に、ステップS5において、統計量算出部13により、水平差分値及び垂直差分値から、夫々最大値(MAX)、最小値(MIN)及びダイナミックレンジ(DR=MAX−MIN)を算出する。以下、水平方向のダイナミックレンジ及び最小値を夫々HDR及びHMINとし、垂直方向のダイナミックレンジ及び最小値を夫々VDR及びVMINという。
【0064】
次に、ステップS6では、HDR及びVDRがともに所定値未満であるか否かが判別される。ここで、HDR及びVDRが共に所定の閾値未満である場合は、このブロック内部には、明確なエッジが存在しないものとみなし、ステップ7に進み、このブロックが平坦であることを示す平坦フラグPflagに1をたてる。一方、HDR及びVDRの何れも所定の閾値以上である場合には、ステップS8に進む。
【0065】
ステップS8では、ブロック閾値Bthを算出する。図7は、横軸に水平方向又は垂直方向の差分値をとり、縦軸にその度数を取って、ブロック内の差分値の分布を模式的に示すヒストグラムである。図7に示すように、得られた水平方向(又は垂直方向)の56個の値から、HMIN、HMAX、HDR及びHDR/4+HMIN(又は、VMIN、VMAX、VDR及びVDR/4+VMIN)を夫々求める。そして、水平方向及び垂直方向の夫々(HDR/4+HMIN)及び(VDR/4+VMIN)の値のうち、小さい方の値をとってそのブロックの閾値Bthとする。
【0066】
このブロック閾値Bthは、後述する時間方向クラス分類において、複数のフレームに亘ってブロック閾値を参照し、その中で最大のものを選択して使用するものである。従って、画像データが入力される都度、予め各ブロック毎に閾値Bthを算出し、画像データ及び平坦フラグと共にこの閾値Bthを記録しておく。また、上述したように、DCTブロックの構造がフィールド又はフレームであるか判断した後、このブロック構造に従って画素をサンプリングしてブロック閾値Bthの計算を行う。
【0067】
ここで、ブロック閾値Bth算出の際には、HDR又はVDRを1/4倍してHMIN又はVMINに加えているが、比率は1/4に限定されるものではない。しかし、エッジとモスキート・ノイズとの判別性能に関係するため、それを考慮して適宜決定する必要がある。
【0068】
次に、ステップS9では、ブロック閾値Bth、平坦フラグPflag及びブロックタイプフラグBtype_flagがフラグメモリ(ブロック特徴量メモリ14、図1参照)に記録される。
【0069】
続いて、ステップS10では、ステップS9にてブロック閾値NBth、平坦フラグPflag及びブロックタイプフラグBtype_flagを算出・判定したブロックが最終マクロブロックであるか否かが判別される。このステップS10において、最終マクロブロックでないと判別された場合には、ステップS11に進み、マクロブロック位置を更新してステップS1に戻る。一方、ステップS10において、最終マクロブロックであると判定された場合には、ステップS12に進み、マクロブロック位置をリセットし、次フレームの処理に移る。
【0070】
(5)空間クラス分類処理
空間方向のクラス分類は、図1に示す画像信号処理装置10において、ラインメモリ15と、画素間差分値算出部12と、統計量算出部13と、ブロック特徴量メモリ14と、特徴量抽出部20とで行われる。ラインメモリ15は、入力されるMPEG復号画像から、8×8画素のブロックにおいて、ブロック内をスキャンして注目画素を含む水平方向のラインデータ(水平ラインデータ)と、注目画素を含む垂直方向のラインデータ(垂直ラインデータ)とを記憶する。画素間差分値算出部12は、画素のラインメモリ15から各8画素の水平ラインデータ及び垂直ラインデータが入力され、上述したブロックデータと同様に、隣接する画素間の差分値を算出する。統計量算出部13も、上述と同様に、各ラインデータから算出された7つの画素間差分値から最大値、最小値、及びダイナミックレンジ等を求める。ブロック特徴量メモリ14は、それらの値を記憶する。そして、特徴量抽出部20にて、ブロック特徴量メモリ14から読み出されたデータを元に空間クラス分類を分類する。クラス分類されたクラスタップは、クラスコード発生部21によりクラスコード(クラス番号)が付される。
【0071】
以下、空間クラス分類における各工程について詳細に説明する。図8及び図9は、空間クラス分類及び後述する時間クラス分類からクラスコードを発生し、更に予測演算する一連の工程を示すタイミングチャートである。
【0072】
(5−1)空間クラスタップの抽出
先ず、ステップS21では、ブロック特徴量メモリ14に記憶されている注目ブロックのPflag及びBtype_flagが読み出され、特徴量抽出部20に入力される。次いで、ステップS22においては、注目画素が属する注目ブロック内の画素がスキャンされる。そして、ステップS23において、図10に示すように、注目ブロックB2から注目画素51を含む水平方向及び垂直方向の各8画素が抽出される。更に、ステップS24において、注目ブロックB2に隣接する隣接ブロックにおいて、注目画素と同じ水平位置及び垂直位置の画素であって、注目ブロックに隣接する画素(インタレース方式においては、注目画素と同一のフィールドで、注目ブロックに再近接する画素)をブロック隣接画素として抽出する。即ち、図11に示すように、ブロック隣接画素は、注目画素51と水平位置が同じ左右のブロックの画素で、注目画素が属するブロックB2と接している画素52a,52b及び注目画素51と垂直位置が同じ上下のブロックの画素で、注目画素51が属するブロックB1と接している画素53a,53bを示す。本実施の形態においては、この注目ブロックにおける注目画素を含む水平及び垂直方向の計15画素及びブロック隣接画素から空間クラスを分類する空間クラスタップが構成される。
【0073】
(5−2)クラスタップの統計量の算出
図10に示すように、ステップS25では、ステップS23にて抽出されたDCTブロック内の注目画素51を含むの上下方向(垂直方向)及び左右方向(水平方向)の各8画素の隣接する画素間の差分絶対値を求める。
【0074】
次いで、ステップS26において、上述のブロック閾値Bthの算出と同様に、図7と同様のヒストグラムから隣接する画素間差分絶対値の分布を調べ、水平方向及び垂直方向のダイナミックレンジ及び最小値の夫々hdr,hmin及びvdr,vminを求める。
【0075】
なお、図10及び図11では、注目画素51を注目ブロックB1の上から3行目、左から4列目の画素としているが、他の画素が注目画素の場合においても、注目画素を含む水平方向及び垂直方向の各8画素の画素間差分絶対値を求めるものとする。
【0076】
更に、図10及び図11は、フレームDCTブロックを示すものであるが、フィールドDCTブロックの場合は、垂直方向は1ラインおきにサンプリングして、1ラインおきの画素間の差分絶対値を求める。
【0077】
(5−3)空間クラスタップの特徴量抽出
次に、ステップS27において、画素間差分値(エッジ検出)による空間クラス分類を行う。以下、このエッジ検出による空間クラス分類について詳細に説明する。図12乃至図15は、図8に示すステップ27のエッジ検出による空間クラス分類における工程を詳細に示すフローチャートである。また、図16(a)乃至(e)は、図11に示す注目ブロックの注目画素を含む水平方向の1ライン及び注目ブロックの左右(水平方向)に隣接する隣接ブロックのブロック隣接画素において算出されたエッジの値と、空間クラス分類の関係を示す模式図である。
【0078】
先ず、ステップS51において、上述のステップS26にて算出したhdr,hmin及びvdr,vminから、水平方向の閾値(水平ライン閾値)hth=hdr/4+hmin、垂直方向の閾値(垂直ライン閾値)vth=vdr/4+vminを計算する。
【0079】
なお、上述のブロック閾値Bth、並びに水平ライン閾値hth、及び垂直ライン閾値vth算出の際に、ダイナミックレンジDR(dr)を1/4倍し、これに最小値MIN(min)を加えているが、この比率はエッジとモスキート・ノイズとの判別性能に関係するもので、それを考慮して適宜決定することができる。
【0080】
(5−4)境界フラグの検出
先ずクラス分類に先立って、ステップS52において、ステップS8で求めたブロック閾値Bthと、ステップS51にて求めた水平ライン閾値hth及び垂直ライン閾値vthとを使用し、注目ブロックに隣接するブロック隣接画素との連続性を調べる。隣接画素との連続性は、まず注目画素とブロック隣接画素との差分絶対値を求め、左右のブロック隣接画素は水平ライン閾値hthと比較し、上下の隣接画素は垂直ライン閾値vthと比較する。即ち、図16(a)に示す水平ラインにおいては、注目ブロックB3の左側にて隣接する左隣接画素52aと注目画素51との差分絶対値(175−128=47)、及び注目ブロックB3の右側にて隣接する右隣接画素52bと注目画素51との差分絶対値(146−128=18)を水平ライン閾値hdrと比較して、水平ライン閾値hdrを超えるか否かを検出する。垂直方向においても同様に計算し、垂直ライン閾値vdrを超えるか否かを検出する。そして、これら4つの検出結果を注目ブロックと左右上下に隣接する隣接ブロックとの連続性を示す夫々ブロック境界段差A(A1乃至A4)に格納する。ここで、水平ライン閾値hdr、垂直ライン閾値vdrを超える場合は、注目ブロックと隣接ブロックとの間には連続性がないものとし、対応するブロック境界段差Aに1を格納し、水平ライン閾値hdr、垂直ライン閾値vdrを超えない場合は対応するブロック境界段差Aに0を格納する。
【0081】
次に、ステップS53において、左右及び上下のブロック隣接画素とブロック境界を隔てて接する注目ブロック内の画素との差分絶対値を求め、1/2倍したのち、同様に夫々水平ライン閾値hdr、垂直ライン閾値vdrと比較する。即ち、図16(a)に示す水平方向のラインにおいては、左ブロック隣接画素52aとこれに隣接する内側画素54aとの画素間差分絶対値((181−175)/2=3)と、右ブロック隣接画素52bとこれに隣接する内側画素54bとの画素間絶対差分値((146−138)/2=4)とを求め、これらの値が水平ライン閾値hdrを超えるか否かを検出する。垂直方向においても同様に計算し、垂直ライン閾値vdrを超えるか否かを検出する。そして、これら4つの検出結果を、注目ブロックB3と左右上下に隣接するブロックとの連続性を示すブロック境界段差B(B1乃至B4)に格納する。ここで、水平ライン閾値hdr、垂直ライン閾値vdrを超える場合は、連続性がないものとし、対応するブロック境界段差Bに1を格納し、超えない場合は対応するブロック境界段差Bに0を格納する。
【0082】
次に、ステップS54において、ブロック隣接画素と注目画素との差分絶対値、又は内側画素との差分絶対値の1/2のいずれかが閾値を超えたとき、即ち、ブロック境界段差Aとブロック境界段差Bのうち、いずれか一方でも1である(連続性がない)場合は、注目画素と注目画素が属する注目ブロックに隣接する隣接ブロックとの間には連続性がないものとみなし、境界フラグを1とする。即ち、ブロック境界段差Aとブロック境界段差BとのORをとる。こうして、注目ブロックB3の上下左右の隣接ブロックに対応して設けられた4bitの境界フラグのうち、連続性がない場合はフラグを1とし、どちらも閾値を超えない場合のみ該当する境界フラグを0とする。
【0083】
なお、注目画素がブロック境界に接している場合には、重複して判定を行うことになるため、差分絶対値を1/2倍した値との比較は省略可能である。
【0084】
このブロック境界の連続性判定は、注目画素の歪を処理するにあたって、隣接ブロックの情報を補正項として使用できるか否かを判定し、分類することを目的とする。これにより、ブロック間に閾値を超える差がある場合には、これを画像が本来持っているエッジが関与しているものと判断し、補正項としては隣接ブロックの情報を使用しないように分類することができる。
【0085】
即ち、ブロック境界部において、偶然、画像本来のエッジが重なる場合には、不用意に段差を埋めると画像がぼけて見えてしまうため、このようなケースでは段差を残しておかねばならない。本実施の形態には、境界フラグにより、注目画素周辺の画素間差分から求めた閾値を使用して、ある程度大きな段差がある場合には画像本来のエッジとみなすことにより、画像本来のエッジか又はノイズであるかの判別に使用することができる。
【0086】
ここで、ブロック境界をまたいで接する画素間の差分を1/2倍する理由は、この位置にはブロック歪成分が重畳しやすく、補正すべきブロック歪を画像本来のエッジと混同してしまう恐れがあるためである。この倍率は、ブロック歪の検出性能を考慮して適宜決定することができる。こうして、隣接ブロックを補正項として使用するか否かが判定された後、隣接画素の状況に続いて、ブロック内部の画像エッジに基づいてクラス分類を行う。
【0087】
(5−5)平坦ブロッククラス
先ず、ステップS55において、注目画素が属する注目ブロックについて、ブロック単位の閾値Bthと共に求めた平坦フラグPflagを参照し、平坦フラグPflagが1である(平坦なブロックである)場合は、ステップS56に進み、この注目ブロックは、平坦ブロッククラスとしてクラス分類する。更に、ステップS57に進み、番号448乃至463が付され、ステップS54で求めた境界フラグの4bitの情報に基づいてクラス番号448乃至463に分類される。
【0088】
(5−6)水平方向の空間クラス分類:左右平坦クラス、左右エッジ上クラス、左右細線上クラス、左右複雑クラス、左右単純エッジクラス
平坦フラグPflagが1ではないブロック、即ち、平坦ではないブロックについては、エッジの位置から、水平方向及び垂直方向において、大きく分けて、平坦クラス、エッジ上クラス、細線上クラス、複雑クラス及び単純エッジクラスの5つのクラスに分類される。なお、図16(b)乃至(e)は、図10に示す注目ブロック内において、注目画素を含む水平方向の8画素を抜き出して示すのである。以下、これを使用して数値例を交えて説明する。垂直方向もこれと同様にして分類を行う。
【0089】
先ず、水平方向における平坦クラス、エッジ上クラス、細線上クラス、複雑クラス及び単純エッジクラスのクラス分類を行う。ステップS58において、注目ブロック内で、ステップS26で求めた注目画素を含む水平方向にて隣接する画素間の差分絶対値のダイナミックレンジhdrが所定の閾値未満の場合は、ステップS59に進み、左右平坦クラスに分類する。即ち、平坦ではないブロックでも、注目画素の周囲は局所的に平坦である場合である。次に、8画素の差分絶対値のhdrが所定の閾値以上の場合は、ステップS60に進み、画素間差分値とhthとを比較してエッジを検出する。このエッジの検出結果を使用して、更に細かくクラス分類する。
【0090】
先ず、ステップS60におけるエッジ検出について説明する。図16(a)に示すように、8個の画素の画素間にエッジ位置番号1〜7を定義する。本実施の形態においては、水平方向の左から右へ番号を付すものとする。次いで、隣り合う画素間の差分値を求め、エッジ位置番号1〜7に割り当てる。この段階では差分値は、絶対値を取らず正負の符号は残す。差分は2つの隣接画素において、左側から右側の値を引いた差分値とする。ここで、上述の水平ライン閾値hthは差分絶対値の分布から求めるため、図16(a)の場合では、水平ライン最大値hmax=51、水平ライン最小値hmin=2であり、水平ライン閾値hth=14となる。
【0091】
次いで、各差分値の絶対値を水平ライン閾値hthと比較し、このhthを超える場合には該当するエッジ位置にエッジフラグを立てる。このフラグには、エッジの傾きの方向を示すため、差分値の符号を付加する。従って、このフラグは−1、0、1の3値を有する。なお、上述したように、隣接ブロック画素52a又は52bとの差分値は、1/2倍してから水平ライン閾値hdrと比較する。
【0092】
このエッジフラグを利用して、注目画素の周辺のエッジ有無及びその配置に基づいてクラス分類する。
【0093】
ステップS61において、注目画素と、その両側の画素との間のエッジフラグを調べる。ここで、注目画素の両側のいずれにもエッジがある場合、ステップS62に進み、両側のエッジフラグの符号が一致しているか否かを検出する。そして、図16(b)に示すように、注目画素52の両側のエッジフラグが同一符号である場合は、水平エッジ上クラスと分類され、ステップS63に進み、エッジ上フラグをたてる。一方、図16(c)に示すように、注目画素52の両側の両側のエッジフラグが同一符号でない場合は、水平細線上クラス(縦細線上クラス)と分類され、ステップS64に進み、細線上フラグをたてる。エッジ上フラグ又は細線上フラグをたてた後、ステップS65に進み、注目画素の両側を除き、左右のブロック境界までのエッジの有無を検出し、ステップS66に進む。ステップS66では、ステップS65の検出結果から、エッジがある側の境界フラグを1とする。図16(b)及び(c)の例においては、右側のみエッジがあるので、右境界フラグが1となり、左境界フラグはステップS54のままとなる。また、両側にエッジがあるときは、左右の境界フラグが1となり、いずれの側にもエッジがないときは左右の境界フラグはステップS54のままとなる。
【0094】
即ち、注目画素の両側を除く左右のブロック境界までの間にエッジフラグがある場合は、注目画素からエッジフラグがある隣接ブロックに達するまでの間に、画像のエッジが横切っており、隣接ブロックにおけるブロック隣接画素が補正項として使えないことを示すので、ステップS54で求めた結果とORをとる。即ち、左右のブロック境界フラグに1を立てる。
【0095】
また、ステップS61において、注目画素の両側のいずれか一方又はいずれにもエッジがない場合は、ステップS67に進む。そして、注目画素から左右のブロック境界までのエッジの有無を検出し、ステップS68に進む。そして、図16(d)に示すように、左右いずれの方向においてもエッジがある場合は、左右複雑クラスに分類され、ステップS69に進み、左右の境界フラグに、ステップS54で求めた結果とORをとって1を立てる。一方、図16(e)に示すように、注目画素の左右いずれか一方にエッジがある場合は、左右単純エッジクラスと分類され、ステップ68からステップ69に進み、エッジが検出された方向のエッジ境界フラグに、ステップS54で求めた結果とORをとって1を立てると共に、そのエッジ位置を記録する。エッジを複数有する場合は、注目画素に最も近い位置とし、例えば、図16(e)に示す例においては、エッジ位置番号は5である。こうして、左右単純エッジクラスは、そのエッジ位置番号から、更に7つのクラスに分類される。
【0096】
(5−7)垂直方向の空間クラス分類:上下平坦クラス、上下エッジ上クラス、上下細線上クラス、上下複雑クラス、上下単純エッジクラス
注目ブロックにおける注目画素を含む垂直方向の8画素についても同様に、垂直方向における平坦クラス、エッジ上クラス、細線上クラス、複雑クラス及び単純エッジクラスのクラス分類を行う。即ち、ステップS71において、注目ブロック内で、ステップS26で求めた注目画素を含む水平方向に隣接する画素間の差分絶対値のダイナミックレンジvdrが所定の閾値未満の場合は、上下平坦クラスに分類されステップS72に進む。即ち、平坦ではないブロックでも、注目画素の周囲は局所的に平坦である場合である。次に、8画素の差分絶対値のvdrが所定の閾値以上の場合は、ステップS73に進み、画素間差分値とhthとを比較し、エッジを検出する。そして、ステップS74において、注目画素のすぐ上下にエッジがあるか否かを検出し、何れもエッジがある場合はステップS75に進み、エッジの符号が同一である場合は、垂直エッジ上クラスと分類され、ステップS76に進む。一方、エッジの符号が異なるときは、垂直細線上クラス(横細線上クラス)と分類され、ステップS77に進む。垂直エッジ上クラス又は垂直細線上クラスに分類された後、ステップS77では、注目画素の上下を除き、注目ブロックに隣接する上下のブロック境界までのエッジの有無を調べ、S79にてエッジがある側、即ち、上側、下側又は上下両方に対応する境界フラグに1をたてる。
【0097】
一方、ステップS74にて、注目画素のすぐ上下の両方、又は何れか1方にエッジがなかった場合は、ステップS80に進み、注目画素から注目ブロックに上下に隣接する隣接ブロックの境界までのエッジの有無を調べる。そして、ステップS80の検出結果から、ステップ81にて、上下両方向にエッジがある場合は上下複雑クラスと分類され、ステップS82に進み、上下の境界フラグを1とする。一方、上下のいずれか一方にのみエッジがある場合は、上下単純エッジクラスに分類され、ステップS83に進み、エッジがある側の境界フラグを1にすると共に、そのエッジ位置番号を記憶する。これにより、上下単純エッジクラスは、エッジの位置により、更に7つに分類される。
【0098】
以上、ブロック内部のエッジ分類としては、水平及び垂直方向、それぞれに1:平坦クラス、2:エッジ上クラス、3:細線上クラス、4:複雑クラス、5:単純エッジクラス(1〜7)の5種類、11クラスに分類される。下記表1及び表2に、以上の空間クラス分類を示す。
【0099】
【表1】
【0100】
【表2】
【0101】
(5−8)空間クラス番号の発生
次に、ステップS51乃至83で分類した水平方向及び垂直方向の各5種類11クラスに、先に求めた境界フラグ、及び平坦ブロッククラスの情報を加え、最終的なフレーム内クラス番号(空間クラス)を決定する。
【0102】
基本的に水平方向及び垂直方向のクラスの組合せと、境界フラグの状況とで分類し、更に、単純エッジクラスが関係する時はエッジの位置で分類する。即ち、水平方向及び垂直方向の各5種類11クラスに分類された後、図14に示すように、ステップS84において、上下左右、共に平坦クラスであるか否かが判定され、共に平坦クラスである場合は、ステップS85に進む。この上下左右平坦クラスは、境界フラグの4ビットの情報が付加されて、ステップS57の上下平坦ブロッククラスと同様に、境界フラグの4ビットの情報に基づいてクラス番号448乃至463に分類される。なお、この上下左右平坦クラスと、平坦ブロッククラスを別々のクラスとして分類しいてもよい。
【0103】
一方、上下左右の何れか一方又は共に平坦クラスではない場合は、ステップS86に進み、上下、左右共に複雑クラスであるか否かが判定される。ここで、上下、左右共に複雑クラスである場合は、複雑ブロックに分類され、ステップS87に進み、境界フラグの4ビットのデータに基づいてクラス番号0乃至15に分類される。
【0104】
また、ステップS86でNOである場合、即ち、上下、左右の何れか一方又は両方が複雑クラスではない場合は、ステップS88に進み、上下平坦クラスであり、且つ左右が単純エッジクラスである場合は、ステップS89に進み、境界フラグ及び左右単純エッジクラスのエッジ位置番号に基づいてクラス番号16乃至71に分類される。
【0105】
ステップS88でNOである場合、ステップS90に進み、上下複雑クラスであり、かつ左右単純エッジクラスである場合は、ステップS91に進み、境界フラグ及び左右単純エッジクラスのエッジ位置番号に基づいてクラス番号72乃至85に分類される。
【0106】
ステップS90でNOである場合、ステップS92に進み、上下単純エッジクラスであり、且つ左右複雑クラスである場合は、ステップS93に進み、境界フラグ及び上下単純エッジクラスのエッジ位置番号に基づいてクラス番号86乃至141に分類される。
【0107】
ステップS92でNOの場合、ステップS94に進み、上下単純エッジクラスであり、且つ左右複雑クラスである場合は、ステップS95に進み、境界フラグ及び上下単純エッジクラスのエッジ位置番号に基づいてクラス番号142乃至155に分類される。
【0108】
ステップS94でNOの場合、ステップS96に進み、上下、左右共に単純エッジクラスである場合は、ステップS97に進み、境界フラグ、並びに上下及び左右単純エッジクラスのエッジ位置番号に基づいてクラス番号156乃至351に分類される。
【0109】
ステップS96でNOの場合、ステップS98に進み、水平エッジ上クラスである場合は、ステップS99に進み、境界フラグに基づいてクラス番号352乃至367に分類される。
【0110】
ステップS98でNOの場合、ステップS100に進み、垂直エッジ上クラスである場合は、ステップS101に進み、境界フラグに基づいてクラス番号368乃至383に分類される。
【0111】
ステップS100でNOの場合、ステップS102に進み、右上りエッジ上クラスである場合は、ステップS103に進み、境界フラグに基づいてクラス番号384乃至399に分類される。右上りエッジ上クラスとは、注目画素が共に同じ値を有する細線上クラスの場合であり、例えば図16(c)に示す左右細線上クラスであれば、この注目画素の上下のエッジフラグが、(1、−1)となる場合である。
【0112】
ステップS102でNOの場合、ステップS104に進み、左上がりエッジ上クラスである場合は、ステップS105に進み、境界フラグに基づいてクラス番号400乃至415に分類される。左上りエッジ上クラスとは、注目画素が互いに異なる値を有する細線上クラスの場合であり、例えば図16(c)に示す左右細線上クラスであれば、この注目画素の上下のエッジフラグが、(−1、1)となる場合である。
【0113】
ステップS104でNOの場合、ステップS106に進み、水平方向のみが細線上クラス(縦細線上クラス)である場合は、ステップS107に進み、境界フラグに基づいてクラス番号416乃至431に分類される。
【0114】
ステップS106でNOの場合、ステップS108に進み、垂直方向のみが細線上クラス(横細線上クラス)である場合は、ステップS109に進み、境界フラグに基づいてクラス番号432乃至447に分類される。
【0115】
ステップS108でNOの場合、ステップS110に進み、これらは、孤立点(複雑クラス)と分類され、ステップS86と同様に、境界フラグの4ビットのデータに基づいてクラス番号0乃至15に分類される。
【0116】
(6)時間クラス分類処理
(6−1)時間クラスタップの構成
次に、画素値の時間変動による輝度差を利用して時間方向のクラス分類を行う。この時間クラスは、時間クラスタップの画素間の差分値に基づき時間クラス分類を行うが、後述する予測タップにおいても、空間タップ及び時間タップから構成され、予測タップの時間タップは、時間クラスタップと同様の理由により同様のタップ構造を有する。即ち、主として静止画(及び動画の静止部)の画素値が時間的に変動する問題への対策として、注目画素が属するフレームの前後、多数のフレームに渡って注目画素と同じ位置に時間クラスタップ(予測タップ)を1点ずつ張り、時間クラス分類を行って予測係数の学習とマッピングを行う。これによって、時間方向の画素値が平均されることで、時間変動を目立たなくする。
【0117】
使用するフレーム数は多いほど良いが、リアルタイム再生の場合などにディレイの原因となるので、それを勘案して決定する。本実施の形態においては、注目フレームとその前後3フレームずつ、合計7フレームとして説明する。
【0118】
即ち、図3に示す画像信号処理装置10におけるフレームメモリ16と、領域切出部17と、画素間差分値算出部18と、統計量算出部19と、特徴量抽出部20とクラスコード発生部21とにより空間クラス分類が行われる。フレームメモリ16は、注目画素が属する注目フレームを中心に時間的に前後3フレームを記憶する。領域切出部17は、フレームメモリから7つのフレームデータが入力され、注目フレームも注目画素と同一の位置の各フレームにおける画素を空間クラスタップとして設定する。統計量算出部19は、7つの空間クラスタップにおいて、時間的に隣り合う画素間の絶対差分値を算出する。特徴量抽出部20は、7つのフレームにおいて、空間クラスタップが属するブロックにおける各ブロック閾値Bthを読み出し、その中で最大のブロック閾値Bthと画素間差分値とを比較し、使用可能タップを選択し、使用可能タップ数に基づき空間クラスを分類する。そして、クラスコード発生部20において、クラスコード(空間クラス番号)が付される。なお、クラスコード発生部20は、この時間クラスと、後述する画素位置モード、及び先に求めた空間クラスから最終的なクラスコードを発生する。以下、空間クラス分類の各工程について詳細に説明する。
【0119】
(6−2)使用可能時間クラスタップの判定
次に、使用可能な時間クラスタップの判定を行う。なお、上述したように、後述する予測タップの時間タップについても同様に使用可能か否かの判定を行うことができる。画素値の時間平均をとるとき、即ち、正確には予測係数と画素との積和演算の際、7フレームの範囲に動物体が割り込んでくるフレームがある場合には、そのフレーム(以降)の画素値は使用するべきではない。従って、時間方向で使える範囲をまず判定しておく。
【0120】
そこで、先ず、図8に示すステップS28において、使用可能フレームを判定するため、上述した如くステップS8において、空間内の画素間微分値から求めたブロック閾値Bthを使用し、注目画素を含む注目ブロックを中心フレームとして時間方向7フレームの中で最大のブロック閾値Bthを選択し、この最大ブロック閾値Bthと時間方向の画素間差分絶対値(画素のフレーム間差分絶対値)とを比較し、フレーム間差分絶対値が最大ブロック閾値Bthを超えるフレームの手前までを使用可能と判定する。以下、ステップS28について更に詳細に説明する。
【0121】
先ず、注目画素を含む注目ブロックを中心として時間方向7フレームのブロック閾値Bthのうち、最大のブロック閾値Bthを選択する。ここで、最大ブロック閾値Bthを選択する理由について説明する。
【0122】
ブロック閾値Bthは、DCTブロック単位にフレーム内で求めているので、図17に示すように、そのブロックに対するブロック閾値Bthそのものも時間的に変動する。図17は、t=5〜7及びt=13で静止部のブロック内に動物体の一部(着色部)が侵入し、その画像エッジの影響でBthの値が他より大きくなっている様子を示す。ここで、ブロック閾値Bthの大きさは、th6>th13>th7>th5>その他、の関係があるものとする。
【0123】
このような場合には、例えば注目フレームがt=4であるとき、このときのBthとしてBth=th4を使用すると、t=5,6のフレームが使用可能範囲から排除されてしまう。
【0124】
実際に、図17のブロックの右側の画素BRのように、注目画素位置にt=5〜7で動物体が割り込んでくるのであれば、t=5〜7のフレームが排除されるのが正しいが、図17のブロックの左側の画素BLのように、注目画素位置にそのようなことが起きない場合でも、動物体のエッジが起こすモスキート・ノイズにより、静止部でもブロック閾値Bth=th4を超える時間変動が起き、t=5〜7のフレームが排除されてしまう可能性がある。
【0125】
これは静止部の時間変動を押さえる目的からは望ましくない。なぜならば、例えばブロック閾値Bthが大きいt=6のフレームではt=4も参照するのに、その逆はなくなってしまうので、t=4〜7にかけての変動を滑らかに押さえることができなくなるからである。
【0126】
そこで、ブロック閾値Bthの値は、時間タップを張るフレーム範囲(使用される可能性があるフレーム)の全てのブロック閾値Bthから最大のものを選択するようにする。即ち、合計7フレームを参照し、t=4であれば、最大のブロック閾値Bth=th6が選択される。これによって、先に述べたフレーム毎の不整合が解消される。
【0127】
なお、図17はどのフレームもフレームDCTブロックとして示しているが、実際にはフレーム及びフィールドDCTブロックが混在する。このため、各フレームでのブロック構造に合わせて、注目画素が属するブロックのブロック閾値Bthを調べる必要がある。
【0128】
次に、最大ブロック閾値Bthと画素のフレーム間差分絶対値とを比較し、差分絶対値が閾値Bthを超えたフレームから先は、使用不可のタップとする。時間方向のクラス分類は、基本的にはフレーム間差分の閾値処理で分類するが、時間クラス分類は、マッピング時と学習時とで分類方法が異なる。
【0129】
(6−3)時間クラスの分類
画素値の時間変動は、発生原因としてMPEGの動き補償(静止部でもあり得る)や、DCT量子化残差の加算のほか、DCTブロックの一部に動物体が入ったことによるDCT係数の加算、GOP(Group of Picture)の切れ目でイントラピクチャ符号化が行われる際の量子化スケールの変化等がある。
【0130】
このような時間変動は、画像が静止している領域で特に見えやすいため、前後の多数フレームに亘って空間的な位置を固定した予測タップを配置することにより、変動を抑圧することができる。ここで、上述した注目ブロック内の画素間差分値から求めたブロック閾値Bthと、時間タップとの間の差分値とを比較して、変動抑圧に使用できるタップの範囲と時間クラスとを決定することにより、動画像本来の時間変化を抑圧してしまい不自然な動きぼけとして見えてしまうことを防止する。
【0131】
図18は、横方向に時間をとって、注目画素とこの注目画素とブロック内で同位置における未来及び過去方向の各3タップ、合計7タップを示し、縦方向に空間タップを示す模式図である。先ず、ステップ29において、注目画素51とブロック内で同位置における未来及び過去方向の各3タップを読み込む。以下、注目画素より時間的に過去となる側を過去方向、注目画素より時間的に未来となる側を未来方向という。
【0132】
次に、ステップS30において、読み込んだ時間方向の7タップにおいて、時間方向に隣接する画素の差分絶対値(フレーム間差分絶対値)を計算する。
【0133】
そして、ステップS31において、求めたフレーム間差分絶対値と、上述した最大ブロック閾値Bthとを比較し、最大ブロック閾値Bthを超えたフレームから先のタップは使用不可タップとすると共に、使用不可タップに基づき、時間方向のクラス分類を行う。
【0134】
以下、ステップS31における工程について、詳細に説明する。図19(a)〜(d)及び図20(a)〜(d)は、夫々学習時及びマッピング時のクラス分類を示す模式図である。図中、使用可能タップを○で示し、使用不可と判定された使用不可タップを●で示し、注目画素をハッチングして示す。また、下記表3及び表4に、時間クラス分類におけるクラス番号及びフラグの意味を示す
【0135】
(6−3−1)学習時における時間クラス分類
先ず、学習時のクラス分類について説明する。図19(a)に示すように、過去及び未来方向全てに、使用不可タップが存在しない場合は、表3に示す時間クラス番号0(クラス00:第1の時間クラス)と分類され、全ての時間タップが予測タップとして使用可能のクラスとし、学習を行う。
【0136】
また、図19(b)に示すように、未来方向のみに使用不可タップ61があるときは、表3に示す時間クラス番号2(クラス10:第2の時間クラス)と分類され、過去方向の時間タップのみを使用し、未来方向の時間タップは使用しない。また、未来方向の時間タップのみが使用可能な場合は、表3に示す時間クラス番号1(クラス01:第3の時間クラス)と分類される。
【0137】
ここで、学習時においては、過去又は未来方向に1つでも使用不可タップがある場合は、過去又は未来方向の全ての時間タップは使用できないものとする。従って、図19(c)に示す場合は、過去方向の3タップ全て、未来方向の1タップが使用不可タップ61であり、図19(d)に示す場合は、過去及び未来方向の全ての時間タップが使用不可タップ61であるため、共に表3に示す時間クラス番号3(クラス11:第4の時間クラス)と分類され、学習時には全ての時間タップは使用不可クラスと判定される。こうして学習時の時間クラスは、表3に示す時間クラス番号0〜3の4クラスに分類される。
【0138】
このように、学習時には、時間タップが使用可能となるクラス00,10,01は、その方向の全ての時間タップが使える場合のみになる。これにより、学習時においては、使用可能のクラスでは全時間タップが注目画素と相関が高い状態にしておき、時間平均に近い予測タップを得ることができる。
【0139】
こうして求めた時間クラス0〜3は、この値を、空間クラス数倍である464倍して空間クラスの番号を加算し、最終的なクラス番号0〜1855を確定する。即ち、クラス番号=時間クラス×464+空間クラス、となる。
【0140】
(6−3−2)マッピング時における時間クラス分類
次に、マッピング時の時間クラス分類について説明する。図20(a)に示すように、使用不可タップがない場合は、学習時と同様に、表3に示す時間クラス番号0(クラス00:第1の時間クラス)と分類されるものの、図20(b)に示すように、例えば未来方向に使用不可タップ61が1つのみ存在したとしても、マッピング時には、学習時とは異なり、表3に示す時間クラス番号0(クラス00:第1の時間クラス)と分類され、両方向の時間タップが使用可能なクラスに分類される。即ち、マッピング時には、1つでも使用可能のタップがある場合は、その方向の時間タップは使用するものとする。従って、図20(c)に示すように、過去方向の3タップが全て使用不可タップ61であり、未来方向の1タップが使用不可タップ61である場合は、表3に示す時間クラス番号1(クラス01:第2の時間クラス)と分類され、未来方向の時間タップは使用する。同様に、過去方向にのみ、使用可能タップがある場合は、表3に示す時間クラス番号2(クラス10:第3の時間クラス)と分類される。そして、図20(d)に示すように、未来及び過去方向全ての時間タップが使用不可タップ61である場合のみ、表3に示す時間クラス番号3(クラス11:第4の時間クラス)と分類され、全ての時間タップが使用できないクラスに分類される。このように、マッピング時には、一部のタップが使える場合にはその方向の時間タップが使用可能であるクラスに分類することにより、時間平均の効果を上げることができる。即ち、マッピング時には、時間平均の効果を上げるために、少しでも多くのフレームを使用し、且つ使用するフレーム数をなるべく時間的に滑らかに変化させることができる。
【0141】
こうして、マッピング時の時間クラスにおいても、クラス00〜11(空間クラス番号0〜3)の4クラスに分類される。このマッピング時においても、学習時と同様に、4つの時間クラスを464倍して空間クラス番号を足し、最終的なクラス番号とする点は同様である。
【0142】
【表3】
【0143】
【表4】
【0144】
但し、この分類を行うと、学習時には使用不可と判定された使用不可タップが、マッピング時には使用可能と判定される場合があり、このため、この使用不可タップにもマッピング時に予測係数が適用され、使用不可タップが時間平均に含まれることになってしまう。即ち、マッピング時には、例えば、図20(b)に示す未来方向3タップのうち、使用不可タップは1つのみで、後の2つは使用可能である場合、クラス番号0に分類されるため、使用不可タップ61がマッピングにおける時間平均に含まれてしまう。これを防ぐため、マッピング時には予測係数を一部加工し、後述するゲイン調整を行ってから積和演算を行うものとする。
【0145】
(6−3−3)時間クラス分類の例外処理
また、時間クラス分類の例外処理として、過去又は未来方向に画素値が単調に増加又は減少している場合は、その方向は全て使用不可タップとする。これは画面のフェードイン・アウト、又はゆるやかなグラデーションを有する物体の移動等に対応するためである。この例外処理は、学習時もマッピング時も同様に行う。
【0146】
(7)ブロック内画素位置モード
次に、ステップS32において、ブロック内の画素位置に基づき画素位置モードを判定する。歪除去にあたって、空間方向のクラス分類と共に、注目画素がDCTブロックのどの位置に存在しているかについては重要な情報である。
【0147】
そこで、学習及びマッピングには、上述した空間方向クラス分類及び時間方向クラス分類と共に、DCTブロック内における画素位置モードを分類する。
【0148】
従って、実質的なクラス数は時空間464×4=1856クラス数の画素位置モード数倍になる。ただし、例えばエッジ上クラス等、ブロック端の画素位置モードでは実際には分類されないクラスも存在する。
【0149】
DCTブロックは8×8=64画素で構成されるため、画素位置モードは64通りとなる。しかしDCTの原理からして、符号化に使用するコサインカーブの基底波形は、ブロックの中心を通る水平線及び垂直線に対して線対称であり、モスキート・ノイズの発生パターンにも対称性がある。そこで、ブロック全体を4×4=16画素の小ブロックに4分割し、画素位置モードを16に縮退させることが可能である。
【0150】
図21(a)乃至(d)は、DCTブロックを4分割して小ブロックとして画素位置モードの分類を示す模式図であって、夫々、小ブロックがブロック左上、右上、左下及び右下に位置する場合を示す。図21に示すように、画素位置モードの番号は小ブロック単位で割り振られ、その順番は小ブロックのブロック内位置によって対称になる。また、クラス分類の際に上下左右の方向に関係する境界フラグ、及びエッジ位置番号も小ブロックの位置に応じて適宜反転させる必要がある。
【0151】
図21(a)に示す小ブロックが左上に位置する場合を基準にして、図21(b)に示すように、小ブロックが右上に位置する場合は、図21(a)に示す場合とブロックの中心を通る垂直線に対して線対称となり、左右の境界フラグを入れ替える。また、図21(c)に示すように、小ブロックが左下に位置する場合は、図21(a)に示す場合と、ブロックの中心を通る水平線に対して線対称となり、上下の境界フラグを入れ替える。更に、図21(d)に示すように、小ブロックが右下に位置する場合は、図18(a)に示す場合と、ブロックの中心に対して点対称となり、上下及び左右の境界フラグを入れ替える。
【0152】
ここで、空間クラスの入れ替えと同様にして、4通りある時間クラスの分類も、過去・未来の一方のみ使えるクラス番号1及びクラス番号2において、時間軸を反転することで時間クラスを1つに縮退させて、計3クラスとすることができる。
【0153】
(8)予測タップ構造
予測タップは、上述した時間クラスタップ及び空間クラスタップからなるクラスタップと同一の構成とすることができるが、本実施の形態における予測タップは、注目画素が属する注目フレーム内の空間タップと、注目フレームとは時間的に前後する各3つのフレームにおける注目画素と同一画素位置の時間タップとから構成されるものとする。なお、上述したように、予測タップの時間タップは、時間クラス分類における時間クラスタップと同様の構成を有する。また、予測タップの構造は、マッピング時及び学習時において同様とすることができる。
【0154】
図3に示す画像信号処理装置10においては、フレームメモリ16から入力される注目フレームを含む7フレームのデータから、領域切出部23にて予測タップを切り出す。以下、予測タップを抽出する各工程について詳細に説明する。
【0155】
先ず、画素位置モードを判定した後、ステップS33に進み、予測タップを読み込む。予測タップは、注目画素周辺のタップと、注目画素が属する注目ブロックに隣接する隣接ブロックのタップと、時間方向のタップとから構成される。
【0156】
図22は、予測タップの一例を示す模式図である。図22に示すように、本実施の形態においては、予測タップは、空間タップと時間タップとからなり、空間タップは、注目画素71の周辺タップ72、即ち、注目画素に隣接する上下左右のタップと、注目画素が属する注目ブロックB4に隣接する隣接ブロックにおける注目画素と水平又は垂直方向が同一位置の隣接画素である隣接ブロックタップ73の4タップとの計13タップからなり、時間タップ75は、時間方向が前後各3フレームにおける注目画素と同一位置における計6タップからなり、これより、予測タップは、合計19タップから構成される。
【0157】
ここで、注目画素と同一フレームにある周辺タップ及び隣接ブロックタップ(以下、空間タップともいう。)に関しては、注目画素が属するDCTブロックの構造がフレームDCTであるかフィールドDCTであるかによって、タップの位置関係が異なる。
【0158】
図23(a)乃至(c)は、フレームDCTブロックにおける空間タップを示す模式図であり、図24(a)及び(b)は、フィールドDCTブロックにおける空間タップを示す模式図である。
【0159】
フレームDCTブロックの場合には、図23(a)に示すように、周辺タップは、注目画素の上下左右共に隣接して配置され、隣接ブロックの隣接ブロックタップも注目画素が属する注目ブロックに接している。フレームDCTの場合は、上下の隣接ブロックは同一マクロブロックに属する。
【0160】
一方、フィールドDCTブロックの場合には、図24(a)に示すように、周辺タップのうち、垂直方向の上下のタップは、注目画素とは1ラインおきに配置される。即ち、注目画素が、図24(a)に示すように、フレームの奇数番目の走査線に相当するトップフィールドにある場合は、垂直方向の上下のタップとして、注目画素と同じフィールド上(トップフィールドF1上)で注目画素に再近接する画素が選択される。また、フィールドDCTブロックの上下のブロック境界L1,L2は、マクロブロック境界を示す。即ち、フィールドDCTの場合は、上下の隣接ブロックは異なるマクロブロックに属する。左右のブロック境界は、いずれか一方がマクロブロック境界である。従って、注目画素と垂直方向が同一の位置である隣接ブロックのブロック隣接画素である隣接ブロックタップとしては、隣接マクロブロック上で、注目画素と同一フィールドであり、注目ブロックに再近接した画素が選択される。即ち、図24(a)においては、上側の隣接ブロックタップが、注目ブロックから1ライン離れたところに張られる。左右の隣接ブロックタップは、フレームDCTの場合と同様であり、隣接するブロックにおいて、注目ブロックに隣接する画素が隣接ブロックタップとなる。
【0161】
ここで、予測タップ数は任意の数とすることができるが、フレーム及びフィールドDCTの何れの場合にも、注目画素の上下左右のタップのうち、注目ブロックの水平位置、又は垂直位置が一致する最低1つのタップを隣接ブロックに配置し、隣接ブロックタップとする。
【0162】
ブロック歪は隣接するブロック間での不連続な段差として見えるケースが多いので、DCTブロック内部のみで閉じた処理では不可能であるが、このように、予測タップの一部が常に注目ブロックの上下左右の隣接ブロックに配置されるタップ構造とすることにより、隣接するブロックの情報を取り込んで段差を埋めて、ブロック歪を抑圧することができる。
【0163】
また、注目画素が注目ブロックの端に位置する場合には、図23(b)及び(c)に示すように、注目画素の周囲のタップが隣接ブロックにはみだして、隣接ブロックタップが数の上で増加する形になる。図23(c)に示すように、注目画素が、注目ブロックの最外周、左下に位置する場合、注目画素と水平方向又は垂直方向の位置が同一で注目ブロックに隣接する隣接ブロックタップ4つに加え、注目画素の左側及び下側に位置する周囲6タップが隣接ブロックに配置されることになる。
【0164】
インタレースの場合も同様で、例えば、図24(b)に示すように、フレームの偶数番目に相当するボトムフィールドF2の上から1ライン目に注目画素が位置する場合、注目画素の上方向の周辺タップは、隣接マクロブロックから選択される。そして、この周辺タップの更に上のライン上で注目画素と垂直方向が同一の位置の画素が隣接ブロックタップとして選択される。
【0165】
なお、図22では、空間タップと共に、時間タップも全てフレームDCTブロックとして示してあるが、実際には2種のブロック構造が混在しうる。時間タップは画面上の空間的な位置が注目画素と同一であることが重要であるので、各フレームにおけるブロック構造の差はタップ配置の点では無関係とすることができる。ここで、例えば、注目画素がフレームDCTブロック内にある場合で、時間タップをフィールドDCTブロックから切り出す場合は、注目画素の走査線位置が、フレームの奇数番目にある場合は、トップフィールドのフィールドDCTブロックを、また、フレームの偶数番目にある場合は、ボトムフィールドのDCTブロックを使用するものとする。なお、先に述べた最大ブロック閾値Bthを求める際にはブロック構造を考慮する必要がある。
【0166】
予測タップを読み込んだ後、ステップS34に進む。ステップS34では、ステップS32において判定された画素位置モードがブロックの上半分にあるか否かが検出され、画素位置モードが上半分にない場合は、ステップS35に進み、垂直エッジ位置番号及び予測タップが上下反転される。即ち、図21(a)に示すように、ブロックの上から順に垂直エッジ位置番号が付されていたのに対し、図21(c)及び(d)に示すように、ブロックの下から順に垂直エッジ位置番号が付される。
【0167】
また、ステップS34でYes、即ち、画素位置が上半分であると判定された後及びステップS35でエッジ位置番号及び予測タップ位置が反転された後は、ステップS36に進み、画素位置はブロックの左半分であるか否かが判定される。ここで、左半分ではないと判定された場合は、ステップS37に進み、水平エッジ位置番号及び予測タップが左右反転される。即ち、図21(a)に示すように、ブロックの左から順に水平エッジ番号が付されていたのに対し、図21(b)及び(d)に示すように、ブロックの右から順次エッジ番号が付される。
【0168】
こうして、予測タップのデータに関しても、図21(e)に示すように、ブロック内の小ブロックの位置に応じて空間タップの位置を水平及び垂直方向並べかえる。即ち、注目画素を中心にして、線対称又は点対称に再配列する。
【0169】
更に、ステップS36でYes、即ち、画素位置が左半分と判定された場合と、ステップS37とからステップS38に進み、ステップS27で分類した空間クラス、ステップS31で分類した時間クラス及びステップS32で判定した画素位置モードから、注目画素のクラスを確定する。そして、確定したクラスのクラス番号(クラスコード)をROMテーブル22に出力する。ROMテーブル22では、このクラスコードに対応する予測係数が読み出される。
【0170】
(9)マッピング時の時間クラス分類におけるゲイン調整
次に、ステップS39に進み、時間タップの使用可能タップ数に応じて予測係数のゲイン調整(予測係数の加工)を行う。
【0171】
図25(a)及び(b)は、マッピング時における時間タップの予測係数のゲイン調整方法を説明する模式図であって、夫々未来方向の3タップ目(最も未来の時間タップ)が使用不可タップと判定された例及び未来方向の3タップ目及び過去方向3タップ全てが使用不可タップと判定された例を示す模式図である。ここで、例えば、図25(a)及び(b)に示す未来方向の3タップ目の予測係数が0.1である場合について説明する。
【0172】
マッピング時においては、図25(a)及び(b)のいずれの場合においても、注目画素51から未来方向に3タップ目の使用不可タップ61の予測係数を0とし、そのタップがマッピングに寄与しないようにする。次に、そのタップが有する予測係数の値0.1を使用可能なタップの予測係数に均等に分配する。即ち、図25(a)に示すように、過去方向のフレームにおけるタップが全て使用可能である場合には、0.1/6を各タップの予測係数に加える。また、例えば、過去方向3タップのうち、2タップが使用不可で、6タップのうち、合計4タップが使えるような場合には、未来方向及び過去方向の使用不可タップの予測係数を合計し、この合計値を使用可能である4タップに分配する。
【0173】
一方、図25(b)に示すように、過去方向の全てのタップが使用不可タップ61である場合には、過去方向は使用不可クラスに分類される。この場合は、もともと過去方向のタップの予測係数は0に近い値となっているため、予測係数はそのまま加工せず、未来方向の使用不可タップ61の予測係数0.1を、注目画素51及び2つの使用可能タップ52の3タップに分配する。
【0174】
こうして、予測計数のゲイン調整を行った後、ステップS40に進み、予測タップの積和演算を行い、歪みが除去されたデータを得る。積和演算を行った後、ステップS41に進み、ブロック内の全ての画素において処理が完了したか否かが判定され、完了していない場合は、ステップS42に進んで注目画素位置を更新し、ステップ23に戻る。また、ブロック内全ての画素において処理が完了されたと判定された場合は、ステップS43に進み、マクロブロック内の処理が完了したか否かが判定され、完了していない場合は、ステップS44に進み、マクロブロック内で注目ブロック位置を更新し、ステップ22に戻る。マクロブロックの処理が完了したと判定された場合は、ステップS45に進み、最終マクロブロックであるか否かが判定され、処最終マクロブロックでないと判定された場合は、ステップS46に進み、マクロブロックを更新し、ステップ21に戻る。最終マクロブロックであると判定された場合は、ステップS47に進み、マクロブロック位置をリセットし、次のフレーム処理に移る。
【0175】
こうして、全てのフレームについて、クラス分類して積和演算を行うことにより、MPEG歪みを除去した画像データを得ることができる。
【0176】
マッピングではなく学習の場合には、ステップS40における予測タップ積和演算が、最小二乗法を解くためのコレスキー法等の行列に対する予測タップデータの投入に置き換え、多数の画像に対してこのフローを回して、最終的に各クラスの予測係数を求めることになる。
【0177】
(10)クロマ信号のクラス分類
次に、クロマ信号(色差信号)におけるクラス分類本に基づく処理について説明する。MPEG1/2符号化では、DVD等のようにYPbPrの4:2:0フォーマットの信号を対象にしていることが多く、輝度信号Yだけでなくクロマ信号(色差信号)CもDCTで符号化されている。このため、クロマ信号にもブロック歪やモスキート・ノイズが発生し、これにより、色のずれ及びぼけ、並びに画像のエッジ付近での変色として現れる。従って、これを防止するために、本実施の形態は、輝度信号に加え、クロマ信号に対しても輝度信号と同様にマッピング及び学習を行うものである。
【0178】
本実施の形態においては、4:2:0のクロマ信号Cに対して歪除去処理を行うこととし、以下、クロマ信号のクラス分類及びタップ構造について説明する。基本的には輝度信号Yを使用して、上述と同様のクラス分類を行い、予測タップをクロマ信号に張って学習及びマッピングを行う。
【0179】
クラス分類にY信号を使用するのは、クロマ信号Cは一般に輝度信号Yよりも狭帯域であり、且つダイナミックレンジが小さいため、上述したようなエッジに基づくクラス分類に向かないためである。
【0180】
クロマ信号CはMPEG復号後にLPF等の処理によってラインは輝度信号Yと一対一に対応しているものとする。MPEGではクロマ信号CのDCTブロックを構成する際のサンプリング方式が2種類あり、プログレッシブ・フレームと、インタレース・フレームとに分かれる。図26(a)及び(b)は、夫々プログレッシブ・フレーム及びインタレース・フレームにおける輝度信号Y及びクロマ信号Cのラインの対応関係を示す模式図である。
【0181】
図26(a)及び(b)に示すように、8×8画素のクロマ信号は、16×16画素の輝度信号のマクロブロックに相当する。プログレッシブ・フレームの場合は、図26(a)に示すように、クロマ信号の垂直方向は8ライン、輝度信号の垂直方向は16ラインであり、クロマ信号1ラインに対して輝度信号が2ラインずつ対応する。即ち、クロマ信号の1ライン目と、輝度信号の1,2ライン目、クロマ信号の2ライン目と、輝度信号の3,4ライン目というように、クロマ信号のラインi(1≦i≦8)は、輝度信号のライン2i−1,2iに対応する。一方、図26(b)に示すように、インタレース・フレームの場合は、垂直方向のクロマ信号及び輝度信号の夫々8ライン及び16ラインに対し、クロマ信号の奇数ラインi(i=1,3,5,7)は、輝度信号の2i−1,2i+1ラインに対応し、クロマ信号の偶数ラインi(i=2,4,6,8)は、輝度信号の2i−2,2iラインに対応する。
【0182】
クロマ信号のクラス分類は、クロマ信号に対応する輝度信号に基づいて行うため、クロマ信号の歪除去処理の際は、プログレッシブ・フレーム又はインタレース・フレームの何れかの構造に従って行う必要がある。そこで、先ず、歪除去処理に先立って、クロマ信号が、どちらの構造になっているかを判別する。判断方法としては、例えば輝度信号Yのフレーム/フィールドDCTブロックの判別と同様に、ライン間差分の二乗和を比較する方法等を使用することができる。
【0183】
クラス分類は輝度信号Yの画素を元にして、輝度信号の画素間差分から閾値を求め、エッジを検出して分類する。上述したように、マクロ信号Cのブロックは輝度信号Yのマクロブロック全体に対応するため、輝度信号Yの画素は16×16=256画素存在する。従って、エッジの位置に関して多少の変換を要する。
【0184】
(10−1)クロマ信号の空間クラス分類:水平方向
図27は、輝度信号Yから検出したエッジ位置をCのエッジ位置に置きかえた場合の水平方向のエッジ位置を示す模式図である。図27に示すように、クロマ信号の水平方向の各C画素C0〜C7に対して、輝度信号の水平方向に隣接する2つのY画素(Y0,Y1)、(Y2,Y3)、…、(Y14,Y15)が対応する。ここで、輝度信号YのYエッジ位置は、1〜15の15個となり、クロマ信号のCエッジ位置は、1〜7の7個となる。Cエッジ位置をk(1≦k≦7)としたとき、このCエッジ位置に対応するYエッジ位置Kは、K=2kと、この2kの両隣のエッジ(2k−1及び2k+1)のうち、C画素の注目画素側の位置のものとなる。そして、注目画素のC画素に対応する2つのY画素の間のエッジ位置にエッジが存在する場合、この注目画素(C画素)をエッジ上クラスと分類する。即ち、図27に示すように、ハッチングして示すクロマ信号の注目画素がC3である場合、クロマ信号のエッジ位置k=1〜3には、輝度信号のエッジ位置K=2k−1,2k、即ち、夫々(1,2)、(3,4)及び(5,6)が対応し、クロマ信号のエッジ位置k=4乃至7には、輝度信号のエッジ位置K=2k,2k+1、即ち、夫々(8,9)、(10,11)、(12,13)及び(14,15)が対応する。例えば、Yエッジ位置5に存在するエッジは、Cエッジ位置3となり、Yエッジ位置10に存在するエッジは、Cエッジ位置5となる。
【0185】
クラス分類は、注目画素C3に対応するY画素(Y6,Y7)の間のYエッジ位置K=7にエッジがあれば、注目画素C3はエッジ上クラスに分類される。
【0186】
また、細線上クラスは、注目するC画素の2つの隣接画素に対応する各2つのY画素のうち、注目画素に近接する側の各Y画素のいずれか一方が細線上クラスとなる場合とする。例えば、注目画素がC3である場合、この注目画素C3に隣接する画素C2及びC4に夫々対応するY画素Y4,Y5及びY8,Y9において、注目画素C3に近接する側のY画素である画素Y5及びY8の何れか一方が細線上クラスである場合である。即ち、Yエッジ位置5,6の何れにもエッジが存在し、且つ逆符号である場合か、又はYエッジ位置8,9の何れにもエッジが存在し、且つ逆符号である場合に、注目画素C3を水平エッジ上クラスに分類する。それ以外は、上述の輝度信号のクラス分類と同様に行う。
【0187】
(10−2)クロマ信号の空間クラス分類:垂直方向
次に、クロマ信号の垂直方向のクラス分類について説明する。図28(a)及び(b)は、垂直方向のYエッジ位置及びCエッジ位置を示す図であって、夫々プログレッシブ・フレーム及びインタレース・フレームの場合を示す模式図である。この図28(a)及び(b)は、夫々図26(a)及び(b)に対応する。
【0188】
垂直方向は、図28に示すように、プログレッシブ・フレームか、又はインタレース・フレームであるかと、ラインがA〜H(左側から奇数列目)の系列か、又はA’〜H’(左側から偶数列目)の系列かとに応じて、Yのエッジ位置をCエッジ位置へ変換する。要するに各系列のライン間にある複数のYのエッジ位置を、同じCのエッジ位置に落とし込むようにする。図28(a)に示すプログレッシブ・フレームの場合、奇数列目であるラインA〜Hにおいては、Yエッジ位置Kの上から2つずつが順に1つのCエッジ位置kに対応し、余った最後の15番目のYエッジKが下境界エッジE1となる。また、偶数列目であるラインA’〜H’においては、一番上のYエッジKを上境界エッジE2とし、2番目以降のYエッジ位置Kの上から2つずつが順に1つのCエッジ位置kに対応する。
【0189】
一方、図28(b)に示すように、インタレース・フレームの場合は、奇数列目であるラインA〜Hにおいては、奇数行目の1つのCエッジ位置kには、3つのYエッジ位置Kが対応し、偶数行目の1つのCエッジ位置kには1つのYエッジ位置Kが対応する。また、偶数列目であるラインA’〜H’においては、一番上及び下のYエッジ位置は、夫々上境界エッジE3及び下境界エッジE4となり、奇数行目の1つのCエッジ位置には1つのYエッジ位置が対応し、偶数行目の1つのCエッジ位置には、3つのYエッジ位置が対応する。そして、各上下境界エッジE1〜E4となるYエッジ位置にエッジがある場合は、境界フラグに1を立てる。
【0190】
その他、隣接ブロック画素との連続性は、上述の輝度信号Yと同様に行うが、クロマ信号のC画素1つに対して、輝度信号のY画素2つが対応するので、2つのY画素のうち何れか1つが隣接画素と不連続(注目画素と隣接画素の差分絶対値、またはブロック境界をまたぐ2画素の差分絶対値の1/2倍が閾値より大)の場合に不連続として、該当する境界フラグを立てる。
【0191】
以上のようにして輝度信号を元に、クロマ信号のクラス分類を行うが、輝度信号に明確なエッジが存在せず、色のみが変化するようなブロックでは、輝度信号によるクラス分類を行うと、色のにじみを引き起こす恐れがある。これを回避するためには、クロマ信号のエッジ検出を加え、輝度信号のエッジとのORをとるか、又は輝度信号Yにエッジがなく、クロマ信号Cの差分絶対値のDRが大である場合は、特に歪除去処理を行わずにそのまま出力する等の方法をとることができる。
【0192】
(10−3)クロマ信号の予測タップ構造
次に、クロマ信号の予測タップ構造について説明する。図29は、クロマ信号の予測タップを示す模式図である。C信号の予測タップ構造も、上述の輝度信号とほぼ同様であるが、垂直方向のタップ位置は、図29(a)に示すように、プログレッシブ・フレームの場合には1ラインおき、また、図29(b)に示すように、インタレース・フレームの場合には、不等間隔になる。
【0193】
また、画素位置モードの16モード化は、Cのブロック内画素位置を基準として行う。その他の学習及びマッピング関係の処理は輝度信号Yと同様である。
【0194】
(12)歪除去処理における効果
図30乃至図32は、実際にMPEG2で符号化/復号したMPEG復号画像、本発明による歪除去処理を行った歪除去処理画像、及び符号化前の原画を示す。なお、この図30及び図32において、輝度信号のみ部分拡大してある。
【0195】
原画サイズは704×480画素の4:1:1フォーマットで、MPEG符号化はN=15、M=3、4Mbpsの条件で行った。画像の内容は、花柄の背景の前で玩具の歯車が回転しているものである。インタレース画像をフレームで表示しているため、歯車の歯が櫛状に見えているが、これは正常なフィールドの違いによるものである。
【0196】
図30では、右下の白い歯車及び左上の白い台形領域の縁にモスキート・ノイズが目立ち、中央の歯車にはモザイク状のブロック歪も見られる。これらの歪が図31では低減されているのがわかる。また、歯車が回転しているため、MPEG復号画像では、背景のDCTブロックの一部に歯車がかかる箇所で、背景にも歯車の影響が出てしまい、背景は静止しているにもかかわらず時間的な画素値の変動が発生している。
【0197】
一例として、白い歯車の右上部分、図中×印で示した画素の輝度レベルの時間的な推移を図33に示す。図33は、横軸にフレーム番号(時間)をとり、縦軸に輝度レベルをとって、輝度レベルの時間的変動を示すグラフ図である。図33に示すように、中央のフレーム番号44が図30乃至32の画像に相当する。
【0198】
○で示す原画における輝度レベルは、169〜173の範囲で安定しているのに対し、×で示すMPEG復号画における輝度レベルは156から186と、原画に比して輝度レベルの変化が極めて大きい。これに対して、本発明の歪除去処理を行った▲で示す歪み除去処理画像における輝度レベルは158から177の範囲に抑え込まれ、原画に近づいて安定しているのがわかる。
【0199】
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
【0200】
例えば、本発明は、MPEG1/2で符号化/復号された画像の歪除去を対象としているが、同様にDCT変換とDCT係数の量子化とによって画像を圧縮する、例えばMotionJPEG等の符号化方式にも対応することができる。また、時間方向の処理を省けばJPEGにも応用することができる。
【0201】
【発明の効果】
以上詳細に説明したように本発明に係る画像信号処理装置は、入力される第1の画像に対して所定の推定演算を行って上記第1の画像を第2の画像に変換する画像信号処理装置において、入力される第1の画像に対して所定の推定演算を行って上記第1の画像を第2の画像に変換する画像信号処理装置において、上記第1の画像から、注目画素及びその周辺の複数の画素を予測タップとして切り出す領域切出手段と、上記予測タップのうち所定の位置関係を有する画素間の画素値の差分値を算出する差分値算出手段と、上記予測タップの差分値に基づき、上記注目画素を複数のクラスのうち何れかのクラスに分類するクラス分類手段と、上記注目画素が分類されたクラスに対応する予測係数を読み出す読出手段と、読み出された上記予測係数と上記予測タップとから上記所定の推定演算により上記注目画素の画素値を第2の画像の画素値に変換する推定演算手段とを有するので、例えばDCT変換に使用されるブロック構造を考慮し発生する歪の特性に合わせたタップ構造とし、差分値を利用して適切なクラス分類を行うことで、効果的にMPEG復号画像に発生するブロック歪、モスキート・ノイズ、及び画素の時間変動を抑圧することができる。
【図面の簡単な説明】
【図1】クラス分類適応処理を使用した画像信号処理装置の一例を示すブロック図である。
【図2】画像信号処理装置の学習回路の一例を示すブロック図である。
【図3】本発明の実施の形態に係る画像信号処理装置を示すブロック図である。
【図4】本発明の実施の形態に係る画像信号処理装置で使用される予測係数を学習する学習回路を示すブロック図である。
【図5】ブロック単位の閾値Bthを算出する工程を示すフローチャートである。
【図6】(a)及び(b)は、8×8画素のDCTブロックを示す模式図である。
【図7】横軸に水平方向又は垂直方向の差分値をとり、縦軸にその度数を取って、ブロック内の差分値の分布を模式的に示すヒストグラムである。
【図8】空間クラス分類及び後述する時間クラス分類からクラスコードを発生し、更に予測演算する一連の工程をその工程順に示すフローチャートである。
【図9】同じく、空間クラス分類及び後述する時間クラス分類からクラスコードを発生し、更に予測演算する一連の工程を示す図であって、図8に示す工程の後の工程をその工程順に示すフローチャートである。
【図10】本発明の実施の形態に係る画像信号処理装置における空間クラス分類に使用される注目ブロック及び注目画素を含む水平ライン及び垂直ラインの各8画素を示す模式図である。
【図11】本発明の実施の形態に係る画像信号処理装置における空間クラス分類に使用されるクラスタップを示す模式図である。
【図12】図8に示すステップ27のエッジ検出による空間クラス分類における工程をその工程順に示すフローチャートである。
【図13】同じく、図8に示すステップ27のエッジ検出による空間クラス分類における工程を示す図であって、図12に示す工程の後の工程をその工程順に示すフローチャートである。
【図14】同じく、図8に示すステップ27のエッジ検出による空間クラス分類における工程を示す図であって、図13に示す工程の後の工程をその工程順に示すフローチャートである。
【図15】同じく、図8に示すステップ27のエッジ検出による空間クラス分類における工程を示す図であって、図14に示す工程の後の工程をその工程順に示すフローチャートである。
【図16】(a)乃至(e)は、図11に示す注目ブロックの注目画素を含む水平方向の1ライン及び注目ブロックの左右(水平方向)に隣接する隣接ブロックのブロック隣接画素において算出されたエッジの値と、空間クラス分類の関係を示す模式図である。
【図17】本発明の実施の形態に係る画像信号処理装置における時間クラス分類に使用されるブロックを示す模式図である。
【図18】横方向に時間をとって、注目画素とこの注目画素とブロック内で同位置における未来及び過去方向の各3タップ、縦方向に空間タップを示す模式図である。
【図19】学習時の時間クラス分類を示す模式図である。
【図20】マッピング時の時間クラス分類を示す模式図である。
【図21】(a)乃至(d)は、DCTブロックを4分割して小ブロックとして画素位置モードの分類を示す模式図であって、夫々マクロブロック左上、右上、左下及び右下に位置する小ブロックを示し、(e)は、画素位置モードに基づいて移動する予測タップの移動方向を示す模式図である。
【図22】本発明の実施の形態に係る画像信号処理装置における推定演算時に使用される予測タップの一例を示す模式図である。
【図23】フレームDCTブロックにおける空間予測タップを示す模式図である。
【図24】(a)及び(b)は、フィールドDCTブロックにおける空間予測タップを示し、夫々注目画素がトップフィールド及びボトムフィールドに位置する場合を示す模式図である。
【図25】(a)及び(b)は、マッピング時における時間タップの予測係数のゲイン調整方法を示す模式図である。
【図26】(a)及び(b)は、夫々プログレッシブ・フレーム及びインタレース・フレームにおける輝度信号Y及びクロマ信号Cのラインの対応関係を示す模式図である。
【図27】輝度信号から検出したYエッジ位置をクロマ信号のCエッジ位置に置きかえる際の水平方向におけるYエッジ位置とCエッジ位置との対応関係を示す模式図である。
【図28】(a)及び(b)は、垂直方向のYエッジ位置及びCエッジ位置の対応関係を示す図であって、夫々プログレッシブ・フレーム及びインタレース・フレームにおける対応関係を示す模式図である。
【図29】(a)及び(b)は、クロマ信号における空間予測タップを示す図であって、夫々プログレッシブ・フレーム及びインタレース・フレームにおける場合を示す模式図である。
【図30】実際にMPEG2で符号化/復号したMPEG復号画像を示す図である。
【図31】図30に示すMPEG復号画像から本発明による歪除去処理を行った歪除去処理画像を示す図である。
【図32】MPEG符号化前の原画像を示す図である。
【図33】横軸にフレーム番号(時間)をとり、縦軸に輝度レベルをとって、輝度レベルの時間的変動を示すグラフ図である。
【図34】理想的なステップ波形をDCT変換したDCTブロックの水平方向の波形を示すグラフ図である。
【図35】モスキート・ノイズを示すグラフ図である。
【符号の説明】
10 画像信号処理装置、 12、18、32、38 画素間差分値算出部、13、19、33、39 統計量算出部、 14、34 特徴量メモリ、 15、35 ラインメモリ、 16、36 フレームメモリ、 17、23、37、43 領域切出部、 20、40 特徴量抽出部、 21、41 クラスコード発生部、 22 ROMテーブル、 24 推定演算部、 44 正規化方程式演算部、 42 メモリ
Claims (7)
- 入力される第1の画像に対して所定の推定演算を行って上記第1の画像を第2の画像に変換する画像信号処理装置において、
上記第1の画像をフレーム毎に記憶する複数のフレームメモリと、
上記第1の画像の注目画素を含む注目フレーム及びこの注目フレームの前後の複数のフレームが入力され、これら全てのフレームにおいて上記注目画素と同一の位置の画素を予測タップとして切り出す領域切出手段と、
上記予測タップのうち所定の位置関係を有する画素間の画素値の差分値を算出する差分値算出手段と、
上記フレーム毎のブロックデータが入力され、上記注目画素が属する注目ブロックにおいて水平方向及び垂直方向に隣接する各画素間の画素値の差分値をブロック画素間差分値として算出するブロック画素間差分値算出手段と、
上記ブロック画素間差分値算出手段で算出された上記注目ブロックにおける上記ブロック画素間差分値の統計に基づきブロック閾値を算出するブロック特徴量算出手段と、
上記予測タップにおける隣接フレームの画素間差分値と上記フレーム毎の上記ブロック閾値の最大値とに基づき上記注目画素の時間クラスを分類するクラス分類手段と、
上記注目画素が分類されたクラスに対応する予測係数を読み出す読出手段と、
読み出された上記予測係数と上記予測タップとから上記所定の推定演算により上記注目画素の画素値を第2の画像の画素値に変換する推定演算手段と
を有することを特徴とする画像信号処理装置。 - 上記予測タップにおける隣接フレームの画素間差分値が上記フレーム毎の上記ブロック閾値の最大値より大きい場合は、上記画素間差分値を算出したフレームから上記注目フレームとは離隔する方向のフレームの画素を使用不可タップとし、
この使用不可タップ以外の画素を使用可能タップとし、上記クラス分類手段は、上記使用可能タップ数及び使用不可タップ数に基づき上記時間クラスを分類することを特徴とする請求項1記載の画像信号処理装置。 - 上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、上記未来方向に1以上の上記使用可能タップが存在し、且つ、上記過去方向に1以上の上記使用可能タップが存在する場合、上記注目画素は、第1の時間クラスに分類されることを特徴とする請求項2記載の画像信号処理装置。
- 上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、未来方向における全てのタップが上記使用不可タップである場合、上記注目画素は、第2の時間クラスに分類されることを特徴とする請求項2記載の画像信号処理装置。
- 上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、過去方向における全てのタップが上記使用不可タップである場合、上記注目画素は、第3の時間クラスに分類されることを特徴とする請求項2記載の画像信号処理装置。
- 上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、全てのタップが上記使用不可タップである場合、上記注目画素は、第4の時間クラスに分類されることを特徴とする請求項2記載の画像信号処理装置。
- 入力される第1の画像に対して所定の推定演算を行って上記第1の画像を第2の画像に変換する画像信号処理方法において、
上記第1の画像をフレーム毎に複数のフレームメモリに記憶する記憶工程と、
上記第1の画像の注目画素を含む注目フレーム及びこの注目フレームの前後の複数のフレームが入力され、これら全てのフレームにおいて上記注目画素と同一の位置の画素を予測タップとして切り出す領域切出工程と、
上記予測タップのうち所定の位置関係を有する画素間の差分値を算出する差分値算出工程と、
上記フレーム毎のブロックデータが入力され、上記注目画素が属する注目ブロックにおいて水平方向及び垂直方向に隣接する各画素間の画素値の差分値をブロック画素間差分値として算出するブロック画素間差分値算出工程と、
上記ブロック画素間差分値算出工程で算出された上記注目ブロックにおける上記ブロック画素間差分値の統計に基づきブロック閾値を算出するブロック特徴量算出工程と、
上記予測タップにおける隣接フレームの画素間差分値と上記フレーム毎の上記ブロック閾値の最大値とに基づき上記注目画素の時間クラスを分類するクラス分類工程と、
上記注目画素が分類されたクラスに対応する予測係数を読み出す読出工程と、
読み出された上記予測係数と上記予測タップとから上記所定の推定演算により上記注目画素の画素値を第2の画像の画素値に変換する推定演算工程と
を有することを特徴とする画像信号処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002129440A JP4082079B2 (ja) | 2002-04-30 | 2002-04-30 | 画像信号処理装置及びその方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002129440A JP4082079B2 (ja) | 2002-04-30 | 2002-04-30 | 画像信号処理装置及びその方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2003324738A JP2003324738A (ja) | 2003-11-14 |
JP2003324738A5 JP2003324738A5 (ja) | 2005-09-08 |
JP4082079B2 true JP4082079B2 (ja) | 2008-04-30 |
Family
ID=29542837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002129440A Expired - Fee Related JP4082079B2 (ja) | 2002-04-30 | 2002-04-30 | 画像信号処理装置及びその方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4082079B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2004301091B2 (en) | 2003-08-19 | 2008-09-11 | Panasonic Corporation | Method for encoding moving image and method for decoding moving image |
JP4683294B2 (ja) * | 2006-03-16 | 2011-05-18 | ソニー株式会社 | 画像処理装置および方法、プログラム記録媒体、並びにプログラム |
JP5029869B2 (ja) * | 2006-11-09 | 2012-09-19 | ソニー株式会社 | 画像処理装置および画像処理方法、学習装置および学習方法、並びにプログラム |
JP4770711B2 (ja) * | 2006-11-15 | 2011-09-14 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP4957280B2 (ja) * | 2007-02-15 | 2012-06-20 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
CN110032914A (zh) * | 2018-01-12 | 2019-07-19 | 北京京东尚科信息技术有限公司 | 一种标注图片的方法和装置 |
CN112642022B (zh) * | 2020-12-31 | 2022-07-05 | 遵义师范学院 | 一种输液监控系统及监控方法 |
-
2002
- 2002-04-30 JP JP2002129440A patent/JP4082079B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003324738A (ja) | 2003-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100597920B1 (ko) | 데이터 처리 장치, 데이터 처리 방법, 및 그에 대한 기록매체 | |
USRE42148E1 (en) | Method and apparatus for visual lossless image syntactic encoding | |
KR100299202B1 (ko) | 디지털 화상 신호 처리장치 및 처리방법 | |
JP4126709B2 (ja) | 画像処理装置および画像処理方法 | |
US20070076972A1 (en) | System and method of spatio-temporal edge-preserved filtering techniques to reduce ringing and mosquito noise of digital pictures | |
CN1199987A (zh) | 图像处理设备及方法 | |
JP2002517176A (ja) | デジタル動きビデオ信号のコード化と復号の方法および装置 | |
JP4082079B2 (ja) | 画像信号処理装置及びその方法 | |
US6404924B1 (en) | Image processing apparatus and method | |
Song et al. | Efficient debanding filtering for inverse tone mapped high dynamic range videos | |
JP4746909B2 (ja) | ビデオシーケンスの補助データ処理 | |
CN113365059B (zh) | 图像冗余去除方法、图像冗余去除装置、存储介质和设备 | |
JPH10155139A (ja) | 画像処理装置および画像処理方法 | |
Bedi et al. | Improvements to the JPEG-LS prediction scheme | |
JP4622762B2 (ja) | 画像データ圧縮・復元方法 | |
Zhao et al. | Content-adaptive up-scaling of chrominance using classification of luminance and chrominance data | |
JPH07236142A (ja) | 高能率符号化装置及び復号化装置 | |
JP3912558B2 (ja) | 画像符号化装置および画像符号化方法、並びに記録媒体 | |
JPH10243405A (ja) | 画像信号符号化装置および画像信号符号化方法、画像信号復号装置および画像信号復号方法、並びに記録媒体 | |
KR101174589B1 (ko) | 지역 복잡도를 기초로 한 디인터레이싱 방법 및 이러한 방법을 수행하는 영상 처리 장치 | |
JP4552263B2 (ja) | ディジタル信号処理装置および方法、並びにディジタル画像信号処理装置および方法 | |
JP4154902B2 (ja) | 画像処理装置および画像処理方法、並びにプログラムおよび記録媒体 | |
KR101204210B1 (ko) | 기하학적 이중성을 이용한 디인터레이싱 방법 및 이러한 방법을 수행하는 영상 처리 장치 | |
JPH08172632A (ja) | 画像処理装置 | |
JP4512956B2 (ja) | データ処理装置およびデータ処理方法、並びに記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050314 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070724 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071016 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080204 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110222 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120222 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130222 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130222 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140222 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |