JP4213526B2 - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP4213526B2
JP4213526B2 JP2003179449A JP2003179449A JP4213526B2 JP 4213526 B2 JP4213526 B2 JP 4213526B2 JP 2003179449 A JP2003179449 A JP 2003179449A JP 2003179449 A JP2003179449 A JP 2003179449A JP 4213526 B2 JP4213526 B2 JP 4213526B2
Authority
JP
Japan
Prior art keywords
block
sub
encoded
dct
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003179449A
Other languages
Japanese (ja)
Other versions
JP2003348599A5 (en
JP2003348599A (en
Inventor
孝啓 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2003179449A priority Critical patent/JP4213526B2/en
Publication of JP2003348599A publication Critical patent/JP2003348599A/en
Publication of JP2003348599A5 publication Critical patent/JP2003348599A5/ja
Application granted granted Critical
Publication of JP4213526B2 publication Critical patent/JP4213526B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理方法に関し、特にインタレース画像信号の周波数成分に対して適応的な画面内予測処理を施すことにより、画像信号の符号化効率を向上する方法に関するものである。
【0002】
【従来の技術】
動画像に対応する画像データを、その冗長性を利用して圧縮する予測符号化には、被符号化フレーム内の画像データを用いて、画像データの予測を行う画面内予測符号化と、被符号化フレーム以外の他のフレームの画像データを利用して、画像データの予測を行う画面間予測符号化がある。
【0003】
具体的には、上記画面内予測符号化は、被符号化フレームの画像データの予測値をそのフレーム内の画像データから生成し、被符号化フレームの画像データとその予測値の差分値を符号化することにより、画像の本来の性質として画像データに多量に含まれている空間的に冗長な情報を除去もしくは減少して画像データを圧縮する方法である。
【0004】
一方、上記画面間予測符号化は、被符号化フレームの画像データの予測値を他のフレームの画像データから生成し、被符号化フレームの画像データとその予測値の差分値を符号化することにより、画像の動きが小さい場合などに画像データに多量に含まれることとなる時間的に冗長な情報を除去もしくは減少して画像を圧縮する方法である。
【0005】
最近の画像符号化においては離散コサイン変換(DCT)が広く利用されており、代表的な画像符号化方式であるMPEG(Moving Picture Expert Group )方式においては、デジタル画像信号により形成される画像空間(フレーム)をDCT処理の単位である複数の矩形領域(ブロック)に分割し、各ブロックに対応する画像信号に対してブロック毎にDCT処理を施すようにしている。
【0006】
MPEG方式で採用されている、DCT係数,つまりDCT領域(周波数領域)における画像データに対する画面内予測方法については、MPEG4に関する文献であるISO/IEC JTC1/SC29/WG11 MPEG97/N1642 MPEG-4 Video Verification Model Version 7.0 (以下、MPEG−4 VM7.0と称する。)における「Intra DC and AC Prediction for I-VOP and P-VOP」の項に記載されている。
【0007】
この文献の記載によれば、符号化処理の対象となる被符号化ブロックに対応するDCT係数のDC成分およびAC成分を、上記画像空間上で被符号化ブロックの左上、上および左に隣接して位置する3つの隣接ブロックに対応するDCT係数を利用して予測することとしている。
【0008】
図15は、従来の画像符号化方式に採用されている、上記文献に記述されているような画面内DCT係数予測方法を説明するための図である。
図15には、DCT処理の単位となる8×8画素からなる4つのブロック(DCTブロックともいう。)R0〜R2,Xが示されており、各ブロックは、画像信号により形成される画像空間(空間領域)上で互いに隣接して位置している。
【0009】
ここで、ブロックXは、符号化処理の対象となる被符号化ブロックであり、ブロックR0,R1,R2は、上記空間領域上で、上記被符号化ブロックの左上側,上側,及び左側に隣接して位置する、既に符号化処理が完了した符号化済みブロックである。
【0010】
従来の画面内DCT係数予測方法では、ブロックXのDCT係数の予測値を生成する際に、ブロックR1またはブロックR2のDCT係数が参照される。
具体的には、符号化済みブロックR1のDCT係数を参照する場合には、該符号化済みブロックR1における左上隅のDC成分及び最上列のAC成分が、これらの成分と被符号化ブロックXにて同位置に位置するDCT係数の予測値として用いられる。また、符号化済みブロックR2のDCT係数を参照する場合には、該符号化済みブロックR2の左上隅のDC成分及び最左列のAC成分が、これらの成分と上記被符号化ブロックXにて同位置に位置するDCT係数の予測値として用いられる。
【0011】
また、符号化済みブロックのいずれのブロックのDCT係数を、上記被符号化ブロックXのDCT係数の予測値として参照すべきかの決定は、符号化済みブロックR0,R1およびR2のDC成分を用いて行われる。
【0012】
すなわち、ブロックR0とブロックR2の間でのDC成分の差の絶対値が、ブロックR0とブロックR1の間でのDC成分の差の絶対値よりも小さい場合は、縦方向に並ぶブロック間でのDCT係数の相関が強いため、被符号化ブロックXのDCT係数の予測値を生成する際にはブロックR1のDCT係数が参照される。一方、ブロックR0とブロックR1の間でのDC成分の差の絶対値が、ブロックR0とブロックR2の間でのDC成分の差の絶対値よりも小さい場合には、横方向に並ぶブロック間でのDCT係数の相関が強いため、被符号化ブロックXのDCT係数の予測値を生成する際には、ブロックR2のDCT係数が参照される。
【0013】
ところが、上記文献(MPEG−4 VM7.0)における「Adaptive Frame/Field DCT」の項に記載されているように、インタレース画像の符号化に用いられるDCT処理(周波数変換処理)には、フレームDCT処理とフィールドDCT処理の2つのタイプのDCT処理がある。これらのDCT処理はその処理単位が異なり、フレームDCT処理はフレーム単位で画像データの変換を行い、フィールドDCT処理はフィールド単位で画像データの変換を行う。MPEG方式では、4つのブロックから構成されるいわゆるマクロブロック毎にフレームDCT処理とフィールドDCT処理とが適応的に切り換えられる。
【0014】
ここで、マクロブロックに対するフレームDCT処理とフィールドDCT処理の切替えは、図16に示すように、走査線の並べ替えを行うか否かにより行われ、フィールドDCT処理では、走査線の並べ替えが行われたマクロブロックにおける各ブロックの画像データにDCT処理が施されることとなる。
【0015】
具体的には、フレームDCT処理の場合は、偶数および奇数番号の走査線が交互に並んだマクロブロックにおける各ブロックの画像データがそのままDCT処理され、フィールドDCT処理の場合には、走査線の並べ替えにより、マクロブロックが、偶数番号の走査線のみで構成される第1フィールドのブロックと奇数番号の走査線のみで構成される第2フィールドのブロックとからなるものとなった後に、このようなマクロブロックにおける各ブロックの画像データに対してDCT処理が行われることとなる。
【0016】
このようにインタレース画像信号の符号化処理では、画像空間上に位置するマクロブロックとして、フレームDCT処理されるマクロブロックとフィールドDCT処理されるマクロブロックとが混在することになる。
【0017】
そして、第1フィールドと第2フィールドの間での画素値の相関が第1フィールド内および第2フィールド内での画素値の相関より高い場合は、フレームDCT処理が実施され、それ以外の場合はフィールドDCT処理が実施されるという方法で、フレームDCT処理とフィールドDCT処理は切替えられる。
【0018】
従って、画像空間上で隣り合うマクロブロックや隣接するブロック(つまりマクロブロックを構成するサブブロック)であっても、DCT処理のタイプが異なる場合があり、この場合には、隣接するマクロブロック間、あるいは隣接するブロック間では、マクロブロックあるいはブロックのDCT処理タイプが同じ場合に比べて、DCT係数の相関は低いものとなる。
【0019】
また、隣り合うブロック間ではこれらが属するフィールドが異なる場合があり、このような場合には、隣接するブロック間では、ブロックの属するフィールドが同じ場合に比べて、DCT係数の相関は低いものとなる。
【0020】
【発明が解決しようとする課題】
しかしながら、フィールドDCT処理が施されたマクロブロック(フィールドDCTタイプのマクロブロック)では、第1フィールドのブロックと第2フィールドのブロックが混在するため、被符号化ブロックのDCT係数の予測値を生成する際、参照すべき符号化済みブロックを特定することが困難であり、このため、上記のようなフィールドDCTタイプのマクロブロックに対して従来の画面内予測処理を単純に適用することができない。この結果、フィールドDCTタイプのマクロブロックが混在する、インターレース画像の符号化処理あるいは特定のプログレッシブ画像の符号化処理では、画面内予測処理を適用することができず、画像信号に含まれる空間的に冗長な画像情報を十分に削減して、効率のよい符号化処理を行うことができないという問題があった。
【0021】
この発明は以上のような問題点を解消するためになされたもので、異なるDCTタイプのマクロブロックが混在する、インターレース画像の符号化処理あるいは特定のプログレッシブ画像の符号化処理においても、画像信号に含まれる空間的に冗長な画像情報を十分に削減でき、高能率な符号化処理を行うことができる画像処理方法を得ることを目的とする。
【0022】
【課題を解決するための手段】
この発明(請求項1)に係る画像処理方法は、複数の画素からなる画像空間を形成する画像信号を、該画像空間を区分する矩形形状の複数のマクロブロックに分割し、該マクロブロックを構成するサブブロックに対応する画像信号の符号化処理を、サブブロック毎に行う画像処理方法であって、上記マクロブロックの画像信号に対して、上記画像信号を構成する第1フィールドの画像信号が該マクロブロックの上側に位置し、かつ上記画像信号を構成する第2フィールドの画像が該マクロブロックの下側に位置するよう、水平画素列の並べ替え処理を施す並べ替えステップと、上記サブブロック化した画像信号をサブブロック単位の周波数変換により周波数成分に変換する変換ステップと、被符号化サブブロックの左側または上側に位置する符号化済みのサブブロックの周波数成分に基づいて被符号化サブブロックの周波数成分の予測値を生成する予測ステップと、上記被符号化サブブロックの周波数成分と上記予測値との差分値を符号化する符号化ステップとを有し、上記変換ステップは、上記並べ替え処理が施されたマクロブロックあるいは並べ替え処理が施されていないマクロブロックの画像信号を、上記マクロブロックを構成する左上、右上、左下、右下に位置する4つのサブブロック毎に周波数変換を行って周波数成分に変換し、上記予測ステップは、上記被符号化サブブロックの左側または上側に位置する符号化済みサブブロックがフィールド単位または、フレーム単位のいずれで周波数変換されているかの処理単位を特定し、上記被符号化サブブロックの左側または上側に位置する少なくともいずれか一方の符号化済みサブブロックの周波数変換の処理単位が上記被符号化サブブロックの周波数変換の処理単位と同じ場合に、周波数変換の処理単位が同じである上記左側または上側に位置するいずれか一方の符号化済みのサブブロックの周波数成分の直流成分から上記予測値を生成し、上記被符号化サブブロックの左側および上側に位置する符号化済みブロックの周波数変換の処理単位と上記被符号化サブブロックの周波数変換の処理単位とが異なる場合には、上記被符号化サブブロックの左側近傍、上側近傍および左上近傍に位置する符号化済みサブブロックから所定の方法により周波数成分の直流成分を生成し、生成した周波数成分の直流成分から上記予測値を生成し、上記被符号化サブブロックがフィールド単位で周波数変換されている場合は、上記被符号化サブブロックの左側に隣接するサブブロックを左側に位置する符号化済みサブブロックとして用い、上記被符号化サブブロックが含まれるブロックの上側に隣接するブロック内で被符号化サブブロックと同じ位置にあるサブブロックを上側に位置する符号化済みサブブロックとして用いるものであり、上記被符号化サブブロックがフレーム単位で周波数変換されている場合は、上記被符号化サブブロックの左側または上側に隣接するサブブロックを、それぞれ左側または上側に位置する符号化済みサブブロックとして用いるものである、ことを特徴とするものである。
【0024】
この発明(請求項)に係る画像処理装置は、複数の画素からなる画像空間を形成する画像信号を、該画像空間を区分する矩形形状の複数のマクロブロックに分割し、該マクロブロックを構成するサブブロックに対応する画像信号の符号化処理を、サブブロック毎に行う画像処理装置であって、上記マクロブロックの画像信号に対して、上記画像信号を構成する第1フィールドの画像信号が該マクロブロックの上側に位置し、かつ上記画像信号を構成する第2フィールドの画像が該マクロブロックの下側に位置するよう、水平画素列の並べ替え処理を施す並べ替え手段と、上記サブブロック化した画像信号をサブブロック単位の周波数変換により周波数成分に変換する変換手段と、被符号化サブブロックの左側または上側に位置する符号化済みのサブブロックの周波数成分に基づいて被符号化サブブロックの周波数成分の予測値を生成する予測手段と、上記被符号化サブブロックの周波数成分と上記予測値の差分値を符号化する符号化手段とを備え、上記変換手段は、上記並べ替え処理が施されたマクロブロックあるいは並べ替え処理が施されていないマクロブロックの画像信号を、上記マクロブロックを構成する左上、右上、左下、右下に位置する4つのサブブロック毎に周波数変換を行って周波数成分に変換し、上記予測手段は、上記被符号化サブブロックの左側または上側に位置する符号化済みサブブロックがフィールド単位または、フレーム単位のいずれで周波数変換されているかの処理単位を特定し、上記被符号化サブブロックの左側または上側に位置する少なくともいずれか一方の符号化済みサブブロックの周波数変換の処理単位が上記被符号化サブブロックの周波数変換の処理単位と同じ場合に、周波数変換の処理単位が同じである上記左側または上側に位置するいずれか一方の符号化済みのサブブロックの周波数成分の直流成分から上記予測値を生成し、上記被符号化サブブロックの左側および上側に位置する符号化済みブロックの周波数変換の処理単位と上記被符号化サブブロックの周波数変換の処理単位とが異なる場合には、上記被符号化サブブロックの左側近傍、上側近傍および左上近傍に位置する符号化済みサブブロックから所定の方法により周波数成分の直流成分を生成し、生成した周波数成分の直流成分から上記予測値を生成し、上記被符号化サブブロックがフィールド単位で周波数変換されている場合は、上記被符号化サブブロックの左側に隣接するサブブロックを左側に位置する符号化済みサブブロックとして用い、上記被符号化サブブロックが含まれるブロックの上側に隣接するブロック内で被符号化サブブロックと同じ位置にあるサブブロックを上側に位置する符号化済みサブブロックとして用いるものであり、上記被符号化サブブロックがフレーム単位で周波数変換されている場合は、上記被符号化サブブロックの左側または上側に隣接するサブブロックを、それぞれ左側または上側に位置する符号化済みサブブロックとして用いるものである、ことを特徴とするものである。
【0025】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら説明する。
実施の形態1.
本発明の実施の形態1による画像処理装置(画像符号化装置)は、適応的画面内DCT係数予測方法,つまり被符号化ブロックのDCTタイプ信号(周波数変換タイプ信号)に応じて、符号化済みブロックのDCT係数から被符号化ブロックのDCT係数の予測値を生成する方法を用いて、画像信号の画面内予測符号化を行うことを特徴としている。ここで、DCTタイプ信号とは、被符号化ブロックがフレームDCT処理されているかフィールドDCT処理されているかを示す信号を表すものとする。
【0026】
図1は、本実施の形態1による画像符号化装置の構成を示すブロック図である。
図において、1000は本実施の形態1の画像符号化装置であり、入力されるデジタル画像信号(入力画像信号)110aを、これにより形成される画像空間(フレーム)を分割する複数のブロックの各々に対応するよう分割し、各ブロックに対応する画像信号を上記ブロック毎に符号化する構成となっている。
【0027】
すなわち、この画像符号化装置1000は、上記入力画像信号110aを、周波数変換の処理単位となるフレームまたはフィールド毎に上記各ブロックに対応するようブロック化するとともに、上記ブロック化された画像信号101、および上記周波数変換(DCT処理)の処理単位を示すDCTタイプ信号102を出力するブロック化器100を有している。このブロック化器100は、入力画像信号110aを受け、フィールド間での画素値の相関がフレーム内のものに比べて高い場合には、フィールドDCT処理が実施されるよう、予め16×16画素からなるマクロブロックを単位として走査線の並べ替えを行い、走査線の並べ替えが行われたマクロブロックを構成する8×8画素からなるブロック毎に画像信号を出力する構成となっている。
【0028】
なお、上記ブロック化器100では、フィールド間での画素値の相関がフレーム内のものに比べて小さい場合は、上記のようなマクロブロックを単位する走査線の並べ替えは行われず、入力画像信号は上記ブロック毎に出力されることとなる。
【0029】
また、上記画像符号化装置1000は、上記ブロック化された画像信号(以下ブロック化画像信号ともいう。)101に対して離散コサイン変換(DCT処理)を施して、上記ブロック化画像信号を周波数成分(DCT係数)104に変換するDCT器103と、このDCT係数104を量子化して、各ブロックに対応する量子化値(DCT係数量子化値)106を生成する量子化器105と、上記DCTタイプ信号102に基づいた画面内予測処理により被符号化ブロックに対応する予測値111を生成する画面内予測処理部110と、上記DCT係数量子化値106から上記予測値111を減算してDCT係数差分値108を出力する加算器107とを有しており、このDCT係数差分値108が、VLC器109により可変長符号化されて、ビットストリーム(画像符号化信号)110bとして出力されるようになっている。
【0030】
ここで、上記画面内予測処理部110は、上記DCT係数差分値108と画面内予測値111とを加算する加算器112と、該加算器112の出力を符号化済みブロックのDCT係数量子化値116として格納するブロックメモリ115と、DCTタイプ信号102に応じて、適応的画面内DCT係数予測方法により符号化済みブロックのDCT係数量子化値114から被符号化ブロックのDCT係数量子化値の予測値111を生成するDCT係数予測器113とから構成されている。
【0031】
次に動作について説明する。
まず、適応的DCT予測処理を用いた符号化処理における全体的な動作について説明する。
デジタル画像信号(入力画像信号)110aが本画像符号化装置1000に入力されると、ブロック化器100にて、上記入力画像信号110aは、周波数変換の処理単位となるフレームまたはフィールド毎に上記各ブロックに対応するようブロック化されるとともに、上記ブロック化された画像信号101、および上記周波数変換(DCT処理)の処理単位を示すDCTタイプ信号102が出力される。
【0032】
このときこのブロック化器100では、フィールド間での画素値の相関がフレーム内のものに比べて高い場合には、フィールドDCT処理が実施されるよう、予め16×16画素からなるマクロブロックを単位として、画像信号に対して走査線の並べ替え処理が行われ、走査線の並べ替え処理が行われた画像信号が、該マクロブロックを構成する8×8画素からなるブロック毎に出力される。
【0033】
なお、上記ブロック化器100では、フィールド間での画素値の相関がフレーム内のものに比べて小さい場合は、上記のようなマクロブロックを単位する走査線の並べ替え処理は行われず、入力画像信号は上記ブロック毎に出力されることとなる。
【0034】
そして、符号化処理の対象となる被符号化ブロックの画像信号101は、DCT器103にて離散コサイン変換(DCT処理)により、上記被符号化ブロックに対応する周波数成分(DCT係数)104に変換され、さらにこのDCT係数104は、量子化器105にて量子化されて、被符号化ブロックに対する量子化値(DCT係数量子化値)106として出力される。
【0035】
さらに、上記被符号化ブロックのDCT係数量子化値106が加算器107に供給されると、この量子化値106とその予測値111の差分が求められてDCT係数差分値108として出力される。このDCT係数差分値108は、VLC器109により可変長符号化されて、ビットストリーム(画像符号化信号)110bとして出力される。
【0036】
また、上記加算器107から出力されるDCT係数差分値108は、画面内予測処理部110に供給され、ここで上記DCT係数量子化値106に対する予測値が生成される。
【0037】
すなわち、上記画面内予測処理部110では、加算器112により上記DCT係数差分値108と画面内予測値111が加算され、これらの加算値が符号化済みブロックのDCT係数量子化値116としてブロックメモリ115に格納される。そして、DCT係数予測器113では、上記DCTタイプ信号102に応じて、適応的画面内DCT係数予測方法により符号化済みブロックのDCT係数量子化値114から被符号化ブロックのDCT係数量子化値の予測値111が生成される。
【0038】
次に、上記符号化処理における適応的画面内DCT係数予測方法について詳しく説明する。
本実施の形態1の適応的画面内DCT係数予測方法は、被符号化ブロックのDCTタイプに応じて、被符号化ブロックに対応するDCT係数の予測値を生成する際に参照するブロックを変更するものである。
本実施の形態1においては、次のようにDCT領域を定義する。
【0039】
すなわち、DCT領域(周波数領域)は、画像空間(空間領域)を形成する画像信号をDCT処理(周波数変換)して得られる周波数成分により形成される領域とし、画像信号空間領域(画像空間)におけるマクロブロックの配置のとおりに、DCT領域(周波数領域)において各マクロブロックは配置されているものとする。
【0040】
また、この実施の形態1では、図3のように、マクロブロックがフレームDCT処理される場合は、マクロブロックにおける走査線の並べ替えを行わずに各ブロックの画像信号にDCT処理が施され、空間領域上のマクロブロックにおける左上,右上,左下,右下の各ブロックに対応するDCT係数が、それぞれDCT領域上のマクロブロックにおけるブロック位置(0),(1),(2),(3)のブロック内に配置され、一方、マクロブロックがフィールドDCT処理される場合は、空間領域上のマクロブロックにおける走査線の並べ替えの後に各ブロックの画像信号にDCT処理が施され、第1フィールド左、第1フィールド右、第2フィールド左、第2フィールド右の各ブロックのDCTデータが、それぞれDCT領域のマクロブロックにおけるブロック位置(0),(1),(2),(3)のブロック内に配置されるものとする。
【0041】
次に、被符号化ブロックに対応するDCT係数(DCT領域における被符号化ブロックのデータ)を、符号化済みブロックのDCT係数を参照して予測し、この際、被符号化ブロックのDCTタイプに応じて、参照する符号化済みブロックを切替える適応的画面内DCT係数予測方法について詳しく説明する。
【0042】
まず、被符号化ブロックがフレームDCT処理されている場合の予測(以下、フレーム予測と称する)においては、図4(a) に示すように、被符号化ブロックx(i)の左上に位置するブロックを参照ブロックr0(i)、被符号化ブロックx(i)の上側に隣接して位置するブロックを参照ブロックr1(i)、被符号化ブロックx(i)の左隣りに位置するブロックを参照ブロックr2(i)として参照する。図4(a) に示す被符号化ブロックx(i)がフレームDCT処理されている場合の参照ブロックr0(i)、r1(i)およびr2(i)は、被符号化ブロックx(i)に空間的に最も近いブロックであり、通常、これらの参照ブロックのDCT係数は被符号化ブロックx(i)のDCT係数と相関が高いと考えられる。
【0043】
一方、被符号化ブロックがフィールドDCT処理されている場合の予測(以下、フィールド予測と称する)においては、図4(b)に示すように、被符号化ブロックx(i)の2ブロック上に位置するブロックの左隣に位置するブロックを参照ブロックr0(i)、被符号化ブロックx(i)の2ブロック上に位置するブロックを参照ブロックr1(i)、被符号化ブロックx(i)の左隣りに位置するブロックを参照ブロックr2(i)として参照する。図4(b)に示す被符号化ブロックx(i)がフィールドDCT処理されている場合の参照ブロックr0(i)、r1(i)およびr2(i)は、被符号化ブロックx(i)と同じフィールドに属する空間的に最も近いブロックであり、通常、これらの参照ブロックのDCT係数は被符号化ブロックx(i)のDCT係数と相関が高いと考えられる。
【0044】
次に、図5から図11を用いて、本実施の形態1で用いる適応的画面内DCT係数予測方法の処理手順について説明する。
図5は、本実施の形態の適応的画面内DCT係数予測方法の処理手順を表すフローチャートを示す図である。
【0045】
ステップ51において、被符号化ブロックx(i)のDCTタイプが判定され、この判定結果によってその後の処理が異なることとなる。
つまり、被符号化ブロックx(i)がフレームDCT処理されている場合は、ステップS52において、図4(a)に示す、被符号化ブロックx(i)に対する参照ブロックr0(i),r1(i)およびr2(i)を参照するフレーム予測により、被符号化ブロックx(i)のDCT係数の予測値が生成される。
【0046】
一方、被符号化ブロックx(i)がフィールドDCT処理されている場合は、ステップS53において、図4(b)に示す、被符号化ブロックx(i)に対する参照ブロックr0(i)、r1(i)およびr2(i)参照するフィールド予測により、被符号化ブロックx(i)のDCT係数の予測値が生成される。
【0047】
以上のようにして、被符号化ブロックx(i)のDCTタイプに応じて、予測に用いる参照ブロックを切替えることで、被符号化ブロックx(i)との間でDCT係数の相関の高いブロックのDCT係数を予測に用いることができ、これにより効率のよい予測を行うことができる。
【0048】
次に、図5に示すステップS52のフレーム予測方法の処理手順を、図6のフローチャートを用いて説明する。図6において、r0(i)、r1(i)、r2(i)およびx(i)は、それぞれ図4(a)の参照ブロックおよび被符号化ブロックを示す。図6のフレーム予測方法の処理手順においては、フレームDCT処理されている参照ブロック、すなわち被符号化ブロックx(i)と同じDCTタイプの参照ブロックを優先して予測に用いる。
【0049】
まず、ステップS611aにおいて、被符号化ブロックx(i)の左隣りの参照ブロックr2(i)のDCTタイプが判定される。この判定結果によってその後の処理が異なる。次に、ステップS612aおよびS613aにおいて、被符号化ブロックx(i)の上側に隣接して位置する参照ブロックr1(i)のDCTタイプが判定される。この判定結果によってその後の処理が異なる。このようにして、参照ブロックr1(i)およびr2(i)のDCTタイプによって、図6に示すフレーム予測の処理は、次の4つの処理(A1)〜(A4)に分けられる。
【0050】
(A1) 参照ブロックr1(i)およびr2(i)が共にフレームDCT処理されている場合は、ステップS614aにおいて、参照ブロックr0(i)、r1(i)およびr2(i)のDCT係数を参照して、後述する「所定の方法1」により被符号化ブロックx(i)のDCT係数の予測値を生成する。
【0051】
(A2) 参照ブロックr1(i)がフィールドDCTされ、参照ブロックr2(i)がフレームDCT処理されている場合は、従来の方法と同様にして、つまり図15に示すブロックR2のDCT係数からブロックXのDCT係数の予測値を生成するのと同様にして、ステップS615aにおいて、参照ブロックr2(i)のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値を生成する。
【0052】
(A3) 参照ブロックr1(i)がフレームDCT処理され、参照ブロックr2(i)がフィールドDCT処理されている場合は、従来の方法と同様にして、つまり図15に示すブロックR1のDCT係数からブロックXのDCT係数の予測値を生成するのと同様にして、ステップS616aにおいて、参照ブロックr1(i)のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値を生成する。
【0053】
(A4) 参照ブロックr1(i)およびr2(i)が共にフィールドDCT処理されている場合は、ステップS617aにおいて、参照フレームr0(i)、r1(i)およびr2(i)のDCT係数を参照して、後述する「所定の方法2」により被符号化ブロックx(i)の予測値を生成する。
【0054】
なお、ステップS617aにおいては、参照ブロックr0(i)、r1(i)およびr2(i)のDCT係数を参照せずに、0などの所定の値を予測値として用いるようにしてもよい。また、ステップS613aおよびステップS617aを省略して、参照ブロックr2(i)がフレームDCT処理されていない場合は、常にステップS616aにおいて、参照ブロックr1(i)のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値を生成するようにしてもよい。
【0055】
次に、図5に示すステップ53のフィールド予測方法における処理手順を、図7のフローチャートにより説明する。
図7に示すフィールド予測方法の処理手順は、図6に示すフレーム予測方法の処理手順において、フレームとフィールドを入れ替えたものである。
【0056】
ただし、図7によるフィールド予測方法の説明においては、参照ブロックr0(i)、r1(i)、r2(i)、および被符号化ブロックx(i)は、それぞれ図4(b)に示す参照ブロックおよび被符号化ブロックを示すものとする。
【0057】
すなわち、図7のフィールド予測方法の処理手順においても、被符号化ブロックx(i)と同じDCTタイプの参照ブロック(フィールドDCT処理が施された参照ブロック)を優先して予測に用いる。
【0058】
まず、ステップS711bにおいて、被符号化ブロックx(i)の左隣りの参照ブロックr2(i)のDCTタイプが判定される。この判定結果によってその後の処理が異なる。次に、ステップS712bおよびS713bにおいて、被符号化ブロックx(i)の上側に位置する参照ブロックr1(i)のDCTタイプが判定される。この判定結果によってその後の処理が異なる。このようにして、参照ブロックr1(i)およびr2(i)のDCTタイプによって、図7に示すフィールド予測の処理は、次の4つの処理(B1)〜(B4)に分けられる。
【0059】
(B1) 参照ブロックr1(i)およびr2(i)が共にフィールドDCT処理されている場合は、ステップS714bにおいて、参照ブロックr0(i)、r1(i)およびr2(i)のDCT係数を参照して、後述する「所定の方法1」により被符号化ブロックx(i)のDCT係数の予測値を生成する。
【0060】
(B2) 参照ブロックr1(i)がフレームDCT処理され、参照ブロックr2(i)がフィールドDCT処理されている場合は、従来の方法と同様にして、つまり図15に示すブロックR2のDCT係数からブロックXのDCT係数の予測値を生成するのと同様にして、ステップS715bにおいて、参照ブロックr2(i)のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値を生成する。
【0061】
(B3) 参照ブロックr1(i)がフィールドDCT処理され、参照ブロックr2(i)がフレームDCT処理されている場合は、従来の方法と同様にして、つまり図15に示すブロックR1のDCT係数からブロックXのDCT係数の予測値を生成するのと同様にして、ステップS716bにおいて、参照ブロックr1(i)のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値を生成する。
【0062】
(B4) 参照ブロックr1(i)およびr2(i)が共にフレームDCT処理されている場合は、ステップS717bにおいて、参照フレームr0(i)、r1(i)およびr2(i)のDCT係数を参照して、後述する「所定の方法2」により被符号化ブロックx(i)の予測値を生成する。
【0063】
なお、ステップS717bにおいては、参照ブロックr0(i)、r1(i)、およびr2(i)を参照せずに、0などの所定の値を予測値として用いるようにしてもよい。また、ステップS713bおよびステップS717bを省略して、参照ブロックr2(i)がフィールドDCT処理されていない場合は、常にステップS716bにおいて、参照ブロックr1(i)のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値を生成するようにしてもよい。
【0064】
以上、図6および図7の処理手順に示した予測方法のように、被符号化ブロックと同じDCTタイプのブロック、すなわち被符号化ブロックとの間でDCT係数の相関の高い参照ブロックを優先して、被符号化ブロックの予測に用いることにより、効率のよい予測を行うことができる。
【0065】
次に、上述した図6に示すステップS614aの「所定の方法1」またはステップS617aの「所定の方法2」に基づいた予測値生成方法の処理手順を、図8に示すフローチャートを用いて説明する。
【0066】
図8の方法では、従来のDCT係数予測方法と同様の処理を行うために、ステップS821aからステップS829aの処理において、図15に示す4つのブロックに対応した、該各ブロックのDCT係数を格納するための仮想的なメモリ空間(仮想バッファ)を想定し、該仮想バッファ上の各ブロックに対して従来のDCT係数予測方法を適用する。
【0067】
図8においては、R0、R1およびR2は仮想バッファ上の参照ブロックを表し、DC0、DC1およびDC2は、それぞれ上記仮想バッファ上の参照ブロックR0、R1およびR2のDCT係数のDC成分を表す。なお、図8の予測値生成方法の説明において、r0(i)、r1(i)、r2(i)、x(i)は図4(a)に示す位置関係を有する参照ブロック及び被符号化ブロックを表している。
図8に示す処理では、まず、ステップS821a、ステップS822aおよびステップS823aにおいて、参照ブロックR0のDCT係数が生成されるが、上記ステップS821aにおける、参照ブロックr0(i)のDCTタイプの判定結果によって、その後の、参照ブロックR0のDCT係数を生成する処理が異なる。
【0068】
すなわち、参照ブロックr0(i)がフィールドDCT処理されている場合は、ステップS822aにおいて、参照ブロックr0(i)の近傍のブロックから所定の方法によりDCT係数を生成し、生成したDCT係数を参照ブロックR0のDCT係数として上記仮想バッファに格納する。一方、参照ブロックr0(i)がフレームDCT処理されている場合は、ステップS823aにおいて、参照ブロックr0(i)のDCT係数が参照ブロックR0のDCT係数として仮想バッファに格納される。上記と同様にして、ステップS824a、825aおよび826aにおいて、参照ブロックR1のDCT係数が生成され、ステップS827a、828aおよびステップS829aにおいて、参照ブロックR2のDCT係数が生成されて、上記仮想バッファに格納される。
【0069】
以降の処理は従来のDCT係数予測方法と同様であり、ステップS830aにおいて、参照ブロックR0およびR1のDCT係数のDC成分の差の絶対値(|DC0−DC1|)と、参照ブロックR0およびR2のDCT係数のDC成分の差の絶対値(|DC0−DC2|)の大小が比較される。参照ブロックR0およびR2のDCT係数のDC成分の差の絶対値(|DC0−DC2|)が、参照ブロックR0およびR1のDCT係数のDC成分の差の絶対値(|DC0−DC1|)よりも小さい場合は、ステップS832aにおいて参照ブロックR1のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値が生成される。それ以外の場合は、ステップS831aにおいて参照ブロックR2のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値が生成される。
【0070】
なお、図6のステップS814aの「所定の方法1」においては、参照ブロックr1(i)およびr2(i)のDCTタイプはフレームであることが分かっているので、図8のステップS824a,ステップS827a,ステップS825aおよびステップS828aによる処理を省略することができる。
【0071】
次に、図7で示すステップS714bの「所定の方法1」またはステップS717bの「所定の方法2」における処理手順を、図9に示すフローチャートを用いて説明する。
【0072】
図9のフローチャートに示す処理手順は、図8のフローチャートに示す処理手順において、各ブロックがフレームDCTされているか否かの判定処理を、各ブロックがフィールドDCTされているか否かの判定処理と置き換えたものであり、処理の概要については、上記図7に示す処理と同様である。なお、図9では、参照ブロックr0(i),r1(i),r2(i)およびx(i)は、それぞれ図4(b)に示す位置関係を有する参照ブロックおよび被符号化ブロックを表している。
【0073】
図9に示す処理では、まず、ステップS921b、ステップS922bおよびステップS923bにおいて、参照ブロックR0のDCT係数が生成されるが、上記ステップS921bにおける、参照ブロックr0(i)のDCTタイプの判定結果によって、その後の、参照ブロックR0のDCT係数を生成する処理が異なる。
【0074】
すなわち、参照ブロックr0(i)がフレームDCT処理されている場合は、ステップS922bにおいて、参照ブロックr0(i)の近傍のブロックから所定の方法によりDCT係数が生成され、生成されたDCT係数が参照ブロックR0のDCT係数として上記仮想バッファに格納される。一方、参照ブロックr0(i)がフィールドDCT処理されている場合は、ステップS923bにおいて、参照ブロックr0(i)のDCT係数が参照ブロックR0のDCT係数として仮想バッファに格納される。上記と同様にして、ステップS924b、925bおよび926bにおいて、参照ブロックR1のDCT係数が生成され、ステップS927b、928bおよびステップS929bにおいて、参照ブロックR2のDCT係数が生成されて、上記仮想バッファに格納される。
【0075】
以降の処理は従来のDCT係数予測方法と同様であり、ステップS930bにおいて、参照ブロックR0およびR1のDCT係数のDC成分の差の絶対値(|DC0−DC1|)と、参照ブロックR0およびR2のDCT係数のDC成分の差の絶対値(|DC0−DC2|)の大小が比較される。参照ブロックR0およびR2のDCT係数のDC成分の差の絶対値(|DC0−DC2|)が、参照ブロックR0およびR1のDCT係数のDC成分の差の絶対値(|DC0−DC1|)よりも小さい場合は、ステップS932bにおいて参照ブロックR1のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値が生成される。それ以外の場合は、ステップS931bにおいて参照ブロックR2のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値が生成される。
【0076】
なお、図7のステップS714bの「所定の方法1」においては、参照ブロックr1(i)およびr2(i)のDCTタイプはフィールドであることが分かっているので、図9のステップS924b,927b,ステップS925bおよびステップS928bによる処理を省略することができる。
【0077】
このようにして、被符号化ブロックのDCT係数の予測処理において、被符号化ブロックと異なるDCTタイプのブロックのDCT係数を参照する必要のある場合に、被符号化ブロックと異なるDCTタイプのDCT係数をそのまま参照するのではなく、参照ブロックの近傍のブロックから、被符号化ブロックと同じDCTタイプのDCT係数の特性に近いDCT係数を生成して、生成したDCT係数を参照して被符号化ブロックのDCT係数を予測することにより、効率のよい予測を行うことが可能となる。
【0078】
図10は、図8のステップS822a,825a,828a,図9のステップS922b,S925b,S928bにおける、参照ブロックrの近傍のブロックからのDCT係数を生成する方法を説明するための概念図である。
【0079】
図10および図11の説明において、rは、周波数領域上の参照ブロックr0(i),参照ブロックr1(i),及び参照ブロックr2(i)のいずれかを示し、Rは、仮想バッファ上の参照ブロックR0,参照ブロックR1,及び参照ブロックR2のいずれかを示している。
【0080】
図8のステップS822a,825a,828a,及び図9のステップS922b,S925b,S928bにおける、参照ブロックrの近傍のブロックからDCT係数を生成する処理では、図10に示すように、参照ブロックr近傍の2つのブロックのDCT係数から所定の関数を用いてDCT係数を生成し、生成したDCT係数を仮想バッファ上の参照ブロックRのDCT係数とする。
【0081】
図11は、仮想バッファ上の参照ブロックRのDCT係数の生成手順を示している。ここでは、DCT領域上のマクロブロック内での参照ブロックrの位置によって、異なる処理が行われる。
【0082】
例えば、DCT領域のマクロブロックにおけるブロック位置(0)または(2)に、すなわちDCT領域のマクロブロックの左側に参照ブロックrが位置している場合は、ステップS1142Lにおいて、参照ブロックrが含まれるDCT領域のマクロブロックのブロック位置(0)および(2)に位置するブロックのDCT係数から、図10に示すように、所定の関数を用いて仮想バッファ上の参照ブロックRのDCT係数を生成する。DCT領域のマクロブロックのブロック位置(1)または(3)に、すなわちDCT領域のマクロブロックの右側の位置に参照ブロックrが位置している場合は、ステップS1142Rにおいて、参照ブロックrが含まれるDCT領域のマクロブロックのブロック位置(1)および(3)に位置するブロックのDCT係数から、図10に示すように、所定の関数を用いて仮想バッファ上の参照ブロックRのDCT係数を生成する。
【0083】
ここで用いる所定の関数としては、周波数領域上の参照ブロックrの近傍に位置する2つのブロックのDCT係数の平均または重み付け平均を、仮想バッファ上の参照ブロックRのDCT係数とする関数など、参照ブロックr近傍の2つのブロックのDCT係数から一意に仮想バッファ上の参照ブロックRのDCT係数の値を計算できる関数であればよい。
【0084】
そして、周波数領域上の2つのブロックを参照して生成したDCT係数は、ステップS1143において、仮想バッファ上の参照ブロックRのDCT係数とされる。
【0085】
このようにして、空間領域において参照ブロックrと同じ領域の情報を持つ2つのブロックのDCT係数から予測に用いる仮想領域上の参照ブロックRのDCT係数を生成することにより、被符号化ブロックと同じDCTタイプのDCT係数の周波数特性に近いDCT係数を生成することができる。
【0086】
このようにして、本実施の形態1で用いる適応的画面内DCT係数予測方法では、被符号化ブロックのDCTタイプに応じて予測に用いる参照ブロックを切替え、被符号化ブロックと同じDCTタイプの参照ブロックのDCT係数を優先して予測に利用し、さらに参照ブロックが被符号化ブロックと異なるDCTタイプの場合には、参照ブロックの近傍のブロックのDCT係数から、参照ブロックのDCTタイプが被符号化ブロックのDCTタイプと同一である場合の参照ブロックのDCT係数の周波数特性に近いブロックのDCT係数を生成して予測に用いるので、インタレース画像信号や特殊なプログレッシブ画像に対する画面内予測をDCT領域(周波数成分)において効率のよく行うことができる。
【0087】
この結果、本実施の形態1によれば、処理対象となるマクロブロックとして、異なるDCTタイプのマクロブロックが混在する、インタレース画像や特殊なプログレッシブ画像等に対するMPEG4方式の符号化処理では、画面内の情報を利用して被符号化ブロックのDCT係数の予測値効率の向上により、空間的に冗長な画像情報の除去または減少による画像信号の圧縮符号化を効率よく行うことが可能となる。
【0088】
なお、本実施の形態1において用いる適応的画面内DCT係数予測方法において、図4(a)および(b)の参照ブロックr2(i)のDCT係数を被符号化ブロックx(i)のDCT係数の予測値として用いる場合に、参照ブロックr2(i)と被符号化ブロックx(i)のDCTタイプが異なる場合は、参照ブロックr2(i)のDCT係数のDC成分のみを、被符号化ブロックx(i)のDCT係数の予測値として利用してもよい。また、場合によっては、参照ブロックr1(i)についても、そのDCT係数のDC成分のみを、被符号化ブロックx(i)のDCT係数の予測値として利用してもよい。
【0089】
また、上記実施の形態1では、上記ステップS923b,S926,S929bでは、それぞれ参照ブロックr(具体的には参照ブロックr0(i),r1(i),r2(i))のDCT係数から、被符号化ブロックのDCT係数の予測に用いる仮想バッファ上の参照ブロックR(具体的には参照ブロックR0,R1,R2)のDCT係数を生成しているが、上記ステップS923b,S926,S929bにおいては、それぞれ上記ステップS922b,S925,S928bと同様に、空間領域にて参照ブロックr(具体的には参照ブロックr0(i),r1(i),r2(i))の近傍に位置する2つのブロックのDCT係数から所定の関数を用いてDCT係数を生成し、生成したDCT係数を仮想バッファ上の参照ブロックRのDCT係数としてもよい。
【0090】
さらにこの場合において、図7に示すフィールド予測処理では、被符号化ブロックx(i)の左隣りの参照ブロックr2(i)及び被符号化ブロックx(i)の上側に隣接して位置する参照ブロックr1(i)のDCTタイプによって、上述した4つの処理B1〜B4のうちの1つを行うようにしているが、これらの処理B1〜B4のうちの処理1,処理B3,及び処理4を、以下に示す処理B1′,処理B3′,及びB4′に置き換えてもよい。
【0091】
上記処理B3′については、被符号化ブロックの上側に隣接する符号化済みブロック(つまり図4(b)に示す被符号化ブロックx(i)と符号化済みブロックr1(i)の間に位置する符号化済みブロック)を参照ブロックとして、この参照ブロックのDCT係数を被符号化ブロックのDCT係数の予測値として用いるものとする。
【0092】
上記処理B1′及び処理B4′については、ステップS922b,923bでは、参照ブロックr0(i)と、該参照ブロックr0(i)と参照ブロックr2(i)の間に位置する符号化済みブロックとを、0対1の重み付け比率で重み付け平均して、仮想バッファ上の参照ブロックR0のDCT係数を生成し、ステップS925b,926bでは、参照ブロックr1(i)と、該参照ブロックr1(i)と被符号化ブロックx(i)の間に位置する符号化済みブロックとを、0対1の重み付け比率で重み付け平均して、仮想バッファ上の参照ブロックR1のDCT係数を生成し、ステップS928b,929bでは、参照ブロックr2(i)と、該参照ブロックr2(i)と参照ブロックr0(i)の間に位置する符号化済みブロックとを、1対0の重み付け比率で重み付け平均して、仮想バッファ上の参照ブロックR1のDCT係数を生成するものとする。なお、上記処理B1′及びB4′処理では、各ブロックr0(i)〜r2(i)は被符号化ブロックx(i)に対して図4(b)に示す位置に位置しているものとする。
【0093】
言い換えると、上記処理B1′及び処理B4′は、参照ブロックr0(i)とその下側に隣接して位置する符号化済みブロックの間での重み付け平均を、該両ブロックのうちで被符号化ブロックx(i)に近い方の重み付け比率を1として行い、参照ブロックr1(i)とその下側に隣接して位置する符号化済みブロックの間での重み付け平均を、該両ブロックのうちで被符号化ブロックx(i)に近い方の比率を1として行い、さらに参照ブロックr2(i)とその上側に隣接して位置する符号化済みブロックの間での重み付け平均を、該両ブロックのうちで被符号化ブロックx(i)に近い方の比率を1として行うものである。
【0094】
この場合、重み付け平均のための演算処理が簡単なものとなり、また被符号化サブブロックに対して空間的に最も近い位置の符号化済みサブブロックの周波数成分を参照して被符号化サブブロックの周波数成分の予測値が生成されることとなるので、簡単な演算処理による適応的画面内DCT係数予測方法により、インターレースあるいは特定のプログレッシブ画像に対する符号化処理全体としての予測効率を向上することができる。
【0095】
実施の形態2.
本実施の形態2による画像処理装置(画像復号化装置)は、上記実施の形態1で示した画像符号化装置で用いた適応的画面内DCT係数予測方法を用いて、画像符号化信号の復号化を行うことを特徴としている。
【0096】
図2は、本実施の形態2による画像復号化装置のブロック図を示し、図1と同一符号は同一部分、または相当分を示す。
この画像復号化装置2000は、上記本実施の形態1による画像符号化装置1000により画像信号を符号化して得られる画像符号化信号(ビットストリーム)110bを受け、これに対して適応的画面内DCT係数予測方法を用いた復号化処理を施すものである。
【0097】
すなわち、この画像復号化装置2000は、画像符号化装置1000より出力されたビットストリーム110bを受け、これをそのデータ解析により可変長復号化して、被復号化ブロックに対応するDCT係数差分値108(被符号化ブロックのDCT係数量子化値107とその画面内予測値111との差分値)を復元する可変長復号化器(VLD器)203と、被復号化ブロックに対する画面内予測値111を生成する画面内予測処理部210と、該画面内予測値111と上記DCT係数差分値108とを加算して、被復号化ブロックに対するDCT係数量子化値106を復元する加算器112とを有している。
【0098】
ここで、上記画面内予測処理部210は、上記加算器112の出力106を復号化済みブロックのDCT係数量子化値として格納するブロックメモリ115と、画像符号化装置1000からのDCTタイプ信号102に応じて、適応的画面内DCT係数予測方法により、上記ブロックメモリ115に格納されている復号化済みブロックのDCT係数量子化値114から被復号化ブロックのDCT係数量子化値に対する予測値111を生成するDCT係数予測器113とから構成されている。
【0099】
また、上記画像復号化装置2000は、上記加算器112の出力106に対して逆量子化処理を施して、被復号化ブロックに対するDCT係数104を復元する逆量子化器207と、該逆量子化器207の出力に対して逆DCT処理を施して、被復号化ブロックに対する画像信号101を復元する逆DCT器209と、該逆DCT器209の出力を受け、画像符号化装置1000からのDCTタイプ信号102に基づいて、走査線構造の画像信号110aを復元する逆ブロック化器200とを有している。
【0100】
次に動作について説明する。
本画像復号化装置2000に、画像符号化装置1000からの画像符号化信号110bが入力されると、該画像符号化信号110bはVLD器203にてそのデータ解析により可変長復号化され、被復号化ブロックに対するDCT係数差分値108として出力される。
【0101】
この被復号化ブロックに対するDCT係数差分値108は、加算器112にてその予測値111と加算されて、被復号化ブロックに対するDCT係数量子化値106が復元される。
【0102】
このとき、上記被復号化ブロックに対するDCT係数量子化値106は、上記画面内予測処理部210に供給され、そのブロックメモリ115に復号化済みブロックのDCT係数量子化値として格納される。さらに、DCT係数予測器113には、上記ブロックメモリ115から復号化済みブロックに対応するDCT係数量子化値114が読み出され、ここでは、画像符号化装置1000からのDCTタイプ信号102に基づいてブロックメモリ115からのDCT係数量子化値114を参照して、上記被復号化ブロックの次に処理される次復号化ブロックのDCT係数差分値108に対する予測値を生成する適応的DCT係数予測処理が、画像符号化装置1000の画面内予測処理部110における予測値生成処理と同様に行われる。
【0103】
さらに上記DCT係数量子化値106は、逆量子化器207にて逆量子化処理により、被復号化ブロックに対するDCT係数104に変換され、さらにこのDCT係数104は、逆DCT器209にて逆離散コサイン変換により、被復号化ブロックに対する画像信号101に変換される。
【0104】
そしてこの被復号化ブロックに対する画像信号101が逆ブロック化器200に供給されると、該逆ブロック化器200では、画像符号化装置1000からのDCTタイプ信号102に基づいて、走査線構造の画像信号110aが再生される。
【0105】
このように本実施の形態2では、適応的画面内DCT係数予測方法を用いて、画像符号化信号の復号化を行うので、インタレース画像あるいは特殊なプログレッシブ画像に対応する画像信号を適応的画面内DCT係数予測処理を用いて画面内予測符号化して得られた画像符号化信号(ビットストリーム)を、DCT領域における画面内予測処理により効率よくしかも正しく復号化することができる。
【0106】
実施の形態3.
次に本発明の実施の形態3による画像処理装置(画像符号化装置)について説明する。
本実施の形態3による画像符号化装置は、上記実施の形態1における、図5に示す予測値生成手順のステップS52でのフレーム予測により被符号化ブロックのDCT係数の予測値を生成する処理を、図12に示す処理手順で実施し、実施の形態1における、ステップS53でのフィールド予測により被符号化ブロックのDCT係数の予測値を生成する処理を、図13に示す処理手順で実施する構成としたものである。
【0107】
そして本実施の形態3の画像符号化装置による適応的画面内DCT係数予測処理は、フレーム予測方法およびフィールド予測方法以外については、上記実施の形態1の適応的画面内DCT係数予測処理と同様であるので、ここでは図12および図13を用いて本実施の形態3におけるフレーム予測方法およびフィールド予測方法についてのみ説明する。
【0108】
図12は、図5に示すステップS52におけるフレーム予測方法を実現する本実施の形態3での処理手順をフローチャートにより示す。図12において、r0(i)、r1(i)、r2(i)およびx(i)は、それぞれ図4(a)に示す参照ブロックおよび被符号化ブロックを表すものとする。
【0109】
この実施の形態3では、まず、ステップS1221aにて参照ブロックr2(i)のDCTタイプが判定される。この判定結果によってその後の処理が異なる。
【0110】
すなわち、参照ブロックr2(i)がフレームDCT処理されている場合は、「所定の方法」として図8に示す予測値生成方法を用いて被符号化ブロックx(i)のDCT係数の予測値を生成する。図8の予測値生成方法については、実施の形態1において説明したものと同じであるのでここではその説明を省略する。
【0111】
なお、図12のステップS1222aの「所定の方法」においては、r2(i)のDCTタイプはフレームDCTであることが分かっているので、図8のステップS827aおよびステップS828aを省略することができる。
【0112】
一方、参照ブロックr2(i)がフィールドDCT処理されている場合は、図15に示す従来の方法と同様にして、つまり図15に示すように参照ブロックR1のDCT係数から被符号化ブロックXのDCT係数の予測値を生成するのと同様にして、参照ブロックr1(i)のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値を生成する。
【0113】
図13は、図5に示すステップS53におけるフィールド予測方法を実現する本実施の形態3での処理手順をフローチャートにより示す。図13に示す処理は、図12の処理において、フレームとフィールドを入れ替えたものであり、処理の概要については同様であるのでここではその詳細については説明を省略する。ただし、図13のフィールド予測方法の説明において、r0(i)、r1(i)、r2(i)およびx(i)は、それぞれ図4(b)の参照ブロックおよび被符号化ブロックを表すものとする。
【0114】
このように、本実施の形態3の画像符号化装置における適応的画面内DCT係数予測方法では、図5のステップS52のフレーム予測方法、およびステップS53のフィールド予測方法を、上記実施の形態1と比べて簡略化することにより、符号化時にDCT領域における画面内予測処理を簡単化および高速化することができる。
【0115】
実施の形態4.
次に本発明の実施の形態4による画像処理装置(画像復号化装置)について説明する。
本実施の形態4による画像復号化装置は、上記実施の形態2における、図5に示す予測値生成手順のステップS52でのフレーム予測により被符号化ブロックのDCT係数の予測値を生成する処理を、図12に示す処理手順で実施し、実施の形態1における、ステップS53でのフィールド予測により被符号化ブロックのDCT係数の予測値を生成する処理を、図13に示す処理手順で実施する構成としたものである。
【0116】
このような構成の本実施の形態4の画像復号化装置では、適応的画面内DCT係数予測方法を行う際、図5のステップS52のフレーム予測方法、およびステップS53のフィールド予測方法が、上記実施の形態2と比べて簡略化されることとなり、これにより復号化時にDCT領域における画面内予測処理を簡単化および高速化することができる。
【0117】
実施の形態5.
本発明の実施の形態5による画像処理装置(画像符号化装置)は、被符号化ブロックのDCTタイプ信号(つまり被符号化ブロックがフレームDCT処理を施されたものであるかフィールドDCT処理を施されたものであるか)に拘わらず、被符号化ブロックに対して所定の位置関係を有する符号化済みブロックのDCT係数から被符号化ブロックのDCT係数の予測値を生成する方法を用いて、画像信号の画面内予測符号化を行うことを特徴としている。ここで、DCTタイプ信号とは、被符号化ブロックがフレームDCT処理されているかフィールドDCT処理されているかを示す信号を表すものとする。またブロックは、16×16画素からなるマクロブロックを構成する8×8画素からなる4つのサブブロックを表すものとする。これら4つのサブブロックは、マクロブロック内の左上(図3のブロック位置(0)),右上(図3のブロック位置(1)),左下(図3のブロック位置(2)),右下(図3のブロック位置(3))に位置している。
【0118】
図17は、本実施の形態5による画像符号化装置の構成を示すブロック図である。
図において、3000は本実施の形態5の画像符号化装置であり、入力されるデジタル画像信号(入力画像信号)110aを、これにより形成される画像空間(フレーム)を分割する複数のマクロブロックの各々に対応するよう分割し、各マクロブロックを構成するブロックに対応する画像信号を上記ブロック毎に符号化する構成となっている。
【0119】
すなわち、この画像符号化装置3000は、実施の形態1の画像符号化装置1000と同様、上記入力画像信号110aを、周波数変換の処理単位となるフレームまたはフィールド毎に上記各ブロックに対応するようブロック化するとともに、上記ブロック化された画像信号101、および上記周波数変換(DCT処理)の処理単位を示すDCTタイプ信号102を出力するブロック化器100を有している。このブロック化器100は、入力画像信号110aを受け、フィールド間での画素値の相関がフレーム内のものに比べて高い場合には、フィールドDCT処理が実施されるよう、予め16×16画素からなるマクロブロックを単位として走査線の並べ替えを行い、走査線の並べ替えが行われたマクロブロックを構成する8×8画素からなるブロック毎に画像信号を出力する構成となっている。なお、上記ブロック化器100では、フィールド間での画素値の相関がフレーム内のものに比べて小さい場合は、上記のようなマクロブロックを単位する走査線の並べ替えは行われず、入力画像信号は上記ブロック毎に出力されることとなる。
【0120】
具体的には、上記ブロック化器100では、上記走査線の並べ替え処理は、奇数番目の水平画素列(水平走査線)に対応する画像信号により形成される第1フィールドの画像が該マクロブロックの上側,つまりブロック位置(0)及び(1)に位置し、かつ偶数番目の水平画素列(水平走査線)に対応する画像信号により形成される第2のフィールドの画像が該マクロブロックの下側,つまりブロック位置(2)及び(3)に位置するよう行われる。
【0121】
そして、上記ブロック化器100は、マクロブロックに対応する画像信号を、上記ブロック位置(0)〜(3)のブロックに対応するよう分割して出力するようになっている。
【0122】
また、上記画像符号化装置3000は、上記実施の形態1の画像符号化装置1000と同様、符号化処理の対象となる被符号化ブロックに対応する画像信号101に対して離散コサイン変換(DCT処理)を施すDCT器103と、このDCT器103の出力104を量子化する量子化器105と、上記被符号化ブロックに対応する予測値111を生成する画面内予測処理部310と、上記量子化器105の出力(DCT係数量子化値)106から上記予測値111を減算してDCT係数差分値108を出力する加算器107とを有しており、このDCT係数差分値108が、VLC器109により可変長符号化されて、ビットストリーム(画像符号化信号)110bとして出力されるようになっている。
【0123】
また、上記画面内予測処理部310は、上記DCT係数差分値108と画面内予測値111とを加算する加算器112と、該加算器112の出力を符号化済みブロックのDCT係数量子化値116として格納するブロックメモリ115と、被符号化ブロックのDCT係数量子化値の予測値111を、画像空間上で被符号化ブロックに隣接する符号化済みブロックのDCT係数量子化値114から生成するDCT係数予測器313とから構成されている。
【0124】
本実施の形態5では、上記DCT係数予測器313は、被符号化ブロックのDCTタイプに拘わらず、図19に示すように、被符号化ブロックx(i)の左上に隣接して位置するブロックr0(i)、被符号化ブロックx(i)の上側に隣接して位置するブロックr1(i)、及び被符号化ブロックx(i)の左隣りに位置するブロックr2(i)を、参照ブロックとして、上記被符号化ブロックx(i)のDCT係数量子化値の予測値111を生成する構成となっている。
【0125】
なお、この実施の形態5におけるDCT器103,量子化器105,加算器107,112,VLC器109,及びブロックメモリ115は、実施の形態1のものと同一構成となっている。
【0126】
次に動作について説明する。
まず、この実施の形態5の画像符号化装置の全体的な動作について簡単に説明する。
デジタル画像信号(入力画像信号)110aが本画像符号化装置3000に入力されると、ブロック化器100にて、上記入力画像信号110aは、周波数変換の処理単位となるフレームまたはフィールド毎に上記各ブロックに対応するようブロック化されるとともに、上記ブロック化された画像信号101、および上記周波数変換(DCT処理)の処理単位を示すDCTタイプ信号102が出力される。
【0127】
このときこのブロック化器100では、フィールド間での画素値の相関がフレーム内のものに比べて高い場合には、フィールドDCT処理が実施されるよう、予め16×16画素からなるマクロブロックを単位として、画像信号に対して走査線の並べ替え処理が行われ、走査線の並べ替え処理が行われた画像信号が、該マクロブロックを構成する8×8画素からなるブロック毎に出力される。この場合、走査線の並べ替え処理が施されたマクロブロックでは、奇数番目の水平画素列(水平走査線)に対応する画像信号により形成される第1フィールドの画像が該マクロブロックの上側,つまりブロック位置(0)及び(1)に位置し、かつ偶数番目の水平画素列(水平走査線)に対応する画像信号により形成される第2のフィールドの画像が該マクロブロックの下側,つまりブロック位置(2)及び(3)に位置することとなる。
【0128】
なお、上記ブロック化器100では、フィールド間での画素値の相関がフレーム内のものに比べて小さい場合は、上記のようなマクロブロックを単位とする走査線の並べ替え処理は行われず、入力画像信号は上記ブロック毎に出力されることとなる。
【0129】
そして、符号化処理の対象となる被符号化ブロックの画像信号101は、DCT器103にて離散コサイン変換(DCT処理)により、上記被符号化ブロックに対応する周波数成分(DCT係数)104に変換され、さらにこのDCT係数104は、量子化器105にて量子化されて、被符号化ブロックに対する量子化値(DCT係数量子化値)106として出力される。
【0130】
さらに、上記被符号化ブロックのDCT係数量子化値106が加算器107に供給されると、この量子化値106とその予測値111の差分が求められてDCT係数差分値108として出力される。このDCT係数差分値108は、VLC器109により可変長符号化されて、ビットストリーム(画像符号化信号)110bとして出力される。
【0131】
また、上記加算器107から出力されるDCT係数差分値108は、画面内予測処理部310に供給され、ここで上記DCT係数量子化値106に対する予測値が生成される。
【0132】
すなわち、上記画面内予測処理部310では、加算器112により上記DCT係数差分値108と画面内予測値111が加算され、これらの加算値が符号化済みブロックのDCT係数量子化値116としてブロックメモリ115に格納される。そして、DCT係数予測器313では、符号化済みブロックのDCT係数量子化値114から被符号化ブロックのDCT係数量子化値の予測値111が生成される。
【0133】
次に、上記符号化処理における画面内DCT係数予測方法について詳しく説明する。
本実施の形態5の画面内DCT係数予測方法は、被符号化ブロックに対応するDCT係数の予測値を生成する際には、実施の形態1とは異なり、被符号化ブロックのDCTタイプに拘わらず、常に被符号化ブロックに対して所定の位置関係を有する符号化済みブロックを参照するものである。
【0134】
本実施の形態5においても、実施の形態1と同様、DCT領域(周波数領域)は、画像空間(空間領域)を形成する画像信号をDCT処理(周波数変換)して得られる周波数成分により形成される領域とし、空間領域(画像空間)におけるマクロブロックの配置のとおりに、DCT領域(周波数領域)において各マクロブロックは配置されているものとする。
【0135】
また、この実施の形態5においても実施の形態1と同様、図3のように、マクロブロックがフレームDCT処理される場合は、マクロブロックにおける走査線の並べ替えを行わずに各ブロックの画像信号にDCT処理が施され、空間領域上のマクロブロックにおける左上,右上,左下,右下の各ブロックに対応するDCT係数が、それぞれDCT領域上のマクロブロックにおけるブロック位置(0),(1),(2),(3)のブロック内に配置され、一方、マクロブロックがフィールドDCT処理される場合は、空間領域上のマクロブロックにおける走査線の並べ替えの後に各ブロックの画像信号にDCT処理が施され、第1フィールド左、第1フィールド右、第2フィールド左、第2フィールド右の各ブロックのDCT係数が、それぞれDCT領域のマクロブロックにおけるブロック位置(0),(1),(2),(3)のブロック内に配置されるものとする。
【0136】
次に、被符号化ブロックに対応するDCT係数(DCT領域における被符号化ブロックのデータ)を、符号化済みブロックのDCT係数を参照して予測する、本実施の形態5の画面内DCT係数予測方法について詳しく説明する。
【0137】
まず、被符号化ブロックがフレームDCT処理されているかフィールドDCT処理されているかに拘わらず、図19に示すように、被符号化ブロックx(i)の左上に位置するブロックを参照ブロックr0(i)、被符号化ブロックx(i)の上側に隣接して位置するブロックを参照ブロックr1(i)、被符号化ブロックx(i)の左隣りに位置するブロックを参照ブロックr2(i)として参照する。
【0138】
そして図20にフローチャートで示すように、従来のDCT係数予測方法と同様に、ステップS2130aにおいて、参照ブロックr0(i)およびr1(i)のDCT係数のDC成分の差の絶対値(|DC0−DC1|)と、参照ブロックr0(i)およびr2(i)のDCT係数のDC成分の差の絶対値(|DC0−DC2|)の大小が比較される。参照ブロックr0(i)およびr2(i)のDCT係数のDC成分の差の絶対値(|DC0−DC2|)が、参照ブロックr0(i)およびr1(i)のDCT係数のDC成分の差の絶対値(|DC0−DC1|)よりも小さい場合は、ステップS2132aにおいて参照ブロックr1(i)のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値が生成される。
それ以外の場合は、ステップS2131aにおいて参照ブロックr2(i)のDCT係数を用いて被符号化ブロックx(i)のDCT係数の予測値が生成される。
【0139】
このように本実施の形態5では、被符号化ブロックのDCT係数の予測処理において、被符号化ブロックに対して所定の位置関係を有する符号化済みブロックを参照ブロックとして用い、被符号化ブロック近傍で縦方向に隣接して並ぶ参照ブロック間でのDCT係数の相関と、被符号化ブロック近傍で横方向に隣接して並ぶ参照ブロック間でのDCT係数の相関の大小を比較してDCT係数の相関の強い方向を求め、被符号化ブロックに対してDCT係数の相関の強い方向に位置する参照ブロックを選択し、選択した参照ブロックのDCT係数から被符号化ブロックのDCT係数の予測値を求めるので、インタレース画像信号や特殊なプログレッシブ画像に対する画面内予測をDCT領域(周波数成分)において効率よくしかも簡単な処理手順によって行うことができる。
【0140】
この結果、本実施の形態5によれば、処理対象となるマクロブロックとして、異なるDCTタイプのマクロブロックが混在する、インタレース画像や特殊なプログレッシブ画像等に対するMPEG4方式の符号化処理では、画面内の情報を利用して被符号化ブロックのDCT係数の予測値効率を向上して、空間的に冗長な画像情報の削減による画像信号の圧縮符号化を効率よく簡単に行うことが可能となる。
【0141】
なお、本実施の形態5において用いる画面内DCT係数予測方法において、図19の参照ブロックr1(i)あるいは参照ブロックr2(i)のDCT係数を被符号化ブロックx(i)のDCT係数の予測値として用いる場合に、参照ブロックr1(i)あるいは参照ブロックr2(i)のDCT係数のDC成分のみを、被符号化ブロックx(i)のDCT係数の予測値として利用してもよい。
【0142】
実施の形態6.
本実施の形態6による画像処理装置(画像復号化装置)は、上記実施の形態5で示した画像符号化装置で用いた画面内DCT係数予測方法を用いて、画像符号化信号の復号化を行うことを特徴としている。
【0143】
図18は、本実施の形態6による画像復号化装置のブロック図を示し、図17と同一符号は同一部分、または相当分を示す。
この画像復号化装置4000は、上記本実施の形態5による画像符号化装置3000により画像信号を符号化して得られる画像符号化信号(ビットストリーム)110bを受け、これに対して画面内DCT係数予測方法を用いた復号化処理を施すものである。
【0144】
すなわち、この画像復号化装置4000は、画像符号化装置3000より出力されたビットストリーム110bを受け、これをそのデータ解析により可変長復号化して、被復号化ブロックに対応するDCT係数差分値108(被符号化ブロックのDCT係数量子化値107とその画面内予測値111との差分値)を復元する可変長復号化器(VLD器)203と、被復号化ブロックに対する画面内予測値111を生成する画面内予測処理部410と、該画面内予測値111と上記DCT係数差分値108とを加算して、被復号化ブロックに対するDCT係数量子化値11 6を復元する加算器112とを有している。
【0145】
ここで、上記画面内予測処理部410は、上記加算器112の出力11 6を復号化済みブロックのDCT係数量子化値として格納するブロックメモリ115と、実施の形態5の画像符号化装置3000における画面内DCT係数予測方法により、上記ブロックメモリ115に格納されている復号化済みブロックのDCT係数量子化値114から被復号化ブロックのDCT係数量子化値に対する予測値111を生成するDCT係数予測器313とから構成されている。
【0146】
また、上記画像復号化装置4000は、上記加算器112の出力116に対して逆量子化処理を施して、被復号化ブロックに対するDCT係数104を復元する逆量子化器207と、該逆量子化器207の出力に対して逆DCT処理を施して、被復号化ブロックに対する画像信号101を復元する逆DCT器209と、該逆DCT器209の出力を受け、画像符号化装置4000からのDCTタイプ信号102に基づいて、走査線構造の画像信号110aを復元する逆ブロック化器200とを有している。
【0147】
この逆ブロック化器200では、画像空間上で同一のマクロブロックに属するブロックの画像信号を、該マクロブロック内でのブロックの位置に対応させて組み合わせて、マクロブロックに対応する画像信号を生成するとともに、奇数番目の水平画素列に対応する画像信号により形成される第1フィールドの画像が上記マクロブロックの上側に位置し、かつ偶数番目の水平画素列に対応する画像信号により形成される第2フィールドの画像が該マクロブロックの下側に位置するよう、符号化の際に水平画素列の並べ替え処理が施されたマクロブロックの画像信号に対しては、上記第1フィールドと第2フィールドからなるフレームの画像が形成されるよう水平画素列の逆並べ替え処理を施し、一方、符号化の際に上記水平画素列の並べ替え処理が施されなかったマクロブロックの画像信号に対しては、上記水平画素列の逆並べ替え処理を施さずに、複数のマクロブロックからなる上記画像空間の画像信号を生成する構成となっている。
【0148】
次に動作について説明する。
本画像復号化装置4000に、画像符号化装置3000からの画像符号化信号110bが入力されると、該画像符号化信号110bはVLD器203にてそのデータ解析によ可変長復号化され、被復号化ブロックに対するDCT係数差分値108として出力される。
【0149】
この被復号化ブロックに対するDCT係数差分値108は、加算器112にてその予測値111と加算されて、被復号化ブロックに対するDCT係数量子化値116が復元される。
【0150】
このとき、上記被復号化ブロックに対するDCT係数量子化値116は、上記画面内予測処理部410に供給され、そのブロックメモリ115に復号化済みブロックのDCT係数量子化値として格納される。さらに、DCT係数予測器313には、上記ブロックメモリ115から復号化済みブロックに対応するDCT係数量子化値114が読み出され、ここでは、ブロックメモリ115からのDCT係数量子化値114を参照して、上記被復号化ブロックの次に処理される次復号化ブロックのDCT係数差分値108に対する予測値を生成するDCT係数予測処理が、画像符号化装置3000の画面内予測処理部110における予測値生成処理と同様に行われる。
【0151】
さらに上記DCT係数量子化値116は、逆量子化器207にて逆量子化処理により、被復号化ブロックに対するDCT係数104に変換され、さらにこのDCT係数104は、逆DCT器209にて逆離散コサイン変換により、被復号化ブロックに対する画像信号101に変換される。
【0152】
そしてこの被復号化ブロックに対する画像信号101が逆ブロック化器200に供給されると、該逆ブロック化器200では、画像符号化装置3000からのDCTタイプ信号102に基づいて、走査線構造の画像信号110aが再生される。
【0153】
このように本実施の形態6では、画面内DCT係数予測方法を用いて、画像符号化信号の復号化を行うので、インタレース画像あるいは特殊なプログレッシブ画像に対応する画像信号を画面内DCT係数予測処理を用いて画面内予測符号化して得られた画像符号化信号(ビットストリーム)を、DCT領域における簡単な画面内予測処理により効率よくしかも正しく復号化することができる。
【0154】
さらに、上記各実施の形態で示した画像符号化装置あるいは画像復号化装置による画像処理を実現するための符号化あるいは復号化プログラムを、フレキシブルディスク等のデータ記憶媒体に記録するようにすることにより、上記各実施の形態で示した処理を、独立したコンピュータシステムにおいて簡単に実施することが可能となる。
【0155】
図14は、上記実施の形態1〜6の画像符号化処理あるいは画像復号化処理を、上記符号化あるいは復号化プログラムを格納したフレキシブルディスクを用いて、コンピュータシステムにより実施する場合を説明するための図である。
【0156】
図14(a) は、フレキシブルディスクの正面からみた外観、断面構造、及びフレキシブルディスク本体を示し、図14(b)は、該フレキシブルディスク本体の物理フォーマットの例を示している。
【0157】
上記フレキシブルディスクFDは、上記フレキシブルディスク本体DをフレキシブルディスクケースFC内に収容した構造となっており、該フレキシブルディスク本体Dの表面には、同心円状に外周からは内周に向かって複数のトラックTrが形成され、各トラックTrは角度方向に16のセクタSeに分割されている。従って、上記プログラムを格納したフレキシブルディスクFDでは、上記フレキシブルディスク本体Dは、その上に割り当てられた領域(セクタ)Seに、上記プログラムとしてのデータが記録されたものとなっている。
【0158】
また、図14(c) は、フレキシブルディスクFDに対する上記プログラムの記録、及びフレキシブルディスクFDに格納したプログラムを用いた画像処理を行うための構成を示している。
【0159】
上記プログラムをフレキシブルディスクFDに記録する場合は、コンピュータシステムCsから上記プログラムとしてのデータを、フレキシブルディスクドライブFDDを介してフレキシブルディスクFDに書き込む。また、フレキシブルディスクFDに記録されたプログラムにより、上記任意形状符号化装置あるいは任意形状復号化装置をコンピュータシステムCs中に構築する場合は、フレキシブルディスクドライブFDDによりプログラムをフレキシブルディスクFDから読み出し、コンピュータシステムCsにロードする。
【0160】
なお、上記説明では、データ記憶媒体としてフレキシブルディスクを用いて説明を行ったが、光ディスクを用いても上記フレキシブルディスクの場合と同様にソフトウェアによる符号化処理あるいは復号化処理を行うことができる。また、記録媒体は上記光ディスクやフレキシブルディスクに限るものではなく、ICカード、ROMカセット等、プログラムを記録できるものであればよく、これらの記録媒体を用いる場合でも、上記フレキシブルディスク等を用いる場合と同様にソフトウェアによる符号化処理あるいは復号化処理を実施することができる。
【0161】
【発明の効果】
以上のように、本発明に係る画像処理方法によれば、複数の画素からなる画像空間を形成する画像信号を、該画像空間を区分する矩形形状の複数のマクロブロックに分割し、該マクロブロックを構成するサブブロックに対応する画像信号の符号化処理を、サブブロック毎に行う画像処理方法であって、上記マクロブロックの画像信号に対して、上記画像信号を構成する第1フィールドの画像信号が該マクロブロックの上側に位置し、かつ上記画像信号を構成する第2フィールドの画像が該マクロブロックの下側に位置するよう、水平画素列の並べ替え処理を施す並べ替えステップと、上記サブブロック化した画像信号をサブブロック単位の周波数変換により周波数成分に変換する変換ステップと、被符号化サブブロックの左側または上側に位置する符号化済みのサブブロックの周波数成分に基づいて被符号化サブブロックの周波数成分の予測値を生成する予測ステップと、上記被符号化サブブロックの周波数成分と上記予測値との差分値を符号化する符号化ステップとを有し、上記変換ステップは、上記並べ替え処理が施されたマクロブロックあるいは並べ替え処理が施されていないマクロブロックの画像信号を、上記マクロブロックを構成する左上、右上、左下、右下に位置する4つのサブブロック毎に周波数変換を行って周波数成分に変換し、上記予測ステップは、上記被符号化サブブロックの左側または上側に位置する符号化済みサブブロックがフィールド単位または、フレーム単位のいずれで周波数変換されているかの処理単位を特定し、上記被符号化サブブロックの左側または上側に位置する少なくともいずれか一方の符号化済みサブブロックの周波数変換の処理単位が上記被符号化サブブロックの周波数変換の処理単位と同じ場合に、周波数変換の処理単位が同じである上記左側または上側に位置するいずれか一方の符号化済みのサブブロックの周波数成分の直流成分から上記予測値を生成し、上記被符号化サブブロックの左側および上側に位置する符号化済みブロックの周波数変換の処理単位と上記被符号化サブブロックの周波数変換の処理単位とが異なる場合には、上記被符号化サブブロックの左側近傍、上側近傍および左上近傍に位置する符号化済みサブブロックから所定の方法により周波数成分の直流成分を生成し、生成した周波数成分の直流成分から上記予測値を生成し、上記被符号化サブブロックがフィールド単位で周波数変換されている場合は、上記被符号化サブブロックの左側に隣接するサブブロックを左側に位置する符号化済みサブブロックとして用い、上記被符号化サブブロックが含まれるブロックの上側に隣接するブロック内で被符号化サブブロックと同じ位置にあるサブブロックを上側に位置する符号化済みサブブロックとして用いるものであり、上記被符号化サブブロックがフレーム単位で周波数変換されている場合は、上記被符号化サブブロックの左側または上側に隣接するサブブロックを、それぞれ左側または上側に位置する符号化済みサブブロックとして用いるものである、ことを特徴とするので、フィールドDCTタイプのマクロブロックが混在する、インターレース画像あるいは特定のプログレッシブ画像を、画像信号に含まれる空間的に冗長な画像情報を画面内予測処理により十分に削減して、効率よく符号化することができる。
【0162】
また、被符号化サブブロック近傍の、周波数成分を参照するサブブロックを、該被符号化ブロックの上側近傍,左側近傍,及び左上近傍に位置する符号化済みサブブロックの周波数成分の直流成分に基づいて決定するため、被符号化サブブロックとの間でのDCT係数の相関の高い符号化済みサブブロックを簡単に特定することができる。
【0163】
本発明によれば、上記画像処理方法において、上記被符号化サブブロックの上側近傍に位置する符号化済みサブブロックとして、該被符号化サブブロックの上側に隣接して位置する上側符号化済みサブブロックを用い、上記被符号化サブブロックの左側近傍に位置する符号化済みサブブロックとして、該被符号化サブブロックの左側に隣接して位置する左側符号化済みサブブロックを用い、上記被符号化サブブロックの左上近傍に位置する符号化済みサブブロックとして、該被符号化サブブロックの左上側に隣接して位置する左上側符号化済みサブブロックを用い、上記上側符号化済みサブブロックの周波数成分の直流成分と左上側符号化済みサブブロックの周波数成分の直流成分との差分の絶対値が、上記左側符号化済みサブブロックの周波数成分の直流成分と左上側符号化済みサブブロックの周波数成分の直流成分との差分の絶対値より小さいとき、上記左側符号化済みサブブロックの周波数成分を参照して被符号化サブブロックの周波数成分の予測値を生成し、一方、上記左側符号化済みサブブロックの周波数成分の直流成分と左上側符号化済みサブブロックの周波数成分の直流成分との差分の絶対値が、上記上側符号化済みサブブロックの周波数成分の直流成分と左上側符号化済みサブブロックの周波数成分の直流成分との差分の絶対値より小さいとき、上記上側符号化済みサブブロックの周波数成分を参照して被符号化サブブロックの周波数成分の予測値を生成する、ことを特徴とするので、被符号化サブブロックの周波数成分の予測値を生成する際、被符号化サブブロックに対して空間的に近い符号化済みサブブロックの周波数成分が参照されることとなり、予測効率の向上を図ることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1による画像処理装置(画像符号化装置)の構成を示すブロック図である。
【図2】本発明の実施の形態2による画像処理装置(画像復号化装置)の構成を示すブロック図である。
【図3】上記実施の形態1の画像符号化装置による画面内予測符号化処理を説明するための図であり、DCT領域のマクロブロックにおけるDCTブロックの配置を示している。
【図4】上記実施の形態1の画像符号化装置による画面内予測符号化処理を説明するための図であり、フレーム予測およびフィールド予測における参照ブロックの被符号化ブロックに対する位置関係を示している。
【図5】上記実施の形態1の画像符号化装置及び実施の形態2の画像復号化装置による適応的画面内DCT係数予測処理をフローチャートにより示す図である。
【図6】上記実施の形態1の画像符号化装置及び実施の形態2の画像復号化装置による予測処理におけるフレーム予測方法をフローチャートにより示す図である。
【図7】上記実施の形態1の画像符号化装置及び実施の形態2の画像復号化装置による予測処理におけるフィールド予測方法をフローチャートにより示す図である。
【図8】上記フレーム予測における予測値生成方法の一例をフローチャートにより示す図である。
【図9】上記フィールド予測における予測値生成方法の一列をフローチャートにより示す図である。
【図10】上記実施の形態1の画像符号化装置及び実施の形態2の画像復号化装置による予測処理における仮想バッファのDCT係数生成方法の一例を説明するための図である。
【図11】上記実施の形態1の画像符号化装置及び実施の形態2の画像復号化装置による予測処理における仮想バッファのDCT係数生成方法の一例をフローチャートにより示す図である。
【図12】本発明の実施の形態3による画像符号化装置、及び実施の形態4による画像復号化装置におけるフレーム予測方法をフローチャートにより示す図である。
【図13】上記実施の形態3による画像符号化装置、及び実施の形態4による画像復号化装置におけるフィールド予測方法をフローチャートにより示す図である。
【図14】図14(a) ,(b) は、本発明の各実施の形態の画面内予測符号化処理及び画面内予測復号化処理をコンピュータシステムにより行うためのプログラムを格納したデータ記憶媒体を説明するための図、図14(c) は、上記コンピュータシステムを示す図である。
【図15】従来の画像処理装置を用いた画面内DCT係数予測方法を説明するための図である。
【図16】フレーム/フィールドDCT切替えの際の、走査線の入替え処理を説明するための模式図である。
【図17】本発明の実施の形態5による画像符号化装置を説明するためのブロック図である。
【図18】本発明の実施の形態6による画像復号化装置を説明するためのブロック図である。
【図19】上記実施の形態5における予測処理の際に用いる参照ブロックを説明するための図である。
【図20】上記実施の形態5における予測値生成方法のフローチャートの一例を示す図である。
【符号の説明】
100 ブロック化器
101 画像信号
102 DCTタイプ信号
103 DCT器
104 DCT係数
105 量子化器
106 DCT係数量子化値
108 DCT係数差分値
109 可変長符号化器
110,210,310,410 画面内予測処理部
110a 入力画像信号
110b 画像符号化信号(ビットストリーム)
111 DCT係数予測値
113,313 DCT係数予測器
115 ブロックメモリ
116 DCT係数量子化値
200 逆ブロック化器
203 可変長復号化器
207 逆量子化器
209 逆DCT器
1000,3000 画像符号化装置(画像処理装置)
2000,4000 画像復号化装置(画像処理装置)
Cs コンピュータシステム
D フレキシブルディスク本体
FC フレキシブルディスクケース
FD フレキシブルディスク
FDD フレキシブルディスクドライブ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method, and more particularly to a method for improving the coding efficiency of an image signal by performing adaptive intra-screen prediction processing on frequency components of an interlaced image signal.
[0002]
[Prior art]
For predictive coding in which image data corresponding to a moving image is compressed using its redundancy, intra-screen predictive coding for predicting image data using image data in a frame to be encoded, There is inter-screen predictive coding in which image data is predicted using image data of frames other than the encoded frame.
[0003]
Specifically, in the intra prediction encoding, the prediction value of the image data of the encoded frame is generated from the image data in the frame, and the difference value between the image data of the encoded frame and the prediction value is encoded. This is a method of compressing image data by removing or reducing spatially redundant information contained in a large amount in the image data as an original property of the image.
[0004]
On the other hand, the inter-picture predictive encoding generates a predicted value of image data of a frame to be encoded from image data of another frame, and encodes a difference value between the image data of the encoded frame and the predicted value. Thus, this is a method of compressing an image by removing or reducing temporally redundant information that is included in a large amount in image data when the motion of the image is small.
[0005]
Discrete cosine transform (DCT) is widely used in recent image coding, and in the MPEG (Moving Picture Expert Group) method which is a typical image coding method, an image space formed by a digital image signal ( A frame) is divided into a plurality of rectangular areas (blocks) which are units of DCT processing, and DCT processing is performed for each block on an image signal corresponding to each block.
[0006]
The in-screen prediction method for the image data in the DCT coefficient, that is, the DCT domain (frequency domain) adopted in the MPEG system is ISO / IEC JTC1 / SC29 / WG11 MPEG97 / N1642 MPEG-4 Video Verification which is a document related to MPEG4. It is described in the section “Intra DC and AC Prediction for I-VOP and P-VOP” in Model Version 7.0 (hereinafter referred to as MPEG-4 VM 7.0).
[0007]
According to the description of this document, the DC component and the AC component of the DCT coefficient corresponding to the encoded block to be encoded are adjacent to the upper left, upper and left of the encoded block in the image space. The prediction is performed using the DCT coefficients corresponding to the three adjacent blocks located at the positions.
[0008]
FIG. 15 is a diagram for explaining an intra-screen DCT coefficient prediction method as described in the above document, which is employed in a conventional image coding method.
FIG. 15 shows four blocks (also referred to as DCT blocks) R0 to R2 and X of 8 × 8 pixels, which are units of DCT processing, and each block is an image space formed by an image signal. They are located adjacent to each other on the (space region).
[0009]
Here, the block X is an encoded block to be encoded, and the blocks R0, R1, and R2 are adjacent to the upper left, upper, and left of the encoded block on the spatial region. It is an encoded block that has already been encoded.
[0010]
In the conventional intra-screen DCT coefficient prediction method, the DCT coefficient of the block R1 or the block R2 is referred to when the predicted value of the DCT coefficient of the block X is generated.
Specifically, when referring to the DCT coefficient of the encoded block R1, the DC component in the upper left corner and the AC component in the uppermost column in the encoded block R1 are transferred to these components and the encoded block X. Are used as predicted values of DCT coefficients located at the same position. Also, when referring to the DCT coefficient of the encoded block R2, the DC component at the upper left corner of the encoded block R2 and the AC component in the leftmost column are determined by these components and the encoded block X. It is used as a predicted value of the DCT coefficient located at the same position.
[0011]
The determination of which block of the encoded block should be referred to as the predicted value of the DCT coefficient of the encoded block X is performed using the DC components of the encoded blocks R0, R1, and R2. Done.
[0012]
That is, when the absolute value of the DC component difference between the block R0 and the block R2 is smaller than the absolute value of the DC component difference between the block R0 and the block R1, Since the correlation between the DCT coefficients is strong, the DCT coefficient of the block R1 is referred to when the predicted value of the DCT coefficient of the encoded block X is generated. On the other hand, when the absolute value of the DC component difference between the block R0 and the block R1 is smaller than the absolute value of the DC component difference between the block R0 and the block R2, between the blocks arranged in the horizontal direction, Therefore, when generating a predicted value of the DCT coefficient of the encoded block X, the DCT coefficient of the block R2 is referred to.
[0013]
However, as described in the section “Adaptive Frame / Field DCT” in the above document (MPEG-4 VM 7.0), the DCT process (frequency conversion process) used for encoding an interlaced image includes a frame. There are two types of DCT processing, DCT processing and field DCT processing. These DCT processes have different processing units. The frame DCT process converts image data in units of frames, and the field DCT process converts image data in units of fields. In the MPEG system, frame DCT processing and field DCT processing are adaptively switched for each so-called macroblock composed of four blocks.
[0014]
Here, switching between the frame DCT process and the field DCT process for the macroblock is performed depending on whether or not the scan lines are rearranged as shown in FIG. 16. In the field DCT process, the scan lines are rearranged. The DCT process is performed on the image data of each block in the broken macroblock.
[0015]
Specifically, in the case of frame DCT processing, image data of each block in a macroblock in which even-numbered and odd-numbered scanning lines are alternately arranged is directly subjected to DCT processing. In the case of field DCT processing, scanning line alignment is performed. After the replacement, the macro block is composed of a first field block composed of only even-numbered scanning lines and a second field block composed of only odd-numbered scanning lines. The DCT process is performed on the image data of each block in the macro block.
[0016]
As described above, in the encoding process of the interlaced image signal, the macro block subjected to the frame DCT process and the macro block subjected to the field DCT process are mixed as macro blocks located in the image space.
[0017]
When the correlation between the pixel values between the first field and the second field is higher than the correlation between the pixel values within the first field and the second field, the frame DCT process is performed. Frame DCT processing and field DCT processing are switched by a method in which field DCT processing is performed.
[0018]
Therefore, the type of DCT processing may be different even for adjacent macroblocks and adjacent blocks (that is, subblocks constituting the macroblock) in the image space. In this case, between adjacent macroblocks, Alternatively, the correlation between DCT coefficients is lower between adjacent blocks than when the macroblock or the DCT processing type of the block is the same.
[0019]
Also, the fields to which these belong may be different between adjacent blocks. In such a case, the correlation between the DCT coefficients is lower between adjacent blocks than when the fields to which the blocks belong are the same. .
[0020]
[Problems to be solved by the invention]
However, in a macroblock that has been subjected to field DCT processing (field DCT type macroblock), a block of the first field and a block of the second field are mixed, so that a predicted value of the DCT coefficient of the encoded block is generated. At this time, it is difficult to specify an encoded block to be referred to. For this reason, it is impossible to simply apply the conventional intra-screen prediction process to the field DCT type macroblock as described above. As a result, in an interlaced image encoding process or a specific progressive image encoding process in which field DCT type macroblocks are mixed, the intra-screen prediction process cannot be applied, and spatially included in the image signal There is a problem in that redundant image information cannot be sufficiently reduced and efficient encoding processing cannot be performed.
[0021]
The present invention has been made in order to solve the above-described problems, and in an interlace image encoding process or a specific progressive image encoding process in which different DCT type macroblocks are mixed, an image signal is also used. It is an object of the present invention to provide an image processing method capable of sufficiently reducing the spatially redundant image information included and performing highly efficient encoding processing.
[0022]
[Means for Solving the Problems]
According to an image processing method of the present invention (claim 1), an image signal forming an image space composed of a plurality of pixels is divided into a plurality of rectangular macroblocks that divide the image space, and the macroblock is configured. An image processing method for performing image signal encoding processing corresponding to a sub-block for each sub-block, With respect to the image signal of the macro block, the image signal of the first field constituting the image signal is positioned above the macro block, and the image of the second field constituting the image signal is below the macro block. A rearrangement step for performing a rearrangement process of the horizontal pixel row so as to be positioned on the side; the above sub Blocked image signal sub Conversion step to convert to frequency components by block unit frequency conversion and encoding sub Encoded on the left or top side of the block sub Coding based on block frequency components sub A prediction step for generating a predicted value of a frequency component of the block, and the encoded sub An encoding step for encoding a difference value between the frequency component of the block and the predicted value; In the conversion step, the image signals of the macroblocks subjected to the rearrangement process or the macroblocks not subjected to the rearrangement process are divided into four upper left, upper right, lower left, and lower right positions constituting the macroblock. Perform frequency conversion for each sub-block to convert to frequency components, The prediction step includes the encoded sub Located on the left or top side of the block Mark Issued sub block Is a frequency conversion process of at least one encoded sub-block located on the left side or the upper side of the encoded sub-block. Unit is The above encoded sub Block Frequency conversion When the same as the processing unit Is , Located on the left side or the upper side where the processing unit of frequency conversion is the same Either one Encoded sub Block frequency components DC component of Generate the predicted value from If the frequency conversion processing unit of the encoded block located on the left side and the upper side of the encoded sub-block is different from the frequency conversion processing unit of the encoded sub-block, the encoded sub-block A DC component of a frequency component is generated by a predetermined method from the encoded sub-blocks located near the left side, the upper side, and the upper left side of the block, and the predicted value is generated from the generated DC component of the frequency component. When the coded sub-block is frequency-converted in field units, the sub-block adjacent to the left side of the coded sub-block is used as the coded sub-block located on the left side, and the coded sub-block is included. Coding in which the sub-block located at the same position as the encoded sub-block in the block adjacent to the upper side of the block is located on the upper side When the encoded sub-block is frequency-converted in frame units, the sub-blocks adjacent to the left or upper side of the encoded sub-block are positioned on the left or upper side, respectively. Used as an encoded sub-block, It is characterized by this.
[0024]
This invention (claim) 2 The image processing apparatus according to (1) divides an image signal forming an image space composed of a plurality of pixels into a plurality of rectangular macroblocks that divide the image space, and corresponds to subblocks constituting the macroblock. An image processing apparatus that performs encoding processing of an image signal for each sub-block, With respect to the image signal of the macro block, the image signal of the first field constituting the image signal is positioned above the macro block, and the image of the second field constituting the image signal is below the macro block. Rearrangement means for performing a rearrangement process of the horizontal pixel row so as to be located on the side, the above sub Blocked image signal sub Conversion means for converting to frequency components by block-unit frequency conversion, and encoding sub Encoded on the left or top side of the block sub Coding based on block frequency components sub Prediction means for generating a predicted value of the frequency component of the block, and the encoded sub Coding means for coding the difference value between the frequency component of the block and the predicted value, The converting means converts the image signals of the macroblocks subjected to the rearrangement process or the macroblocks not subjected to the rearrangement process into four upper left, upper right, lower left and lower right constituting the macroblock. Perform frequency conversion for each sub-block to convert to frequency components, The prediction means is the encoded sub Located on the left or top side of the block Mark Issued sub block Is a frequency conversion process of at least one encoded sub-block located on the left side or the upper side of the encoded sub-block. Unit is The above encoded sub Block Frequency conversion When the same as the processing unit Is , Located on the left side or the upper side where the processing unit of frequency conversion is the same Either one Encoded sub Block frequency components DC component of Generate the predicted value from If the frequency conversion processing unit of the encoded block located on the left side and the upper side of the encoded sub-block is different from the frequency conversion processing unit of the encoded sub-block, the encoded sub-block A DC component of a frequency component is generated by a predetermined method from the encoded sub-blocks located near the left side, the upper side, and the upper left side of the block, and the predicted value is generated from the generated DC component of the frequency component. When the coded sub-block is frequency-converted in field units, the sub-block adjacent to the left side of the coded sub-block is used as the coded sub-block located on the left side, and the coded sub-block is included. Coding in which the sub-block located at the same position as the encoded sub-block in the block adjacent to the upper side of the block is located on the upper side When the encoded sub-block is frequency-converted in frame units, the sub-blocks adjacent to the left or upper side of the encoded sub-block are positioned on the left or upper side, respectively. Used as an encoded sub-block, It is characterized by this.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Embodiment 1 FIG.
The image processing apparatus (image encoding apparatus) according to Embodiment 1 of the present invention has been encoded according to the adaptive intra-screen DCT coefficient prediction method, that is, the DCT type signal (frequency conversion type signal) of the encoded block. The method is characterized in that intra-picture prediction encoding of an image signal is performed using a method of generating a prediction value of a DCT coefficient of an encoded block from a DCT coefficient of a block. Here, the DCT type signal represents a signal indicating whether the encoded block is subjected to frame DCT processing or field DCT processing.
[0026]
FIG. 1 is a block diagram showing a configuration of an image encoding device according to the first embodiment.
In the figure, reference numeral 1000 denotes an image encoding apparatus according to the first embodiment, and each of a plurality of blocks that divide an input digital image signal (input image signal) 110a into an image space (frame) formed thereby. The image signal corresponding to each block is encoded for each block.
[0027]
That is, the image encoding apparatus 1000 blocks the input image signal 110a so as to correspond to each block for each frame or field that is a processing unit of frequency conversion, and the block image signal 101, And a blocker 100 that outputs a DCT type signal 102 indicating a processing unit of the frequency conversion (DCT processing). This blocker 100 receives the input image signal 110a, and in the case where the correlation of the pixel value between fields is higher than that in the frame, the block generator 100 starts from 16 × 16 pixels so that the field DCT processing is performed. The scanning lines are rearranged in units of macroblocks, and an image signal is output for each block of 8 × 8 pixels constituting the macroblocks on which the scanning lines are rearranged.
[0028]
In the blockizer 100, when the correlation of pixel values between fields is smaller than that in a frame, the scanning line unit of macroblocks as described above is not rearranged, and the input image signal Is output for each block.
[0029]
The image encoding apparatus 1000 performs discrete cosine transform (DCT processing) on the blocked image signal (hereinafter also referred to as a blocked image signal) 101, and converts the blocked image signal into frequency components. (DCT coefficient) 104, a DCT unit 103 that converts the DCT coefficient 104, a quantizer 105 that generates a quantized value (DCT coefficient quantized value) 106 corresponding to each block, and the DCT type An intra-screen prediction processing unit 110 that generates a predicted value 111 corresponding to the encoded block by intra-screen prediction processing based on the signal 102, and a DCT coefficient difference by subtracting the predicted value 111 from the DCT coefficient quantized value 106 An adder 107 that outputs a value 108, and this DCT coefficient difference value 108 is variable-length encoded by the VLC unit 109. Te, and it is output as a bit stream (coded image signal) 110b.
[0030]
Here, the intra-screen prediction processing unit 110 adds an adder 112 that adds the DCT coefficient difference value 108 and the intra-screen prediction value 111, and outputs the output of the adder 112 to the DCT coefficient quantized value of the encoded block. In accordance with the block memory 115 stored as 116 and the DCT type signal 102, the DCT coefficient quantized value 114 of the block to be encoded is predicted from the DCT coefficient quantized value 114 of the encoded block by the adaptive intra-screen DCT coefficient prediction method. It comprises a DCT coefficient predictor 113 that generates a value 111.
[0031]
Next, the operation will be described.
First, the overall operation in the encoding process using the adaptive DCT prediction process will be described.
When a digital image signal (input image signal) 110a is input to the present image encoding apparatus 1000, the block generator 100 converts the input image signal 110a into each of the above-described frames or fields for each frequency conversion processing unit. A block corresponding to a block is output, and the blocked image signal 101 and a DCT type signal 102 indicating a processing unit of the frequency conversion (DCT processing) are output.
[0032]
At this time, in the block generator 100, if the correlation of pixel values between fields is higher than that in a frame, a macroblock consisting of 16 × 16 pixels in advance is used so that field DCT processing is performed. As described above, the scanning line rearrangement process is performed on the image signal, and the image signal subjected to the scanning line rearrangement process is output for each block of 8 × 8 pixels constituting the macroblock.
[0033]
In the block generator 100, when the correlation of pixel values between fields is smaller than that in a frame, the scanning line rearrangement processing in units of macroblocks as described above is not performed, and the input image A signal is output for each block.
[0034]
Then, the image signal 101 of the encoded block to be encoded is converted into a frequency component (DCT coefficient) 104 corresponding to the encoded block by the discrete cosine transform (DCT process) in the DCT unit 103. Further, the DCT coefficient 104 is quantized by the quantizer 105 and output as a quantized value (DCT coefficient quantized value) 106 for the encoded block.
[0035]
Further, when the DCT coefficient quantized value 106 of the coded block is supplied to the adder 107, the difference between the quantized value 106 and the predicted value 111 is obtained and output as the DCT coefficient difference value 108. The DCT coefficient difference value 108 is variable-length encoded by the VLC unit 109 and output as a bit stream (image encoded signal) 110b.
[0036]
The DCT coefficient difference value 108 output from the adder 107 is supplied to the intra-screen prediction processing unit 110, where a predicted value for the DCT coefficient quantized value 106 is generated.
[0037]
That is, in the intra-screen prediction processing unit 110, the DCT coefficient difference value 108 and the intra-screen prediction value 111 are added by the adder 112, and the added value is used as the DCT coefficient quantized value 116 of the encoded block. 115. Then, in the DCT coefficient predictor 113, in accordance with the DCT type signal 102, the DCT coefficient quantized value 114 of the block to be encoded is converted from the DCT coefficient quantized value 114 of the block already encoded by the adaptive intra-screen DCT coefficient prediction method. A predicted value 111 is generated.
[0038]
Next, the adaptive intra-screen DCT coefficient prediction method in the encoding process will be described in detail.
The adaptive intra-screen DCT coefficient prediction method according to the first embodiment changes a block to be referred to when generating a predicted value of a DCT coefficient corresponding to an encoded block, according to the DCT type of the encoded block. Is.
In the first embodiment, a DCT region is defined as follows.
[0039]
That is, the DCT region (frequency region) is a region formed by frequency components obtained by performing DCT processing (frequency conversion) on the image signal forming the image space (spatial region), and in the image signal space region (image space). Assume that each macroblock is arranged in the DCT domain (frequency domain) as in the macroblock arrangement.
[0040]
In the first embodiment, as shown in FIG. 3, when the macro block is subjected to the frame DCT process, the DCT process is performed on the image signal of each block without rearranging the scanning lines in the macro block. The DCT coefficients corresponding to the upper left, upper right, lower left, and lower right blocks in the macroblock on the spatial domain are the block positions (0), (1), (2), and (3) in the macroblock on the DCT domain, respectively. On the other hand, when the macroblock is subjected to field DCT processing, the image signal of each block is subjected to DCT processing after rearrangement of scanning lines in the macroblock on the spatial domain, and the first field left , The DCT data of each block on the right of the first field, the left of the second field, and the right of the second field are respectively macroblocks in the DCT area. Block position in click (0), (1), (2), shall be located in the block of (3).
[0041]
Next, the DCT coefficient corresponding to the encoded block (data of the encoded block in the DCT region) is predicted with reference to the DCT coefficient of the encoded block, and at this time, the DCT type of the encoded block is changed to the DCT type of the encoded block. Accordingly, the adaptive in-screen DCT coefficient prediction method for switching the encoded block to be referred will be described in detail.
[0042]
First, in the prediction when the encoded block is subjected to frame DCT processing (hereinafter referred to as frame prediction), it is located at the upper left of the encoded block x (i) as shown in FIG. A block is a reference block r0 (i), a block positioned adjacent to the upper side of the encoded block x (i) is a reference block r1 (i), and a block positioned adjacent to the left of the encoded block x (i) is Referenced as reference block r2 (i). The reference blocks r0 (i), r1 (i), and r2 (i) when the encoded block x (i) shown in FIG. 4A is subjected to frame DCT processing are encoded blocks x (i). In general, the DCT coefficients of these reference blocks are considered to be highly correlated with the DCT coefficients of the encoded block x (i).
[0043]
On the other hand, in the prediction when the encoded block is subjected to field DCT processing (hereinafter referred to as field prediction), as shown in FIG. 4B, the encoded block x (i) has two blocks. A block located on the left of the located block is a reference block r0 (i), a block located on two blocks of the encoded block x (i) is a reference block r1 (i), and an encoded block x (i) Is referred to as a reference block r2 (i). The reference blocks r0 (i), r1 (i), and r2 (i) when the encoded block x (i) shown in FIG. 4B is subjected to the field DCT process are encoded blocks x (i). It is considered that the DCT coefficients of these reference blocks have a high correlation with the DCT coefficients of the encoded block x (i).
[0044]
Next, the processing procedure of the adaptive in-screen DCT coefficient prediction method used in the first embodiment will be described with reference to FIGS.
FIG. 5 is a flowchart illustrating a processing procedure of the adaptive intra-screen DCT coefficient prediction method according to the present embodiment.
[0045]
In step 51, the DCT type of the encoded block x (i) is determined, and the subsequent processing differs depending on the determination result.
That is, when the encoded block x (i) is subjected to the frame DCT process, in step S52, reference blocks r0 (i), r1 () for the encoded block x (i) shown in FIG. Frame prediction with reference to i) and r2 (i) generates a predicted value of the DCT coefficient of the encoded block x (i).
[0046]
On the other hand, when the encoded block x (i) is subjected to the field DCT process, in step S53, reference blocks r0 (i) and r1 () for the encoded block x (i) shown in FIG. A predicted value of the DCT coefficient of the encoded block x (i) is generated by field prediction referred to by i) and r2 (i).
[0047]
As described above, by switching the reference block used for prediction according to the DCT type of the encoded block x (i), a block having a high correlation of DCT coefficients with the encoded block x (i). DCT coefficients can be used for the prediction, whereby efficient prediction can be performed.
[0048]
Next, the processing procedure of the frame prediction method of step S52 shown in FIG. 5 will be described using the flowchart of FIG. In FIG. 6, r0 (i), r1 (i), r2 (i), and x (i) indicate the reference block and the encoded block of FIG. 4A, respectively. In the processing procedure of the frame prediction method in FIG. 6, a reference block that has been subjected to frame DCT processing, that is, a reference block of the same DCT type as the encoded block x (i) is used for prediction.
[0049]
First, in step S611a, the DCT type of the reference block r2 (i) adjacent to the left of the encoded block x (i) is determined. The subsequent processing differs depending on the determination result. Next, in steps S612a and S613a, the DCT type of the reference block r1 (i) located adjacent to the upper side of the encoded block x (i) is determined. The subsequent processing differs depending on the determination result. In this manner, the frame prediction process shown in FIG. 6 is divided into the following four processes (A1) to (A4) depending on the DCT type of the reference blocks r1 (i) and r2 (i).
[0050]
(A1) When both of the reference blocks r1 (i) and r2 (i) are subjected to the frame DCT process, in step S614a, the DCT coefficients of the reference blocks r0 (i), r1 (i), and r2 (i) are referred to Then, a predicted value of the DCT coefficient of the encoded block x (i) is generated by “predetermined method 1” described later.
[0051]
(A2) When the reference block r1 (i) is subjected to field DCT and the reference block r2 (i) is subjected to frame DCT processing, the block is obtained from the DCT coefficient of the block R2 shown in FIG. In the same manner as generating the predicted value of the DCT coefficient of X, in step S615a, the predicted value of the DCT coefficient of the encoded block x (i) is generated using the DCT coefficient of the reference block r2 (i).
[0052]
(A3) When the reference block r1 (i) is subjected to the frame DCT process and the reference block r2 (i) is subjected to the field DCT process, the DCT coefficient of the block R1 shown in FIG. In the same manner as generating the predicted value of the DCT coefficient of block X, in step S616a, the predicted value of the DCT coefficient of encoded block x (i) is generated using the DCT coefficient of reference block r1 (i). .
[0053]
(A4) If both the reference blocks r1 (i) and r2 (i) have been subjected to field DCT processing, refer to the DCT coefficients of the reference frames r0 (i), r1 (i) and r2 (i) in step S617a. Then, a predicted value of the encoded block x (i) is generated by a “predetermined method 2” described later.
[0054]
In step S617a, a predetermined value such as 0 may be used as the predicted value without referring to the DCT coefficients of the reference blocks r0 (i), r1 (i), and r2 (i). Further, when step S613a and step S617a are omitted and the reference block r2 (i) is not subjected to the frame DCT processing, the encoded block x is always used in step S616a by using the DCT coefficient of the reference block r1 (i). A predicted value of the DCT coefficient in (i) may be generated.
[0055]
Next, the processing procedure in the field prediction method of step 53 shown in FIG. 5 will be described with reference to the flowchart of FIG.
The processing procedure of the field prediction method shown in FIG. 7 is obtained by replacing the frame and the field in the processing procedure of the frame prediction method shown in FIG.
[0056]
However, in the description of the field prediction method shown in FIG. 7, the reference blocks r0 (i), r1 (i), r2 (i), and the encoded block x (i) are each shown in FIG. 4B. A block and an encoded block are shown.
[0057]
That is, also in the processing procedure of the field prediction method in FIG. 7, the same DCT type reference block (reference block subjected to the field DCT process) as that of the encoded block x (i) is preferentially used for prediction.
[0058]
First, in step S711b, the DCT type of the reference block r2 (i) adjacent to the left of the encoded block x (i) is determined. The subsequent processing differs depending on the determination result. Next, in steps S712b and S713b, the DCT type of the reference block r1 (i) located above the encoded block x (i) is determined. The subsequent processing differs depending on the determination result. In this manner, the field prediction process shown in FIG. 7 is divided into the following four processes (B1) to (B4) according to the DCT types of the reference blocks r1 (i) and r2 (i).
[0059]
(B1) If both the reference blocks r1 (i) and r2 (i) have been subjected to field DCT processing, in step S714b, refer to the DCT coefficients of the reference blocks r0 (i), r1 (i), and r2 (i) Then, a predicted value of the DCT coefficient of the encoded block x (i) is generated by “predetermined method 1” described later.
[0060]
(B2) When the reference block r1 (i) is subjected to the frame DCT process and the reference block r2 (i) is subjected to the field DCT process, in the same manner as the conventional method, that is, from the DCT coefficient of the block R2 shown in FIG. In the same manner as generating the predicted value of the DCT coefficient of block X, in step S715b, the predicted value of the DCT coefficient of encoded block x (i) is generated using the DCT coefficient of reference block r2 (i). .
[0061]
(B3) When the reference block r1 (i) is subjected to the field DCT process and the reference block r2 (i) is subjected to the frame DCT process, in the same manner as the conventional method, that is, from the DCT coefficient of the block R1 shown in FIG. In the same manner as generating the predicted value of the DCT coefficient of the block X, in step S716b, the predicted value of the DCT coefficient of the encoded block x (i) is generated using the DCT coefficient of the reference block r1 (i). .
[0062]
(B4) If both the reference blocks r1 (i) and r2 (i) have been subjected to frame DCT processing, refer to the DCT coefficients of the reference frames r0 (i), r1 (i), and r2 (i) in step S717b. Then, a predicted value of the encoded block x (i) is generated by a “predetermined method 2” described later.
[0063]
In step S717b, a predetermined value such as 0 may be used as the predicted value without referring to the reference blocks r0 (i), r1 (i), and r2 (i). Further, when step S713b and step S717b are omitted and the reference block r2 (i) is not subjected to the field DCT process, the encoded block x is always used in step S716b by using the DCT coefficient of the reference block r1 (i). A predicted value of the DCT coefficient in (i) may be generated.
[0064]
As described above, as in the prediction method shown in the processing procedures of FIGS. 6 and 7, priority is given to a block of the same DCT type as that of the encoded block, that is, a reference block having a high correlation of DCT coefficients with the encoded block. Thus, efficient prediction can be performed by using the prediction for the encoded block.
[0065]
Next, the processing procedure of the predicted value generation method based on the “predetermined method 1” in step S614a or the “predetermined method 2” in step S617a shown in FIG. 6 will be described with reference to the flowchart shown in FIG. .
[0066]
In the method of FIG. 8, in order to perform the same processing as the conventional DCT coefficient prediction method, the DCT coefficients of the respective blocks corresponding to the four blocks shown in FIG. 15 are stored in the processing from step S821a to step S829a. Assuming a virtual memory space (virtual buffer), a conventional DCT coefficient prediction method is applied to each block on the virtual buffer.
[0067]
In FIG. 8, R0, R1, and R2 represent reference blocks on the virtual buffer, and DC0, DC1, and DC2 represent DC components of the DCT coefficients of the reference blocks R0, R1, and R2 on the virtual buffer, respectively. In the description of the predicted value generation method in FIG. 8, r0 (i), r1 (i), r2 (i), and x (i) are reference blocks having the positional relationship shown in FIG. Represents a block.
In the process shown in FIG. 8, first, in step S821a, step S822a, and step S823a, the DCT coefficient of the reference block R0 is generated. Depending on the DCT type determination result of the reference block r0 (i) in step S821a, The subsequent processing for generating the DCT coefficient of the reference block R0 is different.
[0068]
That is, when the reference block r0 (i) is subjected to the field DCT process, in step S822a, a DCT coefficient is generated from a block near the reference block r0 (i) by a predetermined method, and the generated DCT coefficient is referred to as the reference block. Stored in the virtual buffer as the DCT coefficient of R0. On the other hand, when the reference block r0 (i) is subjected to the frame DCT process, in step S823a, the DCT coefficient of the reference block r0 (i) is stored in the virtual buffer as the DCT coefficient of the reference block R0. In the same manner as described above, the DCT coefficients of the reference block R1 are generated in steps S824a, 825a, and 826a, and the DCT coefficients of the reference block R2 are generated in steps S827a, 828a, and S829a and stored in the virtual buffer. The
[0069]
The subsequent processing is the same as the conventional DCT coefficient prediction method. In step S830a, the absolute value (| DC0−DC1 |) of the difference between the DC components of the DCT coefficients of the reference blocks R0 and R1 and the reference blocks R0 and R2 The magnitudes of absolute values (| DC0−DC2 |) of differences in DC components of DCT coefficients are compared. The absolute value (| DC0−DC2 |) of the difference between the DC components of the DCT coefficients of the reference blocks R0 and R2 is greater than the absolute value (| DC0−DC1 |) of the difference of the DC components of the DCT coefficients of the reference blocks R0 and R1. If it is smaller, a predicted value of the DCT coefficient of the encoded block x (i) is generated using the DCT coefficient of the reference block R1 in step S832a. In other cases, a predicted value of the DCT coefficient of the encoded block x (i) is generated using the DCT coefficient of the reference block R2 in step S831a.
[0070]
Note that in “predetermined method 1” in step S814a in FIG. 6, since it is known that the DCT type of the reference blocks r1 (i) and r2 (i) is a frame, steps S824a and S827a in FIG. , Steps S825a and S828a can be omitted.
[0071]
Next, the processing procedure in “predetermined method 1” in step S714b or “predetermined method 2” in step S717b shown in FIG. 7 will be described with reference to the flowchart shown in FIG.
[0072]
The process procedure shown in the flowchart of FIG. 9 replaces the process of determining whether or not each block is subjected to frame DCT in the process procedure illustrated in the flowchart of FIG. 8 with the process of determining whether or not each block is subjected to field DCT. The outline of the processing is the same as the processing shown in FIG. In FIG. 9, reference blocks r0 (i), r1 (i), r2 (i), and x (i) represent a reference block and an encoded block having the positional relationship shown in FIG. 4B, respectively. ing.
[0073]
In the process shown in FIG. 9, first, in step S921b, step S922b, and step S923b, the DCT coefficient of the reference block R0 is generated. Depending on the DCT type determination result of the reference block r0 (i) in step S921b, The subsequent processing for generating the DCT coefficient of the reference block R0 is different.
[0074]
That is, when the reference block r0 (i) is subjected to the frame DCT process, in step S922b, a DCT coefficient is generated from a block near the reference block r0 (i) by a predetermined method, and the generated DCT coefficient is referred to. It is stored in the virtual buffer as the DCT coefficient of block R0. On the other hand, when the reference block r0 (i) is subjected to the field DCT process, in step S923b, the DCT coefficient of the reference block r0 (i) is stored in the virtual buffer as the DCT coefficient of the reference block R0. In the same manner as described above, the DCT coefficients of the reference block R1 are generated in steps S924b, 925b, and 926b, and the DCT coefficients of the reference block R2 are generated in steps S927b, 928b, and step S929b and stored in the virtual buffer. The
[0075]
The subsequent processing is the same as the conventional DCT coefficient prediction method. In step S930b, the absolute value (| DC0−DC1 |) of the difference between the DC components of the DCT coefficients of the reference blocks R0 and R1 and the reference blocks R0 and R2 The magnitudes of absolute values (| DC0−DC2 |) of differences in DC components of DCT coefficients are compared. The absolute value (| DC0−DC2 |) of the difference between the DC components of the DCT coefficients of the reference blocks R0 and R2 is greater than the absolute value (| DC0−DC1 |) of the difference of the DC components of the DCT coefficients of the reference blocks R0 and R1. If it is smaller, a predicted value of the DCT coefficient of the encoded block x (i) is generated using the DCT coefficient of the reference block R1 in step S932b. In other cases, a predicted value of the DCT coefficient of the encoded block x (i) is generated using the DCT coefficient of the reference block R2 in step S931b.
[0076]
In addition, in “predetermined method 1” in step S714b in FIG. 7, since it is known that the DCT type of the reference blocks r1 (i) and r2 (i) is a field, steps S924b, 927b, The processing by step S925b and step S928b can be omitted.
[0077]
In this way, when it is necessary to refer to the DCT coefficient of the DCT type block different from the encoded block in the prediction process of the DCT coefficient of the encoded block, the DCT type DCT coefficient different from the encoded block is required. Instead of referring to the block as it is, a DCT coefficient close to the characteristics of the DCT coefficient of the same DCT type as that of the block to be encoded is generated from a block in the vicinity of the reference block, and the encoded block is referred to by referring to the generated DCT coefficient. By predicting the DCT coefficient, it is possible to perform efficient prediction.
[0078]
FIG. 10 is a conceptual diagram for explaining a method of generating DCT coefficients from blocks near the reference block r in steps S822a, 825a, and 828a of FIG. 8 and steps S922b, S925b, and S928b of FIG.
[0079]
10 and 11, r indicates one of the reference block r0 (i), the reference block r1 (i), and the reference block r2 (i) on the frequency domain, and R indicates the value on the virtual buffer. Any one of the reference block R0, the reference block R1, and the reference block R2 is shown.
[0080]
In steps S822a, 825a, and 828a in FIG. 8 and steps S922b, S925b, and S928b in FIG. 9 to generate DCT coefficients from blocks near the reference block r, as shown in FIG. A DCT coefficient is generated from the DCT coefficients of the two blocks using a predetermined function, and the generated DCT coefficient is set as the DCT coefficient of the reference block R on the virtual buffer.
[0081]
FIG. 11 shows a procedure for generating DCT coefficients of the reference block R on the virtual buffer. Here, different processing is performed depending on the position of the reference block r in the macroblock on the DCT region.
[0082]
For example, when the reference block r is located at the block position (0) or (2) in the macroblock in the DCT area, that is, on the left side of the macroblock in the DCT area, in step S1142L, the DCT including the reference block r is included. From the DCT coefficients of the blocks located at block positions (0) and (2) of the macroblock in the region, as shown in FIG. 10, the DCT coefficients of the reference block R on the virtual buffer are generated using a predetermined function. When the reference block r is located at the block position (1) or (3) of the macroblock in the DCT area, that is, at the right position of the macroblock in the DCT area, the DCT including the reference block r is included in step S1142R. From the DCT coefficients of the blocks located at block positions (1) and (3) of the macroblock in the region, as shown in FIG. 10, the DCT coefficients of the reference block R on the virtual buffer are generated using a predetermined function.
[0083]
Examples of the predetermined function used here include a function in which the average or weighted average of the DCT coefficients of two blocks located in the vicinity of the reference block r on the frequency domain is used as the DCT coefficient of the reference block R on the virtual buffer. Any function can be used as long as it can uniquely calculate the value of the DCT coefficient of the reference block R on the virtual buffer from the DCT coefficients of the two blocks near the block r.
[0084]
The DCT coefficient generated by referring to the two blocks on the frequency domain is set as the DCT coefficient of the reference block R on the virtual buffer in step S1143.
[0085]
In this way, by generating the DCT coefficients of the reference block R on the virtual area used for prediction from the DCT coefficients of the two blocks having the same area information as the reference block r in the spatial domain, the same as the encoded block A DCT coefficient close to the frequency characteristic of a DCT type DCT coefficient can be generated.
[0086]
In this way, in the adaptive intra-screen DCT coefficient prediction method used in Embodiment 1, the reference block used for prediction is switched according to the DCT type of the encoded block, and the same DCT type reference as that of the encoded block is used. If the DCT coefficient of the block is used for prediction with priority, and the reference block is of a DCT type different from that of the encoded block, the DCT type of the reference block is encoded from the DCT coefficient of the block near the reference block. Since the DCT coefficient of the block close to the frequency characteristic of the DCT coefficient of the reference block when it is the same as the DCT type of the block is generated and used for prediction, intra-screen prediction for an interlaced image signal or a special progressive image is performed in the DCT region ( (Frequency component) can be performed efficiently.
[0087]
As a result, according to the first embodiment, in the MPEG4 encoding process for an interlaced image, a special progressive image, or the like in which different DCT type macroblocks are mixed as macroblocks to be processed, By using this information to improve the prediction value efficiency of the DCT coefficient of the block to be encoded, it becomes possible to efficiently compress and encode an image signal by removing or reducing spatially redundant image information.
[0088]
In the adaptive intra-screen DCT coefficient prediction method used in the first embodiment, the DCT coefficient of reference block r2 (i) in FIGS. 4A and 4B is used as the DCT coefficient of encoded block x (i). When the DCT types of the reference block r2 (i) and the encoded block x (i) are different from each other, the DC block of the DCT coefficient of the reference block r2 (i) is used as the encoded block. You may utilize as a predicted value of the DCT coefficient of x (i). In some cases, only the DC component of the DCT coefficient of the reference block r1 (i) may be used as the predicted value of the DCT coefficient of the encoded block x (i).
[0089]
In the first embodiment, in steps S923b, S926, and S929b, the DCT coefficients of the reference block r (specifically, the reference blocks r0 (i), r1 (i), and r2 (i)) are calculated from the DCT coefficients. The DCT coefficients of the reference block R (specifically, the reference blocks R0, R1, and R2) on the virtual buffer used for predicting the DCT coefficient of the encoded block are generated. In steps S923b, S926, and S929b, Similar to steps S922b, S925, and S928b, two blocks located in the vicinity of the reference block r (specifically, the reference blocks r0 (i), r1 (i), and r2 (i)) in the spatial domain. A DCT coefficient is generated from the DCT coefficient using a predetermined function, and the generated DCT coefficient is used as the DC of the reference block R on the virtual buffer. It may be a factor.
[0090]
Furthermore, in this case, in the field prediction process shown in FIG. 7, the reference block r2 (i) adjacent to the left of the encoded block x (i) and the reference positioned adjacent to the upper side of the encoded block x (i) are used. Depending on the DCT type of the block r1 (i), one of the four processes B1 to B4 described above is performed, but the process 1, process B3, and process 4 of these processes B1 to B4 are performed. The following processing B1 ′, processing B3 ′, and B4 ′ may be substituted.
[0091]
The process B3 ′ is positioned between the encoded block adjacent to the upper side of the encoded block (that is, between the encoded block x (i) and the encoded block r1 (i) shown in FIG. 4B). The coded block) is used as a reference block, and the DCT coefficient of the reference block is used as the predicted value of the DCT coefficient of the coded block.
[0092]
Regarding the processing B1 ′ and the processing B4 ′, in steps S922b and 923b, a reference block r0 (i) and an encoded block located between the reference block r0 (i) and the reference block r2 (i) are obtained. The DCT coefficients of the reference block R0 on the virtual buffer are generated by weighted averaging with a weight ratio of 0 to 1, and in steps S925b and 926b, the reference block r1 (i) and the reference block r1 (i) The coded blocks located between the coded blocks x (i) are weighted and averaged at a weighting ratio of 0 to 1, and a DCT coefficient of the reference block R1 on the virtual buffer is generated. In steps S928b and 929b, , A reference block r2 (i) and an encoded block located between the reference block r2 (i) and the reference block r0 (i) Weighted average weight ratio of 1 to 0, it is assumed to generate the DCT coefficients of the reference block R1 on the virtual buffer. In the processes B1 ′ and B4 ′, the blocks r0 (i) to r2 (i) are located at the positions shown in FIG. 4B with respect to the encoded block x (i). To do.
[0093]
In other words, the processing B1 ′ and the processing B4 ′ perform the weighted average between the reference block r0 (i) and the encoded block located adjacent to the lower side of the reference block r0 (i), among the two blocks. The weighting ratio closer to the block x (i) is set to 1, and the weighted average between the reference block r1 (i) and the encoded block located adjacent to the lower side of the reference block r1 (i) The ratio closer to the encoded block x (i) is set to 1, and the weighted average between the reference block r2 (i) and the encoded block located adjacent to the upper side of the reference block r2 (i) Of these, the ratio closer to the encoded block x (i) is set to 1.
[0094]
In this case, the arithmetic processing for the weighted average is simplified, and the frequency component of the encoded sub-block that is spatially closest to the encoded sub-block is referred to, so that Since the predicted value of the frequency component is generated, it is possible to improve the prediction efficiency as a whole of the encoding process for the interlaced or specific progressive image by the adaptive in-screen DCT coefficient prediction method by simple arithmetic processing. .
[0095]
Embodiment 2. FIG.
The image processing apparatus (image decoding apparatus) according to the second embodiment decodes an image encoded signal using the adaptive intra-screen DCT coefficient prediction method used in the image encoding apparatus described in the first embodiment. It is characterized by performing.
[0096]
FIG. 2 shows a block diagram of an image decoding apparatus according to the second embodiment, where the same reference numerals as those in FIG. 1 denote the same or corresponding parts.
The image decoding apparatus 2000 receives an image encoded signal (bit stream) 110b obtained by encoding the image signal by the image encoding apparatus 1000 according to the first embodiment, and adaptively performs the in-screen DCT. A decoding process using a coefficient prediction method is performed.
[0097]
That is, the image decoding apparatus 2000 receives the bit stream 110b output from the image encoding apparatus 1000, performs variable-length decoding on the bit stream 110b by data analysis thereof, and performs DCT coefficient difference value 108 (corresponding to the block to be decoded). A variable length decoder (VLD unit) 203 for restoring the DCT coefficient quantized value 107 of the block to be encoded and its intra prediction value 111), and the intra prediction value 111 for the block to be decoded are generated. An intra-screen prediction processing unit 210, and an adder 112 that adds the intra-screen prediction value 111 and the DCT coefficient difference value 108 to restore the DCT coefficient quantized value 106 for the decoded block. Yes.
[0098]
Here, the intra-screen prediction processing unit 210 applies the block memory 115 that stores the output 106 of the adder 112 as the DCT coefficient quantization value of the decoded block, and the DCT type signal 102 from the image coding apparatus 1000. Accordingly, the prediction value 111 for the DCT coefficient quantization value of the block to be decoded is generated from the DCT coefficient quantization value 114 of the decoded block stored in the block memory 115 by the adaptive in-screen DCT coefficient prediction method. And a DCT coefficient predictor 113 that performs the same.
[0099]
The image decoding apparatus 2000 performs an inverse quantization process on the output 106 of the adder 112 to restore the DCT coefficient 104 for the block to be decoded, and the inverse quantization. The inverse DCT process is performed on the output of the decoder 207 to restore the image signal 101 for the block to be decoded, and the output of the inverse DCT unit 209 is received and the DCT type from the image coding apparatus 1000 is received. And a deblocking unit 200 for restoring the image signal 110 a having the scanning line structure based on the signal 102.
[0100]
Next, the operation will be described.
When the image encoded signal 110b from the image encoding apparatus 1000 is input to the image decoding apparatus 2000, the image encoded signal 110b is variable-length decoded by the data analysis by the VLD unit 203, and is subjected to decoding. Is output as the DCT coefficient difference value 108 for the generalized block.
[0101]
The DCT coefficient difference value 108 for the decoded block is added to the predicted value 111 by the adder 112 to restore the DCT coefficient quantized value 106 for the decoded block.
[0102]
At this time, the DCT coefficient quantization value 106 for the block to be decoded is supplied to the intra prediction processing unit 210 and stored in the block memory 115 as the DCT coefficient quantization value of the decoded block. Further, the DCT coefficient predictor 113 reads the DCT coefficient quantized value 114 corresponding to the decoded block from the block memory 115, and here, based on the DCT type signal 102 from the image coding apparatus 1000. An adaptive DCT coefficient prediction process for generating a prediction value for the DCT coefficient difference value 108 of the next decoding block processed next to the decoded block with reference to the DCT coefficient quantization value 114 from the block memory 115 is performed. This is performed in the same manner as the predicted value generation process in the intra-screen prediction processing unit 110 of the image encoding apparatus 1000.
[0103]
Further, the DCT coefficient quantized value 106 is converted by the inverse quantizer 207 into the DCT coefficient 104 for the block to be decoded by the inverse quantization process. The DCT coefficient 104 is further inversely discrete by the inverse DCT unit 209. By the cosine transform, the image signal 101 for the block to be decoded is converted.
[0104]
Then, when the image signal 101 for this block to be decoded is supplied to the deblocking unit 200, the deblocking unit 200, based on the DCT type signal 102 from the image coding apparatus 1000, scanline structure image. The signal 110a is reproduced.
[0105]
As described above, in the second embodiment, since the image encoded signal is decoded using the adaptive intra-screen DCT coefficient prediction method, the image signal corresponding to the interlaced image or the special progressive image is converted to the adaptive screen. An image encoded signal (bitstream) obtained by intra prediction encoding using the intra DCT coefficient prediction process can be efficiently and correctly decoded by the intra prediction process in the DCT region.
[0106]
Embodiment 3 FIG.
Next, an image processing apparatus (image encoding apparatus) according to Embodiment 3 of the present invention will be described.
The image coding apparatus according to the third embodiment performs a process of generating a predicted value of a DCT coefficient of a block to be coded by frame prediction in step S52 of the predicted value generation procedure shown in FIG. FIG. 13 shows a configuration in which the processing procedure shown in FIG. 12 is performed, and the processing for generating the predicted value of the DCT coefficient of the encoded block by the field prediction in step S53 in the first embodiment is executed by the processing procedure shown in FIG. It is what.
[0107]
The adaptive intra-screen DCT coefficient prediction process by the image coding apparatus according to the third embodiment is the same as the adaptive intra-screen DCT coefficient prediction process of the first embodiment except for the frame prediction method and the field prediction method. Therefore, only the frame prediction method and the field prediction method according to the third embodiment will be described here with reference to FIGS. 12 and 13.
[0108]
FIG. 12 is a flowchart showing a processing procedure in the third embodiment for realizing the frame prediction method in step S52 shown in FIG. In FIG. 12, r0 (i), r1 (i), r2 (i), and x (i) represent the reference block and the encoded block shown in FIG. 4A, respectively.
[0109]
In the third embodiment, first, the DCT type of the reference block r2 (i) is determined in step S1221a. The subsequent processing differs depending on the determination result.
[0110]
That is, when the reference block r2 (i) is subjected to the frame DCT process, the predicted value of the DCT coefficient of the encoded block x (i) is calculated using the predicted value generation method shown in FIG. Generate. Since the predicted value generation method in FIG. 8 is the same as that described in the first embodiment, the description thereof is omitted here.
[0111]
In addition, in the “predetermined method” in step S1222a in FIG. 12, since it is known that the DCT type of r2 (i) is the frame DCT, steps S827a and S828a in FIG. 8 can be omitted.
[0112]
On the other hand, when the reference block r2 (i) is subjected to the field DCT process, it is performed in the same manner as the conventional method shown in FIG. 15, that is, from the DCT coefficient of the reference block R1 as shown in FIG. Similarly to the generation of the predicted value of the DCT coefficient, the predicted value of the DCT coefficient of the encoded block x (i) is generated using the DCT coefficient of the reference block r1 (i).
[0113]
FIG. 13 is a flowchart showing a processing procedure in the third embodiment for realizing the field prediction method in step S53 shown in FIG. The process shown in FIG. 13 is obtained by replacing the frame and the field in the process of FIG. 12, and the outline of the process is the same, so the description thereof is omitted here. However, in the description of the field prediction method of FIG. 13, r0 (i), r1 (i), r2 (i), and x (i) represent the reference block and the encoded block of FIG. 4B, respectively. And
[0114]
Thus, in the adaptive intra-screen DCT coefficient prediction method in the image coding apparatus according to the third embodiment, the frame prediction method in step S52 and the field prediction method in step S53 in FIG. 5 are different from those in the first embodiment. By simplifying the comparison, it is possible to simplify and speed up the intra prediction process in the DCT region at the time of encoding.
[0115]
Embodiment 4 FIG.
Next, an image processing apparatus (image decoding apparatus) according to Embodiment 4 of the present invention will be described.
The image decoding apparatus according to the fourth embodiment performs a process of generating a predicted value of the DCT coefficient of the block to be encoded by frame prediction in step S52 of the predicted value generation procedure shown in FIG. FIG. 13 shows a configuration in which the processing procedure shown in FIG. 12 is performed, and the processing for generating the predicted value of the DCT coefficient of the encoded block by the field prediction in step S53 in the first embodiment is executed by the processing procedure shown in FIG. It is what.
[0116]
In the image decoding apparatus of the fourth embodiment having such a configuration, when performing the adaptive intra-screen DCT coefficient prediction method, the frame prediction method in step S52 and the field prediction method in step S53 in FIG. Therefore, the intra prediction process in the DCT region can be simplified and speeded up at the time of decoding.
[0117]
Embodiment 5 FIG.
The image processing apparatus (image encoding apparatus) according to Embodiment 5 of the present invention performs a DCT type signal of a block to be encoded (that is, whether the block to be encoded has been subjected to frame DCT processing or performs field DCT processing). A method for generating a predicted value of the DCT coefficient of the encoded block from the DCT coefficient of the encoded block having a predetermined positional relationship with respect to the encoded block, regardless of whether or not It is characterized by performing intra prediction encoding of an image signal. Here, the DCT type signal represents a signal indicating whether the encoded block is subjected to frame DCT processing or field DCT processing. Also, the block represents four sub-blocks composed of 8 × 8 pixels that constitute a macroblock composed of 16 × 16 pixels. These four sub-blocks are the upper left (block position (0) in FIG. 3), upper right (block position (1) in FIG. 3), lower left (block position (2) in FIG. 3), lower right ( It is located at the block position (3) in FIG.
[0118]
FIG. 17 is a block diagram showing the configuration of the image coding apparatus according to the fifth embodiment.
In the figure, reference numeral 3000 denotes an image coding apparatus according to the fifth embodiment, which includes a plurality of macroblocks that divide an input digital image signal (input image signal) 110a into an image space (frame) formed thereby. The video signal is divided so as to correspond to each, and an image signal corresponding to a block constituting each macroblock is encoded for each block.
[0119]
That is, similar to the image encoding apparatus 1000 according to the first embodiment, the image encoding apparatus 3000 blocks the input image signal 110a so as to correspond to each block for each frame or field that is a processing unit of frequency conversion. And a blocker 100 that outputs the blocked image signal 101 and a DCT type signal 102 indicating a processing unit of the frequency conversion (DCT processing). This blocker 100 receives the input image signal 110a, and in the case where the correlation of the pixel value between fields is higher than that in the frame, the block generator 100 starts from 16 × 16 pixels so that the field DCT processing is performed. The scanning lines are rearranged in units of macroblocks, and an image signal is output for each block of 8 × 8 pixels constituting the macroblocks on which the scanning lines are rearranged. In the blockizer 100, when the correlation of pixel values between fields is smaller than that in a frame, the scanning line unit of macroblocks as described above is not rearranged, and the input image signal Is output for each block.
[0120]
Specifically, in the block generator 100, the scan line rearrangement process is performed by converting the first field image formed by the image signal corresponding to the odd-numbered horizontal pixel column (horizontal scan line) into the macroblock. The second field image formed by the image signal corresponding to the even-numbered horizontal pixel column (horizontal scanning line) located above the block position, that is, at the block positions (0) and (1) is below the macroblock. Side, i.e., block positions (2) and (3).
[0121]
The blocker 100 divides the image signal corresponding to the macro block so as to correspond to the blocks at the block positions (0) to (3) and outputs the divided image signals.
[0122]
In addition, the image coding apparatus 3000, like the image coding apparatus 1000 in the first embodiment, performs discrete cosine transform (DCT processing) on the image signal 101 corresponding to the block to be coded that is the target of coding processing. ), A quantizer 105 that quantizes the output 104 of the DCT device 103, an intra-screen prediction processing unit 310 that generates a prediction value 111 corresponding to the encoded block, and the quantization And an adder 107 that subtracts the predicted value 111 from the output (DCT coefficient quantized value) 106 of the output unit 105 and outputs a DCT coefficient difference value 108. The DCT coefficient difference value 108 is converted into a VLC unit 109. Thus, variable length coding is performed and the bit stream (image coded signal) 110b is output.
[0123]
In addition, the intra-screen prediction processing unit 310 adds the DCT coefficient difference value 108 and the intra-screen prediction value 111, and outputs the output of the adder 112 to the DCT coefficient quantized value 116 of the encoded block. And a DCT generated from a DCT coefficient quantized value 114 of an encoded block adjacent to the encoded block in the image space. And a coefficient predictor 313.
[0124]
In the fifth embodiment, the DCT coefficient predictor 313 is a block located adjacent to the upper left of the encoded block x (i), as shown in FIG. 19, regardless of the DCT type of the encoded block. See r0 (i), block r1 (i) positioned adjacent to the upper side of the encoded block x (i), and block r2 (i) positioned adjacent to the left of the encoded block x (i) As a block, a predicted value 111 of the DCT coefficient quantized value of the encoded block x (i) is generated.
[0125]
The DCT device 103, the quantizer 105, the adders 107 and 112, the VLC device 109, and the block memory 115 in the fifth embodiment have the same configuration as that in the first embodiment.
[0126]
Next, the operation will be described.
First, the overall operation of the image coding apparatus according to the fifth embodiment will be briefly described.
When a digital image signal (input image signal) 110a is input to the present image encoding device 3000, the block generator 100 converts the input image signal 110a into each of the above-described frames or fields for each frequency conversion processing unit. A block corresponding to a block is output, and the blocked image signal 101 and a DCT type signal 102 indicating a processing unit of the frequency conversion (DCT processing) are output.
[0127]
At this time, in the block generator 100, if the correlation of pixel values between fields is higher than that in a frame, a macroblock consisting of 16 × 16 pixels in advance is used so that field DCT processing is performed. As described above, the scanning line rearrangement process is performed on the image signal, and the image signal subjected to the scanning line rearrangement process is output for each block of 8 × 8 pixels constituting the macroblock. In this case, in the macroblock that has undergone the scanning line rearrangement process, the first field image formed by the image signal corresponding to the odd-numbered horizontal pixel column (horizontal scanning line) is located above the macroblock, that is, The second field image formed by the image signal corresponding to the even-numbered horizontal pixel column (horizontal scanning line) located at the block positions (0) and (1) is below the macroblock, that is, the block It will be located at positions (2) and (3).
[0128]
In the block generator 100, when the correlation of pixel values between fields is smaller than that in a frame, the above-described scanning line rearrangement processing in units of macroblocks is not performed and the input is performed. The image signal is output for each block.
[0129]
Then, the image signal 101 of the encoded block to be encoded is converted into a frequency component (DCT coefficient) 104 corresponding to the encoded block by the discrete cosine transform (DCT process) in the DCT unit 103. Further, the DCT coefficient 104 is quantized by the quantizer 105 and output as a quantized value (DCT coefficient quantized value) 106 for the encoded block.
[0130]
Further, when the DCT coefficient quantized value 106 of the coded block is supplied to the adder 107, the difference between the quantized value 106 and the predicted value 111 is obtained and output as the DCT coefficient difference value 108. The DCT coefficient difference value 108 is variable-length encoded by the VLC unit 109 and output as a bit stream (image encoded signal) 110b.
[0131]
The DCT coefficient difference value 108 output from the adder 107 is supplied to the intra-screen prediction processing unit 310, where a predicted value for the DCT coefficient quantized value 106 is generated.
[0132]
That is, in the intra-screen prediction processing unit 310, the DCT coefficient difference value 108 and the intra-screen prediction value 111 are added by the adder 112, and these added values are used as the DCT coefficient quantization value 116 of the encoded block as a block memory. 115. Then, the DCT coefficient predictor 313 generates a predicted value 111 of the DCT coefficient quantized value of the encoded block from the DCT coefficient quantized value 114 of the encoded block.
[0133]
Next, the in-screen DCT coefficient prediction method in the encoding process will be described in detail.
Unlike the first embodiment, the intra-screen DCT coefficient prediction method according to the fifth embodiment differs from the first embodiment in generating the predicted value of the DCT coefficient corresponding to the encoded block, regardless of the DCT type of the encoded block. Instead, it always refers to an encoded block having a predetermined positional relationship with respect to the encoded block.
[0134]
Also in the fifth embodiment, as in the first embodiment, the DCT region (frequency region) is formed by frequency components obtained by performing DCT processing (frequency conversion) on the image signal forming the image space (spatial region). It is assumed that each macroblock is arranged in the DCT region (frequency region) as in the arrangement of macroblocks in the space region (image space).
[0135]
Also in the fifth embodiment, as in the first embodiment, when the macro block is subjected to frame DCT processing as shown in FIG. 3, the image signal of each block is not performed without rearranging the scanning lines in the macro block. Are subjected to DCT processing, and the DCT coefficients corresponding to the upper left, upper right, lower left, and lower right blocks in the macroblock on the spatial domain are block positions (0), (1), When the macro blocks are subjected to field DCT processing in the blocks (2) and (3), DCT processing is performed on the image signals of the respective blocks after rearrangement of scanning lines in the macro blocks on the spatial domain. DCT coefficients of each block of the first field left, the first field right, the second field left, and the second field right are respectively Block position in the macro block of the CT region (0), (1), (2), shall be located in the block of (3).
[0136]
Next, intra-screen DCT coefficient prediction according to the fifth embodiment, in which the DCT coefficient corresponding to the encoded block (data of the encoded block in the DCT region) is predicted with reference to the DCT coefficient of the encoded block. The method will be described in detail.
[0137]
First, regardless of whether the encoded block is subjected to frame DCT processing or field DCT processing, as shown in FIG. 19, the block located at the upper left of the encoded block x (i) is referred to as the reference block r0 (i ), A block located adjacent to the upper side of the encoded block x (i) is referred to as a reference block r1 (i), and a block located adjacent to the left of the encoded block x (i) is referred to as a reference block r2 (i). refer.
[0138]
Then, as shown in the flowchart of FIG. 20, in the same manner as in the conventional DCT coefficient prediction method, in step S2130a, the absolute value (| DC0− of the DC component difference between the DCT coefficients of the reference blocks r0 (i) and r1 (i) DC1 |) is compared with the magnitude of the absolute value (| DC0−DC2 |) of the difference between the DC components of the DCT coefficients of the reference blocks r0 (i) and r2 (i). The absolute value (| DC0−DC2 |) of the DC component difference between the DCT coefficients of the reference blocks r0 (i) and r2 (i) is the difference between the DC components of the DCT coefficients of the reference blocks r0 (i) and r1 (i). If it is smaller than the absolute value (| DC0−DC1 |), a predicted value of the DCT coefficient of the encoded block x (i) is generated using the DCT coefficient of the reference block r1 (i) in step S2132a.
In other cases, a predicted value of the DCT coefficient of the encoded block x (i) is generated using the DCT coefficient of the reference block r2 (i) in step S2131a.
[0139]
As described above, in the fifth embodiment, in the prediction process of the DCT coefficient of the encoded block, an encoded block having a predetermined positional relationship with the encoded block is used as a reference block, and the vicinity of the encoded block is used. The correlation of DCT coefficients between reference blocks arranged adjacently in the vertical direction and the correlation of DCT coefficients between reference blocks arranged adjacently in the horizontal direction in the vicinity of the encoded block are compared. A direction having a strong correlation is obtained, a reference block located in a direction in which a DCT coefficient has a strong correlation with respect to the encoded block is selected, and a predicted value of the DCT coefficient of the encoded block is obtained from the DCT coefficient of the selected reference block. Therefore, in-screen prediction for interlaced image signals and special progressive images can be efficiently and easily performed in the DCT region (frequency component). It can be carried out by.
[0140]
As a result, according to the fifth embodiment, in the MPEG4 system encoding process for interlaced images, special progressive images, etc., in which different DCT type macroblocks are mixed as the macroblocks to be processed, Thus, it is possible to improve the prediction value efficiency of the DCT coefficient of the block to be encoded by using the information of the above, and to efficiently and easily perform compression encoding of the image signal by reducing spatially redundant image information.
[0141]
In the intra-screen DCT coefficient prediction method used in Embodiment 5, the DCT coefficient of reference block r1 (i) or reference block r2 (i) in FIG. 19 is predicted as the DCT coefficient of encoded block x (i). When used as a value, only the DC component of the DCT coefficient of the reference block r1 (i) or the reference block r2 (i) may be used as the predicted value of the DCT coefficient of the encoded block x (i).
[0142]
Embodiment 6 FIG.
The image processing apparatus (image decoding apparatus) according to the sixth embodiment decodes an image encoded signal using the intra-screen DCT coefficient prediction method used in the image encoding apparatus shown in the fifth embodiment. It is characterized by doing.
[0143]
FIG. 18 shows a block diagram of an image decoding apparatus according to the sixth embodiment, where the same reference numerals as those in FIG. 17 denote the same or corresponding parts.
The image decoding apparatus 4000 receives an image encoded signal (bitstream) 110b obtained by encoding the image signal by the image encoding apparatus 3000 according to the fifth embodiment, and performs intra-screen DCT coefficient prediction on the received image encoded signal (bitstream) 110b. A decryption process using the method is performed.
[0144]
That is, the image decoding apparatus 4000 receives the bit stream 110b output from the image encoding apparatus 3000, performs variable-length decoding on the bit stream 110b by data analysis thereof, and performs DCT coefficient difference value 108 (corresponding to the block to be decoded). A variable length decoder (VLD unit) 203 for restoring the DCT coefficient quantized value 107 of the block to be encoded and its intra prediction value 111), and the intra prediction value 111 for the block to be decoded are generated. And an adder 112 that adds the intra-screen prediction value 111 and the DCT coefficient difference value 108 to restore the DCT coefficient quantized value 116 for the block to be decoded. ing.
[0145]
Here, the intra-screen prediction processing unit 410 uses the block memory 115 that stores the output 116 of the adder 112 as the DCT coefficient quantization value of the decoded block, and the image coding apparatus 3000 according to the fifth embodiment. A DCT coefficient predictor that generates a prediction value 111 for the DCT coefficient quantization value of the decoded block from the DCT coefficient quantization value 114 of the decoded block stored in the block memory 115 by the in-screen DCT coefficient prediction method. 313.
[0146]
The image decoding device 4000 performs an inverse quantization process on the output 116 of the adder 112 to restore the DCT coefficient 104 for the block to be decoded, and the inverse quantization. The inverse DCT process is performed on the output of the decoder 207 to restore the image signal 101 for the block to be decoded, and the output of the inverse DCT unit 209 is received and the DCT type from the image encoding device 4000 is received. And a deblocking unit 200 for restoring the image signal 110 a having the scanning line structure based on the signal 102.
[0147]
In this inverse blocker 200, image signals of blocks belonging to the same macro block in the image space are combined in correspondence with the position of the block in the macro block, and an image signal corresponding to the macro block is generated. The second field formed by the image signal corresponding to the even-numbered horizontal pixel column is located above the macroblock and the first field image formed by the image signal corresponding to the odd-numbered horizontal pixel column. For the image signal of the macroblock that has been subjected to the rearrangement process of the horizontal pixel column at the time of encoding so that the image of the field is positioned below the macroblock, the first field and the second field are used. The horizontal pixel column is rearranged so that an image of the frame is formed, while the horizontal pixel column is rearranged during encoding. It is for the image signal of the macroblock that was not subjected without applying inverse reordering of the horizontal pixel rows are configured to generate an image signal of the image space composed of a plurality of macro-blocks.
[0148]
Next, the operation will be described.
When the image encoded signal 110b from the image encoding device 3000 is input to the image decoding device 4000, the image encoded signal 110b is subjected to variable length decoding by the data analysis by the VLD unit 203, It is output as the DCT coefficient difference value 108 for the decoded block.
[0149]
The DCT coefficient difference value 108 for the decoded block is added to the predicted value 111 by the adder 112 to restore the DCT coefficient quantized value 116 for the decoded block.
[0150]
At this time, the DCT coefficient quantized value 116 for the decoded block is supplied to the intra prediction processing unit 410 and stored in the block memory 115 as the DCT coefficient quantized value of the decoded block. Further, the DCT coefficient predictor 313 reads the DCT coefficient quantized value 114 corresponding to the decoded block from the block memory 115. Here, the DCT coefficient quantized value 114 from the block memory 115 is referred to. Thus, the DCT coefficient prediction process for generating a prediction value for the DCT coefficient difference value 108 of the next decoding block processed next to the block to be decoded is a prediction value in the in-screen prediction processing unit 110 of the image encoding device 3000. This is performed in the same manner as the generation process.
[0151]
Further, the DCT coefficient quantized value 116 is converted by the inverse quantizer 207 into the DCT coefficient 104 for the block to be decoded by the inverse quantization process, and the DCT coefficient 104 is further inversely discrete by the inverse DCT unit 209. By the cosine transform, the image signal 101 for the block to be decoded is converted.
[0152]
Then, when the image signal 101 for this block to be decoded is supplied to the inverse blocker 200, the inverse blocker 200, based on the DCT type signal 102 from the image encoding device 3000, scanline structure image. The signal 110a is reproduced.
[0153]
As described above, in the sixth embodiment, since the image encoded signal is decoded using the in-screen DCT coefficient prediction method, the image signal corresponding to the interlaced image or the special progressive image is converted into the in-screen DCT coefficient prediction. An encoded image signal (bit stream) obtained by intra prediction encoding using processing can be efficiently and correctly decoded by simple intra prediction processing in the DCT region.
[0154]
Furthermore, by recording an encoding or decoding program for realizing image processing by the image encoding device or the image decoding device shown in each of the above embodiments on a data storage medium such as a flexible disk. The processes shown in the above embodiments can be easily performed in an independent computer system.
[0155]
FIG. 14 is a diagram for explaining a case where the image encoding process or the image decoding process of the first to sixth embodiments is performed by a computer system using a flexible disk storing the encoding or decoding program. FIG.
[0156]
FIG. 14A shows an appearance, a cross-sectional structure, and a flexible disk main body as viewed from the front of the flexible disk, and FIG. 14B shows an example of a physical format of the flexible disk main body.
[0157]
The flexible disk FD has a structure in which the flexible disk body D is accommodated in a flexible disk case FC, and a plurality of tracks are concentrically formed on the surface of the flexible disk body D from the outer periphery toward the inner periphery. Tr is formed, and each track Tr is divided into 16 sectors Se in the angular direction. Therefore, in the flexible disk FD storing the program, the flexible disk main body D is such that data as the program is recorded in an area (sector) Se allocated thereon.
[0158]
FIG. 14C shows a configuration for recording the program on the flexible disk FD and performing image processing using the program stored on the flexible disk FD.
[0159]
When recording the program on the flexible disk FD, data as the program is written from the computer system Cs to the flexible disk FD via the flexible disk drive FDD. When the arbitrary shape encoding device or the arbitrary shape decoding device is constructed in the computer system Cs by the program recorded on the flexible disk FD, the program is read from the flexible disk FD by the flexible disk drive FDD, and the computer system Load to Cs.
[0160]
In the above description, the flexible disk is used as the data storage medium. However, even if an optical disk is used, the encoding process or the decoding process by software can be performed as in the flexible disk. Further, the recording medium is not limited to the optical disk and the flexible disk, and any recording medium such as an IC card or a ROM cassette can be used as long as the recording medium can be used. Similarly, an encoding process or a decoding process by software can be performed.
[0161]
【The invention's effect】
As described above, according to the image processing method of the present invention, an image signal forming an image space composed of a plurality of pixels is divided into a plurality of rectangular macroblocks that divide the image space, and the macroblock An image processing method for performing image signal encoding processing corresponding to sub-blocks constituting each sub-block, With respect to the image signal of the macro block, the image signal of the first field constituting the image signal is positioned above the macro block, and the image of the second field constituting the image signal is below the macro block. A rearrangement step for performing a rearrangement process of the horizontal pixel row so as to be positioned on the side; the above sub Blocked image signal sub Conversion step to convert to frequency components by block unit frequency conversion and encoding sub Encoded on the left or top side of the block sub Coding based on block frequency components sub A prediction step for generating a predicted value of a frequency component of the block, and the encoded sub An encoding step for encoding a difference value between the frequency component of the block and the predicted value; In the conversion step, the image signals of the macroblocks subjected to the rearrangement process or the macroblocks not subjected to the rearrangement process are divided into four upper left, upper right, lower left, and lower right positions constituting the macroblock. Perform frequency conversion for each sub-block to convert to frequency components, The prediction step includes the encoded sub Located on the left or top side of the block Mark Issued sub block Is a frequency conversion process of at least one encoded sub-block located on the left side or the upper side of the encoded sub-block. Unit is The above encoded sub Block Frequency conversion When the same as the processing unit Is , Located on the left side or the upper side where the processing unit of frequency conversion is the same Either one Encoded sub Block frequency components DC component of Generate the predicted value from If the frequency conversion processing unit of the encoded block located on the left side and the upper side of the encoded sub-block is different from the frequency conversion processing unit of the encoded sub-block, the encoded sub-block A DC component of a frequency component is generated by a predetermined method from the encoded sub-blocks located near the left side, the upper side, and the upper left side of the block, and the predicted value is generated from the generated DC component of the frequency component. When the coded sub-block is frequency-converted in field units, the sub-block adjacent to the left side of the coded sub-block is used as the coded sub-block located on the left side, and the coded sub-block is included. Coding in which the sub-block located at the same position as the encoded sub-block in the block adjacent to the upper side of the block is located on the upper side When the encoded sub-block is frequency-converted in frame units, the sub-blocks adjacent to the left or upper side of the encoded sub-block are positioned on the left or upper side, respectively. Used as an encoded sub-block Therefore, interlaced images or specific progressive images in which field DCT type macroblocks are mixed can be sufficiently reduced by intra-screen prediction processing to reduce spatially redundant image information included in image signals. It is possible to encode efficiently.
[0162]
Further, subblocks that refer to frequency components in the vicinity of the encoded subblock are determined based on the DC components of the frequency components of the encoded subblocks that are located in the vicinity of the upper side, the left side, and the upper left side of the encoded block. Therefore, it is possible to easily identify a coded sub-block having a high DCT coefficient correlation with the coded sub-block.
[0163]
According to the present invention, in the image processing method, as an encoded sub-block located near the upper side of the encoded sub-block, an upper encoded sub-block positioned adjacent to the upper side of the encoded sub-block Using the left encoded sub-block located adjacent to the left side of the encoded sub-block as the encoded sub-block located near the left side of the encoded sub-block using the block, the encoded As an encoded sub-block located near the upper left of the sub-block, an upper left encoded sub-block located adjacent to the upper left of the encoded sub-block is used, and the frequency component of the upper encoded sub-block is used. The absolute value of the difference between the DC component of the left-side encoded sub-block and the DC component of the frequency component of the upper left encoded sub-block When the absolute value of the difference between the DC component of several components and the DC component of the frequency component of the upper left encoded sub-block is smaller than the frequency component of the encoded sub-block with reference to the frequency component of the left encoded sub-block On the other hand, the absolute value of the difference between the DC component of the frequency component of the left encoded sub-block and the DC component of the frequency component of the upper left encoded sub-block is the upper encoded When the absolute value of the difference between the DC component of the frequency component of the sub-block and the DC component of the frequency component of the upper left encoded sub-block is smaller than the encoded sub-reference with reference to the frequency component of the upper encoded sub-block Since the prediction value of the frequency component of the block is generated, when generating the prediction value of the frequency component of the encoded sub-block, the encoded sub-block is generated. Becomes the frequency components of the spatially close encoded sub blocks are referenced to click, it is possible to improve the prediction efficiency.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an image processing apparatus (image encoding apparatus) according to Embodiment 1 of the present invention.
FIG. 2 is a block diagram showing a configuration of an image processing device (image decoding device) according to a second embodiment of the present invention.
FIG. 3 is a diagram for explaining intra-frame prediction encoding processing by the image encoding apparatus according to the first embodiment, and shows an arrangement of DCT blocks in a macro block in a DCT region.
FIG. 4 is a diagram for explaining intra-frame prediction encoding processing by the image encoding device according to the first embodiment, and shows a positional relationship of a reference block with respect to an encoded block in frame prediction and field prediction; .
FIG. 5 is a diagram illustrating adaptive intra-screen DCT coefficient prediction processing by the image coding apparatus according to the first embodiment and the image decoding apparatus according to the second embodiment in a flowchart.
FIG. 6 is a diagram showing a frame prediction method in a prediction process by the image coding apparatus according to the first embodiment and the image decoding apparatus according to the second embodiment, in a flowchart.
FIG. 7 is a diagram showing a field prediction method in a prediction process by the image coding apparatus according to the first embodiment and the image decoding apparatus according to the second embodiment in a flowchart.
FIG. 8 is a flowchart illustrating an example of a prediction value generation method in the frame prediction.
FIG. 9 is a diagram showing a column of a prediction value generation method in the field prediction in a flowchart.
10 is a diagram for explaining an example of a DCT coefficient generation method for a virtual buffer in prediction processing by the image coding apparatus according to Embodiment 1 and the image decoding apparatus according to Embodiment 2. FIG.
FIG. 11 is a diagram illustrating an example of a virtual buffer DCT coefficient generation method in prediction processing by the image coding apparatus according to the first embodiment and the image decoding apparatus according to the second embodiment.
FIG. 12 is a diagram showing a frame prediction method in the image coding apparatus according to the third embodiment of the present invention and the image decoding apparatus according to the fourth embodiment in a flowchart.
FIG. 13 is a diagram illustrating a field prediction method in the image coding device according to the third embodiment and the image decoding device according to the fourth embodiment in a flowchart.
FIGS. 14A and 14B are data storage media storing a program for performing intra prediction encoding processing and intra prediction decoding processing by a computer system according to each embodiment of the present invention. FIG. 14C is a diagram illustrating the computer system.
FIG. 15 is a diagram for explaining an in-screen DCT coefficient prediction method using a conventional image processing apparatus.
FIG. 16 is a schematic diagram for explaining scanning line replacement processing at the time of frame / field DCT switching.
FIG. 17 is a block diagram for explaining an image coding apparatus according to Embodiment 5 of the present invention;
FIG. 18 is a block diagram for explaining an image decoding apparatus according to a sixth embodiment of the present invention.
FIG. 19 is a diagram for explaining reference blocks used in the prediction process in the fifth embodiment.
FIG. 20 is a diagram showing an example of a flowchart of a predicted value generation method in the fifth embodiment.
[Explanation of symbols]
100 blockizer
101 Image signal
102 DCT type signal
103 DCT unit
104 DCT coefficient
105 Quantizer
106 DCT coefficient quantization value
108 DCT coefficient difference value
109 Variable length encoder
110, 210, 310, 410 Intra-screen prediction processing unit
110a Input image signal
110b Image encoded signal (bit stream)
111 DCT coefficient prediction value
113,313 DCT coefficient predictor
115 block memory
116 DCT coefficient quantization value
200 Deblocker
203 Variable length decoder
207 Inverse quantizer
209 Inverse DCT device
1000, 3000 Image encoding device (image processing device)
2000, 4000 Image decoding device (image processing device)
Cs computer system
D Flexible disk body
FC flexible disk case
FD flexible disk
FDD flexible disk drive

Claims (2)

複数の画素からなる画像空間を形成する画像信号を、該画像空間を区分する矩形形状の複数のマクロブロックに分割し、該マクロブロックを構成するサブブロックに対応する画像信号の符号化処理を、サブブロック毎に行う画像処理方法であって、
上記マクロブロックの画像信号に対して、上記画像信号を構成する第1フィールドの画像信号が該マクロブロックの上側に位置し、かつ上記画像信号を構成する第2フィールドの画像が該マクロブロックの下側に位置するよう、水平画素列の並べ替え処理を施す並べ替えステップと、
上記サブブロック化した画像信号をサブブロック単位の周波数変換により周波数成分に変換する変換ステップと、
被符号化サブブロックの左側または上側に位置する符号化済みのサブブロックの周波数成分に基づいて被符号化サブブロックの周波数成分の予測値を生成する予測ステップと、
上記被符号化サブブロックの周波数成分と上記予測値との差分値を符号化する符号化ステップとを有し、
上記変換ステップは、上記並べ替え処理が施されたマクロブロックあるいは並べ替え処理が施されていないマクロブロックの画像信号を、上記マクロブロックを構成する左上、右上、左下、右下に位置する4つのサブブロック毎に周波数変換を行って周波数成分に変換し、
上記予測ステップは、
上記被符号化サブブロックの左側または上側に位置する符号化済みサブブロックがフィールド単位または、フレーム単位のいずれで周波数変換されているかの処理単位を特定し、
上記被符号化サブブロックの左側または上側に位置する少なくともいずれか一方の符号化済みサブブロックの周波数変換の処理単位が上記被符号化サブブロックの周波数変換の処理単位と同じ場合に、周波数変換の処理単位が同じである上記左側または上側に位置するいずれか一方の符号化済みのサブブロックの周波数成分の直流成分から上記予測値を生成し、
上記被符号化サブブロックの左側および上側に位置する符号化済みサブブロックの周波数変換の処理単位と上記被符号化サブブロックの周波数変換の処理単位とが異なる場合には、上記被符号化サブブロックの左側近傍、上側近傍および左上近傍に位置する符号化済みサブブロックから所定の方法により周波数成分の直流成分を生成し、生成した周波数成分の直流成分から上記予測値を生成し、
上記被符号化サブブロックがフィールド単位で周波数変換されている場合は、上記被符号化サブブロックの左側に隣接するサブブロックを左側に位置する符号化済みサブブロックとして用い、上記被符号化サブブロックが含まれるブロックの上側に隣接するブロック内で被符号化サブブロックと同じ位置にあるサブブロックを上側に位置する符号化済みサブブロックとして用いるものであり、上記被符号化サブブロックがフレーム単位で周波数変換されている場合は、上記被符号化サブブロックの左側または上側に隣接するサブブロックを、それぞれ左側または上側に位置する符号化済みサブブロックとして用いるものである、
ことを特徴とする画像処理方法。
An image signal that forms an image space composed of a plurality of pixels is divided into a plurality of rectangular macroblocks that divide the image space, and image signal encoding processing corresponding to sub-blocks constituting the macroblock is performed. An image processing method for each sub-block,
With respect to the image signal of the macro block, the image signal of the first field constituting the image signal is positioned above the macro block, and the image of the second field constituting the image signal is below the macro block. A rearrangement step for performing a rearrangement process of the horizontal pixel row so as to be positioned on the side;
A converting step of converting the image signals obtained by the sub-block into a frequency component by frequency conversion sub-block units,
A prediction step of generating a prediction value of the frequency components of the coded sub-block based on the frequency components of the coded subblock positioned at the left side or upper side of the coded sub-blocks,
An encoding step for encoding a difference value between the frequency component of the encoded sub- block and the predicted value;
In the conversion step, the image signals of the macroblocks subjected to the rearrangement process or the macroblocks not subjected to the rearrangement process are divided into four upper left, upper right, lower left, and lower right positions constituting the macroblock. Perform frequency conversion for each sub-block to convert to frequency components,
The prediction step is
The target encoding sub left or you overlying sign-of-out sub-block of the block or field units, and determine whether the processing unit are frequency-converted in any frame,
Above for the processing unit of frequency transformation of at least one of the coded subblock positioned at the left side or upper side of the coded sub-blocks is the same as the processing unit of frequency transformation of the target encoding subblock frequency conversion Generating the predicted value from the DC component of the frequency component of one of the encoded sub- blocks located on the left side or the upper side where the processing unit is the same ,
If the frequency conversion processing unit of the encoded subblock located on the left side and the upper side of the encoded subblock is different from the frequency conversion processing unit of the encoded subblock, the encoded subblock A DC component of a frequency component is generated by a predetermined method from encoded sub-blocks located in the vicinity of the left side, the upper side, and the upper left side of the above, and the predicted value is generated from the generated DC component of the frequency component,
When the coded sub-block is frequency-converted in field units, the sub-block adjacent to the left side of the coded sub-block is used as the coded sub-block located on the left side, and the coded sub-block is used. In the block adjacent to the upper side of the block including the sub-block, the sub-block located at the same position as the encoded sub-block is used as the encoded sub-block positioned on the upper side. In the case of frequency conversion, the subblock adjacent to the left side or the upper side of the encoded subblock is used as a coded subblock located on the left side or the upper side, respectively.
An image processing method.
複数の画素からなる画像空間を形成する画像信号を、該画像空間を区分する矩形形状の複数のマクロブロックに分割し、該マクロブロックを構成するサブブロックに対応する画像信号の符号化処理を、サブブロック毎に行う画像処理装置であって、
上記マクロブロックの画像信号に対して、上記画像信号を構成する第1フィールドの画像信号が該マクロブロックの上側に位置し、かつ上記画像信号を構成する第2フィールドの画像が該マクロブロックの下側に位置するよう、水平画素列の並べ替え処理を施す並べ替え手段と、
上記サブブロック化した画像信号をサブブロック単位の周波数変換により周波数成分に変換する変換手段と、
被符号化サブブロックの左側または上側に位置する符号化済みのサブブロックの周波数成分に基づいて被符号化サブブロックの周波数成分の予測値を生成する予測手段と、
上記被符号化サブブロックの周波数成分と上記予測値の差分値を符号化する符号化手段とを備え、
上記変換手段は、上記並べ替え処理が施されたマクロブロックあるいは並べ替え処理が施されていないマクロブロックの画像信号を、上記マクロブロックを構成する左上、右上、左下、右下に位置する4つのサブブロック毎に周波数変換を行って周波数成分に変換し、
上記予測手段は、
上記被符号化サブブロックの左側または上側に位置する符号化済みサブブロックがフィールド単位または、フレーム単位のいずれで周波数変換されているかの処理単位を特定し、
上記被符号化サブブロックの左側または上側に位置する少なくともいずれか一方の符号化済みサブブロックの周波数変換の処理単位が上記被符号化サブブロックの周波数変換の処理単位と同じ場合に、周波数変換の処理単位が同じである上記左側または上側に位置するいずれか一方の符号化済みのサブブロックの周波数成分の直流成分から上記予測値を生成
上記被符号化サブブロックの左側および上側に位置する符号化済みブロックの周波数変換の処理単位と上記被符号化サブブロックの周波数変換の処理単位とが異なる場合には、上記被符号化サブブロックの左側近傍、上側近傍および左上近傍に位置する符号化済みサブブロックから所定の方法により周波数成分の直流成分を生成し、生成した周波数成分の直流成分から上記予測値を生成し、
上記被符号化サブブロックがフィールド単位で周波数変換されている場合は、上記被符号化サブブロックの左側に隣接するサブブロックを左側に位置する符号化済みサブブロックとして用い、上記被符号化サブブロックが含まれるブロックの上側に隣接するブロック内で被符号化サブブロックと同じ位置にあるサブブロックを上側に位置する符号化済みサブブロックとして用いるものであり、上記被符号化サブブロックがフレーム単位で周波数変換されている場合は、上記被符号化サブブロックの左側または上側に隣接するサブブロックを、それぞれ左側または上側に位置する符号化済みサブブロックとして用いるものである、
ことを特徴とする画像処理装置。
An image signal that forms an image space composed of a plurality of pixels is divided into a plurality of rectangular macroblocks that divide the image space, and image signal encoding processing corresponding to sub-blocks constituting the macroblock is performed. An image processing apparatus for each sub-block,
With respect to the image signal of the macro block, the image signal of the first field constituting the image signal is positioned above the macro block, and the image of the second field constituting the image signal is below the macro block. Rearrangement means for performing a rearrangement process of the horizontal pixel row so as to be located on the side,
Conversion means for converting the frequency components by the frequency conversion of the sub-block image signal the sub blocks,
Prediction means for generating a predicted value of the frequency components of the coded sub-block based on the frequency components of the coded subblock positioned at the left side or upper side of the coded sub-blocks,
Encoding means for encoding a difference value between the frequency component of the encoded sub- block and the predicted value;
The converting means converts the image signals of the macroblocks subjected to the rearrangement process or the macroblocks not subjected to the rearrangement process into four upper left, upper right, lower left and lower right constituting the macroblock. Perform frequency conversion for each sub-block to convert to frequency components,
The prediction means is
The target encoding sub left or you overlying sign-of-out sub-block of the block or field units, and determine whether the processing unit are frequency-converted in any frame,
Above for the processing unit of frequency transformation of at least one of the coded subblock positioned at the left side or upper side of the coded sub-blocks is the same as the processing unit of frequency transformation of the target encoding subblock frequency conversion processing units generates the prediction value from the direct current component of the frequency components of one of the coded subblock positioned in the left or upper is the same,
When the frequency conversion processing unit of the encoded block located on the left side and the upper side of the encoded sub-block is different from the frequency conversion processing unit of the encoded sub-block, Generate a DC component of the frequency component from the encoded sub-blocks located in the vicinity of the left side, the upper side and the upper left by a predetermined method, and generate the predicted value from the generated DC component of the frequency component,
When the coded sub-block is frequency-converted in field units, the sub-block adjacent to the left side of the coded sub-block is used as the coded sub-block located on the left side, and the coded sub-block is used. In the block adjacent to the upper side of the block including the sub-block, the sub-block located at the same position as the encoded sub-block is used as the encoded sub-block positioned on the upper side. In the case of frequency conversion, the subblock adjacent to the left side or the upper side of the encoded subblock is used as a coded subblock located on the left side or the upper side, respectively.
An image processing apparatus.
JP2003179449A 1997-06-20 2003-06-24 Image processing method Expired - Lifetime JP4213526B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003179449A JP4213526B2 (en) 1997-06-20 2003-06-24 Image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP16465497 1997-06-20
JP9-164654 1997-06-20
JP2003179449A JP4213526B2 (en) 1997-06-20 2003-06-24 Image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP17334698A Division JP3671286B2 (en) 1997-06-20 1998-06-19 Image processing method, image processing apparatus, and data storage medium

Publications (3)

Publication Number Publication Date
JP2003348599A JP2003348599A (en) 2003-12-05
JP2003348599A5 JP2003348599A5 (en) 2007-07-12
JP4213526B2 true JP4213526B2 (en) 2009-01-21

Family

ID=29781698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003179449A Expired - Lifetime JP4213526B2 (en) 1997-06-20 2003-06-24 Image processing method

Country Status (1)

Country Link
JP (1) JP4213526B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0595542A (en) * 1991-09-30 1993-04-16 Sony Corp Dynamic picture coder-decoder
US5227878A (en) * 1991-11-15 1993-07-13 At&T Bell Laboratories Adaptive coding and decoding of frames and fields of video
JPH08242455A (en) * 1994-11-03 1996-09-17 Eastman Kodak Co Apparatus,method and system for digital image processing
ES2170744T3 (en) * 1996-05-28 2002-08-16 Matsushita Electric Ind Co Ltd PREDICTION AND DECODING DEVICE DEVICE.
JP4166305B2 (en) * 1996-09-20 2008-10-15 エイ・ティ・アンド・ティ・コーポレーション Video coder providing implicit coefficient prediction and scan adaptation for video image coding and intra coding
KR100303685B1 (en) * 1996-09-30 2001-09-24 송문섭 Image prediction encoding device and method thereof

Also Published As

Publication number Publication date
JP2003348599A (en) 2003-12-05

Similar Documents

Publication Publication Date Title
KR100303373B1 (en) Image processing method, image processing apparatus and data recording medium
JP4625411B2 (en) Image data encoding method and computer readable medium having recorded program therefor
US9510011B2 (en) Video encoding device, video decoding device, video encoding method, video decoding method, and program
JP5047995B2 (en) Video intra prediction encoding and decoding method and apparatus
JP3369573B2 (en) Image prediction decoding method and apparatus
KR100891662B1 (en) Method for decoding and encoding a video signal
JP4703449B2 (en) Encoding method
AU2002353749A1 (en) Global motion compensation for video pictures
KR20070026914A (en) Apparatus for encoding and decoding image, and method theroff, and a recording medium storing program to implement the method
KR100260475B1 (en) Methods and devices for encoding and decoding frame signals and recording medium therefor
JP2004242271A (en) Moving picture encoding method, moving picture decoding method, moving picture encoder, and moving picture decoder
JP4572210B2 (en) Method for decoding luminance information
JP3671286B2 (en) Image processing method, image processing apparatus, and data storage medium
JP4775132B2 (en) Image processing apparatus and method, program, and recording medium
KR100359819B1 (en) An Efficient Edge Prediction Methods In Spatial Domain Of Video Coding
JP4213526B2 (en) Image processing method
JP3776735B2 (en) Image predictive decoding method, image predictive decoding device, image predictive encoding method, image predictive encoding device, and data storage medium
JP3449370B2 (en) Image data decoding method and apparatus
JPH10327410A (en) Data structure for image transmission, coding and decoding methods
JP2004242275A (en) Moving picture encoding method, moving picture decoding method, moving picture encoding program, moving picture decoding program, moving picture encoder, and moving picture decoder
JP2000041247A (en) Image data decoding method and image data decoder
JPH11243549A (en) Dynamic image decoding method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070619

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081007

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081030

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ02 Written request for trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z02

S131 Request for trust registration of transfer of right

Free format text: JAPANESE INTERMEDIATE CODE: R313133

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term