JP3844031B2 - Image coding apparatus and image coding method, and image decoding apparatus and image decoding method - Google Patents
Image coding apparatus and image coding method, and image decoding apparatus and image decoding method Download PDFInfo
- Publication number
- JP3844031B2 JP3844031B2 JP36016597A JP36016597A JP3844031B2 JP 3844031 B2 JP3844031 B2 JP 3844031B2 JP 36016597 A JP36016597 A JP 36016597A JP 36016597 A JP36016597 A JP 36016597A JP 3844031 B2 JP3844031 B2 JP 3844031B2
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- pixel
- value
- image signal
- target pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/004—Predictors, e.g. intraframe, interframe coding
Description
【0001】
【発明の属する技術分野】
本発明は、画像符号化装置および画像符号化方法、並びに、画像復号装置および画像復号方法に関する。特に、原画像とほぼ同一の復号画像が得られるように、画像を間引いて圧縮符号化する画像符号化装置および画像符号化方法、並びに、画像復号装置および画像復号方法に関する。
【0002】
【従来の技術】
例えば、標準解像度または低解像度の画像(以下、適宜、SD画像という)を、高解像度の画像(以下、適宜、HD画像という)に変換したり、また、画像を拡大したりする場合においては、いわゆる補間フィルタなどによって、不足している画素の画素値の補間(補償)が行われるようになされている。
【0003】
しかしながら、補間フィルタによって画素の補間を行っても、SD画像に含まれていない、HD画像の成分(高周波成分)を復元することはできないため、高解像度の画像を得ることは困難であった。
【0004】
そこで、本件出願人は、SD画像を、そこに含まれていない高周波成分をも含むHD画像に変換する画像変換装置(画像変換回路)を先に提案している。
【0005】
この画像変換装置においては、SD画像と、所定の予測係数との線形結合により、HD画像の画素の予測値を求める適応処理を行うことで、SD画像には含まれていない高周波成分が復元されるようになされている。
【0006】
即ち、例えば、いま、HD画像を構成する画素(以下、適宜、HD画素という)の画素値yの予測値E[y]を、幾つかのSD画素(SD画像を構成する画素)の画素値(以下、適宜、学習データという)x1,x2,・・・と、所定の予測係数w1,w2,・・・の線形結合により規定される線形1次結合モデルにより求めることを考える。この場合、予測値E[y]は、次式で表すことができる。
【0007】
【0008】
そこで、一般化するために、予測係数wの集合でなる行列W、学習データの集合でなる行列X、および予測値E[y]の集合でなる行列Y’を、
【数1】
で定義すると、次のような観測方程式が成立する。
【0009】
【0010】
そして、この観測方程式に最小自乗法を適用して、HD画素の画素値yに近い予測値E[y]を求めることを考える。この場合、教師データとなるHD画素の真の画素値yの集合でなる行列Y、およびHD画素の画素値yに対する予測値E[y]の残差eの集合でなる行列Eを、
【数2】
で定義すると、式(2)から、次のような残差方程式が成立する。
【0011】
【0012】
この場合、HD画素の画素値yに近い予測値E[y]を求めるための予測係数wiは、自乗誤差
【数3】
を最小にすることで求めることができる。
【0013】
従って、上述の自乗誤差を予測係数wiで微分したものが0になる場合、即ち、次式を満たす予測係数wiが、HD画素の画素値yに近い予測値E[y]を求めるため最適値ということになる。
【0014】
【数4】
【0015】
そこで、まず、式(3)を、予測係数wiで微分することにより、次式が成立する。
【0016】
【数5】
【0017】
式(4)および(5)より、式(6)が得られる。
【0018】
【数6】
【0019】
さらに、式(3)の残差方程式における学習データx、予測係数w、教師データy、および残差eの関係を考慮すると、式(6)から、次のような正規方程式を得ることができる。
【0020】
【数7】
【0021】
式(7)の正規方程式は、求めるべき予測係数wの数と同じ数だけたてることができ、従って、式(7)を解くことで(但し、式(7)を解くには、式(7)において、予測係数wにかかる係数で構成される行列が正則である必要がある)、最適な予測係数wを求めることができる。なお、式(7)を解くにあたっては、例えば、掃き出し法(Gauss-Jordanの消去法)などを適用することが可能である。
【0022】
以上のようにして、最適な予測係数wのセットを求め、さらに、その予測係数wのセットを用い、式(1)により、HD画素の画素値yに近い予測値E[y]を求めるのが適応処理である(但し、あらかじめ予測係数wのセットを求めておき、その予測係数wのセットから、予測値を求めるのも、適応処理に含まれるものとする)。
【0023】
なお、適応処理は、SD画像には含まれていない、HD画像に含まれる成分が再現される点で、補間処理とは異なる。即ち、適応処理では、式(1)だけを見る限りは、いわゆる補間フィルタを用いての補間処理と同一であるが、その補間フィルタのタップ係数に相当する予測係数wが、教師データyを用いて、いわば学習により求められるため、HD画像に含まれる成分を再現することができる。即ち、容易に、高解像度の画像を得ることができる。このことから、適応処理は、いわば画像の創造作用がある処理ということができる。
【0024】
図25は、画像の特徴(クラス)に基づいて以上のような適応処理により、SD画像をHD画像に変換する画像変換装置の構成例を示している。
【0025】
SD画像は、クラス分類回路101および遅延回路102に供給されるようになされており、クラス分類回路101では、SD画像を構成するSD画素が順次、注目画素とされ、その注目画素が、所定のクラスにクラス分類される。
【0026】
即ち、クラス分類回路101は、まず最初に、注目画素の周辺にあるSD画素を幾つか集めてブロックを構成し(以下、適宜、処理ブロックという)、その処理ブロックを構成する、例えばすべてのSD画素の画素値のパターンにあらかじめ割り当てられた値を、注目画素のクラスとして、係数ROM104のアドレス端子(AD)に供給する。
【0027】
具体的には、クラス分類回路101は、例えば、図26に点線の四角形で囲んで示すように、注目画素を中心とする5×5のSD画素(同図において○印で示す)でなる処理ブロックを、SD画像から抽出し、これらの25のSD画素の画素値のパターンに対応する値を、注目画素のクラスとして出力する。
【0028】
ここで、各SD画素の画素値を表すのに、例えば、8ビットなどの多くのビット数が割り当てられている場合、25のSD画素の画素値のパターン数は、(28)25通りという莫大な数となり、その後の処理の迅速化が困難となる。
【0029】
そこで、クラス分類を行う前の前処理として、処理ブロックには、それを構成するSD画素のビット数を低減するための処理である、例えばADRC(Adaptiv Dynamic Range Coding)処理などが施される。
【0030】
即ち、ADRC処理では、まず、処理ブロックを構成する25のSD画素から、その画素値の最大のもの(以下、適宜、最大画素という)と最小のもの(以下、適宜、最小画素という)とが検出される。そして、最大画素の画素値MAXと最小画素の画素値MINとの差分DR(=MAX−MIN)が演算され、このDRを処理ブロックの局所的なダイナミックレンジとする。このダイナミックレンジDRに基づいて、処理ブロックを構成する各画素値が、元の割当ビット数より少ないKビットに再量子化される。つまり、処理ブロックを構成する各画素値から最小画素の画素値MINが減算され、各減算値が、DR/2Kで除算される。
【0031】
その結果、処理ブロックを構成する各画素値はKビットで表現されるようになる。従って、例えばK=1とした場合、25のSD画素の画素値のパターン数は、(21)25通りになり、ADRC処理を行わない場合に比較して、パターン数を非常に少ないものとすることができる。なお、画素値を、このようにKビットにするADRC処理を、以下、適宜、KビットADRC処理という。
【0032】
係数ROM104は、あらかじめ学習が行われることにより求められた予測係数のセットを、クラスごとに記憶しており、クラス分類回路101からクラスが供給されると、そのクラスに対応するアドレスに記憶されている予測係数のセットを読み出し、予測演算回路105に供給する。
【0033】
一方、遅延回路102では、予測演算回路105に対して、係数ROM104から予測係数のセットが供給されるタイミングと、後述する予測タップ生成回路103から予測タップが供給されるタイミングとを一致させるために必要な時間だけ、SD画像が遅延され、予測タップ生成回路103に供給される。
【0034】
予測タップ生成回路103では、そこに供給されるSD画像から、予測演算回路105において所定のHD画素の予測値を求めるのに用いるSD画素が抽出され、これが予測タップとして、予測演算回路105に供給される。即ち、予測タップ生成回路103では、SD画像から、例えば、クラス分類回路101で抽出されたとの同一の処理ブロックが抽出され、その処理ブロックを構成するSD画素が、予測タップとして、予測演算回路105に供給される。
【0035】
予測演算回路105では、係数ROM104からの予測係数w,w2,・・・と、予測タップ生成回路103からの予測タップx1,x2,・・・とを用いて、式(1)に示した演算、即ち、適応処理が行われることにより、注目画素yの予測値E[y]が求められ、これが、HD画素の画素値として出力される。
【0036】
即ち、ここでは、例えば、図26において実線の四角形で囲む、注目画素を中心とする3×3のHD画素(同図において・点で示す)の予測値が、1つの予測タップから求められるようになされており、この場合、予測演算回路105では、この9個のHD画素について、式(1)の演算が行われる。従って、係数ROM104では、1のクラスに対応するアドレスに、9セットの予測係数のセットが記憶されている。
【0037】
以下同様の処理が、その他のSD画素を注目画素として行われ、これにより、SD画像がHD画像に変換される。
【0038】
次に、図27は、図25の係数ROM104に記憶させるクラス毎の予測係数のセットを算出する学習処理を行う学習装置の構成例を示している。
【0039】
学習における教師データyとなるべきHD画像が、間引き回路111および遅延回路114に供給されるようになされており、間引き回路111では、HD画像が、例えば、その画素数が間引かれることにより少なくされ、これによりSD画像とされる。このSD画像は、クラス分類回路112および予測タップ生成回路113に供給される。
【0040】
クラス分類回路112または予測タップ生成回路113では、図25のクラス分類回路101または予測タップ生成回路103における場合と同様の処理が行われ、これにより注目画素のクラスまたは予測タップがそれぞれ出力される。クラス分類回路112が出力するクラスは、予測タップメモリ115および教師データメモリ116のアドレス端子(AD)に供給され、予測タップ生成回路113が出力する予測タップは、予測タップメモリ115に供給される。
【0041】
予測タップメモリ115では、クラス分類回路112から供給されるクラスに対応するアドレスに、予測タップ生成回路113から供給される予測タップが記憶される。
【0042】
一方、遅延回路114では、注目画素に対応するクラスが、クラス分類回路112から教師データメモリ116に供給される時間だけ、HD画像が遅延され、そのうちの、予測タップに対して図26に示した位置関係にあるHD画素の画素値だけが、教師データとして、教師データメモリ116に供給される。
【0043】
そして、教師データメモリ116では、クラス分類回路112から供給されるクラスに対応するアドレスに、遅延回路114から供給される教師データが記憶される。
【0044】
以下同様の処理が、あらかじめ学習用に用意されたすべてのHD画像から得られるSD画像を構成するすべてのSD画素が注目画素とされるまで繰り返される。
【0045】
以上のようにして、予測タップメモリ115または教師データメモリ116の同一のアドレスには、図26において○印で示したSD画素または図26において・印で示したHD画素とそれぞれ同一の位置関係にあるSD画素またはHD画素が、学習データxまたは教師データyとして記憶される。
【0046】
なお、予測タップメモリ115と教師データメモリ116においては、同一アドレスに複数の情報を記憶することができるようになされており、これにより、同一アドレスには、同一のクラスに分類される複数の学習データxと教師データyを記憶することができるようになされている。
【0047】
その後、演算回路117は、予測タップメモリ115または教師データメモリ116から、同一アドレスに記憶されている学習データとしての予測タップまたは教師データとしてのHD画素の画素値を読み出し、それらを用いて、最小自乗法によって、予測値と教師データとの間の誤差を最小にする予測係数のセットを算出する。即ち、演算回路117では、クラス毎に、式(7)に示した正規方程式がたてられ、これを解くことによりクラス毎の予測係数のセットが求められる。
【0048】
以上のようにして、演算回路117で求められたクラス毎の予測係数のセットが、図25の係数ROM104における、そのクラスに対応するアドレスに記憶されている。
【0049】
なお、以上のような学習処理において、予測係数のセットを求めるのに必要な数の正規方程式が得られないクラスが生じる場合があるが、そのようなクラスについては、例えば、クラスを無視して正規方程式をたてて解くことにより得られる予測係数のセットなどが、いわばデフォルトの予測係数のセットとして用いられる。
【0050】
ところで、図25の画像変換装置によれば、HD画像の画素数を間引くなどして少なくすることにより得られるSD画像から、上述したように、そこに含まれていない高周波成分をも含むHD画像を得ることができるが、元のHD画像に近づけるのには限界がある。その理由として、HD画像の画素数を間引いただけのSD画像の画素(SD画素)の画素値が、元のHD画像を復元するのに、最適ではないことが考えられる。
【0051】
そこで、本件出願人は、元のHD画像により近い画質の復号画像を得ることができるようにするため、適応処理を利用した画像の圧縮(符号化)について先に提案している(例えば、特願平8−206552号など)。
【0052】
即ち、図28は、適応処理によって、元のHD画像により近い復号画像を得ることができるように、そのHD画像を、最適なSD画像に圧縮(符号化)する画像符号化装置の構成例を示している。
【0053】
符号化対象のHD画像は、間引き部121および誤差算出部43に供給される。
【0054】
間引き部121では、HD画像が、例えば、単純に間引かれることによりSD画像とされ、補正部41に供給される。補正部41は、間引き部121からSD画像を受信すると、最初は、そのSD画像を、そのままローカルデコード部122に出力する。ローカルデコード部122は、例えば、図25に示した画像変換装置と同様に構成され、補正部41からのSD画像を用いて、上述したような適応処理を行うことにより、HD画素の予測値を算出し、誤差算出部43に出力する。誤差算出部43は、ローカルデコード部122からのHD画素の予測値の、元のHD画素に対する予測誤差(誤差情報)を算出し、制御部44に出力する。制御部44は、誤差算出部43からの予測誤差に対応して、補正部41を制御する。
【0055】
即ち、これにより、補正部41は、間引き部121からのSD画像の画素値を、制御部44からの制御に従って補正し、ローカルデコード部122に出力する。ローカルデコード部122では、補正部41から供給される補正後のSD画像を用いて、再び、HD画像の予測値が求められる。
【0056】
以下、例えば、誤差算出部43が出力する予測誤差が、所定値以下となるまで、同様の処理が繰り返される。
【0057】
そして、誤差算出部43が出力する予測誤差が、所定値以下となると、制御部44は、補正部41を制御し、これにより、予測誤差が所定値以下となったときの、補正後のSD画像を、HD画像の最適な符号化結果として出力させる。
【0058】
従って、この補正後のSD画像によれば、それに適応処理を施すことにより、予測誤差が所定値以下のHD画像を得ることができる。
【0059】
ここで、以上のようにして、図28の画像符号化装置から出力されるSD画像は、元のHD画像により近い復号画像を得るのに最適なものということができるから、この画像符号化装置の補正部41、ローカルデコード部122、誤差算出部43、および制御部44で構成される系が行う処理は、最適化処理ということができる。
【0060】
【発明が解決しようとする課題】
ところで、適応処理は、いわば、HD画素の周辺のSD画素で予測タップを構成し、その予測タップを用いて、HD画素の予測値を求めるものであるが、予測タップとして用いられるSD画素は、画像とは無関係に選択されるようになされていた。
【0061】
即ち、図25の画像変換装置の予測タップ生成回路103や、この画像変換装置と同様に構成される図28のローカルデコード部122では、常に、一定パターンの予測タップが生成(形成)されるようになされていた。
【0062】
しかしながら、画像は、局所的に特性が異なる場合が多く、従って、特性が異なれば、それに対応した予測タップを用いて適応処理をした方が、元のHD画像の画質により近い復号画像を得ることができると考えられる。
【0063】
本発明は、このような状況に鑑みてなされたものであり、より画質の向上した復号画像を得ることができるようにするものである。
【0064】
【課題を解決するための手段】
請求項1に記載の画像符号化装置は、原画像信号の画素数より少ない画素数の圧縮画像信号を発生する圧縮手段と、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成する第1の形成手段と、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力する第1の予測手段と、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出する第1の算出手段と、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加する付加手段とを備えることを特徴とする。
【0065】
請求項13に記載の画像符号化方法は、原画像信号の画素数より少ない画素数の圧縮画像信号を発生する圧縮ステップと、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成する第1の形成ステップと、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力する第1の予測ステップと、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出する第1の算出ステップと、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加する付加ステップとを備えることを特徴とする。
【0066】
請求項25に記載の画像復号装置は、符号化データから、圧縮画像信号と予測係数とを分離する分離手段と、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップを、注目画素の近傍の画素を用いて形成する形成手段と、形成手段により形成された予測タップと、予測係数とから、原画像信号を予測し、その予測値を求める予測手段とを備えることを特徴とする。
【0067】
請求項31に記載の画像復号方法は、符号化データから、圧縮画像信号と予測係数とを分離する分離ステップと、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップを、注目画素の近傍の画素を用いて形成する形成ステップと、形成ステップにより形成された予測タップと、予測係数とから、原画像信号を予測し、その予測値を求める予測ステップとを備えることを特徴とする。
【0069】
請求項1に記載の画像符号化装置においては、圧縮手段は、原画像信号の画素数より少ない画素数の圧縮画像信号を発生し、第1の形成手段は、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成し、第1の予測手段は、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力するようになされている。第1の算出手段は、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出し、付加手段は、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加するようになされている。
【0070】
請求項13に記載の画像符号化方法においては、原画像信号の画素数より少ない画素数の圧縮画像信号を発生し、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成し、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力し、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出し、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加するようになされている。
【0071】
請求項25に記載の画像復号装置においては、分離手段は、符号化データから、圧縮画像信号と予測係数とを分離し、形成手段は、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップを、注目画素の近傍の画素を用いて形成し、予測手段は、形成手段により形成された予測タップと、予測係数とから、原画像信号を予測し、その予測値を求めるようになされている。
【0072】
請求項31に記載の画像復号方法においては、符号化データから、圧縮画像信号と予測係数とを分離し、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップを、注目画素の近傍の画素を用いて形成し、その予測タップと、予測係数とから、原画像信号を予測し、その予測値を求めるようになされている。
【0074】
【発明の実施の形態】
以下に、本発明の実施の形態を説明するが、その前に、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施の形態(但し、一例)を付加して、本発明の特徴を記述すると、次のようになる。
【0075】
即ち、請求項1に記載の画像符号化装置は、画像信号を符号化する画像符号化装置であって、原画像信号の画素数より少ない画素数の圧縮画像信号を発生する圧縮手段(例えば、図5に示す間引き回路31など)と、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成する第1の形成手段(例えば、図5に示す予測タップ生成回路32や、図22に示す予測タップ生成回路61など)と、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力する第1の予測手段(例えば、図5に示すクラス分類適応処理回路33や、図22に示すクラス分類適応処理回路62など)と、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出する第1の算出手段(例えば、図5に示す予測誤差算出回路34や、図22に示す予測誤差算出回路63など)と、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加する付加手段(例えば、図5に示すタップパターンコード付加回路36や、図22に示すタップパターンコード変更回路64など)とを備えることを特徴とする。
【0076】
請求項3に記載の画像符号化装置は、第1の予測手段が、予測誤差が最小となる予測係数を求める演算手段(例えば、図11に示す演算回路87など)を有することを特徴とする。
【0077】
請求項4に記載の画像符号化装置は、第1の予測手段が、注目画素を、所定のクラスに分類するクラス分類手段(例えば、図11に示すクラス分類回路82など)をさらに有し、注目画素のクラスに対応する予測係数と、予測タップとから、予測値を求め、演算手段が、原画像信号および圧縮画像信号に基づいて、予測係数を、クラスごとに求めることを特徴とする。
【0078】
請求項7に記載の画像符号化装置は、変換後の信号と予測係数により予測される予測値の、原画像信号に対する予測誤差が最小となる信号に圧縮画像信号を変換する最適化手段(例えば、図3に示す最適化部23など)をさらに備えることを特徴とする。
【0079】
請求項8に記載の画像符号化装置は、最適化手段が、注目画素の画素値に付加されたパターンコードに対応するパターンの予測タップを形成する第2の形成手段(例えば、図16に示す予測タップ生成回路42Aなど)と、第2の形成手段により形成された予測タップと、予測係数とから、原画像信号を予測し、その予測値を出力する第2の予測手段(例えば、図16に示すクラス分類適応処理回路42Bなど)と、第2の予測手段により求められた予測値の、原画像信号に対する予測誤差を算出する第2の算出手段(例えば、図16に示す誤差算出回路43など)と、第2の算出手段により算出された予測誤差より予測誤差が小さくなるように画素値を所定の値だけ増加または減少させることにより、注目画素の画素値を補正する補正手段(例えば、図16に示す補正部41など)とを有することを特徴とする。
【0080】
請求項10に記載の画像符号化装置は、最適化処理を行うごとに得られる圧縮画像信号と、原画像信号とに基づいて、第2の予測手段により求められる予測値の、原画像信号に対する予測誤差が最小となる係数に予測係数を修正する修正手段(例えば、図3に示す適応処理部24など)をさらに備え、第1および第2の予測手段が、修正手段により修正され予測係数を用いて、予測値を求めることを特徴とする。
【0081】
請求項11に記載の画像符号化装置は、最適化手段が出力する圧縮画像信号と、修正手段が出力する予測係数とを出力する出力手段(例えば、図3に示す多重化部27など)をさらに備えることを特徴とする。
【0082】
請求項12に記載の画像符号化装置は、パターンコードが付加された圧縮画像信号と、予測係数とを出力する出力手段(例えば、図3に示す多重化部27など)をさらに備えることを特徴とする。
【0083】
請求項25に記載の画像復号装置は、原画像信号の画素数より少ない画素数の圧縮画像信号を発生し、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成し、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力し、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出し、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加することにより得られる圧縮画像信号および予測係数を含む符号化データを復号する画像復号装置であって、符号化データから、圧縮画像信号と予測係数とを分離する分離手段(例えば、図24に示す分離部72など)と、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップを、注目画素の近傍の画素を用いて形成する形成手段(例えば、図24に示す予測タップ生成回路73など)と、形成手段により形成された予測タップと、予測係数とから、原画像信号を予測し、その予測値を求める予測手段(例えば、図24に示すクラス分類適応処理回路74など)とを備えることを特徴とする。
【0084】
請求項28に記載の画像復号装置は、予測手段が、注目画素を、所定のクラスに分類するクラス分類手段(例えば、図17に示すクラス分類回路91など)を有し、注目画素のクラスに対応する予測係数と、予測タップとから、予測値を求め、予測係数が、符号化データを符号化するときに、原画像信号および圧縮画像信号に基づいて、クラスごとに求められたものであることを特徴とする。
【0086】
なお、勿論この記載は、各手段を上記したものに限定することを意味するものではない。
【0087】
図1は、本発明を適用した画像処理装置の一実施の形態の構成を示している。送信装置1には、ディジタル化されたHD画像の画像データが供給されるようになされている。送信装置1は、入力された画像データを間引くこと(その画素数を少なくすること)により圧縮、符号化し、その結果得られるSD画像の画像データを、HD画像の符号化データとして、例えば、光ディスクや、光磁気ディスク、磁気テープその他でなる記録媒体2に記録し、または、例えば、地上波や、衛星回線、電話回線、CATV網、その他の伝送路3を介して伝送する。
【0088】
受信装置4では、記録媒体2に記録された符号化データが再生され、または、伝送路3を介して伝送されてくる符号化データが受信され、その符号化データを伸張、復号し、その結果得られるHD画像の復号画像を、図示せぬディスプレイに供給して表示させる。
【0089】
なお、以上のような画像処理装置は、例えば、光ディスク装置や、光磁気ディスク装置、磁気テープ装置その他の、画像の記録/再生を行う装置や、あるいはまた、例えば、テレビ電話装置や、テレビジョン放送システム、CATVシステムその他の、画像の伝送を行う装置などに適用される。また、後述するように、送信装置1が出力する符号化データのデータ量が少ないため、図1の画像処理装置は、伝送レートの低い、例えば、携帯電話機その他の、移動に便利な携帯端末などにも適用可能である。
【0090】
図2は、送信装置1の構成例を示している。
【0091】
I/F(InterFace)11は、外部から供給されるHD画像の画像データの受信処理と、送信機/記録装置16に対しての、符号化データの送信処理を行うようになされている。ROM(Read Only Memory)12は、IPL(Initial Program Loading)用のプログラムその他を記憶している。RAM(Random Access Memory)13は、外部記憶装置15に記録されているシステムプログラム(OS(Operating System))やアプリケーションプログラムを記憶したり、また、CPU(Central Processing Unit)14の動作上必要なデータを記憶するようになされている。CPU14は、ROM12に記憶されているIPLプログラムにしたがい、外部記憶装置15からシステムプログラムおよびアプリケーションプログラムを、RAM13に展開し、そのシステムプログラムの制御の下、アプリケーションプログラムを実行することで、I/F11から供給される画像データについての、後述するような符号化処理を行うようになされている。外部記憶装置15は、例えば、磁気ディスク装置などでなり、上述したように、CPU14が実行するシステムプログラムやアプリケーションプログラムを記憶している他、CPU14の動作上必要なデータも記憶している。送信機/記録装置16は、I/F11から供給される符号化データを、記録媒体2に記録し、または伝送路3を介して伝送するようになされている。
【0092】
なお、I/F11,ROM12,RAM13,CPU14、および外部記憶装置15は、相互にバスを介して接続されている。また、図2において、送信装置1はCPUを用いた構成であるが、ハードロジックで構成することも可能である。
【0093】
以上のように構成される送信装置1においては、I/F11にHD画像の画像データが供給されると、その画像データは、CPU14に供給される。CPU14は、画像データを符号化し、その結果得られる符号化データとしてのSD画像を、I/F11に供給する。I/F11は、符号化データを受信すると、それを、送信機/記録装置16に供給する。送信機/記録装置16では、I/F11からの符号化データが、記録媒体2に記録され、または伝送路3を介して伝送される。
【0094】
図3は、図2の送信装置1の、送信機/記録装置16を除く部分の機能的なブロック図である。
【0095】
符号化すべき画像データとしてのHD画像は、前処理部21、最適化部23、適応処理部24、および予測タップパターン判定部26に供給されるようになされている。
【0096】
前処理部21は、そこに供給されるHD画像に対して、後述するような前処理を、例えば、1フレーム(または1フィールド)単位で施し、その結果得られるSD画像または複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを、スイッチ22または25の端子aにそれぞれ供給するようになされている。スイッチ22の端子aまたはbには、前処理部21または予測タップパターン判定部26が出力するSD画像が、それぞれ供給されるようになされている。スイッチ22は、前処理部21において、あるHD画像に前処理が施され、これによりSD画像が出力されるときだけ、端子aを選択し、それ以外のときは、端子bを選択し、前処理部21または予測タップパターン判定部26が出力するSD画像を、最適化部23に供給するようになされている。
【0097】
最適化部23は、スイッチ22から供給されるSD画像に対して、前述の図28で説明した最適化処理を施し、その結果得られる最適SD画像を、適応処理部25、予測タップパターン判定部26、および多重化化部27に供給するようになされている。適応処理部24は、最適化部23からの最適SD画像と、元のHD画像とを用いて適応処理を行うことによって、最適SD画像の画素値との線形結合により求められるHD画像の予測値の予測誤差を小さくするクラス毎の予測係数wのセットを複数パターンの予測タップ毎に算出し、スイッチ25の端子bに出力するようになされている。
【0098】
スイッチ25は、前処理部21において、あるHD画像に前処理が施され、これにより複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが出力されるときだけ、端子aを選択し、それ以外のときは、端子bを選択し、前処理部21または適応処理部24が出力する複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを、最適化部23、予測タップパターン判定部26、および多重化部27に供給するようになされている。
【0099】
予測タップパターン判定部26は、最適化部23から供給される最適SD画像から、複数パターンの予測タップを形成し、その複数パターンの予測タップそれぞれを用いて適応処理を行うことで、複数のHD画像の予測値を求めるようになされている。さらに、予測タップパターン判定部26は、複数パターンの予測タップのうち、複数のHD画像の予測値の予測誤差を最小にするものを判定し、その判定結果に対応して、最適化部23からの最適SD画像の画素値に、後述するパターンコードを付加して、スイッチ22の端子bに供給するようになされている。
【0100】
多重化部27は、所定の場合に、最適化部23から供給される最適SD画像と、スイッチ25を介して供給される複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットとを多重化し、その多重化結果を、符号化データとして、送信機/記録装置16(図2)に出力するようになされている。
【0101】
次に、図4のフローチャートを参照して、その動作について説明する。
【0102】
符号化すべきHD画像が、前処理部21、最適化部23、適応処理部24、および予測タップパターン判定部26に供給されると、前処理部21では、ステップS1において、HD画像に前処理が施される。
【0103】
即ち、前処理部21は、HD画像の画素数を少なくして圧縮することによりSD画像を構成し、そのSD画像を構成するSD画素それぞれを順次注目画素として、各注目画素に対して、複数パターンの予測タップを形成する。さらに、前処理部21は、その複数パターンの予測タップそれぞれについて、式(7)に示した正規方程式をたてて解くことにより、クラス毎の予測係数wのセットを求める。そして、前処理部21は、複数パターンの予測タップと、それぞれについて求めたクラス毎の予測係数wのセットの所定のクラスの予測係数のセットとを用いて、式(1)に示した線形1次式を計算することにより、複数パターンの予測タップそれぞれから得られる複数のHD画像の予測値を求める。さらに、前処理部21は、複数パターンの予測タップのうち、複数のHD画像の予測値の予測誤差を最も小さくするものを検出し、その予測タップのパターンにあらかじめ対応付けられている、例えば、2ビットのコードであるタップパターンコードを、注目画素となっているSD画素に付加して出力する。
【0104】
以上のようにして、タップパターンコードが付加されたSD画像は、スイッチ22の端子aに、また、正規方程式を解くことにより得られた複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットは、スイッチ25の端子aに、それぞれ出力される。
【0105】
スイッチ22および25は、上述したように、前処理部21からSD画像および複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが出力されるタイミングでは、いずれも端子aを選択しており、従って、前処理部21が出力するSD画像は、スイッチ22を介して、最適化部23に供給され、また、前処理部21が出力する複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットは、スイッチ25を介して、最適化部23および予測タップパターン判定部26に出力される。
【0106】
最適化部23は、SD画像および複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを受信すると、ステップS2において、それらを用いて最適化処理を行う。即ち、最適化部23は、SD画像および複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを用いて適応処理を行い、その結果得られるHD画像の予測値の予測誤差が小さくなるように、SD画像の画素値を補正する。そして、その結果得られる最適SD画像を、適応処理部24および予測タップパターン判定部26に供給する。
【0107】
適応処理部24は、最適化部23から最適SD画像を受信すると、ステップS3において、適応処理を行うことにより、最適SD画像を用いて得られるHD画像の予測値の予測誤差を小さくする複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを算出する。即ち、適応処理部24は、最適SD画像を構成するSD画素それぞれを順次注目画素として、各注目画素に対して予測タップを形成する。なお、このとき、予測タップは、注目画素に付加されているタップパターンコードに対応するパターンのものが形成される。そして、適応処理部24は、複数パターンの予測タップ毎に、予測タップから正規方程式をたて、それを解くことにより、複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを求める。この複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットは、スイッチ25の端子bに供給される。
【0108】
以上の処理後、ステップS4に進み、スイッチ22および25が、いずれも、端子aからbに切り換えられ、これにより、適応処理部24において求められた複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが、スイッチ25を介して、最適化部23および予測タップパターン判定部26に供給されるようになる。
【0109】
そして、予測タップパターン判定部26は、最適化部23から最適SD画像を受信し、さらに、適応処理部24から複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを受信すると、ステップS5において、その最適SD画像を構成する各SD画素を注目画素として形成される予測タップの最適なパターンが決定される。
【0110】
即ち、予測タップパターン判定部26は、最適SD画像を構成するSD画素それぞれを順次注目画素として、各注目画素に対して、複数パターンの予測タップを形成する。さらに、予測タップパターン判定部26は、その複数パターンの予測タップそれぞれについて、適応処理部24からのその予測タップに対応するクラス毎の予測係数wのセットのうち、所定のクラスの予測係数のセットを用いて、式(1)に示した線形1次式を計算することにより、複数パターンの予測タップそれぞれから得られる複数のHD画像の予測値を求める。そして、予測タップパターン判定部26は、複数パターンの予測タップそれぞれを用いて得られる複数のHD画像の予測値の予測誤差のうちの最も小さいものに対応するパターンの予測タップを検出し、その予測タップに対応するタップパターンコードに、注目画素となっているSD画素に既に付加されているタップパターンコードを変更する。即ち、いまの場合、SD画素には、既にタップパターンコードが付加されているので、それに代えて、予測誤差を最も小さくする予測タップのタップパターンコードが付加される。
【0111】
以上のようにして、タップパターンコードが変更されたSD画像は、スイッチ22の端子bに出力される。
【0112】
スイッチ22は、ステップS4で切り換えられ、端子bを選択しているので、予測タップパターン判定部26が出力するSD画像は、スイッチ22を介して、最適化部23に供給される。最適化部23では、ステップS6において、ステップS2における場合と同様に、最適化処理が行われ、これにより、最適SD画像が出力される。なお、この場合、最適化部23では、ステップS2で説明したように適応処理が行われるが、この適応処理は、スイッチ25を介して、適応処理部24から供給される複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを用いて行われる。
【0113】
最適化部23から出力される最適SD画像は、適応処理部24および予測タップパターン判定部26に供給され、適応処理部24では、ステップS7において、ステップS3における場合と同様に、最適化部23が出力する最適SD画像を用いて適応処理が行われることにより、複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが求められ、スイッチ25を介して、最適化部23および予測タップパターン判定部26に出力される。
【0114】
その後、ステップS8に進み、ステップS5乃至S8の処理を所定の規定回数だけ行ったかどうかが判定される。ステップS8において、ステップS5乃至S8の処理を、所定の規定回数だけ、まだ行っていないと判定された場合、ステップS5に戻り、上述の処理を繰り返す。また、ステップS8において、ステップS5乃至S8の処理を、所定の規定回数だけ行ったと判定された場合、ステップS9に進み、多重化部27は、前回のステップS6の処理において、最適化部23が出力した最適SD画像と、そのとき用いられた複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットとを多重化し、符号化データとして出力して、処理を終了する。
【0115】
以上の処理が、例えば、1フレーム単位などで繰り返される。
【0116】
なお、上述の場合、ステップS8において、ステップS5乃至S8の処理を所定の規定回数だけ行ったかどうかを判定するようにしたが、その他、ステップS8では、例えば、その時点で最適化部23から出力された最適SD画像を用いて適応処理を行うことにより得られるHD画像の予測値の予測誤差の、1フレーム分の絶対値和などが、所定の閾値以下であるかどうかを判定し、閾値以下である場合には、ステップS9に進み、閾値以下でない場合には、ステップS5に戻るようにすることも可能である。即ち、ステップS5乃至S8の処理は、最適SD画像を用いて適応処理を行うことにより得られるHD画像の予測値の予測誤差の、1フレーム分の絶対値和が、所定の閾値以下となるまで繰り返すようにすることが可能である。
【0117】
次に、図5は、図3の前処理部21の構成例を示している。
【0118】
符号化すべきHD画像は、間引き回路31、クラス分類適応処理回路33、および予測誤差算出回路34に供給されるようになされている。
【0119】
間引き回路31は、HD画像の画素数を、例えば、間引くことにより少なくし、SD画像を構成して、予測タップ生成回路32およびタップパターンコード付加回路36に供給するようになされている。即ち、間引き回路31は、例えば、HD画像を、横×縦が3×3画素の9画素でなる正方形状のブロックに分割し、各ブロックの9画素の平均値を、その中心の画素の画素値として、SD画像を構成するようになされている。これにより、間引き回路31では、例えば、図6に・印で示すHD画素からなるHD画像から、同図に○印で示すSD画素からなるSD画像が構成される。
【0120】
なお、間引き回路31には、その他、例えば、上述のブロックの中心の画素だけを抽出させて、SD画像を構成させるようにすることなども可能である。
【0121】
予測タップ生成回路32は、間引き回路31からのSD画像を構成する各SD画素(図6において、○印で示した部分)を、順次注目画素として、各注目画素について、複数パターンの予測タップを構成するようになされている。即ち、本実施の形態では、例えば、図7乃至図10にそれぞれ示すように、注目画素を中心とする3×3画素、5×3画素、3×5画素、または7×5画素の4パターンの予測タップが形成されるようになされている。これらの4パターンの予測タップは、クラス分類適応処理回路33に供給されるようになされている。
【0122】
クラス分類適応処理回路33は、予測タップ生成回路32から供給される4パターンの予測タップそれぞれについて、クラス分類を行い、さらに、各クラスについて、HD画像を用いて式(7)に示した正規方程式をたてて解くことにより、4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを求めるようになされている。また、クラス分類適応処理回路33は、求めた4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットのうち、所定のクラスの予測係数wのそれぞれと、4パターンの予測タップそれぞれとから、式(1)に示した線形1次式を演算することにより、4パターンの予測タップそれぞれから得られる複数のHD画像の予測値を求め、予測誤差算出回路34に出力するようにもなされている。
【0123】
なお、クラス分類適応処理回路33において、4パターンの予測タップそれぞれについて求められたクラス毎の予測係数wのセットは、メモリ35に供給されるようになされている。
【0124】
また、本実施の形態では、クラス分類適応処理回路33において、4パターンの予測タップのそれぞれについて、正規方程式は、予測タップのパターンとは無関係に、例えば、図6に点線で囲んで示すように、注目画素となっているSD画素を中心とする3×3のHD画素の予測値を求めるようにたてられるようになされている。従って、クラス分類適応処理回路33では、3×3のHD画素の予測値を生成するための4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットが求められる。このクラス分類適応処理回路33の詳細な構成については後述する。
【0125】
予測誤差算出回路34は、各注目画素について、4パターンの予測タップそれぞれから得られたHD画像の予測値の、元のHD画像の画素値に対する予測誤差を求めるようになされている。つまり、4パターンの予測タップのそれぞれについて、例えば、HD画素の9画素の予測値と元のHD画像の9画素の画素値との差分の自乗和が演算される。そして、予測誤差算出回路34は、4パターンの予測タップのうち、予測誤差(差分の自乗和)が最も小さいものを検出する。さらに、予測誤差算出回路34は、予測誤差が最も小さい予測タップのパターンに対応する2ビットのタップパターンコードを、メモリ35およびタップパターンコード付加回路36に出力するようになされている。
【0126】
メモリ35は、クラス分類適応処理回路33から供給される、4パターンの予測タップそれぞれについて求められたクラス毎の予測係数wのセットを一時記憶するようになされている。そして、メモリ35は、例えば、1フレーム(または1フィールド)のHD画像の処理が終了する(つまり、すべてのSD画素にタップパターンコードが付加される)と、4パターンの予測タップのそれぞれについて求められたクラス毎の予測係数wのセットを読み出し、スイッチ25の端子aに出力するようになされている。
【0127】
タップパターンコード付加回路36は、そこに供給されるSD画像に対して、予測誤差算出回路34から供給されるタップパターンコードを付加するようになされている。即ち、タップパターンコード付加回路36は、注目画素となっているSD画素の画素値(例えば、8ビットなどで構成される)のLSB(Least Significant Bit)側の2ビットを削除し、そこに、2ビットのタップパターンコードを配置するようになされている。タップパターンコード付加回路36においてタップパターンコードの付加されたSD画像は、スイッチ22の端子aに出力されるようになされている。
【0128】
ここで、クラス分類適応処理回路33の構成について説明する。クラス分類適応処理回路33は、4パターンの予測タップのそれぞれに対して処理を施す、クラス分類適応処理回路(予測係数、予測値算出)を有している。すなわち、クラス分類適応処理回路33は、4パターンの予測タップそれぞれのための独立した4つのクラス分類適応処理回路(予測係数、予測値算出)を有している。図11及び図12は、そのうちの1つのクラス分類適応処理回路(予測係数、予測値算出)を示している。なお、4つのクラス分類適応処理回路(予測係数、予測値算出)は、異なる4つの予測タップが供給される他は、同様の構成であるので、1つのクラス分類適応処理回路(予測係数、予測値算出)を説明して、その他は省略する。
【0129】
図11及び図12に示されるクラス分類適応処理回路(予測係数、予測値算出)は、クラス分類回路82、遅延回路84、予測タップメモリ85、教師データメモリ86、演算回路87及び遅延回路88(図11)、並びにクラス分類回路91、係数RAM94及び予測演算回路95(図12)から構成されている。
【0130】
図11に示されるクラス分類適応処理回路(予測係数、予測値算出)の一部を構成する、遅延回路88を除く、クラス分類回路82、遅延回路84、予測タップメモリ85、教師データメモリ86、または演算回路87は、図27に示される学習装置のクラス分類回路112、遅延回路114、予測タップメモリ115、教師データメモリ116、または演算回路117と、それぞれ同様に構成されている。ただし、予測タップが予測タップ生成回路32から供給されるため、図27に示される予測タップ生成回路113の代わりに遅延回路88が設けられており、予測タップ生成回路32からの予測タップは遅延回路88に供給されるようになされている。そして、遅延回路88では、遅延回路84と同様に、注目画素に対するクラスが、クラス分類回路82から予測タップメモリ85に供給される時間だけ、予測タップが遅延され、予測タップメモリ85に供給されて記憶されるようになされている。
【0131】
また、図12に示されるクラス分類適応処理回路(予測係数、予測値算出)の他の一部を構成する、係数RAM94を除くクラス分類回路91または予測演算回路95は、図25に示されるクラス分類回路101または予測演算回路105と、それぞれ同様に構成されている。係数RAM94は、図11の演算回路87が出力するクラス毎の予測係数のセットを記憶するようになされている。
【0132】
以上のように構成されるクラス分類適応処理回路(予測係数、予測値算出)では、1フレームのHD画素に対するデータが、図27における場合と、ほぼ同様にして、予測タップメモリ85及び教師データメモリ86に記憶され、クラス毎の予測係数のセットが生成される。この生成されたクラス毎の予測係数のセットが、図12の係数RAM94に供給されて記憶されるとともに、図5の前処理部21のメモリ35に供給されて記憶される。なお、上述したように、4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットが独立の回路で生成されるため、4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットが図12の係数RAM94に供給されて記憶されるとともに、図5の前処理部21のメモリ35に供給されて記憶される。
【0133】
図12に示されるクラス分類適応処理回路(予測係数、予測値算出)の一部を構成するクラス分類回路91、係数RAM94及び予測演算回路95では、係数RAM94にクラス毎の予測係数のセットが記憶されると、図25の画像変換装置のクラス分類回路101、係数RAM104、または予測演算回路105と、それぞれ同一の処理が行われ、これによりHD画像の予測値が求められる。即ち、4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットが図12の係数RAM94に記憶されると、クラス分類回路91において、クラス分類が行われ、クラス情報が係数RAM94に供給される。係数RAM94は、供給されたクラス情報に対応する予測係数のセットを出力して、予測演算回路95に供給する。予測演算回路95は、供給された予測タップと予測係数のセットとから式(1)に示した線形一次式を演算することにより、複数のHD画像の予測値を求める。
【0134】
なお、クラス分類回路82とクラス分類回路91は、同一の構成であるため、いずれか一方を設けるだけでもよい。
【0135】
次に、図13のフローチャートを参照して、前処理部21の処理について説明する。
【0136】
前処理部21に、符号化すべきHD画像が入力されると、そのHD画像は、間引き回路31、クラス分類適応処理回路33、および予測誤差算出回路34に供給される。間引き回路31は、HD画像を受信すると、ステップS11において、その画素数を間引き、SD画像を構成する。
【0137】
即ち、ステップS11では、図14のフローチャートに示すように、まず最初に、ステップS21において、HD画像が、例えば、3×3画素のHD画像のブロックに分割され、ステップS22に進む。
【0138】
なお、本実施の形態において、HD画像は、例えば、輝度信号Yと、色差信号U,Vとから構成され、ステップS21では、輝度信号のブロックと色差信号のブロックとが構成されるようになされている。
【0139】
ステップS22では、いずれかのブロックが注目ブロックとされ、その注目ブロックを構成する3×3のHD画素の画素値の平均値が計算される。さらに、ステップS22では、その平均値が、注目ブロックの中心の画素(SD画素)の画素値とされ、ステップS23に進む。
【0140】
ステップS23では、注目ブロックが輝度信号のブロックであるかどうかが判定される。ステップS23において、注目ブロックが輝度信号のブロックであると判定された場合、ステップS24に進み、SD画素としての注目ブロックの中心の画素の画素値(ここでは、輝度信号)のLSB側の2ビットが、タップパターンコードを付加するために、例えば0にクリアされ、ステップS25に進む。また、ステップS23において、注目ブロックが輝度信号のブロックでないと判定された場合、即ち、注目ブロックが色差信号のブロックである場合、ステップS24をスキップして、ステップS25に進む。
【0141】
ここで、本実施の形態では、輝度信号についてのみ、複数パターンの予測タップが用意されており、色差信号については、固定パターンの予測タップが用いられるようになされている。従って、タップパターンコードが付加されるのは、輝度信号についてのみで、色差信号については、タップパターンコードは付加されないため、そのLSB側の2ビットをクリアすることは行われないようになされている。
【0142】
ステップS25では、ステップS21で構成されたブロックすべてを、注目ブロックとして処理したかどうかが判定され、まだ、すべてのブロックを、注目ブロックとして処理していないと判定された場合、ステップS22に戻り、まだ注目ブロックとしていないブロックを、新たに注目ブロックとして、同様の処理を繰り返す。また、ステップS25において、すべてのブロックを、注目ブロックとして処理したと判定された場合、即ち、SD画像が構成された場合、リターンする。
【0143】
図13に戻り、ステップS11において、以上のようにして構成されたSD画像は、間引き回路31から予測タップ生成回路32およびタップパターンコード付加回路36に供給される。予測タップ生成回路32は、間引き回路31からSD画像を受信すると、ステップS12において、それを構成するSD画素を、順次注目画素として、各注目画素について、図7乃至図10に示した4パターンの予測タップを形成(生成)し、クラス分類適応処理回路33に供給する。
【0144】
なお、上述したように、4パターンの予測タップが形成されるのは輝度信号についてのみで、色差信号については、例えば、図10に示したような、7×5画素の予測タップだけが、常時形成される。
【0145】
クラス分類適応処理回路33は、ステップS13において、まず、予測タップ生成回路32から供給される4パターンの予測タップ(輝度信号の場合)それぞれについて、図11および図12に示したように構成される、それぞれのクラス分類適応処理回路(予測係数、予測値算出)でクラス分類を行う。
【0146】
ここで、本実施の形態では、クラス分類回路82および91(図11および図12)において、4パターンの予測タップそれぞれについて、例えば、次のようなクラス分類用のタップ(以下、適宜、クラスタップという)が構成され、クラス分類が行われるようになされている。
【0147】
即ち、輝度信号については、4パターンの予測タップのいずれに関しても、例えば、図15(A)に点線で囲んで示すように、注目画素を中心とする、ひし形状の範囲の5のSD画素によって、クラスタップが構成される。そして、この5画素の画素値のうちの最大値と最小値との差をダイナミックレンジDRとし、このダイナミックレンジDRを用いて、クラスタップのうちの、縦に並ぶ3画素(図15(A)において実線で囲む3画素)が1ビットADRC処理される。そして、その3画素の画素値のパターンに、予測タップに対応するタップコードを付加したものが、注目画素のクラスとされる。従って、この場合、クラスタップのうちの、縦に並ぶ3画素を1ビットADRC処理して得られる画素値のパターンは3ビットで表現され、また、タップコードは2ビットであるから、輝度信号は、32(=25)クラスのうちのいずれかにクラス分類される。
【0148】
一方、色差信号については、例えば、図15(B)に点線で囲んで示すように、注目画素を中心とする、正方形状の範囲の9のSD画素によって、クラスタップが構成される。そして、この9画素の画素値のうちの最大値と最小値との差をダイナミックレンジDRとし、このダイナミックレンジDRを用いて、クラスタップのうちの、注目画素を中心とするひし形状の範囲の5のSD画素(図15(B)において実線で囲む5画素)が1ビットADRC処理される。そして、その5画素の画素値のパターンが、注目画素のクラスとされる。従って、この場合、クラスタップのうちの、注目画素を中心とする5画素を1ビットADRC処理して得られる画素値のパターンは5ビットで表現されるから、色差信号も、輝度信号と同様に、32(=25)クラスのうちのいずれかにクラス分類される。
【0149】
クラス分類適応処理回路33では、以上のようにして、注目画素のクラスが決定されていき、これにより、予測タップメモリ85または教師データメモリ86(図11)の各アドレスに、対応するクラスの予測タップまたはHD画素(教師データ)が記憶される。そして、演算回路87(図11)において、4パターンの予測タップのそれぞれについて、各クラスごとに、予測タップメモリ85または教師データメモリ86にそれぞれ記憶された予測タップまたはHD画像(教師データ)を用いて、式(7)の正規方程式がたてられ、それを解くことにより、4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが求められる。4パターンの予測タップそれぞれを用いて得られた、4パターンの予測タップのそれぞれについての各クラス毎の予測係数wのセットは、いずれもメモリ35および係数RAM94に供給されて記憶される。
【0150】
その後、クラス分類適応処理回路33は、ステップS14において、4パターンの予測タップを用いて得られた4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットそれぞれと、4パターンの予測タップそれぞれとから、式(1)に示した線形1次式を演算することにより、4パターンの予測タップそれぞれから得られるHD画像の予測値を求め、予測誤差算出回路34に出力する。
【0151】
即ち、ステップS14では、間引き回路31が出力するSD画像を構成するSD画素のうちの1つを注目画素として、予測タップ生成回路32で生成された予測タップについて、クラス分類回路91(図12)が出力するクラスに対応するアドレスに記憶された予測係数wのセットが、係数RAM94(図12)から読み出される。そして、予測演算回路95(図12)において、係数RAM94からの予測係数wのセットと、注目画素についての予測タップとを用いて、式(1)の線形1次式が演算されることにより、図6で説明した注目画素の周辺にある9個のHD画素の予測値が求められ、予測誤差算出回路34に供給される。
【0152】
なお、クラス分類適応処理回路33においては、予測値が、4つの予測タップそれぞれについて求められる。
【0153】
予測誤差算出回路34は、ステップS15において、クラス分類適応処理回路33から供給される、4パターンの予測タップそれぞれについてのHD画像の予測値の、元のHD画像の画素値に対する予測誤差を求める。つまり、例えば、4パターンの予測タップのそれぞれについて、HD画素の9画素の予測値と元のHD画素の画素値との差分の自乗和を、予測誤差として求める。そして、ステップS16に進み、注目画素について、予測誤差が最小の予測タップを検出する。さらに、予測誤差算出回路34は、その予測タップに対応する2ビットのタップパターンコードを、タップパターンコード付加回路36に出力する。
【0154】
タップパターンコード付加回路36では、ステップS17において、間引き回路31からのSD画像を構成するSD画素のうちの注目画素の画素値(但し、本実施の形態では、輝度信号についてだけ)のLSB側の2ビットが、タップパターンコードとされて(注目画素の画素値のLSB側の2ビットに代えて、2ビットのタップパターンコードが付加されて)出力される。
【0155】
その後、ステップS18に進み、すべてのSD画素にタップパターンコードが付加されたかどうかが判定され、まだ、すべてのSD画素にタップパターンコードが付加されていないと判定された場合、ステップS14に戻り、タップパターンコードが付加されていないSD画素のうちのいずれかを、新たに注目画素として、ステップS14乃至S18の処理を繰り返す。一方、ステップS18において、すべてのSD画素にタップパターンコードが付加されたと判定された場合、メモリ35は、ステップS19において、4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを出力して、処理を終了する。
【0156】
前処理部21では、以上のようにして、間引き回路31が出力するSD画像を構成するSD画素(ここでは、上述したように、3×3のHD画素の平均値を画素値として有する画素)それぞれについて、予測誤差が最小となる予測タップのタップパターンコードが、いわば仮に付加される。
【0157】
次に、図16は、図3の最適化部23の構成例を示している。なお、図中、図28の画像符号化装置における場合と基本的に同様に構成される部分については、同一の符号を付してある。即ち、最適化部23は、間引き回路121がなく、ローカルデコード部122に代えてローカルデコード部42が設けられている他は、図28の画像符号化装置と基本的に同様に構成されている。
【0158】
ローカルデコード部42は、予測タップ生成回路42Aおよびクラス分類適応処理回路42Bから構成され、そこには、補正部41からSD画像が供給されるようになされている。予測タップ生成回路42Aは、補正部41から供給されるSD画像のSD画素のLSB側に配置されているタップパターンコードに対応して予測タップを形成(生成)し、クラス分類適応処理回路42Bに供給するようになされている。クラス分類適応処理回路42Bには、予測タップの他、クラス分類用のSD画素、4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが供給されるようになされている。クラス分類適応処理回路42Bは、予測タップを構成する注目画素を、図15で説明したようにして、クラス分類用のSD画素を用いてクラス分類し、そのクラスに対応した予測係数wのセットと、予測タップとから、式(1)に示した線形1次式を演算することにより、図6に点線で囲んで示した、注目画素となっているSD画素を中心とする3×3のHD画素の画素値の予測値を求めるようになされている。この予測値は、誤差算出部43に供給されるようになされている。
【0159】
ここで、図17は、図16のクラス分類適応処理回路42Bの構成例を示している。なお、図中、図12における場合と対応する部分については、同一の符号を付してある。即ち、クラス分類適応処理回路42Bは、図12に示したクラス分類適応処理回路33を構成する1つのクラス分類適応処理回路(予測係数、予測値算出)の一部と同一に構成されており、その説明は省略する。
【0160】
次に、図18のフローチャートを参照して、その動作について説明する。
【0161】
最適化部23は、SD画像を受信すると、そのSD画像を構成するSD画素のうちの1つを注目画素とし、ステップS31において、注目画素の画素値を補正する補正量を表す変数△を、例えば0に初期化する。また、ステップS31では、補正量を変化させる変化量(以下、適宜、オフセット量という)を表す変数Sに、初期値としての、例えば4または1がセットされる。
【0162】
即ち、輝度信号については、上述したように、そのLSB側の2ビットがタップパターンコードであり、画素値を構成するものではないため、オフセット量Sには、4(=22)がセットされる。また、色差信号については、そのようなことはなく、すべてのビットが画素値を構成するため、オフセット量Sには、1(=20)がセットされる。
【0163】
さらに、ステップS31では、注目画素の補正の回数をカウントする変数iに、初期値としての−1がセットされ、ステップS32に進む。ステップS32では、回数iが1だけインクリメントされ、ステップS33に進み、注目画素の画素値を補正量△だけ補正した補正値を用いて適応処理を行った場合に、その補正により影響を受けるHD画素の予測値の予測誤差Eが算出される。
【0164】
即ち、この場合、補正部41は、注目画素の画素値に、例えば、補正量△を加算し、その加算値を、注目画素の画素値として、ローカルデコード部42に出力する。ここで、注目画素について、最初にステップS33の処理が施される場合、即ち、回数i=0の場合、補正量△は、ステップS31でセットされた初期値である0のままであるから、補正部41からは、注目画素の画素値がそのまま出力される。
【0165】
ローカルデコード部42では、予測タップ生成回路42Aにおいて、注目画素の画素値のLSB側の2ビットに配置されているタップパターンコードに対応して、予測タップが形成され、クラス分類適応処理回路42Bに出力される。クラス分類適応処理回路42Bでは、まず、注目画素が、図5のクラス分類適応処理回路33における場合と同様にクラス分類される。さらに、クラス分類適応処理回路42Bでは、そのクラスに対応する予測係数と、予測タップ生成回路42Aからの予測タップとから、式(1)に示した線形1次式を演算することにより、HD画素の画素値の予測値が求められる。
【0166】
即ち、クラス分類適応処理回路42Bでは、クラス分類回路91(図17)において、予測タップ生成回路42Aからの予測タップを構成するSD画素から、図15で説明したようなクラスタップが構成され、クラス分類が行われる。このクラス分類回路91におけるクラス分類の結果得られるクラスは、係数RAM94(図17)に供給される。
【0167】
係数RAM94(図17)は、スイッチ25を介して供給される4パターンの予測タップそれぞれについてのクラス毎の予測係数のセットを記憶しており、クラス分類回路91からのクラスに対応する予測係数のセットであって、注目画素に付加されているタップパターンコードに対応する予測タップについての予測係数のセットを読み出す。この予測係数のセットは、予測演算回路95(図17)に供給される。
【0168】
予測演算回路95では、係数RAM94からの予測係数のセットと、予測タップ生成回路42Aから供給される予測タップとを用いて、式(1)の線形1次式が演算されることにより、HD画素の予測値が求められる。
【0169】
また、クラス分類適応処理回路42Bでは、注目画素の画素値を補正量△だけ補正した場合に、その補正により影響を受けるHD画素についても、同様にして、予測値が求められる。
【0170】
即ち、例えば、いま、図19に示すように、SD画素Aを注目画素として補正したとする。本実施の形態では、予測タップの範囲が最も広いのは、図10に示したように、7×5のSD画素で予測タップが構成される場合で、このように、7×5のSD画素で予測タップが構成される場合に、その予測タップにSD画素Aが含まれるケースであって、SD画素Aから最も離れたSD画素が注目画素とされるのは、SD画素B,C,D,Eが注目画素とされ、7×5画素の予測タップが構成されるケースである。そして、SD画素B,C,D,Eが注目画素とされ、7×5画素の予測タップが構成された場合、本実施の形態では、同図に実線で囲んで示す範囲b,c,d,eの中の3×3のHD画素の予測値がそれぞれ求められる。従って、SD画素Aを注目画素として、その画素値を補正した場合に、その補正により影響を受けるのは、最悪のケースで、範囲b,c,d,eを含む最小の長方形である、図19において点線で示す範囲内の21×15のHD画素の予測値ということになる。
【0171】
従って、本実施の形態では、クラス分類適応処理回路42Bにおいて、このような21×15のHD画素の予測値が求められる。
【0172】
クラス分類適応処理回路42Bで求められたHD画素の予測値は、誤差算出部43に供給される。誤差算出部43では、クラス分類適応処理回路42BからのHD画素の予測値から、対応するHD画素の真の画素値が減算され、その減算値である予測誤差の、例えば自乗和が求められる。そして、この自乗和が、誤差情報Eとして、制御部44に供給される。
【0173】
制御部44は、誤差算出部43から誤差情報を受信すると、ステップS34において、回数iが0であるかどうかを判定する。ステップS34において、回数iが0であると判定された場合、即ち、制御部44が受信した誤差情報Eが、注目画素の補正を行わずに得られたものである場合、ステップS35に進み、注目画素の補正を行わずに得られた誤差情報(未補正時の誤差情報)を記憶する変数E0に、誤差情報Eがセットされ、また、前回得られた誤差情報を記憶する変数E’にも、誤差情報Eがセットされる。さらに、ステップS35では、補正量△が、オフセット量Sだけインクリメントされ、制御部44は、それにより得られた補正量△だけ、注目画素の画素値を補正するように、補正部41を制御する。その後は、ステップS32に戻り、以下、同様の処理を繰り返す。
【0174】
この場合、ステップS32において、回数iは1だけインクリメントされて1となるから、ステップS34では、回数iが0でないと判定され、ステップS36に進む。ステップS36では、回数iが1であるかどうかが判定される。この場合、回数iは1となっているから、ステップS36では、回数iは1であると判定され、ステップS37に進み、前回の誤差情報E’が、今回の誤差情報E以上であるかどうかが判定される。ステップS37において、前回の誤差情報E’が、今回の誤差情報E以上でないと判定された場合、即ち、補正量△だけ注目画素の画素値を補正することにより、今回の誤差情報Eの方が、前回の誤差情報E’(ここでは、補正をしてない場合の誤差情報)より増加した場合、ステップS38に進み、制御部44は、オフセット量Sに、−1を乗算したものを、新たなオフセット量Sとし、さらに、補正量△をオフセット量Sの2倍だけインクリメントし、ステップS32に戻る。
【0175】
即ち、注目画素の画素値を、補正量△(この場合、△=S)だけ補正することにより、補正しなかったときよりも誤差が増加した場合には、オフセット量Sの符号が反転される(本実施の形態では、ステップS31において正の値がオフセット量Sにセットされているので、ステップS38では、オフセット量Sの符号は、正から負にされる)。さらに、前回はSであった補正量△が、−Sにされる。
【0176】
また、ステップS37において、前回の誤差情報E’が、今回の誤差情報E以上であると判定された場合、即ち、補正量△だけ注目画素の画素値を補正することにより、今回の誤差情報Eが、前回の誤差情報E’より減少した場合(または前回の誤差情報E’と同じである場合)、ステップS39に進み、制御部44は、補正量△をオフセット量Sだけインクリメントするとともに、前回の誤差情報E’に、今回の誤差情報Eをセットすることにより更新して、ステップS32に戻る。
【0177】
この場合、ステップS32において、回数iは、さらに1だけインクリメントされて2となるから、ステップS34またはS36では、回数iが0または1でないとそれぞれ判定され、その結果、ステップS36からS40に進む。ステップS40では、回数iが2であるかどうかが判定される。いま、回数iは2となっているから、ステップS40では、回数iは2であると判定され、ステップS41に進み、未補正時の誤差情報E0が今回の誤差情報E以下であり、かつオフセット量Sが負であるかどうかが判定される。
【0178】
ステップS40において、未補正時の誤差情報E0が今回の誤差情報E以下であり、かつオフセット量Sが負であると判定された場合、即ち、注目画素を+Sだけ補正しても、また、−Sだけ補正しても、補正しないときより誤差が増加する場合、ステップS42に進み、補正量△が0とされ、ステップS47に進む。
【0179】
また、ステップS40において、未補正時の誤差情報E0が今回の誤差情報E以下でないか、またはオフセット量Sが負でないと判定された場合、ステップS44に進み、前回の誤差情報E’が、今回の誤差情報E以上であるかどうかが判定される。ステップS44において、前回の誤差情報E’が、今回の誤差情報E以上であると判定された場合、即ち、補正量△だけ注目画素の画素値を補正することにより、今回の誤差情報Eが、前回の誤差情報E’より減少した場合、ステップS45に進み、制御部44は、補正量△をオフセット量Sだけインクリメントするとともに、前回の誤差情報E’に、今回の誤差情報Eをセットすることにより更新して、ステップS32に戻る。
【0180】
この場合、ステップS32において、回数iは、さらに1だけインクリメントされて3となるから、以下では、ステップS34,S36、またはS40では、回数iが0,1、または2でないとそれぞれ判定され、その結果、ステップS40からS44に進む。従って、ステップS44において、前回の誤差情報E’が、今回の誤差情報E以上でないと判定されるまで、ステップS32乃至S34、S36,S40,S44,S45のループ処理が繰り返される。
【0181】
そして、ステップS44において、前回の誤差情報E’が、今回の誤差情報E以上でないと判定された場合、即ち、補正量△だけ注目画素の画素値を補正することにより、今回の誤差情報Eの方が、前回の誤差情報E’より増加した場合、ステップS46に進み、制御部44は、補正量△をオフセット量Sだけデクリメットし、ステップS47に進む。即ち、この場合、補正量△は、誤差が増加する前の値とされる。
【0182】
ステップS47では、制御部44は、補正部41を制御することにより、ステップS42またはS46で得られた補正量△だけ注目画素の画素値を補正させ、これにより、注目画素の画素値は、適応処理により予測値を得るのに、予測誤差が最小となるような最適なものに補正される。
【0183】
そして、ステップS48に進み、すべてのSD画素を注目画素として処理を行ったかどうかが判定される。ステップS48において、すべてのSD画素を注目画素として、まだ処理を行っていないと判定された場合、ステップS31に戻り、まだ、注目画素とされていないSD画素を新たな注目画素として、同様の処理を繰り返す。また、ステップS48において、すべてのSD画素を注目画素として処理を行ったと判定された場合、処理を終了する。
【0184】
以上のようにして、SD画像の画素値は、HD画像の予測値を求めるのに、最適なものに最適化される。
【0185】
次に、図20は、図3の適応処理部24の構成例を示している。
【0186】
予測タップ生成回路51には、最適化部23からの最適SD画像が供給されるようになされており、そこでは、図16の予測タップ生成回路42Aにおける場合と同様に、その画素値のLSB側の2ビットに配置されているタップパターンコードが検出され、そのタップパターンコードにしたがって、予測タップが構成され、クラス分類適応処理回路52に供給されるようになされている。
【0187】
クラス分類適応処理回路52には、予測タップの他、クラス分類に使用される最適SD画像及び元のHD画像も供給されるようになされており、そこでは、予測タップを構成する注目画素のクラス分類が、例えば、図15で説明した場合と同様にして行われ、さらに、その結果得られる各クラスについて、予測タップとHD画像を用いて式(7)に示した正規方程式がたてられるようになされている。そして、クラス分類適応処理回路52は、そのクラスごとの正規方程式を解くことにより新たな4パターンの予測タップのそれぞれについての予測係数wのセットを求めて出力するようになされている。
【0188】
次に、その動作について、図21のフローチャートを参照して説明する。予測タップ生成回路51は、最適SD画像を受信すると、ステップS51において、その最適SD画素を構成する各SD画素に付加されているタップパターンコードを検出(抽出)し、ステップS52に進み、その抽出したタップパターンコードに基づいて、予測タップを形成する。そして、予測タップ生成回路51は、形成した予測タップを、クラス分類適応処理回路52に出力する。クラス分類適応処理回路52は、ステップS53において、予測タップを構成する注目画素のクラス分類を行い、その結果得られる各クラスについて、予測タップとHD画像を用いて正規方程式をたてて解くことにより予測係数wを求めて出力し、処理を終了する。
【0189】
これにより、適応処理部24では、最適SD画像から、元のHD画像を得るのに、予測誤差を最も小さくする4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが求められる。この4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットは、上述したように、最適化部23と予測タップパターン判定部26に供給され、適応処理(式(1)に示す線形1次式の計算)に用いられる。
【0190】
なお、図20の実施の形態では、予測タップ生成回路51において、画素値のLSB側の2ビットに配置されているタップパターンコードを検出し、そのタップパターンコードに従って予測タップを構成するようにしたが、予測タップ生成回路51は、図5の前処理部21の予測タップ生成回路32と同様に構成することも可能である。つまり、予測タップ生成回路51には、4パターンの予測タップすべてを構成させ、クラス分類適応処理回路52に供給させることができる。この場合、クラス分類適応処理回路52は、4パターンの予測タップのそれぞれに対応する4つの予測係数を算出するためのクラス分類適応処理回路(輝度信号用)で構成することができ、このクラス分類適応処理回路のそれぞれは、図11で示される、クラス分類適応処理回路(予測係数、予測値算出)を構成する一部と同様に構成することができる。
【0191】
そして、その場合、各クラス分類適応処理回路には、HD画像を構成する各HD画素に対して対応する各パターンの予測タップが供給され、その予測タップを構成する最適SD画素を用いてクラスタップが形成されて、それぞれクラス分類が行われる。さらに、各クラス分類適応処理回路において、1フレームのHD画素と、そのHD画素に対する予測タップとが、それぞれ教師データメモリ86と予測タップメモリ85とにクラス毎に記憶される。その後、各クラス分類適応処理回路のそれぞれにおいて、図27の学習装置における場合と同様にして、4パターンの予測タップについての新たなクラス毎の予測係数のセットが生成される。
【0192】
次に、図22は、図3の予測タップパターン判定部26の構成例を示している。
【0193】
予測タップパターン判定部26は、同図に示すように、予測タップ生成回路61、クラス分類適応処理回路62、予測誤差算出回路63、およびタップパターンコード変更回路64から構成されており、これらの予測タップ生成回路61、クラス分類適応処理回路62、予測誤差算出回路63、またはタップパターンコード変更回路64は、図5における前処理部21の予測タップ生成回路32、クラス分類適応処理回路33、予測誤差算出回路34、またはタップパターンコード付加回路36と基本的に同様に構成されている。
【0194】
次に、図23のフローチャートを参照して、その動作について説明する。
【0195】
予測タップパターン判定部26には、最適SD画像、4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセット、HD画像が供給されるようになされており、最適SD画像は、予測タップ生成回路61とタップパターンコード変更回路64に供給され、また、4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットまたはHD画像は、クラス分類適応処理回路62または予測誤差算出回路63にそれぞれ供給されるようになされている。
【0196】
予測タップ生成回路61は、最適SD画像を受信すると、ステップS61において、図5の予測タップ生成回路32と同様に、そのうちの1つを注目画素とし、その注目画素について、図7乃至図10に示した4パターンの予測タップを形成する。そして、この4パターンの予測タップは、クラス分類適応処理回路62に出力される。
【0197】
クラス分類適応処理回路62は、注目画素を対象に形成された4パターンの予測タップを受信すると、ステップS62において、その4パターンの予測タップそれぞれと、対応するクラス毎の予測係数wのセットそれぞれとを用いて、式(1)で表される線形1次式を計算し、これにより、4パターンの予測タップそれぞれから得られるHD画像の9画素の予測値を求め、予測誤差算出回路63に出力される。
【0198】
予測誤差算出回路63では、ステップS63またはS64において、図5の予測誤差算出回路34が行う図13のステップS15またはS16における場合とそれぞれ同様の処理が行われ、これにより、4パターンの予測タップのうち、予測誤差を最小にするもののタップパターンコードが、タップパターンコード変更回路64に出力される。
【0199】
タップパターンコード変更回路64では、ステップS65において、注目画素(最適SD画像のSD画素)のLSB側の2ビットに付加されているタップパターンコードが、予測誤差算出回路63から供給されるタップパターンコードに変更され、ステップS66に進む。
【0200】
ステップS66では、すべてのSD画素を注目画素として処理が行われたかどうかが判定され、まだ、すべてのSD画素を注目画素としていないと判定された場合、ステップS61に戻り、また注目画素とされていないSD画素を新たに注目画素として、同様の処理を繰り返す。一方、ステップS66において、すべてのSD画素を注目画素として処理を行ったと判定された場合、処理を終了する。
【0201】
予測タップパターン判定部26では、以上のように、適応処理部24で得られた4パターンの予測タップのそれぞれについての予測係数wのセットを用いて、タップパターンコードが、より予測誤差が小さくなる予測タップに対応するものに変更される。
【0202】
次に、図24は、図1の受信装置4の構成例を示している。
【0203】
受信機/再生装置71においては、記録媒体2に記録された符号化データが再生され、または伝送路3を介して伝送されてくる符号化データが受信され、分離部72に供給される。分離部72では、符号化データが、SD画像の画像データと4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットに分離され、SD画像の画像データは、予測タップ生成回路73に供給され、4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットは、クラス分類適応処理回路74に供給される。
【0204】
予測タップ生成回路73またはクラス分類適応処理回路74は、図16に示した最適化部23のローカルデコード部42を構成する予測タップ生成回路42Aまたはクラス分類適応処理回路42B(図17)とそれぞれ同様に構成されている。従って、ローカルデコード部42における場合と同様にして、HD画像の予測値が求められ、これが復号画像として出力される。この復号画像は、上述したように、元の画像とほぼ同一の画像となる。
【0205】
なお、受信側においては、図24に示すような受信装置4でなくても、間引きされた画像を単純な補間により復号する装置により、予測係数を用いずに、通常の補間を行うことで復号画像を得ることができる。但し、この場合に得られる復号画像は、画質(解像度)の劣化したものとなる。
【0206】
以上のように、HD画像を圧縮することにより得られるSD画像を構成する画素のうちの1つを注目画素として、その注目画素に対して、複数パターンの予測タップを形成し、予測タップと予測係数との線形結合により、HD画像の予測値を求める適応処理を行い、複数パターンの予測タップそれぞれから得られる予測値の予測誤差を算出し、複数パターンの予測タップのうち、最小の予測誤差が得られるものに対応するタップパターンコードを、注目画素の画素値に付加するようにしたので、画像の局所的な特性に対応した予測タップを用いて適応処理が行われ、その結果、より画質の良い復号画像を得ることが可能となる。
【0207】
また、2ビットのタップパターンコードを、画素値のLSB側の2ビットに代えて配置するようにしたので、データ量の増加を防止することが可能となる。なお、タップパターンコードは、画素値のLSB側に配置されるので、それほど大きな画質の劣化はない。
【0208】
さらに、最適化部23において、誤差を最小にする予測タップを用いて適応処理を行うことにより、SD画像を最適化するようにしたので、元のHD画像をほぼ同一の復号画像を得ることが可能となる。
【0209】
また、適応処理部24において、最適SD画像を用いて適応処理を行い、複数パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットを、いわば、より適切なものに更新(修正)し、予測タップパターン判定部26において、その更新された複数パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットを用いて、予測タップを決め直すようにしたので、さらに画質の向上した復号画像を得ることが可能となる。
【0210】
以上、本発明を、HD画像を符号化/復号する画像処理装置に適用した場合について説明したが、本発明は、その他、SD画像などの標準解像度の画像その他を符号化/復号する場合にも適用可能である。即ち、例えば、NTSC方式などの標準方式のテレビジョン信号を符号化/復号する場合にも適用可能である。但し、本発明は、データ量の多い、いわゆるハイビジョン方式のテレビジョン信号などを符号化/復号する場合に、特に有効である。また、本発明は、いわゆる階層符号化を行う場合などにも適用可能である。
【0211】
なお、本実施の形態では、輝度信号についてのみ、複数パターンの予測タップを用意し、色差信号については、5×7画素の予測タップだけを用いるようにしたが、色差信号も、輝度信号と同様に処理することが可能である。
【0212】
また、本実施の形態においては、タップパターンコードを2ビットとするようにしたが、タップパターンコードは2ビットに限定されるものではない。但し、より少ないビット数であることが望ましい。
【0213】
さらに、本実施の形態では、画素値のLSB側の2ビットに代えて、タップパターンコードを配置するようにしたが、タップパターンコードは、画素値とは別に記録または伝送することも可能である。
【0214】
また、本実施の形態では、前処理部21で前処理し、最適化部23で最適化した最適SD画像を用いて、予測係数を更新し、その予測係数を用いて、再度、タップパターンコードを決め直すようにしたが、前処理部21で前処理し、最適化部23で最適化した最適SD画像を、そのまま符号化データとすることも可能である。この場合、復号画像の画質(S/N)は、タップパターンコードを決め直す場合に比較して、多少劣化するが、処理の高速化を図ることが可能となる。
【0215】
さらに、本実施の形態では、3×3,5×3,3×5,7×5画素の4パターンの予測タップを用いるようにしたが、これ以外の、例えば、1×5や5×1画素などの予測タップを用いるようにすることも可能である。また、予測タップのパターンも4種類に限定されるものではない。
【0216】
さらに、本実施の形態では特に言及しなかったが、画素値に、タップパターンコードを付加した後は、そのタップパターンコードが付加されたLSB側の2ビットを所定値にしたものを画素値として処理しても良いし、また、タップパターンコードも含めて画素値とし、処理を行うようにしても良い。なお、本件発明者が行った実験によれば、タップパターンコードも含めて画素値とした場合、そのタップパターンコードの部分を所定値としての0とした場合に比較して、S/Nは多少劣化するが、階調が多少向上するという結果が得られている。
【0217】
また、図18においては、注目画素の画素値を、オフセット量Sとしての4または1ずつ補正することにより、予測誤差Eが最初に極小となる補正量△を検出するようにしたが、その他、例えば、注目画素の画素値がとり得る値すべてについて予測誤差Eを求め、その最小値を検出し、その場合の補正量△によって、注目画素の画素値を補正するようにすることも可能である。この場合、処理に時間を要することとなるが、よりS/Nの高い復号画像を得ることが可能となる。
【0218】
さらに、このように注目画素の画素値がとり得る値すべてについて予測誤差Eを求める場合には、注目画素の画素値の初期値は、どのような値(但し、注目画素の画素値がとり得る範囲内の値)であっても良い。即ち、この場合、初期値がどのような値であっても、予測誤差Eを最小にする補正値△を求めることができる。
【0219】
なお、本発明の主旨を逸脱しない範囲において、さまざまな変形や応用例が考えうる。従って、本発明の要旨は、上述の実施の形態に限定されるものではない。
【0220】
【発明の効果】
本発明の画像符号化装置および画像符号化方法によれば、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップが形成され、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号が予測され、複数パターンの予測タップそれぞれに対する予測値が出力される。そして、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差が算出され、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードが、注目画素の画素値の一部と置き換えられることにより注目画素の画素値に付加される。従って、そのパターンコードにしたがって予測タップを形成して復号を行うことで、より画質の向上した復号画像を得ることが可能となる。
【0221】
本発明の画像復号装置およびの画像復号方法によれば、符号化データから、圧縮画像信号と予測係数とが分離され、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップが、注目画素の近傍の画素を用いて形成され、その予測タップと、予測係数とから、原画像信号が予測され、その予測値が求められる。従って、より原画像信号に近い予測値を得ることが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した画像処理装置の一実施の形態の構成を示すブロック図である。
【図2】図1の送信装置1の構成例を示すブロック図である。
【図3】図2の送信装置1の機能的構成例を示すブロック図である。
【図4】図3の送信装置1の動作を説明するためのフローチャートである。
【図5】図3の前処理部21の構成例を示すブロック図である。
【図6】図5の間引き回路31の処理を説明するための図である。
【図7】予測タップの構成例を示す図である。
【図8】予測タップの構成例を示す図である。
【図9】予測タップの構成例を示す図である。
【図10】予測タップの構成例を示す図である。
【図11】図5のクラス分類適応処理回路33を構成するクラス分類適応処理回路(予測係数、予測値算出)の一部の構成例を示すブロック図である。
【図12】図5のクラス分類適応処理回路33を構成するクラス分類適応処理回路(予測係数、予測値算出)の他の一部の構成例を示すブロック図である。
【図13】図5の前処理部21の処理を説明するためのフローチャートである。
【図14】図13のステップS11の処理のより詳細を説明するためのフローチャートである。
【図15】クラス分類を行うためのクラスタップの構成例を示す図である。
【図16】図3の最適化部23の構成例を示すブロック図である。
【図17】図16のクラス分類適応処理回路42B及び図24のクラス分類適応処理回路74の構成例を示すブロック図である。
【図18】図16の最適化部23の処理を説明するためのフローチャートである。
【図19】図18のステップS33の処理を説明するための図である。
【図20】図3の適応処理部24の構成例を示すブロック図である。
【図21】図20の適応処理部24の処理を説明するためのフローチャートである。
【図22】図3の予測タップパターン判定部26の構成例を示すブロック図である。
【図23】図22の予測タップパターン判定部26の処理を説明するためのフローチャートである。
【図24】図1の受信装置4の構成例を示すブロック図である。
【図25】本件出願人が先に提案した画像変換装置の構成例を示すブロック図である。
【図26】図25のクラス分類回路101の処理を説明するための図である。
【図27】本件出願人が先に提案した学習装置の構成例を示すブロック図である。
【図28】本件出願人が先に提案した画像符号化装置の構成例を示すブロック図である。
【符号の説明】
1 送信装置, 2 記録媒体, 3 伝送路, 4 受信装置, 11 I/F, 12 ROM, 13 RAM, 14 CPU, 15 外部記憶装置, 16 送信機/記録装置, 21 前処理部, 22 スイッチ, 23最適化部, 24 適応処理部, 25 スイッチ, 26 予測タップパターン判定部, 31 間引き回路, 32 予測タップ生成回路, 33 クラス分類適応処理回路, 34 予測誤差算出回路, 35 メモリ, 36 タップパターンコード付加回路, 41 補正部, 42 ローカルデコード部,42A 予測タップ生成回路, 42B クラス分類適応処理回路, 43 誤差算出部, 44 制御部, 51 予測タップ生成回路, 52 クラス分類適応処理回路, 61 予測タップ生成回路, 62 クラス分類適応処理回路, 63 予測誤差算出回路, 64 タップパターンコード変更回路, 71 受信機/再生装置, 72 分離部, 73 予測タップ生成回路, 74クラス分類適応処理回路, 82 クラス分類回路, 84 遅延回路, 85 予測タップメモリ, 86 教師データメモリ, 87 演算回路, 88遅延回路, 91 クラス分類回路, 94 係数RAM, 95 予測演算回路[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image encoding device and an image encoding method, And The present invention relates to an image decoding apparatus and an image decoding method. In particular, an image encoding device and an image encoding method for compressing and encoding an image by thinning out the image so that a decoded image almost identical to the original image is obtained, And The present invention relates to an image decoding apparatus and an image decoding method.
[0002]
[Prior art]
For example, when converting a standard resolution or low resolution image (hereinafter referred to as an SD image as appropriate) to a high resolution image (hereinafter referred to as an HD image as appropriate) or enlarging the image, Interpolation (compensation) of the pixel values of the missing pixels is performed by a so-called interpolation filter or the like.
[0003]
However, even if pixel interpolation is performed using an interpolation filter, it is difficult to obtain a high-resolution image because the HD image component (high-frequency component) that is not included in the SD image cannot be restored.
[0004]
Therefore, the applicant of the present application has previously proposed an image conversion device (image conversion circuit) for converting an SD image into an HD image including a high-frequency component not included therein.
[0005]
In this image conversion apparatus, high-frequency components not included in the SD image are restored by performing an adaptive process for obtaining a prediction value of a pixel of the HD image by linear combination of the SD image and a predetermined prediction coefficient. It is made so that.
[0006]
That is, for example, the predicted value E [y] of the pixel value y of a pixel constituting the HD image (hereinafter referred to as HD pixel as appropriate) is set to the pixel value of several SD pixels (pixels constituting the SD image). (Hereinafter referred to as learning data as appropriate) x 1 , X 2 , ... and a predetermined prediction coefficient w 1 , W 2 Consider a linear primary combination model defined by the linear combination of. In this case, the predicted value E [y] can be expressed by the following equation.
[0007]
[0008]
Therefore, in order to generalize, a matrix W composed of a set of prediction coefficients w, a matrix X composed of a set of learning data, and a matrix Y ′ composed of a set of predicted values E [y],
[Expression 1]
Then, the following observation equation holds.
[0009]
[0010]
Then, it is considered to apply the least square method to this observation equation to obtain a predicted value E [y] close to the pixel value y of the HD pixel. In this case, a matrix Y composed of a set of true pixel values y of HD pixels serving as teacher data and a matrix E composed of a set of residuals e of predicted values E [y] with respect to the pixel values y of HD pixels,
[Expression 2]
From the equation (2), the following residual equation is established.
[0011]
[0012]
In this case, the prediction coefficient w for obtaining the predicted value E [y] close to the pixel value y of the HD pixel i Is the square error
[Equation 3]
Can be obtained by minimizing.
[0013]
Therefore, the above square error is converted into the prediction coefficient w. i When the value differentiated by 0 is 0, that is, the prediction coefficient w satisfying the following equation: i However, this is the optimum value for obtaining the predicted value E [y] close to the pixel value y of the HD pixel.
[0014]
[Expression 4]
[0015]
Therefore, first, Equation (3) is converted into the prediction coefficient w. i Is differentiated by the following equation.
[0016]
[Equation 5]
[0017]
From equations (4) and (5), equation (6) is obtained.
[0018]
[Formula 6]
[0019]
Further, considering the relationship among the learning data x, the prediction coefficient w, the teacher data y, and the residual e in the residual equation of Equation (3), the following normal equation can be obtained from Equation (6). .
[0020]
[Expression 7]
[0021]
The normal equation of the equation (7) can be formed by the same number as the number of prediction coefficients w to be obtained. Therefore, by solving the equation (7) (however, to solve the equation (7), the equation (7) 7), the matrix composed of the coefficients related to the prediction coefficient w needs to be regular), and the optimal prediction coefficient w can be obtained. In solving equation (7), for example, a sweep-out method (Gauss-Jordan elimination method) or the like can be applied.
[0022]
As described above, an optimal set of prediction coefficients w is obtained, and further, a prediction value E [y] close to the pixel value y of the HD pixel is obtained by the equation (1) using the set of prediction coefficients w. Is an adaptive process (however, it is also included in the adaptive process that a set of prediction coefficients w is obtained in advance and a predicted value is obtained from the set of prediction coefficients w).
[0023]
Note that the adaptive processing is different from the interpolation processing in that a component included in the HD image that is not included in the SD image is reproduced. In other words, the adaptive process is the same as the interpolation process using a so-called interpolation filter as long as only Expression (1) is seen, but the prediction coefficient w corresponding to the tap coefficient of the interpolation filter uses the teacher data y. In other words, since it is obtained by learning, the components included in the HD image can be reproduced. That is, a high-resolution image can be easily obtained. From this, it can be said that the adaptive process is a process having an image creating action.
[0024]
FIG. 25 shows a configuration example of an image conversion apparatus that converts an SD image into an HD image by the adaptive processing as described above based on the image feature (class).
[0025]
The SD image is supplied to the
[0026]
That is, the
[0027]
Specifically, the
[0028]
Here, when a large number of bits such as 8 bits are assigned to represent the pixel value of each SD pixel, the number of patterns of pixel values of 25 SD pixels is (2 8 ) twenty five The number of streets becomes enormous, and it is difficult to speed up subsequent processing.
[0029]
Therefore, as preprocessing before class classification, for example, ADRC (Adaptiv Dynamic Range Coding) processing, which is processing for reducing the number of bits of SD pixels constituting the processing block, is performed on the processing block.
[0030]
That is, in the ADRC processing, first, from the 25 SD pixels constituting the processing block, there are the largest (hereinafter referred to as the maximum pixel) and the minimum (hereinafter referred to as the minimum pixel) of the pixel value. Detected. Then, a difference DR (= MAX−MIN) between the pixel value MAX of the maximum pixel and the pixel value MIN of the minimum pixel is calculated, and this DR is set as a local dynamic range of the processing block. Based on the dynamic range DR, each pixel value constituting the processing block is requantized to K bits smaller than the original number of assigned bits. In other words, the pixel value MIN of the minimum pixel is subtracted from each pixel value constituting the processing block, and each subtraction value becomes DR / 2. K Divide by.
[0031]
As a result, each pixel value constituting the processing block is expressed by K bits. Therefore, for example, when K = 1, the number of pattern values of 25 SD pixels is (2 1 ) twenty five As a result, the number of patterns can be made very small as compared with the case where ADRC processing is not performed. The ADRC process for setting the pixel value to K bits in this way is hereinafter referred to as K bit ADRC process as appropriate.
[0032]
The
[0033]
On the other hand, in the
[0034]
In the prediction
[0035]
In the prediction
[0036]
That is, here, for example, the predicted value of a 3 × 3 HD pixel (indicated by a dot in the figure) surrounded by a solid rectangle in FIG. 26 and centered on the target pixel is obtained from one prediction tap. In this case, the
[0037]
Thereafter, the same processing is performed using other SD pixels as the target pixel, whereby the SD image is converted into an HD image.
[0038]
Next, FIG. 27 shows a configuration example of a learning apparatus that performs a learning process for calculating a set of prediction coefficients for each class to be stored in the
[0039]
An HD image to be teacher data y in learning is supplied to the thinning
[0040]
In the
[0041]
The
[0042]
On the other hand, in the
[0043]
In the
[0044]
Thereafter, the same processing is repeated until all the SD pixels constituting the SD image obtained from all the HD images prepared for learning are set as the target pixel.
[0045]
As described above, the same address in the
[0046]
In the
[0047]
Thereafter, the
[0048]
As described above, a set of prediction coefficients for each class obtained by the
[0049]
In the learning process as described above, there may occur a class in which the number of normal equations necessary for obtaining a set of prediction coefficients cannot be obtained. For such a class, for example, the class is ignored. A set of prediction coefficients obtained by solving and solving a normal equation is used as a set of default prediction coefficients.
[0050]
By the way, according to the image conversion apparatus of FIG. 25, as described above, an HD image including a high-frequency component not included in an SD image obtained by reducing the number of pixels of the HD image by thinning or the like. However, there is a limit to approaching the original HD image. The reason may be that the pixel value of the SD image pixel (SD pixel) obtained by thinning the number of pixels of the HD image is not optimal for restoring the original HD image.
[0051]
Therefore, the applicant of the present application has previously proposed compression (encoding) of an image using adaptive processing in order to obtain a decoded image having a quality close to that of the original HD image (for example, a special feature). Application No. 8-206552).
[0052]
That is, FIG. 28 shows a configuration example of an image encoding device that compresses (encodes) an HD image into an optimal SD image so that a decoded image closer to the original HD image can be obtained by adaptive processing. Show.
[0053]
The HD image to be encoded is supplied to the thinning
[0054]
In the thinning
[0055]
In other words, the
[0056]
Hereinafter, for example, the same processing is repeated until the prediction error output from the
[0057]
Then, when the prediction error output from the
[0058]
Therefore, according to this corrected SD image, an HD image having a prediction error of a predetermined value or less can be obtained by applying adaptive processing thereto.
[0059]
Here, as described above, the SD image output from the image encoding device in FIG. 28 can be said to be optimal for obtaining a decoded image closer to the original HD image. The processing performed by the system composed of the
[0060]
[Problems to be solved by the invention]
By the way, in the adaptive process, a prediction tap is constituted by SD pixels around the HD pixel, and the prediction value of the HD pixel is obtained by using the prediction tap. The SD pixel used as the prediction tap is, It was designed to be selected regardless of the image.
[0061]
That is, the prediction
[0062]
However, images often have locally different characteristics. Therefore, if the characteristics are different, adaptive processing using a prediction tap corresponding to the characteristics can obtain a decoded image closer to the quality of the original HD image. It is thought that you can.
[0063]
The present invention has been made in view of such a situation, and makes it possible to obtain a decoded image with improved image quality.
[0064]
[Means for Solving the Problems]
An image encoding device according to
[0065]
The image encoding method according to
[0066]
The image decoding device according to
[0067]
[0069]
In the image encoding device according to
[0070]
In the image encoding method according to
[0071]
In the image decoding device according to
[0072]
[0074]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below, but before that, in order to clarify the correspondence between the respective means of the invention described in the claims and the following embodiments, after each means, A corresponding embodiment (however, an example) is added in parentheses to describe the characteristics of the present invention, and the following is obtained.
[0075]
That is, the image encoding apparatus according to
[0076]
The image encoding apparatus according to claim 3, wherein the first prediction unit includes: Predictive error is minimized It has a calculation means (for example, a
[0077]
In the image encoding device according to
[0078]
The image encoding device according to claim 7, The compressed image signal is converted into a signal that minimizes the prediction error of the converted image and the prediction value predicted by the prediction coefficient relative to the original image signal. Further, it is characterized by further comprising optimization means (for example, an
[0079]
The image coding apparatus according to claim 8, wherein the optimization unit forms a second prediction unit (for example, as shown in FIG. 16) that forms a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel. A second prediction unit (for example, FIG. 16) that predicts the original image signal and outputs the predicted value from the prediction tap formed by the second generation unit and the prediction coefficient. And a second calculation unit (for example, an
[0080]
The image coding apparatus according to claim 10, wherein the predicted value obtained by the second prediction unit based on the compressed image signal obtained every time the optimization process is performed and the original image signal is applied to the original image signal. Prediction error Is the coefficient that minimizes The image processing apparatus further includes correction means for correcting the prediction coefficient (for example, the
[0081]
The image coding apparatus according to
[0082]
The image encoding device according to claim 12 further includes output means (for example, a multiplexing
[0083]
The image decoding device according to
[0084]
The image decoding apparatus according to claim 28, wherein the prediction means includes class classification means (for example, a
[0086]
Of course, this description does not mean that the respective means are limited to those described above.
[0087]
FIG. 1 shows the configuration of an embodiment of an image processing apparatus to which the present invention is applied. The
[0088]
The receiving
[0089]
The image processing apparatus as described above is, for example, an optical disk apparatus, a magneto-optical disk apparatus, a magnetic tape apparatus, or other apparatus for recording / reproducing an image, or, for example, a videophone apparatus or a television set. The present invention is applied to a broadcasting system, a CATV system, and other devices that transmit images. As will be described later, since the amount of encoded data output from the
[0090]
FIG. 2 shows a configuration example of the
[0091]
An I / F (InterFace) 11 performs reception processing of image data of HD images supplied from the outside and transmission processing of encoded data to the transmitter /
[0092]
The I /
[0093]
In the
[0094]
FIG. 3 is a functional block diagram of a portion excluding the transmitter /
[0095]
The HD image as the image data to be encoded is supplied to the
[0096]
The preprocessing
[0097]
The
[0098]
The
[0099]
The prediction tap
[0100]
The multiplexing
[0101]
Next, the operation will be described with reference to the flowchart of FIG.
[0102]
When the HD image to be encoded is supplied to the
[0103]
That is, the preprocessing
[0104]
As described above, the SD image to which the tap pattern code is added is applied to the terminal a of the
[0105]
As described above, the
[0106]
When receiving the set of prediction coefficients w for each class for each of the SD image and the prediction taps of a plurality of patterns, the
[0107]
When the
[0108]
After the above processing, the process proceeds to step S4, where both the
[0109]
Then, when the prediction tap
[0110]
In other words, the prediction tap
[0111]
As described above, the SD image in which the tap pattern code is changed is output to the terminal b of the
[0112]
Since the
[0113]
The optimum SD image output from the
[0114]
Thereafter, the process proceeds to step S8, and it is determined whether or not the processes of steps S5 to S8 have been performed a predetermined number of times. If it is determined in step S8 that the processes in steps S5 to S8 have not been performed a predetermined number of times, the process returns to step S5 and the above-described processes are repeated. If it is determined in step S8 that the processes in steps S5 to S8 have been performed a predetermined specified number of times, the process proceeds to step S9, where the multiplexing
[0115]
The above processing is repeated, for example, in units of one frame.
[0116]
In the above-described case, it is determined in step S8 whether or not the processing of steps S5 to S8 has been performed a predetermined specified number of times. However, in step S8, for example, the output from the
[0117]
Next, FIG. 5 shows a configuration example of the
[0118]
The HD image to be encoded is supplied to the thinning
[0119]
The thinning
[0120]
In addition, for example, the thinning
[0121]
The prediction
[0122]
The class classification adaptive processing circuit 33 performs class classification for each of the four patterns of prediction taps supplied from the prediction
[0123]
Note that the set of prediction coefficients w for each class obtained for each of the four patterns of prediction taps in the class classification adaptive processing circuit 33 is supplied to the
[0124]
Further, in the present embodiment, in the class classification adaptive processing circuit 33, for each of the four patterns of prediction taps, the normal equation is shown as enclosed by a dotted line in FIG. 6, for example, regardless of the prediction tap pattern. The prediction value of the 3 × 3 HD pixel centered on the SD pixel as the target pixel is obtained. Accordingly, the class classification adaptive processing circuit 33 obtains a set of prediction coefficients for each class for each of the four patterns of prediction taps for generating a prediction value of 3 × 3 HD pixels. The detailed configuration of the class classification adaptive processing circuit 33 will be described later.
[0125]
The prediction
[0126]
The
[0127]
The tap pattern
[0128]
Here, the configuration of the class classification adaptive processing circuit 33 will be described. The class classification adaptive processing circuit 33 has a class classification adaptive processing circuit (prediction coefficient and prediction value calculation) that performs processing on each of the four patterns of prediction taps. That is, the class classification adaptive processing circuit 33 has four independent class classification adaptive processing circuits (prediction coefficient and prediction value calculation) for each of four patterns of prediction taps. FIG. 11 and FIG. 12 show one of the class classification adaptive processing circuits (prediction coefficient, prediction value calculation). Since the four class classification adaptive processing circuits (prediction coefficient, prediction value calculation) have the same configuration except that four different prediction taps are supplied, one class classification adaptive processing circuit (prediction coefficient, prediction value) Value calculation) will be described and the others will be omitted.
[0129]
The class classification adaptive processing circuit (prediction coefficient and prediction value calculation) shown in FIGS. 11 and 12 includes a
[0130]
A
[0131]
In addition, the
[0132]
In the class classification adaptive processing circuit (prediction coefficient and prediction value calculation) configured as described above, the data for one frame of HD pixels is almost the same as in FIG. 27, the
[0133]
In the
[0134]
Since the
[0135]
Next, the processing of the
[0136]
When an HD image to be encoded is input to the
[0137]
That is, in step S11, as shown in the flowchart of FIG. 14, first, in step S21, the HD image is divided into, for example, 3 × 3 pixel HD image blocks, and the process proceeds to step S22.
[0138]
In this embodiment, the HD image is composed of, for example, a luminance signal Y and color difference signals U and V, and in step S21, a luminance signal block and a color difference signal block are configured. ing.
[0139]
In step S22, one of the blocks is set as a target block, and an average value of the pixel values of 3 × 3 HD pixels constituting the target block is calculated. Further, in step S22, the average value is set as the pixel value of the center pixel (SD pixel) of the target block, and the process proceeds to step S23.
[0140]
In step S23, it is determined whether the target block is a luminance signal block. If it is determined in step S23 that the target block is a block of a luminance signal, the process proceeds to step S24, and the pixel value (in this case, the luminance signal) of the pixel at the center of the target block as the SD pixel is 2 bits on the LSB side. However, in order to add a tap pattern code, it is cleared to 0, for example, and the process proceeds to step S25. If it is determined in step S23 that the target block is not a luminance signal block, that is, if the target block is a color difference signal block, step S24 is skipped and the process proceeds to step S25.
[0141]
Here, in the present embodiment, a plurality of patterns of prediction taps are prepared only for luminance signals, and a fixed pattern of prediction taps is used for color difference signals. Accordingly, the tap pattern code is added only for the luminance signal, and the tap pattern code is not added for the color difference signal. Therefore, the 2 bits on the LSB side are not cleared. .
[0142]
In step S25, it is determined whether all the blocks configured in step S21 have been processed as the target block. If it is determined that all the blocks have not yet been processed as the target block, the process returns to step S22, Similar processing is repeated with a block that has not yet been set as the target block as a new target block. If it is determined in step S25 that all the blocks have been processed as the target block, that is, if an SD image is configured, the process returns.
[0143]
Returning to FIG. 13, in step S <b> 11, the SD image configured as described above is supplied from the thinning
[0144]
As described above, four patterns of prediction taps are formed only for luminance signals, and for color difference signals, for example, only a prediction tap of 7 × 5 pixels as shown in FIG. It is formed.
[0145]
In step S13, the class classification adaptive processing circuit 33 is first configured as shown in FIGS. 11 and 12 for each of the four patterns of prediction taps (in the case of luminance signals) supplied from the prediction
[0146]
Here, in the present embodiment, for example, for each of the four patterns of prediction taps in
[0147]
That is, with respect to any of the four patterns of prediction taps, for example, the luminance signal is represented by 5 SD pixels in a rhombus-shaped range centered on the target pixel, as shown by being surrounded by a dotted line in FIG. Class taps are configured. Then, the difference between the maximum value and the minimum value of the pixel values of the five pixels is set as a dynamic range DR, and three pixels arranged vertically in the class tap using the dynamic range DR (FIG. 15A). 1 pixel ADRC processing is performed on 3 pixels surrounded by a solid line in FIG. And the thing which added the tap code corresponding to a prediction tap to the pattern of the pixel value of these 3 pixels is made into the class of the attention pixel. Therefore, in this case, a pixel value pattern obtained by performing 1-bit ADRC processing on three vertically arranged pixels in the class tap is represented by 3 bits, and since the tap code is 2 bits, the luminance signal is , 32 (= 2 Five ) Classified into one of the classes.
[0148]
On the other hand, for the color difference signal, for example, as shown by being surrounded by a dotted line in FIG. 15B, a class tap is configured by nine SD pixels in a square range centering on the target pixel. Then, the difference between the maximum value and the minimum value among the pixel values of the nine pixels is set as a dynamic range DR, and the dynamic range DR is used to determine a rhombus-shaped range centering on the target pixel in the class tap. Five SD pixels (5 pixels surrounded by a solid line in FIG. 15B) are subjected to 1-bit ADRC processing. The pattern of pixel values of the five pixels is set as the class of the target pixel. Therefore, in this case, since the pixel value pattern obtained by performing 1-bit ADRC processing on 5 pixels centered on the target pixel in the class tap is expressed by 5 bits, the color difference signal is also the same as the luminance signal. , 32 (= 2 Five ) Classified into one of the classes.
[0149]
In the class classification adaptive processing circuit 33, the class of the target pixel is determined as described above, and accordingly, the prediction of the class corresponding to each address in the
[0150]
Thereafter, in step S14, the class classification adaptive processing circuit 33 sets the prediction coefficient w for each class for each of the four patterns of prediction taps obtained using the four patterns of prediction taps, and the four patterns of prediction taps. From each of them, by calculating the linear linear expression shown in Expression (1), the prediction value of the HD image obtained from each of the four patterns of prediction taps is obtained and output to the prediction
[0151]
That is, in step S14, the class classification circuit 91 (FIG. 12) is used for the prediction tap generated by the prediction
[0152]
In the class classification adaptive processing circuit 33, a predicted value is obtained for each of the four prediction taps.
[0153]
In step S <b> 15, the prediction
[0154]
In the tap pattern
[0155]
Thereafter, the process proceeds to step S18, where it is determined whether tap pattern codes have been added to all SD pixels. If it is determined that tap pattern codes have not been added to all SD pixels, the process returns to step S14, The process of steps S14 to S18 is repeated by setting any one of the SD pixels to which the tap pattern code is not added as a new target pixel. On the other hand, if it is determined in step S18 that the tap pattern code has been added to all SD pixels, the
[0156]
In the
[0157]
Next, FIG. 16 shows a configuration example of the
[0158]
The
[0159]
Here, FIG. 17 shows a configuration example of the class classification
[0160]
Next, the operation will be described with reference to the flowchart of FIG.
[0161]
When receiving the SD image, the
[0162]
That is, for the luminance signal, as described above, since the 2 bits on the LSB side are a tap pattern code and do not constitute a pixel value, the offset amount S is 4 (= 2). 2 ) Is set. Further, this is not the case for the color difference signal, and all bits constitute a pixel value, and therefore the offset amount S is 1 (= 2). 0 ) Is set.
[0163]
Further, in step S31, −1 as an initial value is set to a variable i for counting the number of corrections of the target pixel, and the process proceeds to step S32. In step S32, the number of times i is incremented by 1, and the process proceeds to step S33. When the adaptive processing is performed using the correction value obtained by correcting the pixel value of the target pixel by the correction amount Δ, the HD pixel affected by the correction is affected. A prediction error E of the predicted value is calculated.
[0164]
That is, in this case, the
[0165]
In the
[0166]
That is, in the class classification
[0167]
The coefficient RAM 94 (FIG. 17) stores a set of prediction coefficients for each class for each of the four patterns of prediction taps supplied via the
[0168]
In the
[0169]
Further, in the class classification
[0170]
That is, for example, as shown in FIG. 19, it is assumed that the SD pixel A is corrected as a target pixel. In the present embodiment, the prediction tap has the widest range when the prediction tap is composed of 7 × 5 SD pixels as shown in FIG. In the case where the prediction tap is configured, the SD pixel A is included in the prediction tap, and the SD pixel farthest from the SD pixel A is the target pixel. SD pixels B, C, D , E are the target pixels, and a 7 × 5 pixel prediction tap is configured. Then, when the SD pixels B, C, D, and E are set as the target pixels and a prediction tap of 7 × 5 pixels is configured, in the present embodiment, ranges b, c, and d surrounded by solid lines in FIG. , E, the predicted values of 3 × 3 HD pixels are respectively obtained. Therefore, when the pixel value is corrected with the SD pixel A as the pixel of interest, the worst case is the smallest rectangle including the ranges b, c, d, and e. This is the predicted value of 21 × 15 HD pixels within the range indicated by the dotted line at 19.
[0171]
Therefore, in the present embodiment, such a predicted value of 21 × 15 HD pixels is obtained in the class classification
[0172]
The predicted value of the HD pixel obtained by the class classification
[0173]
When the error information is received from the
[0174]
In this case, in step S32, the number of times i is incremented by 1 to become 1, so in step S34, it is determined that the number of times i is not 0, and the process proceeds to step S36. In step S36, it is determined whether or not the number of times i is 1. In this case, since the number of times i is 1, in step S36, it is determined that the number of times i is 1. The process proceeds to step S37, and whether or not the previous error information E ′ is greater than or equal to the current error information E. Is determined. If it is determined in step S37 that the previous error information E ′ is not equal to or greater than the current error information E, that is, the current error information E is corrected by correcting the pixel value of the target pixel by the correction amount Δ. If the error information E ′ has increased from the previous error information E ′ (in this case, error information when no correction is performed), the process proceeds to step
[0175]
That is, by correcting the pixel value of the target pixel by the correction amount Δ (in this case, Δ = S), the sign of the offset amount S is reversed when the error increases compared to when the correction is not performed. (In this embodiment, since a positive value is set in the offset amount S in step S31, the sign of the offset amount S is changed from positive to negative in step S38). Further, the correction amount Δ which was S in the previous time is set to −S.
[0176]
If it is determined in step S37 that the previous error information E ′ is equal to or greater than the current error information E, that is, the current error information E ′ is corrected by correcting the pixel value of the target pixel by the correction amount Δ. Is reduced from the previous error information E ′ (or the same as the previous error information E ′), the process proceeds to step S39, where the
[0177]
In this case, in step S32, the number of times i is further incremented by 1 to become 2, so that in step S34 or S36, it is determined that the number of times i is not 0 or 1, respectively, and as a result, the process proceeds from step S36 to S40. In step S40, it is determined whether or not the number of times i is 2. Since the number of times i is now 2, in step S40, it is determined that the number of times i is 2, and the process proceeds to step S41, where error information E at the time of uncorrection is obtained. 0 Is less than or equal to the current error information E, and whether or not the offset amount S is negative is determined.
[0178]
In step S40, error information E when uncorrected 0 Is equal to or less than the current error information E, and the offset amount S is determined to be negative, that is, when the pixel of interest is corrected by + S or by only -S, or when it is not corrected. When the error increases, the process proceeds to step S42, the correction amount Δ is set to 0, and the process proceeds to step S47.
[0179]
In step S40, error information E at the time of uncorrection is displayed. 0 Is not equal to or smaller than the current error information E, or the offset amount S is determined not to be negative, the process proceeds to step S44, and it is determined whether or not the previous error information E ′ is equal to or greater than the current error information E. . When it is determined in step S44 that the previous error information E ′ is equal to or greater than the current error information E, that is, by correcting the pixel value of the target pixel by the correction amount Δ, the current error information E is When it decreases from the previous error information E ′, the process proceeds to step S45, and the
[0180]
In this case, since the number of times i is further incremented by 1 in step S32 to be 3, it is determined in steps S34, S36, or S40 that the number of times i is not 0, 1, or 2, respectively. As a result, the process proceeds from step S40 to S44. Therefore, the loop process of steps S32 to S34, S36, S40, S44, and S45 is repeated until it is determined in step S44 that the previous error information E ′ is not greater than or equal to the current error information E.
[0181]
In step S44, when it is determined that the previous error information E ′ is not equal to or greater than the current error information E, that is, by correcting the pixel value of the target pixel by the correction amount Δ, On the other hand, if it has increased from the previous error information E ′, the process proceeds to step S46, where the
[0182]
In step S47, the
[0183]
Then, the process proceeds to step S48, and it is determined whether or not processing has been performed using all SD pixels as the target pixel. If it is determined in step S48 that all the SD pixels are the target pixels and the process has not yet been performed, the process returns to step S31, and the SD pixel that has not yet been set as the target pixel is set as a new target pixel. repeat. If it is determined in step S48 that the process has been performed using all SD pixels as the target pixel, the process ends.
[0184]
As described above, the pixel value of the SD image is optimized to be optimal for obtaining the predicted value of the HD image.
[0185]
Next, FIG. 20 shows a configuration example of the
[0186]
The prediction
[0187]
In addition to the prediction tap, the class classification
[0188]
Next, the operation will be described with reference to the flowchart of FIG. When receiving the optimum SD image, the prediction
[0189]
Thus, the
[0190]
In the embodiment of FIG. 20, the prediction
[0191]
In this case, each class classification adaptive processing circuit is supplied with a prediction tap of each pattern corresponding to each HD pixel constituting the HD image, and the class tap using the optimum SD pixel constituting the prediction tap. Are formed, and classification is performed for each. Furthermore, in each class classification adaptive processing circuit, one frame of HD pixels and prediction taps for the HD pixels are stored for each class in the
[0192]
Next, FIG. 22 illustrates a configuration example of the prediction tap
[0193]
The prediction tap
[0194]
Next, the operation will be described with reference to the flowchart of FIG.
[0195]
The prediction tap
[0196]
When receiving the optimum SD image, the prediction
[0197]
When the class classification
[0198]
In step S63 or S64, the prediction
[0199]
In the tap pattern
[0200]
In step S66, it is determined whether or not processing has been performed with all SD pixels as the target pixel. If it is determined that all SD pixels have not been processed as the target pixel, the process returns to step S61 and is set as the target pixel. The same process is repeated with a new SD pixel as a new target pixel. On the other hand, if it is determined in step S66 that the process has been performed using all SD pixels as the target pixel, the process ends.
[0201]
As described above, the prediction tap
[0202]
Next, FIG. 24 illustrates a configuration example of the receiving
[0203]
In the receiver / reproducing
[0204]
The prediction
[0205]
Note that, on the receiving side, even if the receiving
[0206]
As described above, one of the pixels constituting the SD image obtained by compressing the HD image is set as the target pixel, and a plurality of patterns of prediction taps are formed for the target pixel. An adaptive process for obtaining a prediction value of an HD image is performed by linear combination with a coefficient, a prediction error of a prediction value obtained from each of a plurality of pattern prediction taps is calculated, and a minimum prediction error among prediction taps of a plurality of patterns is Since the tap pattern code corresponding to the obtained one is added to the pixel value of the target pixel, the adaptive processing is performed using the prediction tap corresponding to the local characteristics of the image, and as a result, the image quality is improved. A good decoded image can be obtained.
[0207]
Further, since the 2-bit tap pattern code is arranged in place of the 2 bits on the LSB side of the pixel value, it is possible to prevent an increase in the data amount. Note that since the tap pattern code is arranged on the LSB side of the pixel value, there is no significant deterioration in image quality.
[0208]
Further, since the
[0209]
In addition, the
[0210]
The case where the present invention is applied to an image processing apparatus that encodes / decodes an HD image has been described above. However, the present invention can also be applied to a case where an image having a standard resolution such as an SD image is encoded / decoded. Applicable. That is, for example, the present invention can be applied to the case of encoding / decoding a standard television signal such as the NTSC system. However, the present invention is particularly effective when encoding / decoding a so-called high-vision television signal having a large amount of data. The present invention can also be applied to so-called hierarchical encoding.
[0211]
In this embodiment, a plurality of patterns of prediction taps are prepared only for the luminance signal, and only the 5 × 7 pixel prediction tap is used for the color difference signal. However, the color difference signal is the same as the luminance signal. Can be processed.
[0212]
In this embodiment, the tap pattern code is 2 bits, but the tap pattern code is not limited to 2 bits. However, it is desirable that the number of bits is smaller.
[0213]
Furthermore, in this embodiment, a tap pattern code is arranged instead of the 2 bits on the LSB side of the pixel value. However, the tap pattern code can be recorded or transmitted separately from the pixel value. .
[0214]
In the present embodiment, the prediction coefficient is updated using the optimal SD image pre-processed by the
[0215]
Furthermore, in the present embodiment, 4 patterns of prediction taps of 3 × 3, 5 × 3, 3 × 5, and 7 × 5 pixels are used, but other than this, for example, 1 × 5 or 5 × 1 It is also possible to use prediction taps such as pixels. Also, the prediction tap patterns are not limited to four types.
[0216]
Further, although not particularly mentioned in the present embodiment, after adding a tap pattern code to the pixel value, the pixel value is obtained by setting the two bits on the LSB side to which the tap pattern code is added to a predetermined value. Processing may be performed, or processing may be performed using pixel values including a tap pattern code. According to the experiment conducted by the present inventor, when the pixel value including the tap pattern code is used, the S / N is slightly higher than when the tap pattern code portion is set to 0 as the predetermined value. Although the image quality deteriorates, the result is that the gradation is slightly improved.
[0217]
In FIG. 18, the correction value Δ at which the prediction error E is first minimized is detected by correcting the pixel value of the target pixel by 4 or 1 as the offset amount S. For example, it is also possible to obtain the prediction error E for all possible values of the pixel value of the target pixel, detect the minimum value thereof, and correct the pixel value of the target pixel with the correction amount Δ in that case. . In this case, although processing takes time, a decoded image with a higher S / N can be obtained.
[0218]
Further, when the prediction error E is obtained for all the values that can be taken by the pixel value of the target pixel in this way, the initial value of the pixel value of the target pixel can be any value (however, the pixel value of the target pixel can be taken). It may be a value within a range. That is, in this case, the correction value Δ that minimizes the prediction error E can be obtained regardless of the initial value.
[0219]
Various modifications and application examples can be considered without departing from the gist of the present invention. Therefore, the gist of the present invention is not limited to the above-described embodiment.
[0220]
【The invention's effect】
According to the image encoding device and the image encoding method of the present invention, one of the pixels constituting the compressed image signal is set as the target pixel, Consists of a pixel of interest used to predict the original image signal and pixels in the vicinity of the pixel of interest A plurality of pattern prediction taps are formed, an original image signal is predicted from each of the plurality of pattern prediction taps and a predetermined prediction coefficient, and a prediction value for each of the plurality of pattern prediction taps is output. Then, a prediction error of the prediction value for each of the prediction taps of the plurality of patterns is calculated with respect to the original image signal, and among the prediction taps of the plurality of patterns, the pattern code corresponding to the prediction tap that obtains the minimum prediction error is By replacing part of the pixel value of the target pixel It is added to the pixel value of the target pixel. Therefore, it is possible to obtain a decoded image with improved image quality by forming a prediction tap according to the pattern code and performing decoding.
[0221]
According to the image decoding apparatus and the image decoding method of the present invention, The compressed image signal and the prediction coefficient are separated from the encoded data, With one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, the prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel is near the target pixel. An original image signal is predicted from the prediction tap and the prediction coefficient, which are formed using pixels, and the predicted value is obtained. Therefore, it is possible to obtain a predicted value closer to the original image signal.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of an image processing apparatus to which the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration example of the
3 is a block diagram illustrating a functional configuration example of the
4 is a flowchart for explaining the operation of the
5 is a block diagram illustrating a configuration example of a
6 is a diagram for explaining processing of the thinning
FIG. 7 is a diagram illustrating a configuration example of a prediction tap.
FIG. 8 is a diagram illustrating a configuration example of a prediction tap.
FIG. 9 is a diagram illustrating a configuration example of a prediction tap.
FIG. 10 is a diagram illustrating a configuration example of a prediction tap.
11 is a block diagram showing a configuration example of a part of a class classification adaptive processing circuit (prediction coefficient and prediction value calculation) constituting the class classification adaptive processing circuit 33 of FIG. 5;
12 is a block diagram showing another configuration example of the class classification adaptive processing circuit (prediction coefficient and prediction value calculation) constituting the class classification adaptive processing circuit 33 of FIG. 5. FIG.
13 is a flowchart for explaining processing of the
FIG. 14 is a flowchart for explaining more details of the process in step S11 of FIG.
FIG. 15 is a diagram illustrating a configuration example of a class tap for performing class classification.
16 is a block diagram illustrating a configuration example of the
17 is a block diagram illustrating a configuration example of the class classification
18 is a flowchart for explaining processing of the
FIG. 19 is a diagram for explaining the processing in step S33 of FIG. 18;
20 is a block diagram illustrating a configuration example of an
FIG. 21 is a flowchart for explaining processing of the
22 is a block diagram illustrating a configuration example of a predicted tap
23 is a flowchart for explaining processing of a predicted tap
24 is a block diagram illustrating a configuration example of the
FIG. 25 is a block diagram illustrating a configuration example of an image conversion apparatus previously proposed by the present applicant.
FIG. 26 is a diagram for explaining processing of the
FIG. 27 is a block diagram illustrating a configuration example of a learning apparatus previously proposed by the applicant of the present application.
FIG. 28 is a block diagram illustrating a configuration example of an image encoding device previously proposed by the present applicant.
[Explanation of symbols]
DESCRIPTION OF
Claims (36)
原画像信号の画素数より少ない画素数の圧縮画像信号を発生する圧縮手段と、
前記圧縮画像信号を構成する画素のうちの1つを注目画素として、前記原画像信号を予測するために用いる前記注目画素および前記注目画素の近傍の画素からなる複数パターンの予測タップを形成する第1の形成手段と、
前記複数パターンの予測タップそれぞれと、所定の予測係数とから、前記原画像信号を予測し、前記複数パターンの予測タップそれぞれに対する予測値を出力する第1の予測手段と、
前記複数パターンの予測タップそれぞれに対する前記予測値の、前記原画像信号に対する予測誤差を算出する第1の算出手段と、
前記複数パターンの予測タップのうち、最小の前記予測誤差が得られる予測タップに対応するパターンコードを、前記注目画素の画素値の一部と置き換えることにより前記注目画素の画素値に付加する付加手段と
を備えることを特徴とする画像符号化装置。An image encoding device for encoding an image signal,
Compression means for generating a compressed image signal having a smaller number of pixels than the number of pixels of the original image signal;
A prediction tap having a plurality of patterns including the target pixel used for predicting the original image signal and pixels in the vicinity of the target pixel is formed using one of the pixels constituting the compressed image signal as the target pixel. 1 forming means;
First prediction means for predicting the original image signal from each of the plurality of pattern prediction taps and a predetermined prediction coefficient, and outputting a prediction value for each of the plurality of pattern prediction taps;
First calculation means for calculating a prediction error of the predicted value for each of the prediction taps of the plurality of patterns with respect to the original image signal;
An adding means for adding a pattern code corresponding to a prediction tap from which the minimum prediction error is obtained among the prediction taps of the plurality of patterns to a pixel value of the target pixel by replacing a part of the pixel value of the target pixel An image encoding device comprising:
ことを特徴とする請求項1に記載の画像符号化装置。The image coding apparatus according to claim 1, wherein the adding unit arranges the pattern code in place of N bits on the LSB (Least Significant Bit) side of a pixel value of the target pixel.
ことを特徴とする請求項1に記載の画像符号化装置。The image coding apparatus according to claim 1, wherein the first prediction unit includes a calculation unit that obtains the prediction coefficient that minimizes the prediction error .
前記注目画素を、所定のクラスに分類するクラス分類手段をさらに有し、
前記注目画素のクラスに対応する予測係数と、前記予測タップとから、前記予測値を求め、
前記演算手段は、前記予測係数を、前記クラスごとに求める
ことを特徴とする請求項3に記載の画像符号化装置。The first prediction means includes
Class classification means for classifying the pixel of interest into a predetermined class;
From the prediction coefficient corresponding to the class of the target pixel and the prediction tap, the prediction value is obtained,
The image coding apparatus according to claim 3, wherein the calculation unit obtains the prediction coefficient for each class.
ことを特徴とする請求項3に記載の画像符号化装置。The image coding apparatus according to claim 3, wherein the calculation unit obtains the prediction coefficient for each of the plurality of patterns of prediction taps.
前記第1の予測手段は、前記複数パターンの予測タップそれぞれと、前記注目画素のクラスに対応する予測係数とから、前記複数パターンの予測タップそれぞれに対する予測値を求める
ことを特徴とする請求項4に記載の画像符号化装置。The calculation means obtains the prediction coefficient for each of the classes for each of the plurality of patterns of prediction taps,
5. The first prediction unit obtains a prediction value for each of the plurality of pattern prediction taps from each of the plurality of pattern prediction taps and a prediction coefficient corresponding to the class of the target pixel. The image encoding apparatus described in 1.
ことを特徴とする請求項1乃至6のうちのいずれかに記載の画像符号化装置。 2. The optimization apparatus according to claim 1, further comprising: an optimization unit configured to convert the compressed image signal into a signal in which a prediction error predicted from the converted signal and the prediction coefficient is minimized with respect to the original image signal. 7. The image encoding device according to any one of items 1 to 6.
前記注目画素の画素値に付加された前記パターンコードに対応するパターンの予測タップを形成する第2の形成手段と、
前記第2の形成手段により形成された前記予測タップと、前記予測係数とから、前記原画像信号を予測し、その予測値を出力する第2の予測手段と、
前記第2の予測手段により求められた前記予測値の、前記原画像信号に対する予測誤差を算出する第2の算出手段と、
前記第2の算出手段により算出された前記予測誤差より予測誤差が小さくなるように画素値を所定の値だけ増加または減少させることにより、前記注目画素の画素値を補正する補正手段と
を有する
ことを特徴とする請求項7に記載の画像符号化装置。The optimization means includes
Second forming means for forming a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel;
Second prediction means for predicting the original image signal from the prediction tap formed by the second forming means and the prediction coefficient, and outputting the predicted value;
Second calculation means for calculating a prediction error of the predicted value obtained by the second prediction means with respect to the original image signal;
Correction means for correcting the pixel value of the target pixel by increasing or decreasing the pixel value by a predetermined value so that the prediction error is smaller than the prediction error calculated by the second calculation means. The image encoding apparatus according to claim 7.
前記第2の形成手段において、前記注目画素の画素値に付加された前記パターンコードに対応するパターンの予測タップを形成し、
前記第2の予測手段において、前記第2の形成手段により形成された前記予測タップと、前記予測係数とから、前記予測値を求め、
前記第2の算出手段において、前記第2の予測手段により求められた前記予測値の、前記原画像信号に対する予測誤差を算出し、
前記補正手段において、前記第2の算出手段により算出された前記予測誤差より予測誤差が小さくなるように、前記注目画素の画素値を所定の値だけ増加または減少させる
最適化処理を、前記予測誤差が最小になるまで繰り返す
ことを特徴とする請求項8に記載の画像符号化装置。The optimization means includes
In the second forming means, a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel is formed,
In the second prediction means, the prediction value is obtained from the prediction tap formed by the second formation means and the prediction coefficient,
In the second calculation means, a prediction error of the prediction value obtained by the second prediction means with respect to the original image signal is calculated,
In the correction means, as described above is the prediction error from the prediction error calculated by the second calculating means decreases, the optimization process of the pixel value of the pixel of interest is increased or decreased by a predetermined value, the prediction error The image coding apparatus according to claim 8, wherein the image coding apparatus repeats until the value becomes minimum .
前記第1および第2の予測手段は、前記修正手段により修正され予測係数を用いて、前記予測値を求める
ことを特徴とする請求項9に記載の画像符号化装置。A coefficient that minimizes the prediction error of the prediction value obtained by the second prediction unit based on the compressed image signal obtained each time the optimization process is performed and the original image signal with respect to the original image signal. And a correction means for correcting the prediction coefficient.
The image coding apparatus according to claim 9, wherein the first and second prediction units obtain the prediction value using a prediction coefficient that has been corrected by the correction unit.
ことを特徴とする請求項10に記載の画像符号化装置。The image coding apparatus according to claim 10, further comprising an output unit that outputs a compressed image signal output from the optimization unit and a prediction coefficient output from the correction unit.
ことを特徴とする請求項1乃至6のうちのいずれかに記載の画像符号化装置。The image coding apparatus according to any one of claims 1 to 6, further comprising an output unit that outputs the compressed image signal to which the pattern code is added and the prediction coefficient.
原画像信号の画素数より少ない画素数の圧縮画像信号を発生する圧縮ステップと、
前記圧縮画像信号を構成する画素のうちの1つを注目画素として、前記原画像信号を予測するために用いる前記注目画素および前記注目画素の近傍の画素からなる複数パターンの予測タップを形成する第1の形成ステップと、
前記複数パターンの予測タップそれぞれと、所定の予測係数とから、前記原画像信号を予測し、前記複数パターンの予測タップそれぞれに対する予測値を出力する第1の予測ステップと、
前記複数パターンの予測タップそれぞれに対する前記予測値の、前記原画像信号に対する予測誤差を算出する第1の算出ステップと、
前記複数パターンの予測タップのうち、最小の前記予測誤差が得られる予測タップに対応するパターンコードを、前記注目画素の画素値の一部と置き換えることにより前記注目画素の画素値に付加する付加ステップと
を備えることを特徴とする画像符号化方法。An image encoding method for encoding an image signal,
A compression step for generating a compressed image signal having a smaller number of pixels than the number of pixels of the original image signal;
A prediction tap having a plurality of patterns including the target pixel used for predicting the original image signal and pixels in the vicinity of the target pixel is formed using one of the pixels constituting the compressed image signal as the target pixel. 1 forming step;
A first prediction step of predicting the original image signal from each of the prediction taps of the plurality of patterns and a predetermined prediction coefficient, and outputting a prediction value for each of the prediction taps of the plurality of patterns;
A first calculation step of calculating a prediction error of the prediction value for each of the prediction taps of the plurality of patterns with respect to the original image signal;
An addition step of adding a pattern code corresponding to a prediction tap that obtains the minimum prediction error among the prediction taps of the plurality of patterns to the pixel value of the target pixel by replacing a part of the pixel value of the target pixel. An image encoding method comprising:
ことを特徴とする請求項13に記載の画像符号化方法。The image coding method according to claim 13, wherein, in the adding step, the pattern code is arranged instead of N bits on the LSB (Least Significant Bit) side of the pixel value of the target pixel.
ことを特徴とする請求項13に記載の画像符号化方法。The image encoding method according to claim 13, wherein the first prediction step includes a calculation step of obtaining the prediction coefficient that minimizes the prediction error .
前記注目画素を、所定のクラスに分類するクラス分類ステップをさらに有し、
前記注目画素のクラスに対応する予測係数と、前記予測タップとから、前記予測値を求め、
前記演算ステップにおいて、前記予測係数を、前記クラスごとに求める
ことを特徴とする請求項15に記載の画像符号化方法。The first prediction step includes:
A classifying step of classifying the pixel of interest into a predetermined class;
From the prediction coefficient corresponding to the class of the target pixel and the prediction tap, the prediction value is obtained,
The image encoding method according to claim 15, wherein, in the calculation step, the prediction coefficient is obtained for each class.
ことを特徴とする請求項15に記載の画像符号化方法。The image encoding method according to claim 15, wherein, in the calculation step, the prediction coefficient is obtained for each of the plurality of patterns of prediction taps.
前記第1の予測ステップにおいて、前記複数パターンの予測タップそれぞれと、前記注目画素のクラスに対応する予測係数とから、前記複数パターンの予測タップそれぞれに対する予測値を求める
ことを特徴とする請求項16に記載の画像符号化方法。In the calculation step, for each prediction tap of the plurality of patterns, the prediction coefficient is obtained for each class,
The prediction value for each of the prediction taps of the plurality of patterns is obtained from the prediction taps of the plurality of patterns and a prediction coefficient corresponding to the class of the target pixel in the first prediction step. The image encoding method described in 1.
ことを特徴とする請求項13乃至18のうちのいずれかに記載の画像符号化方法。 The optimization step of converting the compressed image signal into a signal having a prediction error with respect to the original image signal of the converted signal and the prediction value predicted by the prediction coefficient is minimized. The image coding method according to any one of 1 to 18.
前記注目画素の画素値に付加された前記パターンコードに対応するパターンの予測タップを形成する第2の形成ステップと、
前記第2の形成ステップにより形成された前記予測タップと、前記予測係数とから、前記原画像信号を予測し、その予測値を出力する第2の予測ステップと、
前記第2の予測ステップにより求められた前記予測値の、前記原画像信号に対する予測誤差を算出する第2の算出ステップと、
前記第2の算出ステップにより算出された前記予測誤差より予測誤差が小さくなるように画素値を所定の値だけ増加または減少させることにより、前記注目画素の画素値を補正する補正ステップと
を有する
ことを特徴とする請求項19に記載の画像符号化方法。The optimization step includes
A second forming step of forming a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel;
A second prediction step of predicting the original image signal from the prediction tap formed by the second formation step and the prediction coefficient, and outputting the prediction value;
A second calculation step of calculating a prediction error of the prediction value obtained in the second prediction step with respect to the original image signal;
A correction step of correcting the pixel value of the target pixel by increasing or decreasing the pixel value by a predetermined value so that the prediction error is smaller than the prediction error calculated by the second calculation step. The image encoding method according to claim 19.
前記第2の形成ステップにおいて、前記注目画素の画素値に付加された前記パターンコードに対応するパターンの予測タップを形成し、
前記第2の予測ステップにおいて、前記第2の形成ステップにより形成された前記予測タップと、前記予測係数とから、前記予測値を求め、
前記第2の算出ステップにおいて、前記第2の予測ステップにより求められた前記予測値の、前記原画像信号に対する予測誤差を算出し、
前記補正ステップにおいて、前記第2の算出ステップにより算出された前記予測誤差より予測誤差が小さくなるように、前記注目画素の画素値を所定の値だけ増加または減少させる
最適化処理を、前記予測誤差が最小になるまで繰り返す
ことを特徴とする請求項20に記載の画像符号化方法。In the optimization step,
Forming a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel in the second forming step;
In the second prediction step, the prediction value is obtained from the prediction tap formed in the second formation step and the prediction coefficient,
In the second calculation step, a prediction error of the prediction value obtained in the second prediction step with respect to the original image signal is calculated,
In the correction step, an optimization process for increasing or decreasing the pixel value of the target pixel by a predetermined value so that the prediction error is smaller than the prediction error calculated in the second calculation step is performed by the prediction error. The image coding method according to claim 20, wherein the image coding method is repeated until is minimized .
前記第1および第2の予測ステップにおいて、前記修正ステップにより修正され予測係数を用いて、前記予測値を求める
ことを特徴とする請求項21に記載の画像符号化方法。A coefficient that minimizes a prediction error of the prediction value obtained by the second prediction step with respect to the original image signal based on the compressed image signal obtained each time the optimization process is performed and the original image signal And further comprising a correction step of correcting the prediction coefficient,
The image encoding method according to claim 21, wherein, in the first and second prediction steps, the prediction value is obtained by using a prediction coefficient that has been corrected by the correction step.
ことを特徴とする請求項22に記載の画像符号化方法。The image encoding method according to claim 22, further comprising an output step of outputting a compressed image signal obtained in the optimization step and a prediction coefficient obtained in the correction step.
ことを特徴とする請求項13乃至18のうちのいずれかに記載の画像符号化方法。The image encoding method according to any one of claims 13 to 18, further comprising an output step of outputting the compressed image signal to which the pattern code is added and the prediction coefficient.
前記圧縮画像信号を構成する画素のうちの1つを注目画素として、前記原画像信号を予測するために用いる前記注目画素および前記注目画素の近傍の画素からなる複数パターンの予測タップを形成し、
前記複数パターンの予測タップそれぞれと、所定の予測係数とから、前記原画像信号を予測し、前記複数パターンの予測タップそれぞれに対する予測値を出力し、
前記複数パターンの予測タップそれぞれに対する前記予測値の、前記原画像信号に対する予測誤差を算出し、
前記複数パターンの予測タップのうち、最小の前記予測誤差が得られる予測タップに対応するパターンコードを、前記注目画素の画素値の一部と置き換えることにより前記注目画素の画素値に付加する
ことにより得られる前記圧縮画像信号および前記予測係数を含む符号化データを復号する画像復号装置であって、
前記符号化データから、前記圧縮画像信号と前記予測係数とを分離する分離手段と、
前記符号化データに含まれる前記圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されている前記パターンコードに対応するパターンの前記予測タップを、前記注目画素の近傍の画素を用いて形成する形成手段と、
前記形成手段により形成された前記予測タップと、前記予測係数とから、前記原画像信号を予測し、その予測値を求める予測手段と
を備えることを特徴とする画像復号装置。Generate a compressed image signal with fewer pixels than the original image signal,
Forming one of the pixels constituting the compressed image signal as a target pixel, and forming a plurality of patterns of prediction taps composed of the target pixel used for predicting the original image signal and pixels in the vicinity of the target pixel ;
Predicting the original image signal from each of the plurality of pattern prediction taps and a predetermined prediction coefficient, and outputting a prediction value for each of the plurality of pattern prediction taps;
Calculating a prediction error of the prediction value for each of the plurality of patterns of prediction taps with respect to the original image signal
A pattern code corresponding to a prediction tap that obtains the minimum prediction error among the prediction taps of the plurality of patterns is added to the pixel value of the target pixel by replacing it with a part of the pixel value of the target pixel. An image decoding apparatus for decoding encoded data including the compressed image signal and the prediction coefficient obtained,
Separating means for separating the compressed image signal and the prediction coefficient from the encoded data;
The prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel, with one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, Forming means for forming using pixels in the vicinity of the pixel of interest;
An image decoding apparatus comprising: a prediction unit that predicts the original image signal from the prediction tap formed by the forming unit and the prediction coefficient, and obtains a predicted value thereof.
ことを特徴とする請求項25に記載の画像復号装置。26. The pattern code is arranged in place of N bits on an LSB (Least Significant Bit) side of a pixel value of a pixel constituting the compressed image signal included in the encoded data. The image decoding device described.
ことを特徴とする請求項25に記載の画像復号装置。26. The image decoding apparatus according to claim 25, wherein the prediction coefficient is a prediction coefficient that minimizes the prediction error .
前記注目画素を、所定のクラスに分類するクラス分類手段を有し、
前記注目画素のクラスに対応する予測係数と、前記予測タップとから、前記予測値を求め、
前記予測係数は、前記符号化データを符号化するときに、前記クラスごとに求められたものである
ことを特徴とする請求項27に記載の画像復号装置。The prediction means includes
Classifying means for classifying the pixel of interest into a predetermined class,
From the prediction coefficient corresponding to the class of the target pixel and the prediction tap, the prediction value is obtained,
The image decoding apparatus according to claim 27, wherein the prediction coefficient is obtained for each of the classes when the encoded data is encoded .
ことを特徴とする請求項27に記載の画像復号装置。The image decoding apparatus according to claim 27, wherein the prediction coefficient is obtained for each of the plurality of patterns of prediction taps when the encoded data is encoded .
前記予測手段は、前記注目画素の画素値に付加されている前記パターンコードに対応するパターンの前記予測タップと、その予測タップについての予測係数のうちの前記注目画素のクラスに対応する予測係数とから、前記予測値を求める
ことを特徴とする請求項28に記載の画像復号装置。The prediction coefficient is obtained for each of the classes for each of the plurality of pattern prediction taps when encoding the encoded data ,
The prediction means includes the prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel, and a prediction coefficient corresponding to the class of the target pixel among the prediction coefficients for the prediction tap. The image decoding apparatus according to claim 28, wherein the predicted value is obtained from:
前記圧縮画像信号を構成する画素のうちの1つを注目画素として、前記原画像信号を予測するために用いる前記注目画素および前記注目画素の近傍の画素からなる複数パターンの予測タップを形成し、
前記複数パターンの予測タップそれぞれと、所定の予測係数とから、前記原画像信号を予測し、前記複数パターンの予測タップそれぞれに対する予測値を出力し、
前記複数パターンの予測タップそれぞれに対する前記予測値の、前記原画像信号に対する予測誤差を算出し、
前記複数パターンの予測タップのうち、最小の前記予測誤差が得られる予測タップに対応するパターンコードを、前記注目画素の画素値の一部と置き換えることにより前記注目画素の画素値に付加する
ことにより得られる前記圧縮画像信号および前記予測係数を含む符号化データを復号する画像復号方法であって、
前記符号化データから、前記圧縮画像信号と予測係数とを分離する分離ステップと、
前記符号化データに含まれる前記圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されている前記パターンコードに対応するパターンの前記予測タップを、前記注目画素の近傍の画素を用いて形成する形成ステップと、
前記形成ステップにより形成された前記予測タップと、前記予測係数とから、前記原画像信号を予測し、その予測値を求める予測ステップと
を備えることを特徴とする画像復号方法。Generate a compressed image signal with fewer pixels than the original image signal,
Forming one of the pixels constituting the compressed image signal as a target pixel, and forming a plurality of patterns of prediction taps composed of the target pixel used for predicting the original image signal and pixels in the vicinity of the target pixel ;
Predicting the original image signal from each of the plurality of pattern prediction taps and a predetermined prediction coefficient, and outputting a prediction value for each of the plurality of pattern prediction taps;
Calculating a prediction error of the prediction value for each of the plurality of patterns of prediction taps with respect to the original image signal
A pattern code corresponding to a prediction tap that obtains the minimum prediction error among the prediction taps of the plurality of patterns is added to the pixel value of the target pixel by replacing it with a part of the pixel value of the target pixel. An image decoding method for decoding encoded data including the obtained compressed image signal and the prediction coefficient ,
A separation step of separating the compressed image signal and the prediction coefficient from the encoded data;
The prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel, with one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, Forming using a pixel in the vicinity of the pixel of interest;
An image decoding method comprising: a prediction step of predicting the original image signal from the prediction tap formed by the forming step and the prediction coefficient and obtaining a predicted value thereof.
ことを特徴とする請求項31に記載の画像復号方法。Instead of the N bits of the LSB (Least Significant Bit) side of the pixel values of pixels constituting the compressed picture signal included in the encoded data, to claim 31, wherein the pattern code is located The image decoding method as described.
ことを特徴とする請求項31に記載の画像復号方法。The image decoding method according to claim 31 , wherein the prediction coefficient is a prediction coefficient that minimizes the prediction error .
前記注目画素を、所定のクラスに分類するクラス分類ステップを有し、
前記注目画素のクラスに対応する予測係数と、前記予測タップとから、前記予測値を求め、
前記予測係数は、前記符号化データを符号化するときに、前記クラスごとに求められたものである
ことを特徴とする請求項33に記載の画像復号方法。The prediction step includes
A classifying step of classifying the pixel of interest into a predetermined class;
From the prediction coefficient corresponding to the class of the target pixel and the prediction tap, the prediction value is obtained,
The image decoding method according to claim 33 , wherein the prediction coefficient is obtained for each of the classes when the encoded data is encoded .
ことを特徴とする請求項33に記載の画像復号方法。The image decoding method according to claim 33 , wherein the prediction coefficient is obtained for each of the plurality of patterns of prediction taps when the encoded data is encoded .
前記予測ステップは、前記注目画素の画素値に付加されている前記パターンコードに対応するパターンの前記予測タップと、その予測タップについての予測係数のうちの前記注目画素のクラスに対応する予測係数とから、前記予測値を求める
ことを特徴とする請求項34に記載の画像復号方法。The prediction coefficient is obtained for each of the classes for each of the plurality of pattern prediction taps when encoding the encoded data ,
The prediction step includes the prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel, and the prediction coefficient corresponding to the class of the target pixel among the prediction coefficients for the prediction tap. The image decoding method according to claim 34 , wherein the predicted value is obtained from:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36016597A JP3844031B2 (en) | 1996-12-26 | 1997-12-26 | Image coding apparatus and image coding method, and image decoding apparatus and image decoding method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8-347309 | 1996-12-26 | ||
JP34730996 | 1996-12-26 | ||
JP36016597A JP3844031B2 (en) | 1996-12-26 | 1997-12-26 | Image coding apparatus and image coding method, and image decoding apparatus and image decoding method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10243406A JPH10243406A (en) | 1998-09-11 |
JP3844031B2 true JP3844031B2 (en) | 2006-11-08 |
Family
ID=26578478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP36016597A Expired - Fee Related JP3844031B2 (en) | 1996-12-26 | 1997-12-26 | Image coding apparatus and image coding method, and image decoding apparatus and image decoding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3844031B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1037471B1 (en) | 1998-10-05 | 2012-02-08 | Sony Corporation | Image transform device and method and recording medium |
EP1176824B1 (en) | 2000-02-29 | 2010-04-07 | Sony Corporation | Data processing device and method, and recording medium and program |
JP2001320682A (en) * | 2000-02-29 | 2001-11-16 | Sony Corp | Data processing unit and data processing method, and recording medium and program |
JP4711099B2 (en) * | 2001-06-26 | 2011-06-29 | ソニー株式会社 | Transmission device and transmission method, transmission / reception device and transmission / reception method, program, and recording medium |
JP2005311629A (en) | 2004-04-20 | 2005-11-04 | Sony Corp | Coefficient data generating apparatus and generating method, processing apparatus and processing method for information signal, and program and medium for recording the same |
-
1997
- 1997-12-26 JP JP36016597A patent/JP3844031B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10243406A (en) | 1998-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3748088B2 (en) | Image processing apparatus and method, and learning apparatus and method | |
US5912708A (en) | Picture signal encoding device, picture signal encoding method, picture signal decoding device, picture signal decoding method, and recording medium | |
JP3912627B2 (en) | Image coding apparatus, image coding method, and transmission method | |
KR100504415B1 (en) | Image encoding apparatus, image encoding method, image decoding apparatus, image decoding method and recording medium | |
JP3915855B2 (en) | Image coding apparatus, image coding method, learning apparatus, and learning method | |
KR100537123B1 (en) | Picture signal coding device, picture signal coding method, picture signal decoding device, picture signal decoding method, and recording medium | |
US6160845A (en) | Picture encoding device, picture encoding method, picture decoding device, picture decoding method, and recording medium | |
JP3844031B2 (en) | Image coding apparatus and image coding method, and image decoding apparatus and image decoding method | |
KR100574732B1 (en) | Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium | |
JP3844030B2 (en) | Image signal encoding apparatus, image signal encoding method, image signal decoding apparatus, and image signal decoding method | |
JP3747970B2 (en) | Image encoding device, image encoding method, image decoding device, and image decoding method | |
JP3912558B2 (en) | Image encoding apparatus, image encoding method, and recording medium | |
JP4534951B2 (en) | Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium | |
JP4582416B2 (en) | Image coding apparatus and image coding method | |
JP3912628B2 (en) | Image encoding device, image encoding method, image encoding and decoding system, image encoding and decoding method, and recording medium | |
JP3912629B2 (en) | Image processing system, image encoding device, image encoding method, transmission method, and recording medium | |
JP4552263B2 (en) | Digital signal processing apparatus and method, and digital image signal processing apparatus and method | |
JP3952326B2 (en) | Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium | |
JP4518727B2 (en) | Image encoding apparatus and method, recording medium, and program | |
JP4566877B2 (en) | Image processing apparatus and method | |
JP4552264B2 (en) | Error correction apparatus and method | |
JP4807349B2 (en) | Learning apparatus and method | |
JP4496494B2 (en) | Image coding apparatus and image coding method | |
JP4487900B2 (en) | Image processing system | |
EP1298934A1 (en) | Apparatus and method for image coding and decoding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050927 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060808 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100825 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110825 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120825 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130825 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |