JP3844031B2 - Image coding apparatus and image coding method, and image decoding apparatus and image decoding method - Google Patents

Image coding apparatus and image coding method, and image decoding apparatus and image decoding method Download PDF

Info

Publication number
JP3844031B2
JP3844031B2 JP36016597A JP36016597A JP3844031B2 JP 3844031 B2 JP3844031 B2 JP 3844031B2 JP 36016597 A JP36016597 A JP 36016597A JP 36016597 A JP36016597 A JP 36016597A JP 3844031 B2 JP3844031 B2 JP 3844031B2
Authority
JP
Japan
Prior art keywords
prediction
pixel
value
image signal
target pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP36016597A
Other languages
Japanese (ja)
Other versions
JPH10243406A (en
Inventor
哲二郎 近藤
健治 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP36016597A priority Critical patent/JP3844031B2/en
Publication of JPH10243406A publication Critical patent/JPH10243406A/en
Application granted granted Critical
Publication of JP3844031B2 publication Critical patent/JP3844031B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Description

【0001】
【発明の属する技術分野】
本発明は、画像符号化装置および画像符号化方法、並びに、画像復号装置および画像復号方法に関する。特に、原画像とほぼ同一の復号画像が得られるように、画像を間引いて圧縮符号化する画像符号化装置および画像符号化方法、並びに、画像復号装置および画像復号方法に関する。
【0002】
【従来の技術】
例えば、標準解像度または低解像度の画像(以下、適宜、SD画像という)を、高解像度の画像(以下、適宜、HD画像という)に変換したり、また、画像を拡大したりする場合においては、いわゆる補間フィルタなどによって、不足している画素の画素値の補間(補償)が行われるようになされている。
【0003】
しかしながら、補間フィルタによって画素の補間を行っても、SD画像に含まれていない、HD画像の成分(高周波成分)を復元することはできないため、高解像度の画像を得ることは困難であった。
【0004】
そこで、本件出願人は、SD画像を、そこに含まれていない高周波成分をも含むHD画像に変換する画像変換装置(画像変換回路)を先に提案している。
【0005】
この画像変換装置においては、SD画像と、所定の予測係数との線形結合により、HD画像の画素の予測値を求める適応処理を行うことで、SD画像には含まれていない高周波成分が復元されるようになされている。
【0006】
即ち、例えば、いま、HD画像を構成する画素(以下、適宜、HD画素という)の画素値yの予測値E[y]を、幾つかのSD画素(SD画像を構成する画素)の画素値(以下、適宜、学習データという)x1,x2,・・・と、所定の予測係数w1,w2,・・・の線形結合により規定される線形1次結合モデルにより求めることを考える。この場合、予測値E[y]は、次式で表すことができる。
【0007】

Figure 0003844031
【0008】
そこで、一般化するために、予測係数wの集合でなる行列W、学習データの集合でなる行列X、および予測値E[y]の集合でなる行列Y’を、
【数1】
Figure 0003844031
で定義すると、次のような観測方程式が成立する。
【0009】
Figure 0003844031
【0010】
そして、この観測方程式に最小自乗法を適用して、HD画素の画素値yに近い予測値E[y]を求めることを考える。この場合、教師データとなるHD画素の真の画素値yの集合でなる行列Y、およびHD画素の画素値yに対する予測値E[y]の残差eの集合でなる行列Eを、
【数2】
Figure 0003844031
で定義すると、式(2)から、次のような残差方程式が成立する。
【0011】
Figure 0003844031
【0012】
この場合、HD画素の画素値yに近い予測値E[y]を求めるための予測係数wiは、自乗誤差
【数3】
Figure 0003844031
を最小にすることで求めることができる。
【0013】
従って、上述の自乗誤差を予測係数wiで微分したものが0になる場合、即ち、次式を満たす予測係数wiが、HD画素の画素値yに近い予測値E[y]を求めるため最適値ということになる。
【0014】
【数4】
Figure 0003844031
Figure 0003844031
【0015】
そこで、まず、式(3)を、予測係数wiで微分することにより、次式が成立する。
【0016】
【数5】
Figure 0003844031
Figure 0003844031
【0017】
式(4)および(5)より、式(6)が得られる。
【0018】
【数6】
Figure 0003844031
Figure 0003844031
【0019】
さらに、式(3)の残差方程式における学習データx、予測係数w、教師データy、および残差eの関係を考慮すると、式(6)から、次のような正規方程式を得ることができる。
【0020】
【数7】
Figure 0003844031
Figure 0003844031
【0021】
式(7)の正規方程式は、求めるべき予測係数wの数と同じ数だけたてることができ、従って、式(7)を解くことで(但し、式(7)を解くには、式(7)において、予測係数wにかかる係数で構成される行列が正則である必要がある)、最適な予測係数wを求めることができる。なお、式(7)を解くにあたっては、例えば、掃き出し法(Gauss-Jordanの消去法)などを適用することが可能である。
【0022】
以上のようにして、最適な予測係数wのセットを求め、さらに、その予測係数wのセットを用い、式(1)により、HD画素の画素値yに近い予測値E[y]を求めるのが適応処理である(但し、あらかじめ予測係数wのセットを求めておき、その予測係数wのセットから、予測値を求めるのも、適応処理に含まれるものとする)。
【0023】
なお、適応処理は、SD画像には含まれていない、HD画像に含まれる成分が再現される点で、補間処理とは異なる。即ち、適応処理では、式(1)だけを見る限りは、いわゆる補間フィルタを用いての補間処理と同一であるが、その補間フィルタのタップ係数に相当する予測係数wが、教師データyを用いて、いわば学習により求められるため、HD画像に含まれる成分を再現することができる。即ち、容易に、高解像度の画像を得ることができる。このことから、適応処理は、いわば画像の創造作用がある処理ということができる。
【0024】
図25は、画像の特徴(クラス)に基づいて以上のような適応処理により、SD画像をHD画像に変換する画像変換装置の構成例を示している。
【0025】
SD画像は、クラス分類回路101および遅延回路102に供給されるようになされており、クラス分類回路101では、SD画像を構成するSD画素が順次、注目画素とされ、その注目画素が、所定のクラスにクラス分類される。
【0026】
即ち、クラス分類回路101は、まず最初に、注目画素の周辺にあるSD画素を幾つか集めてブロックを構成し(以下、適宜、処理ブロックという)、その処理ブロックを構成する、例えばすべてのSD画素の画素値のパターンにあらかじめ割り当てられた値を、注目画素のクラスとして、係数ROM104のアドレス端子(AD)に供給する。
【0027】
具体的には、クラス分類回路101は、例えば、図26に点線の四角形で囲んで示すように、注目画素を中心とする5×5のSD画素(同図において○印で示す)でなる処理ブロックを、SD画像から抽出し、これらの25のSD画素の画素値のパターンに対応する値を、注目画素のクラスとして出力する。
【0028】
ここで、各SD画素の画素値を表すのに、例えば、8ビットなどの多くのビット数が割り当てられている場合、25のSD画素の画素値のパターン数は、(2825通りという莫大な数となり、その後の処理の迅速化が困難となる。
【0029】
そこで、クラス分類を行う前の前処理として、処理ブロックには、それを構成するSD画素のビット数を低減するための処理である、例えばADRC(Adaptiv Dynamic Range Coding)処理などが施される。
【0030】
即ち、ADRC処理では、まず、処理ブロックを構成する25のSD画素から、その画素値の最大のもの(以下、適宜、最大画素という)と最小のもの(以下、適宜、最小画素という)とが検出される。そして、最大画素の画素値MAXと最小画素の画素値MINとの差分DR(=MAX−MIN)が演算され、このDRを処理ブロックの局所的なダイナミックレンジとする。このダイナミックレンジDRに基づいて、処理ブロックを構成する各画素値が、元の割当ビット数より少ないKビットに再量子化される。つまり、処理ブロックを構成する各画素値から最小画素の画素値MINが減算され、各減算値が、DR/2Kで除算される。
【0031】
その結果、処理ブロックを構成する各画素値はKビットで表現されるようになる。従って、例えばK=1とした場合、25のSD画素の画素値のパターン数は、(2125通りになり、ADRC処理を行わない場合に比較して、パターン数を非常に少ないものとすることができる。なお、画素値を、このようにKビットにするADRC処理を、以下、適宜、KビットADRC処理という。
【0032】
係数ROM104は、あらかじめ学習が行われることにより求められた予測係数のセットを、クラスごとに記憶しており、クラス分類回路101からクラスが供給されると、そのクラスに対応するアドレスに記憶されている予測係数のセットを読み出し、予測演算回路105に供給する。
【0033】
一方、遅延回路102では、予測演算回路105に対して、係数ROM104から予測係数のセットが供給されるタイミングと、後述する予測タップ生成回路103から予測タップが供給されるタイミングとを一致させるために必要な時間だけ、SD画像が遅延され、予測タップ生成回路103に供給される。
【0034】
予測タップ生成回路103では、そこに供給されるSD画像から、予測演算回路105において所定のHD画素の予測値を求めるのに用いるSD画素が抽出され、これが予測タップとして、予測演算回路105に供給される。即ち、予測タップ生成回路103では、SD画像から、例えば、クラス分類回路101で抽出されたとの同一の処理ブロックが抽出され、その処理ブロックを構成するSD画素が、予測タップとして、予測演算回路105に供給される。
【0035】
予測演算回路105では、係数ROM104からの予測係数w,w2,・・・と、予測タップ生成回路103からの予測タップx1,x2,・・・とを用いて、式(1)に示した演算、即ち、適応処理が行われることにより、注目画素yの予測値E[y]が求められ、これが、HD画素の画素値として出力される。
【0036】
即ち、ここでは、例えば、図26において実線の四角形で囲む、注目画素を中心とする3×3のHD画素(同図において・点で示す)の予測値が、1つの予測タップから求められるようになされており、この場合、予測演算回路105では、この9個のHD画素について、式(1)の演算が行われる。従って、係数ROM104では、1のクラスに対応するアドレスに、9セットの予測係数のセットが記憶されている。
【0037】
以下同様の処理が、その他のSD画素を注目画素として行われ、これにより、SD画像がHD画像に変換される。
【0038】
次に、図27は、図25の係数ROM104に記憶させるクラス毎の予測係数のセットを算出する学習処理を行う学習装置の構成例を示している。
【0039】
学習における教師データyとなるべきHD画像が、間引き回路111および遅延回路114に供給されるようになされており、間引き回路111では、HD画像が、例えば、その画素数が間引かれることにより少なくされ、これによりSD画像とされる。このSD画像は、クラス分類回路112および予測タップ生成回路113に供給される。
【0040】
クラス分類回路112または予測タップ生成回路113では、図25のクラス分類回路101または予測タップ生成回路103における場合と同様の処理が行われ、これにより注目画素のクラスまたは予測タップがそれぞれ出力される。クラス分類回路112が出力するクラスは、予測タップメモリ115および教師データメモリ116のアドレス端子(AD)に供給され、予測タップ生成回路113が出力する予測タップは、予測タップメモリ115に供給される。
【0041】
予測タップメモリ115では、クラス分類回路112から供給されるクラスに対応するアドレスに、予測タップ生成回路113から供給される予測タップが記憶される。
【0042】
一方、遅延回路114では、注目画素に対応するクラスが、クラス分類回路112から教師データメモリ116に供給される時間だけ、HD画像が遅延され、そのうちの、予測タップに対して図26に示した位置関係にあるHD画素の画素値だけが、教師データとして、教師データメモリ116に供給される。
【0043】
そして、教師データメモリ116では、クラス分類回路112から供給されるクラスに対応するアドレスに、遅延回路114から供給される教師データが記憶される。
【0044】
以下同様の処理が、あらかじめ学習用に用意されたすべてのHD画像から得られるSD画像を構成するすべてのSD画素が注目画素とされるまで繰り返される。
【0045】
以上のようにして、予測タップメモリ115または教師データメモリ116の同一のアドレスには、図26において○印で示したSD画素または図26において・印で示したHD画素とそれぞれ同一の位置関係にあるSD画素またはHD画素が、学習データxまたは教師データyとして記憶される。
【0046】
なお、予測タップメモリ115と教師データメモリ116においては、同一アドレスに複数の情報を記憶することができるようになされており、これにより、同一アドレスには、同一のクラスに分類される複数の学習データxと教師データyを記憶することができるようになされている。
【0047】
その後、演算回路117は、予測タップメモリ115または教師データメモリ116から、同一アドレスに記憶されている学習データとしての予測タップまたは教師データとしてのHD画素の画素値を読み出し、それらを用いて、最小自乗法によって、予測値と教師データとの間の誤差を最小にする予測係数のセットを算出する。即ち、演算回路117では、クラス毎に、式(7)に示した正規方程式がたてられ、これを解くことによりクラス毎の予測係数のセットが求められる。
【0048】
以上のようにして、演算回路117で求められたクラス毎の予測係数のセットが、図25の係数ROM104における、そのクラスに対応するアドレスに記憶されている。
【0049】
なお、以上のような学習処理において、予測係数のセットを求めるのに必要な数の正規方程式が得られないクラスが生じる場合があるが、そのようなクラスについては、例えば、クラスを無視して正規方程式をたてて解くことにより得られる予測係数のセットなどが、いわばデフォルトの予測係数のセットとして用いられる。
【0050】
ところで、図25の画像変換装置によれば、HD画像の画素数を間引くなどして少なくすることにより得られるSD画像から、上述したように、そこに含まれていない高周波成分をも含むHD画像を得ることができるが、元のHD画像に近づけるのには限界がある。その理由として、HD画像の画素数を間引いただけのSD画像の画素(SD画素)の画素値が、元のHD画像を復元するのに、最適ではないことが考えられる。
【0051】
そこで、本件出願人は、元のHD画像により近い画質の復号画像を得ることができるようにするため、適応処理を利用した画像の圧縮(符号化)について先に提案している(例えば、特願平8−206552号など)。
【0052】
即ち、図28は、適応処理によって、元のHD画像により近い復号画像を得ることができるように、そのHD画像を、最適なSD画像に圧縮(符号化)する画像符号化装置の構成例を示している。
【0053】
符号化対象のHD画像は、間引き部121および誤差算出部43に供給される。
【0054】
間引き部121では、HD画像が、例えば、単純に間引かれることによりSD画像とされ、補正部41に供給される。補正部41は、間引き部121からSD画像を受信すると、最初は、そのSD画像を、そのままローカルデコード部122に出力する。ローカルデコード部122は、例えば、図25に示した画像変換装置と同様に構成され、補正部41からのSD画像を用いて、上述したような適応処理を行うことにより、HD画素の予測値を算出し、誤差算出部43に出力する。誤差算出部43は、ローカルデコード部122からのHD画素の予測値の、元のHD画素に対する予測誤差(誤差情報)を算出し、制御部44に出力する。制御部44は、誤差算出部43からの予測誤差に対応して、補正部41を制御する。
【0055】
即ち、これにより、補正部41は、間引き部121からのSD画像の画素値を、制御部44からの制御に従って補正し、ローカルデコード部122に出力する。ローカルデコード部122では、補正部41から供給される補正後のSD画像を用いて、再び、HD画像の予測値が求められる。
【0056】
以下、例えば、誤差算出部43が出力する予測誤差が、所定値以下となるまで、同様の処理が繰り返される。
【0057】
そして、誤差算出部43が出力する予測誤差が、所定値以下となると、制御部44は、補正部41を制御し、これにより、予測誤差が所定値以下となったときの、補正後のSD画像を、HD画像の最適な符号化結果として出力させる。
【0058】
従って、この補正後のSD画像によれば、それに適応処理を施すことにより、予測誤差が所定値以下のHD画像を得ることができる。
【0059】
ここで、以上のようにして、図28の画像符号化装置から出力されるSD画像は、元のHD画像により近い復号画像を得るのに最適なものということができるから、この画像符号化装置の補正部41、ローカルデコード部122、誤差算出部43、および制御部44で構成される系が行う処理は、最適化処理ということができる。
【0060】
【発明が解決しようとする課題】
ところで、適応処理は、いわば、HD画素の周辺のSD画素で予測タップを構成し、その予測タップを用いて、HD画素の予測値を求めるものであるが、予測タップとして用いられるSD画素は、画像とは無関係に選択されるようになされていた。
【0061】
即ち、図25の画像変換装置の予測タップ生成回路103や、この画像変換装置と同様に構成される図28のローカルデコード部122では、常に、一定パターンの予測タップが生成(形成)されるようになされていた。
【0062】
しかしながら、画像は、局所的に特性が異なる場合が多く、従って、特性が異なれば、それに対応した予測タップを用いて適応処理をした方が、元のHD画像の画質により近い復号画像を得ることができると考えられる。
【0063】
本発明は、このような状況に鑑みてなされたものであり、より画質の向上した復号画像を得ることができるようにするものである。
【0064】
【課題を解決するための手段】
請求項1に記載の画像符号化装置は、原画像信号の画素数より少ない画素数の圧縮画像信号を発生する圧縮手段と、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成する第1の形成手段と、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力する第1の予測手段と、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出する第1の算出手段と、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加する付加手段とを備えることを特徴とする。
【0065】
請求項13に記載の画像符号化方法は、原画像信号の画素数より少ない画素数の圧縮画像信号を発生する圧縮ステップと、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成する第1の形成ステップと、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力する第1の予測ステップと、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出する第1の算出ステップと、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加する付加ステップとを備えることを特徴とする。
【0066】
請求項25に記載の画像復号装置は、符号化データから、圧縮画像信号と予測係数とを分離する分離手段と、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップを、注目画素の近傍の画素を用いて形成する形成手段と、形成手段により形成された予測タップと、予測係数とから、原画像信号を予測し、その予測値を求める予測手段とを備えることを特徴とする。
【0067】
請求項31に記載の画像復号方法は、符号化データから、圧縮画像信号と予測係数とを分離する分離ステップと、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップを、注目画素の近傍の画素を用いて形成する形成ステップと、形成ステップにより形成された予測タップと、予測係数とから、原画像信号を予測し、その予測値を求める予測ステップとを備えることを特徴とする。
【0069】
請求項1に記載の画像符号化装置においては、圧縮手段は、原画像信号の画素数より少ない画素数の圧縮画像信号を発生し、第1の形成手段は、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成し、第1の予測手段は、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力するようになされている。第1の算出手段は、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出し、付加手段は、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加するようになされている。
【0070】
請求項13に記載の画像符号化方法においては、原画像信号の画素数より少ない画素数の圧縮画像信号を発生し、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成し、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力し、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出し、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加するようになされている。
【0071】
請求項25に記載の画像復号装置においては、分離手段は、符号化データから、圧縮画像信号と予測係数とを分離し、形成手段は、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップを、注目画素の近傍の画素を用いて形成し、予測手段は、形成手段により形成された予測タップと、予測係数とから、原画像信号を予測し、その予測値を求めるようになされている。
【0072】
請求項31に記載の画像復号方法においては、符号化データから、圧縮画像信号と予測係数とを分離し、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップを、注目画素の近傍の画素を用いて形成し、その予測タップと、予測係数とから、原画像信号を予測し、その予測値を求めるようになされている。
【0074】
【発明の実施の形態】
以下に、本発明の実施の形態を説明するが、その前に、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施の形態(但し、一例)を付加して、本発明の特徴を記述すると、次のようになる。
【0075】
即ち、請求項1に記載の画像符号化装置は、画像信号を符号化する画像符号化装置であって、原画像信号の画素数より少ない画素数の圧縮画像信号を発生する圧縮手段(例えば、図5に示す間引き回路31など)と、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成する第1の形成手段(例えば、図5に示す予測タップ生成回路32や、図22に示す予測タップ生成回路61など)と、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力する第1の予測手段(例えば、図5に示すクラス分類適応処理回路33や、図22に示すクラス分類適応処理回路62など)と、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出する第1の算出手段(例えば、図5に示す予測誤差算出回路34や、図22に示す予測誤差算出回路63など)と、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加する付加手段(例えば、図5に示すタップパターンコード付加回路36や、図22に示すタップパターンコード変更回路64など)とを備えることを特徴とする。
【0076】
請求項3に記載の画像符号化装置は、第1の予測手段が、予測誤差が最小となる予測係数を求める演算手段(例えば、図11に示す演算回路87など)を有することを特徴とする。
【0077】
請求項4に記載の画像符号化装置は、第1の予測手段が、注目画素を、所定のクラスに分類するクラス分類手段(例えば、図11に示すクラス分類回路82など)をさらに有し、注目画素のクラスに対応する予測係数と、予測タップとから、予測値を求め、演算手段が、原画像信号および圧縮画像信号に基づいて、予測係数を、クラスごとに求めることを特徴とする。
【0078】
請求項7に記載の画像符号化装置は、変換後の信号と予測係数により予測される予測値の、原画像信号に対する予測誤差が最小となる信号に圧縮画像信号を変換する最適化手段(例えば、図3に示す最適化部23など)をさらに備えることを特徴とする。
【0079】
請求項8に記載の画像符号化装置は、最適化手段が、注目画素の画素値に付加されたパターンコードに対応するパターンの予測タップを形成する第2の形成手段(例えば、図16に示す予測タップ生成回路42Aなど)と、第2の形成手段により形成された予測タップと、予測係数とから、原画像信号を予測し、その予測値を出力する第2の予測手段(例えば、図16に示すクラス分類適応処理回路42Bなど)と、第2の予測手段により求められた予測値の、原画像信号に対する予測誤差を算出する第2の算出手段(例えば、図16に示す誤差算出回路43など)と、第2の算出手段により算出された予測誤差より予測誤差が小さくなるように画素値を所定の値だけ増加または減少させることにより、注目画素の画素値を補正する補正手段(例えば、図16に示す補正部41など)とを有することを特徴とする。
【0080】
請求項10に記載の画像符号化装置は、最適化処理を行うごとに得られる圧縮画像信号と、原画像信号とに基づいて、第2の予測手段により求められる予測値の、原画像信号に対する予測誤差が最小となる係数に予測係数を修正する修正手段(例えば、図3に示す適応処理部24など)をさらに備え、第1および第2の予測手段が、修正手段により修正され予測係数を用いて、予測値を求めることを特徴とする。
【0081】
請求項11に記載の画像符号化装置は、最適化手段が出力する圧縮画像信号と、修正手段が出力する予測係数とを出力する出力手段(例えば、図3に示す多重化部27など)をさらに備えることを特徴とする。
【0082】
請求項12に記載の画像符号化装置は、パターンコードが付加された圧縮画像信号と、予測係数とを出力する出力手段(例えば、図3に示す多重化部27など)をさらに備えることを特徴とする。
【0083】
請求項25に記載の画像復号装置は、原画像信号の画素数より少ない画素数の圧縮画像信号を発生し、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップを形成し、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号を予測し、複数パターンの予測タップそれぞれに対する予測値を出力し、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差を算出し、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードを、注目画素の画素値の一部と置き換えることにより注目画素の画素値に付加することにより得られる圧縮画像信号および予測係数を含む符号化データを復号する画像復号装置であって、符号化データから、圧縮画像信号と予測係数とを分離する分離手段(例えば、図24に示す分離部72など)と、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップを、注目画素の近傍の画素を用いて形成する形成手段(例えば、図24に示す予測タップ生成回路73など)と、形成手段により形成された予測タップと、予測係数とから、原画像信号を予測し、その予測値を求める予測手段(例えば、図24に示すクラス分類適応処理回路74など)とを備えることを特徴とする。
【0084】
請求項28に記載の画像復号装置は、予測手段が、注目画素を、所定のクラスに分類するクラス分類手段(例えば、図17に示すクラス分類回路91など)を有し、注目画素のクラスに対応する予測係数と、予測タップとから、予測値を求め、予測係数が、符号化データを符号化するときに、原画像信号および圧縮画像信号に基づいて、クラスごとに求められたものであることを特徴とする。
【0086】
なお、勿論この記載は、各手段を上記したものに限定することを意味するものではない。
【0087】
図1は、本発明を適用した画像処理装置の一実施の形態の構成を示している。送信装置1には、ディジタル化されたHD画像の画像データが供給されるようになされている。送信装置1は、入力された画像データを間引くこと(その画素数を少なくすること)により圧縮、符号化し、その結果得られるSD画像の画像データを、HD画像の符号化データとして、例えば、光ディスクや、光磁気ディスク、磁気テープその他でなる記録媒体2に記録し、または、例えば、地上波や、衛星回線、電話回線、CATV網、その他の伝送路3を介して伝送する。
【0088】
受信装置4では、記録媒体2に記録された符号化データが再生され、または、伝送路3を介して伝送されてくる符号化データが受信され、その符号化データを伸張、復号し、その結果得られるHD画像の復号画像を、図示せぬディスプレイに供給して表示させる。
【0089】
なお、以上のような画像処理装置は、例えば、光ディスク装置や、光磁気ディスク装置、磁気テープ装置その他の、画像の記録/再生を行う装置や、あるいはまた、例えば、テレビ電話装置や、テレビジョン放送システム、CATVシステムその他の、画像の伝送を行う装置などに適用される。また、後述するように、送信装置1が出力する符号化データのデータ量が少ないため、図1の画像処理装置は、伝送レートの低い、例えば、携帯電話機その他の、移動に便利な携帯端末などにも適用可能である。
【0090】
図2は、送信装置1の構成例を示している。
【0091】
I/F(InterFace)11は、外部から供給されるHD画像の画像データの受信処理と、送信機/記録装置16に対しての、符号化データの送信処理を行うようになされている。ROM(Read Only Memory)12は、IPL(Initial Program Loading)用のプログラムその他を記憶している。RAM(Random Access Memory)13は、外部記憶装置15に記録されているシステムプログラム(OS(Operating System))やアプリケーションプログラムを記憶したり、また、CPU(Central Processing Unit)14の動作上必要なデータを記憶するようになされている。CPU14は、ROM12に記憶されているIPLプログラムにしたがい、外部記憶装置15からシステムプログラムおよびアプリケーションプログラムを、RAM13に展開し、そのシステムプログラムの制御の下、アプリケーションプログラムを実行することで、I/F11から供給される画像データについての、後述するような符号化処理を行うようになされている。外部記憶装置15は、例えば、磁気ディスク装置などでなり、上述したように、CPU14が実行するシステムプログラムやアプリケーションプログラムを記憶している他、CPU14の動作上必要なデータも記憶している。送信機/記録装置16は、I/F11から供給される符号化データを、記録媒体2に記録し、または伝送路3を介して伝送するようになされている。
【0092】
なお、I/F11,ROM12,RAM13,CPU14、および外部記憶装置15は、相互にバスを介して接続されている。また、図2において、送信装置1はCPUを用いた構成であるが、ハードロジックで構成することも可能である。
【0093】
以上のように構成される送信装置1においては、I/F11にHD画像の画像データが供給されると、その画像データは、CPU14に供給される。CPU14は、画像データを符号化し、その結果得られる符号化データとしてのSD画像を、I/F11に供給する。I/F11は、符号化データを受信すると、それを、送信機/記録装置16に供給する。送信機/記録装置16では、I/F11からの符号化データが、記録媒体2に記録され、または伝送路3を介して伝送される。
【0094】
図3は、図2の送信装置1の、送信機/記録装置16を除く部分の機能的なブロック図である。
【0095】
符号化すべき画像データとしてのHD画像は、前処理部21、最適化部23、適応処理部24、および予測タップパターン判定部26に供給されるようになされている。
【0096】
前処理部21は、そこに供給されるHD画像に対して、後述するような前処理を、例えば、1フレーム(または1フィールド)単位で施し、その結果得られるSD画像または複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを、スイッチ22または25の端子aにそれぞれ供給するようになされている。スイッチ22の端子aまたはbには、前処理部21または予測タップパターン判定部26が出力するSD画像が、それぞれ供給されるようになされている。スイッチ22は、前処理部21において、あるHD画像に前処理が施され、これによりSD画像が出力されるときだけ、端子aを選択し、それ以外のときは、端子bを選択し、前処理部21または予測タップパターン判定部26が出力するSD画像を、最適化部23に供給するようになされている。
【0097】
最適化部23は、スイッチ22から供給されるSD画像に対して、前述の図28で説明した最適化処理を施し、その結果得られる最適SD画像を、適応処理部25、予測タップパターン判定部26、および多重化化部27に供給するようになされている。適応処理部24は、最適化部23からの最適SD画像と、元のHD画像とを用いて適応処理を行うことによって、最適SD画像の画素値との線形結合により求められるHD画像の予測値の予測誤差を小さくするクラス毎の予測係数wのセットを複数パターンの予測タップ毎に算出し、スイッチ25の端子bに出力するようになされている。
【0098】
スイッチ25は、前処理部21において、あるHD画像に前処理が施され、これにより複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが出力されるときだけ、端子aを選択し、それ以外のときは、端子bを選択し、前処理部21または適応処理部24が出力する複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを、最適化部23、予測タップパターン判定部26、および多重化部27に供給するようになされている。
【0099】
予測タップパターン判定部26は、最適化部23から供給される最適SD画像から、複数パターンの予測タップを形成し、その複数パターンの予測タップそれぞれを用いて適応処理を行うことで、複数のHD画像の予測値を求めるようになされている。さらに、予測タップパターン判定部26は、複数パターンの予測タップのうち、複数のHD画像の予測値の予測誤差を最小にするものを判定し、その判定結果に対応して、最適化部23からの最適SD画像の画素値に、後述するパターンコードを付加して、スイッチ22の端子bに供給するようになされている。
【0100】
多重化部27は、所定の場合に、最適化部23から供給される最適SD画像と、スイッチ25を介して供給される複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットとを多重化し、その多重化結果を、符号化データとして、送信機/記録装置16(図2)に出力するようになされている。
【0101】
次に、図4のフローチャートを参照して、その動作について説明する。
【0102】
符号化すべきHD画像が、前処理部21、最適化部23、適応処理部24、および予測タップパターン判定部26に供給されると、前処理部21では、ステップS1において、HD画像に前処理が施される。
【0103】
即ち、前処理部21は、HD画像の画素数を少なくして圧縮することによりSD画像を構成し、そのSD画像を構成するSD画素それぞれを順次注目画素として、各注目画素に対して、複数パターンの予測タップを形成する。さらに、前処理部21は、その複数パターンの予測タップそれぞれについて、式(7)に示した正規方程式をたてて解くことにより、クラス毎の予測係数wのセットを求める。そして、前処理部21は、複数パターンの予測タップと、それぞれについて求めたクラス毎の予測係数wのセットの所定のクラスの予測係数のセットとを用いて、式(1)に示した線形1次式を計算することにより、複数パターンの予測タップそれぞれから得られる複数のHD画像の予測値を求める。さらに、前処理部21は、複数パターンの予測タップのうち、複数のHD画像の予測値の予測誤差を最も小さくするものを検出し、その予測タップのパターンにあらかじめ対応付けられている、例えば、2ビットのコードであるタップパターンコードを、注目画素となっているSD画素に付加して出力する。
【0104】
以上のようにして、タップパターンコードが付加されたSD画像は、スイッチ22の端子aに、また、正規方程式を解くことにより得られた複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットは、スイッチ25の端子aに、それぞれ出力される。
【0105】
スイッチ22および25は、上述したように、前処理部21からSD画像および複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが出力されるタイミングでは、いずれも端子aを選択しており、従って、前処理部21が出力するSD画像は、スイッチ22を介して、最適化部23に供給され、また、前処理部21が出力する複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットは、スイッチ25を介して、最適化部23および予測タップパターン判定部26に出力される。
【0106】
最適化部23は、SD画像および複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを受信すると、ステップS2において、それらを用いて最適化処理を行う。即ち、最適化部23は、SD画像および複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを用いて適応処理を行い、その結果得られるHD画像の予測値の予測誤差が小さくなるように、SD画像の画素値を補正する。そして、その結果得られる最適SD画像を、適応処理部24および予測タップパターン判定部26に供給する。
【0107】
適応処理部24は、最適化部23から最適SD画像を受信すると、ステップS3において、適応処理を行うことにより、最適SD画像を用いて得られるHD画像の予測値の予測誤差を小さくする複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを算出する。即ち、適応処理部24は、最適SD画像を構成するSD画素それぞれを順次注目画素として、各注目画素に対して予測タップを形成する。なお、このとき、予測タップは、注目画素に付加されているタップパターンコードに対応するパターンのものが形成される。そして、適応処理部24は、複数パターンの予測タップ毎に、予測タップから正規方程式をたて、それを解くことにより、複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを求める。この複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットは、スイッチ25の端子bに供給される。
【0108】
以上の処理後、ステップS4に進み、スイッチ22および25が、いずれも、端子aからbに切り換えられ、これにより、適応処理部24において求められた複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが、スイッチ25を介して、最適化部23および予測タップパターン判定部26に供給されるようになる。
【0109】
そして、予測タップパターン判定部26は、最適化部23から最適SD画像を受信し、さらに、適応処理部24から複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを受信すると、ステップS5において、その最適SD画像を構成する各SD画素を注目画素として形成される予測タップの最適なパターンが決定される。
【0110】
即ち、予測タップパターン判定部26は、最適SD画像を構成するSD画素それぞれを順次注目画素として、各注目画素に対して、複数パターンの予測タップを形成する。さらに、予測タップパターン判定部26は、その複数パターンの予測タップそれぞれについて、適応処理部24からのその予測タップに対応するクラス毎の予測係数wのセットのうち、所定のクラスの予測係数のセットを用いて、式(1)に示した線形1次式を計算することにより、複数パターンの予測タップそれぞれから得られる複数のHD画像の予測値を求める。そして、予測タップパターン判定部26は、複数パターンの予測タップそれぞれを用いて得られる複数のHD画像の予測値の予測誤差のうちの最も小さいものに対応するパターンの予測タップを検出し、その予測タップに対応するタップパターンコードに、注目画素となっているSD画素に既に付加されているタップパターンコードを変更する。即ち、いまの場合、SD画素には、既にタップパターンコードが付加されているので、それに代えて、予測誤差を最も小さくする予測タップのタップパターンコードが付加される。
【0111】
以上のようにして、タップパターンコードが変更されたSD画像は、スイッチ22の端子bに出力される。
【0112】
スイッチ22は、ステップS4で切り換えられ、端子bを選択しているので、予測タップパターン判定部26が出力するSD画像は、スイッチ22を介して、最適化部23に供給される。最適化部23では、ステップS6において、ステップS2における場合と同様に、最適化処理が行われ、これにより、最適SD画像が出力される。なお、この場合、最適化部23では、ステップS2で説明したように適応処理が行われるが、この適応処理は、スイッチ25を介して、適応処理部24から供給される複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを用いて行われる。
【0113】
最適化部23から出力される最適SD画像は、適応処理部24および予測タップパターン判定部26に供給され、適応処理部24では、ステップS7において、ステップS3における場合と同様に、最適化部23が出力する最適SD画像を用いて適応処理が行われることにより、複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが求められ、スイッチ25を介して、最適化部23および予測タップパターン判定部26に出力される。
【0114】
その後、ステップS8に進み、ステップS5乃至S8の処理を所定の規定回数だけ行ったかどうかが判定される。ステップS8において、ステップS5乃至S8の処理を、所定の規定回数だけ、まだ行っていないと判定された場合、ステップS5に戻り、上述の処理を繰り返す。また、ステップS8において、ステップS5乃至S8の処理を、所定の規定回数だけ行ったと判定された場合、ステップS9に進み、多重化部27は、前回のステップS6の処理において、最適化部23が出力した最適SD画像と、そのとき用いられた複数パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットとを多重化し、符号化データとして出力して、処理を終了する。
【0115】
以上の処理が、例えば、1フレーム単位などで繰り返される。
【0116】
なお、上述の場合、ステップS8において、ステップS5乃至S8の処理を所定の規定回数だけ行ったかどうかを判定するようにしたが、その他、ステップS8では、例えば、その時点で最適化部23から出力された最適SD画像を用いて適応処理を行うことにより得られるHD画像の予測値の予測誤差の、1フレーム分の絶対値和などが、所定の閾値以下であるかどうかを判定し、閾値以下である場合には、ステップS9に進み、閾値以下でない場合には、ステップS5に戻るようにすることも可能である。即ち、ステップS5乃至S8の処理は、最適SD画像を用いて適応処理を行うことにより得られるHD画像の予測値の予測誤差の、1フレーム分の絶対値和が、所定の閾値以下となるまで繰り返すようにすることが可能である。
【0117】
次に、図5は、図3の前処理部21の構成例を示している。
【0118】
符号化すべきHD画像は、間引き回路31、クラス分類適応処理回路33、および予測誤差算出回路34に供給されるようになされている。
【0119】
間引き回路31は、HD画像の画素数を、例えば、間引くことにより少なくし、SD画像を構成して、予測タップ生成回路32およびタップパターンコード付加回路36に供給するようになされている。即ち、間引き回路31は、例えば、HD画像を、横×縦が3×3画素の9画素でなる正方形状のブロックに分割し、各ブロックの9画素の平均値を、その中心の画素の画素値として、SD画像を構成するようになされている。これにより、間引き回路31では、例えば、図6に・印で示すHD画素からなるHD画像から、同図に○印で示すSD画素からなるSD画像が構成される。
【0120】
なお、間引き回路31には、その他、例えば、上述のブロックの中心の画素だけを抽出させて、SD画像を構成させるようにすることなども可能である。
【0121】
予測タップ生成回路32は、間引き回路31からのSD画像を構成する各SD画素(図6において、○印で示した部分)を、順次注目画素として、各注目画素について、複数パターンの予測タップを構成するようになされている。即ち、本実施の形態では、例えば、図7乃至図10にそれぞれ示すように、注目画素を中心とする3×3画素、5×3画素、3×5画素、または7×5画素の4パターンの予測タップが形成されるようになされている。これらの4パターンの予測タップは、クラス分類適応処理回路33に供給されるようになされている。
【0122】
クラス分類適応処理回路33は、予測タップ生成回路32から供給される4パターンの予測タップそれぞれについて、クラス分類を行い、さらに、各クラスについて、HD画像を用いて式(7)に示した正規方程式をたてて解くことにより、4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを求めるようになされている。また、クラス分類適応処理回路33は、求めた4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットのうち、所定のクラスの予測係数wのそれぞれと、4パターンの予測タップそれぞれとから、式(1)に示した線形1次式を演算することにより、4パターンの予測タップそれぞれから得られる複数のHD画像の予測値を求め、予測誤差算出回路34に出力するようにもなされている。
【0123】
なお、クラス分類適応処理回路33において、4パターンの予測タップそれぞれについて求められたクラス毎の予測係数wのセットは、メモリ35に供給されるようになされている。
【0124】
また、本実施の形態では、クラス分類適応処理回路33において、4パターンの予測タップのそれぞれについて、正規方程式は、予測タップのパターンとは無関係に、例えば、図6に点線で囲んで示すように、注目画素となっているSD画素を中心とする3×3のHD画素の予測値を求めるようにたてられるようになされている。従って、クラス分類適応処理回路33では、3×3のHD画素の予測値を生成するための4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットが求められる。このクラス分類適応処理回路33の詳細な構成については後述する。
【0125】
予測誤差算出回路34は、各注目画素について、4パターンの予測タップそれぞれから得られたHD画像の予測値の、元のHD画像の画素値に対する予測誤差を求めるようになされている。つまり、4パターンの予測タップのそれぞれについて、例えば、HD画素の9画素の予測値と元のHD画像の9画素の画素値との差分の自乗和が演算される。そして、予測誤差算出回路34は、4パターンの予測タップのうち、予測誤差(差分の自乗和)が最も小さいものを検出する。さらに、予測誤差算出回路34は、予測誤差が最も小さい予測タップのパターンに対応する2ビットのタップパターンコードを、メモリ35およびタップパターンコード付加回路36に出力するようになされている。
【0126】
メモリ35は、クラス分類適応処理回路33から供給される、4パターンの予測タップそれぞれについて求められたクラス毎の予測係数wのセットを一時記憶するようになされている。そして、メモリ35は、例えば、1フレーム(または1フィールド)のHD画像の処理が終了する(つまり、すべてのSD画素にタップパターンコードが付加される)と、4パターンの予測タップのそれぞれについて求められたクラス毎の予測係数wのセットを読み出し、スイッチ25の端子aに出力するようになされている。
【0127】
タップパターンコード付加回路36は、そこに供給されるSD画像に対して、予測誤差算出回路34から供給されるタップパターンコードを付加するようになされている。即ち、タップパターンコード付加回路36は、注目画素となっているSD画素の画素値(例えば、8ビットなどで構成される)のLSB(Least Significant Bit)側の2ビットを削除し、そこに、2ビットのタップパターンコードを配置するようになされている。タップパターンコード付加回路36においてタップパターンコードの付加されたSD画像は、スイッチ22の端子aに出力されるようになされている。
【0128】
ここで、クラス分類適応処理回路33の構成について説明する。クラス分類適応処理回路33は、4パターンの予測タップのそれぞれに対して処理を施す、クラス分類適応処理回路(予測係数、予測値算出)を有している。すなわち、クラス分類適応処理回路33は、4パターンの予測タップそれぞれのための独立した4つのクラス分類適応処理回路(予測係数、予測値算出)を有している。図11及び図12は、そのうちの1つのクラス分類適応処理回路(予測係数、予測値算出)を示している。なお、4つのクラス分類適応処理回路(予測係数、予測値算出)は、異なる4つの予測タップが供給される他は、同様の構成であるので、1つのクラス分類適応処理回路(予測係数、予測値算出)を説明して、その他は省略する。
【0129】
図11及び図12に示されるクラス分類適応処理回路(予測係数、予測値算出)は、クラス分類回路82、遅延回路84、予測タップメモリ85、教師データメモリ86、演算回路87及び遅延回路88(図11)、並びにクラス分類回路91、係数RAM94及び予測演算回路95(図12)から構成されている。
【0130】
図11に示されるクラス分類適応処理回路(予測係数、予測値算出)の一部を構成する、遅延回路88を除く、クラス分類回路82、遅延回路84、予測タップメモリ85、教師データメモリ86、または演算回路87は、図27に示される学習装置のクラス分類回路112、遅延回路114、予測タップメモリ115、教師データメモリ116、または演算回路117と、それぞれ同様に構成されている。ただし、予測タップが予測タップ生成回路32から供給されるため、図27に示される予測タップ生成回路113の代わりに遅延回路88が設けられており、予測タップ生成回路32からの予測タップは遅延回路88に供給されるようになされている。そして、遅延回路88では、遅延回路84と同様に、注目画素に対するクラスが、クラス分類回路82から予測タップメモリ85に供給される時間だけ、予測タップが遅延され、予測タップメモリ85に供給されて記憶されるようになされている。
【0131】
また、図12に示されるクラス分類適応処理回路(予測係数、予測値算出)の他の一部を構成する、係数RAM94を除くクラス分類回路91または予測演算回路95は、図25に示されるクラス分類回路101または予測演算回路105と、それぞれ同様に構成されている。係数RAM94は、図11の演算回路87が出力するクラス毎の予測係数のセットを記憶するようになされている。
【0132】
以上のように構成されるクラス分類適応処理回路(予測係数、予測値算出)では、1フレームのHD画素に対するデータが、図27における場合と、ほぼ同様にして、予測タップメモリ85及び教師データメモリ86に記憶され、クラス毎の予測係数のセットが生成される。この生成されたクラス毎の予測係数のセットが、図12の係数RAM94に供給されて記憶されるとともに、図5の前処理部21のメモリ35に供給されて記憶される。なお、上述したように、4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットが独立の回路で生成されるため、4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットが図12の係数RAM94に供給されて記憶されるとともに、図5の前処理部21のメモリ35に供給されて記憶される。
【0133】
図12に示されるクラス分類適応処理回路(予測係数、予測値算出)の一部を構成するクラス分類回路91、係数RAM94及び予測演算回路95では、係数RAM94にクラス毎の予測係数のセットが記憶されると、図25の画像変換装置のクラス分類回路101、係数RAM104、または予測演算回路105と、それぞれ同一の処理が行われ、これによりHD画像の予測値が求められる。即ち、4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットが図12の係数RAM94に記憶されると、クラス分類回路91において、クラス分類が行われ、クラス情報が係数RAM94に供給される。係数RAM94は、供給されたクラス情報に対応する予測係数のセットを出力して、予測演算回路95に供給する。予測演算回路95は、供給された予測タップと予測係数のセットとから式(1)に示した線形一次式を演算することにより、複数のHD画像の予測値を求める。
【0134】
なお、クラス分類回路82とクラス分類回路91は、同一の構成であるため、いずれか一方を設けるだけでもよい。
【0135】
次に、図13のフローチャートを参照して、前処理部21の処理について説明する。
【0136】
前処理部21に、符号化すべきHD画像が入力されると、そのHD画像は、間引き回路31、クラス分類適応処理回路33、および予測誤差算出回路34に供給される。間引き回路31は、HD画像を受信すると、ステップS11において、その画素数を間引き、SD画像を構成する。
【0137】
即ち、ステップS11では、図14のフローチャートに示すように、まず最初に、ステップS21において、HD画像が、例えば、3×3画素のHD画像のブロックに分割され、ステップS22に進む。
【0138】
なお、本実施の形態において、HD画像は、例えば、輝度信号Yと、色差信号U,Vとから構成され、ステップS21では、輝度信号のブロックと色差信号のブロックとが構成されるようになされている。
【0139】
ステップS22では、いずれかのブロックが注目ブロックとされ、その注目ブロックを構成する3×3のHD画素の画素値の平均値が計算される。さらに、ステップS22では、その平均値が、注目ブロックの中心の画素(SD画素)の画素値とされ、ステップS23に進む。
【0140】
ステップS23では、注目ブロックが輝度信号のブロックであるかどうかが判定される。ステップS23において、注目ブロックが輝度信号のブロックであると判定された場合、ステップS24に進み、SD画素としての注目ブロックの中心の画素の画素値(ここでは、輝度信号)のLSB側の2ビットが、タップパターンコードを付加するために、例えば0にクリアされ、ステップS25に進む。また、ステップS23において、注目ブロックが輝度信号のブロックでないと判定された場合、即ち、注目ブロックが色差信号のブロックである場合、ステップS24をスキップして、ステップS25に進む。
【0141】
ここで、本実施の形態では、輝度信号についてのみ、複数パターンの予測タップが用意されており、色差信号については、固定パターンの予測タップが用いられるようになされている。従って、タップパターンコードが付加されるのは、輝度信号についてのみで、色差信号については、タップパターンコードは付加されないため、そのLSB側の2ビットをクリアすることは行われないようになされている。
【0142】
ステップS25では、ステップS21で構成されたブロックすべてを、注目ブロックとして処理したかどうかが判定され、まだ、すべてのブロックを、注目ブロックとして処理していないと判定された場合、ステップS22に戻り、まだ注目ブロックとしていないブロックを、新たに注目ブロックとして、同様の処理を繰り返す。また、ステップS25において、すべてのブロックを、注目ブロックとして処理したと判定された場合、即ち、SD画像が構成された場合、リターンする。
【0143】
図13に戻り、ステップS11において、以上のようにして構成されたSD画像は、間引き回路31から予測タップ生成回路32およびタップパターンコード付加回路36に供給される。予測タップ生成回路32は、間引き回路31からSD画像を受信すると、ステップS12において、それを構成するSD画素を、順次注目画素として、各注目画素について、図7乃至図10に示した4パターンの予測タップを形成(生成)し、クラス分類適応処理回路33に供給する。
【0144】
なお、上述したように、4パターンの予測タップが形成されるのは輝度信号についてのみで、色差信号については、例えば、図10に示したような、7×5画素の予測タップだけが、常時形成される。
【0145】
クラス分類適応処理回路33は、ステップS13において、まず、予測タップ生成回路32から供給される4パターンの予測タップ(輝度信号の場合)それぞれについて、図11および図12に示したように構成される、それぞれのクラス分類適応処理回路(予測係数、予測値算出)でクラス分類を行う。
【0146】
ここで、本実施の形態では、クラス分類回路82および91(図11および図12)において、4パターンの予測タップそれぞれについて、例えば、次のようなクラス分類用のタップ(以下、適宜、クラスタップという)が構成され、クラス分類が行われるようになされている。
【0147】
即ち、輝度信号については、4パターンの予測タップのいずれに関しても、例えば、図15(A)に点線で囲んで示すように、注目画素を中心とする、ひし形状の範囲の5のSD画素によって、クラスタップが構成される。そして、この5画素の画素値のうちの最大値と最小値との差をダイナミックレンジDRとし、このダイナミックレンジDRを用いて、クラスタップのうちの、縦に並ぶ3画素(図15(A)において実線で囲む3画素)が1ビットADRC処理される。そして、その3画素の画素値のパターンに、予測タップに対応するタップコードを付加したものが、注目画素のクラスとされる。従って、この場合、クラスタップのうちの、縦に並ぶ3画素を1ビットADRC処理して得られる画素値のパターンは3ビットで表現され、また、タップコードは2ビットであるから、輝度信号は、32(=25)クラスのうちのいずれかにクラス分類される。
【0148】
一方、色差信号については、例えば、図15(B)に点線で囲んで示すように、注目画素を中心とする、正方形状の範囲の9のSD画素によって、クラスタップが構成される。そして、この9画素の画素値のうちの最大値と最小値との差をダイナミックレンジDRとし、このダイナミックレンジDRを用いて、クラスタップのうちの、注目画素を中心とするひし形状の範囲の5のSD画素(図15(B)において実線で囲む5画素)が1ビットADRC処理される。そして、その5画素の画素値のパターンが、注目画素のクラスとされる。従って、この場合、クラスタップのうちの、注目画素を中心とする5画素を1ビットADRC処理して得られる画素値のパターンは5ビットで表現されるから、色差信号も、輝度信号と同様に、32(=25)クラスのうちのいずれかにクラス分類される。
【0149】
クラス分類適応処理回路33では、以上のようにして、注目画素のクラスが決定されていき、これにより、予測タップメモリ85または教師データメモリ86(図11)の各アドレスに、対応するクラスの予測タップまたはHD画素(教師データ)が記憶される。そして、演算回路87(図11)において、4パターンの予測タップのそれぞれについて、各クラスごとに、予測タップメモリ85または教師データメモリ86にそれぞれ記憶された予測タップまたはHD画像(教師データ)を用いて、式(7)の正規方程式がたてられ、それを解くことにより、4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが求められる。4パターンの予測タップそれぞれを用いて得られた、4パターンの予測タップのそれぞれについての各クラス毎の予測係数wのセットは、いずれもメモリ35および係数RAM94に供給されて記憶される。
【0150】
その後、クラス分類適応処理回路33は、ステップS14において、4パターンの予測タップを用いて得られた4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットそれぞれと、4パターンの予測タップそれぞれとから、式(1)に示した線形1次式を演算することにより、4パターンの予測タップそれぞれから得られるHD画像の予測値を求め、予測誤差算出回路34に出力する。
【0151】
即ち、ステップS14では、間引き回路31が出力するSD画像を構成するSD画素のうちの1つを注目画素として、予測タップ生成回路32で生成された予測タップについて、クラス分類回路91(図12)が出力するクラスに対応するアドレスに記憶された予測係数wのセットが、係数RAM94(図12)から読み出される。そして、予測演算回路95(図12)において、係数RAM94からの予測係数wのセットと、注目画素についての予測タップとを用いて、式(1)の線形1次式が演算されることにより、図6で説明した注目画素の周辺にある9個のHD画素の予測値が求められ、予測誤差算出回路34に供給される。
【0152】
なお、クラス分類適応処理回路33においては、予測値が、4つの予測タップそれぞれについて求められる。
【0153】
予測誤差算出回路34は、ステップS15において、クラス分類適応処理回路33から供給される、4パターンの予測タップそれぞれについてのHD画像の予測値の、元のHD画像の画素値に対する予測誤差を求める。つまり、例えば、4パターンの予測タップのそれぞれについて、HD画素の9画素の予測値と元のHD画素の画素値との差分の自乗和を、予測誤差として求める。そして、ステップS16に進み、注目画素について、予測誤差が最小の予測タップを検出する。さらに、予測誤差算出回路34は、その予測タップに対応する2ビットのタップパターンコードを、タップパターンコード付加回路36に出力する。
【0154】
タップパターンコード付加回路36では、ステップS17において、間引き回路31からのSD画像を構成するSD画素のうちの注目画素の画素値(但し、本実施の形態では、輝度信号についてだけ)のLSB側の2ビットが、タップパターンコードとされて(注目画素の画素値のLSB側の2ビットに代えて、2ビットのタップパターンコードが付加されて)出力される。
【0155】
その後、ステップS18に進み、すべてのSD画素にタップパターンコードが付加されたかどうかが判定され、まだ、すべてのSD画素にタップパターンコードが付加されていないと判定された場合、ステップS14に戻り、タップパターンコードが付加されていないSD画素のうちのいずれかを、新たに注目画素として、ステップS14乃至S18の処理を繰り返す。一方、ステップS18において、すべてのSD画素にタップパターンコードが付加されたと判定された場合、メモリ35は、ステップS19において、4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットを出力して、処理を終了する。
【0156】
前処理部21では、以上のようにして、間引き回路31が出力するSD画像を構成するSD画素(ここでは、上述したように、3×3のHD画素の平均値を画素値として有する画素)それぞれについて、予測誤差が最小となる予測タップのタップパターンコードが、いわば仮に付加される。
【0157】
次に、図16は、図3の最適化部23の構成例を示している。なお、図中、図28の画像符号化装置における場合と基本的に同様に構成される部分については、同一の符号を付してある。即ち、最適化部23は、間引き回路121がなく、ローカルデコード部122に代えてローカルデコード部42が設けられている他は、図28の画像符号化装置と基本的に同様に構成されている。
【0158】
ローカルデコード部42は、予測タップ生成回路42Aおよびクラス分類適応処理回路42Bから構成され、そこには、補正部41からSD画像が供給されるようになされている。予測タップ生成回路42Aは、補正部41から供給されるSD画像のSD画素のLSB側に配置されているタップパターンコードに対応して予測タップを形成(生成)し、クラス分類適応処理回路42Bに供給するようになされている。クラス分類適応処理回路42Bには、予測タップの他、クラス分類用のSD画素、4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが供給されるようになされている。クラス分類適応処理回路42Bは、予測タップを構成する注目画素を、図15で説明したようにして、クラス分類用のSD画素を用いてクラス分類し、そのクラスに対応した予測係数wのセットと、予測タップとから、式(1)に示した線形1次式を演算することにより、図6に点線で囲んで示した、注目画素となっているSD画素を中心とする3×3のHD画素の画素値の予測値を求めるようになされている。この予測値は、誤差算出部43に供給されるようになされている。
【0159】
ここで、図17は、図16のクラス分類適応処理回路42Bの構成例を示している。なお、図中、図12における場合と対応する部分については、同一の符号を付してある。即ち、クラス分類適応処理回路42Bは、図12に示したクラス分類適応処理回路33を構成する1つのクラス分類適応処理回路(予測係数、予測値算出)の一部と同一に構成されており、その説明は省略する。
【0160】
次に、図18のフローチャートを参照して、その動作について説明する。
【0161】
最適化部23は、SD画像を受信すると、そのSD画像を構成するSD画素のうちの1つを注目画素とし、ステップS31において、注目画素の画素値を補正する補正量を表す変数△を、例えば0に初期化する。また、ステップS31では、補正量を変化させる変化量(以下、適宜、オフセット量という)を表す変数Sに、初期値としての、例えば4または1がセットされる。
【0162】
即ち、輝度信号については、上述したように、そのLSB側の2ビットがタップパターンコードであり、画素値を構成するものではないため、オフセット量Sには、4(=22)がセットされる。また、色差信号については、そのようなことはなく、すべてのビットが画素値を構成するため、オフセット量Sには、1(=20)がセットされる。
【0163】
さらに、ステップS31では、注目画素の補正の回数をカウントする変数iに、初期値としての−1がセットされ、ステップS32に進む。ステップS32では、回数iが1だけインクリメントされ、ステップS33に進み、注目画素の画素値を補正量△だけ補正した補正値を用いて適応処理を行った場合に、その補正により影響を受けるHD画素の予測値の予測誤差Eが算出される。
【0164】
即ち、この場合、補正部41は、注目画素の画素値に、例えば、補正量△を加算し、その加算値を、注目画素の画素値として、ローカルデコード部42に出力する。ここで、注目画素について、最初にステップS33の処理が施される場合、即ち、回数i=0の場合、補正量△は、ステップS31でセットされた初期値である0のままであるから、補正部41からは、注目画素の画素値がそのまま出力される。
【0165】
ローカルデコード部42では、予測タップ生成回路42Aにおいて、注目画素の画素値のLSB側の2ビットに配置されているタップパターンコードに対応して、予測タップが形成され、クラス分類適応処理回路42Bに出力される。クラス分類適応処理回路42Bでは、まず、注目画素が、図5のクラス分類適応処理回路33における場合と同様にクラス分類される。さらに、クラス分類適応処理回路42Bでは、そのクラスに対応する予測係数と、予測タップ生成回路42Aからの予測タップとから、式(1)に示した線形1次式を演算することにより、HD画素の画素値の予測値が求められる。
【0166】
即ち、クラス分類適応処理回路42Bでは、クラス分類回路91(図17)において、予測タップ生成回路42Aからの予測タップを構成するSD画素から、図15で説明したようなクラスタップが構成され、クラス分類が行われる。このクラス分類回路91におけるクラス分類の結果得られるクラスは、係数RAM94(図17)に供給される。
【0167】
係数RAM94(図17)は、スイッチ25を介して供給される4パターンの予測タップそれぞれについてのクラス毎の予測係数のセットを記憶しており、クラス分類回路91からのクラスに対応する予測係数のセットであって、注目画素に付加されているタップパターンコードに対応する予測タップについての予測係数のセットを読み出す。この予測係数のセットは、予測演算回路95(図17)に供給される。
【0168】
予測演算回路95では、係数RAM94からの予測係数のセットと、予測タップ生成回路42Aから供給される予測タップとを用いて、式(1)の線形1次式が演算されることにより、HD画素の予測値が求められる。
【0169】
また、クラス分類適応処理回路42Bでは、注目画素の画素値を補正量△だけ補正した場合に、その補正により影響を受けるHD画素についても、同様にして、予測値が求められる。
【0170】
即ち、例えば、いま、図19に示すように、SD画素Aを注目画素として補正したとする。本実施の形態では、予測タップの範囲が最も広いのは、図10に示したように、7×5のSD画素で予測タップが構成される場合で、このように、7×5のSD画素で予測タップが構成される場合に、その予測タップにSD画素Aが含まれるケースであって、SD画素Aから最も離れたSD画素が注目画素とされるのは、SD画素B,C,D,Eが注目画素とされ、7×5画素の予測タップが構成されるケースである。そして、SD画素B,C,D,Eが注目画素とされ、7×5画素の予測タップが構成された場合、本実施の形態では、同図に実線で囲んで示す範囲b,c,d,eの中の3×3のHD画素の予測値がそれぞれ求められる。従って、SD画素Aを注目画素として、その画素値を補正した場合に、その補正により影響を受けるのは、最悪のケースで、範囲b,c,d,eを含む最小の長方形である、図19において点線で示す範囲内の21×15のHD画素の予測値ということになる。
【0171】
従って、本実施の形態では、クラス分類適応処理回路42Bにおいて、このような21×15のHD画素の予測値が求められる。
【0172】
クラス分類適応処理回路42Bで求められたHD画素の予測値は、誤差算出部43に供給される。誤差算出部43では、クラス分類適応処理回路42BからのHD画素の予測値から、対応するHD画素の真の画素値が減算され、その減算値である予測誤差の、例えば自乗和が求められる。そして、この自乗和が、誤差情報Eとして、制御部44に供給される。
【0173】
制御部44は、誤差算出部43から誤差情報を受信すると、ステップS34において、回数iが0であるかどうかを判定する。ステップS34において、回数iが0であると判定された場合、即ち、制御部44が受信した誤差情報Eが、注目画素の補正を行わずに得られたものである場合、ステップS35に進み、注目画素の補正を行わずに得られた誤差情報(未補正時の誤差情報)を記憶する変数E0に、誤差情報Eがセットされ、また、前回得られた誤差情報を記憶する変数E’にも、誤差情報Eがセットされる。さらに、ステップS35では、補正量△が、オフセット量Sだけインクリメントされ、制御部44は、それにより得られた補正量△だけ、注目画素の画素値を補正するように、補正部41を制御する。その後は、ステップS32に戻り、以下、同様の処理を繰り返す。
【0174】
この場合、ステップS32において、回数iは1だけインクリメントされて1となるから、ステップS34では、回数iが0でないと判定され、ステップS36に進む。ステップS36では、回数iが1であるかどうかが判定される。この場合、回数iは1となっているから、ステップS36では、回数iは1であると判定され、ステップS37に進み、前回の誤差情報E’が、今回の誤差情報E以上であるかどうかが判定される。ステップS37において、前回の誤差情報E’が、今回の誤差情報E以上でないと判定された場合、即ち、補正量△だけ注目画素の画素値を補正することにより、今回の誤差情報Eの方が、前回の誤差情報E’(ここでは、補正をしてない場合の誤差情報)より増加した場合、ステップS38に進み、制御部44は、オフセット量Sに、−1を乗算したものを、新たなオフセット量Sとし、さらに、補正量△をオフセット量Sの2倍だけインクリメントし、ステップS32に戻る。
【0175】
即ち、注目画素の画素値を、補正量△(この場合、△=S)だけ補正することにより、補正しなかったときよりも誤差が増加した場合には、オフセット量Sの符号が反転される(本実施の形態では、ステップS31において正の値がオフセット量Sにセットされているので、ステップS38では、オフセット量Sの符号は、正から負にされる)。さらに、前回はSであった補正量△が、−Sにされる。
【0176】
また、ステップS37において、前回の誤差情報E’が、今回の誤差情報E以上であると判定された場合、即ち、補正量△だけ注目画素の画素値を補正することにより、今回の誤差情報Eが、前回の誤差情報E’より減少した場合(または前回の誤差情報E’と同じである場合)、ステップS39に進み、制御部44は、補正量△をオフセット量Sだけインクリメントするとともに、前回の誤差情報E’に、今回の誤差情報Eをセットすることにより更新して、ステップS32に戻る。
【0177】
この場合、ステップS32において、回数iは、さらに1だけインクリメントされて2となるから、ステップS34またはS36では、回数iが0または1でないとそれぞれ判定され、その結果、ステップS36からS40に進む。ステップS40では、回数iが2であるかどうかが判定される。いま、回数iは2となっているから、ステップS40では、回数iは2であると判定され、ステップS41に進み、未補正時の誤差情報E0が今回の誤差情報E以下であり、かつオフセット量Sが負であるかどうかが判定される。
【0178】
ステップS40において、未補正時の誤差情報E0が今回の誤差情報E以下であり、かつオフセット量Sが負であると判定された場合、即ち、注目画素を+Sだけ補正しても、また、−Sだけ補正しても、補正しないときより誤差が増加する場合、ステップS42に進み、補正量△が0とされ、ステップS47に進む。
【0179】
また、ステップS40において、未補正時の誤差情報E0が今回の誤差情報E以下でないか、またはオフセット量Sが負でないと判定された場合、ステップS44に進み、前回の誤差情報E’が、今回の誤差情報E以上であるかどうかが判定される。ステップS44において、前回の誤差情報E’が、今回の誤差情報E以上であると判定された場合、即ち、補正量△だけ注目画素の画素値を補正することにより、今回の誤差情報Eが、前回の誤差情報E’より減少した場合、ステップS45に進み、制御部44は、補正量△をオフセット量Sだけインクリメントするとともに、前回の誤差情報E’に、今回の誤差情報Eをセットすることにより更新して、ステップS32に戻る。
【0180】
この場合、ステップS32において、回数iは、さらに1だけインクリメントされて3となるから、以下では、ステップS34,S36、またはS40では、回数iが0,1、または2でないとそれぞれ判定され、その結果、ステップS40からS44に進む。従って、ステップS44において、前回の誤差情報E’が、今回の誤差情報E以上でないと判定されるまで、ステップS32乃至S34、S36,S40,S44,S45のループ処理が繰り返される。
【0181】
そして、ステップS44において、前回の誤差情報E’が、今回の誤差情報E以上でないと判定された場合、即ち、補正量△だけ注目画素の画素値を補正することにより、今回の誤差情報Eの方が、前回の誤差情報E’より増加した場合、ステップS46に進み、制御部44は、補正量△をオフセット量Sだけデクリメットし、ステップS47に進む。即ち、この場合、補正量△は、誤差が増加する前の値とされる。
【0182】
ステップS47では、制御部44は、補正部41を制御することにより、ステップS42またはS46で得られた補正量△だけ注目画素の画素値を補正させ、これにより、注目画素の画素値は、適応処理により予測値を得るのに、予測誤差が最小となるような最適なものに補正される。
【0183】
そして、ステップS48に進み、すべてのSD画素を注目画素として処理を行ったかどうかが判定される。ステップS48において、すべてのSD画素を注目画素として、まだ処理を行っていないと判定された場合、ステップS31に戻り、まだ、注目画素とされていないSD画素を新たな注目画素として、同様の処理を繰り返す。また、ステップS48において、すべてのSD画素を注目画素として処理を行ったと判定された場合、処理を終了する。
【0184】
以上のようにして、SD画像の画素値は、HD画像の予測値を求めるのに、最適なものに最適化される。
【0185】
次に、図20は、図3の適応処理部24の構成例を示している。
【0186】
予測タップ生成回路51には、最適化部23からの最適SD画像が供給されるようになされており、そこでは、図16の予測タップ生成回路42Aにおける場合と同様に、その画素値のLSB側の2ビットに配置されているタップパターンコードが検出され、そのタップパターンコードにしたがって、予測タップが構成され、クラス分類適応処理回路52に供給されるようになされている。
【0187】
クラス分類適応処理回路52には、予測タップの他、クラス分類に使用される最適SD画像及び元のHD画像も供給されるようになされており、そこでは、予測タップを構成する注目画素のクラス分類が、例えば、図15で説明した場合と同様にして行われ、さらに、その結果得られる各クラスについて、予測タップとHD画像を用いて式(7)に示した正規方程式がたてられるようになされている。そして、クラス分類適応処理回路52は、そのクラスごとの正規方程式を解くことにより新たな4パターンの予測タップのそれぞれについての予測係数wのセットを求めて出力するようになされている。
【0188】
次に、その動作について、図21のフローチャートを参照して説明する。予測タップ生成回路51は、最適SD画像を受信すると、ステップS51において、その最適SD画素を構成する各SD画素に付加されているタップパターンコードを検出(抽出)し、ステップS52に進み、その抽出したタップパターンコードに基づいて、予測タップを形成する。そして、予測タップ生成回路51は、形成した予測タップを、クラス分類適応処理回路52に出力する。クラス分類適応処理回路52は、ステップS53において、予測タップを構成する注目画素のクラス分類を行い、その結果得られる各クラスについて、予測タップとHD画像を用いて正規方程式をたてて解くことにより予測係数wを求めて出力し、処理を終了する。
【0189】
これにより、適応処理部24では、最適SD画像から、元のHD画像を得るのに、予測誤差を最も小さくする4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットが求められる。この4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットは、上述したように、最適化部23と予測タップパターン判定部26に供給され、適応処理(式(1)に示す線形1次式の計算)に用いられる。
【0190】
なお、図20の実施の形態では、予測タップ生成回路51において、画素値のLSB側の2ビットに配置されているタップパターンコードを検出し、そのタップパターンコードに従って予測タップを構成するようにしたが、予測タップ生成回路51は、図5の前処理部21の予測タップ生成回路32と同様に構成することも可能である。つまり、予測タップ生成回路51には、4パターンの予測タップすべてを構成させ、クラス分類適応処理回路52に供給させることができる。この場合、クラス分類適応処理回路52は、4パターンの予測タップのそれぞれに対応する4つの予測係数を算出するためのクラス分類適応処理回路(輝度信号用)で構成することができ、このクラス分類適応処理回路のそれぞれは、図11で示される、クラス分類適応処理回路(予測係数、予測値算出)を構成する一部と同様に構成することができる。
【0191】
そして、その場合、各クラス分類適応処理回路には、HD画像を構成する各HD画素に対して対応する各パターンの予測タップが供給され、その予測タップを構成する最適SD画素を用いてクラスタップが形成されて、それぞれクラス分類が行われる。さらに、各クラス分類適応処理回路において、1フレームのHD画素と、そのHD画素に対する予測タップとが、それぞれ教師データメモリ86と予測タップメモリ85とにクラス毎に記憶される。その後、各クラス分類適応処理回路のそれぞれにおいて、図27の学習装置における場合と同様にして、4パターンの予測タップについての新たなクラス毎の予測係数のセットが生成される。
【0192】
次に、図22は、図3の予測タップパターン判定部26の構成例を示している。
【0193】
予測タップパターン判定部26は、同図に示すように、予測タップ生成回路61、クラス分類適応処理回路62、予測誤差算出回路63、およびタップパターンコード変更回路64から構成されており、これらの予測タップ生成回路61、クラス分類適応処理回路62、予測誤差算出回路63、またはタップパターンコード変更回路64は、図5における前処理部21の予測タップ生成回路32、クラス分類適応処理回路33、予測誤差算出回路34、またはタップパターンコード付加回路36と基本的に同様に構成されている。
【0194】
次に、図23のフローチャートを参照して、その動作について説明する。
【0195】
予測タップパターン判定部26には、最適SD画像、4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセット、HD画像が供給されるようになされており、最適SD画像は、予測タップ生成回路61とタップパターンコード変更回路64に供給され、また、4パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットまたはHD画像は、クラス分類適応処理回路62または予測誤差算出回路63にそれぞれ供給されるようになされている。
【0196】
予測タップ生成回路61は、最適SD画像を受信すると、ステップS61において、図5の予測タップ生成回路32と同様に、そのうちの1つを注目画素とし、その注目画素について、図7乃至図10に示した4パターンの予測タップを形成する。そして、この4パターンの予測タップは、クラス分類適応処理回路62に出力される。
【0197】
クラス分類適応処理回路62は、注目画素を対象に形成された4パターンの予測タップを受信すると、ステップS62において、その4パターンの予測タップそれぞれと、対応するクラス毎の予測係数wのセットそれぞれとを用いて、式(1)で表される線形1次式を計算し、これにより、4パターンの予測タップそれぞれから得られるHD画像の9画素の予測値を求め、予測誤差算出回路63に出力される。
【0198】
予測誤差算出回路63では、ステップS63またはS64において、図5の予測誤差算出回路34が行う図13のステップS15またはS16における場合とそれぞれ同様の処理が行われ、これにより、4パターンの予測タップのうち、予測誤差を最小にするもののタップパターンコードが、タップパターンコード変更回路64に出力される。
【0199】
タップパターンコード変更回路64では、ステップS65において、注目画素(最適SD画像のSD画素)のLSB側の2ビットに付加されているタップパターンコードが、予測誤差算出回路63から供給されるタップパターンコードに変更され、ステップS66に進む。
【0200】
ステップS66では、すべてのSD画素を注目画素として処理が行われたかどうかが判定され、まだ、すべてのSD画素を注目画素としていないと判定された場合、ステップS61に戻り、また注目画素とされていないSD画素を新たに注目画素として、同様の処理を繰り返す。一方、ステップS66において、すべてのSD画素を注目画素として処理を行ったと判定された場合、処理を終了する。
【0201】
予測タップパターン判定部26では、以上のように、適応処理部24で得られた4パターンの予測タップのそれぞれについての予測係数wのセットを用いて、タップパターンコードが、より予測誤差が小さくなる予測タップに対応するものに変更される。
【0202】
次に、図24は、図1の受信装置4の構成例を示している。
【0203】
受信機/再生装置71においては、記録媒体2に記録された符号化データが再生され、または伝送路3を介して伝送されてくる符号化データが受信され、分離部72に供給される。分離部72では、符号化データが、SD画像の画像データと4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットに分離され、SD画像の画像データは、予測タップ生成回路73に供給され、4パターンの予測タップのそれぞれについてのクラス毎の予測係数wのセットは、クラス分類適応処理回路74に供給される。
【0204】
予測タップ生成回路73またはクラス分類適応処理回路74は、図16に示した最適化部23のローカルデコード部42を構成する予測タップ生成回路42Aまたはクラス分類適応処理回路42B(図17)とそれぞれ同様に構成されている。従って、ローカルデコード部42における場合と同様にして、HD画像の予測値が求められ、これが復号画像として出力される。この復号画像は、上述したように、元の画像とほぼ同一の画像となる。
【0205】
なお、受信側においては、図24に示すような受信装置4でなくても、間引きされた画像を単純な補間により復号する装置により、予測係数を用いずに、通常の補間を行うことで復号画像を得ることができる。但し、この場合に得られる復号画像は、画質(解像度)の劣化したものとなる。
【0206】
以上のように、HD画像を圧縮することにより得られるSD画像を構成する画素のうちの1つを注目画素として、その注目画素に対して、複数パターンの予測タップを形成し、予測タップと予測係数との線形結合により、HD画像の予測値を求める適応処理を行い、複数パターンの予測タップそれぞれから得られる予測値の予測誤差を算出し、複数パターンの予測タップのうち、最小の予測誤差が得られるものに対応するタップパターンコードを、注目画素の画素値に付加するようにしたので、画像の局所的な特性に対応した予測タップを用いて適応処理が行われ、その結果、より画質の良い復号画像を得ることが可能となる。
【0207】
また、2ビットのタップパターンコードを、画素値のLSB側の2ビットに代えて配置するようにしたので、データ量の増加を防止することが可能となる。なお、タップパターンコードは、画素値のLSB側に配置されるので、それほど大きな画質の劣化はない。
【0208】
さらに、最適化部23において、誤差を最小にする予測タップを用いて適応処理を行うことにより、SD画像を最適化するようにしたので、元のHD画像をほぼ同一の復号画像を得ることが可能となる。
【0209】
また、適応処理部24において、最適SD画像を用いて適応処理を行い、複数パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットを、いわば、より適切なものに更新(修正)し、予測タップパターン判定部26において、その更新された複数パターンの予測タップのそれぞれについてのクラス毎の予測係数のセットを用いて、予測タップを決め直すようにしたので、さらに画質の向上した復号画像を得ることが可能となる。
【0210】
以上、本発明を、HD画像を符号化/復号する画像処理装置に適用した場合について説明したが、本発明は、その他、SD画像などの標準解像度の画像その他を符号化/復号する場合にも適用可能である。即ち、例えば、NTSC方式などの標準方式のテレビジョン信号を符号化/復号する場合にも適用可能である。但し、本発明は、データ量の多い、いわゆるハイビジョン方式のテレビジョン信号などを符号化/復号する場合に、特に有効である。また、本発明は、いわゆる階層符号化を行う場合などにも適用可能である。
【0211】
なお、本実施の形態では、輝度信号についてのみ、複数パターンの予測タップを用意し、色差信号については、5×7画素の予測タップだけを用いるようにしたが、色差信号も、輝度信号と同様に処理することが可能である。
【0212】
また、本実施の形態においては、タップパターンコードを2ビットとするようにしたが、タップパターンコードは2ビットに限定されるものではない。但し、より少ないビット数であることが望ましい。
【0213】
さらに、本実施の形態では、画素値のLSB側の2ビットに代えて、タップパターンコードを配置するようにしたが、タップパターンコードは、画素値とは別に記録または伝送することも可能である。
【0214】
また、本実施の形態では、前処理部21で前処理し、最適化部23で最適化した最適SD画像を用いて、予測係数を更新し、その予測係数を用いて、再度、タップパターンコードを決め直すようにしたが、前処理部21で前処理し、最適化部23で最適化した最適SD画像を、そのまま符号化データとすることも可能である。この場合、復号画像の画質(S/N)は、タップパターンコードを決め直す場合に比較して、多少劣化するが、処理の高速化を図ることが可能となる。
【0215】
さらに、本実施の形態では、3×3,5×3,3×5,7×5画素の4パターンの予測タップを用いるようにしたが、これ以外の、例えば、1×5や5×1画素などの予測タップを用いるようにすることも可能である。また、予測タップのパターンも4種類に限定されるものではない。
【0216】
さらに、本実施の形態では特に言及しなかったが、画素値に、タップパターンコードを付加した後は、そのタップパターンコードが付加されたLSB側の2ビットを所定値にしたものを画素値として処理しても良いし、また、タップパターンコードも含めて画素値とし、処理を行うようにしても良い。なお、本件発明者が行った実験によれば、タップパターンコードも含めて画素値とした場合、そのタップパターンコードの部分を所定値としての0とした場合に比較して、S/Nは多少劣化するが、階調が多少向上するという結果が得られている。
【0217】
また、図18においては、注目画素の画素値を、オフセット量Sとしての4または1ずつ補正することにより、予測誤差Eが最初に極小となる補正量△を検出するようにしたが、その他、例えば、注目画素の画素値がとり得る値すべてについて予測誤差Eを求め、その最小値を検出し、その場合の補正量△によって、注目画素の画素値を補正するようにすることも可能である。この場合、処理に時間を要することとなるが、よりS/Nの高い復号画像を得ることが可能となる。
【0218】
さらに、このように注目画素の画素値がとり得る値すべてについて予測誤差Eを求める場合には、注目画素の画素値の初期値は、どのような値(但し、注目画素の画素値がとり得る範囲内の値)であっても良い。即ち、この場合、初期値がどのような値であっても、予測誤差Eを最小にする補正値△を求めることができる。
【0219】
なお、本発明の主旨を逸脱しない範囲において、さまざまな変形や応用例が考えうる。従って、本発明の要旨は、上述の実施の形態に限定されるものではない。
【0220】
【発明の効果】
本発明の画像符号化装置および画像符号化方法によれば、圧縮画像信号を構成する画素のうちの1つを注目画素として、原画像信号を予測するために用いる注目画素および注目画素の近傍の画素からなる複数パターンの予測タップが形成され、複数パターンの予測タップそれぞれと、所定の予測係数とから、原画像信号が予測され、複数パターンの予測タップそれぞれに対する予測値が出力される。そして、複数パターンの予測タップそれぞれに対する予測値の、原画像信号に対する予測誤差が算出され、複数パターンの予測タップのうち、最小の予測誤差が得られる予測タップに対応するパターンコードが、注目画素の画素値の一部と置き換えられることにより注目画素の画素値に付加される。従って、そのパターンコードにしたがって予測タップを形成して復号を行うことで、より画質の向上した復号画像を得ることが可能となる。
【0221】
本発明の画像復号装置およびの画像復号方法によれば、符号化データから、圧縮画像信号と予測係数とが分離され、符号化データに含まれる圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されているパターンコードに対応するパターンの予測タップが、注目画素の近傍の画素を用いて形成され、その予測タップと、予測係数とから、原画像信号が予測され、その予測値が求められる。従って、より原画像信号に近い予測値を得ることが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した画像処理装置の一実施の形態の構成を示すブロック図である。
【図2】図1の送信装置1の構成例を示すブロック図である。
【図3】図2の送信装置1の機能的構成例を示すブロック図である。
【図4】図3の送信装置1の動作を説明するためのフローチャートである。
【図5】図3の前処理部21の構成例を示すブロック図である。
【図6】図5の間引き回路31の処理を説明するための図である。
【図7】予測タップの構成例を示す図である。
【図8】予測タップの構成例を示す図である。
【図9】予測タップの構成例を示す図である。
【図10】予測タップの構成例を示す図である。
【図11】図5のクラス分類適応処理回路33を構成するクラス分類適応処理回路(予測係数、予測値算出)の一部の構成例を示すブロック図である。
【図12】図5のクラス分類適応処理回路33を構成するクラス分類適応処理回路(予測係数、予測値算出)の他の一部の構成例を示すブロック図である。
【図13】図5の前処理部21の処理を説明するためのフローチャートである。
【図14】図13のステップS11の処理のより詳細を説明するためのフローチャートである。
【図15】クラス分類を行うためのクラスタップの構成例を示す図である。
【図16】図3の最適化部23の構成例を示すブロック図である。
【図17】図16のクラス分類適応処理回路42B及び図24のクラス分類適応処理回路74の構成例を示すブロック図である。
【図18】図16の最適化部23の処理を説明するためのフローチャートである。
【図19】図18のステップS33の処理を説明するための図である。
【図20】図3の適応処理部24の構成例を示すブロック図である。
【図21】図20の適応処理部24の処理を説明するためのフローチャートである。
【図22】図3の予測タップパターン判定部26の構成例を示すブロック図である。
【図23】図22の予測タップパターン判定部26の処理を説明するためのフローチャートである。
【図24】図1の受信装置4の構成例を示すブロック図である。
【図25】本件出願人が先に提案した画像変換装置の構成例を示すブロック図である。
【図26】図25のクラス分類回路101の処理を説明するための図である。
【図27】本件出願人が先に提案した学習装置の構成例を示すブロック図である。
【図28】本件出願人が先に提案した画像符号化装置の構成例を示すブロック図である。
【符号の説明】
1 送信装置, 2 記録媒体, 3 伝送路, 4 受信装置, 11 I/F, 12 ROM, 13 RAM, 14 CPU, 15 外部記憶装置, 16 送信機/記録装置, 21 前処理部, 22 スイッチ, 23最適化部, 24 適応処理部, 25 スイッチ, 26 予測タップパターン判定部, 31 間引き回路, 32 予測タップ生成回路, 33 クラス分類適応処理回路, 34 予測誤差算出回路, 35 メモリ, 36 タップパターンコード付加回路, 41 補正部, 42 ローカルデコード部,42A 予測タップ生成回路, 42B クラス分類適応処理回路, 43 誤差算出部, 44 制御部, 51 予測タップ生成回路, 52 クラス分類適応処理回路, 61 予測タップ生成回路, 62 クラス分類適応処理回路, 63 予測誤差算出回路, 64 タップパターンコード変更回路, 71 受信機/再生装置, 72 分離部, 73 予測タップ生成回路, 74クラス分類適応処理回路, 82 クラス分類回路, 84 遅延回路, 85 予測タップメモリ, 86 教師データメモリ, 87 演算回路, 88遅延回路, 91 クラス分類回路, 94 係数RAM, 95 予測演算回路[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image encoding device and an image encoding method, And The present invention relates to an image decoding apparatus and an image decoding method. In particular, an image encoding device and an image encoding method for compressing and encoding an image by thinning out the image so that a decoded image almost identical to the original image is obtained, And The present invention relates to an image decoding apparatus and an image decoding method.
[0002]
[Prior art]
For example, when converting a standard resolution or low resolution image (hereinafter referred to as an SD image as appropriate) to a high resolution image (hereinafter referred to as an HD image as appropriate) or enlarging the image, Interpolation (compensation) of the pixel values of the missing pixels is performed by a so-called interpolation filter or the like.
[0003]
However, even if pixel interpolation is performed using an interpolation filter, it is difficult to obtain a high-resolution image because the HD image component (high-frequency component) that is not included in the SD image cannot be restored.
[0004]
Therefore, the applicant of the present application has previously proposed an image conversion device (image conversion circuit) for converting an SD image into an HD image including a high-frequency component not included therein.
[0005]
In this image conversion apparatus, high-frequency components not included in the SD image are restored by performing an adaptive process for obtaining a prediction value of a pixel of the HD image by linear combination of the SD image and a predetermined prediction coefficient. It is made so that.
[0006]
That is, for example, the predicted value E [y] of the pixel value y of a pixel constituting the HD image (hereinafter referred to as HD pixel as appropriate) is set to the pixel value of several SD pixels (pixels constituting the SD image). (Hereinafter referred to as learning data as appropriate) x 1 , X 2 , ... and a predetermined prediction coefficient w 1 , W 2 Consider a linear primary combination model defined by the linear combination of. In this case, the predicted value E [y] can be expressed by the following equation.
[0007]
Figure 0003844031
[0008]
Therefore, in order to generalize, a matrix W composed of a set of prediction coefficients w, a matrix X composed of a set of learning data, and a matrix Y ′ composed of a set of predicted values E [y],
[Expression 1]
Figure 0003844031
Then, the following observation equation holds.
[0009]
Figure 0003844031
[0010]
Then, it is considered to apply the least square method to this observation equation to obtain a predicted value E [y] close to the pixel value y of the HD pixel. In this case, a matrix Y composed of a set of true pixel values y of HD pixels serving as teacher data and a matrix E composed of a set of residuals e of predicted values E [y] with respect to the pixel values y of HD pixels,
[Expression 2]
Figure 0003844031
From the equation (2), the following residual equation is established.
[0011]
Figure 0003844031
[0012]
In this case, the prediction coefficient w for obtaining the predicted value E [y] close to the pixel value y of the HD pixel i Is the square error
[Equation 3]
Figure 0003844031
Can be obtained by minimizing.
[0013]
Therefore, the above square error is converted into the prediction coefficient w. i When the value differentiated by 0 is 0, that is, the prediction coefficient w satisfying the following equation: i However, this is the optimum value for obtaining the predicted value E [y] close to the pixel value y of the HD pixel.
[0014]
[Expression 4]
Figure 0003844031
Figure 0003844031
[0015]
Therefore, first, Equation (3) is converted into the prediction coefficient w. i Is differentiated by the following equation.
[0016]
[Equation 5]
Figure 0003844031
Figure 0003844031
[0017]
From equations (4) and (5), equation (6) is obtained.
[0018]
[Formula 6]
Figure 0003844031
Figure 0003844031
[0019]
Further, considering the relationship among the learning data x, the prediction coefficient w, the teacher data y, and the residual e in the residual equation of Equation (3), the following normal equation can be obtained from Equation (6). .
[0020]
[Expression 7]
Figure 0003844031
Figure 0003844031
[0021]
The normal equation of the equation (7) can be formed by the same number as the number of prediction coefficients w to be obtained. Therefore, by solving the equation (7) (however, to solve the equation (7), the equation (7) 7), the matrix composed of the coefficients related to the prediction coefficient w needs to be regular), and the optimal prediction coefficient w can be obtained. In solving equation (7), for example, a sweep-out method (Gauss-Jordan elimination method) or the like can be applied.
[0022]
As described above, an optimal set of prediction coefficients w is obtained, and further, a prediction value E [y] close to the pixel value y of the HD pixel is obtained by the equation (1) using the set of prediction coefficients w. Is an adaptive process (however, it is also included in the adaptive process that a set of prediction coefficients w is obtained in advance and a predicted value is obtained from the set of prediction coefficients w).
[0023]
Note that the adaptive processing is different from the interpolation processing in that a component included in the HD image that is not included in the SD image is reproduced. In other words, the adaptive process is the same as the interpolation process using a so-called interpolation filter as long as only Expression (1) is seen, but the prediction coefficient w corresponding to the tap coefficient of the interpolation filter uses the teacher data y. In other words, since it is obtained by learning, the components included in the HD image can be reproduced. That is, a high-resolution image can be easily obtained. From this, it can be said that the adaptive process is a process having an image creating action.
[0024]
FIG. 25 shows a configuration example of an image conversion apparatus that converts an SD image into an HD image by the adaptive processing as described above based on the image feature (class).
[0025]
The SD image is supplied to the class classification circuit 101 and the delay circuit 102. In the class classification circuit 101, the SD pixels constituting the SD image are sequentially set as the target pixel, and the target pixel is a predetermined pixel. Classified into classes.
[0026]
That is, the class classification circuit 101 first collects a number of SD pixels around the pixel of interest to form a block (hereinafter referred to as a processing block as appropriate), and configures the processing block, for example, all SD A value assigned in advance to the pixel value pattern of the pixel is supplied to the address terminal (AD) of the coefficient ROM 104 as the class of the pixel of interest.
[0027]
Specifically, the class classification circuit 101, for example, is a process composed of 5 × 5 SD pixels (indicated by a circle in FIG. 26) centered on the target pixel, as shown in FIG. A block is extracted from the SD image, and values corresponding to the pixel value patterns of these 25 SD pixels are output as the class of the pixel of interest.
[0028]
Here, when a large number of bits such as 8 bits are assigned to represent the pixel value of each SD pixel, the number of patterns of pixel values of 25 SD pixels is (2 8 ) twenty five The number of streets becomes enormous, and it is difficult to speed up subsequent processing.
[0029]
Therefore, as preprocessing before class classification, for example, ADRC (Adaptiv Dynamic Range Coding) processing, which is processing for reducing the number of bits of SD pixels constituting the processing block, is performed on the processing block.
[0030]
That is, in the ADRC processing, first, from the 25 SD pixels constituting the processing block, there are the largest (hereinafter referred to as the maximum pixel) and the minimum (hereinafter referred to as the minimum pixel) of the pixel value. Detected. Then, a difference DR (= MAX−MIN) between the pixel value MAX of the maximum pixel and the pixel value MIN of the minimum pixel is calculated, and this DR is set as a local dynamic range of the processing block. Based on the dynamic range DR, each pixel value constituting the processing block is requantized to K bits smaller than the original number of assigned bits. In other words, the pixel value MIN of the minimum pixel is subtracted from each pixel value constituting the processing block, and each subtraction value becomes DR / 2. K Divide by.
[0031]
As a result, each pixel value constituting the processing block is expressed by K bits. Therefore, for example, when K = 1, the number of pattern values of 25 SD pixels is (2 1 ) twenty five As a result, the number of patterns can be made very small as compared with the case where ADRC processing is not performed. The ADRC process for setting the pixel value to K bits in this way is hereinafter referred to as K bit ADRC process as appropriate.
[0032]
The coefficient ROM 104 stores a set of prediction coefficients obtained by performing learning in advance for each class. When a class is supplied from the class classification circuit 101, the coefficient ROM 104 is stored at an address corresponding to the class. A set of prediction coefficients is read and supplied to the prediction calculation circuit 105.
[0033]
On the other hand, in the delay circuit 102, the timing at which the prediction coefficient set is supplied from the coefficient ROM 104 and the timing at which the prediction tap is supplied from the prediction tap generation circuit 103 described later are made to coincide with the prediction arithmetic circuit 105. The SD image is delayed by a necessary time and supplied to the prediction tap generation circuit 103.
[0034]
In the prediction tap generation circuit 103, an SD pixel used for obtaining a prediction value of a predetermined HD pixel in the prediction calculation circuit 105 is extracted from the SD image supplied thereto, and this is supplied to the prediction calculation circuit 105 as a prediction tap. Is done. That is, in the prediction tap generation circuit 103, for example, the same processing block as that extracted by the class classification circuit 101 is extracted from the SD image, and the SD pixel constituting the processing block serves as a prediction tap, and the prediction calculation circuit 105 To be supplied.
[0035]
In the prediction arithmetic circuit 105, the prediction coefficients w and w from the coefficient ROM 104 are displayed. 2 ,..., Prediction tap x from the prediction tap generation circuit 103 1 , X 2 ,... Is used to calculate the prediction value E [y] of the pixel of interest y by performing the calculation shown in Expression (1), that is, the adaptive process, and this is obtained as the pixel value of the HD pixel. Is output.
[0036]
That is, here, for example, the predicted value of a 3 × 3 HD pixel (indicated by a dot in the figure) surrounded by a solid rectangle in FIG. 26 and centered on the target pixel is obtained from one prediction tap. In this case, the prediction calculation circuit 105 performs the calculation of Expression (1) for these nine HD pixels. Accordingly, the coefficient ROM 104 stores nine sets of prediction coefficients at addresses corresponding to one class.
[0037]
Thereafter, the same processing is performed using other SD pixels as the target pixel, whereby the SD image is converted into an HD image.
[0038]
Next, FIG. 27 shows a configuration example of a learning apparatus that performs a learning process for calculating a set of prediction coefficients for each class to be stored in the coefficient ROM 104 of FIG.
[0039]
An HD image to be teacher data y in learning is supplied to the thinning circuit 111 and the delay circuit 114. In the thinning circuit 111, the HD image is reduced by thinning the number of pixels, for example. Thus, an SD image is obtained. This SD image is supplied to the class classification circuit 112 and the prediction tap generation circuit 113.
[0040]
In the class classification circuit 112 or the prediction tap generation circuit 113, processing similar to that in the class classification circuit 101 or the prediction tap generation circuit 103 in FIG. 25 is performed, whereby the class or prediction tap of the pixel of interest is output, respectively. The class output from the class classification circuit 112 is supplied to the prediction tap memory 115 and the address terminal (AD) of the teacher data memory 116, and the prediction tap output from the prediction tap generation circuit 113 is supplied to the prediction tap memory 115.
[0041]
The prediction tap memory 115 stores the prediction tap supplied from the prediction tap generation circuit 113 at an address corresponding to the class supplied from the class classification circuit 112.
[0042]
On the other hand, in the delay circuit 114, the HD image is delayed by the time for which the class corresponding to the target pixel is supplied from the class classification circuit 112 to the teacher data memory 116. Of these, the prediction tap is shown in FIG. Only the pixel values of the HD pixels in the positional relationship are supplied to the teacher data memory 116 as teacher data.
[0043]
In the teacher data memory 116, the teacher data supplied from the delay circuit 114 is stored at an address corresponding to the class supplied from the class classification circuit 112.
[0044]
Thereafter, the same processing is repeated until all the SD pixels constituting the SD image obtained from all the HD images prepared for learning are set as the target pixel.
[0045]
As described above, the same address in the prediction tap memory 115 or the teacher data memory 116 has the same positional relationship as the SD pixel indicated by a circle in FIG. 26 or the HD pixel indicated by a mark in FIG. A certain SD pixel or HD pixel is stored as learning data x or teacher data y.
[0046]
In the prediction tap memory 115 and the teacher data memory 116, a plurality of pieces of information can be stored at the same address, whereby a plurality of learnings classified into the same class are stored at the same address. Data x and teacher data y can be stored.
[0047]
Thereafter, the arithmetic circuit 117 reads out the pixel value of the HD pixel as the prediction tap or the teacher data as the learning data stored at the same address from the prediction tap memory 115 or the teacher data memory 116, and uses them to determine the minimum value. A set of prediction coefficients that minimizes the error between the predicted value and the teacher data is calculated by the square method. That is, in the arithmetic circuit 117, the normal equation shown in Expression (7) is established for each class, and by solving this, a set of prediction coefficients for each class is obtained.
[0048]
As described above, a set of prediction coefficients for each class obtained by the arithmetic circuit 117 is stored in an address corresponding to the class in the coefficient ROM 104 of FIG.
[0049]
In the learning process as described above, there may occur a class in which the number of normal equations necessary for obtaining a set of prediction coefficients cannot be obtained. For such a class, for example, the class is ignored. A set of prediction coefficients obtained by solving and solving a normal equation is used as a set of default prediction coefficients.
[0050]
By the way, according to the image conversion apparatus of FIG. 25, as described above, an HD image including a high-frequency component not included in an SD image obtained by reducing the number of pixels of the HD image by thinning or the like. However, there is a limit to approaching the original HD image. The reason may be that the pixel value of the SD image pixel (SD pixel) obtained by thinning the number of pixels of the HD image is not optimal for restoring the original HD image.
[0051]
Therefore, the applicant of the present application has previously proposed compression (encoding) of an image using adaptive processing in order to obtain a decoded image having a quality close to that of the original HD image (for example, a special feature). Application No. 8-206552).
[0052]
That is, FIG. 28 shows a configuration example of an image encoding device that compresses (encodes) an HD image into an optimal SD image so that a decoded image closer to the original HD image can be obtained by adaptive processing. Show.
[0053]
The HD image to be encoded is supplied to the thinning unit 121 and the error calculation unit 43.
[0054]
In the thinning unit 121, the HD image is converted into an SD image by simply being thinned out and supplied to the correction unit 41, for example. When the correction unit 41 receives the SD image from the thinning unit 121, the correction unit 41 first outputs the SD image to the local decoding unit 122 as it is. For example, the local decoding unit 122 is configured in the same manner as the image conversion apparatus illustrated in FIG. 25, and performs the adaptive processing as described above using the SD image from the correction unit 41, thereby obtaining the predicted value of the HD pixel. Calculate and output to the error calculator 43. The error calculation unit 43 calculates a prediction error (error information) of the prediction value of the HD pixel from the local decoding unit 122 with respect to the original HD pixel, and outputs it to the control unit 44. The control unit 44 controls the correction unit 41 in response to the prediction error from the error calculation unit 43.
[0055]
In other words, the correction unit 41 corrects the pixel value of the SD image from the thinning unit 121 according to the control from the control unit 44 and outputs it to the local decoding unit 122. In the local decoding unit 122, the predicted value of the HD image is obtained again using the corrected SD image supplied from the correcting unit 41.
[0056]
Hereinafter, for example, the same processing is repeated until the prediction error output from the error calculation unit 43 is equal to or less than a predetermined value.
[0057]
Then, when the prediction error output from the error calculation unit 43 is equal to or less than a predetermined value, the control unit 44 controls the correction unit 41, thereby correcting the SD when the prediction error is equal to or less than the predetermined value. The image is output as an optimal encoding result of the HD image.
[0058]
Therefore, according to this corrected SD image, an HD image having a prediction error of a predetermined value or less can be obtained by applying adaptive processing thereto.
[0059]
Here, as described above, the SD image output from the image encoding device in FIG. 28 can be said to be optimal for obtaining a decoded image closer to the original HD image. The processing performed by the system composed of the correction unit 41, the local decoding unit 122, the error calculation unit 43, and the control unit 44 can be referred to as optimization processing.
[0060]
[Problems to be solved by the invention]
By the way, in the adaptive process, a prediction tap is constituted by SD pixels around the HD pixel, and the prediction value of the HD pixel is obtained by using the prediction tap. The SD pixel used as the prediction tap is, It was designed to be selected regardless of the image.
[0061]
That is, the prediction tap generation circuit 103 of the image conversion apparatus of FIG. 25 and the local decoding unit 122 of FIG. 28 configured in the same manner as the image conversion apparatus always generate (form) prediction taps of a certain pattern. It was made to.
[0062]
However, images often have locally different characteristics. Therefore, if the characteristics are different, adaptive processing using a prediction tap corresponding to the characteristics can obtain a decoded image closer to the quality of the original HD image. It is thought that you can.
[0063]
The present invention has been made in view of such a situation, and makes it possible to obtain a decoded image with improved image quality.
[0064]
[Means for Solving the Problems]
An image encoding device according to claim 1 is provided. Compression means for generating a compressed image signal having a smaller number of pixels than the number of pixels of the original image signal; One of the pixels constituting the compressed image signal is set as the target pixel, Consists of a pixel of interest used to predict the original image signal and pixels in the vicinity of the pixel of interest A first forming means for forming a plurality of pattern prediction taps, each of the plurality of pattern prediction taps, and a predetermined prediction coefficient are used to predict an original image signal and output a prediction value for each of the plurality of pattern prediction taps. 1 prediction means, a first calculation means for calculating a prediction error for each of the prediction taps for a plurality of patterns, and a prediction tap for obtaining a minimum prediction error among the prediction taps for the plurality of patterns. The pattern code corresponding to By replacing part of the pixel value of the target pixel Adding means for adding to the pixel value of the pixel of interest.
[0065]
The image encoding method according to claim 13, A compression step for generating a compressed image signal having a smaller number of pixels than the number of pixels of the original image signal; One of the pixels constituting the compressed image signal is set as the target pixel, Consists of a pixel of interest used to predict the original image signal and pixels in the vicinity of the pixel of interest A first forming step for forming a plurality of pattern prediction taps, each of the plurality of pattern prediction taps, and a predetermined prediction coefficient are used to predict an original image signal and output a prediction value for each of the plurality of pattern prediction taps. 1 prediction step, a first calculation step for calculating a prediction error of the prediction value for each of the prediction taps for a plurality of patterns with respect to the original image signal, and a prediction tap for obtaining a minimum prediction error among the prediction taps for the plurality of patterns The pattern code corresponding to By replacing part of the pixel value of the target pixel And an additional step of adding to the pixel value of the target pixel.
[0066]
The image decoding device according to claim 25, Separating means for separating the compressed image signal and the prediction coefficient from the encoded data; With one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel is set in the vicinity of the target pixel. The image processing apparatus includes: a forming unit formed using pixels; a prediction tap formed by the forming unit; and a prediction unit that predicts an original image signal from a prediction coefficient and obtains a predicted value thereof.
[0067]
Claim 31 The image decoding method described in A separation step of separating the compressed image signal and the prediction coefficient from the encoded data; With one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel is set in the vicinity of the target pixel. The image forming apparatus includes a forming step formed using pixels, a prediction step for predicting an original image signal from a prediction tap formed by the forming step, and a prediction coefficient, and obtaining a predicted value thereof.
[0069]
In the image encoding device according to claim 1, The compression means generates a compressed image signal having a smaller number of pixels than the number of pixels of the original image signal, The first forming means uses one of the pixels constituting the compressed image signal as a target pixel, Consists of a pixel of interest used to predict the original image signal and pixels in the vicinity of the pixel of interest A plurality of pattern prediction taps are formed, and the first prediction unit predicts an original image signal from each of the plurality of pattern prediction taps and a predetermined prediction coefficient, and outputs a prediction value for each of the plurality of pattern prediction taps. It is made like that. The first calculation means calculates a prediction error of the prediction value for each of the prediction taps of the plurality of patterns with respect to the original image signal, and the addition means sets the prediction tap for obtaining the minimum prediction error among the prediction taps of the plurality of patterns. The corresponding pattern code is By replacing part of the pixel value of the target pixel This is added to the pixel value of the target pixel.
[0070]
In the image encoding method according to claim 13, Generate a compressed image signal with fewer pixels than the original image signal, One of the pixels constituting the compressed image signal is set as the target pixel, Consists of a pixel of interest used to predict the original image signal and pixels in the vicinity of the pixel of interest A plurality of pattern prediction taps are formed, each of the plurality of pattern prediction taps and a predetermined prediction coefficient are used to predict an original image signal, and a prediction value for each of the plurality of pattern prediction taps is output. The prediction error of the prediction value for the original image signal is calculated, and the pattern code corresponding to the prediction tap from which the minimum prediction error is obtained among the prediction taps of the plurality of patterns, By replacing part of the pixel value of the target pixel This is added to the pixel value of the target pixel.
[0071]
In the image decoding device according to claim 25, The separating means separates the compressed image signal and the prediction coefficient from the encoded data, The forming means uses one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, and selects a prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel as the target The prediction means is formed using pixels in the vicinity of the pixel, and the prediction means predicts the original image signal from the prediction tap formed by the formation means and the prediction coefficient, and obtains the prediction value.
[0072]
Claim 31 In the image decoding method described in Separate the compressed image signal and the prediction coefficient from the encoded data, With one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel is set in the vicinity of the target pixel. It is formed using pixels, and an original image signal is predicted from the prediction tap and a prediction coefficient, and the predicted value is obtained.
[0074]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below, but before that, in order to clarify the correspondence between the respective means of the invention described in the claims and the following embodiments, after each means, A corresponding embodiment (however, an example) is added in parentheses to describe the characteristics of the present invention, and the following is obtained.
[0075]
That is, the image encoding apparatus according to claim 1 is an image encoding apparatus that encodes an image signal, and includes a compression unit that generates a compressed image signal having a number of pixels smaller than the number of pixels of the original image signal (for example, A thinning circuit 31 shown in FIG. 5) and one of the pixels constituting the compressed image signal as a target pixel, Consists of a pixel of interest used to predict the original image signal and pixels in the vicinity of the pixel of interest First forming means for forming a plurality of patterns of prediction taps (for example, the prediction tap generation circuit 32 shown in FIG. 5 or the prediction tap generation circuit 61 shown in FIG. 22), each of the plurality of patterns of prediction taps, First prediction means that predicts the original image signal from the prediction coefficient and outputs a predicted value for each of the prediction taps of a plurality of patterns (for example, the class classification adaptive processing circuit 33 shown in FIG. 5 or the class classification shown in FIG. 22). Adaptive processing circuit 62 and the like, and first calculation means for calculating a prediction error of the prediction value for each of the prediction taps of the plurality of patterns with respect to the original image signal (for example, the prediction error calculation circuit 34 shown in FIG. And a pattern code corresponding to a prediction tap from which a minimum prediction error can be obtained among prediction taps of a plurality of patterns, By replacing part of the pixel value of the target pixel An adding means (for example, a tap pattern code adding circuit 36 shown in FIG. 5 or a tap pattern code changing circuit 64 shown in FIG. 22) for adding to the pixel value of the target pixel is provided.
[0076]
The image encoding apparatus according to claim 3, wherein the first prediction unit includes: Predictive error is minimized It has a calculation means (for example, a calculation circuit 87 shown in FIG. 11) for obtaining a prediction coefficient.
[0077]
In the image encoding device according to claim 4, the first prediction unit further includes a class classification unit (for example, a class classification circuit 82 shown in FIG. 11) that classifies the pixel of interest into a predetermined class, A prediction value is obtained from a prediction coefficient corresponding to the class of the pixel of interest and a prediction tap, and the calculation means obtains a prediction coefficient for each class based on the original image signal and the compressed image signal.
[0078]
The image encoding device according to claim 7, The compressed image signal is converted into a signal that minimizes the prediction error of the converted image and the prediction value predicted by the prediction coefficient relative to the original image signal. Further, it is characterized by further comprising optimization means (for example, an optimization unit 23 shown in FIG. 3) for conversion.
[0079]
The image coding apparatus according to claim 8, wherein the optimization unit forms a second prediction unit (for example, as shown in FIG. 16) that forms a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel. A second prediction unit (for example, FIG. 16) that predicts the original image signal and outputs the predicted value from the prediction tap formed by the second generation unit and the prediction coefficient. And a second calculation unit (for example, an error calculation circuit 43 shown in FIG. 16) that calculates a prediction error of the prediction value obtained by the second prediction unit with respect to the original image signal. Etc.) and the prediction error calculated by the second calculation means By increasing or decreasing the pixel value by a predetermined value so that the prediction error becomes smaller And a correction means (for example, a correction unit 41 shown in FIG. 16) for correcting the pixel value of the target pixel.
[0080]
The image coding apparatus according to claim 10, wherein the predicted value obtained by the second prediction unit based on the compressed image signal obtained every time the optimization process is performed and the original image signal is applied to the original image signal. Prediction error Is the coefficient that minimizes The image processing apparatus further includes correction means for correcting the prediction coefficient (for example, the adaptive processing unit 24 shown in FIG. 3), and the first and second prediction means determine the prediction value using the prediction coefficient corrected by the correction means. It is characterized by.
[0081]
The image coding apparatus according to claim 11 includes an output unit (for example, the multiplexing unit 27 shown in FIG. 3) that outputs the compressed image signal output from the optimization unit and the prediction coefficient output from the correction unit. It is further provided with the feature.
[0082]
The image encoding device according to claim 12 further includes output means (for example, a multiplexing unit 27 shown in FIG. 3) that outputs a compressed image signal to which a pattern code is added and a prediction coefficient. And
[0083]
The image decoding device according to claim 25 generates a compressed image signal having a smaller number of pixels than the number of pixels of the original image signal, and uses one of the pixels constituting the compressed image signal as a target pixel. Consists of a pixel of interest used to predict the original image signal and pixels in the vicinity of the pixel of interest A plurality of pattern prediction taps are formed, each of the plurality of pattern prediction taps and a predetermined prediction coefficient are used to predict an original image signal, and a prediction value for each of the plurality of pattern prediction taps is output. The prediction error of the prediction value for the original image signal is calculated, and the pattern code corresponding to the prediction tap from which the minimum prediction error is obtained among the prediction taps of the plurality of patterns, By replacing part of the pixel value of the target pixel Compressed image signal obtained by adding to the pixel value of the pixel of interest And prediction coefficients An image decoding apparatus for decoding encoded data including: Separation means (for example, a separation unit 72 shown in FIG. 24) for separating the compressed image signal and the prediction coefficient from the encoded data; With one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel is set in the vicinity of the target pixel. An original image signal is predicted from a forming unit (for example, a prediction tap generation circuit 73 shown in FIG. 24) formed using pixels, a prediction tap formed by the forming unit, and a prediction coefficient, and the predicted value is calculated. And a predicting means to be obtained (for example, a class classification adaptive processing circuit 74 shown in FIG. 24).
[0084]
The image decoding apparatus according to claim 28, wherein the prediction means includes class classification means (for example, a class classification circuit 91 shown in FIG. 17) for classifying the target pixel into a predetermined class, and sets the target pixel as a class of the target pixel. A predicted value is obtained from the corresponding prediction coefficient and the prediction tap, and the prediction coefficient is When encoding the encoded data, It is obtained for each class based on the original image signal and the compressed image signal.
[0086]
Of course, this description does not mean that the respective means are limited to those described above.
[0087]
FIG. 1 shows the configuration of an embodiment of an image processing apparatus to which the present invention is applied. The transmission device 1 is supplied with digitized HD image data. The transmission device 1 compresses and encodes the input image data (decreasing the number of pixels) and encodes the resulting SD image data as HD image encoded data, for example, an optical disc. Alternatively, the data is recorded on a recording medium 2 made of a magneto-optical disk, a magnetic tape, or the like, or transmitted through, for example, terrestrial waves, a satellite line, a telephone line, a CATV network, or other transmission paths 3.
[0088]
The receiving device 4 reproduces the encoded data recorded on the recording medium 2 or receives the encoded data transmitted via the transmission path 3, decompresses and decodes the encoded data, and the result The decoded image of the obtained HD image is supplied to a display (not shown) and displayed.
[0089]
The image processing apparatus as described above is, for example, an optical disk apparatus, a magneto-optical disk apparatus, a magnetic tape apparatus, or other apparatus for recording / reproducing an image, or, for example, a videophone apparatus or a television set. The present invention is applied to a broadcasting system, a CATV system, and other devices that transmit images. As will be described later, since the amount of encoded data output from the transmission apparatus 1 is small, the image processing apparatus in FIG. 1 has a low transmission rate, such as a mobile phone or other portable terminal that is convenient for movement. It is also applicable to.
[0090]
FIG. 2 shows a configuration example of the transmission apparatus 1.
[0091]
An I / F (InterFace) 11 performs reception processing of image data of HD images supplied from the outside and transmission processing of encoded data to the transmitter / recording device 16. A ROM (Read Only Memory) 12 stores a program for IPL (Initial Program Loading) and others. A RAM (Random Access Memory) 13 stores system programs (OS (Operating System)) and application programs recorded in the external storage device 15, and data necessary for the operation of a CPU (Central Processing Unit) 14. It is made to memorize. In accordance with the IPL program stored in the ROM 12, the CPU 14 expands the system program and the application program from the external storage device 15 to the RAM 13, and executes the application program under the control of the system program. The image data supplied from the image data is encoded as described later. The external storage device 15 is, for example, a magnetic disk device or the like, and stores system programs and application programs executed by the CPU 14 as well as data necessary for the operation of the CPU 14 as described above. The transmitter / recording device 16 records the encoded data supplied from the I / F 11 on the recording medium 2 or transmits it via the transmission path 3.
[0092]
The I / F 11, the ROM 12, the RAM 13, the CPU 14, and the external storage device 15 are connected to each other via a bus. In FIG. 2, the transmission device 1 has a configuration using a CPU, but can also be configured with hard logic.
[0093]
In the transmission apparatus 1 configured as described above, when image data of an HD image is supplied to the I / F 11, the image data is supplied to the CPU 14. The CPU 14 encodes image data and supplies an SD image as encoded data obtained as a result to the I / F 11. When the encoded data is received, the I / F 11 supplies the encoded data to the transmitter / recording device 16. In the transmitter / recording device 16, the encoded data from the I / F 11 is recorded on the recording medium 2 or transmitted via the transmission path 3.
[0094]
FIG. 3 is a functional block diagram of a portion excluding the transmitter / recording device 16 of the transmission device 1 of FIG.
[0095]
The HD image as the image data to be encoded is supplied to the preprocessing unit 21, the optimization unit 23, the adaptive processing unit 24, and the prediction tap pattern determination unit 26.
[0096]
The preprocessing unit 21 performs preprocessing as described later on the HD image supplied thereto, for example, in units of one frame (or one field), and an SD image or a plurality of patterns of prediction taps obtained as a result. A set of prediction coefficients w for each class is supplied to the terminal a of the switch 22 or 25, respectively. The SD image output from the preprocessing unit 21 or the predicted tap pattern determination unit 26 is supplied to the terminal a or b of the switch 22, respectively. The switch 22 selects the terminal a only when a certain HD image is preprocessed by the preprocessing unit 21 and an SD image is output by this, and otherwise selects the terminal b. The SD image output from the processing unit 21 or the predicted tap pattern determination unit 26 is supplied to the optimization unit 23.
[0097]
The optimization unit 23 performs the optimization process described with reference to FIG. 28 on the SD image supplied from the switch 22, and the optimal SD image obtained as a result is represented by the adaptive processing unit 25, the prediction tap pattern determination unit. 26 and the multiplexing unit 27. The adaptive processing unit 24 performs an adaptive process using the optimal SD image from the optimization unit 23 and the original HD image, thereby obtaining a predicted value of the HD image obtained by linear combination with the pixel value of the optimal SD image. A set of prediction coefficients w for each class that reduces the prediction error is calculated for each prediction tap of a plurality of patterns, and is output to the terminal b of the switch 25.
[0098]
The switch 25 selects the terminal a only when the preprocessing unit 21 performs preprocessing on a certain HD image and thereby outputs a set of prediction coefficients w for each class for each of the prediction taps of a plurality of patterns. Otherwise, the terminal b is selected, and a set of prediction coefficients w for each class for each of the plurality of patterns of prediction taps output from the preprocessing unit 21 or the adaptive processing unit 24 is obtained by the optimization unit 23, The prediction tap pattern determination unit 26 and the multiplexing unit 27 are supplied.
[0099]
The prediction tap pattern determination unit 26 forms a plurality of patterns of prediction taps from the optimum SD image supplied from the optimization unit 23, and performs an adaptive process using each of the prediction taps of the plurality of patterns. The predicted value of the image is obtained. Further, the prediction tap pattern determination unit 26 determines the one that minimizes the prediction error of the prediction values of the plurality of HD images among the prediction taps of the plurality of patterns, and from the optimization unit 23 according to the determination result. A pattern code, which will be described later, is added to the pixel value of the optimum SD image and supplied to the terminal b of the switch 22.
[0100]
The multiplexing unit 27, in a predetermined case, sets an optimal SD image supplied from the optimization unit 23 and a set of prediction coefficients w for each class for each of the plurality of patterns of prediction taps supplied via the switch 25. And the multiplexed result is output as encoded data to the transmitter / recording device 16 (FIG. 2).
[0101]
Next, the operation will be described with reference to the flowchart of FIG.
[0102]
When the HD image to be encoded is supplied to the preprocessing unit 21, the optimization unit 23, the adaptive processing unit 24, and the prediction tap pattern determination unit 26, the preprocessing unit 21 preprocesses the HD image in step S1. Is given.
[0103]
That is, the preprocessing unit 21 forms an SD image by reducing the number of pixels of the HD image and compresses the SD image, and sequentially sets each of the SD pixels constituting the SD image as a target pixel. Form pattern prediction taps. Furthermore, the pre-processing unit 21 obtains a set of prediction coefficients w for each class by building and solving the normal equation shown in Expression (7) for each of the plurality of patterns of prediction taps. Then, the preprocessing unit 21 uses the prediction taps of a plurality of patterns and a set of prediction coefficients of a predetermined class of the set of prediction coefficients w for each class obtained for each of the linear 1 shown in Expression (1). By calculating the following equation, prediction values of a plurality of HD images obtained from the prediction taps of a plurality of patterns are obtained. Further, the pre-processing unit 21 detects the smallest prediction error of the prediction values of the plurality of HD images among the prediction taps of the plurality of patterns, and is associated with the pattern of the prediction tap in advance, for example, A tap pattern code, which is a 2-bit code, is added to the SD pixel that is the target pixel and output.
[0104]
As described above, the SD image to which the tap pattern code is added is applied to the terminal a of the switch 22 and the prediction coefficient w for each class for each of the prediction taps of a plurality of patterns obtained by solving the normal equation. Are output to the terminal a of the switch 25, respectively.
[0105]
As described above, the switches 22 and 25 both select the terminal a at the timing when the set of the prediction coefficient w for each class for each of the SD image and the prediction taps of the plurality of patterns is output from the preprocessing unit 21. Accordingly, the SD image output from the preprocessing unit 21 is supplied to the optimization unit 23 via the switch 22, and each of the plurality of patterns of prediction taps output from the preprocessing unit 21 is classified for each class. The set of prediction coefficients w is output to the optimization unit 23 and the prediction tap pattern determination unit 26 via the switch 25.
[0106]
When receiving the set of prediction coefficients w for each class for each of the SD image and the prediction taps of a plurality of patterns, the optimization unit 23 performs an optimization process using them in step S2. That is, the optimization unit 23 performs an adaptive process using the set of prediction coefficients w for each class for each of the SD image and the prediction taps of a plurality of patterns, and the prediction error of the prediction value of the HD image obtained as a result is small. The pixel value of the SD image is corrected so that Then, the optimum SD image obtained as a result is supplied to the adaptive processing unit 24 and the prediction tap pattern determination unit 26.
[0107]
When the adaptive processing unit 24 receives the optimal SD image from the optimization unit 23, the adaptive processing unit 24 performs adaptive processing in step S3, thereby reducing the prediction error of the prediction value of the HD image obtained using the optimal SD image. A set of prediction coefficients w for each class for each of the prediction taps is calculated. That is, the adaptive processing unit 24 forms prediction taps for each pixel of interest by sequentially setting each of the SD pixels constituting the optimal SD image as the pixel of interest. At this time, a prediction tap having a pattern corresponding to the tap pattern code added to the target pixel is formed. Then, the adaptive processing unit 24 calculates a normal equation from the prediction tap for each prediction tap of the plurality of patterns and solves it to obtain a set of prediction coefficients w for each class for each of the prediction taps of the plurality of patterns. . A set of prediction coefficients w for each class for each of the plurality of pattern prediction taps is supplied to a terminal b of the switch 25.
[0108]
After the above processing, the process proceeds to step S4, where both the switches 22 and 25 are switched from the terminal a to b, whereby each of the plurality of pattern prediction taps obtained in the adaptive processing unit 24 is obtained for each class. A set of prediction coefficients w is supplied to the optimization unit 23 and the prediction tap pattern determination unit 26 via the switch 25.
[0109]
Then, when the prediction tap pattern determination unit 26 receives the optimal SD image from the optimization unit 23 and further receives the set of prediction coefficients w for each class for each of the plurality of patterns of prediction taps from the adaptive processing unit 24, In step S5, an optimal pattern of prediction taps formed using each SD pixel constituting the optimal SD image as a target pixel is determined.
[0110]
In other words, the prediction tap pattern determination unit 26 forms a plurality of patterns of prediction taps for each target pixel, with each SD pixel constituting the optimal SD image as a target pixel. Furthermore, the prediction tap pattern determination unit 26 sets, for each of the plurality of patterns of prediction taps, a set of prediction coefficients of a predetermined class among the set of prediction coefficients w for each class corresponding to the prediction tap from the adaptive processing unit 24. Is used to calculate the linear linear expression shown in Expression (1), thereby obtaining predicted values of a plurality of HD images obtained from the prediction taps of a plurality of patterns. And the prediction tap pattern determination part 26 detects the prediction tap of the pattern corresponding to the smallest thing of the prediction errors of the prediction value of the some HD image obtained using each prediction tap of several patterns, and the prediction The tap pattern code already added to the SD pixel that is the target pixel is changed to the tap pattern code corresponding to the tap. That is, in this case, since the tap pattern code has already been added to the SD pixel, the tap pattern code of the prediction tap that minimizes the prediction error is added instead.
[0111]
As described above, the SD image in which the tap pattern code is changed is output to the terminal b of the switch 22.
[0112]
Since the switch 22 is switched in step S4 and the terminal b is selected, the SD image output from the prediction tap pattern determination unit 26 is supplied to the optimization unit 23 via the switch 22. In the optimization unit 23, in step S6, an optimization process is performed in the same manner as in step S2, thereby outputting an optimal SD image. In this case, the optimization unit 23 performs the adaptation process as described in step S2. This adaptation process is performed on the prediction taps of a plurality of patterns supplied from the adaptation processing unit 24 via the switch 25. This is done using a set of prediction coefficients w for each class for each.
[0113]
The optimum SD image output from the optimization unit 23 is supplied to the adaptation processing unit 24 and the prediction tap pattern determination unit 26. In the adaptation processing unit 24, the optimization unit 23 performs the same in step S7 as in step S3. Is performed using the optimum SD image output from the image, a set of prediction coefficients w for each class for each of the prediction taps of a plurality of patterns is obtained, and the optimization unit 23 and the prediction are performed via the switch 25. The data is output to the tap pattern determination unit 26.
[0114]
Thereafter, the process proceeds to step S8, and it is determined whether or not the processes of steps S5 to S8 have been performed a predetermined number of times. If it is determined in step S8 that the processes in steps S5 to S8 have not been performed a predetermined number of times, the process returns to step S5 and the above-described processes are repeated. If it is determined in step S8 that the processes in steps S5 to S8 have been performed a predetermined specified number of times, the process proceeds to step S9, where the multiplexing unit 27 determines that the optimization unit 23 has performed the optimization in step S6. The output optimum SD image and the set of prediction coefficients w for each class for each of the plurality of patterns of prediction taps used at that time are multiplexed, output as encoded data, and the process is terminated.
[0115]
The above processing is repeated, for example, in units of one frame.
[0116]
In the above-described case, it is determined in step S8 whether or not the processing of steps S5 to S8 has been performed a predetermined specified number of times. However, in step S8, for example, the output from the optimization unit 23 at that time is performed. It is determined whether or not the sum of absolute values for one frame of the prediction error of the prediction value of the HD image obtained by performing the adaptive process using the optimal SD image is less than or equal to a predetermined threshold value. If YES in step S9, the process proceeds to step S9. If not equal to or less than the threshold value, the process may return to step S5. That is, the processing in steps S5 to S8 is performed until the absolute value sum of one frame of the prediction error of the prediction value of the HD image obtained by performing the adaptive processing using the optimal SD image is equal to or less than a predetermined threshold value. It is possible to repeat.
[0117]
Next, FIG. 5 shows a configuration example of the preprocessing unit 21 of FIG.
[0118]
The HD image to be encoded is supplied to the thinning circuit 31, the class classification adaptive processing circuit 33, and the prediction error calculation circuit 34.
[0119]
The thinning circuit 31 reduces the number of pixels of the HD image, for example, by thinning out, constitutes an SD image, and supplies it to the prediction tap generation circuit 32 and the tap pattern code addition circuit 36. That is, the thinning circuit 31 divides an HD image into, for example, square blocks each having 9 pixels of horizontal × vertical 3 × 3 pixels, and the average value of the 9 pixels of each block is determined as the pixel of the center pixel. An SD image is formed as a value. Thereby, in the thinning circuit 31, for example, an SD image composed of SD pixels indicated by ◯ in the figure is constructed from an HD image composed of HD pixels indicated by ・ in FIG.
[0120]
In addition, for example, the thinning circuit 31 may be configured to extract only the pixel at the center of the above-described block to form an SD image.
[0121]
The prediction tap generation circuit 32 sequentially sets each SD pixel constituting the SD image from the thinning circuit 31 (the portion indicated by a circle in FIG. 6) as a target pixel, and sets a plurality of patterns of prediction taps for each target pixel. It is made to compose. That is, in the present embodiment, for example, as shown in FIGS. 7 to 10, four patterns of 3 × 3 pixels, 5 × 3 pixels, 3 × 5 pixels, or 7 × 5 pixels centered on the pixel of interest. Prediction taps are formed. These four patterns of prediction taps are supplied to the class classification adaptive processing circuit 33.
[0122]
The class classification adaptive processing circuit 33 performs class classification for each of the four patterns of prediction taps supplied from the prediction tap generation circuit 32, and further, for each class, the normal equation shown in Expression (7) using the HD image. By solving the above, a set of prediction coefficients w for each class for each of the four patterns of prediction taps is obtained. The class classification adaptive processing circuit 33 also includes a prediction coefficient w for each predetermined class, a prediction coefficient w for each predetermined pattern, and a prediction pattern for each of the four patterns, among the set of prediction coefficients w for each class for each of the obtained prediction taps for the four patterns. Thus, by calculating the linear linear expression shown in Expression (1), predicted values of a plurality of HD images obtained from each of the four patterns of prediction taps are obtained and output to the prediction error calculation circuit 34. ing.
[0123]
Note that the set of prediction coefficients w for each class obtained for each of the four patterns of prediction taps in the class classification adaptive processing circuit 33 is supplied to the memory 35.
[0124]
Further, in the present embodiment, in the class classification adaptive processing circuit 33, for each of the four patterns of prediction taps, the normal equation is shown as enclosed by a dotted line in FIG. 6, for example, regardless of the prediction tap pattern. The prediction value of the 3 × 3 HD pixel centered on the SD pixel as the target pixel is obtained. Accordingly, the class classification adaptive processing circuit 33 obtains a set of prediction coefficients for each class for each of the four patterns of prediction taps for generating a prediction value of 3 × 3 HD pixels. The detailed configuration of the class classification adaptive processing circuit 33 will be described later.
[0125]
The prediction error calculation circuit 34 is configured to obtain a prediction error with respect to the pixel value of the original HD image of the prediction value of the HD image obtained from each of the four patterns of prediction taps for each target pixel. That is, for each of the four patterns of prediction taps, for example, the sum of squares of the difference between the predicted value of 9 pixels of HD pixels and the pixel value of 9 pixels of the original HD image is calculated. The prediction error calculation circuit 34 detects the prediction error (sum of squares of differences) that is the smallest of the four patterns of prediction taps. Further, the prediction error calculation circuit 34 outputs a 2-bit tap pattern code corresponding to the prediction tap pattern with the smallest prediction error to the memory 35 and the tap pattern code addition circuit 36.
[0126]
The memory 35 is configured to temporarily store a set of prediction coefficients w for each class obtained from each of the four patterns of prediction taps supplied from the class classification adaptive processing circuit 33. Then, for example, when processing of an HD image of one frame (or one field) ends (that is, a tap pattern code is added to all SD pixels), the memory 35 obtains each of four prediction taps. The set of prediction coefficients w for each class is read out and output to the terminal a of the switch 25.
[0127]
The tap pattern code adding circuit 36 adds the tap pattern code supplied from the prediction error calculating circuit 34 to the SD image supplied thereto. That is, the tap pattern code adding circuit 36 deletes 2 bits on the LSB (Least Significant Bit) side of the pixel value (for example, composed of 8 bits) of the SD pixel that is the target pixel, A 2-bit tap pattern code is arranged. The SD image to which the tap pattern code is added in the tap pattern code adding circuit 36 is output to the terminal a of the switch 22.
[0128]
Here, the configuration of the class classification adaptive processing circuit 33 will be described. The class classification adaptive processing circuit 33 has a class classification adaptive processing circuit (prediction coefficient and prediction value calculation) that performs processing on each of the four patterns of prediction taps. That is, the class classification adaptive processing circuit 33 has four independent class classification adaptive processing circuits (prediction coefficient and prediction value calculation) for each of four patterns of prediction taps. FIG. 11 and FIG. 12 show one of the class classification adaptive processing circuits (prediction coefficient, prediction value calculation). Since the four class classification adaptive processing circuits (prediction coefficient, prediction value calculation) have the same configuration except that four different prediction taps are supplied, one class classification adaptive processing circuit (prediction coefficient, prediction value) Value calculation) will be described and the others will be omitted.
[0129]
The class classification adaptive processing circuit (prediction coefficient and prediction value calculation) shown in FIGS. 11 and 12 includes a class classification circuit 82, a delay circuit 84, a prediction tap memory 85, a teacher data memory 86, an arithmetic circuit 87, and a delay circuit 88 ( 11), a class classification circuit 91, a coefficient RAM 94, and a prediction calculation circuit 95 (FIG. 12).
[0130]
A class classification circuit 82, a delay circuit 84, a prediction tap memory 85, a teacher data memory 86, excluding the delay circuit 88, constituting a part of the class classification adaptive processing circuit (prediction coefficient and prediction value calculation) shown in FIG. Alternatively, the arithmetic circuit 87 is configured similarly to the class classification circuit 112, the delay circuit 114, the prediction tap memory 115, the teacher data memory 116, or the arithmetic circuit 117 of the learning device shown in FIG. However, since the prediction tap is supplied from the prediction tap generation circuit 32, a delay circuit 88 is provided instead of the prediction tap generation circuit 113 shown in FIG. 27, and the prediction tap from the prediction tap generation circuit 32 is a delay circuit. 88 to be supplied. In the delay circuit 88, as in the delay circuit 84, the prediction tap is delayed and supplied to the prediction tap memory 85 by the time for which the class for the pixel of interest is supplied from the class classification circuit 82 to the prediction tap memory 85. It is made to be memorized.
[0131]
In addition, the class classification circuit 91 or the prediction calculation circuit 95 excluding the coefficient RAM 94, which constitutes another part of the class classification adaptive processing circuit (prediction coefficient, prediction value calculation) shown in FIG. 12, is the class shown in FIG. The classification circuit 101 or the prediction calculation circuit 105 is configured in the same manner. The coefficient RAM 94 is configured to store a set of prediction coefficients for each class output from the arithmetic circuit 87 of FIG.
[0132]
In the class classification adaptive processing circuit (prediction coefficient and prediction value calculation) configured as described above, the data for one frame of HD pixels is almost the same as in FIG. 27, the prediction tap memory 85 and the teacher data memory. 86, a set of prediction coefficients for each class is generated. The generated set of prediction coefficients for each class is supplied to and stored in the coefficient RAM 94 in FIG. 12, and is also supplied to and stored in the memory 35 of the preprocessing unit 21 in FIG. As described above, since a set of prediction coefficients for each class for each of the four patterns of prediction taps is generated by an independent circuit, a set of prediction coefficients for each class of each of the four patterns of prediction taps is generated. 12 is supplied to and stored in the coefficient RAM 94 in FIG. 12, and is also supplied to and stored in the memory 35 of the preprocessing unit 21 in FIG.
[0133]
In the class classification circuit 91, the coefficient RAM 94, and the prediction calculation circuit 95 that constitute a part of the class classification adaptive processing circuit (prediction coefficient and prediction value calculation) shown in FIG. 12, a set of prediction coefficients for each class is stored in the coefficient RAM 94. Then, the same processing as that performed by the class classification circuit 101, the coefficient RAM 104, or the prediction calculation circuit 105 of the image conversion apparatus in FIG. 25 is performed, thereby obtaining a predicted value of the HD image. That is, when a set of prediction coefficients for each class for each of the four patterns of prediction taps is stored in the coefficient RAM 94 of FIG. 12, class classification is performed in the class classification circuit 91, and class information is supplied to the coefficient RAM 94. The The coefficient RAM 94 outputs a set of prediction coefficients corresponding to the supplied class information, and supplies it to the prediction calculation circuit 95. The prediction calculation circuit 95 calculates the linear primary expression shown in Expression (1) from the supplied prediction tap and the set of prediction coefficients, thereby obtaining prediction values of a plurality of HD images.
[0134]
Since the class classification circuit 82 and the class classification circuit 91 have the same configuration, only one of them may be provided.
[0135]
Next, the processing of the preprocessing unit 21 will be described with reference to the flowchart of FIG.
[0136]
When an HD image to be encoded is input to the preprocessing unit 21, the HD image is supplied to the thinning circuit 31, the class classification adaptive processing circuit 33, and the prediction error calculation circuit 34. When receiving the HD image, the thinning circuit 31 thins out the number of pixels to form an SD image in step S11.
[0137]
That is, in step S11, as shown in the flowchart of FIG. 14, first, in step S21, the HD image is divided into, for example, 3 × 3 pixel HD image blocks, and the process proceeds to step S22.
[0138]
In this embodiment, the HD image is composed of, for example, a luminance signal Y and color difference signals U and V, and in step S21, a luminance signal block and a color difference signal block are configured. ing.
[0139]
In step S22, one of the blocks is set as a target block, and an average value of the pixel values of 3 × 3 HD pixels constituting the target block is calculated. Further, in step S22, the average value is set as the pixel value of the center pixel (SD pixel) of the target block, and the process proceeds to step S23.
[0140]
In step S23, it is determined whether the target block is a luminance signal block. If it is determined in step S23 that the target block is a block of a luminance signal, the process proceeds to step S24, and the pixel value (in this case, the luminance signal) of the pixel at the center of the target block as the SD pixel is 2 bits on the LSB side. However, in order to add a tap pattern code, it is cleared to 0, for example, and the process proceeds to step S25. If it is determined in step S23 that the target block is not a luminance signal block, that is, if the target block is a color difference signal block, step S24 is skipped and the process proceeds to step S25.
[0141]
Here, in the present embodiment, a plurality of patterns of prediction taps are prepared only for luminance signals, and a fixed pattern of prediction taps is used for color difference signals. Accordingly, the tap pattern code is added only for the luminance signal, and the tap pattern code is not added for the color difference signal. Therefore, the 2 bits on the LSB side are not cleared. .
[0142]
In step S25, it is determined whether all the blocks configured in step S21 have been processed as the target block. If it is determined that all the blocks have not yet been processed as the target block, the process returns to step S22, Similar processing is repeated with a block that has not yet been set as the target block as a new target block. If it is determined in step S25 that all the blocks have been processed as the target block, that is, if an SD image is configured, the process returns.
[0143]
Returning to FIG. 13, in step S <b> 11, the SD image configured as described above is supplied from the thinning circuit 31 to the prediction tap generation circuit 32 and the tap pattern code addition circuit 36. When the prediction tap generation circuit 32 receives the SD image from the thinning-out circuit 31, in step S12, the SD pixels constituting the prediction tap are sequentially set as the target pixels, and the four patterns shown in FIGS. A prediction tap is formed (generated) and supplied to the class classification adaptive processing circuit 33.
[0144]
As described above, four patterns of prediction taps are formed only for luminance signals, and for color difference signals, for example, only a prediction tap of 7 × 5 pixels as shown in FIG. It is formed.
[0145]
In step S13, the class classification adaptive processing circuit 33 is first configured as shown in FIGS. 11 and 12 for each of the four patterns of prediction taps (in the case of luminance signals) supplied from the prediction tap generation circuit 32. Then, class classification is performed by each class classification adaptive processing circuit (prediction coefficient, prediction value calculation).
[0146]
Here, in the present embodiment, for example, for each of the four patterns of prediction taps in class classification circuits 82 and 91 (FIGS. 11 and 12), for example, the following class classification taps (hereinafter referred to as class taps as appropriate). Is configured and classification is performed.
[0147]
That is, with respect to any of the four patterns of prediction taps, for example, the luminance signal is represented by 5 SD pixels in a rhombus-shaped range centered on the target pixel, as shown by being surrounded by a dotted line in FIG. Class taps are configured. Then, the difference between the maximum value and the minimum value of the pixel values of the five pixels is set as a dynamic range DR, and three pixels arranged vertically in the class tap using the dynamic range DR (FIG. 15A). 1 pixel ADRC processing is performed on 3 pixels surrounded by a solid line in FIG. And the thing which added the tap code corresponding to a prediction tap to the pattern of the pixel value of these 3 pixels is made into the class of the attention pixel. Therefore, in this case, a pixel value pattern obtained by performing 1-bit ADRC processing on three vertically arranged pixels in the class tap is represented by 3 bits, and since the tap code is 2 bits, the luminance signal is , 32 (= 2 Five ) Classified into one of the classes.
[0148]
On the other hand, for the color difference signal, for example, as shown by being surrounded by a dotted line in FIG. 15B, a class tap is configured by nine SD pixels in a square range centering on the target pixel. Then, the difference between the maximum value and the minimum value among the pixel values of the nine pixels is set as a dynamic range DR, and the dynamic range DR is used to determine a rhombus-shaped range centering on the target pixel in the class tap. Five SD pixels (5 pixels surrounded by a solid line in FIG. 15B) are subjected to 1-bit ADRC processing. The pattern of pixel values of the five pixels is set as the class of the target pixel. Therefore, in this case, since the pixel value pattern obtained by performing 1-bit ADRC processing on 5 pixels centered on the target pixel in the class tap is expressed by 5 bits, the color difference signal is also the same as the luminance signal. , 32 (= 2 Five ) Classified into one of the classes.
[0149]
In the class classification adaptive processing circuit 33, the class of the target pixel is determined as described above, and accordingly, the prediction of the class corresponding to each address in the prediction tap memory 85 or the teacher data memory 86 (FIG. 11) is performed. Taps or HD pixels (teacher data) are stored. In the arithmetic circuit 87 (FIG. 11), for each of the four patterns of prediction taps, prediction taps or HD images (teacher data) stored in the prediction tap memory 85 or the teacher data memory 86 are used for each class. Thus, a normal equation of Equation (7) is established, and by solving it, a set of prediction coefficients w for each class for each of the four patterns of prediction taps is obtained. A set of prediction coefficients w for each class for each of the four patterns of prediction taps obtained using each of the four patterns of taps is supplied to and stored in the memory 35 and the coefficient RAM 94.
[0150]
Thereafter, in step S14, the class classification adaptive processing circuit 33 sets the prediction coefficient w for each class for each of the four patterns of prediction taps obtained using the four patterns of prediction taps, and the four patterns of prediction taps. From each of them, by calculating the linear linear expression shown in Expression (1), the prediction value of the HD image obtained from each of the four patterns of prediction taps is obtained and output to the prediction error calculation circuit 34.
[0151]
That is, in step S14, the class classification circuit 91 (FIG. 12) is used for the prediction tap generated by the prediction tap generation circuit 32 using one of the SD pixels constituting the SD image output from the thinning circuit 31 as the target pixel. Is read from the coefficient RAM 94 (FIG. 12). Then, in the prediction calculation circuit 95 (FIG. 12), the linear linear expression of Expression (1) is calculated using the set of prediction coefficients w from the coefficient RAM 94 and the prediction tap for the target pixel, Predicted values of nine HD pixels around the target pixel described with reference to FIG. 6 are obtained and supplied to the prediction error calculation circuit 34.
[0152]
In the class classification adaptive processing circuit 33, a predicted value is obtained for each of the four prediction taps.
[0153]
In step S <b> 15, the prediction error calculation circuit 34 obtains a prediction error for the prediction value of the HD image for each of the four patterns of prediction taps supplied from the class classification adaptive processing circuit 33 with respect to the pixel value of the original HD image. That is, for example, for each of the four patterns of prediction taps, the sum of squares of the difference between the predicted value of 9 HD pixels and the original HD pixel value is obtained as a prediction error. In step S16, a prediction tap with the smallest prediction error is detected for the target pixel. Further, the prediction error calculation circuit 34 outputs a 2-bit tap pattern code corresponding to the prediction tap to the tap pattern code adding circuit 36.
[0154]
In the tap pattern code adding circuit 36, in step S17, the pixel value of the target pixel among the SD pixels constituting the SD image from the thinning circuit 31 (however, only for the luminance signal in the present embodiment) on the LSB side. Two bits are output as a tap pattern code (a 2-bit tap pattern code is added instead of the two bits on the LSB side of the pixel value of the target pixel).
[0155]
Thereafter, the process proceeds to step S18, where it is determined whether tap pattern codes have been added to all SD pixels. If it is determined that tap pattern codes have not been added to all SD pixels, the process returns to step S14, The process of steps S14 to S18 is repeated by setting any one of the SD pixels to which the tap pattern code is not added as a new target pixel. On the other hand, if it is determined in step S18 that the tap pattern code has been added to all SD pixels, the memory 35 outputs a set of prediction coefficients w for each class for each of the four patterns of prediction taps in step S19. Then, the process ends.
[0156]
In the pre-processing unit 21, the SD pixels constituting the SD image output from the thinning circuit 31 as described above (here, the pixels having the average value of 3 × 3 HD pixels as the pixel values as described above). For each, a tap pattern code of a prediction tap that minimizes the prediction error is temporarily added.
[0157]
Next, FIG. 16 shows a configuration example of the optimization unit 23 of FIG. In the figure, parts that are basically the same as those in the image encoding apparatus of FIG. 28 are denoted by the same reference numerals. That is, the optimization unit 23 is basically configured in the same manner as the image encoding device in FIG. 28 except that the thinning circuit 121 is not provided and a local decoding unit 42 is provided instead of the local decoding unit 122. .
[0158]
The local decoding unit 42 includes a prediction tap generation circuit 42A and a class classification adaptive processing circuit 42B, and an SD image is supplied from the correction unit 41 thereto. The prediction tap generation circuit 42A forms (generates) a prediction tap corresponding to the tap pattern code arranged on the LSB side of the SD pixel of the SD image supplied from the correction unit 41, and sends it to the class classification adaptive processing circuit 42B. It is made to supply. In addition to the prediction tap, the class classification adaptive processing circuit 42B is supplied with a set of prediction coefficients w for each class for each of the SD pixels for class classification and the four patterns of prediction taps. The class classification adaptive processing circuit 42B classifies the target pixel constituting the prediction tap using the SD pixel for class classification as described in FIG. 15, and sets the prediction coefficient w corresponding to the class. By calculating the linear linear expression shown in the expression (1) from the prediction tap, the 3 × 3 HD centered on the SD pixel as the target pixel, which is surrounded by a dotted line in FIG. A predicted value of the pixel value of the pixel is obtained. This predicted value is supplied to the error calculation unit 43.
[0159]
Here, FIG. 17 shows a configuration example of the class classification adaptive processing circuit 42B of FIG. In the figure, portions corresponding to those in FIG. 12 are denoted by the same reference numerals. That is, the class classification adaptive processing circuit 42B is configured in the same way as a part of one class classification adaptive processing circuit (prediction coefficient, prediction value calculation) constituting the class classification adaptive processing circuit 33 shown in FIG. The description is omitted.
[0160]
Next, the operation will be described with reference to the flowchart of FIG.
[0161]
When receiving the SD image, the optimization unit 23 sets one of the SD pixels constituting the SD image as a target pixel, and sets a variable Δ representing a correction amount for correcting the pixel value of the target pixel in step S31. For example, it is initialized to 0. In step S31, for example, 4 or 1 is set as an initial value in a variable S that represents a change amount (hereinafter referred to as an offset amount as appropriate) for changing the correction amount.
[0162]
That is, for the luminance signal, as described above, since the 2 bits on the LSB side are a tap pattern code and do not constitute a pixel value, the offset amount S is 4 (= 2). 2 ) Is set. Further, this is not the case for the color difference signal, and all bits constitute a pixel value, and therefore the offset amount S is 1 (= 2). 0 ) Is set.
[0163]
Further, in step S31, −1 as an initial value is set to a variable i for counting the number of corrections of the target pixel, and the process proceeds to step S32. In step S32, the number of times i is incremented by 1, and the process proceeds to step S33. When the adaptive processing is performed using the correction value obtained by correcting the pixel value of the target pixel by the correction amount Δ, the HD pixel affected by the correction is affected. A prediction error E of the predicted value is calculated.
[0164]
That is, in this case, the correction unit 41 adds, for example, the correction amount Δ to the pixel value of the target pixel, and outputs the addition value to the local decoding unit 42 as the pixel value of the target pixel. Here, when the process of step S33 is first performed on the target pixel, that is, when the number of times i = 0, the correction amount Δ remains 0, which is the initial value set in step S31. From the correction unit 41, the pixel value of the target pixel is output as it is.
[0165]
In the local decoding unit 42, in the prediction tap generation circuit 42A, a prediction tap is formed corresponding to the tap pattern code arranged in 2 bits on the LSB side of the pixel value of the pixel of interest, and the classification classification adaptive processing circuit 42B Is output. In the class classification adaptive processing circuit 42B, first, the pixel of interest is classified in the same manner as in the class classification adaptive processing circuit 33 in FIG. Further, the class classification adaptive processing circuit 42B calculates the HD pixel by calculating the linear primary expression shown in Expression (1) from the prediction coefficient corresponding to the class and the prediction tap from the prediction tap generation circuit 42A. The predicted value of the pixel value is obtained.
[0166]
That is, in the class classification adaptive processing circuit 42B, in the class classification circuit 91 (FIG. 17), the class tap as described in FIG. 15 is configured from the SD pixels constituting the prediction tap from the prediction tap generation circuit 42A, and the class Classification is performed. The class obtained as a result of the class classification in the class classification circuit 91 is supplied to the coefficient RAM 94 (FIG. 17).
[0167]
The coefficient RAM 94 (FIG. 17) stores a set of prediction coefficients for each class for each of the four patterns of prediction taps supplied via the switch 25, and the prediction coefficient corresponding to the class from the class classification circuit 91 is stored. A set of prediction coefficients for the prediction tap corresponding to the tap pattern code added to the target pixel is read. This set of prediction coefficients is supplied to the prediction calculation circuit 95 (FIG. 17).
[0168]
In the prediction calculation circuit 95, the linear primary expression of Expression (1) is calculated using the set of prediction coefficients from the coefficient RAM 94 and the prediction tap supplied from the prediction tap generation circuit 42A, thereby obtaining an HD pixel. Is predicted.
[0169]
Further, in the class classification adaptive processing circuit 42B, when the pixel value of the target pixel is corrected by the correction amount Δ, the predicted value is similarly obtained for the HD pixel affected by the correction.
[0170]
That is, for example, as shown in FIG. 19, it is assumed that the SD pixel A is corrected as a target pixel. In the present embodiment, the prediction tap has the widest range when the prediction tap is composed of 7 × 5 SD pixels as shown in FIG. In the case where the prediction tap is configured, the SD pixel A is included in the prediction tap, and the SD pixel farthest from the SD pixel A is the target pixel. SD pixels B, C, D , E are the target pixels, and a 7 × 5 pixel prediction tap is configured. Then, when the SD pixels B, C, D, and E are set as the target pixels and a prediction tap of 7 × 5 pixels is configured, in the present embodiment, ranges b, c, and d surrounded by solid lines in FIG. , E, the predicted values of 3 × 3 HD pixels are respectively obtained. Therefore, when the pixel value is corrected with the SD pixel A as the pixel of interest, the worst case is the smallest rectangle including the ranges b, c, d, and e. This is the predicted value of 21 × 15 HD pixels within the range indicated by the dotted line at 19.
[0171]
Therefore, in the present embodiment, such a predicted value of 21 × 15 HD pixels is obtained in the class classification adaptive processing circuit 42B.
[0172]
The predicted value of the HD pixel obtained by the class classification adaptive processing circuit 42B is supplied to the error calculation unit 43. The error calculation unit 43 subtracts the true pixel value of the corresponding HD pixel from the predicted value of the HD pixel from the class classification adaptive processing circuit 42B, and obtains, for example, the square sum of the prediction error that is the subtraction value. This sum of squares is supplied to the control unit 44 as error information E.
[0173]
When the error information is received from the error calculation unit 43, the control unit 44 determines whether or not the number of times i is 0 in step S34. If it is determined in step S34 that the number of times i is 0, that is, if the error information E received by the control unit 44 is obtained without correcting the target pixel, the process proceeds to step S35. Variable E for storing error information obtained without correcting the pixel of interest (error information when not corrected) 0 In addition, the error information E is set, and the error information E is also set in the variable E ′ for storing the previously obtained error information. Further, in step S35, the correction amount Δ is incremented by the offset amount S, and the control unit 44 controls the correction unit 41 so as to correct the pixel value of the target pixel by the correction amount Δ obtained thereby. . Thereafter, the process returns to step S32, and the same processing is repeated thereafter.
[0174]
In this case, in step S32, the number of times i is incremented by 1 to become 1, so in step S34, it is determined that the number of times i is not 0, and the process proceeds to step S36. In step S36, it is determined whether or not the number of times i is 1. In this case, since the number of times i is 1, in step S36, it is determined that the number of times i is 1. The process proceeds to step S37, and whether or not the previous error information E ′ is greater than or equal to the current error information E. Is determined. If it is determined in step S37 that the previous error information E ′ is not equal to or greater than the current error information E, that is, the current error information E is corrected by correcting the pixel value of the target pixel by the correction amount Δ. If the error information E ′ has increased from the previous error information E ′ (in this case, error information when no correction is performed), the process proceeds to step S 38, and the control unit 44 newly calculates a value obtained by multiplying the offset amount S by −1. Further, the correction amount Δ is incremented by twice the offset amount S, and the process returns to step S32.
[0175]
That is, by correcting the pixel value of the target pixel by the correction amount Δ (in this case, Δ = S), the sign of the offset amount S is reversed when the error increases compared to when the correction is not performed. (In this embodiment, since a positive value is set in the offset amount S in step S31, the sign of the offset amount S is changed from positive to negative in step S38). Further, the correction amount Δ which was S in the previous time is set to −S.
[0176]
If it is determined in step S37 that the previous error information E ′ is equal to or greater than the current error information E, that is, the current error information E ′ is corrected by correcting the pixel value of the target pixel by the correction amount Δ. Is reduced from the previous error information E ′ (or the same as the previous error information E ′), the process proceeds to step S39, where the control unit 44 increments the correction amount Δ by the offset amount S and The error information E ′ is updated by setting the current error information E, and the process returns to step S32.
[0177]
In this case, in step S32, the number of times i is further incremented by 1 to become 2, so that in step S34 or S36, it is determined that the number of times i is not 0 or 1, respectively, and as a result, the process proceeds from step S36 to S40. In step S40, it is determined whether or not the number of times i is 2. Since the number of times i is now 2, in step S40, it is determined that the number of times i is 2, and the process proceeds to step S41, where error information E at the time of uncorrection is obtained. 0 Is less than or equal to the current error information E, and whether or not the offset amount S is negative is determined.
[0178]
In step S40, error information E when uncorrected 0 Is equal to or less than the current error information E, and the offset amount S is determined to be negative, that is, when the pixel of interest is corrected by + S or by only -S, or when it is not corrected. When the error increases, the process proceeds to step S42, the correction amount Δ is set to 0, and the process proceeds to step S47.
[0179]
In step S40, error information E at the time of uncorrection is displayed. 0 Is not equal to or smaller than the current error information E, or the offset amount S is determined not to be negative, the process proceeds to step S44, and it is determined whether or not the previous error information E ′ is equal to or greater than the current error information E. . When it is determined in step S44 that the previous error information E ′ is equal to or greater than the current error information E, that is, by correcting the pixel value of the target pixel by the correction amount Δ, the current error information E is When it decreases from the previous error information E ′, the process proceeds to step S45, and the control unit 44 increments the correction amount Δ by the offset amount S and sets the current error information E to the previous error information E ′. And the process returns to step S32.
[0180]
In this case, since the number of times i is further incremented by 1 in step S32 to be 3, it is determined in steps S34, S36, or S40 that the number of times i is not 0, 1, or 2, respectively. As a result, the process proceeds from step S40 to S44. Therefore, the loop process of steps S32 to S34, S36, S40, S44, and S45 is repeated until it is determined in step S44 that the previous error information E ′ is not greater than or equal to the current error information E.
[0181]
In step S44, when it is determined that the previous error information E ′ is not equal to or greater than the current error information E, that is, by correcting the pixel value of the target pixel by the correction amount Δ, On the other hand, if it has increased from the previous error information E ′, the process proceeds to step S46, where the control unit 44 decrements the correction amount Δ by the offset amount S, and proceeds to step S47. That is, in this case, the correction amount Δ is a value before the error increases.
[0182]
In step S47, the control unit 44 controls the correction unit 41 to correct the pixel value of the pixel of interest by the correction amount Δ obtained in step S42 or S46, whereby the pixel value of the pixel of interest is adaptive. In order to obtain a predicted value by processing, the predicted value is corrected to an optimum value that minimizes the prediction error.
[0183]
Then, the process proceeds to step S48, and it is determined whether or not processing has been performed using all SD pixels as the target pixel. If it is determined in step S48 that all the SD pixels are the target pixels and the process has not yet been performed, the process returns to step S31, and the SD pixel that has not yet been set as the target pixel is set as a new target pixel. repeat. If it is determined in step S48 that the process has been performed using all SD pixels as the target pixel, the process ends.
[0184]
As described above, the pixel value of the SD image is optimized to be optimal for obtaining the predicted value of the HD image.
[0185]
Next, FIG. 20 shows a configuration example of the adaptive processing unit 24 of FIG.
[0186]
The prediction tap generation circuit 51 is supplied with the optimum SD image from the optimization unit 23, where the LSB side of the pixel value is the same as in the prediction tap generation circuit 42A of FIG. The tap pattern code arranged in 2 bits is detected, a prediction tap is constructed according to the tap pattern code, and is supplied to the class classification adaptive processing circuit 52.
[0187]
In addition to the prediction tap, the class classification adaptive processing circuit 52 is also supplied with an optimal SD image used for class classification and an original HD image, in which the class of the target pixel constituting the prediction tap is determined. For example, the classification is performed in the same manner as described with reference to FIG. 15. Further, for each class obtained as a result, the normal equation shown in Expression (7) is established using the prediction tap and the HD image. Has been made. The class classification adaptive processing circuit 52 obtains and outputs a set of prediction coefficients w for each of the new four patterns of prediction taps by solving the normal equation for each class.
[0188]
Next, the operation will be described with reference to the flowchart of FIG. When receiving the optimum SD image, the prediction tap generation circuit 51 detects (extracts) the tap pattern code added to each SD pixel constituting the optimum SD pixel in step S51, and proceeds to step S52 to extract the tap pattern code. A prediction tap is formed based on the tap pattern code. Then, the prediction tap generation circuit 51 outputs the formed prediction tap to the class classification adaptive processing circuit 52. In step S53, the class classification adaptive processing circuit 52 performs class classification of the target pixel constituting the prediction tap, and for each class obtained as a result, a normal equation is created by using the prediction tap and the HD image. The prediction coefficient w is obtained and output, and the process ends.
[0189]
Thus, the adaptive processing unit 24 obtains a set of prediction coefficients w for each class for each of the four patterns of prediction taps that minimize the prediction error in order to obtain the original HD image from the optimum SD image. As described above, a set of prediction coefficients w for each class for each of the four patterns of prediction taps is supplied to the optimization unit 23 and the prediction tap pattern determination unit 26, and the adaptive processing (linear expression shown in Expression (1)) is performed. Used in the calculation of the linear equation).
[0190]
In the embodiment of FIG. 20, the prediction tap generation circuit 51 detects the tap pattern code arranged in the 2 bits on the LSB side of the pixel value, and configures the prediction tap according to the tap pattern code. However, the prediction tap generation circuit 51 can also be configured in the same manner as the prediction tap generation circuit 32 of the preprocessing unit 21 in FIG. That is, the prediction tap generation circuit 51 can configure all four patterns of prediction taps and supply them to the class classification adaptive processing circuit 52. In this case, the class classification adaptive processing circuit 52 can be configured by a class classification adaptive processing circuit (for luminance signal) for calculating four prediction coefficients corresponding to each of the four patterns of prediction taps. Each of the adaptive processing circuits can be configured in the same manner as a part of the class classification adaptive processing circuit (prediction coefficient, prediction value calculation) shown in FIG.
[0191]
In this case, each class classification adaptive processing circuit is supplied with a prediction tap of each pattern corresponding to each HD pixel constituting the HD image, and the class tap using the optimum SD pixel constituting the prediction tap. Are formed, and classification is performed for each. Furthermore, in each class classification adaptive processing circuit, one frame of HD pixels and prediction taps for the HD pixels are stored for each class in the teacher data memory 86 and the prediction tap memory 85, respectively. Thereafter, in each of the class classification adaptive processing circuits, a new set of prediction coefficients for each class for the four patterns of prediction taps is generated in the same manner as in the learning apparatus of FIG.
[0192]
Next, FIG. 22 illustrates a configuration example of the prediction tap pattern determination unit 26 of FIG.
[0193]
The prediction tap pattern determination unit 26 includes a prediction tap generation circuit 61, a class classification adaptive processing circuit 62, a prediction error calculation circuit 63, and a tap pattern code change circuit 64 as shown in FIG. The tap generation circuit 61, the class classification adaptive processing circuit 62, the prediction error calculation circuit 63, or the tap pattern code change circuit 64 are the prediction tap generation circuit 32, the class classification adaptive processing circuit 33, the prediction error of the preprocessing unit 21 in FIG. The calculation circuit 34 or the tap pattern code addition circuit 36 is basically configured in the same manner.
[0194]
Next, the operation will be described with reference to the flowchart of FIG.
[0195]
The prediction tap pattern determination unit 26 is supplied with an optimal SD image, a set of prediction coefficients for each class for each of the four patterns of prediction taps, and an HD image. The set of prediction coefficients for each class or the HD image for each of the four patterns of prediction taps is supplied to the class classification adaptive processing circuit 62 or the prediction error calculation circuit 63, respectively. It is made to be supplied.
[0196]
When receiving the optimum SD image, the prediction tap generation circuit 61 sets one of the pixels as a target pixel in step S61 as in the case of the prediction tap generation circuit 32 of FIG. The four patterns of prediction taps shown are formed. The four patterns of prediction taps are output to the class classification adaptive processing circuit 62.
[0197]
When the class classification adaptive processing circuit 62 receives the four patterns of prediction taps formed on the target pixel, in step S62, each of the four patterns of prediction taps and the corresponding set of prediction coefficients w for each class Is used to calculate the linear linear expression represented by the expression (1), thereby obtaining the prediction value of 9 pixels of the HD image obtained from each of the four patterns of prediction taps, and outputting the prediction value to the prediction error calculation circuit 63 Is done.
[0198]
In step S63 or S64, the prediction error calculation circuit 63 performs the same processing as in step S15 or S16 of FIG. 13 performed by the prediction error calculation circuit 34 of FIG. Among these, the tap pattern code that minimizes the prediction error is output to the tap pattern code changing circuit 64.
[0199]
In the tap pattern code changing circuit 64, the tap pattern code added to the 2 bits on the LSB side of the target pixel (the SD pixel of the optimum SD image) in step S65 is supplied from the prediction error calculating circuit 63. The process proceeds to step S66.
[0200]
In step S66, it is determined whether or not processing has been performed with all SD pixels as the target pixel. If it is determined that all SD pixels have not been processed as the target pixel, the process returns to step S61 and is set as the target pixel. The same process is repeated with a new SD pixel as a new target pixel. On the other hand, if it is determined in step S66 that the process has been performed using all SD pixels as the target pixel, the process ends.
[0201]
As described above, the prediction tap pattern determination unit 26 uses the set of prediction coefficients w for each of the four patterns of prediction taps obtained by the adaptive processing unit 24 to reduce the prediction error of the tap pattern code. It is changed to the one corresponding to the prediction tap.
[0202]
Next, FIG. 24 illustrates a configuration example of the receiving device 4 of FIG.
[0203]
In the receiver / reproducing apparatus 71, the encoded data recorded on the recording medium 2 is reproduced or the encoded data transmitted via the transmission path 3 is received and supplied to the separation unit 72. In the separation unit 72, the encoded data is separated into a set of prediction coefficients w for each class for each of the image data of the SD image and the prediction taps of the four patterns, and the image data of the SD image is sent to the prediction tap generation circuit 73. The set of prediction coefficients w for each class for each of the four patterns of prediction taps is supplied to the class classification adaptive processing circuit 74.
[0204]
The prediction tap generation circuit 73 or the class classification adaptive processing circuit 74 is the same as the prediction tap generation circuit 42A or the class classification adaptive processing circuit 42B (FIG. 17) constituting the local decoding unit 42 of the optimization unit 23 shown in FIG. It is configured. Accordingly, the predicted value of the HD image is obtained in the same manner as in the local decoding unit 42, and this is output as a decoded image. As described above, this decoded image is almost the same as the original image.
[0205]
Note that, on the receiving side, even if the receiving apparatus 4 is not as shown in FIG. 24, decoding is performed by performing normal interpolation without using a prediction coefficient by an apparatus that decodes a thinned image by simple interpolation. An image can be obtained. However, the decoded image obtained in this case has deteriorated image quality (resolution).
[0206]
As described above, one of the pixels constituting the SD image obtained by compressing the HD image is set as the target pixel, and a plurality of patterns of prediction taps are formed for the target pixel. An adaptive process for obtaining a prediction value of an HD image is performed by linear combination with a coefficient, a prediction error of a prediction value obtained from each of a plurality of pattern prediction taps is calculated, and a minimum prediction error among prediction taps of a plurality of patterns is Since the tap pattern code corresponding to the obtained one is added to the pixel value of the target pixel, the adaptive processing is performed using the prediction tap corresponding to the local characteristics of the image, and as a result, the image quality is improved. A good decoded image can be obtained.
[0207]
Further, since the 2-bit tap pattern code is arranged in place of the 2 bits on the LSB side of the pixel value, it is possible to prevent an increase in the data amount. Note that since the tap pattern code is arranged on the LSB side of the pixel value, there is no significant deterioration in image quality.
[0208]
Further, since the optimization unit 23 performs the adaptive process using the prediction tap that minimizes the error, the SD image is optimized, so that a decoded image that is substantially the same as the original HD image can be obtained. It becomes possible.
[0209]
In addition, the adaptive processing unit 24 performs adaptive processing using the optimal SD image, and updates (corrects) the set of prediction coefficients for each class for each of the plurality of patterns of prediction taps, to a more appropriate one, In the prediction tap pattern determination unit 26, the prediction tap is re-determined using the set of prediction coefficients for each class for each of the updated prediction taps of the plurality of patterns. Can be obtained.
[0210]
The case where the present invention is applied to an image processing apparatus that encodes / decodes an HD image has been described above. However, the present invention can also be applied to a case where an image having a standard resolution such as an SD image is encoded / decoded. Applicable. That is, for example, the present invention can be applied to the case of encoding / decoding a standard television signal such as the NTSC system. However, the present invention is particularly effective when encoding / decoding a so-called high-vision television signal having a large amount of data. The present invention can also be applied to so-called hierarchical encoding.
[0211]
In this embodiment, a plurality of patterns of prediction taps are prepared only for the luminance signal, and only the 5 × 7 pixel prediction tap is used for the color difference signal. However, the color difference signal is the same as the luminance signal. Can be processed.
[0212]
In this embodiment, the tap pattern code is 2 bits, but the tap pattern code is not limited to 2 bits. However, it is desirable that the number of bits is smaller.
[0213]
Furthermore, in this embodiment, a tap pattern code is arranged instead of the 2 bits on the LSB side of the pixel value. However, the tap pattern code can be recorded or transmitted separately from the pixel value. .
[0214]
In the present embodiment, the prediction coefficient is updated using the optimal SD image pre-processed by the pre-processing unit 21 and optimized by the optimization unit 23, and the tap pattern code is again used using the prediction coefficient. However, the optimal SD image preprocessed by the preprocessing unit 21 and optimized by the optimization unit 23 can be used as encoded data as it is. In this case, the image quality (S / N) of the decoded image is somewhat degraded as compared with the case where the tap pattern code is re-determined, but the processing speed can be increased.
[0215]
Furthermore, in the present embodiment, 4 patterns of prediction taps of 3 × 3, 5 × 3, 3 × 5, and 7 × 5 pixels are used, but other than this, for example, 1 × 5 or 5 × 1 It is also possible to use prediction taps such as pixels. Also, the prediction tap patterns are not limited to four types.
[0216]
Further, although not particularly mentioned in the present embodiment, after adding a tap pattern code to the pixel value, the pixel value is obtained by setting the two bits on the LSB side to which the tap pattern code is added to a predetermined value. Processing may be performed, or processing may be performed using pixel values including a tap pattern code. According to the experiment conducted by the present inventor, when the pixel value including the tap pattern code is used, the S / N is slightly higher than when the tap pattern code portion is set to 0 as the predetermined value. Although the image quality deteriorates, the result is that the gradation is slightly improved.
[0217]
In FIG. 18, the correction value Δ at which the prediction error E is first minimized is detected by correcting the pixel value of the target pixel by 4 or 1 as the offset amount S. For example, it is also possible to obtain the prediction error E for all possible values of the pixel value of the target pixel, detect the minimum value thereof, and correct the pixel value of the target pixel with the correction amount Δ in that case. . In this case, although processing takes time, a decoded image with a higher S / N can be obtained.
[0218]
Further, when the prediction error E is obtained for all the values that can be taken by the pixel value of the target pixel in this way, the initial value of the pixel value of the target pixel can be any value (however, the pixel value of the target pixel can be taken). It may be a value within a range. That is, in this case, the correction value Δ that minimizes the prediction error E can be obtained regardless of the initial value.
[0219]
Various modifications and application examples can be considered without departing from the gist of the present invention. Therefore, the gist of the present invention is not limited to the above-described embodiment.
[0220]
【The invention's effect】
According to the image encoding device and the image encoding method of the present invention, one of the pixels constituting the compressed image signal is set as the target pixel, Consists of a pixel of interest used to predict the original image signal and pixels in the vicinity of the pixel of interest A plurality of pattern prediction taps are formed, an original image signal is predicted from each of the plurality of pattern prediction taps and a predetermined prediction coefficient, and a prediction value for each of the plurality of pattern prediction taps is output. Then, a prediction error of the prediction value for each of the prediction taps of the plurality of patterns is calculated with respect to the original image signal, and among the prediction taps of the plurality of patterns, the pattern code corresponding to the prediction tap that obtains the minimum prediction error is By replacing part of the pixel value of the target pixel It is added to the pixel value of the target pixel. Therefore, it is possible to obtain a decoded image with improved image quality by forming a prediction tap according to the pattern code and performing decoding.
[0221]
According to the image decoding apparatus and the image decoding method of the present invention, The compressed image signal and the prediction coefficient are separated from the encoded data, With one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, the prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel is near the target pixel. An original image signal is predicted from the prediction tap and the prediction coefficient, which are formed using pixels, and the predicted value is obtained. Therefore, it is possible to obtain a predicted value closer to the original image signal.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of an image processing apparatus to which the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration example of the transmission device 1 of FIG.
3 is a block diagram illustrating a functional configuration example of the transmission device 1 of FIG. 2; FIG.
4 is a flowchart for explaining the operation of the transmission apparatus 1 of FIG. 3;
5 is a block diagram illustrating a configuration example of a preprocessing unit 21 in FIG. 3. FIG.
6 is a diagram for explaining processing of the thinning circuit 31 in FIG. 5; FIG.
FIG. 7 is a diagram illustrating a configuration example of a prediction tap.
FIG. 8 is a diagram illustrating a configuration example of a prediction tap.
FIG. 9 is a diagram illustrating a configuration example of a prediction tap.
FIG. 10 is a diagram illustrating a configuration example of a prediction tap.
11 is a block diagram showing a configuration example of a part of a class classification adaptive processing circuit (prediction coefficient and prediction value calculation) constituting the class classification adaptive processing circuit 33 of FIG. 5;
12 is a block diagram showing another configuration example of the class classification adaptive processing circuit (prediction coefficient and prediction value calculation) constituting the class classification adaptive processing circuit 33 of FIG. 5. FIG.
13 is a flowchart for explaining processing of the preprocessing unit 21 of FIG. 5;
FIG. 14 is a flowchart for explaining more details of the process in step S11 of FIG.
FIG. 15 is a diagram illustrating a configuration example of a class tap for performing class classification.
16 is a block diagram illustrating a configuration example of the optimization unit 23 in FIG. 3;
17 is a block diagram illustrating a configuration example of the class classification adaptation processing circuit 42B in FIG. 16 and the class classification adaptation processing circuit 74 in FIG. 24;
18 is a flowchart for explaining processing of the optimization unit 23 of FIG. 16;
FIG. 19 is a diagram for explaining the processing in step S33 of FIG. 18;
20 is a block diagram illustrating a configuration example of an adaptive processing unit 24 in FIG. 3;
FIG. 21 is a flowchart for explaining processing of the adaptive processing unit 24 in FIG. 20;
22 is a block diagram illustrating a configuration example of a predicted tap pattern determination unit 26 in FIG. 3;
23 is a flowchart for explaining processing of a predicted tap pattern determination unit 26 in FIG.
24 is a block diagram illustrating a configuration example of the reception device 4 in FIG. 1. FIG.
FIG. 25 is a block diagram illustrating a configuration example of an image conversion apparatus previously proposed by the present applicant.
FIG. 26 is a diagram for explaining processing of the class classification circuit 101 in FIG. 25;
FIG. 27 is a block diagram illustrating a configuration example of a learning apparatus previously proposed by the applicant of the present application.
FIG. 28 is a block diagram illustrating a configuration example of an image encoding device previously proposed by the present applicant.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Transmitting device, 2 Recording medium, 3 Transmission path, 4 Receiving device, 11 I / F, 12 ROM, 13 RAM, 14 CPU, 15 External storage device, 16 Transmitter / recording device, 21 Preprocessing part, 22 Switch, 23 optimization unit, 24 adaptive processing unit, 25 switch, 26 prediction tap pattern determination unit, 31 decimation circuit, 32 prediction tap generation circuit, 33 class classification adaptive processing circuit, 34 prediction error calculation circuit, 35 memory, 36 tap pattern code Additional circuit, 41 correction unit, 42 local decoding unit, 42A prediction tap generation circuit, 42B class classification adaptive processing circuit, 43 error calculation unit, 44 control unit, 51 prediction tap generation circuit, 52 class classification adaptive processing circuit, 61 prediction tap Generation circuit, 62 class classification adaptive processing circuit, 63 prediction error calculation circuit, 64 Pattern code changing circuit, 71 receiver / reproducing device, 72 separation unit, 73 prediction tap generation circuit, 74 class classification adaptive processing circuit, 82 class classification circuit, 84 delay circuit, 85 prediction tap memory, 86 teacher data memory, 87 arithmetic circuit, 88 delay circuit, 91 class classification circuit, 94 coefficient RAM, 95 prediction arithmetic circuit

Claims (36)

画像信号を符号化する画像符号化装置であって、
原画像信号の画素数より少ない画素数の圧縮画像信号を発生する圧縮手段と、
前記圧縮画像信号を構成する画素のうちの1つを注目画素として、前記原画像信号を予測するために用いる前記注目画素および前記注目画素の近傍の画素からなる複数パターンの予測タップを形成する第1の形成手段と、
前記複数パターンの予測タップそれぞれと、所定の予測係数とから、前記原画像信号を予測し、前記複数パターンの予測タップそれぞれに対する予測値を出力する第1の予測手段と、
前記複数パターンの予測タップそれぞれに対する前記予測値の、前記原画像信号に対する予測誤差を算出する第1の算出手段と、
前記複数パターンの予測タップのうち、最小の前記予測誤差が得られる予測タップに対応するパターンコードを、前記注目画素の画素値の一部と置き換えることにより前記注目画素の画素値に付加する付加手段と
を備えることを特徴とする画像符号化装置。
An image encoding device for encoding an image signal,
Compression means for generating a compressed image signal having a smaller number of pixels than the number of pixels of the original image signal;
A prediction tap having a plurality of patterns including the target pixel used for predicting the original image signal and pixels in the vicinity of the target pixel is formed using one of the pixels constituting the compressed image signal as the target pixel. 1 forming means;
First prediction means for predicting the original image signal from each of the plurality of pattern prediction taps and a predetermined prediction coefficient, and outputting a prediction value for each of the plurality of pattern prediction taps;
First calculation means for calculating a prediction error of the predicted value for each of the prediction taps of the plurality of patterns with respect to the original image signal;
An adding means for adding a pattern code corresponding to a prediction tap from which the minimum prediction error is obtained among the prediction taps of the plurality of patterns to a pixel value of the target pixel by replacing a part of the pixel value of the target pixel An image encoding device comprising:
前記付加手段は、前記注目画素の画素値のLSB(Least Significant Bit)側のNビットに代えて、前記パターンコードを配置する
ことを特徴とする請求項1に記載の画像符号化装置。
The image coding apparatus according to claim 1, wherein the adding unit arranges the pattern code in place of N bits on the LSB (Least Significant Bit) side of a pixel value of the target pixel.
前記第1の予測手段は、前記予測誤差が最小となる前記予測係数を求める演算手段を有する
ことを特徴とする請求項1に記載の画像符号化装置。
The image coding apparatus according to claim 1, wherein the first prediction unit includes a calculation unit that obtains the prediction coefficient that minimizes the prediction error .
前記第1の予測手段は、
前記注目画素を、所定のクラスに分類するクラス分類手段をさらに有し、
前記注目画素のクラスに対応する予測係数と、前記予測タップとから、前記予測値を求め、
前記演算手段は、前記予測係数を、前記クラスごとに求める
ことを特徴とする請求項3に記載の画像符号化装置。
The first prediction means includes
Class classification means for classifying the pixel of interest into a predetermined class;
From the prediction coefficient corresponding to the class of the target pixel and the prediction tap, the prediction value is obtained,
The image coding apparatus according to claim 3, wherein the calculation unit obtains the prediction coefficient for each class.
前記演算手段は、前記複数パターンの予測タップそれぞれについて、前記予測係数を求める
ことを特徴とする請求項3に記載の画像符号化装置。
The image coding apparatus according to claim 3, wherein the calculation unit obtains the prediction coefficient for each of the plurality of patterns of prediction taps.
前記演算手段は、前記複数パターンの予測タップそれぞれについて、前記予測係数を、前記クラスごとに求め、
前記第1の予測手段は、前記複数パターンの予測タップそれぞれと、前記注目画素のクラスに対応する予測係数とから、前記複数パターンの予測タップそれぞれに対する予測値を求める
ことを特徴とする請求項4に記載の画像符号化装置。
The calculation means obtains the prediction coefficient for each of the classes for each of the plurality of patterns of prediction taps,
5. The first prediction unit obtains a prediction value for each of the plurality of pattern prediction taps from each of the plurality of pattern prediction taps and a prediction coefficient corresponding to the class of the target pixel. The image encoding apparatus described in 1.
変換後の信号と前記予測係数により予測される予測値の、前記原画像信号に対する予測誤差が最小となる信号に前記圧縮画像信号を変換する最適化手段をさらに備える
ことを特徴とする請求項1乃至6のうちのいずれかに記載の画像符号化装置。
2. The optimization apparatus according to claim 1, further comprising: an optimization unit configured to convert the compressed image signal into a signal in which a prediction error predicted from the converted signal and the prediction coefficient is minimized with respect to the original image signal. 7. The image encoding device according to any one of items 1 to 6.
前記最適化手段は、
前記注目画素の画素値に付加された前記パターンコードに対応するパターンの予測タップを形成する第2の形成手段と、
前記第2の形成手段により形成された前記予測タップと、前記予測係数とから、前記原画像信号を予測し、その予測値を出力する第2の予測手段と、
前記第2の予測手段により求められた前記予測値の、前記原画像信号に対する予測誤差を算出する第2の算出手段と、
前記第2の算出手段により算出された前記予測誤差より予測誤差が小さくなるように画素値を所定の値だけ増加または減少させることにより、前記注目画素の画素値を補正する補正手段と
を有する
ことを特徴とする請求項7に記載の画像符号化装置。
The optimization means includes
Second forming means for forming a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel;
Second prediction means for predicting the original image signal from the prediction tap formed by the second forming means and the prediction coefficient, and outputting the predicted value;
Second calculation means for calculating a prediction error of the predicted value obtained by the second prediction means with respect to the original image signal;
Correction means for correcting the pixel value of the target pixel by increasing or decreasing the pixel value by a predetermined value so that the prediction error is smaller than the prediction error calculated by the second calculation means. The image encoding apparatus according to claim 7.
前記最適化手段は、
前記第2の形成手段において、前記注目画素の画素値に付加された前記パターンコードに対応するパターンの予測タップを形成し、
前記第2の予測手段において、前記第2の形成手段により形成された前記予測タップと、前記予測係数とから、前記予測値を求め、
前記第2の算出手段において、前記第2の予測手段により求められた前記予測値の、前記原画像信号に対する予測誤差を算出し、
前記補正手段において、前記第2の算出手段により算出された前記予測誤差より予測誤差が小さくなるように、前記注目画素の画素値を所定の値だけ増加または減少させる
最適化処理を、前記予測誤差が最小になるまで繰り返す
ことを特徴とする請求項8に記載の画像符号化装置。
The optimization means includes
In the second forming means, a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel is formed,
In the second prediction means, the prediction value is obtained from the prediction tap formed by the second formation means and the prediction coefficient,
In the second calculation means, a prediction error of the prediction value obtained by the second prediction means with respect to the original image signal is calculated,
In the correction means, as described above is the prediction error from the prediction error calculated by the second calculating means decreases, the optimization process of the pixel value of the pixel of interest is increased or decreased by a predetermined value, the prediction error The image coding apparatus according to claim 8, wherein the image coding apparatus repeats until the value becomes minimum .
前記最適化処理を行うごとに得られる圧縮画像信号と、前記原画像信号とに基づいて、前記第2の予測手段により求められる前記予測値の、前記原画像信号に対する予測誤差が最小となる係数に前記予測係数を修正する修正手段をさらに備え、
前記第1および第2の予測手段は、前記修正手段により修正され予測係数を用いて、前記予測値を求める
ことを特徴とする請求項9に記載の画像符号化装置。
A coefficient that minimizes the prediction error of the prediction value obtained by the second prediction unit based on the compressed image signal obtained each time the optimization process is performed and the original image signal with respect to the original image signal. And a correction means for correcting the prediction coefficient.
The image coding apparatus according to claim 9, wherein the first and second prediction units obtain the prediction value using a prediction coefficient that has been corrected by the correction unit.
前記最適化手段が出力する圧縮画像信号と、前記修正手段が出力する予測係数とを出力する出力手段をさらに備える
ことを特徴とする請求項10に記載の画像符号化装置。
The image coding apparatus according to claim 10, further comprising an output unit that outputs a compressed image signal output from the optimization unit and a prediction coefficient output from the correction unit.
前記パターンコードが付加された圧縮画像信号と、前記予測係数とを出力する出力手段をさらに備える
ことを特徴とする請求項1乃至6のうちのいずれかに記載の画像符号化装置。
The image coding apparatus according to any one of claims 1 to 6, further comprising an output unit that outputs the compressed image signal to which the pattern code is added and the prediction coefficient.
画像信号を符号化する画像符号化方法であって、
原画像信号の画素数より少ない画素数の圧縮画像信号を発生する圧縮ステップと、
前記圧縮画像信号を構成する画素のうちの1つを注目画素として、前記原画像信号を予測するために用いる前記注目画素および前記注目画素の近傍の画素からなる複数パターンの予測タップを形成する第1の形成ステップと、
前記複数パターンの予測タップそれぞれと、所定の予測係数とから、前記原画像信号を予測し、前記複数パターンの予測タップそれぞれに対する予測値を出力する第1の予測ステップと、
前記複数パターンの予測タップそれぞれに対する前記予測値の、前記原画像信号に対する予測誤差を算出する第1の算出ステップと、
前記複数パターンの予測タップのうち、最小の前記予測誤差が得られる予測タップに対応するパターンコードを、前記注目画素の画素値の一部と置き換えることにより前記注目画素の画素値に付加する付加ステップと
を備えることを特徴とする画像符号化方法。
An image encoding method for encoding an image signal,
A compression step for generating a compressed image signal having a smaller number of pixels than the number of pixels of the original image signal;
A prediction tap having a plurality of patterns including the target pixel used for predicting the original image signal and pixels in the vicinity of the target pixel is formed using one of the pixels constituting the compressed image signal as the target pixel. 1 forming step;
A first prediction step of predicting the original image signal from each of the prediction taps of the plurality of patterns and a predetermined prediction coefficient, and outputting a prediction value for each of the prediction taps of the plurality of patterns;
A first calculation step of calculating a prediction error of the prediction value for each of the prediction taps of the plurality of patterns with respect to the original image signal;
An addition step of adding a pattern code corresponding to a prediction tap that obtains the minimum prediction error among the prediction taps of the plurality of patterns to the pixel value of the target pixel by replacing a part of the pixel value of the target pixel. An image encoding method comprising:
前記付加ステップにおいて、前記注目画素の画素値のLSB(Least Significant Bit)側のNビットに代えて、前記パターンコードを配置する
ことを特徴とする請求項13に記載の画像符号化方法。
The image coding method according to claim 13, wherein, in the adding step, the pattern code is arranged instead of N bits on the LSB (Least Significant Bit) side of the pixel value of the target pixel.
前記第1の予測ステップは、前記予測誤差が最小となる前記予測係数を求める演算ステップを有する
ことを特徴とする請求項13に記載の画像符号化方法。
The image encoding method according to claim 13, wherein the first prediction step includes a calculation step of obtaining the prediction coefficient that minimizes the prediction error .
前記第1の予測ステップは、
前記注目画素を、所定のクラスに分類するクラス分類ステップをさらに有し、
前記注目画素のクラスに対応する予測係数と、前記予測タップとから、前記予測値を求め、
前記演算ステップにおいて、前記予測係数を、前記クラスごとに求める
ことを特徴とする請求項15に記載の画像符号化方法。
The first prediction step includes:
A classifying step of classifying the pixel of interest into a predetermined class;
From the prediction coefficient corresponding to the class of the target pixel and the prediction tap, the prediction value is obtained,
The image encoding method according to claim 15, wherein, in the calculation step, the prediction coefficient is obtained for each class.
前記演算ステップにおいて、前記複数パターンの予測タップそれぞれについて、前記予測係数を求める
ことを特徴とする請求項15に記載の画像符号化方法。
The image encoding method according to claim 15, wherein, in the calculation step, the prediction coefficient is obtained for each of the plurality of patterns of prediction taps.
前記演算ステップにおいて、前記複数パターンの予測タップそれぞれについて、前記予測係数を、前記クラスごとに求め、
前記第1の予測ステップにおいて、前記複数パターンの予測タップそれぞれと、前記注目画素のクラスに対応する予測係数とから、前記複数パターンの予測タップそれぞれに対する予測値を求める
ことを特徴とする請求項16に記載の画像符号化方法。
In the calculation step, for each prediction tap of the plurality of patterns, the prediction coefficient is obtained for each class,
The prediction value for each of the prediction taps of the plurality of patterns is obtained from the prediction taps of the plurality of patterns and a prediction coefficient corresponding to the class of the target pixel in the first prediction step. The image encoding method described in 1.
変換後の信号と前記予測係数により予測される予測値の、前記原画像信号に対する予測誤差が最小となる信号に前記圧縮画像信号を変換する最適化ステップをさらに備える
ことを特徴とする請求項13乃至18のうちのいずれかに記載の画像符号化方法。
The optimization step of converting the compressed image signal into a signal having a prediction error with respect to the original image signal of the converted signal and the prediction value predicted by the prediction coefficient is minimized. The image coding method according to any one of 1 to 18.
前記最適化ステップは、
前記注目画素の画素値に付加された前記パターンコードに対応するパターンの予測タップを形成する第2の形成ステップと、
前記第2の形成ステップにより形成された前記予測タップと、前記予測係数とから、前記原画像信号を予測し、その予測値を出力する第2の予測ステップと、
前記第2の予測ステップにより求められた前記予測値の、前記原画像信号に対する予測誤差を算出する第2の算出ステップと、
前記第2の算出ステップにより算出された前記予測誤差より予測誤差が小さくなるように画素値を所定の値だけ増加または減少させることにより、前記注目画素の画素値を補正する補正ステップと
を有する
ことを特徴とする請求項19に記載の画像符号化方法。
The optimization step includes
A second forming step of forming a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel;
A second prediction step of predicting the original image signal from the prediction tap formed by the second formation step and the prediction coefficient, and outputting the prediction value;
A second calculation step of calculating a prediction error of the prediction value obtained in the second prediction step with respect to the original image signal;
A correction step of correcting the pixel value of the target pixel by increasing or decreasing the pixel value by a predetermined value so that the prediction error is smaller than the prediction error calculated by the second calculation step. The image encoding method according to claim 19.
前記最適化ステップでは、
前記第2の形成ステップにおいて、前記注目画素の画素値に付加された前記パターンコードに対応するパターンの予測タップを形成し、
前記第2の予測ステップにおいて、前記第2の形成ステップにより形成された前記予測タップと、前記予測係数とから、前記予測値を求め、
前記第2の算出ステップにおいて、前記第2の予測ステップにより求められた前記予測値の、前記原画像信号に対する予測誤差を算出し、
前記補正ステップにおいて、前記第2の算出ステップにより算出された前記予測誤差より予測誤差が小さくなるように、前記注目画素の画素値を所定の値だけ増加または減少させる
最適化処理を、前記予測誤差が最小になるまで繰り返す
ことを特徴とする請求項20に記載の画像符号化方法。
In the optimization step,
Forming a prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel in the second forming step;
In the second prediction step, the prediction value is obtained from the prediction tap formed in the second formation step and the prediction coefficient,
In the second calculation step, a prediction error of the prediction value obtained in the second prediction step with respect to the original image signal is calculated,
In the correction step, an optimization process for increasing or decreasing the pixel value of the target pixel by a predetermined value so that the prediction error is smaller than the prediction error calculated in the second calculation step is performed by the prediction error. The image coding method according to claim 20, wherein the image coding method is repeated until is minimized .
前記最適化処理を行うごとに得られる圧縮画像信号と、前記原画像信号とに基づいて、前記第2の予測ステップにより求められる前記予測値の、前記原画像信号に対する予測誤差が最小となる係数に前記予測係数を修正する修正ステップをさらに備え、
前記第1および第2の予測ステップにおいて、前記修正ステップにより修正され予測係数を用いて、前記予測値を求める
ことを特徴とする請求項21に記載の画像符号化方法。
A coefficient that minimizes a prediction error of the prediction value obtained by the second prediction step with respect to the original image signal based on the compressed image signal obtained each time the optimization process is performed and the original image signal And further comprising a correction step of correcting the prediction coefficient,
The image encoding method according to claim 21, wherein, in the first and second prediction steps, the prediction value is obtained by using a prediction coefficient that has been corrected by the correction step.
前記最適化ステップにおいて得られる圧縮画像信号と、前記修正ステップにおいて得られる予測係数とを出力する出力ステップをさらに備える
ことを特徴とする請求項22に記載の画像符号化方法。
The image encoding method according to claim 22, further comprising an output step of outputting a compressed image signal obtained in the optimization step and a prediction coefficient obtained in the correction step.
前記パターンコードが付加された圧縮画像信号と、前記予測係数とを出力する出力ステップをさらに備える
ことを特徴とする請求項13乃至18のうちのいずれかに記載の画像符号化方法。
The image encoding method according to any one of claims 13 to 18, further comprising an output step of outputting the compressed image signal to which the pattern code is added and the prediction coefficient.
原画像信号の画素数より少ない画素数の圧縮画像信号を発生し、
前記圧縮画像信号を構成する画素のうちの1つを注目画素として、前記原画像信号を予測するために用いる前記注目画素および前記注目画素の近傍の画素からなる複数パターンの予測タップを形成し、
前記複数パターンの予測タップそれぞれと、所定の予測係数とから、前記原画像信号を予測し、前記複数パターンの予測タップそれぞれに対する予測値を出力し、
前記複数パターンの予測タップそれぞれに対する前記予測値の、前記原画像信号に対する予測誤差を算出し、
前記複数パターンの予測タップのうち、最小の前記予測誤差が得られる予測タップに対応するパターンコードを、前記注目画素の画素値の一部と置き換えることにより前記注目画素の画素値に付加する
ことにより得られる前記圧縮画像信号および前記予測係数を含む符号化データを復号する画像復号装置であって、
前記符号化データから、前記圧縮画像信号と前記予測係数とを分離する分離手段と、
前記符号化データに含まれる前記圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されている前記パターンコードに対応するパターンの前記予測タップを、前記注目画素の近傍の画素を用いて形成する形成手段と、
前記形成手段により形成された前記予測タップと、前記予測係数とから、前記原画像信号を予測し、その予測値を求める予測手段と
を備えることを特徴とする画像復号装置。
Generate a compressed image signal with fewer pixels than the original image signal,
Forming one of the pixels constituting the compressed image signal as a target pixel, and forming a plurality of patterns of prediction taps composed of the target pixel used for predicting the original image signal and pixels in the vicinity of the target pixel ;
Predicting the original image signal from each of the plurality of pattern prediction taps and a predetermined prediction coefficient, and outputting a prediction value for each of the plurality of pattern prediction taps;
Calculating a prediction error of the prediction value for each of the plurality of patterns of prediction taps with respect to the original image signal
A pattern code corresponding to a prediction tap that obtains the minimum prediction error among the prediction taps of the plurality of patterns is added to the pixel value of the target pixel by replacing it with a part of the pixel value of the target pixel. An image decoding apparatus for decoding encoded data including the compressed image signal and the prediction coefficient obtained,
Separating means for separating the compressed image signal and the prediction coefficient from the encoded data;
The prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel, with one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, Forming means for forming using pixels in the vicinity of the pixel of interest;
An image decoding apparatus comprising: a prediction unit that predicts the original image signal from the prediction tap formed by the forming unit and the prediction coefficient, and obtains a predicted value thereof.
前記符号化データに含まれる前記圧縮画像信号を構成する画素の画素値のLSB(Least Significant Bit)側のNビットに代えて、前記パターンコードが配置されている
ことを特徴とする請求項25に記載の画像復号装置。
26. The pattern code is arranged in place of N bits on an LSB (Least Significant Bit) side of a pixel value of a pixel constituting the compressed image signal included in the encoded data. The image decoding device described.
前記予測係数は、前記予測誤差が最小となる予測係数である
ことを特徴とする請求項25に記載の画像復号装置。
26. The image decoding apparatus according to claim 25, wherein the prediction coefficient is a prediction coefficient that minimizes the prediction error .
前記予測手段は、
前記注目画素を、所定のクラスに分類するクラス分類手段を有し、
前記注目画素のクラスに対応する予測係数と、前記予測タップとから、前記予測値を求め、
前記予測係数は、前記符号化データを符号化するときに、前記クラスごとに求められたものである
ことを特徴とする請求項27に記載の画像復号装置。
The prediction means includes
Classifying means for classifying the pixel of interest into a predetermined class,
From the prediction coefficient corresponding to the class of the target pixel and the prediction tap, the prediction value is obtained,
The image decoding apparatus according to claim 27, wherein the prediction coefficient is obtained for each of the classes when the encoded data is encoded .
前記予測係数は、前記符号化データを符号化するときに、前記複数パターンの予測タップそれぞれについて求められたものである
ことを特徴とする請求項27に記載の画像復号装置。
The image decoding apparatus according to claim 27, wherein the prediction coefficient is obtained for each of the plurality of patterns of prediction taps when the encoded data is encoded .
前記予測係数は、前記符号化データを符号化するときに、前記複数パターンの予測タップそれぞれについて、前記クラスごとに求められたものであり、
前記予測手段は、前記注目画素の画素値に付加されている前記パターンコードに対応するパターンの前記予測タップと、その予測タップについての予測係数のうちの前記注目画素のクラスに対応する予測係数とから、前記予測値を求める
ことを特徴とする請求項28に記載の画像復号装置。
The prediction coefficient is obtained for each of the classes for each of the plurality of pattern prediction taps when encoding the encoded data ,
The prediction means includes the prediction tap of a pattern corresponding to the pattern code added to the pixel value of the target pixel, and a prediction coefficient corresponding to the class of the target pixel among the prediction coefficients for the prediction tap. The image decoding apparatus according to claim 28, wherein the predicted value is obtained from:
原画像信号の画素数より少ない画素数の圧縮画像信号を発生し、
前記圧縮画像信号を構成する画素のうちの1つを注目画素として、前記原画像信号を予測するために用いる前記注目画素および前記注目画素の近傍の画素からなる複数パターンの予測タップを形成し、
前記複数パターンの予測タップそれぞれと、所定の予測係数とから、前記原画像信号を予測し、前記複数パターンの予測タップそれぞれに対する予測値を出力し、
前記複数パターンの予測タップそれぞれに対する前記予測値の、前記原画像信号に対する予測誤差を算出し、
前記複数パターンの予測タップのうち、最小の前記予測誤差が得られる予測タップに対応するパターンコードを、前記注目画素の画素値の一部と置き換えることにより前記注目画素の画素値に付加する
ことにより得られる前記圧縮画像信号および前記予測係数を含む符号化データを復号する画像復号方法であって、
前記符号化データから、前記圧縮画像信号と予測係数とを分離する分離ステップと、
前記符号化データに含まれる前記圧縮画像信号を構成する画素のうちの1つを注目画素として、その注目画素の画素値に付加されている前記パターンコードに対応するパターンの前記予測タップを、前記注目画素の近傍の画素を用いて形成する形成ステップと、
前記形成ステップにより形成された前記予測タップと、前記予測係数とから、前記原画像信号を予測し、その予測値を求める予測ステップと
を備えることを特徴とする画像復号方法。
Generate a compressed image signal with fewer pixels than the original image signal,
Forming one of the pixels constituting the compressed image signal as a target pixel, and forming a plurality of patterns of prediction taps composed of the target pixel used for predicting the original image signal and pixels in the vicinity of the target pixel ;
Predicting the original image signal from each of the plurality of pattern prediction taps and a predetermined prediction coefficient, and outputting a prediction value for each of the plurality of pattern prediction taps;
Calculating a prediction error of the prediction value for each of the plurality of patterns of prediction taps with respect to the original image signal
A pattern code corresponding to a prediction tap that obtains the minimum prediction error among the prediction taps of the plurality of patterns is added to the pixel value of the target pixel by replacing it with a part of the pixel value of the target pixel. An image decoding method for decoding encoded data including the obtained compressed image signal and the prediction coefficient ,
A separation step of separating the compressed image signal and the prediction coefficient from the encoded data;
The prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel, with one of the pixels constituting the compressed image signal included in the encoded data as the target pixel, Forming using a pixel in the vicinity of the pixel of interest;
An image decoding method comprising: a prediction step of predicting the original image signal from the prediction tap formed by the forming step and the prediction coefficient and obtaining a predicted value thereof.
前記符号化データに含まれる前記圧縮画像信号を構成する画素の画素値のLSB(Least Significant Bit)側のNビットに代えて、前記パターンコードが配置されている
ことを特徴とする請求項31に記載の画像復号方法。
Instead of the N bits of the LSB (Least Significant Bit) side of the pixel values of pixels constituting the compressed picture signal included in the encoded data, to claim 31, wherein the pattern code is located The image decoding method as described.
前記予測係数は、前記予測誤差が最小となる予測係数である
ことを特徴とする請求項31に記載の画像復号方法。
The image decoding method according to claim 31 , wherein the prediction coefficient is a prediction coefficient that minimizes the prediction error .
前記予測ステップは、
前記注目画素を、所定のクラスに分類するクラス分類ステップを有し、
前記注目画素のクラスに対応する予測係数と、前記予測タップとから、前記予測値を求め、
前記予測係数は、前記符号化データを符号化するときに、前記クラスごとに求められたものである
ことを特徴とする請求項33に記載の画像復号方法。
The prediction step includes
A classifying step of classifying the pixel of interest into a predetermined class;
From the prediction coefficient corresponding to the class of the target pixel and the prediction tap, the prediction value is obtained,
The image decoding method according to claim 33 , wherein the prediction coefficient is obtained for each of the classes when the encoded data is encoded .
前記予測係数は、前記符号化データを符号化するときに、前記複数パターンの予測タップそれぞれについて求められたものである
ことを特徴とする請求項33に記載の画像復号方法。
The image decoding method according to claim 33 , wherein the prediction coefficient is obtained for each of the plurality of patterns of prediction taps when the encoded data is encoded .
前記予測係数は、前記符号化データを符号化するときに、前記複数パターンの予測タップそれぞれについて、前記クラスごとに求められたものであり、
前記予測ステップは、前記注目画素の画素値に付加されている前記パターンコードに対応するパターンの前記予測タップと、その予測タップについての予測係数のうちの前記注目画素のクラスに対応する予測係数とから、前記予測値を求める
ことを特徴とする請求項34に記載の画像復号方法。
The prediction coefficient is obtained for each of the classes for each of the plurality of pattern prediction taps when encoding the encoded data ,
The prediction step includes the prediction tap of the pattern corresponding to the pattern code added to the pixel value of the target pixel, and the prediction coefficient corresponding to the class of the target pixel among the prediction coefficients for the prediction tap. The image decoding method according to claim 34 , wherein the predicted value is obtained from:
JP36016597A 1996-12-26 1997-12-26 Image coding apparatus and image coding method, and image decoding apparatus and image decoding method Expired - Fee Related JP3844031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36016597A JP3844031B2 (en) 1996-12-26 1997-12-26 Image coding apparatus and image coding method, and image decoding apparatus and image decoding method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-347309 1996-12-26
JP34730996 1996-12-26
JP36016597A JP3844031B2 (en) 1996-12-26 1997-12-26 Image coding apparatus and image coding method, and image decoding apparatus and image decoding method

Publications (2)

Publication Number Publication Date
JPH10243406A JPH10243406A (en) 1998-09-11
JP3844031B2 true JP3844031B2 (en) 2006-11-08

Family

ID=26578478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36016597A Expired - Fee Related JP3844031B2 (en) 1996-12-26 1997-12-26 Image coding apparatus and image coding method, and image decoding apparatus and image decoding method

Country Status (1)

Country Link
JP (1) JP3844031B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1037471B1 (en) 1998-10-05 2012-02-08 Sony Corporation Image transform device and method and recording medium
EP1176824B1 (en) 2000-02-29 2010-04-07 Sony Corporation Data processing device and method, and recording medium and program
JP2001320682A (en) * 2000-02-29 2001-11-16 Sony Corp Data processing unit and data processing method, and recording medium and program
JP4711099B2 (en) * 2001-06-26 2011-06-29 ソニー株式会社 Transmission device and transmission method, transmission / reception device and transmission / reception method, program, and recording medium
JP2005311629A (en) 2004-04-20 2005-11-04 Sony Corp Coefficient data generating apparatus and generating method, processing apparatus and processing method for information signal, and program and medium for recording the same

Also Published As

Publication number Publication date
JPH10243406A (en) 1998-09-11

Similar Documents

Publication Publication Date Title
JP3748088B2 (en) Image processing apparatus and method, and learning apparatus and method
US5912708A (en) Picture signal encoding device, picture signal encoding method, picture signal decoding device, picture signal decoding method, and recording medium
JP3912627B2 (en) Image coding apparatus, image coding method, and transmission method
KR100504415B1 (en) Image encoding apparatus, image encoding method, image decoding apparatus, image decoding method and recording medium
JP3915855B2 (en) Image coding apparatus, image coding method, learning apparatus, and learning method
KR100537123B1 (en) Picture signal coding device, picture signal coding method, picture signal decoding device, picture signal decoding method, and recording medium
US6160845A (en) Picture encoding device, picture encoding method, picture decoding device, picture decoding method, and recording medium
JP3844031B2 (en) Image coding apparatus and image coding method, and image decoding apparatus and image decoding method
KR100574732B1 (en) Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium
JP3844030B2 (en) Image signal encoding apparatus, image signal encoding method, image signal decoding apparatus, and image signal decoding method
JP3747970B2 (en) Image encoding device, image encoding method, image decoding device, and image decoding method
JP3912558B2 (en) Image encoding apparatus, image encoding method, and recording medium
JP4534951B2 (en) Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium
JP4582416B2 (en) Image coding apparatus and image coding method
JP3912628B2 (en) Image encoding device, image encoding method, image encoding and decoding system, image encoding and decoding method, and recording medium
JP3912629B2 (en) Image processing system, image encoding device, image encoding method, transmission method, and recording medium
JP4552263B2 (en) Digital signal processing apparatus and method, and digital image signal processing apparatus and method
JP3952326B2 (en) Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium
JP4518727B2 (en) Image encoding apparatus and method, recording medium, and program
JP4566877B2 (en) Image processing apparatus and method
JP4552264B2 (en) Error correction apparatus and method
JP4807349B2 (en) Learning apparatus and method
JP4496494B2 (en) Image coding apparatus and image coding method
JP4487900B2 (en) Image processing system
EP1298934A1 (en) Apparatus and method for image coding and decoding

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060808

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100825

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110825

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120825

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130825

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees