JP4089104B2 - Image conversion apparatus and method, learning apparatus and method, and recording medium - Google Patents

Image conversion apparatus and method, learning apparatus and method, and recording medium Download PDF

Info

Publication number
JP4089104B2
JP4089104B2 JP28447599A JP28447599A JP4089104B2 JP 4089104 B2 JP4089104 B2 JP 4089104B2 JP 28447599 A JP28447599 A JP 28447599A JP 28447599 A JP28447599 A JP 28447599A JP 4089104 B2 JP4089104 B2 JP 4089104B2
Authority
JP
Japan
Prior art keywords
image data
pixel value
prediction coefficient
pixel
intermediate image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28447599A
Other languages
Japanese (ja)
Other versions
JP2000316085A5 (en
JP2000316085A (en
Inventor
哲二郎 近藤
小林  直樹
健治 高橋
義教 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP28447599A priority Critical patent/JP4089104B2/en
Publication of JP2000316085A publication Critical patent/JP2000316085A/en
Publication of JP2000316085A5 publication Critical patent/JP2000316085A5/ja
Application granted granted Critical
Publication of JP4089104B2 publication Critical patent/JP4089104B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、画像変換装置および方法、学習装置および方法、並びに記録媒体に関し、特に、原画像とほぼ同一の画像を復元できる圧縮画像を生成する画像変換装置および方法、学習装置および方法、並びに記録媒体に関する。
【0002】
【従来の技術】
本願発明者によって、特開平10−93980号公報に開示されているように、低解像度の画像を用いて、高解像度の画像を生成する技術が提案されており、高解像度の原画像を縮小した低解像度画像を用いて原画像とほぼ同一の高解像度画像を復元することができるとされている。この提案においては、例えば図1に示すように、低解像度画像(上位階層画像)の注目画素Iに対応する位置の高解像度画像(復元画像)の画素iを中心とする3×3個の画素a乃至iの画素値を、その近傍に位置する低解像度画像の複数の画素(例えば、3×3個の画素A乃至I)と所定の予測係数との線形1次結合等を演算することにより求めている。さらに、その復元画像の画素値と原画像の画素値との誤差を演算し、その結果に対応して低解像度画像の画素値、および予測係数の更新を繰り返している。
【0003】
【発明が解決しようとする課題】
ところで、上述した従来における低解像度画像の画素値の更新は、1画素毎に近傍の画素の画素値を固定した条件の下で行われていた。すなわち、図1に示すように、低解像度画像の注目画素Iの画素値は、注目画素Iを中心とする8個の画素AないしHの画素値、および所定の予測係数の値を固定した条件下において最適な値に更新されていた。
【0004】
したがって、画素Iの画素値を更新した後、画素Dの画素値を更新した場合、画素Dは、画素Iの画素値を更新したときに画素値が固定された画素であるので、先ほど更新された画素Iの画素値は、更新された画素Dに対しては最適ではない。よって、低解像度画像(上位階層画像)の画素値を1画素毎に順次更新した場合、最終的に全画素値が更新された低解像度画像(上位階層画像)は、必ずしも原画像を復元できる最適なものであるとはいえない問題があった。
【0005】
この問題は、低解像度画像(上位階層画像)の隣接する複数の画素の画素値を、同時に最適な値に更新すれば解決できるが、その演算量は膨大であって、演算に長い時間がかかるとともに、演算回路の規模が大きくなり、実質的には不可能であった。
【0006】
この発明はこのような状況に鑑みてなされたものであり、隣接する複数の画素の画素値を同時に更新することにより、原画像とほぼ同一の高解像度画像を復元することが可能な低解像度画像を短時間で得ることができるようにするものである。
【0007】
【課題を解決するための手段】
上述した課題を達成するために、請求項1の発明は、第1の画像データを、第1の画像データより低質な第2の画像データに変換する画像データ変換装置において、
第1の画像データから、第2の画像データとほぼ同質な中間画像データを生成する中間画像データ生成部と、
中間画像データを記憶する記憶部と、
中間画像データから、一画面中の一部であるブロック毎の複数の画素を抽出するブロック抽出部と、
生成され、または予め取得された予測係数を出力する予測係数生成部と、
予測係数と中間画像データと第1の画像データとに基づいてブロック抽出部で抽出された中間画像データの複数の画素の画素値を一括して更新する画素値更新部と、
画素値更新部で画素値が更新された中間画像データと予測係数とに基づいて、第1の画像データとほぼ同質な予測画像データを生成する予測画像データ生成部と、
第1の画像データと予測画像データの誤差を検出する誤差検出部と、
誤差に基づいて、中間画像データを出力画像とするか否かを決定する制御部とを備えることを特徴とする画像データ変換装置である。
【0008】
請求項6の発明は、第1の画像データを、第1の画像データより低質な第2の画像データに変換する画像データ変換方法において、
第1の画像データから第2の画像データとほぼ同質な中間画像データを生成するステップと、
中間画像データから、一画面中の一部であるブロック毎の複数の画素を抽出するステップと、
生成され、または予め取得された予測係数を出力するステップと、 予測係数と中間画像データと第1の画像データとに基づいてブロック抽出部で抽出された中間画像データの複数の画素の画素値を一括して更新するステップと、
画素値が更新された中間画像データと予測係数とに基づいて、第1の画像データとほぼ同質な予測画像データを生成するステップと、
第1の画像データと予測画像データの誤差を検出するステップと、
誤差に基づいて、中間画像データを出力画像とするか否かを決定するステップとを有することを特徴とする画像データ変換方法である。
【0009】
請求項7の発明は、第1の画像データを、第1の画像データより低質な第2の画像データに変換する時に、第2の画像データの画素値を学習する学習装置において、
第1の画像データから、第2の画像データとほぼ同質な中間画像データを生成する中間画像データ生成部と、
中間画像データを記憶する記憶部と、
中間画像データから、一画面中の一部であるブロック毎の複数の画素を抽出するブロック抽出部と、
生成され、または予め取得された予測係数を出力する予測係数生成部と、
予測係数と中間画像データと第1の画像データとに基づいてブロック抽出部で抽出された中間画像データの複数の画素の画素値を一括して更新する画素値更新部と、
画素値更新部で画素値が更新された中間画像データと予測係数とに基づいて、第1の画像データとほぼ同質な予測画像データを生成する予測画像データ生成部と、
第1の画像データと予測画像データの誤差を検出する誤差検出部と、
誤差に基づいて、中間画像データを出力画像とするか否かを決定する制御部とを備え、
画素値更新部は、予測係数を生徒データとし、対応する第1の画像データを教師データとして、最小二乗法によって、中間画像データの画素値を更新することを特徴とする学習装置である。
【0010】
請求項8の発明は、第1の画像データを、第1の画像データより低質な第2の画像データに変換する時に、第2の画像データの画素値を学習する学習方法において、
第1の画像データから第2の画像データとほぼ同質な中間画像データを生成するステップと、
中間画像データから、一画面中の一部であるブロック毎の複数の画素を抽出するステップと、
生成され、または予め取得された予測係数を出力するステップと、
予測係数と中間画像データと第1の画像データとに基づいて抽出された中間画像データの複数の画素の画素値を一括して更新するステップと、
画素値が更新された中間画像データと予測係数とに基づいて、第1の画像データとほぼ同質な予測画像データを生成するステップと、
第1の画像データと予測画像データの誤差を検出するステップと、
誤差に基づいて、中間画像データを出力画像とするか否かを決定するステップとを備え、
画素値を更新するステップは、予測係数を生徒データとし、対応する第1の画像データを教師データとして、最小二乗法によって、中間画像データの画素値を更新することを特徴とする学習方法である。
【0011】
請求項9の発明は、第1の画像データを、第1の画像データより低質な第2の画像データに変換する画像データ変換するためのコンピュータ制御可能なプログラムが記録された記録媒体において、
プログラムは、
第1の画像データから第2の画像データとほぼ同質な中間画像データを生成するステップと、
中間画像データから、一画面中の一部であるブロック毎の複数の画素を抽出するステップと、
抽出された中間画像と抽出された中間画像データに対応する位置の第1の画像データとに基づいて予測係数を生成するステップと、
予測係数と中間画像データと第1の画像データとに基づいて抽出された中間画像データの複数の画素の画素値を一括して更新するステップと、
画素値が更新された中間画像データと予測係数とに基づいて、第1の画像データとほぼ同質な予測画像データを生成するステップと、
第1の画像データと予測画像データの誤差を検出するステップと、
誤差に基づいて、中間画像データを出力画像とするか否かを決定するステップとからなることを特徴とする記録媒体である。
【0012】
この発明では、予測係数演算部は、予測タップを生徒データとし、対応する原画像の画素を教師データとして観測方程式を生成し、観測方程式を解くことによって予測係数を生成する。画素値更新部は、予測係数演算部からの予測係数を生徒データとし、対応する原画像データを教師データとして観測方程式を作成する。この観測方程式を解くことによって、与えられた係数に対する、複数の更新画素値の最適な値を同時に求めることができる。
【0013】
【発明の実施の形態】
以下、この発明の一実施形態について説明する。図2は、この発明を適用した画像処理装置の一実施の形態の構成を示している。
【0014】
送信装置101には、ディジタル化された画像データが供給されるようになされている。送信装置101は、入力された画像データの複数画素毎の平均値を形成し、複数画素を平均値に置き換えることによって、データ量を圧縮し、その結果得られる符号化データを光ディスク、磁気テープ等の記録媒体102に記録し、または放送回線(衛星放送等)、電話回線、インターネット等の伝送路103を介して伝送する。
【0015】
受信装置104は、記録媒体102に記録されている符号化データを再生し、または伝送路103を介して伝送される符号化データを受信し、符号化データを復号する。すなわち、間引かれた画素の値が復元される。受信装置104から得られる復号画像がディスプレイ(図示せず)に供給され、ディスプレイ上に表示される。
【0016】
図3は、送信装置101の一例を示す。I/F(インターフェース)111は、外部から供給される画像データの受信処理と、送信機/記録装置116に対する符号化データの送信処理を行う。ROM112は、IPL(Initial Program Loading) 用のプログラム等を記憶している。RAM113は、外部記憶装置115に記録されているシステムプログラム(OS(Operating System))やアプリケーションプログラムを記憶したり、また、CPU114の動作に必要なデータを記憶する。
【0017】
CPU114は、ROM112に記憶されているIPLプログラムに従って外部記憶装置115からシステムプログラムおよびアプリケーションプログラムをRAM113に展開し、そのシステムプログラムの制御の下でアプリケーションプログラムを実行する。すなわち、インターフェース111から供給される画像データに対して、後述するような符号化処理を行う。
【0018】
外部記憶装置115は、例えばハードディスクであって、システムプログラム、アプリケーションプログラム、データを記憶する。送信機/記憶装置116は、インターフェース111から供給される符号化データを記録媒体102に記録し、または伝送路103を介して伝送する。インターフェース111、ROM112、RAM113、CPU114、および外部記憶装置115は、バスを介して互いに接続されている。
【0019】
上述した構成を有する送信装置101においては、インターフェース111に画像データが供給されると、その画像データがCPU114に供給される。CPU114は、画像データを符号化し、その結果得られる符号化データをインターフェース111に供給する。インターフェース111が符号化データを送信機/記録装置116を介して記録媒体102に記録し、または伝送路103に送出する。
【0020】
図4は、送信機/記録装置116以外の図3の送信装置101、すなわち、エンコーダの機能的な構成を示すものである。エンコーダは、ハードウエア、ソフトウェアまたは両者の組み合わせで実現することが可能である。例えば後述するフローチャートに示されるようなエンコード処理のプログラムが格納された記録媒体をドライブに装着することによって、このプログラムを外部記憶装置115にインストールし、エンコーダとしての機能を実現できる。
【0021】
なお、上述したような処理を行うコンピュータプログラムをユーザに提供する記録媒体としては、磁気ディスク、CD−ROM、固体メモリなどの記録媒体の他、ネットワーク、衛星などの通信媒体を利用することができる。
【0022】
図4に示すエンコーダにおいては、入力される原画像データが画像データが画像縮小回路1、予測係数演算回路4、画素値更新回路5、および誤差演算回路7に供給されるようになされている。画像縮小回路1は、供給された原画像(高解像度画像)を、例えば図1に示したように、3×3画素からなるブロックに分割し、各ブロック内の9画素の画素値の平均値をブロックの中心に位置する上位階層画像(低解像度画像)の画素の画素値として初期上位階層画像を生成し、上位階層画像メモリ2に出力するようになされている。したがって、上位階層画像(以下、上位画像と記述する)は、原画像の縦および横のサイズが1/3に縮小されたものとなる。
【0023】
なお、初期上位画像を形成する場合、平均値以外に、各ブロックの中心に位置する画素の値、各ブロックの複数の画素値の中間値、各ブロックの複数の画素値の最も多い値、間引きで形成された画素等を用いても良い。
【0024】
上位階層画像メモリ2は、画像縮小回路1から入力された上位画像を記憶するようになされている。また上位階層画像メモリ2は、画素値更新回路5から入力される画素値を用いて、記憶している上位画像の画素値を更新するようになされている。さらに、上位階層画像メモリ2は、記憶している上位画像データをスイッチ8を介してフレームメモリ9に出力するようになされている。
【0025】
予測タップ取得回路3は、上位階層画像メモリ2に記憶されている上位画像の画素を、順次、注目画素に決定し、注目画素とその近傍の画素の画素値を予測係数演算回路4、画素値更新回路5、およびマッピング回路6に供給する。
【0026】
簡単のために、図5に示すように、更新画素値ブロック(予測タップ)のサイズが3×3、予測係数タップのサイズが3×3の場合について説明する。なお、更新画素値ブロック(予測タップ)は、予測のために抽出される複数の画素で構成されるブロックを意味する。また、予測係数タップは、予測に使用される複数の係数群を意味する。図5中で、xは、更新する画素を示し、Xは、画素値が固定されている画素を示す。また、後述するcが係数を意味し、Y’が予測値を示し、Yが原画像の画素値を示す。
【0027】
例えば、図5に示す画素x5 が注目画素に決定された場合、予測係数演算回路4には、注目画素x5 を中心とする3×3画素(画素x1 乃至x9 )からなる予測タップが供給される。画素値更新回路5には、注目画素x5 を中心とする3×3の9個の画素のいずれかが3×3画素内に含まれる全ての予測タップ(図5において破線に囲まれた、注目画素x5 を中心とする7×7画素)が供給される。マッピング回路6には、注目画素x5 を中心とする7×7画素から、注目画素x5 を中心とする3×3画素を除いた40(=49−9)個の画素(画素X1 乃至X40)が供給される。
【0028】
予測係数演算回路4は、予測タップ取得回路3から供給された注目画素x5 を中心とする予測タップ(画素x1 乃至x9 )を学習データ(生徒データ)とし、対応する原画像の画素を教師データとして観測方程式を生成して、最小自乗法により観測方程式を解くことにより、図6に示すような、9モード分(モード1乃至モード9)の予測係数を演算して、画素値更新回路5、およびマッピング回路6に供給するようになされている。
【0029】
なお、3×3個の予測係数からなる各モードの予測係数タップは、注目画素に対応する位置の下位階層画像(以下、下位画像と記述する)の画素を中心とする3×3画素のそれぞれの画素値を予測するときに用いられる。
【0030】
より具体的には、図1の画素の配列において、画素aを予測する時に使用される予測係数タップがモード1の予測係数タップであり、画素bを予測する時に使用される予測係数タップがモード2の予測係数タップであり、画素cを予測する時に使用される予測係数タップがモード3の予測係数タップであり、画素hを予測する時に使用される予測係数タップがモード4の予測係数タップであり、画素iを予測する時に使用される予測係数タップがモード5の予測係数タップであり、画素dを予測する時に使用される予測係数タップがモード6の予測係数タップであり、画素gを予測する時に使用される予測係数タップがモード7の予測係数タップであり、画素fを予測する時に使用される予測係数タップがモード8の予測係数タップであり、画素eを予測する時に使用される予測係数タップがモード9の予測係数タップである。
【0031】
図7Aは、図5に示した上位画像から予測される下位画像を示している。例えば、モード1の予測係数タップ(予測係数c11乃至c19)と、画素x3 を中心とする予測タップを構成する画素(画素X11,X12,X13,x2 ,x3 ,X17,x5 ,x6 ,X21)の画素値との線形1次結合により、注目画素に対応する位置の下位画像の画素(図7Bの画素Y5 ’)の左上に隣接する画素(図7Bの画素Y1 ’)の画素値が演算される。また、モード9の予測係数タップ(予測係数c91乃至c99)と、画素x3 を中心とする予測タップを構成する画素の画素値との線形1次結合により、注目画素に対応する位置の下位画像の画素の右下に隣接する画素(図7Bの画素Y9 ’)の画素値が演算される。
【0032】
画素値更新回路5は、注目画素を中心とする3×3画素の画素値を同時に更新し、更新した画素値を上位階層画像メモリ2、およびマッピング回路6に出力するようになされている。
【0033】
図8は、画素値更新回路5の詳細な構成例を示している。正規方程式生成回路11は、予測係数演算回路4から入力された予測係数、予測タップ取得回路3から入力された予測タップを構成する画素の画素値、原画像の対応する画素値を用いて、予測値と真値(原画像の画素値)より正規方程式を生成し、画素値決定回路12に出力するようになされている。画素値決定回路12は、入力された正規方程式によって予測値と真値との誤差を最小とする、上位画像の注目画素を中心とする3×3画素の画素値(更新値)を同時に演算するようになされている。以下においては、同時に更新される9個の画素を更新画素値タップと記述する。
【0034】
ここで、生成される正規方程式について説明する。正規方程式は、更新画素値タップと予測係数タップが部分的に重なる範囲の画素値を用いて生成される。例えば、図5に示した画素x5 を中心とする3×3画素(画素x1 乃至x9 )の画素値を更新する(更新画素値タップとする)場合、破線で囲まれた領域中の更新画素値タップ以外の画素(画素X1 乃至X40)の画素値、および全ての予測係数c1 1 乃至c99を固定し、予測係数タップを、破線で囲まれた領域内で移動して下位画像の画素値を予測する。
【0035】
例えば、予測係数タップの中心が画素x3 と重なる位置に移動されたときにおいては、モード1の予測係数タップ(予測係数c11乃至c19)と、画素x3 を中心とする3×3画素(画素X11,X12,X13,x2 ,x3 ,X17,x5 ,x6 ,X21)との画素値の線形1次結合で、画素x3 の位置に対応する下位画像の画素Y5 ’の左上の画素Y1 ’の画素値(予測値)が演算される。この画素値Y1'は、次式(1)で表すことができる。
【0036】
Y1' =c11X11 +c12X12 +c13X13 +c14x2+c15x3+c16X17 +c17x5+c18x6+c19X21・・・(1)
同様に、画素値Y2 ’乃至Y9 ’も、予測係数と上位画像の画素値との線形1次結合で表し、得られた9本の式を行列を用いて書き換えれば、次式のような観測方程式が成立する。
【0037】
Y'=cX
ただし、Y’は画素値Y1 ’乃至Y9 ’の集合で成る行列であり、cは予測係数c11乃至c99の集合で成る行列であり、Xは上位画像の画素値の集合で成る行列である。
【0038】
次に、この観測方程式に最小二乗法を適用して、原画像の画素値に近い予測値Y’を求めることを考える。
【0039】
ここで、再び観測方程式の元となった式(1)に注目すれば、予測値Y1 ’と、対応する原画像の画素値Y1 との差は、次式(2)に示すようになる。
【0040】
Y1-Y1' =Y1 -(c11X11 +c12X12 +c13X13 +c14x2 +c15x3+c16X17 +c17x5+c18x6+c19X21)・・・(2)
式(2)の右辺を整理すれば、次式(3)を得る。
【0041】
Y1-Y1' =Y1 -(c11X11 +c12X12 +c13X13 +c16X17 +c19X21) -(c14x2+c15x3+c17x5+c18x6)・・・(3)
予測値Y1 ’と、対応する原画像の画素値Y1 との差、すなわち式(3)の左辺を残差とし、右辺の定数項を左辺に移項して整理すれば、次式(4)を得る。
【0042】
Y1 -(c11X11 +c12X12 +c13X13 +c16X17 +c19X21)+e1 = (c14x2+c15x3+c17x5+c18x6)・・・(4)
さらに、予測係数タップの他のモード(モード2乃至モード9)を用いて、Yn −Yn ’(nは2乃至9)からも、式(4)と同様の次式(5)乃至(12)を得る。
【0043】
Y2 -(c21X11 +c22X12 +c23X13 +c26X17 +c29X21)+e2 = (c24x2+c25x3+c27x5+c28x6)・・・(5)
Y3 -(c31X11 +c32X12 +c33X13 +c36X17 +c39X21)+e3 = (c34x2+c35x3+c37x5+c38x6)・・・(6)
Y4 -(c41X11 +c42X12 +c43X13 +c46X17 +c49X21)+e4 = (c44x2+c45x3+c47x5+c48x6)・・・(7)
Y5 -(c51X11 +c52X12 +c53X13 +c56X17 +c59X21)+e5 = (c54x2+c55x3+c57x5+c58x6)・・・(8)
Y6 -(c61X11 +c62X12 +c63X13 +c66X17 +c69X21)+e6 = (c64x2+c65x3+c67x5+c68x6)・・・(9)
Y7 -(c71X11 +c72X12 +c73X13 +c76X17 +c79X21)+e7 = (c74x2+c75x3+c77x5+c78x6)・・・(10)
Y8 -(c81X11 +c82X12 +c83X13 +c86X17 +c89X21)+e8 = (c84x2+c85x3+c87x5+c88x6)・・・(11)
Y9 -(c91X11 +c92X12 +c93X13 +c96X17 +c99X21)+e9 = (c94x2+c95x3+c97x5+c98x6)・・・(12)
同様に、予測係数タップの位置を、図5の破線で囲まれた領域内で移動し、すなわち、予測係数タップの中心を、画素X9 ,X13,X28,X32を頂点とする矩形領域内の全ての画素(25画素)と順次重なるように移動し、予測係数タップの全てのモードを用いて、225(=9×25)本の式(4)乃至(12)と同様な式を得る。
【0044】
この225本の式を行列で表せば、次式(13)に示すような、[教師データ]+[残差e]=[学習データc]×[予測画素値x]の形をした残差方程式となる。
【0045】
【数1】

Figure 0004089104
【0046】
ただし、式(13)は、表記を簡略化するために、式(4)乃至(12)に対応する部分だけを示している。また、aij(i=1,2,・・・,m(=225)、j=1,2,・・・,9)は、行列[学習データc]のi行j列に存在するデータに等しい。
【0047】
この場合、原画像の画素値Yに近い予測値Y’を求めるための予測画素値xi は、下記の自乗誤差を最小にすることで求めることができる。
【0048】
【数2】
Figure 0004089104
【0049】
したがって、上述した自乗誤差を予測画素値xi で微分したものが0になる場合、すなわち、次式を満たす予測画素値xi が、原画像の画素値Yに近い予測値Y’を求めるための最適値となる。
【0050】
【数3】
Figure 0004089104
【0051】
そこで、まず、式(13)を予測画素値xi で微分することにより、次式が成立する。
【0052】
【数4】
Figure 0004089104
【0053】
式(14)および式(16)より、式(17)が得られる。
【0054】
【数5】
Figure 0004089104
【0055】
さらに、式(13)の教師データ(原画像の画素値Y−定数項)をY’’とし、教師データY’’、予測係数c、予測画素値x、および残差eの関係を考慮すると、式(17)から、次式(18)のような正規方程式を得ることができる。
【0056】
【数6】
Figure 0004089104
【0057】
得られた正規方程式を、例えば、掃き出し法(Gauss-Jordanの消去法)などを適用して解くことにより、予測係数演算回路4から供給された予測係数タップに対応する、更新画素値タップの最適な画素値を求めることができる。
【0058】
図4の説明に戻る。マッピング回路6は、画素値更新回路5から供給された注目画素を中心とする更新画素値タップの9個の画素の画素値、予測タップ取得回路3から供給された、注目画素を中心とする7×7画素から注目画素を中心とする3×3画素を除いた40個の画素の画素値、および予測係数演算回路4から入力された9モード分の予測係数タップの予測係数を線形1次結合することにより、下位画像の画素値を部分的に(更新画素値タップの画素が影響する範囲を)ローカルデコードする。ローカルデコードされた下位画像の画素値は誤差演算回路7に供給されるようになされている。
【0059】
誤差演算回路7は、マッピング回路6からのローカルデコードされた下位画像の画素値と、原画像の対応する画素値との誤差を演算する。以下の説明では、誤差としてS/N を用いる。S/N =20log 10(255/err)(err:誤差の標準偏差)の関係にある。S/N が閾値以上である場合には、最適な画素が生成されたと判断して、スイッチ8をオンに制御するようになされている。この場合、部分的にローカルデコードした画像でS/N を評価する代えて、画像全体にわたってS/N を評価するようにしても良い。
【0060】
フレームメモリ9は、上位階層画像メモリ2からスイッチ8を介して入力される、部分的に最適化された上位画像を、入力される度に更新して記憶するようになされている。したがって、上位階層画像メモリ2に記憶されている上位画像の全ての画素が注目画素とされた後、フレームメモリ9には、全ての画素が最適化された最適上位画像が記憶されるようになされている。
【0061】
フレームメモリ9に記憶された最適上位画像は、9モード分の予測係数タップとともに所定のタイミングでデコーダ(図13を参照して後述する)に出力されるようになされている。以下に説明するエンコーダの処理を制御するために、制御部10が設けられている。制御部10は、誤差演算回路7の出力を受け取り、スイッチ8を制御する信号を発生する。また、エンコーダの処理を行うために、各ブロックに対して種々の制御信号を供給する。
【0062】
次に、このエンコーダの最適上位画素値生成処理の概略について、図9のフローチャートを参照して説明する。以下に説明する処理は、図4の構成と対応して説明されている。しかしながら、図4の構成を有するハードウエアにより実現されるものに限らず、外部からインストールされ、または図3中のROM112に格納されているソフトウェアプログラムに従ってCPU114が行うようにしても良い。その場合には、各ステップの処理は、ソフトウェアプログラムに従ってCPU114の制御の下でなされる。
【0063】
ステップS1において、画像縮小回路1は、供給された原画像(高解像度画像)を、3×3画素からなるブロックに分割し、各ブロック内の9画素の画素値の平均値をブロックの中心に位置する上位画像(低解像度画像)の画素の画素値として初期上位画像を生成し、上位階層画像メモリ2に記憶させる。
【0064】
予測タップ取得回路3は、上位階層画像メモリ2に記憶されている上位画像の画素を、順次、注目画素に決定して、上位階層画像メモリ2から注目画素を中心とする7×7画素の画素値を取得する。取得した49個の画素値のうちの注目画素を中心とする3×3画素の画素値は、予測係数演算回路4に供給される。また、画素値更新回路5には、取得した全ての画素値が供給される。さらに、取得した49個の画素値のうちの注目画素を中心とする3×3画素を除いた40(=49−9)個の画素の画素値がマッピング回路6に供給される。例えば、図5に示す画素x5 が注目画素に決定された場合、注目画素x5 を中心とする3×3画素(画素x1 乃至x9 )の予測係数タップの画素値は、予測係数演算回路4に供給され、注目画素x5 を中心とする7×7画素の画素値は、画素値更新回路5に供給され、注目画素x5 を中心とする7×7画素から注目画素x5 を中心とする3×3画素を除いた40(=49−9)画素の画素値は、マッピング回路6に供給される。
【0065】
ステップS2において、予測係数演算回路4は、予測タップ取得回路3から供給された注目画素を中心とする3×3画素の予測タップを学習データ(生徒データ)とし、対応する原画像の画素を教師データとして観測方程式を生成し、最小自乗法を適用して解くことにより9モード分の予測係数タップを求め、画素値更新回路5、およびマッピング回路6に供給する。予測係数う求める時には、画面中の全画素について方程式をたてるようになされる。
【0066】
ステップS3において、画素値更新回路5の正規方程式生成回路11は、予測係数演算回路4から入力された予測係数タップ、予測タップ取得回路3から供給された注目画素を中心とする7×7画素の画素値、および原画像の対応する画素値を用いて、式(13)に示すような観測方程式を生成して、画素値決定回路12に出力する。画素値決定回路12は、入力された観測方程式に最小自乗法を適用して解き、得られた更新画素値タップの画素値を上位階層画像メモリ2、およびマッピング回路6に出力する。
【0067】
上位階層画像メモリ2は、画素値更新回路5から入力された更新画素値タップの画素値を用いて、いままで記憶していた上位画像の対応する画素の画素値を更新する。マッピング回路6は、画素値更新回路5から入力された更新画素値タップの画素値、予測タップ取得回路3から入力された、注目画素を中心とする7×7画素から注目画素を中心とする3×3画素を除いた40画素の画素値、および予測係数演算回路4から入力された9モード分の予測係数タップとの線形1次結合を演算して、下位画像の画素値を部分的にローカルデコードする。ローカルデコードされた下位画像の画素値は、誤差演算回路7に供給される。
【0068】
ステップS4において、誤差演算回路7は、マッピング回路6からのローカルデコードされた下位画像の画素値と、原画像の対応する画素値とのS/N を演算し、S/N が所定の閾値以上であるか否かを判定する。S/N が所定の閾値以上ではないと判定された場合、ステップS2乃至S4の処理が繰り返される。S/N が所定の閾値以上であると判定された場合、ステップS5に進む。
【0069】
ステップS5において、誤差演算回路7の制御によりスイッチ8がオンとされ、上位階層画像メモリ2からスイッチ8を介してフレームメモリ9に部分的に最適化された上位画像が出力される。
【0070】
この最適上位画素値生成処理を、上位階層画像メモリ2に記憶されている上位画像の全ての画素に対して実行することにより、フレームメモリ9には、全ての画素が最適化された最適上位画像が記憶される。記憶された最適上位画像は、9モード分の予測係数タップとともに所定のタイミングでデコーダに出力される。
【0071】
図9のエンコーダの処理についての幾つかの例について説明する。図10のフローチャートに示す第1の方式は、1回の予測係数の更新に対して、各画素1回の更新を行う例である。
【0072】
ステップS21において、エンコーダは、原画像を縮小処理することによって、上位画像を生成する。そして、エンコーダは、画面全体の全画素の予測係数を更新する(ステップS22)。次のステップS23において、エンコーダは、ブロック(更新画素値タップと同義である)の画素値を更新する。ステップS24では、全ブロックの処理が終了したかどうかが決定され、若し、終了していないならば、ステップS22に戻り、処理が繰り返される。
【0073】
ステップS24において、全ブロックの画素値の更新が終了したと決定されると、エンコーダは、更新後の上位画像をマッピング(ローカルデコード)して、下位画像との誤差を示すS/N を計算する( ステップS25)。ステップS26では、エンコーダは、S/N が閾値以上かどうかが決定される。S/N が閾値以上であれば、フレームメモリ9に更新後の上位画像を出力し、また、予測係数を出力する(ステップS27)。若し、ステップS26において、S/N が閾値より小であれば、ステップS22に戻り、ステップS22以降の処理を繰り返す。
【0074】
図11は、第2の方式を示すフローチャートである。第2の方式は、1回の予測係数の更新に対して、1ブロックのみ画素値を更新するものである。したがって、全ブロックの画素値の更新が終了していないときに、処理がステップS23(画素値の更新)ではなく、ステップS22の全画面の予測係数の更新処理に戻る点のみが、図10のフローチャートと相違する。
【0075】
さらに、図12は、第3の方式を示すフローチャートである。第3の方式では、更新画素値の評価を予測係数の更新後と、画素値の更新後のそれぞれで行うものである。
【0076】
図12で、原画像の縮小処理(ステップS31)の後に、全画素の予測係数の更新がなされる(ステップS32)。エンコーダは、更新後の上位画像をマッピングして、下位画像との誤差であるS/N を計算する( ステップS33)。ステップS34では、S/N が閾値以上かどうかが決定される。S/N が閾値以上であれば、エンコーダは、フレームメモリ9に更新後の上位画像を出力し、また、予測係数を出力する(ステップS35)。
【0077】
若し、ステップS34において、S/N が閾値より小であれば、ステップS36に移り、ステップS36において、エンコーダは、ブロックの画素値を更新する。ステップS37では、全ブロックの処理が終了したかどうかが決定され、若し、終了していないならば、ステップS36に戻り、処理が繰り返される。
【0078】
ステップS37において、全ブロックの画素値の更新が終了したと決定されると、エンコーダは、更新後の上位画像をマッピングして、下位画像との誤差であるS/N を計算する( ステップS38)。ステップS39では、S/N が閾値以上かどうかが決定される。S/N が閾値以上であれば、エンコーダは、フレームメモリ9に更新後の上位画像を出力し、また、予測係数を出力する(ステップS35)。若し、ステップS39において、S/N が閾値より小であれば、ステップS32に戻り、上述したステップS32以降の処理を繰り返す。
【0079】
上述したこの発明の一実施形態では、予測係数および上位画像の画素値の両方を最適化するようにしている。しかしながら、この発明においては、予め予測係数を求めておくことによって、画素値のみを最適化することも可能である。この場合、予測係数は、係数決定用のディジタル画像を使用して、エンコーダにおける予測係数生成処理と同様の処理を行うことによって予め生成されている。また、この予測係数は、エンコーダおよびデコーダにおいて共用されるので、記録媒体への記録または伝送が不要である。
【0080】
次に、エンコーダから出力された最適上位画像から原画像を復元する(下位画像を予測する)デコーダの構成例について、図13を参照して説明する。このデコーダにおいては、エンコーダから入力された最適上位画像は、最適上位階層画像メモリ21に記憶され、9モード分の予測係数タップは、マッピング回路23に供給されるようになされている。
【0081】
予測タップ取得回路22は、最適上位階層画像メモリ21に記憶されている最適上位画像の画素を、順次、注目画素に決定し、最適上位階層画像メモリ21から注目画素を中心とする3×3画素の予測タップを取得してマッピング回路23に出力するようになされている。
【0082】
マッピング回路23は、予測タップ取得回路22から入力された予測タップをなす9個の画素の画素値と、エンコーダから供給された9モード分の予測係数タップとの線形1次結合を演算することにより、注目画素の位置に対応する下位画像の画素を中心とする3×3画素の画素値を予測する(原画像の画素を復元する)。予測された下位画像の3×3画素の画素値は、フレームメモリ24に出力され、記憶されるようになされている。フレームメモリ24に記憶された下位画像の画素値は、フレーム毎に所定のタイミングで図示せぬディスプレイ等に出力されるようになされている。
【0083】
このデコーダの原画像復元処理について、図14にフローチャートを参照して説明する。この原画像復元処理は、エンコーダにより生成された最適上位画像が最適上位階層画像メモリ21に記憶され、9モード分の予測係数タップが、マッピング回路23に供給された後、開始される。
【0084】
ステップS11において、予測タップ取得回路22は、最適上位階層画像メモリ21に記憶されている最適上位画像の画素のうちの1個の画素を注目画素に決定する。ステップS12において、予測タップ取得回路22は、最適上位階層画像メモリ21から注目画素を中心とする3×3画素の予測タップを取得してマッピング回路23に出力する。
【0085】
ステップS13において、マッピング回路23は、予測タップ取得回路22から入力された予測タップをなす9個の画素の画素値と、エンコーダから供給された9モード分の予測係数タップとの線形1次結合を演算することにより、注目画素の位置に対応する下位画像の画素を中心とする3×3画素の画素値を予測する(原画像の画素を復元する)。予測された下位画像の3×3画素の画素値は、フレームメモリ24に出力され、記憶される。
【0086】
ステップS14において、予測タップ取得回路22は、最適上位階層画像メモリ21に記憶されている最適上位画像の全ての画素を注目画素に決定したか否かを判定し、全ての画素を注目画素に決定したと判定するまで、ステップS11乃至S14の処理が繰り返される。全ての画素を注目画素に決定したと判定された場合、ステップS15に進む。
【0087】
ステップS15において、フレームメモリ24に記憶された下位画像の画素値は、フレーム毎に所定のタイミングで図示せぬディスプレイ等に出力される。
【0088】
本実施の形態によれば、従来の方法に比べて、復元した画像のS/N が大きい上位画像を得ることができる。
【0089】
【発明の効果】
以上のように、この発明によれば、複数画素の画素値を同時に、ブロック単位で最適化することができる。それによって、処理を単純化することができ、また、処理時間を短縮できる。
【図面の簡単な説明】
【図1】先に提案したエンコードを説明するための画素の配列を示す略線図である。
【図2】この発明を適用した画像データ変換装置の全体的構成を示すブロック図である。
【図3】図2中の送信装置の機能的構成例を示すブロック図である。
【図4】この発明を適用したエンコーダの構成例を示すブロック図である。
【図5】図4の予測タップ取得回路3の処理を説明する図である。
【図6】予測係数タップを説明する図である。
【図7】下位階層画像を説明する図である。
【図8】図4の画素値更新回路5の構成例を示すブロック図である。
【図9】図4のエンコーダの最適画素値生成処理の概略を説明するフローチャートである。
【図10】図4のエンコーダの最適画素値生成処理の一例を説明するフローチャートである。
【図11】図4のエンコーダの最適画素値生成処理の他の例を説明するフローチャートである。
【図12】図4のエンコーダの最適画素値生成処理のさらに他の例を説明するフローチャートである。
【図13】図4のエンコーダにより生成された最適上位画像から原画像を復元するデコーダの構成例を示すブロック図である。
【図14】図13のデコーダの原画像復元処理を説明するフローチャートである。
【符号の説明】
1・・・画像縮小回路、2・・・上位階層画像メモリ、3・・・予測タップ取得回路、4・・・予測係数演算回路、5・・・画素値更新回路、6・・・マッピング回路、7・・・誤差演算回路、11・・・正規方程式生成回路、12・・・画素値決定回路[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image conversion apparatus and method, a learning apparatus and method, and a recording medium, and in particular, an image conversion apparatus and method, a learning apparatus and method, and a recording that generate a compressed image that can restore an image that is almost identical to the original image. It relates to the medium.
[0002]
[Prior art]
As disclosed in Japanese Patent Laid-Open No. 10-93980, the inventor of the present application has proposed a technique for generating a high resolution image using a low resolution image, and reduced the high resolution original image. It is said that a high-resolution image almost identical to the original image can be restored using the low-resolution image. In this proposal, for example, as shown in FIG. 1, 3 × 3 pixels centering on a pixel i of a high-resolution image (restored image) at a position corresponding to a target pixel I of a low-resolution image (upper layer image). By calculating a linear primary combination of a plurality of pixels (for example, 3 × 3 pixels A to I) of a low-resolution image located in the vicinity thereof and a predetermined prediction coefficient, the pixel values a to i Seeking. Further, an error between the pixel value of the restored image and the pixel value of the original image is calculated, and the pixel value of the low-resolution image and the prediction coefficient are repeatedly updated corresponding to the result.
[0003]
[Problems to be solved by the invention]
By the way, the pixel value of the conventional low-resolution image described above has been updated under the condition that the pixel values of neighboring pixels are fixed for each pixel. That is, as shown in FIG. 1, the pixel value of the target pixel I in the low-resolution image is a condition in which the pixel values of the eight pixels A to H centering on the target pixel I and the value of a predetermined prediction coefficient are fixed. It was updated to the optimum value below.
[0004]
Accordingly, when the pixel value of the pixel D is updated after the pixel value of the pixel I is updated, the pixel D is a pixel whose pixel value is fixed when the pixel value of the pixel I is updated. The pixel value of the pixel I is not optimal for the updated pixel D. Therefore, when the pixel values of the low-resolution image (upper layer image) are sequentially updated for each pixel, the low-resolution image (upper layer image) in which all pixel values are finally updated is not necessarily optimal for restoring the original image. There was a problem that could not be said.
[0005]
This problem can be solved by updating the pixel values of a plurality of adjacent pixels of the low resolution image (upper layer image) to the optimum values at the same time, but the amount of calculation is enormous and the calculation takes a long time. At the same time, the scale of the arithmetic circuit has increased, which is practically impossible.
[0006]
The present invention has been made in view of such circumstances, and a low-resolution image that can restore a high-resolution image that is substantially the same as the original image by simultaneously updating pixel values of a plurality of adjacent pixels. Can be obtained in a short time.
[0007]
[Means for Solving the Problems]
In order to achieve the above-described problem, the invention of claim 1 is an image data conversion device that converts first image data into second image data of lower quality than the first image data.
An intermediate image data generating unit that generates intermediate image data substantially the same quality as the second image data from the first image data;
A storage unit for storing intermediate image data;
Multiple images for each block that is part of one screen from the intermediate image data Element A block extractor for extracting;
A prediction coefficient generation unit that outputs a prediction coefficient generated or acquired in advance;
The intermediate image data extracted by the block extraction unit based on the prediction coefficient, the intermediate image data, and the first image data. Multiple pixels Pixel value In bulk A pixel value updater for updating,
A predicted image data generation unit that generates predicted image data substantially the same quality as the first image data based on the intermediate image data and the prediction coefficient whose pixel values have been updated by the pixel value update unit;
An error detection unit for detecting an error between the first image data and the predicted image data;
An image data conversion apparatus comprising: a control unit that determines whether intermediate image data is an output image based on an error.
[0008]
The invention of claim 6 is an image data conversion method for converting first image data into second image data of lower quality than the first image data.
Generating intermediate image data substantially the same quality as the second image data from the first image data;
Multiple images for each block that is part of one screen from the intermediate image data Element Extracting, and
A step of outputting a prediction coefficient generated or acquired in advance; and the intermediate image data extracted by the block extraction unit based on the prediction coefficient, the intermediate image data, and the first image data Multiple pixels Pixel value In bulk A step to update,
Generating predicted image data substantially the same quality as the first image data based on the intermediate image data and the prediction coefficient whose pixel values are updated;
Detecting an error between the first image data and the predicted image data;
And determining whether or not intermediate image data is an output image based on an error.
[0009]
According to a seventh aspect of the present invention, in the learning device that learns the pixel value of the second image data when converting the first image data into the second image data having a lower quality than the first image data.
An intermediate image data generating unit that generates intermediate image data substantially the same quality as the second image data from the first image data;
A storage unit for storing intermediate image data;
Multiple images for each block that is part of one screen from the intermediate image data Element A block extractor for extracting;
A prediction coefficient generation unit that outputs a prediction coefficient generated or acquired in advance;
The intermediate image data extracted by the block extraction unit based on the prediction coefficient, the intermediate image data, and the first image data. Multiple pixels Pixel value In bulk A pixel value updater for updating,
A predicted image data generation unit that generates predicted image data substantially the same quality as the first image data based on the intermediate image data and the prediction coefficient whose pixel values have been updated by the pixel value update unit;
An error detection unit for detecting an error between the first image data and the predicted image data;
A control unit that determines whether or not to use the intermediate image data as an output image based on the error,
The pixel value update unit is a learning device characterized in that the pixel value of the intermediate image data is updated by a least square method using the prediction coefficient as student data and the corresponding first image data as teacher data.
[0010]
The invention according to claim 8 is a learning method for learning a pixel value of second image data when converting the first image data into second image data having a lower quality than the first image data.
Generating intermediate image data substantially the same quality as the second image data from the first image data;
Multiple images for each block that is part of one screen from the intermediate image data Element Extracting, and
Outputting generated or pre-obtained prediction coefficients;
The intermediate image data extracted based on the prediction coefficient, the intermediate image data, and the first image data; Multiple pixels Pixel value In bulk A step to update,
Generating predicted image data substantially the same quality as the first image data based on the intermediate image data and the prediction coefficient whose pixel values are updated;
Detecting an error between the first image data and the predicted image data;
Determining whether to use the intermediate image data as an output image based on the error, and
The step of updating the pixel value is a learning method characterized by updating the pixel value of the intermediate image data by the least square method using the prediction coefficient as the student data and the corresponding first image data as the teacher data. .
[0011]
According to a ninth aspect of the present invention, there is provided a recording medium on which a computer-controllable program for converting image data for converting the first image data into second image data of lower quality than the first image data is recorded.
The program
Generating intermediate image data substantially the same quality as the second image data from the first image data;
Multiple images for each block that is part of one screen from the intermediate image data Element Extracting, and
Generating a prediction coefficient based on the extracted intermediate image and the first image data at a position corresponding to the extracted intermediate image data;
The intermediate image data extracted based on the prediction coefficient, the intermediate image data, and the first image data; Multiple pixels Pixel value In bulk A step to update,
Generating predicted image data substantially the same quality as the first image data based on the intermediate image data and the prediction coefficient whose pixel values are updated;
Detecting an error between the first image data and the predicted image data;
And a step of determining whether or not to output intermediate image data as an output image based on an error.
[0012]
In the present invention, the prediction coefficient calculation unit generates an observation equation by using the prediction tap as student data and the corresponding original image pixels as teacher data, and generates a prediction coefficient by solving the observation equation. The pixel value update unit creates an observation equation using the prediction coefficient from the prediction coefficient calculation unit as student data and corresponding original image data as teacher data. By solving this observation equation, an optimum value of a plurality of updated pixel values for a given coefficient can be obtained simultaneously.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described. FIG. 2 shows a configuration of an embodiment of an image processing apparatus to which the present invention is applied.
[0014]
The transmission apparatus 101 is supplied with digitized image data. The transmission apparatus 101 forms an average value for each of a plurality of pixels of input image data, and replaces the plurality of pixels with the average value, thereby compressing the data amount, and the resulting encoded data is converted into an optical disk, a magnetic tape, etc. Or a transmission line 103 such as a broadcast line (satellite broadcast or the like), a telephone line, or the Internet.
[0015]
The receiving device 104 reproduces the encoded data recorded on the recording medium 102 or receives the encoded data transmitted via the transmission path 103, and decodes the encoded data. That is, the thinned pixel values are restored. The decoded image obtained from the receiving device 104 is supplied to a display (not shown) and displayed on the display.
[0016]
FIG. 3 shows an example of the transmission apparatus 101. The I / F (interface) 111 performs reception processing of image data supplied from the outside and transmission processing of encoded data to the transmitter / recording device 116. The ROM 112 stores a program for IPL (Initial Program Loading). The RAM 113 stores system programs (OS (Operating System)) and application programs recorded in the external storage device 115, and stores data necessary for the operation of the CPU 114.
[0017]
The CPU 114 expands the system program and application program from the external storage device 115 to the RAM 113 according to the IPL program stored in the ROM 112, and executes the application program under the control of the system program. That is, encoding processing as described later is performed on the image data supplied from the interface 111.
[0018]
The external storage device 115 is, for example, a hard disk, and stores system programs, application programs, and data. The transmitter / storage device 116 records the encoded data supplied from the interface 111 on the recording medium 102 or transmits it via the transmission path 103. The interface 111, the ROM 112, the RAM 113, the CPU 114, and the external storage device 115 are connected to each other via a bus.
[0019]
In the transmission apparatus 101 having the above-described configuration, when image data is supplied to the interface 111, the image data is supplied to the CPU 114. The CPU 114 encodes the image data and supplies the encoded data obtained as a result to the interface 111. The interface 111 records the encoded data on the recording medium 102 via the transmitter / recording device 116 or sends it to the transmission path 103.
[0020]
FIG. 4 shows a functional configuration of the transmission apparatus 101 of FIG. 3 other than the transmitter / recording apparatus 116, that is, an encoder. The encoder can be realized by hardware, software, or a combination of both. For example, by mounting a recording medium storing an encoding processing program as shown in a flowchart described later in a drive, the program can be installed in the external storage device 115 to realize the function as an encoder.
[0021]
As a recording medium for providing a user with a computer program for performing the processing as described above, a communication medium such as a network or a satellite can be used in addition to a recording medium such as a magnetic disk, a CD-ROM, or a solid-state memory. .
[0022]
In the encoder shown in FIG. 4, input original image data is supplied to the image reduction circuit 1, the prediction coefficient calculation circuit 4, the pixel value update circuit 5, and the error calculation circuit 7. The image reduction circuit 1 divides the supplied original image (high resolution image) into blocks of 3 × 3 pixels, for example, as shown in FIG. 1, and averages the pixel values of 9 pixels in each block. Is generated as a pixel value of a pixel of an upper layer image (low resolution image) located at the center of the block, and is output to the upper layer image memory 2. Therefore, an upper layer image (hereinafter referred to as an upper image) is obtained by reducing the vertical and horizontal sizes of the original image to 1/3.
[0023]
When forming the initial upper image, in addition to the average value, the value of the pixel located at the center of each block, the intermediate value of the plurality of pixel values of each block, the value with the largest number of pixel values of each block, A pixel or the like formed in (1) may be used.
[0024]
The upper layer image memory 2 stores the upper image input from the image reduction circuit 1. Further, the upper layer image memory 2 is configured to update the stored pixel value of the upper image using the pixel value input from the pixel value update circuit 5. Further, the upper layer image memory 2 outputs the stored upper image data to the frame memory 9 via the switch 8.
[0025]
The prediction tap acquisition circuit 3 sequentially determines the pixel of the upper image stored in the upper layer image memory 2 as the target pixel, and determines the pixel value of the target pixel and its neighboring pixels as the prediction coefficient calculation circuit 4 and the pixel value. The update circuit 5 and the mapping circuit 6 are supplied.
[0026]
For simplicity, a case will be described in which the size of the updated pixel value block (prediction tap) is 3 × 3 and the size of the prediction coefficient tap is 3 × 3, as shown in FIG. The updated pixel value block (prediction tap) means a block composed of a plurality of pixels extracted for prediction. The prediction coefficient tap means a plurality of coefficient groups used for prediction. In FIG. 5, x indicates a pixel to be updated, and X indicates a pixel whose pixel value is fixed. Further, c, which will be described later, represents a coefficient, Y ′ represents a predicted value, and Y represents a pixel value of the original image.
[0027]
For example, when the pixel x5 shown in FIG. 5 is determined as the target pixel, the prediction coefficient calculation circuit 4 is supplied with a prediction tap composed of 3 × 3 pixels (pixels x1 to x9) centered on the target pixel x5. . The pixel value update circuit 5 includes all the prediction taps that are included in the 3 × 3 pixels and any of the 9 × 3 pixels centered on the target pixel x5 (the target pixel surrounded by the broken line in FIG. 5). 7 × 7 pixels centered on pixel x5). The mapping circuit 6 has 40 (= 49−9) pixels (pixels X1 to X40) obtained by removing 3 × 3 pixels centered on the target pixel x5 from 7 × 7 pixels centered on the target pixel x5. Supplied.
[0028]
The prediction coefficient calculation circuit 4 uses the prediction tap (pixels x1 to x9) centered on the target pixel x5 supplied from the prediction tap acquisition circuit 3 as learning data (student data), and the corresponding pixels of the original image as teacher data. By generating an observation equation and solving the observation equation by the method of least squares, a prediction coefficient for nine modes (mode 1 to mode 9) is calculated as shown in FIG. The data is supplied to the mapping circuit 6.
[0029]
Note that the prediction coefficient tap of each mode composed of 3 × 3 prediction coefficients is a 3 × 3 pixel centered on a pixel of a lower layer image (hereinafter referred to as a lower image) at a position corresponding to the target pixel. This is used when predicting the pixel value.
[0030]
More specifically, in the pixel arrangement of FIG. 1, the prediction coefficient tap used when predicting the pixel a is the prediction coefficient tap of mode 1, and the prediction coefficient tap used when predicting the pixel b is the mode. 2 prediction coefficient taps, the prediction coefficient tap used when predicting the pixel c is the prediction coefficient tap of mode 3, and the prediction coefficient tap used when predicting the pixel h is the prediction coefficient tap of mode 4. Yes, the prediction coefficient tap used when predicting the pixel i is the prediction coefficient tap of mode 5, the prediction coefficient tap used when predicting the pixel d is the prediction coefficient tap of mode 6, and predicts the pixel g The prediction coefficient tap used when performing prediction is a prediction coefficient tap of mode 7, and the prediction coefficient tap used when predicting pixel f is a prediction coefficient tap of mode 8. Prediction coefficient taps used when predicting the element e is the prediction coefficient tap mode 9.
[0031]
FIG. 7A shows a lower image predicted from the upper image shown in FIG. For example, the prediction coefficient taps of mode 1 (prediction coefficients c11 to c19) and the pixels (pixels X11, X12, X13, x2, x3, X17, x5, x6, X21) constituting the prediction tap centered on the pixel x3. The pixel value of the pixel (pixel Y1 ′ in FIG. 7B) adjacent to the upper left of the pixel in the lower image (pixel Y5 ′ in FIG. 7B) at the position corresponding to the target pixel is calculated by linear primary combination with the pixel value. . In addition, a linear primary combination of the mode 9 prediction coefficient taps (prediction coefficients c91 to c99) and the pixel values of the pixels constituting the prediction tap centered on the pixel x3 results in the lower-level image at the position corresponding to the target pixel. The pixel value of the pixel adjacent to the lower right of the pixel (pixel Y9 'in FIG. 7B) is calculated.
[0032]
The pixel value update circuit 5 is configured to simultaneously update pixel values of 3 × 3 pixels centered on the target pixel and output the updated pixel values to the upper layer image memory 2 and the mapping circuit 6.
[0033]
FIG. 8 shows a detailed configuration example of the pixel value update circuit 5. The normal equation generation circuit 11 performs prediction using the prediction coefficient input from the prediction coefficient calculation circuit 4, the pixel value of the pixel constituting the prediction tap input from the prediction tap acquisition circuit 3, and the corresponding pixel value of the original image. A normal equation is generated from the value and the true value (pixel value of the original image) and output to the pixel value determining circuit 12. The pixel value determination circuit 12 simultaneously calculates a pixel value (update value) of 3 × 3 pixels centering on the target pixel of the upper image, which minimizes the error between the predicted value and the true value by the input normal equation. It is made like that. In the following, nine pixels that are updated at the same time are described as an updated pixel value tap.
[0034]
Here, the generated normal equation will be described. The normal equation is generated using pixel values in a range where the update pixel value tap and the prediction coefficient tap partially overlap. For example, when the pixel value of 3 × 3 pixels (pixels x1 to x9) centered on the pixel x5 shown in FIG. 5 is updated (updated pixel value tap), the updated pixel value in the area surrounded by the broken line The pixel values of the pixels other than the tap (pixels X1 to X40) and all the prediction coefficients c1 1 to c99 are fixed, and the prediction coefficient tap is moved within the area surrounded by the broken line to predict the pixel value of the lower image. To do.
[0035]
For example, when the center of the prediction coefficient tap is moved to a position overlapping with the pixel x3, the prediction coefficient tap (prediction coefficients c11 to c19) of mode 1 and 3 × 3 pixels (pixels X11, X12, X13, x2, x3, X17, x5, x6, X21) and the pixel value of the pixel Y1 'at the upper left of the pixel Y5' of the lower image corresponding to the position of the pixel x3. (Predicted value) is calculated. This pixel value Y1 ′ can be expressed by the following equation (1).
[0036]
Y1 '= c11X11 + c12X12 + c13X13 + c14x2 + c15x3 + c16X17 + c17x5 + c18x6 + c19X21 (1)
Similarly, the pixel values Y2 'to Y9' are also expressed by a linear linear combination of the prediction coefficient and the pixel value of the upper image, and if the nine equations obtained are rewritten using a matrix, the following observations are made: The equation holds.
[0037]
Y '= cX
Here, Y ′ is a matrix composed of a set of pixel values Y1 ′ to Y9 ′, c is a matrix composed of a set of prediction coefficients c11 to c99, and X is a matrix composed of a set of pixel values of the upper image.
[0038]
Next, it is considered to obtain a predicted value Y ′ close to the pixel value of the original image by applying the least square method to this observation equation.
[0039]
Here, paying attention to the equation (1) that is the basis of the observation equation again, the difference between the predicted value Y1 ′ and the corresponding pixel value Y1 of the original image is as shown in the following equation (2).
[0040]
Y1-Y1 '= Y1-(c11X11 + c12X12 + c13X13 + c14x2 + c15x3 + c16X17 + c17x5 + c18x6 + c19X21) (2)
If the right side of Expression (2) is arranged, the following Expression (3) is obtained.
[0041]
Y1-Y1 '= Y1- (c11X11 + c12X12 + c13X13 + c16X17 + c19X21)-(c14x2 + c15x3 + c17x5 + c18x6) (3)
If the difference between the predicted value Y1 'and the corresponding pixel value Y1 of the original image, that is, the left side of equation (3) is the residual, the constant term on the right side is moved to the left side and rearranged, then the following equation (4) is obtained: obtain.
[0042]
Y1-(c11X11 + c12X12 + c13X13 + c16X17 + c19X21) + e1 = (c14x2 + c15x3 + c17x5 + c18x6) (4)
Further, using other modes (mode 2 to mode 9) of the prediction coefficient tap, the following formulas (5) to (12) similar to the formula (4) are also obtained from Yn−Yn ′ (n is 2 to 9). Get.
[0043]
Y2-(c21X11 + c22X12 + c23X13 + c26X17 + c29X21) + e2 = (c24x2 + c25x3 + c27x5 + c28x6) (5)
Y3-(c31X11 + c32X12 + c33X13 + c36X17 + c39X21) + e3 = (c34x2 + c35x3 + c37x5 + c38x6) (6)
Y4-(c41X11 + c42X12 + c43X13 + c46X17 + c49X21) + e4 = (c44x2 + c45x3 + c47x5 + c48x6) (7)
Y5-(c51X11 + c52X12 + c53X13 + c56X17 + c59X21) + e5 = (c54x2 + c55x3 + c57x5 + c58x6) (8)
Y6-(c61X11 + c62X12 + c63X13 + c66X17 + c69X21) + e6 = (c64x2 + c65x3 + c67x5 + c68x6) (9)
Y7-(c71X11 + c72X12 + c73X13 + c76X17 + c79X21) + e7 = (c74x2 + c75x3 + c77x5 + c78x6) (10)
Y8- (c81X11 + c82X12 + c83X13 + c86X17 + c89X21) + e8 = (c84x2 + c85x3 + c87x5 + c88x6) (11)
Y9-(c91X11 + c92X12 + c93X13 + c96X17 + c99X21) + e9 = (c94x2 + c95x3 + c97x5 + c98x6) (12)
Similarly, the position of the prediction coefficient tap is moved within the area surrounded by the broken line in FIG. 5, that is, the center of the prediction coefficient tap is all within the rectangular area having the pixels X9, X13, X28, and X32 as vertices. The pixels (25 pixels) are sequentially moved so as to overlap with each other, and 225 (= 9 × 25) equations similar to equations (4) to (12) are obtained using all modes of the prediction coefficient tap.
[0044]
If these 225 equations are represented in a matrix, the residual in the form of [teacher data] + [residual e] = [learning data c] × [predicted pixel value x] as shown in the following equation (13): It becomes an equation.
[0045]
[Expression 1]
Figure 0004089104
[0046]
However, in order to simplify the notation, Expression (13) shows only the part corresponding to Expressions (4) to (12). Aij (i = 1, 2,..., M (= 225), j = 1, 2,..., 9) is data existing in i rows and j columns of the matrix [learning data c]. equal.
[0047]
In this case, the predicted pixel value xi for determining the predicted value Y ′ close to the pixel value Y of the original image can be determined by minimizing the following square error.
[0048]
[Expression 2]
Figure 0004089104
[0049]
Accordingly, when the above-mentioned square error differentiated by the predicted pixel value xi is 0, that is, the predicted pixel value xi satisfying the following equation is optimal for obtaining the predicted value Y ′ close to the pixel value Y of the original image. Value.
[0050]
[Equation 3]
Figure 0004089104
[0051]
Therefore, first, the following equation is established by differentiating the equation (13) by the predicted pixel value xi.
[0052]
[Expression 4]
Figure 0004089104
[0053]
Expression (17) is obtained from Expression (14) and Expression (16).
[0054]
[Equation 5]
Figure 0004089104
[0055]
Furthermore, when the teacher data (the pixel value Y of the original image—the constant term) of the equation (13) is Y ″, the relationship among the teacher data Y ″, the prediction coefficient c, the prediction pixel value x, and the residual e is considered. From equation (17), a normal equation such as the following equation (18) can be obtained.
[0056]
[Formula 6]
Figure 0004089104
[0057]
Optimizing the updated pixel value tap corresponding to the prediction coefficient tap supplied from the prediction coefficient calculation circuit 4 by solving the obtained normal equation by applying, for example, a sweeping method (Gauss-Jordan elimination method) A simple pixel value can be obtained.
[0058]
Returning to the description of FIG. The mapping circuit 6 has pixel values of nine pixels of the updated pixel value tap centered on the target pixel supplied from the pixel value update circuit 5 and 7 centered on the target pixel supplied from the prediction tap acquisition circuit 3. Linear primary combination of pixel values of 40 pixels excluding 3 × 3 pixels centered on the target pixel from × 7 pixels and prediction coefficients of prediction coefficients taps for 9 modes input from the prediction coefficient calculation circuit 4 As a result, the pixel values of the lower-level image are partially decoded locally (the range in which the pixel of the update pixel value tap affects). The pixel value of the locally decoded lower-order image is supplied to the error calculation circuit 7.
[0059]
The error calculation circuit 7 calculates an error between the pixel value of the locally decoded lower-order image from the mapping circuit 6 and the corresponding pixel value of the original image. In the following description, S / N is used as an error. S / N = 20log Ten (255 / err) (err: standard deviation of error). When S / N is equal to or greater than the threshold value, it is determined that an optimal pixel has been generated, and the switch 8 is controlled to be turned on. In this case, the S / N may be evaluated over the entire image instead of evaluating the S / N with a partially locally decoded image.
[0060]
The frame memory 9 is configured to update and store a partially optimized upper image input from the upper layer image memory 2 via the switch 8 each time it is input. Therefore, after all the pixels of the upper image stored in the upper layer image memory 2 are set as the target pixel, the optimum upper image in which all the pixels are optimized is stored in the frame memory 9. ing.
[0061]
The optimum upper image stored in the frame memory 9 is output to a decoder (described later with reference to FIG. 13) at a predetermined timing together with prediction coefficient taps for nine modes. A control unit 10 is provided to control processing of the encoder described below. The control unit 10 receives the output of the error calculation circuit 7 and generates a signal for controlling the switch 8. Also, various control signals are supplied to each block in order to perform the encoder processing.
[0062]
Next, an outline of the optimum upper pixel value generation process of the encoder will be described with reference to the flowchart of FIG. The processing described below is described corresponding to the configuration of FIG. However, the present invention is not limited to the hardware having the configuration shown in FIG. 4, and may be executed by the CPU 114 according to a software program installed from the outside or stored in the ROM 112 in FIG. 3. In that case, the processing of each step is performed under the control of the CPU 114 in accordance with the software program.
[0063]
In step S1, the image reduction circuit 1 divides the supplied original image (high resolution image) into blocks each composed of 3 × 3 pixels, and an average value of pixel values of 9 pixels in each block is set at the center of the block. An initial upper image is generated as the pixel value of the pixel of the upper image (low-resolution image) that is positioned, and is stored in the upper layer image memory 2.
[0064]
The prediction tap acquisition circuit 3 sequentially determines the pixel of the upper image stored in the upper layer image memory 2 as the target pixel, and the 7 × 7 pixel centered on the target pixel from the upper layer image memory 2 Get the value. Of the obtained 49 pixel values, a pixel value of 3 × 3 pixels centered on the target pixel is supplied to the prediction coefficient calculation circuit 4. The pixel value update circuit 5 is supplied with all the acquired pixel values. Further, the pixel values of 40 (= 49−9) pixels excluding 3 × 3 pixels centered on the target pixel among the acquired 49 pixel values are supplied to the mapping circuit 6. For example, when the pixel x5 shown in FIG. 5 is determined as the pixel of interest, the pixel values of the prediction coefficient taps of 3 × 3 pixels (pixels x1 to x9) centered on the pixel of interest x5 are supplied to the prediction coefficient arithmetic circuit 4. Then, the pixel value of 7 × 7 pixels centered on the target pixel x5 is supplied to the pixel value update circuit 5, and from 7 × 7 pixels centered on the target pixel x5 to 3 × 3 pixels centered on the target pixel x5 The pixel values of 40 (= 49−9) pixels excluding are supplied to the mapping circuit 6.
[0065]
In step S2, the prediction coefficient calculation circuit 4 uses, as learning data (student data), a prediction tap of 3 × 3 pixels centered on the pixel of interest supplied from the prediction tap acquisition circuit 3, and the corresponding original image pixels are instructed. An observation equation is generated as data, and the prediction coefficient taps for nine modes are obtained by solving by applying the least square method, and supplied to the pixel value update circuit 5 and the mapping circuit 6. When obtaining the prediction coefficient, an equation is constructed for all the pixels in the screen.
[0066]
In step S <b> 3, the normal equation generation circuit 11 of the pixel value update circuit 5 has a prediction coefficient tap input from the prediction coefficient calculation circuit 4 and a 7 × 7 pixel centered on the target pixel supplied from the prediction tap acquisition circuit 3. Using the pixel value and the corresponding pixel value of the original image, an observation equation as shown in Expression (13) is generated and output to the pixel value determining circuit 12. The pixel value determination circuit 12 solves the input observation equation by applying the least square method, and outputs the obtained pixel value of the updated pixel value tap to the upper layer image memory 2 and the mapping circuit 6.
[0067]
The upper layer image memory 2 uses the pixel value of the updated pixel value tap input from the pixel value update circuit 5 to update the pixel value of the corresponding pixel of the upper image stored so far. The mapping circuit 6 receives the pixel value of the updated pixel value tap input from the pixel value update circuit 5 and 3 × 7 × 7 pixels centered on the target pixel from the predicted tap acquisition circuit 3 and centered on the target pixel. The linear primary combination of the pixel values of 40 pixels excluding × 3 pixels and the prediction coefficient taps for 9 modes input from the prediction coefficient calculation circuit 4 is calculated, and the pixel values of the lower image are partially local Decode. The pixel value of the locally decoded lower-order image is supplied to the error calculation circuit 7.
[0068]
In step S4, the error calculation circuit 7 calculates the S / N between the pixel value of the locally decoded lower image from the mapping circuit 6 and the corresponding pixel value of the original image, and S / N is equal to or greater than a predetermined threshold value. It is determined whether or not. If it is determined that S / N is not greater than or equal to the predetermined threshold, the processes in steps S2 to S4 are repeated. If it is determined that S / N is equal to or greater than the predetermined threshold value, the process proceeds to step S5.
[0069]
In step S 5, the switch 8 is turned on by the control of the error calculation circuit 7, and a partially optimized upper image is output from the upper layer image memory 2 to the frame memory 9 via the switch 8.
[0070]
By executing this optimum upper pixel value generation process for all the pixels of the upper image stored in the upper layer image memory 2, the frame memory 9 stores the optimum upper image in which all the pixels are optimized. Is memorized. The stored optimum upper image is output to the decoder at a predetermined timing together with prediction coefficient taps for nine modes.
[0071]
Several examples of the processing of the encoder in FIG. 9 will be described. The first method shown in the flowchart of FIG. 10 is an example in which each pixel is updated once for each update of the prediction coefficient.
[0072]
In step S21, the encoder generates an upper image by reducing the original image. Then, the encoder updates the prediction coefficients of all the pixels on the entire screen (step S22). In the next step S23, the encoder updates the pixel value of the block (synonymous with the updated pixel value tap). In step S24, it is determined whether or not the processing of all the blocks has been completed. If not, the process returns to step S22 and the processing is repeated.
[0073]
When it is determined in step S24 that the pixel values of all blocks have been updated, the encoder maps (locally decodes) the updated upper image and calculates an S / N indicating an error from the lower image. (Step S25). In step S26, the encoder determines whether S / N is greater than or equal to a threshold value. If S / N is equal to or greater than the threshold value, the updated upper image is output to the frame memory 9 and a prediction coefficient is output (step S27). If S / N is smaller than the threshold value in step S26, the process returns to step S22, and the processes after step S22 are repeated.
[0074]
FIG. 11 is a flowchart showing the second method. In the second method, the pixel value is updated for only one block with respect to one update of the prediction coefficient. Therefore, when the update of the pixel values of all the blocks has not been completed, only the point that the process returns to the update process of the prediction coefficient of all the screens in step S22 instead of step S23 (update of the pixel values). It is different from the flowchart.
[0075]
FIG. 12 is a flowchart showing the third method. In the third method, the updated pixel value is evaluated after updating the prediction coefficient and after updating the pixel value.
[0076]
In FIG. 12, after the original image reduction process (step S31), the prediction coefficients of all the pixels are updated (step S32). The encoder maps the updated upper image and calculates an S / N that is an error with the lower image (step S33). In step S34, it is determined whether S / N is equal to or greater than a threshold value. If S / N is equal to or greater than the threshold value, the encoder outputs the updated upper image to the frame memory 9 and outputs a prediction coefficient (step S35).
[0077]
If S / N is smaller than the threshold value in step S34, the process proceeds to step S36, and in step S36, the encoder updates the pixel value of the block. In step S37, it is determined whether or not the processing of all blocks has been completed. If not, the process returns to step S36 and the processing is repeated.
[0078]
If it is determined in step S37 that the pixel values of all blocks have been updated, the encoder maps the updated upper image and calculates the S / N that is an error from the lower image (step S38). . In step S39, it is determined whether S / N is equal to or greater than a threshold value. If S / N is equal to or greater than the threshold value, the encoder outputs the updated upper image to the frame memory 9 and outputs a prediction coefficient (step S35). If S / N is smaller than the threshold value in step S39, the process returns to step S32, and the processes after step S32 described above are repeated.
[0079]
In the above-described embodiment of the present invention, both the prediction coefficient and the pixel value of the upper image are optimized. However, in the present invention, it is also possible to optimize only the pixel value by obtaining the prediction coefficient in advance. In this case, the prediction coefficient is generated in advance by performing the same process as the prediction coefficient generation process in the encoder, using a digital image for coefficient determination. Further, since the prediction coefficient is shared by the encoder and the decoder, it is not necessary to record or transmit to the recording medium.
[0080]
Next, a configuration example of a decoder that restores an original image (predicts a lower image) from an optimal upper image output from an encoder will be described with reference to FIG. In this decoder, the optimum upper image input from the encoder is stored in the optimum upper layer image memory 21, and prediction coefficient taps for nine modes are supplied to the mapping circuit 23.
[0081]
The prediction tap acquisition circuit 22 sequentially determines the pixel of the optimal upper image stored in the optimal upper layer image memory 21 as the target pixel, and 3 × 3 pixels centering on the target pixel from the optimal upper layer image memory 21. Are obtained and output to the mapping circuit 23.
[0082]
The mapping circuit 23 calculates a linear primary combination of the pixel values of the nine pixels forming the prediction tap input from the prediction tap acquisition circuit 22 and the prediction coefficient taps for nine modes supplied from the encoder. Then, a pixel value of 3 × 3 pixels centering on the pixel of the lower image corresponding to the position of the target pixel is predicted (the pixel of the original image is restored). The predicted pixel value of 3 × 3 pixels of the lower-order image is output to the frame memory 24 and stored therein. The pixel values of the lower image stored in the frame memory 24 are output to a display (not shown) or the like at a predetermined timing for each frame.
[0083]
The original image restoration processing of this decoder will be described with reference to the flowchart in FIG. The original image restoration process is started after the optimum upper image generated by the encoder is stored in the optimum upper layer image memory 21 and the prediction coefficient taps for nine modes are supplied to the mapping circuit 23.
[0084]
In step S <b> 11, the prediction tap acquisition circuit 22 determines one pixel among the pixels of the optimum upper image stored in the optimum upper layer image memory 21 as the target pixel. In step S <b> 12, the prediction tap acquisition circuit 22 acquires a 3 × 3 pixel prediction tap centered on the target pixel from the optimal upper layer image memory 21 and outputs the prediction tap to the mapping circuit 23.
[0085]
In step S <b> 13, the mapping circuit 23 performs a linear primary combination of the pixel values of the nine pixels forming the prediction tap input from the prediction tap acquisition circuit 22 and the prediction coefficient taps for nine modes supplied from the encoder. By calculating, a pixel value of 3 × 3 pixels centering on the pixel of the lower image corresponding to the position of the target pixel is predicted (the pixel of the original image is restored). The predicted pixel value of 3 × 3 pixels of the lower-order image is output to the frame memory 24 and stored.
[0086]
In step S <b> 14, the prediction tap acquisition circuit 22 determines whether or not all the pixels of the optimum upper image stored in the optimum upper layer image memory 21 are determined as the target pixel, and determines all the pixels as the target pixels. Until it determines with having performed, the process of step S11 thru | or S14 is repeated. If it is determined that all the pixels have been determined as the target pixel, the process proceeds to step S15.
[0087]
In step S15, the pixel value of the lower image stored in the frame memory 24 is output to a display (not shown) or the like at a predetermined timing for each frame.
[0088]
According to the present embodiment, it is possible to obtain a higher-order image having a larger S / N of the restored image as compared with the conventional method.
[0089]
【The invention's effect】
As described above, according to the present invention, the pixel values of a plurality of pixels can be simultaneously optimized in units of blocks. Thereby, processing can be simplified and processing time can be shortened.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a pixel arrangement for explaining the previously proposed encoding;
FIG. 2 is a block diagram showing an overall configuration of an image data conversion apparatus to which the present invention is applied.
3 is a block diagram illustrating a functional configuration example of a transmission device in FIG. 2. FIG.
FIG. 4 is a block diagram showing a configuration example of an encoder to which the present invention is applied.
FIG. 5 is a diagram for explaining processing of a prediction tap acquisition circuit 3 in FIG. 4;
FIG. 6 is a diagram for explaining a prediction coefficient tap.
FIG. 7 is a diagram illustrating a lower layer image.
8 is a block diagram illustrating a configuration example of a pixel value update circuit 5 in FIG. 4. FIG.
FIG. 9 is a flowchart for explaining an outline of optimum pixel value generation processing of the encoder of FIG. 4;
10 is a flowchart illustrating an example of an optimal pixel value generation process of the encoder of FIG.
FIG. 11 is a flowchart for explaining another example of the optimum pixel value generation process of the encoder of FIG. 4;
12 is a flowchart for explaining still another example of the optimum pixel value generation process of the encoder of FIG.
FIG. 13 is a block diagram illustrating a configuration example of a decoder that restores an original image from an optimal upper image generated by the encoder of FIG. 4;
14 is a flowchart illustrating original image restoration processing of the decoder in FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image reduction circuit, 2 ... Upper layer image memory, 3 ... Prediction tap acquisition circuit, 4 ... Prediction coefficient arithmetic circuit, 5 ... Pixel value update circuit, 6 ... Mapping circuit , 7... Error calculation circuit, 11... Normal equation generation circuit, 12.

Claims (9)

第1の画像データを、上記第1の画像データより低質な第2の画像データに変換する画像データ変換装置において、
上記第1の画像データから、上記第2の画像データとほぼ同質な中間画像データを生成する中間画像データ生成部と、
上記中間画像データを記憶する記憶部と、
上記中間画像データから、一画面中の一部であるブロック毎の複数の画素を抽出するブロック抽出部と、
生成され、または予め取得された予測係数を出力する予測係数生成部と、
上記予測係数と上記中間画像データと上記第1の画像データとに基づいて上記ブロック抽出部で抽出された中間画像データの複数の画素の画素値を一括して更新する画素値更新部と、
上記画素値更新部で画素値が更新された中間画像データと上記予測係数とに基づいて、上記第1の画像データとほぼ同質な予測画像データを生成する予測画像データ生成部と、
上記第1の画像データと上記予測画像データの誤差を検出する誤差検出部と、
上記誤差に基づいて、上記中間画像データを出力画像とするか否かを決定する制御部とを備えることを特徴とする画像データ変換装置。
In an image data conversion device for converting first image data into second image data having a lower quality than the first image data,
An intermediate image data generating unit that generates intermediate image data substantially the same quality as the second image data from the first image data;
A storage unit for storing the intermediate image data;
From the intermediate image data, the block extracting unit for extracting a plurality of image elements of each block is a part in one screen,
A prediction coefficient generation unit that outputs a prediction coefficient generated or acquired in advance;
A pixel value update unit that collectively updates pixel values of a plurality of pixels of the intermediate image data extracted by the block extraction unit based on the prediction coefficient, the intermediate image data, and the first image data;
A predicted image data generation unit that generates predicted image data substantially the same quality as the first image data based on the intermediate image data in which the pixel value is updated by the pixel value update unit and the prediction coefficient;
An error detection unit for detecting an error between the first image data and the predicted image data;
An image data conversion apparatus comprising: a control unit that determines whether or not the intermediate image data is an output image based on the error.
上記予測係数生成部は、上記ブロック抽出部で抽出された中間画像と上記抽出された中間画像データに対応する位置の第1の画像データとに基づいて予測係数を生成することを特徴とする請求項1に記載の画像データ変換装置。  The prediction coefficient generation unit generates a prediction coefficient based on the intermediate image extracted by the block extraction unit and the first image data at a position corresponding to the extracted intermediate image data. Item 2. The image data conversion device according to Item 1. 上記誤差検出部は、一画面分の上記第1の画像データと一画面分の上記予測画素データとの誤差を検出することを特徴とする請求項1に記載の画像データ変換装置。  The image data conversion apparatus according to claim 1, wherein the error detection unit detects an error between the first image data for one screen and the predicted pixel data for one screen. 上記画素値更新部は、
上記予測係数と上記中間画像データと上記第1の画像データとに基づいて、正規方程式を生成する正規方程式生成部と、
上記正規方程式を解くことにより上記中間画像データの更新された画素値を決定する画素値決定部とを備えることを特徴とする請求項1に記載の画像データ変換装置。
The pixel value update unit
A normal equation generation unit that generates a normal equation based on the prediction coefficient, the intermediate image data, and the first image data;
The image data conversion apparatus according to claim 1, further comprising: a pixel value determination unit that determines an updated pixel value of the intermediate image data by solving the normal equation.
上記画素値決定部は、最小二乗法を用いて上記正規方程式を解くことを特徴とする請求項3に記載の画像データ変換装置。  The image data conversion apparatus according to claim 3, wherein the pixel value determination unit solves the normal equation using a least square method. 第1の画像データを、上記第1の画像データより低質な第2の画像データに変換する画像データ変換方法において、
第1の画像データから第2の画像データとほぼ同質な中間画像データを生成するステップと、
上記中間画像データから、一画面中の一部であるブロック毎の複数の画素を抽出するステップと、
生成され、または予め取得された予測係数を出力するステップと、 上記予測係数と上記中間画像データと上記第1の画像データとに基づいて上記ブロック抽出部で抽出された中間画像データの複数の画素の画素値を一括して更新するステップと、
上記画素値が更新された中間画像データと上記予測係数とに基づいて、上記第1の画像データとほぼ同質な予測画像データを生成するステップと、
上記第1の画像データと上記予測画像データの誤差を検出するステップと、
上記誤差に基づいて、上記中間画像データを出力画像とするか否かを決定するステップとを有することを特徴とする画像データ変換方法。
In an image data conversion method for converting first image data into second image data having a lower quality than the first image data,
Generating intermediate image data substantially the same quality as the second image data from the first image data;
From the intermediate image data, extracting a plurality of image elements of each block is a part in one screen,
A step of outputting a prediction coefficient generated or acquired in advance; a plurality of pixels of the intermediate image data extracted by the block extraction unit based on the prediction coefficient, the intermediate image data, and the first image data; Updating the pixel values of all at once ;
Generating predicted image data substantially the same quality as the first image data based on the intermediate image data in which the pixel value is updated and the prediction coefficient;
Detecting an error between the first image data and the predicted image data;
And determining whether or not the intermediate image data is to be an output image based on the error.
第1の画像データを、上記第1の画像データより低質な第2の画像データに変換する時に、上記第2の画像データの画素値を学習する学習装置において、
上記第1の画像データから、上記第2の画像データとほぼ同質な中間画像データを生成する中間画像データ生成部と、
上記中間画像データを記憶する記憶部と、
上記中間画像データから、一画面中の一部であるブロック毎の複数の画素を抽出するブロック抽出部と、
生成され、または予め取得された予測係数を出力する予測係数生成部と、
上記予測係数と上記中間画像データと上記第1の画像データとに基づいて上記ブロック抽出部で抽出された中間画像データの複数の画素の画素値を一括して更新する画素値更新部と、
上記画素値更新部で画素値が更新された中間画像データと上記予測係数とに基づいて、上記第1の画像データとほぼ同質な予測画像データを生成する予測画像データ生成部と、
上記第1の画像データと上記予測画像データの誤差を検出する誤差検出部と、
上記誤差に基づいて、上記中間画像データを出力画像とするか否かを決定する制御部とを備え、
上記画素値更新部は、上記予測係数を生徒データとし、対応する上記第1の画像データを教師データとして、最小二乗法によって、上記中間画像データの画素値を更新することを特徴とする学習装置。
In the learning device that learns the pixel value of the second image data when converting the first image data into the second image data having a lower quality than the first image data,
An intermediate image data generating unit that generates intermediate image data substantially the same quality as the second image data from the first image data;
A storage unit for storing the intermediate image data;
From the intermediate image data, the block extracting unit for extracting a plurality of image elements of each block is a part in one screen,
A prediction coefficient generation unit that outputs a prediction coefficient generated or acquired in advance;
A pixel value update unit that collectively updates pixel values of a plurality of pixels of the intermediate image data extracted by the block extraction unit based on the prediction coefficient, the intermediate image data, and the first image data;
A predicted image data generation unit that generates predicted image data substantially the same quality as the first image data based on the intermediate image data in which the pixel value is updated by the pixel value update unit and the prediction coefficient;
An error detection unit for detecting an error between the first image data and the predicted image data;
A controller that determines whether the intermediate image data is an output image based on the error,
The pixel value update unit updates the pixel value of the intermediate image data by a least square method using the prediction coefficient as student data and the corresponding first image data as teacher data. .
第1の画像データを、上記第1の画像データより低質な第2の画像データに変換する時に、上記第2の画像データの画素値を学習する学習方法において、
第1の画像データから第2の画像データとほぼ同質な中間画像データを生成するステップと、
上記中間画像データから、一画面中の一部であるブロック毎の複数の画素を抽出するステップと、
生成され、または予め取得された予測係数を出力するステップと、
上記予測係数と上記中間画像データと上記第1の画像データとに基づいて抽出された中間画像データの複数の画素の画素値を一括して更新するステップと、
上記画素値が更新された中間画像データと上記予測係数とに基づいて、上記第1の画像データとほぼ同質な予測画像データを生成するステップと、
上記第1の画像データと上記予測画像データの誤差を検出するステップと、
上記誤差に基づいて、上記中間画像データを出力画像とするか否かを決定するステップとを備え、
画素値を更新するステップは、上記予測係数を生徒データとし、対応する上記第1の画像データを教師データとして、最小二乗法によって、上記中間画像データの画素値を更新することを特徴とする学習方法。
In the learning method of learning the pixel value of the second image data when converting the first image data into the second image data having a lower quality than the first image data,
Generating intermediate image data substantially the same quality as the second image data from the first image data;
From the intermediate image data, extracting a plurality of image elements of each block is a part in one screen,
Outputting generated or pre-obtained prediction coefficients;
And updating collectively the pixel values of a plurality of pixels of the intermediate image data extracted on the basis of the above prediction coefficients and the intermediate image data and the first image data,
Generating predicted image data substantially the same quality as the first image data based on the intermediate image data in which the pixel value is updated and the prediction coefficient;
Detecting an error between the first image data and the predicted image data;
Determining whether to use the intermediate image data as an output image based on the error,
The step of updating the pixel value comprises updating the pixel value of the intermediate image data by a least square method using the prediction coefficient as student data and the corresponding first image data as teacher data. Method.
第1の画像データを、上記第1の画像データより低質な第2の画像データに変換する画像データ変換するためのコンピュータ制御可能なプログラムが記録された記録媒体において、
上記プログラムは、
第1の画像データから第2の画像データとほぼ同質な中間画像データを生成するステップと、
上記中間画像データから、一画面中の一部であるブロック毎の複数の画素を抽出するステップと、
上記抽出された中間画像と上記抽出された中間画像データに対応する位置の第1の画像データとに基づいて予測係数を生成するステップと、
上記予測係数と上記中間画像データと上記第1の画像データとに基づいて上記抽出された中間画像データの複数の画素の画素値を一括して更新するステップと、
上記画素値が更新された中間画像データと上記予測係数とに基づいて、上記第1の画像データとほぼ同質な予測画像データを生成するステップと、
上記第1の画像データと上記予測画像データの誤差を検出するステップと、
上記誤差に基づいて、上記中間画像データを出力画像とするか否かを決定するステップとからなることを特徴とする記録媒体。
In a recording medium on which a computer-controllable program for converting image data for converting first image data into second image data of lower quality than the first image data is recorded,
The above program
Generating intermediate image data substantially the same quality as the second image data from the first image data;
From the intermediate image data, extracting a plurality of image elements of each block is a part in one screen,
Generating a prediction coefficient based on the extracted intermediate image and first image data at a position corresponding to the extracted intermediate image data;
Collectively updating pixel values of a plurality of pixels of the extracted intermediate image data based on the prediction coefficient, the intermediate image data, and the first image data;
Generating predicted image data substantially the same quality as the first image data based on the intermediate image data in which the pixel value is updated and the prediction coefficient;
Detecting an error between the first image data and the predicted image data;
And determining whether to use the intermediate image data as an output image based on the error.
JP28447599A 1998-10-05 1999-10-05 Image conversion apparatus and method, learning apparatus and method, and recording medium Expired - Fee Related JP4089104B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28447599A JP4089104B2 (en) 1998-10-05 1999-10-05 Image conversion apparatus and method, learning apparatus and method, and recording medium

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP28222598 1998-10-05
JP1053899 1999-01-19
JP5747099 1999-03-04
JP11-10538 1999-03-04
JP11-57470 1999-03-04
JP10-282225 1999-03-04
JP28447599A JP4089104B2 (en) 1998-10-05 1999-10-05 Image conversion apparatus and method, learning apparatus and method, and recording medium

Publications (3)

Publication Number Publication Date
JP2000316085A JP2000316085A (en) 2000-11-14
JP2000316085A5 JP2000316085A5 (en) 2006-04-27
JP4089104B2 true JP4089104B2 (en) 2008-05-28

Family

ID=27455407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28447599A Expired - Fee Related JP4089104B2 (en) 1998-10-05 1999-10-05 Image conversion apparatus and method, learning apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP4089104B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100927285B1 (en) * 2001-04-12 2009-11-18 소니 가부시끼 가이샤 Housing rack and connector
JP4618956B2 (en) 2001-12-10 2011-01-26 ソニー株式会社 Signal processing apparatus, signal processing method, signal processing system, program, and medium
US7694326B2 (en) 2002-05-17 2010-04-06 Sony Corporation Signal processing system and method, signal processing apparatus and method, recording medium, and program

Also Published As

Publication number Publication date
JP2000316085A (en) 2000-11-14

Similar Documents

Publication Publication Date Title
JP2843831B2 (en) Video image playback device with error restoration function
JP5263565B2 (en) Image processing apparatus, image processing method, and program
JP5490287B2 (en) Method and apparatus for effectively compressing and restoring edge regions
KR100538731B1 (en) Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks
JP2009509418A (en) Classification filtering for temporal prediction
WO2009087783A1 (en) Data generator for coding, method of generating data for coding, decoder and decoding method
JP4345231B2 (en) Data conversion apparatus and method, and recording medium
JP2006332955A (en) Image compression apparatus, image compression program, electronic camera, image expansion apparatus, and image expansion program
JP4089104B2 (en) Image conversion apparatus and method, learning apparatus and method, and recording medium
JP4756665B2 (en) Image compression apparatus, restoration apparatus, compression method, restoration method, and program
KR100537123B1 (en) Picture signal coding device, picture signal coding method, picture signal decoding device, picture signal decoding method, and recording medium
KR100574732B1 (en) Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium
EP1037471B1 (en) Image transform device and method and recording medium
JPH1011583A (en) Class classification adaptation processor and learning device/method for class classification adaptation processing
JP4514666B2 (en) Video encoding device
JP4092830B2 (en) Image data compression method
JP4534951B2 (en) Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium
JP2007288761A (en) Image distribution system, image processing apparatus and method, distribution device and method, and program
JPH10243405A (en) Image signal coder, image signal coding method, image signal decoder, image signal decoding method and recording medium
JP4353294B2 (en) Information signal conversion apparatus and method
JP2009038740A (en) Image encoding device
JP5254565B2 (en) Moving picture predictive coding apparatus, method and program, and moving picture predictive decoding apparatus, method and program
JP4482502B2 (en) Information signal conversion apparatus and method
JP2001128182A (en) Image encoding method and computer-readable recording medium storing image encoding program
JP4496494B2 (en) Image coding apparatus and image coding method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120307

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130307

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130307

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140307

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees