JP2001346210A - データ処理装置およびデータ処理方法、並びに記録媒体 - Google Patents

データ処理装置およびデータ処理方法、並びに記録媒体

Info

Publication number
JP2001346210A
JP2001346210A JP2000164026A JP2000164026A JP2001346210A JP 2001346210 A JP2001346210 A JP 2001346210A JP 2000164026 A JP2000164026 A JP 2000164026A JP 2000164026 A JP2000164026 A JP 2000164026A JP 2001346210 A JP2001346210 A JP 2001346210A
Authority
JP
Japan
Prior art keywords
data
tap
block
prediction
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000164026A
Other languages
English (en)
Other versions
JP4538699B2 (ja
Inventor
Tetsujiro Kondo
哲二郎 近藤
Takeshi Kunihiro
威 國弘
Takeharu Nishikata
丈晴 西片
Masashi Uchida
真史 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000164026A priority Critical patent/JP4538699B2/ja
Publication of JP2001346210A publication Critical patent/JP2001346210A/ja
Application granted granted Critical
Publication of JP4538699B2 publication Critical patent/JP4538699B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 【課題】 量子化されたDCT係数(量子化DCT係
数)を、効率的に、量子化誤差を低減したDCT係数に
変換等する。 【解決手段】 予測タップ抽出回路41は、パターンテ
ーブル記憶部46に記憶されたパターン情報にしたが
い、注目しているDCT係数のブロックに対応する量子
化DCT係数のブロックを中心とする3×3個のブロッ
クから、量子化DCT係数を抽出し、予測タップを構成
する。積和演算回路45は、係数テーブル記憶部44に
記憶されたタップ係数と予測タップとを用いて、線形予
測演算を行い、量子化DCT係数を、量子化誤差を低減
したDCT係数に変換する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、データ処理装置お
よびデータ処理方法、並びに記録媒体に関し、特に、例
えば、不可逆圧縮された画像等を復号する場合等に用い
て好適なデータ処理装置およびデータ処理方法、並びに
記録媒体に関する。
【0002】
【従来の技術】例えば、ディジタル画像データは、その
データ量が多いため、そのまま記録や伝送を行うには、
大容量の記録媒体や伝送媒体が必要となる。そこで、一
般には、画像データを圧縮符号化することにより、その
データ量を削減してから、記録や伝送が行われる。
【0003】画像を圧縮符号化する方式としては、例え
ば、静止画の圧縮符号化方式であるJPEG(Joint Pho
tographic Experts Group)方式や、動画の圧縮符号化方
式であるMPEG(Moving Picture Experts Group)方式
等がある。
【0004】例えば、JPEG方式による画像データの
符号化/復号は、図1に示すように行われる。
【0005】即ち、図1(A)は、従来のJPEG符号
化装置の一例の構成を示している。
【0006】符号化対象の画像データは、ブロック化回
路1に入力され、ブロック化回路1は、そこに入力され
る画像データを、8×8画素の64画素でなるブロック
に分割する。ブロック化回路1で得られる各ブロック
は、DCT(Discrete Cosine Transform)回路2に供給
される。DCT回路2は、ブロック化回路1からのブロ
ックに対して、DCT(離散コサイン変換)処理を施
し、1個のDC(Direct Current)成分と、水平方向およ
び垂直方向についての63個の周波数成分(AC(Alter
nating Current)成分)の、合計64個のDCT係数に
変換する。各ブロックごとの64個のDCT係数は、D
CT回路2から量子化回路3に供給される。
【0007】量子化回路3は、所定の量子化テーブルに
したがって、DCT回路2からのDCT係数を量子化
し、その量子化結果(以下、適宜、量子化DCT係数と
いう)を、量子化に用いた量子化テーブルとともに、エ
ントロピー符号化回路4に供給する。
【0008】ここで、図1(B)は、量子化回路3にお
いて用いられる量子化テーブルの例を示している。量子
化テーブルには、一般に、人間の視覚特性を考慮して、
重要性の高い低周波数のDCT係数は細かく量子化し、
重要性の低い高周波数のDCT係数は粗く量子化するよ
うな量子化ステップが設定されており、これにより、画
像の画質の劣化を抑えて、効率の良い圧縮が行われるよ
うになっている。
【0009】エントロピー符号化回路4は、量子化回路
3からの量子化DCT係数に対して、例えば、ハフマン
符号化等のエントロピー符号化処理を施して、量子化回
路3からの量子化テーブルを付加し、その結果得られる
符号化データを、JPEG符号化結果として出力する。
【0010】次に、図1(C)は、図1(A)のJPE
G符号化装置が出力する符号化データを復号する、従来
のJPEG復号装置の一例の構成を示している。
【0011】符号化データは、エントロピー復号回路1
1に入力され、エントロピー復号回路11は、符号化デ
ータを、エントロピー符号化された量子化DCT係数
と、量子化テーブルとに分離する。さらに、エントロピ
ー復号回路11は、エントロピー符号化された量子化D
CT係数をエントロピー復号し、その結果得られる量子
化DCT係数を、量子化テーブルとともに、逆量子化回
路12に供給する。逆量子化回路12は、エントロピー
復号回路11からの量子化DCT係数を、同じくエント
ロピー復号回路11からの量子化テーブルにしたがって
逆量子化し、その結果得られるDCT係数を、逆DCT
回路13に供給する。逆DCT回路13は、逆量子化回
路12からのDCT係数に、逆DCT処理を施し、その
結果られる8×8画素の(復号)ブロックを、ブロック
分解回路14に供給する。ブロック分解回路14は、逆
DCT回路13からのブロックのブロック化を解くこと
で、復号画像を得て出力する。
【0012】
【発明が解決しようとする課題】図1(A)のJPEG
符号化装置では、その量子化回路3において、ブロック
の量子化に用いる量子化テーブルの量子化ステップを大
きくすることにより、符号化データのデータ量を削減す
ることができる。即ち、高圧縮を実現することができ
る。
【0013】しかしながら、量子化ステップを大きくす
ると、いわゆる量子化誤差も大きくなることから、図1
(C)のJPEG復号装置で得られる復号画像の画質が
劣化する。即ち、復号画像には、ぼけや、ブロック歪
み、モスキートノイズ等が顕著に現れる。
【0014】従って、符号化データのデータ量の削減し
ながら、復号画像の画質を劣化させないようにするに
は、あるいは、符号化データのデータ量を維持して、復
号画像の画質を向上させるには、JPEG復号した後
に、何らかの画質向上のための処理を行う必要がある。
【0015】しかしながら、JPEG復号した後に、画
質向上のための処理を行うことは、処理が煩雑になり、
最終的に復号画像が得られるまでの時間も長くなる。
【0016】本発明は、このような状況に鑑みてなされ
たものであり、JPEG符号化された画像等から、効率
的に、画質の良い復号画像を得ること等ができるように
するものである。
【0017】
【課題を解決するための手段】本発明の第1のデータ処
理装置は、学習を行うことにより求められたタップ係数
を取得する取得手段と、新たな変換データのブロックで
ある新変換ブロックのうちの注目している注目新変換ブ
ロックの新たな変換データを得るための予測演算に用い
る変換データを、少なくとも、その注目新変換ブロック
以外の新変換ブロックに対応する、変換データのブロッ
クである変換ブロックから抽出し、予測タップとして出
力する予測タップ抽出手段と、タップ係数および予測タ
ップを用いて、所定の予測演算を行うことにより、変換
データを、新たな変換データに変換する演算手段とを備
えることを特徴とする。
【0018】第1のデータ処理装置において、演算手段
には、タップ係数および予測タップを用いて、線形1次
予測演算を行うことにより、変換データを、新たな変換
データに変換させることができる。
【0019】第1のデータ処理装置には、タップ係数を
記憶している記憶手段をさらに設けることができ、この
場合、取得手段には、記憶手段から、タップ係数を取得
させることができる。
【0020】第1のデータ処理装置において、変換デー
タは、所定のデータを、少なくとも、離散コサイン変換
したものとすることができる。
【0021】第1のデータ処理装置には、注目新変換ブ
ロックの新たな変換データのうちの、注目している注目
データを、幾つかのクラスのうちのいずれかにクラス分
類するのに用いる変換データを抽出し、クラスタップと
して出力するクラスタップ抽出手段と、クラスタップに
基づいて、注目データのクラスを求めるクラス分類を行
うクラス分類手段とをさらに設けることができ、この場
合、演算手段には、予測タップおよび注目データのクラ
スに対応するタップ係数を用いて予測演算を行わせるこ
とができる。
【0022】第1のデータ処理装置において、予測タッ
プ抽出手段には、注目新変換ブロックの周辺の新変換ブ
ロックに対応する変換ブロックから、予測タップとする
変換データを抽出させることができる。
【0023】第1のデータ処理装置において、予測タッ
プ抽出手段には、注目新変換ブロックに対応する変換ブ
ロックと、注目新変換ブロック以外の新変換ブロックに
対応する変換ブロックとから、予測タップとする変換デ
ータを抽出させることができる。
【0024】第1のデータ処理装置において、予測タッ
プ抽出手段には、注目新変換ブロックの新たな変換デー
タのうちの、注目している注目データとの相関が大きい
位置関係にある変換データを、予測タップとして抽出さ
せることができる。
【0025】第1のデータ処理装置において、予測タッ
プ抽出手段には、注目データとの相関が所定の閾値以上
となる位置関係にある変換データを、予測タップとして
抽出させることができる。
【0026】第1のデータ処理装置において、予測タッ
プ抽出手段には、注目データとの相関が所定の順位以内
になる位置関係にある変換データを、予測タップとして
抽出させることができる。
【0027】第1のデータ処理装置において、タップ係
数は、タップ係数および変換データを用いて、所定の予
測演算を行うことにより得られる新たな変換データの予
測値の予測誤差が、統計的に最小になるように、学習を
行うことにより得られたものとすることができる。
【0028】第1のデータ処理装置において、所定のデ
ータは、動画または静止画の画像データとすることがで
きる。
【0029】本発明の第1のデータ処理方法は、学習を
行うことにより求められたタップ係数を取得する取得ス
テップと、新たな変換データのブロックである新変換ブ
ロックのうちの注目している注目新変換ブロックの新た
な変換データを得るための予測演算に用いる変換データ
を、少なくとも、その注目新変換ブロック以外の新変換
ブロックに対応する、変換データのブロックである変換
ブロックから抽出し、予測タップとして出力する予測タ
ップ抽出ステップと、タップ係数および予測タップを用
いて、所定の予測演算を行うことにより、変換データ
を、新たな変換データに変換する演算ステップとを備え
ることを特徴とする。
【0030】本発明の第1の記録媒体は、学習を行うこ
とにより求められたタップ係数を取得する取得ステップ
と、新たな変換データのブロックである新変換ブロック
のうちの注目している注目新変換ブロックの新たな変換
データを得るための予測演算に用いる変換データを、少
なくとも、その注目新変換ブロック以外の新変換ブロッ
クに対応する、変換データのブロックである変換ブロッ
クから抽出し、予測タップとして出力する予測タップ抽
出ステップと、タップ係数および予測タップを用いて、
所定の予測演算を行うことにより、変換データを、新た
な変換データに変換する演算ステップとを備えるプログ
ラムが記録されていることを特徴とする。
【0031】本発明の第2のデータ処理装置は、データ
を、少なくとも、直交変換または周波数変換することに
より得られる、教師となる教師データに、所定の処理を
施すことにより、生徒となる生徒データを生成する生徒
データ生成手段と、教師データのブロックである教師ブ
ロックのうちの注目している注目教師ブロックの教師デ
ータを求めるための予測演算に用いる生徒データを、少
なくとも、その注目教師ブロック以外の教師ブロックに
対応する、生徒データのブロックである生徒ブロックか
ら抽出し、予測タップとして出力する予測タップ抽出手
段と、タップ係数および予測タップを用いて予測演算を
行うことにより得られる教師データの予測値の予測誤差
が、統計的に最小になるように学習を行い、タップ係数
を求める学習手段とを備えることを特徴とする。
【0032】第2のデータ処理装置において、学習手段
には、タップ係数および生徒データを用いて線形1次予
測演算を行うことにより得られる教師データの予測値の
予測誤差が、統計的に最小になるように学習を行わせる
ことができる。
【0033】第2のデータ処理装置において、教師デー
タは、データを、少なくとも、離散コサイン変換したも
のとすることができる。
【0034】第2のデータ処理装置には、注目教師ブロ
ックの教師データのうちの、注目している注目教師デー
タを、幾つかのクラスのうちのいずれかにクラス分類す
るのに用いる生徒データを抽出し、クラスタップとして
出力するクラスタップ抽出手段と、クラスタップに基づ
いて、注目教師データのクラスを求めるクラス分類を行
うクラス分類手段とをさらに設けることができ、この場
合、学習手段には、予測タップおよび注目教師データの
クラスに対応するタップ係数を用いて予測演算を行うこ
とにより得られる教師データの予測値の予測誤差が、統
計的に最小になるように学習を行い、クラスごとのタッ
プ係数を求めさせることができる。
【0035】第2のデータ処理装置において、予測タッ
プ抽出手段には、注目教師ブロックの周辺の教師ブロッ
クに対応する生徒ブロックから、予測タップとする生徒
データを抽出させることができる。
【0036】第2のデータ処理装置において、予測タッ
プ抽出手段には、注目教師ブロックに対応する生徒ブロ
ックと、注目教師ブロック以外の教師ブロックに対応す
る生徒ブロックとから、予測タップとする生徒データを
抽出させることができる。
【0037】第2のデータ処理装置において、予測タッ
プ抽出手段には、注目教師ブロックの教師データのうち
の、注目している注目教師データとの相関が大きい位置
関係にある生徒データを、予測タップとして抽出させる
ことができる。
【0038】第2のデータ処理装置において、予測タッ
プ抽出手段には、注目教師データとの相関が所定の閾値
以上となる位置関係にある生徒データを、予測タップと
して抽出させることができる。
【0039】第2のデータ処理装置において、予測タッ
プ抽出手段には、注目教師データとの相関が所定の順位
以内になる位置関係にある生徒データを、予測タップと
して抽出させることができる。
【0040】第2のデータ処理装置において、データ
は、動画または静止画の画像データとすることができ
る。
【0041】本発明の第2のデータ処理方法は、データ
を、少なくとも、直交変換または周波数変換することに
より得られる、教師となる教師データに、所定の処理を
施すことにより、生徒となる生徒データを生成する生徒
データ生成ステップと、教師データのブロックである教
師ブロックのうちの注目している注目教師ブロックの教
師データを求めるための予測演算に用いる生徒データ
を、少なくとも、その注目教師ブロック以外の教師ブロ
ックに対応する、生徒データのブロックである生徒ブロ
ックから抽出し、予測タップとして出力する予測タップ
抽出ステップと、タップ係数および予測タップを用いて
予測演算を行うことにより得られる教師データの予測値
の予測誤差が、統計的に最小になるように学習を行い、
タップ係数を求める学習ステップとを備えることを特徴
とする。
【0042】本発明の第2の記録媒体は、データを、少
なくとも、直交変換または周波数変換することにより得
られる、教師となる教師データに、所定の処理を施すこ
とにより、生徒となる生徒データを生成する生徒データ
生成ステップと、教師データのブロックである教師ブロ
ックのうちの注目している注目教師ブロックの教師デー
タを求めるための予測演算に用いる生徒データを、少な
くとも、その注目教師ブロック以外の教師ブロックに対
応する、生徒データのブロックである生徒ブロックから
抽出し、予測タップとして出力する予測タップ抽出ステ
ップと、タップ係数および予測タップを用いて予測演算
を行うことにより得られる教師データの予測値の予測誤
差が、統計的に最小になるように学習を行い、タップ係
数を求める学習ステップとを備えるプログラムが記録さ
れていることを特徴とする。
【0043】本発明の第1のデータ処理装置およびデー
タ処理方法、並びに記録媒体においては、学習を行うこ
とにより求められたタップ係数が取得され、新変換ブロ
ックのうちの注目している注目新変換ブロックの新たな
変換データを得るための予測演算に用いる変換データ
が、少なくとも、その注目新変換ブロック以外の新変換
ブロックに対応する変換ブロックから抽出され、予測タ
ップとして出力される。そして、タップ係数および予測
タップを用いて、所定の予測演算を行うことにより、変
換データが、新たな変換データに変換される。
【0044】本発明の第2のデータ処理装置およびデー
タ処理方法、並びに記録媒体においては、データを、少
なくとも、直交変換または周波数変換することにより得
られる教師データに、所定の処理を施すことにより、生
徒データが生成される。そして、教師ブロックのうちの
注目している注目教師ブロックの教師データを求めるた
めの予測演算に用いる生徒データが、少なくとも、その
注目教師ブロック以外の教師ブロックに対応する生徒ブ
ロックから抽出され、予測タップとして出力される。さ
らに、タップ係数および予測タップを用いて予測演算を
行うことにより得られる教師データの予測値の予測誤差
が、統計的に最小になるように学習が行われ、タップ係
数が求められる。
【0045】
【発明の実施の形態】図2は、本発明を適用した画像伝
送システムの一実施の形態の構成例を示している。
【0046】伝送すべき画像データは、エンコーダ21
に供給されるようになっており、エンコーダ21は、そ
こに供給される画像データを、例えば、JPEG符号化
し、符号化データとする。即ち、エンコーダ21は、例
えば、前述の図1(A)に示したJPEG符号化装置と
同様に構成されており、画像データをJPEG符号化す
る。エンコーダ21がJPEG符号化を行うことにより
得られる符号化データは、例えば、半導体メモリ、光磁
気ディスク、磁気ディスク、光ディスク、磁気テープ、
相変化ディスクなどでなる記録媒体23に記録され、あ
るいは、また、例えば、地上波、衛星回線、CATV
(Cable Television)網、インターネット、公衆回線な
どでなる伝送媒体24を介して伝送される。
【0047】デコーダ22は、記録媒体23または伝送
媒体24を介して提供される符号化データを受信して、
元の画像データに復号する。この復号化された画像デー
タは、例えば、図示せぬモニタに供給されて表示等され
る。
【0048】次に、図3は、図2のデコーダ22の構成
例を示している。
【0049】符号化データは、エントロピー復号回路3
1に供給されるようになっており、エントロピー復号回
路31は、符号化データを、エントロピー復号して、そ
の結果得られるブロックごとの量子化DCT係数Qを、
係数変換回路32に供給する。なお、符号化データに
は、図1(C)のエントロピー復号回路11で説明した
場合と同様に、エントロピー符号化された量子化DCT
係数の他、量子化テーブルも含まれるが、量子化テーブ
ルは、後述するように、必要に応じて、量子化DCT係
数の復号に用いることが可能である。
【0050】係数変換回路32は、エントロピー復号回
路31からの量子化DCT係数Qと、後述する学習を行
うことにより求められるタップ係数を用いて、所定の予
測演算を行うことにより、ブロックごとの量子化DCT
係数を、8×8画素の元のブロックに復号する。
【0051】ブロック分解回路33は、係数変換回路3
2において得られる、復号されたブロック(復号ブロッ
ク)のブロック化を解くことで、復号画像を得て出力す
る。
【0052】次に、図4のフローチャートを参照して、
図3のデコーダ22の処理について説明する。
【0053】符号化データは、エントロピー復号回路3
1に順次供給され、ステップS1において、エントロピ
ー復号回路31は、符号化データをエントロピー復号
し、ブロックごとの量子化DCT係数Qを、係数変換回
路32に供給する。係数変換回路32は、ステップS2
において、エントロピー復号回路31からのブロックご
との量子化DCT係数Qを、タップ係数を用いた予測演
算を行うことにより、ブロックごとの画素値に復号し、
ブロック分解回路33に供給する。ブロック分解回路3
3は、ステップS3において、係数変換回路32からの
画素値のブロック(復号ブロック)のブロック化を解く
ブロック分解を行い、その結果得られる復号画像を出力
して、処理を終了する。
【0054】次に、図3の係数変換回路32では、例え
ば、クラス分類適応処理を利用して、量子化DCT係数
を、画素値に復号することができる。
【0055】クラス分類適応処理は、クラス分類処理と
適応処理とからなり、クラス分類処理によって、データ
を、その性質に基づいてクラス分けし、各クラスごとに
適応処理を施すものであり、適応処理は、以下のような
手法のものである。
【0056】即ち、適応処理では、例えば、量子化DC
T係数と、所定のタップ係数との線形結合により、元の
画素の予測値を求めることで、量子化DCT係数が、元
の画素値に復号される。
【0057】具体的には、例えば、いま、ある画像を教
師データとするとともに、その画像を、ブロック単位で
DCT処理し、さらに量子化して得られる量子化DCT
係数を生徒データとして、教師データである画素の画素
値yの予測値E[y]を、幾つかの量子化DCT係数x
1,x2,・・・の集合と、所定のタップ係数w1,w2
・・・の線形結合により規定される線形1次結合モデル
により求めることを考える。この場合、予測値E[y]
は、次式で表すことができる。
【0058】 E[y]=w11+w22+・・・ ・・・(1) 式(1)を一般化するために、タップ係数wjの集合で
なる行列W、生徒データxijの集合でなる行列X、およ
び予測値E[yj]の集合でなる行列Y’を、
【数1】 で定義すると、次のような観測方程式が成立する。
【0059】 XW=Y’ ・・・(2) ここで、行列Xの成分xijは、i件目の生徒データの集
合(i件目の教師データyiの予測に用いる生徒データ
の集合)の中のj番目の生徒データを意味し、行列Wの
成分wjは、生徒データの集合の中のj番目の生徒デー
タとの積が演算されるタップ係数を表す。また、y
iは、i件目の教師データを表し、従って、E[yi
は、i件目の教師データの予測値を表す。なお、式
(1)の左辺におけるyは、行列Yの成分yiのサフィ
ックスiを省略したものであり、また、式(1)の右辺
におけるx1,x2,・・・も、行列Xの成分xijのサフ
ィックスiを省略したものである。
【0060】そして、この観測方程式に最小自乗法を適
用して、元の画素値yに近い予測値E[y]を求めるこ
とを考える。この場合、教師データとなる真の画素値y
の集合でなる行列Y、および画素値yに対する予測値E
[y]の残差eの集合でなる行列Eを、
【数2】 で定義すると、式(2)から、次のような残差方程式が
成立する。
【0061】 XW=Y+E ・・・(3)
【0062】この場合、元の画素値yに近い予測値E
[y]を求めるためのタップ係数wjは、自乗誤差
【数3】 を最小にすることで求めることができる。
【0063】従って、上述の自乗誤差をタップ係数wj
で微分したものが0になる場合、即ち、次式を満たすタ
ップ係数wjが、元の画素値yに近い予測値E[y]を
求めるため最適値ということになる。
【0064】
【数4】 ・・・(4)
【0065】そこで、まず、式(3)を、タップ係数w
jで微分することにより、次式が成立する。
【0066】
【数5】 ・・・(5)
【0067】式(4)および(5)より、式(6)が得
られる。
【0068】
【数6】 ・・・(6)
【0069】さらに、式(3)の残差方程式における生
徒データxij、タップ係数wj、教師データyi、および
残差eiの関係を考慮すると、式(6)から、次のよう
な正規方程式を得ることができる。
【0070】
【数7】 ・・・(7)
【0071】なお、式(7)に示した正規方程式は、行
列(共分散行列)Aおよびベクトルvを、
【数8】 で定義するとともに、ベクトルWを、数1で示したよう
に定義すると、式 AW=v ・・・(8) で表すことができる。
【0072】式(7)における各正規方程式は、生徒デ
ータxijおよび教師データyiのセットを、ある程度の
数だけ用意することで、求めるべきタップ係数wjの数
Jと同じ数だけたてることができ、従って、式(8)
を、ベクトルWについて解くことで(但し、式(8)を
解くには、式(8)における行列Aが正則である必要が
ある)、最適なタップ係数(ここでは、自乗誤差を最小
にするタップ係数)wjを求めることができる。なお、
式(8)を解くにあたっては、例えば、掃き出し法(Ga
uss-Jordanの消去法)などを用いることが可能である。
【0073】以上のようにして、最適なタップ係数wj
を求めておき、さらに、そのタップ係数wjを用い、式
(1)により、元の画素値yに近い予測値E[y]を求
めるのが適応処理である。
【0074】なお、例えば、教師データとして、JPE
G符号化する画像と同一画質の画像を用いるとともに、
生徒データとして、その教師データをDCTおよび量子
化して得られる量子化DCT係数を用いた場合、タップ
係数としては、JPEG符号化された画像データを、元
の画像データに復号するのに、予測誤差が、統計的に最
小となるものが得られることになる。
【0075】従って、JPEG符号化を行う際の圧縮率
を高くしても、即ち、量子化に用いる量子化ステップを
粗くしても、適応処理によれば、予測誤差が、統計的に
最小となる復号処理が施されることになり、実質的に、
JPEG符号化された画像の復号処理と、その画質を向
上させるための処理とが、同時に施されることになる。
その結果、圧縮率を高くしても、復号画像の画質を維持
することができる。
【0076】また、例えば、教師データとして、JPE
G符号化する画像よりも高画質の画像を用いるととも
に、生徒データとして、その教師データの画質を、JP
EG符号化する画像と同一画質に劣化させ、さらに、D
CTおよび量子化して得られる量子化DCT係数を用い
た場合、タップ係数としては、JPEG符号化された画
像データを、高画質の画像データに復号するのに、予測
誤差が、統計的に最小となるものが得られることにな
る。
【0077】従って、この場合、適応処理によれば、J
PEG符号化された画像の復号処理と、その画質をより
向上させるための処理とが、同時に施されることにな
る。なお、上述したことから、教師データまたは生徒デ
ータとなる画像の画質を変えることで、復号画像の画質
を任意のレベルとするタップ係数を得ることができる。
【0078】また、上述の場合には、教師データとして
画像データを用い、生徒データとして量子化DCT係数
を用いるようにしたが、その他、例えば、教師データと
してDCT係数を用い、生徒データとして、そのDCT
係数を量子化した量子化DCT係数を用いるようにする
ことも可能である。この場合、適応処理によれば、量子
化DCT係数から、量子化誤差を低減(抑制)したDC
T係数を予測するためのタップ係数が得られることにな
る。
【0079】図5は、以上のようなクラス分類適応処理
により、量子化DCT係数を画素値に復号する、図3の
係数変換回路32の第1の構成例を示している。
【0080】エントロピー復号回路31(図3)が出力
するブロックごとの量子化DCT係数は、予測タップ抽
出回路41およびクラスタップ抽出回路42に供給され
るようになっている。
【0081】予測タップ抽出回路41は、そこに供給さ
れる量子化DCT係数のブロック(以下、適宜、DCT
ブロックという)に対応する画素値のブロック(この画
素値のブロックは、現段階では存在しないが、仮想的に
想定される)(以下、適宜、画素ブロックという)を、
順次、注目画素ブロックとし、さらに、その注目画素ブ
ロックを構成する各画素を、例えば、いわゆるラスタス
キャン順に、順次、注目画素とする。さらに、予測タッ
プ抽出回路41は、注目画素の画素値を予測するのに用
いる量子化DCT係数を、パターンテーブル記憶部46
のパターンテーブルを参照することで抽出し、予測タッ
プとする。
【0082】即ち、パターンテーブル記憶部46は、注
目画素についての予測タップとして抽出する量子化DC
T係数の、注目画素に対する位置関係を表したパターン
情報が登録されているパターンテーブルを記憶してお
り、予測タップ抽出回路41は、そのパターン情報に基
づいて、量子化DCT係数を抽出し、注目画素について
の予測タップを構成する。
【0083】予測タップ抽出回路41は、8×8の64
画素でなる画素ブロックを構成する各画素についての予
測タップ、即ち、64画素それぞれについての64セッ
トの予測タップを、上述のようにして構成し、積和演算
回路45に供給する。
【0084】クラスタップ抽出回路42は、注目画素
を、幾つかのクラスのうちのいずれかに分類するための
クラス分類に用いる量子化DCT係数を抽出して、クラ
スタップとする。
【0085】なお、JPEG符号化では、画像が、画素
ブロックごとに符号化(DCT処理および量子化)され
ることから、ある画素ブロックに属する画素は、例え
ば、すべて同一のクラスにクラス分類することとする。
従って、クラスタップ抽出回路42は、ある画素ブロッ
クの各画素については、同一のクラスタップを構成す
る。即ち、クラスタップ抽出回路42は、例えば、図6
に示すように、注目画素が属する画素ブロックに対応す
るDCTブロックのすべての量子化DCT係数、即ち、
8×8の64個の量子化DCT係数を、クラスタップと
して抽出する。但し、クラスタップは、注目画素ごと
に、異なる量子化DCT係数で構成することが可能であ
る。
【0086】ここで、画素ブロックに属する各画素を、
すべて同一のクラスにクラス分類するということは、そ
の画素ブロックをクラス分類することと等価である。従
って、クラスタップ抽出回路42には、注目画素ブロッ
クを構成する64画素それぞれをクラス分類するための
64セットのクラスタップではなく、注目画素ブロック
をクラス分類するための1セットのクラスタップを構成
させれば良く、このため、クラスタップ抽出回路42
は、画素ブロックごとに、その画素ブロックをクラス分
類するために、その画素ブロックに対応するDCTブロ
ックの64個の量子化DCT係数を抽出して、クラスタ
ップとするようになっている。
【0087】なお、クラスタップを構成する量子化DC
T係数は、上述したパターンのものに限定されるもので
はない。
【0088】クラスタップ抽出回路42において得られ
る、注目画素ブロックのクラスタップは、クラス分類回
路43に供給されるようになっており、クラス分類回路
43は、クラスタップ抽出回路42からのクラスタップ
に基づき、注目画素ブロックをクラス分類し、その結果
得られるクラスに対応するクラスコードを出力する。
【0089】ここで、クラス分類を行う方法としては、
例えば、ADRC(Adaptive Dynamic Range Coding)等を採
用することができる。
【0090】ADRCを用いる方法では、クラスタップを構
成する量子化DCT係数が、ADRC処理され、その結果得
られるADRCコードにしたがって、注目画素ブロックのク
ラスが決定される。
【0091】なお、KビットADRCにおいては、例えば、
クラスタップを構成する量子化DCT係数の最大値MAX
と最小値MINが検出され、DR=MAX-MINを、集合の局所的
なダイナミックレンジとし、このダイナミックレンジDR
に基づいて、クラスタップを構成する量子化DCT係数
がKビットに再量子化される。即ち、クラスタップを構
成する量子化DCT係数の中から、最小値MINが減算さ
れ、その減算値がDR/2Kで除算(量子化)される。そし
て、以上のようにして得られる、クラスタップを構成す
るKビットの各量子化DCT係数を、所定の順番で並べ
たビット列が、ADRCコードとして出力される。従って、
クラスタップが、例えば、1ビットADRC処理された場合
には、そのクラスタップを構成する各量子化DCT係数
は、最小値MINが減算された後に、最大値MAXと最小値MI
Nとの平均値で除算され、これにより、各量子化DCT
係数が1ビットとされる(2値化される)。そして、そ
の1ビットの量子化DCT係数を所定の順番で並べたビ
ット列が、ADRCコードとして出力される。
【0092】なお、クラス分類回路43には、例えば、
クラスタップを構成する量子化DCT係数のレベル分布
のパターンを、そのままクラスコードとして出力させる
ことも可能であるが、この場合、クラスタップが、N個
の量子化DCT係数で構成され、各量子化DCT係数
に、Kビットが割り当てられているとすると、クラス分
類回路43が出力するクラスコードの場合の数は、(2
NK通りとなり、量子化DCT係数のビット数Kに指数
的に比例した膨大な数となる。
【0093】従って、クラス分類回路43においては、
クラスタップの情報量を、上述のADRC処理や、あるいは
ベクトル量子化等によって圧縮してから、クラス分類を
行うのが好ましい。
【0094】ところで、本実施の形態では、クラスタッ
プは、上述したように、64個の量子化DCT係数で構
成される。従って、例えば、仮に、クラスタップを1ビ
ットADRC処理することにより、クラス分類を行うことと
しても、クラスコードの場合の数は、264通りという大
きな値となる。
【0095】そこで、本実施の形態では、クラス分類回
路43において、クラスタップを構成する量子化DCT
係数から、重要性の高い特徴量を抽出し、その特徴量に
基づいてクラス分類を行うことで、クラス数を低減する
ようになっている。
【0096】即ち、図7は、図5のクラス分類回路43
の構成例を示している。
【0097】クラスタップは、電力演算回路51に供給
されるようになっており、電力演算回路51は、クラス
タップを構成する量子化DCT係数を、幾つかの空間周
波数帯域のものに分け、各周波数帯域の電力を演算す
る。
【0098】即ち、電力演算回路51は、クラスタップ
を構成する8×8個の量子化DCT係数を、例えば、図
8に示すような4つの空間周波数帯域S0,S1,S2
3に分割する。
【0099】ここで、クラスタップを構成する8×8個
の量子化DCT係数それぞれを、アルファベットxに、
図6に示したような、ラスタスキャン順に、0からのシ
ーケンシャルな整数を付して表すこととすると、空間周
波数帯域S0は、4個の量子化DCT係数x0,x1
8,x9から構成され、空間周波数帯域S1は、12個
の量子化DCT係数x2,x3,x4,x5,x6,x7,x
10,x11,x12,x13,x14,x15から構成される。ま
た、空間周波数帯域S2は、12個の量子化DCT係数
16,x17,x24,x25,x32,x33,x40,x41,x
48,x49,x56,x57から構成され、空間周波数帯域S
3は、36個の量子化DCT係数x18,x1 9,x20,x
21,x22,x23,x26,x27,x28,x29,x30
31,x34,x3 5,x36,x37,x38,x39,x42,x
43,x44,x45,x46,x47,x50,x5 1,x52
53,x54,x55,x58,x59,x60,x61,x62,x
63から構成される。
【0100】さらに、電力演算回路51は、空間周波数
帯域S0,S1,S2,S3それぞれについて、量子化DC
T係数のAC成分の電力P0,P1,P2,P3を演算し、
クラスコード生成回路52に出力する。
【0101】即ち、電力演算回路51は、空間周波数帯
域S0については、上述の4個の量子化DCT係数x0
1,x8,x9のうちのAC成分x1,x8,x9の2乗和
1 2+x8 2+x9 2を求め、これを、電力P0として、ク
ラスコード生成回路52に出力する。また、電力演算回
路51は、空間周波数帯域S1についての、上述の12
個の量子化DCT係数のAC成分、即ち、12個すべて
の量子化DCT係数の2乗和を求め、これを、電力P1
として、クラスコード生成回路52に出力する。さら
に、電力演算回路51は、空間周波数帯域S2とS3につ
いても、空間周波数帯域S1における場合と同様にし
て、それぞれの電力P2とP3を求め、クラスコード生成
回路52に出力する。
【0102】クラスコード生成回路52は、電力演算回
路51からの電力P0,P1,P2,P3を、閾値テーブル
記憶部53に記憶された、対応する閾値TH0,TH
1,TH2,TH3とそれぞれ比較し、それぞれの大小
関係に基づいて、クラスコードを出力する。即ち、クラ
スコード生成回路52は、電力P0と閾値TH0とを比
較し、その大小関係を表す1ビットのコードを得る。同
様に、クラスコード生成回路52は、電力P1と閾値T
H1、電力P2と閾値TH2、電力P3と閾値TH3を、
それぞれ比較することにより、それぞれについて、1ビ
ットのコードを得る。そして、クラスコード生成回路5
2は、以上のようにして得られる4つの1ビットのコー
ドを、例えば、所定の順番で並べることにより得られる
4ビットのコード(従って、0乃至15のうちのいずれ
かの値)を、注目画素ブロックのクラスを表すクラスコ
ードとして出力する。従って、本実施の形態では、注目
画素ブロックは、24(=16)個のクラスのうちのい
ずれかにクラス分類されることになる。
【0103】閾値テーブル記憶部53は、空間周波数帯
域S0乃至S3の電力P0乃至P3とそれぞれ比較する閾値
TH0乃至TH3を記憶している。
【0104】なお、上述の場合には、クラス分類処理
に、量子化DCT係数のDC成分x0が用いられない
が、このDC成分x0をも用いてクラス分類処理を行う
ことも可能である。
【0105】図5に戻り、以上のようなクラス分類回路
43が出力するクラスコードは、係数テーブル記憶部4
4およびパターンテーブル記憶部46に、アドレスとし
て与えられる。
【0106】係数テーブル記憶部44は、後述するよう
なタップ係数の学習処理が行われることにより得られる
タップ係数が登録された係数テーブルを記憶しており、
クラス分類回路43が出力するクラスコードに対応する
アドレスに記憶されているタップ係数を積和演算回路4
5に出力する。
【0107】ここで、本実施の形態では、画素ブロック
がクラス分類されるから、注目画素ブロックについて、
1つのクラスコードが得られる。一方、画素ブロック
は、本実施の形態では、8×8画素の64画素で構成さ
れるから、注目画素ブロックについて、それを構成する
64画素それぞれを復号するための64セットのタップ
係数が必要である。従って、係数テーブル記憶部44に
は、1つのクラスコードに対応するアドレスに対して、
64セットのタップ係数が記憶されている。
【0108】積和演算回路45は、予測タップ抽出回路
41が出力する予測タップと、係数テーブル記憶部44
が出力するタップ係数とを取得し、その予測タップとタ
ップ係数とを用いて、式(1)に示した線形予測演算
(積和演算)を行い、その結果得られる注目画素ブロッ
クの8×8画素の画素値を、対応するDCTブロックの
復号結果として、ブロック分解回路33(図3)に出力
する。
【0109】ここで、予測タップ抽出回路41において
は、上述したように、注目画素ブロックの各画素が、順
次、注目画素とされるが、積和演算回路45は、注目画
素ブロックの、注目画素となっている画素の位置に対応
した動作モード(以下、適宜、画素位置モードという)
となって、処理を行う。
【0110】即ち、例えば、注目画素ブロックの画素の
うち、ラスタスキャン順で、i番目の画素を、piと表
し、画素piが、注目画素となっている場合、積和演算
回路45は、画素位置モード#iの処理を行う。
【0111】具体的には、上述したように、係数テーブ
ル記憶部44は、注目画素ブロックを構成する64画素
それぞれを復号するための64セットのタップ係数を出
力するが、そのうちの画素piを復号するためのタップ
係数のセットをWiと表すと、積和演算回路45は、動
作モードが、画素位置モード#iのときには、予測タッ
プと、64セットのタップ係数のうちのセットWiとを
用いて、式(1)の積和演算を行い、その積和演算結果
を、画素piの復号結果とする。
【0112】パターンテーブル記憶部46は、後述する
ような量子化DCT係数の抽出パターンを表すパターン
情報の学習処理が行われることにより得られるパターン
情報が登録されたパターンテーブルを記憶しており、ク
ラス分類回路43が出力するクラスコードに対応するア
ドレスに記憶されているパターン情報を、予測タップ抽
出回路41に出力する。
【0113】ここで、パターンテーブル記憶部46にお
いても、係数テーブル記憶部44について説明したのと
同様の理由から、1つのクラスコードに対応するアドレ
スに対して、64セットのパターン情報(各画素位置モ
ードごとのパターン情報)が記憶されている。
【0114】次に、図9のフローチャートを参照して、
図5の係数変換回路32の処理について説明する。
【0115】エントロピー復号回路31が出力するブロ
ックごとの量子化DCT係数は、予測タップ抽出回路4
1およびクラスタップ抽出回路42において順次受信さ
れ、予測タップ抽出回路41は、そこに供給される量子
化DCT係数のブロック(DCTブロック)に対応する
画素ブロックを、順次、注目画素ブロックとする。
【0116】そして、クラスタップ抽出回路42は、ス
テップS11において、そこで受信した量子化DCT係
数の中から、注目画素ブロックをクラス分類するのに用
いるものを抽出して、クラスタップを構成し、クラス分
類回路43に供給する。
【0117】クラス分類回路43は、ステップS12に
おいて、クラスタップ抽出回路42からのクラスタップ
を用いて、注目画素ブロックをクラス分類し、その結果
得られるクラスコードを、係数テーブル記憶部44およ
びパターンテーブル記憶部46に出力する。
【0118】即ち、ステップS12では、図10のフロ
ーチャートに示すように、まず最初に、ステップS21
において、クラス分類回路43(図7)の電力演算回路
51が、クラスタップを構成する8×8個の量子化DC
T係数を、図8に示した4つの空間周波数帯域S0乃至
3に分割し、それぞれの電力P0乃至P3を演算する。
この電力P0乃至P3は、電力演算回路51からクラスコ
ード生成回路52に出力される。
【0119】クラスコード生成回路52は、ステップS
22において、閾値テーブル記憶部53から閾値TH0
乃至TH3を読み出し、電力演算回路51からの電力P
0乃至P3それぞれと、閾値TH0乃至TH3それぞれと
を比較し、それぞれの大小関係に基づいたクラスコード
を生成して、リターンする。
【0120】図9に戻り、ステップS12において以上
のようにして得られるクラスコードは、クラス分類回路
43から係数テーブル記憶部44およびパターンテーブ
ル記憶部46に対して、アドレスとして与えられる。
【0121】係数テーブル記憶部44は、クラス分類回
路43からのアドレスとしてのクラスコードを受信する
と、ステップS13において、そのアドレスに記憶され
ている64セットのタップ係数を読み出し、積和演算回
路45に出力する。また、パターンテーブル記憶部46
も、クラス分類回路43からのアドレスとしてのクラス
コードを受信すると、ステップS13において、そのア
ドレスに記憶されている64セットのパターン情報を読
み出し、予測タップ抽出回路41に出力する。
【0122】そして、ステップS14に進み、予測タッ
プ抽出回路41は、注目画素ブロックの画素のうち、ラ
スタスキャン順で、まだ、注目画素とされていない画素
を、注目画素として、その注目画素の画素位置モードに
対応するパターン情報にしたがって、その注目画素の画
素値を予測するのに用いる量子化DCT係数を抽出し、
予測タップとして構成する。この予測タップは、予測タ
ップ抽出回路41から積和演算回路45に供給される。
【0123】積和演算回路45は、ステップS15にお
いて、ステップS13で係数テーブル記憶部44が出力
する64セットのタップ係数のうち、注目画素に対する
画素位置モードに対応するタップ係数のセットを取得
し、そのタップ係数のセットと、ステップS14で予測
タップ抽出回路41から供給された予測タップとを用い
て、式(1)に示した積和演算を行い、注目画素の画素
値の復号値を得る。
【0124】そして、ステップS16に進み、予測タッ
プ抽出回路41は、注目画素ブロックのすべての画素
を、注目画素として処理を行ったかどうかを判定する。
ステップS16において、注目画素ブロックのすべての
画素を、注目画素として、まだ処理を行っていないと判
定された場合、ステップS14に戻り、予測タップ抽出
回路41は、注目画素ブロックの画素のうち、ラスタス
キャン順で、まだ、注目画素とされていない画素を、新
たに注目画素として、以下、同様の処理を繰り返す。
【0125】また、ステップS16において、注目画素
ブロックのすべての画素を、注目画素として処理を行っ
たと判定された場合、即ち、注目画素ブロックのすべて
の画素の復号値が得られた場合、積和演算回路45は、
その復号値で構成される画素ブロック(復号ブロック)
を、ブロック分解回路33(図3)に出力し、処理を終
了する。
【0126】なお、図9のフローチャートにしたがった
処理は、予測タップ抽出回路41が、新たな注目画素ブ
ロックを設定するごとに繰り返し行われる。
【0127】次に、図11は、図5の係数テーブル記憶
部44に記憶させるタップ係数の学習処理を行うタップ
係数学習装置の一実施の形態の構成例を示している。
【0128】ブロック化回路61には、1枚以上の学習
用の画像データが、学習時の教師となる教師データとし
て供給されるようになっており、ブロック化回路61
は、教師データとしての画像を、JPEG符号化におけ
る場合と同様に、8×8画素の画素ブロックにブロック
化する。
【0129】DCT回路62は、ブロック化回路61が
ブロック化した画素ブロックを、順次、注目画素ブロッ
クとして読み出し、その注目画素ブロックを、DCT処
理することで、DCT係数のブロックとする。このDC
T係数のブロックは、量子化回路63に供給される。
【0130】量子化回路63は、DCT回路62からの
DCT係数のブロックを、JPEG符号化に用いられる
のと同一の量子化テーブルにしたがって量子化し、その
結果得られる量子化DCT係数のブロック(DCTブロ
ック)を、予測タップ抽出回路64およびクラスタップ
抽出回路65に順次供給する。
【0131】予測タップ抽出回路64は、注目画素ブロ
ックの画素のうち、ラスタスキャン順で、まだ、注目画
素とされていない画素を、注目画素として、その注目画
素について、パターンテーブル記憶部70から読み出さ
れるパターン情報を参照することにより、図5の予測タ
ップ抽出回路41が構成するのと同一の予測タップを、
量子化回路63の出力から、必要な量子化DCT係数を
抽出することで構成する。この予測タップは、学習時の
生徒となる生徒データとして、予測タップ抽出回路64
から正規方程式加算回路67に供給される。
【0132】クラスタップ抽出回路65は、注目画素ブ
ロックについて、図5のクラスタップ抽出回路42が構
成するのと同一のクラスタップを、量子化回路63の出
力から、必要な量子化DCT係数を抽出することで構成
する。このクラスタップは、クラスタップ抽出回路65
からクラス分類回路66に供給される。
【0133】クラス分類回路66は、クラスタップ抽出
回路65からのクラスタップを用いて、図5のクラス分
類回路43と同一の処理を行うことで、注目画素ブロッ
クをクラス分類し、その結果得られるクラスコードを、
正規方程式加算回路67およびパターンテーブル記憶部
70に供給する。
【0134】正規方程式加算回路67は、ブロック化回
路61から、教師データとしての注目画素(の画素値)
を読み出し、予測タップ構成回路64からの生徒データ
としての予測タップ(を構成する量子化DCT係数)、
および注目画素を対象とした足し込みを行う。
【0135】即ち、正規方程式加算回路67は、クラス
分類回路66から供給されるクラスコードに対応するク
ラスごとに、予測タップ(生徒データ)を用い、式
(8)の行列Aにおける各コンポーネントとなってい
る、生徒データどうしの乗算(xinim)と、サメーシ
ョン(Σ)に相当する演算を行う。
【0136】さらに、正規方程式加算回路67は、やは
り、クラス分類回路66から供給されるクラスコードに
対応するクラスごとに、予測タップ(生徒データ)およ
び注目画素(教師データ)を用い、式(8)のベクトル
vにおける各コンポーネントとなっている、生徒データ
と教師データの乗算(xini)と、サメーション
(Σ)に相当する演算を行う。
【0137】なお、正規方程式加算回路67における、
上述のような足し込みは、各クラスについて、注目画素
に対する画素位置モードごとに行われる。
【0138】正規方程式加算回路67は、以上の足し込
みを、ブロック化回路61に供給された教師画像を構成
する画素すべてを注目画素として行い、これにより、各
クラスについて、画素位置モードごとに、式(8)に示
した正規方程式がたてられる。
【0139】タップ係数決定回路68は、正規方程式加
算回路67においてクラスごとに(かつ、画素位置モー
ドごとに)生成された正規方程式を解くことにより、ク
ラスごとに、64セットのタップ係数を求め、係数テー
ブル記憶部69の、各クラスに対応するアドレスに供給
する。
【0140】なお、学習用の画像として用意する画像の
枚数や、その画像の内容等によっては、正規方程式加算
回路67において、タップ係数を求めるのに必要な数の
正規方程式が得られないクラスが生じる場合があり得る
が、タップ係数決定回路68は、そのようなクラスにつ
いては、例えば、デフォルトのタップ係数を出力する。
【0141】係数テーブル記憶部69は、タップ係数決
定回路68から供給されるクラスごとの64セットのタ
ップ係数を記憶する。
【0142】パターンテーブル記憶部70は、図5のパ
ターンテーブル記憶部46が記憶しているのと同一のパ
ターンテーブルを記憶しており、クラス分類回路66か
らのクラスコードに対応するアドレスに記憶されている
64セットのパターン情報を読み出し、予測タップ抽出
回路64に供給する。
【0143】次に、図12のフローチャートを参照し
て、図11のタップ係数学習装置の処理(学習処理)に
ついて説明する。
【0144】ブロック化回路61には、学習用の画像デ
ータが、教師データとして供給され、ブロック化回路6
1は、ステップS31において、教師データとしての画
像データを、JPEG符号化における場合と同様に、8
×8画素の画素ブロックにブロック化して、ステップS
32に進む。ステップS32では、DCT回路62が、
ブロック化回路61がブロック化した画素ブロックを、
順次読み出し、その注目画素ブロックを、DCT処理す
ることで、DCT係数のブロックとし、ステップS33
に進む。ステップS33では、量子化回路63が、DC
T回路62において得られたDCT係数のブロックを順
次読み出し、JPEG符号化に用いられるのと同一の量
子化テーブルにしたがって量子化して、量子化DCT係
数で構成されるブロック(DCTブロック)とする。
【0145】そして、ステップS34に進み、クラスタ
ップ抽出回路65は、ブロック化回路61でブロック化
された画素ブロックのうち、まだ注目画素ブロックとさ
れていないものを、注目画素ブロックとする。さらに、
クラスタップ抽出回路65は、注目画素ブロックをクラ
ス分類するのに用いる量子化DCT係数を、量子化回路
63で得られたDCTブロックから抽出して、クラスタ
ップを構成し、クラス分類回路66に供給する。クラス
分類回路66は、ステップS35において、図10のフ
ローチャートで説明した場合と同様に、クラスタップ抽
出回路65からのクラスタップを用いて、注目画素ブロ
ックをクラス分類し、その結果得られるクラスコード
を、正規方程式加算回路67およびパターンテーブル記
憶部70に供給して、ステップS36に進む。
【0146】これにより、パターンテーブル記憶部70
は、クラス分類回路66からのクラスコードに対応する
アドレスに記憶された64セットのパターン情報を読み
出し、予測タップ抽出回路64に供給する。
【0147】ステップS36では、予測タップ抽出回路
64が、注目画素ブロックの画素のうち、ラスタスキャ
ン順で、まだ、注目画素とされていない画素を、注目画
素として、パターンテーブル記憶部70からの64セッ
トのパターン情報のうちの、注目画素の画素位置モード
に対応するものにしたがって、図5の予測タップ抽出回
路41が構成するのと同一の予測タップを、量子化回路
63の出力から必要な量子化DCT係数を抽出すること
で構成する。そして、予測タップ抽出回路64は、注目
画素についての予測タップを、生徒データとして、正規
方程式加算回路67に供給し、ステップS37に進む。
【0148】ステップS37では、正規方程式加算回路
67は、ブロック化回路61から、教師データとしての
注目画素を読み出し、生徒データとしての予測タップ
(を構成する量子化DCT係数)、および教師データと
しての注目画素を対象として、式(8)の行列Aとベク
トルvの、上述したような足し込みを行う。なお、この
足し込みは、クラス分類回路66からのクラスコードに
対応するクラスごとに、かつ注目画素に対する画素位置
モードごとに行われる。
【0149】そして、ステップS38に進み、予測タッ
プ抽出回路64は、注目画素ブロックのすべての画素
を、注目画素として、足し込みを行ったかどうかを判定
する。ステップS38において、注目画素ブロックのす
べての画素を、注目画素として、まだ足し込みを行って
いないと判定された場合、ステップS36に戻り、予測
タップ抽出回路64は、注目画素ブロックの画素のう
ち、ラスタスキャン順で、まだ、注目画素とされていな
い画素を、新たに注目画素として、以下、同様の処理を
繰り返す。
【0150】また、ステップS38において、注目画素
ブロックのすべての画素を、注目画素として、足し込み
を行ったと判定された場合、ステップS39に進み、ブ
ロック化回路61は、教師データとしての画像から得ら
れたすべての画素ブロックを、注目画素ブロックとして
処理を行ったかどうかを判定する。ステップS39にお
いて、教師データとしての画像から得られたすべての画
素ブロックを、注目画素ブロックとして、まだ処理を行
っていないと判定された場合、ステップS34に戻り、
ブロック化回路61でブロック化された画素ブロックの
うち、まだ注目画素ブロックとされていないものが、新
たに注目画素ブロックとされ、以下、同様の処理が繰り
返される。
【0151】一方、ステップS39において、教師デー
タとしての画像から得られたすべての画素ブロックを、
注目画素ブロックとして処理を行ったと判定された場
合、即ち、例えば、正規方程式加算回路67において、
各クラスについて、画素位置モードごとの正規方程式が
得られた場合、ステップS40に進み、タップ係数決定
回路68は、各クラスの画素位置モードごとに生成され
た正規方程式を解くことにより、各クラスごとに、その
クラスの64の画素位置モードそれぞれに対応する64
セットのタップ係数を求め、係数テーブル記憶部69
の、各クラスに対応するアドレスに供給して記憶させ、
処理を終了する。
【0152】以上のようにして、係数テーブル記憶部6
9に記憶された各クラスごとのタップ係数が、図5の係
数テーブル記憶部44に記憶されている。
【0153】従って、係数テーブル記憶部44に記憶さ
れたタップ係数は、線形予測演算を行うことにより得ら
れる元の画素値の予測値の予測誤差(ここでは、自乗誤
差)が、統計的に最小になるように学習を行うことによ
り求められたものであり、その結果、図5の係数変換回
路32によれば、JPEG符号化された画像を、元の画
像に限りなく近い画像に復号することができる。
【0154】また、上述したように、JPEG符号化さ
れた画像の復号処理と、その画質を向上させるための処
理とが、同時に施されることとなるので、JPEG符号
化された画像から、効率的に、画質の良い復号画像を得
ることができる。
【0155】次に、図13は、図5のパターンテーブル
記憶部46および図11のパターンテーブル記憶部70
に記憶させるパターン情報の学習処理を行うパターン学
習装置の一実施の形態の構成例を示している。
【0156】ブロック化回路151には、1枚以上の学
習用の画像データが供給されるようになっており、ブロ
ック化回路151は、学習用の画像を、JPEG符号化
における場合と同様に、8×8画素の画素ブロックにブ
ロック化する。なお、ブロック化回路151に供給する
学習用の画像データは、図11のタップ係数学習装置の
ブロック化回路61に供給される学習用の画像データと
同一のものであっても良いし、異なるものであっても良
い。
【0157】DCT回路152は、ブロック化回路15
1がブロック化した画素ブロックを、順次読み出し、そ
の画素ブロックを、DCT処理することで、DCT係数
のブロックとする。このDCT係数のブロックは、量子
化回路153に供給される。
【0158】量子化回路153は、DCT回路152か
らのDCT係数のブロックを、JPEG符号化に用いら
れるのと同一の量子化テーブルにしたがって量子化し、
その結果得られる量子化DCT係数のブロック(DCT
ブロック)を、加算回路154およびクラスタップ抽出
回路155およびに順次供給する。
【0159】加算回路154は、ブロック化回路151
において得られた画素ブロックを、順次、注目画素ブロ
ックとし、その注目画素ブロックの画素のうち、ラスタ
スキャン順で、まだ、注目画素とされていない画素を、
注目画素として、クラス分類回路156が出力する注目
画素のクラスコードごとに、その注目画素と、量子化回
路153が出力する量子化DCT係数との間の相関値
(相互相関値)を求めるための加算演算を行う。
【0160】即ち、パターン情報の学習処理では、例え
ば、図14(A)に示すように、注目画素が属する注目
画素ブロックに対応するDCTブロックを中心とする3
×3個のDCTブロックの各位置にある量子化DCT係
数それぞれと、注目画素とを対応させることを、図14
(B)に示すように、学習用の画像から得られる画素ブ
ロックすべてについて行うことで、画素ブロックの各位
置にある画素それぞれと、画素ブロックに対応するDC
Tブロックを中心とする3×3個のDCTブロックの各
位置にある量子化DCT係数それぞれとの間の相関値を
演算し、画素ブロックの各位置にある画素それぞれにつ
いて、例えば、図14(C)において■印で示すよう
に、その画素との相関値が大きい位置関係にある量子化
DCT係数の位置パターンを、パターン情報とするよう
になっている。即ち、図14(C)は、画素ブロックの
左から3番目で、上から1番目の画素との相関が大きい
位置関係にある量子化DCT係数の位置パターンを、■
印で表しており、このような位置パターンが、パターン
情報とされる。
【0161】ここで、画素ブロックの左からx+1番目
で、上からy+1番目の画素を、A(x,y)と表すとともに
(本実施の形態では、x,yは、0乃至7(=8−1)
の範囲の整数)、その画素が属する画素ブロックに対応
するDCTブロックを中心とする3×3個のDCTブロ
ックの左からs+1番目で、上からt+1番目の量子化
DCT係数をB(s,t)と表すと(本実施の形態では、s,
tは、0乃至23(=8×3−1)の範囲の整数)、画
素A(x,y)と、その画素A(x,y)に対して所定の位置関係に
ある量子化DCT係数B(s,t)との相互相関値R
A(x,y)B(s,t)は、次式で表される。
【0162】 RA(x,y)B(s,t)=Σ(A(x,y)-A'(x,y))(B(s,t)-B'(s,t)) /(√(Σ(A(x,y)-A'(x,y))2)√(Σ(B(s,t)-B'(s,t))2)) ・・・(9) 但し、式(9)において(後述する式(10)乃至(1
2)においても同様)、サメーション(Σ)は、学習用
の画像から得られた画素ブロックすべてについての加算
を表す。また、A'(x,y)は、学習用の画像から得られた
画素ブロックの位置(x,y)にある画素(値)の平均
値を、B'(s,t)は、学習用の画像から得られた画素ブロ
ックに対する3×3個のDCTブロックの位置(s,
t)にある量子化DCT係数の平均値をそれぞれ表す。
【0163】従って、学習用の画像から得られた画素ブ
ロックの総数をNと表すと、平均値A'(x,y)およびB'(s,
t)は、次式のように表すことができる。
【0164】 A'(x,y)=(ΣA(x,y))/N B'(s,t)=(ΣB(s,t))/N ・・・(10)
【0165】式(10)を式(9)に代入すると、次式
が導かれる。
【0166】 RA(x,y)B(s,t)=NΣ(A(x,y)B(s,t))-(ΣA(x,y))(ΣB(s,t)) /(√(NΣA(x,y)2-(ΣA(x,y))2)√(NΣB(s,t)2-(ΣB(s,t))2)) ・・・(11)
【0167】式(11)より、相関値RA(x,y)B(s,t)
求めるには、 ΣA(x,y),ΣB(s,t),ΣA(x,y)2,ΣB(s,t)2,Σ(A(x,y)B(s,t)) ・・・(12) の合計5式の加算演算を行う必要があり、加算回路15
4は、この5式の加算演算を行う。
【0168】なお、ここでは、説明を簡単にするため
に、クラスを考慮しなかったが、図13のパターン学習
装置では、加算回路154は、式(12)の5式の加算
演算を、クラス分類回路156から供給されるクラスコ
ードごとに分けて行う。従って、上述の場合には、サメ
ーション(Σ)は、学習用の画像から得られた画素ブロ
ックすべてについての加算を表すこととしたが、クラス
を考慮する場合には、式(12)のサメーション(Σ)
は、学習用の画像から得られた画素ブロックうち、各ク
ラスに属するものについての加算を表すことになる。
【0169】図13に戻り、加算回路154は、学習用
の画像について、クラスごとに、画素ブロックの各位置
にある画素と、その画素ブロックに対応するDCTブロ
ックを中心とする3×3個のDCTブロックの各位置に
ある量子化DCT係数との相関値を演算するための式
(12)に示した加算演算結果を得ると、その加算演算
結果を、相関係数算出回路157に出力する。
【0170】クラスタップ抽出回路155は、注目画素
ブロックについて、図5のクラスタップ抽出回路42が
構成するのと同一のクラスタップを、量子化回路153
の出力から、必要な量子化DCT係数を抽出することで
構成する。このクラスタップは、クラスタップ抽出回路
155からクラス分類回路156に供給される。
【0171】クラス分類回路156は、クラスタップ抽
出回路155からのクラスタップを用いて、図5のクラ
ス分類回路43と同一の処理を行うことで、注目画素ブ
ロックをクラス分類し、その結果得られるクラスコード
を、加算回路154に供給する。
【0172】相関係数算出回路157は、加算回路15
4の出力を用いて、式(11)にしたがい、クラスごと
に、画素ブロックの各位置にある画素と、その画素ブロ
ックに対応するDCTブロックを中心とする3×3個の
DCTブロックの各位置にある量子化DCT係数との相
関値を演算し、パターン選択回路158に供給する。
【0173】パターン選択回路158は、相関係数算出
回路157からの相関値に基づいて、画素ブロックの各
位置にある8×8の画素それぞれとの相関値が大きい位
置関係にあるDCT係数の位置を、クラスごとに認識す
る。即ち、パターン選択回路158は、例えば、画素ブ
ロックの各位置にある画素との相関値(の絶対値)が所
定の閾値以上となっているDCT係数の位置を、クラス
ごとに認識する。あるいは、また、パターン選択回路1
58は、例えば、画素ブロックの各位置にある画素との
相関値が所定の順位以上であるDCT係数の位置を、ク
ラスごとに認識する。そして、パターン選択回路158
は、クラスごとに認識した、8×8画素それぞれについ
ての(画素位置モードごとの)64セットのDCT係数
の位置パターンを、パターン情報として、パターンテー
ブル記憶部159に供給する。
【0174】なお、パターン選択回路158において、
画素ブロックの各位置にある画素との相関値が所定の順
位以上であるDCT係数の位置を認識するようにした場
合には、その認識されるDCT係数の位置の数は固定
(所定の順位に相当する値)となるが、画素ブロックの
各位置にある画素との相関値が所定の閾値以上となって
いるDCT係数の位置を認識するようにした場合には、
その認識されるDCT係数の位置の数は、可変になる。
【0175】パターンテーブル記憶部159は、パター
ン選択回路158が出力するパターン情報を記憶する。
【0176】次に、図15のフローチャートを参照し
て、図13のパターン学習装置の処理(学習処理)につ
いて説明する。
【0177】ブロック化回路151には、学習用の画像
データが供給され、ブロック化回路61は、ステップS
51において、その学習用の画像データを、JPEG符
号化における場合と同様に、8×8画素の画素ブロック
にブロック化して、ステップS52に進む。ステップS
52では、DCT回路152が、ブロック化回路151
がブロック化した画素ブロックを、順次読み出し、その
画素ブロックを、DCT処理することで、DCT係数の
ブロックとし、ステップS53に進む。ステップS53
では、量子化回路153が、DCT回路152において
得られたDCT係数のブロックを順次読み出し、JPE
G符号化に用いられるのと同一の量子化テーブルにした
がって量子化して、量子化DCT係数で構成されるブロ
ック(DCTブロック)とする。
【0178】そして、ステップS54に進み、加算回路
154は、ブロック化回路151でブロック化された画
素ブロックのうち、まだ注目画素ブロックとされていな
いものを、注目画素ブロックとする。さらに、ステップ
S54では、クラスタップ抽出回路155は、注目画素
ブロックをクラス分類するのに用いる量子化DCT係数
を、量子化回路63で得られたDCTブロックから抽出
して、クラスタップを構成し、クラス分類回路156に
供給する。クラス分類回路156は、ステップS55に
おいて、図10のフローチャートで説明した場合と同様
に、クラスタップ抽出回路155からのクラスタップを
用いて、注目画素ブロックをクラス分類し、その結果得
られるクラスコードを、加算回路154に供給して、ス
テップS56に進む。
【0179】ステップS56では、加算回路154が、
注目画素ブロックの画素のうち、ラスタスキャン順で、
まだ、注目画素とされていない画素を、注目画素とし
て、その注目画素の位置(画素位置モード)ごとに、か
つ、クラス分類回路156から供給されるクラスコード
ごとに、式(12)に示した加算演算を、ブロック化回
路151でブロック化された学習用の画像と、量子化回
路153が出力する量子化DCT係数を用いて行い、ス
テップS57に進む。
【0180】ステップS57では、加算回路154は、
注目画素ブロックのすべての画素を、注目画素として、
加算演算を行ったかどうかを判定する。ステップS57
において、注目画素ブロックのすべての画素を、注目画
素として、まだ加算演算を行っていないと判定された場
合、ステップS56に戻り、加算回路154は、注目画
素ブロックの画素のうち、ラスタスキャン順で、まだ、
注目画素とされていない画素を、新たに注目画素とし
て、以下、同様の処理を繰り返す。
【0181】また、ステップS57において、注目画素
ブロックのすべての画素を、注目画素として、加算演算
を行ったと判定された場合、ステップS58に進み、加
算回路154は、学習用の画像から得られたすべての画
素ブロックを、注目画素ブロックとして処理を行ったか
どうかを判定する。ステップS58において、教師用の
画像から得られたすべての画素ブロックを、注目画素ブ
ロックとして、まだ処理を行っていないと判定された場
合、ステップS54に戻り、ブロック化回路151でブ
ロック化された画素ブロックのうち、まだ注目画素ブロ
ックとされていないものが、新たに注目画素ブロックと
され、以下、同様の処理が繰り返される。
【0182】一方、ステップS58において、学習用の
画像から得られたすべての画素ブロックを、注目画素ブ
ロックとして処理を行ったと判定された場合、ステップ
S59に進み、相関係数算出回路157は、加算回路1
54における加算演算結果をを用いて、式(11)にし
たがい、クラスごとに、画素ブロックの各位置にある画
素と、画素ブロックに対応するDCTブロックを中心と
する3×3個のDCTブロックの各位置にある量子化D
CT係数との相関値を演算し、パターン選択回路158
に供給する。
【0183】パターン選択回路158は、ステップS6
0において、相関係数算出回路157からの相関値に基
づいて、画素ブロックの各位置にある8×8の画素それ
ぞれとの相関値が大きい位置関係にあるDCT係数の位
置を、クラスごとに認識し、そのクラスごとに認識した
8×8画素それぞれについての64セットのDCT係数
の位置パターンを、パターン情報として、パターンテー
ブル記憶部159に供給して記憶させ、処理を終了す
る。
【0184】以上のようにして、パターンテーブル記憶
部159に記憶された各クラスごとの64セットのパタ
ーン情報が、図5のパターンテーブル記憶部46および
図11のパターンテーブル記憶部70に記憶されてい
る。
【0185】従って、図5の係数変換回路32では、注
目画素について、それとの相関が大きい位置にある量子
化DCT係数が、予測タップとして抽出され、そのよう
な予測タップを用いて、量子化DCT係数が、元の画素
値に復号されるため、例えば、予測タップとする量子化
DCT係数を、ランダムに抽出する場合に比較して、復
号画像の画質を向上させることが可能となる。
【0186】なお、JPEG符号化では、8×8画素の
画素ブロック単位で、DCTおよび量子化が行われるこ
とにより、8×8の量子化DCT係数からなるDCTブ
ロックが構成されるから、ある画素ブロックの画素を、
クラス分類適応処理によって復号する場合には、その画
素ブロックに対応するDCTブロックの量子化DCT係
数を、予測タップとして用いることが考えられる。
【0187】しかしながら、画像においては、ある画素
ブロックに注目した場合に、その画素ブロックの画素
と、その周辺の画素ブロックの画素との間には、少なか
らず相関があるのが一般的である。従って、上述のよう
に、ある画素ブロックに対応するDCTブロックを中心
とする3×3個のDCTブロック、即ち、ある画素ブロ
ックに対応するDCTブロックだけでなく、それ以外の
DCTブロックからも、注目画素との相関が大きい位置
関係にある量子化DCT係数を抽出して、予測タップと
して用いることによって、画素ブロックに対応するDC
Tブロックの量子化DCT係数だけを、予測タップとし
て用いる場合に比較して、復号画像の画質を向上させる
ことが可能となる。
【0188】ここで、ある画素ブロックの画素と、その
周辺の画素ブロックの画素との間に、少なからず相関が
あることからすれば、ある画素ブロックに対応するDC
Tブロックを中心とする3×3個のDCTブロックの量
子化DCT係数すべてを、予測タップとして用いること
により、画素ブロックに対応するDCTブロックの量子
化DCT係数だけを、予測タップとして用いる場合に比
較して、復号画像の画質を向上させることが可能であ
る。
【0189】但し、ある画素ブロックに対応するDCT
ブロックを中心とする3×3個のDCTブロックの量子
化DCT係数すべてを、予測タップとすると、予測タッ
プを構成する量子化DCT係数の数は576(=8×8
×3×3)となり、図5の積和演算回路45において行
う必要のある積和演算の回数が多くなる。
【0190】そこで、その576の量子化DCT係数の
うち、注目画素との相関が大きい位置関係にある量子化
DCT係数を抽出して、予測タップとして用いることに
よって、図5の積和演算回路45における演算量の増加
を抑えながら、復号画像の画質を向上させることが可能
となる。
【0191】なお、上述の場合には、ある画素ブロック
に対応するDCTブロックを中心とする3×3個のDC
Tブロックの量子化DCT係数から、注目画素との相関
が大きい位置関係にある量子化DCT係数を予測タップ
として抽出するようにしたが、予測タップとする量子化
DCT係数は、その他、ある画素ブロックに対応するD
CTブロックを中心とする5×5個等のDCTブロック
の量子化DCT係数から抽出するようにしても良い。即
ち、どのような範囲のDCTブロックから、予測タップ
とする量子化DCT係数を抽出するかは、特に限定され
るものではない。
【0192】また、あるDCTブロックの量子化DCT
係数は、対応する画素ブロックの画素から得られたもの
であるから、注目画素について予測タップを構成するに
あたっては、その注目画素の画素ブロックに対応するD
CTブロックの量子化DCT係数は、すべて、予測タッ
プとするのが望ましいと考えられる。
【0193】そこで、図13のパターン選択回路158
には、画素ブロックに対応するDCTブロックの量子化
DCT係数は、必ず、予測タップとして抽出されるよう
なパターン情報を生成させるようにすることができる。
この場合、パターン選択回路158では、画素ブロック
に対応するDCTブロックの周囲に隣接する8個のDC
Tブロックから、相関値の大きい量子化DCT係数が選
択され、その量子化DCT係数の位置のパターンと、画
素ブロックに対応するDCTブロックの量子化DCT係
数すべての位置のパターンとをあわせたものが、最終的
な、パターン情報とされることになる。
【0194】次に、図16は、図3の係数変換回路32
の第2の構成例を示している。なお、図中、図5におけ
る場合と対応する部分については、同一の符号を付して
あり、以下では、その説明は、適宜省略する。即ち、図
16の係数変換回路32は、逆量子化回路71が新たに
設けられている他は、基本的に、図5における場合と同
様に構成されている。
【0195】図16の実施の形態において、逆量子化回
路71には、エントロピー復号回路31(図3)におい
て符号化データをエントロピー復号することにより得ら
れるブロックごとの量子化DCT係数が供給される。
【0196】なお、エントロピー復号回路31において
は、上述したように、符号化データから、量子化DCT
係数の他、量子化テーブルも得られるが、図16の実施
の形態では、この量子化テーブルも、エントロピー復号
回路31から逆量子化回路71に供給されるようになっ
ている。
【0197】逆量子化回路71は、エントロピー復号回
路31からの量子化DCT係数を、同じくエントロピー
復号回路31からの量子化テーブルにしたがって逆量子
化し、その結果られるDCT係数を、予測タップ抽出回
路41およびクラスタップ抽出回路42に供給する。
【0198】従って、予測タップ抽出回路41とクラス
タップ抽出回路42では、量子化DCT係数ではなく、
DCT係数を対象として、予測タップとクラスタップが
それぞれ構成され、以降も、DCT係数を対象として、
図5における場合と同様の処理が行われる。
【0199】このように、図16の実施の形態では、量
子化DCT係数ではなく、DCT係数を対象として処理
が行われるため、係数テーブル記憶部44に記憶させる
タップ係数は、図5における場合と異なるものとする必
要がある。
【0200】そこで、図17は、図16の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行うタ
ップ係数学習装置の一実施の形態の構成例を示してい
る。なお、図中、図11における場合と対応する部分に
ついては、同一の符号を付してあり、以下では、その説
明は、適宜省略する。即ち、図17のタップ係数学習装
置は、量子化回路63の後段に、逆量子化回路81が新
たに設けられている他は、図11における場合と基本的
に同様に構成されている。
【0201】図17の実施の形態において、逆量子化回
路81は、逆量子化回路63が出力する量子化DCT係
数を、図16の逆量子化回路71と同様に逆量子化し、
その結果得られるDCT係数を、予測タップ抽出回路6
4およびクラスタップ抽出回路65に供給する。
【0202】従って、予測タップ抽出回路64とクラス
タップ抽出回路65では、量子化DCT係数ではなく、
DCT係数を対象として、予測タップとクラスタップが
それぞれ構成され、以降も、DCT係数を対象として、
図11における場合と同様の処理が行われる。
【0203】その結果、DCT係数が量子化され、さら
に逆量子化されることにより生じる量子化誤差の影響を
低減するタップ係数が得られることになる。
【0204】次に、図18は、図16のパターンテーブ
ル記憶部46および図17のパターンテーブル記憶部7
0に記憶させるパターン情報の学習処理を行うパターン
学習装置の一実施の形態の構成例を示している。なお、
図中、図13における場合と対応する部分については、
同一の符号を付してあり、以下では、その説明は、適宜
省略する。即ち、図18のパターン学習装置は、量子化
回路153の後段に、逆量子化回路91が新たに設けら
れている他は、図13における場合と基本的に同様に構
成されている。
【0205】図18の実施の形態において、逆量子化回
路91は、逆量子化回路153が出力する量子化DCT
係数を、図16の逆量子化回路71や、図17の逆量子
化回路81と同様に逆量子化し、その結果得られるDC
T係数を、加算回路154およびクラスタップ抽出回路
155に供給する。
【0206】従って、加算回路154とクラスタップ抽
出回路155では、量子化DCT係数ではなく、DCT
係数を対象として処理が行われる。即ち、加算回路15
4は、上述の加算演算を、量子化回路153が出力する
量子化DCT係数に替えて、逆量子化回路91が出力す
るDCT係数を用いて行い、クラスタップ抽出回路15
5も、量子化回路153が出力する量子化DCT係数に
替えて、逆量子化回路91が出力するDCT係数を用い
て、クラスタップを構成する。そして、以降は、図13
における場合と同様の処理が行われることにより、パタ
ーン情報が求められる。
【0207】次に、図19は、図3の係数変換回路32
の第3の構成例を示している。なお、図中、図5におけ
る場合と対応する部分については、同一の符号を付して
あり、以下では、その説明は、適宜省略する。即ち、図
19の係数変換回路32は、積和演算回路45の後段
に、逆DCT回路101が新たに設けられている他は、
基本的に、図5における場合と同様に構成されている。
【0208】逆DCT回路101は、積和演算回路45
の出力を逆DCT処理することにより、画像に復号して
出力する。従って、図19の実施の形態では、積和演算
回路45は、予測タップ抽出回路41が出力する予測タ
ップを構成する量子化DCT係数と、係数テーブル記憶
部44に記憶されたタップ係数とを用いた積和演算を行
うことにより、DCT係数を出力する。
【0209】このように、図19の実施の形態では、量
子化DCT係数が、タップ係数との積和演算により、画
素値に復号されるのではなく、DCT係数に変換され、
さらに、そのDCT係数が、逆DCT回路101で逆D
CTされることにより、画素値に復号される。従って、
係数テーブル記憶部44に記憶させるタップ係数は、図
5における場合と異なるものとする必要がある。
【0210】そこで、図20は、図19の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行うタ
ップ係数学習装置の一実施の形態の構成例を示してい
る。なお、図中、図11における場合と対応する部分に
ついては、同一の符号を付してあり、以下では、その説
明は、適宜省略する。即ち、図20のタップ係数学習装
置は、正規方程式加算回路67に対し、教師データとし
て、学習用の画像の画素値ではなく、DCT回路62が
出力する、学習用の画像をDCT処理したDCT係数が
与えられるようになっている他は、図11における場合
と同様に構成されている。
【0211】従って、図20の実施の形態では、正規方
程式加算回路67が、DCT回路62が出力するDCT
係数を教師データとするとともに、予測タップ構成回路
64が出力する予測タップを構成する量子化DCT係数
を生徒データとして、上述の足し込みを行う。そして、
タップ係数決定回路68は、そのような足し込みにより
得られる正規方程式を解くことにより、タップ係数を求
める。その結果、図20のタップ係数学習装置では、量
子化DCT係数を、量子化回路63における量子化によ
る量子化誤差を低減(抑制)したDCT係数に変換する
タップ係数が求められることになる。
【0212】図19の係数変換回路32では、積和演算
回路45が、上述のようなタップ係数を用いて積和演算
を行うため、その出力は、予測タップ抽出回路41が出
力する量子化DCT係数を、その量子化誤差を低減した
DCT係数に変換したものとなる。従って、そのような
DCT係数が、逆DCT回路101で逆DCTされるこ
とにより、量子化誤差の影響による画質の劣化を低減し
た復号画像が得られることになる。
【0213】次に、図21は、図19のパターンテーブ
ル記憶部46および図20のパターンテーブル記憶部7
0に記憶させるパターン情報の学習処理を行うパターン
学習装置の一実施の形態の構成例を示している。なお、
図中、図13における場合と対応する部分については、
同一の符号を付してあり、以下では、その説明は、適宜
省略する。即ち、図21のパターン学習装置は、加算回
路154に対し、ブロック化回路151が出力する学習
用の画像の画素ではなく、DCT回路152が出力する
DCT係数が供給されるようになっている他は、図13
における場合と同様に構成されている。
【0214】図13の実施の形態では、予測タップを構
成する量子化DCT係数とタップ係数とを用いた積和演
算によって、画素を復号するために、画素との相関が大
きい位置関係にある量子化DCT係数を求めて、その量
子化DCT係数の位置パターンを、パターン情報とした
が、図21の実施の形態では、予測タップを構成する量
子化DCT係数とタップ係数とを用いた積和演算によっ
て、量子化誤差を低減したDCT係数を得るために、D
CT係数と相関が大きい位置関係にある量子化DCT係
数を求めて、その量子化DCT係数の位置パターンを、
パターン情報として求める必要がある。
【0215】そこで、図21の実施の形態では、加算回
路154は、ブロック化回路151において得られた画
素ブロックではなく、その画素ブロックを、DCT回路
152でDCT処理したDCT係数のブロックを、順
次、注目ブロックとし、その注目ブロックのDCT係数
のうち、ラスタスキャン順で、まだ、注目DCT係数と
されていないDCT係数を、注目DCT係数として、ク
ラス分類回路156が出力する注目DCT係数のクラス
コードごとに、その注目DCT係数と、量子化回路15
3が出力する量子化DCT係数との間の相関値(相互相
関値)を求めるための加算演算を行う。
【0216】即ち、図21のパターン学習装置による学
習処理では、例えば、図22(A)に示すように、注目
DCT係数が属する注目ブロックに対応する、量子化D
CT係数のDCTブロックを中心とする3×3個のDC
Tブロックの各位置にある量子化DCT係数それぞれ
と、注目DCT係数とを対応させることを、図22
(B)に示すように、学習用の画像から得られるDCT
係数のブロックすべてについて行うことで、DCT係数
のブロックの各位置にあるDCT係数それぞれと、その
ブロックに対応するDCTブロックを中心とする3×3
個のDCTブロックの各位置にある量子化DCT係数そ
れぞれとの間の相関値を演算し、DCT係数のブロック
の各位置にあるDCT係数それぞれについて、例えば、
図22(C)において■印で示すように、そのDCT係
数との相関値が大きい位置関係にある量子化DCT係数
の位置パターンを、パターン情報とするようになってい
る。即ち、図22(C)は、DCT係数のブロックの左
から2番目で、上から1番目のDCT係数との相関が大
きい位置関係にある量子化DCT係数の位置パターン
を、■印で表しており、このような位置パターンが、パ
ターン情報とされる。
【0217】ここで、DCT係数のブロックの左からx
+1番目で、上からy+1番目の画素を、A(x,y)と表す
とともに、そのDCT係数が属するブロックに対応する
DCTブロックを中心とする3×3個のDCTブロック
の左からs+1番目で、上からt+1番目の量子化DC
T係数をB(s,t)と表すと、DCT係数A(x,y)と、そのD
CT係数A(x,y)に対して所定の位置関係にある量子化D
CT係数B(s,t)との相互相関値RA(x,y)B(s,t)は、上述
の式(9)乃至(12)で説明した場合と同様にして求
めることができる。
【0218】図21に戻り、相関係数算出回路157
は、上述のようにして、加算回路154が行う加算演算
の結果を用いて、DCT係数と、量子化DCT係数との
間の相関値を求める。そして、パターン選択回路158
は、その相関値を大きくする位置関係にある量子化DC
T係数の位置パターンを求め、パターン情報とする。
【0219】次に、図23は、図3の係数変換回路32
の第4の構成例を示している。なお、図中、図5、図1
6、または図19における場合と対応する部分について
は、同一の符号を付してあり、以下では、その説明は、
適宜省略する。即ち、図23の係数変換回路32は、図
16における場合と同様に、逆量子化回路71が新たに
設けられ、かつ、図19における場合と同様に、逆DC
T回路101が新たに設けられている他は、図5におけ
る場合と同様に構成されている。
【0220】従って、図23の実施の形態では、予測タ
ップ抽出回路41とクラスタップ抽出回路42では、量
子化DCT係数ではなく、DCT係数を対象として、予
測タップとクラスタップがそれぞれ構成される。さら
に、図23の実施の形態では、積和演算回路45は、予
測タップ抽出回路41が出力する予測タップを構成する
DCT係数と、係数テーブル記憶部44に記憶されたタ
ップ係数とを用いた積和演算を行うことにより、量子化
誤差を低減したDCT係数を得て、逆DCT回路101
に出力する。
【0221】次に、図24は、図23の係数テーブル記
憶部44に記憶させるタップ係数の学習処理を行うタッ
プ係数学習装置の一実施の形態の構成例を示している。
なお、図中、図11、図17、または図20における場
合と対応する部分については、同一の符号を付してあ
り、以下では、その説明は、適宜省略する。即ち、図2
4のタップ係数学習装置は、図17における場合と同様
に、逆量子化回路81が新たに設けられ、さらに、図2
0における場合と同様に、正規方程式加算回路67に対
し、教師データとして、学習用の画像の画素値ではな
く、DCT回路62が出力する、学習用の画像をDCT
処理したDCT係数が与えられるようになっている他
は、図11における場合と同様に構成されている。
【0222】従って、図24の実施の形態では、正規方
程式加算回路67が、DCT回路62が出力するDCT
係数を教師データとするとともに、予測タップ構成回路
64が出力する予測タップを構成するDCT係数(量子
化され、逆量子化されたもの)を生徒データとして、上
述の足し込みを行う。そして、タップ係数決定回路68
は、そのような足し込みにより得られる正規方程式を解
くことにより、タップ係数を求める。その結果、図24
のタップ係数学習装置では、量子化され、さらに逆量子
化されたDCT係数を、その量子化および逆量子化によ
る量子化誤差を低減したDCT係数に変換するタップ係
数が求められることになる。
【0223】次に、図25は、図23のパターンテーブ
ル記憶部46および図24のパターンテーブル記憶部7
0に記憶させるパターン情報の学習処理を行うパターン
学習装置の一実施の形態の構成例を示している。なお、
図中、図13、図18、または図21における場合と対
応する部分については、同一の符号を付してあり、以下
では、その説明は、適宜省略する。即ち、図25のパタ
ーン学習装置は、図18における場合と同様に、逆量子
化回路91が新たに設けられているとともに、図21に
おける場合と同様に、加算回路154に対し、ブロック
化回路151が出力する学習用の画像の画素ではなく、
DCT回路152が出力するDCT係数が供給されるよ
うになっている他は、図13における場合と同様に構成
されている。
【0224】従って、図25の実施の形態では、加算回
路154は、ブロック化回路151において得られた画
素ブロックではなく、その画素ブロックを、DCT回路
152でDCT処理したDCT係数のブロックを、順
次、注目ブロックとし、その注目ブロックのDCT係数
のうち、ラスタスキャン順で、まだ、注目DCT係数と
されていないDCT係数を、注目DCT係数として、ク
ラス分類回路156が出力する注目DCT係数のクラス
コードごとに、その注目DCT係数と、逆量子化回路9
1が出力する、量子化され、さらに逆量子化されたDC
T係数との間の相関値(相互相関値)を求めるための加
算演算を行う。そして、相関係数算出回路157は、加
算回路154が行う加算演算の結果を用いて、DCT係
数と、量子化されて逆量子化されたDCT係数との間の
相関値を求め、パターン選択回路158は、その相関値
を大きくする位置関係にある、量子化されて逆量子化さ
れたDCT係数の位置パターンを求めて、パターン情報
とする。
【0225】次に、図26は、図3の係数変換回路32
の第5の構成例を示している。なお、図中、図5におけ
る場合と対応する部分については、同一の符号を付して
あり、以下では、その説明は、適宜省略する。即ち、図
26の係数変換回路32は、クラスタップ抽出回路42
およびクラス分類回路43が設けられていない他は、基
本的に、図5における場合と同様に構成されている。
【0226】従って、図26の実施の形態では、クラス
という概念がないが、このことは、クラスが1つである
とも考えるから、係数テーブル記憶部44には、1クラ
スのタップ係数だけが記憶されており、これを用いて処
理が行われる。
【0227】従って、図26の実施の形態では、係数テ
ーブル記憶部44に記憶されているタップ係数は、図5
における場合と異なるものとなっている。
【0228】そこで、図27は、図26の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行うタ
ップ係数学習装置の一実施の形態の構成例を示してい
る。なお、図中、図11における場合と対応する部分に
ついては、同一の符号を付してあり、以下では、その説
明は、適宜省略する。即ち、図27のタップ学習装置
は、クラスタップ抽出回路65およびクラス分類回路6
6が設けられていない他は、図11における場合と基本
的に同様に構成されている。
【0229】従って、図27のタップ係数学習装置で
は、正規方程式加算回路67において、上述の足し込み
が、クラスには無関係に、画素位置モード別に行われ
る。そして、タップ係数決定回路68において、画素位
置モードごとに生成された正規方程式を解くことによ
り、タップ係数が求められる。
【0230】次に、図26および図27の実施の形態で
は、上述したように、クラスが1つだけである(クラス
がない)から、図26のパターンテーブル記憶部46お
よび図27のパターンテーブル記憶部70には、1クラ
スのパターン情報だけが記憶されている。
【0231】そこで、図28は、図26のパターンテー
ブル記憶部46および図27のパターンテーブル記憶部
70に記憶させるパターン情報の学習処理を行うパター
ン学習装置の一実施の形態の構成例を示している。な
お、図中、図13における場合と対応する部分について
は、同一の符号を付してあり、以下では、その説明は、
適宜省略する。即ち、図28のパターン学習装置は、ク
ラスタップ抽出回路155およびクラス分類回路156
が設けられていない他は、図13における場合と基本的
に同様に構成されている。
【0232】従って、図28のパターン学習装置では、
加算回路154において、上述の加算演算が、クラスに
は無関係に、画素位置モード別に行われる。そして、相
関係数算出回路157においても、クラスに無関係に、
画素位置モードごとに相関値が求められる。さらに、パ
ターン選択回路158においても、相関係数算出回路1
57で得られた相関値に基づいて、クラスに無関係に、
画素位置モードごとにパターン情報が求められる。
【0233】なお、例えば、図5の実施の形態では、パ
ターンテーブル記憶部46に、クラスごとのパターン情
報を記憶させておき、クラス分類回路43が出力するク
ラスコードに対応するクラスのパターン情報を用いて、
予測タップを構成するようにしたが、図5のパターンテ
ーブル記憶部46には、図28のパターン学習装置で得
られる1クラスのパターン情報を記憶させておき、その
パターン情報を用いて、クラスに無関係に、予測タップ
を構成するようにすることも可能である。
【0234】次に、上述した一連の処理は、ハードウェ
アにより行うこともできるし、ソフトウェアにより行う
こともできる。一連の処理をソフトウェアによって行う
場合には、そのソフトウェアを構成するプログラムが、
汎用のコンピュータ等にインストールされる。
【0235】そこで、図29は、上述した一連の処理を
実行するプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。
【0236】プログラムは、コンピュータに内蔵されて
いる記録媒体としてのハードディスク205やROM2
03に予め記録しておくことができる。
【0237】あるいはまた、プログラムは、フロッピー
(登録商標)ディスク、CD-ROM(Compact Disc Read Onl
y Memory),MO(Magneto optical)ディスク,DVD(Digita
l Versatile Disc)、磁気ディスク、半導体メモリなど
のリムーバブル記録媒体211に、一時的あるいは永続
的に格納(記録)しておくことができる。このようなリ
ムーバブル記録媒体211は、いわゆるパッケージソフ
トウエアとして提供することができる。
【0238】なお、プログラムは、上述したようなリム
ーバブル記録媒体211からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN(Local Area Network)、インターネットとい
ったネットワークを介して、コンピュータに有線で転送
し、コンピュータでは、そのようにして転送されてくる
プログラムを、通信部208で受信し、内蔵するハード
ディスク205にインストールすることができる。
【0239】コンピュータは、CPU(Central Processing
Unit)202を内蔵している。CPU202には、バス2
01を介して、入出力インタフェース210が接続され
ており、CPU202は、入出力インタフェース210を
介して、ユーザによって、キーボードや、マウス、マイ
ク等で構成される入力部207が操作等されることによ
り指令が入力されると、それにしたがって、ROM(Read O
nly Memory)203に格納されているプログラムを実行
する。あるいは、また、CPU202は、ハードディスク
205に格納されているプログラム、衛星若しくはネッ
トワークから転送され、通信部208で受信されてハー
ドディスク205にインストールされたプログラム、ま
たはドライブ209に装着されたリムーバブル記録媒体
211から読み出されてハードディスク205にインス
トールされたプログラムを、RAM(Random Access Memor
y)204にロードして実行する。これにより、CPU20
2は、上述したフローチャートにしたがった処理、ある
いは上述したブロック図の構成により行われる処理を行
う。そして、CPU202は、その処理結果を、必要に応
じて、例えば、入出力インタフェース210を介して、
LCD(Liquid CryStal Display)やスピーカ等で構成され
る出力部206から出力、あるいは、通信部208から
送信、さらには、ハードディスク205に記録等させ
る。
【0240】ここで、本明細書において、コンピュータ
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。
【0241】また、プログラムは、1のコンピュータに
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。
【0242】なお、本実施の形態では、画像データを対
象としたが、本発明は、その他、例えば、音声データに
も適用可能である。
【0243】さらに、本実施の形態では、静止画を圧縮
符号化するJPEG符号化された画像を対象としたが、
本発明は、動画を圧縮符号化する、例えば、MPEG符
号化された画像を対象とすることも可能である。
【0244】また、本実施の形態では、少なくとも、D
CT処理を行うJPEG符号化された符号化データの復
号を行うようにしたが、本発明は、その他の直交変換ま
たは周波数変換によって、ブロック単位(ある所定の単
位)で変換されたデータの復号や変換に適用可能であ
る。即ち、本発明は、例えば、サブバンド符号化された
データや、フーリエ変換されたデータ等を復号したり、
それらの量子化誤差等を低減したデータに変換する場合
にも適用可能である。
【0245】さらに、本実施の形態では、デコーダ22
において、復号に用いるタップ係数を、あらかじめ記憶
しておくようにしたが、タップ係数は、符号化データに
含めて、デコーダ22に提供するようにすることが可能
である。パターン情報についても、同様である。
【0246】また、本実施の形態では、タップ係数を用
いた線形1次予測演算によって、復号や変換を行うよう
にしたが、復号および変換は、その他、2次以上の高次
の予測演算によって行うことも可能である。
【0247】さらに、本実施の形態では、予測タップ
を、注目画素ブロックに対応するDCTブロックと、そ
の周辺のDCTブロックの量子化DCT係数から構成す
るようにしたが、クラスタップも同様に構成することが
可能である。
【0248】
【発明の効果】本発明の第1のデータ処理装置およびデ
ータ処理方法、並びに記録媒体によれば、新変換ブロッ
クのうちの注目している注目新変換ブロックの新たな変
換データを得るための予測演算に用いる変換データが、
少なくとも、その注目新変換ブロック以外の新変換ブロ
ックに対応する変換ブロックから抽出され、予測タップ
として出力される。そして、タップ係数および予測タッ
プを用いて、所定の予測演算を行うことにより、変換デ
ータが、新たな変換データに変換される。従って、その
新たな変換データを復号することにより、変換データを
復号する場合よりも、効率的に、質の良いデータを得る
ことが可能となる。
【0249】本発明の第2のデータ処理装置およびデー
タ処理方法、並びに記録媒体によれば、データを、少な
くとも、直交変換または周波数変換することにより得ら
れる教師データに、所定の処理を施すことにより、生徒
データが生成される。そして、教師ブロックのうちの注
目している注目教師ブロックの教師データを求めるため
の予測演算に用いる生徒データが、少なくとも、その注
目教師ブロック以外の教師ブロックに対応する生徒ブロ
ックから抽出され、予測タップとして出力される。さら
に、タップ係数および予測タップを用いて予測演算を行
うことにより得られる教師データの予測値の予測誤差
が、統計的に最小になるように学習が行われ、タップ係
数が求められる。従って、そのタップ係数を用いること
により、直交変換または周波数変換されたデータを変換
し、その変換後のデータを復号することにより、効率的
に、質の良いデータを得ることが可能となる。
【図面の簡単な説明】
【図1】従来のJPEG符号化/復号を説明するための
図である。
【図2】本発明を適用した画像伝送システムの一実施の
形態の構成例を示す図である。
【図3】図2のデコーダ22の構成例を示すブロック図
である。
【図4】図3のデコーダ22の処理を説明するフローチ
ャートである。
【図5】図3の係数変換回路32の第1の構成例を示す
ブロック図である。
【図6】クラスタップの例を説明する図である。
【図7】図5のクラス分類回路43の構成例を示すブロ
ック図である。
【図8】図5の電力演算回路51の処理を説明するため
の図である。
【図9】図5の係数変換回路32の処理を説明するフロ
ーチャートである。
【図10】図9のステップS12の処理のより詳細を説
明するフローチャートである。
【図11】タップ係数を学習するタップ係数学習装置の
第1実施の形態の構成例を示すブロック図である。
【図12】図11のタップ係数学習装置の処理を説明す
るフローチャートである。
【図13】パターン情報を学習するパターン学習装置の
第1実施の形態の構成例を示すブロック図である。
【図14】図13の加算回路154の処理を説明するた
めの図である。
【図15】図13のパターン学習装置の処理を説明する
フローチャートである。
【図16】図3の係数変換回路32の第2の構成例を示
すブロック図である。
【図17】タップ係数学習装置の第2実施の形態の構成
例を示すブロック図である。
【図18】パターン学習装置の第2実施の形態の構成例
を示すブロック図である。
【図19】図3の係数変換回路32の第3の構成例を示
すブロック図である。
【図20】タップ係数学習装置の第3実施の形態の構成
例を示すブロック図である。
【図21】パターン学習装置の第3実施の形態の構成例
を示すブロック図である。
【図22】図21の加算回路154の処理を説明するた
めの図である。
【図23】図3の係数変換回路32の第4の構成例を示
すブロック図である。
【図24】タップ係数学習装置の第4実施の形態の構成
例を示すブロック図である。
【図25】パターン学習装置の第4実施の形態の構成例
を示すブロック図である。
【図26】図3の係数変換回路32の第5の構成例を示
すブロック図である。
【図27】タップ係数学習装置の第5実施の形態の構成
例を示すブロック図である。
【図28】パターン学習装置の第5実施の形態の構成例
を示すブロック図である。
【図29】本発明を適用したコンピュータの一実施の形
態の構成例を示すブロック図である。
【符号の説明】
21 エンコーダ, 22 デコーダ, 23 記録媒
体, 24 伝送媒体, 31 エントロピー復号回
路, 32 係数変換回路, 33 ブロック分解回
路, 41 予測タップ抽出回路, 42 クラスタッ
プ抽出回路, 43クラス分類回路, 44 係数テー
ブル記憶部, 45積和演算回路, 46パターンテー
ブル記憶部, 51 電力演算回路, 52 クラスコ
ード生成回路, 53 閾値テーブル記憶部, 61
ブロック化回路, 62 DCT回路, 63 量子化
回路, 64 予測タップ抽出回路, 65 クラスタ
ップ抽出回路, 66 クラス分類回路, 67 正規
方程式加算回路, 68タップ係数決定回路, 69
係数テーブル記憶部, 70 パターンテーブル記憶
部, 71,81 逆量子化回路, 91 逆量子化回
路, 101 逆DCT回路, 151 ブロック化回
路, 152 DCT回路, 153 量子化回路,
154 加算回路, 155 クラスタップ抽出回路,
156 クラス分類回路, 157 相関係数算出回
路, 158 パターン選択回路,159 パターンテ
ーブル記憶部, 201 バス, 202 CPU, 2
03ROM, 204 RAM, 205 ハードディスク,
206 出力部, 207 入力部, 208 通信
部, 209 ドライブ, 210 入出力インタフェ
ース, 211 リムーバブル記録媒体
───────────────────────────────────────────────────── フロントページの続き (72)発明者 西片 丈晴 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 内田 真史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C059 KK01 MA00 MA23 PP01 PP04 SS06 SS11 SS20 TA48 TB08 TC03 TC04 TD13 UA05 UA33 5J064 AA01 BA09 BA16 BB03 BC01 BC16 BD03

Claims (26)

    【特許請求の範囲】
  1. 【請求項1】 所定のデータに対し、少なくとも、直交
    変換処理または周波数変換処理を所定のブロック単位で
    施すことにより得られるブロック単位の変換データを処
    理し、新たな変換データを得るデータ処理装置であっ
    て、 学習を行うことにより求められたタップ係数を取得する
    取得手段と、 前記新たな変換データのブロックである新変換ブロック
    のうちの注目している注目新変換ブロックの前記新たな
    変換データを得るための予測演算に用いる前記変換デー
    タを、少なくとも、その注目新変換ブロック以外の新変
    換ブロックに対応する、前記変換データのブロックであ
    る変換ブロックから抽出し、予測タップとして出力する
    予測タップ抽出手段と、 前記タップ係数および予測タップを用いて、所定の予測
    演算を行うことにより、前記変換データを、前記新たな
    変換データに変換する演算手段とを備えることを特徴と
    するデータ処理装置。
  2. 【請求項2】 前記演算手段は、前記タップ係数および
    予測タップを用いて、線形1次予測演算を行うことによ
    り、前記変換データを、前記新たな変換データに変換す
    ることを特徴とする請求項1に記載のデータ処理装置。
  3. 【請求項3】 前記タップ係数を記憶している記憶手段
    をさらに備え、 前記取得手段は、前記記憶手段から、前記タップ係数を
    取得することを特徴とする請求項1に記載のデータ処理
    装置。
  4. 【請求項4】 前記変換データは、前記所定のデータ
    を、少なくとも、離散コサイン変換したものであること
    を特徴とする請求項1に記載のデータ処理装置。
  5. 【請求項5】 前記注目新変換ブロックの前記新たな変
    換データのうちの、注目している注目データを、幾つか
    のクラスのうちのいずれかにクラス分類するのに用いる
    前記変換データを抽出し、クラスタップとして出力する
    クラスタップ抽出手段と、 前記クラスタップに基づいて、前記注目データのクラス
    を求めるクラス分類を行うクラス分類手段とをさらに備
    え、 前記演算手段は、前記予測タップおよび前記注目データ
    のクラスに対応する前記タップ係数を用いて予測演算を
    行うことを特徴とする請求項1に記載のデータ処理装
    置。
  6. 【請求項6】 前記予測タップ抽出手段は、前記注目新
    変換ブロックの周辺の新変換ブロックに対応する変換ブ
    ロックから、前記予測タップとする変換データを抽出す
    ることを特徴とする請求項1に記載のデータ処理装置。
  7. 【請求項7】 前記予測タップ抽出手段は、前記注目新
    変換ブロックに対応する変換ブロックと、前記注目新変
    換ブロック以外の新変換ブロックに対応する変換ブロッ
    クとから、前記予測タップとする変換データを抽出する
    ことを特徴とする請求項1に記載のデータ処理装置。
  8. 【請求項8】 前記予測タップ抽出手段は、前記注目新
    変換ブロックの前記新たな変換データのうちの、注目し
    ている注目データとの相関が大きい位置関係にある前記
    変換データを、前記予測タップとして抽出することを特
    徴とする請求項1に記載のデータ処理装置。
  9. 【請求項9】 前記予測タップ抽出手段は、前記注目デ
    ータとの相関が所定の閾値以上となる位置関係にある前
    記変換データを、前記予測タップとして抽出することを
    特徴とする請求項8に記載のデータ処理装置。
  10. 【請求項10】 前記予測タップ抽出手段は、前記注目
    データとの相関が所定の順位以内になる位置関係にある
    前記変換データを、前記予測タップとして抽出すること
    を特徴とする請求項8に記載のデータ処理装置。
  11. 【請求項11】 前記タップ係数は、前記タップ係数お
    よび変換データを用いて、所定の予測演算を行うことに
    より得られる前記新たな変換データの予測値の予測誤差
    が、統計的に最小になるように、学習を行うことにより
    得られたものであることを特徴とする請求項1に記載の
    データ処理装置。
  12. 【請求項12】 前記所定のデータは、動画または静止
    画の画像データであることを特徴とする請求項1に記載
    のデータ処理装置。
  13. 【請求項13】 所定のデータに対し、少なくとも、直
    交変換処理または周波数変換処理を所定のブロック単位
    で施すことにより得られるブロック単位の変換データを
    処理し、新たな変換データを得るデータ処理方法であっ
    て、 学習を行うことにより求められたタップ係数を取得する
    取得ステップと、 前記新たな変換データのブロックである新変換ブロック
    のうちの注目している注目新変換ブロックの前記新たな
    変換データを得るための予測演算に用いる前記変換デー
    タを、少なくとも、その注目新変換ブロック以外の新変
    換ブロックに対応する、前記変換データのブロックであ
    る変換ブロックから抽出し、予測タップとして出力する
    予測タップ抽出ステップと、 前記タップ係数および予測タップを用いて、所定の予測
    演算を行うことにより、前記変換データを、前記新たな
    変換データに変換する演算ステップとを備えることを特
    徴とするデータ処理方法。
  14. 【請求項14】 所定のデータに対し、少なくとも、直
    交変換処理または周波数変換処理を所定のブロック単位
    で施すことにより得られるブロック単位の変換データを
    処理し、新たな変換データを得るデータ処理を、コンピ
    ュータに行わせるプログラムが記録されている記録媒体
    であって、 学習を行うことにより求められたタップ係数を取得する
    取得ステップと、 前記新たな変換データのブロックである新変換ブロック
    のうちの注目している注目新変換ブロックの前記新たな
    変換データを得るための予測演算に用いる前記変換デー
    タを、少なくとも、その注目新変換ブロック以外の新変
    換ブロックに対応する、前記変換データのブロックであ
    る変換ブロックから抽出し、予測タップとして出力する
    予測タップ抽出ステップと、 前記タップ係数および予測タップを用いて、所定の予測
    演算を行うことにより、前記変換データを、前記新たな
    変換データに変換する演算ステップとを備えるプログラ
    ムが記録されていることを特徴とする記録媒体。
  15. 【請求項15】 データに対し、少なくとも、直交変換
    処理または周波数変換処理を所定のブロック単位で施す
    ことにより得られるブロック単位の変換データを、予測
    演算によって、新たな変換データに変換するのに用いる
    タップ係数を学習するデータ処理装置であって、 データを、少なくとも、直交変換または周波数変換する
    ことにより得られる、教師となる教師データに、所定の
    処理を施すことにより、生徒となる生徒データを生成す
    る生徒データ生成手段と、 前記教師データのブロックである教師ブロックのうちの
    注目している注目教師ブロックの教師データを求めるた
    めの予測演算に用いる前記生徒データを、少なくとも、
    その注目教師ブロック以外の教師ブロックに対応する、
    前記生徒データのブロックである生徒ブロックから抽出
    し、予測タップとして出力する予測タップ抽出手段と、 前記タップ係数および予測タップを用いて予測演算を行
    うことにより得られる前記教師データの予測値の予測誤
    差が、統計的に最小になるように学習を行い、前記タッ
    プ係数を求める学習手段とを備えることを特徴とするデ
    ータ処理装置。
  16. 【請求項16】 前記学習手段は、前記タップ係数およ
    び生徒データを用いて線形1次予測演算を行うことによ
    り得られる前記教師データの予測値の予測誤差が、統計
    的に最小になるように学習を行うことを特徴とする請求
    項15に記載のデータ処理装置。
  17. 【請求項17】 前記教師データは、データを、少なく
    とも、離散コサイン変換したものであることを特徴とす
    る請求項15に記載のデータ処理装置。
  18. 【請求項18】 前記注目教師ブロックの前記教師デー
    タのうちの、注目している注目教師データを、幾つかの
    クラスのうちのいずれかにクラス分類するのに用いる前
    記生徒データを抽出し、クラスタップとして出力するク
    ラスタップ抽出手段と、 前記クラスタップに基づいて、前記注目教師データのク
    ラスを求めるクラス分類を行うクラス分類手段とをさら
    に備え、 前記学習手段は、前記予測タップおよび前記注目教師デ
    ータのクラスに対応するタップ係数を用いて予測演算を
    行うことにより得られる前記教師データの予測値の予測
    誤差が、統計的に最小になるように学習を行い、クラス
    ごとの前記タップ係数を求めることを特徴とする請求項
    15に記載のデータ処理装置。
  19. 【請求項19】 前記予測タップ抽出手段は、注目教師
    ブロックの周辺の教師ブロックに対応する前記生徒ブロ
    ックから、前記予測タップとする前記生徒データを抽出
    することを特徴とする請求項15に記載のデータ処理装
    置。
  20. 【請求項20】 前記予測タップ抽出手段は、注目教師
    ブロックに対応する前記生徒ブロックと、注目教師ブロ
    ック以外の教師ブロックに対応する前記生徒ブロックと
    から、前記予測タップとする前記生徒データを抽出する
    ことを特徴とする請求項15に記載のデータ処理装置。
  21. 【請求項21】 前記予測タップ抽出手段は、前記注目
    教師ブロックの前記教師データのうちの、注目している
    注目教師データとの相関が大きい位置関係にある前記生
    徒データを、前記予測タップとして抽出することを特徴
    とする請求項15に記載のデータ処理装置。
  22. 【請求項22】 前記予測タップ抽出手段は、前記注目
    教師データとの相関が所定の閾値以上となる位置関係に
    ある前記生徒データを、前記予測タップとして抽出する
    ことを特徴とする請求項21に記載のデータ処理装置。
  23. 【請求項23】 前記予測タップ抽出手段は、前記注目
    教師データとの相関が所定の順位以内になる位置関係に
    ある前記生徒データを、前記予測タップとして抽出する
    ことを特徴とする請求項21に記載のデータ処理装置。
  24. 【請求項24】 前記データは、動画または静止画の画
    像データであることを特徴とする請求項15に記載のデ
    ータ処理装置。
  25. 【請求項25】 データに対し、少なくとも、直交変換
    処理または周波数変換処理を所定のブロック単位で施す
    ことにより得られるブロック単位の変換データを、予測
    演算によって、新たな変換データに変換するのに用いる
    タップ係数を学習するデータ処理方法であって、 データを、少なくとも、直交変換または周波数変換する
    ことにより得られる、教師となる教師データに、所定の
    処理を施すことにより、生徒となる生徒データを生成す
    る生徒データ生成ステップと、 前記教師データのブロックである教師ブロックのうちの
    注目している注目教師ブロックの教師データを求めるた
    めの予測演算に用いる前記生徒データを、少なくとも、
    その注目教師ブロック以外の教師ブロックに対応する、
    前記生徒データのブロックである生徒ブロックから抽出
    し、予測タップとして出力する予測タップ抽出ステップ
    と、 前記タップ係数および予測タップを用いて予測演算を行
    うことにより得られる前記教師データの予測値の予測誤
    差が、統計的に最小になるように学習を行い、前記タッ
    プ係数を求める学習ステップとを備えることを特徴とす
    るデータ処理方法。
  26. 【請求項26】 データに対し、少なくとも、直交変換
    処理または周波数変換処理を所定のブロック単位で施す
    ことにより得られるブロック単位の変換データを、予測
    演算によって、新たな変換データに変換するのに用いる
    タップ係数を学習するデータ処理を、コンピュータに行
    わせるプログラムが記録されている記録媒体であって、 データを、少なくとも、直交変換または周波数変換する
    ことにより得られる、教師となる教師データに、所定の
    処理を施すことにより、生徒となる生徒データを生成す
    る生徒データ生成ステップと、 前記教師データのブロックである教師ブロックのうちの
    注目している注目教師ブロックの教師データを求めるた
    めの予測演算に用いる前記生徒データを、少なくとも、
    その注目教師ブロック以外の教師ブロックに対応する、
    前記生徒データのブロックである生徒ブロックから抽出
    し、予測タップとして出力する予測タップ抽出ステップ
    と、 前記タップ係数および予測タップを用いて予測演算を行
    うことにより得られる前記教師データの予測値の予測誤
    差が、統計的に最小になるように学習を行い、前記タッ
    プ係数を求める学習ステップとを備えるプログラムが記
    録されていることを特徴とする記録媒体。
JP2000164026A 2000-06-01 2000-06-01 データ処理装置およびデータ処理方法、並びに記録媒体 Expired - Fee Related JP4538699B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000164026A JP4538699B2 (ja) 2000-06-01 2000-06-01 データ処理装置およびデータ処理方法、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000164026A JP4538699B2 (ja) 2000-06-01 2000-06-01 データ処理装置およびデータ処理方法、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2001346210A true JP2001346210A (ja) 2001-12-14
JP4538699B2 JP4538699B2 (ja) 2010-09-08

Family

ID=18667697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000164026A Expired - Fee Related JP4538699B2 (ja) 2000-06-01 2000-06-01 データ処理装置およびデータ処理方法、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP4538699B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011530919A (ja) * 2008-08-13 2011-12-22 トムソン ライセンシング 参照画像の基準ブロックを変更する方法、基準ブロックにより画像のブロックを符号化又は復号化する方法及び装置、並びに、変更された基準ブロックにより符号化されたブロックを担持する記録媒体又は信号

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0346484A (ja) * 1989-07-14 1991-02-27 Hitachi Ltd 画像処理装置
JPH0779434A (ja) * 1993-09-06 1995-03-20 Sony Corp ディジタル画像信号の受信/再生装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0346484A (ja) * 1989-07-14 1991-02-27 Hitachi Ltd 画像処理装置
JPH0779434A (ja) * 1993-09-06 1995-03-20 Sony Corp ディジタル画像信号の受信/再生装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011530919A (ja) * 2008-08-13 2011-12-22 トムソン ライセンシング 参照画像の基準ブロックを変更する方法、基準ブロックにより画像のブロックを符号化又は復号化する方法及び装置、並びに、変更された基準ブロックにより符号化されたブロックを担持する記録媒体又は信号

Also Published As

Publication number Publication date
JP4538699B2 (ja) 2010-09-08

Similar Documents

Publication Publication Date Title
JP5957561B2 (ja) 大きいサイズの変換単位を用いた映像符号化、復号化方法及び装置
US7336829B2 (en) Data processing apparatus and method and recording medium
JP4517448B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4752088B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4678454B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4538699B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4538698B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4419287B2 (ja) 画像処理装置および画像処理方法、並びに記録媒体
JP2001345707A (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4147789B2 (ja) 画像処理装置および画像処理方法、並びにプログラムおよび記録媒体
WO2019198519A1 (ja) データ処理装置及びデータ処理方法
JP4491701B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4154647B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
Jabeen et al. Predictive Coding Based Lossless Image Compression Model
JP2001285648A (ja) 画像処理装置および画像処理方法、並びに記録媒体
JP5175813B2 (ja) 符号化装置、復号装置及び画像処理プログラム
JP2005318096A (ja) 情報信号の処理装置および処理方法、並びにプログラムおよびそれを記録した媒体
Matsuda et al. Rate-distortion optimized image coding allowing lossless conversion to JPEG compliant bitstreams

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100527

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100609

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111114

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees