JP2001320711A - Data processor, data processing method and recording medium - Google Patents

Data processor, data processing method and recording medium

Info

Publication number
JP2001320711A
JP2001320711A JP2000135355A JP2000135355A JP2001320711A JP 2001320711 A JP2001320711 A JP 2001320711A JP 2000135355 A JP2000135355 A JP 2000135355A JP 2000135355 A JP2000135355 A JP 2000135355A JP 2001320711 A JP2001320711 A JP 2001320711A
Authority
JP
Japan
Prior art keywords
data
class
tap
circuit
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000135355A
Other languages
Japanese (ja)
Other versions
JP4538698B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Toshihiko Hamamatsu
俊彦 浜松
Hideo Nakaya
秀雄 中屋
Takeharu Nishikata
丈晴 西片
Hideki Otsuka
秀樹 大塚
Takeshi Kunihiro
威 國弘
Takafumi Morifuji
孝文 森藤
Masashi Uchida
真史 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000135355A priority Critical patent/JP4538698B2/en
Publication of JP2001320711A publication Critical patent/JP2001320711A/en
Application granted granted Critical
Publication of JP4538698B2 publication Critical patent/JP4538698B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To efficiently decode JPEG-coded data. SOLUTION: JPEG-coded data are made into DCT coefficients (quantized DCT coefficients) quantized by entropy-decoding, and a quantization table used for JPEG coding is separated from the coded data. A forecasting tap extracting circuit 41 and a class tap extracting circuit 42 extract a necessary coefficient from the quantized DCT coefficients, and compose the forecasting tap and the class tap, respectively. A class classification circuit 43 performs class classification based on the class tap and the quantization table, and a coefficient table storage part 44 supplies a tap coefficient corresponding to the class obtained as a result of the class classification to a product-sum operation circuit 45. The product-sum operation circuit 45 performs a linear predictive operation by using the tap coefficient and the class tap, and obtains the decoded image data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、データ処理装置お
よびデータ処理方法、並びに記録媒体に関し、特に、例
えば、不可逆圧縮された画像等を復号する場合に用いて
好適なデータ処理装置およびデータ処理方法、並びに記
録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing apparatus, a data processing method, and a recording medium, and more particularly, to a data processing apparatus and a data processing method suitable for decoding, for example, lossy-compressed images. And a recording medium.

【0002】[0002]

【従来の技術】例えば、ディジタル画像データは、その
データ量が多いため、そのまま記録や伝送を行うには、
大容量の記録媒体や伝送媒体が必要となる。そこで、一
般には、画像データを圧縮符号化することにより、その
データ量を削減してから、記録や伝送が行われる。
2. Description of the Related Art For example, digital image data has a large data amount.
A large-capacity recording medium and transmission medium are required. Therefore, in general, recording and transmission are performed after compressing and encoding image data to reduce the data amount.

【0003】画像を圧縮符号化する方式としては、例え
ば、静止画の圧縮符号化方式であるJPEG(Joint Pho
tographic Experts Group)方式や、動画の圧縮符号化方
式であるMPEG(Moving Picture Experts Group)方式
等がある。
As a method of compressing and encoding an image, for example, a JPEG (Joint Photo) which is a compression encoding method of a still image is used.
There is an MPEG (Moving Picture Experts Group) method, which is a moving image compression encoding method, and the like.

【0004】例えば、JPEG方式による画像データの
符号化/復号は、図1に示すように行われる。
For example, encoding / decoding of image data according to the JPEG system is performed as shown in FIG.

【0005】即ち、図1(A)は、従来のJPEG符号
化装置の一例の構成を示している。
[0005] That is, FIG. 1A shows a configuration of an example of a conventional JPEG encoding device.

【0006】符号化対象の画像データは、ブロック化回
路1に入力され、ブロック化回路1は、そこに入力され
る画像データを、8×8画素の64画素でなるブロック
に分割する。ブロック化回路1で得られる各ブロック
は、DCT(Discrete Cosine Transform)回路2に供給
される。DCT回路2は、ブロック化回路1からのブロ
ックに対して、DCT(離散コサイン変換)処理を施
し、1個のDC(Direct Current)成分と、水平方向およ
び垂直方向についての63個の周波数成分(AC(Alter
nating Current)成分)の、合計64個のDCT係数に
変換する。各ブロックごとの64個のDCT係数は、D
CT回路2から量子化回路3に供給される。
[0006] The image data to be encoded is input to a blocking circuit 1, which divides the input image data into blocks of 64 8x8 pixels. Each block obtained by the blocking circuit 1 is supplied to a DCT (Discrete Cosine Transform) circuit 2. The DCT circuit 2 performs a DCT (Discrete Cosine Transform) process on the block from the blocking circuit 1, and performs one DC (Direct Current) component and 63 frequency components (horizontal and vertical). AC (Alter
(Nating Current) component) into a total of 64 DCT coefficients. The 64 DCT coefficients for each block are D
The signal is supplied from the CT circuit 2 to the quantization circuit 3.

【0007】量子化回路3は、所定の量子化テーブルに
したがって、DCT回路2からのDCT係数を量子化
し、その量子化結果(以下、適宜、量子化DCT係数と
いう)を、量子化に用いた量子化テーブルとともに、エ
ントロピー符号化回路4に供給する。
The quantization circuit 3 quantizes the DCT coefficient from the DCT circuit 2 according to a predetermined quantization table, and uses the quantization result (hereinafter, appropriately referred to as a quantized DCT coefficient) for quantization. The information is supplied to the entropy encoding circuit 4 together with the quantization table.

【0008】ここで、図1(B)は、量子化回路3にお
いて用いられる量子化テーブルの例を示している。量子
化テーブルには、一般に、人間の視覚特性を考慮して、
重要性の高い低周波数のDCT係数は細かく量子化し、
重要性の低い高周波数のDCT係数は粗く量子化するよ
うな量子化ステップが設定されており、これにより、画
像の画質の劣化を抑えて、効率の良い圧縮が行われるよ
うになっている。
FIG. 1B shows an example of a quantization table used in the quantization circuit 3. Generally, quantization tables take into account human visual characteristics,
The low-frequency DCT coefficients of high importance are finely quantized,
A quantization step for coarsely quantizing the DCT coefficient of a low-frequency high frequency is set, and thereby the image quality of the image is suppressed from being degraded, and the compression is performed efficiently.

【0009】また、図1(B)には、2種類の量子化テ
ーブルを示してあるが、JPEG符号化に用いられる量
子化テーブルは、2種類に限定されるものではない。な
お、どのような量子化テーブルを用いるかは、ユーザが
設定する圧縮率に基づいて決定される。
FIG. 1B shows two types of quantization tables, but the number of quantization tables used for JPEG encoding is not limited to two. Note that what kind of quantization table is used is determined based on the compression ratio set by the user.

【0010】エントロピー符号化回路4は、量子化回路
3からの量子化DCT係数に対して、例えば、ハフマン
符号化等のエントロピー符号化処理を施して、量子化回
路3からの量子化テーブルを付加し、その結果得られる
符号化データを、JPEG符号化結果として出力する。
The entropy coding circuit 4 performs entropy coding processing such as Huffman coding on the quantized DCT coefficient from the quantization circuit 3 and adds a quantization table from the quantization circuit 3. Then, the resulting encoded data is output as a JPEG encoded result.

【0011】次に、図1(C)は、図1(A)のJPE
G符号化装置が出力する符号化データを復号する、従来
のJPEG復号装置の一例の構成を示している。
Next, FIG. 1 (C) shows the JPE of FIG. 1 (A).
1 shows a configuration of an example of a conventional JPEG decoding device that decodes encoded data output from a G encoding device.

【0012】符号化データは、エントロピー復号回路1
1に入力され、エントロピー復号回路11は、符号化デ
ータを、エントロピー符号化された量子化DCT係数
と、量子化テーブルとに分離する。さらに、エントロピ
ー復号回路11は、エントロピー符号化された量子化D
CT係数をエントロピー復号し、その結果得られる量子
化DCT係数を、量子化テーブルとともに、逆量子化回
路12に供給する。逆量子化回路12は、エントロピー
復号回路11からの量子化DCT係数を、同じくエント
ロピー復号回路11からの量子化テーブルにしたがって
逆量子化し、その結果得られるDCT係数を、逆DCT
回路13に供給する。逆DCT回路13は、逆量子化回
路12からのDCT係数に、逆DCT処理を施し、その
結果得られる8×8画素の復号ブロックを、ブロック分
解回路14に供給する。ブロック分解回路14は、逆D
CT回路13からの復号ブロックのブロック化を解くこ
とで、復号画像を得て出力する。
The encoded data is supplied to an entropy decoding circuit 1
1, the entropy decoding circuit 11 separates the encoded data into entropy-encoded quantized DCT coefficients and a quantization table. Further, the entropy decoding circuit 11 performs the entropy-encoded quantization D
The CT coefficients are entropy-decoded, and the resulting quantized DCT coefficients are supplied to an inverse quantization circuit 12 together with a quantization table. The inverse quantization circuit 12 inversely quantizes the quantized DCT coefficient from the entropy decoding circuit 11 in accordance with the quantization table from the entropy decoding circuit 11, and converts the resulting DCT coefficient into the inverse DCT coefficient.
It is supplied to the circuit 13. The inverse DCT circuit 13 performs an inverse DCT process on the DCT coefficient from the inverse quantization circuit 12, and supplies the resulting 8 × 8 pixel decoded block to the block decomposition circuit 14. The block decomposition circuit 14 calculates the inverse D
By unblocking the decoded block from the CT circuit 13, a decoded image is obtained and output.

【0013】[0013]

【発明が解決しようとする課題】図1(A)のJPEG
符号化装置では、その量子化回路3において、ブロック
の量子化に用いる量子化テーブルの量子化ステップを大
きくすることにより、符号化データのデータ量を削減す
ることができる。即ち、高圧縮を実現することができ
る。
SUMMARY OF THE INVENTION The JPEG shown in FIG.
In the encoding device, the quantization circuit 3 can reduce the data amount of the encoded data by increasing the quantization step of the quantization table used for quantizing the block. That is, high compression can be realized.

【0014】しかしながら、量子化ステップを大きくす
ると、いわゆる量子化誤差も大きくなることから、図1
(C)のJPEG復号装置で得られる復号画像の画質が
劣化する。即ち、復号画像には、ぼけや、ブロック歪
み、モスキートノイズ等が顕著に現れる。
However, when the quantization step is increased, the so-called quantization error is also increased.
(C) The image quality of the decoded image obtained by the JPEG decoding device is degraded. That is, blur, block distortion, mosquito noise, and the like appear conspicuously in the decoded image.

【0015】従って、符号化データのデータ量を削減し
ながら、復号画像の画質を劣化させないようにするに
は、あるいは、符号化データのデータ量を維持して、復
号画像の画質を向上させるには、JPEG復号した後
に、何らかの画質向上のための処理を行う必要がある。
Therefore, in order to reduce the data amount of the encoded data and not to deteriorate the image quality of the decoded image, or to maintain the data amount of the encoded data and improve the image quality of the decoded image. It is necessary to perform some kind of processing for improving image quality after JPEG decoding.

【0016】しかしながら、JPEG復号した後に、画
質向上のための処理を行うことは、処理が煩雑になり、
最終的に復号画像が得られるまでの時間も長くなる。
However, performing a process for improving the image quality after JPEG decoding complicates the process.
The time until a decoded image is finally obtained also increases.

【0017】本発明は、このような状況に鑑みてなされ
たものであり、JPEG符号化された画像等から、効率
的に、画質の良い復号画像を得ること等ができるように
するものである。
The present invention has been made in view of such circumstances, and is intended to efficiently obtain a high-quality decoded image from a JPEG-encoded image or the like. .

【0018】[0018]

【課題を解決するための手段】本発明の第1のデータ処
理装置は、付加情報に基づいて、元のデータのうちの、
注目している注目データを、幾つかのクラスのうちのい
ずれかにクラス分類するクラス分類手段と、学習を行う
ことにより求められた、所定のクラスごとのタップ係数
のうち、注目データのクラスに対応するタップ係数を取
得する取得手段と、変換データ、および注目データのク
ラスに対応するタップ係数を用いて、所定の予測演算を
行うことにより、変換データを、元のデータに復号する
復号手段とを備えることを特徴とする。
A first data processing device according to the present invention comprises:
Classifying means for classifying the target data of interest into one of several classes, and a tap coefficient for each predetermined class obtained by performing learning, as a class of the target data. An acquisition unit that acquires a corresponding tap coefficient; and a decoding unit that decodes the converted data into the original data by performing a predetermined prediction operation using the converted data and the tap coefficient corresponding to the class of the data of interest. It is characterized by having.

【0019】第1のデータ処理装置において、復号手段
には、変換データおよびタップ係数を用いて、線形1次
予測演算を行うことにより、変換データを、元のデータ
に復号させることができる。
In the first data processing device, the decoding means can decode the converted data into the original data by performing a linear primary prediction operation using the converted data and the tap coefficients.

【0020】第1のデータ処理装置には、クラスごとの
タップ係数を記憶している記憶手段をさらに設けること
ができ、この場合、取得手段には、記憶手段から、注目
データのクラスに対応するタップ係数を取得させること
ができる。
[0020] The first data processing device may further include storage means for storing tap coefficients for each class. In this case, the acquisition means includes a storage means for storing the tap coefficient corresponding to the class of the data of interest. Tap coefficients can be obtained.

【0021】第1のデータ処理装置において、変換デー
タは、元のデータを、直交変換または周波数変換し、さ
らに量子化することにより得られたものとすることがで
きる。
In the first data processing device, the transformed data can be obtained by subjecting the original data to orthogonal transform or frequency transform and then quantizing.

【0022】第1のデータ処理装置には、変換データ
を、逆量子化する逆量子化手段をさらに設けることがで
き、この場合、復号手段には、逆量子化された変換デー
タを、元のデータに復号させることができる。
The first data processing apparatus may further include an inverse quantization means for inversely quantizing the transformed data. In this case, the decoding means may use the inversely quantized transformed data for the original data. Data can be decrypted.

【0023】第1のデータ処理装置において、付加情報
は、元のデータの量子化に用いられた量子化テーブルと
することができる。
In the first data processing device, the additional information may be a quantization table used for quantizing original data.

【0024】第1のデータ処理装置において、変換デー
タは、元のデータを、少なくとも、離散コサイン変換し
たものとすることができる。
In the first data processing device, the transformed data may be at least discrete cosine transformed from the original data.

【0025】第1のデータ処理装置には、注目データを
予測するのにタップ係数とともに用いる変換データを抽
出し、予測タップとして出力する予測タップ抽出手段を
さらに設けることができ、この場合、復号手段には、予
測タップおよびタップ係数を用いて予測演算を行わせる
ことができる。
The first data processing apparatus may further include a prediction tap extracting means for extracting the conversion data used together with the tap coefficient for predicting the data of interest and outputting the converted data as a prediction tap. Can perform a prediction operation using a prediction tap and a tap coefficient.

【0026】第1のデータ処理装置には、注目データ
を、幾つかのクラスのうちのいずれかにクラス分類する
のに用いる変換データを抽出し、クラスタップとして出
力するクラスタップ抽出手段をさらに設けることがで
き、この場合、クラス分類手段には、付加情報およびク
ラスタップに基づいて、注目データのクラスを求めさせ
ることができる。
The first data processing apparatus further includes a class tap extracting means for extracting conversion data used to classify the target data into any of several classes and outputting the converted data as class taps. In this case, the class classification means can determine the class of the data of interest based on the additional information and the class tap.

【0027】第1のデータ処理装置において、変換デー
タは、元のデータを、所定の単位ごとに、少なくとも、
直交変換処理または周波数変換したものとすることがで
き、この場合、復号手段には、所定の単位ごとに、変換
データを、元のデータに復号させることができる。
In the first data processing device, the converted data is obtained by converting the original data into at least predetermined units.
The data may be orthogonally transformed or frequency transformed. In this case, the decoding means can decode the transformed data into the original data for each predetermined unit.

【0028】第1のデータ処理装置において、タップ係
数は、タップ係数および変換データを用いて、所定の予
測演算を行うことにより得られる元のデータの予測値の
予測誤差が、統計的に最小になるように、学習を行うこ
とにより得られたものとすることができる。
In the first data processing apparatus, the tap coefficient is such that the prediction error of the prediction value of the original data obtained by performing a predetermined prediction operation using the tap coefficient and the converted data is statistically minimized. Thus, it can be obtained by performing the learning.

【0029】第1のデータ処理装置において、元のデー
タは、動画または静止画のデータとすることができる。
In the first data processing device, the original data can be moving image or still image data.

【0030】本発明の第1のデータ処理方法は、付加情
報に基づいて、元のデータのうちの、注目している注目
データを、幾つかのクラスのうちのいずれかにクラス分
類するクラス分類ステップと、学習を行うことにより求
められた、所定のクラスごとのタップ係数のうち、注目
データのクラスに対応するタップ係数を取得する取得ス
テップと、変換データ、および注目データのクラスに対
応するタップ係数を用いて、所定の予測演算を行うこと
により、変換データを、元のデータに復号する復号ステ
ップとを備えることを特徴とする。
According to a first data processing method of the present invention, a class classification of classifying target data of interest into one of several classes based on additional information. A step, an acquisition step of acquiring tap coefficients corresponding to the class of the data of interest, out of the tap coefficients for each predetermined class obtained by performing the learning, and taps corresponding to the class of the converted data and the data of interest. Decoding a converted data into original data by performing a predetermined prediction operation using the coefficient.

【0031】本発明の第1の記録媒体は、付加情報に基
づいて、元のデータのうちの、注目している注目データ
を、幾つかのクラスのうちのいずれかにクラス分類する
クラス分類ステップと、学習を行うことにより求められ
た、所定のクラスごとのタップ係数のうち、注目データ
のクラスに対応するタップ係数を取得する取得ステップ
と、変換データ、および注目データのクラスに対応する
タップ係数を用いて、所定の予測演算を行うことによ
り、変換データを、元のデータに復号する復号ステップ
とを備えるプログラムが記録されていることを特徴とす
る。
A first recording medium according to the present invention includes a class classification step of classifying target data of interest among original data into one of several classes based on additional information. And an acquisition step of acquiring a tap coefficient corresponding to the class of the data of interest among the tap coefficients for each predetermined class obtained by performing the learning, and a conversion coefficient for the tap coefficient corresponding to the class of the data of interest. And a decoding step of decoding the converted data into the original data by performing a predetermined prediction operation using the program.

【0032】本発明の第2のデータ処理装置は、教師と
なる教師データを、少なくとも、直交変換または周波数
変換することにより、生徒となる生徒データを生成する
生成手段と、生成手段において生徒データを生成すると
きに用いられる所定の付加情報に基づいて、教師データ
のうちの、注目している注目教師データを、幾つかのク
ラスのうちのいずれかにクラス分類するクラス分類手段
と、注目教師データのクラスに対応するタップ係数およ
び生徒データを用いて予測演算を行うことにより得られ
る教師データの予測値の予測誤差が、統計的に最小にな
るように学習を行い、クラスごとのタップ係数を求める
学習手段とを備えることを特徴とする。
The second data processing apparatus according to the present invention comprises: generating means for generating student data to be students by at least orthogonally or frequency-converting teacher data to be teachers; Classifying means for classifying the noted teacher data of interest into any of several classes based on the predetermined additional information used when generating the teacher data; Learning is performed so that the prediction error of the predicted value of the teacher data obtained by performing the prediction operation using the tap coefficient corresponding to the class and the student data is statistically minimized, and the tap coefficient for each class is obtained. Learning means.

【0033】第2のデータ処理装置において、学習手段
には、タップ係数および生徒データを用いて線形1次予
測演算を行うことにより得られる教師データの予測値の
予測誤差が、統計的に最小になるように学習を行わせる
ことができる。
In the second data processing apparatus, the learning means statistically minimizes the prediction error of the predicted value of the teacher data obtained by performing the linear primary prediction operation using the tap coefficients and the student data. Learning can be performed as follows.

【0034】第2のデータ処理装置において、生成手段
には、教師データを、直交変換または周波数変換し、さ
らに量子化することにより、生徒データを生成させるこ
とができる。
In the second data processing apparatus, the generating means can generate student data by subjecting the teacher data to orthogonal transform or frequency transform and further quantizing it.

【0035】第2のデータ処理装置において、付加情報
は、教師データの量子化に用いられた量子化テーブルと
することができる。
In the second data processing device, the additional information can be a quantization table used for quantizing the teacher data.

【0036】第2のデータ処理装置において、生成手段
には、教師データを、直交変換または周波数変換して量
子化し、さらに逆量子化することにより、生徒データを
生成させることができる。
In the second data processing device, the generating means can generate student data by subjecting the teacher data to orthogonal transform or frequency transform, quantizing it, and then inversely quantizing it.

【0037】第2のデータ処理装置において、生成手段
には、教師データを、少なくとも、離散コサイン変換す
ることにより、生徒データを生成させることができる。
In the second data processing device, the generating means can generate the student data by at least performing discrete cosine transform on the teacher data.

【0038】第2のデータ処理装置には、注目教師デー
タを予測するのにタップ係数とともに用いる生徒データ
を抽出し、予測タップとして出力する予測タップ抽出手
段をさらに設けることができ、この場合、学習手段に
は、予測タップおよびタップ係数を用いて予測演算を行
うことにより得られる教師データの予測値の予測誤差
が、統計的に最小になるように学習を行わせることがで
きる。
The second data processing apparatus may further include a prediction tap extracting means for extracting student data used together with a tap coefficient for predicting the teacher data of interest and outputting it as a prediction tap. The means can perform learning so that the prediction error of the prediction value of the teacher data obtained by performing the prediction operation using the prediction tap and the tap coefficient is statistically minimized.

【0039】第2のデータ処理装置には、注目教師デー
タを、幾つかのクラスのうちのいずれかにクラス分類す
るのに用いる生徒データを抽出し、クラスタップとして
出力するクラスタップ抽出手段をさらに設けることがで
き、この場合、クラス分類手段には、付加情報およびク
ラスタップに基づいて、注目教師データのクラスを求め
させることができる。
The second data processing device further includes class tap extracting means for extracting student data used for classifying the teacher data of interest into one of several classes and outputting the data as class taps. In this case, the class classification means can determine the class of the teacher data of interest based on the additional information and the class tap.

【0040】第2のデータ処理装置において、生成手段
には、教師データを、所定の単位ごとに、少なくとも、
直交変換処理または周波数変換することにより、生徒デ
ータを生成させることができる。
In the second data processing device, the generating means includes at least teacher data for each predetermined unit.
Student data can be generated by performing orthogonal transformation processing or frequency transformation.

【0041】第2のデータ処理装置において、教師デー
タは、動画または静止画のデータとすることができる。
In the second data processing device, the teacher data can be moving image or still image data.

【0042】本発明の第2のデータ処理方法は、教師と
なる教師データを、少なくとも、直交変換または周波数
変換することにより、生徒となる生徒データを生成する
生成ステップと、生成ステップにおいて生徒データを生
成するときに用いられる所定の付加情報に基づいて、教
師データのうちの、注目している注目教師データを、幾
つかのクラスのうちのいずれかにクラス分類するクラス
分類ステップと、注目教師データのクラスに対応するタ
ップ係数および生徒データを用いて予測演算を行うこと
により得られる教師データの予測値の予測誤差が、統計
的に最小になるように学習を行い、クラスごとのタップ
係数を求める学習ステップとを備えることを特徴とす
る。
According to a second data processing method of the present invention, at least orthogonal transformation or frequency transformation of teacher data to be a teacher is performed to generate student data to be a student. A classifying step of classifying the noted teacher data of interest into one of several classes based on the predetermined additional information used when generating the teacher data; Learning is performed so that the prediction error of the predicted value of the teacher data obtained by performing the prediction operation using the tap coefficient corresponding to the class and the student data is statistically minimized, and the tap coefficient for each class is obtained. And a learning step.

【0043】本発明の第2の記録媒体は、教師となる教
師データを、少なくとも、直交変換または周波数変換す
ることにより、生徒となる生徒データを生成する生成ス
テップと、生成ステップにおいて生徒データを生成する
ときに用いられる所定の付加情報に基づいて、教師デー
タのうちの、注目している注目教師データを、幾つかの
クラスのうちのいずれかにクラス分類するクラス分類ス
テップと、注目教師データのクラスに対応するタップ係
数および生徒データを用いて予測演算を行うことにより
得られる教師データの予測値の予測誤差が、統計的に最
小になるように学習を行い、クラスごとのタップ係数を
求める学習ステップとを備えるプログラムが記録されて
いることを特徴とする。
According to the second recording medium of the present invention, at least orthogonal transformation or frequency transformation of teacher data as a teacher is performed to generate student data as a student, and the student data is generated in the generating step. A classifying step of classifying the noted teacher data of interest into any of several classes based on the predetermined additional information used when performing the training; Learning so as to statistically minimize the prediction error of the predicted value of teacher data obtained by performing a prediction operation using the tap coefficient corresponding to the class and the student data, and obtaining the tap coefficient for each class And a program comprising steps.

【0044】本発明の第1のデータ処理装置およびデー
タ処理方法、並びに記録媒体においては、付加情報に基
づいて、元のデータのうちの、注目している注目データ
が、幾つかのクラスのうちのいずれかにクラス分類さ
れ、学習を行うことにより求められた、所定のクラスご
とのタップ係数のうち、注目データのクラスに対応する
タップ係数が取得される。そして、変換データ、および
注目データのクラスに対応するタップ係数を用いて、所
定の予測演算を行うことにより、変換データが、元のデ
ータに復号される。
In the first data processing apparatus, the data processing method, and the recording medium of the present invention, based on the additional information, the target data of interest among the original data is classified into several classes. The tap coefficients corresponding to the class of the data of interest among the tap coefficients for each of the predetermined classes, which are obtained by performing the learning and learning, are acquired. Then, by performing a predetermined prediction operation using the converted data and the tap coefficient corresponding to the class of the data of interest, the converted data is decoded into the original data.

【0045】本発明の第2のデータ処理装置およびデー
タ処理方法、並びに記録媒体においては、教師となる教
師データを、少なくとも、直交変換または周波数変換す
ることにより、生徒となる生徒データが生成され、生徒
データを生成するときに用いられた所定の付加情報に基
づいて、教師データのうちの、注目している注目教師デ
ータが、幾つかのクラスのうちのいずれかにクラス分類
される。そして、注目教師データのクラスに対応するタ
ップ係数および生徒データを用いて予測演算を行うこと
により得られる教師データの予測値の予測誤差が、統計
的に最小になるように学習が行われ、クラスごとのタッ
プ係数が求められる。
In the second data processing apparatus, the data processing method, and the recording medium of the present invention, student data to be a student is generated by at least orthogonally or frequency-converting teacher data to be a teacher. Based on the predetermined additional information used when generating the student data, the focused teacher data of interest among the teacher data is classified into one of several classes. The learning is performed such that the prediction error of the predicted value of the teacher data obtained by performing the prediction operation using the tap coefficient and the student data corresponding to the class of the teacher data of interest is statistically minimized. The tap coefficient for each is obtained.

【0046】[0046]

【発明の実施の形態】図2は、本発明を適用した画像伝
送システムの一実施の形態の構成例を示している。
FIG. 2 shows a configuration example of an embodiment of an image transmission system to which the present invention is applied.

【0047】伝送すべき画像データは、エンコーダ21
に供給されるようになっており、エンコーダ21は、そ
こに供給される画像データを、例えば、JPEG符号化
し、符号化データとする。即ち、エンコーダ21は、例
えば、前述の図1(A)に示したJPEG符号化装置と
同様に構成されており、画像データをJPEG符号化す
る。エンコーダ21がJPEG符号化を行うことにより
得られる符号化データは、例えば、半導体メモリ、光磁
気ディスク、磁気ディスク、光ディスク、磁気テープ、
相変化ディスクなどでなる記録媒体23に記録され、あ
るいは、また、例えば、地上波、衛星回線、CATV
(Cable Television)網、インターネット、公衆回線な
どでなる伝送媒体24を介して伝送される。
The image data to be transmitted is
The encoder 21 encodes the image data supplied thereto, for example, by JPEG encoding to obtain encoded data. That is, the encoder 21 is configured, for example, in the same manner as the above-described JPEG encoding apparatus shown in FIG. 1A, and JPEG-encodes image data. Encoded data obtained by the encoder 21 performing JPEG encoding includes, for example, a semiconductor memory, a magneto-optical disk, a magnetic disk, an optical disk, a magnetic tape,
It is recorded on a recording medium 23 such as a phase change disk or the like.
(Cable Television) is transmitted via a transmission medium 24 such as a network, the Internet, or a public line.

【0048】デコーダ22は、記録媒体23または伝送
媒体24を介して提供される符号化データを受信して、
元の画像データに復号する。この復号された画像データ
は、例えば、図示せぬモニタに供給されて表示等され
る。
The decoder 22 receives the encoded data provided via the recording medium 23 or the transmission medium 24,
Decode to original image data. The decoded image data is supplied to a monitor (not shown) and displayed, for example.

【0049】次に、図3は、図2のデコーダ22の構成
例を示している。
FIG. 3 shows an example of the configuration of the decoder 22 shown in FIG.

【0050】符号化データは、エントロピー復号回路3
1に供給されるようになっており、エントロピー復号回
路31は、符号化データを、エントロピー符号化された
量子化DCT係数と、それに付加されている付加情報と
しての量子化テーブルとに分離する。さらに、エントロ
ピー復号回路31は、エントロピー符号化された量子化
DCT係数をエントロピー復号し、その結果得られるブ
ロックごとの量子化DCT係数Qを、付加情報としての
量子化テーブルとともに、係数変換回路32に供給す
る。
The encoded data is supplied to the entropy decoding circuit 3
1, the entropy decoding circuit 31 separates the encoded data into entropy-encoded quantized DCT coefficients and a quantization table as additional information added thereto. Further, the entropy decoding circuit 31 entropy-decodes the quantized DCT coefficient subjected to the entropy coding, and outputs the resulting quantized DCT coefficient Q for each block together with a quantization table as additional information to the coefficient conversion circuit 32. Supply.

【0051】係数変換回路32は、付加情報としての量
子化テーブルを、いわば補助的に用いながら、量子化D
CT係数Qと、後述する学習を行うことにより求められ
るタップ係数とを用いて、所定の予測演算を行うことに
より、ブロックごとの量子化DCT係数を、8×8画素
の元のブロックに復号する。
The coefficient conversion circuit 32 uses the quantization table as the additional information as it is,
By performing a predetermined prediction operation using the CT coefficient Q and a tap coefficient obtained by performing learning described later, the quantized DCT coefficient for each block is decoded into an original block of 8 × 8 pixels. .

【0052】ブロック分解回路33は、係数変換回路3
2において得られる、復号されたブロック(復号ブロッ
ク)のブロック化を解くことで、復号画像を得て出力す
る。
The block decomposition circuit 33 includes a coefficient conversion circuit 3
By deblocking the decoded block (decoded block) obtained in step 2, a decoded image is obtained and output.

【0053】次に、図4のフローチャートを参照して、
図3のデコーダ22の処理について説明する。
Next, referring to the flowchart of FIG.
The processing of the decoder 22 in FIG. 3 will be described.

【0054】符号化データは、エントロピー復号回路3
1に順次供給され、ステップS1において、エントロピ
ー復号回路31は、符号化データをエントロピー復号
し、ブロックごとの量子化DCT係数Qを、係数変換回
路32に供給する。また、エントロピー復号回路31
は、符号化データから、そこに含まれる付加情報として
の量子化テーブルを分離して、係数変換回路32に供給
する。係数変換回路32は、ステップS2において、エ
ントロピー復号回路31からのブロックごとの量子化D
CT係数Qを、量子化テーブルおよびタップ係数を用い
た予測演算を行うことにより、ブロックごとの画素値に
復号し、ブロック分解回路33に供給する。ブロック分
解回路33は、ステップS3において、係数変換回路3
2からの画素値のブロック(復号ブロック)のブロック
化を解くブロック分解を行い、その結果得られる復号画
像を出力して、処理を終了する。
The encoded data is supplied to the entropy decoding circuit 3
1, the entropy decoding circuit 31 entropy-decodes the encoded data in step S1, and supplies the quantized DCT coefficient Q for each block to the coefficient transforming circuit 32. Also, the entropy decoding circuit 31
Separates the quantization table as additional information contained therein from the encoded data, and supplies it to the coefficient conversion circuit 32. In step S2, the coefficient conversion circuit 32 calculates the quantization D for each block from the entropy decoding circuit 31.
By performing a prediction operation using the quantization table and the tap coefficient, the CT coefficient Q is decoded into a pixel value for each block, and supplied to the block decomposition circuit 33. In step S3, the block decomposition circuit 33
Block decomposition for deblocking the block of pixel values from 2 (decoded block) is performed, and a decoded image obtained as a result is output, thus ending the processing.

【0055】次に、図3の係数変換回路32では、例え
ば、クラス分類適応処理を利用して、量子化DCT係数
を、画素値に復号することができる。
Next, the coefficient conversion circuit 32 shown in FIG. 3 can decode the quantized DCT coefficients into pixel values by using, for example, the class classification adaptive processing.

【0056】クラス分類適応処理は、クラス分類処理と
適応処理とからなり、クラス分類処理によって、データ
を、その性質に基づいてクラス分けし、各クラスごとに
適応処理を施すものであり、適応処理は、以下のような
手法のものである。
The class classification adaptation process includes a class classification process and an adaptation process. The class classification process classifies the data into classes based on their properties, and performs the adaptation process for each class. Is based on the following method.

【0057】即ち、適応処理では、例えば、量子化DC
T係数と、所定のタップ係数との線形結合により、元の
画素の予測値を求めることで、量子化DCT係数が、元
の画素値に復号される。
That is, in the adaptive processing, for example, the quantization DC
The quantized DCT coefficient is decoded into the original pixel value by obtaining the predicted value of the original pixel by a linear combination of the T coefficient and a predetermined tap coefficient.

【0058】具体的には、例えば、いま、ある画像を教
師データとするとともに、その画像を、ブロック単位で
DCT処理し、さらに量子化して得られる量子化DCT
係数を生徒データとして、教師データである元の画素値
yの予測値E[y]を、幾つかの量子化DCT係数
1,x2,・・・の集合と、所定のタップ係数w1
2,・・・の線形結合により規定される線形1次結合
モデルにより求めることを考える。この場合、予測値E
[y]は、次式で表すことができる。
More specifically, for example, a certain image is used as teacher data, and the image is subjected to DCT processing in block units and further quantized to obtain a quantized DCT.
The coefficient as student data, the prediction value of the original pixel value y is teacher data E [y], some of the quantized DCT coefficients x 1, x 2, a set of ..., predetermined tap coefficients w 1 ,
Let us consider a case where a linear combination model defined by a linear combination of w 2 ,... In this case, the predicted value E
[Y] can be expressed by the following equation.

【0059】 E[y]=w11+w22+・・・ ・・・(1)E [y] = w 1 x 1 + w 2 x 2 +... (1)

【0060】式(1)を一般化するために、タップ係数
jの集合でなる行列W、生徒データxijの集合でなる
行列X、および予測値E[yj]の集合でなる行列Y’
を、
To generalize equation (1), a matrix W consisting of a set of tap coefficients w j , a matrix X consisting of a set of student data x ij , and a matrix Y consisting of a set of predicted values E [y j ] '
To

【数1】 で定義すると、次のような観測方程式が成立する。(Equation 1) Defines the following observation equation.

【0061】 XW=Y’ ・・・(2) ここで、行列Xの成分xijは、i件目の生徒データの集
合(i件目の教師データyiの予測に用いる生徒データ
の集合)の中のj番目の生徒データを意味し、行列Wの
成分wjは、生徒データの集合の中のj番目の生徒デー
タとの積が演算されるタップ係数を表す。また、y
iは、i件目の教師データを表し、従って、E[yi
は、i件目の教師データの予測値を表す。なお、式
(1)の左辺におけるyは、行列Yの成分yiのサフィ
ックスiを省略したものであり、また、式(1)の右辺
におけるx1,x2,・・・も、行列Xの成分xijのサフ
ィックスiを省略したものである。
XW = Y ′ (2) Here, the component x ij of the matrix X is a set of i-th student data (a set of student data used for predicting the i-th teacher data y i ). Means the j-th student data in the matrix W, and the component w j of the matrix W represents a tap coefficient by which a product with the j-th student data in the set of the student data is calculated. Also, y
i represents the i-th teacher data, and therefore, E [y i ]
Represents the predicted value of the i-th teacher data. Note that y on the left side of the equation (1) is obtained by omitting the suffix i of the component y i of the matrix Y. Further, x 1 , x 2 ,. The suffix i of the component x ij is omitted.

【0062】そして、この観測方程式に最小自乗法を適
用して、元の画素値yに近い予測値E[y]を求めるこ
とを考える。この場合、教師データとなる真の画素値y
の集合でなる行列Y、および画素値yに対する予測値E
[y]の残差eの集合でなる行列Eを、
Then, it is considered that a least square method is applied to this observation equation to obtain a predicted value E [y] close to the original pixel value y. In this case, a true pixel value y serving as teacher data
And a predicted value E for a pixel value y
A matrix E consisting of a set of residuals e of [y] is

【数2】 で定義すると、式(2)から、次のような残差方程式が
成立する。
(Equation 2) From equation (2), the following residual equation is established.

【0063】 XW=Y+E ・・・(3)XW = Y + E (3)

【0064】この場合、元の画素値yに近い予測値E
[y]を求めるためのタップ係数wjは、自乗誤差
In this case, the predicted value E close to the original pixel value y
The tap coefficient w j for obtaining [y] is a square error

【数3】 を最小にすることで求めることができる。(Equation 3) Can be obtained by minimizing.

【0065】従って、上述の自乗誤差をタップ係数wj
で微分したものが0になる場合、即ち、次式を満たすタ
ップ係数wjが、元の画素値yに近い予測値E[y]を
求めるため最適値ということになる。
Therefore, the above square error is calculated by tap coefficient w j
Is zero, that is, a tap coefficient w j that satisfies the following equation is an optimum value for obtaining a predicted value E [y] close to the original pixel value y.

【0066】[0066]

【数4】 ・・・(4)(Equation 4) ... (4)

【0067】そこで、まず、式(3)を、タップ係数w
jで微分することにより、次式が成立する。
Therefore, first, the equation (3) is changed to the tap coefficient w.
By differentiating with j , the following equation is established.

【0068】[0068]

【数5】 ・・・(5)(Equation 5) ... (5)

【0069】式(4)および(5)より、式(6)が得
られる。
From equations (4) and (5), equation (6) is obtained.

【数6】 ・・・(6)(Equation 6) ... (6)

【0070】さらに、式(3)の残差方程式における生
徒データxij、タップ係数wj、教師データyi、および
残差eiの関係を考慮すると、式(6)から、次のよう
な正規方程式を得ることができる。
Further, considering the relationship among the student data x ij , the tap coefficient w j , the teacher data y i , and the residual e i in the residual equation of the equation (3), the following equation is obtained from the equation (6). A normal equation can be obtained.

【0071】[0071]

【数7】 ・・・(7)(Equation 7) ... (7)

【0072】なお、式(7)に示した正規方程式は、行
列(共分散行列)Aおよびベクトルvを、
The normal equation shown in equation (7) is obtained by converting a matrix (covariance matrix) A and a vector v into

【数8】 で定義するとともに、ベクトルWを、数1で示したよう
に定義すると、式 AW=v ・・・(8) で表すことができる。
(Equation 8) If the vector W is defined as shown in Expression 1, it can be expressed by the following expression: AW = v (8)

【0073】式(7)における各正規方程式は、生徒デ
ータxijおよび教師データyiのセットを、ある程度の
数だけ用意することで、求めるべきタップ係数wjの数
Jと同じ数だけたてることができ、従って、式(8)
を、ベクトルWについて解くことで(但し、式(8)を
解くには、式(8)における行列Aが正則である必要が
ある)、最適なタップ係数(ここでは、自乗誤差を最小
にするタップ係数)wjを求めることができる。なお、
式(8)を解くにあたっては、例えば、掃き出し法(Ga
uss-Jordanの消去法)などを用いることが可能である。
Each normal equation in the equation (7) is prepared by preparing a certain number of sets of the student data x ij and the teacher data y i to form the same number as the number J of the tap coefficients w j to be obtained. And therefore equation (8)
Is solved for the vector W (however, in order to solve the equation (8), the matrix A in the equation (8) needs to be regular) to obtain an optimal tap coefficient (here, the square error is minimized). Tap coefficient) w j can be obtained. In addition,
In solving equation (8), for example, the sweeping method (Ga
uss-Jordan elimination method) can be used.

【0074】以上のようにして、最適なタップ係数wj
を求めておき、さらに、そのタップ係数wjを用い、式
(1)により、元の画素値yに近い予測値E[y]を求
めるのが適応処理である。
As described above, the optimum tap coefficient w j
The adaptive processing is to obtain a predicted value E [y] close to the original pixel value y by using the tap coefficient wj and using the equation (1).

【0075】なお、例えば、教師データとして、JPE
G符号化する画像と同一画質の画像を用いるとともに、
生徒データとして、その教師データをDCTおよび量子
化して得られる量子化DCT係数を用いた場合、タップ
係数としては、JPEG符号化された画像データを、元
の画像データに復号するのに、予測誤差が、統計的に最
小となるものが得られることになる。
For example, as teacher data, JPE
While using an image of the same image quality as the image to be G-coded,
When DCT and quantized DCT coefficients obtained by quantizing the teacher data are used as student data, a prediction error is used as a tap coefficient when decoding JPEG-coded image data into original image data. However, a statistically minimum one is obtained.

【0076】従って、JPEG符号化を行う際の圧縮率
を高くしても、即ち、量子化に用いる量子化ステップを
粗くしても、適応処理によれば、予測誤差が、統計的に
最小となる復号処理が施されることになり、実質的に、
JPEG符号化された画像の復号処理と、その画質を向
上させるための処理とが、同時に施されることになる。
その結果、圧縮率を高くしても、復号画像の画質を維持
することができる。
Therefore, even if the compression rate at the time of performing JPEG encoding is increased, that is, even if the quantization step used for quantization is made coarse, according to the adaptive processing, the prediction error is statistically minimized. Will be performed, and in effect,
The decoding process of the JPEG encoded image and the process of improving the image quality are performed at the same time.
As a result, even if the compression ratio is increased, the image quality of the decoded image can be maintained.

【0077】また、例えば、教師データとして、JPE
G符号化する画像よりも高画質の画像を用いるととも
に、生徒データとして、その教師データの画質を、JP
EG符号化する画像と同一画質に劣化させ、さらに、D
CTおよび量子化して得られる量子化DCT係数を用い
た場合、タップ係数としては、JPEG符号化された画
像データを、高画質の画像データに復号するのに、予測
誤差が、統計的に最小となるものが得られることにな
る。
For example, as teacher data, JPE
An image having a higher image quality than the image to be G-encoded is used, and the image quality of the teacher data is used as student data according to JP.
The image quality is degraded to the same image quality as the image to be EG-coded.
When a quantized DCT coefficient obtained by CT and quantization is used, as a tap coefficient, when decoding JPEG-coded image data into high-quality image data, the prediction error is statistically minimized. Will be obtained.

【0078】従って、この場合、適応処理によれば、J
PEG符号化された画像の復号処理と、その画質をより
向上させるための処理とが、同時に施されることにな
る。なお、上述したことから、教師データまたは生徒デ
ータとなる画像の画質を変えることで、復号画像の画質
を任意のレベルとするタップ係数を得ることができる。
Therefore, in this case, according to the adaptive processing, J
The decoding process of the PEG-encoded image and the process of further improving the image quality are performed at the same time. As described above, by changing the image quality of the image serving as the teacher data or the student data, it is possible to obtain a tap coefficient for setting the image quality of the decoded image to an arbitrary level.

【0079】図5は、以上のようなクラス分類適応処理
により、量子化DCT係数を画素値に復号する、図3の
係数変換回路32の第1の構成例を示している。
FIG. 5 shows a first configuration example of the coefficient conversion circuit 32 shown in FIG. 3 for decoding quantized DCT coefficients into pixel values by the above-described class classification adaptive processing.

【0080】エントロピー復号回路31(図3)が出力
するブロックごとの量子化DCT係数は、予測タップ抽
出回路41およびクラスタップ抽出回路42に供給され
るようになっており、付加情報としての量子化テーブル
は、クラス分類回路43に供給されるようになってい
る。
The quantized DCT coefficients for each block output from the entropy decoding circuit 31 (FIG. 3) are supplied to a prediction tap extraction circuit 41 and a class tap extraction circuit 42, and quantized as additional information. The table is supplied to the class classification circuit 43.

【0081】予測タップ抽出回路41は、そこに供給さ
れる量子化DCT係数のブロック(以下、適宜、DCT
ブロックという)に対応する画素値のブロック(この画
素値のブロックは、現段階では存在しないが、仮想的に
想定される)(以下、適宜、画素ブロックという)を、
順次、注目画素ブロックとし、さらに、その注目画素ブ
ロックを構成する各画素を、例えば、いわゆるラスタス
キャン順に、順次、注目画素とする。さらに、予測タッ
プ抽出回路41は、注目画素の画素値を予測するのに用
いる量子化DCT係数を抽出し、予測タップとする。
The prediction tap extracting circuit 41 supplies a block of quantized DCT coefficients supplied thereto (hereinafter referred to as DCT
A block having a pixel value corresponding to the block (hereinafter, referred to as a block) (hereinafter, referred to as a pixel block, as appropriate)
The target pixel block is sequentially set as a target pixel block, and each pixel constituting the target pixel block is set as a target pixel sequentially in a so-called raster scan order, for example. Further, the prediction tap extracting circuit 41 extracts a quantized DCT coefficient used for predicting the pixel value of the pixel of interest, and sets it as a prediction tap.

【0082】即ち、予測タップ抽出回路41は、例え
ば、図6に示すように、注目画素が属する画素ブロック
に対応するDCTブロックのすべての量子化DCT係
数、即ち、8×8の64個の量子化DCT係数を、予測
タップとして抽出する。従って、本実施の形態では、あ
る画素ブロックのすべての画素について、同一の予測タ
ップが構成される。但し、予測タップは、注目画素ごと
に、異なる量子化DCT係数で構成することが可能であ
る。
That is, as shown in FIG. 6, for example, as shown in FIG. 6, the prediction tap extraction circuit 41 calculates all quantized DCT coefficients of the DCT block corresponding to the pixel block to which the pixel of interest belongs, that is, 64 × 8 × 8 The optimized DCT coefficients are extracted as prediction taps. Therefore, in the present embodiment, the same prediction tap is formed for all pixels in a certain pixel block. However, the prediction tap can be configured with different quantized DCT coefficients for each target pixel.

【0083】予測タップ抽出回路41において得られ
る、画素ブロックを構成する各画素についての予測タッ
プ、即ち、64画素それぞれについての64セットの予
測タップは、積和演算回路45に供給される。但し、本
実施の形態では、上述したように、画素ブロックのすべ
ての画素について、同一の予測タップが構成されるの
で、実際には、1つの画素ブロックに対して、1セット
の予測タップを、積和演算回路45に供給すれば良い。
The prediction taps for each pixel constituting the pixel block, that is, 64 sets of prediction taps for each of the 64 pixels, obtained in the prediction tap extraction circuit 41, are supplied to the product-sum operation circuit 45. However, in the present embodiment, as described above, since the same prediction tap is configured for all pixels of the pixel block, one set of prediction taps is actually set for one pixel block. It may be supplied to the product-sum operation circuit 45.

【0084】クラスタップ抽出回路42は、注目画素
を、幾つかのクラスのうちのいずれかに分類するための
クラス分類に用いる量子化DCT係数を抽出して、クラ
スタップとする。
The class tap extracting circuit 42 extracts a quantized DCT coefficient used for class classification for classifying the pixel of interest into one of several classes, and sets it as a class tap.

【0085】なお、JPEG符号化では、画像が、画素
ブロックごとに符号化(DCT処理および量子化)され
ることから、ある画素ブロックに属する画素は、例え
ば、すべて同一のクラスにクラス分類することとする。
従って、クラスタップ抽出回路42は、ある画素ブロッ
クの各画素については、同一のクラスタップを構成す
る。即ち、クラスタップ抽出回路42は、例えば、予測
タップ抽出回路41における場合と同様に、図6に示し
たような、注目画素が属する画素ブロックに対応するD
CTブロックの8×8個のすべての量子化DCT係数
を、クラスタップとして抽出する。
In JPEG encoding, an image is encoded (DCT processing and quantization) for each pixel block. Therefore, all pixels belonging to a certain pixel block are classified into the same class, for example. And
Therefore, the class tap extracting circuit 42 forms the same class tap for each pixel of a certain pixel block. That is, as in the case of the prediction tap extraction circuit 41, for example, the class tap extraction circuit 42 generates the D corresponding to the pixel block to which the pixel of interest belongs as shown in FIG.
All 8 × 8 quantized DCT coefficients of the CT block are extracted as class taps.

【0086】ここで、画素ブロックに属する各画素を、
すべて同一のクラスにクラス分類するということは、そ
の画素ブロックをクラス分類することと等価である。従
って、クラスタップ抽出回路42には、注目画素ブロッ
クを構成する64画素それぞれをクラス分類するための
64セットのクラスタップではなく、注目画素ブロック
をクラス分類するための1セットのクラスタップを構成
させれば良く、このため、クラスタップ抽出回路42
は、画素ブロックごとに、その画素ブロックをクラス分
類するために、その画素ブロックに対応するDCTブロ
ックの64個の量子化DCT係数を抽出して、クラスタ
ップとするようになっている。
Here, each pixel belonging to the pixel block is represented by
Classifying all pixel classes into the same class is equivalent to classifying the pixel block. Therefore, the class tap extracting circuit 42 configures one set of class taps for classifying the target pixel block, instead of 64 sets of class taps for classifying each of the 64 pixels constituting the target pixel block. Therefore, the class tap extraction circuit 42
Extracts, for each pixel block, 64 quantized DCT coefficients of a DCT block corresponding to the pixel block in order to classify the pixel block into a class tap.

【0087】なお、予測タップやクラスタップを構成す
る量子化DCT係数は、上述したパターンのものに限定
されるものではない。
The quantized DCT coefficients constituting the prediction taps and the class taps are not limited to the above-mentioned patterns.

【0088】クラスタップ抽出回路42において得られ
る、注目画素ブロックのクラスタップは、クラス分類回
路43に供給されるようになっており、クラス分類回路
43は、クラスタップ抽出回路42からのクラスタップ
と、付加情報としての量子化テーブルに基づき、注目画
素ブロックをクラス分類し、その結果得られるクラスに
対応するクラスコードを出力する。
The class tap of the pixel block of interest obtained by the class tap extracting circuit 42 is supplied to the class classifying circuit 43. The class classifying circuit 43 , The target pixel block is classified into classes based on the quantization table as additional information, and a class code corresponding to the class obtained as a result is output.

【0089】ここで、量子化DCT係数で構成されるク
ラスタップに基づいてクラス分類を行う方法としては、
例えば、ADRC(Adaptive Dynamic Range Coding)等を採
用することができる。
Here, as a method of classifying based on the class tap constituted by the quantized DCT coefficients,
For example, ADRC (Adaptive Dynamic Range Coding) or the like can be adopted.

【0090】ADRCを用いる方法では、クラスタップを構
成する量子化DCT係数が、ADRC処理され、その結果得
られるADRCコードにしたがって、注目画素ブロックのク
ラスが決定される。
In the method using ADRC, the quantized DCT coefficients constituting the class tap are subjected to ADRC processing, and the class of the target pixel block is determined according to the ADRC code obtained as a result.

【0091】なお、KビットADRCにおいては、例えば、
クラスタップを構成する量子化DCT係数の最大値MAX
と最小値MINが検出され、DR=MAX-MINを、集合の局所的
なダイナミックレンジとし、このダイナミックレンジDR
に基づいて、クラスタップを構成する量子化DCT係数
がKビットに再量子化される。即ち、クラスタップを構
成する量子化DCT係数の中から、最小値MINが減算さ
れ、その減算値がDR/2Kで除算(量子化)される。そし
て、以上のようにして得られる、クラスタップを構成す
るKビットの各量子化DCT係数を、所定の順番で並べ
たビット列が、ADRCコードとして出力される。従って、
クラスタップが、例えば、1ビットADRC処理された場合
には、そのクラスタップを構成する各量子化DCT係数
は、最小値MINが減算された後に、最大値MAXと最小値MI
Nとの平均値で除算され、これにより、各量子化DCT
係数が1ビットとされる(2値化される)。そして、そ
の1ビットの量子化DCT係数を所定の順番で並べたビ
ット列が、ADRCコードとして出力される。
In the K-bit ADRC, for example,
The maximum value MAX of the quantized DCT coefficient constituting the class tap
And the minimum value MIN is detected, and DR = MAX-MIN is set as the local dynamic range of the set.
, The quantized DCT coefficients making up the class tap are re-quantized to K bits. That is, from among the quantized DCT coefficients forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided (quantized) by DR / 2 K. Then, a bit string obtained by arranging the K-bit quantized DCT coefficients constituting the class tap in a predetermined order, which is obtained as described above, is output as an ADRC code. Therefore,
When the class tap is subjected to, for example, 1-bit ADRC processing, the quantized DCT coefficients constituting the class tap are obtained by subtracting the minimum value MIN from the maximum value MAX and the minimum value MI.
Divided by the average value with N, so that each quantized DCT
The coefficient is one bit (binarized). Then, a bit string in which the 1-bit quantized DCT coefficients are arranged in a predetermined order is output as an ADRC code.

【0092】なお、クラス分類回路43には、例えば、
クラスタップを構成する量子化DCT係数のレベル分布
のパターンを、そのままクラスコードとして出力させる
ことも可能であるが、この場合、クラスタップが、N個
の量子化DCT係数で構成され、各量子化DCT係数
に、Kビットが割り当てられているとすると、クラス分
類回路43が出力するクラスコードの場合の数は、(2
NK通りとなり、量子化DCT係数のビット数Kに指数
的に比例した膨大な数となる。
The class classification circuit 43 includes, for example,
It is also possible to output the pattern of the level distribution of the quantized DCT coefficients constituting the class taps as it is as the class code. In this case, however, the class tap is constituted by N quantized DCT coefficients, and Assuming that K bits are assigned to the DCT coefficient, the number of class codes output from the classifying circuit 43 is (2
N) becomes K Street, an enormous number exponentially proportional to the number of bits K of quantized DCT coefficients.

【0093】従って、クラス分類回路43においては、
クラスタップの情報量を、上述のADRC処理や、あるいは
ベクトル量子化等によって圧縮してから、クラス分類を
行うのが好ましい。
Therefore, in the classification circuit 43,
It is preferable to perform the class classification after compressing the information amount of the class tap by the above-described ADRC processing or vector quantization.

【0094】ところで、本実施の形態では、クラスタッ
プは、上述したように、64個の量子化DCT係数で構
成される。従って、例えば、仮に、クラスタップを1ビ
ットADRC処理することにより、クラス分類を行うことと
しても、クラスコードの場合の数は、264通りという大
きな値となる。
By the way, in the present embodiment, the class tap is composed of 64 quantized DCT coefficients as described above. Therefore, for example, even if class classification is performed by performing 1-bit ADRC processing on a class tap, the number of class codes has a large value of 2 64 .

【0095】そこで、本実施の形態では、クラス分類回
路43において、クラスタップを構成する量子化DCT
係数から、重要性の高い特徴量を抽出し、その特徴量に
基づいてクラス分類を行うことで、クラス数を低減する
ようになっている。
Therefore, in the present embodiment, the classifying circuit 43 uses the quantized DCT constituting the class tap.
A feature amount having high importance is extracted from the coefficient, and the class is classified based on the feature amount, thereby reducing the number of classes.

【0096】即ち、図7は、図5のクラス分類回路43
の構成例を示している。
That is, FIG. 7 shows the classification circuit 43 of FIG.
Is shown.

【0097】クラスタップは、電力演算回路51に供給
されるようになっており、電力演算回路51は、クラス
タップを構成する量子化DCT係数を、幾つかの空間周
波数帯域のものに分け、各周波数帯域の電力を演算す
る。
The class taps are supplied to the power calculation circuit 51. The power calculation circuit 51 divides the quantized DCT coefficients constituting the class taps into several spatial frequency bands, and Calculate the power in the frequency band.

【0098】即ち、電力演算回路51は、クラスタップ
を構成する8×8個の量子化DCT係数を、例えば、図
8に示すような4つの空間周波数帯域S0,S1,S2
3に分割する。
That is, the power calculation circuit 51 converts the 8 × 8 quantized DCT coefficients constituting the class tap into, for example, four spatial frequency bands S 0 , S 1 , S 2 , and S 2 as shown in FIG.
Divided into S 3.

【0099】ここで、クラスタップを構成する8×8個
の量子化DCT係数それぞれを、アルファベットxに、
図6に示したような、ラスタスキャン順に、0からのシ
ーケンシャルな整数を付して表すこととすると、空間周
波数帯域S0は、4個の量子化DCT係数x0,x1
8,x9から構成され、空間周波数帯域S1は、12個
の量子化DCT係数x2,x3,x4,x5,x6,x7,x
10,x11,x12,x13,x14,x15から構成される。ま
た、空間周波数帯域S2は、12個の量子化DCT係数
16,x17,x24,x25,x32,x33,x40,x41,x
48,x49,x56,x57から構成され、空間周波数帯域S
3は、36個の量子化DCT係数x18,x1 9,x20,x
21,x22,x23,x26,x27,x28,x29,x30
31,x34,x3 5,x36,x37,x38,x39,x42,x
43,x44,x45,x46,x47,x50,x5 1,x52
53,x54,x55,x58,x59,x60,x61,x62,x
63から構成される。
Here, each of the 8 × 8 quantized DCT coefficients constituting the class tap is represented by an alphabet x,
As shown in FIG. 6, assuming that the raster scan order is represented by adding sequential integers from 0, the spatial frequency band S 0 has four quantized DCT coefficients x 0 , x 1 ,
consists x 8, x 9, the spatial frequency band S 1 is 12 quantized DCT coefficients x 2, x 3, x 4 , x 5, x 6, x 7, x
10, x 11, x 12, x 13, composed of x 14, x 15. Further, the spatial frequency band S 2 is 12 quantized DCT coefficients x 16, x 17, x 24 , x 25, x 32, x 33, x 40, x 41, x
48, is composed of x 49, x 56, x 57 , the spatial frequency band S
3, 36 quantized DCT coefficients x 18, x 1 9, x 20, x
21, x 22, x 23, x 26, x 27, x 28, x 29, x 30,
x 31, x 34, x 3 5, x 36, x 37, x 38, x 39, x 42, x
43, x 44, x 45, x 46, x 47, x 50, x 5 1, x 52,
x 53, x 54, x 55 , x 58, x 59, x 60, x 61, x 62, x
Consists of 63 .

【0100】さらに、電力演算回路51は、空間周波数
帯域S0,S1,S2,S3それぞれについて、量子化DC
T係数のAC成分の電力P0,P1,P2,P3を演算し、
クラスコード生成回路52に出力する。
Further, the power calculation circuit 51 performs quantization DC for each of the spatial frequency bands S 0 , S 1 , S 2 , and S 3.
Calculate the power P 0 , P 1 , P 2 , P 3 of the AC component of the T coefficient,
Output to the class code generation circuit 52.

【0101】即ち、電力演算回路51は、空間周波数帯
域S0については、上述の4個の量子化DCT係数x0
1,x8,x9のうちのAC成分x1,x8,x9の2乗和
1 2+x8 2+x9 2を求め、これを、電力P0として、ク
ラスコード生成回路52に出力する。また、電力演算回
路51は、空間周波数帯域S1についての、上述の12
個の量子化DCT係数のAC成分、即ち、12個すべて
の量子化DCT係数の2乗和を求め、これを、電力P1
として、クラスコード生成回路52に出力する。さら
に、電力演算回路51は、空間周波数帯域S2とS3につ
いても、空間周波数帯域S1における場合と同様にし
て、それぞれの電力P2とP3を求め、クラスコード生成
回路52に出力する。
That is, the power operation circuit 51 operates in the spatial frequency band.
Area S0For the above four quantized DCT coefficients x0,
x1, X8, X9AC component x of1, X8, X9Sum of squares
x1 Two+ X8 Two+ X9 TwoAnd calculate the power P0As
Output to the Las code generation circuit 52. Also, the power calculation time
The road 51 corresponds to the above-mentioned 12 for the spatial frequency band S1.
AC components of the quantized DCT coefficients, ie, all 12
Is calculated, and the sum of squares of the quantized DCT coefficients of1
To the class code generation circuit 52. Further
In addition, the power operation circuit 51 has a spatial frequency band STwoAnd SThreeNitsu
The spatial frequency band S1As in
And each power PTwoAnd PThreeAnd generate class code
Output to the circuit 52.

【0102】クラスコード生成回路52は、電力演算回
路51からの電力P0,P1,P2,P3を、閾値テーブル
記憶部53に記憶された、対応する閾値TH0,TH
1,TH2,TH3とそれぞれ比較し、それぞれの大小
関係に基づいて、クラスコードを出力する。即ち、クラ
スコード生成回路52は、電力P0と閾値TH0とを比
較し、その大小関係を表す1ビットのコードを得る。同
様に、クラスコード生成回路52は、電力P1と閾値T
H1、電力P2と閾値TH2、電力P3と閾値TH3を、
それぞれ比較することにより、それぞれについて、1ビ
ットのコードを得る。そして、クラスコード生成回路5
2は、以上のようにして得られる4つの1ビットのコー
ドを、例えば、所定の順番で並べることにより得られる
4ビットのコード(従って、0乃至15のうちのいずれ
かの値)を、注目画素ブロックの第1のクラスを表すク
ラスコード(以下、適宜、電力クラスコードという)と
する。
The class code generation circuit 52 converts the powers P 0 , P 1 , P 2 , and P 3 from the power calculation circuit 51 into the corresponding threshold values TH 0, TH stored in the threshold value table storage unit 53.
1, TH2, and TH3, respectively, and outputs a class code based on the magnitude relation. That is, the class code generation circuit 52 compares the power P 0 and the threshold value TH0, obtain one-bit code representing the magnitude relationship. Similarly, the class code generation circuit 52 calculates the power P 1 and the threshold T
H1, the power P 2 and the threshold value TH2, the power P 3 and the threshold value TH3,
By comparing each, a 1-bit code is obtained for each. Then, the class code generation circuit 5
2 is a 4-bit code obtained by arranging the four 1-bit codes obtained as described above in, for example, a predetermined order (accordingly, any value from 0 to 15). A class code representing the first class of the pixel block (hereinafter, appropriately referred to as a power class code) is used.

【0103】さらに、クラスコード生成回路52には、
付加情報としての量子化テーブルが供給されるようにな
っており、クラスコード生成回路52は、その付加情報
に基づいてクラス分類を行い、これにより、注目画素ブ
ロックの第2のクラスを表すクラスコードを得る。即
ち、クラスコード生成回路52は、例えば、いま、JP
EG符号化において、前述の図1(B)に示した2種類
の量子化テーブルのうちのいずれかを用いて量子化が行
われるとした場合には、付加情報としての量子化テーブ
ルが、その2種類の量子化テーブルのうちのいずれであ
るかを判定し、その判定結果を表す1ビットのコード
を、注目画素ブロックの第2のクラスを表すクラスコー
ド(以下、適宜、付加情報クラスコードという)とす
る。
Further, the class code generation circuit 52 includes:
A quantization table as additional information is supplied, and the class code generation circuit 52 performs a class classification based on the additional information, thereby obtaining a class code representing the second class of the pixel block of interest. Get. That is, the class code generation circuit 52, for example,
In the EG encoding, if quantization is performed using any of the two types of quantization tables shown in FIG. 1B, the quantization table as additional information is It is determined which of the two types of quantization tables is used, and a 1-bit code representing the result of the determination is referred to as a class code representing the second class of the pixel block of interest (hereinafter referred to as an additional information class code as appropriate). ).

【0104】そして、クラスコード生成回路52は、第
1のクラスを表す4ビットの電力クラスコードに、第2
のクラスを表す1ビットの付加情報クラスコードを付加
することで、注目画素ブロックについての最終的なクラ
スコードを生成して出力する。従って、本実施の形態で
は、最終的なクラスコードは5ビットであり、注目画素
ブロックは、25(=32)個のクラスのうちのいずれ
か(例えば、0乃至31のうちのいずれかの値で表され
るクラス)にクラス分類されることになる。
The class code generation circuit 52 converts the 4-bit power class code representing the first class into the second power class code.
By adding a 1-bit additional information class code representing the class of, a final class code for the pixel block of interest is generated and output. Therefore, in the present embodiment, the final class code is 5 bits, and the target pixel block is any one of the 25 (= 32) classes (for example, any one of 0 to 31). (A class represented by a value).

【0105】なお、量子化テーブルに基づいてクラス分
類を行う方法は、上述したものに限定されるものではな
い。即ち、クラスコード生成回路52においては、付加
情報として供給される量子化テーブル(JPEG符号化
で、実際に使用された量子化テーブル)と比較する標準
パターンとしての量子化テーブルを複数用意しておき、
付加情報としての量子化テーブルに最も近似する標準パ
ターンとしての量子化テーブルを検出し、その検出結果
に対応するコードを、付加情報クラスコードとして出力
するようにすることが可能である。
Note that the method of classifying based on the quantization table is not limited to the method described above. That is, the class code generation circuit 52 prepares a plurality of quantization tables as standard patterns to be compared with a quantization table (quantization table actually used in JPEG encoding) supplied as additional information. ,
It is possible to detect a quantization table as a standard pattern closest to the quantization table as additional information, and output a code corresponding to the detection result as an additional information class code.

【0106】閾値テーブル記憶部53は、空間周波数帯
域S0乃至S3の電力P0乃至P3とそれぞれ比較する閾値
TH0乃至TH3を記憶している。
The threshold value table storage unit 53 stores threshold values TH0 to TH3 to be compared with the electric powers P 0 to P 3 of the spatial frequency bands S 0 to S 3 , respectively.

【0107】なお、上述の場合には、クラス分類処理
に、量子化DCT係数のDC成分x0が用いられない
が、このDC成分x0をも用いてクラス分類処理を行う
ことも可能である。
In the above case, the DC component x 0 of the quantized DCT coefficient is not used in the class classification process, but the class classification process can also be performed using the DC component x 0. .

【0108】図5に戻り、以上のようなクラス分類回路
43が出力するクラスコードは、係数テーブル記憶部4
4に、アドレスとして与えられる。
Returning to FIG. 5, the class code output from the classifying circuit 43 as described above is stored in the coefficient table storage unit 4.
4 is given as an address.

【0109】係数テーブル記憶部44は、後述するよう
な学習処理が行われることにより得られるクラスごとの
タップ係数が登録された係数テーブルを記憶しており、
クラス分類回路43が出力するクラスコードに対応する
アドレスに記憶されているクラスのタップ係数を積和演
算回路45に出力する。
The coefficient table storage unit 44 stores a coefficient table in which tap coefficients for each class obtained by performing a learning process described later are registered.
The tap coefficient of the class stored at the address corresponding to the class code output from the class classification circuit 43 is output to the product-sum operation circuit 45.

【0110】ここで、本実施の形態では、画素ブロック
がクラス分類されるから、注目画素ブロックについて、
1つのクラスコードが得られる。一方、画素ブロック
は、本実施の形態では、8×8画素の64画素で構成さ
れるから、注目画素ブロックについて、それを構成する
64画素それぞれを復号するための64セットのタップ
係数が必要である。従って、係数テーブル記憶部44に
は、1つのクラスコードに対応するアドレスに対して、
64セットのタップ係数が記憶されている。
Here, in the present embodiment, the pixel blocks are classified into classes.
One class code is obtained. On the other hand, in the present embodiment, since the pixel block is composed of 64 pixels of 8 × 8 pixels, 64 sets of tap coefficients for decoding each of the 64 pixels constituting the target pixel block are required. is there. Therefore, the coefficient table storage unit 44 stores, for an address corresponding to one class code,
64 sets of tap coefficients are stored.

【0111】積和演算回路45は、予測タップ抽出回路
41が出力する予測タップと、係数テーブル記憶部44
が出力するタップ係数とを取得し、その予測タップとタ
ップ係数とを用いて、式(1)に示した線形予測演算
(積和演算)を行い、その結果得られる注目画素ブロッ
クの8×8画素の画素値を、対応するDCTブロックの
復号結果として、ブロック分解回路33(図3)に出力
する。
The product-sum operation circuit 45 includes a prediction tap output from the prediction tap extraction circuit 41 and a coefficient table storage unit 44.
Is obtained, and the linear prediction operation (product-sum operation) shown in Expression (1) is performed using the prediction taps and the tap coefficients. The pixel value of the pixel is output to the block decomposition circuit 33 (FIG. 3) as a decoding result of the corresponding DCT block.

【0112】ここで、予測タップ抽出回路41において
は、上述したように、注目画素ブロックの各画素が、順
次、注目画素とされるが、積和演算回路45は、注目画
素ブロックの、注目画素となっている画素の位置に対応
した動作モード(以下、適宜、画素位置モードという)
となって、処理を行う。
Here, in the prediction tap extraction circuit 41, as described above, each pixel of the target pixel block is sequentially set as the target pixel. Operation mode corresponding to the position of the pixel (hereinafter, appropriately referred to as pixel position mode)
And perform the processing.

【0113】即ち、例えば、注目画素ブロックの画素の
うち、ラスタスキャン順で、i番目の画素を、piと表
し、画素piが、注目画素となっている場合、積和演算
回路45は、画素位置モード#iの処理を行う。
That is, for example, among the pixels of the pixel block of interest, the i-th pixel in the raster scan order is represented as p i, and when the pixel p i is the pixel of interest, the product-sum operation circuit 45 , The processing of the pixel position mode #i is performed.

【0114】具体的には、上述したように、係数テーブ
ル記憶部44は、注目画素ブロックを構成する64画素
それぞれを復号するための64セットのタップ係数を出
力するが、そのうちの画素piを復号するためのタップ
係数のセットをWiと表すと、積和演算回路45は、動
作モードが、画素位置モード#iのときには、予測タッ
プと、64セットのタップ係数のうちのセットWiとを
用いて、式(1)の積和演算を行い、その積和演算結果
を、画素piの復号結果とする。
[0114] More specifically, as described above, the coefficient table storage unit 44 is to output the tap coefficients of the 64 sets for decoding the respective 64 pixels constituting the pixel block of interest, the pixel p i of which If the set of tap coefficients for decoding denoted W i, sum-of-products operation circuit 45, the operation mode is, when the pixel position mode #i includes a prediction tap, and a set W i of the tap coefficients of the 64 sets Is used, and the result of the product-sum operation is used as the decoding result of the pixel p i .

【0115】次に、図9のフローチャートを参照して、
図5の係数変換回路32の処理について説明する。
Next, referring to the flowchart of FIG.
The processing of the coefficient conversion circuit 32 in FIG. 5 will be described.

【0116】エントロピー復号回路31が出力するブロ
ックごとの量子化DCT係数は、予測タップ抽出回路4
1およびクラスタップ抽出回路42において順次受信さ
れ、予測タップ抽出回路41は、そこに供給される量子
化DCT係数のブロック(DCTブロック)に対応する
画素ブロックを、順次、注目画素ブロックとする。
The quantized DCT coefficient for each block output from the entropy decoding circuit 31
1 and the class tap extraction circuit 42 sequentially receive the prediction block, and the prediction tap extraction circuit 41 sequentially sets the pixel blocks corresponding to the blocks of the quantized DCT coefficients (DCT blocks) supplied thereto as target pixel blocks.

【0117】そして、クラスタップ抽出回路42は、ス
テップS11において、そこで受信した量子化DCT係
数の中から、注目画素ブロックをクラス分類するのに用
いるものを抽出して、クラスタップを構成し、クラス分
類回路43に供給する。
Then, in step S11, the class tap extracting circuit 42 extracts, from the quantized DCT coefficients received there, one used for classifying the pixel block of interest, forms a class tap, and forms a class tap. This is supplied to the classification circuit 43.

【0118】クラス分類回路43には、クラス分類回路
42からのクラスタップが供給される他、エントロピー
復号回路31が出力する付加情報としての量子化テーブ
ルも供給されるようになっており、クラス分類回路43
は、ステップS12において、クラスタップ抽出回路4
2からのクラスタップ、およびエントロピー復号回路3
1からの量子化テーブルを用いて、注目画素ブロックを
クラス分類し、その結果得られるクラスコードを、係数
テーブル記憶部44に出力する。
The class classification circuit 43 is supplied with the class tap from the class classification circuit 42 and also with a quantization table as additional information output from the entropy decoding circuit 31. Circuit 43
In step S12, the class tap extraction circuit 4
Class tap from 2 and entropy decoding circuit 3
The target pixel block is classified into classes using the quantization table from 1 and the resulting class code is output to the coefficient table storage unit 44.

【0119】即ち、ステップS12では、図10のフロ
ーチャートに示すように、まず最初に、ステップS21
において、クラス分類回路43(図7)の電力演算回路
51が、クラスタップを構成する8×8個の量子化DC
T係数を、図8に示した4つの空間周波数帯域S0乃至
3に分割し、それぞれの電力P0乃至P3を演算する。
この電力P0乃至P3は、電力演算回路51からクラスコ
ード生成回路52に出力される。
That is, in step S12, as shown in the flowchart of FIG.
, The power calculation circuit 51 of the class classification circuit 43 (FIG. 7) uses 8 × 8 quantized DCs forming a class tap.
The T coefficient is divided into four spatial frequency bands S 0 to S 3 shown in FIG. 8, and respective powers P 0 to P 3 are calculated.
The powers P 0 to P 3 are output from the power calculation circuit 51 to the class code generation circuit 52.

【0120】クラスコード生成回路52は、ステップS
22において、閾値テーブル記憶部53から閾値TH0
乃至TH3を読み出し、電力演算回路51からの電力P
0乃至P3それぞれと、閾値TH0乃至TH3それぞれと
を比較し、それぞれの大小関係に基づいた電力クラスコ
ードを生成する。
The class code generation circuit 52 determines in step S
At 22, the threshold value TH0 is stored in the threshold value table storage unit 53.
To TH3 and read the power P from the power calculation circuit 51.
0 to the P 3, respectively, compared with the threshold TH0 to TH3 respectively, to generate a power class codes based on the respective magnitude relationships.

【0121】さらに、クラスコード生成回路52は、ス
テップS23において、付加情報としての量子化テーブ
ルを用いて、付加情報クラスコードを生成し、ステップ
S24に進む。ステップS24では、クラスコード生成
回路52は、電力クラスコードと付加情報クラスコード
とから、最終的なクラスコードを生成し、リターンす
る。
Further, in step S23, the class code generation circuit 52 generates an additional information class code using a quantization table as additional information, and proceeds to step S24. In step S24, the class code generation circuit 52 generates a final class code from the power class code and the additional information class code, and returns.

【0122】図9に戻り、ステップS12において以上
のようにして得られるクラスコードは、クラス分類回路
43から係数テーブル記憶部44に対して、アドレスと
して与えられる。
Returning to FIG. 9, the class code obtained as described above in step S12 is given from the class classification circuit 43 to the coefficient table storage unit 44 as an address.

【0123】係数テーブル記憶部44は、クラス分類回
路43からのアドレスとしてのクラスコードを受信する
と、ステップS13において、そのアドレスに記憶され
ている64セットのタップ係数を読み出し、積和演算回
路45に出力する。
When the coefficient table storage unit 44 receives the class code as the address from the class classification circuit 43, it reads out the 64 sets of tap coefficients stored at that address in step S13, and sends it to the product-sum operation circuit 45. Output.

【0124】そして、ステップS14に進み、予測タッ
プ抽出回路41は、注目画素ブロックの画素のうち、ラ
スタスキャン順で、まだ、注目画素とされていない画素
を、注目画素として、その注目画素の画素値を予測する
のに用いる量子化DCT係数を抽出し、予測タップとし
て構成する。この予測タップは、予測タップ抽出回路4
1から積和演算回路45に供給される。
Then, the process proceeds to step S14, in which the prediction tap extracting circuit 41 sets, as a target pixel, a pixel which has not been set as the target pixel in the raster scan order among the pixels of the target pixel block, and sets the target pixel as a target pixel. A quantized DCT coefficient used for predicting a value is extracted and configured as a prediction tap. This prediction tap is a prediction tap extraction circuit 4
1 is supplied to the product-sum operation circuit 45.

【0125】ここで、本実施の形態では、各画素ブロッ
クごとに、その画素ブロックのすべての画素について、
同一の予測タップが構成されるので、実際には、ステッ
プS14の処理は、注目画素ブロックについて、最初に
注目画素とされる画素に対してだけ行えば、残りの63
画素に対しては、行う必要がない。
Here, in the present embodiment, for each pixel block, all pixels in the pixel block are
Since the same prediction tap is configured, in practice, if the processing of step S14 is performed only on the pixel that is initially set as the target pixel for the target pixel block, the remaining 63
There is no need to do this for pixels.

【0126】積和演算回路45は、ステップS15にお
いて、ステップS13で係数テーブル記憶部44が出力
する64セットのタップ係数のうち、注目画素に対する
画素位置モードに対応するタップ係数のセットを取得
し、そのタップ係数のセットと、ステップS14で予測
タップ抽出回路41から供給される予測タップとを用い
て、式(1)に示した積和演算を行い、注目画素の画素
値の復号値を得る。
In step S15, the product-sum operation circuit 45 acquires a set of tap coefficients corresponding to the pixel position mode for the target pixel from among the 64 sets of tap coefficients output from the coefficient table storage unit 44 in step S13. Using the set of tap coefficients and the prediction tap supplied from the prediction tap extraction circuit 41 in step S14, the product-sum operation shown in Expression (1) is performed to obtain a decoded value of the pixel value of the target pixel.

【0127】そして、ステップS16に進み、予測タッ
プ抽出回路41は、注目画素ブロックのすべての画素
を、注目画素として処理を行ったかどうかを判定する。
ステップS16において、注目画素ブロックのすべての
画素を、注目画素として、まだ処理を行っていないと判
定された場合、ステップS14に戻り、予測タップ抽出
回路41は、注目画素ブロックの画素のうち、ラスタス
キャン順で、まだ、注目画素とされていない画素を、新
たに注目画素として、以下、同様の処理を繰り返す。
Then, the process proceeds to step S16, where the prediction tap extracting circuit 41 determines whether or not all pixels of the target pixel block have been processed as the target pixel.
If it is determined in step S16 that all the pixels of the target pixel block have not been processed yet as the target pixel, the process returns to step S14, and the prediction tap extraction circuit 41 returns the raster tap among the pixels of the target pixel block. In the scanning order, a pixel that has not been set as a target pixel is set as a new target pixel, and the same processing is repeated.

【0128】また、ステップS16において、注目画素
ブロックのすべての画素を、注目画素として処理を行っ
たと判定された場合、即ち、注目画素ブロックのすべて
の画素の復号値が得られた場合、積和演算回路45は、
その復号値で構成される画素ブロック(復号ブロック)
を、ブロック分解回路33(図3)に出力し、処理を終
了する。
If it is determined in step S16 that all pixels of the target pixel block have been processed as the target pixel, that is, if the decoded values of all the pixels of the target pixel block have been obtained, The arithmetic circuit 45
Pixel block composed of the decoded value (decoded block)
Is output to the block decomposition circuit 33 (FIG. 3), and the process is terminated.

【0129】なお、図9のフローチャートにしたがった
処理は、予測タップ抽出回路41が、新たな注目画素ブ
ロックを設定するごとに繰り返し行われる。
The process according to the flowchart of FIG. 9 is repeated each time the prediction tap extraction circuit 41 sets a new pixel block of interest.

【0130】次に、図11は、図5の係数テーブル記憶
部44に記憶させるタップ係数の学習処理を行う学習装
置の一実施の形態の構成例を示している。
Next, FIG. 11 shows an example of the configuration of an embodiment of a learning apparatus for performing a learning process of tap coefficients stored in the coefficient table storage section 44 of FIG.

【0131】ブロック化回路61には、1枚以上の学習
用の画像データが、学習時の教師となる教師データとし
て供給されるようになっており、ブロック化回路61
は、教師データとしての画像を、JPEG符号化におけ
る場合と同様に、8×8画素の画素ブロックにブロック
化する。
One or more pieces of learning image data are supplied to the blocking circuit 61 as teacher data serving as a teacher at the time of learning.
Classifies an image as teacher data into 8 × 8 pixel blocks, as in the case of JPEG encoding.

【0132】DCT回路62は、ブロック化回路61が
ブロック化した画素ブロックを、順次、注目画素ブロッ
クとして読み出し、その注目画素ブロックを、DCT処
理することで、DCT係数のブロックとする。このDC
T係数のブロックは、量子化回路63に供給される。
The DCT circuit 62 sequentially reads out the pixel blocks formed by the blocking circuit 61 as a target pixel block, and performs a DCT process on the target pixel block to obtain a DCT coefficient block. This DC
The block of the T coefficient is supplied to the quantization circuit 63.

【0133】量子化回路63は、DCT回路62からの
DCT係数のブロックを、JPEG符号化に用いられる
のと同一の量子化テーブルにしたがって量子化し、その
結果得られる量子化DCT係数のブロック(DCTブロ
ック)を、予測タップ抽出回路64およびクラスタップ
抽出回路65に順次供給する。
The quantization circuit 63 quantizes the block of DCT coefficients from the DCT circuit 62 in accordance with the same quantization table used for JPEG encoding, and obtains a block of quantized DCT coefficients (DCT coefficient) obtained as a result. Block) are sequentially supplied to the prediction tap extraction circuit 64 and the class tap extraction circuit 65.

【0134】即ち、量子化回路63は、JPEG符号化
に用いられる一般的な圧縮率の幾つかを設定し、各圧縮
率に対応する量子化テーブルにしたがって、DCT係数
を量子化して、予測タップ抽出回路64およびクラスタ
ップ抽出回路65に順次供給する。さらに、量子化回路
63は、量子化に用いた量子化テーブルを、付加情報と
して、クラス分類回路66に供給する。なお、この量子
化回路63が使用するのと同一の量子化テーブルが、図
7のクラスコード生成回路52において、標準パターン
として記憶されている。
That is, the quantization circuit 63 sets some of the general compression ratios used for JPEG encoding, quantizes the DCT coefficients according to the quantization table corresponding to each compression ratio, and sets the prediction taps. It is sequentially supplied to the extraction circuit 64 and the class tap extraction circuit 65. Further, the quantization circuit 63 supplies the quantization table used for quantization to the class classification circuit 66 as additional information. The same quantization table used by the quantization circuit 63 is stored as a standard pattern in the class code generation circuit 52 of FIG.

【0135】予測タップ抽出回路64は、注目画素ブロ
ックの画素のうち、ラスタスキャン順で、まだ、注目画
素とされていない画素を、注目画素として、その注目画
素について、図5の予測タップ抽出回路41が構成する
のと同一の予測タップを、量子化回路63の出力から、
必要な量子化DCT係数を抽出することで構成する。こ
の予測タップは、学習時の生徒となる生徒データとし
て、予測タップ抽出回路64から正規方程式加算回路6
7に供給される。
The prediction tap extracting circuit 64 selects, from the pixels of the target pixel block, the pixels which have not been set as the target pixel in the raster scan order as the target pixel, and sets the target pixel as the target tap extracting circuit shown in FIG. From the output of the quantization circuit 63, the same prediction tap
It is configured by extracting necessary quantized DCT coefficients. This prediction tap is sent from the prediction tap extraction circuit 64 to the normal equation addition circuit 6 as student data to be a student during learning.
7 is supplied.

【0136】クラスタップ抽出回路65は、注目画素ブ
ロックについて、図5のクラスタップ抽出回路42が構
成するのと同一のクラスタップを、量子化回路63の出
力から、必要な量子化DCT係数を抽出することで構成
する。このクラスタップは、クラスタップ抽出回路65
からクラス分類回路66に供給される。
The class tap extracting circuit 65 extracts, from the output of the quantizing circuit 63, the necessary quantized DCT coefficients for the target pixel block, using the same class taps as the class tap extracting circuit 42 shown in FIG. It is constituted by doing. This class tap is a class tap extraction circuit 65.
Is supplied to the class classification circuit 66.

【0137】クラス分類回路66は、クラスタップ抽出
回路65からのクラスタップと、量子化回路63からの
付加情報としての量子化テーブルとを用いて、図5のク
ラス分類回路43と同一の処理を行うことで、注目画素
ブロックをクラス分類し、その結果得られるクラスコー
ドを、正規方程式加算回路67に供給する。
The class classification circuit 66 performs the same processing as the class classification circuit 43 of FIG. 5 by using the class tap from the class tap extraction circuit 65 and the quantization table as additional information from the quantization circuit 63. By doing so, the target pixel block is classified into classes, and the resulting class code is supplied to the normal equation adding circuit 67.

【0138】正規方程式加算回路67は、ブロック化回
路61から、教師データとしての注目画素(の画素値)
を読み出し、予測タップ構成回路64からの生徒データ
としての予測タップ(を構成する量子化DCT係数)、
および注目画素を対象とした足し込みを行う。
The normal equation adding circuit 67 outputs the pixel value (of the pixel of interest) as teacher data from the blocking circuit 61.
And predictive taps (quantized DCT coefficients constituting the predictive taps) as student data from the predictive tap configuration circuit 64,
And addition for the pixel of interest.

【0139】即ち、正規方程式加算回路67は、クラス
分類回路66から供給されるクラスコードに対応するク
ラスごとに、予測タップ(生徒データ)を用い、式
(8)の行列Aにおける各コンポーネントとなってい
る、生徒データどうしの乗算(xinim)と、サメーシ
ョン(Σ)に相当する演算を行う。
That is, the normal equation adding circuit 67 uses the prediction taps (student data) for each class corresponding to the class code supplied from the class classification circuit 66 to generate each component in the matrix A of the equation (8). Multiplication (x in x im ) between the student data, and an operation corresponding to summation (Σ).

【0140】さらに、正規方程式加算回路67は、やは
り、クラス分類回路66から供給されるクラスコードに
対応するクラスごとに、予測タップ(生徒データ)およ
び注目画素(教師データ)を用い、式(8)のベクトル
vにおける各コンポーネントとなっている、生徒データ
と教師データの乗算(xini)と、サメーション
(Σ)に相当する演算を行う。
Further, the normal equation adding circuit 67 also uses the prediction tap (student data) and the pixel of interest (teacher data) for each class corresponding to the class code supplied from the class classification circuit 66 to obtain the equation (8). )), Multiplication (x in y i ) of student data and teacher data, which are components in the vector v, and an operation corresponding to summation (Σ) are performed.

【0141】なお、正規方程式加算回路67における、
上述のような足し込みは、各クラスについて、注目画素
に対する画素位置モードごとに行われる。
The normal equation addition circuit 67
The above-described addition is performed for each class in each pixel position mode for the target pixel.

【0142】正規方程式加算回路67は、以上の足し込
みを、ブロック化回路61に供給された教師画像を構成
する画素すべてを注目画素として行い、これにより、各
クラスについて、画素位置モードごとに、式(8)に示
した正規方程式がたてられる。
The normal equation adding circuit 67 performs the above-mentioned addition with all the pixels constituting the teacher image supplied to the blocking circuit 61 as target pixels, whereby for each class, for each pixel position mode, The normal equation shown in equation (8) is established.

【0143】タップ係数決定回路68は、正規方程式加
算回路67においてクラスごとに(かつ、画素位置モー
ドごとに)生成された正規方程式を解くことにより、ク
ラスごとに、64セットのタップ係数を求め、係数テー
ブル記憶部69の、各クラスに対応するアドレスに供給
する。
The tap coefficient determination circuit 68 solves the normal equation generated for each class (and for each pixel position mode) in the normal equation addition circuit 67, thereby obtaining 64 sets of tap coefficients for each class. The coefficients are supplied to addresses corresponding to each class in the coefficient table storage unit 69.

【0144】なお、学習用の画像として用意する画像の
枚数や、その画像の内容等によっては、正規方程式加算
回路67において、タップ係数を求めるのに必要な数の
正規方程式が得られないクラスが生じる場合があり得る
が、タップ係数決定回路68は、そのようなクラスにつ
いては、例えば、デフォルトのタップ係数を出力する。
Depending on the number of images prepared as learning images, the contents of the images, and the like, the normal equation adding circuit 67 may not be able to obtain the number of normal equations required for obtaining the tap coefficients. In such a case, the tap coefficient determination circuit 68 outputs, for example, a default tap coefficient for such a class.

【0145】係数テーブル記憶部69は、タップ係数決
定回路68から供給されるクラスごとの64セットのタ
ップ係数を記憶する。
The coefficient table storage unit 69 stores 64 sets of tap coefficients for each class supplied from the tap coefficient determination circuit 68.

【0146】次に、図12のフローチャートを参照し
て、図11の学習装置の処理(学習処理)について説明
する。
Next, the processing (learning processing) of the learning apparatus of FIG. 11 will be described with reference to the flowchart of FIG.

【0147】ブロック化回路61には、学習用の画像デ
ータが、教師データとして供給され、ブロック化回路6
1は、ステップS31において、教師データとしての画
像データを、JPEG符号化における場合と同様に、8
×8画素の画素ブロックにブロック化して、ステップS
32に進む。ステップS32では、DCT回路62が、
ブロック化回路61がブロック化した画素ブロックを、
順次読み出し、その注目画素ブロックを、DCT処理す
ることで、DCT係数のブロックとし、ステップS33
に進む。
The image data for learning is supplied to the blocking circuit 61 as teacher data.
In step S31, image data as teacher data is converted into 8 in the same manner as in JPEG encoding.
Step S:
Go to 32. In step S32, the DCT circuit 62
The pixel block divided by the blocking circuit 61 is
The target pixel block is sequentially read out and subjected to DCT processing to be a block of DCT coefficients.
Proceed to.

【0148】ステップS33では、量子化回路63が、
あらかじめ設定された量子化テーブルのうち、まだ、注
目量子化テーブルとされていないもののうちの1つを、
注目量子化テーブルにセットし、クラス分類回路66に
供給して、ステップS34に進む。ステップS34で
は、量子化回路63が、DCT回路62において得られ
たDCT係数のブロックを順次読み出し、注目量子化テ
ーブルにしたがって量子化して、量子化DCT係数で構
成されるブロック(DCTブロック)とする。
In step S33, the quantization circuit 63
One of the preset quantization tables that is not yet set as the target quantization table is
The value is set in the target quantization table and supplied to the class classification circuit 66, and the process proceeds to step S34. In step S34, the quantization circuit 63 sequentially reads out the blocks of the DCT coefficients obtained in the DCT circuit 62, quantizes them according to the target quantization table, and sets them as blocks (DCT blocks) composed of the quantized DCT coefficients. .

【0149】そして、ステップS35に進み、クラスタ
ップ抽出回路65は、ブロック化回路61でブロック化
された画素ブロックのうち、まだ注目画素ブロックとさ
れていないものを、注目画素ブロックとする。さらに、
クラスタップ抽出回路65は、注目画素ブロックをクラ
ス分類するのに用いる量子化DCT係数を、量子化回路
63で得られたDCTブロックから抽出して、クラスタ
ップを構成し、クラス分類回路66に供給する。クラス
分類回路66は、ステップS36において、図10のフ
ローチャートで説明した場合と同様に、クラスタップ抽
出回路65からのクラスタップ、および量子化回路63
からの注目量子化テーブルを用いて、注目画素ブロック
をクラス分類し、その結果得られるクラスコードを、正
規方程式加算回路67に供給して、ステップS37に進
む。
Then, the process proceeds to step S35, where the class tap extracting circuit 65 sets a pixel block which has not been set as a target pixel block among the pixel blocks divided by the blocking unit 61 as a target pixel block. further,
The class tap extracting circuit 65 extracts a quantized DCT coefficient used for classifying the pixel block of interest from the DCT block obtained by the quantizing circuit 63, forms a class tap, and supplies the class tap to the class classifying circuit 66. I do. In step S36, the class classification circuit 66 determines the class tap from the class tap extraction circuit 65 and the quantization circuit 63 in the same manner as described in the flowchart of FIG.
Is used to classify the pixel block of interest using the quantization table of interest, and the resulting class code is supplied to the normal equation adding circuit 67, and the flow advances to step S37.

【0150】ステップS37では、予測タップ抽出回路
64が、注目画素ブロックの画素のうち、ラスタスキャ
ン順で、まだ、注目画素とされていない画素を、注目画
素として、その注目画素について、図5の予測タップ抽
出回路41が構成するのと同一の予測タップを、量子化
回路63の出力から必要な量子化DCT係数を抽出する
ことで構成する。そして、予測タップ抽出回路64は、
注目画素についての予測タップを、生徒データとして、
正規方程式加算回路67に供給し、ステップS38に進
む。
In step S37, the prediction tap extracting circuit 64 sets a pixel which has not been set as the target pixel in the raster scan order among the pixels of the target pixel block as the target pixel, and sets the target pixel in FIG. The same prediction tap as that formed by the prediction tap extraction circuit 41 is configured by extracting necessary quantized DCT coefficients from the output of the quantization circuit 63. Then, the prediction tap extraction circuit 64
The prediction tap for the pixel of interest is used as student data.
The signal is supplied to the normal equation adding circuit 67, and the process proceeds to step S38.

【0151】ステップS38では、正規方程式加算回路
67は、ブロック化回路61から、教師データとしての
注目画素を読み出し、生徒データとしての予測タップ
(を構成する量子化DCT係数)、および教師データと
しての注目画素を対象として、式(8)の行列Aとベク
トルvの、上述したような足し込みを行う。なお、この
足し込みは、クラス分類回路66からのクラスコードに
対応するクラスごとに、かつ注目画素に対する画素位置
モードごとに行われる。
In step S38, the normal equation adding circuit 67 reads the pixel of interest as teacher data from the blocking circuit 61, and predicts taps (quantized DCT coefficients constituting the student data) as student data and the teacher data as teacher data. The above-described addition of the matrix A and the vector v in Expression (8) is performed on the target pixel. This addition is performed for each class corresponding to the class code from the class classification circuit 66 and for each pixel position mode for the target pixel.

【0152】そして、ステップS39に進み、予測タッ
プ抽出回路64は、注目画素ブロックのすべての画素
を、注目画素として、足し込みを行ったかどうかを判定
する。ステップS39において、注目画素ブロックのす
べての画素を、注目画素として、まだ足し込みを行って
いないと判定された場合、ステップS37に戻り、予測
タップ抽出回路64は、注目画素ブロックの画素のう
ち、ラスタスキャン順で、まだ、注目画素とされていな
い画素を、新たに注目画素として、以下、同様の処理を
繰り返す。
Then, proceeding to step S39, the prediction tap extracting circuit 64 determines whether or not all pixels of the target pixel block have been added as the target pixel. In step S39, when it is determined that all the pixels of the target pixel block have not been added as the target pixels, the process returns to step S37, and the prediction tap extracting circuit 64 determines, from among the pixels of the target pixel block, In the raster scan order, a pixel that has not been set as a target pixel is newly set as a target pixel, and the same processing is repeated thereafter.

【0153】また、ステップS39において、注目画素
ブロックのすべての画素を、注目画素として、足し込み
を行ったと判定された場合、ステップS40に進み、ブ
ロック化回路61は、教師データとしての画像から得ら
れたすべての画素ブロックを、注目画素ブロックとして
処理を行ったかどうかを判定する。ステップS40にお
いて、教師データとしての画像から得られたすべての画
素ブロックを、注目画素ブロックとして、まだ処理を行
っていないと判定された場合、ステップS35に戻り、
ブロック化回路61でブロック化された画素ブロックの
うち、まだ注目画素ブロックとされていないものが、新
たに注目画素ブロックとされ、以下、同様の処理が繰り
返される。
If it is determined in step S39 that all the pixels of the target pixel block have been added as the target pixel, the process proceeds to step S40, where the blocking circuit 61 obtains the image from the image as the teacher data. It is determined whether or not all the obtained pixel blocks have been processed as the target pixel block. If it is determined in step S40 that all the pixel blocks obtained from the image as the teacher data have not been processed as the pixel block of interest, the process returns to step S35.
Of the pixel blocks that have been blocked by the blocking circuit 61, those that have not yet been set as the target pixel block are newly set as the target pixel block, and the same processing is repeated thereafter.

【0154】一方、ステップS40において、教師デー
タとしての画像から得られたすべての画素ブロックを、
注目画素ブロックとして処理を行ったと判定された場
合、ステップS41に進み、量子化回路63は、あらか
じめ設定された量子化テーブルのすべてを注目量子化テ
ーブルとして処理を行ったかどうかを判定する。ステッ
プS41において、あらかじめ設定された量子化テーブ
ルのすべてを注目量子化テーブルとして処理を行ってい
ないと判定された場合、ステップS33に戻り、すべて
の学習用の画像データを対象に、以下、ステップS33
以降の処理が繰り返される。
On the other hand, in step S40, all pixel blocks obtained from the image as teacher data are
When it is determined that the processing has been performed as the target pixel block, the process proceeds to step S41, and the quantization circuit 63 determines whether all of the preset quantization tables have been processed as the target quantization table. If it is determined in step S41 that all of the preset quantization tables have not been processed as the target quantization table, the process returns to step S33, and the process returns to step S33 for all learning image data.
Subsequent processing is repeated.

【0155】また、ステップS41において、あらかじ
め設定された量子化テーブルのすべてを注目量子化テー
ブルとして処理を行ったと判定された場合、ステップS
42に進み、タップ係数決定回路68は、正規方程式加
算回路67において各クラスの画素位置モードごとに生
成された正規方程式を解くことにより、各クラスごと
に、そのクラスの64の画素位置モードそれぞれに対応
する64セットのタップ係数を求め、係数テーブル記憶
部69の、各クラスに対応するアドレスに供給して記憶
させ、処理を終了する。
If it is determined in step S41 that all of the preset quantization tables have been processed as the target quantization table, the process proceeds to step S41.
Proceeding to 42, the tap coefficient determination circuit 68 solves the normal equation generated for each class of pixel position mode in the normal equation addition circuit 67, and for each class, The corresponding 64 sets of tap coefficients are obtained, supplied to the addresses corresponding to each class in the coefficient table storage section 69 and stored, and the process is terminated.

【0156】以上のようにして、係数テーブル記憶部6
9に記憶された各クラスごとのタップ係数が、図5の係
数テーブル記憶部44に記憶されている。
As described above, the coefficient table storage unit 6
The tap coefficients for each class stored in 9 are stored in the coefficient table storage unit 44 in FIG.

【0157】従って、係数テーブル記憶部44に記憶さ
れたタップ係数は、線形予測演算を行うことにより得ら
れる元の画素値の予測値の予測誤差(ここでは、自乗誤
差)が、統計的に最小になるように学習を行うことによ
り求められたものであり、その結果、図5の係数変換回
路32によれば、JPEG符号化された画像を、元の画
像に限りなく近い画像に復号することができる。
Therefore, the tap coefficients stored in the coefficient table storage unit 44 are such that the prediction error (here, the square error) of the prediction value of the original pixel value obtained by performing the linear prediction operation is statistically minimized. The coefficient conversion circuit 32 shown in FIG. 5 decodes a JPEG-coded image into an image that is as close as possible to the original image. Can be.

【0158】また、上述したように、JPEG符号化さ
れた画像の復号処理と、その画質を向上させるための処
理とが、同時に施されることとなるので、JPEG符号
化された画像から、効率的に、画質の良い復号画像を得
ることができる。
As described above, the decoding processing of the JPEG-coded image and the processing for improving the image quality are simultaneously performed, so that the JPEG-coded image can be efficiently processed. Thus, a decoded image with good image quality can be obtained.

【0159】なお、本実施の形態では、クラス分類回路
43(66)におけるクラス分類を、クラスタップだけ
でなく、付加情報としての量子化テーブルをも用いて行
っているが、クラス分類は、クラスタップのみを用いて
行うことが可能である。しかしながら、上述のように、
クラス分類を、付加情報としての量子化テーブルを用い
て行うことで、いわば、精細なクラス分けが可能とな
り、復号画像の画質を、より向上させることが可能とな
る。
In the present embodiment, the class classification in the class classification circuit 43 (66) is performed not only by using the class tap but also by using a quantization table as additional information. This can be done using only taps. However, as mentioned above,
By performing the class classification using the quantization table as the additional information, fine classification can be performed, so to speak, and the image quality of the decoded image can be further improved.

【0160】次に、図13は、図3の係数変換回路32
の第2の構成例を示している。なお、図中、図5におけ
る場合と対応する部分については、同一の符号を付して
あり、以下では、その説明は、適宜省略する。即ち、図
13の係数変換回路32は、逆量子化回路71が新たに
設けられている他は、基本的に、図5における場合と同
様に構成されている。
Next, FIG. 13 shows the coefficient conversion circuit 32 of FIG.
2 shows a second configuration example. In the figure, portions corresponding to those in FIG. 5 are denoted by the same reference numerals, and a description thereof will be omitted as appropriate below. That is, the coefficient conversion circuit 32 in FIG. 13 has basically the same configuration as that in FIG. 5 except that an inverse quantization circuit 71 is newly provided.

【0161】図13の実施の形態において、逆量子化回
路71には、エントロピー復号回路31(図3)におい
て符号化データをエントロピー復号することにより得ら
れるブロックごとの量子化DCT係数が供給される。さ
らに、逆量子化回路71には、エントロピー復号回路3
1が出力する付加情報としての量子化テーブルも供給さ
れる。
In the embodiment shown in FIG. 13, the inverse quantization circuit 71 is supplied with quantized DCT coefficients for each block obtained by entropy decoding the encoded data in the entropy decoding circuit 31 (FIG. 3). . Further, the inverse quantization circuit 71 includes an entropy decoding circuit 3
A quantization table as additional information output by 1 is also supplied.

【0162】逆量子化回路71は、エントロピー復号回
路31からの量子化DCT係数を、同じくエントロピー
復号回路31からの量子化テーブルにしたがって逆量子
化し、その結果得られるDCT係数を、予測タップ抽出
回路41およびクラスタップ抽出回路42に供給する。
The inverse quantization circuit 71 inversely quantizes the quantized DCT coefficient from the entropy decoding circuit 31 in accordance with the quantization table from the entropy decoding circuit 31, and converts the resulting DCT coefficient into a prediction tap extraction circuit. 41 and a class tap extraction circuit 42.

【0163】従って、予測タップ抽出回路41とクラス
タップ抽出回路42では、量子化DCT係数ではなく、
DCT係数を対象として、予測タップとクラスタップが
それぞれ構成され、以降も、DCT係数を対象として、
図5における場合と同様の処理が行われる。
Therefore, in the prediction tap extraction circuit 41 and the class tap extraction circuit, not the quantized DCT coefficient but
A prediction tap and a class tap are respectively configured for DCT coefficients, and thereafter, for DCT coefficients,
The same processing as in FIG. 5 is performed.

【0164】このように、図13の実施の形態では、量
子化DCT係数ではなく、DCT係数を対象として処理
が行われるため、係数テーブル記憶部44に記憶させる
タップ係数は、図5における場合と異なるものとする必
要がある。
As described above, in the embodiment of FIG. 13, the processing is performed not on the quantized DCT coefficient but on the DCT coefficient, so that the tap coefficients stored in the coefficient table storage unit 44 are the same as those in FIG. It needs to be different.

【0165】そこで、図14は、図13の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行う学
習装置の一実施の形態の構成例を示している。なお、図
中、図11における場合と対応する部分については、同
一の符号を付してあり、以下では、その説明は、適宜省
略する。即ち、図14の学習装置は、量子化回路63の
後段に、逆量子化回路81が新たに設けられている他
は、図11における場合と基本的に同様に構成されてい
る。
FIG. 14 shows an example of the configuration of an embodiment of a learning device for performing a learning process of tap coefficients stored in the coefficient table storage section 44 of FIG. In the figure, portions corresponding to the case in FIG. 11 are denoted by the same reference numerals, and the description thereof will be appropriately omitted below. That is, the learning device in FIG. 14 is configured basically in the same manner as in FIG. 11 except that an inverse quantization circuit 81 is newly provided at the subsequent stage of the quantization circuit 63.

【0166】図14の実施の形態において、逆量子化回
路81には、逆量子化回路63が出力する量子化DCT
係数と、付加情報としての量子化テーブルが供給される
ようになっている。そして、逆量子化回路81は、逆量
子化回路63からの量子化DCT係数を、同じく逆量子
化回路63からの量子化テーブルにしたがって逆量子化
し、その結果得られるDCT係数を、予測タップ抽出回
路64およびクラスタップ抽出回路65に供給する。
In the embodiment shown in FIG. 14, the inverse quantization circuit 81 has a quantized DCT output from the inverse quantization circuit 63.
A coefficient and a quantization table as additional information are supplied. Then, the inverse quantization circuit 81 inversely quantizes the quantized DCT coefficient from the inverse quantization circuit 63 in accordance with the quantization table from the inverse quantization circuit 63, and extracts the DCT coefficient obtained as a result of prediction tap extraction. It is supplied to the circuit 64 and the class tap extraction circuit 65.

【0167】従って、予測タップ抽出回路64とクラス
タップ抽出回路65では、量子化DCT係数ではなく、
DCT係数を対象として、予測タップとクラスタップが
それぞれ構成され、以降も、DCT係数を対象として、
図11における場合と同様の処理が行われる。
Therefore, in the prediction tap extraction circuit 64 and the class tap extraction circuit 65, not the quantized DCT coefficient but
A prediction tap and a class tap are respectively configured for DCT coefficients, and thereafter, for DCT coefficients,
The same processing as in the case of FIG. 11 is performed.

【0168】その結果、DCT係数が量子化され、さら
に逆量子化されることにより生じる量子化誤差の影響を
低減するタップ係数が得られることになる。
As a result, a tap coefficient that reduces the influence of a quantization error caused by the DCT coefficient being quantized and further dequantized is obtained.

【0169】次に、図15は、図3の係数変換回路32
の第3の構成例を示している。なお、図中、図5におけ
る場合と対応する部分については、同一の符号を付して
あり、以下では、その説明は、適宜省略する。即ち、図
13の係数変換回路32は、クラスタップ抽出回路42
が設けられていない他は、基本的に、図5における場合
と同様に構成されている。
Next, FIG. 15 shows the coefficient conversion circuit 32 of FIG.
3 shows a third configuration example. In the figure, portions corresponding to those in FIG. 5 are denoted by the same reference numerals, and a description thereof will be omitted as appropriate below. That is, the coefficient conversion circuit 32 of FIG.
Is basically the same as in FIG.

【0170】従って、図15の実施の形態では、クラス
分類回路43は、そこに供給される付加情報としての量
子化テーブルにのみ基づいてクラス分類を行い、その結
果得られる付加情報クラスコードを、そのまま最終的な
クラスコードとして、係数テーブル記憶部44に供給す
る。
Therefore, in the embodiment shown in FIG. 15, the class classification circuit 43 performs the class classification based only on the quantization table as additional information supplied thereto, and converts the resulting additional information class code into The final class code is supplied to the coefficient table storage unit 44 as it is.

【0171】本実施の形態では、付加情報クラスコード
は、上述したように、1ビットであり、従って、図15
の係数テーブル記憶部44には、2(=21)クラスの
タップ係数だけが記憶されており、これを用いて処理が
行われる。
In the present embodiment, the additional information class code is one bit, as described above.
In the coefficient table storage unit 44, only tap coefficients of 2 (= 2 1 ) classes are stored, and processing is performed using the tap coefficients.

【0172】このように、図15の実施の形態では、係
数テーブル記憶部44に記憶されているタップ係数は、
図5における場合と異なるものとなっている。
As described above, in the embodiment of FIG. 15, the tap coefficients stored in the coefficient table storage section 44 are:
It is different from the case in FIG.

【0173】そこで、図16は、図15の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行う学
習装置の一実施の形態の構成例を示している。なお、図
中、図11における場合と対応する部分については、同
一の符号を付してあり、以下では、その説明は、適宜省
略する。即ち、図16の学習装置は、クラスタップ抽出
回路65が設けられていない他は、図11における場合
と基本的に同様に構成されている。
FIG. 16 shows an example of the configuration of an embodiment of the learning apparatus for performing the learning process of the tap coefficients stored in the coefficient table storage section 44 of FIG. In the figure, portions corresponding to the case in FIG. 11 are denoted by the same reference numerals, and the description thereof will be appropriately omitted below. That is, the learning device in FIG. 16 is configured basically in the same manner as in FIG. 11 except that the class tap extraction circuit 65 is not provided.

【0174】従って、図16の学習装置では、正規方程
式加算回路67において、上述の足し込みが、付加情報
のみに基づいて得られるクラスごとに行われる。そし
て、タップ係数決定回路68において、そのような足し
込みによって生成される正規方程式を解くことにより、
タップ係数が求められる。
Therefore, in the learning apparatus of FIG. 16, the above-described addition is performed for each class obtained based on only the additional information in the normal equation adding circuit 67. Then, in the tap coefficient determination circuit 68, by solving the normal equation generated by such addition,
A tap coefficient is determined.

【0175】次に、図17は、図3の係数変換回路32
の第4の構成例を示している。なお、図中、図5または
図13における場合と対応する部分については、同一の
符号を付してあり、以下では、その説明は、適宜省略す
る。即ち、図17の係数変換回路32は、クラスタップ
抽出回路42が設けられておらず、かつ逆量子化回路7
1が新たに設けられている他は、基本的に、図5におけ
る場合と同様に構成されている。
Next, FIG. 17 shows the coefficient conversion circuit 32 of FIG.
4 shows a fourth configuration example. Note that, in the drawing, the same reference numerals are given to portions corresponding to the case in FIG. 5 or FIG. 13, and the description thereof will be appropriately omitted below. That is, the coefficient conversion circuit 32 in FIG. 17 does not include the class tap extraction circuit 42, and
The configuration is basically the same as that in FIG.

【0176】従って、図17の実施の形態では、図15
の実施の形態における場合と同様に、係数テーブル記憶
部44には、付加情報としての量子化テーブルにのみ基
づいて行われるクラス分類によって得られるクラスのタ
ップ係数だけが記憶されており、これを用いて処理が行
われる。
Therefore, in the embodiment of FIG. 17, FIG.
Similarly to the case of the embodiment, the coefficient table storage unit 44 stores only the tap coefficients of the classes obtained by the class classification performed only based on the quantization table as the additional information. The processing is performed.

【0177】さらに、図17の実施の形態では、図13
の実施の形態における場合と同様に、予測タップ抽出回
路41において、量子化DCT係数ではなく、逆量子化
回路71が出力するDCT係数を対象として、予測タッ
プが構成され、以降も、DCT係数を対象として、処理
が行われる。
Further, in the embodiment of FIG.
Similarly to the case of the embodiment, in the prediction tap extraction circuit 41, prediction taps are configured not for the quantized DCT coefficients but for the DCT coefficients output from the inverse quantization circuit 71. Processing is performed as an object.

【0178】従って、図17の実施の形態でも、係数テ
ーブル記憶部44に記憶されているタップ係数は、図5
における場合と異なるものとなっている。
Therefore, also in the embodiment of FIG. 17, the tap coefficients stored in the coefficient table storage section 44 are the same as those in FIG.
It is different from the case of.

【0179】そこで、図18は、図17の係数テーブル
記憶部44に記憶させるタップ係数の学習処理を行う学
習装置の一実施の形態の構成例を示している。なお、図
中、図11または図14における場合と対応する部分に
ついては、同一の符号を付してあり、以下では、その説
明は、適宜省略する。即ち、図18の学習装置は、クラ
スタップ抽出回路65が設けられておらず、かつ逆量子
化回路81が新たに設けられている他は、図11におけ
る場合と基本的に同様に構成されている。
FIG. 18 shows an example of the configuration of an embodiment of the learning apparatus for performing the learning process of the tap coefficients stored in the coefficient table storage section 44 of FIG. In the drawings, parts corresponding to those in FIG. 11 or FIG. 14 are denoted by the same reference numerals, and a description thereof will be appropriately omitted below. That is, the learning device in FIG. 18 is configured basically in the same manner as in FIG. 11 except that the class tap extraction circuit 65 is not provided and the inverse quantization circuit 81 is newly provided. I have.

【0180】従って、図18の学習装置では、予測タッ
プ抽出回路64において、量子化DCT係数ではなく、
DCT係数を対象として、予測タップが構成され、以降
も、DCT係数を対象として処理が行われる。さらに、
正規方程式加算回路67において、上述の足し込みが、
付加情報としての量子化テーブルにのみ基づいて行われ
るクラス分類によって得られるクラスごとに行われ、タ
ップ係数決定回路68において、そのようなクラスごと
の正規方程式を解くことにより、タップ係数が求められ
る。
Therefore, in the learning apparatus of FIG. 18, the prediction tap extracting circuit 64 uses not the quantized DCT coefficient but
Prediction taps are configured for DCT coefficients, and thereafter, processing is performed for DCT coefficients. further,
In the normal equation adding circuit 67, the above addition is
The tap coefficient is obtained for each class obtained by the class classification performed based only on the quantization table as the additional information, and the tap coefficient is obtained by solving such a normal equation for each class in the tap coefficient determination circuit 68.

【0181】次に、以上においては、静止画を圧縮符号
化するJPEG符号化された画像を対象としたが、本発
明は、動画を圧縮符号化する、例えば、MPEG符号化
された画像を対象とすることも可能である。
Next, in the above description, JPEG-encoded images for compressing and encoding still images are used. However, the present invention relates to compression-encoding of moving images, for example, for MPEG-encoded images. It is also possible to use

【0182】即ち、図19は、MPEG符号化が行われ
る場合の、図2のエンコーダ21の構成例を示してい
る。
That is, FIG. 19 shows an example of the configuration of the encoder 21 shown in FIG. 2 when MPEG coding is performed.

【0183】MPEG符号化の対象である動画を構成す
るフレーム(またはフィールド)は、順次、動き検出回
路91と演算器92に供給される。
The frames (or fields) constituting the moving image to be MPEG-encoded are sequentially supplied to a motion detection circuit 91 and a computing unit 92.

【0184】動き検出回路91は、そこに供給されるフ
レームについて、マクロブロック単位で、動きベクトル
を検出し、エントロピー符号化回路96および動き補償
回路100に供給する。
The motion detection circuit 91 detects a motion vector of the frame supplied thereto in units of macro blocks, and supplies the motion vector to the entropy coding circuit 96 and the motion compensation circuit 100.

【0185】演算器92は、そこに供給される画像が、
I(Intra)ピクチャであれば、そのままブロック化回路
93に供給し、P(Predictive)またはB(Bidirectional
ly predictive)ピクチャであれば、動き補償回路100
から供給される参照画像との差分を演算して、その差分
値を、ブロック化回路93に供給する。
The computing unit 92 determines that the image supplied thereto is
If the picture is an I (Intra) picture, it is supplied to the blocking circuit 93 as it is, and the picture is P (Predictive) or B (Bidirectional).
ly predictive) picture, the motion compensation circuit 100
, And the difference value is supplied to the blocking circuit 93.

【0186】ブロック化回路93は、演算器92の出力
を、8×8画素の画素ブロックにブロック化し、DCT
回路94に供給する。DCT回路94は、ブロック化回
路93からの画素ブロックをDCT処理し、その結果得
られるDCT係数を、量子化回路95に供給する。量子
化回路95は、DCT回路93からのブロック単位のD
CT係数を所定の量子化テーブルにしたがって量子化
し、その結果得られる量子化DCT係数を、用いた量子
化テーブルとともに、エントロピー符号化回路96に供
給する。エントロピー符号化回路96は、量子化回路9
5からの量子化DCT係数をエントロピー符号化し、動
き検出回路91からの動きベクトルや、量子化回路95
からの量子化テーブル、その他の必要な情報を付加し
て、その結果得られる符号化データを、MPEG符号化
結果として出力する。
The blocking circuit 93 blocks the output of the computing unit 92 into 8 × 8 pixel blocks,
The signal is supplied to a circuit 94. The DCT circuit 94 performs a DCT process on the pixel block from the blocking circuit 93, and supplies a DCT coefficient obtained as a result to the quantization circuit 95. The quantization circuit 95 receives the D from the DCT circuit 93 in block units.
The CT coefficients are quantized according to a predetermined quantization table, and the resulting quantized DCT coefficients are supplied to the entropy coding circuit 96 together with the used quantization table. The entropy encoding circuit 96 includes the quantization circuit 9
5 is entropy-encoded, and the motion vector from the motion detection circuit 91 and the quantization circuit 95
, And other necessary information, and the resulting encoded data is output as an MPEG encoding result.

【0187】量子化回路95が出力する量子化DCT係
数のうち、IピクチャおよびPピクチャは、後で符号化
されるPピクチャやBピクチャの参照画像として用いる
のにローカルデコードする必要があるため、エントロピ
ー符号化回路96の他、逆量子化回路97にも供給され
る。また、逆量子化回路97には、量子化回路95で用
いられた量子化テーブルも供給される。
Of the quantized DCT coefficients output from the quantization circuit 95, I-pictures and P-pictures need to be locally decoded to be used as reference pictures of P-pictures and B-pictures to be encoded later. In addition to the entropy encoding circuit 96, the signal is also supplied to an inverse quantization circuit 97. Further, the quantization table used in the quantization circuit 95 is also supplied to the inverse quantization circuit 97.

【0188】逆量子化回路97は、量子化回路95から
の量子化DCT係数を、同じく量子化回路95からの量
子化テーブルにしたがって逆量子化することにより、D
CT係数とし、逆DCT回路98に供給する。逆DCT
回路98は、逆量子化回路97からのDCT係数を逆D
CT処理し、演算器99に出力する。演算器99には、
逆DCT回路98の出力の他、動き補償回路100が出
力する参照画像も供給されるようになっており、演算器
99は、逆DCT回路98の出力が、Pピクチャのもの
である場合には、その出力と、動き補償回路100の出
力とを加算することで、元の画像を復号し、動き補償回
路100に供給する。また、演算器99は、逆DCT回
路98の出力が、Iピクチャのものである場合には、そ
の出力は、Iピクチャの復号画像となっているので、そ
のまま、動き補償回路100に供給する。
The inverse quantization circuit 97 inversely quantizes the quantized DCT coefficient from the quantization circuit 95 in accordance with the quantization table from the quantization circuit 95, thereby obtaining D
It is supplied to the inverse DCT circuit 98 as a CT coefficient. Inverse DCT
The circuit 98 converts the DCT coefficient from the inverse quantization circuit 97 into an inverse D
CT processing is performed, and the result is output to the arithmetic unit 99. In the arithmetic unit 99,
In addition to the output of the inverse DCT circuit 98, a reference image output by the motion compensation circuit 100 is also supplied. The arithmetic unit 99 outputs the output signal of the inverse DCT circuit 98 when the output of the inverse DCT circuit 98 is a P-picture. , And the output of the motion compensation circuit 100, the original image is decoded, and the result is supplied to the motion compensation circuit 100. When the output of the inverse DCT circuit 98 is that of an I picture, the arithmetic unit 99 supplies the output to the motion compensation circuit 100 as it is because the output is a decoded image of the I picture.

【0189】動き補償回路100は、演算器99から供
給される、ローカルデコードされた画像に対して、動き
検出回路91からの動きベクトルにしたがった動き補償
を施し、その動き補償後の画像を、参照画像として、演
算器92および99に供給する。
The motion compensation circuit 100 performs motion compensation on the locally decoded image supplied from the computing unit 99 according to the motion vector from the motion detection circuit 91, and outputs the image after the motion compensation. The reference images are supplied to computing units 92 and 99.

【0190】ここで、図20は、以上のようなMPEG
符号化の結果得られる符号化データを復号する、従来の
MPEGデコーダの一例の構成を示している。
Here, FIG. 20 shows the above-described MPEG format.
1 shows an example of a configuration of a conventional MPEG decoder for decoding encoded data obtained as a result of encoding.

【0191】符号化データは、エントロピー復号回路1
11に供給され、エントロピー復号回路111は、符号
化データをエントロピー復号し、量子化DCT係数を得
るとともに、その符号化データに含まれる動きベクト
ル、量子化テーブル、その他の必要な情報を分離する。
そして、量子化DCT係数および量子化テーブルは、逆
量子化回路112に供給され、動きベクトルは、動き補
償回路116に供給される。
The encoded data is supplied to the entropy decoding circuit 1
The entropy decoding circuit 111 entropy-decodes the encoded data to obtain a quantized DCT coefficient, and separates a motion vector, a quantization table, and other necessary information included in the encoded data.
Then, the quantized DCT coefficient and the quantization table are supplied to the inverse quantization circuit 112, and the motion vector is supplied to the motion compensation circuit 116.

【0192】逆量子化回路112は、エントロピー復号
回路111からの量子化DCT係数を、同じくエントロ
ピー復号回路11からの量子化テーブルにしたがって逆
量子化することにより、DCT係数とし、逆DCT回路
113に供給する。逆DCT回路113は、逆量子化回
路112からのDCT係数を逆DCT処理し、演算器1
14に出力する。演算器114には、逆量子化回路11
3の出力の他、動き補償回路116が出力する、既に復
号されたIピクチャまたはPピクチャを、エントロピー
復号回路111からの動きベクトルにしたがって動き補
償したものが参照画像として供給されるようになってお
り、演算器114は、逆DCT回路113の出力が、P
またはBピクチャのものである場合には、その出力と、
動き補償回路116の出力とを加算することで、元の画
像を復号し、ブロック分解回路115に供給する。ま
た、演算器114は、逆DCT回路113の出力が、I
ピクチャのものである場合には、その出力は、Iピクチ
ャの復号画像となっているので、そのまま、ブロック分
解回路115に供給する。
The inverse quantization circuit 112 inversely quantizes the quantized DCT coefficient from the entropy decoding circuit 111 in accordance with the quantization table from the entropy decoding circuit 11 to obtain a DCT coefficient. Supply. The inverse DCT circuit 113 performs an inverse DCT process on the DCT coefficient from the inverse quantization circuit 112 and
14 is output. The arithmetic unit 114 includes the inverse quantization circuit 11
In addition to the output of (3), an I-picture or P-picture already decoded, which has been output from the motion compensation circuit 116 and subjected to motion compensation according to the motion vector from the entropy decoding circuit 111, is supplied as a reference image. The operation unit 114 outputs the signal from the inverse DCT circuit 113 to P
Or if it is a B picture, its output,
By adding the output of the motion compensation circuit 116, the original image is decoded and supplied to the block decomposition circuit 115. The arithmetic unit 114 outputs the output of the inverse DCT circuit 113
In the case of a picture, the output is a decoded picture of an I-picture, so that it is supplied to the block decomposition circuit 115 as it is.

【0193】ブロック分解回路115は、演算器114
から画素ブロック単位で供給される復号画像のブロック
化を解くことで、復号画像を得て出力する。
The block disassembly circuit 115 includes an arithmetic unit 114
By deblocking the decoded image supplied in pixel block units from, a decoded image is obtained and output.

【0194】一方、動き補償回路116は、演算器11
4が出力する復号画像のうちのIピクチャとPピクチャ
を受信し、エントロピー復号回路111からの動きベク
トルにしたがった動き補償を施す。そして、動き補償回
路116は、その動き補償後の画像を、参照画像とし
て、演算器114に供給する。
On the other hand, the motion compensation circuit 116
4 receives the I-picture and the P-picture of the decoded image, and performs motion compensation according to the motion vector from the entropy decoding circuit 111. Then, the motion compensation circuit 116 supplies the image after the motion compensation to the arithmetic unit 114 as a reference image.

【0195】図3のデコーダ22によれば、MPEG符
号化された符号化データも、上述のように、効率的に、
画質の良い画像に復号することができる。
According to the decoder 22 shown in FIG. 3, the encoded data which has been MPEG-encoded can be efficiently processed as described above.
The image can be decoded into a high-quality image.

【0196】即ち、符号化データは、エントロピー復号
回路31に供給され、エントロピー復号回路31は、符
号化データをエントロピー復号し、量子化DCT係数を
得るとともに、その符号化データに含まれる動きベクト
ル、量子化テーブル、その他の必要な情報を分離する。
そして、量子化DCT係数は、エントロピー復号回路3
1から係数変換回路32に供給され、量子化テーブル
や、動きベクトル等も、付加情報として、エントロピー
復号回路31から係数変換回路32に供給される。
That is, the coded data is supplied to an entropy decoding circuit 31, which entropy decodes the coded data to obtain a quantized DCT coefficient, and obtains a motion vector included in the coded data. Separate quantization tables and other necessary information.
Then, the quantized DCT coefficient is output to the entropy decoding circuit 3
1 to the coefficient conversion circuit 32, and the quantization table, the motion vector, and the like are also supplied as additional information from the entropy decoding circuit 31 to the coefficient conversion circuit 32.

【0197】係数変換回路32は、エントロピー復号回
路31からの量子化DCT係数Q、付加情報、および学
習を行うことにより求められたタップ係数を用いて、所
定の予測演算を行うとともに、エントロピー復号回路3
1からの動きベクトルにしたがった動き補償を必要に応
じて行うことにより、量子化DCT係数を、元の画素値
に復号し、ブロック分解回路33に供給する。
The coefficient conversion circuit 32 performs a predetermined prediction operation using the quantized DCT coefficient Q from the entropy decoding circuit 31, the additional information, and the tap coefficient obtained by performing the learning, and performs an entropy decoding circuit. 3
By performing motion compensation according to the motion vector from 1 as needed, the quantized DCT coefficient is decoded into the original pixel value and supplied to the block decomposition circuit 33.

【0198】ブロック分解回路33は、係数変換回路3
2において得られた、復号された画素でなる画素ブロッ
クのブロック化を解くことで、復号画像を得て出力す
る。
The block decomposition circuit 33 includes the coefficient conversion circuit 3
The decoded image is obtained and output by deblocking the pixel block composed of the decoded pixels obtained in 2.

【0199】次に、図21は、デコーダ22においてM
PEG符号化された符号化データを復号する場合の、図
3の係数変換回路32の構成例を示している。なお、図
中、図17または図20における場合と対応する部分に
ついては、同一の符号を付してあり、以下では、その説
明は、適宜省略する。即ち、図21の係数変換回路32
は、積和演算回路45の後段に、図20における演算器
114および動き補償回路116が設けられている他
は、図17における場合と同様に構成されている。
Next, FIG.
4 shows a configuration example of the coefficient conversion circuit 32 in FIG. 3 when decoding PEG-encoded data. Note that, in the figure, the same reference numerals are given to portions corresponding to the case in FIG. 17 or FIG. 20, and the description thereof will be appropriately omitted below. That is, the coefficient conversion circuit 32 shown in FIG.
Is configured in the same manner as in FIG. 17 except that the arithmetic unit 114 and the motion compensation circuit 116 in FIG. 20 are provided at the subsequent stage of the product-sum operation circuit 45.

【0200】従って、図21の係数変換回路32では、
図17における場合と同様の処理が、図20のMPEG
デコーダの逆DCT回路113における逆DCT処理に
替えて行われ、以降は、図20における場合と同様にし
て、復号画像が得られる。
Therefore, in the coefficient conversion circuit 32 of FIG.
The same processing as in the case of FIG.
This is performed in place of the inverse DCT processing in the inverse DCT circuit 113 of the decoder, and thereafter, a decoded image is obtained in the same manner as in FIG.

【0201】なお、図21の実施の形態では、クラス分
類回路43に供給される付加情報には、量子化テーブル
の他、動きベクトルも含まれており、従って、クラス分
類回路43では、量子化テーブルの他、動きベクトルに
基づいてクラス分類を行うことが可能である。動きベク
トルに基づいてのクラス分類では、例えば、動きベクト
ルの大きさと所定の閾値との大小関係を表すコードや、
動きベクトルのx成分、y成分それぞれと所定の閾値と
の大小関係を表すコード等を、クラスコードとするよう
にすることが可能である。
In the embodiment shown in FIG. 21, the additional information supplied to the classifying circuit 43 includes a motion vector in addition to the quantization table. Classification can be performed based on a motion vector in addition to the table. In the class classification based on the motion vector, for example, a code indicating the magnitude relationship between the magnitude of the motion vector and a predetermined threshold,
A code or the like representing a magnitude relationship between each of the x component and the y component of the motion vector and a predetermined threshold value can be used as a class code.

【0202】次に、図22は、図21の係数テーブル記
憶部44に記憶させるタップ係数を学習する学習装置の
一実施の形態の構成例を示している。なお、図中、図1
8における場合と対応する部分については、同一の符号
を付してあり、以下では、その説明は、適宜省略する。
Next, FIG. 22 shows an example of the configuration of an embodiment of a learning device for learning tap coefficients stored in the coefficient table storage section 44 of FIG. In FIG. 1, FIG.
8 are denoted by the same reference numerals, and the description thereof will be appropriately omitted below.

【0203】動きベクトル検出回路121および演算器
122には、学習用の画像が、教師データとして入力さ
れる。動きベクトル検出回路121、演算器122、ブ
ロック化回路123、DCT回路124、量子化回路1
25、逆量子化回路127、逆DCT回路128、演算
器129、または動き補償回路130は、図19の動き
ベクトル検出回路91、演算器92、ブロック化回路9
3、DCT回路94、量子化回路95、逆量子化回路9
7、逆DCT回路98、演算器99、または動き補償回
路100とそれぞれ同様の処理を行い、これにより、量
子化回路125からは、図19の量子化回路95が出力
するのと同様の量子化DCT係数と量子化テーブルが出
力される。
A learning image is input to the motion vector detection circuit 121 and the arithmetic unit 122 as teacher data. Motion vector detection circuit 121, arithmetic unit 122, blocking circuit 123, DCT circuit 124, quantization circuit 1
25, the inverse quantization circuit 127, the inverse DCT circuit 128, the computing unit 129, or the motion compensation circuit 130 are the motion vector detecting circuit 91, the computing unit 92, and the blocking circuit 9 in FIG.
3. DCT circuit 94, quantization circuit 95, inverse quantization circuit 9
7, the same processing as that performed by the inverse DCT circuit 98, the arithmetic unit 99, or the motion compensation circuit 100, whereby the quantization circuit 125 performs the same quantization as that output by the quantization circuit 95 in FIG. The DCT coefficient and the quantization table are output.

【0204】量子化回路125が出力する量子化DCT
係数および量子化テーブルは、逆量子化回路81に供給
され、逆量子化回路81は、量子化回路125からの量
子化DCT係数を、同じく量子化回路125からの量子
化ステップにしたがって逆量子化し、DCT係数に変換
して、予測タップ抽出回路64に供給する。予測タップ
抽出回路64は、逆量子化回路81からのDCT係数か
ら、予測タップを構成し、正規方程式加算回路67に供
給する。
The quantized DCT output from the quantization circuit 125
The coefficients and the quantization table are supplied to an inverse quantization circuit 81, which inversely quantizes the quantized DCT coefficients from the quantization circuit 125 in accordance with a quantization step from the quantization circuit 125. , DCT coefficients, and supplies them to the prediction tap extraction circuit 64. The prediction tap extraction circuit 64 forms a prediction tap from the DCT coefficient from the inverse quantization circuit 81 and supplies the prediction tap to the normal equation addition circuit 67.

【0205】一方、クラス分類回路66は、量子化回路
125が出力する量子化テーブルに基づいてクラス分類
を行う。なお、図21のクラス分類回路43が、量子化
テーブルおよび動きベクトルに基づいてクラス分類を行
う場合には、クラス分類回路66は、量子化回路125
が出力する量子化テーブルと、動きベクトル検出回路1
21が出力する動きベクトルに基づいてクラス分類を行
う。
On the other hand, the class classification circuit 66 classifies based on the quantization table output from the quantization circuit 125. When the class classification circuit 43 in FIG. 21 performs the class classification based on the quantization table and the motion vector, the class classification circuit 66
And the motion vector detection circuit 1
Classification is performed on the basis of the motion vector output by 21.

【0206】クラス分類回路66によるクラス分類の結
果得られるクラスコードは、正規方程式加算回路67に
供給され、正規方程式加算回路67は、演算器122の
出力を教師データとするとともに、逆量子化回路81か
らの予測タップを生徒データとして、上述したような足
し込みを、クラスごとに行い、これにより、正規方程式
を生成する。
The class code obtained as a result of the class classification by the class classification circuit 66 is supplied to a normal equation addition circuit 67. The normal equation addition circuit 67 uses the output of the arithmetic unit 122 as teacher data and an inverse quantization circuit. Using the prediction tap from 81 as student data, the above-described addition is performed for each class, thereby generating a normal equation.

【0207】そして、タップ係数決定回路68は、正規
方程式加算回路67で生成されたクラスごとの正規方程
式を解くことにより、クラスごとのタップ係数を求め、
係数テーブル記憶部69に供給して記憶させる。
Then, the tap coefficient determination circuit 68 solves the normal equation for each class generated by the normal equation addition circuit 67 to obtain the tap coefficient for each class.
The data is supplied to the coefficient table storage unit 69 and stored.

【0208】図21の積和演算回路45では、このよう
にして求められたクラスごとのタップ係数を用いて、M
PEG符号化された符号化データが復号されるので、や
はり、MPEG符号化された画像の復号処理と、その画
質を向上させるための処理とを、同時に施すことがで
き、従って、MPEG符号化された画像から、効率的
に、画質の良い復号画像を得ることができる。
The product-sum operation circuit 45 shown in FIG. 21 uses the tap coefficients for each class obtained in this way to calculate M
Since the PEG-encoded data is decoded, the decoding process of the MPEG-encoded image and the process for improving the image quality can be performed simultaneously, and therefore, the MPEG-encoded image can be decoded. Thus, a decoded image with good image quality can be efficiently obtained from the decoded image.

【0209】なお、図21の係数変換回路32は、逆量
子化回路71を設けずに構成することが可能である。こ
の場合、図22の学習装置は、逆量子化回路81を設け
ずに構成すれば良い。
The coefficient conversion circuit 32 shown in FIG. 21 can be configured without providing the inverse quantization circuit 71. In this case, the learning device in FIG. 22 may be configured without the inverse quantization circuit 81.

【0210】また、図21の係数変換回路32は、図5
における場合と同様に、クラスタップ抽出回路42を設
けて構成することが可能である。この場合、図22の学
習装置は、図11における場合のように、クラスタップ
抽出回路65を設けて構成するれば良い。
The coefficient conversion circuit 32 shown in FIG.
As in the case of, it is possible to provide and configure the class tap extraction circuit. In this case, the learning device in FIG. 22 may be provided with the class tap extraction circuit 65 as in the case in FIG.

【0211】なお、上述の場合においては、付加情報と
して、量子化テーブルや、動きベクトルを用いるように
したが、付加情報としては、その他、DCT係数を元に
戻すのに必ずしも必要でない各種の情報を採用すること
が可能である。即ち、例えば、MPEG符号化された符
号化データについていえば、付加情報としては、量子化
テーブルや動きベクトルの他、ピクチャタイプやマクロ
ブロックタイプ等を採用することが可能である。
[0211] In the above case, the quantization table and the motion vector are used as the additional information. However, as the additional information, various other information not necessarily required to restore the DCT coefficients to the original state. Can be adopted. That is, for example, regarding encoded data obtained by MPEG encoding, as the additional information, a picture type, a macro block type, and the like can be employed in addition to a quantization table and a motion vector.

【0212】次に、上述した一連の処理は、ハードウェ
アにより行うこともできるし、ソフトウェアにより行う
こともできる。一連の処理をソフトウェアによって行う
場合には、そのソフトウェアを構成するプログラムが、
汎用のコンピュータ等にインストールされる。
Next, the above-described series of processing can be performed by hardware or can be performed by software. When a series of processing is performed by software, a program constituting the software is
Installed on a general-purpose computer.

【0213】そこで、図23は、上述した一連の処理を
実行するプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。
FIG. 23 shows an example of the configuration of an embodiment of a computer in which a program for executing the above-described series of processing is installed.

【0214】プログラムは、コンピュータに内蔵されて
いる記録媒体としてのハードディスク205やROM2
03に予め記録しておくことができる。
The program is stored in a hard disk 205 or a ROM 2 as a recording medium built in the computer.
03 can be recorded in advance.

【0215】あるいはまた、プログラムは、フロッピー
(登録商標)ディスク、CD-ROM(Compact Disc Read Onl
y Memory),MO(Magneto optical)ディスク,DVD(Digita
l Versatile Disc)、磁気ディスク、半導体メモリなど
のリムーバブル記録媒体211に、一時的あるいは永続
的に格納(記録)しておくことができる。このようなリ
ムーバブル記録媒体211は、いわゆるパッケージソフ
トウエアとして提供することができる。
Alternatively, the program may be a floppy (registered trademark) disk, CD-ROM (Compact Disc Read Onl
y Memory), MO (Magneto optical) disc, DVD (Digita
l Versatile Disc), a magnetic disk, a semiconductor memory, etc., can be temporarily or permanently stored (recorded) in a removable recording medium 211. Such a removable recording medium 211 can be provided as so-called package software.

【0216】なお、プログラムは、上述したようなリム
ーバブル記録媒体211からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN(Local Area Network)、インターネットとい
ったネットワークを介して、コンピュータに有線で転送
し、コンピュータでは、そのようにして転送されてくる
プログラムを、通信部208で受信し、内蔵するハード
ディスク205にインストールすることができる。
[0216] The program is installed in the computer from the removable recording medium 211 as described above, and transmitted from a download site to the computer wirelessly via an artificial satellite for digital satellite broadcasting, or transmitted to a LAN (Local Area Area Network). Network) or the Internet, and the program can be transferred to the computer by wire, and the computer can receive the transferred program by the communication unit 208 and install the program on the built-in hard disk 205.

【0217】コンピュータは、CPU(Central Processing
Unit)202を内蔵している。CPU202には、バス2
01を介して、入出力インタフェース210が接続され
ており、CPU202は、入出力インタフェース210を
介して、ユーザによって、キーボードや、マウス、マイ
ク等で構成される入力部207が操作等されることによ
り指令が入力されると、それにしたがって、ROM(Read O
nly Memory)203に格納されているプログラムを実行
する。あるいは、また、CPU202は、ハードディスク
205に格納されているプログラム、衛星若しくはネッ
トワークから転送され、通信部208で受信されてハー
ドディスク205にインストールされたプログラム、ま
たはドライブ209に装着されたリムーバブル記録媒体
211から読み出されてハードディスク205にインス
トールされたプログラムを、RAM(Random Access Memor
y)204にロードして実行する。これにより、CPU20
2は、上述したフローチャートにしたがった処理、ある
いは上述したブロック図の構成により行われる処理を行
う。そして、CPU202は、その処理結果を、必要に応
じて、例えば、入出力インタフェース210を介して、
LCD(Liquid CryStal Display)やスピーカ等で構成され
る出力部206から出力、あるいは、通信部208から
送信、さらには、ハードディスク205に記録等させ
る。
The computer has a CPU (Central Processing).
Unit 202. The CPU 202 has a bus 2
01, the input / output interface 210 is connected. The CPU 202 operates the input unit 207 including a keyboard, a mouse, a microphone, and the like by the user via the input / output interface 210. When a command is input, the ROM (Read O
(Nly Memory) 203 is executed. Alternatively, the CPU 202 may execute a program stored in the hard disk 205, a program transferred from a satellite or a network, received by the communication unit 208 and installed on the hard disk 205, or a removable recording medium 211 mounted on the drive 209. The program read and installed on the hard disk 205 is stored in a RAM (Random Access Memory).
y) Load to 204 and execute. This allows the CPU 20
2 performs processing according to the above-described flowchart or processing performed by the configuration of the above-described block diagram. Then, the CPU 202 transmits the processing result as necessary, for example, via the input / output interface 210.
An output is made from an output unit 206 including an LCD (Liquid CryStal Display), a speaker, or the like, or transmitted from a communication unit 208, and further recorded on the hard disk 205.

【0218】ここで、本明細書において、コンピュータ
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。
Here, in the present specification, processing steps for writing a program for causing a computer to perform various types of processing do not necessarily have to be processed in chronological order in the order described in the flowchart, and may be performed in parallel. Alternatively, it also includes processing executed individually (for example, parallel processing or processing by an object).

【0219】また、プログラムは、1のコンピュータに
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。
Further, the program may be processed by one computer, or may be processed in a distributed manner by a plurality of computers. Further, the program may be transferred to a remote computer and executed.

【0220】なお、本実施の形態では、画像データを対
象としたが、本発明は、その他、例えば、音声データに
も適用可能である。
Although the present embodiment is directed to image data, the present invention is also applicable to, for example, audio data.

【0221】また、本実施の形態では、少なくとも、D
CT処理を行うJPEG符号化やMPEG符号化された
符号化データの復号を行うようにしたが、本発明は、そ
の他の直交変換または周波数変換によって変換されたデ
ータの復号に適用可能である。即ち、本発明は、例え
ば、サブバンド符号化されたデータや、フーリエ変換さ
れたデータ等を復号する場合にも適用可能である。
In this embodiment, at least D
Although JPEG encoding for performing CT processing and decoding of MPEG-encoded data are performed, the present invention is applicable to decoding of data transformed by other orthogonal transformation or frequency transformation. That is, the present invention is also applicable to, for example, decoding subband encoded data or Fourier transformed data.

【0222】さらに、本実施の形態では、デコーダ22
において、復号に用いるタップ係数を、あらかじめ記憶
しておくようにしたが、タップ係数は、符号化データに
含めて、デコーダ22に提供するようにすることが可能
である。
Further, in this embodiment, the decoder 22
In, the tap coefficients used for decoding are stored in advance, but the tap coefficients can be included in the encoded data and provided to the decoder 22.

【0223】また、本実施の形態では、タップ係数を用
いた線形1次予測演算によって、復号を行うようにした
が、復号は、その他、2次以上の高次の予測演算によっ
て行うことも可能である。
In this embodiment, the decoding is performed by the linear primary prediction operation using the tap coefficients. However, the decoding can also be performed by the second or higher order prediction operation. It is.

【0224】[0224]

【発明の効果】本発明の第1のデータ処理装置およびデ
ータ処理方法、並びに記録媒体によれば、付加情報に基
づいて、元のデータのうちの、注目している注目データ
が、幾つかのクラスのうちのいずれかにクラス分類さ
れ、学習を行うことにより求められた、所定のクラスご
とのタップ係数のうち、注目データのクラスに対応する
タップ係数が取得される。そして、変換データ、および
注目データのクラスに対応するタップ係数を用いて、所
定の予測演算を行うことにより、変換データが、元のデ
ータに復号される。従って、変換データを、効率的に復
号することが可能となる。
According to the first data processing apparatus, the data processing method, and the recording medium of the present invention, based on the additional information, the target data of interest out of the original data is converted into several data. The tap coefficients corresponding to the class of the data of interest are acquired from the tap coefficients for each of the predetermined classes, which are classified into any of the classes and obtained by performing the learning. Then, by performing a predetermined prediction operation using the converted data and the tap coefficient corresponding to the class of the data of interest, the converted data is decoded into the original data. Therefore, the converted data can be efficiently decoded.

【0225】本発明の第2のデータ処理装置およびデー
タ処理方法、並びに記録媒体によれば、教師となる教師
データを、少なくとも、直交変換または周波数変換する
ことにより、生徒となる生徒データが生成され、生徒デ
ータを生成するときに用いられた所定の付加情報に基づ
いて、教師データのうちの、注目している注目教師デー
タが、幾つかのクラスのうちのいずれかにクラス分類さ
れる。そして、注目教師データのクラスに対応するタッ
プ係数および生徒データを用いて予測演算を行うことに
より得られる教師データの予測値の予測誤差が、統計的
に最小になるように学習が行われ、クラスごとのタップ
係数が求められる。従って、そのタップ係数を用いるこ
とにより、直交変換または周波数変換されたデータを、
効率的に復号することが可能となる。
According to the second data processing apparatus, the data processing method, and the recording medium of the present invention, student data to be a student is generated by at least orthogonally or frequency-transforming teacher data to be a teacher. On the basis of the predetermined additional information used when generating the student data, the noted teacher data of interest out of the teacher data is classified into one of several classes. The learning is performed such that the prediction error of the predicted value of the teacher data obtained by performing the prediction operation using the tap coefficient and the student data corresponding to the class of the teacher data of interest is statistically minimized. The tap coefficient for each is obtained. Therefore, by using the tap coefficient, the orthogonally transformed or frequency transformed data is
Decoding can be performed efficiently.

【図面の簡単な説明】[Brief description of the drawings]

【図1】従来のJPEG符号化/復号を説明するための
図である。
FIG. 1 is a diagram for explaining conventional JPEG encoding / decoding.

【図2】本発明を適用した画像伝送システムの一実施の
形態の構成例を示す図である。
FIG. 2 is a diagram illustrating a configuration example of an embodiment of an image transmission system to which the present invention has been applied.

【図3】図2のデコーダ22の構成例を示すブロック図
である。
FIG. 3 is a block diagram illustrating a configuration example of a decoder 22 in FIG. 2;

【図4】図3のデコーダ22の処理を説明するフローチ
ャートである。
FIG. 4 is a flowchart illustrating a process of a decoder 22 in FIG. 3;

【図5】図3の係数変換回路32の第1の構成例を示す
ブロック図である。
FIG. 5 is a block diagram illustrating a first configuration example of a coefficient conversion circuit 32 in FIG. 3;

【図6】予測タップとクラスタップの例を説明する図で
ある。
FIG. 6 is a diagram illustrating an example of a prediction tap and a class tap.

【図7】図5のクラス分類回路43の構成例を示すブロ
ック図である。
FIG. 7 is a block diagram illustrating a configuration example of a class classification circuit 43 in FIG. 5;

【図8】図5の電力演算回路51の処理を説明するため
の図である。
FIG. 8 is a diagram for explaining processing of a power calculation circuit 51 of FIG. 5;

【図9】図5の係数変換回路32の処理を説明するフロ
ーチャートである。
FIG. 9 is a flowchart illustrating a process of a coefficient conversion circuit 32 of FIG. 5;

【図10】図9のステップS12の処理のより詳細を説
明するフローチャートである。
FIG. 10 is a flowchart illustrating details of a process in step S12 of FIG. 9;

【図11】本発明を適用した学習装置の第1実施の形態
の構成例を示すブロック図である。
FIG. 11 is a block diagram illustrating a configuration example of a first embodiment of a learning device to which the present invention has been applied.

【図12】図11の学習装置の処理を説明するフローチ
ャートである。
FIG. 12 is a flowchart illustrating a process of the learning device in FIG. 11;

【図13】図3の係数変換回路32の第2の構成例を示
すブロック図である。
FIG. 13 is a block diagram illustrating a second configuration example of the coefficient conversion circuit 32 of FIG. 3;

【図14】本発明を適用した学習装置の第2実施の形態
の構成例を示すブロック図である。
FIG. 14 is a block diagram illustrating a configuration example of a second embodiment of a learning device to which the present invention has been applied.

【図15】図3の係数変換回路32の第3の構成例を示
すブロック図である。
FIG. 15 is a block diagram showing a third configuration example of the coefficient conversion circuit 32 of FIG. 3;

【図16】本発明を適用した学習装置の第3実施の形態
の構成例を示すブロック図である。
FIG. 16 is a block diagram illustrating a configuration example of a third embodiment of a learning device to which the present invention has been applied.

【図17】図3の係数変換回路32の第4の構成例を示
すブロック図である。
FIG. 17 is a block diagram illustrating a fourth configuration example of the coefficient conversion circuit 32 of FIG. 3;

【図18】本発明を適用した学習装置の第4実施の形態
の構成例を示すブロック図である。
FIG. 18 is a block diagram illustrating a configuration example of a fourth embodiment of a learning device to which the present invention has been applied.

【図19】図2のエンコーダ21の構成例を示すブロッ
ク図である。
19 is a block diagram illustrating a configuration example of an encoder 21 in FIG.

【図20】MPEGデコーダの一例の構成を示すブロッ
ク図である。
FIG. 20 is a block diagram illustrating a configuration example of an MPEG decoder.

【図21】図3の係数変換回路32の第5の構成例を示
すブロック図である。
21 is a block diagram illustrating a fifth configuration example of the coefficient conversion circuit 32 in FIG. 3;

【図22】本発明を適用した学習装置の第5実施の形態
の構成例を示すブロック図である。
FIG. 22 is a block diagram illustrating a configuration example of a fifth embodiment of a learning device to which the present invention has been applied.

【図23】本発明を適用したコンピュータの一実施の形
態の構成例を示すブロック図である。
FIG. 23 is a block diagram illustrating a configuration example of a computer according to an embodiment of the present invention.

【符号の説明】 21 エンコーダ, 22 デコーダ, 23 記録媒
体, 24 伝送媒体, 31 エントロピー復号回
路, 32 係数変換回路, 33 ブロック分解回
路, 41 予測タップ抽出回路, 42 クラスタッ
プ抽出回路, 43クラス分類回路, 44 係数テー
ブル記憶部, 45積和演算回路, 51電力演算回
路, 52 クラスコード生成回路, 53 閾値テー
ブル記憶部, 61 ブロック化回路, 62 DCT
回路, 63 量子化回路, 64予測タップ抽出回
路, 65 クラスタップ抽出回路, 66 クラス分
類回路, 67 正規方程式加算回路, 68 タップ
係数決定回路, 69 係数テーブル記憶部, 71,
81 逆量子化回路, 114 演算器, 115動き
補償回路, 121 動きベクトル検出回路, 122
演算器, 123ブロック化回路, 124 DCT
回路, 125 量子化回路, 127逆量子化回路,
128 逆DCT回路, 129 演算器, 130
動き補償回路, 201 バス, 202 CPU,
203 ROM, 204 RAM,205 ハードディス
ク, 206 出力部, 207 入力部, 208
通信部, 209 ドライブ, 210 入出力インタ
フェース, 211 リムーバブル記録媒体
[Description of Signs] 21 encoder, 22 decoder, 23 recording medium, 24 transmission medium, 31 entropy decoding circuit, 32 coefficient conversion circuit, 33 block decomposition circuit, 41 prediction tap extraction circuit, 42 class tap extraction circuit, 43 class classification circuit , 44 coefficient table storage unit, 45 product-sum operation circuit, 51 power operation circuit, 52 class code generation circuit, 53 threshold table storage unit, 61 blocking circuit, 62 DCT
Circuit, 63 quantization circuit, 64 prediction tap extraction circuit, 65 class tap extraction circuit, 66 class classification circuit, 67 normal equation addition circuit, 68 tap coefficient determination circuit, 69 coefficient table storage section, 71,
81 inverse quantization circuit, 114 operation unit, 115 motion compensation circuit, 121 motion vector detection circuit, 122
Arithmetic unit, 123 block circuit, 124 DCT
Circuit, 125 quantization circuit, 127 inverse quantization circuit,
128 inverse DCT circuit, 129 arithmetic unit, 130
Motion compensation circuit, 201 bus, 202 CPU,
203 ROM, 204 RAM, 205 hard disk, 206 output unit, 207 input unit, 208
Communication unit, 209 drive, 210 input / output interface, 211 removable recording medium

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中屋 秀雄 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 西片 丈晴 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大塚 秀樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 國弘 威 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 森藤 孝文 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 内田 真史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C059 KK01 MA00 MA23 MC14 NN01 PP01 PP04 PP05 PP06 PP07 SS06 SS11 SS20 TA48 TB08 TC03 TC12 TD13 UA05 5C078 AA04 BA32 BA57 CA00 DA02 ────────────────────────────────────────────────── ─── Continued on the front page (72) Hideo Nakaya, Inventor 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Takeharu Nishikata 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Hideki Otsuka 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Takeshi Kunihiro 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni (Inc.) (72) Inventor Takafumi Morito 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Masashi Uchida 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation Company F term (reference) 5C059 KK01 MA00 MA23 MC14 NN01 PP01 PP04 PP05 PP06 PP07 SS06 SS11 SS20 TA48 TB08 TC03 TC12 TD13 UA05 5C078 AA04 BA32 BA57 CA00 DA02

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも、直交変換処理または周波数
変換処理を施すことにより得られる変換データと、所定
の付加情報とを含む符号化データを処理し、前記変換デ
ータを元のデータに復号するデータ処理装置であって、 前記付加情報に基づいて、前記元のデータのうちの、注
目している注目データを、幾つかのクラスのうちのいず
れかにクラス分類するクラス分類手段と、 学習を行うことにより求められた、所定のクラスごとの
タップ係数のうち、前記注目データのクラスに対応する
タップ係数を取得する取得手段と、 前記変換データ、および前記注目データのクラスに対応
する前記タップ係数を用いて、所定の予測演算を行うこ
とにより、前記変換データを、元のデータに復号する復
号手段とを備えることを特徴とするデータ処理装置。
1. A data process for processing encoded data including at least transform data obtained by performing an orthogonal transform process or a frequency transform process and predetermined additional information, and decoding the transform data into original data An apparatus, comprising: classifying means for classifying, based on the additional information, data of interest of the original data into one of several classes; and learning. Obtaining means for obtaining a tap coefficient corresponding to the class of the data of interest, among the tap coefficients for each predetermined class obtained by And a decoding means for decoding the converted data into original data by performing a predetermined prediction operation. .
【請求項2】 前記復号手段は、前記変換データおよび
タップ係数を用いて、線形1次予測演算を行うことによ
り、前記変換データを、元のデータに復号することを特
徴とする請求項1に記載のデータ処理装置。
2. The apparatus according to claim 1, wherein said decoding means decodes said converted data into original data by performing a linear primary prediction operation using said converted data and tap coefficients. The data processing device according to claim 1.
【請求項3】 前記クラスごとのタップ係数を記憶して
いる記憶手段をさらに備え、 前記取得手段は、前記記憶手段から、前記注目データの
クラスに対応するタップ係数を取得することを特徴とす
る請求項1に記載のデータ処理装置。
3. A storage unit for storing tap coefficients for each class, wherein the obtaining unit obtains a tap coefficient corresponding to the class of the target data from the storage unit. The data processing device according to claim 1.
【請求項4】 前記変換データは、前記元のデータを、
直交変換または周波数変換し、さらに量子化することに
より得られたものであることを特徴とする請求項1に記
載のデータ処理装置。
4. The conversion data is obtained by converting the original data into
2. The data processing device according to claim 1, wherein the data is obtained by performing orthogonal transformation or frequency transformation and further performing quantization.
【請求項5】 前記変換データを、逆量子化する逆量子
化手段をさらに備え、 前記復号手段は、逆量子化された前記変換データを、前
記元のデータに復号することを特徴とする請求項4に記
載のデータ処理装置。
5. The image processing apparatus according to claim 1, further comprising: an inverse quantization unit that inversely quantizes the transformed data, wherein the decoding unit decodes the inversely quantized transformed data into the original data. Item 5. The data processing device according to Item 4.
【請求項6】 前記付加情報は、前記元のデータの量子
化に用いられた量子化テーブルであることを特徴とする
請求項4に記載のデータ処理装置。
6. The data processing apparatus according to claim 4, wherein the additional information is a quantization table used for quantizing the original data.
【請求項7】 前記変換データは、前記元のデータを、
少なくとも、離散コサイン変換したものであることを特
徴とする請求項1に記載のデータ処理装置。
7. The conversion data is obtained by converting the original data into
2. The data processing apparatus according to claim 1, wherein the data processing apparatus performs at least discrete cosine transform.
【請求項8】 前記注目データを予測するのに前記タッ
プ係数とともに用いる前記変換データを抽出し、予測タ
ップとして出力する予測タップ抽出手段をさらに備え、 前記復号手段は、前記予測タップおよびタップ係数を用
いて予測演算を行うことを特徴とする請求項1に記載の
データ処理装置。
8. The apparatus according to claim 1, further comprising: a prediction tap extracting unit that extracts the transformed data used together with the tap coefficient to predict the target data and outputs the converted data as a prediction tap. 2. The data processing apparatus according to claim 1, wherein the prediction operation is performed using the data.
【請求項9】 前記注目データを、幾つかのクラスのう
ちのいずれかにクラス分類するのに用いる前記変換デー
タを抽出し、クラスタップとして出力するクラスタップ
抽出手段をさらに備え、 前記クラス分類手段は、前記付加情報およびクラスタッ
プに基づいて、前記注目データのクラスを求めることを
特徴とする請求項1に記載のデータ処理装置。
9. A class tap extracting means for extracting the conversion data used for classifying the data of interest into one of several classes, and outputting the converted data as a class tap, 2. The data processing device according to claim 1, wherein a class of the target data is obtained based on the additional information and a class tap.
【請求項10】 前記変換データは、前記元のデータ
を、所定の単位ごとに、少なくとも、直交変換処理また
は周波数変換したものであり、 前記復号手段は、前記所定の単位ごとに、前記変換デー
タを、前記元のデータに復号することを特徴とする請求
項1に記載のデータ処理装置。
10. The conversion data is obtained by subjecting the original data to at least orthogonal transform processing or frequency conversion for each predetermined unit, and the decoding unit outputs the conversion data for each of the predetermined units. 2. The data processing apparatus according to claim 1, wherein the data is decoded into the original data.
【請求項11】 前記タップ係数は、前記タップ係数お
よび変換データを用いて、所定の予測演算を行うことに
より得られる前記元のデータの予測値の予測誤差が、統
計的に最小になるように、学習を行うことにより得られ
たものであることを特徴とする請求項1に記載のデータ
処理装置。
11. The tap coefficient is set such that a prediction error of a prediction value of the original data obtained by performing a predetermined prediction operation using the tap coefficient and the conversion data is statistically minimized. The data processing apparatus according to claim 1, wherein the data processing apparatus is obtained by performing learning.
【請求項12】 前記元のデータは、動画または静止画
のデータであることを特徴とする請求項1に記載のデー
タ処理装置。
12. The data processing apparatus according to claim 1, wherein the original data is moving image or still image data.
【請求項13】 少なくとも、直交変換処理または周波
数変換処理を施すことにより得られる変換データと、所
定の付加情報とを含む符号化データを処理し、前記変換
データを元のデータに復号するデータ処理方法であっ
て、 前記付加情報に基づいて、前記元のデータのうちの、注
目している注目データを、幾つかのクラスのうちのいず
れかにクラス分類するクラス分類ステップと、 学習を行うことにより求められた、所定のクラスごとの
タップ係数のうち、前記注目データのクラスに対応する
タップ係数を取得する取得ステップと、 前記変換データ、および前記注目データのクラスに対応
する前記タップ係数を用いて、所定の予測演算を行うこ
とにより、前記変換データを、元のデータに復号する復
号ステップとを備えることを特徴とするデータ処理方
法。
13. A data process for processing encoded data including at least transform data obtained by performing an orthogonal transform process or a frequency transform process and predetermined additional information, and decoding the transform data into original data. A classifying step of classifying, based on the additional information, data of interest of the original data into one of several classes; and learning. Obtaining the tap coefficient corresponding to the class of the data of interest, from among the tap coefficients for each predetermined class obtained by the above, using the conversion data and the tap coefficient corresponding to the class of the data of interest. Decoding the converted data into original data by performing a predetermined prediction operation. Data processing method.
【請求項14】 少なくとも、直交変換処理または周波
数変換処理を施すことにより得られる変換データと、所
定の付加情報とを含む符号化データを処理し、前記変換
データを元のデータに復号するデータ処理を、コンピュ
ータに行わせるプログラムが記録されている記録媒体で
あって、 前記付加情報に基づいて、前記元のデータのうちの、注
目している注目データを、幾つかのクラスのうちのいず
れかにクラス分類するクラス分類ステップと、 学習を行うことにより求められた、所定のクラスごとの
タップ係数のうち、前記注目データに対応するタップ係
数を取得する取得ステップと、 前記変換データ、および前記注目データのクラスに対応
する前記タップ係数を用いて、所定の予測演算を行うこ
とにより、前記変換データを、元のデータに復号する復
号ステップとを備えるプログラムが記録されていること
を特徴とする記録媒体。
14. A data process for processing encoded data including at least transform data obtained by performing an orthogonal transform process or a frequency transform process and predetermined additional information, and decoding the transform data into original data. Is a recording medium in which a program for causing a computer to execute is recorded, based on the additional information, of the target data of interest out of the original data, one of several classes A class classification step of classifying into the class, an acquisition step of acquiring a tap coefficient corresponding to the data of interest among tap coefficients for each predetermined class obtained by performing learning, the conversion data, and the interest By performing a predetermined prediction operation using the tap coefficient corresponding to the class of data, the converted data is converted into the original data. And a decryption step of decrypting the information.
【請求項15】 少なくとも、直交変換処理または周波
数変換処理を施すことにより得られる変換データを、予
測演算によって復号するのに用いるタップ係数を学習す
るデータ処理装置であって、 教師となる教師データを、少なくとも、直交変換または
周波数変換することにより、生徒となる生徒データを生
成する生成手段と、 前記生成手段において前記生徒データを生成するときに
用いられる所定の付加情報に基づいて、前記教師データ
のうちの、注目している注目教師データを、幾つかのク
ラスのうちのいずれかにクラス分類するクラス分類手段
と、 前記注目教師データのクラスに対応するタップ係数およ
び生徒データを用いて予測演算を行うことにより得られ
る前記教師データの予測値の予測誤差が、統計的に最小
になるように学習を行い、クラスごとの前記タップ係数
を求める学習手段とを備えることを特徴とするデータ処
理装置。
15. A data processing device that learns tap coefficients used for decoding at least transform data obtained by performing an orthogonal transform process or a frequency transform process by a prediction operation, wherein the teacher data serves as a teacher. At least, generating means for generating student data to be a student by performing orthogonal transformation or frequency conversion, based on predetermined additional information used when generating the student data in the generating means, A classifying means for classifying the noted teacher data of interest into one of several classes; and performing a prediction operation using tap coefficients and student data corresponding to the class of the noted teacher data. The learning is performed so that the prediction error of the prediction value of the teacher data obtained by performing And a learning means for calculating the tap coefficient for each class.
【請求項16】 前記学習手段は、前記タップ係数およ
び生徒データを用いて線形1次予測演算を行うことによ
り得られる前記教師データの予測値の予測誤差が、統計
的に最小になるように学習を行うことを特徴とする請求
項15に記載のデータ処理装置。
16. The learning means so as to statistically minimize a prediction error of a predicted value of the teacher data obtained by performing a linear primary prediction operation using the tap coefficient and the student data. The data processing apparatus according to claim 15, wherein the data processing is performed.
【請求項17】 前記生成手段は、前記教師データを、
直交変換または周波数変換し、さらに量子化することに
より、前記生徒データを生成することを特徴とする請求
項15に記載のデータ処理装置。
17. The method according to claim 17, wherein the generating unit generates the teacher data by
16. The data processing apparatus according to claim 15, wherein the student data is generated by performing an orthogonal transformation or a frequency transformation and further performing quantization.
【請求項18】 前記付加情報は、前記教師データの量
子化に用いられた量子化テーブルであることを特徴とす
る請求項17に記載のデータ処理装置。
18. The data processing apparatus according to claim 17, wherein the additional information is a quantization table used for quantizing the teacher data.
【請求項19】 前記生成手段は、前記教師データを、
直交変換または周波数変換して量子化し、さらに逆量子
化することにより、前記生徒データを生成することを特
徴とする請求項15に記載のデータ処理装置。
19. The generation means, wherein the teacher data is
16. The data processing apparatus according to claim 15, wherein the student data is generated by performing orthogonal transformation or frequency transformation, quantizing, and further performing inverse quantization.
【請求項20】 前記生成手段は、前記教師データを、
少なくとも、離散コサイン変換することにより、前記生
徒データを生成することを特徴とする請求項15に記載
のデータ処理装置。
20. The generation means, comprising:
16. The data processing apparatus according to claim 15, wherein the student data is generated by at least performing a discrete cosine transform.
【請求項21】 前記注目教師データを予測するのに前
記タップ係数とともに用いる前記生徒データを抽出し、
予測タップとして出力する予測タップ抽出手段をさらに
備え、 前記学習手段は、前記予測タップおよびタップ係数を用
いて予測演算を行うことにより得られる前記教師データ
の予測値の予測誤差が、統計的に最小になるように学習
を行うことを特徴とする請求項15に記載のデータ処理
装置。
21. Extracting the student data used with the tap coefficients to predict the noted teacher data,
The apparatus further includes a prediction tap extracting unit that outputs a prediction tap, wherein the learning unit statistically minimizes a prediction error of a prediction value of the teacher data obtained by performing a prediction operation using the prediction tap and the tap coefficient. 16. The data processing device according to claim 15, wherein learning is performed such that
【請求項22】 前記注目教師データを、幾つかのクラ
スのうちのいずれかにクラス分類するのに用いる前記生
徒データを抽出し、クラスタップとして出力するクラス
タップ抽出手段をさらに備え、 前記クラス分類手段は、前記付加情報およびクラスタッ
プに基づいて、前記注目教師データのクラスを求めるこ
とを特徴とする請求項15に記載のデータ処理装置。
22. A class tap extracting means for extracting the student data used for classifying the teacher data of interest into one of several classes and outputting the student data as a class tap, The data processing apparatus according to claim 15, wherein the means obtains a class of the teacher data of interest based on the additional information and a class tap.
【請求項23】 前記生成手段は、前記教師データを、
所定の単位ごとに、少なくとも、直交変換処理または周
波数変換することにより、前記生徒データを生成するこ
とを特徴とする請求項15に記載のデータ処理装置。
23. The generation means, comprising:
16. The data processing apparatus according to claim 15, wherein the student data is generated by performing at least orthogonal transformation processing or frequency transformation for each predetermined unit.
【請求項24】 前記教師データは、動画または静止画
のデータであることを特徴とする請求項15に記載のデ
ータ処理装置。
24. The data processing apparatus according to claim 15, wherein the teacher data is moving image or still image data.
【請求項25】 少なくとも、直交変換処理または周波
数変換処理を施すことにより得られる変換データを、予
測演算によって復号するのに用いるタップ係数を学習す
るデータ処理方法であって、 教師となる教師データを、少なくとも、直交変換または
周波数変換することにより、生徒となる生徒データを生
成する生成ステップと、 前記生成ステップにおいて前記生徒データを生成すると
きに用いられる所定の付加情報に基づいて、前記教師デ
ータのうちの、注目している注目教師データを、幾つか
のクラスのうちのいずれかにクラス分類するクラス分類
ステップと、 前記注目教師データのクラスに対応するタップ係数およ
び生徒データを用いて予測演算を行うことにより得られ
る前記教師データの予測値の予測誤差が、統計的に最小
になるように学習を行い、クラスごとの前記タップ係数
を求める学習ステップとを備えることを特徴とするデー
タ処理方法。
25. A data processing method for learning a tap coefficient used for decoding at least transform data obtained by performing an orthogonal transform process or a frequency transform process by a predictive operation, comprising: , At least, a generation step of generating student data to be a student by performing orthogonal transformation or frequency conversion, based on predetermined additional information used when generating the student data in the generation step, A classifying step of classifying the noted teacher data of interest into one of several classes; and performing a prediction operation using tap coefficients and student data corresponding to the class of the noted teacher data. The prediction error of the prediction value of the teacher data obtained by performing A learning step of performing learning as described above to obtain the tap coefficient for each class.
【請求項26】 少なくとも、直交変換処理または周波
数変換処理を施すことにより得られる変換データを、予
測演算によって復号するのに用いるタップ係数を学習す
るデータ処理を、コンピュータに行わせるプログラムが
記録されている記録媒体であって、 教師となる教師データを、少なくとも、直交変換または
周波数変換することにより、生徒となる生徒データを生
成する生成ステップと、 前記生成ステップにおいて前記生徒データを生成すると
きに用いられる所定の付加情報に基づいて、前記教師デ
ータのうちの、注目している注目教師データを、幾つか
のクラスのうちのいずれかにクラス分類するクラス分類
ステップと、 前記注目教師データのクラスに対応するタップ係数およ
び生徒データを用いて予測演算を行うことにより得られ
る前記教師データの予測値の予測誤差が、統計的に最小
になるように学習を行い、クラスごとの前記タップ係数
を求める学習ステップとを備えるプログラムが記録され
ていることを特徴とする記録媒体。
26. A program for causing a computer to perform at least data processing for learning tap coefficients used for decoding transform data obtained by performing orthogonal transform processing or frequency transform processing by predictive calculation is recorded. A generating step of generating, at least, orthogonal transformation or frequency conversion of teacher data to be a teacher to generate student data to be a student; and A classifying step of classifying the noted teacher data of interest into any of several classes, based on the predetermined additional information to be obtained, It is obtained by performing a prediction operation using the corresponding tap coefficient and student data. A learning step of learning so that a prediction error of a prediction value of the teacher data is statistically minimized, and a learning step of obtaining the tap coefficient for each class. .
JP2000135355A 2000-05-09 2000-05-09 Data processing apparatus, data processing method, and recording medium Expired - Fee Related JP4538698B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000135355A JP4538698B2 (en) 2000-05-09 2000-05-09 Data processing apparatus, data processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000135355A JP4538698B2 (en) 2000-05-09 2000-05-09 Data processing apparatus, data processing method, and recording medium

Publications (2)

Publication Number Publication Date
JP2001320711A true JP2001320711A (en) 2001-11-16
JP4538698B2 JP4538698B2 (en) 2010-09-08

Family

ID=18643444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000135355A Expired - Fee Related JP4538698B2 (en) 2000-05-09 2000-05-09 Data processing apparatus, data processing method, and recording medium

Country Status (1)

Country Link
JP (1) JP4538698B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004047454A1 (en) * 2002-11-20 2004-06-03 Sony Corporation Image signal processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods, and computer-readable medium containing the program
KR100924051B1 (en) * 2002-03-08 2009-10-27 소니 가부시끼 가이샤 Record medium and its reproducer, reproducing method, record medium manufacturing apparatus, and recorder

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03292083A (en) * 1990-04-10 1991-12-24 Canon Inc Prediction decoding device
JPH0779434A (en) * 1993-09-06 1995-03-20 Sony Corp Reception/reproduction device for digital picture signal
JPH10271505A (en) * 1997-03-25 1998-10-09 Oki Electric Ind Co Ltd Signal processor, coding circuit and decoding circuit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03292083A (en) * 1990-04-10 1991-12-24 Canon Inc Prediction decoding device
JPH0779434A (en) * 1993-09-06 1995-03-20 Sony Corp Reception/reproduction device for digital picture signal
JPH10271505A (en) * 1997-03-25 1998-10-09 Oki Electric Ind Co Ltd Signal processor, coding circuit and decoding circuit

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100924051B1 (en) * 2002-03-08 2009-10-27 소니 가부시끼 가이샤 Record medium and its reproducer, reproducing method, record medium manufacturing apparatus, and recorder
WO2004047454A1 (en) * 2002-11-20 2004-06-03 Sony Corporation Image signal processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods, and computer-readable medium containing the program
US7729558B2 (en) 2002-11-20 2010-06-01 Sony Corporation Image signal, processing device and processing method, coefficient data generation device and generation method used for the same, program for executing the methods and computer readable medium containing the program

Also Published As

Publication number Publication date
JP4538698B2 (en) 2010-09-08

Similar Documents

Publication Publication Date Title
US7336829B2 (en) Data processing apparatus and method and recording medium
JP5957561B2 (en) Video encoding / decoding method and apparatus using large size transform unit
JP4517448B2 (en) Data processing apparatus, data processing method, and recording medium
JP4752088B2 (en) Data processing apparatus, data processing method, and recording medium
JP4538698B2 (en) Data processing apparatus, data processing method, and recording medium
JP4147789B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4419287B2 (en) Image processing apparatus, image processing method, and recording medium
JP4678454B2 (en) Data processing apparatus, data processing method, and recording medium
WO2019131161A1 (en) Coding device, coding method, decoding device, and decoding method
JP4538699B2 (en) Data processing apparatus, data processing method, and recording medium
JP2001345707A (en) Data processing apparatus and data processing method as well as recording medium
JP4081745B2 (en) Decoding device and decoding method, learning device and learning method, program, and recording medium
JP4491701B2 (en) Data processing apparatus, data processing method, and recording medium
JP2005167991A (en) Method for deblocking and transcoding media stream
Jabeen et al. Predictive Coding Based Lossless Image Compression Model
JP2002335405A (en) Image data processing unit and method, recording medium, and program
JP2003023634A (en) Image coding/decoding method and device
JP2011040821A (en) Encoding device, decoding device and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100527

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100609

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees