JPH1084549A - Image coder, image coding method, image decoder, image decoding method, transmission method and recording medium - Google Patents

Image coder, image coding method, image decoder, image decoding method, transmission method and recording medium

Info

Publication number
JPH1084549A
JPH1084549A JP20852597A JP20852597A JPH1084549A JP H1084549 A JPH1084549 A JP H1084549A JP 20852597 A JP20852597 A JP 20852597A JP 20852597 A JP20852597 A JP 20852597A JP H1084549 A JPH1084549 A JP H1084549A
Authority
JP
Japan
Prior art keywords
image
prediction
data
correction data
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP20852597A
Other languages
Japanese (ja)
Other versions
JP3952326B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US08/893,216 external-priority patent/US6381369B1/en
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP20852597A priority Critical patent/JP3952326B2/en
Publication of JPH1084549A publication Critical patent/JPH1084549A/en
Application granted granted Critical
Publication of JP3952326B2 publication Critical patent/JP3952326B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To efficiently obtain a decoded image nearly the same as an original image with a small data processing quantity. SOLUTION: A level limit circuit 31 limits the level of compression data obtained by extracting one picture element from 9 picture elements of an original image a thinning circuit 30 by extracting two bits from the MSB. A local decode section predicts the original image based on correction data and its predicted value is outputted. Then an error of a prediction value is calculated with respect to an original image in an error calculation section. A correction circuit 32 corrects the compression data so as to reduce the prediction error.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像符号化装置お
よび画像符号化方法、画像復号化装置および画像復号化
方法、伝送方法、並びに記録媒体に関し、特に、少ない
データ処理で、効率的に、より高画質の予測画像を得る
ことができるようにした画像符号化装置および画像符号
化方法、画像復号化装置および画像復号化方法、伝送方
法、並びに記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image encoding apparatus and an image encoding method, an image decoding apparatus and an image decoding method, a transmission method, and a recording medium. The present invention relates to an image encoding device and an image encoding method, an image decoding device and an image decoding method, a transmission method, and a recording medium that can obtain a higher-quality predicted image.

【0002】[0002]

【従来の技術】従来より、画像の圧縮方法については、
種々の方法が提案されているが、そのうちの1つに、画
像を、その画素を間引くことにより圧縮する方法があ
る。
2. Description of the Related Art Conventionally, image compression methods have been described.
Various methods have been proposed, one of which is to compress an image by thinning out its pixels.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、単に画
像を間引いて圧縮した画素データを、そのまま符号化す
るようにすると、データ処理量が膨大となり、効率的
に、高画質の予測画像(復号画像)を得ることができな
い課題があった。
However, if pixel data simply compressed by thinning out an image is directly encoded, the amount of data processing becomes enormous, and a high-quality predicted image (decoded image) is efficiently obtained. There was a problem that could not be obtained.

【0004】本発明は、このような状況に鑑みてなされ
たものであり、少ないデータ量で、効率的に、より高画
質の予測画像を得ることができるようにするものであ
る。
[0004] The present invention has been made in view of such circumstances, and it is an object of the present invention to be able to efficiently obtain a higher quality predicted image with a small amount of data.

【0005】[0005]

【課題を解決するための手段】請求項1に記載の画像符
号化装置は、原画像を圧縮することにより得られる圧縮
データのレベルを制限する制限手段と、レベルの制限さ
れた圧縮データを補正し、補正データを出力する補正手
段と、補正データに基づいて、原画像を予測し、その予
測値を出力する予測手段と、原画像に対する、予測値の
予測誤差を算出する算出手段と、予測誤差に基づいて、
補正手段が出力する補正データの適正さを判定する判定
手段と、判定手段による判定結果に対応して、補正デー
タを、原画像の符号化結果として出力する出力手段とを
備えることを特徴とする。
According to a first aspect of the present invention, there is provided an image encoding apparatus for limiting a level of compressed data obtained by compressing an original image, and correcting the level-limited compressed data. A correction unit that outputs correction data, a prediction unit that predicts an original image based on the correction data, and outputs a prediction value thereof; a calculation unit that calculates a prediction error of a prediction value with respect to the original image; Based on the error,
A determination unit that determines the appropriateness of the correction data output by the correction unit; and an output unit that outputs the correction data as an encoding result of the original image in accordance with the determination result by the determination unit. .

【0006】請求項11に記載の画像符号化方法は、原
画像を圧縮することにより得られる圧縮データのレベル
を制限し、レベルの制限された圧縮データを補正して、
補正データを出力し、補正データに基づいて、原画像を
予測して、その予測値を出力し、原画像に対する、予測
値の予測誤差を算出し、予測誤差に基づいて、補正デー
タの適正さを判定することを、補正データが適正になる
まで繰り返し、適正になった補正データを、原画像の符
号化結果として出力することを特徴とする。
According to an image encoding method of the present invention, the level of compressed data obtained by compressing an original image is limited, and the level-compressed compressed data is corrected.
Outputting the correction data, predicting the original image based on the correction data, outputting the predicted value, calculating the prediction error of the predicted value with respect to the original image, and determining the correctness of the correction data based on the prediction error. Is repeated until the correction data becomes appropriate, and the corrected data that has become appropriate is output as a result of encoding the original image.

【0007】請求項12に記載の画像復号化装置は、符
号化データが、原画像を圧縮することにより得られる圧
縮データのレベルを制限し、レベルの制限された圧縮デ
ータを補正して、補正データを出力し、補正データに基
づいて、原画像を予測して、その予測値を出力し、原画
像に対する、予測値の予測誤差を算出し、予測誤差に基
づいて、補正データの適正さを判定することを、補正デ
ータが適正になるまで繰り返すことにより得られた、適
正になった補正データを含むことを特徴とする。
According to a twelfth aspect of the present invention, in the image decoding apparatus, the encoded data limits the level of the compressed data obtained by compressing the original image, and corrects the limited-level compressed data. Output the data, predict the original image based on the correction data, output the predicted value, calculate the prediction error of the predicted value with respect to the original image, and determine the appropriateness of the correction data based on the prediction error. It is characterized in that the determination includes proper correction data obtained by repeating the determination until the correction data becomes proper.

【0008】請求項18に記載の画像復号化方法は、符
号化データが、原画像を圧縮することにより得られる圧
縮データのレベルを制限し、レベルの制限された圧縮デ
ータを補正して、補正データを出力し、補正データに基
づいて、原画像を予測して、その予測値を出力し、原画
像に対する、予測値の予測誤差を算出し、予測誤差に基
づいて、補正データの適正さを判定することを、補正デ
ータが適正になるまで繰り返すことにより得られた、適
正になった補正データを含むことを特徴とする。
[0008] In the image decoding method according to the present invention, the encoded data may be obtained by limiting the level of the compressed data obtained by compressing the original image, and correcting the compressed data having the limited level. Output the data, predict the original image based on the correction data, output the predicted value, calculate the prediction error of the predicted value with respect to the original image, and determine the appropriateness of the correction data based on the prediction error. It is characterized in that the determination includes proper correction data obtained by repeating the determination until the correction data becomes proper.

【0009】請求項19に記載の伝送方法は、符号化デ
ータが、原画像を圧縮することにより得られる圧縮デー
タのレベルを制限し、レベルの制限された圧縮データを
補正して、補正データを出力し、補正データに基づい
て、原画像を予測して、その予測値を出力し、原画像に
対する、予測値の予測誤差を算出し、予測誤差に基づい
て、補正データの適正さを判定することを、補正データ
が適正になるまで繰り返すことにより得られた、適正に
なった補正データを含むことを特徴とする。
According to a nineteenth aspect of the present invention, in the transmission method, the coded data restricts the level of the compressed data obtained by compressing the original image, corrects the restricted compressed data, and converts the corrected data. Output, predict an original image based on the correction data, output a prediction value thereof, calculate a prediction error of a prediction value with respect to the original image, and determine appropriateness of the correction data based on the prediction error. This is characterized by including corrected correction data obtained by repeating this until the correction data becomes proper.

【0010】請求項20に記載の記録媒体は、符号化デ
ータが、原画像を、その画素数を少なくすることにより
圧縮し、原画像を圧縮することにより得られる圧縮デー
タのレベルを制限し、レベルの制限された圧縮データを
補正して、補正データを出力し、補正データに基づい
て、原画像を予測して、その予測値を出力し、原画像に
対する、予測値の予測誤差を算出し、予測誤差に基づい
て、補正データの適正さを判定することを、補正データ
が適正になるまで繰り返すことにより得られた、適正に
なった補正データを含むことを特徴とする。
According to a twentieth aspect of the present invention, in the recording medium, the encoded data compresses the original image by reducing the number of pixels thereof, and restricts the level of compressed data obtained by compressing the original image. The compressed data with the limited level is corrected, the corrected data is output, the original image is predicted based on the corrected data, the predicted value is output, and the prediction error of the predicted value with respect to the original image is calculated. And determining that the correctness of the correction data based on the prediction error includes the corrected correction data obtained by repeating until the correction data becomes proper.

【0011】請求項21に記載の画像符号化装置は、画
像を構成する画素を、その性質に応じて所定のクラスに
分類する分類手段と、クラスごとに、所定のマッピング
係数を記憶しているマッピング係数記憶手段と、画像の
中の、注目している注目画素と、その注目画素のクラス
に対応するマッピング係数とを用いて所定の演算を行う
ことにより、その注目画素を補正した補正データを算出
する演算手段と、補正データのレベルを制限して、画像
を符号化した符号化データとする制限手段とを備えるこ
とを特徴とする。
According to a twenty-first aspect of the present invention, an image coding apparatus stores a classifying means for classifying pixels constituting an image into predetermined classes according to their properties, and stores a predetermined mapping coefficient for each class. By performing a predetermined operation using a mapping coefficient storage unit and a target pixel of interest in the image and a mapping coefficient corresponding to the class of the target pixel, correction data obtained by correcting the target pixel is obtained. It is characterized by comprising a calculating means for calculating, and a limiting means for limiting the level of the correction data to convert the image into encoded data.

【0012】請求項29に記載の画像符号化方法は、画
像を構成する画素を、その性質に応じて所定のクラスに
分類し、クラスごとに、所定のマッピング係数を記憶し
ているマッピング係数記憶手段から、画像の中の、注目
している注目画素のクラスに対応するマッピング係数を
読み出し、そのマッピング係数と、注目画素とを用いて
所定の演算を行うことにより、その注目画素を補正した
補正データを算出し、補正データのレベルを制限して、
画像を符号化した符号化データとすることを特徴とす
る。
According to an image coding method of the present invention, pixels constituting an image are classified into predetermined classes according to their properties, and a predetermined mapping coefficient is stored for each class. From the means, a mapping coefficient corresponding to the class of the pixel of interest in the image is read out, and a predetermined operation is performed using the mapping coefficient and the pixel of interest, thereby correcting the pixel of interest. Calculate the data, limit the level of correction data,
It is characterized in that the image is encoded data.

【0013】請求項30に記載の画像復号化装置は、符
号化データが、画像を構成する画素を、その性質に応じ
て第1のクラスのうちのいずれかに分類し、第1のクラ
スごとに、所定のマッピング係数を記憶しているマッピ
ング係数記憶手段から、画像の中の、注目している注目
画素の第1のクラスに対応するマッピング係数を読み出
し、そのマッピング係数と、注目画素とを用いて所定の
演算を行うことにより、その注目画素を補正した補正デ
ータを算出し、補正データのレベルを制限することによ
り得られたものであることを特徴とする。
According to a thirty-fifth aspect of the present invention, in the image decoding apparatus, the encoded data classifies pixels constituting an image into one of first classes according to their properties, and In the image, a mapping coefficient corresponding to a first class of a target pixel of interest in an image is read from a mapping coefficient storage unit that stores a predetermined mapping coefficient, and the mapping coefficient and the target pixel are read. By performing a predetermined calculation using the data, correction data for correcting the target pixel is calculated, and the correction data is obtained by limiting the level of the correction data.

【0014】請求項37に記載の画像復号化方法は、符
号化データが、画像を構成する画素を、その性質に応じ
て所定のクラスのうちのいずれかに分類し、クラスごと
に、所定のマッピング係数を記憶しているマッピング係
数記憶手段から、画像の中の、注目している注目画素の
クラスに対応するマッピング係数を読み出し、そのマッ
ピング係数と、注目画素とを用いて所定の演算を行うこ
とにより、その注目画素を補正した補正データを算出
し、補正データのレベルを制限することにより得られた
ものであることを特徴とする。
According to a thirty-seventh aspect of the present invention, in the image decoding method, the coded data classifies the pixels constituting the image into any one of predetermined classes according to their properties, and for each class, a predetermined class is used. A mapping coefficient corresponding to a class of a target pixel of interest in an image is read from a mapping coefficient storage unit that stores the mapping coefficient, and a predetermined operation is performed using the mapping coefficient and the target pixel. Thereby, the correction data obtained by correcting the target pixel is calculated, and the correction data is obtained by limiting the level of the correction data.

【0015】請求項38に記載の伝送方法は、符号化デ
ータが、画像を構成する画素を、その性質に応じて所定
のクラスに分類し、クラスごとに、所定のマッピング係
数を記憶しているマッピング係数記憶手段から、画像の
中の、注目している注目画素のクラスに対応するマッピ
ング係数を読み出し、そのマッピング係数と、注目画素
とを用いて所定の演算を行うことにより、その注目画素
を補正した補正データを算出し、補正データのレベルを
制限することにより得られたものであることを特徴とす
る。
[0015] In the transmission method according to claim 38, the coded data classifies the pixels constituting the image into predetermined classes according to their properties, and stores a predetermined mapping coefficient for each class. From the mapping coefficient storage means, a mapping coefficient corresponding to the class of the pixel of interest in the image is read out, and a predetermined operation is performed using the mapping coefficient and the pixel of interest. It is characterized by being obtained by calculating corrected correction data and limiting the level of correction data.

【0016】請求項39に記載の記録媒体は、符号化デ
ータが、画像を構成する画素を、その性質に応じて所定
のクラスに分類し、クラスごとに、所定のマッピング係
数を記憶しているマッピング係数記憶手段から、画像の
中の、注目している注目画素のクラスに対応するマッピ
ング係数を読み出し、そのマッピング係数と、注目画素
とを用いて所定の演算を行うことにより、その注目画素
を補正した補正データを算出し、補正データのレベルを
制限することにより得られたものであることを特徴とす
る。
In a recording medium according to a thirty-ninth aspect, the encoded data classifies pixels constituting an image into predetermined classes according to their properties, and stores a predetermined mapping coefficient for each class. From the mapping coefficient storage means, a mapping coefficient corresponding to the class of the pixel of interest in the image is read out, and a predetermined operation is performed using the mapping coefficient and the pixel of interest. It is characterized by being obtained by calculating corrected correction data and limiting the level of correction data.

【0017】請求項1に記載の画像符号化装置において
は、制限手段は、原画像を圧縮することにより得られる
圧縮データのレベルを制限し、補正手段は、レベルの制
限された圧縮データを補正し、補正データを出力するよ
うになされている。予測手段は、補正データに基づい
て、原画像を予測して、その予測値を出力し、算出手段
は、原画像に対する、予測値の予測誤差を算出するよう
になされている。判定手段は、予測誤差に基づいて、補
正手段が出力する補正データの適正さを判定し、出力手
段は、判定手段による判定結果に対応して、補正データ
を、原画像の符号化結果として出力するようになされて
いる。
In the image coding apparatus according to the present invention, the limiting means limits the level of the compressed data obtained by compressing the original image, and the correcting means corrects the compressed data having the limited level. Then, the correction data is output. The prediction means predicts the original image based on the correction data and outputs a predicted value, and the calculation means calculates a prediction error of a predicted value with respect to the original image. The determining unit determines the appropriateness of the correction data output by the correcting unit based on the prediction error, and the output unit outputs the corrected data as an encoding result of the original image according to the determination result by the determining unit. It has been made to be.

【0018】請求項11に記載の画像符号化方法におい
ては、原画像を圧縮することにより得られる圧縮データ
のレベルを制限し、レベルの制限された圧縮データを補
正して、補正データを出力し、補正データに基づいて、
原画像を予測して、その予測値を出力し、原画像に対す
る、予測値の予測誤差を算出し、予測誤差に基づいて、
補正データの適正さを判定することを、補正データが適
正になるまで繰り返し、適正になった補正データを、原
画像の符号化結果として出力するようになされている。
In the image encoding method according to the eleventh aspect, the level of the compressed data obtained by compressing the original image is limited, the level-limited compressed data is corrected, and the corrected data is output. , Based on the correction data,
Predict the original image, output the predicted value, calculate the prediction error of the predicted value for the original image, based on the prediction error,
The determination of the correctness of the correction data is repeated until the correction data becomes appropriate, and the corrected correction data is output as the encoding result of the original image.

【0019】請求項12に記載の画像復号化装置および
請求項18に記載の画像復号化方法、請求項19に記載
の伝送方法、並びに請求項20に記載の記録媒体におい
ては、符号化データが、原画像を、その画素数を少なく
することにより圧縮し、原画像を圧縮することにより得
られる圧縮データのレベルを制限し、レベルの制限され
た圧縮データを補正して、補正データを出力し、補正デ
ータに基づいて、原画像を予測して、その予測値を出力
し、原画像に対する、予測値の予測誤差を算出し、予測
誤差に基づいて、補正データの適正さを判定すること
を、補正データが適正になるまで繰り返すことにより得
られた、適正になった補正データを含んでいる。
In the image decoding device according to the twelfth aspect, the image decoding method according to the eighteenth aspect, the transmission method according to the nineteenth aspect, and the recording medium according to the twentieth aspect, the encoded data is Compressing the original image by reducing its number of pixels, limiting the level of compressed data obtained by compressing the original image, correcting the level-limited compressed data, and outputting corrected data. Predicting the original image based on the correction data, outputting the predicted value thereof, calculating the prediction error of the predicted value with respect to the original image, and determining the appropriateness of the correction data based on the prediction error. , And correction data obtained by repeating until the correction data becomes proper.

【0020】請求項21に記載の画像符号化装置におい
ては、分類手段は、画像を構成する画素を、その性質に
応じて所定のクラスに分類し、マッピング係数記憶手段
は、クラスごとに、所定のマッピング係数を記憶してい
る。演算手段は、画像の中の、注目している注目画素
と、その注目画素のクラスに対応するマッピング係数と
を用いて所定の演算を行うことにより、その注目画素を
補正した補正データを算出し、制限手段は、補正データ
のレベルを制限して、画像を符号化した符号化データと
するようになされている。
In the image coding apparatus according to the present invention, the classifying means classifies the pixels constituting the image into a predetermined class according to their properties, and the mapping coefficient storage means sets a predetermined class for each class. Are stored. The calculating means performs a predetermined calculation using the target pixel of interest in the image and a mapping coefficient corresponding to the class of the target pixel, thereby calculating correction data for correcting the target pixel. The restricting means restricts the level of the correction data so that the image is encoded data.

【0021】請求項29に記載の画像符号化方法におい
ては、画像を構成する画素を、その性質に応じて所定の
クラスに分類し、クラスごとに、所定のマッピング係数
を記憶しているマッピング係数記憶手段から、画像の中
の、注目している注目画素のクラスに対応するマッピン
グ係数を読み出し、そのマッピング係数と、注目画素と
を用いて所定の演算を行うことにより、その注目画素を
補正した補正データを算出し、補正データのレベルを制
限して、画像を符号化した符号化データとするようにな
されている。
In the image coding method according to the present invention, pixels constituting an image are classified into predetermined classes according to their properties, and a predetermined mapping coefficient is stored for each class. From the storage unit, the mapping coefficient corresponding to the class of the pixel of interest in the image is read out, and the pixel of interest is corrected by performing a predetermined operation using the mapping coefficient and the pixel of interest. Correction data is calculated, the level of the correction data is limited, and encoded data is obtained by encoding an image.

【0022】請求項30に記載の画像復号化装置および
請求項37に記載の画像復号化方法、請求項38に記載
の伝送方法、並びに請求項39に記載の記録媒体におい
ては、符号化データが、画像を構成する画素を、その性
質に応じて所定のクラスに分類し、クラスごとに、所定
のマッピング係数を記憶しているマッピング係数記憶手
段から、画像の中の、注目している注目画素のクラスに
対応するマッピング係数を読み出し、そのマッピング係
数と、注目画素とを用いて所定の演算を行うことによ
り、その注目画素を補正した補正データを算出し、補正
データのレベルを制限することにより得られたものとな
っている。
[0022] In the image decoding apparatus according to claim 30, the image decoding method according to claim 37, the transmission method according to claim 38, and the recording medium according to claim 39, the encoded data is The pixels constituting the image are classified into predetermined classes according to their properties, and for each class, a target pixel of interest in the image from a mapping coefficient storage unit storing a predetermined mapping coefficient. By reading out the mapping coefficient corresponding to the class of, and performing a predetermined operation using the mapping coefficient and the pixel of interest, the correction data corrected for the pixel of interest is calculated, and the level of the correction data is limited. It has been obtained.

【0023】[0023]

【発明の実施の形態】以下に、本発明の実施の形態を説
明するが、その前に、特許請求の範囲に記載の発明の各
手段と以下の実施の形態との対応関係を明らかにするた
めに、各手段の後の括弧内に、対応する実施の形態(但
し、一例)を付加して、本発明の特徴を記述すると、次
のようになる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below, but before that, the correspondence between each means of the invention described in the claims and the following embodiments will be clarified. For this reason, the features of the present invention are described as follows by adding the corresponding embodiment (however, an example) in parentheses after each means.

【0024】即ち、請求項1に記載の画像符号化装置
は、画像を符号化する画像符号化装置であって、原画像
を、その画素数を少なくすることにより圧縮する圧縮手
段(例えば、図3に示す圧縮部21など)と、原画像を
圧縮することにより得られる圧縮データのレベルを制限
する制限手段(例えば、図3に示す圧縮部21など)
と、レベルの制限された圧縮データを補正し、補正デー
タを出力する補正手段(例えば、図3に示す圧縮部21
など)と、補正データに基づいて、原画像を予測し、そ
の予測値を出力する予測手段(例えば、図3に示すロー
カルデコード部22など)と、原画像に対する、予測値
の予測誤差を算出する算出手段(例えば、図3に示す誤
差算出部23など)と、予測誤差に基づいて、補正手段
が出力する補正データの適正さを判定する判定手段(例
えば、図3に示す判定部24など)と、判定手段による
判定結果に対応して、補正データを、原画像の符号化結
果として出力する出力手段(例えば、図3に示す判定部
24など)とを備えることを特徴とする。
That is, an image coding apparatus according to claim 1 is an image coding apparatus for coding an image, wherein a compression means for compressing an original image by reducing the number of pixels (for example, FIG. 3) and limiting means for limiting the level of compressed data obtained by compressing the original image (eg, the compression unit 21 shown in FIG. 3).
Correction means for correcting the compressed data having a limited level and outputting the corrected data (for example, the compression unit 21 shown in FIG. 3).
And a prediction unit (for example, the local decoding unit 22 shown in FIG. 3) for predicting the original image based on the correction data and outputting the predicted value, and calculating a prediction error of the predicted value with respect to the original image. (For example, the error calculating unit 23 shown in FIG. 3) and a judging unit (for example, the judging unit 24 shown in FIG. 3 etc.) for judging the appropriateness of the correction data output by the correcting unit based on the prediction error. ) And an output unit (for example, the determination unit 24 shown in FIG. 3) that outputs correction data as an encoding result of the original image in accordance with the determination result by the determination unit.

【0025】請求項2に記載の画像符号化装置は、予測
手段が、補正データを、その性質に応じて所定のクラス
に分類する分類手段(例えば、図8に示すクラス分類回
路45など)と、クラスに対応して、予測値を求める予
測値演算手段(例えば、図8に示す適応処理回路46な
ど)とを有することを特徴とする。
According to a second aspect of the present invention, in the image coding apparatus, the predicting means includes a classifying means (for example, a class classifying circuit 45 shown in FIG. 8) for classifying the correction data into a predetermined class according to the property thereof. , A prediction value calculating means (for example, an adaptive processing circuit 46 shown in FIG. 8) for obtaining a prediction value corresponding to each class.

【0026】請求項3に記載の画像符号化装置は、予測
手段が、補正データとの線形結合により予測値を算出す
るための予測係数を求める予測係数演算手段(例えば、
図8に示す適応処理回路46など)と、予測係数および
補正データから、予測値を求める予測値演算手段(例え
ば、図8に示す適応処理回路46など)とを有すること
を特徴とする。
According to a third aspect of the present invention, in the image coding apparatus, the prediction means calculates a prediction coefficient for calculating a prediction value by linear combination with the correction data.
An adaptive processing circuit 46 shown in FIG. 8) and a predicted value calculating means (for example, the adaptive processing circuit 46 shown in FIG. 8) for obtaining a predicted value from a prediction coefficient and correction data are characterized.

【0027】請求項4に記載の画像符号化装置は、予測
手段が、補正データを、その性質に応じて所定のクラス
に分類する分類手段(例えば、図8に示すクラス分類回
路45など)と、補正データとの線形結合により予測値
を算出するための予測係数を、クラスごとに求める予測
係数演算手段(例えば、図8に示す適応処理回路46な
ど)と、補正データのクラスについて得られた予測係数
と、その補正データとから、予測値を求める予測値演算
手段(例えば、図8に示す適応処理回路46など)とを
有することを特徴とする。
According to a fourth aspect of the present invention, in the image coding apparatus, the predicting means includes a classifying means (for example, a class classifying circuit 45 shown in FIG. 8) for classifying the correction data into a predetermined class according to the nature of the correction data. The prediction coefficient calculation means (for example, the adaptive processing circuit 46 shown in FIG. 8) for obtaining a prediction coefficient for calculating a prediction value by linear combination with the correction data and the correction data class is obtained. It is characterized by having a predicted value calculating means (for example, an adaptive processing circuit 46 shown in FIG. 8) for obtaining a predicted value from a prediction coefficient and its correction data.

【0028】請求項6に記載の画像符号化装置は、予測
手段が、補正データとの線形結合により予測値を算出す
るための予測係数を、所定のクラスごとに記憶している
記憶手段(例えば、図17に示す予測係数ROM81な
ど)と、補正データを、その性質に応じて所定のクラス
のうちのいずれかに分類する分類手段(例えば、図17
に示すクラス分類回路45など)と、補正データのクラ
スについての予測係数と、その補正データとから、予測
値を求める予測値演算手段(例えば、図17に示す予測
回路82など)とを有することを特徴とする。
According to a sixth aspect of the present invention, in the image coding apparatus, the prediction means stores a prediction coefficient for calculating a prediction value by linear combination with the correction data for each predetermined class (for example, , A prediction coefficient ROM 81 shown in FIG. 17, and a classifying means (for example, FIG. 17) for classifying correction data into one of predetermined classes according to the nature of the correction data.
And a prediction value calculating means (for example, a prediction circuit 82 shown in FIG. 17) for obtaining a prediction value from a prediction coefficient for a class of correction data and the correction data. It is characterized by.

【0029】請求項9に記載の画像符号化装置は、補正
手段が、圧縮データを補正するための補正値を記憶して
いる記憶手段(例えば、図5に示す補正値ROM33な
ど)を有し、その補正値を用いて、圧縮データを補正す
ることを特徴とする。
According to a ninth aspect of the present invention, in the image coding apparatus, the correction means has a storage means for storing a correction value for correcting the compressed data (for example, a correction value ROM 33 shown in FIG. 5). The compressed data is corrected using the correction value.

【0030】請求項12に記載の画像復号化装置は、画
像を符号化した符号化データを復号化する画像復号化装
置であって、符号化データを受信する受信手段(例え
ば、図15に示す受信機/再生装置71など)と、符号
化データを復号化する復号化手段(例えば、図15に示
すクラス分類用ブロック化回路73、クラス分類回路7
5、予測回路76、および予測値計算用ブロック化回路
77など)とを備え、符号化データが、原画像を、その
画素数を少なくすることにより圧縮し、原画像を圧縮す
ることにより得られる圧縮データのレベルを制限し、レ
ベルの制限された圧縮データを補正して、補正データを
出力し、補正データに基づいて、原画像を予測して、そ
の予測値を出力し、原画像に対する、予測値の予測誤差
を算出し、予測誤差に基づいて、補正データの適正さを
判定することを、補正データが適正になるまで繰り返す
ことにより得られた、適正になった補正データを含むこ
とを特徴とする。
An image decoding apparatus according to a twelfth aspect is an image decoding apparatus that decodes encoded data obtained by encoding an image, and includes a receiving unit that receives the encoded data (for example, as shown in FIG. 15). A receiver / reproducing device 71) and decoding means for decoding encoded data (for example, a classifying blocking circuit 73 and a classifying circuit 7 shown in FIG. 15).
5, a prediction circuit 76, a prediction value calculation blocking circuit 77, etc.), and the encoded data is obtained by compressing the original image by reducing the number of pixels and compressing the original image. Limiting the level of the compressed data, correcting the level-limited compressed data, outputting correction data, predicting the original image based on the correction data, outputting the predicted value, Calculating the prediction error of the prediction value, and determining the correctness of the correction data based on the prediction error, including the corrected correction data obtained by repeating until the correction data becomes appropriate. Features.

【0031】請求項13に記載の画像復号化装置は、復
号化手段が、補正データを、その性質に応じて所定のク
ラスに分類する分類手段(例えば、図15に示すクラス
分類回路75など)と、クラスに対応して、予測値を求
める予測値演算手段(例えば、図15に示す予測回路7
6など)とを有することを特徴とする。
According to a thirteenth aspect of the present invention, in the image decoding apparatus, the decoding means classifies the correction data into a predetermined class according to the nature of the correction data (for example, a class classification circuit 75 shown in FIG. 15). And prediction value calculating means for obtaining a prediction value corresponding to the class (for example, the prediction circuit 7 shown in FIG. 15).
6 etc.).

【0032】請求項14に記載の画像復号化装置は、符
号化データが、補正データとの線形結合により予測値を
算出するための予測係数も含んでおり、復号化手段が、
予測係数および補正データから、予測値を求める予測値
演算手段(例えば、図15に示す予測回路76など)を
有することを特徴とする。
According to a fourteenth aspect of the present invention, in the image decoding apparatus, the encoded data also includes a prediction coefficient for calculating a prediction value by a linear combination with the correction data.
It is characterized by having a predicted value calculation means (for example, a prediction circuit 76 shown in FIG. 15) for obtaining a predicted value from a prediction coefficient and correction data.

【0033】請求項15に記載の画像復号化装置は、符
号化データが、補正データとの線形結合により予測値を
算出するための、所定のクラスごとの予測係数も含んで
おり、復号化手段が、補正データを、その性質に応じて
所定のクラスに分類する分類手段(例えば、図15に示
すクラス分類回路75など)と、補正データのクラスに
ついての予測係数と、その補正データとから、予測値を
求める予測値演算手段(例えば、図15に示す予測回路
76など)とを有することを特徴とする。
According to a fifteenth aspect of the present invention, in the image decoding apparatus, the encoded data also includes a prediction coefficient for each predetermined class for calculating a prediction value by a linear combination with the correction data. Is based on classification means (for example, a class classification circuit 75 shown in FIG. 15) for classifying the correction data into a predetermined class according to its properties, prediction coefficients for the class of the correction data, and the correction data. And a prediction value calculating means (for example, a prediction circuit 76 shown in FIG. 15) for obtaining a prediction value.

【0034】請求項16に記載の画像復号化装置は、復
号化手段が、補正データとの線形結合により予測値を算
出するための予測係数を、所定のクラスごとに記憶して
いる記憶手段(例えば、図26に示す予測係数ROM7
8など)と、補正データを、その性質に応じて所定のク
ラスのいずれかに分類する分類手段(例えば、図26に
示すクラス分類回路75など)と、補正データのクラス
についての予測係数を記憶手段から読み出し、その予測
係数と補正データとから、予測値を求める予測値演算手
段(例えば、図26に示す予測回路76など)とを有す
ることを特徴とする。
In the image decoding apparatus according to the present invention, the decoding means stores a prediction coefficient for calculating a prediction value by linear combination with correction data for each predetermined class. For example, the prediction coefficient ROM 7 shown in FIG.
8), a classifying means (for example, a class classification circuit 75 shown in FIG. 26) for classifying the correction data into one of predetermined classes according to its properties, and a prediction coefficient for the class of the correction data. A prediction value calculation means (for example, a prediction circuit 76 shown in FIG. 26) which reads out from the means and obtains a prediction value from the prediction coefficient and the correction data.

【0035】請求項21に記載の画像符号化装置は、画
像を符号化する画像符号化装置であって、画像を構成す
る画素を、その性質に応じて所定のクラスに分類する分
類手段(例えば、図27に示すクラス分類回路113な
ど)と、クラスごとに、所定のマッピング係数を記憶し
ているマッピング係数記憶手段(例えば、図27に示す
マッピング係数メモリ114など)と、画像の中の、注
目している注目画素と、その注目画素のクラスに対応す
るマッピング係数とを用いて所定の演算を行うことによ
り、その注目画素を補正した補正データを算出する演算
手段(例えば、図27に示す演算回路116など)と、
補正データのレベルを制限して、画像を符号化した符号
化データとする制限手段(例えば、図27に示すレベル
制限回路117など)とを備えることを特徴とする。
An image coding apparatus according to a twenty-first aspect is an image coding apparatus for coding an image, wherein a classifying means for classifying pixels constituting the image into a predetermined class according to their properties (for example, , A class classification circuit 113 shown in FIG. 27), a mapping coefficient storage means (for example, a mapping coefficient memory 114 shown in FIG. 27) for storing predetermined mapping coefficients for each class, A calculation unit that performs a predetermined calculation using a target pixel of interest and a mapping coefficient corresponding to the class of the target pixel to calculate correction data that corrects the target pixel (for example, as illustrated in FIG. 27). Arithmetic circuit 116, etc.)
There is provided a limiting means (for example, a level limiting circuit 117 shown in FIG. 27) for limiting the level of the correction data to convert the image into encoded data.

【0036】請求項29に記載の画像符号化方法は、画
像を符号化する画像符号化方法であって、画像を構成す
る画素を、その性質に応じて所定のクラスに分類し、ク
ラスごとに、所定のマッピング係数を記憶しているマッ
ピング係数記憶手段(例えば、図27に示すマッピング
係数メモリ114など)から、画像の中の、注目してい
る注目画素のクラスに対応するマッピング係数を読み出
し、そのマッピング係数と、注目画素とを用いて所定の
演算を行うことにより、その注目画素を補正した補正デ
ータを算出し、補正データのレベルを制限して、画像を
符号化した符号化データとすることを特徴とする。
An image encoding method according to claim 29 is an image encoding method for encoding an image, in which pixels constituting the image are classified into predetermined classes according to their properties. A mapping coefficient corresponding to the class of the pixel of interest in the image is read out from a mapping coefficient storage means (for example, the mapping coefficient memory 114 shown in FIG. 27) storing a predetermined mapping coefficient. By performing a predetermined operation using the mapping coefficient and the pixel of interest, correction data obtained by correcting the pixel of interest is calculated, and the level of the correction data is limited to obtain encoded data obtained by encoding the image. It is characterized by the following.

【0037】請求項30に記載の画像復号化装置は、画
像を符号化した符号化データを復号化する画像復号化装
置であって、符号化データを受信する受信手段(例え
ば、図37に示す受信機/再生装置191など)と、符
号化データを復号化する復号化手段(例えば、図37に
示すデコード部192など)とを備え、符号化データ
が、画像を構成する画素を、その性質に応じて第1のク
ラスのうちのいずれかに分類し、第1のクラスごとに、
所定のマッピング係数を記憶しているマッピング係数記
憶手段(例えば、図27に示すマッピング係数メモリ1
14など)から、画像の中の、注目している注目画素の
第1のクラスに対応するマッピング係数を読み出し、そ
のマッピング係数と、注目画素とを用いて所定の演算を
行うことにより、その注目画素を補正した補正データを
算出し、補正データのレベルを制限することにより得ら
れたものであることを特徴とする。
An image decoding apparatus according to claim 30 is an image decoding apparatus for decoding coded data obtained by coding an image, and a receiving means for receiving the coded data (for example, as shown in FIG. 37). A receiver / reproducing device 191) and a decoding unit (eg, a decoding unit 192 shown in FIG. 37) for decoding the encoded data. , Classified into any of the first classes, and for each first class,
A mapping coefficient storage means storing a predetermined mapping coefficient (for example, mapping coefficient memory 1 shown in FIG. 27).
14), a mapping coefficient corresponding to the first class of the target pixel of interest in the image is read out, and a predetermined operation is performed using the mapping coefficient and the target pixel to obtain the target pixel. It is characterized in that the correction data is obtained by calculating correction data obtained by correcting pixels and limiting the level of the correction data.

【0038】請求項32に記載の画像復号化装置は、復
号化手段が、符号化データとの線形結合により予測値を
算出するための予測係数を、第2のクラスごとに記憶し
ている予測係数記憶手段(例えば、図37に示す予測係
数ROM197など)と、符号化データを、その性質に
応じて第2のクラスのうちのいずれかに分類する分類手
段(例えば、図37に示すクラス分類回路196など)
と、符号化データの第2のクラスについての予測係数
を、予測係数記憶手段から読み出し、その予測係数と符
号化データとから、予測値を求める予測値演算手段(例
えば、図37に示す予測回路198など)とを有するこ
とを特徴とする。
According to a thirty-second aspect of the present invention, in the image decoding apparatus, the decoding means stores, for each of the second classes, a prediction coefficient for calculating a prediction value by a linear combination with the encoded data. A coefficient storage means (for example, the prediction coefficient ROM 197 shown in FIG. 37) and a classification means (for example, a class classification shown in FIG. 37) for classifying the coded data into one of the second classes according to its properties. Circuit 196)
And a prediction coefficient for a second class of encoded data from a prediction coefficient storage means, and a prediction value calculation means for obtaining a prediction value from the prediction coefficient and the encoded data (for example, a prediction circuit shown in FIG. 37). 198).

【0039】請求項37に記載の画像復号化方法は、画
像を符号化した符号化データを復号化する画像復号化方
法であって、符号化データが、画像を構成する画素を、
その性質に応じて所定のクラスのうちのいずれかに分類
し、クラスごとに、所定のマッピング係数を記憶してい
るマッピング係数記憶手段(例えば、図27に示すマッ
ピング係数メモリ114など)から、画像の中の、注目
している注目画素のクラスに対応するマッピング係数を
読み出し、そのマッピング係数と、注目画素とを用いて
所定の演算を行うことにより、その注目画素を補正した
補正データを算出し、補正データのレベルを制限するこ
とにより得られたものであることを特徴とする。
An image decoding method according to a thirty-seventh aspect is an image decoding method for decoding coded data obtained by coding an image, wherein the coded data includes pixels constituting the image.
The image data is classified into one of the predetermined classes according to its properties, and the image data is stored in a mapping coefficient storage unit (for example, the mapping coefficient memory 114 shown in FIG. 27) storing predetermined mapping coefficients for each class. Of the target pixel of interest, a mapping coefficient corresponding to the class of the target pixel of interest is read, and a predetermined operation is performed using the mapping coefficient and the target pixel, thereby calculating correction data for correcting the target pixel. , Which are obtained by limiting the level of the correction data.

【0040】請求項38に記載の伝送方法は、画像を符
号化した符号化データを伝送する伝送方法であって、符
号化データが、画像を構成する画素を、その性質に応じ
て所定のクラスのうちのいずれかに分類し、クラスごと
に、所定のマッピング係数を記憶しているマッピング係
数記憶手段(例えば、図27に示すマッピング係数メモ
リ114など)から、画像の中の、注目している注目画
素のクラスに対応するマッピング係数を読み出し、その
マッピング係数と、注目画素とを用いて所定の演算を行
うことにより、その注目画素を補正した補正データを算
出し、補正データのレベルを制限することにより得られ
たものであることを特徴とする。
A transmission method according to a thirty-eighth aspect of the present invention is a transmission method for transmitting coded data obtained by coding an image, wherein the coded data converts pixels constituting the image into a predetermined class according to the nature of the pixels. From the mapping coefficient storage means (for example, the mapping coefficient memory 114 shown in FIG. 27) that stores a predetermined mapping coefficient for each class. A mapping coefficient corresponding to the class of the pixel of interest is read out, and a predetermined operation is performed using the mapping coefficient and the pixel of interest, thereby calculating correction data for correcting the pixel of interest and limiting the level of the correction data. It is characterized by having been obtained by this.

【0041】請求項39に記載の記録媒体は、画像を符
号化した符号化データが記録されている記録媒体であっ
て、符号化データが、画像を構成する画素を、その性質
に応じて所定のクラスのうちのいずれかに分類し、クラ
スごとに、所定のマッピング係数を記憶しているマッピ
ング係数記憶手段(例えば、図27に示すマッピング係
数メモリ114など)から、画像の中の、注目している
注目画素のクラスに対応するマッピング係数を読み出
し、そのマッピング係数と、注目画素とを用いて所定の
演算を行うことにより、その注目画素を補正した補正デ
ータを算出し、補正データのレベルを制限することによ
り得られたものであることを特徴とする。
A recording medium according to a thirty-ninth aspect of the present invention is a recording medium on which encoded data obtained by encoding an image is recorded, wherein the encoded data specifies pixels constituting the image in accordance with a property thereof. From the mapping coefficient storage means (for example, the mapping coefficient memory 114 shown in FIG. 27) storing predetermined mapping coefficients for each class. The mapping coefficient corresponding to the class of the pixel of interest is read out, and a predetermined operation is performed using the mapping coefficient and the pixel of interest, thereby calculating correction data for correcting the pixel of interest, and setting the level of the correction data. It is characterized by being obtained by restricting.

【0042】なお、勿論この記載は、各手段を上記した
ものに限定することを意味するものではない。
Of course, this description does not mean that each means is limited to those described above.

【0043】図1は、本発明を適用した画像処理装置の
一実施の形態の構成を示している。送信装置1には、デ
ィジタル化された画像データが供給されるようになされ
ている。送信装置1は、入力された画像データを間引く
こと(その画素数を少なくすること)により圧縮、符号
化し、その結果得られる符号化データを、例えば、光デ
ィスク、光磁気ディスク、磁気テープ、相変化ディスク
その他でなる記録媒体2に記録し、または、例えば、地
上波、衛星回線、電話回線、CATV網、インターネッ
トその他の伝送路3を介して伝送する。
FIG. 1 shows the configuration of an embodiment of an image processing apparatus to which the present invention is applied. The transmitting device 1 is supplied with digitized image data. The transmission device 1 compresses and encodes the input image data by thinning out (decreasing the number of pixels), and converts the resulting encoded data into, for example, an optical disk, a magneto-optical disk, a magnetic tape, a phase change It is recorded on a recording medium 2 such as a disk or the like, or transmitted via a transmission line 3 such as a terrestrial wave, a satellite line, a telephone line, a CATV network, the Internet, or the like.

【0044】受信装置4では、記録媒体2に記録された
符号化データが再生され、または、伝送路3を介して伝
送されてくる符号化データが受信され、その符号化デー
タが伸張、復号化される。そして、その結果得られる復
号画像は、図示せぬディスプレイに供給されて表示され
る。
The receiving device 4 reproduces the encoded data recorded on the recording medium 2 or receives the encoded data transmitted via the transmission path 3, and expands and decodes the encoded data. Is done. Then, the decoded image obtained as a result is supplied to a display (not shown) and displayed.

【0045】なお、以上のような画像処理装置は、例え
ば、光ディスク装置、光磁気ディスク装置、磁気テープ
装置その他の、画像の記録/再生を行う装置、あるいは
また、例えば、テレビ電話装置、テレビジョン放送シス
テム、CATVシステムその他の、画像の伝送を行う装
置などに適用される。また、後述するように、送信装置
1が出力する符号化データのデータ量が少ないため、図
1の画像処理装置は、伝送レートの低い、例えば、携帯
電話機その他の、移動に便利な携帯端末などにも適用可
能である。
The above-described image processing apparatus is, for example, an optical disk device, a magneto-optical disk device, a magnetic tape device, or another device for recording / reproducing an image, or, for example, a videophone device, a television, or the like. The present invention is applied to a broadcast system, a CATV system, and other devices that transmit images. Further, as described later, since the data amount of the encoded data output from the transmission device 1 is small, the image processing device in FIG. 1 has a low transmission rate, such as a mobile phone or other portable terminal that is convenient for movement. Is also applicable.

【0046】図2は、送信装置1の構成例を示してい
る。
FIG. 2 shows a configuration example of the transmission device 1.

【0047】I/F(InterFace)11は、外部から供
給される画像データの受信処理と、送信機/記録装置1
6に対しての、符号化データの送信処理を行うようにな
されている。ROM(Read Only Memory)12は、IP
L(Initial Program Loading)用のプログラムその他
を記憶している。RAM(Random Access Memory)13
は、外部記憶装置15に記録されているシステムプログ
ラム(OS(Operating System))やアプリケーション
プログラムを記憶したり、また、CPU(Central Proc
essing Unit)14の動作上必要なデータを記憶するよ
うになされている。CPU14は、ROM12に記憶さ
れているIPLプログラムにしたがい、外部記憶装置1
5からシステムプログラムおよびアプリケーションプロ
グラムを、RAM13に展開し、そのシステムプログラ
ムの制御の下、アプリケーションプログラムを実行する
ことで、I/F11から供給される画像データについて
の、後述するような符号化処理を行うようになされてい
る。外部記憶装置15は、例えば、磁気ディスク装置な
どでなり、上述したように、CPU14が実行するシス
テムプログラムやアプリケーションプログラムを記憶し
ている他、CPU14の動作上必要なデータも記憶して
いる。送信機/記録装置16は、I/F11から供給さ
れる符号化データを、記録媒体2に記録し、または伝送
路3を介して伝送するようになされている。
An I / F (InterFace) 11 receives image data supplied from the outside, and transmits / receives the image data to the transmitter / recorder 1.
6 for transmitting encoded data. ROM (Read Only Memory) 12 is an IP
Stores a program for L (Initial Program Loading) and others. RAM (Random Access Memory) 13
Stores a system program (OS (Operating System)) and application programs recorded in the external storage device 15, and stores a CPU (Central Proc.)
The data required for the operation of the essing unit 14 is stored. In accordance with the IPL program stored in the ROM 12, the CPU 14
5, the system program and the application program are expanded in the RAM 13, and the application program is executed under the control of the system program, so that the encoding process described below for the image data supplied from the I / F 11 can be performed. Has been made to do. The external storage device 15 is, for example, a magnetic disk device and stores the system programs and application programs executed by the CPU 14 as described above, and also stores data necessary for the operation of the CPU 14. The transmitter / recording device 16 records encoded data supplied from the I / F 11 on the recording medium 2 or transmits the encoded data via the transmission path 3.

【0048】なお、I/F11,ROM12,RAM1
3,CPU14、および外部記憶装置15は、相互にバ
スを介して接続されている。
The I / F 11, the ROM 12, the RAM 1
3. The CPU 14 and the external storage device 15 are mutually connected via a bus.

【0049】以上のように構成される送信装置1におい
ては、I/F11に画像データが供給されると、その画
像データは、CPU14に供給される。CPU14は、
画像データを符号化し、その結果得られる符号化データ
を、I/F11に供給する。I/F11は、符号化デー
タを受信すると、それを、送信機/記録装置16に供給
する。送信機/記録装置16では、I/F11からの符
号化データが、記録媒体2に記録され、または伝送路3
を介して伝送される。
In the transmission device 1 configured as described above, when image data is supplied to the I / F 11, the image data is supplied to the CPU 14. The CPU 14
The image data is encoded, and the resulting encoded data is supplied to the I / F 11. When receiving the encoded data, the I / F 11 supplies the encoded data to the transmitter / recording device 16. In the transmitter / recording device 16, the encoded data from the I / F 11 is recorded on the recording medium 2 or the transmission path 3
Is transmitted via

【0050】図3は、図2の送信装置1の、送信機/記
録装置16を除く部分の機能的なブロック図である。
FIG. 3 is a functional block diagram of a portion of the transmitting device 1 shown in FIG. 2 except for the transmitter / recording device 16.

【0051】符号化すべき画像データは、圧縮部21、
ローカルデコード部22、および誤差算出部23に供給
されるようになされている。圧縮部21は、画像データ
を、その画素を、単純に間引くことにより圧縮するとと
もに、抽出された画素データのレベルを制限し、さら
に、その結果得られる圧縮データ(間引きとレベル制限
が行われた後の画像データ)を、判定部24からの制御
にしたがって補正するようになされている。圧縮部21
における補正の結果得られる補正データは、ローカルデ
コード部22および判定部24に供給されるようになさ
れている。
The image data to be encoded includes a compression unit 21
It is supplied to a local decoding unit 22 and an error calculating unit 23. The compression unit 21 compresses the image data by simply thinning out the pixels, limits the level of the extracted pixel data, and further obtains the resulting compressed data (thinning and level limiting are performed. The subsequent image data) is corrected under the control of the determination unit 24. Compression unit 21
The correction data obtained as a result of the correction is supplied to the local decoding unit 22 and the determination unit 24.

【0052】ローカルデコード部22は、圧縮部21か
らの補正データに基づいて、元の画像を予測し、その予
測値を、誤差算出部23に供給するようになされてい
る。なお、ローカルデコード部22は、後述するよう
に、補正データとの線形結合により、予測値を算出する
ための予測係数を求める処理を行い、その予測係数に基
づいて、予測値を求める適応処理を行うようになされて
おり、上述したように、予測値を、誤差算出部23に供
給する他、そのとき求めた予測係数を、判定部24に供
給するようにもなされている。
The local decoding section 22 predicts an original image based on the correction data from the compression section 21 and supplies the predicted value to the error calculation section 23. Note that, as described later, the local decoding unit 22 performs a process of obtaining a prediction coefficient for calculating a prediction value by linear combination with correction data, and performs an adaptive process of calculating a prediction value based on the prediction coefficient. As described above, the prediction value is supplied to the error calculation unit 23, and the prediction coefficient obtained at that time is supplied to the determination unit 24, as described above.

【0053】誤差算出部23は、そこに入力される、元
の画像データ(原画像)に対する、ローカルデコード部
22からの予測値の予測誤差を算出するようになされて
いる。この予測誤差は、誤差情報として、判定部24に
供給されるようになされている。
The error calculator 23 calculates the prediction error of the prediction value from the local decoder 22 with respect to the original image data (original image) input thereto. This prediction error is supplied to the determination unit 24 as error information.

【0054】判定部24は、誤差算出部23からの誤差
情報に基づいて、圧縮部21が出力した補正データを、
元の画像の符号化結果とすることの適正さを判定するよ
うになされている。そして、判定部24は、圧縮部21
が出力した補正データを、元の画像の符号化結果とする
ことが適正でないと判定した場合には、圧縮部21を制
御し、さらに、圧縮データを補正させ、その結果得られ
る新たな補正データを出力させるようになされている。
また、判定部24は、圧縮部21が出力した補正データ
を、元の画像の符号化結果とすることが適正であると判
定した場合には、圧縮部21から供給された補正データ
を、最適な圧縮データ(以下、適宜、最適圧縮データと
いう)として多重化部25に供給するとともに、ローカ
ルデコード部22から供給された予測係数を多重化部2
5に供給するようになされている。
The determination section 24 converts the correction data output from the compression section 21 based on the error information from the error calculation section 23 into
It is determined whether the encoding result of the original image is appropriate. Then, the determination unit 24 determines whether the compression unit 21
If it is determined that the output of the correction data is not appropriate as the encoding result of the original image, the compression unit 21 is controlled, the compressed data is further corrected, and new correction data obtained as a result is obtained. Is output.
If the determination unit 24 determines that it is appropriate to use the correction data output from the compression unit 21 as the encoding result of the original image, the determination unit 24 optimizes the correction data supplied from the compression unit 21. Multiplexed data (hereinafter, appropriately referred to as optimal compressed data) to the multiplexing unit 25 and the prediction coefficients supplied from the local decoding unit 22 to the multiplexing unit 2.
5.

【0055】多重化部25は、判定部24からの最適圧
縮データ(補正データ)と、予測係数とを多重化し、そ
の多重化結果を、符号化データとして、送信機/記録装
置16(図2)に供給するようになされている。
The multiplexing unit 25 multiplexes the optimum compression data (correction data) from the determination unit 24 and the prediction coefficients, and uses the multiplexed result as encoded data as the transmitter / recording device 16 (FIG. 2). ).

【0056】次に、図4のフローチャートを参照して、
その動作について説明する。圧縮部21に対して、画像
データが供給されると、圧縮部21は、ステップS1に
おいて、その画像データを間引く(複数の画素から少な
い数の画素を抽出する)ことにより圧縮する。また、抽
出された画素データのレベルを、ステップS2におい
て、MSB側の2ビットを抽出することで制限する。そ
して、この画素データを、最初は、補正を行わずに、ロ
ーカルデコード部22および判定部24に出力する。ロ
ーカルデコード部22では、ステップS3において、圧
縮部21からの補正データ(最初は、上述したように、
画像データを、単純に間引き、かつ、レベル制限した圧
縮データそのもの)がローカルデコードされる。
Next, referring to the flowchart of FIG.
The operation will be described. When the image data is supplied to the compression unit 21, the compression unit 21 compresses the image data by thinning out (extracting a small number of pixels from a plurality of pixels) in step S1. Further, the level of the extracted pixel data is limited by extracting two bits on the MSB side in step S2. Then, the pixel data is initially output to the local decoding unit 22 and the determination unit 24 without performing correction. In the local decoding unit 22, in step S3, the correction data from the compression unit 21 (initially, as described above,
The image data is simply thinned out and the level-limited compressed data itself) is locally decoded.

【0057】即ち、ステップS3では、圧縮部21から
の補正データとの線形結合により、元の画像の予測値を
算出するための予測係数を求める処理が行われ、その予
測係数に基づいて、予測値を求める適応処理が行われ
る。ローカルデコード部22において求められた予測値
は誤差算出部23に、また、予測係数は判定部24に供
給される。
That is, in step S3, a process of obtaining a prediction coefficient for calculating a prediction value of the original image is performed by linear combination with the correction data from the compression unit 21, and the prediction is performed based on the prediction coefficient. An adaptive process for finding a value is performed. The prediction value obtained by the local decoding unit 22 is supplied to an error calculation unit 23, and the prediction coefficient is supplied to a determination unit 24.

【0058】ここで、ローカルデコード部22が出力す
る予測値で構成される画像は、受信装置4(図1)側に
おいて得られる復号画像と同一のものである。
Here, the image composed of the predicted values output from the local decoding unit 22 is the same as the decoded image obtained on the receiving device 4 (FIG. 1) side.

【0059】誤差算出部23は、ローカルデコード部2
2から、元の画像の予測値を受信すると、ステップS4
において、元の画像データに対する、ローカルデコード
部22からの予測値の予測誤差を算出し、誤差情報とし
て、判定部24に供給する。判定部24は、誤差算出部
23から誤差情報を受信すると、ステップS5におい
て、その誤差情報に基づいて、圧縮部21が出力した補
正データを、元の画像の符号化結果とすることの適正さ
を判定する。
The error calculator 23 is provided with the local decoder 2
When the predicted value of the original image is received from Step 2, Step S 4
In, the prediction error of the prediction value from the local decoding unit 22 with respect to the original image data is calculated, and is supplied to the determination unit 24 as error information. Upon receiving the error information from the error calculation unit 23, the determination unit 24 determines in step S5 whether the correction data output from the compression unit 21 is used as the encoding result of the original image based on the error information. Is determined.

【0060】即ち、ステップS5においては、誤差情報
が所定の閾値ε以下であるかどうかが判定される。ステ
ップS5において、誤差情報が所定の閾値ε以下でない
と判定された場合、圧縮部21が出力した補正データ
を、元の画像の符号化データとするのは適正でないと認
識され、ステップS6に進み、判定部24は、圧縮部2
1を制御し、これにより、圧縮データを補正させる。圧
縮部21は、判定部24の制御にしたがって、補正量
(後述する補正値△)を変えて、圧縮データを補正し、
その結果得られる補正データを、ローカルデコード部2
2および判定部24に出力する。そして、ステップS3
に戻り、以下、同様の処理が繰り返される。
That is, in step S5, it is determined whether or not the error information is equal to or less than a predetermined threshold ε. If it is determined in step S5 that the error information is not less than or equal to the predetermined threshold ε, it is recognized that it is not appropriate to use the correction data output from the compression unit 21 as the encoded data of the original image, and the process proceeds to step S6. , The determination unit 24 determines that the compression unit 2
1 to thereby correct the compressed data. The compression unit 21 corrects the compressed data by changing the correction amount (correction value す る described later) under the control of the determination unit 24,
The resulting correction data is sent to the local decoding unit 2
2 and to the determination unit 24. Then, step S3
And the same processing is repeated thereafter.

【0061】一方、ステップS5において、誤差情報が
所定の閾値ε以下であると判定された場合、圧縮部21
が出力した補正データを、元の画像の符号化結果とする
のは適正であると認識され、判定部24は、所定の閾値
ε以下の誤差情報が得られたときの補正データを、最適
圧縮データとして、予測係数とともに、多重化部25に
出力する。多重化部25では、ステップS7において、
判定部24からの最適圧縮データと予測係数とが多重化
され、その結果得られる符号化データが出力されて、処
理を終了する。
On the other hand, if it is determined in step S5 that the error information is equal to or smaller than the predetermined threshold ε, the compression unit 21
It is recognized that it is appropriate to use the correction data output by the unit as the encoding result of the original image, and the determination unit 24 converts the correction data obtained when error information equal to or less than the predetermined threshold The data is output to the multiplexing unit 25 together with the prediction coefficients as data. In the multiplexing unit 25, in step S7,
The optimally compressed data and the prediction coefficient from the determination unit 24 are multiplexed, and the encoded data obtained as a result is output, and the process ends.

【0062】以上のように、誤差情報が所定の閾値ε以
下となったときにおける、圧縮データを補正した補正デ
ータを、元の画像の符号化結果とするようにしたので、
受信装置4側においては、その補正データに基づいて、
元の画像(原画像)とほぼ同一の画像を得ることが可能
となる。
As described above, when the error information becomes equal to or less than the predetermined threshold value ε, the corrected data obtained by correcting the compressed data is used as the encoding result of the original image.
On the receiving device 4 side, based on the correction data,
An image almost identical to the original image (original image) can be obtained.

【0063】次に、図5は、図3の圧縮部21の構成例
を示している。
FIG. 5 shows an example of the configuration of the compression section 21 shown in FIG.

【0064】符号化すべき画像データは、間引き回路3
0に入力されるようになされており、間引き回路30
は、入力された画像データを1/Nに間引くようになさ
れている。従って、間引き回路30からは、画像データ
を、1/Nに圧縮した圧縮データが出力されるようにな
されている。この圧縮データは、レベル制限回路31に
入力され、例えば8ビットで表される各画素データのM
SB側の2ビットだけを抽出することで、そのレベルが
制限された後、補正回路32に供給されるようになされ
ている。
The image data to be encoded is stored in the thinning circuit 3
0, and is input to the thinning circuit 30.
Is designed to thin out the input image data to 1 / N. Therefore, the thinning circuit 30 outputs compressed data obtained by compressing image data to 1 / N. This compressed data is input to the level limiting circuit 31, and for example, the M of each pixel data represented by 8 bits
By extracting only the two bits on the SB side, the level is limited and then supplied to the correction circuit 32.

【0065】補正回路32は、判定部24(図3)から
の制御信号にしたがって、補正値ROM33にアドレス
を与え、これにより、補正値△を読み出すようになされ
ている。そして、補正回路32は、レベル制限回路31
からの圧縮データに対して、補正値ROM33からの補
正値△を、例えば加算することで、補正データを生成
し、ローカルデコード部22および判定部24に供給す
るようになされている。補正値ROM33は、レベル制
限回路31が出力する圧縮データを補正するための、各
種の補正値△の組合せ(例えば、1フレーム分の圧縮デ
ータを補正するための補正値の組合せなど)を記憶して
おり、補正回路32から供給されるアドレスに対応する
補正値△の組合せを読み出して、補正回路32に供給す
るようになされている。
The correction circuit 32 gives an address to the correction value ROM 33 in accordance with the control signal from the determination section 24 (FIG. 3), and reads out the correction value △. Then, the correction circuit 32 includes the level limiting circuit 31
For example, by adding a correction value △ from the correction value ROM 33 to the compressed data from, the correction data is generated and supplied to the local decoding unit 22 and the determination unit 24. The correction value ROM 33 stores a combination of various correction values △ (for example, a combination of correction values for correcting one frame of compressed data) for correcting the compressed data output from the level limiting circuit 31. The combination of the correction value △ corresponding to the address supplied from the correction circuit 32 is read and supplied to the correction circuit 32.

【0066】次に、図6を参照して、図5の圧縮部21
の処理について説明する。
Next, referring to FIG. 6, the compression unit 21 shown in FIG.
Will be described.

【0067】例えば、1フレーム分などの画像データ
が、間引き回路30に供給されると、間引き回路30
は、ステップS11において、その画像データを1/N
に間引き、その結果得られる圧縮データを、レベル制限
回路31に出力する。
For example, when image data for one frame or the like is supplied to the thinning circuit 30, the thinning circuit 30
Calculates the image data in step S11 as 1 / N
And outputs the resulting compressed data to the level limiting circuit 31.

【0068】ここで、間引き回路30は、図7に示すよ
うに、画像データを、例えば、1/9に間引くようにな
されている。即ち、間引き回路30は、3×3(横×
縦)の9画素を1単位とし、各単位の中心の画素(同図
において、●印で示す部分)についての画素値のみを抽
出し、他の部分(同図において、○印で示す部分)を削
除する。なお、間引き回路30は、以上のような処理
を、例えば、1フレーム(フィールド)単位で行うよう
になされている。従って、間引き回路30からレベル制
限回路31に対しては、1フレームの画像データが1/
9に間引きされた圧縮データとして供給される。但し、
間引き回路30における間引き処理は、その他、1フレ
ームの画像を幾つかのブロックに分割し、そのブロック
単位で行うようにすることも可能である。
Here, as shown in FIG. 7, the thinning circuit 30 thins the image data to, for example, 1/9. That is, the thinning circuit 30 is 3 × 3 (horizontal ×
9 pixels (vertical) are defined as one unit, and only the pixel value of the pixel at the center of each unit (indicated by a black circle in the figure) is extracted, and the other parts (indicated by a circle in the figure) Remove. Note that the thinning circuit 30 performs the above-described processing in units of one frame (field), for example. Therefore, from the thinning circuit 30 to the level limiting circuit 31, one frame of image data is 1 /
9 is supplied as compressed data thinned out. However,
In addition, the thinning process in the thinning circuit 30 may be performed by dividing an image of one frame into several blocks and performing the block unit.

【0069】レベル制限回路31は、間引き回路30か
ら、1/9に間引かれた画素データの供給を受けると、
8ビットで表されている画素データのMSB側から2ビ
ットを抽出することでレベルを制限する。すなわち、こ
れにより、各画素データは2ビットで表されることにな
り、その後の処理が簡単となる。
When the level limiting circuit 31 receives the supply of the pixel data thinned out by 1/9 from the thinning circuit 30,
The level is limited by extracting 2 bits from the MSB side of the pixel data represented by 8 bits. That is, each pixel data is represented by two bits, thereby simplifying the subsequent processing.

【0070】補正回路32は、レベル制限回路31から
圧縮データを受信すると、ステップS13において、判
定部24(図3)から制御信号を受信したかどうかを判
定する。ステップS13において、制御信号を受信して
いないと判定された場合、ステップS16に進み、補正
回路32は、レベル制限回路31からの圧縮データを、
そのまま補正データとして、ローカルデコード部22お
よび判定部24に出力し、ステップS13に戻る。
Upon receiving the compressed data from the level limiting circuit 31, the correction circuit 32 determines in step S13 whether a control signal has been received from the determination unit 24 (FIG. 3). If it is determined in step S13 that the control signal has not been received, the process proceeds to step S16, where the correction circuit 32 converts the compressed data from the level limiting circuit 31 into
The correction data is output as it is to the local decoding unit 22 and the determination unit 24, and the process returns to step S13.

【0071】即ち、判定部24は、上述したように、誤
差情報に基づいて、圧縮部21(補正回路32)を制御
するようになされており、レベル制限回路31から圧縮
データが出力された直後は、まだ、誤差情報が得られな
いため(誤差情報が、誤差算出部23から出力されない
ため)、判定部24からは制御信号は出力されない。こ
のため、レベル制限回路31から圧縮データが出力され
た直後は、補正回路32は、その圧縮データを補正せず
(0を加算する補正をして)、そのまま補正データとし
て、ローカルデコード部22および判定部24に出力す
る。
That is, as described above, the determination section 24 controls the compression section 21 (correction circuit 32) based on the error information, and immediately after the compressed data is output from the level limiting circuit 31, Since no error information is obtained yet (because the error information is not output from the error calculation unit 23), no control signal is output from the determination unit 24. For this reason, immediately after the compressed data is output from the level limiting circuit 31, the correction circuit 32 does not correct the compressed data (corrects by adding 0), and uses the local decode unit 22 and Output to the determination unit 24.

【0072】一方、ステップS13において、判定部2
4からの制御信号を受信したと判定された場合、ステッ
プS14において、補正回路32は、その制御信号にし
たがったアドレスを、補正値ROM33に出力する。こ
れにより、ステップS14では、補正値ROM33か
ら、そのアドレスに記憶されている、1フレーム分の圧
縮データを補正するための補正値△の組合せ(集合)が
読み出され、補正回路32に供給される。補正回路32
は、補正値ROM33から補正値△の組合せを受信する
と、ステップS15において、1フレームの圧縮データ
それぞれに、対応する補正値△を加算し、これにより、
圧縮データを補正した補正データを算出する。その後
は、ステップS16に進み、補正データが、補正回路3
2からローカルデコード部22および判定部24に出力
され、ステップS13に戻る。
On the other hand, in step S13, the judgment unit 2
If it is determined that the control signal from the control signal 4 has been received, the correction circuit 32 outputs the address according to the control signal to the correction value ROM 33 in step S14. Thereby, in step S14, a combination (set) of correction values △ for correcting one frame of compressed data stored at the address is read from the correction value ROM 33 and supplied to the correction circuit 32. You. Correction circuit 32
Receives the combination of the correction values か ら from the correction value ROM 33, adds the corresponding correction value に to each of the compressed data of one frame in step S15,
Correction data obtained by correcting the compressed data is calculated. Thereafter, the process proceeds to step S16, in which the correction data is
2 to the local decoding unit 22 and the determination unit 24, and the process returns to step S13.

【0073】以上のようにして、圧縮部21は、判定部
24の制御にしたがって、圧縮データを、種々の値に補
正した補正データを出力することを繰り返す。
As described above, under the control of the determination unit 24, the compression unit 21 repeatedly outputs the corrected data obtained by correcting the compressed data to various values.

【0074】なお、判定部24は、1フレームの画像に
ついての符号化を終了すると、その旨を表す制御信号
を、圧縮部21に供給するようになされており、圧縮部
21では、ステップS13において、そのような制御信
号を受信したかどうかも判定されるようになされてい
る。ステップS13において、1フレームの画像につい
ての符号化が終了した旨の制御信号を受信したと判定さ
れた場合、次のフレームの画像が供給されるのを待っ
て、ステップS11に戻り、ステップS11からの処理
が繰り返される。
When the coding of one frame image is completed, the judging unit 24 supplies a control signal indicating this to the compressing unit 21. It is also determined whether such a control signal has been received. If it is determined in step S13 that a control signal indicating that encoding of one frame of image has been completed has been received, the process returns to step S11 after waiting for the supply of the image of the next frame, and returns to step S11. Is repeated.

【0075】また、上述の場合においては、間引き回路
30に、3×3画素の中心の画素についての画素データ
(画素値)のみを抽出させることにより、圧縮データを
生成させるようにしたが、その他、例えば、3×3画素
の平均値を算出し、その平均値を、3×3画素の中心の
画素の画素値として、圧縮データを生成させるようにす
ることなども可能である。
Further, in the above-described case, the compressed data is generated by causing the thinning circuit 30 to extract only the pixel data (pixel value) of the center pixel of the 3 × 3 pixels. For example, it is also possible to calculate the average value of 3 × 3 pixels and generate the compressed data using the average value as the pixel value of the pixel at the center of the 3 × 3 pixels.

【0076】次に、図8は、図3のローカルデコード部
22の構成例を示している。
FIG. 8 shows an example of the configuration of the local decoding section 22 shown in FIG.

【0077】圧縮部21からの補正データは、クラス分
類用ブロック化回路41および予測値計算用ブロック化
回路42に供給されるようになされている。クラス分類
用ブロック化回路41は、補正データを、その性質に応
じて所定のクラスに分類するための単位である、注目さ
れる補正データ(画素)(注目補正データ)を中心とし
たクラス分類用ブロックにブロック化するようになされ
ている。
The correction data from the compression unit 21 is supplied to a class classification blocking circuit 41 and a predicted value calculation blocking circuit 42. The class classification blocking circuit 41 is a unit for classifying the correction data into a predetermined class according to the property thereof, and is a unit for class classification centering on the target correction data (pixel) (target correction data). It is made into blocks.

【0078】即ち、いま、図7において、上からi番目
で、左からj番目の補正データ(圧縮データ)(または
画素)(図中、●印で示す部分)をXijと表すとする
と、クラス分類用ブロック化回路41は、注目画素(注
目補正データ)Xijの上、左、右、下に隣接する4つの
画素X(i-1)j,Xi(j-1),Xi(j+1),X(i-1)jに、自身
を含め、合計5画素で構成されるクラス分類用ブロック
を構成するようになされている。このクラス分類用ブロ
ックは、クラス分類適応処理回路43に供給されるよう
になされている。
That is, in FIG. 7, if the i-th correction data (compressed data) (or pixel) (or pixel) (the portion indicated by a black circle in the figure) from the top is represented by Xij , The classifying blocking circuit 41 includes four pixels X (i-1) j , X i (j-1) , and X i adjacent to the pixel of interest (correction data of interest) X ij above, left, right, and below. (j + 1) and X (i-1) j , including the self, constitute a class classification block composed of a total of 5 pixels. The classification block is supplied to the classification adaptive processing circuit 43.

【0079】なお、この場合、クラス分類用ブロック
は、十文字形に配列されている画素でなるブロックで構
成されることとなるが、クラス分類用ブロックの形状
は、十文字形である必要はなく、その他、例えば、長方
形、正方形、その他の任意な形とすることが可能であ
る。また、クラス分類用ブロックを構成する画素数も、
5画素に限定されるものではない。
In this case, the class classification block is composed of blocks composed of pixels arranged in a cross shape, but the shape of the class classification block does not need to be a cross shape. In addition, for example, the shape can be a rectangle, a square, or any other shape. Also, the number of pixels that make up the class classification block is
It is not limited to five pixels.

【0080】予測値計算用ブロック化回路42は、補正
データを、元の画像の予測値を計算するための単位であ
る、注目補正データを中心とした予測値計算用ブロック
にブロック化するようになされている。即ち、いま、図
7において、補正データXij(図中、●印で示す部分)
を中心とする、元の画像(原画像)における3×3の9
画素の画素値を、その最も左から右方向、かつ上から下
方向に、Yij(1),Yij(2),Yij(3),Y
ij(4),Yij(5),Yij(6),Yij(7),Yij
(8),Yij(9)と表すとすると、画素Yij(1)乃
至Yij(9)の予測値の計算のために、予測値計算用ブ
ロック化回路42は、例えば、画素Xijを中心とする5
×5の25画素X(i-2)(j-2),X(i-2)(j-1)
(i-2)j,X(i-2)(j+ 1),X(i-2)(j+2)
(i-1)(j-2),X(i-1)(j-1),X(i-1)j
(i-1)(j+1),X(i-1)(j+2),Xi(j-2),Xi(j-1),X
ij,Xi(j+1),Xi(j+2),X(i+1)(j-2)
(i+1)(j-1),X(i+1)j,X(i+1)(j+1)
(i+1)(j+2),X(i+2)(j-2),X(i+2 )(j-1)
(i+2)j,X(i+2)(j+1),X(i+2)(j+2)で構成される正
方形状の予測値計算用ブロックを構成するようになされ
ている。
The prediction value calculation blocking circuit 42 blocks the correction data into a prediction value calculation block centering on the target correction data, which is a unit for calculating the prediction value of the original image. It has been done. In other words, now, in FIG. 7, the correction data X ij (the part indicated by the mark ● in the figure)
3 × 3 9 in the original image (original image)
The pixel value of a pixel is calculated from the leftmost to the right and from the top down to Yij (1), Yij (2), Yij (3), Y
ij (4), Y ij (5), Y ij (6), Y ij (7), Y ij
(8) and Y ij (9), the prediction value calculation blocking circuit 42 calculates the prediction values of the pixels Y ij (1) to Y ij (9) by, for example, the pixel X ij 5 around
× 5 25 pixels X (i-2) (j-2) , X (i-2) (j-1) ,
X (i-2) j , X (i-2) (j + 1) , X (i-2) (j + 2) ,
X (i-1) (j-2) , X (i-1) (j-1) , X (i-1) j ,
X (i-1) (j + 1) , X (i-1) (j + 2) , Xi (j-2) , Xi (j-1) , X
ij , Xi (j + 1) , Xi (j + 2) , X (i + 1) (j-2) ,
X (i + 1) (j-1) , X (i + 1) j , X (i + 1) (j + 1) ,
X (i + 1) (j + 2) , X (i + 2) (j-2) , X (i + 2 ) (j-1) ,
X (i + 2) j , X (i + 2) (j + 1) , and X (i + 2) (j + 2) constitute a square-like predicted value calculation block. I have.

【0081】具体的には、例えば、図7において四角形
で囲む、元の画像における画素Y33(1)乃至Y
33(9)の予測値の計算のためには、画素X11,X12
13,X14,X15,X21,X22,X23,X24,X25,X
31,X32,X33,X34,X35,X41,X42,X43
44,X45,X51,X52,X53,X54,X55により、予
測値計算用ブロックが構成される。
Specifically, for example, pixels Y 33 (1) to Y 33 in the original image, which are surrounded by a square in FIG.
33 For the calculation of the predicted value of (9), the pixels X 11 , X 12 ,
X 13, X 14, X 15 , X 21, X 22, X 23, X 24, X 25, X
31 , X32 , X33 , X34 , X35 , X41 , X42 , X43 ,
X44 , X45 , X51 , X52 , X53 , X54 , and X55 form a prediction value calculation block.

【0082】予測値計算用ブロック化回路42において
得られた予測値計算用ブロックは、クラス分類適応処理
回路43に供給されるようになされている。
The predicted value calculation block obtained by the predicted value calculation blocking circuit 42 is supplied to a classification adaptive processing circuit 43.

【0083】なお、予測値計算用ブロックについても、
クラス分類用ブロックにおける場合と同様に、その画素
数および形状は、上述したものに限定されるものではな
い。但し、予測値計算用ブロックを構成する画素数は、
クラス分類用ブロックを構成する画素数よりも多くする
のが望ましい。
Note that the predicted value calculation block is also
As in the case of the class classification block, the number and shape of the pixels are not limited to those described above. However, the number of pixels constituting the predicted value calculation block is
It is desirable that the number of pixels is larger than the number of pixels constituting the class classification block.

【0084】また、上述のようなブロック化を行う場合
において(ブロック化以外の処理についても同様)、画
像の画枠付近では、対応する画素が存在しないことがあ
るが、この場合には、例えば、画枠を構成する画素と同
一の画素が、その外側に存在するものとして処理を行
う。
In the case of performing the above-described blocking (the same applies to processing other than blocking), there is a case where there is no corresponding pixel near the image frame of the image. In this case, for example, The processing is performed assuming that the same pixel as the pixel forming the image frame exists outside the pixel.

【0085】クラス分類適応処理43は、クラス分類回
路45および適応処理46で構成され、クラス分類適応
処理を行うようになされている。
The class classification adaptive processing 43 is composed of a class classification circuit 45 and an adaptive processing 46, and performs a class classification adaptive processing.

【0086】クラス分類適応処理とは、入力信号を、そ
の特徴に基づいて幾つかのクラスに分類し、各クラスの
入力信号に、そのクラスに適切な適応処理を施すもの
で、大きく、クラス分類処理と適応処理とに分かれてい
る。
The class classification adaptive process is a process of classifying an input signal into several classes based on the characteristics thereof and performing an appropriate adaptive process on the input signal of each class for the class. It is divided into processing and adaptive processing.

【0087】ここで、クラス分類処理および適応処理に
ついて簡単に説明する。
Here, the classification process and the adaptation process will be briefly described.

【0088】まず、クラス分類処理について説明する。First, the class classification processing will be described.

【0089】いま、例えば、図9(A)に示すように、
ある注目画素と、それに隣接する3つの画素により、2
×2画素でなるブロック(クラス分類用ブロック)を構
成し、また、各画素は、1ビットで表現される(0また
は1のうちのいずれかのレベルをとる)ものとする。こ
の場合、2×2の4画素のブロックは、各画素のレベル
分布により、図9(B)に示すように、16(=
(214)パターンに分類することができる。このよう
なパターン分けが、クラス分類処理であり、クラス分類
回路45において行われる。
Now, for example, as shown in FIG.
By a certain pixel of interest and three pixels adjacent thereto, 2
A block (class classification block) composed of × 2 pixels is formed, and each pixel is represented by 1 bit (takes any level of 0 or 1). In this case, as shown in FIG. 9B, a block of 4 pixels of 2 × 2 has 16 (=
(2 1 ) 4 ) Can be classified into patterns. Such pattern division is class classification processing, and is performed in the class classification circuit 45.

【0090】なお、クラス分類処理は、画像(ブロック
内の画像)のアクティビティ(画像の複雑さ)(変化の
激しさ)などをも考慮して行うようにすることが可能で
ある。
The class classification process can be performed in consideration of the activity (complexity of the image) (the degree of change) of the image (the image in the block).

【0091】ここで、通常、元の画素には、例えば8ビ
ット程度が割り当てられる。また、本実施の形態におい
ては、上述したように、クラス分類用ブロックは、5画
素で構成される。従って、このようなクラス分類用ブロ
ックを元の(8ビットの)画素で構成し、クラス分類処
理を行ったのでは、(285という膨大な数のクラスに
分類されることになる。
Here, usually, for example, about 8 bits are assigned to the original pixel. Further, in the present embodiment, as described above, the class classification block includes five pixels. Therefore, if such a class classification block is composed of the original (8-bit) pixels and the class classification processing is performed, the blocks are classified into an enormous number of (2 8 ) 5 classes.

【0092】一方、本実施の形態では、上述したよう
に、レベル制限回路31において、画素のビット数を小
さくしており(8ビットから2ビットにしており)、こ
れにより、クラス数を削減する(1024(=
(225)にする)ことができる。
On the other hand, in the present embodiment, as described above, the number of bits of pixels is reduced (from 8 bits to 2 bits) in the level limiting circuit 31, thereby reducing the number of classes. (1024 (=
(2 2 ) 5 )).

【0093】次に、適応処理について説明する。Next, the adaptive processing will be described.

【0094】例えば、いま、元の画像の画素値yの予測
値E[y]を、その周辺の幾つかの画素の画素値(以
下、適宜、学習データという)x1,x2,・・・と、所
定の予測係数w1,w2,・・・の線形結合により規定さ
れる線形1次結合モデルにより求めることを考える。こ
の場合、予測値E[y]は、次式で表すことができる。
For example, the predicted value E [y] of the pixel value y of the original image is now converted into the pixel values of some pixels around it (hereinafter, appropriately referred to as learning data) x 1 , x 2 ,. .. And a linear first-order combination model defined by a linear combination of predetermined prediction coefficients w 1 , w 2 ,... In this case, the predicted value E [y] can be expressed by the following equation.

【0095】 E[y]=w11+w22+・・・+w2525+w0 ・・・(1) 但し、w0は、本来8ビットのデータxiを、その下位6
ビットを削除して、2ビットのデータに変換したので、
E[y]を8ビットで表現するために加算される、その
下位6ビットに対応する、いわばオフセットの項(オフ
セット係数)である。なお、オフセット係数w0は、予
測係数w1,w2,・・・と同様に、予測値を求めるため
の係数であるから、以下、適宜、予測係数に含めて扱う
こととする。但し、ここでは、説明を簡単にするため
に、オフセット係数w0を無視して、適応処理を説明す
る。
E [y] = w 1 x 1 + w 2 x 2 +... + W 25 x 25 + w 0 (1) where w 0 is originally 8-bit data x i and lower 6 bits
Since the bits were deleted and converted to 2-bit data,
It is a so-called offset term (offset coefficient) corresponding to the lower 6 bits added to express E [y] with 8 bits. Since the offset coefficient w 0 is a coefficient for obtaining a predicted value, like the prediction coefficients w 1 , w 2 ,..., The offset coefficient w 0 will be appropriately included in the prediction coefficients. However, here, for simplicity of explanation, the adaptive processing will be described ignoring the offset coefficient w 0 .

【0096】いま、予測係数wの集合でなる行列W、学
習データの集合でなる行列X、および予測値E[y]の
集合でなる行列Y’を、
Now, a matrix W composed of a set of prediction coefficients w, a matrix X composed of a set of learning data, and a matrix Y ′ composed of a set of predicted values E [y] are

【数1】 で定義すると、次のような観測方程式が成立する。(Equation 1) Defines the following observation equation.

【0097】 XW=Y’ ・・・(2)XW = Y ′ (2)

【0098】そして、この観測方程式に最小自乗法を適
用して、元の画像の画素値yに近い予測値E[y]を求
めることを考える。この場合、元の画像の画素値(以
下、適宜、教師データという)yの集合でなる行列Y、
および元の画像の画素値yに対する予測値E[y]の残
差eの集合でなる行列Eを、
Then, it is considered that a least square method is applied to this observation equation to obtain a predicted value E [y] close to the pixel value y of the original image. In this case, a matrix Y composed of a set of pixel values y of the original image (hereinafter, appropriately referred to as teacher data),
And a matrix E consisting of a set of residuals e of the predicted values E [y] for the pixel values y of the original image,

【数2】 で定義すると、式(2)から、次のような残差方程式が
成立する。
(Equation 2) From equation (2), the following residual equation is established.

【0099】 XW=Y+E ・・・(3)XW = Y + E (3)

【0100】この場合、元の画像の画素値yに近い予測
値E[y]を求めるための予測係数wiは、自乗誤差
In this case, the prediction coefficient w i for obtaining a prediction value E [y] close to the pixel value y of the original image is a square error

【数3】 を最小にすることで求めることができる。(Equation 3) Can be obtained by minimizing.

【0101】従って、上述の自乗誤差を予測係数wi
微分したものが0になる場合、即ち、次式を満たす予測
係数wiが、元の画像の画素値yに近い予測値E[y]
を求めるため最適値ということになる。
Therefore, when the above-described squared error is differentiated by the prediction coefficient w i to be 0, that is, the prediction coefficient w i that satisfies the following equation is a prediction value E [y that is close to the pixel value y of the original image. ]
Is the optimum value.

【0102】[0102]

【数4】 ・・・(4)(Equation 4) ... (4)

【0103】そこで、まず、式(3)を、予測係数wi
で微分することにより、次式が成立する。
Therefore, first, the equation (3) is calculated using the prediction coefficient w i
By differentiating with, the following equation is established.

【0104】[0104]

【数5】 ・・・(5)(Equation 5) ... (5)

【0105】式(4)および(5)より、式(6)が得
られる。
From equations (4) and (5), equation (6) is obtained.

【0106】[0106]

【数6】 ・・・(6)(Equation 6) ... (6)

【0107】さらに、式(3)の残差方程式における学
習データx、予測係数w、教師データy、および残差e
の関係を考慮すると、式(6)から、次のような正規方
程式を得ることができる。
Further, the learning data x, the prediction coefficient w, the teacher data y, and the residual e in the residual equation of the equation (3) are obtained.
In consideration of the relationship, the following normal equation can be obtained from Expression (6).

【0108】[0108]

【数7】 ・・・(7)(Equation 7) ... (7)

【0109】式(7)の正規方程式は、求めるべき予測
係数wの数と同じ数だけたてることができ、従って、式
(7)を解くことで、最適な予測係数wを求めることが
できる。式(7)を解くにあたっては、例えば、掃き出
し法(Gauss-Jordanの消去法)などを適用することが可
能である。
The normal equation of equation (7) can be set by the same number as the number of prediction coefficients w to be obtained. Therefore, by solving equation (7), the optimum prediction coefficient w can be obtained. . In solving equation (7), for example, a sweeping-out method (Gauss-Jordan elimination method) or the like can be applied.

【0110】なお、以上の説明したことを、オフセット
係数w0を含めた形に拡張することで、予測係数ととも
に、最適なオフセット係数w0も、あわせて求めること
ができる。
By extending the above description to include the offset coefficient w 0 , the optimum offset coefficient w 0 can be obtained together with the prediction coefficient.

【0111】以上のようにして、クラスごとに、最適な
予測係数wを求め、さらに、その予測係数wを用い、式
(1)により、元の画像の画素値yに近い予測値E
[y]を求めるのが適応処理であり、この適応処理が、
適応処理回路46において行われるようになされてい
る。
As described above, the optimum prediction coefficient w is determined for each class, and the prediction coefficient w close to the pixel value y of the original image is calculated by the equation (1) using the prediction coefficient w.
[Y] is obtained by adaptive processing.
The processing is performed in the adaptive processing circuit 46.

【0112】なお、適応処理は、間引かれた画像には含
まれていない、元の画像に含まれる成分が再現される点
で、補間処理とは異なる。即ち、適応処理では、式
(1)だけを見る限りは、いわゆる補間フィルタを用い
ての補間処理と同様であるが、その補間フィルタのタッ
プ係数に相当する予測係数wが、教師データyを用いて
の、いわば学習により求められるため、元の画像に含ま
れる成分を再現することができる。このことから、適応
処理は、いわば画像の創造作用がある処理ということが
できる。
Note that the adaptive processing differs from the interpolation processing in that components included in the original image that are not included in the thinned image are reproduced. That is, the adaptive processing is the same as the interpolation processing using a so-called interpolation filter as far as only the equation (1) is viewed, but the prediction coefficient w corresponding to the tap coefficient of the interpolation filter is calculated using the teacher data y. In other words, since it is determined by learning, the components contained in the original image can be reproduced. From this, it can be said that the adaptive processing has a so-called image creation action.

【0113】次に、図10のフローチャートを参照し
て、図8のローカルデコード部22の処理について説明
する。
Next, the processing of the local decoding unit 22 in FIG. 8 will be described with reference to the flowchart in FIG.

【0114】ローカルデコード部22においては、まず
最初に、ステップS21において、圧縮部21からの補
正データがブロック化される。即ち、クラス分類用ブロ
ック化回路41において、補正データが、注目補正デー
タを中心とした5画素で構成されるクラス分類用ブロッ
クにブロック化され(図7)、クラス分類適応処理回路
43に供給されるとともに、予測値計算用ブロック化回
路42において、補正データが、注目補正データを中心
とした5×5画素で構成される予測値計算用ブロックに
ブロック化され、クラス分類適応処理回路43に供給さ
れる。
In the local decoding unit 22, first, in step S21, the correction data from the compression unit 21 is divided into blocks. That is, in the class classification block forming circuit 41, the correction data is divided into a class classification block composed of five pixels centering on the target correction data (FIG. 7) and supplied to the class classification adaptive processing circuit 43. At the same time, in the prediction value calculation blocking circuit 42, the correction data is divided into prediction value calculation blocks composed of 5 × 5 pixels centered on the target correction data, and supplied to the class classification adaptive processing circuit 43. Is done.

【0115】クラス分類適応処理回路43には、上述し
たように、クラス分類用ブロックおよび予測値計算用ブ
ロックの他、元の画像データが供給されるようになされ
ており、クラス分類用ブロックはクラス分類回路45
に、予測値計算用ブロックおよび元の画像データは適応
処理回路46に供給されるようになされている。
As described above, the class classification adaptive processing circuit 43 is supplied with the original image data in addition to the class classification block and the predicted value calculation block. Classification circuit 45
In addition, the prediction value calculation block and the original image data are supplied to the adaptive processing circuit 46.

【0116】クラス分類回路45は、ステップS22に
おいて、クラス分類用ブロックに対して、クラス分類処
理を施す。即ち、クラス分類用ブロックを構成する各画
素のレベル分布の状態を検出し、そのクラス分類用ブロ
ックが属するクラス(そのクラス分類用ブロックを構成
する注目補正データのクラス)を判定する。このクラス
の判定結果は、クラス情報として、適応処理回路46に
供給される。
In step S22, the class classification circuit 45 performs a class classification process on the class classification block. That is, the state of the level distribution of each pixel constituting the classifying block is detected, and the class to which the classifying block belongs (the class of the target correction data constituting the classifying block) is determined. The result of this class determination is supplied to the adaptive processing circuit 46 as class information.

【0117】なお、本実施の形態においては、2ビット
で表される5画素で構成されるクラス分類用ブロックに
対して、クラス分類処理が施されるので、各クラス分類
用ブロックは、1024(=(225)のクラスのうち
のいずれかに分類されることになる。
In the present embodiment, since the class classification processing is performed on the class classification block composed of five pixels represented by 2 bits, each class classification block is 1024 (blocks). = (2 2 ) 5 ).

【0118】そして、ステップS23に進み、適応処理
回路46において、クラス分類回路45からのクラス情
報に基づいて、各クラスごとに適応処理が施され、これ
により、クラスごとの予測係数および1フレーム分の元
の画像データの予測値が算出される。
Then, the process proceeds to a step S23, where the adaptive processing circuit 46 performs an adaptive process for each class on the basis of the class information from the class classification circuit 45. Of the original image data is calculated.

【0119】即ち、本実施の形態においては、例えば、
クラスごとの26×9の予測係数が、1フレームごと
に、原画像と補正データから算出される。そして、ある
1つの補正データに注目した場合に、その注目補正デー
タに対応する原画像の画素と、その画素の周りに隣接す
る8個の原画像の画素の、合計9個の画素についての予
測値が、注目補正データを中心とする5×5の25画素
でなる予測値計算用ブロックと、そのクラス情報に対応
する26×9個の予測係数とを用いて、式(1)の線形
一次式が計算されることにより算出される。
That is, in the present embodiment, for example,
A 26 × 9 prediction coefficient for each class is calculated from the original image and the correction data for each frame. Then, when attention is paid to a certain correction data, prediction is performed on a total of nine pixels of pixels of the original image corresponding to the correction data of interest and eight pixels of the original image adjacent to the pixel. Using a 5 × 5 prediction value calculation block having 25 × 5 pixels centered on the target correction data and 26 × 9 prediction coefficients corresponding to the class information, the linear primary expression of the equation (1) is obtained. It is calculated by calculating the formula.

【0120】具体的には、例えば、いま、図7に示した
補正データX33を中心とする5個の補正データX23,X
32,X33,X34,X43でなるクラス分類用ブロック(補
正データX33を注目補正データとするクラス分類用ブロ
ック)についてのクラス情報Cが、クラス分類回路45
から出力され、また、そのクラス分類用ブロックに対応
する予測値計算用ブロックとして、補正データX33を中
心とする5×5画素の補正データX11,X12,X13,X
14,X15,X21,X22,X23,X24,X25,X31
32,X33,X34,X35,X41,X42,X43,X44,X
45,X51,X52,X53,X54,X55でなる予測値計算用
ブロック(補正データX33を注目補正データとする予測
値計算用ブロック)が、予測値計算用ブロック化回路4
2から出力されたものとすると、まず、その予測値計算
用ブロックを構成する補正データを、学習データとする
とともに、元の画像における、補正データX33を中心と
する3×3画素(図7において四角形で囲んである部
分)の画素値Y33(1)乃至Y33(9)を、教師データ
として、式(7)に対応する正規方程式がたてられる。
Specifically, for example, five correction data X 23 , X 23 centered on the correction data X 33 shown in FIG.
The class information C about the class classification block composed of 32 , X 33 , X 34 , and X 43 (the class classification block using the correction data X 33 as the target correction data) is stored in the class classification circuit 45.
And correction data X 11 , X 12 , X 13 , X of 5 × 5 pixels centered on the correction data X 33 as prediction value calculation blocks corresponding to the class classification block.
14, X 15, X 21, X 22, X 23, X 24, X 25, X 31,
X32 , X33 , X34 , X35 , X41 , X42 , X43 , X44 , X
A prediction value calculation block consisting of 45 , X 51 , X 52 , X 53 , X 54 , and X 55 (a prediction value calculation block in which the correction data X 33 is the target correction data) is used as a prediction value calculation block circuit 4.
Assuming that output from the 2, first, the correction data for constituting the predicted values calculating block, with the learning data, in the original image, 3 × 3 pixels around the correction data X 33 (FIG. 7 , The pixel values Y 33 (1) to Y 33 (9) of the portion surrounded by a square are used as teacher data to form a normal equation corresponding to the equation (7).

【0121】さらに、所定期間としての、例えば、1フ
レームの中で、同一のクラス情報Cにクラス分類される
他の予測値計算用ブロックについても同様にして、正規
方程式がたてられ、画素値Y33(k)(ここでは、k=
1,2,・・・,9)の予測値E[Y33(k)]を求め
るための予測係数w1(k)乃至w25(k)(本実施の
形態では、1つの予測値を求めるのに学習データが25
個用いられており、さらに、1個のオフセット係数が必
要とされるので、それに対応して、予測係数wは26個
必要となる)を算出することができるだけの数の正規方
程式が得られると(従って、そのような数の正規方程式
が得られるまでは、ステップS23では、正規方程式を
たてる処理までが行われる)、その正規方程式を解くこ
とで、クラス情報Cについて、画素値Y33(k)の予測
値E[Y33(k)]を求めるのに最適な26の予測係数
(オフセット係数を含む)w0(k)乃至w25(k)が
算出される(25個の補正データを用いて、9個の予測
値を求めるため、1クラスについての予測係数の数は、
25×9個に、9個の予測値に対応するだけのオフセッ
ト係数の数である9個を合わせた26×9個となる)。
Further, a normal equation is similarly set for other prediction value calculation blocks classified into the same class information C within one frame as a predetermined period, for example. Y 33 (k) (here, k =
The prediction coefficients w 1 (k) to w 25 (k) for obtaining the prediction values E [Y 33 (k)] of (1, 2,..., 9) (in this embodiment, one prediction value is 25 learning data to find
Are used, and one offset coefficient is required, and accordingly, 26 predictive coefficients w are required correspondingly). (Thus, until such a number of normal equations are obtained, in step S23, a process of establishing a normal equation is performed.) By solving the normal equation, the pixel value Y 33 ( Twenty-six optimal prediction coefficients (including offset coefficients) w 0 (k) to w 25 (k) for obtaining the predicted value E [Y 33 (k)] of k) are calculated (25 correction data items). Is used to obtain nine prediction values, the number of prediction coefficients for one class is
26 × 9, which is the sum of 25 × 9 and 9 offset coefficients that correspond to the 9 predicted values).

【0122】この処理は、各クラスごとに行われ、各ク
ラスごとに26×9個の予測係数が算出される。そし
て、クラス情報Cに対応する26×9個の予測係数と、
予測値計算用ブロックとを用い、式(1)に対応する次
式にしたがって、予測値E[Y33(k)]が求められ
る。
This process is performed for each class, and 26 × 9 prediction coefficients are calculated for each class. Then, 26 × 9 prediction coefficients corresponding to the class information C,
The predicted value E [Y 33 (k)] is obtained using the predicted value calculation block and the following expression corresponding to Expression (1).

【0123】 E[Y33(k)]=w1(k)X11+w2(k)X12+w3(k)X13 +w4(k)X14+w5(k)X15+w6(k)X21 +w7(k)X22+w8(k)X23+w9(k)X24 +w10(k)X25+w11(k)X31 +w12(k)X32+w13(k)X33 +w14(k)X34+w15(k)X35 +w16(k)X41+w17(k)X42 +w18(k)X43+w19(k)X44 +w20(k)X45+w21(k)X51 +w22(k)X52+w23(k)X53 +w24(k)X54+w25(k)X55 +w0(k) ・・・(8)E [Y 33 (k)] = w 1 (k) X 11 + w 2 (k) X 12 + w 3 (k) X 13 + w 4 (k) X 14 + w 5 (k) X 15 + w 6 ( k) X 21 + w 7 ( k) X 22 + w 8 (k) X 23 + w 9 (k) X 24 + w 10 (k) X 25 + w 11 (k) X 31 + w 12 (k) X 32 + w 13 (k ) X 33 + w 14 (k) X 34 + w 15 (k) X 35 + w 16 (k) X 41 + w 17 (k) X 42 + w 18 (k) X 43 + w 19 (k) X 44 + w 20 (k) X 45 + w 21 (k) X 51 + w 22 (k) X 52 + w 23 (k) X 53 + w 24 (k) X 54 + w 25 (k) X 55 + w 0 (k) (8)

【0124】ステップS23では、以上のようにして、
26×9の予測係数が、クラスごとに求められ、そのク
ラスごとの予測係数を用いて、注目補正データを中心と
する3×3の原画像の画素の予測値が求められる。
In step S23, as described above,
A 26 × 9 prediction coefficient is obtained for each class, and a prediction value of a pixel of a 3 × 3 original image centering on the correction data of interest is obtained using the prediction coefficient for each class.

【0125】その後、ステップS24に進み、クラスご
との26×9の予測係数は判定部24に供給され、3×
3画素単位で求められる1フレーム分の予測値は誤差算
出部23に供給される。そして、ステップS21に戻
り、以下同様の処理が、例えば、上述したように1フレ
ーム単位で繰り返される。
Thereafter, the flow advances to step S24, where the 26 × 9 prediction coefficients for each class are supplied to the determination unit 24,
The prediction value for one frame obtained in units of three pixels is supplied to the error calculation unit 23. Then, the process returns to step S21, and the same process is repeated for each frame as described above, for example.

【0126】次に、図11は、図3の誤差算出部23の
構成例を示している。
Next, FIG. 11 shows an example of the configuration of the error calculator 23 in FIG.

【0127】ブロック化回路51には、元の画像データ
が供給されるようになされており、そこでは、ブロック
化回路51は、その画像データを、ローカルデコード部
22から出力される予測値に対応する9個単位でブロッ
ク化し、その結果得られる3×3画素のブロック(例え
ば、図7に四角形で囲んで示すような3×3画素のブロ
ック)を、自乗誤差算出回路52に出力するようになさ
れている。自乗誤差算出部52には、上述したように、
ブロック化回路51からブロックが供給される他、ロー
カルデコード部22から予測値が、9個単位(3×3画
素のブロック単位)で供給されるようになされており、
自乗誤差算出回路52は、原画像に対する、予測値の予
測誤差としての自乗誤差を算出し、積算部55に供給す
るようになされている。
The original image data is supplied to the blocking circuit 51. The blocking circuit 51 converts the image data to the predicted value output from the local decoding unit 22. A block of 3 × 3 pixels (for example, a block of 3 × 3 pixels surrounded by a square in FIG. 7) obtained as a result is output to the square error calculation circuit 52. It has been done. As described above, the square error calculation unit 52
In addition to the blocks being supplied from the blocking circuit 51, the predicted values are supplied in units of nine (in units of 3 × 3 pixels) from the local decoding unit 22.
The square error calculation circuit 52 calculates a square error as a prediction error of a predicted value with respect to the original image, and supplies the calculated square error to the integrating unit 55.

【0128】即ち、自乗誤差算出回路は52は、演算器
53および54で構成されている。演算器53は、ブロ
ック化回路51からのブロック化された画像データそれ
ぞれから、対応する予測値を減算し、その減算値を、演
算器54に供給するようになされている。演算器54
は、演算器53の出力(元の画像データと予測値との差
分)を自乗し、積算部55に供給するようになされてい
る。
That is, the square error calculation circuit 52 is composed of arithmetic units 53 and 54. The computing unit 53 subtracts a corresponding predicted value from each of the blocked image data from the blocking circuit 51 and supplies the subtracted value to the computing unit 54. Arithmetic unit 54
Is configured to square the output of the arithmetic unit 53 (the difference between the original image data and the predicted value) and supply it to the integrating unit 55.

【0129】積算部55は、自乗誤差算出回路52から
自乗誤差を受信すると、メモリ56の記憶値を読み出
し、その記憶値と自乗誤差とを加算して、再び、メモリ
56に供給して記憶させることを繰り返すことで、自乗
誤差の積算値(誤差分散)を求めるようになされてい
る。さらに、積算部55は、所定量(例えば、1フレー
ム分など)についての自乗誤差の積算が終了すると、そ
の積算値を、メモリ56から読み出し、誤差情報とし
て、判定部24に供給するようになされている。メモリ
56は、1フレームについての処理が終了するごとに、
その記憶値をクリアしながら、積算部55の出力値を記
憶するようになされている。
When receiving the square error from the square error calculating circuit 52, the integrating section 55 reads the stored value of the memory 56, adds the stored value and the square error, and supplies the stored value to the memory 56 again for storage. By repeating this, the integrated value (error variance) of the square error is obtained. Further, when the integration of the square error for a predetermined amount (for example, for one frame) is completed, the integrating unit 55 reads out the integrated value from the memory 56 and supplies the integrated value to the determining unit 24 as error information. ing. Each time the processing for one frame is completed, the memory 56
The output value of the integrating unit 55 is stored while clearing the stored value.

【0130】次に、その動作について、図12のフロー
チャートを参照して説明する。誤差算出部23では、ま
ず最初に、ステップS31において、メモリ56の記憶
値が、例えば0にクリアされ、ステップS32に進み、
ブロック化回路51において、画像データが、上述した
ようにブロック化され、その結果得られるブロックが、
自乗誤差算出回路52に供給される。自乗誤差算出回路
52では、ステップS33において、ブロック化回路5
1から供給されるブロックを構成する、元の画像の画像
データと、ローカルデコード部22から供給される予測
値との自乗誤差が算出される。
Next, the operation will be described with reference to the flowchart of FIG. In the error calculator 23, first, in step S31, the stored value of the memory 56 is cleared to, for example, 0, and the process proceeds to step S32.
In the blocking circuit 51, the image data is blocked as described above, and the resulting block is
It is supplied to the square error calculation circuit 52. In the square error calculation circuit 52, in step S33, the blocking circuit 5
The square error between the image data of the original image constituting the block supplied from 1 and the predicted value supplied from the local decoding unit 22 is calculated.

【0131】即ち、ステップS33では、演算器53に
おいて、ブロック化回路51より供給されたブロック化
された画像データそれぞれから、対応する予測値が減算
され、演算器54に供給される。さらに、ステップS3
3では、演算器54において、演算器53の出力が自乗
され、積算部55に供給される。
That is, in step S 33, the corresponding predicted value is subtracted from each of the blocked image data supplied from the blocking circuit 51 in the computing unit 53, and the result is supplied to the computing unit 54. Further, step S3
In 3, the output of the arithmetic unit 53 is squared in the arithmetic unit 54 and supplied to the integrating unit 55.

【0132】積算部55は、自乗誤差算出回路52から
自乗誤差を受信すると、ステップS34において、メモ
リ56の記憶値を読み出し、その記憶値と自乗誤差とを
加算することで、自乗誤差の積算値を求める。積算部5
5において算出された自乗誤差の積算値は、メモリ56
に供給され、前回の記憶値に上書きされることで記憶さ
れる。
Upon receiving the squared error from the squared error calculation circuit 52, the integrating unit 55 reads the stored value of the memory 56 in step S34 and adds the stored value and the squared error to obtain the integrated value of the squared error. Ask for. Accumulator 5
5 is stored in the memory 56
And is stored by overwriting the previous stored value.

【0133】そして、積算部55では、ステップS35
において、所定量としての、例えば、1フレーム分につ
いての自乗誤差の積算が終了したかどうかが判定され
る。ステップS35において、1フレーム分についての
自乗誤差の積算が終了していないと判定された場合、ス
テップS32に戻り、再び、ステップS32からの処理
を繰り返す。また、ステップS35において、1フレー
ム分についての自乗誤差の積算が終了したと判定された
場合、ステップS36に進み、積算部55は、メモリ5
6に記憶された1フレーム分についての自乗誤差の積算
値を読み出し、誤差情報として、判定部24に出力す
る。そして、ステップS31に戻り、次のフレームにつ
いて、再び、ステップS31からの処理を繰り返す。
Then, in the integrating section 55, step S35
In, it is determined whether or not the integration of the square error for a predetermined amount, for example, for one frame is completed. If it is determined in step S35 that the integration of the square error for one frame has not been completed, the process returns to step S32, and the processing from step S32 is repeated again. If it is determined in step S35 that the integration of the square error for one frame has been completed, the process proceeds to step S36, where the integration unit 55
Then, the integrated value of the squared error for one frame stored in 6 is read out and output to the determination unit 24 as error information. Then, the process returns to step S31, and the process from step S31 is repeated again for the next frame.

【0134】従って、誤差算出部23では、元の画像デ
ータをYij(k)とするとともに、その予測値をE[Y
ij(k)]とするとき、次式にしたがった演算が行われ
ることで、誤差情報Qが算出される。
Therefore, the error calculating section 23 sets the original image data to Y ij (k) and sets the predicted value to E [Y
ij (k)], error information Q is calculated by performing an operation according to the following equation.

【0135】 Q=Σ(Yij(k)−E[Yij(k)])2 但し、Σは、1フレーム分についてのサメーションを意
味する。
Q = {(Y ij (k) −E [Y ij (k)]) 2 Here, Σ means summation for one frame.

【0136】次に、図13は、図3の判定部24の構成
例を示している。
Next, FIG. 13 shows an example of the configuration of the determination section 24 of FIG.

【0137】予測係数メモリ61は、ローカルデコード
部22から供給される予測係数を記憶するようになされ
ている。補正データメモリ62は、圧縮部21から供給
される補正データを記憶するようになされている。
The prediction coefficient memory 61 stores the prediction coefficients supplied from the local decoding section 22. The correction data memory 62 is configured to store the correction data supplied from the compression unit 21.

【0138】なお、補正データメモリ62は、圧縮部2
1において、圧縮データが新たに補正され、これによ
り、新たな補正データが供給された場合には、既に記憶
している補正データ(前回の補正データ)に代えて、新
たな補正データを記憶するようになされている。また、
このように補正データが、新たなものに更新されるタイ
ミングで、ローカルデコード部22からは、その新たな
補正データに対応する、新たなクラスごとの予測係数の
セットが出力されるが、予測係数メモリ61において
も、このように新たなクラスごとの予測係数が供給され
た場合には、既に記憶しているクラスごとの予測係数
(前回のクラスごとの予測係数)に代えて、その新たな
クラスごとの予測係数を記憶するようになされている。
It should be noted that the correction data memory 62 is
In step 1, when the compressed data is newly corrected, and new correction data is supplied, new correction data is stored in place of the already stored correction data (previous correction data). It has been made like that. Also,
As described above, at the timing when the correction data is updated to a new one, the local decoding unit 22 outputs a new set of prediction coefficients for each class corresponding to the new correction data. When the new prediction coefficient for each class is also supplied to the memory 61 in this way, the new prediction coefficient for each class (the previous prediction coefficient for each class) is replaced with the new prediction coefficient for each class. The prediction coefficient for each is stored.

【0139】誤差情報メモリ63は、誤差算出部23か
ら供給される誤差情報を記憶するようになされている。
なお、誤差情報メモリ63は、誤差算出部23から、今
回供給された誤差情報の他に、前回供給された誤差情報
も記憶するようになされている(新たな誤差情報が供給
されても、さらに新たな誤差情報が供給されるまでは、
既に記憶している誤差情報を保持するようになされてい
る)。なお、誤差情報メモリ63は、新たなフレームに
ついての処理が開始されるごとにクリアされるようにな
されている。
The error information memory 63 stores the error information supplied from the error calculator 23.
The error information memory 63 stores the error information supplied last time in addition to the error information supplied this time from the error calculation unit 23 (even if new error information is supplied, Until new error information is provided,
The error information already stored is retained). Note that the error information memory 63 is cleared each time processing for a new frame is started.

【0140】比較回路64は、誤差情報メモリ63に記
憶された今回の誤差情報と、所定の閾値εとを比較し、
さらに、必要に応じて、今回の誤差情報と前回の誤差情
報との比較も行うようになされている。比較回路64に
おける比較結果は、制御回路65に供給されるようにな
されている。
The comparison circuit 64 compares the current error information stored in the error information memory 63 with a predetermined threshold value ε.
Further, if necessary, the current error information is compared with the previous error information. The comparison result in the comparison circuit 64 is supplied to the control circuit 65.

【0141】制御回路65は、比較回路64における比
較結果に基づいて、補正データメモリ62に記憶された
補正データを、元の画像の符号化結果とすることの適正
(最適)さを判定し、最適でないと認識(判定)した場
合には、新たな補正データの出力を要求する制御信号
を、圧縮部21(補正回路32)(図5)に供給するよ
うになされている。また、制御回路65は、補正データ
メモリ62に記憶された補正データを、元の画像の符号
化結果とすることが最適であると認識した場合には、予
測係数メモリ61に記憶されているクラスごとの予測係
数を読み出し、多重化部25に出力するとともに、補正
データメモリ62に記憶されている補正データを読み出
し、最適圧縮データとして、やはり多重化部25に供給
するようになされている。さらに、この場合、制御回路
65は、1フレームの画像についての符号化を終了した
旨を表す制御信号を、圧縮部21に出力し、これによ
り、上述したように、圧縮部21に、次のフレームにつ
いての処理を開始させるようになされている。
The control circuit 65 determines the suitability (optimality) of making the correction data stored in the correction data memory 62 the coding result of the original image based on the comparison result of the comparison circuit 64. When it is recognized (determined) that the data is not optimal, a control signal requesting the output of new correction data is supplied to the compression unit 21 (correction circuit 32) (FIG. 5). When the control circuit 65 recognizes that it is optimal to use the correction data stored in the correction data memory 62 as the encoding result of the original image, the control circuit 65 stores the class data stored in the prediction coefficient memory 61. In addition to reading out the prediction coefficient for each and outputting it to the multiplexing unit 25, the correction data stored in the correction data memory 62 is read out and supplied to the multiplexing unit 25 as optimal compressed data. Further, in this case, the control circuit 65 outputs a control signal indicating that encoding of the image of one frame has been completed to the compression unit 21, and as described above, the control unit 65 supplies the next signal to the compression unit 21. The processing for a frame is started.

【0142】次に、図14を参照して、判定部24の動
作について説明する。判定部24では、まず最初に、ス
テップS41において、誤差算出部23から誤差情報を
受信したかどうかが、比較回路64によって判定され、
誤差情報を受信していないと判定された場合、ステップ
S41に戻る。また、ステップS41において、誤差情
報を受信したと判定された場合、即ち、誤差情報メモリ
63に誤差情報が記憶された場合、ステップS42に進
み、比較回路64において、誤差情報メモリ63に、い
ま記憶された誤差情報(今回の誤差情報)と、所定の閾
値εとが比較され、いずれが大きいかが判定される。
Next, the operation of the determination section 24 will be described with reference to FIG. In the determination unit 24, first, in step S41, the comparison circuit 64 determines whether or not error information has been received from the error calculation unit 23.
If it is determined that the error information has not been received, the process returns to step S41. If it is determined in step S41 that the error information has been received, that is, if the error information has been stored in the error information memory 63, the process proceeds to step S42, where the comparison circuit 64 stores the error information in the error information memory 63. The obtained error information (current error information) is compared with a predetermined threshold value ε to determine which is larger.

【0143】ステップS42において、今回の誤差情報
が、所定の閾値ε以上であると判定された場合、比較回
路64において、誤差情報メモリ63に記憶されている
前回の誤差情報が読み出される。そして、比較回路64
は、ステップS43において、前回の誤差情報と、今回
の誤差情報とを比較し、いずれが大きいかを判定する。
If it is determined in step S42 that the current error information is equal to or greater than the predetermined threshold value ε, the comparison circuit 64 reads the previous error information stored in the error information memory 63. Then, the comparison circuit 64
In step S43, the previous error information is compared with the current error information to determine which is larger.

【0144】ここで、1フレームについての処理が開始
され、最初に誤差情報が供給されたときには、誤差情報
メモリ63には、前回の誤差情報は記憶されていないの
で、この場合には、判定部24においては、ステップS
43以降の処理は行われず、制御回路65において、所
定の初期アドレス(補正値ROM33(図5)におい
て、補正値の初期値が記憶されているアドレス)を出力
するように、補正回路32(図5)を制御する制御信号
が出力されるようになされている。
Here, when the processing for one frame is started and error information is first supplied, the error information memory 63 does not store the previous error information. In step 24, step S
The processing after step 43 is not performed, and the control circuit 65 outputs a predetermined initial address (an address in the correction value ROM 33 (FIG. 5) in which the initial value of the correction value is stored) so as to output the predetermined initial address. The control signal for controlling 5) is output.

【0145】ステップS43において、今回の誤差情報
が、前回の誤差情報以下であると判定された場合、即
ち、圧縮データの補正を行うことにより誤差情報が減少
した場合、ステップS44に進み、制御回路65は、補
正値△を、前回と同様に変化させるように指示する制御
信号を、補正回路32に出力し、ステップS41に戻
る。また、ステップS43において、今回の誤差情報
が、前回の誤差情報より大きいと判定された場合、即
ち、圧縮データの補正を行うことにより誤差情報が増加
した場合、ステップS45に進み、制御回路65は、補
正値△を、前回と逆に変化させるように指示する制御信
号を、補正回路32に出力し、ステップS41に戻る。
If it is determined in step S43 that the current error information is equal to or less than the previous error information, that is, if the error information is reduced by performing correction of the compressed data, the process proceeds to step S44, and the control circuit proceeds to step S44. 65 outputs a control signal instructing to change the correction value △ in the same manner as the previous time, to the correction circuit 32, and returns to step S41. If it is determined in step S43 that the current error information is larger than the previous error information, that is, if the error information increases by performing the correction of the compressed data, the process proceeds to step S45, and the control circuit 65 , A control signal for instructing the correction value △ to be changed in the opposite direction to the previous time is output to the correction circuit 32, and the process returns to step S41.

【0146】なお、減少し続けていた誤差情報が、ある
タイミングで上昇するようになったときは、制御回路6
5は、補正値△を、いままでの場合の、例えば1/2の
大きさで、前回と逆に変化させるように指示する制御信
号を出力するようになされている。
When the error information, which has been decreasing, starts to increase at a certain timing, the control circuit 6
Reference numeral 5 denotes a control signal for instructing the correction value で to be changed, for example, by half the size of the previous case, in the opposite manner to the previous time.

【0147】そして、ステップS41乃至S45の処理
を繰り返すことにより、誤差情報が減少し、これによ
り、ステップS42において、今回の誤差情報が、所定
の閾値εより小さいと判定された場合、ステップS46
に進み、制御回路65は、予測係数メモリ61に記憶さ
れているクラスごとの予測係数を読み出すとともに、補
正データメモリ62に記憶されている1フレーム分の補
正データを最適圧縮データとして読み出し、多重化部2
5に供給して、処理を終了する。
By repeating the processing of steps S41 to S45, the error information decreases. As a result, if it is determined in step S42 that the current error information is smaller than the predetermined threshold value ε, the process proceeds to step S46.
The control circuit 65 reads the prediction coefficient for each class stored in the prediction coefficient memory 61, reads the correction data for one frame stored in the correction data memory 62 as optimal compressed data, and performs multiplexing. Part 2
5 and the process ends.

【0148】その後は、次のフレームについての誤差情
報が供給されるのを待って、再び、図14に示すフロー
チャートにしたがった処理を繰り返す。
After that, the processing according to the flowchart shown in FIG. 14 is repeated again after the error information for the next frame is supplied.

【0149】なお、補正回路32には、圧縮データの補
正は、1フレームすべての圧縮データについて行わせる
ようにすることもできるし、その一部の圧縮データにつ
いてだけ行わせるようにすることもできる。一部の圧縮
データについてだけ補正を行う場合においては、制御回
路65に、例えば、誤差情報に対する影響の強い画素を
検出させ、そのような画素についての圧縮データだけを
補正するようにすることができる。誤差情報に対する影
響の強い画素は、例えば、次のようにして検出すること
ができる。即ち、まず最初に、間引き後に残った画素の
レベル制御した圧縮データをそのまま用いて処理を行う
ことにより、その誤差情報を得る。そして、その圧縮デ
ータを、1つずつ、同一の補正値△だけ補正するような
処理を行わせる制御信号を、制御回路65から補正回路
32に出力し、その結果得られる誤差情報を、圧縮デー
タをそのまま用いた場合に得られた誤差情報と比較し、
その差が、所定値以上となる画素を、誤差情報に対する
影響の強い画素として検出すれば良い。
It is to be noted that the correction circuit 32 can correct the compressed data for all the compressed data of one frame, or can perform the correction for only a part of the compressed data. . In the case where correction is performed only for a part of the compressed data, the control circuit 65 can be made to detect, for example, a pixel having a strong influence on the error information, and correct only the compressed data for such a pixel. . Pixels having a strong influence on error information can be detected, for example, as follows. That is, first, the error information is obtained by performing the processing using the level-controlled compressed data of the pixels remaining after the thinning as it is. Then, a control signal for causing the compressed data to be processed one by one by the same correction value △ is output from the control circuit 65 to the correction circuit 32, and the resulting error information is Is compared with the error information obtained when using
A pixel whose difference is equal to or larger than a predetermined value may be detected as a pixel having a strong influence on error information.

【0150】以上のように、誤差情報を所定の閾値εよ
り小さくする(以下にする)まで、圧縮データの補正が
繰り返され、誤差情報が所定の閾値εより小さくなった
ときにおける補正データが、画像の符号化結果として出
力されるので、受信装置4(図1)においては、間引き
後の画像を構成する画素の画素値を、元の画像を復元す
るのに最も適当な値にした補正データから、原画像と同
一(ほぼ同一)の復号画像(高画質の復号画像)を得る
ことが可能となる。
As described above, the correction of the compressed data is repeated until the error information is made smaller than the predetermined threshold ε (below), and the correction data when the error information becomes smaller than the predetermined threshold ε is: Since the image data is output as a result of encoding the image, the receiving device 4 (FIG. 1) corrects the pixel values of the pixels constituting the decimated image to the most appropriate values for restoring the original image. Accordingly, it is possible to obtain a decoded image (high-quality decoded image) that is the same (almost the same) as the original image.

【0151】また、画像は、間引き処理により圧縮され
る他、レベル制限処理およびクラス分類適応処理などに
よっても圧縮されるため、非常に高圧縮率の符号化デー
タを得ることができる。なお、送信装置1における、以
上のような符号化処理は、間引きによる圧縮処理と、ク
ラス分類適応処理とを、いわば有機的に統合して用いる
ことにより、高能率圧縮を実現するものであり、このこ
とから統合符号化処理ということができる。
Further, since the image is compressed not only by the thinning process but also by the level limiting process, the class classification adaptive process, etc., it is possible to obtain encoded data having a very high compression ratio. The above-described encoding processing in the transmission device 1 realizes high-efficiency compression by using the compression processing by thinning and the classification adaptive processing in an organically integrated manner. From this, it can be said that it is an integrated coding process.

【0152】次に、図15は、図1の受信装置4の構成
例を示している。
Next, FIG. 15 shows a configuration example of the receiving device 4 of FIG.

【0153】受信機/再生装置71においては、記録媒
体2に記録された符号化データが再生され、または伝送
路3を介して伝送されてくる符号化データが受信され、
分離部72に供給される。分離部72では、符号化デー
タから、1フレーム分の補正データとクラスごとの予測
係数が順次分離され、1フレーム分の補正データは、ク
ラス分類用ブロック化回路73および予測値計算用ブロ
ック化回路77に供給され、クラスごとの予測係数は、
予測回路76に供給されて、その内蔵するメモリ76A
に記憶される。
In the receiver / reproducing device 71, the encoded data recorded on the recording medium 2 is reproduced, or the encoded data transmitted via the transmission path 3 is received.
It is supplied to the separation unit 72. The separating unit 72 sequentially separates the correction data for one frame and the prediction coefficient for each class from the encoded data, and the correction data for one frame is divided into a class classification blocking circuit 73 and a prediction value calculation blocking circuit. And the prediction coefficient for each class is
Supplied to the prediction circuit 76, and the built-in memory 76A
Is stored.

【0154】クラス分類用ブロック化回路73、クラス
分類回路75、または予測値計算用ブロック化回路77
は、図8におけるクラス分類用ブロック化回路41、ク
ラス分類回路45、または予測値計算用ブロック化回路
42それぞれと同様に構成されており、従って、これら
のブロックにおいては、図8における場合と同様の処理
が行われ、これにより、予測値計算用ブロック化回路7
7からは予測値計算用ブロックが出力され、また、クラ
ス分類回路75からはクラス情報が出力される。これら
の予測値計算用ブロックおよびクラス情報は、予測回路
76に供給される。
Classification blocking circuit 73, class classification circuit 75, or predicted value calculation blocking circuit 77
Has the same configuration as the class classification blocking circuit 41, the class classification circuit 45, or the predicted value calculation blocking circuit 42 in FIG. 8, and therefore, in these blocks, the same as in FIG. Is performed, whereby the prediction value calculation blocking circuit 7
7 outputs a prediction value calculation block, and the class classification circuit 75 outputs class information. These prediction value calculation block and class information are supplied to the prediction circuit 76.

【0155】予測回路76では、クラス情報に対応した
予測係数が、その内蔵するメモリ76Aに記憶されたク
ラスごとの予測係数の中から読み出され、その予測係数
と、予測値計算用ブロック化回路77から供給される予
測値計算用ブロックを構成する補正データとを用い、式
(1)にしたがって予測値が算出され、そのような予測
値で構成される1フレームの画像が、復号画像として出
力される。この復号画像は、上述したように、元の画像
とほぼ同一の画像となる。
In the prediction circuit 76, the prediction coefficient corresponding to the class information is read out of the prediction coefficients for each class stored in the built-in memory 76A, and the prediction coefficient and the prediction value calculation blocking circuit are read out. A prediction value is calculated according to equation (1) using the correction data constituting the prediction value calculation block supplied from 77, and an image of one frame composed of such prediction values is output as a decoded image. Is done. This decoded image is almost the same as the original image, as described above.

【0156】なお、受信側においては、図15に示すよ
うな受信装置4でなくても、間引きされた画像を単純な
補間により復号する装置により、予測係数を用いずに、
通常の補間を行うことで復号画像を得ることができる。
但し、この場合に得られる復号画像は、画質(解像度)
の劣化したものとなる。
On the receiving side, even if the receiving apparatus is not the receiving apparatus 4 as shown in FIG. 15, the apparatus for decoding the decimated image by simple interpolation can be used without using prediction coefficients.
A decoded image can be obtained by performing normal interpolation.
However, the decoded image obtained in this case has image quality (resolution)
Is deteriorated.

【0157】ところで、上述の場合おいては、図3のロ
ーカルデコード部22において予測係数を求め、これを
用いて、予測値を算出するようにしたが、予測値は、予
測係数を求めずに(あらかじめ学習により求めておいた
予測係数を用いて)算出するようにすることが可能であ
る。
In the above-described case, the prediction coefficient is calculated in the local decoding unit 22 in FIG. 3 and the prediction value is calculated using the prediction coefficient. It can be calculated (using a prediction coefficient obtained in advance by learning).

【0158】即ち、図16は、図2の送信装置1の第2
の機能的構成例を示している。なお、図中、図3におけ
る場合と対応する部分については、同一の符号を付して
ある。即ち、この送信装置1は、ローカルデコード部2
2に代えて、ローカルデコード部1022が設けられて
いる他は、図3における場合と同様に構成されている。
That is, FIG. 16 shows the second example of the transmitting apparatus 1 shown in FIG.
2 shows an example of a functional configuration. Note that, in the figure, parts corresponding to those in FIG. 3 are denoted by the same reference numerals. That is, the transmitting device 1 includes a local decoding unit 2
The configuration is the same as that in FIG. 3 except that a local decoding unit 1022 is provided instead of 2.

【0159】但し、図3においては、ローカルデコード
部22に原画像データが供給されるようになされていた
が、図16においては、ローカルデコード部1022に
は、原画像データが供給されないようになっている。
However, in FIG. 3, the original image data is supplied to the local decoding unit 22, but in FIG. 16, the original image data is not supplied to the local decoding unit 1022. ing.

【0160】図17は、図16のローカルデコード部1
022の構成例を示している。なお、図中、図8におけ
る場合と対応する部分については、同一の符号を付して
ある。即ち、ローカルデコード部1022は、適応処理
回路46に代えて、予測係数ROM81および予測回路
82が設けられている他は、図8におけるローカルデコ
ード部22と同様に構成されている。
FIG. 17 is a block diagram of the local decoding unit 1 shown in FIG.
022 shows a configuration example. Note that, in the figure, parts corresponding to those in FIG. 8 are denoted by the same reference numerals. That is, the local decoding unit 1022 is configured similarly to the local decoding unit 22 in FIG. 8 except that a prediction coefficient ROM 81 and a prediction circuit 82 are provided instead of the adaptive processing circuit 46.

【0161】予測係数ROM81は、あらかじめ学習
(後述する)を行うことにより求められたクラスごとの
26×9の予測係数を記憶しており、クラス分類回路4
5が出力するクラス情報を受信し、そのクラス情報に対
応するアドレスに記憶されている予測係数を読み出し
て、予測回路82に供給する。
The prediction coefficient ROM 81 stores 26 × 9 prediction coefficients for each class obtained by performing learning (described later) in advance.
5 receives the class information output, reads the prediction coefficient stored at the address corresponding to the class information, and supplies the prediction coefficient to the prediction circuit 82.

【0162】予測回路82では、予測値計算用ブロック
化回路42からの5×5画素の予測値計算用ブロック
と、予測係数ROM81からの26×9の予測係数とを
用いて、式(1)(具体的には、例えば、式(8))に
示した線形1次式が計算され、これにより、元の画像の
3×3画素の予測値が算出される。
The prediction circuit 82 uses the prediction value calculation block of 5 × 5 pixels from the prediction value calculation blocking circuit 42 and the 26 × 9 prediction coefficient from the prediction coefficient ROM 81 to obtain the equation (1). (Specifically, for example, a linear linear expression shown in Expression (8) is calculated, and thereby, a predicted value of 3 × 3 pixels of the original image is calculated.

【0163】従って、図17のクラス分類適応処理回路
43によれば、元の画像(原画像)を用いずに、その予
測値が算出される。このため、上述したように、ローカ
ルデコード部1022には、原画像が供給されないよう
になっている(供給する必要がないため、供給しないよ
うになっている)。
Therefore, according to the classification adaptive processing circuit 43 shown in FIG. 17, the predicted value is calculated without using the original image (original image). For this reason, as described above, the original image is not supplied to the local decoding unit 1022 (there is no need to supply it, so it is not supplied).

【0164】次に、図18のフローチャートを参照し
て、図17のローカルデコード部1022の処理につい
てさらに説明する。
Next, the processing of the local decoding unit 1022 in FIG. 17 will be further described with reference to the flowchart in FIG.

【0165】ローカルデコード部1022においては、
まず最初に、ステップS1021,S1022におい
て、図10のステップS21,S22における場合とそ
れぞれ同様の処理が行われ、これにより、クラス分類回
路45からは、クラス情報が出力される。このクラス情
報は、予測係数ROM81に供給される。また、予測値
計算用ブロック化回路42からは、予測値計算用ブロッ
クが出力され、予測回路82に供給される。
In local decoding section 1022,
First, in steps S1021 and S1022, the same processes as those in steps S21 and S22 in FIG. 10 are performed, whereby the class information is output from the class classification circuit 45. This class information is supplied to the prediction coefficient ROM 81. Further, the prediction value calculation block is output from the prediction value calculation blocking circuit 42 and supplied to the prediction circuit 82.

【0166】予測係数ROM81は、クラス情報を受信
すると、ステップS1023において、そのクラス情報
に対応する26×9の予測係数を、記憶しているクラス
ごとの予測係数の中から読み出し、予測回路82に供給
する。
Upon receiving the class information, the prediction coefficient ROM 81 reads out a 26 × 9 prediction coefficient corresponding to the class information from among the stored prediction coefficients for each class, and instructs the prediction circuit 82 in step S1023. Supply.

【0167】予測回路82には、予測係数ROM81か
ら26×9の予測係数が供給される他、上述したよう
に、予測値計算用ブロック化回路42から5×5画素の
予測値計算用ブロックも供給される。そして、予測回路
82では、ステップS1024において、予測係数RO
M81からの26×9の予測係数と、予測値計算用ブロ
ック化回路42からの5×5画素の予測値計算用ブロッ
クとを用いて適応処理が行われることにより、即ち、具
体的には、式(1)(または式(8))にしたがった演
算が行われることにより、注目補正データ(ここでは、
予測値計算用ブロックの中心にある画素)を中心とする
3×3の原画像の画素の予測値が求められる。
The prediction circuit 82 is supplied with prediction coefficients of 26 × 9 from the prediction coefficient ROM 81, and also receives a prediction value calculation block of 5 × 5 pixels from the prediction value calculation blocking circuit 42 as described above. Supplied. Then, in the prediction circuit 82, in step S1024, the prediction coefficient RO
The adaptive processing is performed using the 26 × 9 prediction coefficient from M81 and the prediction value calculation block of 5 × 5 pixels from the prediction value calculation blocking circuit 42, that is, specifically, By performing the calculation according to Expression (1) (or Expression (8)), the correction data of interest (here,
The predicted value of the pixel of the 3 × 3 original image centered on the pixel at the center of the predicted value calculation block) is obtained.

【0168】その後、例えば、1フレーム分の予測値が
求められると、ステップS1025に進み、予測係数R
OM81に記憶されたクラスごとの26×9の予測係数
が読み出され、判定部24に供給されるとともに、ステ
ップS1024で求められた予測値が誤差算出部23に
供給される。そして、ステップS1021に戻り、以下
同様の処理が、例えば、1フレーム単位で繰り返され
る。
Thereafter, for example, when a predicted value for one frame is obtained, the process proceeds to step S1025, where the prediction coefficient R
The 26 × 9 prediction coefficient for each class stored in the OM 81 is read and supplied to the determination unit 24, and the prediction value obtained in step S1024 is supplied to the error calculation unit 23. Then, the process returns to step S1021, and thereafter, the same processing is repeated, for example, in units of one frame.

【0169】なお、この実施の形態では、クラスごとの
予測係数は、予測係数ROM81に記憶されたものが使
用され、従って、その値は変化しないから、ステップS
1025において、クラスごとの予測係数を、判定部2
4に一度供給した後は、基本的に、再度供給する必要は
ない。
In this embodiment, the prediction coefficient for each class is the one stored in the prediction coefficient ROM 81, and its value does not change.
In 1025, the prediction coefficient for each class is determined by the determination unit 2
After once being supplied to 4, there is basically no need to supply again.

【0170】また、送信装置1が、図16に示したよう
に構成される場合においても、受信装置4は、図15に
示したように構成することで、原画像とほぼ同一の復号
画像を得ることができる。
Also, even when the transmitting device 1 is configured as shown in FIG. 16, the receiving device 4 can decode a substantially same decoded image as the original image by configuring as shown in FIG. Obtainable.

【0171】次に、図19は、図17の予測係数ROM
81に記憶されている予測係数を得るための学習を行う
画像処理装置の構成例を示している。
Next, FIG. 19 shows the prediction coefficient ROM of FIG.
8 shows a configuration example of an image processing apparatus that performs learning for obtaining a prediction coefficient stored in 81.

【0172】学習用ブロック化回路91および教師用ブ
ロック化回路92には、あらゆる画像に適用可能な予測
係数を得るための(従って、間引き処理される前の)学
習用の画像データ(学習用画像)が供給されるようにな
されている。
The learning blocking circuit 91 and the teacher blocking circuit 92 have learning image data (learning image data) for obtaining prediction coefficients applicable to any image (thus, before thinning processing). ) Are supplied.

【0173】学習用ブロック化回路91は、入力される
画像データから、注目画素を中心とする、例えば、図7
に●印で示した位置関係の25画素(5×5画素)を抽
出し(この場合における注目画素は、X33)、この25
画素で構成されるブロックを、学習用ブロックとして、
レベル制限回路93に供給する。レベル制限回路93
は、入力された画素データのレベルを制限し、クラス分
類回路94と学習用データメモリ96に出力する。
The learning blocking circuit 91 calculates the center of the pixel of interest from the input image data.
Then, 25 pixels (5 × 5 pixels) having the positional relationship indicated by the mark ● are extracted (in this case, the pixel of interest is X 33 ).
A block composed of pixels is used as a learning block.
It is supplied to the level limiting circuit 93. Level limiting circuit 93
Restricts the level of the input pixel data and outputs it to the classifying circuit 94 and the learning data memory 96.

【0174】また、教師用ブロック化回路92では、入
力される画像データから、注目画素を中心とする、例え
ば、3×3の9画素で構成されるブロックが生成され、
この9画素で構成されるブロックが、教師用ブロックと
して、教師データメモリ98に供給される。
In the teacher blocking circuit 92, a block composed of, for example, 3 × 3 9 pixels centering on the target pixel is generated from the input image data.
The block composed of the nine pixels is supplied to the teacher data memory 98 as a teacher block.

【0175】なお、学習用ブロック化回路91におい
て、例えば、図7に●印で示した位置関係の25画素で
構成される学習用ブロックが生成されるとき、教師用ブ
ロック化回路92では、同図に四角形で囲んで示す3×
3画素の教師用ブロックが生成されるようになされてい
る。
When the learning block forming circuit 91 generates, for example, a learning block composed of 25 pixels having a positional relationship indicated by a circle in FIG. 3x shown in the figure with a square
A teacher block of three pixels is generated.

【0176】クラス分類回路94では、学習用ブロック
を構成する25画素から、その中心の9画素(3×3画
素)が抽出され、この9画素でなるブロックに対して、
クラス分類を施される。そして、それにより得られるク
ラス情報が、スイッチ95の端子aを介して、学習デー
タメモリ96および教師データメモリ98に供給され
る。
In the class classification circuit 94, the central nine pixels (3 × 3 pixels) are extracted from the 25 pixels constituting the learning block.
Classification is given. Then, the obtained class information is supplied to the learning data memory 96 and the teacher data memory 98 via the terminal a of the switch 95.

【0177】学習データメモリ96または教師データメ
モリ98では、そこに供給されるクラス情報に対応する
アドレス(AD)に、レベル制限回路93からの学習用
ブロックまたは教師用ブロック化回路92からの教師用
ブロックが、それぞれ記憶される。
In the learning data memory 96 or the teacher data memory 98, an address (AD) corresponding to the class information supplied thereto is added to a learning block from the level limiting circuit 93 or a teacher block from the teacher blocking circuit 92. Each block is stored.

【0178】従って、学習データメモリ96において、
例えば、図7に●印で示した5×5画素でなるブロック
が学習用ブロックとして、あるアドレスに記憶されたと
すると、教師データメモリ98においては、そのアドレ
スと同一のアドレスに、同図において、四角形で囲んで
示す3×3画素のブロックが、教師用ブロックとして記
憶される。
Therefore, in the learning data memory 96,
For example, if a block composed of 5 × 5 pixels indicated by a mark in FIG. 7 is stored as a learning block at a certain address, in the teacher data memory 98, the same address as that address is used. A block of 3 × 3 pixels surrounded by a rectangle is stored as a teacher block.

【0179】以下、同様の処理が、あらかじめ用意され
たすべての学習用の画像について繰り返され、これによ
り、学習用ブロックと、図17のローカルデコード部1
022において、その学習用ブロックを構成する25画
素と同一の位置関係を有する25の補正データで構成さ
れる予測値計算用ブロックを用いて予測値が求められる
9画素で構成される教師用ブロックとが、学習用データ
メモリ96と、教師用データメモリ98とにおいて、同
一のアドレスに記憶される。
Hereinafter, the same processing is repeated for all learning images prepared in advance, whereby the learning block and the local decoding unit 1 shown in FIG.
022, a teacher block composed of 9 pixels for which a predicted value is obtained using a predicted value calculation block composed of 25 correction data having the same positional relationship as the 25 pixels constituting the learning block; Are stored at the same address in the learning data memory 96 and the teacher data memory 98.

【0180】なお、学習用データメモリ96と教師用デ
ータメモリ98においては、同一アドレスに複数の情報
を記憶することができるようになされており、これによ
り、同一アドレスには、複数の学習用ブロックと教師用
ブロックを記憶することができるようになされている。
In the learning data memory 96 and the teacher data memory 98, a plurality of pieces of information can be stored at the same address, whereby a plurality of learning blocks can be stored at the same address. And a teacher block can be stored.

【0181】学習用画像すべてについての学習用ブロッ
クと教師用ブロックとが、学習データメモリ96と教師
データメモリ98に記憶されると、端子aを選択してい
たスイッチ95が、端子bに切り替わり、これにより、
カウンタ97の出力が、アドレスとして、学習データメ
モリ96および教師データメモリ98に供給される。カ
ウンタ97は、所定のクロックをカウントし、そのカウ
ント値を出力しており、学習データメモリ96または教
師データメモリ98では、そのカウント値に対応するア
ドレスに記憶された学習用ブロックまたは教師用ブロッ
クが読み出され、演算回路99に供給される。
When the learning blocks and the teacher blocks for all the learning images are stored in the learning data memory 96 and the teacher data memory 98, the switch 95 that has selected the terminal a is switched to the terminal b. This allows
The output of the counter 97 is supplied to the learning data memory 96 and the teacher data memory 98 as an address. The counter 97 counts a predetermined clock and outputs the count value. In the learning data memory 96 or the teacher data memory 98, a learning block or a teacher block stored at an address corresponding to the count value is stored. The data is read out and supplied to the arithmetic circuit 99.

【0182】従って、演算回路99には、カウンタ97
のカウント値に対応するクラスの学習用ブロックのセッ
トと、教師用ブロックのセットとが供給される。
Therefore, the arithmetic circuit 99 includes the counter 97
, A set of learning blocks of a class corresponding to the count value and a set of teacher blocks are supplied.

【0183】演算回路99は、あるクラスについての学
習用ブロックのセットと、教師用ブロックのセットとを
受信すると、それらを用いて、例えば、最小自乗法によ
り、誤差を最小とする予測係数を算出する。
When the arithmetic circuit 99 receives the set of learning blocks and the set of teacher blocks for a certain class, it calculates a prediction coefficient that minimizes the error by using, for example, the least square method. I do.

【0184】即ち、例えば、いま、学習用ブロックを構
成する画素の画素値を、x1,x2,x3,・・・とし、
求めるべき予測係数をw0,w1,w2,w3,・・・とす
るとき、これらの線形1次結合により、教師用ブロック
を構成する、ある画素の画素値yを求めるには、予測係
数w0,w1,w2,w3,・・・は、式(1)に対応する
次式を満たす必要がある。
That is, for example, let the pixel values of the pixels constituting the learning block be x 1 , x 2 , x 3 ,.
When the prediction coefficients to be obtained are w 0 , w 1 , w 2 , w 3 ,..., To obtain the pixel value y of a certain pixel constituting the teacher block by using these linear linear combinations, The prediction coefficients w 0 , w 1 , w 2 , w 3 ,... Must satisfy the following equation corresponding to equation (1).

【0185】 y=w11+w22+w33+・・・+w0 Y = w 1 x 1 + w 2 x 2 + w 3 x 3 +... + W 0

【0186】そこで、演算回路99では、同一クラスの
学習用ブロックと、対応する教師用ブロックとから、真
値yに対する、予測値w11+w22+w33+・・・
+w0の自乗誤差を最小とする予測係数w1,w2,w3
・・・,w0が、上述した式(7)に対応する正規方程
式をたてて解くことにより求められる。
Therefore, in the arithmetic circuit 99, the prediction value w 1 x 1 + w 2 x 2 + w 3 x 3 +... With respect to the true value y is obtained from the learning block of the same class and the corresponding teacher block.
Prediction coefficients w 1 , w 2 , w 3 , which minimize the square error of + w 0 ,
.., W 0 are obtained by setting up and solving a normal equation corresponding to the above equation (7).

【0187】演算回路99において求められた、クラス
ごとの予測係数は、メモリ100に供給される。メモリ
100には、演算回路99からの予測係数の他、カウン
タ97からカウント値が供給されており、これにより、
メモリ100においては、演算回路99からの予測係数
が、カウンタ97からのカウント値に対応するアドレス
に記憶される。
The prediction coefficients for each class obtained in the arithmetic circuit 99 are supplied to the memory 100. The memory 100 is supplied with the count value from the counter 97 in addition to the prediction coefficient from the arithmetic circuit 99,
In the memory 100, the prediction coefficient from the arithmetic circuit 99 is stored at an address corresponding to the count value from the counter 97.

【0188】以上のようにして、メモリ100には、各
クラスに対応するアドレスに、そのクラスのブロックの
画素を予測するのに最適な予測係数が記憶される。
As described above, in the memory 100, at the address corresponding to each class, the optimum prediction coefficient for predicting the pixels of the block of the class is stored.

【0189】図17の予測係数ROM81には、以上の
ようにしてメモリ100に記憶された予測係数が記憶さ
れている。
The prediction coefficient ROM 81 of FIG. 17 stores the prediction coefficient stored in the memory 100 as described above.

【0190】次に、図20は、図2の送信装置1の第3
の機能的構成例を示している。なお、図中、図3におけ
る場合と対応する部分については、同一の符号を付して
ある。即ち、この送信装置1は、ローカルデコード部2
2または判定部24に代えて、ローカルデコード部20
22または判定部2024がそれぞれ設けられていると
ともに、多重化部25が設けられていない他は、図3に
おける場合と同様に構成されている。
Next, FIG. 20 shows a third example of the transmitting apparatus 1 shown in FIG.
2 shows an example of a functional configuration. Note that, in the figure, parts corresponding to those in FIG. 3 are denoted by the same reference numerals. That is, the transmitting device 1 includes a local decoding unit 2
2 or the local decoding unit 20 instead of the determination unit 24
The configuration is the same as that of FIG. 3 except that the multiplexing unit 25 is not provided while the multiplexing unit 25 and the determination unit 2024 are provided.

【0191】但し、この場合も、図16における場合と
同様に、ローカルデコード部2022には、原画像デー
タが供給されないようになっている。さらに、図20の
実施の形態では、ローカルデコード部2022は、予測
係数を判定部2024に出力しないようになっている。
However, also in this case, as in the case of FIG. 16, the original image data is not supplied to the local decode unit 2022. Further, in the embodiment of FIG. 20, the local decoding unit 2022 does not output the prediction coefficient to the determination unit 2024.

【0192】次に、図21のフローチャートを参照し
て、その動作について説明する。
Next, the operation will be described with reference to the flowchart of FIG.

【0193】圧縮部21に対して、画像データが供給さ
れると、圧縮部21は、ステップS1001において、
その画像データを間引くことにより圧縮し、さらに、ス
テップS1002において、そのレベルを制限し、最初
は、補正を行わずに、ローカルデコード部2022およ
び判定部2024に出力する。ローカルデコード部20
22では、ステップS1003において、圧縮部21か
らの補正データ(最初は、上述したように、画像データ
を、単純に間引いた圧縮データのレベルを制限しただけ
のもの)がローカルデコードされる。
When the image data is supplied to the compression unit 21, the compression unit 21 determines in step S1001
The image data is compressed by thinning it out, and the level is limited in step S1002, and the image data is output to the local decoding unit 2022 and the determination unit 2024 without performing correction at first. Local decoding unit 20
In step S1003, in step S1003, the correction data from the compression unit 21 (in the first place, as described above, the image data is obtained by simply limiting the level of the compressed data obtained by simply thinning out) is locally decoded.

【0194】即ち、ステップS1003では、圧縮部2
1からの補正データが、例えば、図17に示したローカ
ルデコード部1022における場合と同様にして、ロー
カルデコードされ、これにより、原画像の予測値が算出
される。この予測値は、誤差算出部23に供給される。
That is, in step S1003, the compression unit 2
The correction data from 1 is locally decoded, for example, in the same manner as in the case of the local decoding unit 1022 shown in FIG. 17, whereby the predicted value of the original image is calculated. This predicted value is supplied to the error calculator 23.

【0195】誤差算出部23では、ステップS1004
において、図4のステップS4における場合と同様にし
て、予測誤差が算出され、誤差情報として、判定部20
24に供給される。判定部2024は、誤差算出部23
から誤差情報を受信すると、ステップS1005におい
て、図4のステップS4における場合と同様に、誤差算
出部23からの誤差情報が所定の閾値ε以下であるかど
うかを判定する。ステップS1005において、誤差情
報が所定の閾値ε以下でないと判定された場合、ステッ
プS1006に進み、判定部2024は、圧縮部21を
制御し、これにより、圧縮データのレベルを制限したも
のを補正させる。そして、圧縮部21において、圧縮デ
ータが補正され、新たな補正データが出力されるのを待
って、ステップS1003に戻る。
In the error calculating section 23, Step S1004
, A prediction error is calculated in the same manner as in step S4 of FIG.
24. The determination unit 2024 determines whether the error
In step S1005, as in step S4 of FIG. 4, it is determined whether the error information from the error calculator 23 is equal to or smaller than a predetermined threshold ε. If it is determined in step S1005 that the error information is not equal to or smaller than the predetermined threshold ε, the process proceeds to step S1006, and the determination unit 2024 controls the compression unit 21 to thereby correct the compressed data whose level is limited. . Then, the compression unit 21 corrects the compressed data and waits for new correction data to be output, and then returns to step S1003.

【0196】一方、ステップS1005において、誤差
情報が所定の閾値ε以下であると判定された場合、判定
部2024は、ステップS1007に進み、所定の閾値
ε以下の誤差情報が得られたときの補正データを、最適
圧縮データとして、送信機/記録装置16(図2)に出
力し、処理を終了する。
On the other hand, if it is determined in step S1005 that the error information is equal to or smaller than the predetermined threshold ε, the determination unit 2024 proceeds to step S1007 to correct the error information obtained when the error information is equal to or smaller than the predetermined threshold ε. The data is output to the transmitter / recording device 16 (FIG. 2) as the optimal compressed data, and the process ends.

【0197】従って、ここでは、クラスごとの予測係数
は出力されない。
Therefore, here, the prediction coefficient for each class is not output.

【0198】次に、図22は、図20のローカルデコー
ド部2022の構成例を示している。なお、図中、図1
7における場合と対応する部分については、同一の符号
を付してある。即ち、ローカルデコード部2022は、
基本的に図17におけるローカルデコード部1022と
同様に構成されている。
Next, FIG. 22 shows an example of the configuration of the local decoding unit 2022 in FIG. In FIG. 1, FIG.
The same reference numerals are given to the portions corresponding to the case in FIG. That is, the local decoding unit 2022
The configuration is basically the same as that of the local decode unit 1022 in FIG.

【0199】但し、図17においては、予測係数ROM
81がそこに記憶されているクラスごとの予測係数を、
判定部24に供給するようになっていたが、図22で
は、予測係数ROM81は、クラスごとの予測係数を、
判定部24に供給しないようになっている。
However, in FIG. 17, the prediction coefficient ROM
81 is the prediction coefficient for each class stored therein,
In FIG. 22, the prediction coefficient ROM 81 stores the prediction coefficient for each class,
It is not supplied to the determination unit 24.

【0200】次に、図23のフローチャートを参照し
て、その動作について説明する。
Next, the operation will be described with reference to the flowchart of FIG.

【0201】ローカルデコード部2022では、ステッ
プS2021乃至S2024において、図18のステッ
プS1021乃至1024における場合とそれぞれ同様
の処理が行われる。そして、ステップS2025におい
て、ステップS2024で求められた予測値のみが、誤
差算出部23に供給され(予測係数は、判定部2024
に供給されない)、ステップS2021に戻り、以下、
同様の処理が、例えば、1フレーム単位で繰り返され
る。
In steps S2021 to S2024, the local decoding unit 2022 performs the same processing as in steps S1021 to S1024 in FIG. Then, in step S2025, only the prediction value obtained in step S2024 is supplied to the error calculation unit 23 (the prediction coefficient is determined by the determination unit 2024).
Is returned to step S2021.
The same processing is repeated, for example, for each frame.

【0202】次に、図24は、図20の判定部2024
の構成例を示している。なお、図中、図13における場
合と対応する部分については、同一の符号を付してあ
る。即ち、上述したように、ローカルデコード部202
2からは予測係数が供給されないため、判定部2024
には、その予測係数を記憶するための予測係数メモリ6
1が設けられておらず、そのことを除けば、基本的に、
図13の判定部24と同様に構成されている。
Next, FIG. 24 is a diagram showing the determination unit 2024 of FIG.
Is shown. In the figure, parts corresponding to those in FIG. 13 are denoted by the same reference numerals. That is, as described above, the local decoding unit 202
Since no prediction coefficient is supplied from No. 2, the judgment unit 2024
Has a prediction coefficient memory 6 for storing the prediction coefficient.
1 is not provided, except for that, basically,
The configuration is the same as that of the determination unit 24 in FIG.

【0203】次に、図25のフローチャートを参照し
て、その動作について説明する。
Next, the operation will be described with reference to the flowchart of FIG.

【0204】判定部2024では、ステップS2041
乃至2045において、図14のステップS41乃至S
45における場合とそれぞれ同様の処理が行われ、これ
により、誤差情報が減少するように、圧縮部21が制御
される。
In the judging section 2024, the step S2041 is executed.
In steps S41 to S45 in FIG.
Processing similar to that in the case of 45 is performed, whereby the compression unit 21 is controlled so that error information decreases.

【0205】そして、ステップS2041乃至S204
5の処理を繰り返すことにより、誤差情報が減少し、こ
れにより、ステップS2042において、今回の誤差情
報が、所定の閾値εより小さいと判定された場合、ステ
ップS2046に進み、制御回路65は、補正データメ
モリ62に記憶されている1フレームの補正データを、
最適圧縮データとして読み出し、送信機/記録装置16
に供給して、処理を終了する。
Then, steps S2041 to S204
By repeating the process of step 5, the error information decreases. If it is determined in step S2042 that the current error information is smaller than the predetermined threshold ε, the process proceeds to step S2046, where the control circuit 65 The correction data of one frame stored in the data memory 62 is
Read as optimal compressed data, transmitter / recorder 16
To terminate the process.

【0206】その後は、次のフレームについての誤差情
報が供給されるのを待って、再び、同様の処理を繰り返
す。
After that, after the error information for the next frame is supplied, the same processing is repeated again.

【0207】次に、図26は、送信装置1が図20に示
したように構成される場合の受信装置4の構成例を示し
ている。なお、図中、図15における場合と対応する部
分については、同一の符号を付してある。即ち、図26
の受信装置4は、クラス分類回路75と予測回路76と
の間に予測係数ROM78が新たに設けられている他
は、図15における場合と基本的に同様に構成されてい
る。
Next, FIG. 26 shows an example of the configuration of the receiving apparatus 4 when the transmitting apparatus 1 is configured as shown in FIG. In the figure, the same reference numerals are given to portions corresponding to the case in FIG. That is, FIG.
The receiving device 4 has basically the same configuration as that in FIG. 15 except that a prediction coefficient ROM 78 is newly provided between the class classification circuit 75 and the prediction circuit 76.

【0208】送信装置1が図20に示したように構成さ
れる場合、上述したことから、受信機/再生装置71が
出力する符号化データには、クラスごとの予測係数は含
まれておらず、このため、分離部72では、符号化デー
タから、補正データ(最適圧縮データ)だけが抽出さ
れ、クラス分類用ブロック化回路73および予測値計算
用ブロック化回路77に供給される。
When transmitting apparatus 1 is configured as shown in FIG. 20, as described above, encoded data output from receiver / reproducing apparatus 71 does not include a prediction coefficient for each class. Therefore, in the separating unit 72, only the correction data (optimized compressed data) is extracted from the encoded data, and supplied to the class classification blocking circuit 73 and the predicted value calculation blocking circuit 77.

【0209】クラス分類用ブロック化回路73、クラス
分類回路75、または予測値計算用ブロック化回路77
では、図8におけるクラス分類用ブロック化回路41、
クラス分類回路45、または予測値計算用ブロック化回
路42それぞれと同様の処理が行われ、これにより、予
測値計算用ブロック化回路77からは5×5画素の予測
値計算用ブロックが出力され、また、クラス分類回路7
5からはクラス情報が出力される。予測値計算用ブロッ
クは予測回路76に供給され、クラス情報は予測係数R
OM78に供給される。
Classification blocking circuit 73, class classification circuit 75, or prediction value calculation blocking circuit 77
Now, the class classification blocking circuit 41 in FIG.
The same processing as that of the class classification circuit 45 or the prediction value calculation blocking circuit 42 is performed, whereby the prediction value calculation block of 5 × 5 pixels is output from the prediction value calculation blocking circuit 77. Also, the class classification circuit 7
5 outputs class information. The prediction value calculation block is supplied to the prediction circuit 76, and the class information is represented by a prediction coefficient R
OM78.

【0210】予測係数ROM78には、図22の予測係
数ROM81に記憶されているクラスごとの予測係数と
同一のものが記憶されており、クラス分類回路75から
クラス情報が供給されると、そのクラス情報に対応した
26×9の予測係数が読み出され、予測回路76に供給
される。
In the prediction coefficient ROM 78, the same prediction coefficient as that of each class stored in the prediction coefficient ROM 81 of FIG. 22 is stored. A 26 × 9 prediction coefficient corresponding to the information is read and supplied to the prediction circuit 76.

【0211】予測回路76は、予測係数ROM78から
の26×9の予測係数と、予測値計算用ブロック化回路
77から供給される5×5画素の予測値計算用ブロック
を構成する補正データとを用い、式(1)にしたがっ
て、原画像の3×3画素の予測値を算出し、そのような
予測値で構成される1フレームの画像を、復号画像とし
て出力する。
The prediction circuit 76 calculates the 26 × 9 prediction coefficients from the prediction coefficient ROM 78 and the correction data constituting the prediction value calculation block of 5 × 5 pixels supplied from the prediction value calculation blocking circuit 77. Using the equation (1), a predicted value of 3 × 3 pixels of the original image is calculated, and an image of one frame including such predicted values is output as a decoded image.

【0212】送信装置1が図20に示したように構成さ
れるとともに、受信装置4が図26に示したように構成
される場合、クラスごとの26×9の予測係数を送受信
せずに済むので、その分だけ、伝送容量または記録容量
を低減することができる。
When transmitting apparatus 1 is configured as shown in FIG. 20 and receiving apparatus 4 is configured as shown in FIG. 26, it is not necessary to transmit and receive 26 × 9 prediction coefficients for each class. Therefore, the transmission capacity or the recording capacity can be reduced accordingly.

【0213】なお、予測係数ROM78や81には、ク
ラスごとの予測係数を記憶させるのではなく、教師用ブ
ロックを構成する画素値の平均値などを、クラスごとに
記憶させるようにすることが可能である。この場合、ク
ラス情報が与えられると、そのクラスに対応する画素値
が出力されることになり、図17や図22のローカルデ
コード部1022や2022において、予測値計算用ブ
ロック化回路42および予測回路82を設けずに済むよ
うになる。また、図26の受信装置4においても同様
に、予測値計算用ブロック化回路77および予測回路7
6を設けずに済むようになる。
Note that the prediction coefficient ROMs 78 and 81 do not store the prediction coefficient for each class, but can store the average value of the pixel values constituting the teacher block for each class. It is. In this case, when the class information is given, the pixel value corresponding to the class is output, and the local decoding units 1022 and 2022 of FIGS. It is not necessary to provide 82. Also, in the receiving device 4 of FIG. 26, similarly, the prediction value calculating block circuit 77 and the prediction circuit 7
6 does not have to be provided.

【0214】なお、上述の場合には、誤差情報が、所定
の閾値ε以下になるまで、圧縮データの補正を繰り返し
行うようにしたが、圧縮データの補正の回数には、上限
を設けるようにすることも可能である。即ち、例えば、
リアルタイムで画像の伝送を行う場合などにおいては、
1フレームについての処理が、所定の期間内に終了する
ことが必要であるが、誤差情報は、そのような所定の期
間内に収束するとは限らない。そこで、補正の回数に上
限を設けることにより、所定の期間内に、誤差情報が閾
値ε以下に収束しないときは、そのフレームについての
処理を終了し(そのときにおける補正データを、符号化
結果とし)、次のフレームについての処理を開始するよ
うにすることが可能である。
In the above case, the correction of the compressed data is repeatedly performed until the error information becomes equal to or less than the predetermined threshold value ε. However, the upper limit is set for the number of times of the correction of the compressed data. It is also possible. That is, for example,
For example, when transmitting images in real time,
The processing for one frame needs to be completed within a predetermined period, but the error information does not always converge within such a predetermined period. Therefore, by providing an upper limit to the number of corrections, if the error information does not converge below the threshold value ε within a predetermined period, the processing for that frame is terminated (correction data at that time is used as an encoding result. ), It is possible to start processing for the next frame.

【0215】また、上述の場合には、圧縮部21におい
て、画像を、単純に間引き、即ち、3×3画素のブロッ
クにおける中心画素を抽出し、これを圧縮データとする
ようにしたが、圧縮部21には、その他、例えば、ブロ
ックを構成する9画素の平均値などを求めさせ、その平
均値を、ブロックにおける中心画素の画素値とすること
により、その画素数を少なくし(間引き)、これを圧縮
データとするようにすることも可能である。
In the above case, the compression section 21 simply thins out the image, that is, extracts the central pixel in a 3 × 3 pixel block and uses it as compressed data. In addition, for example, the unit 21 is caused to obtain an average value of nine pixels constituting the block, and the average value is used as the pixel value of the central pixel in the block to reduce the number of pixels (thinning out). This can be used as compressed data.

【0216】次に、図27は、図2の送信装置1の第4
の機能的構成例を示している。
Next, FIG. 27 shows a fourth example of the transmitting apparatus 1 of FIG.
2 shows an example of a functional configuration.

【0217】ブロック化回路111には、符号化すべき
画像データが入力されるようになされており、ブロック
化回路111は、画像データを、その性質に応じて所定
のクラスに分類するための単位である、注目画素を中心
としたクラス分類用ブロックにブロック化し、ADRC
(Adaptive Dynamic Range Coding)処理回路112お
よび遅延回路115に供給するようになされている。
The blocking circuit 111 receives image data to be encoded. The blocking circuit 111 classifies the image data into a predetermined class according to the nature of the image data. ADRC is divided into blocks for class classification around the pixel of interest.
(Adaptive Dynamic Range Coding) is supplied to the processing circuit 112 and the delay circuit 115.

【0218】ADRC処理回路112は、ブロック化回
路111からのブロック(クラス分類用ブロック)に対
してADRC処理を施し、その結果得られるADRCコ
ードで構成されるブロックを、クラス分類回路113に
供給するようになされている。
The ADRC processing circuit 112 performs ADRC processing on the block (class classification block) from the blocking circuit 111, and supplies the resulting block composed of the ADRC code to the class classification circuit 113. It has been made like that.

【0219】ここで、ADRC処理よれば、クラス分類
用ブロックを構成する画素のビット数が低減されるよう
になされている。
Here, according to the ADRC process, the number of bits of the pixels constituting the class classification block is reduced.

【0220】即ち、例えば、いま、説明を簡単にするた
め、図28(A)に示すように、直線上に並んだ4画素
で構成されるブロックを考えると、ADRC処理におい
ては、その画素値の最大値MAXと最小値MINが検出
される。そして、DR=MAX−MINを、ブロックの
局所的なダイナミックレンジとし、このダイナミックレ
ンジDRに基づいて、ブロックを構成する画素の画素値
がKビットに再量子化される。
That is, for example, for simplicity of description, consider a block composed of four pixels arranged on a straight line as shown in FIG. 28 (A). Are detected as the maximum value MAX and the minimum value MIN. Then, DR = MAX−MIN is set as a local dynamic range of the block, and based on the dynamic range DR, the pixel values of the pixels forming the block are requantized to K bits.

【0221】即ち、ブロック内の各画素値から、最小値
MINを減算し、その減算値をDR/2Kで除算する。
そして、その結果得られる除算値に対応するコード(A
DRCコード)に変換される。具体的には、例えば、K
=2とした場合、図28(B)に示すように、除算値
が、ダイナミックレンジDRを4(=22)等分して得
られるいずれの範囲に属するかが判定され、除算値が、
最も下のレベルの範囲、下から2番目のレベルの範囲、
下から3番目のレベルの範囲、または最も上のレベルの
範囲に属する場合には、それぞれ、例えば、00B,0
1B,10B、または11Bなどの2ビットにコード化
される(Bは2進数であることを表す)。そして、復号
側においては、ADRCコード00B,01B,10
B、または11Bは、ダイナミックレンジDRを4等分
して得られる最も下のレベルの範囲の中心値L00、下か
ら2番目のレベルの範囲の中心値L01、下から3番目の
レベルの範囲の中心値L10、または最も上のレベルの範
囲の中心値L11にそれぞれ変換され、その値に、最小値
MINが加算されることで復号が行われる。
[0221] That is, from each pixel value in the block, subtracts the minimum value MIN, dividing the subtracted value by DR / 2 K.
Then, the code (A) corresponding to the resulting division value
DRC code). Specifically, for example, K
In the case where = 2, as shown in FIG. 28B, it is determined whether the divided value belongs to any range obtained by equally dividing the dynamic range DR by 4 (= 2 2 ).
The range of the lowest level, the range of the second lowest level,
In the case of belonging to the range of the third level from the bottom or the range of the top level, for example, 00B, 0
It is encoded into two bits such as 1B, 10B, or 11B (B represents a binary number). Then, on the decoding side, the ADRC codes 00B, 01B, 10
B or 11B is the center value L 00 of the range of the lowest level obtained by dividing the dynamic range DR into four, the center value L 01 of the range of the second level from the bottom, and the center value L 01 of the third level from the bottom. The center value L 10 of the range or the center value L 11 of the highest level range is converted, and the minimum value MIN is added to the value to perform decoding.

【0222】ここで、このようなADRC処理はノンエ
ッジマッチングと呼ばれる。
Here, such ADRC processing is called non-edge matching.

【0223】なお、ADRC処理については、本件出願
人が先に出願した、例えば、特開平3−53778号公
報などに、その詳細が開示されている。
The details of the ADRC processing are disclosed in, for example, Japanese Patent Application Laid-Open No. 3-53778, filed by the present applicant earlier.

【0224】以上のようなADRC処理によれば、ブロ
ックを構成する画素に割り当てられているビット数より
少ないビット数で再量子化を行うことにより、そのビッ
ト数を低減することができる。
According to the ADRC processing as described above, the number of bits can be reduced by performing requantization with a smaller number of bits than the number of bits allocated to the pixels constituting the block.

【0225】図27に戻り、クラス分類回路113は、
ADRC処理回路112からのブロックを、その性質に
応じて所定のクラスに分類するクラス分類処理を行い、
そのブロックがいずれのクラスに属するかを、クラス情
報として、マッピング係数メモリ114に供給するよう
になされている。
Returning to FIG. 27, the classification circuit 113
Performing a class classification process of classifying the blocks from the ADRC processing circuit 112 into predetermined classes according to their properties;
The class to which the block belongs is supplied to the mapping coefficient memory 114 as class information.

【0226】ここで、符号化すべき画像データに、例え
ば8ビットが割り当てられている場合において、クラス
分類用ブロックが、例えば、注目画素を中心とした3×
3の9画素で構成されるときに、そのようなクラス分類
用ブロックを対象にクラス分類処理を行ったのでは、
(289という膨大な数のクラスに分類されることにな
る。
Here, in a case where, for example, 8 bits are allocated to the image data to be encoded, the class classification block is, for example, 3 ×
When the classification processing is performed on such a classification block when it is composed of 9 pixels of 3,
(2 8 ) It will be classified into a huge number of classes of 9 .

【0227】そこで、上述したように、ADRC処理回
路112において、クラス分類用ブロックに対して、A
DRC処理が施されるようになされており、これによ
り、クラス分類用ブロックを構成する画素のビット数を
低減し、さらに、クラス数も削減するようになされてい
る。即ち、ADRC処理回路112において、例えば1
ビットのADRC処理が行われるとした場合には、クラ
ス数は、(289から(219、即ち、512に低減さ
れる。
Therefore, as described above, the ADRC processing circuit 112 assigns A
The DRC processing is performed, whereby the number of bits of pixels constituting the class classification block is reduced, and the number of classes is also reduced. That is, in the ADRC processing circuit 112, for example, 1
Assuming that bit ADRC processing is performed, the number of classes is reduced from (2 8 ) 9 to (2 1 ) 9 , that is, 512.

【0228】なお、本実施の形態では、クラス分類回路
113において、ADRC処理回路112から出力され
るADRCコードに基づいて、クラス分類処理が行われ
るが、クラス分類処理は、その他、例えば、DPCM
(予測符号化)や、BTC(Block Truncation Codin
g)、VQ(ベクトル量子化)、DCT(離散コサイン
変換)、アダマール変換などを施したデータを対象に行
うようにすることも可能である。
In the present embodiment, the class classification circuit 113 performs the class classification processing based on the ADRC code output from the ADRC processing circuit 112.
(Predictive coding), BTC (Block Truncation Codin)
g), VQ (vector quantization), DCT (discrete cosine transform), Hadamard transform and the like can be performed on the data.

【0229】再び、図27に戻り、マッピング係数メモ
リ114は、後述するような学習(マッピング係数学
習)により得られるクラスごとのマッピング係数を記憶
しており、クラス分類回路113から供給されるクラス
情報に対応するマッピング係数を読み出し、演算回路1
16に供給するようになされている。
Referring back to FIG. 27, the mapping coefficient memory 114 stores mapping coefficients for each class obtained by learning (mapping coefficient learning) described later, and the class information supplied from the class classification circuit 113. Is read out, and the arithmetic circuit 1
16.

【0230】遅延回路115は、ブロック化回路111
から供給されるブロックを、そのブロックのクラス情報
に対応するマッピング係数が、マッピング係数メモリ1
14から読み出されるまで遅延し、演算回路116に供
給するようになされている。
The delay circuit 115 includes a blocking circuit 111
Is stored in the mapping coefficient memory 1 in a mapping coefficient corresponding to the class information of the block.
The data is delayed until the data is read from the memory 14, and is supplied to the arithmetic circuit 116.

【0231】演算回路116は、遅延回路115から供
給されるブロックを構成する画素の画素値と、マッピン
グ係数メモリ114から供給される、そのブロックのク
ラスに対応するマッピング係数とを用いて所定の演算を
行うことにより、画像を、その画素数を間引いて(少な
くして)符号化した符号化データを算出するようになさ
れている。即ち、演算回路116は、ブロック化回路1
11が出力するブロックを構成する各画素の画素値をy
1,y2,・・・とするとともに、マッピング係数メモリ
114が出力する、そのブロックのクラスに対応するマ
ッピング係数をk1,k2,・・・とするとき、それらを
引数とする所定の関数値f(y1,y2,・・・,k1
2,・・・)を演算し、その関数値f(y1,y2,・
・・,k1,k2,・・・)を、ブロック化回路111が
出力するブロック(クラス分類用ブロック)を構成する
画素のうちの、例えば中心の画素の画素値として出力す
るようになされている。
The arithmetic circuit 116 performs a predetermined arithmetic operation using the pixel values of the pixels constituting the block supplied from the delay circuit 115 and the mapping coefficients supplied from the mapping coefficient memory 114 and corresponding to the class of the block. Is performed, encoded data obtained by encoding the image by thinning out (reducing) the number of pixels is calculated. That is, the arithmetic circuit 116 is the blocking circuit 1
The pixel value of each pixel constituting the block output by 11 is y
1, y 2, with a., The mapping coefficient memory 114 outputs, k 1, k 2 the mapping coefficients corresponding to the class of the block, when a., Of predetermined to them an argument Function value f (y 1 , y 2 ,..., K 1 ,
k 2 ,...) and the function value f (y 1 , y 2 ,.
.., K 1 , k 2 ,...) Are output as, for example, the pixel value of the central pixel among the pixels constituting the block (class classification block) output by the blocking circuit 111. ing.

【0232】従って、ブロック化回路111が出力する
クラス分類用ブロックを構成する画素数をN画素とする
と、演算回路116は、画像データを1/Nに間引き、
これを、符号化データとして出力するようになされてい
る。
Therefore, assuming that the number of pixels constituting the class classification block output from the blocking circuit 111 is N pixels, the arithmetic circuit 116 thins out the image data to 1 / N,
This is output as encoded data.

【0233】なお、演算回路116が出力する符号化デ
ータは、N画素で構成されるブロックの中心の1個の画
素を選択して出力するような、いわば単純な間引き処理
により得られるものではなく、上述したように、そのブ
ロックを構成するN画素により規定される関数値f(y
1,y2,・・・,k1,k2,・・・)であるが、この関
数値f(y1,y2,・・・,k1,k2,・・・)は、見
方を変えれば、単純な間引き処理により得られる、ブロ
ックの中心の画素の画素値を、その周辺の画素値に基づ
いて補正したものと考えることができる。そこで、マッ
ピング係数と、ブロックを構成する画素との演算の結果
得られるデータである符号化データを、以下、適宜、補
正データともいう。
The encoded data output from the arithmetic circuit 116 is not obtained by a so-called simple thinning-out process in which one pixel at the center of a block composed of N pixels is selected and output. , As described above, the function value f (y defined by the N pixels constituting the block
1, y 2, ···, k 1, k 2, it is a ...), the function value f (y 1, y 2, ···, k 1, k 2, ···) is In other words, it can be considered that the pixel value of the pixel at the center of the block, which is obtained by a simple thinning process, is corrected based on the pixel values of the surrounding pixels. Therefore, the encoded data, which is data obtained as a result of the operation of the mapping coefficients and the pixels constituting the block, is hereinafter also referred to as correction data as appropriate.

【0234】また、演算回路116における演算処理
は、ブロック化回路111が出力するクラス分類用ブロ
ックを構成する各画素の画素値を、関数値f(y1
2,・・・,k1,k2,・・・)にマッピング(写
像)する処理とも考えることができる。そこで、そのよ
うな処理に用いられる係数k1,k2,・・・をマッピン
グ係数と呼んでいる。
In the arithmetic processing in the arithmetic circuit 116, the pixel value of each pixel constituting the class classification block output from the blocking circuit 111 is converted into a function value f (y 1 ,
y 2 ,..., k 1 , k 2 ,...). Therefore, the coefficients k 1 , k 2 ,... Used for such processing are called mapping coefficients.

【0235】送信機/記録装置118は、演算回路11
6から符号化データとして供給される補正データを、記
録媒体2に記録し、または伝送路3を介して伝送するよ
うになされている。
The transmitting / recording device 118 is
The correction data supplied as encoded data from 6 is recorded on the recording medium 2 or transmitted via the transmission path 3.

【0236】次に、図29のフローチャートを参照し
て、その動作について説明する。
Next, the operation will be described with reference to the flowchart of FIG.

【0237】ブロック化回路111には、例えば、1フ
レーム(フィールド)単位で画像データが供給されるよ
うになされており、ブロック化回路111では、ステッ
プS61において、1フレームの画像が、クラス分類用
ブロックにブロック化される。即ち、ブロック化回路1
11は、例えば、図7に四角形で囲んで示すように、画
像データを、注目画素を中心とした3×3(横×縦)の
9画素でなるクラス分類用ブロックに分割し、ADRC
処理回路112および遅延回路115に、順次供給す
る。
For example, image data is supplied to the blocking circuit 111 in units of one frame (field). In step S61, the blocking circuit 111 converts the image of one frame into a class Blocked into blocks. That is, the blocking circuit 1
Reference numeral 11 denotes, for example, dividing the image data into 9 × 3 × 3 (horizontal × vertical) pixels around the pixel of interest as shown in FIG.
The signals are sequentially supplied to the processing circuit 112 and the delay circuit 115.

【0238】なお、この場合、クラス分類用ブロック
は、3×3画素でなる正方形状のブロックで構成される
こととなるが、クラス分類用ブロックの形状は、正方形
である必要はなく、その他、例えば、長方形や、十文字
形、その他の任意な形とすることが可能である。また、
クラス分類用ブロックを構成する画素数も、3×3の9
画素に限定されるものではない。さらに、クラス分類用
ブロックは、隣接する画素どうしで構成するのではな
く、離れた画素どうしで構成するようにすることも可能
である。但し、その形状および画素数は、後述する学習
(マッピング係数学習)時における場合のものと一致し
ている必要がある。
In this case, the class classification block is formed of a square block composed of 3 × 3 pixels. However, the shape of the class classification block does not need to be a square. For example, the shape can be a rectangle, a cross, or any other shape. Also,
The number of pixels constituting the class classification block is also 3 × 3 = 9.
It is not limited to pixels. In addition, the class classification block may be configured not with adjacent pixels but with separated pixels. However, the shape and the number of pixels need to match those at the time of learning (mapping coefficient learning) described later.

【0239】ADRC処理回路112は、ブロック化回
路111からクラス分類用ブロックを受信すると、ステ
ップS62において、そのブロックに対して、例えば、
1ビットのADRC処理を施し、これにより、1ビット
で表現される画素で構成されるブロックとする。ADR
C処理の施されたクラス分類用ブロックは、クラス分類
回路113に供給される。
Upon receiving the class classification block from the blocking circuit 111, the ADRC processing circuit 112 performs, for example,
A 1-bit ADRC process is performed, thereby forming a block composed of pixels represented by 1 bit. ADR
The classification block subjected to the C processing is supplied to the classification circuit 113.

【0240】クラス分類回路113では、ステップS6
3において、ADRC処理回路112からのクラス分類
用ブロックがクラス分類され、その結果得られるクラス
情報が、マッピング係数メモリ114に、アドレスとし
て供給される。これにより、マッピング係数メモリ11
4からは、クラス分類回路113より供給されたクラス
情報に対応するマッピング係数が読み出され、演算回路
116に供給される。
In the class classification circuit 113, step S6
In 3, the class classification block from the ADRC processing circuit 112 is classified, and the resulting class information is supplied to the mapping coefficient memory 114 as an address. Thereby, the mapping coefficient memory 11
From 4, the mapping coefficient corresponding to the class information supplied from the class classification circuit 113 is read and supplied to the arithmetic circuit 116.

【0241】一方、遅延回路115では、ブロック化回
路111からのクラス分類用ブロックが遅延され、その
ブロックのクラス情報に対応するマッピング係数が、マ
ッピング係数メモリ114から読み出されるのを待っ
て、演算回路116に供給される。演算回路116で
は、ステップS64において、遅延回路115からのク
ラス分類用ブロックを構成する各画素の画素値と、マッ
ピング係数メモリ114からのマッピング係数を用い
て、上述した関数値f(・)(この関数fのかっこ内の
・は、画素値y1,y2,・・・と、マッピング係数
1,k2,・・・の集合を表すものとする)が演算され
ることにより、クラス分類用ブロックを構成する中心の
画素(中心画素)の画素値を補正した補正データが算出
される。この補正データは、画像を符号化した符号化デ
ータとして、レベル制限回路117に供給される。
On the other hand, in the delay circuit 115, the class classification block from the blocking circuit 111 is delayed, and after the mapping coefficient corresponding to the class information of the block is read from the mapping coefficient memory 114, the operation circuit 116. In step S64, the arithmetic circuit 116 uses the pixel value of each pixel constituting the class classification block from the delay circuit 115 and the mapping coefficient from the mapping coefficient memory 114 to obtain the above-described function value f (·) (this .. In parentheses of the function f represent a set of pixel values y 1 , y 2 ,... And mapping coefficients k 1 , k 2 ,. Correction data is calculated by correcting the pixel value of the central pixel (central pixel) constituting the application block. This correction data is supplied to the level limiting circuit 117 as encoded data obtained by encoding an image.

【0242】レベル制限回路117では、ステップS6
5において、符号化データから、例えば、そのMSB側
の2ビットが抽出され、送信機/記録装置118に供給
される。即ち、符号化データが、例えば8ビットで構成
される場合には、その下位6ビットが削除され、上位2
ビットだけが、送信機/記録装置16に供給される。送
信機/記録装置118では、ステップS66において、
レベル制限回路117からの符号化データが、記録媒体
2に記録され、または伝送路3を介して伝送される。
In level limiting circuit 117, step S6
At 5, for example, the two bits on the MSB side are extracted from the encoded data and supplied to the transmitter / recorder 118. That is, if the encoded data is composed of, for example, 8 bits, the lower 6 bits are deleted and the upper 2 bits are deleted.
Only the bits are provided to the transmitter / recorder 16. In the transmitter / recording device 118, in step S66,
The encoded data from the level limiting circuit 117 is recorded on the recording medium 2 or transmitted via the transmission path 3.

【0243】そして、ステップS67に進み、1フレー
ム分の画像データについての処理が終了したかどうかが
判定される。ステップS67において、1フレーム分の
画像データについての処理が、まだ終了していないと判
定された場合、ステップS62に戻り、次のクラス分類
用ブロックを対象に、ステップS62以下の処理が繰り
返される。また、ステップS67において、1フレーム
分の画像データについての処理が終了したと判定された
場合、ステップS61に戻り、次のフレームを対象に、
ステップS61以下の処理が繰り返される。
Then, the flow advances to a step S67 to determine whether or not the processing for the image data for one frame has been completed. If it is determined in step S67 that the process for one frame of image data has not been completed, the process returns to step S62, and the processes in step S62 and subsequent steps are repeated for the next class classification block. If it is determined in step S67 that the processing for one frame of image data has been completed, the process returns to step S61, and the next frame is targeted.
The processing from step S61 is repeated.

【0244】次に、図30は、図27のマッピング係数
メモリ114に記憶されているマッピング係数を算出す
るための学習(マッピング係数学習)処理を行う画像処
理装置の構成例を示している。
Next, FIG. 30 shows an example of the configuration of an image processing apparatus which performs learning (mapping coefficient learning) processing for calculating mapping coefficients stored in the mapping coefficient memory 114 of FIG.

【0245】メモリ121には、学習に適したディジタ
ル画像データ(以下、適宜、学習用画像という)が1フ
レーム以上記憶されている。ブロック化回路122は、
メモリ121に記憶されている画像データを読み出し、
図27のブロック化回路111から出力されるクラス分
類用ブロックと同一のブロックを構成して、ADRC処
理回路123および演算回路125に供給するようにな
されている。
In the memory 121, one or more frames of digital image data suitable for learning (hereinafter, appropriately referred to as learning images) are stored. The blocking circuit 122 includes:
Reads image data stored in the memory 121,
The same block as the class classification block output from the blocking circuit 111 in FIG. 27 is configured to be supplied to the ADRC processing circuit 123 and the arithmetic circuit 125.

【0246】ADRC処理回路123またはクラス分類
回路124は、図27のADRC処理回路112または
クラス分類回路113における場合とそれぞれ同様の処
理を行うようになされている。従って、クラス分類回路
124からは、ブロック化回路122が出力するブロッ
クのクラス情報が出力されるようになされている。そし
て、このクラス情報は、マッピング係数メモリ131
に、アドレスとして供給されるようになされている。
The ADRC processing circuit 123 or the class classification circuit 124 performs the same processing as the ADRC processing circuit 112 or the class classification circuit 113 shown in FIG. 27, respectively. Therefore, the class classification circuit 124 outputs the class information of the block output by the blocking circuit 122. The class information is stored in the mapping coefficient memory 131.
Is supplied as an address.

【0247】演算回路125は、ブロック化回路122
から供給されるブロックを構成する画素と、マッピング
係数メモリ131から供給されるマッピング係数とを用
いて、図27の演算回路116における場合と同一の演
算を行い、その結果得られる補正データ(関数値f
(・))を、レベル制限回路126に供給するようにな
されている。レベル制限回路126は画素データのレベ
ルを制限した後、ローカルデコード部127に出力して
いる。
The arithmetic circuit 125 includes a blocking circuit 122
The same operation as that in the arithmetic circuit 116 of FIG. 27 is performed using the pixels constituting the block supplied from the pixel and the mapping coefficient supplied from the mapping coefficient memory 131, and the correction data (function value f
(•)) is supplied to the level limiting circuit 126. After limiting the level of the pixel data, the level limiting circuit 126 outputs the pixel data to the local decoding unit 127.

【0248】ローカルデコード部127は、レベル制限
回路126から供給される補正データに基づいて、元の
学習用画像の予測値(ブロック化回路122が出力する
ブロックを構成する画素の画素値の予測値)を予測し
(算出し)、誤差算出部128に供給するようになされ
ている。誤差算出部128は、ローカルデコード部12
7から供給される予測値に対応する学習用画像の画素値
(真値)をメモリ121から読み出し、その学習用画像
の画素値に対する、予測値の予測誤差を算出(検出)
し、その予測誤差を、誤差情報として、判定部129に
供給するようになされている。
Based on the correction data supplied from the level limiting circuit 126, the local decoding unit 127 calculates the prediction value of the original learning image (the prediction value of the pixel value of the pixel forming the block output by the blocking circuit 122). ) Is predicted (calculated) and supplied to the error calculator 128. The error calculation unit 128 is provided for the local decoding unit 12.
The pixel value (true value) of the learning image corresponding to the prediction value supplied from 7 is read from the memory 121, and the prediction error of the prediction value with respect to the pixel value of the learning image is calculated (detected).
Then, the prediction error is supplied to the determination unit 129 as error information.

【0249】判定部129は、誤差算出部128からの
誤差情報と、所定の閾値ε1とを比較し、その比較結果
に対応して、マッピング係数設定回路130を制御する
ようになされている。マッピング係数設定回路130
は、判定部129の制御にしたがって、クラス分類回路
124におけるクラス分類の結果得られるクラス数と同
一の数のマッピング係数のセットを設定(変更)し、マ
ッピング係数メモリ131に供給するようになされてい
る。
The determining section 129 compares the error information from the error calculating section 128 with a predetermined threshold value ε1, and controls the mapping coefficient setting circuit 130 according to the comparison result. Mapping coefficient setting circuit 130
Sets (changes) a set of mapping coefficients of the same number as the number of classes obtained as a result of the classification in the classification circuit 124 according to the control of the determination unit 129, and supplies the same to the mapping coefficient memory 131. I have.

【0250】マッピング係数メモリ131は、マッピン
グ係数設定回路130から供給されるマッピング係数を
一時記憶するようになされている。なお、マッピング係
数メモリ131は、クラス分類回路124においてクラ
ス分類されるクラスの数だけのマッピング係数(マッピ
ング係数のセット)を記憶することのできる記憶領域を
有しており、各記憶領域においては、マッピング係数設
定回路130から、新たなマッピング係数が供給される
と、既に記憶しているマッピング係数に代えて、その新
たなマッピング係数が記憶されるようになされている。
The mapping coefficient memory 131 temporarily stores the mapping coefficients supplied from the mapping coefficient setting circuit 130. Note that the mapping coefficient memory 131 has storage areas capable of storing mapping coefficients (sets of mapping coefficients) of the number of classes classified by the class classification circuit 124. In each storage area, When a new mapping coefficient is supplied from the mapping coefficient setting circuit 130, the new mapping coefficient is stored instead of the already stored mapping coefficient.

【0251】また、マッピング係数メモリ131は、ク
ラス分類回路124から供給されるクラス情報に対応す
るアドレスに記憶されたマッピング係数を読み出し、演
算回路126に供給するようにもなされている。
The mapping coefficient memory 131 reads out the mapping coefficient stored at the address corresponding to the class information supplied from the class classification circuit 124 and supplies it to the arithmetic circuit 126.

【0252】次に、図31のフローチャートを参照し
て、その動作について説明する。
Next, the operation will be described with reference to the flowchart in FIG.

【0253】まず最初に、マッピング係数設定回路13
0は、ステップS71において、マッピング係数の初期
値のセットを、クラス分類回路124においてクラス分
類されるクラスの数だけ設定し、マッピング係数メモリ
131に供給する。マッピング係数メモリ131では、
マッピング係数設定回路130からのマッピング係数
(初期値)が、対応するクラスのアドレスに記憶され
る。
First, the mapping coefficient setting circuit 13
In step S 71, a set of initial values of mapping coefficients is set to the number of classes classified by the class classification circuit 124 in step S 71 and supplied to the mapping coefficient memory 131. In the mapping coefficient memory 131,
The mapping coefficient (initial value) from the mapping coefficient setting circuit 130 is stored at the address of the corresponding class.

【0254】そして、ブロック化回路122は、ステッ
プS72において、メモリ121に記憶されている学習
用画像すべてを、図27のブロック化回路111におけ
る場合と同様に、注目画素を中心とした3×3画素のブ
ロックにブロック化する。さらに、ブロック化回路12
2は、そのブロックを、メモリ121から読み出し、A
DRC処理回路123および演算回路125に順次供給
する。
Then, in step S72, the blocking circuit 122 converts all the learning images stored in the memory 121 into a 3 × 3 image centered on the pixel of interest in the same manner as in the blocking circuit 111 of FIG. Block into blocks of pixels. Further, the blocking circuit 12
2 reads the block from the memory 121 and
It is sequentially supplied to the DRC processing circuit 123 and the arithmetic circuit 125.

【0255】ADRC処理回路123では、ステップS
73において、ブロック化回路122からのブロックに
対して、図27のADRC処理回路112における場合
と同様に、1ビットのADRC処理が施され、クラス分
類回路124に供給される。
In the ADRC processing circuit 123, step S
At 73, the block from the blocking circuit 122 is subjected to 1-bit ADRC processing as in the case of the ADRC processing circuit 112 in FIG. 27, and is supplied to the class classification circuit 124.

【0256】クラス分類回路124では、ステップS7
4において、ADRC処理回路123から供給されたブ
ロックのクラスが決定され、そのクラス情報が、アドレ
スとして、マッピング係数メモリ131に供給される。
これにより、ステップS75において、マッピング係数
メモリ131の、クラス分類回路124より供給される
クラス情報に対応するアドレスから、マッピング係数が
読み出され、演算回路125に供給される。
In the classifying circuit 124, step S7
In 4, the class of the block supplied from the ADRC processing circuit 123 is determined, and the class information is supplied to the mapping coefficient memory 131 as an address.
Thereby, in step S75, the mapping coefficient is read from the address corresponding to the class information supplied from the class classification circuit 124 in the mapping coefficient memory 131, and supplied to the arithmetic circuit 125.

【0257】演算回路125は、ブロック化回路122
からブロックを受信するとともに、マッピング係数メモ
リ131から、そのブロックのクラスに対応するマッピ
ング係数を受信すると、ステップS76において、その
マッピング係数と、ブロック化回路122から供給され
るブロックを構成する画素の画素値とを用いて、上述の
関数値f(・)を演算する。この演算結果は、ブロック
化回路122から出力されるブロックの中心画素の画素
値を補正した補正データとして、レベル制限回路126
に供給される。この補正ビットが、例えば8ビットで構
成されているとすると、ステップS77において、その
8ビットの補正データから、その上位2ビットが、レベ
ル制限回路126で選択され、これにより、ビット数が
2ビットに制限された画素データが、ローカルデコード
部127に供給される。
The operation circuit 125 includes a blocking circuit 122
When receiving a block from the mapping coefficient memory 131 and receiving a mapping coefficient corresponding to the class of the block from the mapping coefficient memory 131, in step S76, the mapping coefficient and the pixel of the pixel constituting the block supplied from the blocking circuit 122 are received. The above function value f (·) is calculated using the values. This calculation result is output as correction data obtained by correcting the pixel value of the central pixel of the block output from the blocking circuit 122 as the level limiting circuit 126
Supplied to Assuming that the correction bits are composed of, for example, 8 bits, in step S77, the upper two bits are selected by the level limiting circuit 126 from the correction data of 8 bits, whereby the number of bits is 2 bits. Is supplied to the local decoding unit 127.

【0258】即ち、例えば、上述の図7において、四角
形で囲んで示すような3×3画素のブロックが、ブロッ
ク化回路122から出力されたものとすると、演算回路
125では、同図において●印で示す画素の画素値を補
正した補正データが求められ、レベル制限回路126で
レベル制限された後、ローカルデコード部127に出力
される。
That is, for example, assuming that a block of 3 × 3 pixels as shown by a square in FIG. 7 is output from the block forming circuit 122, the arithmetic circuit 125 The correction data obtained by correcting the pixel value of the pixel indicated by is obtained, the level is limited by the level limiting circuit 126, and is output to the local decoding unit 127.

【0259】従って、演算回路126では、学習用画像
を構成する画素が、1/9に間引かれ、ローカルデコー
ド部127に供給される。
Therefore, in the arithmetic circuit 126, the pixels constituting the learning image are thinned out to 1/9 and supplied to the local decoding section 127.

【0260】図31に戻り、次にステップS78に進
み、メモリ121に記憶されたすべての学習用画像につ
いての補正データが求められたかどうかが判定される。
ステップS78において、すべての学習用画像について
の補正データが、まだ求められていないと判定された場
合、ステップS73に戻り、すべての学習用画像につい
ての補正データが求められるまで、ステップS73乃至
S78の処理を繰り返す。
Returning to FIG. 31, the flow advances to step S78 to determine whether correction data has been obtained for all the learning images stored in the memory 121.
If it is determined in step S78 that the correction data for all the learning images has not been obtained yet, the process returns to step S73, and the processing in steps S73 to S78 is performed until the correction data for all the learning images is obtained. Repeat the process.

【0261】また、ステップS78において、すべての
学習用画像についての補正データが求められたと判定さ
れた場合、即ち、メモリ121に記憶されたすべての学
習用画像を、1/9に間引いた間引き画像が得られた場
合(但し、この間引き画像は、学習用画像を、単純に1
/9に間引いたものではなく、マッピング係数との演算
により画素値が求められたものである)、ステップS7
9に進み、ローカルデコード部127において、その間
引き画像がローカルデコードされることにより、元の学
習用画像の予測値が算出される。この予測値は、誤差算
出部128に供給される。
If it is determined in step S78 that the correction data for all the learning images has been obtained, that is, a thinned image obtained by thinning out all the learning images stored in the memory 121 to 1/9. Is obtained (however, this thinned-out image is simply a learning image,
/ 9, not pixel values obtained by calculation with mapping coefficients), step S7
The local decoding unit 127 locally decodes the thinned-out image to calculate the predicted value of the original learning image. This predicted value is supplied to the error calculator 128.

【0262】ここで、このローカルデコード部127に
おいて得られる予測値で構成される画像(但し、後述す
るように、誤差算出部128から出力される誤差情報が
閾値ε1より小さくなったときにおけるもの)は、受信
装置4(図1)側において得られる復号画像と同一のも
のである。
Here, an image composed of predicted values obtained by the local decoding section 127 (however, as described later, when the error information output from the error calculating section 128 becomes smaller than the threshold value ε1) Is the same as the decoded image obtained on the receiving device 4 (FIG. 1) side.

【0263】誤差算出部128では、ステップS80に
おいて、メモリ121から学習用画像が読み出され、そ
の学習用画像に対する、ローカルデコード部127から
供給される予測値の予測誤差が算出される。即ち、学習
用画像の画素値をYijと表すとともに、ローカルデコー
ド部127から出力される、その予測値をE[Yij]と
表すとき、誤差算出部128では、次式で示される誤差
分散(誤差の自乗和)Qが算出され、これが、誤差情報
として、判定部129に供給される。
In step S80, the error calculating section 128 reads the learning image from the memory 121, and calculates the prediction error of the predicted value supplied from the local decoding section 127 for the learning image. That is, when the pixel value of the learning image is expressed as Y ij and the predicted value output from the local decoding unit 127 is expressed as E [Y ij ], the error calculation unit 128 calculates the error variance expressed by the following equation. (Error sum of squares) Q is calculated, and this is supplied to the determination unit 129 as error information.

【0264】Q=Σ(Yij−E[Yij])2 但し、上式において、Σは、学習用画像の画素すべてに
ついてのサメーションを表す。
Q = Σ (Y ij -E [Y ij ]) 2 In the above equation, Σ represents the summation for all the pixels of the learning image.

【0265】判定部129は、誤差算出部128から誤
差情報を受信すると、その誤差情報と所定の閾値ε1と
を比較し、ステップS81において、その大小関係を判
定する。ステップS81において、誤差情報が閾値ε1
以上であると判定された場合、即ち、ローカルデコード
部127において得られる予測値で構成される画像が、
元の学習用画像と同一であるとは認められない場合、判
定部129は、マッピング係数設定回路130に制御信
号を出力する。マッピング係数設定回路130は、ステ
ップS82において、判定部129からの制御信号にし
たがい、マッピング係数を変更し、その変更後のマッピ
ング係数を、マッピング係数メモリ131に新たに記憶
させる。
Upon receiving the error information from the error calculating unit 128, the determining unit 129 compares the error information with a predetermined threshold ε1, and determines the magnitude relation in step S81. In step S81, the error information is equal to the threshold ε1
If it is determined that the above is true, that is, an image composed of predicted values obtained in the local decoding unit 127 is
If it is not recognized that the image is the same as the original learning image, the determination unit 129 outputs a control signal to the mapping coefficient setting circuit 130. In step S82, the mapping coefficient setting circuit 130 changes the mapping coefficient according to the control signal from the determination unit 129, and causes the mapping coefficient memory 131 to newly store the changed mapping coefficient.

【0266】そして、ステップS73に戻り、マッピン
グ係数メモリ131に記憶された、変更後のマッピング
係数を用いて、再び、ステップS73以下の処理が繰り
返される。
Then, the process returns to step S73, and the processing from step S73 is repeated again using the changed mapping coefficient stored in mapping coefficient memory 131.

【0267】ここで、マッピング係数設定回路130に
おける、マッピング係数の変更は、ランダムに行っても
良いし、また、今回の誤差情報が、前回の誤差情報より
小さくなった場合には、前回と同様の傾向で変化させ、
今回の誤差情報が、前回の誤差情報より大きくなった場
合には、前回と逆の傾向で変化させるようにすることも
できる。
Here, the mapping coefficient in the mapping coefficient setting circuit 130 may be changed at random, or when the current error information is smaller than the previous error information, the same as the previous time. Change with the tendency of
When the current error information becomes larger than the previous error information, the error information may be changed in a reverse tendency.

【0268】さらに、マッピング係数の変更は、すべて
のクラスについて行うようにすることもできるし、その
一部のクラスについてだけ行うようにすることもでき
る。一部のクラスについてのマッピング係数だけの変更
を行う場合においては、例えば、誤差情報に対する影響
の強いクラスを検出させ、そのようなクラスについての
マッピング係数だけを変更するようにすることができ
る。誤差情報に対する影響の強いクラスは、例えば、次
のようにして検出することができる。即ち、まず最初
に、マッピング係数の初期値を用いて処理を行うことに
より、その誤差情報を得る。そして、マッピング係数
を、1クラスごとに同一の量だけ変化させ、その結果得
られる誤差情報を、初期値を用いた場合に得られた誤差
情報と比較し、その差が、所定値以上となるクラスを、
誤差情報に対する影響の強いクラスとして検出すれば良
い。
Further, the change of the mapping coefficient can be performed for all classes, or can be performed for only some of the classes. In the case of changing only the mapping coefficients of some classes, for example, a class having a strong influence on the error information may be detected, and only the mapping coefficients of such classes may be changed. The class having a strong influence on the error information can be detected, for example, as follows. That is, first, processing is performed using the initial value of the mapping coefficient to obtain the error information. Then, the mapping coefficient is changed by the same amount for each class, and the resulting error information is compared with the error information obtained when the initial value is used, and the difference is equal to or more than a predetermined value. Class
What is necessary is just to detect as a class which has a strong influence on error information.

【0269】また、マッピング係数が、上述したk1,
k2,・・・のように複数で1セットとされている場合
には、その中の誤差情報に対する影響の強いものだけを
変更させるようにすることもできる。
Also, the mapping coefficient is k1,
In the case where a plurality is set as one set such as k2,..., it is also possible to change only those having a strong influence on the error information.

【0270】さらに、上述の場合においては、マッピン
グ係数を、クラスごとに設定するようにしたが、マッピ
ング係数は、その他、例えば、ブロックごとに独立して
設定したり、また、近接するブロック単位などで設定し
たりするようにすることが可能である。
Further, in the above case, the mapping coefficient is set for each class. However, the mapping coefficient may be set independently for each block, or may be set for each adjacent block. It is possible to set it with.

【0271】但し、マッピング係数を、例えば、ブロッ
クごとに独立して設定するようにした場合などにおいて
は、ある1つのクラスに対して、複数セットのマッピン
グ係数が得られることがある(この逆に、マッピング係
数が、1セットも得られないクラスが生じることもあ
る)。マッピング係数は、最終的には、クラスごとに決
める必要があるため、上述のように、あるクラスに対し
て、複数セットのマッピング係数が得られた場合には、
複数セットのマッピング係数に対して、例えば、マージ
や選択などの何らかの処理を施すことで、1セットのマ
ッピング係数を決める必要がある。
However, for example, when the mapping coefficients are independently set for each block, a plurality of sets of mapping coefficients may be obtained for a certain class (inversely, a plurality of sets of mapping coefficients may be obtained). , There may be a class for which no set of mapping coefficients can be obtained.) Since the mapping coefficients must be finally determined for each class, as described above, when a plurality of sets of mapping coefficients are obtained for a certain class,
For example, it is necessary to determine one set of mapping coefficients by performing some processing such as merging or selection on a plurality of sets of mapping coefficients.

【0272】一方、ステップS81において、誤差情報
が閾値ε1より小さいと判定された場合、即ち、ローカ
ルデコード部127において得られる予測値で構成され
る画像が、元の学習用画像と同一であると認められる場
合、処理を終了する。
On the other hand, when it is determined in step S81 that the error information is smaller than the threshold value ε1, that is, the image composed of the predicted values obtained in the local decoding unit 127 is the same as the original learning image. If accepted, the process ends.

【0273】この時点で、マッピング係数メモリ131
に記憶されている、クラスごとのマッピング係数が、も
との画像と同一と認められる復号画像(予測値)を復元
することができる補正データを得るために最適なものと
して、図27のマッピング係数メモリ114にセットさ
れている。
At this point, the mapping coefficient memory 131
The mapping coefficient of FIG. 27 is determined as the optimal one to obtain the correction data that can restore the decoded image (prediction value) that is recognized as the same as the original image. It is set in the memory 114.

【0274】従って、このようなマッピング係数を用い
て補正データを生成することで、受信装置4(図1)側
においては、元の画像とほぼ同一の画像を得ることが可
能となる。
Therefore, by generating correction data using such a mapping coefficient, it becomes possible for the receiving device 4 (FIG. 1) to obtain an image substantially the same as the original image.

【0275】ここで、図30の実施の形態においては、
上述したように、ブロック化回路122において、画像
が3×3の9画素にブロック化され、また、ADRC処
理回路123において、1ビットのADRC処理が行わ
れるので、クラス分類回路124によるクラス分類によ
り得られるクラス数は512(=(219)であり、従
って、512セットのマッピング係数が得られる。
Here, in the embodiment of FIG. 30,
As described above, the image is divided into 9 pixels of 3 × 3 in the blocking circuit 122 and the ADRC processing circuit 123 performs 1-bit ADRC processing. The number of classes obtained is 512 (= (2 1 ) 9 ), so that 512 sets of mapping coefficients are obtained.

【0276】なお、図30において、ADRC処理回路
123を介してクラス分類回路124に供給するブロッ
クと、演算回路125に供給するブロックとは、同一で
ある必要は必ずしもない。このことは、図27におい
て、クラス分類回路113に供給するブロックと、演算
回路116に供給するブロックとについても同様であ
る。但し、クラス分類回路113および124に供給す
るブロックは同一である必要があり、また、演算回路1
16および125に供給するブロックも同一である必要
がある。
In FIG. 30, the block supplied to the classifying circuit 124 via the ADRC processing circuit 123 and the block supplied to the arithmetic circuit 125 need not necessarily be the same. This is the same for the block supplied to the class classification circuit 113 and the block supplied to the arithmetic circuit 116 in FIG. However, the blocks supplied to the classifying circuits 113 and 124 need to be the same, and the arithmetic circuit 1
The blocks supplied to 16 and 125 also need to be identical.

【0277】次に、図32は、図30のローカルデコー
ド部127の構成例を示している。
Next, FIG. 32 shows an example of the configuration of the local decoding section 127 of FIG.

【0278】レベル制限回路126からの補正データ
は、クラス分類用ブロック化回路141および予測値計
算用ブロック化回路142に供給されるようになされて
いる。クラス分類用ブロック化回路141は、補正デー
タを、その性質に応じて所定のクラスに分類するための
単位である、注目補正データを中心としたクラス分類用
ブロックにブロック化するようになされている。
The correction data from the level limiting circuit 126 is supplied to the class classification blocking circuit 141 and the predicted value calculation blocking circuit 142. The class classification blocking circuit 141 is configured to block the correction data into a class classification block centering on the target correction data, which is a unit for classifying the correction data into a predetermined class according to its properties. .

【0279】即ち、上述したように、図7において、上
からi番目で、左からj番目の補正データ(圧縮デー
タ)(または画素)(図中、●印で示す部分)をXij
表すとすると、クラス分類用ブロック化回路141は、
注目画素(注目補正データ)Xijの上、左、右、下に隣
接する4つの画素X(i-1)j,Xi(j-1),Xi(j+1),X(i
-1)jに、自身を含め、合計5画素で構成されるクラス分
類用ブロックを生成するようになされている。このクラ
ス分類用ブロックは、クラス分類回路144に供給され
るようになされている。
That is, as described above, in FIG. 7, the i-th correction data (compressed data) (or pixel) (or pixel) from the left (the portion indicated by a black circle in the figure) is represented by Xij. Then, the class classification blocking circuit 141
Four pixels X (i-1) j , X i (j-1) , X i (j + 1) , X (i ) adjacent to the pixel of interest (correction data of interest) X ij above, left, right, and below
-1) A class classification block composed of a total of 5 pixels, including itself, is generated in j . The classification block is supplied to the classification circuit 144.

【0280】なお、図32のクラス分類用ブロック化回
路141において得られるクラス分類用ブロックは、予
測値を求めるブロックのクラスを決定するために構成さ
れるものであり、この点で、補正データを算出するブロ
ックのクラスを決定するために、図27のブロック化回
路111で生成されるものとは異なる。
The class classification block obtained by the class classification blocking circuit 141 shown in FIG. 32 is configured to determine the class of the block for which the prediction value is to be obtained. In order to determine the class of the block to be calculated, it differs from that generated by the blocking circuit 111 in FIG.

【0281】予測値計算用ブロック化回路142は、補
正データを、元の画像(ここでは、学習用画像)の予測
値を計算するための単位である、注目補正データを中心
とした予測値計算用ブロックにブロック化するようにな
されている。即ち、本実施の形態においては、例えば、
補正データXijを中心とする、元の画像(原画像)にお
ける3×3の9画素の画素値Yij(1),Yij(2),
ij(3),Yij(4),Yij(5),Yij(6),Y
ij(7),Yij(8),Yij(9)の予測値が、画素X
ijを中心とする5×5の25画素X(i-2)(j-2),X
(i-2)(j-1),X(i-2 )j,X(i-2)(j+1),X(i-2)(j+2)
(i-1)(j-2),X(i-1)(j-1),X(i-1)j
(i-1 )(j+1),X(i-1)(j+2),Xi(j-2),Xi(j-1),X
ij,Xi(j+1),Xi(j+2),X(i +1)(j-2)
(i+1)(j-1),X(i+1)j,X(i+1)(j+1)
(i+1)(j+2),X(i+2 )(j- 2),X(i+2)(j-1)
(i+2)j,X(i+2)(j+1),X(i+2)(j+2)から求められる
ようになされており、予測値計算用ブロック化回路14
2は、このような25画素で構成される正方形状の予測
値計算用ブロックを生成するようになされている。
The prediction value calculation blocking circuit 142
Positive data is predicted from the original image (here, the learning image)
Focus on the target correction data, which is the unit for calculating the value
Block to predict value calculation block
Have been. That is, in the present embodiment, for example,
Correction data XijTo the original image (original image)
Pixel value Y of 3 × 3 9 pixelsij(1), Yij(2),
Yij(3), Yij(4), Yij(5), Yij(6), Y
ij(7), Yij(8), YijThe predicted value of (9) is the pixel X
ij5 × 5 25 pixels X centered on(i-2) (j-2), X
(i-2) (j-1), X(i-2 ) j, X(i-2) (j + 1), X(i-2) (j + 2),
X(i-1) (j-2), X(i-1) (j-1), X(i-1) j,
X(i-1 ) (j + 1), X(i-1) (j + 2), Xi (j-2), Xi (j-1), X
ij, Xi (j + 1), Xi (j + 2), X(i +1) (j-2),
X(i + 1) (j-1), X(i + 1) j, X(i + 1) (j + 1),
X(i + 1) (j + 2), X(i + 2 ) (j- 2), X(i + 2) (j-1),
X(i + 2) j, X(i + 2) (j + 1), X(i + 2) (j + 2)Required from
The prediction value calculation blocking circuit 14
2 is such a square prediction composed of 25 pixels
A value calculation block is generated.

【0282】具体的には、例えば、図7において四角形
で囲む、元の画像における画素Y33(1)乃至Y
33(9)の予測値の計算のためには、25個の画素(補
正データ)X11,X12,X13,X14,X15,X21
22,X23,X24,X25,X31,X32,X33,X34,X
35,X41,X42,X43,X44,X45,X51,X52
53,X54,X55により、予測値計算用ブロックが構成
される。
More specifically, for example, pixels Y 33 (1) to Y 33 in the original image, which are surrounded by a square in FIG.
33 To calculate the predicted value of (9), 25 pixels (correction data) X 11 , X 12 , X 13 , X 14 , X 15 , X 21 ,
X 22, X 23, X 24 , X 25, X 31, X 32, X 33, X 34, X
35 , X41 , X42 , X43 , X44 , X45 , X51 , X52 ,
X 53 , X 54 , and X 55 form a predicted value calculation block.

【0283】予測値計算用ブロック化回路142におい
て得られた予測値計算用ブロックは、予測回路146に
供給されるようになされている。
The predicted value calculation block obtained by the predicted value calculation blocking circuit 142 is supplied to the prediction circuit 146.

【0284】なお、予測値計算用ブロックについても、
クラス分類用ブロックにおける場合と同様に、その画素
数および形状は、上述したものに限定されるものではな
い。但し、ローカルデコード部127において、予測値
計算用ブロックを構成する画素数は、クラス分類用ブロ
ックを構成する画素数よりも多くするのが望ましい。
The prediction value calculation block is also
As in the case of the class classification block, the number and shape of the pixels are not limited to those described above. However, in the local decoding unit 127, it is desirable that the number of pixels forming the prediction value calculation block be larger than the number of pixels forming the class classification block.

【0285】クラス分類回路144は、クラス分類用ブ
ロック化回路141からのブロックをクラス分類し、そ
の分類結果としてのクラス情報を、予測係数ROM14
5に供給するようになされている。予測係数ROM14
5は、クラスごとの予測係数を記憶しており、クラス分
類回路144からクラス情報を受信すると、そのクラス
情報に対応するアドレスに記憶されている予測係数を読
み出し、予測回路146に供給するようになされてい
る。なお、予測係数ROM145に記憶されている予測
係数は、図19で説明した予測係数学習により得られた
ものである。
The classifying circuit 144 classifies the blocks from the classifying blocking circuit 141 into classes and stores the class information as a result of the classification in the prediction coefficient ROM 14.
5. Prediction coefficient ROM14
5 stores the prediction coefficient for each class, and upon receiving the class information from the class classification circuit 144, reads out the prediction coefficient stored at the address corresponding to the class information and supplies it to the prediction circuit 146. It has been done. The prediction coefficients stored in the prediction coefficient ROM 145 are obtained by the prediction coefficient learning described with reference to FIG.

【0286】予測回路146は、予測値計算用ブロック
化回路142からの予測値計算用ブロックと、予測係数
ROM145からの予測係数とを用いて、元の画像(学
習用画像)の予測値を算出(予測)するようになされて
いる。
The prediction circuit 146 calculates the prediction value of the original image (learning image) using the prediction value calculation block from the prediction value calculation blocking circuit 142 and the prediction coefficient from the prediction coefficient ROM 145. (Forecast).

【0287】次に、図33のフローチャートを参照し
て、その動作について説明する。
Next, the operation will be described with reference to the flowchart in FIG.

【0288】ローカルデコード部127においては、ま
ず最初に、ステップS91において、レベル制限回路1
26からの補正データが順次受信されてブロック化され
る。即ち、クラス分類用ブロック化回路141におい
て、補正データが、注目補正データを中心とする5画素
のクラス分類用ブロックにブロック化され、クラス分類
回路144に供給されるとともに、予測値計算用ブロッ
ク化回路142において、補正データが、注目補正デー
タを中心とする5×5画素の予測値計算用ブロックにブ
ロック化され、予測回路146に供給される。
In local decoding section 127, first, in step S91, level limiting circuit 1
The correction data from 26 are sequentially received and blocked. That is, the correction data is divided into 5-pixel class classification blocks centering on the target correction data in the class classification blocking circuit 141, and is supplied to the class classification circuit 144. In the circuit 142, the correction data is divided into 5 × 5 pixel prediction value calculation blocks centered on the target correction data, and supplied to the prediction circuit 146.

【0289】なお、クラス分類用ブロック化回路141
と予測値計算用ブロック化回路142では、対応するク
ラス分類用ブロックと予測値計算用ブロックが生成され
る。即ち、クラス分類用ブロック化回路141におい
て、例えば図7の補正データX33を中心とする5画素の
クラス分類用ブロックが生成されるとき、予測値計算用
ブロックにおいては、同じく補正データX33を中心とす
る5×5画素の予測値計算用ブロックが生成される。
The classifying block circuit 141
The prediction value calculation block generation circuit 142 generates a corresponding class classification block and a prediction value calculation block. That is, in the classification block forming circuit 141, for example, when a classification block of 5 pixels centered on the correction data X 33 of Figure 7 is generated, the prediction value in the calculation block, also the correction data X 33 A prediction value calculation block of 5 × 5 pixels at the center is generated.

【0290】クラス分類回路144は、ステップS92
において、クラス分類用ブロックに対して、クラス分類
処理を施す。即ち、クラス分類用ブロックを構成する補
正データのレベル分布の状態を検出し、そのクラス分類
用ブロックが属するクラス(そのクラス分類用ブロック
を構成する注目補正データのクラス)を判定する。この
クラスの判定結果は、クラス情報として、予測係数RO
M145に供給される。
The classifying circuit 144 determines in step S92
, A class classification process is performed on the class classification block. That is, the state of the level distribution of the correction data forming the class classification block is detected, and the class to which the class classification block belongs (the class of the target correction data forming the class classification block) is determined. The determination result of this class is represented by a prediction coefficient RO as class information.
M145.

【0291】なお、ここでも、1画素が2ビットで表さ
れる5画素で構成されるクラス分類用ブロックに対し
て、クラス分類処理が施されるので、各クラス分類用ブ
ロックは、512(=(225)のクラスのうちのいず
れかに分類されることになる。
In this case, the class classification process is performed on the class classification block composed of five pixels in which one pixel is represented by 2 bits. Therefore, each class classification block has 512 (= (2 2 ) It will be classified into one of the classes of 5 ).

【0292】そして、ステップS93に進み、予測係数
ROM145の、クラス分類回路144からのクラス情
報に対応するアドレスから予測係数が読み出され、ステ
ップS94において、予測回路146は、その予測係数
と、予測値計算用ブロック化回路142からの予測値計
算用ブロックを構成する25の画素値とを用い、例え
ば、式(1)に対応する次のような線形1次式にしたが
って、元の画像の画素値yの予測値E[y]を算出す
る。
Then, in step S93, the prediction coefficient is read from the address corresponding to the class information from the class classification circuit 144 in the prediction coefficient ROM 145. In step S94, the prediction circuit 146 stores the prediction coefficient The pixel values of the original image are calculated according to, for example, the following linear linear expression corresponding to Expression (1) using the 25 pixel values constituting the predicted value calculation block from the value calculation blocking circuit 142. A predicted value E [y] of the value y is calculated.

【0293】 E[y]=w11+w22+・・・+w2525+w0 但し、w1,w2,・・・,w0は予測係数を表し、x1
2,・・・は予測値計算用ブロックを構成する画素の
画素値(補正データ)を表す。また、w0は、本来8ビ
ットのデータxiを、2ビットのデータに変換したの
で、E[y]を8ビットで表現するために加算されるオ
フセット係数であるが、上述したように、補正データと
乗算される係数w1,w2,・・・と同様に、予測係数と
して扱う。
E [y] = w 1 x 1 + w 2 x 2 +... + W 25 x 25 + w 0 where w 1 , w 2 ,..., W 0 represent prediction coefficients, and x 1 ,
x 2, · · · represents pixel values of the pixels constituting the predicted values calculation block (correction data). Also, w 0 is an offset coefficient that is added to express E [y] with 8 bits because data x i of 8 bits is originally converted into data of 2 bits. Treated as prediction coefficients, similarly to the coefficients w 1 , w 2 ,... Multiplied by the correction data.

【0294】ここで、図32の実施の形態においては、
上述したように、予測値計算用ブロックを構成する25
画素から、9画素の予測値が算出されるようになされて
いる。
Here, in the embodiment of FIG. 32,
As described above, the prediction value calculation block 25
A prediction value of 9 pixels is calculated from the pixels.

【0295】即ち、例えば、いま、図7に示した補正デ
ータX33を中心とする3×3の補正データX22乃至
24,X32乃至X34,X42乃至X44でなるクラス分類用
ブロックについてのクラス情報Cが、クラス分類回路1
44から出力され、また、予測値計算用ブロックとし
て、補正データX33を中心とする5×5画素の補正デー
タX11乃至X15,X21乃至X25,X31乃至,X35,X41
乃至X45,X51乃至X55でなる予測値計算用ブロック
が、予測値計算用ブロック化回路142から出力された
ものとする。
That is, for example, for the class classification consisting of 3 × 3 correction data X 22 to X 24 , X 32 to X 34 , and X 42 to X 44 centered on the correction data X 33 shown in FIG. The class information C of the block is stored in the classifying circuit 1
Is output from 44, also as the predicted value calculation block, correction data X 11 to X 15 of 5 × 5 pixels around the correction data X 33, X 21 to X 25, X 31 to, X 35, X 41
To X 45 and X 51 to X 55 are output from the predicted value calculation blocking circuit 142.

【0296】さらに、予測係数ROM145には、クラ
ス情報Cに対応するアドレスに、予測係数のセットとし
て、w0(k)乃至w25(k)が記憶されているものと
する。
Further, it is assumed that w 0 (k) to w 25 (k) are stored in the prediction coefficient ROM 145 at the address corresponding to the class information C as a set of prediction coefficients.

【0297】この場合、補正データX33を中心とする、
元の画像における3×3画素(図7において四角形で囲
んである部分)の画素値Y33(1)乃至Y33(9)の予
測値E[Y33(1)]乃至E[Y33(9)]が、次式に
したがって算出される。
In this case, the correction data X 33 is
Predicted values E [Y 33 (1)] to E [Y 33 () of pixel values Y 33 (1) to Y 33 (9) of 3 × 3 pixels (a portion surrounded by a square in FIG. 7) in the original image 9)] is calculated according to the following equation.

【0298】E[Y33(k)]=w1(k)X11+w
2(k)X12+w3(k)X13+w4(k)X14+w
5(k)X15+w6(k)X21+w7(k)X22+w
8(k)X23+w9(k)X24+w10(k)X25+w
11(k)X31+w12(k)X32+w13(k)X33+w14
(k)X34+w15(k)X35+w16(k)X41+w
17(k)X42+w18(k)X43+w19(k)X44+w20
(k)X45+w21(k)X51+w22(k)X52+w
23(k)X53+w24(k)X54+w25(k)X55+w0
(k)
E [Y 33 (k)] = w 1 (k) X 11 + w
2 (k) X 12 + w 3 (k) X 13 + w 4 (k) X 14 + w
5 (k) X 15 + w 6 (k) X 21 + w 7 (k) X 22 + w
8 (k) X 23 + w 9 (k) X 24 + w 10 (k) X 25 + w
11 (k) X 31 + w 12 (k) X 32 + w 13 (k) X 33 + w 14
(K) X 34 + w 15 (k) X 35 + w 16 (k) X 41 + w
17 (k) X 42 + w 18 (k) X 43 + w 19 (k) X 44 + w 20
(K) X 45 + w 21 (k) X 51 + w 22 (k) X 52 + w
23 (k) X 53 + w 24 (k) X 54 + w 25 (k) X 55 + w 0
(K)

【0299】ステップS94において、以上のようにし
て9個単位で予測値が求められていき、これにより、1
フレーム分の予測値が求められると、その予測値は、ス
テップS95において、誤差算出部128に供給され
る。そして、ステップS91に戻り、以下、ステップS
91乃至S95の処理が繰り返される。
In step S94, a prediction value is obtained in units of nine as described above.
When the predicted value for the frame is obtained, the predicted value is supplied to the error calculator 128 in step S95. Then, the process returns to step S91, and thereafter, returns to step S91.
The processing from 91 to S95 is repeated.

【0300】なお、図32の予測係数ROM145に記
憶されている予測係数を得るための学習(予測係数学
習)を行う画像処理装置は、上述したように、図19に
示した場合と同様の構成となる。そこでその説明は省略
する。
The image processing apparatus for performing learning (prediction coefficient learning) for obtaining the prediction coefficients stored in the prediction coefficient ROM 145 of FIG. 32 has the same configuration as that shown in FIG. 19 as described above. Becomes Therefore, the description is omitted.

【0301】次に、図34は、図27のマッピング係数
メモリ114に記憶されているマッピング係数を算出す
るための学習(マッピング係数学習)処理を行う画像処
理装置の他の構成例を示している。
Next, FIG. 34 shows another example of the configuration of an image processing apparatus for performing a learning (mapping coefficient learning) process for calculating the mapping coefficients stored in the mapping coefficient memory 114 of FIG. .

【0302】なお、図30の画像処理装置によれば、関
数fが、例えば、線形1次式で表される場合の他、非線
形な式や、2次以上の式で表される場合も、最適な予測
係数を求めることができるが、図34の画像処理装置で
は、関数fが、線形1次式で表される場合にのみ、最適
な予測係数を求めることができるようになされている。
According to the image processing apparatus shown in FIG. 30, the function f may be expressed by a non-linear equation or a quadratic or higher equation in addition to the case where the function f is expressed by a linear linear equation. Although the optimum prediction coefficient can be obtained, the image processing apparatus in FIG. 34 can obtain the optimum prediction coefficient only when the function f is represented by a linear linear expression.

【0303】即ち、図34の画像処理装置は、図27に
おいて、ブロック化回路111が出力する3×3画素の
ブロックを構成する各画素の画素値をy1,y2,・・
・,y9とするとともに、マッピング係数メモリ114
が出力するマッピング係数をk1,k2,・・・,k9
する場合において、演算回路116が、次式にしたがっ
て関数値f(y1,y2,・・・,k1,k2,・・・)を
演算して補正データを求めるようになされているときに
用いることができる。
That is, in the image processing apparatus of FIG. 34, in FIG. 27, the pixel values of the pixels constituting the 3 × 3 pixel block output by the blocking circuit 111 are represented by y 1 , y 2 ,.
, Y 9 and the mapping coefficient memory 114
K 1, k 2 but the mapping coefficients outputted, ..., in a case where a k 9, the arithmetic circuit 116, the function value f (y 1, y 2 according to the following equation, ..., k 1, k 2 ,...) Can be used when calculating correction data.

【0304】 f(・)=k11+k22+・・・+k99 F (·) = k 1 y 1 + k 2 y 2 +... + K 9 y 9

【0305】最適補正データ算出部160には、学習に
適した学習用画像が、例えば、1フレーム単位などで供
給されるようになされている。なお、学習用画像を構成
する画素には、例えば8ビットが割り当てられている。
最適補正データ算出部160は、圧縮部170、レベル
制御部171、補正部172、ローカルデコード部17
3、誤差算出部174、および判定部175で構成さ
れ、そこに入力される学習用画像から、その画素数を少
なくして圧縮した画像であって、元の画像を予測するの
に最適な画像を構成する画素値(以下、適宜、最適補正
データという)を算出し、ラッチ回路176に供給する
ようになされている。
A learning image suitable for learning is supplied to the optimum correction data calculating section 160, for example, in units of one frame. It should be noted that, for example, 8 bits are assigned to the pixels constituting the learning image.
The optimum correction data calculation section 160 includes a compression section 170, a level control section 171, a correction section 172, and a local decoding section 17.
3. An image which is composed of an error calculation unit 174 and a determination unit 175 and which is an image compressed by reducing the number of pixels from a learning image input thereto and which is optimal for predicting an original image Are calculated (hereinafter, appropriately referred to as optimum correction data) and supplied to the latch circuit 176.

【0306】即ち、最適補正データ算出部160に供給
された学習用画像は、圧縮部170および誤差算出部1
74に供給されるようになされている。圧縮部170
は、図27の演算回路116が画素を間引く割合と同一
の割合で、学習用画像を単純に間引き、即ち、本実施の
形態においては、学習用画像を1/9に単純に間引き
(3×3の9画素を1ブロックとするとき、そのブロッ
クの中心の画素だけを抽出し)、これにより学習用画像
を圧縮してレベル制限部171に供給するようになされ
ている。レベル制限部171は、図27のレベル制限回
路117と同様に、8ビットの画素データのレベルを制
限した後、補正部172に出力するようになされてい
る。
That is, the learning image supplied to the optimum correction data calculating section 160 is compressed by the compressing section 170 and the error calculating section 1.
74. Compression unit 170
Is that the learning image is simply thinned out at the same rate as the rate at which the arithmetic circuit 116 in FIG. 27 thins out the pixels. That is, in this embodiment, the learning image is simply thinned out to 1/9 (3 × When nine pixels of 3 are taken as one block, only the pixel at the center of the block is extracted), whereby the learning image is compressed and supplied to the level limiting unit 171. The level limiting section 171 limits the level of 8-bit pixel data and outputs the same to the correcting section 172, similarly to the level limiting circuit 117 of FIG.

【0307】補正部172は、レベル制限部171から
供給される、単純な間引きが行われて空間方向の圧縮が
された8ビットの圧縮データから、その上位2ビットが
選択されることにより、2ビットにレベルが制限された
データ(以下、適宜、単に、圧縮データという)を、判
定部175からの制御にしたがって補正するようになさ
れている。補正部172における補正の結果得られるデ
ータ(このデータも、図27の演算回路116の出力と
同様に、3×3画素のブロックの中心画素の画素値を補
正したものであるので、以下、適宜、補正データとい
う)は、ローカルデコード部173に供給するようにな
されている。
The correcting section 172 selects the upper 2 bits from the 8-bit compressed data which is supplied from the level limiting section 171 and which has been compressed in the spatial direction by performing simple thinning. The data whose level is limited to bits (hereinafter, simply referred to as compressed data as appropriate) is corrected under the control of the determination unit 175. Data obtained as a result of the correction by the correction unit 172 (this data is also obtained by correcting the pixel value of the central pixel of the 3 × 3 pixel block, similarly to the output of the arithmetic circuit 116 in FIG. 27. , Correction data) are supplied to the local decoding unit 173.

【0308】ローカルデコード部173は、図30のロ
ーカルデコード部127における場合と同様にして、補
正部172からの補正データに基づいて、元の画像(学
習用画像)を予測し、その予測値を、誤差算出部174
に供給するようになされている。
The local decoding section 173 predicts an original image (learning image) based on the correction data from the correction section 172 in the same manner as in the case of the local decoding section 127 in FIG. , Error calculating section 174
To be supplied.

【0309】誤差算出部174は、図30の誤差算出部
128における場合と同様にして、そこに入力される、
元の画像データに対する、ローカルデコード部173か
らの予測値の予測誤差を算出するようになされている。
この予測誤差は、誤差情報として、判定部175に供給
されるようになされている。
The error calculator 174 inputs the data to the error calculator 174 in the same manner as in the error calculator 128 of FIG.
The prediction error of the prediction value from the local decoding unit 173 with respect to the original image data is calculated.
This prediction error is supplied to the determination unit 175 as error information.

【0310】判定部175は、図30の判定部129に
おける場合と同様にして、誤差算出部174からの誤差
情報に基づいて、補正部172が出力した補正データ
を、元の画像の圧縮結果とすることの適正さを判定する
ようになされている。そして、判定部175は、補正部
172が出力した補正データを、元の画像の圧縮結果と
することが適正でないと判定した場合には、補正部17
2を制御し、さらに、圧縮データを補正させ、その結果
得られる新たな補正データを出力させるようになされて
いる。また、判定部175は、補正部172が出力した
補正データを、元の画像の圧縮結果とすることが適正で
あると判定した場合には、補正部172から供給された
補正データを、最適補正データとして、ラッチ回路17
6に供給するようになされている。
The determination unit 175 converts the correction data output by the correction unit 172 based on the error information from the error calculation unit 174 into the compression result of the original image in the same manner as in the determination unit 129 of FIG. Is determined to be appropriate. When the determination unit 175 determines that it is not appropriate to use the correction data output by the correction unit 172 as the compression result of the original image, the correction unit 17
2 is further controlled, the compressed data is corrected, and new correction data obtained as a result is output. If the determining unit 175 determines that it is appropriate to use the correction data output from the correcting unit 172 as the compression result of the original image, the determining unit 175 determines that the correction data supplied from the correcting unit 172 is optimally corrected. As data, the latch circuit 17
6.

【0311】ラッチ回路176は、メモリ176Aを内
蔵しており、そのメモリ176Aに、補正部172から
供給される最適補正データを記憶させるようになされて
いる。さらに、ラッチ回路176は、メモリ176Aに
記憶された最適補正データのうち、ブロック化回路17
7のメモリ177Aから読み出されるブロックの中心画
素に対応するものを読み出し、メモリ180に供給する
ようになされている。なお、ラッチ回路176は、メモ
リ176Aに、1フレーム分の補正データが記憶される
と、その旨を示す制御信号を、ブロック化回路177に
出力するようになされている。
The latch circuit 176 has a built-in memory 176A, and stores the optimum correction data supplied from the correction section 172 in the memory 176A. Further, the latch circuit 176 stores the block correction circuit 17 out of the optimum correction data stored in the memory 176A.
The memory corresponding to the central pixel of the block read from the memory 177A of the seventh memory is read and supplied to the memory 180. When one frame of correction data is stored in the memory 176A, the latch circuit 176 outputs a control signal indicating this to the blocking circuit 177.

【0312】ブロック化回路177には、最適補正デー
タ算出部160と同様に、学習用画像が1フレーム単位
で供給されるようになされている。ブロック化回路17
7は、メモリ177Aを内蔵しており、そのメモリ17
7Aに、そこに供給される学習用画像を記憶させるよう
になされている。また、ブロック化回路177は、ラッ
チ回路176から制御信号を受信すると、メモリ177
Aに記憶された学習用画像を、図27のブロック化回路
111における場合と同様に、3×3画素で構成される
ブロックに分割し、そのブロックを順次読み出して、A
DRC処理回路178およびメモリ180に供給するよ
うになされている。
As in the case of the optimum correction data calculation section 160, the learning image is supplied to the blocking circuit 177 in units of one frame. Blocking circuit 17
7 has a built-in memory 177A.
The learning image supplied thereto is stored in 7A. Further, upon receiving the control signal from the latch circuit 176, the blocking circuit 177 receives the control signal from the memory 177.
The learning image stored in A is divided into blocks composed of 3 × 3 pixels, as in the case of the blocking circuit 111 in FIG. 27, and the blocks are sequentially read out.
The data is supplied to the DRC processing circuit 178 and the memory 180.

【0313】なお、ブロック化回路177は、その内蔵
するメモリ177Aからブロックを読み出すときに、そ
のブロックの位置を示す制御信号を、ラッチ回路176
に供給するようになされている。ラッチ回路176で
は、この制御信号に基づいて、メモリ177Aから読み
出される3×3画素のブロックが認識され、上述したよ
うに、そのブロックの中心画素に対応する最適補正デー
タが、メモリ176Aから読み出されるようになされて
いる。即ち、これにより、メモリ180に対しては、あ
る3×3画素のブロックと、そのブロックに対応する最
適補正データとが同時に供給されるようになされてい
る。
When reading a block from the built-in memory 177A, the blocking circuit 177 sends a control signal indicating the position of the block to the latch circuit 176.
To be supplied. The latch circuit 176 recognizes a 3 × 3 pixel block read from the memory 177A based on the control signal, and reads the optimal correction data corresponding to the center pixel of the block from the memory 176A as described above. It has been made like that. That is, a block of a certain 3 × 3 pixel and the optimum correction data corresponding to the block are simultaneously supplied to the memory 180.

【0314】ADRC処理回路178またはクラス分類
回路179は、図27のADRC処理回路112または
クラス分類回路113とそれぞれ同様に構成されてい
る。そして、クラス分類回路179が出力する、ブロッ
ク化回路177からのブロックについてのクラス情報
は、メモリ180に対して、アドレスとして供給される
ようになされている。
The ADRC processing circuit 178 or the class classification circuit 179 has the same configuration as the ADRC processing circuit 112 or the class classification circuit 113 of FIG. 27, respectively. Then, the class information about the block from the blocking circuit 177 output from the class classification circuit 179 is supplied to the memory 180 as an address.

【0315】メモリ180は、クラス分類回路179か
ら供給されるクラス情報に対応するアドレスに、ラッチ
回路176から供給される最適補正データと、ブロック
化回路177から供給されるブロックとを対応付けて記
憶するようになされている。なお、メモリ180は、1
つのアドレスに複数の情報を記憶することができるよう
になされており、これにより、あるクラス情報に対応す
る最適補正データおよびブロックを、複数セット記憶す
ることができるようになされている。
The memory 180 stores the optimum correction data supplied from the latch circuit 176 and the block supplied from the blocking circuit 177 in association with the address corresponding to the class information supplied from the class classification circuit 179. It has been made to be. The memory 180 has 1
A plurality of pieces of information can be stored in one address, whereby a plurality of sets of optimal correction data and blocks corresponding to certain class information can be stored.

【0316】演算回路181は、メモリ180に記憶さ
れた、学習用画像の3×3のブロックを構成する9画素
1,y2,・・・,y9と、そのブロックに対応付けら
れている最適補正データy’とを読み出し、これらに最
小自乗法を適用することで、クラスごとに、マッピング
係数k1乃至k9を求め、メモリ182に供給するように
なされている。メモリ182は、演算回路181から供
給されるクラスごとのマッピング係数k1乃至k9を、そ
のクラスに対応したアドレスに記憶するようになされて
いる。
The arithmetic circuit 181 stores nine pixels y 1 , y 2 ,..., Y 9 constituting a 3 × 3 block of the learning image stored in the memory 180 in association with the block. By reading the optimal correction data y ′ and applying the least squares method to them, mapping coefficients k 1 to k 9 are obtained for each class and supplied to the memory 182. The memory 182 stores the mapping coefficients k 1 to k 9 for each class supplied from the arithmetic circuit 181 at addresses corresponding to the classes.

【0317】次に、図35のフローチャートを参照し
て、その動作について説明する。
Next, the operation will be described with reference to the flowchart in FIG.

【0318】学習用画像が入力されると、その学習用画
像は、ブロック化回路177のメモリ177Aに記憶さ
れるとともに、最適補正データ算出部160に供給され
る。最適補正データ算出部160は、学習用画像を受信
すると、ステップS101において、その学習用画像に
ついての最適補正データを算出する。
When the learning image is input, the learning image is stored in the memory 177A of the blocking circuit 177 and is supplied to the optimum correction data calculation section 160. Upon receiving the learning image, the optimum correction data calculation unit 160 calculates the optimum correction data for the learning image in step S101.

【0319】このステップS101の処理は、図4のフ
ローチャートの処理と同様である。すなわち、ステップ
S101では、図36のフローチャートに示すように、
まず、圧縮部170が、ステップS111において、学
習用画像を、1/9に間引くことにより圧縮データを生
成する。このデータは、ステップS112において、レ
ベル制限部171で制限された後、補正部172を介し
て、最初は、補正が行われずに、ローカルデコード部1
73に出力される。ローカルデコード部173では、ス
テップS113において、補正部172からの補正デー
タ(最初は、上述したように、画像データを、単純に間
引き、レベル制限した圧縮データそのもの)に基づい
て、元の画像の予測値が算出される(ローカルデコード
が行われる)。この予測値は、誤差算出部174に供給
される。
The processing in step S101 is the same as the processing in the flowchart in FIG. That is, in step S101, as shown in the flowchart of FIG.
First, in step S111, the compression unit 170 generates compressed data by thinning out the learning image to 1/9. This data is limited by the level limiting unit 171 in step S112, and then is first corrected without being corrected by the local decoding unit 1 via the correcting unit 172.
73 is output. In step S113, the local decoding unit 173 predicts the original image based on the correction data from the correction unit 172 (initially, as described above, the image data is simply thinned out and the level-limited compressed data itself). A value is calculated (local decoding is performed). This predicted value is supplied to the error calculator 174.

【0320】誤差算出部174は、ローカルデコード部
173から、元の画像の予測値を受信すると、ステップ
S114において、元の画像データに対する、ローカル
デコード部173からの予測値の予測誤差を算出し、誤
差情報として、判定部175に供給する。判定部175
は、誤差算出部174から誤差情報を受信すると、ステ
ップS115において、その誤差情報に基づいて、補正
部172が出力した補正データを、元の画像の圧縮結果
とすることの適正さを判定する。
When receiving the predicted value of the original image from the local decoding unit 173, the error calculating unit 174 calculates the prediction error of the predicted value of the original image data from the local decoding unit 173 in step S114. The error information is supplied to the determination unit 175. Judgment unit 175
Upon receiving the error information from the error calculation unit 174, in step S115, based on the error information, determines whether the correction data output by the correction unit 172 is appropriate as the compression result of the original image.

【0321】即ち、ステップS115においては、誤差
情報が所定の閾値ε以下であるかどうかが判定される。
ステップS115において、誤差情報が所定の閾値ε以
下でないと判定された場合、補正部172が出力した補
正データを、元の画像の圧縮結果とするのは適正でない
と認識され、ステップS116に進み、判定部175
は、補正部172を制御し、これにより、レベル制限部
171から出力された圧縮データを補正させる。補正部
172は、判定部175の制御にしたがって、補正量
(補正値△)を変えて、圧縮データを補正し、その結果
得られる補正データを、ローカルデコード部173に出
力する。そして、ステップS113に戻り、以下、同様
の処理が繰り返される。
That is, in step S115, it is determined whether or not the error information is equal to or less than a predetermined threshold ε.
If it is determined in step S115 that the error information is not less than or equal to the predetermined threshold ε, it is recognized that it is not appropriate to use the correction data output by the correction unit 172 as the compression result of the original image, and the process proceeds to step S116. Judgment unit 175
Controls the correcting unit 172, and thereby corrects the compressed data output from the level limiting unit 171. Under the control of the determination unit 175, the correction unit 172 corrects the compressed data by changing the correction amount (correction value △), and outputs the resulting correction data to the local decoding unit 173. Then, the process returns to step S113, and thereafter, the same processing is repeated.

【0322】なお、圧縮データの補正は、例えば、上述
の図14における場合と同様にして行うことが可能であ
る。
The correction of the compressed data can be performed, for example, in the same manner as in the case of FIG.

【0323】一方、ステップS115において、誤差情
報が所定の閾値ε以下であると判定された場合、補正部
172が出力した補正データを、元の画像の圧縮結果と
するのは適正であると認識され、判定部175は、所定
の閾値ε以下の誤差情報が得られたときの補正データ
を、最適補正データとして、補正部172からラッチ回
路176に出力させ、その内蔵するメモリ176Aに記
憶させて、リターンする。
On the other hand, if it is determined in step S115 that the error information is equal to or smaller than the predetermined threshold value ε, it is recognized that it is appropriate to use the correction data output by the correction unit 172 as the compression result of the original image. Then, the determination unit 175 causes the correction unit 172 to output the correction data obtained when error information equal to or smaller than the predetermined threshold value ε is obtained as the optimum correction data to the latch circuit 176 and store it in the built-in memory 176A. And return.

【0324】以上のようにして、誤差情報が所定の閾値
ε以下となったときにおける、圧縮データを補正した補
正データが、最適補正データとして、メモリ176Aに
記憶される。なお、この最適補正データは、誤差情報を
所定の閾値ε以下とするものであるから、これを用い
て、予測値を算出することにより、元の画像(原画像)
とほぼ同一の画像を得ることができる。
As described above, the correction data obtained by correcting the compressed data when the error information becomes equal to or less than the predetermined threshold value ε is stored in the memory 176A as the optimum correction data. Since the optimum correction data sets the error information to be equal to or less than a predetermined threshold value ε, the prediction value is calculated using the error information to obtain the original image (original image).
And the same image can be obtained.

【0325】図35に戻り、ラッチ回路176は、その
メモリ176Aに、1フレーム分の最適補正データを記
憶すると、制御信号を、ブロック化回路177に出力す
る。ブロック化回路177は、ラッチ回路176から制
御信号を受信すると、ステップS102において、メモ
リ177Aに記憶された学習用画像を、3×3画素で構
成されるブロックに分割する。そして、ブロック化回路
177は、メモリ177Aに記憶された学習用画像のブ
ロックを読み出して、ADRC処理回路178およびメ
モリ180に供給する。
Returning to FIG. 35, when one frame of optimal correction data is stored in the memory 176A, the latch circuit 176 outputs a control signal to the blocking circuit 177. Upon receiving the control signal from the latch circuit 176, the blocking circuit 177 divides the learning image stored in the memory 177A into blocks each including 3 × 3 pixels in Step S102. Then, the blocking circuit 177 reads the blocks of the learning image stored in the memory 177A and supplies the blocks to the ADRC processing circuit 178 and the memory 180.

【0326】また、同時に、ブロック化回路177は、
メモリ177Aからブロックを読み出すときに、そのブ
ロックの位置を示す制御信号を、ラッチ回路176に供
給し、ラッチ回路176は、その制御信号に対応して、
メモリ177Aから読み出された3×3画素のブロック
を認識し、そのブロックの中心画素に対応する最適補正
データを読み出して、メモリ180に供給する。
At the same time, the blocking circuit 177
When reading a block from the memory 177A, a control signal indicating the position of the block is supplied to the latch circuit 176, and the latch circuit 176 responds to the control signal by:
The block of 3 × 3 pixels read from the memory 177A is recognized, and the optimum correction data corresponding to the central pixel of the block is read and supplied to the memory 180.

【0327】そして、ステップS103に進み、ADR
C処理回路178において、ブロック化回路177から
のブロックがADRC処理され、さらに、クラス分類回
路179において、そのブロックがクラス分類される。
このクラス分類結果は、アドレスとして、メモリ180
に供給される。
Then, the flow advances to step S103 to execute ADR
In the C processing circuit 178, the block from the blocking circuit 177 is subjected to ADRC processing, and further, in the class classification circuit 179, the block is classified.
This classification result is stored in the memory 180 as an address.
Supplied to

【0328】メモリ180では、ステップS104にお
いて、クラス分類回路179から供給されるクラス情報
に対応するアドレスに、ラッチ回路176から供給され
る最適補正データと、ブロック化回路177から供給さ
れるブロック(学習データ)とが対応付けられて記憶さ
れる。
In the memory 180, in step S104, at the address corresponding to the class information supplied from the class classification circuit 179, the optimal correction data supplied from the latch circuit 176 and the block supplied from the blocking circuit 177 (learning). ) Are stored in association with each other.

【0329】そして、ステップS105に進み、メモリ
180に、1フレーム分のブロックおよび最適補正デー
タが記憶されたかどうかが判定される。ステップS10
5において、メモリ180に、1フレーム分のブロック
および最適補正データが、まだ記憶されていないと判定
された場合、ブロック化回路177から次のブロックが
読み出されるとともに、ラッチ回路176からそのブロ
ックに対応する最適補正データが読み出され、ステップ
S103に戻り、以下、ステップS103以降の処理を
繰り返す。
The flow advances to step S105 to determine whether the memory 180 has stored the blocks for one frame and the optimum correction data. Step S10
In 5, when it is determined that the block for one frame and the optimal correction data are not yet stored in the memory 180, the next block is read from the blocking circuit 177 and the corresponding block is read from the latch circuit 176. The optimal correction data to be read out is read out, and the process returns to step S103, and thereafter, the processes after step S103 are repeated.

【0330】また、ステップS105において、メモリ
180に、1フレーム分のブロックおよび最適補正デー
タが記憶されたと判定された場合、ステップS106に
進み、学習用画像すべてについて処理が終了したかどう
かが判定される。ステップS106において、学習用画
像すべてについての処理が、まだ終了していないと判定
された場合、ステップS101に戻り、次の学習用画像
について、ステップS101からの処理が繰り返され
る。
If it is determined in step S105 that the blocks for one frame and the optimum correction data have been stored in the memory 180, the flow advances to step S106 to determine whether the processing has been completed for all the learning images. You. If it is determined in step S106 that the processing for all the learning images has not been completed, the process returns to step S101, and the processing from step S101 is repeated for the next learning image.

【0331】一方、ステップS106において、学習用
画像すべてについての処理が終了したと判定された場
合、ステップS107に進み、演算回路181は、メモ
リ180に記憶された最適補正データとブロックとを、
クラスごとに読み出し、これらにより、式(7)に示し
たような正規方程式をたてる。さらに、演算回路181
は、ステップS108において、その正規方程式を解く
ことで、誤差を最小にする、クラスごとのマッピング係
数を算出する。このマッピング係数は、ステップS10
9において、メモリ182に供給されて記憶され、処理
を終了する。
On the other hand, if it is determined in step S106 that the processing for all the learning images has been completed, the process proceeds to step S107, where the arithmetic circuit 181 compares the optimal correction data and the blocks stored in the memory 180 with each other.
The data is read out for each class, and a normal equation as shown in Expression (7) is established by these. Further, the arithmetic circuit 181
Calculates the mapping coefficient for each class that minimizes the error by solving the normal equation in step S108. This mapping coefficient is calculated in step S10.
At 9, the data is supplied to and stored in the memory 182, and the processing is terminated.

【0332】関数fが、線形1次式で表される場合にお
いては、以上のようにしてメモリ182に記憶されたマ
ッピング係数を、図27のマッピング係数メモリ114
に記憶させ、これを用いて画像の符号化を行うことがで
きる。
When the function f is represented by a linear linear expression, the mapping coefficient stored in the memory 182 as described above is stored in the mapping coefficient memory 114 shown in FIG.
, And can be used to encode an image.

【0333】なお、クラスによっては、マッピング係数
を求めることができるだけの数の正規方程式が得られな
い場合がある。このような場合は、図27の演算回路1
16において、ブロック化回路111から出力される3
×3画素のブロックを構成する9画素の、例えば平均値
などが出力されるようなマッピング係数、即ち、k1
至k9=1/9などが、デフォルトの値として設定され
る。
Note that, depending on the class, there may be cases where it is not possible to obtain as many normal equations as can obtain the mapping coefficients. In such a case, the arithmetic circuit 1 in FIG.
At 16, 3 output from the blocking circuit 111 is output.
For example, mapping coefficients for outputting, for example, an average value of nine pixels constituting a block of × 3 pixels, that is, k 1 to k 9 = 1/9 are set as default values.

【0334】次に、図37は、図27の送信装置1に対
応する受信装置4の構成例を示している。
Next, FIG. 37 shows an example of the configuration of the receiving device 4 corresponding to the transmitting device 1 of FIG.

【0335】受信機/再生装置191においては、記録
媒体2に記録された符号化データが再生され、または伝
送路3を介して伝送されてくる符号化データが受信さ
れ、デコード部192に供給される。
In the receiver / reproducing device 191, the encoded data recorded on the recording medium 2 is reproduced, or the encoded data transmitted via the transmission path 3 is received and supplied to the decoding unit 192. You.

【0336】デコード部192は、図32に示したロー
カルデコード部127におけるクラス分類用ブロック化
回路141乃至予測回路146にそれぞれ対応するクラ
ス分類用ブロック化回路193乃至予測回路198で構
成されており、従って、デコード部192では、図32
のローカルデコード部127における場合と同様にし
て、補正データから予測値が求められ、この予測値で構
成される画像が復号画像として出力される。
The decoding unit 192 is composed of the classifying blocking circuits 193 to 198 corresponding to the classifying blocking circuits 141 to 146 in the local decoding unit 127 shown in FIG. 32, respectively. Therefore, in the decoding unit 192, FIG.
As in the case of the local decoding unit 127, a prediction value is obtained from the correction data, and an image composed of the prediction value is output as a decoded image.

【0337】即ち、受信機/再生装置191から出力さ
れる符号化データとしての補正データは、クラス分類用
ブロック化回路193または予測値計算用ブロック化回
路194に順次供給され、図32のクラス分類用ブロッ
ク化回路141または予測値計算用ブロック化回路14
2における場合と同様にして、クラス分類用ブロックま
たは予測値計算用ブロックに、それぞれブロック化され
る。そして、クラス分類用ブロックはクラス分類回路1
96に、予測値計算用ブロックは予測回路198に、そ
れぞれ供給される。
That is, the correction data as the encoded data output from the receiver / reproducing device 191 is sequentially supplied to the classifying blocking circuit 193 or the predicted value calculating blocking circuit 194, and the classifying block shown in FIG. Blocking Circuit 141 or Predicted Value Calculation Blocking Circuit 14
In the same manner as in the case of 2, the blocks are divided into a class classification block or a predicted value calculation block. The classifying block is a classifying circuit 1
At 96, the prediction value calculation block is supplied to the prediction circuit 198, respectively.

【0338】クラス分類回路196は、クラス分類用ブ
ロック化回路193からのクラス分類用ブロックに対し
て、クラス分類処理を施し、クラス情報を、予測係数R
OM197に出力する。
The classifying circuit 196 performs a classifying process on the classifying block from the classifying blocking circuit 193, and outputs the class information to the prediction coefficient R
Output to OM197.

【0339】予測係数ROM197は、図32の予測係
数ROM145と同様に、例えば、図19の画像処理装
置において求められた、クラスごとの予測係数を記憶し
ており、クラス分類回路196からクラス情報を受信す
ると、そのクラス情報に対応する予測係数を読み出し、
予測回路198に供給する。予測回路198では、予測
係数ROM197からの予測係数と、予測値計算用ブロ
ック化回路194からの予測値計算用ブロックを構成す
る補正データとを用い、式(1)に対応する線形1次式
にしたがって、元の画像の予測値が算出され、これによ
り、元の画像が復号される。
The prediction coefficient ROM 197 stores, for example, prediction coefficients for each class obtained by the image processing apparatus shown in FIG. 19, like the prediction coefficient ROM 145 shown in FIG. Upon receiving, read the prediction coefficient corresponding to the class information,
This is supplied to the prediction circuit 198. The prediction circuit 198 uses the prediction coefficient from the prediction coefficient ROM 197 and the correction data forming the prediction value calculation block from the prediction value calculation blocking circuit 194 to obtain a linear linear expression corresponding to the expression (1). Therefore, the predicted value of the original image is calculated, and thereby the original image is decoded.

【0340】補正データは、上述したように、誤差情報
を所定の閾値以下とするものであり、従って、受信装置
4においては、元の画像とほぼ同一の復号画像を得るこ
とができる。
As described above, the correction data sets the error information to be equal to or less than the predetermined threshold value. Therefore, the receiving device 4 can obtain a decoded image substantially the same as the original image.

【0341】なお、マッピング係数を用いる場合におい
ても、受信側においては、図37に示すような受信装置
4ではなく、間引きされた画像を補間により復号する装
置により、通常の補間を行うことで復号画像を得ること
ができる。但し、この場合に得られる復号画像は、画質
(解像度)の劣化したものとなる。
In the case where the mapping coefficients are used, decoding is performed on the receiving side by performing normal interpolation using a device that decodes a thinned image by interpolation instead of the receiving device 4 as shown in FIG. Images can be obtained. However, the decoded image obtained in this case has deteriorated image quality (resolution).

【0342】以上、本発明を適用した画像処理装置につ
いて説明したが、このような画像処理装置は、例えば、
NTSC方式などの標準方式のテレビジョン信号を符号
化する場合の他、データ量の多い、いわゆるハイビジョ
ン方式のテレビジョン信号などを符号化する場合に、特
に有効である。
The image processing apparatus to which the present invention has been applied has been described above.
This is particularly effective when encoding a television signal of a standard system such as the NTSC system and encoding a so-called high-vision television signal having a large data amount.

【0343】なお、本実施の形態においては、1フレー
ムの画像を対象にブロック化を行うようにしたが、ブロ
ックは、その他、例えば、時系列に連続する複数フレー
ムにおける、同一位置の画素を集めて構成するようにす
ることも可能である。
In the present embodiment, the block is formed for one frame image. However, the block collects pixels at the same position in, for example, a plurality of frames continuous in time series. It is also possible to configure it.

【0344】また、本実施の形態においては、誤差情報
として、誤差の自乗和を用いるようにしたが、誤差情報
としては、その他、例えば、誤差の絶対値和や、その3
乗以上したものの和などを用いるようにすることが可能
である。いずれを誤差情報として用いるかは、例えば、
その収束性などに基づいて決定するようにすることが可
能である。
In the present embodiment, the sum of squares of the error is used as the error information.
It is possible to use the sum or the like of the raised values. Which one to use as error information is determined, for example, by
It is possible to determine based on the convergence and the like.

【0345】さらに、例えば、図10の実施の形態など
では、1フレーム単位で、正規方程式をたてて、クラス
ごとの予測係数を求めるようにしたが、予測係数の算出
処理は、その他、例えば、1フィールド単位や複数フレ
ーム単位で正規方程式をたてて行うようにすることも可
能である。他の処理についても同様である。
Further, for example, in the embodiment shown in FIG. 10, a normal equation is set for each frame, and a prediction coefficient for each class is obtained. It is also possible to establish a normal equation in units of one field or a plurality of frames. The same applies to other processes.

【0346】また、本発明は、ハードウェアによって
も、あるいは、上述した処理を行うためのアプリケーシ
ョンプログラムが記録されたハードディスク等の記録媒
体から、そのアプリケーションプログラムを読み出し
て、コンピュータに実行させることによっても、実現可
能である。
The present invention can also be implemented by hardware or by reading the application program from a recording medium such as a hard disk in which the application program for performing the above-described processing is recorded, and causing the computer to execute the program. Is feasible.

【0347】さらに、本実施の形態では、画素値のレベ
ルを、その上位2ビットに制限するようにしたが、画素
値のレベルは、その他、例えば、上位3ビット以上など
に制限することも可能である。
Further, in the present embodiment, the pixel value level is limited to the upper two bits, but the pixel value level may be limited to, for example, the upper three bits or more. It is.

【0348】[0348]

【発明の効果】請求項1に記載の画像符号化装置および
請求項11に記載の画像符号化方法によれば、原画像を
圧縮することにより得られる圧縮データのレベルが制限
され、そのレベルの制限された圧縮データが補正され
て、補正データが出力される。さらに、その補正データ
に基づいて、原画像が予測されて、その予測値が出力さ
れ、原画像に対する、予測値の予測誤差が算出される。
そして、その予測誤差に基づいて、補正データの適正さ
が判定され、その判定結果に基づいて、適正になった補
正データが、原画像の符号化結果として出力される。従
って、少ないデータ量で、効率的に高画質の画像を予測
することが可能となる。
According to the image encoding apparatus of the first aspect and the image encoding method of the eleventh aspect, the level of the compressed data obtained by compressing the original image is limited. The limited compressed data is corrected, and corrected data is output. Further, an original image is predicted based on the correction data, the predicted value is output, and a prediction error of the predicted value with respect to the original image is calculated.
Then, the appropriateness of the correction data is determined based on the prediction error, and based on the result of the determination, the appropriate correction data is output as the encoding result of the original image. Therefore, it is possible to efficiently predict a high-quality image with a small amount of data.

【0349】請求項12に記載の画像復号化装置および
請求項18に記載の画像復号化方法、請求項19に記載
の伝送方法、並びに請求項20に記載の記録媒体によれ
ば、符号化データが、原画像を、その画素数を少なくす
ることにより圧縮し、原画像を圧縮することにより得ら
れる圧縮データのレベルを制限し、レベルの制限された
圧縮データを補正して、補正データを出力し、補正デー
タに基づいて、原画像を予測して、その予測値を出力
し、原画像に対する、予測値の予測誤差を算出し、予測
誤差に基づいて、補正データの適正さを判定すること
を、補正データが適正になるまで繰り返すことにより得
られた、適正になった補正データを含んでいる。従っ
て、符号化データのデータ量は少ないものであるが、そ
のような少ないデータ量の符号化データから、高画質の
復号画像を得ることが可能となる。
According to the image decoding apparatus described in claim 12, the image decoding method described in claim 18, the transmission method described in claim 19, and the recording medium described in claim 20, encoded data Compresses the original image by reducing the number of pixels, limits the level of compressed data obtained by compressing the original image, corrects the level-limited compressed data, and outputs corrected data. Predicting an original image based on the correction data, outputting a predicted value thereof, calculating a prediction error of the predicted value with respect to the original image, and determining adequacy of the correction data based on the prediction error. Is repeated until the correction data becomes appropriate, and the corrected correction data is obtained. Therefore, although the data amount of the encoded data is small, a high-quality decoded image can be obtained from the encoded data having such a small data amount.

【0350】請求項21に記載の画像符号化装置および
請求項29に記載の画像符号化方法によれば、画像を構
成する画素が、その性質に応じて所定のクラスに分類さ
れ、クラスごとに、所定のマッピング係数を記憶してい
るマッピング係数記憶手段から、画像の中の、注目して
いる注目画素のクラスに対応するマッピング係数が読み
出される。そして、そのマッピング係数と、注目画素と
を用いて所定の演算を行うことにより、その注目画素を
補正した補正データが算出され、その補正データのレベ
ルを制限することにより、画像を符号化した符号化デー
タが生成される。従って、少ないデータ量で、効率的に
高画質の画像を予測することが可能となる。
[0350] According to the image coding apparatus of the present invention and the image coding method of the present invention, pixels constituting an image are classified into a predetermined class according to their properties. The mapping coefficient corresponding to the class of the pixel of interest in the image is read from the mapping coefficient storage means storing the predetermined mapping coefficient. Then, by performing a predetermined operation using the mapping coefficient and the target pixel, correction data obtained by correcting the target pixel is calculated, and by limiting the level of the correction data, a code obtained by coding the image is obtained. Generated data. Therefore, it is possible to efficiently predict a high-quality image with a small amount of data.

【0351】請求項30に記載の画像復号化装置および
請求項37に記載の画像復号化方法、請求項38に記載
の伝送方法、並びに請求項39に記載の記録媒体によれ
ば、符号化データが、画像を構成する画素を、その性質
に応じて所定のクラスに分類し、クラスごとに、所定の
マッピング係数を記憶しているマッピング係数記憶手段
から、画像の中の、注目している注目画素のクラスに対
応するマッピング係数を読み出し、そのマッピング係数
と、注目画素とを用いて所定の演算を行うことにより、
その注目画素を補正した補正データを算出し、補正デー
タのレベルを制限することにより得られたものとなって
いる。従って、符号化データのデータ量は少ないもので
あるが、そのような少ないデータ量の符号化データか
ら、高画質の復号画像を得ることが可能となる。
According to the image decoding apparatus of the present invention, the image decoding method of the present invention, the transmission method of the present invention, and the recording medium of the present invention, Classifies the pixels constituting the image into predetermined classes according to their properties, and stores, for each class, a predetermined mapping coefficient from a mapping coefficient storage unit, which stores the specified attention in the image. By reading a mapping coefficient corresponding to the pixel class and performing a predetermined operation using the mapping coefficient and the pixel of interest,
The correction data obtained by correcting the pixel of interest is obtained by limiting the level of the correction data. Therefore, although the data amount of the encoded data is small, a high-quality decoded image can be obtained from the encoded data having such a small data amount.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した画像処理装置の一実施の形態
の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an embodiment of an image processing apparatus to which the present invention has been applied.

【図2】図1の送信装置1の構成例を示すブロック図で
ある。
FIG. 2 is a block diagram illustrating a configuration example of a transmission device 1 of FIG.

【図3】図2の送信装置1の第1の機能的構成例を示す
ブロック図である。
FIG. 3 is a block diagram illustrating a first functional configuration example of a transmission device 1 of FIG. 2;

【図4】図3の送信装置1の動作を説明するためのフロ
ーチャートである。
FIG. 4 is a flowchart for explaining an operation of the transmission device 1 of FIG. 3;

【図5】図3の圧縮部21の構成例を示すブロック図で
ある。
FIG. 5 is a block diagram illustrating a configuration example of a compression unit 21 in FIG. 3;

【図6】図5の圧縮部21の動作を説明するためのフロ
ーチャートである。
FIG. 6 is a flowchart for explaining the operation of the compression unit 21 of FIG.

【図7】図5の間引き回路30の処理を説明するための
図である。
FIG. 7 is a diagram for explaining processing of the thinning circuit 30 of FIG. 5;

【図8】図3のローカルデコード部22の構成例を示す
ブロック図である。
FIG. 8 is a block diagram illustrating a configuration example of a local decoding unit 22 in FIG. 3;

【図9】クラス分類処理を説明するための図である。FIG. 9 is a diagram illustrating a class classification process.

【図10】図8のローカルデコード部22の動作を説明
するためのフローチャートである。
FIG. 10 is a flowchart for explaining the operation of a local decoding unit 22 in FIG. 8;

【図11】図3の誤差算出部23の構成例を示すブロッ
ク図である。
11 is a block diagram illustrating a configuration example of an error calculation unit 23 in FIG.

【図12】図11の誤差算出部23の動作を説明するた
めのフローチャートである。
FIG. 12 is a flowchart for explaining the operation of the error calculator 23 in FIG. 11;

【図13】図3の判定部24の構成例を示すブロック図
である。
13 is a block diagram illustrating a configuration example of a determination unit 24 in FIG.

【図14】図13の判定部24の動作を説明するための
フローチャートである。
FIG. 14 is a flowchart for explaining the operation of the determination unit 24 in FIG.

【図15】図1の受信装置4の第1の構成例を示すブロ
ック図である。
FIG. 15 is a block diagram showing a first configuration example of the receiving device 4 of FIG. 1;

【図16】図2の送信装置1の第2の機能的構成例を示
すブロック図である。
FIG. 16 is a block diagram illustrating a second functional configuration example of the transmission device 1 in FIG. 2;

【図17】図16のローカルデコード部1022の構成
例を示すブロック図である。
17 is a block diagram illustrating a configuration example of a local decoding unit 1022 in FIG.

【図18】図17のローカルデコード部1022の動作
を説明するためのフローチャートである。
FIG. 18 is a flowchart for explaining the operation of the local decoding unit 1022 in FIG. 17;

【図19】図17の予測係数ROM81に記憶されてい
る予測係数を算出する画像処理装置の一実施の形態の構
成を示すブロック図である。
19 is a block diagram illustrating a configuration of an embodiment of an image processing apparatus that calculates a prediction coefficient stored in a prediction coefficient ROM 81 of FIG.

【図20】図2の送信装置1の第3の機能的構成例を示
すブロック図である。
20 is a block diagram illustrating a third functional configuration example of the transmission device 1 in FIG.

【図21】図20の送信装置1の動作を説明するための
フローチャートである。
FIG. 21 is a flowchart for explaining the operation of the transmitting apparatus 1 of FIG.

【図22】図20のローカルデコード部2022の構成
例を示すブロック図である。
22 is a block diagram illustrating a configuration example of a local decoding unit 2022 in FIG.

【図23】図22のローカルデコード部2022の動作
を説明するためのフローチャートである。
FIG. 23 is a flowchart illustrating the operation of a local decoding unit 2022 in FIG. 22.

【図24】図20の判定部2024の構成例を示すブロ
ック図である。
24 is a block diagram illustrating a configuration example of a determination unit 2024 in FIG.

【図25】図24の判定部2024の動作を説明するた
めのフローチャートである。
FIG. 25 is a flowchart for explaining the operation of the determination unit 2024 of FIG.

【図26】図1の受信装置4の第2の構成例を示すブロ
ック図である。
FIG. 26 is a block diagram illustrating a second configuration example of the receiving device 4 of FIG.

【図27】図2の送信装置1の第4の機能的構成例を示
すブロック図である。
FIG. 27 is a block diagram illustrating a fourth functional configuration example of the transmission device 1 of FIG. 2;

【図28】ADRC処理を説明するための図である。FIG. 28 is a diagram for explaining an ADRC process.

【図29】図27の送信装置1の動作を説明するための
フローチャートである。
FIG. 29 is a flowchart for explaining the operation of the transmission device 1 of FIG. 27.

【図30】マッピング係数を得るための学習を行う画像
処理装置の第1実施の形態の構成を示すブロック図であ
る。
FIG. 30 is a block diagram illustrating a configuration of a first embodiment of an image processing apparatus that performs learning for obtaining mapping coefficients.

【図31】図30の画像処理装置の動作を説明するため
のフローチャートである。
FIG. 31 is a flowchart illustrating an operation of the image processing apparatus of FIG. 30;

【図32】図30のローカルデコード部127の構成例
を示すブロック図である。
FIG. 32 is a block diagram illustrating a configuration example of a local decoding unit 127 in FIG. 30.

【図33】図32のローカルデコード部127の処理を
説明するためのフローチャートである。
FIG. 33 is a flowchart illustrating the processing of local decoding section 127 in FIG. 32;

【図34】マッピング係数を得るための学習を行う画像
処理装置の第2実施の形態の構成を示すブロック図であ
る。
FIG. 34 is a block diagram illustrating a configuration of a second embodiment of an image processing apparatus that performs learning for obtaining a mapping coefficient.

【図35】図34の画像処理装置の動作を説明するため
のフローチャートである。
FIG. 35 is a flowchart illustrating the operation of the image processing apparatus of FIG. 34;

【図36】図35におけるステップS101の処理のよ
り詳細を説明するためのフローチャートである。
FIG. 36 is a flowchart for explaining the processing of step S101 in FIG. 35 in more detail;

【図37】図1の受信装置4の第3の構成例を示すブロ
ック図である。
FIG. 37 is a block diagram illustrating a third configuration example of the reception device 4 in FIG. 1.

【符号の説明】[Explanation of symbols]

1 送信装置, 2 記録媒体, 3 伝送路, 4
受信装置, 11 I/F, 12 ROM, 13
RAM, 14 CPU, 15 外部記憶装置, 1
6 送信機/記録装置, 21 圧縮部, 22 ロー
カルデコード部, 23 誤差算出部, 24 判定
部, 25 多重化部, 30 間引き回路, 31
レベル制限回路, 32 補正回路, 33 補正値R
OM, 41 クラス分類用ブロック化回路, 42
予測値計算用ブロック化回路, 43 クラス分類適応
処理回路, 45 クラス分類回路, 46 適応処理
回路, 51 ブロック化回路, 52 自乗誤差算出
回路, 53,54 演算器, 55 積算部, 56
メモリ, 61 予測係数メモリ, 62 補正デー
タメモリ, 63 誤差情報メモリ, 64 比較回
路, 65 制御回路,71 受信機/再生装置, 7
2 分離部, 73 クラス分類用ブロック化回路,
75 クラス分類回路, 76 予測回路, 76A
メモリ, 77予測値計算用ブロック化回路, 78,
81 予測係数ROM, 82 予測回路, 91 学
習用ブロック化回路, 92 教師用ブロック化回路,
94クラス分類回路, 95 スイッチ, 96 学
習データメモリ, 97 カウンタ, 98 教師デー
タメモリ, 99 演算回路, 100 メモリ,11
1 ブロック化回路, 112 ADRC処理回路,
113 クラス分類回路, 114 マッピング係数メ
モリ, 115 遅延回路, 116 演算回路, 1
17 レベル制限回路, 118 送信機/記録装置,
121 メモリ, 122 ブロック化回路, 12
3 ADRC処理回路, 124 クラス分類回路,
125 演算回路, 126 レベル制限回路, 12
7 ローカルデコード部, 128 誤差算出部, 1
29 判定部, 130 マッピング係数設定回路,
131 マッピング係数メモリ, 141 クラス分類
用ブロック化回路, 142 予測値計算用ブロック化
回路, 144 クラス分類回路, 145 予測係数
ROM, 146 予測回路, 160 最適補正デー
タ算出部, 170 圧縮部, 171 レベル制限
部, 172 補正部, 173 ローカルデコード
部, 174 誤差算出部, 175 判定部, 17
6 ラッチ回路, 176A メモリ, 177 ブロ
ック化回路,177A メモリ, 178 ADRC処
理回路, 179 クラス分類回路,180 メモリ,
181 演算回路, 182 メモリ, 191 受
信機/再生装置, 192 デコード部, 193 ク
ラス分類用ブロック化回路,194 予測値計算用ブロ
ック化回路, 196 クラス分類回路, 197予測
係数ROM, 198 予測回路, 1022,202
2 ローカルデコード部, 2024 判定部
1 transmission device, 2 recording medium, 3 transmission line, 4
Receiver, 11 I / F, 12 ROM, 13
RAM, 14 CPU, 15 external storage device, 1
Reference Signs List 6 transmitter / recording device, 21 compression unit, 22 local decoding unit, 23 error calculation unit, 24 determination unit, 25 multiplexing unit, 30 thinning circuit, 31
Level limiting circuit, 32 correction circuit, 33 correction value R
OM, 41 Classification Blocking Circuit, 42
Predicted value calculation blocking circuit, 43 class classification adaptive processing circuit, 45 class classification circuit, 46 adaptive processing circuit, 51 blocking circuit, 52 square error calculation circuit, 53, 54 arithmetic unit, 55 integrator, 56
Memory, 61 prediction coefficient memory, 62 correction data memory, 63 error information memory, 64 comparison circuit, 65 control circuit, 71 receiver / reproducer, 7
2 Separator, 73 block circuit for class classification,
75 Classification circuit, 76 Prediction circuit, 76A
Memory, 77, a block circuit for calculating predicted values, 78,
81 prediction coefficient ROM, 82 prediction circuit, 91 learning block circuit, 92 teacher block circuit,
94 class classification circuit, 95 switch, 96 learning data memory, 97 counter, 98 teacher data memory, 99 arithmetic circuit, 100 memory, 11
1 block circuit, 112 ADRC processing circuit,
113 class classification circuit, 114 mapping coefficient memory, 115 delay circuit, 116 arithmetic circuit, 1
17 level limiting circuit, 118 transmitter / recorder,
121 memory, 122 blocking circuit, 12
3 ADRC processing circuit, 124 class classification circuit,
125 arithmetic circuit, 126 level limiting circuit, 12
7 local decoding unit, 128 error calculating unit, 1
29 determination unit, 130 mapping coefficient setting circuit,
131 mapping coefficient memory, 141 class classification blocking circuit, 142 predicted value calculation blocking circuit, 144 class classification circuit, 145 prediction coefficient ROM, 146 prediction circuit, 160 optimal correction data calculation section, 170 compression section, 171 level limit Unit, 172 correction unit, 173 local decoding unit, 174 error calculation unit, 175 determination unit, 17
6 latch circuit, 176A memory, 177 blocking circuit, 177A memory, 178 ADRC processing circuit, 179 class classification circuit, 180 memory,
181 arithmetic circuit, 182 memory, 191 receiver / reproducing device, 192 decoding unit, 193 block circuit for class classification, 194 block circuit for prediction value calculation, 196 class classification circuit, 197 prediction coefficient ROM, 198 prediction circuit, 1022 , 202
2 Local decoding unit, 2024 judgment unit

Claims (39)

【特許請求の範囲】[Claims] 【請求項1】 画像を符号化する画像符号化装置であっ
て、 原画像を、その画素数を少なくすることにより圧縮する
圧縮手段と、 前記原画像を圧縮することにより得られる圧縮データの
レベルを制限する制限手段と、 レベルの制限された前記圧縮データを補正し、補正デー
タを出力する補正手段と、 前記補正データに基づいて、前記原画像を予測し、その
予測値を出力する予測手段と、 前記原画像に対する、前記予測値の予測誤差を算出する
算出手段と、 前記予測誤差に基づいて、前記補正手段が出力する前記
補正データの適正さを判定する判定手段と、 前記判定手段による判定結果に対応して、前記補正デー
タを、前記原画像の符号化結果として出力する出力手段
とを備えることを特徴とする画像符号化装置。
1. An image encoding apparatus for encoding an image, comprising: compression means for compressing an original image by reducing the number of pixels thereof; and a level of compressed data obtained by compressing the original image. Limiting means for correcting the compressed data of which level is limited, correcting means for outputting corrected data, and predicting means for predicting the original image based on the corrected data and outputting a predicted value thereof. Calculating means for calculating a prediction error of the predicted value with respect to the original image; determining means for determining, based on the prediction error, appropriateness of the correction data output by the correcting means; Output means for outputting the correction data as an encoding result of the original image in accordance with the determination result.
【請求項2】 前記予測手段は、 前記補正データを、その性質に応じて所定のクラスに分
類する分類手段と、 前記クラスに対応して、前記予測値を求める予測値演算
手段とを有することを特徴とする請求項1に記載の画像
符号化装置。
2. The predicting unit includes: a classifying unit that classifies the correction data into a predetermined class according to a property thereof; and a prediction value calculating unit that obtains the predicted value corresponding to the class. The image encoding device according to claim 1, wherein:
【請求項3】 前記予測手段は、 前記補正データとの線形結合により前記予測値を算出す
るための予測係数を求める予測係数演算手段と、 前記予測係数および補正データから、前記予測値を求め
る予測値演算手段とを有することを特徴とする請求項1
に記載の画像符号化装置。
3. The prediction means comprises: a prediction coefficient calculation means for obtaining a prediction coefficient for calculating the prediction value by a linear combination with the correction data; and a prediction for obtaining the prediction value from the prediction coefficient and the correction data. 2. The apparatus according to claim 1, further comprising a value calculating unit.
An image encoding device according to claim 1.
【請求項4】 前記予測手段は、 前記補正データを、その性質に応じて所定のクラスに分
類する分類手段と、 前記補正データとの線形結合により前記予測値を算出す
るための予測係数を、前記クラスごとに求める予測係数
演算手段と、 前記補正データの前記クラスについて得られた前記予測
係数と、その補正データとから、前記予測値を求める予
測値演算手段とを有することを特徴とする請求項1に記
載の画像符号化装置。
4. The predicting unit: a classifying unit that classifies the correction data into a predetermined class according to a property thereof; and a prediction coefficient for calculating the prediction value by a linear combination with the correction data, A prediction coefficient calculation unit for obtaining the prediction value from the prediction coefficient obtained for the class of the correction data and the correction data; and a prediction value calculation unit for obtaining the prediction value from the correction data. Item 2. The image encoding device according to Item 1.
【請求項5】 前記出力手段は、前記補正データととも
に、前記クラスごとの前記予測係数も出力することを特
徴とする請求項4に記載の画像符号化装置。
5. The image encoding apparatus according to claim 4, wherein the output unit outputs the prediction coefficient for each class together with the correction data.
【請求項6】 前記予測手段は、 前記補正データとの線形結合により前記予測値を算出す
るための予測係数を、所定のクラスごとに記憶している
記憶手段と、 前記補正データを、その性質に応じて前記所定のクラス
のうちのいずれかに分類する分類手段と、 前記補正データの前記クラスについての前記予測係数
と、その補正データとから、前記予測値を求める予測値
演算手段とを有することを特徴とする請求項1に記載の
画像符号化装置。
6. The prediction means comprises: a storage means for storing, for each predetermined class, a prediction coefficient for calculating the prediction value by a linear combination with the correction data; Classification means for classifying the correction data into any one of the predetermined classes, and prediction value calculation means for obtaining the prediction value from the prediction coefficient for the class of the correction data and the correction data. The image encoding device according to claim 1, wherein:
【請求項7】 前記記憶手段に記憶されている前記クラ
スごとの予測係数は、学習用の画像データを用いて学習
を行うことにより生成されたものであることを特徴とす
る請求項6に記載の画像符号化装置。
7. The prediction coefficient according to claim 6, wherein the prediction coefficient for each class stored in the storage unit is generated by performing learning using image data for learning. Image encoding device.
【請求項8】 前記出力手段は、前記補正データととも
に、前記クラスごとの前記予測係数も出力することを特
徴とする請求項7に記載の画像符号化装置。
8. The image encoding apparatus according to claim 7, wherein the output unit outputs the prediction coefficient for each class together with the correction data.
【請求項9】 前記補正手段は、 前記圧縮データを補正するための補正値を記憶している
記憶手段を有し、 その補正値を用いて、前記圧縮データを補正することを
特徴とする請求項1に記載の画像符号化装置。
9. The apparatus according to claim 1, wherein the correction unit includes a storage unit that stores a correction value for correcting the compressed data, and corrects the compressed data using the correction value. Item 2. The image encoding device according to Item 1.
【請求項10】 前記判定手段は、前記予測誤差が所定
値以下であるかどうかによって、前記補正データの適正
さを判定し、 前記出力手段は、前記予測誤差が所定値以下になったと
きにおける前記補正データを出力することを特徴とする
請求項1に記載の画像符号化装置。
10. The determination means determines whether the correction data is appropriate based on whether or not the prediction error is equal to or less than a predetermined value. The output means determines whether the correction error is equal to or less than a predetermined value. The image encoding device according to claim 1, wherein the correction data is output.
【請求項11】 画像を符号化する画像符号化方法であ
って、 原画像を、その画素数を少なくすることにより圧縮し、 前記原画像を圧縮することにより得られる圧縮データの
レベルを制限し、 レベルの制限された前記圧縮データを補正して、補正デ
ータを出力し、 前記補正データに基づいて、前記原画像を予測して、そ
の予測値を出力し、 前記原画像に対する、前記予測値の予測誤差を算出し、 前記予測誤差に基づいて、前記補正データの適正さを判
定することを、前記補正データが適正になるまで繰り返
し、 適正になった前記補正データを、前記原画像の符号化結
果として出力することを特徴とする画像符号化方法。
11. An image encoding method for encoding an image, comprising compressing an original image by reducing its number of pixels, and limiting a level of compressed data obtained by compressing the original image. Correcting the compressed data having a limited level, outputting corrected data, predicting the original image based on the corrected data, outputting a predicted value thereof, and calculating the predicted value for the original image. Calculating the prediction error of the correction data, and determining the appropriateness of the correction data based on the prediction error until the correction data becomes appropriate. An image coding method characterized by outputting as a result of conversion.
【請求項12】 画像を符号化した符号化データを復号
化する画像復号化装置であって、 前記符号化データを受信する受信手段と、 前記符号化データを復号化する復号化手段とを備え、 前記符号化データは、 原画像を、その画素数を少なくすることにより圧縮し、 前記原画像を圧縮することにより得られる圧縮データの
レベルを制限し、 レベルの制限された前記圧縮データを補正して、補正デ
ータを出力し、 前記補正データに基づいて、前記原画像を予測して、そ
の予測値を出力し、 前記原画像に対する、前記予測値の予測誤差を算出し、 前記予測誤差に基づいて、前記補正データの適正さを判
定することを、前記補正データが適正になるまで繰り返
すことにより得られた、適正になった前記補正データを
含むことを特徴とする画像復号化装置。
12. An image decoding apparatus for decoding encoded data obtained by encoding an image, comprising: a receiving unit that receives the encoded data; and a decoding unit that decodes the encoded data. The encoded data is obtained by compressing the original image by reducing the number of pixels, limiting the level of compressed data obtained by compressing the original image, and correcting the level-limited compressed data. And outputting correction data, predicting the original image based on the correction data, outputting a prediction value thereof, calculating a prediction error of the prediction value with respect to the original image, Determining whether the correction data is appropriate on the basis of the correction data until the correction data becomes appropriate. Device.
【請求項13】 前記復号化手段は、 前記補正データを、その性質に応じて所定のクラスに分
類する分類手段と、 前記クラスに対応して、前記予測値を求める予測値演算
手段とを有することを特徴とする請求項12に記載の画
像復号化装置。
13. The decoding unit includes: a classifying unit that classifies the correction data into a predetermined class according to a property thereof; and a prediction value calculation unit that obtains the prediction value corresponding to the class. 13. The image decoding apparatus according to claim 12, wherein:
【請求項14】 前記符号化データは、前記補正データ
との線形結合により前記予測値を算出するための予測係
数も含んでおり、 前記復号化手段は、前記予測係数および補正データか
ら、前記予測値を求める予測値演算手段を有することを
特徴とする請求項12に記載の画像復号化装置。
14. The coded data also includes a prediction coefficient for calculating the prediction value by a linear combination with the correction data, and the decoding unit calculates the prediction coefficient from the prediction coefficient and the correction data. 13. The image decoding apparatus according to claim 12, further comprising predicted value calculation means for obtaining a value.
【請求項15】 前記符号化データは、前記補正データ
との線形結合により前記予測値を算出するための、所定
のクラスごとの予測係数も含んでおり、 前記復号化手段は、 前記補正データを、その性質に応じて所定のクラスに分
類する分類手段と、 前記補正データの前記クラスについての前記予測係数
と、その補正データとから、前記予測値を求める予測値
演算手段とを有することを特徴とする請求項12に記載
の画像復号化装置。
15. The coded data also includes a prediction coefficient for each predetermined class for calculating the predicted value by a linear combination with the correction data, and the decoding unit converts the correction data into Classifying means for classifying the correction data into a predetermined class according to the property thereof; and prediction value calculating means for obtaining the prediction value from the prediction coefficient for the class of the correction data and the correction data. The image decoding apparatus according to claim 12, wherein
【請求項16】 前記復号化手段は、 前記補正データとの線形結合により前記予測値を算出す
るための予測係数を、所定のクラスごとに記憶している
記憶手段と、 前記補正データを、その性質に応じて前記所定のクラス
のいずれかに分類する分類手段と、 前記補正データの前記クラスについての前記予測係数を
前記記憶手段から読み出し、その予測係数と前記補正デ
ータとから、前記予測値を求める予測値演算手段とを有
することを特徴とする請求項12に記載の画像復号化装
置。
16. The decoding unit, comprising: a storage unit that stores, for each predetermined class, a prediction coefficient for calculating the prediction value by a linear combination with the correction data; Classifying means for classifying into any of the predetermined classes according to properties; reading out the prediction coefficient for the class of the correction data from the storage means; and calculating the prediction value from the prediction coefficient and the correction data. 13. The image decoding apparatus according to claim 12, further comprising: a predicted value calculating unit that calculates the predicted value.
【請求項17】 前記記憶手段に記憶されている前記ク
ラスごとの予測係数は、学習用の画像データを用いて学
習を行うことにより生成されたものであることを特徴と
する請求項16に記載の画像復号化装置。
17. The prediction coefficient according to claim 16, wherein the prediction coefficient for each class stored in the storage unit is generated by performing learning using image data for learning. Image decoding device.
【請求項18】 画像を符号化した符号化データを復号
化する画像復号化方法であって、 前記符号化データは、 原画像を、その画素数を少なくすることにより圧縮し、 前記原画像を圧縮することにより得られる圧縮データの
レベルを制限し、 レベルの制限された前記圧縮データを補正して、補正デ
ータを出力し、 前記補正データに基づいて、前記原画像を予測して、そ
の予測値を出力し、 前記原画像に対する、前記予測値の予測誤差を算出し、 前記予測誤差に基づいて、前記補正データの適正さを判
定することを、前記補正データが適正になるまで繰り返
すことにより得られた、適正になった前記補正データを
含むことを特徴とする画像復号化方法。
18. An image decoding method for decoding encoded data obtained by encoding an image, wherein the encoded data is obtained by compressing an original image by reducing the number of pixels thereof, and Limiting the level of compressed data obtained by compression, correcting the level-limited compressed data, outputting correction data, predicting the original image based on the correction data, and predicting the original image. By outputting a value, calculating a prediction error of the predicted value with respect to the original image, and determining the appropriateness of the correction data based on the prediction error, by repeating until the correction data becomes appropriate. An image decoding method characterized by including the obtained corrected data that has become appropriate.
【請求項19】 画像を符号化した符号化データを伝送
する伝送方法であって、 前記符号化データは、 原画像を、その画素数を少なくすることにより圧縮し、 前記原画像を圧縮することにより得られる圧縮データの
レベルを制限し、 レベルの制限された前記圧縮データを補正して、補正デ
ータを出力し、 前記補正データに基づいて、前記原画像を予測して、そ
の予測値を出力し、 前記原画像に対する、前記予測値の予測誤差を算出し、 前記予測誤差に基づいて、前記補正データの適正さを判
定することを、前記補正データが適正になるまで繰り返
すことにより得られた、適正になった前記補正データを
含むことを特徴とする伝送方法。
19. A transmission method for transmitting encoded data obtained by encoding an image, wherein the encoded data is obtained by compressing an original image by reducing the number of pixels thereof, and compressing the original image. Limiting the level of the compressed data obtained by the above, correcting the level-limited compressed data, outputting correction data, predicting the original image based on the correction data, and outputting the predicted value. And calculating a prediction error of the prediction value with respect to the original image, and determining whether the correction data is appropriate based on the prediction error, by repeating until the correction data becomes appropriate. And a transmission method including the corrected correction data.
【請求項20】 画像を符号化した符号化データが記録
されている記録媒体であって、 前記符号化データは、 原画像を、その画素数を少なくすることにより圧縮し、 前記原画像を圧縮することにより得られる圧縮データの
レベルを制限し、 レベルの制限された前記圧縮データを補正して、補正デ
ータを出力し、 前記補正データに基づいて、前記原画像を予測して、そ
の予測値を出力し、 前記原画像に対する、前記予測値の予測誤差を算出し、 前記予測誤差に基づいて、前記補正データの適正さを判
定することを、前記補正データが適正になるまで繰り返
すことにより得られた、適正になった前記補正データを
含むことを特徴とする記録媒体。
20. A recording medium on which encoded data obtained by encoding an image is recorded, wherein the encoded data is obtained by compressing an original image by reducing the number of pixels, and compressing the original image. Limiting the level of the compressed data obtained by performing the correction, outputting the corrected data by correcting the level-limited compressed data, predicting the original image based on the corrected data, and predicting the predicted value. And calculating the prediction error of the predicted value with respect to the original image, and determining the correctness of the correction data based on the prediction error by repeating until the correction data becomes appropriate. A recording medium including the corrected correction data.
【請求項21】 画像を符号化する画像符号化装置であ
って、 前記画像を構成する画素を、その性質に応じて所定のク
ラスに分類する分類手段と、 前記クラスごとに、所定のマッピング係数を記憶してい
るマッピング係数記憶手段と、 前記画像の中の、注目している注目画素と、その注目画
素のクラスに対応する前記マッピング係数とを用いて所
定の演算を行うことにより、その注目画素を補正した補
正データを算出する演算手段と、 前記補正データのレベルを制限して、前記画像を符号化
した符号化データとする制限手段とを備えることを特徴
とする画像符号化装置。
21. An image encoding apparatus for encoding an image, comprising: a classifying unit that classifies pixels constituting the image into a predetermined class according to a property thereof; and a predetermined mapping coefficient for each of the classes. By performing a predetermined operation using a target pixel of interest in the image and the mapping coefficient corresponding to the class of the target pixel, thereby obtaining the target An image encoding apparatus comprising: an arithmetic unit that calculates correction data obtained by correcting pixels; and a limiting unit that limits the level of the correction data to obtain encoded data obtained by encoding the image.
【請求項22】 前記演算手段は、前記所定の演算を行
うことにより、前記画像の画素数を少なくすることを特
徴とする請求項21に記載の画像符号化装置。
22. The image coding apparatus according to claim 21, wherein said calculation means reduces the number of pixels of said image by performing said predetermined calculation.
【請求項23】 前記演算手段は、前記注目画素を含む
複数の画素と、その注目画素のクラスに対応する前記マ
ッピング係数とを用いて前記所定の演算を行うことを特
徴とする請求項22に記載の画像符号化装置。
23. The method according to claim 22, wherein the calculating means performs the predetermined calculation using a plurality of pixels including the pixel of interest and the mapping coefficient corresponding to the class of the pixel of interest. The image encoding device according to claim 1.
【請求項24】 前記マッピング係数は、学習用の画像
データを用いて学習を行うことにより生成されたもので
あることを特徴とする請求項22に記載の画像符号化装
置。
24. The image encoding apparatus according to claim 22, wherein the mapping coefficient is generated by performing learning using image data for learning.
【請求項25】 前記マッピング係数は、前記符号化デ
ータから元の画像を予測した予測結果の、その元の画像
に対する予測誤差が最小になるように学習を行うことに
より得られたものであることを特徴とする請求項22に
記載の画像符号化装置。
25. The mapping coefficient is obtained by performing learning such that a prediction error of a prediction result of predicting an original image from the encoded data with respect to the original image is minimized. The image encoding device according to claim 22, wherein:
【請求項26】 前記マッピング係数は、前記符号化デ
ータから元の画像を予測した予測結果の、その元の画像
に対する予測誤差が所定値以下になるように学習を行う
ことにより得られたものであることを特徴とする請求項
22に記載の画像符号化装置。
26. The mapping coefficient obtained by performing learning so that a prediction error of a prediction result of predicting an original image from the encoded data with respect to the original image becomes a predetermined value or less. 23. The image encoding apparatus according to claim 22, wherein:
【請求項27】 前記マッピング係数は、 学習用の画像を構成する画素を、その性質に応じて前記
クラスのうちのいずれかに分類し、 前記学習用の画像の中の、注目している注目学習画素
と、その注目学習画素のクラスに対応する所定の係数と
を用いて前記所定の演算を行うことにより、その注目学
習画素を補正した学習用補正データを算出し、 前記学習用補正データのレベルを制限した学習用制限デ
ータを求め、 その学習用制限データに基づいて、前記学習用の画像の
予測値を予測し、 前記学習用の画像に対する、前記学習用の画像の予測値
の予測誤差を算出し、 その予測誤差に基づいて、前記所定の係数を変更するこ
とを、前記所定の係数が最適な値になるまで繰り返すこ
とにより得られた、その最適な値の前記所定の係数であ
ることを特徴とする請求項22に記載の画像符号化装
置。
27. The mapping coefficient classifies pixels constituting an image for learning into one of the classes according to the nature of the pixel. By performing the predetermined operation using a learning pixel and a predetermined coefficient corresponding to the class of the target learning pixel, learning correction data for correcting the target learning pixel is calculated. Calculating learning limit data with a limited level; predicting a predicted value of the learning image based on the learning limited data; predicting a prediction error of the predicted value of the learning image with respect to the learning image; , And changing the predetermined coefficient based on the prediction error is repeated until the predetermined coefficient reaches an optimum value, and the predetermined coefficient of the optimum value is obtained. thing The image encoding device according to claim 22, wherein:
【請求項28】 前記マッピング係数は、 学習用の画像を、その画素数を少なくすることにより圧
縮し、 前記学習用の画像を圧縮することにより得られる学習用
圧縮データのレベルを制限し、 レベルの制限された前記学習用圧縮データを補正して、
学習用補正データを出力し、 前記学習用補正データに基づいて、前記学習用の画像を
予測して、その予測値を出力し、 前記学習用の画像に対する、前記学習用の画像の予測値
の予測誤差を算出し、 その予測誤差に基づいて、前記学習用補正データの適正
さを判定することを、前記学習用補正データが適正にな
るまで繰り返すことにより得られた、その適正になった
前記学習用補正データと、前記学習用の画像とを用いて
求められたものであることを特徴とする請求項22に記
載の画像符号化装置。
28. The mapping coefficient, comprising: compressing a learning image by reducing the number of pixels thereof; limiting a level of compressed learning data obtained by compressing the learning image; Correcting the limited training compressed data of
Outputting learning correction data, predicting the learning image based on the learning correction data, outputting a prediction value thereof, and calculating a prediction value of the learning image with respect to the learning image. Calculating the prediction error, and determining the appropriateness of the learning correction data based on the prediction error, until the learning correction data becomes appropriate. 23. The image coding apparatus according to claim 22, wherein the image coding apparatus is obtained using the learning correction data and the learning image.
【請求項29】 画像を符号化する画像符号化方法であ
って、 前記画像を構成する画素を、その性質に応じて所定のク
ラスに分類し、 前記クラスごとに、所定のマッピング係数を記憶してい
るマッピング係数記憶手段から、前記画像の中の、注目
している注目画素のクラスに対応する前記マッピング係
数を読み出し、 そのマッピング係数と、前記注目画素とを用いて所定の
演算を行うことにより、その注目画素を補正した補正デ
ータを算出し、 前記補正データのレベルを制限して、前記画像を符号化
した符号化データとすることを特徴とする画像符号化方
法。
29. An image encoding method for encoding an image, comprising: classifying pixels constituting the image into a predetermined class according to a property thereof; and storing a predetermined mapping coefficient for each class. By reading the mapping coefficient corresponding to the class of the pixel of interest in the image from the mapping coefficient storage means, and performing a predetermined operation using the mapping coefficient and the pixel of interest. An image encoding method comprising: calculating correction data obtained by correcting the target pixel; and limiting the level of the correction data to obtain encoded data obtained by encoding the image.
【請求項30】 画像を符号化した符号化データを復号
化する画像復号化装置であって、 前記符号化データを受信する受信手段と、 前記符号化データを復号化する復号化手段とを備え、 前記符号化データは、 前記画像を構成する画素を、その性質に応じて第1のク
ラスのうちのいずれかに分類し、 前記第1のクラスごとに、所定のマッピング係数を記憶
しているマッピング係数記憶手段から、前記画像の中
の、注目している注目画素の第1のクラスに対応する前
記マッピング係数を読み出し、 そのマッピング係数と、前記注目画素とを用いて所定の
演算を行うことにより、その注目画素を補正した補正デ
ータを算出し、 前記補正データのレベルを制限することにより得られた
ものであることを特徴とする画像復号化装置。
30. An image decoding device that decodes encoded data obtained by encoding an image, comprising: a receiving unit that receives the encoded data; and a decoding unit that decodes the encoded data. The encoded data classifies the pixels constituting the image into one of first classes according to the properties thereof, and stores a predetermined mapping coefficient for each of the first classes. Reading, from the mapping coefficient storage means, the mapping coefficient corresponding to the first class of the pixel of interest in the image, and performing a predetermined operation using the mapping coefficient and the pixel of interest; , Calculating correction data obtained by correcting the target pixel, and obtaining the correction data by limiting the level of the correction data.
【請求項31】 前記符号化データは、前記画像の画素
数を少なくしたものであることを特徴とする請求項30
に記載の画像復号化装置。
31. The coded data obtained by reducing the number of pixels of the image.
5. The image decoding device according to claim 1.
【請求項32】 前記復号化手段は、 前記符号化データとの線形結合により前記予測値を算出
するための予測係数を、第2のクラスごとに記憶してい
る予測係数記憶手段と、 前記符号化データを、その性質に応じて前記第2のクラ
スのうちのいずれかに分類する分類手段と、 前記符号化データの前記第2のクラスについての前記予
測係数を、前記予測係数記憶手段から読み出し、その予
測係数と前記符号化データとから、前記予測値を求める
予測値演算手段とを有することを特徴とする請求項31
に記載の画像復号化装置。
32. The decoding means, comprising: a prediction coefficient storage means for storing a prediction coefficient for calculating the prediction value by a linear combination with the encoded data for each second class; Classifying means for classifying coded data into one of the second classes according to the property thereof; and reading out the prediction coefficients of the coded data for the second class from the prediction coefficient storage means. 32. A predictive value calculating means for calculating the predictive value from the predictive coefficient and the encoded data.
5. The image decoding device according to claim 1.
【請求項33】 前記予測係数は、学習用の画像データ
を用いて学習を行うことにより生成されたものであるこ
とを特徴とする請求項32に記載の画像復号化装置。
33. The image decoding apparatus according to claim 32, wherein the prediction coefficient is generated by performing learning using image data for learning.
【請求項34】 前記マッピング係数は、学習用の画像
データを用いて学習を行うことにより生成されたもので
あることを特徴とする請求項31に記載の画像復号化装
置。
34. The image decoding apparatus according to claim 31, wherein the mapping coefficient is generated by performing learning using learning image data.
【請求項35】 前記マッピング係数は、前記符号化デ
ータから元の画像を予測した予測結果の、その元の画像
に対する予測誤差が最小になるように学習を行うことに
より得られたものであることを特徴とする請求項31に
記載の画像復号化装置。
35. The mapping coefficient is obtained by performing learning so that a prediction error of a prediction result of predicting an original image from the encoded data with respect to the original image is minimized. The image decoding device according to claim 31, wherein:
【請求項36】 前記マッピング係数は、前記符号化デ
ータから元の画像を予測した予測結果の、その元の画像
に対する予測誤差が所定値以下になるように学習を行う
ことにより得られたものであることを特徴とする請求項
31に記載の画像復号化装置。
36. The mapping coefficient obtained by performing learning so that a prediction error of a prediction result of predicting an original image from the coded data with respect to the original image becomes a predetermined value or less. 32. The image decoding device according to claim 31, wherein:
【請求項37】 画像を符号化した符号化データを復号
化する画像復号化方法であって、 前記符号化データは、 前記画像を構成する画素を、その性質に応じて所定のク
ラスのうちのいずれかに分類し、 前記クラスごとに、所定のマッピング係数を記憶してい
るマッピング係数記憶手段から、前記画像の中の、注目
している注目画素のクラスに対応する前記マッピング係
数を読み出し、 そのマッピング係数と、前記注目画素とを用いて所定の
演算を行うことにより、その注目画素を補正した補正デ
ータを算出し、 前記補正データのレベルを制限することにより得られた
ものであることを特徴とする画像復号化方法。
37. An image decoding method for decoding coded data obtained by coding an image, wherein the coded data is obtained by converting pixels constituting the image into pixels of a predetermined class according to a property thereof. The mapping coefficient corresponding to the class of the pixel of interest in the image is read out from the mapping coefficient storage unit that stores a predetermined mapping coefficient for each class. By performing a predetermined operation using the mapping coefficient and the target pixel, correction data obtained by correcting the target pixel is calculated, and the correction data is obtained by limiting the level of the correction data. Image decoding method.
【請求項38】 画像を符号化した符号化データを伝送
する伝送方法であって、 前記符号化データは、 前記画像を構成する画素を、その性質に応じて所定のク
ラスに分類し、 前記クラスごとに、所定のマッピング係数を記憶してい
るマッピング係数記憶手段から、前記画像の中の、注目
している注目画素のクラスに対応する前記マッピング係
数を読み出し、 そのマッピング係数と、前記注目画素とを用いて所定の
演算を行うことにより、その注目画素を補正した補正デ
ータを算出し、 前記補正データのレベルを制限することにより得られた
ものであることを特徴とする伝送方法。
38. A transmission method for transmitting coded data obtained by coding an image, wherein the coded data classifies pixels constituting the image into a predetermined class according to a property of the image. In each case, the mapping coefficient corresponding to the class of the pixel of interest in the image is read out from the mapping coefficient storage unit storing the predetermined mapping coefficient, and the mapping coefficient and the pixel of interest are read out. , A predetermined operation is performed to calculate correction data obtained by correcting the target pixel, and the correction data is obtained by limiting a level of the correction data.
【請求項39】 画像を符号化した符号化データが記録
されている記録媒体であって、 前記符号化データは、 前記画像を構成する画素を、その性質に応じて所定のク
ラスに分類し、 前記クラスごとに、所定のマッピング係数を記憶してい
るマッピング係数記憶手段から、前記画像の中の、注目
している注目画素のクラスに対応する前記マッピング係
数を読み出し、 そのマッピング係数と、前記注目画素とを用いて所定の
演算を行うことにより、その注目画素を補正した補正デ
ータを算出し、 前記補正データのレベルを制限することにより得られた
ものであることを特徴とする記録媒体。
39. A recording medium on which encoded data obtained by encoding an image is recorded, wherein the encoded data classifies pixels constituting the image into a predetermined class according to their properties, For each of the classes, the mapping coefficient corresponding to the class of the pixel of interest in the image is read out from the mapping coefficient storage unit that stores a predetermined mapping coefficient. A recording medium, which is obtained by performing a predetermined operation using a pixel to calculate correction data for correcting the target pixel, and limiting the level of the correction data.
JP20852597A 1996-07-17 1997-07-17 Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium Expired - Fee Related JP3952326B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20852597A JP3952326B2 (en) 1996-07-17 1997-07-17 Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP8-206554 1996-07-17
JP20655496 1996-07-17
US08/893,216 US6381369B1 (en) 1996-07-17 1997-07-15 Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium
JP20852597A JP3952326B2 (en) 1996-07-17 1997-07-17 Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005308103A Division JP4534951B2 (en) 1996-07-17 2005-10-24 Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium

Publications (2)

Publication Number Publication Date
JPH1084549A true JPH1084549A (en) 1998-03-31
JP3952326B2 JP3952326B2 (en) 2007-08-01

Family

ID=27328650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20852597A Expired - Fee Related JP3952326B2 (en) 1996-07-17 1997-07-17 Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium

Country Status (1)

Country Link
JP (1) JP3952326B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017511045A (en) * 2014-02-26 2017-04-13 ドルビー ラボラトリーズ ライセンシング コーポレイション Luminance-based coding tool for video compression

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017511045A (en) * 2014-02-26 2017-04-13 ドルビー ラボラトリーズ ライセンシング コーポレイション Luminance-based coding tool for video compression
US11032553B2 (en) 2014-02-26 2021-06-08 Dolby Laboratories Licensing Corporation Luminance based coding tools for video compression
US11729400B2 (en) 2014-02-26 2023-08-15 Dolby Laboratories Licensing Corporation Luminance based coding tools for video compression

Also Published As

Publication number Publication date
JP3952326B2 (en) 2007-08-01

Similar Documents

Publication Publication Date Title
JP3748088B2 (en) Image processing apparatus and method, and learning apparatus and method
JP3912627B2 (en) Image coding apparatus, image coding method, and transmission method
EP1309200A2 (en) Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks
KR20020030078A (en) Data processing device and data processing method, and recorded medium
US6381369B1 (en) Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium
JP3915855B2 (en) Image coding apparatus, image coding method, learning apparatus, and learning method
EP0820198B1 (en) Apparatus and method for image coding and decoding
JP3747970B2 (en) Image encoding device, image encoding method, image decoding device, and image decoding method
JP4534951B2 (en) Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium
JP4582416B2 (en) Image coding apparatus and image coding method
JP3912628B2 (en) Image encoding device, image encoding method, image encoding and decoding system, image encoding and decoding method, and recording medium
JPH1084549A (en) Image coder, image coding method, image decoder, image decoding method, transmission method and recording medium
JP3912558B2 (en) Image encoding apparatus, image encoding method, and recording medium
JP3844031B2 (en) Image coding apparatus and image coding method, and image decoding apparatus and image decoding method
JPH1093981A (en) Image encoder and image encoding method, image decoder and image decoding method, transmitting method and recording medium
JPH08307835A (en) Classification adaptive processing unit and its method
JP4496494B2 (en) Image coding apparatus and image coding method
KR100674068B1 (en) Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium
JP4016249B2 (en) Image encoding apparatus and encoding method, image decoding apparatus and decoding method, recording medium, program, and image processing system
JP4487900B2 (en) Image processing system
EP1298934A1 (en) Apparatus and method for image coding and decoding
JP4518727B2 (en) Image encoding apparatus and method, recording medium, and program
KR100598754B1 (en) Device for coding original image data, device for decoding coded image data, method for coding original image data, method for decoding coded image data, method for transmitting image data, computer-readable storing media
JP2001339724A (en) Image encoding apparatus and method, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070419

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100511

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130511

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130511

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees