JP4807349B2 - Learning apparatus and method - Google Patents

Learning apparatus and method Download PDF

Info

Publication number
JP4807349B2
JP4807349B2 JP2007322804A JP2007322804A JP4807349B2 JP 4807349 B2 JP4807349 B2 JP 4807349B2 JP 2007322804 A JP2007322804 A JP 2007322804A JP 2007322804 A JP2007322804 A JP 2007322804A JP 4807349 B2 JP4807349 B2 JP 4807349B2
Authority
JP
Japan
Prior art keywords
circuit
data
image
block
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007322804A
Other languages
Japanese (ja)
Other versions
JP2008136221A (en
Inventor
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007322804A priority Critical patent/JP4807349B2/en
Publication of JP2008136221A publication Critical patent/JP2008136221A/en
Application granted granted Critical
Publication of JP4807349B2 publication Critical patent/JP4807349B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Description

本発明は、学習装置および方に関し、特に、効率よく、かつ、精度良く、予測を行うことができるようにした学習装置および方に関する。 The present invention relates to a learning device and Methods, in particular, efficiently and accurately, to the learning apparatus and Methods were to be able to make predictions.

従来より、空間解像度の低い画像を空間解像度のより高い画像に変換して表示することが行われている。この場合、空間解像度の低い画素データから、より多くの画素データを補間する(生成する)ようにしている。   Conventionally, an image having a low spatial resolution is converted into an image having a higher spatial resolution and displayed. In this case, more pixel data is interpolated (generated) from pixel data having a low spatial resolution.

従来、このような補間処理を行うのに、空間解像度の低い画素データが、例えばR,G,Bのコンポーネント信号により構成されているとき、各コンポーネント信号毎に、独立に補間処理を行うようにしていた。   Conventionally, in order to perform such interpolation processing, when pixel data with low spatial resolution is composed of, for example, R, G, and B component signals, the interpolation processing is performed independently for each component signal. It was.

すなわち、空間解像度の高いRの画素データは、空間解像度の低いRの画素データから生成し、空間解像度の高いGの画素データは、空間解像度の低いGの画素データから生成し、空間解像度の高いBの画素データは、空間解像度の低いBの画素データから生成するようにしていた。   That is, R pixel data having a high spatial resolution is generated from R pixel data having a low spatial resolution, and G pixel data having a high spatial resolution is generated from G pixel data having a low spatial resolution. The B pixel data is generated from the B pixel data having a low spatial resolution.

その結果、効率が悪くなるばかりでなく、良好な精度を得ることが困難であった。   As a result, not only the efficiency is deteriorated, but it is difficult to obtain good accuracy.

本発明はこのような状況に鑑みてなされたものであり、効率と精度を改善するようにするものである。   The present invention has been made in view of such a situation, and is intended to improve efficiency and accuracy.

請求項1に記載の学習装置は、第2の画素データを構成するコンポーネント信号と、その第2の画素データの近傍に位置する複数の第1の画素データそれぞれを構成する複数種類のコンポーネント信号および予測係数を用いて予測された第2の画素データを構成するコンポーネント信号の予測値との誤差を最小にする予測係数を求めるための演算を行う演算手段を備えることを特徴とする。 The learning device according to claim 1, a component signal that constitutes the second pixel data, and a plurality of types of component signals that constitute each of the plurality of first pixel data located in the vicinity of the second pixel data, and It is characterized by comprising a calculation means for performing a calculation for obtaining a prediction coefficient that minimizes an error from a predicted value of a component signal constituting the second pixel data predicted using the prediction coefficient.

請求項3に記載の学習方法は、第2の画素データを構成するコンポーネント信号と、その第2の画素データの近傍に位置する複数の第1の画素データそれぞれを構成する複数種類のコンポーネント信号および予測係数を用いて予測された第2の画素データを構成するコンポーネント信号の予測値との誤差を最小にする予測係数を求めるための演算を行う演算ステップを備えることを特徴とする The learning method according to claim 3, wherein a component signal constituting the second pixel data and a plurality of types of component signals constituting each of the plurality of first pixel data located in the vicinity of the second pixel data, and A calculation step is provided for performing a calculation for obtaining a prediction coefficient that minimizes an error from a predicted value of a component signal that constitutes the second pixel data predicted using the prediction coefficient .

請求項1に記載の学習装置および請求項3に記載の学習方法においては、第2の画素データを構成するコンポーネント信号と、その第2の画素データの近傍に位置する複数種類の第1の画素データそれぞれを構成する複数のコンポーネント信号および予測係数を用いて予測された第2の画素データを構成するコンポーネント信号の予測値との誤差を最小にする予測係数を求めるための演算を行うことで、予測係数が決定される The learning device according to claim 1 and the learning method according to claim 3, wherein the component signal constituting the second pixel data and a plurality of types of first pixels located in the vicinity of the second pixel data. By performing an operation for obtaining a prediction coefficient that minimizes an error from a predicted value of a component signal that constitutes second pixel data that is predicted using a plurality of component signals and prediction coefficients that constitute each of the data, A prediction coefficient is determined .

本発明によれば、効率的に高精度に予測処理を行うことが可能となる。   According to the present invention, it is possible to efficiently perform prediction processing with high accuracy.

図1は、送信側から画像データを間引いて伝送し、受信側で、間引かれた画素を生成して再生するシステムの構成例を示している。伝送するディジタルビデオデータは、送信装置1の入力端子201からサブサンプリング回路202に入力され、水平方向に1つおきの画素データが間引かれ、伝送すべきデータ量が半分になるようになされている。エンコーダ203は、サブサンプリング回路202から供給されたデータを、例えばDCT(Discrete Cosine Transform)などの直交変換符号や、ADRC(Adaptive Dynamic Range Coding)などにより高能率符号化し、データ量をさらに低減するようになされている。送信処理回路204は、エンコーダ203の出力に対して、エラー訂正符号化、フレーム化、チャンネル符号化などの処理を行い、出力端子205から伝送路3に出力したり、光ディスク、磁気ディスクなどの記録媒体2に記録する。   FIG. 1 shows a configuration example of a system in which image data is thinned and transmitted from a transmission side, and thinned pixels are generated and reproduced on a reception side. Digital video data to be transmitted is input from the input terminal 201 of the transmission apparatus 1 to the sub-sampling circuit 202, and every other pixel data is thinned out in the horizontal direction so that the amount of data to be transmitted is halved. Yes. The encoder 203 performs high-efficiency encoding on the data supplied from the sub-sampling circuit 202 using, for example, an orthogonal transform code such as DCT (Discrete Cosine Transform) or ADRC (Adaptive Dynamic Range Coding) to further reduce the data amount. Has been made. The transmission processing circuit 204 performs processing such as error correction encoding, framing, and channel encoding on the output of the encoder 203, and outputs the output from the output terminal 205 to the transmission path 3 or records on an optical disk, magnetic disk, or the like. Recorded on the medium 2.

伝送路3または記録媒体2から供給されたデータは、受信装置4の入力端子211から受信処理回路212に入力され、チャンネル符号化の復号化処理、フレーム分解処理、エラー訂正処理などが行われるようになされている。デコーダ213は、送信装置1側のエンコーダ203に対応する復号処理を行うようになされている。デコーダ213の出力は、同時化回路215と合成回路214に供給されている。   The data supplied from the transmission path 3 or the recording medium 2 is input to the reception processing circuit 212 from the input terminal 211 of the receiving device 4 so that channel encoding decoding processing, frame decomposition processing, error correction processing, and the like are performed. Has been made. The decoder 213 performs a decoding process corresponding to the encoder 203 on the transmission device 1 side. The output of the decoder 213 is supplied to the synchronization circuit 215 and the synthesis circuit 214.

同時化回路215は、デコーダ213の出力を、処理対象とする画素データが同じタイミングで発生するようにタイミング調整を行い、調整後のデータをADRC処理回路216とデータ生成回路219に出力している。ADRC処理回路216は、同時化回路215より供給されたデータを、1ビットでADRC処理し、処理結果をクラス分類回路217に出力する。クラス分類回路217は、ADRC処理回路216より供給されたデータに対応するクラス分類処理を行い、分類されたクラスを示す信号をROM(Read Only Memory)218にアドレスとして出力するようになされている。   The synchronization circuit 215 adjusts the output of the decoder 213 so that pixel data to be processed is generated at the same timing, and outputs the adjusted data to the ADRC processing circuit 216 and the data generation circuit 219. . The ADRC processing circuit 216 performs ADRC processing on the data supplied from the synchronization circuit 215 with one bit, and outputs the processing result to the class classification circuit 217. The class classification circuit 217 performs class classification processing corresponding to the data supplied from the ADRC processing circuit 216 and outputs a signal indicating the classified class to a ROM (Read Only Memory) 218 as an address.

ROM218は、クラス分類回路217より供給されるクラスに対応するアドレスに記憶されている係数データを読み出し、データ生成回路219に出力するようになされている。データ生成回路219は、同時化回路215より供給されたデータに、ROM218より供給された係数データを乗算し、新たな画素データを生成して、合成回路214に出力している。合成回路214は、デコーダ213より供給された、元々存在する画素データと、データ生成回路219により生成された画素データとを合成し、出力端子220から図示せぬCRTなどに出力し、表示させるようになされている。   The ROM 218 reads the coefficient data stored at the address corresponding to the class supplied from the class classification circuit 217 and outputs the coefficient data to the data generation circuit 219. The data generation circuit 219 multiplies the data supplied from the synchronization circuit 215 by the coefficient data supplied from the ROM 218 to generate new pixel data, which is output to the synthesis circuit 214. The combining circuit 214 combines the originally existing pixel data supplied from the decoder 213 and the pixel data generated by the data generation circuit 219, and outputs them to the CRT (not shown) from the output terminal 220 for display. Has been made.

次に、その動作について説明する。入力端子201より入力されたディジタル画像データは、例えば図2に示すように、水平方向に1つおきに、サブサンプリング回路202において間引かれる。図2において、○印は、間引かれて残った画素データを表し、×印は、間引かれて伝送されない画素データを表している。これにより、伝送すべき画素データが半分になる。   Next, the operation will be described. For example, as shown in FIG. 2, the digital image data input from the input terminal 201 is thinned out by the sub-sampling circuit 202 every other horizontal direction. In FIG. 2, ◯ represents pixel data that has been thinned out and X represents pixel data that has been thinned and is not transmitted. Thereby, the pixel data to be transmitted is halved.

この画素データは、エンコーダ203によりエンコードされた後、送信処理回路204により所定の処理が施され、出力端子205から伝送路3または記録媒体2に伝送される。   The pixel data is encoded by the encoder 203, subjected to predetermined processing by the transmission processing circuit 204, and transmitted from the output terminal 205 to the transmission path 3 or the recording medium 2.

受信処理回路212は、入力端子211から伝送路3または記録媒体2からの伝送データを受信し、デコーダ213に出力する。デコーダ213は、入力されたデータをデコードし、デコードした結果得られた画素データ(図2において、○印で示す画素データ)を合成回路214と同時化回路215に出力する。   The reception processing circuit 212 receives transmission data from the transmission path 3 or the recording medium 2 from the input terminal 211 and outputs it to the decoder 213. The decoder 213 decodes the input data, and outputs pixel data (pixel data indicated by ◯ in FIG. 2) obtained as a result of the decoding to the synthesizing circuit 214 and the synchronization circuit 215.

同時化回路215は、処理対象とする画素データが、同じタイミングで発生するように、所定の遅延を施す処理などを実行する。これにより、例えば図2に示す、省略されている画素Y1の上(X1)、左(X2)、右(X3)および下(X4)に位置する画素データX1乃至X4が、ADRC処理回路216とデータ生成回路219に、同じタイミングで供給される。 The synchronization circuit 215 performs a process of applying a predetermined delay so that pixel data to be processed is generated at the same timing. Thereby, for example, the pixel data X 1 to X 4 located above (X 1 ), left (X 2 ), right (X 3 ) and below (X 4 ) of the omitted pixel Y 1 shown in FIG. Are supplied to the ADRC processing circuit 216 and the data generation circuit 219 at the same timing.

ADRC処理回路216は、入力された4個の画素データX1乃至X4により構成される1個のブロックのADRC処理を実行する。この実施例においては、図3に示すように、各画素データXは、R,G,Bの各成分で規定される色空間上のベクトル(XR,XG,XB)で構成されている。XR,XG,XBは、それぞれ画素データXのR,G,Bのコンポーネント成分を表し、例えば、それぞれが8ビットで表現されている。ADRC処理回路216は、1ビットADRC処理を実行するため、例えば、画素データX1のR成分XR1を1ビットで表し、G成分XG1を1ビットで表し、またB成分XB1を1ビットで表す。すなわち、本来、24ビット(=3×8)で表されていた画素データX1を、3ビット(=3×1)のデータとする。他の画素データX2乃至X4も、同様に3ビットの画素データに変換され、それぞれが3ビットで表される画素データ(X1,X2,X3,X4)としてクラス分類回路217に供給される。 The ADRC processing circuit 216 executes ADRC processing of one block composed of the input four pieces of pixel data X 1 to X 4 . In this embodiment, as shown in FIG. 3, each pixel data X is composed of vectors (X R , X G , X B ) on a color space defined by R, G, B components. Yes. X R , X G , and X B represent the component components of R, G, and B of the pixel data X, respectively, for example, each represented by 8 bits. Since the ADRC processing circuit 216 executes 1-bit ADRC processing, for example, the R component X R1 of the pixel data X 1 is represented by 1 bit, the G component X G1 is represented by 1 bit, and the B component X B1 is represented by 1 bit. Represented by That is, the pixel data X 1 originally represented by 24 bits (= 3 × 8) is assumed to be 3 bits (= 3 × 1). The other pixel data X 2 to X 4 are similarly converted into 3-bit pixel data, and each of them is classified into pixel data (X 1 , X 2 , X 3 , X 4 ) represented by 3 bits. To be supplied.

クラス分類回路217は、入力された合計12ビット(=4×3)のデータをクラスに分類し、その分類したクラスを表すクラスデータ信号を生成し、ROM218に出力する。すなわち、この実施例の場合、12ビットでクラスが表されるため、4096(=212)通りのクラスが存在することになる。 The class classification circuit 217 classifies the input data of a total of 12 bits (= 4 × 3) into a class, generates a class data signal representing the classified class, and outputs it to the ROM 218. That is, in this embodiment, the class is represented by 12 bits, so that there are 4096 (= 2 12 ) classes.

ROM218には、各クラス毎に予測係数wが記憶されており、クラス分類回路217から所定のクラスを表す信号が供給されると、そのクラスに対応するアドレスに記憶されている予測係数wが読み出され、データ生成回路219に供給される。   The ROM 218 stores a prediction coefficient w for each class. When a signal representing a predetermined class is supplied from the class classification circuit 217, the prediction coefficient w stored in an address corresponding to the class is read. And supplied to the data generation circuit 219.

データ生成回路219は、ROM218より供給される予測係数wと、同時化回路215より供給される画素データX1乃至X4を用いて、次式に示すような演算を行って、図2に示す画素データY1を生成する。
R1=w1(R)XR1+w2(R)XG1+w3(R)XB1
+w4(R)XR2+w5(R)XG2+w6(R)XB2
+w7(R)XR3+w8(R)XG3+w9(R)XB3
+w10(R)XR4+w11(R)XG4+w12(R)XB4

G1=w1(G)XR1+w2(G)XG1+w3(G)XB1
+w4(G)XR2+w5(G)XG2+w6(G)XB2
+w7(G)XR3+w8(G)XG3+w9(G)XB3
+w10(G)XR4+w11(G)XG4+w12(G)XB4

B1=w1(B)XR1+w2(B)XG1+w3(B)XB1
+w4(B)XR2+w5(B)XG2+w6(B)XB2
+w7(B)XR3+w8(B)XG3+w9(B)XB3
+w10(B)XR4+w11(B)XG4+w12(B)XB4
The data generation circuit 219 uses the prediction coefficient w supplied from the ROM 218 and the pixel data X 1 to X 4 supplied from the synchronization circuit 215 to perform an operation as shown in the following equation, as shown in FIG. Pixel data Y 1 is generated.
Y R1 = w 1 (R) X R1 + w 2 (R) X G1 + w 3 (R) X B1
+ W 4 (R) X R2 + w 5 (R) X G2 + w 6 (R) X B2
+ W 7 (R) X R3 + w 8 (R) X G3 + w 9 (R) X B3
+ W 10 (R) X R4 + w 11 (R) X G4 + w 12 (R) X B4

Y G1 = w 1 (G) X R1 + w 2 (G) X G1 + w 3 (G) X B1
+ W 4 (G) X R2 + w 5 (G) X G2 + w 6 (G) X B2
+ W 7 (G) X R3 + w 8 (G) X G3 + w 9 (G) X B3
+ W 10 (G) X R4 + w 11 (G) X G4 + w 12 (G) X B4

Y B1 = w 1 (B) X R1 + w 2 (B) X G1 + w 3 (B) X B1
+ W 4 (B) X R2 + w 5 (B) X G2 + w 6 (B) X B2
+ W 7 (B) X R3 + w 8 (B) X G3 + w 9 (B) X B3
+ W 10 (B) X R4 + w 11 (B) X G4 + w 12 (B) X B4

なお、wi(R),wi(G),wi(B)は、それぞれR,G,B用の予測係数を表している。 Note that w i (R), w i (G), and w i (B) represent prediction coefficients for R, G, and B, respectively.

上記式より明らかなように、この実施例においては、画素データY1のR成分YR1が、周囲の画素X1乃至X4のR成分XR1乃至XR4だけでなく、G成分XG1乃至XG4、並びにB成分XB1乃至XB4から生成される。同様に、画素データY1のG成分YG1と、B成分YB1も、それぞれ画素データX1乃至X4の対応する成分だけでなく、すべての成分XR1乃至XR4,XG1乃至XG4,XB1乃至XB4から生成される。 As apparent from the above equation, in this embodiment, the R component Y R1 of pixel data Y 1 is not only the R component X R1 to X R4 of surrounding pixels X 1 to X 4, or G component X G1 X G4 and B components X B1 to X B4 are generated. Similarly, the G component Y G1 and the B component Y B1 of the pixel data Y 1 are not only the corresponding components of the pixel data X 1 to X 4 but also all the components X R1 to X R4 , X G1 to X G4. , X B1 to X B4 .

画像、特に、テレビカメラを用いて撮影したような自然な画像は相関を有し、比較的近傍の画素ほど強い相関を有する。従って、新たな画素データを演算により生成する場合、より近傍の画素データをもとに、その演算を行う方が、より効率的に、また、高精度で新たな画素データを生成することができる。   An image, particularly a natural image taken using a television camera, has a correlation, and a relatively close pixel has a stronger correlation. Therefore, when new pixel data is generated by calculation, it is possible to generate new pixel data more efficiently and with high accuracy by performing the calculation based on pixel data in the vicinity. .

すなわち、上記式に示すように、例えば、画素データY1のR成分YR1を求めるのに、XR1乃至XB4の合計12個のデータを用いているのであるが、例えば、このYR1を演算により求めるのに、12個のR成分だけを用いるようにするには、R成分は各画素に1個しか存在しないから、結局合計12画素のR成分を利用する必要がある。このようにすれば、必然的に、いま注目している画素Y1から、より遠くに離れている画素データを用いざるを得ず、効率と精度が劣化することになる。 That is, as shown in the above formula, for example, to determine the R component Y R1 of pixel data Y 1, although the uses a total of 12 pieces of data X R1 to X B4, for example, the Y R1 In order to use only 12 R components for calculation, since there is only one R component for each pixel, it is necessary to use R components of a total of 12 pixels after all. In this way, it is inevitably necessary to use pixel data that is farther away from the pixel Y 1 of interest, and the efficiency and accuracy deteriorate.

そこで、本実施例のように、各画素が有するR,G,B成分を用いて、注目画素のR成分(G成分とB成分も同様)を生成するようにすれば、より近い位置の画素データから必要な数のデータを得ることができる。従って、それだけ効率的に、高精度の画素データを生成することができる。   Therefore, if the R component (the G component and the B component are the same) of the target pixel is generated using the R, G, and B components of each pixel as in this embodiment, the pixels at closer positions The required number of data can be obtained from the data. Therefore, highly accurate pixel data can be generated efficiently.

合成回路214は、以上のようにして、データ生成回路219により生成された新たな画素データYと、デコーダ213より供給される元々存在する画素データXとを合成し、出力端子220から出力する。従って、出力端子220から出力される画素データは、受信回路212で受信した画素データXにより構成される画像より、空間解像度が高い画像となっている(図1のサブサンプリング回路202でサブサンプリングされる前の画像と同一の解像度の画像となっている)。   The synthesis circuit 214 synthesizes the new pixel data Y generated by the data generation circuit 219 and the originally existing pixel data X supplied from the decoder 213 as described above, and outputs them from the output terminal 220. Accordingly, the pixel data output from the output terminal 220 is an image having a higher spatial resolution than the image constituted by the pixel data X received by the receiving circuit 212 (subsampled by the subsampling circuit 202 in FIG. 1). The image has the same resolution as the previous image).

ROM218には、上記した式の予測係数wが記憶されているのであるが、この予測係数wのテーブルは、例えば図4に示す装置から得ることができる。   The ROM 218 stores the prediction coefficient w of the above-described formula. The table of the prediction coefficient w can be obtained from the apparatus shown in FIG. 4, for example.

すなわち、図4の実施例においては、入力端子231からディジタルビデオ信号が入力され、同時化回路232に供給されている。この入力端子231に入力されるディジタルビデオ信号は、テーブルを作成する上において必要な標準的な信号(従って、間引かれる前の高解像度の画像の信号)であることが好ましく、例えば標準的な絵柄の静止画像からなる信号を採用することができる。同時化回路232は、図1の同時化回路215と同様に、図2に示す画素データX1乃至X4が同時に出力されるように、タイミング調整を行う。同時化回路232より出力された画素データは、ADRC処理回路233とデータメモリ237に供給される。 That is, in the embodiment of FIG. 4, a digital video signal is input from the input terminal 231 and supplied to the synchronization circuit 232. The digital video signal input to the input terminal 231 is preferably a standard signal necessary for creating a table (thus, a high-resolution image signal before being thinned). A signal composed of a still image of a picture can be employed. Similar to the synchronization circuit 215 in FIG. 1, the synchronization circuit 232 performs timing adjustment so that the pixel data X 1 to X 4 shown in FIG. 2 are output simultaneously. Pixel data output from the synchronization circuit 232 is supplied to the ADRC processing circuit 233 and the data memory 237.

ADRC処理回路233は、入力された画素データを1ビットでADRC処理し、クラス分類回路234に出力する。クラス分類回路234は、ADRC処理回路233より入力されたデータをクラス分類し、分類したクラスに対応する信号をスイッチ235の接点Aを介してデータメモリ237にアドレスとして供給する。すなわち、同時化回路232、ADRC処理回路233、およびクラス分類回路234は、図1における同時化回路215、ADRC処理回路216、およびクラス分類回路217における場合と同様の処理を行う。   The ADRC processing circuit 233 performs ADRC processing on the input pixel data with 1 bit, and outputs the processed pixel data to the class classification circuit 234. The class classification circuit 234 classifies the data input from the ADRC processing circuit 233 and supplies a signal corresponding to the classified class to the data memory 237 via the contact A of the switch 235 as an address. That is, the synchronization circuit 232, the ADRC processing circuit 233, and the class classification circuit 234 perform the same processing as in the synchronization circuit 215, the ADRC processing circuit 216, and the class classification circuit 217 in FIG.

カウンタ236は、図示せぬ回路から供給されるクロックCKをカウントし、そのカウント値をスイッチ235の接点Cを介して、データメモリ237にアドレスとして供給している。   The counter 236 counts the clock CK supplied from a circuit (not shown), and supplies the count value as an address to the data memory 237 via the contact C of the switch 235.

データメモリ237は、スイッチ235を介してクラス分類回路234からアドレスが供給されているとき、そのアドレスに同時化回路232から供給されるデータを書き込み、カウンタ236からスイッチ235を介してアドレスが供給されているとき、そのアドレスに記憶されているデータを読み出し、最小自乗法演算回路238に出力するようになされている。最小自乗法演算回路238は、データメモリ237から供給された画素データに対して、最小自乗法に基づく演算を行い、予測係数wiを演算し、メモリ239に出力するようになされている。メモリ239は、スイッチ235を介してカウンタ236から供給されるアドレスに、最小自乗法演算回路238から供給される予測係数wiを書き込むようになされている。 When the address is supplied from the class classification circuit 234 via the switch 235, the data memory 237 writes the data supplied from the synchronization circuit 232 to the address, and the address is supplied from the counter 236 via the switch 235. Data stored in the address is read out and output to the least squares method arithmetic circuit 238. The least square method arithmetic circuit 238 performs an operation based on the least square method on the pixel data supplied from the data memory 237, calculates a prediction coefficient w i , and outputs it to the memory 239. The memory 239 writes the prediction coefficient w i supplied from the least squares method arithmetic circuit 238 to the address supplied from the counter 236 via the switch 235.

次に、その動作について説明する。予測係数を決定するための学習のためのディジタルビデオデータが同時化回路232において同時化され、ADRC処理回路233で1ビットのADRC処理が行われた後、クラス分類回路234に入力され、クラス分類される。いまの場合、図1における場合と同様に、4画素がクラス分類のための1ブロックとされ、各画素は、ADRC処理回路233において、各R,G,B成分が1ビットでADRC処理されるため、クラス分類回路234から12ビットのクラスデータがスイッチ235の接点Aを介してデータメモリ237にアドレスとして供給される。データメモリ237は、このアドレスに、同時化回路232より供給される画素データを記憶させる。   Next, the operation will be described. Digital video data for learning for determining a prediction coefficient is synchronized in the synchronization circuit 232, 1-bit ADRC processing is performed in the ADRC processing circuit 233, and then input to the class classification circuit 234. Is done. In this case, as in the case of FIG. 1, four pixels are set as one block for class classification, and each pixel is subjected to ADRC processing with 1 bit for each R, G, B component in the ADRC processing circuit 233. Therefore, 12-bit class data is supplied from the class classification circuit 234 to the data memory 237 as an address via the contact A of the switch 235. The data memory 237 stores the pixel data supplied from the synchronization circuit 232 at this address.

なお、ここで、記憶させる画素データは、図1のサブサンプリング回路202でサブサンプリングされる前の状態の、より高い空間解像度を有する画像の画素データである。従って、図2における○印の画素データXiはもとより、×印で示す画像データYiも記憶される。 Here, the pixel data to be stored is pixel data of an image having a higher spatial resolution before being subsampled by the subsampling circuit 202 in FIG. Accordingly, not only the pixel data X i marked with ○ in FIG. 2, but also the image data Y i indicated with x is stored.

上記式に示すように、1つの成分の画像データ、例えばYR1を演算する係数は、w1(R)乃至w12(R)の12個存在する。従って、これらの12個の予測係数を求めるには、12個の予測係数を未知数とする12個の連立方程式が各クラスにおいて必要となる。データメモリ237には、この連立方程式を解くのに必要な数の画素データが少なくとも記憶される。 As shown in the above equation, there are twelve coefficients w 1 (R) to w 12 (R) for calculating image data of one component, for example, Y R1 . Therefore, in order to obtain these 12 prediction coefficients, 12 simultaneous equations having 12 prediction coefficients as unknowns are required in each class. The data memory 237 stores at least the number of pixel data necessary to solve the simultaneous equations.

必要な数の画素データがデータメモリ237に記憶された後、スイッチ235が接点C側に切り替えられる。カウンタ236は、クロックCKをカウントし、そのカウント値を出力しているので、データメモリ237には、1ずつインクリメントする値が、読み出しアドレスとして入力される。データメモリ237は、入力された読み出しアドレスに対応する画素データを読み出し、最小自乗法演算回路238に出力する。最小自乗法演算回路238は、上記した式に対して、具体的データを当てはめ、予測係数wiを変数とする連立方程式を生成し、その連立方程式を解き、予測係数wiを求める。 After the necessary number of pixel data is stored in the data memory 237, the switch 235 is switched to the contact C side. Since the counter 236 counts the clock CK and outputs the count value, a value incremented by 1 is input to the data memory 237 as a read address. The data memory 237 reads out pixel data corresponding to the input read address and outputs the pixel data to the least squares operation circuit 238. The least square method arithmetic circuit 238 applies specific data to the above-described equation, generates a simultaneous equation having the prediction coefficient w i as a variable, solves the simultaneous equation, and obtains the prediction coefficient w i .

そして、演算により求めた予測係数wiを用いて、所定の画素データ(例えば、上記した画素データY1のR成分YR1)を求める(予測する)。そして、演算(予測)により求めたYR1の値と、実際の画素データYR1との誤差を演算し、その誤差の自乗が最小となるように予測係数wiを演算する。演算により求められた予測係数wiは、いまデータメモリ237から読み出された画素データのアドレスと対応するメモリ239のアドレスに書き込まれる。このようにして、メモリ239には、予測係数wiが記憶される。そして、この記憶内容が、図1に示すROM218に書き込まれる。 Then, predetermined pixel data (for example, the R component Y R1 of the pixel data Y 1 described above) is obtained (predicted) using the prediction coefficient w i obtained by the calculation. Then, the error between the value of Y R1 obtained by calculation (prediction) and the actual pixel data Y R1 is calculated, and the prediction coefficient w i is calculated so that the square of the error is minimized. The prediction coefficient w i obtained by the calculation is written in the address of the memory 239 corresponding to the address of the pixel data read from the data memory 237 now. In this way, the prediction coefficient w i is stored in the memory 239. The stored contents are written in the ROM 218 shown in FIG.

なお、上記実施例においては、ROM218(メモリ239)に、予測係数wiを書き込むようにしたが、係数が乗算された後のデータそのものを書き込むようにすることも可能である。このようにすれば、図1におけるデータ生成回路219は不要となる。 In the above embodiment, the prediction coefficient w i is written in the ROM 218 (memory 239), but it is also possible to write the data itself after being multiplied by the coefficient. In this way, the data generation circuit 219 in FIG. 1 becomes unnecessary.

図5は、送信装置1の他の構成例を示している。   FIG. 5 shows another configuration example of the transmission device 1.

I/F(InterFace)11は、外部から供給される画像データの受信処理と、送信機/記録装置16に対しての、符号化データの送信処理を行うようになされている。ROM(Read Only Memory)12は、IPL(Initial Program Loading)用のプログラムその他を記憶している。RAM(Random Access Memory)13は、外部記憶装置15に記録されているシステムプログラム(OS(Operating System))やアプリケーションプログラムを記憶したり、また、CPU(Central Processing Unit)14の動作上必要なデータを記憶するようになされている。CPU14は、ROM12に記憶されているIPLプログラムに従い、外部記憶装置15からシステムプログラムおよびアプリケーションプログラムを、RAM13に展開し、そのシステムプログラムの制御の下、アプリケーションプログラムを実行することで、I/F11から供給される画像データについての、後述するような符号化処理を行うようになされている。外部記憶装置15は、例えば、磁気ディスク装置などでなり、上述したように、CPU14が実行するシステムプログラムやアプリケーションプログラムを記憶している他、CPU14の動作上必要なデータも記憶している。送信機/記録装置16は、I/F11から供給される符号化データを、記録媒体2に記録し、または伝送路3を介して伝送するようになされている。   The I / F (InterFace) 11 performs reception processing of image data supplied from the outside and transmission processing of encoded data to the transmitter / recording device 16. A ROM (Read Only Memory) 12 stores a program for IPL (Initial Program Loading) and others. A RAM (Random Access Memory) 13 stores system programs (OS (Operating System)) and application programs recorded in the external storage device 15, and data necessary for the operation of a CPU (Central Processing Unit) 14. It is made to memorize. In accordance with the IPL program stored in the ROM 12, the CPU 14 expands the system program and application program from the external storage device 15 to the RAM 13, and executes the application program under the control of the system program. An encoding process as described later is performed on the supplied image data. The external storage device 15 is, for example, a magnetic disk device or the like, and stores system programs and application programs executed by the CPU 14 as well as data necessary for the operation of the CPU 14 as described above. The transmitter / recording device 16 records the encoded data supplied from the I / F 11 on the recording medium 2 or transmits it via the transmission path 3.

なお、I/F11,ROM12,RAM13,CPU14、および外部記憶装置15は、相互にバスを介して接続されている。   The I / F 11, the ROM 12, the RAM 13, the CPU 14, and the external storage device 15 are connected to each other via a bus.

以上のように構成される送信装置1においては、I/F11に画像データが供給されると、その画像データは、CPU14に供給される。CPU14は、画像データを符号化し、その結果得られる符号化データを、I/F11に供給する。I/F11は、符号化データを受信すると、それを、送信機/記録装置16に供給する。送信機/記録装置16では、I/F11からの符号化データが、記録媒体2に記録され、または伝送路3を介して伝送される。   In the transmission apparatus 1 configured as described above, when image data is supplied to the I / F 11, the image data is supplied to the CPU 14. The CPU 14 encodes the image data and supplies the encoded data obtained as a result to the I / F 11. When the encoded data is received, the I / F 11 supplies the encoded data to the transmitter / recording device 16. In the transmitter / recording device 16, the encoded data from the I / F 11 is recorded on the recording medium 2 or transmitted via the transmission path 3.

図6は、図5の送信装置1の、送信機/記録装置16を除く部分の機能的なブロック図である。   FIG. 6 is a functional block diagram of a portion excluding the transmitter / recording device 16 of the transmission device 1 of FIG.

符号化すべき画像データは、圧縮部21、ローカルデコード部22、および誤差算出部23に供給されるようになされている。圧縮部21は、画像データを、その画素を、単純に間引くことにより圧縮し、その結果得られる圧縮データ(間引きが行われた後の画像データ)を、判定部24からの制御に従って補正するようになされている。圧縮部21における補正の結果得られる補正データは、ローカルデコード部22および判定部24に供給するようになされている。   The image data to be encoded is supplied to the compression unit 21, the local decoding unit 22, and the error calculation unit 23. The compression unit 21 compresses the image data by simply thinning out the pixels, and corrects the resulting compressed data (image data after the thinning is performed) according to the control from the determination unit 24. Has been made. Correction data obtained as a result of correction in the compression unit 21 is supplied to the local decoding unit 22 and the determination unit 24.

ローカルデコード部22は、圧縮部21からの補正データに基づいて、元の画像を予測し、その予測値を、誤差算出部23に供給するようになされている。なお、ローカルデコード部22は、後述するように、補正データとの線形結合により、予測値を算出するための予測係数を求める適応処理を行い、その予測係数に基づいて、予測値を求めるようになされており、上述したように、予測値を、誤差算出部23に供給する他、そのとき求めた予測係数を、判定部24に供給するようにもなされている。   The local decoding unit 22 predicts the original image based on the correction data from the compression unit 21 and supplies the predicted value to the error calculation unit 23. As will be described later, the local decoding unit 22 performs an adaptive process for obtaining a prediction coefficient for calculating a prediction value by linear combination with correction data, and obtains a prediction value based on the prediction coefficient. As described above, the prediction value is supplied to the error calculation unit 23, and the prediction coefficient obtained at that time is supplied to the determination unit 24.

誤差算出部23は、そこに入力される、元の画像データ(原画像)に対する、ローカルデコード部22からの予測値の予測誤差を算出するようになされている。この予測誤差は、誤差情報として、判定部24に供給されるようになされている。   The error calculation unit 23 is configured to calculate the prediction error of the prediction value from the local decoding unit 22 with respect to the original image data (original image) input thereto. This prediction error is supplied to the determination unit 24 as error information.

判定部24は、誤差算出部23からの誤差情報に基づいて、圧縮部21が出力した補正データを、元の画像の符号化結果とすることの適正さを判定するようになされている。そして、判定部24は、圧縮部21が出力した補正データを、元の画像の符号化結果とすることが適正でないと判定した場合には、圧縮部21を制御し、さらに、圧縮データを補正させ、その結果得られる新たな補正データを出力させるようになされている。また、判定部24は、圧縮部21が出力した補正データを、元の画像の符号化結果とすることが適正であると判定した場合には、圧縮部21から供給された補正データを、最適な圧縮データ(以下、適宜、最適圧縮データという)として多重化部25に供給するとともに、ローカルデコード部22から供給された予測係数を多重化部25に供給するようになされている。   Based on the error information from the error calculation unit 23, the determination unit 24 determines the appropriateness of using the correction data output from the compression unit 21 as the encoding result of the original image. If the determination unit 24 determines that the correction data output from the compression unit 21 is not appropriate as the encoding result of the original image, the determination unit 24 controls the compression unit 21 and further corrects the compressed data. Thus, new correction data obtained as a result is output. In addition, when the determination unit 24 determines that the correction data output from the compression unit 21 is appropriate as the encoding result of the original image, the determination unit 24 uses the correction data supplied from the compression unit 21 as the optimum result. The compressed data (hereinafter referred to as optimum compressed data as appropriate) is supplied to the multiplexing unit 25 and the prediction coefficient supplied from the local decoding unit 22 is supplied to the multiplexing unit 25.

多重化部25は、判定部24からの最適圧縮データ(補正データ)と、予測係数とを多重化し、その多重化結果を、符号化データとして、送信機/記録装置16(図5)に供給するようになされている。   The multiplexing unit 25 multiplexes the optimum compressed data (correction data) from the determination unit 24 and the prediction coefficient, and supplies the multiplexed result to the transmitter / recording device 16 (FIG. 5) as encoded data. It is made to do.

次に、図7のフローチャートを参照して、その動作について説明する。圧縮部21に対して、画像データが供給されると、圧縮部21は、ステップS1において、その画像データを間引くことにより圧縮し、最初は、補正を行わずに、ローカルデコード部22および判定部24に出力する。ローカルデコード部22では、ステップS2において、圧縮部21からの補正データ(最初は、上述したように、画像データを、単純に間引いた圧縮データそのもの)がローカルデコードされる。   Next, the operation will be described with reference to the flowchart of FIG. When image data is supplied to the compression unit 21, the compression unit 21 compresses the image data by thinning out in step S <b> 1. At first, without performing correction, the local decoding unit 22 and the determination unit are compressed. 24. In the local decoding unit 22, in step S2, the correction data from the compression unit 21 (initially, the compressed data obtained by simply thinning out the image data as described above) is locally decoded.

即ち、ステップS2では、圧縮部21からの補正データとの線形結合により、元の画像の予測値を算出するための予測係数を求める適応処理が行われ、その予測係数に基づいて、予測値が求められる。ローカルデコード部22において求められた予測値は誤差算出部23に、また、予測係数は判定部24に供給される。   That is, in step S2, an adaptive process for obtaining a prediction coefficient for calculating the predicted value of the original image is performed by linear combination with the correction data from the compression unit 21, and the predicted value is calculated based on the predicted coefficient. Desired. The prediction value obtained in the local decoding unit 22 is supplied to the error calculation unit 23, and the prediction coefficient is supplied to the determination unit 24.

ここで、ローカルデコード部22が出力する予測値で構成される画像は、受信装置4側において得られる復号画像と同一のものである。   Here, the image composed of the prediction values output from the local decoding unit 22 is the same as the decoded image obtained on the receiving device 4 side.

誤差算出部23は、ローカルデコード部22から、元の画像の予測値を受信すると、ステップS3において、元の画像データに対する、ローカルデコード部22からの予測値の予測誤差を算出し、誤差情報として、判定部24に供給する。判定部24は、誤差算出部23から誤差情報を受信すると、ステップS4において、その誤差情報に基づいて、圧縮部21が出力した補正データを、元の画像の符号化結果とすることの適正さを判定する。   When receiving the predicted value of the original image from the local decoding unit 22, the error calculating unit 23 calculates the prediction error of the predicted value from the local decoding unit 22 with respect to the original image data in step S3, and as error information , Supplied to the determination unit 24. When the determination unit 24 receives the error information from the error calculation unit 23, in step S4, based on the error information, the appropriateness of using the correction data output from the compression unit 21 as the encoding result of the original image. Determine.

即ち、ステップS4においては、誤差情報が所定の閾値ε以下であるかどうかが判定される。ステップS4において、誤差情報が所定の閾値ε以下でないと判定された場合、圧縮部21が出力した補正データを、元の画像の符号化データとするのは適正でないと認識され、ステップS5に進み、判定部24は、圧縮部21を制御し、これにより、圧縮データを補正させる。圧縮部21は、判定部24の制御に従って、補正量(後述する補正値△)を変えて、圧縮データを補正し、その結果得られる補正データを、ローカルデコード部22および判定部24に出力する。そして、ステップS2に戻り、以下、同様の処理が繰り返される。   That is, in step S4, it is determined whether the error information is equal to or less than a predetermined threshold value ε. If it is determined in step S4 that the error information is not equal to or less than the predetermined threshold ε, it is recognized that the correction data output from the compression unit 21 is not appropriate to be the encoded data of the original image, and the process proceeds to step S5. The determination unit 24 controls the compression unit 21 and thereby corrects the compressed data. The compression unit 21 changes the correction amount (correction value Δ described later) under the control of the determination unit 24 to correct the compressed data, and outputs the correction data obtained as a result to the local decoding unit 22 and the determination unit 24. . And it returns to step S2 and the same process is repeated hereafter.

一方、ステップS4において、誤差情報が所定の閾値ε以下であると判定された場合、圧縮部21が出力した補正データを、元の画像の符号化結果とするのは適正であると認識され、判定部24は、所定の閾値ε以下の誤差情報が得られたときの補正データを、最適圧縮データとして、予測係数とともに、多重化部25に出力する。多重化部25では、ステップS6において、判定部24からの最適圧縮データと予測係数とが多重化され、その結果得られる符号化データが出力されて、処理を終了する。   On the other hand, if it is determined in step S4 that the error information is equal to or less than the predetermined threshold ε, it is recognized that the correction data output from the compression unit 21 is appropriate to be the encoding result of the original image. The determination unit 24 outputs the correction data when error information equal to or less than the predetermined threshold ε is obtained to the multiplexing unit 25 as the optimal compression data together with the prediction coefficient. In step S6, the multiplexing unit 25 multiplexes the optimum compressed data and the prediction coefficient from the determination unit 24, outputs the encoded data obtained as a result, and ends the process.

以上のように、誤差情報が所定の閾値ε以下となったときにおける、圧縮データを補正した補正データを、元の画像の符号化結果とするようにしたので、受信装置4側においては、その補正データに基づいて、元の画像(原画像)とほぼ同一の画像を得ることが可能となる。   As described above, the correction data obtained by correcting the compressed data when the error information is equal to or less than the predetermined threshold value ε is used as the encoding result of the original image. Based on the correction data, it is possible to obtain an image substantially identical to the original image (original image).

次に、図8は、図6の圧縮部21の構成例を示している。   Next, FIG. 8 shows a configuration example of the compression unit 21 of FIG.

符号化すべき画像データは、間引き回路31に入力されるようになされており、間引き回路31は、入力された画像データを1/N(いまの場合、1/2)に間引くようになされている。従って、間引き回路31からは、画像データを、1/Nに圧縮した圧縮データが出力されるようになされている。この圧縮データは、間引き回路31から補正回路32に供給されるようになされている。   The image data to be encoded is input to the thinning circuit 31. The thinning circuit 31 thins the input image data to 1 / N (in this case, 1/2). . Accordingly, the thinning circuit 31 outputs compressed data obtained by compressing image data to 1 / N. This compressed data is supplied from the thinning circuit 31 to the correction circuit 32.

補正回路32は、判定部24(図6)からの制御信号に従って、補正値ROM33にアドレスを与え、これにより、補正値△を読み出すようになされている。そして、補正回路32は、間引き回路31からの圧縮データに対して、補正値ROM33からの補正値△を、例えば加算することで、補正データを生成し、ローカルデコード部22および判定部24に供給するようになされている。補正値ROM33は、間引き回路31が出力する圧縮データを補正するための、各種の補正値△の組合せ(例えば、1フレーム分の圧縮データを補正するための補正値の組合せなど)を記憶しており、補正回路32から供給されるアドレスに対応する補正値△の組合せを読み出して、補正回路32に供給するようになされている。   The correction circuit 32 gives an address to the correction value ROM 33 in accordance with a control signal from the determination unit 24 (FIG. 6), thereby reading the correction value Δ. Then, the correction circuit 32 generates correction data by adding, for example, the correction value Δ from the correction value ROM 33 to the compressed data from the thinning circuit 31 and supplies the correction data to the local decoding unit 22 and the determination unit 24. It is made to do. The correction value ROM 33 stores various combinations of correction values Δ (for example, combinations of correction values for correcting compressed data for one frame) for correcting the compressed data output by the thinning circuit 31. The combination of correction values Δ corresponding to the addresses supplied from the correction circuit 32 is read out and supplied to the correction circuit 32.

次に、図9を参照して、図8の圧縮部21の処理について説明する。   Next, the processing of the compression unit 21 in FIG. 8 will be described with reference to FIG.

例えば、1フレーム(フィールド)分などの画像データが、間引き回路31に供給されると、間引き回路31は、ステップS11において、その画像データを1/Nに間引き、その結果得られる圧縮データを、補正回路32に出力する。   For example, when image data for one frame (field) or the like is supplied to the thinning circuit 31, the thinning circuit 31 thins the image data to 1 / N in step S11, and the compressed data obtained as a result is Output to the correction circuit 32.

ここで、間引き回路31は、図2に示すように、画像データを、例えば、各ライン毎に1/2に間引くようになされている。なお、間引き回路31は、以上のような処理を、例えば、1フレーム(フィールド)単位で行うようになされている。従って、間引き回路31から補正回路32に対しては、1フレームの画像データが1/2に間引きされた圧縮データとして供給される。但し、間引き回路31における間引き処理は、その他、1フレームの画像を幾つかのブロックに分割し、そのブロック単位で行うようにすることも可能である。   Here, as shown in FIG. 2, the thinning circuit 31 thins out the image data by 1/2 for each line, for example. Note that the thinning circuit 31 performs the above-described processing, for example, in units of one frame (field). Therefore, one frame of image data is supplied from the thinning circuit 31 to the correction circuit 32 as compressed data that has been thinned by half. However, the thinning process in the thinning circuit 31 can also be performed in units of blocks by dividing an image of one frame into several blocks.

補正回路32は、間引き回路31から圧縮データを受信すると、ステップS12において、判定部24(図6)から制御信号を受信したかどうかを判定する。ステップS12において、制御信号を受信していないと判定された場合、ステップS15に進み、補正回路32は、間引き回路31からの圧縮データを、そのまま補正データとして、ローカルデコード部22および判定部24に出力し、ステップS12に戻る。   When receiving the compressed data from the thinning circuit 31, the correction circuit 32 determines whether or not a control signal has been received from the determination unit 24 (FIG. 6) in step S12. If it is determined in step S12 that the control signal has not been received, the process proceeds to step S15, and the correction circuit 32 directly uses the compressed data from the thinning circuit 31 as correction data to the local decoding unit 22 and the determination unit 24. Output, and return to step S12.

即ち、判定部24は、上述したように、誤差情報に基づいて、圧縮部21(補正回路32)を制御するようになされており、間引き回路31から圧縮データが出力された直後は、まだ、誤差情報が得られないため(誤差情報が、誤差算出部23から出力されないため)、判定部24からは制御信号は出力されない。このため、間引き回路31から圧縮データが出力された直後は、補正回路32は、その圧縮データを補正せず(0を加算する補正をして)、そのまま補正データとして、ローカルデコード部22および判定部24に出力する。   That is, as described above, the determination unit 24 is configured to control the compression unit 21 (correction circuit 32) based on the error information, and immediately after the compressed data is output from the thinning circuit 31, Since error information is not obtained (because error information is not output from the error calculation unit 23), no control signal is output from the determination unit 24. For this reason, immediately after the compressed data is output from the thinning circuit 31, the correction circuit 32 does not correct the compressed data (corrected by adding 0), and directly uses the local decoding unit 22 and the determination as the corrected data. To the unit 24.

一方、ステップS12において、判定部24からの制御信号を受信したと判定された場合、ステップS13において、補正回路32は、その制御信号に従ったアドレスを、補正値ROM33に出力する。これにより、ステップS13では、補正値ROM33から、そのアドレスに記憶されている、1フレーム分の圧縮データを補正するための補正値△の組合せ(集合)が読み出され、補正回路32に供給される。補正回路32は、補正値ROM33から補正値△の組合せを受信すると、ステップS14において、1フレームの圧縮データそれぞれに、対応する補正値△を加算し、これにより、圧縮データを補正した補正データを算出する。その後は、ステップS15に進み、補正データが、補正回路32からローカルデコード部22および判定部24に出力され、ステップS12に戻る。   On the other hand, when it is determined in step S12 that the control signal from the determination unit 24 has been received, in step S13, the correction circuit 32 outputs an address according to the control signal to the correction value ROM 33. As a result, in step S 13, a combination (set) of correction values Δ for correcting the compressed data for one frame stored in the address is read from the correction value ROM 33 and supplied to the correction circuit 32. The When the correction circuit 32 receives the combination of the correction values Δ from the correction value ROM 33, in step S14, the correction circuit 32 adds the corresponding correction value Δ to each compressed data of one frame, thereby correcting the corrected data by correcting the compressed data. calculate. Thereafter, the process proceeds to step S15, and the correction data is output from the correction circuit 32 to the local decoding unit 22 and the determination unit 24, and the process returns to step S12.

以上のようにして、圧縮部21は、判定部24の制御に従って、圧縮データを、種々の値に補正した補正データを出力することを繰り返す。   As described above, the compression unit 21 repeatedly outputs correction data obtained by correcting the compressed data into various values under the control of the determination unit 24.

なお、判定部24は、1フレームの画像についての符号化を終了すると、その旨を表す制御信号を、圧縮部21に供給するようになされており、圧縮部21は、その制御信号を受信すると、次のフレームの画像に対して、図9のフローチャートに従った処理を施すようになされている。   When the determination unit 24 finishes encoding the image of one frame, the determination unit 24 supplies a control signal indicating that to the compression unit 21, and the compression unit 21 receives the control signal. The processing according to the flowchart of FIG. 9 is performed on the image of the next frame.

また、上述の場合においては、間引き回路31に、2画素に1個の割合で画素データ(画素値)を抽出させることにより、圧縮データを生成させるようにしたが、その他、例えば、3×3画素の平均値を算出し、その平均値を、3×3画素の中心の画素の画素値として、圧縮データを生成させるようにすることなども可能である。   In the above case, the thinning circuit 31 is made to generate the compressed data by extracting the pixel data (pixel value) at a rate of one for every two pixels. It is also possible to calculate the average value of the pixels and generate the compressed data using the average value as the pixel value of the center pixel of 3 × 3 pixels.

次に、図10は、図6のローカルデコード部22の構成例を示している。   Next, FIG. 10 shows a configuration example of the local decoding unit 22 of FIG.

圧縮部21からの補正データは、クラス分類用ブロック化回路41および予測値計算用ブロック化回路42に供給されるようになされている。クラス分類用ブロック化回路41は、補正データを、その性質に応じて所定のクラスに分類するための単位であるクラス分類用ブロックにブロック化するようになされている。   The correction data from the compression unit 21 is supplied to the class classification blocking circuit 41 and the predicted value calculation blocking circuit 42. The class classification blocking circuit 41 is configured to block the correction data into class classification blocks which are units for classifying the correction data into a predetermined class according to the property.

即ち、いま、クラス分類用ブロック化回路41は、図2に示す4つの画素X1,X2,X3,X4の合計4画素で構成されるクラス分類用ブロックを構成するようになされている。このクラス分類用ブロックは、クラス分類適応処理回路43に供給されるようになされている。 That is, the class classification blocking circuit 41 is configured to constitute a class classification block composed of a total of four pixels, ie, four pixels X 1 , X 2 , X 3 , and X 4 shown in FIG. Yes. This class classification block is supplied to the class classification adaptive processing circuit 43.

なお、この場合、クラス分類用ブロックは、4画素でなる十文字形状のブロックで構成されることとなるが、クラス分類用ブロックの形状は、その他、例えば、長方形や、正方形、その他の任意な形とすることが可能である。また、クラス分類用ブロックを構成する画素数も、4画素に限定されるものではない。   In this case, the class classification block is configured by a cross-shaped block of 4 pixels. However, the class classification block may have other shapes such as a rectangle, a square, and other arbitrary shapes. Is possible. Further, the number of pixels constituting the class classification block is not limited to four pixels.

予測値計算用ブロック化回路42は、補正データを、元の画像の予測値を計算するための単位である予測値計算用ブロックにブロック化するようになされている。この実施例の場合、そのブロックはクラス分類用のブロックと同一とされ、図2の画素データX1乃至X4により、そのブロックが構成される。 The predicted value calculation blocking circuit 42 is configured to block the correction data into predicted value calculation blocks that are units for calculating the predicted value of the original image. In this embodiment, the block is the same as the block for class classification, and the block is constituted by the pixel data X 1 to X 4 in FIG.

このように、この実施例の場合、予測値計算用ブロック化回路42は、クラス分類用ブロック化回路41と同一の範囲をブロック化するため、両者は共用するようにしてもよい。   Thus, in the case of this embodiment, since the predicted value calculation blocking circuit 42 blocks the same range as the class classification blocking circuit 41, both may be shared.

予測値計算用ブロック化回路42において得られた予測値計算用ブロックは、クラス分類適応処理回路43に供給されるようになされている。   The predicted value calculation block obtained in the predicted value calculation blocking circuit 42 is supplied to the class classification adaptive processing circuit 43.

なお、予測値計算用ブロックについても、クラス分類用ブロックにおける場合と同様に、その画素数および形状は、上述したものに限定されるものではない。但し、予測値計算用ブロックを構成する画素数は、クラス分類用ブロックを構成する画素数以上とするのが望ましい。   Note that the number of pixels and the shape of the prediction value calculation block are not limited to those described above, as in the case of the class classification block. However, it is desirable that the number of pixels constituting the prediction value calculation block is equal to or greater than the number of pixels constituting the class classification block.

また、上述のようなブロック化を行う場合において(ブロック化以外の処理についても同様)、画像の画枠付近では、対応する画素が存在しないことがあるが、この場合には、例えば、画枠を構成する画素と同一の画素が、その外側に存在するものとして処理を行う。   Further, when the above-described blocking is performed (the same applies to processes other than blocking), there may be no corresponding pixel near the image frame of the image. In this case, for example, the image frame The processing is performed on the assumption that the same pixel as that constituting the pixel exists outside.

クラス分類適応処理回路43は、ADRC(Adaptive Dynamic Range Coding)処理回路、クラス分類回路45、および適応処理回路46で構成され、クラス分類適応処理を行うようになされている。   The class classification adaptive processing circuit 43 includes an ADRC (Adaptive Dynamic Range Coding) processing circuit, a class classification circuit 45, and an adaptive processing circuit 46, and performs class classification adaptive processing.

クラス分類適応処理とは、入力信号を、その特徴に基づいて幾つかのクラスに分類し、各クラスの入力信号に、そのクラスに適切な適応処理を施すもので、大きく、クラス分類処理と適応処理とに分かれている。   Class classification adaptation processing classifies input signals into several classes based on their characteristics, and applies appropriate adaptation processing to the input signals of each class. It is divided into processing.

ここで、クラス分類処理および適応処理について簡単に説明する。   Here, the class classification process and the adaptation process will be briefly described.

まず、クラス分類処理について説明する。   First, the class classification process will be described.

いま、例えば、図11(A)に示すように、ある注目画素と、それに隣接する3つの画素により、2×2画素でなるブロック(クラス分類用ブロック)を構成し、また、各画素は、1ビットで表現される(0または1のうちのいずれかのレベルをとる)ものとする。この場合、2×2の4画素のブロックは、各画素のレベル分布により、図11(B)に示すように、16(=(214)パターンに分類することができる。このようなパターン分けが、クラス分類処理であり、クラス分類回路45において行われる。 Now, for example, as shown in FIG. 11A, a block (class classification block) composed of 2 × 2 pixels is configured by a certain target pixel and three pixels adjacent to the target pixel. It is expressed by 1 bit (takes a level of 0 or 1). In this case, the 2 × 2 4-pixel block can be classified into 16 (= (2 1 ) 4 ) patterns as shown in FIG. 11B according to the level distribution of each pixel. Such pattern division is class classification processing and is performed in the class classification circuit 45.

なお、クラス分類処理は、画像(ブロック内の画像)のアクティビティ(画像の複雑さ)(変化の激しさ)などをも考慮して行うようにすることが可能である。   The class classification processing can be performed in consideration of the activity (complexity of the image) (severity of change) of the image (image in the block).

ここで、通常、各画素には、例えば8ビット程度が割り当てられる。また、本実施例においては、上述したように、クラス分類用ブロックは、3×3の9画素で構成される。従って、このようなクラス分類用ブロックを対象にクラス分類処理を行ったのでは、(289という膨大な数のクラスに分類されることになる。 Here, normally, for example, about 8 bits are assigned to each pixel. In this embodiment, as described above, the class classification block is composed of 9 pixels of 3 × 3. Therefore, if the class classification process is performed on such a class classification block, it is classified into an enormous number of classes of (2 8 ) 9 .

そこで、本実施例においては、ADRC処理回路44において、クラス分類用ブロックに対して、ADRC処理が施されるようになされており、これにより、クラス分類用ブロックを構成する画素のビット数を小さくすることで、クラス数を削減するようになされている。   Therefore, in this embodiment, the ADRC processing circuit 44 performs ADRC processing on the class classification block, thereby reducing the number of bits of the pixels constituting the class classification block. By doing so, the number of classes has been reduced.

即ち、例えば、いま、説明を簡単にするため、図12(A)に示すように、直線上に並んだ4画素で構成されるブロックを考えると、ADRC処理においては、その画素値の最大値MAXと最小値MINが検出される。そして、DR=MAX−MINを、ブロックの局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、ブロックを構成する画素の画素値がKビットに再量子化される。   That is, for example, in order to simplify the description, as shown in FIG. 12A, when a block composed of four pixels arranged on a straight line is considered, in ADRC processing, the maximum value of the pixel value is considered. MAX and minimum value MIN are detected. Then, DR = MAX−MIN is set as the local dynamic range of the block, and the pixel values of the pixels constituting the block are requantized to K bits based on the dynamic range DR.

即ち、ブロック内の各画素値から、最小値MINを減算し、その減算値をDR/2Kで除算する。そして、その結果得られる除算値に対応するコード(ADRCコード)に変換される。具体的には、例えば、K=2とした場合、図12(B)に示すように、除算値が、ダイナミックレンジDRを4(=22)等分して得られるいずれの範囲に属するかが判定され、除算値が、最も下のレベルの範囲、下から2番目のレベルの範囲、下から3番目のレベルの範囲、または最も上のレベルの範囲に属する場合には、それぞれ、例えば、00B,01B,10B、または11Bなどの2ビットにコード化される(Bは2進数であることを表す)。そして、復号側においては、ADRCコード00B,01B,10B、または11Bは、ダイナミックレンジDRを4等分して得られる最も下のレベルの範囲の中心値L00、下から2番目のレベルの範囲の中心値L01、下から3番目のレベルの範囲の中心値L10、または最も上のレベルの範囲の中心値L11に変換され、その値に、最小値MINが加算されることで復号が行われる。 That is, from each pixel value in the block, subtracts the minimum value MIN, dividing the subtracted value by DR / 2 K. Then, it is converted into a code (ADRC code) corresponding to the division value obtained as a result. Specifically, for example, when K = 2, as shown in FIG. 12B, which range the division value belongs to is obtained by dividing the dynamic range DR into 4 (= 2 2 ) equally? And the division value belongs to the range of the lowest level, the range of the second level from the bottom, the range of the third level from the bottom, or the range of the highest level, respectively, It is coded into 2 bits such as 00B, 01B, 10B, or 11B (B represents a binary number). On the decoding side, the ADRC code 00B, 01B, 10B, or 11B is the center value L 00 of the lowest level range obtained by equally dividing the dynamic range DR into four, and the second level range from the bottom. center value L 01 of the is converted into a center value L 11 of the central value L 10 or most of the upper level range, the range of the third level from the bottom, to the value, decoded by the minimum value MIN is added Is done.

ここで、このようなADRC処理はノンエッジマッチングと呼ばれる。このようなノンエッジマッチングに対して、図12(C)に示すように、ダイナミックレンジDRを4等分して得られる最も下のレベルの範囲に属する画素値の平均値MIN’、またはその最も上のレベルの範囲に属する画素値の平均値MAX’に、ADRCコード00Bまたは11Bそれぞれを変換するとともに、MAX’−MIN’で規定されるダイナミックレンジDR’を等分(3等分)するレベルに、ADRCコード01Bと10Bを変換することにより、ADRCコードの復号を行うようなADRC処理があり、これは、エッジマッチングと呼ばれる。   Here, such ADRC processing is called non-edge matching. For such non-edge matching, as shown in FIG. 12C, the average value MIN ′ of the pixel values belonging to the lowest level range obtained by dividing the dynamic range DR into four equal parts, or the most A level at which the ADRC code 00B or 11B is converted into the average value MAX ′ of the pixel values belonging to the upper level range and the dynamic range DR ′ defined by MAX′−MIN ′ is equally divided (three equal parts). In addition, there is an ADRC process in which the ADRC code is decoded by converting the ADRC codes 01B and 10B, which is called edge matching.

なお、ADRC処理については、本件出願人が先に出願した、例えば、特開平3−53778号公報などに、その詳細が開示されている。   The details of the ADRC processing are disclosed in, for example, Japanese Patent Application Laid-Open No. 3-53778 filed by the applicant of the present application.

ブロックを構成する画素に割り当てられているビット数より少ないビット数で再量子化を行うADRC処理を施すことにより、上述したように、クラス数を削減することができ、このようなADRC処理が、ADRC処理回路44において行われるようになされている。   By applying ADRC processing that performs requantization with a smaller number of bits than the number of bits allocated to the pixels constituting the block, as described above, the number of classes can be reduced. This is performed in the ADRC processing circuit 44.

なお、本実施例では、クラス分類回路45において、ADRC処理回路44から出力されるADRCコードに基づいて、クラス分類処理が行われるが、クラス分類処理は、その他、例えば、DPCM(予測符号化)や、BTC(Block Truncation Coding)、VQ(ベクトル量子化)、DCT(離散コサイン変換)、アダマール変換などを施したデータを対象に行うようにすることも可能である。   In the present embodiment, the class classification circuit 45 performs the class classification process based on the ADRC code output from the ADRC processing circuit 44. The class classification process is performed by other methods such as DPCM (predictive coding). It is also possible to perform the processing on data subjected to BTC (Block Truncation Coding), VQ (Vector Quantization), DCT (Discrete Cosine Transform), Hadamard Transform, or the like.

次に、適応処理について説明する。   Next, the adaptation process will be described.

例えば、いま、元の画像の画素値yの予測値E[y]を、その周辺の幾つかの画素の画素値(以下、適宜、学習データという)x1,x2,・・・と、所定の予測係数w1,w2,・・・の線形結合により規定される線形1次結合モデルにより求めることを考える。この場合、予測値E[y]は、次式で表すことができる。 For example, now, the predicted value E [y] of the pixel value y of the original image is changed to pixel values (hereinafter referred to as learning data) x 1 , x 2 ,. Consider a linear primary combination model defined by a linear combination of predetermined prediction coefficients w 1 , w 2 ,. In this case, the predicted value E [y] can be expressed by the following equation.

E[y]=w11+w22+・・・
・・・(1)
E [y] = w 1 x 1 + w 2 x 2 +...
... (1)

そこで、一般化するために、予測係数wの集合でなる行列W、学習データの集合でなる行列X、および予測値E[y]の集合でなる行列Y’を、

Figure 0004807349
で定義すると、次のような観測方程式が成立する。 Therefore, in order to generalize, a matrix W composed of a set of prediction coefficients w, a matrix X composed of a set of learning data, and a matrix Y ′ composed of a set of predicted values E [y],
Figure 0004807349
Then, the following observation equation holds.

XW=Y’
・・・(2)
XW = Y '
... (2)

そして、この観測方程式に最小自乗法を適用して、元の画像の画素値yに近い予測値E[y]を求めることを考える。この場合、元の画像の画素値(以下、適宜、教師データという)yの集合でなる行列Y、および元の画像の画素値yに対する予測値E[y]の残差eの集合でなる行列Eを、

Figure 0004807349
で定義すると、式(2)から、次のような残差方程式が成立する。 Then, it is considered to apply the least square method to this observation equation to obtain a predicted value E [y] close to the pixel value y of the original image. In this case, a matrix Y consisting of a set of pixel values y of the original image (hereinafter referred to as teacher data as appropriate) y and a set of residuals e of predicted values E [y] for the pixel values y of the original image. E
Figure 0004807349
From the equation (2), the following residual equation is established.

XW=Y+E
・・・(3)
XW = Y + E
... (3)

この場合、元の画像の画素値yに近い予測値E[y]を求めるための予測係数wiは、自乗誤差

Figure 0004807349
を最小にすることで求めることができる。 In this case, the prediction coefficient w i for obtaining the predicted value E [y] close to the pixel value y of the original image is a square error.
Figure 0004807349
Can be obtained by minimizing.

従って、上述の自乗誤差を予測係数wiで微分したものが0になる場合、即ち、次式を満たす予測係数wiが、元の画像の画素値yに近い予測値E[y]を求めるため最適値ということになる。 Accordingly, when the above-mentioned square error differentiated by the prediction coefficient w i becomes 0, that is, the prediction coefficient w i satisfying the following equation obtains the prediction value E [y] close to the pixel value y of the original image. Therefore, it is an optimum value.

Figure 0004807349
・・・(4)
Figure 0004807349
... (4)

そこで、まず、式(3)を、予測係数wiで微分することにより、次式が成立する。 Therefore, first, the following equation is established by differentiating the equation (3) by the prediction coefficient w i .

Figure 0004807349
・・・(5)
Figure 0004807349
... (5)

式(4)および(5)より、式(6)が得られる。   From equations (4) and (5), equation (6) is obtained.

Figure 0004807349
・・・(6)
Figure 0004807349
... (6)

さらに、式(3)の残差方程式における学習データx、予測係数w、教師データy、および残差eの関係を考慮すると、式(6)から、次のような正規方程式を得ることができる。   Further, considering the relationship among the learning data x, the prediction coefficient w, the teacher data y, and the residual e in the residual equation of Equation (3), the following normal equation can be obtained from Equation (6). .

Figure 0004807349
・・・(7)
Figure 0004807349
... (7)

式(7)の正規方程式は、求めるべき予測係数wの数と同じ数だけたてることができ、従って、式(7)を解くことで、最適な予測係数wを求めることができる。なお、式(7)を解くにあたっては、例えば、掃き出し法(Gauss-Jordanの消去法)などを適用することが可能である。   The normal equation of Expression (7) can be established by the same number as the number of prediction coefficients w to be obtained. Therefore, the optimal prediction coefficient w can be obtained by solving Expression (7). In solving equation (7), for example, a sweep-out method (Gauss-Jordan elimination method) or the like can be applied.

以上のようにして、最適な予測係数wを求め、さらに、その予測係数wを用い、式(1)により、元の画像の画素値yに近い予測値E[y]を求めるのが適応処理であり、この適応処理が、適応処理回路46において行われるようになされている。   As described above, the optimum processing is to obtain the optimum prediction coefficient w, and further to obtain the prediction value E [y] close to the pixel value y of the original image by using the prediction coefficient w and the equation (1). The adaptive processing is performed in the adaptive processing circuit 46.

なお、適応処理は、間引かれた画像には含まれていない、元の画像に含まれる成分が再現される点で、補間処理とは異なる。即ち、適応処理では、式(1)だけを見る限りは、いわゆる補間フィルタを用いての補間処理と同一であるが、その補間フィルタのタップ係数に相当する予測係数wが、教師データyを用いての、いわば学習により求められるため、元の画像に含まれる成分を再現することができる。このことから、適応処理は、いわば画像の創造作用がある処理ということができる。   Note that the adaptive processing is different from the interpolation processing in that a component included in the original image that is not included in the thinned image is reproduced. In other words, the adaptive process is the same as the interpolation process using a so-called interpolation filter as long as only Expression (1) is seen, but the prediction coefficient w corresponding to the tap coefficient of the interpolation filter uses the teacher data y. In other words, since it is obtained by learning, the components included in the original image can be reproduced. From this, it can be said that the adaptive process is a process having an image creating action.

次に、図13のフローチャートを参照して、図10のローカルデコード部22の処理について説明する。   Next, the processing of the local decoding unit 22 in FIG. 10 will be described with reference to the flowchart in FIG.

ローカルデコード部22においては、まず最初に、ステップS21において、圧縮部21からの補正データがブロック化される。即ち、クラス分類用ブロック化回路41において、補正データが、4画素のクラス分類用ブロックにブロック化され、クラス分類適応処理回路43に供給されるとともに、予測値計算用ブロック化回路42において、補正データが4画素の予測値計算用ブロックにブロック化され、クラス分類適応処理回路43に供給される。   In the local decoding unit 22, first, in step S21, the correction data from the compression unit 21 is blocked. That is, in the class classification blocking circuit 41, the correction data is blocked into a 4-pixel class classification block and supplied to the class classification adaptive processing circuit 43, and the prediction value calculation blocking circuit 42 corrects the correction data. The data is divided into four-pixel prediction value calculation blocks and supplied to the class classification adaptive processing circuit 43.

クラス分類適応処理回路43には、上述したように、クラス分類用ブロックおよび予測値計算用ブロックの他、元の画像データが供給されるようになされており、クラス分類用ブロックはADRC処理部44に、予測値計算用ブロックおよび元の画像データは適応処理回路46に供給されるようになされている。   As described above, the class classification adaptive processing circuit 43 is supplied with original image data in addition to the class classification block and the prediction value calculation block. The class classification block is the ADRC processing unit 44. The predicted value calculation block and the original image data are supplied to the adaptive processing circuit 46.

ADRC処理回路44は、クラス分類用ブロックを受信すると、ステップS22において、そのクラス分類用ブロックに対して、例えば、1ビットのADRC(1ビットで再量子化を行うADRC)処理を施し、これにより、補正データを、1ビットに変換(符号化)して、クラス分類回路45に出力する。クラス分類回路45は、ステップS23において、ADRC処理が施されたクラス分類用ブロックに対して、クラス分類処理を施し、そのクラス分類用ブロックが属するクラスを判定する。このクラスの判定結果は、クラス情報として、適応処理回路46に供給される。   Upon receiving the class classification block, the ADRC processing circuit 44 performs, for example, 1-bit ADRC (ADRC that performs re-quantization by 1 bit) on the class classification block in step S22, thereby The correction data is converted (encoded) into 1 bit and output to the class classification circuit 45. In step S23, the class classification circuit 45 performs class classification processing on the class classification block that has been subjected to ADRC processing, and determines the class to which the class classification block belongs. The class determination result is supplied to the adaptive processing circuit 46 as class information.

なお、本実施例においては、R,G,Bの各成分が1ビットのADRC処理が施された4画素で構成されるクラス分類用ブロックに対して、クラス分類処理が施されるので、各クラス分類用ブロックは、4096(=(234)のクラスのうちのいずれかに分類されることになる。 In the present embodiment, the class classification process is performed on the class classification block composed of four pixels in which the R, G, and B components have been subjected to the 1-bit ADRC process. The class classification block is classified into any one of 4096 (= (2 3 ) 4 ) classes.

そして、ステップS24に進み、適応処理回路46において、クラス分類回路45からのクラス情報に基づいて、各クラスごとに適応処理が施され、これにより、予測係数および元の画像データの予測値が算出される。   In step S24, the adaptive processing circuit 46 performs adaptive processing for each class based on the class information from the class classification circuit 45, thereby calculating the prediction coefficient and the predicted value of the original image data. Is done.

即ち、本実施例においては、例えば、ある1つの画素に注目した場合に、その注目画素の周りに隣接する4個の画素でなる予測値計算用ブロックを用いて、適応処理が行われる。   That is, in this embodiment, for example, when attention is paid to a certain pixel, the adaptive processing is performed using a prediction value calculation block including four pixels adjacent to the target pixel.

具体的には、例えば、いま、図2に示した4個の補正データX1,X2,X3,X4でなるクラス分類用ブロックについてのクラス情報Cが、クラス分類回路45から出力され、また、予測値計算用ブロックとして、4画素の補正データX1,X2,X3,X4でなる予測値計算用ブロックが、予測値計算用ブロック化回路42から出力されたものとすると、まず、その予測値計算用ブロックを構成する補正データを、学習データとするとともに、元の画像における、補正データY1を、教師データとして、式(7)に示した正規方程式がたてられる。 Specifically, for example, the class classification circuit 45 outputs the class information C for the class classification block composed of the four correction data X 1 , X 2 , X 3 , and X 4 shown in FIG. In addition, it is assumed that a prediction value calculation block composed of four pixel correction data X 1 , X 2 , X 3 , and X 4 is output from the prediction value calculation block forming circuit 42 as a prediction value calculation block. First, the correction data constituting the prediction value calculation block is used as learning data, and the correction data Y 1 in the original image is used as teacher data, and the normal equation shown in Expression (7) is established. .

さらに、クラス情報Cにクラス分類される他の予測値計算用ブロックについても同様にして、正規方程式がたてられ、画素値YR1の予測値E[YR1]を求めるための予測係数w1(R)乃至w12(R)を算出することができるだけの数の正規方程式が得られると(従って、そのような数の正規方程式が得られるまでは、ステップS24では、正規方程式をたてる処理までが行われる)、その正規方程式を解くことで、クラス情報Cについて、画素値YR1の予測値E[YR1]を求めるのに最適な予測係数w1(R)乃至w12(R)が算出される。そして、式(1)に対応する次式に従って、予測値E[YR1]が求められる。YG1,YB1などについても同様である。 Further, for other prediction value calculation blocks classified into the class information C, a normal equation is established in the same manner, and the prediction coefficient w 1 for obtaining the prediction value E [Y R1 ] of the pixel value Y R1. When the number of normal equations that can calculate (R) to w 12 (R) is obtained (therefore, until such number of normal equations is obtained, in step S24, the process of generating the normal equations is performed). The prediction coefficients w 1 (R) to w 12 (R) optimal for obtaining the predicted value E [Y R1 ] of the pixel value Y R1 for the class information C by solving the normal equation. Is calculated. Then, a predicted value E [Y R1 ] is obtained according to the following equation corresponding to equation (1). The same applies to Y G1 , Y B1 and the like.

E[YR1]=w1(R)XR1+w2(R)XG1+w3(R)XB1
+w4(R)XR2+w5(R)XG2+w6(R)XB2
+w7(R)XR3+w8(R)XG3+w9(R)XB3
+w10(R)XR4+w11(R)XG4+w12(R)XB4

E[YG1]=w1(G)XR1+w2(G)XG1+w3(G)XB1
+w4(G)XR2+w5(G)XG2+w6(G)XB2
+w7(G)XR3+w8(G)XG3+w9(G)XB3
+w10(G)XR4+w11(G)XG4+w12(G)XB4

E[YB1]=w1(B)XR1+w2(B)XG1+w3(B)XB1
+w4(B)XR2+w5(B)XG2+w6(B)XB2
+w7(B)XR3+w8(B)XG3+w9(B)XB3
+w10(B)XR4+w11(B)XG4+w12(B)XB4
E [Y R1 ] = w 1 (R) X R1 + w 2 (R) X G1 + w 3 (R) X B1
+ W 4 (R) X R2 + w 5 (R) X G2 + w 6 (R) X B2
+ W 7 (R) X R3 + w 8 (R) X G3 + w 9 (R) X B3
+ W 10 (R) X R4 + w 11 (R) X G4 + w 12 (R) X B4

E [Y G1 ] = w 1 (G) X R1 + w 2 (G) X G1 + w 3 (G) X B1
+ W 4 (G) X R2 + w 5 (G) X G2 + w 6 (G) X B2
+ W 7 (G) X R3 + w 8 (G) X G3 + w 9 (G) X B3
+ W 10 (G) X R4 + w 11 (G) X G4 + w 12 (G) X B4

E [Y B1 ] = w 1 (B) X R1 + w 2 (B) X G1 + w 3 (B) X B1
+ W 4 (B) X R2 + w 5 (B) X G2 + w 6 (B) X B2
+ W 7 (B) X R3 + w 8 (B) X G3 + w 9 (B) X B3
+ W 10 (B) X R4 + w 11 (B) X G4 + w 12 (B) X B4

ステップS24において、以上のようにして各画素のR,G,Bの各成分についての予測係数が求められると、予測値が誤差算出部23に出力されるとともに、予測係数が判定部24に出力され、ステップS21に戻り、以下同様の処理が繰り返される。   In step S24, when the prediction coefficients for the R, G, and B components of each pixel are obtained as described above, the prediction values are output to the error calculation unit 23 and the prediction coefficients are output to the determination unit 24. Then, the process returns to step S21, and the same processing is repeated thereafter.

次に、図14は、図6の誤差算出部23の構成例を示している。   Next, FIG. 14 shows a configuration example of the error calculation unit 23 of FIG.

ブロック化回路51には、元の画像データが供給されるようになされており、ブロック化回路51は、その画素データを、ローカルデコード部22から出力される予測値に対応する画素単位でブロック化し、その結果得られるブロックの画素(いまの場合、このブロックは1個の画素(図2のY1)により構成される)を、自乗誤差算出回路52に出力するようになされている。自乗誤差算出部52には、上述したように、ブロック化回路51から画素データが供給される他、ローカルデコード部22から予測値としての画素データが供給されるようになされており、自乗誤差算出回路52は、原画像に対する、予測値の予測誤差としての自乗誤差を算出し、積算部55に供給するようになされている。 The original image data is supplied to the blocking circuit 51, and the blocking circuit 51 blocks the pixel data in units of pixels corresponding to the predicted values output from the local decoding unit 22. Then, the pixel of the block obtained as a result (in this case, this block is composed of one pixel (Y 1 in FIG. 2)) is output to the square error calculation circuit 52. As described above, the square error calculation unit 52 is supplied with pixel data from the blocking circuit 51 and is also supplied with pixel data as a predicted value from the local decoding unit 22 to calculate square error. The circuit 52 calculates a square error as a prediction error of the prediction value for the original image and supplies the square error to the integrating unit 55.

即ち、自動誤差算出回路52は、演算器53および54で構成されている。演算器53は、ブロック化回路51からのブロック化された画像データそれぞれから、対応する予測値を減算し、その減算値を、演算器54に供給するようになされている。演算器54は、演算器53の出力(元の画像データと予測値との差分)を自乗し、積算部55に供給するようになされている。   That is, the automatic error calculation circuit 52 is composed of computing units 53 and 54. The computing unit 53 subtracts the corresponding predicted value from each of the blocked image data from the blocking circuit 51 and supplies the subtracted value to the computing unit 54. The computing unit 54 squares the output of the computing unit 53 (difference between the original image data and the predicted value) and supplies the square to the integrating unit 55.

積算部55は、自乗誤差算出回路52から自乗誤差を受信すると、メモリ56の記憶値を読み出し、その記憶値と自乗誤差とを加算して、再び、メモリ56に供給して記憶させることを繰り返すことで、自乗誤差の積算値(誤差分散)を求めるようになされている。さらに、積算部55は、所定量(例えば、1フレーム分など)についての自乗誤差の積算が終了すると、その積算値を、メモリ56から読み出し、誤差情報として、判定部24に供給するようになされている。メモリ56は、1フレームについての処理が終了するごとに、その記憶値をクリアしながら、積算部55の出力値を記憶するようになされている。   When receiving the square error from the square error calculation circuit 52, the accumulating unit 55 reads the stored value in the memory 56, adds the stored value and the square error, and repeatedly supplies the stored value to the memory 56 for storage. Thus, an integrated value (error variance) of the square error is obtained. Furthermore, when the integration of the square error for a predetermined amount (for example, for one frame) is completed, the integration unit 55 reads the integration value from the memory 56 and supplies it to the determination unit 24 as error information. ing. The memory 56 is configured to store the output value of the integrating unit 55 while clearing the stored value every time processing for one frame is completed.

次に、その動作について、図15のフローチャートを参照して説明する。誤差算出部23では、まず最初に、ステップS31において、メモリ56の記憶値が、例えば0にクリアされ、ステップS32に進み、ブロック化回路51において、画像データが、上述したようにブロック化され、その結果得られるブロックが、自乗誤差算出回路52に供給される。自乗誤差算出回路52では、ステップS33において、ブロック化回路51から供給されるブロックを構成する、元の画像の画像データと、ローカルデコード部22から供給される予測値との自乗誤差が算出される。   Next, the operation will be described with reference to the flowchart of FIG. In the error calculation unit 23, first, in step S31, the stored value of the memory 56 is cleared to, for example, 0, and the process proceeds to step S32. In the blocking circuit 51, the image data is blocked as described above. The block obtained as a result is supplied to the square error calculation circuit 52. In step S33, the square error calculation circuit 52 calculates a square error between the image data of the original image constituting the block supplied from the blocking circuit 51 and the predicted value supplied from the local decoding unit 22. .

即ち、ステップS33では、演算器53において、ブロック化回路51より供給されたブロック化された画像データそれぞれから、対応する予測値が減算され、演算器54に供給される。さらに、ステップS33では、演算器54において、演算器53の出力が自乗され、積算部55に供給される。   That is, in step S <b> 33, the computing unit 53 subtracts the corresponding predicted value from each of the blocked image data supplied from the blocking circuit 51, and supplies it to the computing unit 54. Further, in step S <b> 33, the computing unit 54 squares the output of the computing unit 53 and supplies it to the integrating unit 55.

積算部55は、自乗誤差算出回路52から自乗誤差を受信すると、ステップS34において、メモリ56の記憶値を読み出し、その記憶値と自乗誤差とを加算することで、自乗誤差の積算値を求める。積算部55において算出された自乗誤差の積算値は、メモリ56に供給され、前回の記憶値に上書きされることで記憶される。   When the square error is received from the square error calculation circuit 52, the integrating unit 55 reads the stored value of the memory 56 and adds the stored value and the square error in step S34, thereby obtaining an integrated value of the square error. The integrated value of the square error calculated in the integrating unit 55 is supplied to the memory 56 and stored by being overwritten on the previous stored value.

そして、積算部55では、ステップS35において、所定量としての、例えば、1フレーム分についての自乗誤差の積算が終了したかどうかが判定される。ステップS35において、1フレーム分についての自乗誤差の積算が終了していないと判定された場合、ステップS32に戻り、再び、ステップS32からの処理を繰り返す。また、ステップS35において、1フレーム分についての自乗誤差の積算が終了したと判定された場合、ステップS36に進み、積算部55は、メモリ56に記憶された1フレーム分についての自乗誤差の積算値を読み出し、誤差情報として、判定部24に出力する。そして、ステップS31に戻り、再び、ステップS31からの処理を繰り返す。   Then, in step S35, the integrating unit 55 determines whether or not the integration of the square error for one frame, for example, as a predetermined amount has ended. If it is determined in step S35 that the square error accumulation for one frame has not been completed, the process returns to step S32, and the processing from step S32 is repeated again. If it is determined in step S35 that the integration of the square error for one frame has been completed, the process proceeds to step S36, where the integration unit 55 stores the integrated value of the square error for one frame stored in the memory 56. Is output to the determination unit 24 as error information. And it returns to step S31 and repeats the process from step S31 again.

従って、誤差算出部23では、元の画像データをYiとするとともに、その予測値をE[Yi]とするとき、次式に従った演算が行われることで、誤差情報Qが算出される。 Therefore, in the error calculation unit 23, when the original image data is Y i and the predicted value is E [Y i ], the error information Q is calculated by performing an operation according to the following equation. The

Q=(Σ(Yi)−E[Yi])2
但し、Σは、1フレーム分についてのサメーションを意味する。
Q = (Σ (Y i ) −E [Y i ]) 2
However, Σ means summation for one frame.

次に、図16は、図6の判定部24の構成例を示している。   Next, FIG. 16 illustrates a configuration example of the determination unit 24 of FIG.

予測係数メモリ61は、ローカルデコード部22から供給される予測係数を記憶するようになされている。補正データメモリ62は、圧縮部21から供給される補正データを記憶するようになされている。   The prediction coefficient memory 61 is configured to store the prediction coefficient supplied from the local decoding unit 22. The correction data memory 62 stores correction data supplied from the compression unit 21.

なお、補正データメモリ62は、圧縮部21において、圧縮データが新たに補正され、これにより、新たな補正データが供給された場合には、既に記憶している補正データ(前回の補正データ)に代えて、新たな補正データを記憶するようになされている。また、このように補正データが、新たなものに更新されるタイミングで、ローカルデコード部22からは、その新たな補正データに対応する、新たな予測係数のセットが出力されるが、予測係数メモリ61においても、このように新たな予測係数が供給された場合には、既に記憶している予測係数(前回の予測係数)に代えて、その新たな予測係数を記憶するようになされている。   In the correction data memory 62, when the compressed data is newly corrected in the compression unit 21 and new correction data is supplied as a result, the correction data memory 62 stores the correction data already stored (previous correction data). Instead, new correction data is stored. In addition, at the timing when the correction data is updated to a new one in this way, the local decoding unit 22 outputs a new set of prediction coefficients corresponding to the new correction data. Also in 61, when a new prediction coefficient is supplied in this way, the new prediction coefficient is stored in place of the previously stored prediction coefficient (previous prediction coefficient).

誤差情報メモリ63は、誤差算出部23から供給される誤差情報を記憶するようになされている。なお、誤差情報メモリ63は、誤差算出部23から、今回供給された誤差情報の他に、前回供給された誤差情報も記憶するようになされている(新たな誤差情報が供給されても、さらに新たな誤差情報が供給されるまでは、既に記憶している誤差情報を保持するようになされている)。なお、誤差情報メモリ63は、新たなフレームについての処理が開始されるごとにクリアされるようになされている。   The error information memory 63 is configured to store error information supplied from the error calculation unit 23. The error information memory 63 stores the error information supplied last time from the error calculation unit 23 in addition to the error information supplied this time (even if new error information is supplied, Until new error information is supplied, the already stored error information is held). The error information memory 63 is cleared every time processing for a new frame is started.

比較回路64は、誤差情報メモリ63に記憶された今回の誤差情報と、所定の閾値εとを比較し、さらに、必要に応じて、今回の誤差情報と前回の誤差情報との比較も行うようになされている。比較回路64における比較結果は、制御回路65に供給されるようになされている。   The comparison circuit 64 compares the current error information stored in the error information memory 63 with a predetermined threshold value ε, and further compares the current error information with the previous error information as necessary. Has been made. The comparison result in the comparison circuit 64 is supplied to the control circuit 65.

制御回路65は、比較回路64における比較結果に基づいて、補正データメモリ62に記憶された補正データを、元の画像の符号化結果とすることの適正(最適)さを判定し、最適でないと認識(判定)した場合には、新たな補正データの出力を要求する制御信号を、圧縮部21(補正回路32)(図8)に供給するようになされている。また、制御回路65は、補正データメモリ62に記憶された補正データを、元の画像の符号化結果とすることが最適であると認識した場合には、予測係数メモリ61に記憶されている予測係数を読み出し、多重化部25に出力するとともに、補正データメモリ62に記憶されている補正データを読み出し、最適圧縮データとして、やはり多重化部25に供給するようになされている。さらに、この場合、制御回路65は、1フレームの画像についての符号化を終了した旨を表す制御信号を、圧縮部21に出力し、これにより、上述したように、圧縮部21に、次のフレームについての処理を開始させるようになされている。   Based on the comparison result in the comparison circuit 64, the control circuit 65 determines the appropriateness (optimum) of using the correction data stored in the correction data memory 62 as the encoding result of the original image. In the case of recognition (determination), a control signal for requesting output of new correction data is supplied to the compression unit 21 (correction circuit 32) (FIG. 8). When the control circuit 65 recognizes that it is optimal to use the correction data stored in the correction data memory 62 as the encoding result of the original image, the control circuit 65 predicts the prediction data stored in the prediction coefficient memory 61. The coefficient is read and output to the multiplexing unit 25, and the correction data stored in the correction data memory 62 is read and supplied to the multiplexing unit 25 as optimum compressed data. Further, in this case, the control circuit 65 outputs a control signal indicating that the encoding of one frame image has been completed to the compression unit 21, and as described above, the control circuit 65 causes the compression unit 21 to The process for the frame is started.

次に、図17を参照して、判定部24の動作について説明する。判定部24では、まず最初に、ステップS41において、誤差算出部23から誤差情報を受信したかどうかが、比較回路64によって判定され、誤差情報を受信していないと判定された場合、ステップS41に戻る。また、ステップS41において、誤差情報を受信したと判定された場合、即ち、誤差情報メモリ63に誤差情報が記憶された場合、ステップS42に進み、比較回路64において、誤差情報メモリ63に、いま記憶された誤差情報(今回の誤差情報)と、所定の閾値εとが比較され、いずれが大きいかが判定される。   Next, the operation of the determination unit 24 will be described with reference to FIG. In the determination unit 24, first, in step S41, whether or not the error information is received from the error calculation unit 23 is determined by the comparison circuit 64. If it is determined that the error information is not received, the process proceeds to step S41. Return. If it is determined in step S41 that the error information has been received, that is, if the error information is stored in the error information memory 63, the process proceeds to step S42, and the comparison circuit 64 stores the error information in the error information memory 63. The determined error information (current error information) is compared with a predetermined threshold ε to determine which is larger.

ステップS42において、今回の誤差情報が、所定の閾値ε以上であると判定された場合、比較回路64において、誤差情報メモリ63に記憶されている前回の誤差情報が読み出される。そして、比較回路64は、ステップS43において、前回の誤差情報と、今回の誤差情報とを比較し、いずれが大きいかを判定する。   If it is determined in step S42 that the current error information is greater than or equal to the predetermined threshold ε, the previous error information stored in the error information memory 63 is read in the comparison circuit 64. In step S43, the comparison circuit 64 compares the previous error information with the current error information and determines which is larger.

ここで、1フレームについての処理が開始され、最初に誤差情報が供給されたときには、誤差情報メモリ63には、前回の誤差情報は記憶されていないので、この場合には、判定部24においては、ステップS43以降の処理は行われず、制御回路65において、所定の初期アドレスを出力するように、補正回路32(図8)を制御する制御信号が出力されるようになされている。   Here, when the processing for one frame is started and error information is supplied for the first time, the error information memory 63 does not store the previous error information. The processing after step S43 is not performed, and a control signal for controlling the correction circuit 32 (FIG. 8) is output in the control circuit 65 so as to output a predetermined initial address.

ステップS43において、今回の誤差情報が、前回の誤差情報以下であると判定された場合、即ち、圧縮データの補正を行うことにより誤差情報が減少した場合、ステップS44に進み、制御回路65は、補正値△を、前回と同様に変化させるように指示する制御信号を、補正回路32に出力し、ステップS41に戻る。また、ステップS43において、今回の誤差情報が、前回の誤差情報より大きいと判定された場合、即ち、圧縮データの補正を行うことにより誤差情報が増加した場合、ステップS45に進み、制御回路65は、補正値△を、前回と逆に変化させるように指示する制御信号を、補正回路32に出力し、ステップS41に戻る。   If it is determined in step S43 that the current error information is equal to or less than the previous error information, that is, if the error information is reduced by correcting the compressed data, the process proceeds to step S44, where the control circuit 65 A control signal instructing to change the correction value Δ in the same manner as the previous time is output to the correction circuit 32, and the process returns to step S41. If it is determined in step S43 that the current error information is larger than the previous error information, that is, if the error information has increased by correcting the compressed data, the process proceeds to step S45, where the control circuit 65 Then, a control signal for instructing to change the correction value Δ opposite to the previous time is output to the correction circuit 32, and the process returns to step S41.

なお、減少し続けていた誤差情報が、あるタイミングで上昇するようになったときは、制御回路65は、補正値△を、いままでの場合の、例えば1/2の大きさで、前回と逆に変化させるように指示する制御信号を出力するようになされている。   When the error information that has continued to decrease starts to increase at a certain timing, the control circuit 65 sets the correction value Δ to the previous value, for example, at a magnitude that is 1/2. Conversely, a control signal instructing to change is output.

そして、ステップS41乃至S45の処理を繰り返すことにより、誤差情報が減少し、これにより、ステップS42において、今回の誤差情報が、所定の閾値εより小さいと判定された場合、ステップS46に進み、制御回路65は、予測係数メモリ61に記憶されている予測係数を読み出すとともに、補正データメモリ62に記憶されている補正データを読み出し、多重化部25に供給して、処理を終了する。   Then, by repeating the processes of steps S41 to S45, the error information decreases, and when it is determined in step S42 that the current error information is smaller than the predetermined threshold value ε, the process proceeds to step S46, and control is performed. The circuit 65 reads the prediction coefficient stored in the prediction coefficient memory 61, reads the correction data stored in the correction data memory 62, supplies the correction data to the multiplexing unit 25, and ends the process.

その後は、次のフレームについての誤差情報が供給されるのを待って、再び、図17に示すフローチャートに従った処理を繰り返す。   Thereafter, after waiting for the error information for the next frame to be supplied, the processing according to the flowchart shown in FIG. 17 is repeated again.

なお、補正回路32には、圧縮データの補正は、1フレームすべての圧縮データについて行わせるようにすることもできるし、その一部の圧縮データについてだけ行わせるようにすることもできる。一部の圧縮データについてだけ補正を行う場合においては、制御回路65に、例えば、誤差情報に対する影響の強い画素を検出させ、そのような画素についての圧縮データだけを補正するようにすることができる。誤差情報に対する影響の強い画素は、例えば、次のようにして検出することができる。即ち、まず最初に、間引き後に残った画素についての圧縮データをそのまま用いて処理を行うことにより、その誤差情報を得る。そして、間引き後に残った画素についての圧縮データを、1つずつ、同一の補正値△だけ補正するような処理を行わせる制御信号を、制御回路65から補正回路32に出力し、その結果得られる誤差情報を、圧縮データをそのまま用いた場合に得られた誤差情報と比較し、その差が、所定値以上となる画素を、誤差情報に対する影響の強い画素として検出すれば良い。   The correction circuit 32 can correct the compressed data for all the compressed data of one frame or only a part of the compressed data. In the case of performing correction only for a part of the compressed data, for example, the control circuit 65 can detect pixels having a strong influence on the error information and correct only the compressed data for such pixels. . A pixel having a strong influence on error information can be detected as follows, for example. That is, first, the error information is obtained by performing processing using the compressed data for the pixels remaining after thinning out as they are. Then, a control signal for performing a process of correcting the compressed data for the pixels remaining after the thinning out one by one by the same correction value Δ is output from the control circuit 65 to the correction circuit 32 and obtained as a result. The error information may be compared with the error information obtained when the compressed data is used as it is, and a pixel whose difference is a predetermined value or more may be detected as a pixel having a strong influence on the error information.

以上のように、誤差情報を所定の閾値εより小さくする(以下にする)まで、圧縮データの補正が繰り返され、誤差情報が所定の閾値εより小さくなったときにおける補正データが、画像の符号化結果として出力されるので、受信装置4においては、間引き後の画像を構成する画素の画素値を、元の画像を復元するのに最も適当な値にした補正データから、原画像と同一(ほぼ同一)の復号画像を得ることが可能となる。   As described above, the correction of the compressed data is repeated until the error information is made smaller (below) than the predetermined threshold ε, and the correction data when the error information becomes smaller than the predetermined threshold ε is the code of the image. Therefore, in the receiving device 4, the same value as that of the original image is obtained from the correction data in which the pixel values of the pixels constituting the thinned image are set to values most suitable for restoring the original image ( It is possible to obtain substantially the same decoded image.

また、画像は、間引き処理により圧縮される他、ADRC処理およびクラス分類適応処理などによっても圧縮されるため、非常に高圧縮率の符号化データを得ることができる。なお、送信装置1における、以上のような符号化処理は、間引きによる圧縮処理と、クラス分類適応処理とを、いわば有機的に統合して用いることにより、高能率圧縮を実現するものであり、このことから統合符号化処理ということができる。   In addition to being compressed by thinning processing, the image is also compressed by ADRC processing, class classification adaptation processing, and the like, so that encoded data with a very high compression rate can be obtained. Note that the encoding process as described above in the transmission apparatus 1 achieves high-efficiency compression by using so-called organic integration of the compression process by thinning and the class classification adaptation process, From this, it can be said that it is an integrated encoding process.

次に、図18は、図1の受信装置4のさらに他の構成例を示している。   Next, FIG. 18 shows still another configuration example of the receiving device 4 of FIG.

受信機/再生装置71においては、記録媒体2に記録された符号化データが再生され、または伝送路3を介して伝送されてくる符号化データが受信され、分離部72に供給される。分離部72では、符号化データが、補正データと予測係数に分離され、補正データは、クラス分類用ブロック化回路73および予測値計算用ブロック化回路77に供給され、予測係数は、予測回路76に供給される。   In the receiver / reproducing apparatus 71, the encoded data recorded on the recording medium 2 is reproduced or the encoded data transmitted via the transmission path 3 is received and supplied to the separation unit 72. In the separation unit 72, the encoded data is separated into correction data and a prediction coefficient, the correction data is supplied to the class classification blocking circuit 73 and the prediction value calculation blocking circuit 77, and the prediction coefficient is the prediction circuit 76. To be supplied.

クラス分類用ブロック化回路73、ADRC処理回路74、クラス分類回路75、または予測値計算用ブロック化回路77は、図10におけるクラス分類用ブロック化回路41、ADRC処理回路44、クラス分類回路45、または予測値計算用ブロック化回路42それぞれと同様に構成されており、従って、これらのブロックにおいては、図10における場合と同様の処理が行われ、これにより、予測値計算用ブロック化回路77からは予測値計算用ブロックが出力され、また、クラス分類回路75からはクラス情報が出力される。これらの予測値計算用ブロックおよびクラス情報は、予測回路76に供給される。   The class classification blocking circuit 73, the ADRC processing circuit 74, the class classification circuit 75, or the prediction value calculation blocking circuit 77 are the class classification blocking circuit 41, the ADRC processing circuit 44, the class classification circuit 45, FIG. Alternatively, each block is configured in the same manner as each of the predicted value calculation block forming circuits 42. Therefore, in these blocks, the same processing as in FIG. 10 is performed. The prediction value calculation block is output, and the class classification circuit 75 outputs class information. These prediction value calculation blocks and class information are supplied to the prediction circuit 76.

予測回路76では、クラス情報に対応した予測係数と、予測値計算用ブロック化回路77から供給される予測値計算用ブロックを構成する補正データとを用い、式(1)に従って予測値が算出され、そのような予測値で構成される1フレームの画像が、復号画像として出力される。この復号画像は、上述したように、元の画像とほぼ同一の画像となる。   The prediction circuit 76 uses the prediction coefficient corresponding to the class information and the correction data constituting the prediction value calculation block supplied from the prediction value calculation blocking circuit 77 to calculate the prediction value according to the equation (1). A one-frame image composed of such predicted values is output as a decoded image. As described above, this decoded image is almost the same as the original image.

なお、受信側においては、図18に示すような受信装置4でなくても、間引きされた画像を単純な補間により復号する装置により、予測係数を用いずに、通常の補間を行うことで復号画像を得ることができる。但し、この場合に得られる復号画像は、画質(解像度)の劣化したものとなる。   Note that, on the receiving side, even if the receiving device 4 is not as shown in FIG. 18, the decoding is performed by performing normal interpolation without using the prediction coefficient by a device that decodes the thinned image by simple interpolation. An image can be obtained. However, the decoded image obtained in this case has deteriorated image quality (resolution).

ところで、上述の場合おいては、図6のローカルデコード部22において予測係数を求め、これを用いて、予測値を算出するようにしたが、ローカルデコード部22では、予測係数を求めずに、予測値を算出するようにすることが可能である。   By the way, in the above-described case, the local decoding unit 22 in FIG. 6 obtains the prediction coefficient and uses this to calculate the prediction value. However, the local decoding unit 22 does not obtain the prediction coefficient, It is possible to calculate the predicted value.

即ち、図19は、図6のローカルデコード部22の他の構成例を示している。なお、図中、図10における場合と対応する部分については、同一の符号を付してある。即ち、図19のローカルデコード部22は、適応処理回路46に代えて、予測係数ROM81および予測回路82が設けられている他は、図10における場合と同様に構成されている。   That is, FIG. 19 shows another configuration example of the local decoding unit 22 of FIG. In the figure, parts corresponding to those in FIG. 10 are denoted by the same reference numerals. That is, the local decoding unit 22 in FIG. 19 is configured in the same manner as in FIG. 10 except that a prediction coefficient ROM 81 and a prediction circuit 82 are provided instead of the adaptive processing circuit 46.

予測係数ROM81は、あらかじめ学習(後述する)により求められたクラスごとの予測係数を記憶しており、クラス分類回路45が出力するクラス情報を受信し、そのクラス情報に対応するアドレスに記憶されている予測係数を読み出して、予測回路82に供給する。   The prediction coefficient ROM 81 stores a prediction coefficient for each class obtained in advance by learning (described later), receives the class information output from the class classification circuit 45, and is stored at an address corresponding to the class information. The prediction coefficient is read and supplied to the prediction circuit 82.

予測回路82では、予測値計算用ブロック化回路42からの予測値計算用ブロックと、予測係数ROM81からの予測係数とを用いて、式(1)(具体的には、例えば、式(8))に示した線形1次式が計算され、これにより、元の画像の予測値が算出される。   The prediction circuit 82 uses the prediction value calculation block from the prediction value calculation blocking circuit 42 and the prediction coefficient from the prediction coefficient ROM 81, and uses Equation (1) (specifically, for example, Equation (8)). ) Is calculated, and thereby the predicted value of the original image is calculated.

従って、図19のクラス分類適応処理回路43によれば、元の画像を用いずに、その予測値が算出される。   Therefore, according to the class classification adaptive processing circuit 43 of FIG. 19, the predicted value is calculated without using the original image.

次に、図20は、図19の予測係数ROM81に記憶されている予測係数を得るための学習を行う画像処理装置の構成例を示している。   Next, FIG. 20 shows a configuration example of an image processing apparatus that performs learning for obtaining a prediction coefficient stored in the prediction coefficient ROM 81 of FIG.

学習用ブロック化回路91および教師用ブロック化回路92には、あらゆる画像に適用可能な予測係数を得るための(従って間引き処理が行われる前の)学習用の画像データ(学習用画像)が供給されるようになされている。   The learning block circuit 91 and the teacher block circuit 92 are supplied with learning image data (learning image) for obtaining a prediction coefficient applicable to any image (that is, before the thinning process is performed). It is made to be done.

学習用ブロック化回路91は、入力される画像データから、例えば、4画素(例えば、図2のX1乃至X4)を抽出し、この4画素で構成されるブロックを、学習用ブロックとして、ADRC処理93および学習データメモリ96に供給する。 The learning blocking circuit 91 extracts, for example, four pixels (for example, X 1 to X 4 in FIG. 2) from the input image data, and a block composed of these four pixels is used as a learning block. The ADRC process 93 and the learning data memory 96 are supplied.

また、教師用ブロック化回路92では、入力される画像データから、例えば、1画素(図2のY1)で構成されるブロックが生成され、この1画素で構成されるブロックが、教師用ブロックとして、教師データメモリ98に供給される。 Further, the teacher block forming circuit 92 generates a block composed of, for example, one pixel (Y 1 in FIG. 2) from the input image data, and the block composed of this one pixel is the teacher block. Is supplied to the teacher data memory 98.

なお、学習用ブロック化回路91において、所定の数の画素で構成される学習用ブロックが生成されるとき、教師用ブロック化回路92では、対応する画素の教師用ブロックが生成されるようになされている。   Note that when the learning block forming circuit 91 generates a learning block including a predetermined number of pixels, the teacher blocking circuit 92 generates a teacher block for the corresponding pixel. ing.

ADRC処理回路93は、学習用ブロックを構成する4画素でなるブロックに対して、図19のADRC処理回路44における場合と同様に、1ビットのADRC処理を施す。ADRC処理の施された、4画素のブロックは、クラス分類回路94に供給される。クラス分類回路94では、ADRC処理回路93からのブロックがクラス分類され、それにより得られるクラス情報が、スイッチ95の端子aを介して、学習データメモリ96および教師データメモリ98に供給される。   The ADRC processing circuit 93 performs a 1-bit ADRC process on the block of four pixels constituting the learning block, as in the ADRC processing circuit 44 of FIG. The 4-pixel block subjected to ADRC processing is supplied to the class classification circuit 94. In the class classification circuit 94, the blocks from the ADRC processing circuit 93 are classified, and class information obtained thereby is supplied to the learning data memory 96 and the teacher data memory 98 via the terminal a of the switch 95.

学習データメモリ96または教師データメモリ98では、そこに供給されるクラス情報に対応するアドレスに、学習用ブロック化回路91からの学習用ブロックまたは教師用ブロック化回路92からの教師用ブロックが、それぞれ記憶される。   In the learning data memory 96 or the teacher data memory 98, the learning block from the learning blocking circuit 91 or the teacher block from the teacher blocking circuit 92 is respectively assigned to the address corresponding to the class information supplied thereto. Remembered.

従って、学習データメモリ96において、4画素(図2のX1乃至X4)でなるブロックが学習用ブロックとして、あるアドレスに記憶されたとすると、教師データメモリ98においては、そのアドレスと同一のアドレスに、それに対応する1画素(図2のY1)のブロックが、教師用ブロックとして記憶される。 Therefore, in the learning data memory 96, if a block of four pixels (X 1 to X 4 in FIG. 2) is stored as a learning block at a certain address, the teacher data memory 98 has the same address as that address. In addition, a corresponding block of one pixel (Y 1 in FIG. 2) is stored as a teacher block.

以下、同様の処理が、あらかじめ用意されたすべての学習用の画像について繰り返され、これにより、学習用ブロックと、図19のローカルデコード部22において、その学習用ブロックを構成する4画素と同一の位置関係を有する4個の補正データで構成される予測値計算用ブロックを用いて予測値が求められる1個の画素で構成される教師用ブロックとが、学習用データメモリ96と、教師用データメモリ98とにおいて、同一のアドレスに記憶される。   Thereafter, the same processing is repeated for all learning images prepared in advance, whereby the learning block and the local decoding unit 22 shown in FIG. 19 are the same as the four pixels constituting the learning block. A teacher block composed of one pixel from which a predicted value is obtained using a predicted value calculation block composed of four correction data having a positional relationship includes a learning data memory 96 and teacher data. In the memory 98, they are stored at the same address.

なお、学習用データメモリ96と教師用データメモリ98においては、同一アドレスに複数の情報を記憶することができるようになされており、これにより、同一アドレスには、複数の学習用ブロックと教師用ブロックを記憶することができるようになされている。   In the learning data memory 96 and the teacher data memory 98, a plurality of information can be stored at the same address, whereby a plurality of learning blocks and a teacher data are stored at the same address. Blocks can be stored.

学習用画像すべてについての学習用ブロックと教師用ブロックとが、学習データメモリ96と教師データメモリ98に記憶されると、端子aを選択していたスイッチ95が、端子bに切り替わり、これにより、カウンタ97の出力が、アドレスとして、学習データメモリ96および教師データメモリ98に供給される。カウンタ97は、所定のクロックをカウントし、そのカウント値を出力しており、学習データメモリ96または教師データメモリ98では、そのカウント値に対応するアドレスに記憶された学習用ブロックまたは教師用ブロックが読み出され、演算回路99に供給される。   When the learning blocks and the teacher blocks for all the learning images are stored in the learning data memory 96 and the teacher data memory 98, the switch 95 that has selected the terminal a is switched to the terminal b. The output of the counter 97 is supplied to the learning data memory 96 and the teacher data memory 98 as addresses. The counter 97 counts a predetermined clock and outputs the count value. In the learning data memory 96 or the teacher data memory 98, a learning block or a teacher block stored at an address corresponding to the count value is stored. It is read out and supplied to the arithmetic circuit 99.

従って、演算回路99には、カウンタ97のカウント値に対応するクラスの学習用ブロックのセットと、教師用ブロックのセットとが供給される。   Accordingly, the arithmetic circuit 99 is supplied with a set of learning blocks of a class corresponding to the count value of the counter 97 and a set of teacher blocks.

演算回路99は、あるクラスについての学習用ブロックのセットと、教師用ブロックのセットとを受信すると、それらを用いて、最小自乗法により、誤差を最小とする予測係数を算出する。   When the arithmetic circuit 99 receives a set of learning blocks and a set of teacher blocks for a certain class, the arithmetic circuit 99 uses them to calculate a prediction coefficient that minimizes the error by the least square method.

即ち、例えば、いま、学習用ブロックを構成する画素の画素値を、x1,x2,x3,・・・とし、求めるべき予測係数をw1,w2,w3,・・・とするとき、これらの線形1次結合により、教師用ブロックを構成する、ある画素の画素値yを求めるには、予測係数w1,w2,w3,・・・は、次式を満たす必要がある。 That is, for example, the pixel values of the pixels constituting the learning block are now x 1 , x 2 , x 3 ,... And the prediction coefficients to be obtained are w 1 , w 2 , w 3 ,. Then, in order to obtain the pixel value y of a certain pixel constituting the teacher block by these linear linear combinations, the prediction coefficients w 1 , w 2 , w 3 ,... There is.

y=w11+w22+w33+・・・ y = w 1 x 1 + w 2 x 2 + w 3 x 3 +...

そこで、演算回路99では、同一クラスの学習用ブロックと、対応する教師用ブロックとから、真値yに対する、予測値w11+w22+w33+・・・の自乗誤差を最小とする予測係数w1,w2,w3,・・・が、上述した式(7)に示す正規方程式をたてて解くことにより求められる。 Therefore, the arithmetic circuit 99 calculates a square error of the predicted value w 1 x 1 + w 2 x 2 + w 3 x 3 +... With respect to the true value y from the learning block of the same class and the corresponding teacher block. The minimum prediction coefficients w 1 , w 2 , w 3 ,... Are obtained by building and solving the normal equation shown in the above equation (7).

演算回路99において求められた、クラスごとの予測係数は、メモリ100に供給される。メモリ100には、演算回路99からの予測係数の他、カウンタ97からカウント値が供給されており、これにより、メモリ100においては、演算回路99からの予測係数が、カウンタ97からのカウント値に対応するアドレスに記憶される。   The prediction coefficient for each class obtained by the arithmetic circuit 99 is supplied to the memory 100. In addition to the prediction coefficient from the arithmetic circuit 99, the memory 100 is supplied with a count value from the counter 97. Thus, in the memory 100, the prediction coefficient from the arithmetic circuit 99 becomes the count value from the counter 97. Stored at the corresponding address.

以上のようにして、メモリ100には、各クラスに対応するアドレスに、そのクラスのブロックの画素を予測するのに最適な予測係数が記憶される。   As described above, the memory 100 stores the optimum prediction coefficient for predicting the pixel of the block of the class at the address corresponding to each class.

図19の予測係数ROM81には、以上のようにしてメモリ100に記憶された予測係数が記憶されている。   The prediction coefficient ROM 81 in FIG. 19 stores the prediction coefficient stored in the memory 100 as described above.

なお、予測係数ROM81には、各クラスに対応するアドレスに、予測係数を記憶させるのではなく、教師用ブロックを構成する画素値の平均値などを記憶させるようにすることが可能である。この場合、クラス情報が与えられると、そのクラスに対応する画素値が出力されることになり、図19のローカルデコード部22において、予測値計算用ブロック化回路42および予測回路82を設けずに済むようになる。   Note that the prediction coefficient ROM 81 can store an average value of pixel values constituting a teacher block instead of storing a prediction coefficient at an address corresponding to each class. In this case, when class information is given, a pixel value corresponding to the class is output, and the local decoding unit 22 in FIG. 19 does not include the prediction value calculation blocking circuit 42 and the prediction circuit 82. It will be over.

また、図19に示したようにローカルデコード部22を構成する場合においては、図18に示した受信装置4は、受信機/再生装置71の後段を、図19のクラス分類適応処理回路43と同様に構成するようにすれば良い。   In the case where the local decoding unit 22 is configured as shown in FIG. 19, the receiving device 4 shown in FIG. 18 is connected to the class classification adaptive processing circuit 43 in FIG. What is necessary is just to make it comprise similarly.

なお、本実施例においては、誤差情報として、誤差の自乗和を用いるようにしたが、誤差情報としては、その他、例えば、誤差の絶対値和や、その3乗以上したものの和などを用いるようにすることが可能である。いずれを誤差情報として用いるかは、例えば、その収束性などに基づいて決定するようにすることが可能である。   In this embodiment, the error sum of squares is used as the error information. However, as the error information, for example, the sum of absolute values of errors and the sum of the third and higher powers are used. It is possible to Which one is used as error information can be determined based on, for example, its convergence.

また、本実施例では、誤差情報が、所定の閾値ε以下になるまで、圧縮データの補正を繰り返し行うようにしたが、圧縮データの補正の回数には、上限を設けるようにすることも可能である。即ち、例えば、リアルタイムで画像の伝送を行う場合などにおいては、1フレームについての処理が、所定の期間内に終了することが必要であるが、誤差情報は、そのような所定の期間内に収束するとは限らない。そこで、補正の回数に上限を設けることにより、所定の期間内に、誤差情報が閾値ε以下に収束しないときは、そのフレームについての処理を終了し(そのときにおける補正データを、符号化結果とし)、次のフレームについての処理を開始するようにすることが可能である。   In this embodiment, the correction of the compressed data is repeatedly performed until the error information becomes equal to or less than the predetermined threshold value ε. However, an upper limit may be set for the number of corrections of the compressed data. It is. That is, for example, when image transmission is performed in real time, processing for one frame needs to be completed within a predetermined period, but error information converges within such a predetermined period. Not always. Therefore, by setting an upper limit on the number of corrections, if the error information does not converge below the threshold ε within a predetermined period, the processing for that frame is terminated (the correction data at that time is used as the encoding result). ), It is possible to start processing for the next frame.

さらに、本実施例においては、1フレームの画像からブロックを構成するようにしたが、ブロックは、その他、例えば、時系列に連続する複数フレームにおける、同一位置の画素から構成するようにすることも可能である。   Furthermore, in the present embodiment, a block is configured from an image of one frame, but the block may also be configured from pixels at the same position in a plurality of frames that are continuous in time series, for example. Is possible.

また、本実施例では、圧縮部21において、画像を、単純に間引き、即ち、2画素毎に1個の画素を抽出し、これを圧縮データとするようにしたが、圧縮部21には、その他、例えば、ブロックを構成する複数個の画素の平均値などを求めさせ、その平均値を、そのブロックにおける中心画素の画素値とすることにより、その画素数を少なくし(間引き)、これを圧縮データとするようにすることも可能である。   In the present embodiment, the compression unit 21 simply thins out the image, that is, extracts one pixel every two pixels and uses it as compressed data. In addition, for example, the average value of a plurality of pixels constituting the block is obtained, and the average value is set as the pixel value of the central pixel in the block, thereby reducing the number of pixels (decimation), It is also possible to use compressed data.

図21は、この場合における送信装置1の構成例を示している。   FIG. 21 shows a configuration example of the transmission apparatus 1 in this case.

ブロック化回路111には、符号化すべき画像データが入力されるようになされており、ブロック化回路111は、画像データを、その性質に応じて所定のクラスに分類するための単位であるクラス分類用ブロックにブロック化し、ADRC処理回路112および遅延回路115に供給するようになされている。   Image data to be encoded is input to the block forming circuit 111. The block forming circuit 111 is a class classification that is a unit for classifying image data into predetermined classes according to their properties. These blocks are divided into blocks for use and supplied to the ADRC processing circuit 112 and the delay circuit 115.

ADRC処理回路112は、ブロック化回路111からのブロック(クラス分類用ブロック)に対してADRC処理を施し、その結果得られるADRCコードで構成されるブロックを、クラス分類回路113に供給するようになされている。   The ADRC processing circuit 112 performs ADRC processing on the block (class classification block) from the blocking circuit 111 and supplies a block composed of the resulting ADRC code to the class classification circuit 113. ing.

このADRC処理より、クラス分類用ブロックを構成する画素のビット数が低減されるようになされている。   By this ADRC processing, the number of bits of pixels constituting the class classification block is reduced.

クラス分類回路113は、ADRC処理回路112からのブロックを、その性質に応じて所定のクラスに分類するクラス分類処理を行い、そのブロックがいずれのクラスに属するかを、クラス情報として、マッピング係数メモリ114に供給するようになされている。   The class classification circuit 113 performs a class classification process for classifying the block from the ADRC processing circuit 112 into a predetermined class according to its property, and uses as a class information which class the block belongs to as a mapping coefficient memory. 114 is provided.

マッピング係数メモリ114は、後述するような学習(マッピング係数学習)により得られるマッピング係数を、クラス情報ごとに記憶しており、クラス分類回路113から供給されるクラス情報をアドレスとして、そのアドレスに記憶されているマッピング係数を読み出し、演算回路116に供給するようになされている。   The mapping coefficient memory 114 stores mapping coefficients obtained by learning (mapping coefficient learning) as described later for each class information, and stores the class information supplied from the class classification circuit 113 as an address. The mapping coefficient thus read is read out and supplied to the arithmetic circuit 116.

遅延回路115は、ブロック化回路111から供給されるブロックを、そのブロックのクラス情報に対応するマッピング係数が、マッピング係数メモリ114から読み出されるまで遅延し、演算回路116に供給するようになされている。   The delay circuit 115 delays the block supplied from the block forming circuit 111 until the mapping coefficient corresponding to the class information of the block is read from the mapping coefficient memory 114, and supplies the block to the arithmetic circuit 116. .

演算回路116は、遅延回路115から供給されるブロックを構成する画素の画素値と、マッピング係数メモリ114から供給される、そのブロックのクラスに対応するマッピング係数とを用いて所定の演算を行うことにより、画像を、その画素数を間引いた(少なくした)符号化した符号化データを算出するようになされている。即ち、演算回路116は、ブロック化回路111が出力するブロックを構成する各画素の画素値(元の画像の画素値)をy1,y2,・・・とするとともに、マッピング係数メモリ114が出力する、そのブロックのクラスに対応するマッピング係数をk1,k2,・・・とするとき、それらを引数とする所定の関数値f(y1,y2,・・・,k1,k2,・・・)を演算し、その関数値f(y1,y2,・・・,k1,k2,・・・)を、ブロック化回路111が出力するブロック(クラス分類用ブロック)を構成する画素のうちの、例えば中心の画素の画素値として出力するようになされている。 The arithmetic circuit 116 performs a predetermined operation using the pixel values of the pixels constituting the block supplied from the delay circuit 115 and the mapping coefficient corresponding to the class of the block supplied from the mapping coefficient memory 114. Thus, encoded data obtained by encoding the image with the number of pixels thinned out (reduced) is calculated. That is, the arithmetic circuit 116 sets the pixel values (pixel values of the original image) of each pixel constituting the block output from the blocking circuit 111 to y 1 , y 2 ,. when outputting, the mapping coefficients corresponding to the class of the block k 1, k 2, and ..., predetermined function value f to their arguments (y 1, y 2, ··· , k 1, k 2 ,...) and the function value f (y 1 , y 2 ,..., k 1 , k 2 ,. For example, the pixel value of the central pixel among the pixels constituting the block) is output.

従って、ブロック化回路111が出力するクラス分類用ブロックを構成する画素数をN画素とすると、演算回路116は、画像データを1/Nに間引き、これを、符号化データとして出力するようになされている。   Accordingly, assuming that the number of pixels constituting the class classification block output from the blocking circuit 111 is N pixels, the arithmetic circuit 116 thins out the image data to 1 / N and outputs this as encoded data. ing.

なお、演算回路116が出力する符号化データは、N画素で構成されるブロックの中心の1個の画素を選択して出力するような、いわば単純な間引き処理により得られるものではなく、上述したように、そのブロックを構成するN画素により規定される関数値f(y1,y2,・・・,k1,k2,・・・)であるが、この関数値f(y1,y2,・・・,k1,k2,・・・)は、見方を変えれば、単純な間引き処理により得られる、ブロックの中心の画素の画素値を、その周辺の画素値に基づいて補正したものと考えることができる。そこで、マッピング係数と、ブロックを構成する画素との演算の結果得られるデータである符号化データを、以下、適宜、補正データともいう。 Note that the encoded data output from the arithmetic circuit 116 is not obtained by a simple thinning process in which one pixel at the center of a block composed of N pixels is selected and output. Thus, the function value f (y 1 , y 2 ,..., K 1 , k 2 ,...) Defined by the N pixels constituting the block is the function value f (y 1 , y 2 ,..., k 1 , k 2 ,..., based on the surrounding pixel values, the pixel value of the pixel at the center of the block, which is obtained by simple decimation processing. It can be considered as corrected. Therefore, the encoded data, which is data obtained as a result of the operation of the mapping coefficient and the pixels constituting the block, is also referred to as correction data as appropriate hereinafter.

また、演算回路116における演算処理は、ブロック化回路111が出力するクラス分類用ブロックを構成する各画素の画素値を、関数値f(y1,y2,・・・,k1,k2,・・・)にマッピング(写像)する処理とも考えることができる。そこで、そのような処理に用いられる係数k1,k2,・・・をマッピング係数と呼んでいる。 Further, the arithmetic processing in the arithmetic circuit 116 is performed by converting the pixel value of each pixel constituting the class classification block output from the blocking circuit 111 into the function value f (y 1 , y 2 ,..., K 1 , k 2. ,...)) Can also be considered as mapping (mapping) processing. Therefore, the coefficients k 1 , k 2 ,... Used for such processing are called mapping coefficients.

送信機/記録装置117は、演算回路116から符号化データとして供給される補正データを、記録媒体2に記録し、または伝送路3を介して伝送するようになされている。   The transmitter / recording device 117 records correction data supplied as encoded data from the arithmetic circuit 116 on the recording medium 2 or transmits it via the transmission path 3.

次に、図22のフローチャートを参照して、その動作について説明する。   Next, the operation will be described with reference to the flowchart of FIG.

ブロック化回路111には、例えば、1フレーム(フィールド)単位で画像データが供給されるようになされており、ブロック化回路111では、ステップS61において、1フレームの画像が、クラス分類用ブロックにブロック化される。即ち、ブロック化回路111は、例えば、5画素でなるクラス分類用ブロックに分割し、ADRC処理回路112および遅延回路115に供給する。   For example, image data is supplied to the block forming circuit 111 in units of one frame (field). In the block forming circuit 111, in step S61, one frame image is blocked in a class classification block. It becomes. That is, the blocking circuit 111 divides the block into class classification blocks each including, for example, 5 pixels, and supplies the block to the ADRC processing circuit 112 and the delay circuit 115.

なお、この場合、クラス分類用ブロックは、5画素でなる十文字形状のブロックで構成されることとなるが、クラス分類用ブロックの形状は、その他、例えば、長方形や、正方形、その他の任意な形とすることが可能である。また、クラス分類用ブロックを構成する画素数も、5画素に限定されるものではない。さらに、クラス分類用ブロックは、隣接する画素どうしで構成するのではなく、離れた画素どうしで構成するようにすることも可能である。但し、その形状および画素数は、後述する学習(マッピング係数学習)時における場合のものと一致している必要がある。   In this case, the class classification block is configured by a cross-shaped block of 5 pixels. However, the class classification block may have other shapes such as a rectangle, a square, and other arbitrary shapes. Is possible. Further, the number of pixels constituting the class classification block is not limited to five pixels. Furthermore, the class classification block may be configured not with adjacent pixels but with distant pixels. However, the shape and the number of pixels need to match those in the case of learning (mapping coefficient learning) described later.

ADRC処理回路112は、ブロック化回路111からクラス分類用ブロックを受信すると、ステップS62において、そのブロックのうちの中心の画素(図2のY1)を除く4個の画素(図2のX1乃至X4)に対して、例えば、1ビットのADRC処理を施し、これにより、R,G,Bの各画素が、それぞれ1ビットで表現される画素で構成されるブロックとする。ADRC処理の施されたクラス分類用ブロックは、クラス分類回路113に供給される。 When the ADRC processing circuit 112 receives the block for class classification from the blocking circuit 111, in step S62, the ADRC processing circuit 112 includes four pixels (X 1 in FIG. 2) excluding the central pixel (Y 1 in FIG. 2) of the block. To X 4 ), for example, a 1-bit ADRC process is performed so that each of the R, G, and B pixels is a block composed of pixels represented by 1 bit. The class classification block subjected to ADRC processing is supplied to the class classification circuit 113.

クラス分類回路113では、ステップS63において、ADRC処理回路112からのクラス分類用ブロックがクラス分類され、その結果得られるクラス情報が、マッピング係数メモリ114に、アドレスとして供給される。これにより、マッピング係数メモリ114からは、クラス分類回路113より供給されたクラス情報に対応するマッピング係数が読み出され、演算回路116に供給される。   In the class classification circuit 113, the class classification block from the ADRC processing circuit 112 is classified in step S63, and the class information obtained as a result is supplied to the mapping coefficient memory 114 as an address. As a result, the mapping coefficient corresponding to the class information supplied from the class classification circuit 113 is read from the mapping coefficient memory 114 and supplied to the arithmetic circuit 116.

一方、遅延回路115では、ブロック化回路111からのクラス分類用ブロックの5画素データが遅延され、そのブロックのクラス情報に対応するマッピング係数が、マッピング係数メモリ114から読み出されるのを待って、演算器116に供給される。演算器116では、ステップS64において、遅延回路115からのクラス分類用ブロックを構成する各画素の画素値と、マッピング係数メモリ114からのマッピング係数を用いて、上述した関数値f(・)(この関数fのかっこ内の・は、画素値X1,X2,・・・と、マッピング係数k1,k2,・・・の集合を表すものとする)が演算されることにより、クラス分類用ブロックを構成する中心の画素(中心画素)の画素値を補正した補正データが算出される。いまの場合、図2の画素データX1乃至X4と画素データY1(X5)とから、画素データY1(X5)の位置の1個の画素データが生成される。また、このブロック化は、画素データに対して重複して行われ、最終的に、1/2の画素データが間引かれる。そして、この処理でも、上述したように、Rの成分(Gの成分もしくはBの成分)を生成するのに、Rの成分(Gの成分もしくはBの成分)だけでなく、Gの成分とBの成分(Rの成分とBの成分、またはRの成分とGの成分)が利用される。この補正データは、画像を符号化した符号化データとして、送信機/記録装置117に供給される。 On the other hand, the delay circuit 115 delays the 5-pixel data of the class classification block from the blocking circuit 111 and waits for the mapping coefficient corresponding to the class information of the block to be read from the mapping coefficient memory 114 before performing the calculation. Is supplied to the vessel 116. In step S64, the arithmetic unit 116 uses the pixel value of each pixel constituting the class classification block from the delay circuit 115 and the mapping coefficient from the mapping coefficient memory 114, and uses the function value f (•) (this · In parentheses of the function f represents a set of pixel values X 1 , X 2 ,... And mapping coefficients k 1 , k 2 ,. Correction data obtained by correcting the pixel value of the center pixel (center pixel) constituting the block for use is calculated. In this case, one piece of pixel data at the position of the pixel data Y 1 (X 5 ) is generated from the pixel data X 1 to X 4 and the pixel data Y 1 (X 5 ) in FIG. This blocking is performed on the pixel data in an overlapping manner, and finally ½ pixel data is thinned out. Also in this process, as described above, in order to generate the R component (G component or B component), not only the R component (G component or B component) but also the G component and B (R component and B component, or R component and G component) are used. This correction data is supplied to the transmitter / recording device 117 as encoded data obtained by encoding an image.

送信機/記録装置117では、ステップS65において、演算回路116からの符号化データが、記録媒体2に記録され、または伝送路3を介して伝送される。   In the transmitter / recording device 117, the encoded data from the arithmetic circuit 116 is recorded on the recording medium 2 or transmitted via the transmission path 3 in step S 65.

そして、ステップS66に進み、1フレーム分の画像データについての処理が終了したかどうかが判定される。ステップS66において、1フレーム分の画像データについての処理が、まだ終了していないと判定された場合、ステップS62に戻り、次のクラス分類用ブロックを対象に、ステップS62以下の処理が繰り返される。また、ステップS66において、1フレーム分の画像データについての処理が終了したと判定された場合、ステップS61に戻り、次のフレームを対象に、ステップS61以下の処理が繰り返される。   In step S66, it is determined whether or not the processing for one frame of image data has been completed. If it is determined in step S66 that the processing for the image data for one frame has not been completed, the process returns to step S62, and the processing in step S62 and subsequent steps is repeated for the next class classification block. If it is determined in step S66 that the processing for the image data for one frame has been completed, the process returns to step S61, and the processing in step S61 and subsequent steps is repeated for the next frame.

次に、図23は、図21のマッピング係数メモリ114に記憶されているマッピング係数を算出するための学習(マッピング係数学習)処理を行う画像処理装置の構成例を示している。   Next, FIG. 23 shows a configuration example of an image processing apparatus that performs learning (mapping coefficient learning) processing for calculating the mapping coefficient stored in the mapping coefficient memory 114 of FIG.

メモリ121には、学習に適したディジタル画像データ(以下、適宜、学習用画像という)が1フレーム以上記憶されている。ブロック化回路122は、メモリ121に記憶されている画像データを読み出し、図21のブロック化回路111から出力されるクラス分類用ブロックと同一のブロックを構成して、ADRC処理回路123および演算回路126に供給するようになされている。   The memory 121 stores one or more frames of digital image data suitable for learning (hereinafter referred to as learning images as appropriate). The blocking circuit 122 reads the image data stored in the memory 121, configures the same block as the class classification block output from the blocking circuit 111 in FIG. 21, and includes an ADRC processing circuit 123 and an arithmetic circuit 126. It is made to supply to.

ADRC処理回路123またはクラス分類回路124は、図21のADRC処理回路112またはクラス分類回路113における場合とそれぞれ同様の処理を行うようになされている。従って、クラス分類回路124からは、ブロック化回路122が出力するブロックのクラス情報が出力されるようになされている。そして、このクラス情報は、マッピング係数メモリ131に、アドレスとして供給されるようになされている。   The ADRC processing circuit 123 or the class classification circuit 124 performs the same processing as that in the ADRC processing circuit 112 or the class classification circuit 113 of FIG. Therefore, the class classification circuit 124 outputs the class information of the block output from the blocking circuit 122. This class information is supplied to the mapping coefficient memory 131 as an address.

演算回路126は、ブロック化回路122から供給されるブロックを構成する画素と、マッピング係数メモリ131から供給されるマッピング係数とを用いて、図21の演算回路116における場合と同一の演算を行い、その結果得られる補正データ(関数値f(・))を、ローカルデコード部127に供給するようになされている。   The arithmetic circuit 126 performs the same operation as in the arithmetic circuit 116 of FIG. 21 using the pixels constituting the block supplied from the blocking circuit 122 and the mapping coefficient supplied from the mapping coefficient memory 131, The correction data (function value f (·)) obtained as a result is supplied to the local decoding unit 127.

ローカルデコード部127は、演算回路126から供給される補正データに基づいて、元の学習用画像の予測値(ブロック化回路122が出力するブロックを構成する画素の画素値の予測値)を予測し(算出し)、誤差算出部128に供給するようになされている。誤差算出部128は、ローカルデコード部127から供給される予測値に対応する学習用画像の画素値(真値)をメモリ121から読み出し、その学習用画像の画素値に対する、予測値の予測誤差を算出(検出)し、その予測誤差を、誤差情報として、判定部129に供給するようになされている。   Based on the correction data supplied from the arithmetic circuit 126, the local decoding unit 127 predicts the predicted value of the original learning image (the predicted value of the pixel value of the pixels constituting the block output by the blocking circuit 122). (Calculated) and supplied to the error calculation unit 128. The error calculation unit 128 reads out the pixel value (true value) of the learning image corresponding to the prediction value supplied from the local decoding unit 127 from the memory 121, and calculates the prediction error of the prediction value with respect to the pixel value of the learning image. Calculation (detection) is performed, and the prediction error is supplied to the determination unit 129 as error information.

判定部129は、誤差算出部128からの誤差情報と、所定の閾値ε1とを比較し、その比較結果に対応して、マッピング係数設定回路130を制御するようになされている。マッピング係数設定回路130は、判定部129の制御に従って、クラス分類回路124におけるクラス分類の結果得られるクラス数と同一の数のマッピング係数のセットを設定(変更)し、マッピング係数メモリ131に供給するようになされている。   The determination unit 129 compares the error information from the error calculation unit 128 with a predetermined threshold value ε1, and controls the mapping coefficient setting circuit 130 in accordance with the comparison result. The mapping coefficient setting circuit 130 sets (changes) the same number of mapping coefficient sets as the number of classes obtained as a result of class classification in the class classification circuit 124 according to the control of the determination unit 129 and supplies the set to the mapping coefficient memory 131. It is made like that.

マッピング係数メモリ131は、マッピング係数設定回路130から供給されるマッピング係数を一時記憶するようになされている。なお、マッピング係数メモリ131は、クラス分類回路124においてクラス分類されるクラスの数だけのマッピング係数(マッピング係数のセット)を記憶することのできる記憶領域を有しており、各記憶領域においては、マッピング係数設定回路130から、新たなマッピング係数が供給されると、既に記憶しているマッピング係数に代えて、その新たなマッピング係数が記憶されるようになされている。   The mapping coefficient memory 131 temporarily stores the mapping coefficient supplied from the mapping coefficient setting circuit 130. The mapping coefficient memory 131 has storage areas that can store as many mapping coefficients (sets of mapping coefficients) as the number of classes classified in the class classification circuit 124. In each storage area, When a new mapping coefficient is supplied from the mapping coefficient setting circuit 130, the new mapping coefficient is stored instead of the already stored mapping coefficient.

また、マッピング係数メモリ131は、クラス分類回路124から供給されるクラス情報に対応するアドレスに記憶されたマッピング係数を読み出し、演算回路126に供給するようにもなされている。   The mapping coefficient memory 131 is also configured to read the mapping coefficient stored at the address corresponding to the class information supplied from the class classification circuit 124 and supply the mapping coefficient to the arithmetic circuit 126.

次に、図24のフローチャートを参照して、その動作について説明する。   Next, the operation will be described with reference to the flowchart of FIG.

まず最初に、マッピング係数設定回路130は、ステップS71においてマッピング係数の初期値のセットを、クラス分類回路124においてクラス分類されるクラスの数だけ設定し、マッピング係数メモリ131に供給する。マッピング係数メモリ131では、マッピング係数設定回路130からのマッピング係数(初期値)が、対応するクラスのアドレスに記憶される。   First, the mapping coefficient setting circuit 130 sets a set of initial values of mapping coefficients for the number of classes classified in the class classification circuit 124 in step S71 and supplies the set to the mapping coefficient memory 131. In the mapping coefficient memory 131, the mapping coefficient (initial value) from the mapping coefficient setting circuit 130 is stored at the address of the corresponding class.

そして、ブロック化回路122は、ステップS72において、メモリ121に記憶されている学習用画像すべてを、図21のブロック化回路111における場合と同様に、5画素(図2のX1乃至X4,Y1)のブロックにブロック化する。さらに、ブロック化回路121は、そのブロックを、メモリ121から読み出し、ADRC処理回路123および演算回路126に順次供給する。 Then, in step S72, the blocking circuit 122 converts all the learning images stored in the memory 121 into five pixels (X 1 to X 4 , FIG. 2 in the same manner as in the blocking circuit 111 in FIG. 21). Block into Y 1 ) blocks. Further, the blocking circuit 121 reads the block from the memory 121 and sequentially supplies the block to the ADRC processing circuit 123 and the arithmetic circuit 126.

ADRC処理回路123では、ステップS73において、ブロック化回路122からのブロックのうちの4画素(図2のX1乃至X4)に対して、図21のADRC処理回路112における場合と同様に、1ビットのADRC処理が施され、クラス分類回路124に供給される。クラス分類回路124では、ステップS74において、ADRC処理回路123から供給されたブロックのクラスが決定され、そのクラス情報が、アドレスとして、マッピング係数メモリ131に供給される。これにより、ステップS75において、マッピング係数メモリ131の、クラス分類回路124から供給されるクラス情報に対応するアドレスから、マッピング係数が読み出され、演算回路126に供給される。 In the ADRC processing circuit 123, in step S 73, four pixels (X 1 to X 4 in FIG. 2) in the block from the blocking circuit 122 are processed as in the case of the ADRC processing circuit 112 in FIG. Bit ADRC processing is performed and supplied to the class classification circuit 124. In step S74, the class classification circuit 124 determines the class of the block supplied from the ADRC processing circuit 123, and supplies the class information to the mapping coefficient memory 131 as an address. As a result, in step S 75, the mapping coefficient is read from the address corresponding to the class information supplied from the class classification circuit 124 in the mapping coefficient memory 131 and supplied to the arithmetic circuit 126.

演算回路126は、ブロック化回路122からのブロックの5画素(図2のX1乃至X4,Y1)を受信するとともに、マッピング係数メモリ131から、そのブロックのクラスに対応するマッピング係数を受信すると、ステップS76において、そのマッピング係数と、ブロック化回路122から供給されるブロックを構成する5画素の画素値とを用いて、上述の関数値f(・)を演算する。この演算結果は、ブロック化回路122から供給されるブロックの中心画素の画素値を補正した補正データとして、ローカルデコード部127に供給される。 The arithmetic circuit 126 receives the five pixels (X 1 to X 4 , Y 1 in FIG. 2) of the block from the blocking circuit 122 and receives the mapping coefficient corresponding to the class of the block from the mapping coefficient memory 131. Then, in step S76, the function value f (•) described above is calculated using the mapping coefficient and the pixel values of the five pixels constituting the block supplied from the blocking circuit 122. This calculation result is supplied to the local decoding unit 127 as correction data obtained by correcting the pixel value of the central pixel of the block supplied from the blocking circuit 122.

即ち、例えば、上述の図2において、X1乃至X4,Y1のブロックが、ブロック化回路122から出力されたものとすると、演算回路126では、その画素値を補正した補正データが求められ、ローカルデコード部27に出力される。 That is, for example, in FIG. 2 described above, assuming that the blocks X 1 to X 4 and Y 1 are output from the blocking circuit 122, the arithmetic circuit 126 obtains correction data obtained by correcting the pixel value. Is output to the local decoding unit 27.

但し、演算回路26では、ブロック化回路122におけるブロック化が、画素データに対して重複して行われ、学習用画像を構成する画素数が、1/2に間引かれ、ローカルデコード部27に供給される。   However, in the arithmetic circuit 26, the blocking in the blocking circuit 122 is performed on the pixel data in an overlapping manner, and the number of pixels constituting the learning image is thinned out to ½, and the local decoding unit 27 Supplied.

図24に戻り、ステップS76で補正データが算出された後は、ステップS77に進み、メモリ121に記憶されたすべての学習用画像についての補正データが求められたかどうかが判定される。ステップS77において、すべての学習用画像についての補正データが、まだ求められていないと判定された場合、ステップS73に戻り、すべての学習用画像についての補正データが求められるまで、ステップS73乃至S77の処理を繰り返す。   Referring back to FIG. 24, after the correction data is calculated in step S76, the process proceeds to step S77, and it is determined whether correction data for all the learning images stored in the memory 121 has been obtained. If it is determined in step S77 that the correction data for all the learning images has not yet been obtained, the process returns to step S73, and the correction data for all the learning images is obtained in steps S73 to S77. Repeat the process.

また、ステップS77において、すべての学習用画像についての補正データが求められたと判定された場合、即ち、メモリ121に記憶されたすべての学習用画像を、1/2に間引いた間引き画像が得られた場合(但し、この間引き画像は、学習用画像を、単純に1/2に間引いたものではなく、マッピング係数との演算により画素値が求められたものである)、ステップS78に進み、ローカルデコード部127において、その間引き画像がローカルデコードされることにより、元の学習用画像の予測値が算出される。この予測値は、誤差算出部128に供給される。   If it is determined in step S77 that correction data for all learning images has been obtained, that is, a thinned image obtained by thinning all the learning images stored in the memory 121 to ½ is obtained. If this is the case (however, this thinned image is not a learning image that is simply thinned by half, but a pixel value obtained by calculation with a mapping coefficient), the process proceeds to step S78, where In the decoding unit 127, the predicted value of the original learning image is calculated by locally decoding the thinned image. This predicted value is supplied to the error calculation unit 128.

ここで、このローカルデコード部127において得られる予測値で構成される画像(但し、後述するように、誤差算出部128から出力される誤差情報が閾値ε1より小さくなったときにおけるもの)は、受信装置4側において得られる復号画像と同一のものである。   Here, an image composed of predicted values obtained in the local decoding unit 127 (however, as described later, when the error information output from the error calculation unit 128 becomes smaller than the threshold ε1) is received. This is the same as the decoded image obtained on the device 4 side.

誤差算出部128では、ステップS79において、メモリ121から学習用画像が読み出され、その学習用画像に対する、ローカルデコード部127から供給される予測値の予測誤差が算出される。即ち、学習用画像の画素値をYijと表すとともに、ローカルデコード部127から出力される、その予測値をE[Yij]と表すとき、誤差算出部128では、次式で示される誤差分散(誤差の自乗和)Qが算出され、これが、誤差情報として、判定部129に供給される。 In step S79, the error calculation unit 128 reads the learning image from the memory 121, and calculates the prediction error of the prediction value supplied from the local decoding unit 127 for the learning image. That is, when the pixel value of the learning image is expressed as Y ij and the predicted value output from the local decoding unit 127 is expressed as E [Y ij ], the error calculation unit 128 calculates the error variance expressed by the following equation: (Sum of squares of error) Q is calculated, and this is supplied to the determination unit 129 as error information.

Q=Σ(Yij−E[Yij])2
但し、上式において、Σは、学習用画像の画素すべてについてのサメーションを表す。
Q = Σ (Y ij −E [Y ij ]) 2
However, in the above equation, Σ represents summation for all the pixels of the learning image.

判定部129は、誤差算出部128から誤差情報を受信すると、その誤差情報と所定の閾値ε1とを比較し、ステップS80において、その大小関係を判定する。ステップS80において、誤差情報が閾値ε1以上であると判定された場合、即ち、ローカルデコード部127において得られる予測値で構成される画像が、元の学習用画像と同一であるとは認められない場合、判定部129は、マッピング係数設定回路130に制御信号を出力する。マッピング係数設定回路130は、ステップS81において、判定部129からの制御信号に従い、マッピング係数を変更し、その変更後のマッピング係数を、マッピング係数メモリ131に新たに記憶させる。   When receiving the error information from the error calculation unit 128, the determination unit 129 compares the error information with a predetermined threshold value ε1, and determines the magnitude relationship in step S80. If it is determined in step S80 that the error information is greater than or equal to the threshold ε1, that is, the image composed of the prediction values obtained in the local decoding unit 127 is not recognized as being the same as the original learning image. In this case, the determination unit 129 outputs a control signal to the mapping coefficient setting circuit 130. In step S <b> 81, the mapping coefficient setting circuit 130 changes the mapping coefficient in accordance with the control signal from the determination unit 129, and newly stores the changed mapping coefficient in the mapping coefficient memory 131.

そして、ステップS73に戻り、マッピング係数メモリ131に記憶された、変更後のマッピング係数を用いて、再び、ステップS73以下の処理が繰り返される。   Then, the process returns to step S73, and the processing after step S73 is repeated again using the changed mapping coefficient stored in the mapping coefficient memory 131.

ここで、マッピング係数設定回路130における、マッピング係数の変更は、ランダムに行っても良いし、また、今回の誤差情報が、前回の誤差情報より小さくなった場合には、前回と同様の傾向で変化させ、今回の誤差情報が、前回の誤差情報より大きくなった場合には、前回と逆の傾向で変化させるようにすることもできる。   Here, the mapping coefficient setting circuit 130 may change the mapping coefficient at random, and if the current error information becomes smaller than the previous error information, the same tendency as the previous time is observed. When the error information of this time becomes larger than the previous error information, it can be changed with a tendency reverse to that of the previous time.

さらに、マッピング係数の変更は、すべてのクラスについて行うようにすることもできるし、その一部のクラスについてだけ行うようにすることもできる。一部のクラスについてのマッピング係数だけの変更を行う場合においては、例えば、誤差情報に対する影響の強いクラスを検出させ、そのようなクラスについてのマッピング係数だけを変更するようにすることができる。誤差情報に対する影響の強いクラスは、例えば、次のようにして検出することができる。即ち、まず最初に、マッピング係数の初期値を用いて処理を行うことにより、その誤差情報を得る。そして、マッピング係数を、1クラスごとに同一の量だけ変化させ、その結果得られる誤差情報を、初期値を用いた場合に得られた誤差情報と比較し、その差が、所定値以上となるクラスを、誤差情報に対する影響の強いクラスとして検出すれば良い。   Further, the mapping coefficient can be changed for all classes or only for some of the classes. In the case of changing only the mapping coefficients for some classes, for example, a class having a strong influence on error information can be detected, and only the mapping coefficients for such classes can be changed. The class having a strong influence on the error information can be detected as follows, for example. That is, first, the error information is obtained by performing processing using the initial value of the mapping coefficient. Then, the mapping coefficient is changed by the same amount for each class, and the error information obtained as a result is compared with the error information obtained when the initial value is used, and the difference becomes a predetermined value or more. The class may be detected as a class having a strong influence on the error information.

また、マッピング係数が、上述したk1,k2,・・・のように複数で1セットとされている場合には、その中の誤差情報に対する影響の強いものだけを変更させるようにすることもできる。   In addition, when there are a plurality of mapping coefficients such as k1, k2,... Described above, only the one having a strong influence on the error information can be changed. .

さらに、上述の場合においては、マッピング係数を、クラスごとに設定するようにしたが、マッピング係数は、その他、例えば、ブロックごとに独立して設定したり、また、近接するブロック単位などで設定したりするようにすることが可能である。   Furthermore, in the above-described case, the mapping coefficient is set for each class. However, the mapping coefficient is set separately for each block, for example, or in units of adjacent blocks. It is possible to make it.

但し、マッピング係数を、例えば、ブロックごとに独立して設定するようにした場合などにおいては、ある1つのクラスに対して、複数セットのマッピング係数が得られることがある(この逆に、マッピング係数が、1セットも得られないクラスが生じることもある)。マッピング係数は、最終的には、クラスごとに決める必要があるため、上述のように、あるクラスに対して、複数セットのマッピング係数が得られた場合には、複数セットのマッピング係数を対象に、何らかの処理を行うことで、1セットのマッピング係数を決める必要がある。   However, when mapping coefficients are set independently for each block, for example, multiple sets of mapping coefficients may be obtained for a certain class (conversely, mapping coefficients). However, there may be classes that cannot be obtained in one set). Since the mapping coefficients need to be finally determined for each class, as described above, when multiple sets of mapping coefficients are obtained for a certain class, multiple sets of mapping coefficients are targeted. It is necessary to determine one set of mapping coefficients by performing some processing.

一方、ステップS80において、誤差情報が閾値ε1より小さいと判定された場合、即ち、ローカルデコード部127において得られる予測値で構成される画像が、元の学習用画像と同一であると認められる場合、処理を終了する。   On the other hand, when it is determined in step S80 that the error information is smaller than the threshold value ε1, that is, when the image composed of the prediction values obtained in the local decoding unit 127 is recognized to be the same as the original learning image. The process is terminated.

この時点で、マッピング係数メモリ131に記憶されている、クラスごとのマッピング係数が、もとの画像と同一と認められる復号画像(予測値)を復元することができる補正データを得るために最適なものとして、図21のマッピング係数メモリ114にセットされている。   At this time, it is optimal to obtain correction data that can restore a decoded image (predicted value) in which the mapping coefficient for each class stored in the mapping coefficient memory 131 is recognized to be the same as the original image. As a thing, it is set to the mapping coefficient memory 114 of FIG.

従って、このようなマッピング係数を用いて補正データを生成することで、受信装置4側においては、元の画像とほぼ同一の画像を得ることが可能となる。   Therefore, by generating correction data using such a mapping coefficient, on the receiving device 4 side, it is possible to obtain an image that is almost the same as the original image.

なお、図23の実施例においては、上述したように、ブロック化回路122において、画像が4画素にブロック化され、また、ADRC処理回路123において、1ビットのADRC処理が行われるので、クラス分類回路124によるクラス分類により得られるクラス数は4096であり、従って、4096セットのマッピング係数が得られる。   In the embodiment shown in FIG. 23, as described above, the block forming circuit 122 blocks the image into four pixels, and the ADRC processing circuit 123 performs 1-bit ADRC processing. The number of classes obtained by the class classification by the circuit 124 is 4096, and thus 4096 sets of mapping coefficients are obtained.

次に、図25は、図23のローカルデコード部127の構成例を示している。   Next, FIG. 25 illustrates a configuration example of the local decoding unit 127 of FIG.

演算回路126からの補正データは、クラス分類用ブロック化回路141および予測値計算用ブロック化回路142に供給されるようになされている。クラス分類用ブロック化回路141は、補正データを、その性質に応じて所定のクラスに分類するための単位であるクラス分類用ブロックにブロック化するようになされている。   The correction data from the arithmetic circuit 126 is supplied to the class classification blocking circuit 141 and the predicted value calculation blocking circuit 142. The class classification blocking circuit 141 is configured to block the correction data into class classification blocks, which are units for classifying the correction data into predetermined classes according to their properties.

なお、図25のクラス分類用ブロック化回路141において得られるクラス分類用ブロックは、予測値を求めるブロックのクラスを決定するために構成されるものであり、この点で、補正データを算出するブロックのクラスを決定するために、図21のブロック化回路111で生成されるものとは異なる。   Note that the class classification block obtained in the class classification blocking circuit 141 in FIG. 25 is configured to determine a class of a block for which a prediction value is obtained, and in this respect, a block for calculating correction data. Is different from that generated by the blocking circuit 111 of FIG.

予測値計算用ブロック化回路142は、補正データを、元の画像(ここでは、学習用画像)の予測値を計算するための単位である予測値計算用ブロックにブロック化するようになされている。   The predicted value calculation blocking circuit 142 blocks the correction data into predicted value calculation blocks which are units for calculating the predicted value of the original image (here, the learning image). .

予測値計算用ブロック化回路142において得られた予測値計算用ブロックは、予測回路146に供給されるようになされている。   The prediction value calculation block obtained in the prediction value calculation block forming circuit 142 is supplied to the prediction circuit 146.

なお、予測値計算用ブロックについても、クラス分類用ブロックにおける場合と同様に、その画素数および形状は、上述したものに限定されるものではない。但し、ローカルデコード部127において、予測値計算用ブロックを構成する画素数は、クラス分類用ブロックを構成する画素数よりも多くするのが望ましい。   Note that the number of pixels and the shape of the prediction value calculation block are not limited to those described above, as in the case of the class classification block. However, in the local decoding unit 127, it is desirable that the number of pixels constituting the prediction value calculation block is larger than the number of pixels constituting the class classification block.

また、上述のようなブロック化を行う場合において(ブロック化以外の処理についても同様)、画像の画枠付近では、対応する画素が存在しないことがあるが、この場合には、例えば、画枠を構成する画素と同一の画素が、その外側に存在するものとして処理を行う。   Further, when the above-described blocking is performed (the same applies to processes other than blocking), there may be no corresponding pixel near the image frame of the image. In this case, for example, the image frame The processing is performed on the assumption that the same pixel as that constituting the pixel exists outside.

ADRC処理回路143は、クラス分類用ブロック化回路141が出力するブロック(クラス分類用ブロック)を対象に、例えば、1ビットのADRC処理を施し、クラス分類回路144に供給するようになされている。クラス分類回路144は、ADRC処理回路143からのブロックをクラス分類し、その分類結果としてのクラス情報を、予測係数ROM145に供給するようになされている。予測係数ROM145は、予測係数を記憶しており、クラス分類回路144からクラス情報を受信すると、そのクラス情報に対応するアドレスに記憶されている予測係数を読み出し、予測回路146に供給するようになされている。なお、予測係数ROM145に記憶されている予測係数は、後述する学習(予測係数学習)により得られたものである。   The ADRC processing circuit 143 performs, for example, 1-bit ADRC processing on a block (class classification block) output from the class classification blocking circuit 141 and supplies the block to the class classification circuit 144. The class classification circuit 144 classifies the blocks from the ADRC processing circuit 143, and supplies class information as a classification result to the prediction coefficient ROM 145. The prediction coefficient ROM 145 stores a prediction coefficient. When class information is received from the class classification circuit 144, the prediction coefficient ROM 145 reads the prediction coefficient stored at an address corresponding to the class information and supplies the prediction coefficient to the prediction circuit 146. ing. Note that the prediction coefficients stored in the prediction coefficient ROM 145 are obtained by learning (prediction coefficient learning) described later.

予測回路146は、予測値計算用ブロック化回路142からの予測値計算用ブロックと、予測係数ROM145からの予測係数とを用いて、元の画像(学習用画像)の予測値を算出(予測)するようになされている。   The prediction circuit 146 calculates (predicts) a predicted value of the original image (learning image) using the predicted value calculation block from the predicted value calculation blocking circuit 142 and the prediction coefficient from the prediction coefficient ROM 145. It is made to do.

次に、図26のフローチャートを参照して、その動作について説明する。   Next, the operation will be described with reference to the flowchart of FIG.

ローカルデコード部127においては、まず最初に、ステップS91において、演算回路126からの補正データが順次受信されてブロック化される。即ち、クラス分類用ブロック化回路141において、補正データが、4画素(図2のX1乃至X4)のクラス分類用ブロックにブロック化され、ADRC処理回路143に供給されるとともに、予測値計算用ブロック化回路142において、補正データが4画素の予測値計算用ブロックにブロック化され、予測回路146に供給される。 In the local decoding unit 127, first, in step S91, the correction data from the arithmetic circuit 126 is sequentially received and blocked. That is, in the class classification blocking circuit 141, the correction data is blocked into four pixel classification blocks (X 1 to X 4 in FIG. 2) and supplied to the ADRC processing circuit 143, and a predicted value calculation is performed. In the block forming circuit 142, the correction data is divided into blocks for predicting value calculation of 4 pixels and supplied to the predicting circuit 146.

なお、クラス分類用ブロック化回路141と予測値計算用ブロック化回路142では、対応するクラス分類用ブロックと予測値計算用ブロックが生成される。   The class classification blocking circuit 141 and the prediction value calculation blocking circuit 142 generate corresponding class classification blocks and prediction value calculation blocks.

ADRC処理回路143は、クラス分類用ブロックを受信すると、ステップS92において、そのクラス分類用ブロックに対して、例えば、1ビットのADRC(1ビットで再量子化を行うADRC)処理を施し、これにより、補正データを、1ビットに変換(符号化)して、クラス分類回路144に出力する。クラス分類回路144は、ステップS93において、ADRC処理が施されたクラス分類用ブロックに対して、クラス分類処理を施し、そのクラス分類用ブロックが属するクラスを判定する。このクラスの判定結果は、クラス情報として、予測係数ROM145に供給される。   Upon receiving the class classification block, the ADRC processing circuit 143 performs, for example, 1-bit ADRC (ADRC that performs re-quantization with 1 bit) on the class classification block in step S92. The correction data is converted (encoded) into 1 bit and output to the class classification circuit 144. In step S93, the class classification circuit 144 performs class classification processing on the class classification block that has been subjected to ADRC processing, and determines the class to which the class classification block belongs. This class determination result is supplied to the prediction coefficient ROM 145 as class information.

なお、図25の実施例においては、R,G,Bの各成分がそれぞれ1ビットのADRC処理が施された4画素で構成されるクラス分類用ブロックに対して、クラス分類処理が施されるので、各クラス分類用ブロックは、4096(=212)のクラスのうちのいずれかに分類されることになる。 In the embodiment of FIG. 25, class classification processing is performed on a class classification block composed of four pixels in which R, G, and B components are each subjected to 1-bit ADRC processing. Therefore, each class classification block is classified into one of 4096 (= 2 12 ) classes.

そして、ステップS94に進み、予測係数ROM145の、クラス分類回路144からのクラス情報に対応するアドレスから予測係数が読み出され、ステップS95において、予測回路146は、その予測係数と、予測値計算用ブロック化回路142からの予測値計算用ブロックを構成する4個の画素値とを用い、例えば、次のような線形1次式に従って、元の画像の画素値yの予測値E[y]を算出する。   In step S94, the prediction coefficient is read from the address corresponding to the class information from the class classification circuit 144 in the prediction coefficient ROM 145. In step S95, the prediction circuit 146 calculates the prediction coefficient and the prediction value. Using the four pixel values constituting the prediction value calculation block from the blocking circuit 142, for example, according to the following linear linear expression, the prediction value E [y] of the pixel value y of the original image is obtained. calculate.

E[y]=w11+w22+・・・
但し、w1,w2,・・・は予測係数を表し、x1,x2,・・・は予測値計算用ブロックを構成する画素の画素値(補正データ)を表す。但し、x1,x2,・・・は、それぞれR,G,Bの成分を有し、w1,w2,・・・も、R,G,B用の係数で構成される。
E [y] = w 1 x 1 + w 2 x 2 +...
However, w 1, w 2, ··· represents a prediction coefficient, x 1, x 2, ··· represent the pixel values of the pixels constituting the predicted values calculation block (correction data). However, x 1, x 2, · · · includes R, G, and B components, respectively, w 1, w 2, · · · also, R, G, consists of coefficients for B.

ここで、図25の実施例においては、上述したように、予測値計算用ブロックを構成する4画素から、1画素の予測値が算出されるようになされている。   Here, in the embodiment of FIG. 25, as described above, the predicted value of one pixel is calculated from the four pixels constituting the predicted value calculation block.

即ち、例えば、いま、図2に示した補正データX1乃至X4でなるクラス分類用ブロックについてのクラス情報Cが、クラス分類回路144から出力され、また、予測値計算用ブロックとして、X1乃至X4でなる予測値計算用ブロックが、予測値計算用ブロック化回路142から出力されたものとする。 That is, for example, the class information C about the class classification block composed of the correction data X 1 to X 4 shown in FIG. 2 is output from the class classification circuit 144, and X 1 is used as a predicted value calculation block. It is assumed that a predicted value calculation block consisting of through X 4 is output from the predicted value calculation block forming circuit 142.

さらに、予測係数ROM145には、クラス情報Cに対応するアドレスに、予測係数のセットとして、w1(R)乃至w12(R)、w1(G)乃至w12(G)、w1(B)乃至w12(B)が記憶されているものとすると、これにより、上述した場合と同様に、例えば各画素の各成分YRi,YGi,YBiの予測値E[YRi],E[YGi],E[YBi]が算出される。 Further, in the prediction coefficient ROM 145, w 1 (R) to w 12 (R), w 1 (G) to w 12 (G), w 1 ( Assuming that B) to w 12 (B) are stored, for example, similarly to the case described above, for example, the predicted values E [Y Ri ], Y of each component Y Ri , Y Gi , Y Bi of each pixel, E [Y Gi ], E [Y Bi ] are calculated.

ステップS94において、以上のようにして予測値が求められると、ステップS91に戻り、以下、ステップS91乃至S94の処理が繰り返され、これにより、4画素単位で予測値が求められていく。   When the predicted value is obtained as described above in step S94, the process returns to step S91, and thereafter, the processing of steps S91 to S94 is repeated, whereby the predicted value is obtained in units of 4 pixels.

図25の予測係数ROM145に記憶されている予測係数を得るための学習(予測係数学習)を行う画像処理装置は、図20に示した場合と同様の構成となる。そこで、この説明は省略する。   The image processing apparatus that performs learning (prediction coefficient learning) for obtaining the prediction coefficient stored in the prediction coefficient ROM 145 of FIG. 25 has the same configuration as that shown in FIG. Therefore, this description is omitted.

次に、図27は、図21のマッピング係数メモリ114に記憶されているマッピング係数を算出するための学習(マッピング係数学習)処理を行う画像処理装置の他の構成例を示している。   Next, FIG. 27 shows another configuration example of the image processing apparatus that performs learning (mapping coefficient learning) processing for calculating the mapping coefficient stored in the mapping coefficient memory 114 of FIG.

なお、図23の画像処理装置によれば、関数fが、例えば、線形1次式で表される場合の他、非線形な式や、2次以上の式で表される場合も、最適な予測係数を求めることができるが、図27の画像処理装置では、関数fが、線形1次式で表される場合にのみ、最適な予測係数を求めることができるようになされている。   Note that, according to the image processing apparatus of FIG. 23, the optimal prediction is possible not only when the function f is expressed by, for example, a linear linear expression but also by a nonlinear expression or a quadratic expression or higher. Although the coefficient can be obtained, the image processing apparatus in FIG. 27 can obtain the optimum prediction coefficient only when the function f is expressed by a linear linear expression.

即ち、図27の画像処理装置は、図21において、ブロック化回路111が出力するブロックを構成する4画素(図2のX1,X2,X3,X4)の画素値をy1,y2,y3,y4(それぞれが、R,G,B成分を有する)とするとともに、マッピング係数メモリ114が出力するマッピング係数をk1,k2,k3,k4(それぞれが、R,G,B成分を有する)とする場合において、演算回路116が、次式に従って関数値f(y1,y2,・・・,k1,k2,・・・)を演算して補正データを求めるようになされているときに用いることができる。 That is, the image processing apparatus of FIG. 27, in FIG. 21, y 1 pixel values of four pixels constituting the block outputted from the blocking circuit 111 (X 1, X 2, X 3, X 4 in FIG. 2), y 2 , y 3 , y 4 (each having R, G, B components), and mapping coefficients output by the mapping coefficient memory 114 are k 1 , k 2 , k 3 , k 4 (respectively, R, G, B components), the arithmetic circuit 116 calculates the function value f (y 1 , y 2 ,..., K 1 , k 2 ,...) According to the following equation: It can be used when correction data is obtained.

f(・)=k11+k22+k33+k44 f (·) = k 1 y 1 + k 2 y 2 + k 3 y 3 + k 4 y 4

最適補正データ算出部170には、学習に適した学習用画像が、例えば、1フレーム単位などで供給されるようになされている。最適補正データ算出部170は、圧縮部171、補正部172、ローカルデコード部173、誤差算出部174、および判定部175で構成され、そこに入力される学習用画像から、その画素数を少なくして圧縮した画像であって、元の画像を予測するのに最適な画像を構成する画素値(以下、適宜、最適補正データという)を算出し、ラッチ回路176に供給するようになされている。   The optimum correction data calculation unit 170 is supplied with a learning image suitable for learning, for example, in units of one frame. The optimal correction data calculation unit 170 includes a compression unit 171, a correction unit 172, a local decoding unit 173, an error calculation unit 174, and a determination unit 175, and reduces the number of pixels from the learning image input thereto. A pixel value (hereinafter referred to as optimum correction data as appropriate) that constitutes an image that is compressed and is optimal for predicting the original image is calculated and supplied to the latch circuit 176.

即ち、最適補正データ算出部170に供給された学習用画像は、圧縮部171および誤差算出部174に供給されるようになされている。圧縮部171は、図21の演算回路116が画素を間引く割合と同一の割合で、学習用画像を単純に間引き、即ち、本実施例においては、学習用画像を1/2に単純に間引き、これにより学習用画像を圧縮して補正部172に供給するようになされている。   That is, the learning image supplied to the optimum correction data calculation unit 170 is supplied to the compression unit 171 and the error calculation unit 174. The compression unit 171 simply thins out the learning image at the same rate as the arithmetic circuit 116 of FIG. 21 thins out the pixels. In other words, the compression unit 171 simply thins out the learning image in half in this embodiment. Thereby, the learning image is compressed and supplied to the correction unit 172.

補正部172は、圧縮部171から供給される、単純な間引きが行われて圧縮されたデータ(以下、適宜、圧縮データという)を、判定部175からの制御に従って補正するようになされている。補正部172における補正の結果得られるデータ(このデータも、図21の演算回路116の出力と同様に、5画素のブロックの中心画素の画素値を補正したものであるので、以下、適宜、補正データという)は、ローカルデコード部173に供給するようになされている。   The correction unit 172 corrects data supplied from the compression unit 171 and compressed by simple thinning (hereinafter, referred to as compressed data as appropriate) according to control from the determination unit 175. Data obtained as a result of correction in the correction unit 172 (This data is also obtained by correcting the pixel value of the central pixel of the five-pixel block in the same manner as the output of the arithmetic circuit 116 in FIG. 21. Data) is supplied to the local decoding unit 173.

ローカルデコード部173は、図23のローカルデコード部127における場合と同様にして、補正部172からの補正データに基づいて、元の画像(学習用画像)を予測し、その予測値を、誤差算出部174に供給するようになされている。   The local decoding unit 173 predicts the original image (learning image) based on the correction data from the correction unit 172 in the same manner as the case of the local decoding unit 127 in FIG. The unit 174 is supplied.

誤差算出部174は、図23の誤差算出部128における場合と同様にして、そこに入力される、元の画像データに対する、ローカルデコード部173からの予測値の予測誤差を算出するようになされている。この予測誤差は、誤差情報として、判定部175に供給されるようになされている。   The error calculation unit 174 calculates the prediction error of the prediction value from the local decoding unit 173 for the original image data input thereto, in the same manner as in the error calculation unit 128 of FIG. Yes. This prediction error is supplied to the determination unit 175 as error information.

判定部175は、誤差算出部174からの誤差情報に基づいて、補正部172が出力した補正データを、元の画像の圧縮結果とすることの適正さを判定するようになされている。そして、判定部175は、補正部172が出力した補正データを、元の画像の圧縮結果とすることが適正でないと判定した場合には、補正部172を制御し、さらに、圧縮データを補正させ、その結果得られる新たな補正データを出力させるようになされている。また、判定部175は、補正部172が出力した補正データを、元の画像の圧縮結果とすることが適正であると判定した場合には、補正部172から供給された補正データを、最適補正データとして、ラッチ回路176に供給するようになされている。   Based on the error information from the error calculation unit 174, the determination unit 175 determines whether or not the correction data output from the correction unit 172 is the compression result of the original image. If the determination unit 175 determines that the correction data output from the correction unit 172 is not appropriate as the compression result of the original image, the determination unit 175 controls the correction unit 172 to further correct the compressed data. The new correction data obtained as a result is output. In addition, when the determination unit 175 determines that the correction data output from the correction unit 172 is appropriate as the compression result of the original image, the determination unit 175 uses the correction data supplied from the correction unit 172 as an optimal correction. The data is supplied to the latch circuit 176.

ラッチ回路176は、メモリ176Aを内蔵しており、そのメモリ176Aに、補正部172から供給される最適補正データを記憶させるようになされている。さらに、ラッチ回路176は、メモリ176Aに記憶された最適補正データのうち、ブロック化回路177のメモリ177Aから読み出されるブロックの中心画素に対応するものを読み出し、メモリ180に供給するようになされている。なお、ラッチ回路176は、メモリ176Aに、1フレーム分の補正データが記憶されると、その旨を示す制御信号を、ブロック化回路177に出力するようになされている。   The latch circuit 176 has a built-in memory 176A, and the optimum correction data supplied from the correction unit 172 is stored in the memory 176A. Further, the latch circuit 176 reads out the optimum correction data stored in the memory 176A corresponding to the central pixel of the block read from the memory 177A of the blocking circuit 177 and supplies it to the memory 180. . Note that when the correction data for one frame is stored in the memory 176A, the latch circuit 176 outputs a control signal indicating that to the blocking circuit 177.

ブロック化回路177には、最適補正データ算出部170と同様に、学習用画像が1フレーム単位で供給されるようになされている。ブロック化回路177は、メモリ177Aを内蔵しており、そのメモリ177Aに、そこに供給される学習用画像を記憶させるようになされている。また、ブロック化回路177は、ラッチ回路176から制御信号を受信すると、メモリ177Aに記憶された学習用画像を、図21のブロック化回路111における場合と同様に、5画素で構成されるブロックに分割し、そのブロックを順次読み出して、ADRC処理回路178およびメモリ180に供給するようになされている。   As with the optimum correction data calculation unit 170, the learning circuit 177 is supplied with learning images in units of one frame. The block forming circuit 177 has a built-in memory 177A, and the learning image supplied thereto is stored in the memory 177A. Further, when receiving the control signal from the latch circuit 176, the blocking circuit 177 converts the learning image stored in the memory 177A into a block composed of 5 pixels as in the blocking circuit 111 in FIG. The blocks are divided and the blocks are sequentially read out and supplied to the ADRC processing circuit 178 and the memory 180.

なお、ブロック化回路177は、その内蔵するメモリ177Aからブロックを読み出すときに、そのブロックの位置を示す制御信号を、ラッチ回路176に供給するようになされている。ラッチ回路176では、この制御信号に基づいて、メモリ177Aから読み出される5画素のブロックが認識され、上述したように、そのブロックの中心画素に対応する最適補正データが、メモリ176Aから読み出されるようになされている。即ち、これにより、メモリ180に対しては、ある5画素のブロックと、そのブロックに対応する最適補正データとが同時に供給されるようになされている。   The blocking circuit 177 supplies a control signal indicating the position of the block to the latch circuit 176 when reading the block from the built-in memory 177A. Based on this control signal, the latch circuit 176 recognizes the 5-pixel block read from the memory 177A, and as described above, the optimum correction data corresponding to the central pixel of the block is read from the memory 176A. Has been made. That is, as a result, a block of 5 pixels and optimum correction data corresponding to the block are simultaneously supplied to the memory 180.

ADRC処理回路178またはクラス分類回路179は、図21のADRC処理回路112またはクラス分類回路113とそれぞれ同様に構成されている。そして、クラス分類回路179が出力する、ブロック化回路177からのブロックについてのクラス情報は、メモリ180に対して、アドレスとして供給されるようになされている。   The ADRC processing circuit 178 or the class classification circuit 179 is configured similarly to the ADRC processing circuit 112 or the class classification circuit 113 of FIG. The class information about the block from the blocking circuit 177 output from the class classification circuit 179 is supplied to the memory 180 as an address.

メモリ180は、クラス分類回路179から供給されるクラス情報に対応するアドレスに、ラッチ回路176から供給される最適補正データと、ブロック化回路177から供給されるブロックとを対応付けて記憶するようになされている。なお、メモリ180は、1つのアドレスに複数の情報を記憶することができるようになされており、これにより、あるクラス情報に対応する最適補正データおよびブロックを、複数セット記憶することができるようになされている。   The memory 180 stores the optimum correction data supplied from the latch circuit 176 and the block supplied from the blocking circuit 177 in association with the address corresponding to the class information supplied from the class classification circuit 179. Has been made. Note that the memory 180 can store a plurality of pieces of information at one address, so that a plurality of sets of optimum correction data and blocks corresponding to certain class information can be stored. Has been made.

演算回路181は、メモリ180に記憶された、学習用画像の5画素のブロックを構成する5画素y1,y2,y3,y4,y5と、そのブロックに対応付けられている最適補正データy’とを読み出し、これらに最小自乗法を適用することで、クラスごとに、マッピング係数k1乃至k5を求め、メモリ182に供給するようになされている。メモリ182は、演算回路181から供給されるクラスごとのマッピング係数k1乃至k5を、そのクラスに対応したアドレスに記憶するようになされている。 The arithmetic circuit 181 stores the five pixels y 1 , y 2 , y 3 , y 4 , and y 5 that constitute a 5-pixel block of the learning image stored in the memory 180, and the optimum associated with the block. By reading the correction data y ′ and applying the least square method thereto, the mapping coefficients k 1 to k 5 are obtained for each class and supplied to the memory 182. The memory 182 stores the mapping coefficients k 1 to k 5 for each class supplied from the arithmetic circuit 181 at addresses corresponding to the classes.

次に、図28のフローチャートを参照して、その動作について説明する。   Next, the operation will be described with reference to the flowchart of FIG.

学習用画像が入力されると、その学習用画像は、ブロック化回路177のメモリ177Aに記憶されるとともに、最適補正データ算出部170に供給される。最適補正データ算出部170は、学習用画像を受信すると、ステップS101において、その学習用画像についての最適補正データを算出する。   When the learning image is input, the learning image is stored in the memory 177 A of the blocking circuit 177 and supplied to the optimum correction data calculation unit 170. When receiving the learning image, the optimum correction data calculating unit 170 calculates optimum correction data for the learning image in step S101.

このステップS101の処理は、図7のフローチャートの処理と同様である。すなわち、まず、圧縮部171が、ステップS1において、学習用画像を、1/2に間引くことにより圧縮データを生成し、補正部172を介して、即ち、最初は、補正を行わずに、ローカルデコード部173に出力する。ローカルデコード部173では、ステップS2において、補正部172からの補正データ(最初は、上述したように、画像データを、単純に間引いた圧縮データそのもの)に基づいて、元の画像の予測値が算出される(ローカルデコードが行われる)。この予測値は、誤差算出部174に供給される。   The processing in step S101 is the same as the processing in the flowchart in FIG. That is, first, in step S1, the compression unit 171 generates compressed data by thinning out the learning image by ½, and the correction unit 172 first performs local correction without performing correction. The data is output to the decoding unit 173. In step S2, the local decoding unit 173 calculates the predicted value of the original image based on the correction data from the correction unit 172 (initially, compressed data obtained by simply thinning out image data as described above). (Local decoding is performed). The predicted value is supplied to the error calculation unit 174.

誤差算出部174は、ローカルデコード部173から、元の画像の予測値を受信すると、ステップS3において、元の画像データに対する、ローカルデコード部173からの予測値の予測誤差を算出し、誤差情報として、判定部175に供給する。判定部175は、誤差算出部174から誤差情報を受信すると、ステップS4において、その誤差情報に基づいて、補正部172が出力した補正データを、元の画像の圧縮結果とすることの適正さを判定する。   When the error calculation unit 174 receives the predicted value of the original image from the local decoding unit 173, in step S3, the error calculation unit 174 calculates a prediction error of the predicted value from the local decoding unit 173 with respect to the original image data as error information. , And supplied to the determination unit 175. When the determination unit 175 receives the error information from the error calculation unit 174, in step S4, the determination unit 175 determines whether the correction data output from the correction unit 172 is the compression result of the original image based on the error information. judge.

即ち、ステップS4においては、誤差情報が所定の閾値ε以下であるかどうかが判定される。ステップS4において、誤差情報が所定の閾値ε以下でないと判定された場合、補正部172が出力した補正データを、元の画像の圧縮結果とするのは適正でないと認識され、ステップS5に進み、判定部175は、補正部172を制御し、これにより、圧縮部171から出力された圧縮データを補正させる。補正部172は、判定部175の制御に従って、補正量(補正値△)を変えて、圧縮データを補正し、その結果得られる補正データを、ローカルデコード部173に出力する。そして、ステップS2に戻り、以下、同様の処理が繰り返される。   That is, in step S4, it is determined whether the error information is equal to or less than a predetermined threshold value ε. If it is determined in step S4 that the error information is not equal to or less than the predetermined threshold ε, it is recognized that the correction data output from the correction unit 172 is not appropriate to be the compression result of the original image, and the process proceeds to step S5. The determination unit 175 controls the correction unit 172, thereby correcting the compressed data output from the compression unit 171. The correction unit 172 changes the correction amount (correction value Δ) according to the control of the determination unit 175, corrects the compressed data, and outputs the correction data obtained as a result to the local decoding unit 173. And it returns to step S2 and the same process is repeated hereafter.

なお、圧縮データの補正は、例えば、上述の図23で説明した、マッピング係数の変更と同様にして行うことが可能である。   The correction of the compressed data can be performed, for example, in the same manner as the mapping coefficient change described with reference to FIG.

一方、ステップS4において、誤差情報が所定の閾値ε以下であると判定された場合、補正部172が出力した補正データを、元の画像の圧縮結果とするのは適正であると認識され、判定部175は、所定の閾値ε以下の誤差情報が得られたときの補正データを、最適補正データとして、補正部172からラッチ回路176に出力させ、その内蔵するメモリ176Aに記憶させて、リターンする。   On the other hand, if it is determined in step S4 that the error information is equal to or smaller than the predetermined threshold ε, it is recognized that it is appropriate to use the correction data output from the correction unit 172 as the compression result of the original image. The unit 175 outputs correction data when error information equal to or less than a predetermined threshold ε is obtained as optimum correction data from the correction unit 172 to the latch circuit 176, stores it in the built-in memory 176A, and returns. .

以上のようにして、誤差情報が所定の閾値ε以下となったときにおける、圧縮データを補正した補正データが、最適補正データとして、メモリ176Aに記憶させる。なお、この最適補正データは、誤差情報を所定の閾値ε以下とするものであるから、これを用いて、予測値を算出することにより、元の画像(原画像)とほぼ同一の画像を得ることができる。   As described above, the correction data obtained by correcting the compressed data when the error information is equal to or smaller than the predetermined threshold ε is stored in the memory 176A as the optimum correction data. Since this optimum correction data has error information that is equal to or less than a predetermined threshold value ε, by using this to calculate a predicted value, an image that is substantially the same as the original image (original image) is obtained. be able to.

図28に戻り、ラッチ回路176は、そのメモリ176Aに、1フレーム分の最適補正データを記憶すると、制御信号を、ブロック化回路177に出力する。ブロック化回路177は、ラッチ回路176から制御信号を受信すると、ステップS102において、メモリ177Aに記憶された学習用画像を、5画素で構成されるブロックに分割する。そして、ブロック化回路177は、メモリ177Aに記憶された学習用画像のブロックを読み出して、ADRC処理回路178およびメモリ180に供給する。   Returning to FIG. 28, the latch circuit 176 outputs a control signal to the blocking circuit 177 after storing the optimum correction data for one frame in the memory 176A. When receiving the control signal from the latch circuit 176, the blocking circuit 177 divides the learning image stored in the memory 177A into blocks each composed of five pixels in step S102. Then, the blocking circuit 177 reads out the learning image block stored in the memory 177 A and supplies it to the ADRC processing circuit 178 and the memory 180.

また、同時に、ブロック化回路177は、メモリ177Aからブロックを読み出すときに、そのブロックの位置を示す制御信号を、ラッチ回路176に供給し、ラッチ回路176は、その制御信号に対応して、メモリ177Aから読み出された5画素のブロックを認識し、そのブロックの中心画素に対応する最適補正データを読み出して、メモリ180に供給する。   At the same time, when the block forming circuit 177 reads the block from the memory 177A, the block forming circuit 177 supplies a control signal indicating the position of the block to the latch circuit 176, and the latch circuit 176 The 5-pixel block read from 177A is recognized, and optimum correction data corresponding to the central pixel of the block is read and supplied to the memory 180.

そして、ステップS103に進み、ADRC処理回路178において、ブロック化回路177からのブロックがADRC処理され、さらに、クラス分類回路179において、そのブロックがクラス分類される。このクラス分類結果は、アドレスとして、メモリ180に供給される。   In step S103, the ADRC processing circuit 178 performs ADRC processing on the block from the blocking circuit 177, and the class classification circuit 179 classifies the block. The classification result is supplied to the memory 180 as an address.

メモリ180では、ステップS104において、クラス分類回路179から供給されるクラス情報に対応するアドレスに、ラッチ回路176から供給される最適補正データと、ブロック化回路177から供給されるブロック(学習データ)とが対応付けられて記憶される。   In the memory 180, the optimum correction data supplied from the latch circuit 176 and the block (learning data) supplied from the blocking circuit 177 at the address corresponding to the class information supplied from the class classification circuit 179 in step S104. Are stored in association with each other.

そして、ステップS105に進み、メモリ180に、1フレーム分のブロックおよび最適補正データが記憶されたかどうかが判定される。ステップS105において、メモリ180に、1フレーム分のブロックおよび最適補正データが、まだ記憶されていないと判定された場合、ブロック化回路177から次のブロックが読み出されるとともに、ラッチ回路176からそのブロックに対応する最適補正データが読み出され、ステップS103に戻り、以下、ステップS103以降の処理を繰り返す。   Then, the process proceeds to step S105, where it is determined whether or not the block and the optimum correction data for one frame are stored in the memory 180. In step S105, when it is determined that the block and the optimum correction data for one frame are not yet stored in the memory 180, the next block is read from the blocking circuit 177 and the block is read from the latch circuit 176. The corresponding optimum correction data is read out, and the process returns to step S103, and thereafter, the processes after step S103 are repeated.

また、ステップS105において、メモリ180に、1フレーム分のブロックおよび最適補正データが記憶されたと判定された場合、ステップS106に進み、学習用画像すべてについて処理が終了したかどうかが判定される。ステップS106において、学習用画像すべてについての処理が、まだ終了していないと判定された場合、ステップS101に戻り、次の学習用画像について、ステップS101からの処理が繰り返される。   If it is determined in step S105 that the block and the optimal correction data for one frame have been stored in the memory 180, the process proceeds to step S106, and it is determined whether or not the processing has been completed for all the learning images. If it is determined in step S106 that the processing for all the learning images has not been completed yet, the process returns to step S101, and the processing from step S101 is repeated for the next learning image.

一方、ステップS106において、学習用画像すべてについての処理が終了したと判定された場合、ステップS107に進み、演算回路181は、メモリ180に記憶された最適補正データとブロックとを、クラスごとに読み出し、これらにより、式(7)に示したような正規方程式をたてる。さらに、演算回路181は、ステップS108において、その正規方程式を解くことで、誤差を最小にする、クラスごとのマッピング係数を算出する。このマッピング係数は、ステップS109において、メモリ12に供給されて記憶され、処理を終了する。   On the other hand, if it is determined in step S106 that the processing for all the learning images has been completed, the process proceeds to step S107, and the arithmetic circuit 181 reads out the optimum correction data and blocks stored in the memory 180 for each class. Thus, a normal equation as shown in Equation (7) is established. Further, in step S108, the arithmetic circuit 181 calculates a mapping coefficient for each class that minimizes the error by solving the normal equation. This mapping coefficient is supplied to and stored in the memory 12 in step S109, and the process ends.

関数fが、線形1次式で表される場合においては、以上のようにしてメモリ182に記憶されたマッピング係数を、図21のマッピング係数メモリ114に記憶させ、これを用いて画像の符号化を行うことができる。   When the function f is expressed by a linear linear expression, the mapping coefficient stored in the memory 182 as described above is stored in the mapping coefficient memory 114 in FIG. 21 and is used to encode an image. It can be performed.

なお、クラスによっては、マッピング係数を求めることができるだけの数の正規方程式が得られない場合がある。このような場合は、図21の演算回路116において、ブロック化回路111から出力されるブロックを構成する5画素の、例えば平均値などが出力されるようなマッピング係数、即ち、k1乃至k5=1/5などが、デフォルトの値として設定される。 Note that, depending on the class, there may be cases where the number of normal equations that can determine the mapping coefficient cannot be obtained. In such a case, in the arithmetic circuit 116 in FIG. 21, a mapping coefficient that outputs, for example, an average value of the five pixels constituting the block output from the blocking circuit 111, that is, k 1 to k 5 is output. = 1/5 is set as a default value.

次に、図29は、図21の送信装置に対応する受信装置4の構成例を示している。   Next, FIG. 29 illustrates a configuration example of the reception device 4 corresponding to the transmission device of FIG.

受信機/再生装置191においては、記録媒体2に記録された符号化データが再生され、または伝送路3を介して伝送されてくる符号化データが受信され、デコード部192に供給される。   In the receiver / reproduction device 191, the encoded data recorded on the recording medium 2 is reproduced, or the encoded data transmitted via the transmission path 3 is received and supplied to the decoding unit 192.

デコード部192は、図25に示したローカルデコード部127におけるクラス分類用ブロック化回路141乃至予測回路146にそれぞれ対応するクラス分類用ブロック化回路193乃至予測回路198で構成されており、従って、デコード部192では、図25のローカルデコード部127における場合と同様にして、補正データから予測値が求められ、この予測値で構成される画像が復号画像として出力される。   The decoding unit 192 includes class classification blocking circuits 193 to 198 corresponding to the class classification blocking circuit 141 to the prediction circuit 146 in the local decoding unit 127 shown in FIG. In the unit 192, a prediction value is obtained from the correction data in the same manner as in the local decoding unit 127 in FIG.

補正データは、誤差情報を所定の閾値以下とするものであり、従って、受信装置4においては、元の画像とほぼ同一の画像を得ることができる。   The correction data has error information that is equal to or less than a predetermined threshold value. Therefore, the receiving apparatus 4 can obtain an image that is almost the same as the original image.

なお、受信側においては、図29に示すような受信装置4でなくても、間引きされた画像を補間により復号する装置により、通常の補間を行うことで復号画像を得ることができる。但し、この場合に得られる復号画像は、画質(解像度)の劣化したものとなる。   On the receiving side, even if the receiving device 4 is not as shown in FIG. 29, a decoded image can be obtained by performing normal interpolation with a device that decodes the thinned image by interpolation. However, the decoded image obtained in this case has deteriorated image quality (resolution).

以上においては、R,G,Bのコンポーネント成分を用いて画素データを表現するようにしたが、コンポーネント信号としては、この他、それぞれ次の式で表される輝度信号Y、色信号I、および色信号Qの組み合わせ、輝度信号Y、色差信号R−Y、および色差信号B−Yの組み合わせ、または、主に印刷の分野において用いられているC(シアン)、M(マゼンダ)、Y(イエロー)、さらに必要に応じて加えられるK(ブラック)の組み合わせを用いることができる。   In the above, pixel data is expressed using R, G, and B component components. However, as component signals, a luminance signal Y, a color signal I, and Combination of color signal Q, luminance signal Y, color difference signal RY, and color difference signal BY, or C (cyan), M (magenta), Y (yellow) mainly used in the field of printing ), And a combination of K (black) added as necessary.

I=0.60R−0.28G−0.32B
Q=0.21R−0.52G+0.31B

R−Y= 0.7R−0.59G−0.11B
B−Y=−0.3R−0.59G+0.89B

C=255−R
M=255−G
Y=255−B
但し、C,M,Rは、R,G,Bをそれぞれ8ビットとする加法混色で表現されている。
I = 0.60R-0.28G-0.32B
Q = 0.21R-0.52G + 0.31B

RY = 0.7R-0.59G-0.11B
BY = -0.3R-0.59G + 0.89B

C = 255-R
M = 255-G
Y = 255-B
However, C, M, and R are expressed by an additive color mixture with R, G, and B being 8 bits each.

本発明の画像処理装置を応用したシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the system which applied the image processing apparatus of this invention. 図1のサブサンプリング回路の動作を説明する図である。It is a figure explaining operation | movement of the subsampling circuit of FIG. 図1の実施例における画素データを説明する図である。It is a figure explaining the pixel data in the Example of FIG. 図1のROM218の記憶内容を生成する装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the apparatus which produces | generates the memory content of ROM218 of FIG. 図1の送信装置1の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the transmitter 1 of FIG. 図5の送信装置1の機能的構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a functional configuration example of the transmission device 1 of FIG. 5. 図6の送信装置1の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the transmitter 1 of FIG. 図6の圧縮部21の構成例を示すブロック図である。It is a block diagram which shows the structural example of the compression part 21 of FIG. 図8の圧縮部21の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the compression part 21 of FIG. 図6のローカルデコード部22の構成例を示すブロック図である。It is a block diagram which shows the structural example of the local decoding part 22 of FIG. クラス分類処理を説明するための図である。It is a figure for demonstrating a classification process. ADRC処理を説明するための図である。It is a figure for demonstrating an ADRC process. 図10のローカルデコード部22の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the local decoding part 22 of FIG. 図6の誤差算出部23の構成例を示すブロック図である。It is a block diagram which shows the structural example of the error calculation part 23 of FIG. 図14の誤差算出部23の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the error calculation part 23 of FIG. 図6の判定部24の構成例を示すブロック図である。It is a block diagram which shows the structural example of the determination part 24 of FIG. 図16の判定部24の動作を説明するためのフローチャートである。17 is a flowchart for explaining the operation of the determination unit 24 in FIG. 16. 図1の受信装置4のさらに他の構成例を示すブロック図である。It is a block diagram which shows the further another structural example of the receiver 4 of FIG. 図6のローカルデコード部22の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the local decoding part 22 of FIG. 図19の予測係数ROM81に記憶されている予測係数を算出する画像処理装置の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of the image processing apparatus which calculates the prediction coefficient memorize | stored in the prediction coefficient ROM81 of FIG. 図1の送信装置1の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the transmitter 1 of FIG. 図21の送信装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the transmission apparatus of FIG. マッピング係数を得るための学習を行う画像処理装置の第1実施例の構成を示すブロック図である。It is a block diagram which shows the structure of 1st Example of the image processing apparatus which performs learning for obtaining a mapping coefficient. 図23の画像処理装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the image processing apparatus of FIG. 図23のローカルデコード部127の構成例を示すブロック図である。FIG. 24 is a block diagram illustrating a configuration example of a local decoding unit 127 in FIG. 23. 図25のローカルデコード部127の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process of the local decoding part 127 of FIG. マッピング係数を得るための学習を行う画像処理装置の第2実施例の構成を示すブロック図である。It is a block diagram which shows the structure of 2nd Example of the image processing apparatus which performs learning for obtaining a mapping coefficient. 図27の画像処理装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the image processing apparatus of FIG. 図1の受信装置4の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the receiver 4 of FIG.

符号の説明Explanation of symbols

1 送信装置, 2 記録媒体, 3 伝送路, 4 受信装置, 11 I/F, 12 ROM, 13 RAM, 14 CPU, 15 外部記憶装置, 16 送信機/記録装置, 21 圧縮部, 22 ローカルデコード部, 23 誤差算出部, 24 判定部, 25 多重化部, 31 間引き回路, 32 補正回路, 33 補正値ROM, 41 クラス分類用ブロック化回路, 42 予測値計算用ブロック化回路, 43 クラス分類適応処理回路, 44 ADRC処理回路, 45 クラス分類回路, 46 適応処理回路, 51 ブロック化回路, 52 自乗誤差算出回路, 53,54 演算器, 55 積算部, 56 メモリ, 61 予測係数メモリ, 62 補正データメモリ, 63 誤差情報メモリ, 64 比較回路, 65 制御回路, 71 受信機/再生装置, 72 分離部, 73 クラス分類用ブロック化回路, 74 ADRC処理回路, 75 クラス分類回路, 76 予測回路, 77 予測値計算用ブロック化回路, 81 予測係数ROM, 82 予測回路, 91 学習用ブロック化回路, 92 教師用ブロック化回路, 93 ADRC処理回路, 94 クラス分類回路, 95 スイッチ, 96 学習データメモリ, 97 カウンタ, 98 教師データメモリ, 99 演算回路, 100 メモリ   DESCRIPTION OF SYMBOLS 1 Transmitter, 2 Recording medium, 3 Transmission path, 4 Receiver, 11 I / F, 12 ROM, 13 RAM, 14 CPU, 15 External storage device, 16 Transmitter / recorder, 21 Compression part, 22 Local decoding part , 23 Error calculation unit, 24 determination unit, 25 multiplexing unit, 31 decimation circuit, 32 correction circuit, 33 correction value ROM, 41 class classification blocking circuit, 42 prediction value calculation blocking circuit, 43 class classification adaptive processing Circuit, 44 ADRC processing circuit, 45 class classification circuit, 46 adaptive processing circuit, 51 blocking circuit, 52 square error calculation circuit, 53, 54 computing unit, 55 accumulator, 56 memory, 61 prediction coefficient memory, 62 correction data memory , 63 error information memory, 64 comparison circuit, 65 Control circuit, 71 receiver / reproducing device, 72 separation unit, 73 class classification blocking circuit, 74 ADRC processing circuit, 75 class classification circuit, 76 prediction circuit, 77 prediction value calculation blocking circuit, 81 prediction coefficient ROM, 82 prediction circuit, 91 learning block circuit, 92 teacher block circuit, 93 ADRC processing circuit, 94 class classification circuit, 95 switch, 96 learning data memory, 97 counter, 98 teacher data memory, 99 arithmetic circuit, 100 memory

Claims (3)

画素データを表現するために組み合わされる複数のコンポーネント信号により構成されている画素データからなる空間解像度の低い第1の画像から、空間解像度のより高い第2の画像を生成する画像処理装置であって、前記第1の画像の第1の画素データを取得する取得手段と、前記第1の画素データを構成する前記コンポーネント信号のうちの、前記第2の画像の第2の画素データの近傍に位置する前記第1の画像の複数の前記第1の画素データそれぞれを構成する複数種類の前記コンポーネント信号と、予め学習によって得られた予測係数との線形結合により、前記第2の画像の第2の画素データを構成するコンポーネント信号を予測する予測手段とを備えることを特徴とする画像処理装置で用いられる前記予測係数を決定するための学習をする学習装置において、
前記第2の画素データを構成する前記コンポーネント信号と、その第2の画素データの近傍に位置する複数の前記第1の画素データそれぞれを構成する複数種類の前記コンポーネント信号および予測係数を用いて予測された前記第2の画素データを構成する前記コンポーネント信号の予測値との誤差を最小にする前記予測係数を求めるための演算を行う演算手段
を備えることを特徴とする学習装置。
An image processing apparatus for generating a second image having a higher spatial resolution from a first image having a lower spatial resolution composed of pixel data composed of a plurality of component signals combined to represent pixel data. The acquisition means for acquiring the first pixel data of the first image and the component signal constituting the first pixel data are located in the vicinity of the second pixel data of the second image. A second combination of the second image is obtained by linear combination of a plurality of types of the component signals constituting each of the plurality of first pixel data of the first image and a prediction coefficient obtained by learning in advance. And a prediction means for predicting a component signal constituting the pixel data. In the learning device for the,
Prediction using the component signal constituting the second pixel data and a plurality of types of component signals and prediction coefficients constituting each of the plurality of first pixel data located in the vicinity of the second pixel data A learning apparatus comprising: a calculation unit that performs a calculation for obtaining the prediction coefficient that minimizes an error from a predicted value of the component signal that constitutes the second pixel data.
前記第1の画素データをクラスに分類するクラス分類手段をさらに備え、
前記演算手段は、前記クラスごとの前記第1の画素データを用いて前記演算を行う
ことを特徴とする請求項1に記載の学習装置。
Class classification means for classifying the first pixel data into classes;
The learning apparatus according to claim 1, wherein the calculation unit performs the calculation using the first pixel data for each class.
画素データを表現するために組み合わされる複数のコンポーネント信号により構成されている画素データからなる空間解像度の低い第1の画像から、空間解像度のより高い第2の画像を生成する画像処理装置であって、前記第1の画像の第1の画素データを取得する取得手段と、前記第1の画素データを構成する前記コンポーネント信号のうちの、前記第2の画像の第2の画素データの近傍に位置する前記第1の画像の複数の前記第1の画素データそれぞれを構成する複数種類の前記コンポーネント信号と、予め学習によって得られた予測係数との線形結合により、前記第2の画像の第2の画素データを構成するコンポーネント信号を予測する予測手段とを備えることを特徴とする画像処理装置で用いられる前記予測係数を決定するための学習をする学習方法において、
前記第2の画素データを構成する前記コンポーネント信号と、その第2の画素データの近傍に位置する複数の前記第1の画素データそれぞれを構成する複数種類の前記コンポーネント信号および予測係数を用いて予測された前記第2の画素データを構成する前記コンポーネント信号の予測値との誤差を最小にする前記予測係数を求めるための演算を行う演算ステップ
を備えることを特徴とする学習方法
An image processing apparatus for generating a second image having a higher spatial resolution from a first image having a lower spatial resolution composed of pixel data composed of a plurality of component signals combined to represent pixel data. The acquisition means for acquiring the first pixel data of the first image and the component signal constituting the first pixel data are located in the vicinity of the second pixel data of the second image. A second combination of the second image is obtained by linear combination of a plurality of types of the component signals constituting each of the plurality of first pixel data of the first image and a prediction coefficient obtained by learning in advance. And a prediction means for predicting a component signal constituting the pixel data. In learning how to,
Prediction using the component signal constituting the second pixel data and a plurality of types of component signals and prediction coefficients constituting each of the plurality of first pixel data located in the vicinity of the second pixel data A learning method comprising: an operation step of performing an operation for obtaining the prediction coefficient that minimizes an error from a predicted value of the component signal constituting the second pixel data .
JP2007322804A 2007-12-14 2007-12-14 Learning apparatus and method Expired - Fee Related JP4807349B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007322804A JP4807349B2 (en) 2007-12-14 2007-12-14 Learning apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007322804A JP4807349B2 (en) 2007-12-14 2007-12-14 Learning apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005302050A Division JP4566877B2 (en) 2005-10-17 2005-10-17 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2008136221A JP2008136221A (en) 2008-06-12
JP4807349B2 true JP4807349B2 (en) 2011-11-02

Family

ID=39560684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007322804A Expired - Fee Related JP4807349B2 (en) 2007-12-14 2007-12-14 Learning apparatus and method

Country Status (1)

Country Link
JP (1) JP4807349B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61205093A (en) * 1985-03-08 1986-09-11 Mitsubishi Electric Corp Device for high efficiency coding of color image
JPH01288087A (en) * 1988-05-13 1989-11-20 Mitsubishi Electric Corp Limited color picture processor
US5748235A (en) * 1994-08-31 1998-05-05 Sony Corporation Imaging apparatus including means for converting red, green, and blue signal components of standard resolution to respective high resolution signal components
JPH08130744A (en) * 1994-11-02 1996-05-21 Sony Corp Television receiver

Also Published As

Publication number Publication date
JP2008136221A (en) 2008-06-12

Similar Documents

Publication Publication Date Title
JP3748088B2 (en) Image processing apparatus and method, and learning apparatus and method
KR100538731B1 (en) Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks
KR102477784B1 (en) Image processing device and image processing method
KR100537123B1 (en) Picture signal coding device, picture signal coding method, picture signal decoding device, picture signal decoding method, and recording medium
EP0820198B1 (en) Apparatus and method for image coding and decoding
WO1998030028A1 (en) Picture coding device, picture coding method, picture decoding device, picture decoding method, and recording medium
JP3946781B2 (en) Image information conversion apparatus and method
JP4807349B2 (en) Learning apparatus and method
JP3747970B2 (en) Image encoding device, image encoding method, image decoding device, and image decoding method
JP4566877B2 (en) Image processing apparatus and method
JP3844031B2 (en) Image coding apparatus and image coding method, and image decoding apparatus and image decoding method
JP3844030B2 (en) Image signal encoding apparatus, image signal encoding method, image signal decoding apparatus, and image signal decoding method
JP4534951B2 (en) Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium
JP3912558B2 (en) Image encoding apparatus, image encoding method, and recording medium
JP4582416B2 (en) Image coding apparatus and image coding method
JP3867697B2 (en) Image signal generation apparatus and generation method
JP3906770B2 (en) Digital image signal processing apparatus and method
JP3912629B2 (en) Image processing system, image encoding device, image encoding method, transmission method, and recording medium
JP3952326B2 (en) Image coding apparatus, image coding method, image processing system, image processing method, transmission method, and recording medium
JP3906832B2 (en) Image signal processing apparatus and processing method
JP3963184B2 (en) Signal processing apparatus and signal processing method
JP4001143B2 (en) Coefficient generation apparatus and method
JP4487900B2 (en) Image processing system
EP1298934A1 (en) Apparatus and method for image coding and decoding
JP2002199393A (en) Digital picture signal processor and its method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080321

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110719

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140826

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees