JP2000316085A - Image converter, image converting method, learning unit and method and recording medium - Google Patents

Image converter, image converting method, learning unit and method and recording medium

Info

Publication number
JP2000316085A
JP2000316085A JP28447599A JP28447599A JP2000316085A JP 2000316085 A JP2000316085 A JP 2000316085A JP 28447599 A JP28447599 A JP 28447599A JP 28447599 A JP28447599 A JP 28447599A JP 2000316085 A JP2000316085 A JP 2000316085A
Authority
JP
Japan
Prior art keywords
image data
pixel
prediction coefficient
pixel value
intermediate image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP28447599A
Other languages
Japanese (ja)
Other versions
JP4089104B2 (en
JP2000316085A5 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Naoki Kobayashi
小林  直樹
Kenji Takahashi
健治 高橋
Yoshinori Watanabe
義教 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP28447599A priority Critical patent/JP4089104B2/en
Publication of JP2000316085A publication Critical patent/JP2000316085A/en
Publication of JP2000316085A5 publication Critical patent/JP2000316085A5/ja
Application granted granted Critical
Publication of JP4089104B2 publication Critical patent/JP4089104B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

PROBLEM TO BE SOLVED: To simultaneously optimize pixel values of a plurality of pixels in order to generate a low-order image from a high-order image obtained by compression. SOLUTION: An image reduction circuit 1 reduces a received original image. A high-order image memory 2 stores a received high-order image. A prediction tap acquisition circuit 3 extracts a prediction tap from the high-order image stored in the high-order image memory 2 and outputs it to a prediction coefficient arithmetic circuit 4, a pixel value update circuit 5, and a mapping circuit 6. The prediction coefficient arithmetic circuit 4 generates an observation equation by using the prediction tap for pupil data and using pixels of a corresponding original image for teacher data and generates a prediction coefficient by solving the observation equation. The pixel value update circuit 5 generates an observation equation by using the prediction coefficient from the prediction coefficient arithmetic circuit 4 for pupil data and using the corresponding original image data for teacher data. Optimum values of a plurality of update pixel values with respect to the given coefficient can simultaneously be obtained by solving the observation equation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像変換装置お
よび方法、学習装置および方法、並びに記録媒体に関
し、特に、原画像とほぼ同一の画像を復元できる圧縮画
像を生成する画像変換装置および方法、学習装置および
方法、並びに記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image conversion apparatus and method, a learning apparatus and method, and a recording medium, and more particularly, to an image conversion apparatus and method for generating a compressed image capable of restoring an image almost identical to an original image, The present invention relates to a learning device and method, and a recording medium.

【0002】[0002]

【従来の技術】本願発明者によって、特開平10−93
980号公報に開示されているように、低解像度の画像
を用いて、高解像度の画像を生成する技術が提案されて
おり、高解像度の原画像を縮小した低解像度画像を用い
て原画像とほぼ同一の高解像度画像を復元することがで
きるとされている。この提案においては、例えば図1に
示すように、低解像度画像(上位階層画像)の注目画素
Iに対応する位置の高解像度画像(復元画像)の画素i
を中心とする3×3個の画素a乃至iの画素値を、その
近傍に位置する低解像度画像の複数の画素(例えば、3
×3個の画素A乃至I)と所定の予測係数との線形1次
結合等を演算することにより求めている。さらに、その
復元画像の画素値と原画像の画素値との誤差を演算し、
その結果に対応して低解像度画像の画素値、および予測
係数の更新を繰り返している。
2. Description of the Related Art The inventor of the present invention disclosed in Japanese Patent Laid-Open No.
As disclosed in Japanese Patent Application Publication No. 980, a technique for generating a high-resolution image using a low-resolution image has been proposed, and an original image is generated using a low-resolution image obtained by reducing a high-resolution original image. It is said that almost the same high-resolution image can be restored. In this proposal, for example, as shown in FIG. 1, a pixel i of a high-resolution image (restored image) at a position corresponding to a target pixel I of a low-resolution image (upper layer image)
The pixel values of the 3 × 3 pixels a to i centered on the pixel are set to a plurality of pixels (for example, 3
X 3 pixels A to I) and a predetermined linear prediction coefficient are calculated to calculate a linear primary combination. Further, an error between the pixel value of the restored image and the pixel value of the original image is calculated,
The updating of the pixel value of the low-resolution image and the prediction coefficient are repeated according to the result.

【0003】[0003]

【発明が解決しようとする課題】ところで、上述した従
来における低解像度画像の画素値の更新は、1画素毎に
近傍の画素の画素値を固定した条件の下で行われてい
た。すなわち、図1に示すように、低解像度画像の注目
画素Iの画素値は、注目画素Iを中心とする8個の画素
AないしHの画素値、および所定の予測係数の値を固定
した条件下において最適な値に更新されていた。
By the way, the updating of the pixel value of the conventional low-resolution image is performed under the condition that the pixel value of the neighboring pixel is fixed for each pixel. That is, as shown in FIG. 1, the pixel value of the target pixel I of the low-resolution image is obtained by fixing the pixel values of the eight pixels A to H centered on the target pixel I and the value of the predetermined prediction coefficient. It was updated to the optimal value below.

【0004】したがって、画素Iの画素値を更新した
後、画素Dの画素値を更新した場合、画素Dは、画素I
の画素値を更新したときに画素値が固定された画素であ
るので、先ほど更新された画素Iの画素値は、更新され
た画素Dに対しては最適ではない。よって、低解像度画
像(上位階層画像)の画素値を1画素毎に順次更新した
場合、最終的に全画素値が更新された低解像度画像(上
位階層画像)は、必ずしも原画像を復元できる最適なも
のであるとはいえない問題があった。
Therefore, when the pixel value of the pixel D is updated after the pixel value of the pixel I is updated, the pixel D
Are updated when the pixel value is updated, the pixel value of the pixel I updated earlier is not optimal for the updated pixel D. Therefore, when the pixel values of the low-resolution image (upper-layer image) are sequentially updated for each pixel, the low-resolution image (upper-layer image) in which all the pixel values are finally updated is not necessarily the optimal image in which the original image can be restored. There was a problem that could not be said to be a problem.

【0005】この問題は、低解像度画像(上位階層画
像)の隣接する複数の画素の画素値を、同時に最適な値
に更新すれば解決できるが、その演算量は膨大であっ
て、演算に長い時間がかかるとともに、演算回路の規模
が大きくなり、実質的には不可能であった。
[0005] This problem can be solved by simultaneously updating the pixel values of a plurality of adjacent pixels of the low-resolution image (upper hierarchical image) to the optimum value. It takes time and the scale of the arithmetic circuit increases, which is practically impossible.

【0006】この発明はこのような状況に鑑みてなされ
たものであり、隣接する複数の画素の画素値を同時に更
新することにより、原画像とほぼ同一の高解像度画像を
復元することが可能な低解像度画像を短時間で得ること
ができるようにするものである。
The present invention has been made in view of such a situation, and by simultaneously updating the pixel values of a plurality of adjacent pixels, it is possible to restore a high-resolution image substantially the same as the original image. This is to enable a low-resolution image to be obtained in a short time.

【0007】[0007]

【課題を解決するための手段】上述した課題を達成する
ために、請求項1の発明は、第1の画像データを、第1
の画像データより低質な第2の画像データに変換する画
像データ変換装置において、 第1の画像データから、
第2の画像データとほぼ同質な中間画像データを生成す
る中間画像データ生成部と、中間画像データを記憶する
記憶部と、中間画像データから、一画面中の一部である
ブロック毎の複数の画素データを抽出するブロック抽出
部と、生成され、または予め取得された予測係数を出力
する予測係数生成部と、予測係数と中間画像データと第
1の画像データとに基づいてブロック抽出部で抽出され
た中間画像データの画素値を更新する画素値更新部と、
画素値更新部で画素値が更新された中間画像データと予
測係数とに基づいて、第1の画像データとほぼ同質な予
測画像データを生成する予測画像データ生成部と、第1
の画像データと予測画像データの誤差を検出する誤差検
出部と、誤差に基づいて、中間画像データを出力画像と
するか否かを決定する制御部とを備えることを特徴とす
る画像データ変換装置である。
According to a first aspect of the present invention, there is provided an image processing apparatus comprising:
An image data conversion device for converting the second image data into lower quality image data than the first image data.
An intermediate image data generation unit that generates intermediate image data substantially the same as the second image data; a storage unit that stores the intermediate image data; and a plurality of blocks for each block that is a part of one screen from the intermediate image data. A block extraction unit for extracting pixel data, a prediction coefficient generation unit for outputting a generated or previously obtained prediction coefficient, and extraction by the block extraction unit based on the prediction coefficient, the intermediate image data, and the first image data A pixel value updating unit that updates the pixel value of the processed intermediate image data,
A predicted image data generation unit that generates predicted image data that is substantially the same as the first image data based on the intermediate image data whose pixel values have been updated by the pixel value update unit and the prediction coefficients;
An image data conversion device, comprising: an error detection unit that detects an error between image data of the image data and predicted image data; and a control unit that determines whether or not to use intermediate image data as an output image based on the error. It is.

【0008】請求項6の発明は、第1の画像データを、
第1の画像データより低質な第2の画像データに変換す
る画像データ変換方法において、 第1の画像データか
ら第2の画像データとほぼ同質な中間画像データを生成
するステップと、中間画像データから、一画面中の一部
であるブロック毎の複数の画素データを抽出するステッ
プと、生成され、または予め取得された予測係数を出力
するステップと、 予測係数と中間画像データと第1の
画像データとに基づいてブロック抽出部で抽出された中
間画像データの画素値を更新するステップと、画素値が
更新された中間画像データと予測係数とに基づいて、第
1の画像データとほぼ同質な予測画像データを生成する
ステップと、第1の画像データと予測画像データの誤差
を検出するステップと、 誤差に基づいて、中間画像デ
ータを出力画像とするか否かを決定するステップとを有
することを特徴とする画像データ変換方法である。
According to a sixth aspect of the present invention, the first image data is
An image data conversion method for converting second image data into lower quality second image data than the first image data, comprising the steps of: generating intermediate image data of substantially the same quality as the second image data from the first image data; Extracting a plurality of pixel data for each block which is a part of one screen, outputting a generated or previously obtained prediction coefficient, predicting coefficient, intermediate image data, and first image data. Updating the pixel value of the intermediate image data extracted by the block extracting unit based on the above, and predicting substantially the same quality as the first image data based on the intermediate image data having the updated pixel value and the prediction coefficient. Generating image data, detecting an error between the first image data and the predicted image data, and using the intermediate image data as an output image based on the error An image data conversion method characterized by a step of determining whether.

【0009】請求項11の発明は、第1の画像データ
を、第1の画像データより低質な第2の画像データに変
換する時に、第2の画像データの画素値を学習する学習
装置において、第1の画像データから、第2の画像デー
タとほぼ同質な中間画像データを生成する中間画像デー
タ生成部と、中間画像データを記憶する記憶部と、中間
画像データから、一画面中の一部であるブロック毎の複
数の画素データを抽出するブロック抽出部と、生成さ
れ、または予め取得された予測係数を出力する予測係数
生成部と、予測係数と中間画像データと第1の画像デー
タとに基づいてブロック抽出部で抽出された中間画像デ
ータの画素値を更新する画素値更新部と、画素値更新部
で画素値が更新された中間画像データと予測係数とに基
づいて、第1の画像データとほぼ同質な予測画像データ
を生成する予測画像データ生成部と、第1の画像データ
と予測画像データの誤差を検出する誤差検出部と、誤差
に基づいて、中間画像データを出力画像とするか否かを
決定する制御部とを備え、画素値更新部は、予測係数を
生徒データとし、対応する第1の画像データを教師デー
タとして、最小二乗法によって、中間画像データの画素
値を更新することを特徴とする学習装置である。
According to an eleventh aspect of the present invention, there is provided a learning apparatus for learning a pixel value of a second image data when converting the first image data into a second image data having a lower quality than the first image data. An intermediate image data generating unit that generates intermediate image data substantially the same as the second image data from the first image data, a storage unit that stores the intermediate image data, and a part of one screen from the intermediate image data A block extraction unit that extracts a plurality of pixel data for each block, a prediction coefficient generation unit that outputs a generated or previously obtained prediction coefficient, a prediction coefficient, intermediate image data, and first image data. A pixel value updating unit that updates a pixel value of the intermediate image data extracted by the block extracting unit based on the first image based on the intermediate image data whose pixel value is updated by the pixel value updating unit and the prediction coefficient De A predicted image data generating unit that generates predicted image data substantially the same as the data, an error detecting unit that detects an error between the first image data and the predicted image data, and intermediate image data as an output image based on the error. The pixel value updating unit updates the pixel value of the intermediate image data by the least squares method using the prediction coefficient as the student data and the corresponding first image data as the teacher data. The learning device is characterized in that:

【0010】請求項12の発明は、第1の画像データ
を、第1の画像データより低質な第2の画像データに変
換する時に、第2の画像データの画素値を学習する学習
方法において、第1の画像データから第2の画像データ
とほぼ同質な中間画像データを生成するステップと、中
間画像データから、一画面中の一部であるブロック毎の
複数の画素データを抽出するステップと、生成され、ま
たは予め取得された予測係数を出力するステップと、
予測係数と中間画像データと第1の画像データとに基づ
いて抽出された中間画像データの画素値を更新するステ
ップと、画素値が更新された中間画像データと予測係数
とに基づいて、第1の画像データとほぼ同質な予測画像
データを生成するステップと、第1の画像データと予測
画像データの誤差を検出するステップと、 誤差に基づ
いて、中間画像データを出力画像とするか否かを決定す
るステップとを備え、画素値を更新するステップは、予
測係数を生徒データとし、対応する第1の画像データを
教師データとして、最小二乗法によって、中間画像デー
タの画素値を更新することを特徴とする学習方法であ
る。
According to a twelfth aspect of the present invention, there is provided a learning method for learning pixel values of second image data when converting the first image data into second image data having a lower quality than the first image data. Generating intermediate image data of substantially the same quality as the second image data from the first image data; extracting a plurality of pixel data for each block that is a part of one screen from the intermediate image data; Outputting the generated or previously obtained prediction coefficients;
Updating a pixel value of the intermediate image data extracted based on the prediction coefficient, the intermediate image data, and the first image data; and performing a first operation based on the updated intermediate image data and the prediction coefficient based on the pixel value. Generating predicted image data having substantially the same quality as the image data, detecting an error between the first image data and the predicted image data, and determining whether or not the intermediate image data is an output image based on the error. And updating the pixel value. The step of updating the pixel value includes updating the pixel value of the intermediate image data by the least square method using the prediction coefficient as the student data and the corresponding first image data as the teacher data. This is a featured learning method.

【0011】請求項13の発明は、第1の画像データ
を、第1の画像データより低質な第2の画像データに変
換する画像データ変換するためのコンピュータ制御可能
なプログラムが記録された記録媒体において、プログラ
ムは、第1の画像データから第2の画像データとほぼ同
質な中間画像データを生成するステップと、中間画像デ
ータから、一画面中の一部であるブロック毎の複数の画
素データを抽出するステップと、抽出された中間画像と
抽出された中間画像データに対応する位置の第1の画像
データとに基づいて予測係数を生成するステップと、予
測係数と中間画像データと第1の画像データとに基づい
て抽出された中間画像データの画素値を更新するステッ
プと、画素値が更新された中間画像データと予測係数と
に基づいて、第1の画像データとほぼ同質な予測画像デ
ータを生成するステップと、第1の画像データと予測画
像データの誤差を検出するステップと、 誤差に基づい
て、中間画像データを出力画像とするか否かを決定する
ステップとからなることを特徴とする記録媒体である。
According to a thirteenth aspect of the present invention, there is provided a recording medium on which a computer-controllable program for converting image data for converting first image data into second image data of lower quality than the first image data is recorded. In the program, the program generates intermediate image data of substantially the same quality as the second image data from the first image data, and converts the plurality of pixel data for each block that is a part of one screen from the intermediate image data. Extracting, generating a prediction coefficient based on the extracted intermediate image and first image data at a position corresponding to the extracted intermediate image data, predicting coefficient, intermediate image data, and first image Updating a pixel value of the intermediate image data extracted based on the data and a first coefficient based on the intermediate image data having the updated pixel value and the prediction coefficient. Generating predicted image data having substantially the same quality as the image data, detecting an error between the first image data and the predicted image data, and determining whether to use the intermediate image data as an output image based on the error A recording medium.

【0012】この発明では、予測係数演算部は、予測タ
ップを生徒データとし、対応する原画像の画素を教師デ
ータとして観測方程式を生成し、観測方程式を解くこと
によって予測係数を生成する。画素値更新部は、予測係
数演算部からの予測係数を生徒データとし、対応する原
画像データを教師データとして観測方程式を作成する。
この観測方程式を解くことによって、与えられた係数に
対する、複数の更新画素値の最適な値を同時に求めるこ
とができる。
According to the present invention, the prediction coefficient calculation unit generates an observation equation using the prediction tap as student data, the corresponding original image pixel as teacher data, and solves the observation equation to generate a prediction coefficient. The pixel value updating unit creates an observation equation using the prediction coefficient from the prediction coefficient calculation unit as student data and using the corresponding original image data as teacher data.
By solving this observation equation, optimal values of a plurality of updated pixel values for a given coefficient can be obtained at the same time.

【0013】[0013]

【発明の実施の形態】以下、この発明の一実施形態につ
いて説明する。図2は、この発明を適用した画像処理装
置の一実施の形態の構成を示している。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below. FIG. 2 shows a configuration of an embodiment of an image processing apparatus to which the present invention is applied.

【0014】送信装置101には、ディジタル化された
画像データが供給されるようになされている。送信装置
101は、入力された画像データの複数画素毎の平均値
を形成し、複数画素を平均値に置き換えることによっ
て、データ量を圧縮し、その結果得られる符号化データ
を光ディスク、磁気テープ等の記録媒体102に記録
し、または放送回線(衛星放送等)、電話回線、インタ
ーネット等の伝送路103を介して伝送する。
The transmitting apparatus 101 is supplied with digitized image data. The transmission device 101 forms an average value for each of a plurality of pixels of the input image data, and compresses the data amount by replacing the plurality of pixels with the average value, and converts the resulting encoded data into an optical disk, a magnetic tape, or the like. Or transmitted via a transmission line 103 such as a broadcast line (satellite broadcast), a telephone line, the Internet, or the like.

【0015】受信装置104は、記録媒体102に記録
されている符号化データを再生し、または伝送路103
を介して伝送される符号化データを受信し、符号化デー
タを復号する。すなわち、間引かれた画素の値が復元さ
れる。受信装置104から得られる復号画像がディスプ
レイ(図示せず)に供給され、ディスプレイ上に表示さ
れる。
The receiving device 104 reproduces the encoded data recorded on the recording medium 102 or
Receiving the encoded data transmitted through the. And decoding the encoded data. That is, the values of the thinned pixels are restored. The decoded image obtained from the receiving device 104 is supplied to a display (not shown) and displayed on the display.

【0016】図3は、送信装置101の一例を示す。I
/F(インターフェース)111は、外部から供給され
る画像データの受信処理と、送信機/記録装置116に
対する符号化データの送信処理を行う。ROM112
は、IPL(Initial Program Loading) 用のプログラム
等を記憶している。RAM113は、外部記憶装置11
5に記録されているシステムプログラム(OS(Operati
ng System))やアプリケーションプログラムを記憶した
り、また、CPU114の動作に必要なデータを記憶す
る。
FIG. 3 shows an example of the transmitting apparatus 101. I
The / F (interface) 111 performs a process of receiving image data supplied from the outside and a process of transmitting encoded data to the transmitter / recording device 116. ROM 112
Stores an IPL (Initial Program Loading) program and the like. The RAM 113 stores the external storage device 11
5 (OS (Operati
ng System)) and application programs, and data necessary for the operation of the CPU 114.

【0017】CPU114は、ROM112に記憶され
ているIPLプログラムに従って外部記憶装置115か
らシステムプログラムおよびアプリケーションプログラ
ムをRAM113に展開し、そのシステムプログラムの
制御の下でアプリケーションプログラムを実行する。す
なわち、インターフェース111から供給される画像デ
ータに対して、後述するような符号化処理を行う。
The CPU 114 loads a system program and an application program from the external storage device 115 to the RAM 113 in accordance with the IPL program stored in the ROM 112, and executes the application program under the control of the system program. That is, an encoding process described later is performed on the image data supplied from the interface 111.

【0018】外部記憶装置115は、例えばハードディ
スクであって、システムプログラム、アプリケーション
プログラム、データを記憶する。送信機/記憶装置11
6は、インターフェース111から供給される符号化デ
ータを記録媒体102に記録し、または伝送路103を
介して伝送する。インターフェース111、ROM11
2、RAM113、CPU114、および外部記憶装置
115は、バスを介して互いに接続されている。
The external storage device 115 is, for example, a hard disk, and stores a system program, an application program, and data. Transmitter / storage device 11
6 records the encoded data supplied from the interface 111 on the recording medium 102 or transmits the encoded data via the transmission path 103. Interface 111, ROM 11
2. The RAM 113, the CPU 114, and the external storage device 115 are connected to each other via a bus.

【0019】上述した構成を有する送信装置101にお
いては、インターフェース111に画像データが供給さ
れると、その画像データがCPU114に供給される。
CPU114は、画像データを符号化し、その結果得ら
れる符号化データをインターフェース111に供給す
る。インターフェース111が符号化データを送信機/
記録装置116を介して記録媒体102に記録し、また
は伝送路103に送出する。
In the transmitting apparatus 101 having the above-described configuration, when image data is supplied to the interface 111, the image data is supplied to the CPU 114.
The CPU 114 encodes the image data and supplies the resulting encoded data to the interface 111. The interface 111 transmits the encoded data to the transmitter /
The data is recorded on the recording medium 102 via the recording device 116 or transmitted to the transmission path 103.

【0020】図4は、送信機/記録装置116以外の図
3の送信装置101、すなわち、エンコーダの機能的な
構成を示すものである。エンコーダは、ハードウエア、
ソフトウェアまたは両者の組み合わせで実現することが
可能である。例えば後述するフローチャートに示される
ようなエンコード処理のプログラムが格納された記録媒
体をドライブに装着することによって、このプログラム
を外部記憶装置115にインストールし、エンコーダと
しての機能を実現できる。
FIG. 4 shows a functional configuration of the transmitting apparatus 101 of FIG. 3 other than the transmitting / recording apparatus 116, that is, the encoder. The encoder is hardware,
It can be realized by software or a combination of both. For example, by mounting a recording medium in which a program for an encoding process as shown in a flowchart described later is stored in a drive, the program can be installed in the external storage device 115 and a function as an encoder can be realized.

【0021】なお、上述したような処理を行うコンピュ
ータプログラムをユーザに提供する記録媒体としては、
磁気ディスク、CD−ROM、固体メモリなどの記録媒
体の他、ネットワーク、衛星などの通信媒体を利用する
ことができる。
As a recording medium for providing a user with a computer program for performing the above-described processing,
In addition to recording media such as magnetic disks, CD-ROMs, and solid-state memories, communication media such as networks and satellites can be used.

【0022】図4に示すエンコーダにおいては、入力さ
れる原画像データが画像データが画像縮小回路1、予測
係数演算回路4、画素値更新回路5、および誤差演算回
路7に供給されるようになされている。画像縮小回路1
は、供給された原画像(高解像度画像)を、例えば図1
に示したように、3×3画素からなるブロックに分割
し、各ブロック内の9画素の画素値の平均値をブロック
の中心に位置する上位階層画像(低解像度画像)の画素
の画素値として初期上位階層画像を生成し、上位階層画
像メモリ2に出力するようになされている。したがっ
て、上位階層画像(以下、上位画像と記述する)は、原
画像の縦および横のサイズが1/3に縮小されたものと
なる。
In the encoder shown in FIG. 4, the input original image data is supplied to the image reduction circuit 1, the prediction coefficient operation circuit 4, the pixel value update circuit 5, and the error operation circuit 7 as the image data. ing. Image reduction circuit 1
Shows the supplied original image (high-resolution image) as shown in FIG.
As shown in the above, the image is divided into blocks of 3 × 3 pixels, and the average value of the pixel values of 9 pixels in each block is used as the pixel value of the pixel of the upper hierarchical image (low resolution image) located at the center of the block An initial upper layer image is generated and output to the upper layer image memory 2. Therefore, the upper hierarchical image (hereinafter, referred to as the upper image) is obtained by reducing the vertical and horizontal sizes of the original image to 1 /.

【0023】なお、初期上位画像を形成する場合、平均
値以外に、各ブロックの中心に位置する画素の値、各ブ
ロックの複数の画素値の中間値、各ブロックの複数の画
素値の最も多い値、間引きで形成された画素等を用いて
も良い。
When forming an initial upper image, in addition to the average value, the value of the pixel located at the center of each block, the intermediate value of the plurality of pixel values of each block, and the largest number of the plurality of pixel values of each block A value, a pixel formed by thinning, or the like may be used.

【0024】上位階層画像メモリ2は、画像縮小回路1
から入力された上位画像を記憶するようになされてい
る。また上位階層画像メモリ2は、画素値更新回路5か
ら入力される画素値を用いて、記憶している上位画像の
画素値を更新するようになされている。さらに、上位階
層画像メモリ2は、記憶している上位画像データをスイ
ッチ8を介してフレームメモリ9に出力するようになさ
れている。
The upper hierarchical image memory 2 includes an image reducing circuit 1
Is stored. The upper layer image memory 2 updates the stored pixel value of the upper image using the pixel value input from the pixel value updating circuit 5. Further, the upper hierarchical image memory 2 outputs the stored upper image data to the frame memory 9 via the switch 8.

【0025】予測タップ取得回路3は、上位階層画像メ
モリ2に記憶されている上位画像の画素を、順次、注目
画素に決定し、注目画素とその近傍の画素の画素値を予
測係数演算回路4、画素値更新回路5、およびマッピン
グ回路6に供給する。
The prediction tap acquisition circuit 3 sequentially determines the pixels of the upper image stored in the upper layer image memory 2 as the pixel of interest, and calculates the pixel values of the pixel of interest and the pixels in the vicinity of the pixel of interest. , A pixel value updating circuit 5 and a mapping circuit 6.

【0026】簡単のために、図5に示すように、更新画
素値ブロック(予測タップ)のサイズが3×3、予測係
数タップのサイズが3×3の場合について説明する。な
お、更新画素値ブロック(予測タップ)は、予測のため
に抽出される複数の画素で構成されるブロックを意味す
る。また、予測係数タップは、予測に使用される複数の
係数群を意味する。図5中で、xは、更新する画素を示
し、Xは、画素値が固定されている画素を示す。また、
後述するcが係数を意味し、Y’が予測値を示し、Yが
原画像の画素値を示す。
For the sake of simplicity, a case where the size of the updated pixel value block (prediction tap) is 3 × 3 and the size of the prediction coefficient tap is 3 × 3 as shown in FIG. 5 will be described. The update pixel value block (prediction tap) means a block composed of a plurality of pixels extracted for prediction. Further, the prediction coefficient tap means a plurality of coefficient groups used for prediction. In FIG. 5, x indicates a pixel to be updated, and X indicates a pixel whose pixel value is fixed. Also,
C, which will be described later, means a coefficient, Y ′ indicates a predicted value, and Y indicates a pixel value of an original image.

【0027】例えば、図5に示す画素x5 が注目画素に
決定された場合、予測係数演算回路4には、注目画素x
5 を中心とする3×3画素(画素x1 乃至x9 )からな
る予測タップが供給される。画素値更新回路5には、注
目画素x5 を中心とする3×3の9個の画素のいずれか
が3×3画素内に含まれる全ての予測タップ(図5にお
いて破線に囲まれた、注目画素x5 を中心とする7×7
画素)が供給される。マッピング回路6には、注目画素
x5 を中心とする7×7画素から、注目画素x5 を中心
とする3×3画素を除いた40(=49−9)個の画素
(画素X1 乃至X40)が供給される。
For example, when the pixel x5 shown in FIG. 5 is determined as the target pixel, the prediction coefficient calculation circuit 4 sends the target pixel x5
A prediction tap consisting of 3 × 3 pixels (pixels x1 to x9) centered at 5 is provided. The pixel value update circuit 5 includes all the prediction taps including any of the three 3 × 3 pixels centered on the target pixel x5 (see FIG. 7x7 centered on pixel x5
Pixel). The mapping circuit 6 includes 40 (= 49-9) pixels (pixels X1 to X40) obtained by removing 3 × 3 pixels centered on the target pixel x5 from 7 × 7 pixels centered on the target pixel x5. Supplied.

【0028】予測係数演算回路4は、予測タップ取得回
路3から供給された注目画素x5 を中心とする予測タッ
プ(画素x1 乃至x9 )を学習データ(生徒データ)と
し、対応する原画像の画素を教師データとして観測方程
式を生成して、最小自乗法により観測方程式を解くこと
により、図6に示すような、9モード分(モード1乃至
モード9)の予測係数を演算して、画素値更新回路5、
およびマッピング回路6に供給するようになされてい
る。
The prediction coefficient calculation circuit 4 uses the prediction taps (pixels x1 to x9) centered on the pixel of interest x5 supplied from the prediction tap acquisition circuit 3 as learning data (student data), and assigns corresponding pixels of the original image. By generating an observation equation as teacher data and solving the observation equation by the least squares method, prediction coefficients for nine modes (modes 1 to 9) are calculated as shown in FIG. 5,
And a mapping circuit 6.

【0029】なお、3×3個の予測係数からなる各モー
ドの予測係数タップは、注目画素に対応する位置の下位
階層画像(以下、下位画像と記述する)の画素を中心と
する3×3画素のそれぞれの画素値を予測するときに用
いられる。
The prediction coefficient tap of each mode composed of 3 × 3 prediction coefficients is a 3 × 3 pixel centered on a pixel of a lower hierarchical image (hereinafter referred to as a lower image) at a position corresponding to a target pixel. It is used when predicting the pixel value of each pixel.

【0030】より具体的には、図1の画素の配列におい
て、画素aを予測する時に使用される予測係数タップが
モード1の予測係数タップであり、画素bを予測する時
に使用される予測係数タップがモード2の予測係数タッ
プであり、画素cを予測する時に使用される予測係数タ
ップがモード3の予測係数タップであり、画素hを予測
する時に使用される予測係数タップがモード4の予測係
数タップであり、画素iを予測する時に使用される予測
係数タップがモード5の予測係数タップであり、画素d
を予測する時に使用される予測係数タップがモード6の
予測係数タップであり、画素gを予測する時に使用され
る予測係数タップがモード7の予測係数タップであり、
画素fを予測する時に使用される予測係数タップがモー
ド8の予測係数タップであり、画素eを予測する時に使
用される予測係数タップがモード9の予測係数タップで
ある。
More specifically, in the pixel arrangement of FIG. 1, the prediction coefficient tap used when predicting pixel a is the prediction coefficient tap of mode 1, and the prediction coefficient tap used when predicting pixel b is used. The tap is a prediction coefficient tap in mode 2, a prediction coefficient tap used when predicting pixel c is a prediction coefficient tap in mode 3, and a prediction coefficient tap used when predicting pixel h is prediction in mode 4. The prediction coefficient tap used when predicting the pixel i is the prediction coefficient tap of mode 5, and the prediction of the pixel d
The prediction coefficient tap used when predicting is the prediction coefficient tap of mode 6, the prediction coefficient tap used when predicting the pixel g is the prediction coefficient tap of mode 7,
The prediction coefficient tap used when predicting the pixel f is the prediction coefficient tap in mode 8, and the prediction coefficient tap used when predicting the pixel e is the prediction coefficient tap in mode 9.

【0031】図7Aは、図5に示した上位画像から予測
される下位画像を示している。例えば、モード1の予測
係数タップ(予測係数c11乃至c19)と、画素x3 を中
心とする予測タップを構成する画素(画素X11,X12,
X13,x2 ,x3 ,X17,x5 ,x6 ,X21)の画素値
との線形1次結合により、注目画素に対応する位置の下
位画像の画素(図7Bの画素Y5 ’)の左上に隣接する
画素(図7Bの画素Y1 ’)の画素値が演算される。ま
た、モード9の予測係数タップ(予測係数c91乃至c9
9)と、画素x3 を中心とする予測タップを構成する画
素の画素値との線形1次結合により、注目画素に対応す
る位置の下位画像の画素の右下に隣接する画素(図7B
の画素Y9 ’)の画素値が演算される。
FIG. 7A shows a lower image predicted from the upper image shown in FIG. For example, the prediction coefficient taps (prediction coefficients c11 to c19) in mode 1 and the pixels (pixels X11, X12,
X13, x2, x3, X17, x5, x6, X21) and a linear primary combination with the pixel value of the lower-level image at the position corresponding to the target pixel (pixel Y5 'in FIG. 7B). The pixel value of (pixel Y1 'in FIG. 7B) is calculated. Further, the prediction coefficient taps in mode 9 (prediction coefficients c91 to c9)
9) and the pixel adjacent to the lower right image of the pixel of the lower image at the position corresponding to the target pixel by a linear linear combination of the pixel value of the pixel forming the prediction tap centered on the pixel x3 (FIG. 7B).
The pixel value of the pixel Y9 ') is calculated.

【0032】画素値更新回路5は、注目画素を中心とす
る3×3画素の画素値を同時に更新し、更新した画素値
を上位階層画像メモリ2、およびマッピング回路6に出
力するようになされている。
The pixel value updating circuit 5 simultaneously updates the 3 × 3 pixel values centered on the target pixel, and outputs the updated pixel values to the upper layer image memory 2 and the mapping circuit 6. I have.

【0033】図8は、画素値更新回路5の詳細な構成例
を示している。正規方程式生成回路11は、予測係数演
算回路4から入力された予測係数、予測タップ取得回路
3から入力された予測タップを構成する画素の画素値、
原画像の対応する画素値を用いて、予測値と真値(原画
像の画素値)より正規方程式を生成し、画素値決定回路
12に出力するようになされている。画素値決定回路1
2は、入力された正規方程式によって予測値と真値との
誤差を最小とする、上位画像の注目画素を中心とする3
×3画素の画素値(更新値)を同時に演算するようにな
されている。以下においては、同時に更新される9個の
画素を更新画素値タップと記述する。
FIG. 8 shows a detailed configuration example of the pixel value updating circuit 5. The normal equation generation circuit 11 calculates a prediction coefficient input from the prediction coefficient calculation circuit 4, a pixel value of a pixel forming a prediction tap input from the prediction tap acquisition circuit 3,
A normal equation is generated from a predicted value and a true value (pixel value of the original image) using the corresponding pixel value of the original image, and is output to the pixel value determination circuit 12. Pixel value determination circuit 1
2 is centered on the target pixel of the upper image, which minimizes the error between the predicted value and the true value by the input normal equation.
The pixel values (update values) of × 3 pixels are calculated simultaneously. In the following, nine pixels that are updated simultaneously are referred to as updated pixel value taps.

【0034】ここで、生成される正規方程式について説
明する。正規方程式は、更新画素値タップと予測係数タ
ップが部分的に重なる範囲の画素値を用いて生成され
る。例えば、図5に示した画素x5 を中心とする3×3
画素(画素x1 乃至x9 )の画素値を更新する(更新画
素値タップとする)場合、破線で囲まれた領域中の更新
画素値タップ以外の画素(画素X1 乃至X40)の画素
値、および全ての予測係数c1 1 乃至c99を固定し、予
測係数タップを、破線で囲まれた領域内で移動して下位
画像の画素値を予測する。
Here, the generated normal equation will be described. The normal equation is generated using pixel values in a range where the updated pixel value tap and the prediction coefficient tap partially overlap. For example, 3 × 3 with the pixel x5 shown in FIG.
When the pixel values of the pixels (pixels x1 to x9) are updated (updated pixel value taps), the pixel values of the pixels (pixels X1 to X40) other than the updated pixel value taps in the area surrounded by the broken line, and all Are fixed, and the prediction coefficient taps are moved within the region surrounded by the broken line to predict the pixel value of the lower image.

【0035】例えば、予測係数タップの中心が画素x3
と重なる位置に移動されたときにおいては、モード1の
予測係数タップ(予測係数c11乃至c19)と、画素x3
を中心とする3×3画素(画素X11,X12,X13,x2
,x3 ,X17,x5 ,x6 ,X21)との画素値の線形
1次結合で、画素x3 の位置に対応する下位画像の画素
Y5 ’の左上の画素Y1 ’の画素値(予測値)が演算さ
れる。この画素値Y1'は、次式(1)で表すことができ
る。
For example, the center of the prediction coefficient tap is pixel x3
Is moved to a position overlapping with the prediction coefficient tap (prediction coefficients c11 to c19) of the mode 1 and the pixel x3
3 × 3 pixels (pixels X11, X12, X13, x2
, X3, X17, x5, x6, X21), the pixel value (predicted value) of the pixel Y1 'at the upper left of the pixel Y5' of the lower image corresponding to the position of the pixel x3 is calculated. Is done. This pixel value Y1 'can be expressed by the following equation (1).

【0036】 Y1' =c11X11 +c12X12 +c13X13 +c14x2+c15x3+c16X17 +c17x5+ c18x6+c19X21・・・(1) 同様に、画素値Y2 ’乃至Y9 ’も、予測係数と上位画
像の画素値との線形1次結合で表し、得られた9本の式
を行列を用いて書き換えれば、次式のような観測方程式
が成立する。
Y1 '= c11X11 + c12X12 + c13X13 + c14x2 + c15x3 + c16X17 + c17x5 + c18x6 + c19X21 (1) Similarly, the pixel values Y2' to Y9 'are also calculated by using the prediction coefficients and the pixel values of the upper image. When expressed by linear linear combinations and the obtained nine equations are rewritten using a matrix, an observation equation such as the following equation is established.

【0037】Y'=cX ただし、Y’は画素値Y1 ’乃至Y9 ’の集合で成る行
列であり、cは予測係数c11乃至c99の集合で成る行列
であり、Xは上位画像の画素値の集合で成る行列であ
る。
Y '= cX where Y' is a matrix composed of a set of pixel values Y1 'to Y9', c is a matrix composed of a set of prediction coefficients c11 to c99, and X is the pixel value of the upper image. It is a matrix consisting of a set.

【0038】次に、この観測方程式に最小二乗法を適用
して、原画像の画素値に近い予測値Y’を求めることを
考える。
Next, it is considered that a least square method is applied to this observation equation to obtain a predicted value Y 'close to the pixel value of the original image.

【0039】ここで、再び観測方程式の元となった式
(1)に注目すれば、予測値Y1 ’と、対応する原画像
の画素値Y1 との差は、次式(2)に示すようになる。
Here, paying attention again to the equation (1) which is the basis of the observation equation, the difference between the predicted value Y1 'and the corresponding pixel value Y1 of the original image is expressed by the following equation (2). become.

【0040】 Y1-Y1' =Y1 -(c11X11 +c12X12 +c13X13 +c14x2 +c15x3+c16X 17 +c17x5+c18x6+c19X21)・・・(2) 式(2)の右辺を整理すれば、次式(3)を得る。Y1−Y1 ′ = Y1− (c11X11 + c12X12 + c13X13 + c14x2 + c15x3 + c16X17 + c17x5 + c18x6 + c19X21) (2) By rearranging the right side of the equation (2), the following equation (2) is obtained. Obtain 3).

【0041】 Y1-Y1' =Y1 -(c11X11 +c12X12 +c13X13 +c16X17 +c19X21) -(c 14x2+c15x3+c17x5+c18x6)・・・(3) 予測値Y1 ’と、対応する原画像の画素値Y1 との差、
すなわち式(3)の左辺を残差とし、右辺の定数項を左
辺に移項して整理すれば、次式(4)を得る。
Y1−Y1 ′ = Y1− (c11X11 + c12X12 + c13X13 + c16X17 + c19X21) − (c14 × 2 + c15 × 3 + c17 × 5 + c18 × 6) (3) The predicted value Y1 ′ and the corresponding pixel of the original image The difference from the value Y1,
That is, the following equation (4) is obtained by rearranging the left-hand side of equation (3) as a residual and moving the constant term on the right-hand side to the left-hand side.

【0042】 Y1 -(c11X11 +c12X12 +c13X13 +c16X17 +c19X21)+e1 = (c14x 2+c15x3+c17x5+c18x6)・・・(4) さらに、予測係数タップの他のモード(モード2乃至モ
ード9)を用いて、Yn −Yn ’(nは2乃至9)から
も、式(4)と同様の次式(5)乃至(12)を得る。
Y1− (c11X11 + c12X12 + c13X13 + c16X17 + c19X21) + e1 = (c14x2 + c15x3 + c17x5 + c18x6) (4) Further, other modes of the prediction coefficient tap (modes 2 to 9) ), The following equations (5) to (12) similar to the equation (4) are obtained from Yn-Yn '(n is 2 to 9).

【0043】 Y2 -(c21X11 +c22X12 +c23X13 +c26X17 +c29X21)+e2 = (c24x 2+c25x3+c27x5+c28x6)・・・(5) Y3 -(c31X11 +c32X12 +c33X13 +c36X17 +c39X21)+e3 = (c34x 2+c35x3+c37x5+c38x6)・・・(6) Y4 -(c41X11 +c42X12 +c43X13 +c46X17 +c49X21)+e4 = (c44x 2+c45x3+c47x5+c48x6)・・・(7) Y5 -(c51X11 +c52X12 +c53X13 +c56X17 +c59X21)+e5 = (c54x 2+c55x3+c57x5+c58x6)・・・(8) Y6 -(c61X11 +c62X12 +c63X13 +c66X17 +c69X21)+e6 = (c64x 2+c65x3+c67x5+c68x6)・・・(9) Y7 -(c71X11 +c72X12 +c73X13 +c76X17 +c79X21)+e7 = (c74x 2+c75x3+c77x5+c78x6)・・・(10) Y8 -(c81X11 +c82X12 +c83X13 +c86X17 +c89X21)+e8 = (c84x 2+c85x3+c87x5+c88x6)・・・(11) Y9 -(c91X11 +c92X12 +c93X13 +c96X17 +c99X21)+e9 = (c94x 2+c95x3+c97x5+c98x6)・・・(12) 同様に、予測係数タップの位置を、図5の破線で囲まれ
た領域内で移動し、すなわち、予測係数タップの中心
を、画素X9 ,X13,X28,X32を頂点とする矩形領域
内の全ての画素(25画素)と順次重なるように移動
し、予測係数タップの全てのモードを用いて、225
(=9×25)本の式(4)乃至(12)と同様な式を
得る。
Y2- (c21X11 + c22X12 + c23X13 + c26X17 + c29X21) + e2 = (c24x2 + c25x3 + c27x5 + c28x6) (5) Y3- (c31X11 + c32X12 + c33X13 + c36X17 + c39X21) + e3 = (c34x2 + c35x3 + c37x5 + c38x6) ... (6) Y4-(c41X11 + c42X12 + c43X13 + c46X17 + c49X21) + e4 = (c44x2 + c45x3 + c47x5 + c48x6) ... (7) Y5 -(c51X11 + c52X12 + c53X13 + c56X17 + c59X21) + e5 = (c54x2 + c55x3 + c57x5 + c58x6) ... (8) Y6-(c61X11 + c62X12 + c63X13 + c66X17 + c69X21) + e6 = (c64x2) + c65x3 + c67x5 + c68x6) (9) Y7-(c71X11 + c72X12 + c73X13 + c76X17 + c79X21) + e7 = (c74x2 + c75x3 + c77x5 + c78x6) ... (10) Y8- (c81X11 +) c82X12 + c83X13 + c86X17 + c89X21) + e8 = (c84x2 + c85x3 + c87x5 + c88x6) (11) Y9- (c91X11 + c92X12) + c93X13 + c96X17 + c99X21) + e9 = (c94x2 + c95x3 + c97x5 + c98x6) (12) Similarly, the position of the prediction coefficient tap is moved within the area enclosed by the broken line in FIG. That is, the center of the prediction coefficient tap is moved so as to sequentially overlap with all the pixels (25 pixels) in the rectangular area having the vertices of the pixels X9, X13, X28, and X32, and all the modes of the prediction coefficient tap are used. 225
(= 9 × 25) Equations similar to Equations (4) to (12) are obtained.

【0044】この225本の式を行列で表せば、次式
(13)に示すような、[教師データ]+[残差e]=
[学習データc]×[予測画素値x]の形をした残差方
程式となる。
If these 225 equations are represented by a matrix, as shown in the following equation (13), [teacher data] + [residual error e] =
The residual equation has the form of [learning data c] × [prediction pixel value x].

【0045】[0045]

【数1】 (Equation 1)

【0046】ただし、式(13)は、表記を簡略化する
ために、式(4)乃至(12)に対応する部分だけを示
している。また、aij(i=1,2,・・・,m(=2
25)、j=1,2,・・・,9)は、行列[学習デー
タc]のi行j列に存在するデータに等しい。
However, Expression (13) shows only the parts corresponding to Expressions (4) to (12) in order to simplify the notation. Also, aij (i = 1, 2,..., M (= 2
25), j = 1, 2,..., 9) are equal to data existing in the i-th row and j-th column of the matrix [learning data c].

【0047】この場合、原画像の画素値Yに近い予測値
Y’を求めるための予測画素値xiは、下記の自乗誤差
を最小にすることで求めることができる。
In this case, the predicted pixel value xi for obtaining the predicted value Y 'close to the pixel value Y of the original image can be obtained by minimizing the following square error.

【0048】[0048]

【数2】 (Equation 2)

【0049】したがって、上述した自乗誤差を予測画素
値xi で微分したものが0になる場合、すなわち、次式
を満たす予測画素値xi が、原画像の画素値Yに近い予
測値Y’を求めるための最適値となる。
Therefore, when the above-mentioned squared error is differentiated by the predicted pixel value xi, the result becomes 0, that is, a predicted value Y 'that satisfies the following equation is close to the pixel value Y of the original image. It is the optimal value for

【0050】[0050]

【数3】 (Equation 3)

【0051】そこで、まず、式(13)を予測画素値x
i で微分することにより、次式が成立する。
Therefore, first, equation (13) is calculated using the predicted pixel value x
By differentiating with i, the following equation is established.

【0052】[0052]

【数4】 (Equation 4)

【0053】式(14)および式(16)より、式(1
7)が得られる。
From equations (14) and (16), equation (1)
7) is obtained.

【0054】[0054]

【数5】 (Equation 5)

【0055】さらに、式(13)の教師データ(原画像
の画素値Y−定数項)をY’’とし、教師データ
Y’’、予測係数c、予測画素値x、および残差eの関
係を考慮すると、式(17)から、次式(18)のよう
な正規方程式を得ることができる。
Further, the teacher data (pixel value Y-constant term of the original image) of equation (13) is Y ″, and the relationship between teacher data Y ″, prediction coefficient c, prediction pixel value x, and residual e is Is considered, a normal equation such as the following equation (18) can be obtained from the equation (17).

【0056】[0056]

【数6】 (Equation 6)

【0057】得られた正規方程式を、例えば、掃き出し
法(Gauss-Jordanの消去法)などを適用して解くことに
より、予測係数演算回路4から供給された予測係数タッ
プに対応する、更新画素値タップの最適な画素値を求め
ることができる。
By solving the obtained normal equation by applying, for example, a sweeping-out method (Gauss-Jordan elimination method), the updated pixel value corresponding to the prediction coefficient tap supplied from the prediction coefficient calculation circuit 4 is obtained. The optimum pixel value of the tap can be obtained.

【0058】図4の説明に戻る。マッピング回路6は、
画素値更新回路5から供給された注目画素を中心とする
更新画素値タップの9個の画素の画素値、予測タップ取
得回路3から供給された、注目画素を中心とする7×7
画素から注目画素を中心とする3×3画素を除いた40
個の画素の画素値、および予測係数演算回路4から入力
された9モード分の予測係数タップの予測係数を線形1
次結合することにより、下位画像の画素値を部分的に
(更新画素値タップの画素が影響する範囲を)ローカル
デコードする。ローカルデコードされた下位画像の画素
値は誤差演算回路7に供給されるようになされている。
Returning to the description of FIG. The mapping circuit 6
The pixel values of the nine pixels of the update pixel value tap centered on the target pixel supplied from the pixel value update circuit 5 and the 7 × 7 centered on the target pixel supplied from the prediction tap acquisition circuit 3
40 excluding 3 × 3 pixels centering on the target pixel from the pixel
The pixel values of the pixels and the prediction coefficients of the prediction coefficient taps for the nine modes input from the prediction coefficient calculation circuit 4 are represented by a linear 1
Subsequent combining locally decodes the pixel values of the lower image (partly the range affected by the pixels of the updated pixel value taps). The pixel value of the locally decoded lower image is supplied to the error calculation circuit 7.

【0059】誤差演算回路7は、マッピング回路6から
のローカルデコードされた下位画像の画素値と、原画像
の対応する画素値との誤差を演算する。以下の説明で
は、誤差としてS/N を用いる。S/N =20log 10(255/er
r)(err:誤差の標準偏差)の関係にある。S/N が閾値以
上である場合には、最適な画素が生成されたと判断し
て、スイッチ8をオンに制御するようになされている。
この場合、部分的にローカルデコードした画像でS/N を
評価する代えて、画像全体にわたってS/N を評価するよ
うにしても良い。
The error calculation circuit 7 calculates an error between the pixel value of the locally decoded lower image from the mapping circuit 6 and the corresponding pixel value of the original image. In the following description, S / N is used as the error. S / N = 20log 10 (255 / er
r) (err: standard deviation of error). If the S / N is equal to or larger than the threshold value, it is determined that an optimum pixel has been generated, and the switch 8 is controlled to be turned on.
In this case, the S / N may be evaluated over the entire image instead of evaluating the S / N on the locally decoded image.

【0060】フレームメモリ9は、上位階層画像メモリ
2からスイッチ8を介して入力される、部分的に最適化
された上位画像を、入力される度に更新して記憶するよ
うになされている。したがって、上位階層画像メモリ2
に記憶されている上位画像の全ての画素が注目画素とさ
れた後、フレームメモリ9には、全ての画素が最適化さ
れた最適上位画像が記憶されるようになされている。
The frame memory 9 updates and stores a partially optimized upper image inputted from the upper layer image memory 2 via the switch 8 every time it is inputted. Therefore, the upper layer image memory 2
After all the pixels of the upper image stored in are stored as the target pixel, the frame memory 9 stores the optimal upper image in which all the pixels are optimized.

【0061】フレームメモリ9に記憶された最適上位画
像は、9モード分の予測係数タップとともに所定のタイ
ミングでデコーダ(図13を参照して後述する)に出力
されるようになされている。以下に説明するエンコーダ
の処理を制御するために、制御部10が設けられてい
る。制御部10は、誤差演算回路7の出力を受け取り、
スイッチ8を制御する信号を発生する。また、エンコー
ダの処理を行うために、各ブロックに対して種々の制御
信号を供給する。
The optimal upper-order image stored in the frame memory 9 is output to a decoder (described later with reference to FIG. 13) at a predetermined timing together with prediction coefficient taps for nine modes. A control unit 10 is provided to control the processing of the encoder described below. The control unit 10 receives the output of the error calculation circuit 7,
A signal for controlling the switch 8 is generated. In addition, various control signals are supplied to each block in order to perform processing of the encoder.

【0062】次に、このエンコーダの最適上位画素値生
成処理の概略について、図9のフローチャートを参照し
て説明する。以下に説明する処理は、図4の構成と対応
して説明されている。しかしながら、図4の構成を有す
るハードウエアにより実現されるものに限らず、外部か
らインストールされ、または図3中のROM112に格
納されているソフトウェアプログラムに従ってCPU1
14が行うようにしても良い。その場合には、各ステッ
プの処理は、ソフトウェアプログラムに従ってCPU1
14の制御の下でなされる。
Next, an outline of the optimum upper pixel value generation processing of the encoder will be described with reference to the flowchart of FIG. The processing described below is described corresponding to the configuration of FIG. However, the present invention is not limited to the hardware realized by the hardware having the configuration shown in FIG. 4, but may be installed from the outside or may be used in accordance with a software program stored in the ROM 112 shown in FIG.
14 may be performed. In that case, the processing of each step is performed by the CPU 1 according to the software program.
It is performed under the control of fourteen.

【0063】ステップS1において、画像縮小回路1
は、供給された原画像(高解像度画像)を、3×3画素
からなるブロックに分割し、各ブロック内の9画素の画
素値の平均値をブロックの中心に位置する上位画像(低
解像度画像)の画素の画素値として初期上位画像を生成
し、上位階層画像メモリ2に記憶させる。
In step S1, the image reduction circuit 1
Divides the supplied original image (high-resolution image) into blocks of 3 × 3 pixels, and averages the pixel values of 9 pixels in each block to the upper-level image (low-resolution image) located at the center of the block. An upper-level image is generated as a pixel value of the pixel of (1) and stored in the upper-level image memory 2.

【0064】予測タップ取得回路3は、上位階層画像メ
モリ2に記憶されている上位画像の画素を、順次、注目
画素に決定して、上位階層画像メモリ2から注目画素を
中心とする7×7画素の画素値を取得する。取得した4
9個の画素値のうちの注目画素を中心とする3×3画素
の画素値は、予測係数演算回路4に供給される。また、
画素値更新回路5には、取得した全ての画素値が供給さ
れる。さらに、取得した49個の画素値のうちの注目画
素を中心とする3×3画素を除いた40(=49−9)
個の画素の画素値がマッピング回路6に供給される。例
えば、図5に示す画素x5 が注目画素に決定された場
合、注目画素x5 を中心とする3×3画素(画素x1 乃
至x9 )の予測係数タップの画素値は、予測係数演算回
路4に供給され、注目画素x5 を中心とする7×7画素
の画素値は、画素値更新回路5に供給され、注目画素x
5 を中心とする7×7画素から注目画素x5 を中心とす
る3×3画素を除いた40(=49−9)画素の画素値
は、マッピング回路6に供給される。
The prediction tap obtaining circuit 3 sequentially determines the pixels of the upper image stored in the upper layer image memory 2 as the pixel of interest, and determines from the upper layer image memory 2 a 7 × 7 pixel centered on the pixel of interest. Get the pixel value of a pixel. Acquired 4
The 3 × 3 pixel values centered on the pixel of interest among the nine pixel values are supplied to the prediction coefficient calculation circuit 4. Also,
The pixel value updating circuit 5 is supplied with all the acquired pixel values. Further, 40 (= 49−9) obtained by removing 3 × 3 pixels centering on the target pixel from the 49 obtained pixel values.
The pixel values of the pixels are supplied to the mapping circuit 6. For example, when the pixel x5 shown in FIG. 5 is determined as the target pixel, the pixel values of the prediction coefficient taps of 3 × 3 pixels (pixels x1 to x9) centered on the target pixel x5 are supplied to the prediction coefficient calculation circuit 4. The pixel value of the 7 × 7 pixels centered on the target pixel x5 is supplied to the pixel value updating circuit 5, and the target pixel x5
The pixel values of 40 (= 49−9) pixels obtained by removing 3 × 3 pixels centered on the target pixel x5 from 7 × 7 pixels centered on 5 are supplied to the mapping circuit 6.

【0065】ステップS2において、予測係数演算回路
4は、予測タップ取得回路3から供給された注目画素を
中心とする3×3画素の予測タップを学習データ(生徒
データ)とし、対応する原画像の画素を教師データとし
て観測方程式を生成し、最小自乗法を適用して解くこと
により9モード分の予測係数タップを求め、画素値更新
回路5、およびマッピング回路6に供給する。予測係数
う求める時には、画面中の全画素について方程式をたて
るようになされる。
In step S 2, the prediction coefficient calculation circuit 4 uses the prediction tap of 3 × 3 pixels centered on the pixel of interest supplied from the prediction tap acquisition circuit 3 as learning data (student data), and calculates the corresponding original image. An observation equation is generated using pixels as teacher data, and a prediction coefficient tap for nine modes is obtained by applying the least squares method to solve the equation, and is supplied to the pixel value updating circuit 5 and the mapping circuit 6. When obtaining the prediction coefficient, an equation is established for all the pixels in the screen.

【0066】ステップS3において、画素値更新回路5
の正規方程式生成回路11は、予測係数演算回路4から
入力された予測係数タップ、予測タップ取得回路3から
供給された注目画素を中心とする7×7画素の画素値、
および原画像の対応する画素値を用いて、式(13)に
示すような観測方程式を生成して、画素値決定回路12
に出力する。画素値決定回路12は、入力された観測方
程式に最小自乗法を適用して解き、得られた更新画素値
タップの画素値を上位階層画像メモリ2、およびマッピ
ング回路6に出力する。
In step S3, the pixel value updating circuit 5
The normal equation generation circuit 11 includes a prediction coefficient tap input from the prediction coefficient calculation circuit 4, a 7 × 7 pixel value centered on the pixel of interest supplied from the prediction tap acquisition circuit 3,
Using the pixel values of the original image and the corresponding pixel values of the original image, an observation equation as shown in Expression (13) is generated.
Output to The pixel value determination circuit 12 solves the input observation equation by applying the least square method, and outputs the obtained pixel value of the updated pixel value tap to the upper layer image memory 2 and the mapping circuit 6.

【0067】上位階層画像メモリ2は、画素値更新回路
5から入力された更新画素値タップの画素値を用いて、
いままで記憶していた上位画像の対応する画素の画素値
を更新する。マッピング回路6は、画素値更新回路5か
ら入力された更新画素値タップの画素値、予測タップ取
得回路3から入力された、注目画素を中心とする7×7
画素から注目画素を中心とする3×3画素を除いた40
画素の画素値、および予測係数演算回路4から入力され
た9モード分の予測係数タップとの線形1次結合を演算
して、下位画像の画素値を部分的にローカルデコードす
る。ローカルデコードされた下位画像の画素値は、誤差
演算回路7に供給される。
The upper layer image memory 2 uses the pixel value of the updated pixel value tap input from the pixel value updating circuit 5 to
The pixel value of the corresponding pixel of the upper image stored so far is updated. The mapping circuit 6 calculates the pixel value of the updated pixel value tap inputted from the pixel value updating circuit 5 and the 7 × 7 centered on the pixel of interest inputted from the prediction tap acquiring circuit 3.
40 excluding 3 × 3 pixels centering on the target pixel from the pixel
A linear primary combination of the pixel value of the pixel and the prediction coefficient taps for the nine modes input from the prediction coefficient calculation circuit 4 is calculated, and the pixel value of the lower image is partially locally decoded. The pixel value of the locally decoded lower image is supplied to the error calculation circuit 7.

【0068】ステップS4において、誤差演算回路7
は、マッピング回路6からのローカルデコードされた下
位画像の画素値と、原画像の対応する画素値とのS/N を
演算し、S/N が所定の閾値以上であるか否かを判定す
る。S/N が所定の閾値以上ではないと判定された場合、
ステップS2乃至S4の処理が繰り返される。S/N が所
定の閾値以上であると判定された場合、ステップS5に
進む。
In step S4, the error calculation circuit 7
Calculates the S / N of the pixel value of the locally decoded lower image from the mapping circuit 6 and the corresponding pixel value of the original image, and determines whether the S / N is equal to or greater than a predetermined threshold value . If it is determined that S / N is not greater than or equal to a predetermined threshold,
Steps S2 to S4 are repeated. If it is determined that S / N is equal to or greater than the predetermined threshold, the process proceeds to step S5.

【0069】ステップS5において、誤差演算回路7の
制御によりスイッチ8がオンとされ、上位階層画像メモ
リ2からスイッチ8を介してフレームメモリ9に部分的
に最適化された上位画像が出力される。
In step S 5, the switch 8 is turned on under the control of the error calculation circuit 7, and a partially optimized upper image is output from the upper layer image memory 2 to the frame memory 9 via the switch 8.

【0070】この最適上位画素値生成処理を、上位階層
画像メモリ2に記憶されている上位画像の全ての画素に
対して実行することにより、フレームメモリ9には、全
ての画素が最適化された最適上位画像が記憶される。記
憶された最適上位画像は、9モード分の予測係数タップ
とともに所定のタイミングでデコーダに出力される。
By executing this optimum upper pixel value generation processing on all the pixels of the upper image stored in the upper layer image memory 2, all the pixels are optimized in the frame memory 9. The optimum top image is stored. The stored optimal upper image is output to the decoder at a predetermined timing together with the prediction coefficient taps for the nine modes.

【0071】図9のエンコーダの処理についての幾つか
の例について説明する。図10のフローチャートに示す
第1の方式は、1回の予測係数の更新に対して、各画素
1回の更新を行う例である。
Some examples of the processing of the encoder shown in FIG. 9 will be described. The first method shown in the flowchart of FIG. 10 is an example in which each pixel is updated once for each update of the prediction coefficient.

【0072】ステップS21において、エンコーダは、
原画像を縮小処理することによって、上位画像を生成す
る。そして、エンコーダは、画面全体の全画素の予測係
数を更新する(ステップS22)。次のステップS23
において、エンコーダは、ブロック(更新画素値タップ
と同義である)の画素値を更新する。ステップS24で
は、全ブロックの処理が終了したかどうかが決定され、
若し、終了していないならば、ステップS22に戻り、
処理が繰り返される。
In step S21, the encoder
An upper image is generated by reducing the original image. Then, the encoder updates the prediction coefficients of all pixels on the entire screen (Step S22). Next step S23
In, the encoder updates the pixel value of the block (synonymous with the update pixel value tap). In step S24, it is determined whether or not processing of all blocks has been completed.
If not, the process returns to step S22.
The process is repeated.

【0073】ステップS24において、全ブロックの画
素値の更新が終了したと決定されると、エンコーダは、
更新後の上位画像をマッピング(ローカルデコード)し
て、下位画像との誤差を示すS/N を計算する( ステップ
S25)。ステップS26では、エンコーダは、S/N が
閾値以上かどうかが決定される。S/N が閾値以上であれ
ば、フレームメモリ9に更新後の上位画像を出力し、ま
た、予測係数を出力する(ステップS27)。若し、ス
テップS26において、S/N が閾値より小であれば、ス
テップS22に戻り、ステップS22以降の処理を繰り
返す。
When it is determined in step S24 that updating of the pixel values of all blocks has been completed, the encoder
The updated upper image is mapped (locally decoded), and an S / N indicating an error from the lower image is calculated (step S25). In step S26, the encoder determines whether S / N is greater than or equal to a threshold. If S / N is equal to or larger than the threshold, the updated upper image is output to the frame memory 9 and the prediction coefficient is output (step S27). If S / N is smaller than the threshold value in step S26, the process returns to step S22, and the processes in and after step S22 are repeated.

【0074】図11は、第2の方式を示すフローチャー
トである。第2の方式は、1回の予測係数の更新に対し
て、1ブロックのみ画素値を更新するものである。した
がって、全ブロックの画素値の更新が終了していないと
きに、処理がステップS23(画素値の更新)ではな
く、ステップS22の全画面の予測係数の更新処理に戻
る点のみが、図10のフローチャートと相違する。
FIG. 11 is a flowchart showing the second method. The second method is to update the pixel value of only one block for one update of the prediction coefficient. Therefore, when the updating of the pixel values of all the blocks is not completed, the process returns to step S22 (update of the prediction coefficients of the entire screen) instead of step S23 (update of the pixel values) only in FIG. This is different from the flowchart.

【0075】さらに、図12は、第3の方式を示すフロ
ーチャートである。第3の方式では、更新画素値の評価
を予測係数の更新後と、画素値の更新後のそれぞれで行
うものである。
FIG. 12 is a flowchart showing the third method. In the third method, the evaluation of the updated pixel value is performed after the prediction coefficient is updated and after the pixel value is updated.

【0076】図12で、原画像の縮小処理(ステップS
31)の後に、全画素の予測係数の更新がなされる(ス
テップS32)。エンコーダは、更新後の上位画像をマ
ッピングして、下位画像との誤差であるS/N を計算する
( ステップS33)。ステップS34では、S/N が閾値
以上かどうかが決定される。S/N が閾値以上であれば、
エンコーダは、フレームメモリ9に更新後の上位画像を
出力し、また、予測係数を出力する(ステップS3
5)。
In FIG. 12, the original image is reduced (step S
After 31), the prediction coefficients of all pixels are updated (step S32). The encoder maps the updated upper image and calculates the S / N, which is the error from the lower image.
(Step S33). In step S34, it is determined whether S / N is equal to or greater than a threshold. If S / N is above the threshold,
The encoder outputs the updated upper image to the frame memory 9 and outputs the prediction coefficient (step S3).
5).

【0077】若し、ステップS34において、S/N が閾
値より小であれば、ステップS36に移り、ステップS
36において、エンコーダは、ブロックの画素値を更新
する。ステップS37では、全ブロックの処理が終了し
たかどうかが決定され、若し、終了していないならば、
ステップS36に戻り、処理が繰り返される。
If the S / N is smaller than the threshold value in step S34, the process proceeds to step S36, and the process proceeds to step S36.
At 36, the encoder updates the pixel values of the block. In step S37, it is determined whether or not the processing of all blocks has been completed.
Returning to step S36, the process is repeated.

【0078】ステップS37において、全ブロックの画
素値の更新が終了したと決定されると、エンコーダは、
更新後の上位画像をマッピングして、下位画像との誤差
であるS/N を計算する( ステップS38)。ステップS
39では、S/N が閾値以上かどうかが決定される。S/N
が閾値以上であれば、エンコーダは、フレームメモリ9
に更新後の上位画像を出力し、また、予測係数を出力す
る(ステップS35)。若し、ステップS39におい
て、S/N が閾値より小であれば、ステップS32に戻
り、上述したステップS32以降の処理を繰り返す。
If it is determined in step S37 that the updating of the pixel values of all the blocks has been completed, the encoder
The updated upper image is mapped to calculate an S / N, which is an error from the lower image (step S38). Step S
At 39, it is determined whether the S / N is greater than or equal to a threshold. S / N
Is greater than or equal to the threshold, the encoder
Then, the updated upper image is output, and the prediction coefficient is output (step S35). If the S / N is smaller than the threshold value in step S39, the process returns to step S32, and the above-described processing after step S32 is repeated.

【0079】上述したこの発明の一実施形態では、予測
係数および上位画像の画素値の両方を最適化するように
している。しかしながら、この発明においては、予め予
測係数を求めておくことによって、画素値のみを最適化
することも可能である。この場合、予測係数は、係数決
定用のディジタル画像を使用して、エンコーダにおける
予測係数生成処理と同様の処理を行うことによって予め
生成されている。また、この予測係数は、エンコーダお
よびデコーダにおいて共用されるので、記録媒体への記
録または伝送が不要である。
In the above-described embodiment of the present invention, both the prediction coefficient and the pixel value of the upper image are optimized. However, in the present invention, it is also possible to optimize only the pixel values by obtaining the prediction coefficients in advance. In this case, the prediction coefficients are generated in advance by performing the same processing as the prediction coefficient generation processing in the encoder using the digital image for coefficient determination. In addition, since the prediction coefficient is shared by the encoder and the decoder, recording or transmission to a recording medium is not required.

【0080】次に、エンコーダから出力された最適上位
画像から原画像を復元する(下位画像を予測する)デコ
ーダの構成例について、図13を参照して説明する。こ
のデコーダにおいては、エンコーダから入力された最適
上位画像は、最適上位階層画像メモリ21に記憶され、
9モード分の予測係数タップは、マッピング回路23に
供給されるようになされている。
Next, an example of the configuration of a decoder for restoring the original image (predicting the lower image) from the optimal upper image output from the encoder will be described with reference to FIG. In this decoder, the optimal upper-layer image input from the encoder is stored in the optimal upper-layer image memory 21,
The prediction coefficient taps for the nine modes are supplied to the mapping circuit 23.

【0081】予測タップ取得回路22は、最適上位階層
画像メモリ21に記憶されている最適上位画像の画素
を、順次、注目画素に決定し、最適上位階層画像メモリ
21から注目画素を中心とする3×3画素の予測タップ
を取得してマッピング回路23に出力するようになされ
ている。
The prediction tap acquisition circuit 22 sequentially determines the pixels of the optimal upper-layer image stored in the optimal upper-layer image memory 21 as the pixel of interest, and determines from the optimal upper layer image memory 21 the center of the pixel of interest. A prediction tap of × 3 pixels is acquired and output to the mapping circuit 23.

【0082】マッピング回路23は、予測タップ取得回
路22から入力された予測タップをなす9個の画素の画
素値と、エンコーダから供給された9モード分の予測係
数タップとの線形1次結合を演算することにより、注目
画素の位置に対応する下位画像の画素を中心とする3×
3画素の画素値を予測する(原画像の画素を復元す
る)。予測された下位画像の3×3画素の画素値は、フ
レームメモリ24に出力され、記憶されるようになされ
ている。フレームメモリ24に記憶された下位画像の画
素値は、フレーム毎に所定のタイミングで図示せぬディ
スプレイ等に出力されるようになされている。
The mapping circuit 23 calculates a linear linear combination of the pixel values of the nine pixels forming the prediction taps input from the prediction tap acquisition circuit 22 and the prediction coefficient taps for the nine modes supplied from the encoder. By doing so, 3 × centering on the pixel of the lower image corresponding to the position of the pixel of interest
The pixel values of three pixels are predicted (the pixels of the original image are restored). The predicted pixel value of 3 × 3 pixels of the lower image is output to the frame memory 24 and stored. The pixel values of the lower image stored in the frame memory 24 are output to a display (not shown) at a predetermined timing for each frame.

【0083】このデコーダの原画像復元処理について、
図14にフローチャートを参照して説明する。この原画
像復元処理は、エンコーダにより生成された最適上位画
像が最適上位階層画像メモリ21に記憶され、9モード
分の予測係数タップが、マッピング回路23に供給され
た後、開始される。
The original image restoration processing of this decoder is as follows.
This will be described with reference to FIG. This original image restoration process is started after the optimal upper image generated by the encoder is stored in the optimal upper layer image memory 21 and the prediction coefficient taps for nine modes are supplied to the mapping circuit 23.

【0084】ステップS11において、予測タップ取得
回路22は、最適上位階層画像メモリ21に記憶されて
いる最適上位画像の画素のうちの1個の画素を注目画素
に決定する。ステップS12において、予測タップ取得
回路22は、最適上位階層画像メモリ21から注目画素
を中心とする3×3画素の予測タップを取得してマッピ
ング回路23に出力する。
In step S 11, the prediction tap acquisition circuit 22 determines one pixel of the pixels of the optimal upper image stored in the optimal upper hierarchical image memory 21 as a target pixel. In step S <b> 12, the prediction tap acquisition circuit 22 acquires a 3 × 3 pixel prediction tap centered on the pixel of interest from the optimal upper layer image memory 21, and outputs the prediction tap to the mapping circuit 23.

【0085】ステップS13において、マッピング回路
23は、予測タップ取得回路22から入力された予測タ
ップをなす9個の画素の画素値と、エンコーダから供給
された9モード分の予測係数タップとの線形1次結合を
演算することにより、注目画素の位置に対応する下位画
像の画素を中心とする3×3画素の画素値を予測する
(原画像の画素を復元する)。予測された下位画像の3
×3画素の画素値は、フレームメモリ24に出力され、
記憶される。
In step S13, the mapping circuit 23 calculates a linear 1 between the pixel values of the nine pixels forming the prediction taps input from the prediction tap acquisition circuit 22 and the prediction coefficient taps for the nine modes supplied from the encoder. By calculating the next combination, the pixel value of 3 × 3 pixels centered on the pixel of the lower image corresponding to the position of the target pixel is predicted (the pixel of the original image is restored). Predicted lower image 3
The pixel value of the x3 pixel is output to the frame memory 24,
It is memorized.

【0086】ステップS14において、予測タップ取得
回路22は、最適上位階層画像メモリ21に記憶されて
いる最適上位画像の全ての画素を注目画素に決定したか
否かを判定し、全ての画素を注目画素に決定したと判定
するまで、ステップS11乃至S14の処理が繰り返さ
れる。全ての画素を注目画素に決定したと判定された場
合、ステップS15に進む。
In step S14, the prediction tap acquisition circuit 22 determines whether or not all the pixels of the optimal upper-layer image stored in the optimal upper-layer image memory 21 have been determined as the target pixels, and determines all the pixels of interest. Steps S11 to S14 are repeated until it is determined that the pixel is determined. If it is determined that all the pixels have been determined as the target pixel, the process proceeds to step S15.

【0087】ステップS15において、フレームメモリ
24に記憶された下位画像の画素値は、フレーム毎に所
定のタイミングで図示せぬディスプレイ等に出力され
る。
In step S15, the pixel value of the lower image stored in the frame memory 24 is output to a display (not shown) at a predetermined timing for each frame.

【0088】本実施の形態によれば、従来の方法に比べ
て、復元した画像のS/N が大きい上位画像を得ることが
できる。
According to the present embodiment, it is possible to obtain a high-order image in which the S / N of the restored image is large as compared with the conventional method.

【0089】[0089]

【発明の効果】以上のように、この発明によれば、複数
画素の画素値を同時に、ブロック単位で最適化すること
ができる。それによって、処理を単純化することがで
き、また、処理時間を短縮できる。
As described above, according to the present invention, it is possible to simultaneously optimize the pixel values of a plurality of pixels in block units. Thereby, the processing can be simplified and the processing time can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】先に提案したエンコードを説明するための画素
の配列を示す略線図である。
FIG. 1 is a schematic diagram showing an arrangement of pixels for explaining an encoding proposed above.

【図2】この発明を適用した画像データ変換装置の全体
的構成を示すブロック図である。
FIG. 2 is a block diagram showing an overall configuration of an image data conversion device to which the present invention is applied.

【図3】図2中の送信装置の機能的構成例を示すブロッ
ク図である。
FIG. 3 is a block diagram illustrating a functional configuration example of a transmission device in FIG. 2;

【図4】この発明を適用したエンコーダの構成例を示す
ブロック図である。
FIG. 4 is a block diagram illustrating a configuration example of an encoder to which the present invention has been applied.

【図5】図4の予測タップ取得回路3の処理を説明する
図である。
FIG. 5 is a diagram for explaining processing of a prediction tap acquisition circuit 3 of FIG. 4;

【図6】予測係数タップを説明する図である。FIG. 6 is a diagram illustrating prediction coefficient taps.

【図7】下位階層画像を説明する図である。FIG. 7 is a diagram illustrating a lower hierarchical image.

【図8】図4の画素値更新回路5の構成例を示すブロッ
ク図である。
8 is a block diagram illustrating a configuration example of a pixel value updating circuit 5 in FIG.

【図9】図4のエンコーダの最適画素値生成処理の概略
を説明するフローチャートである。
FIG. 9 is a flowchart illustrating an outline of an optimum pixel value generation process of the encoder in FIG. 4;

【図10】図4のエンコーダの最適画素値生成処理の一
例を説明するフローチャートである。
FIG. 10 is a flowchart illustrating an example of an optimum pixel value generation process of the encoder in FIG. 4;

【図11】図4のエンコーダの最適画素値生成処理の他
の例を説明するフローチャートである。
11 is a flowchart illustrating another example of the optimum pixel value generation processing of the encoder in FIG.

【図12】図4のエンコーダの最適画素値生成処理のさ
らに他の例を説明するフローチャートである。
12 is a flowchart illustrating still another example of the optimum pixel value generation processing of the encoder in FIG.

【図13】図4のエンコーダにより生成された最適上位
画像から原画像を復元するデコーダの構成例を示すブロ
ック図である。
13 is a block diagram illustrating a configuration example of a decoder for restoring an original image from an optimum upper-level image generated by the encoder in FIG.

【図14】図13のデコーダの原画像復元処理を説明す
るフローチャートである。
FIG. 14 is a flowchart illustrating an original image restoration process of the decoder in FIG. 13;

【符号の説明】[Explanation of symbols]

1・・・画像縮小回路、2・・・上位階層画像メモリ、
3・・・予測タップ取得回路、4・・・予測係数演算回
路、5・・・画素値更新回路、6・・・マッピング回
路、7・・・誤差演算回路、11・・・正規方程式生成
回路、12・・・画素値決定回路
1 ... image reduction circuit, 2 ... upper layer image memory,
3 Prediction tap acquisition circuit, 4 Prediction coefficient operation circuit, 5 Pixel value update circuit, 6 Mapping circuit, 7 Error operation circuit, 11 Normal equation generation circuit , 12... Pixel value determination circuit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高橋 健治 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 渡邊 義教 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C059 KK15 MA19 MA32 SS11 SS20 SS26 TA00 TA06 TA30 TB08 TC03 TD16 UA33 UA39 5C076 AA21 AA22 BB24 BB40 5C078 BA21 CA00 CA25 CA31 DA00 DA02 DB04 DB13 9A001 BB06 EE04 GG05 HH23  ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Kenji Takahashi 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Yoshinori Watanabe 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F term (reference) 5C059 KK15 MA19 MA32 SS11 SS20 SS26 TA00 TA06 TA30 TB08 TC03 TD16 UA33 UA39 5C076 AA21 AA22 BB24 BB40 5C078 BA21 CA00 CA25 CA31 DA00 DA02 DB04 DB13 9A001 BB06 EE04 GG05 H23

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 第1の画像データを、上記第1の画像デ
ータより低質な第2の画像データに変換する画像データ
変換装置において、 上記第1の画像データから、上記第2の画像データとほ
ぼ同質な中間画像データを生成する中間画像データ生成
部と、 上記中間画像データを記憶する記憶部と、 上記中間画像データから、一画面中の一部であるブロッ
ク毎の複数の画素データを抽出するブロック抽出部と、 生成され、または予め取得された予測係数を出力する予
測係数生成部と、 上記予測係数と上記中間画像データと上記第1の画像デ
ータとに基づいて上記ブロック抽出部で抽出された中間
画像データの画素値を更新する画素値更新部と、 上記画素値更新部で画素値が更新された中間画像データ
と上記予測係数とに基づいて、上記第1の画像データと
ほぼ同質な予測画像データを生成する予測画像データ生
成部と、 上記第1の画像データと上記予測画像データの誤差を検
出する誤差検出部と、 上記誤差に基づいて、上記中間画像データを出力画像と
するか否かを決定する制御部とを備えることを特徴とす
る画像データ変換装置。
1. An image data conversion device for converting first image data into second image data having a lower quality than said first image data, comprising: converting said first image data to said second image data; An intermediate image data generation unit that generates substantially the same intermediate image data; a storage unit that stores the intermediate image data; and a plurality of pixel data for each block that is a part of one screen from the intermediate image data A block extracting unit that outputs a generated or previously obtained prediction coefficient; and a block extraction unit that extracts based on the prediction coefficient, the intermediate image data, and the first image data. A pixel value updating unit for updating a pixel value of the intermediate image data obtained, and the first image based on the intermediate image data whose pixel value has been updated by the pixel value updating unit and the prediction coefficient. A predicted image data generation unit that generates predicted image data substantially the same as the data; an error detection unit that detects an error between the first image data and the predicted image data; and, based on the error, the intermediate image data. An image data conversion device, comprising: a control unit for determining whether to output an image.
【請求項2】 上記予測係数生成部は、上記ブロック抽
出部で抽出された中間画像と上記抽出された中間画像デ
ータに対応する位置の第1の画像データとに基づいて予
測係数を生成することを特徴とする請求項1に記載の画
像データ変換装置。
2. The prediction coefficient generation unit generates a prediction coefficient based on the intermediate image extracted by the block extraction unit and first image data at a position corresponding to the extracted intermediate image data. The image data conversion device according to claim 1, wherein:
【請求項3】 上記誤差検出部は、一画面分の上記第1
の画像データと一画面分の上記予測画素データとの誤差
を検出することを特徴とする請求項1に記載の画像デー
タ変換装置。
3. The apparatus according to claim 1, wherein the error detection unit is configured to detect the first image for one screen.
2. The image data conversion apparatus according to claim 1, wherein an error between the image data of the image data and the predicted pixel data for one screen is detected.
【請求項4】 上記画素値更新部は、 上記予測係数と上記中間画像データと上記第1の画像デ
ータとに基づいて、正規方程式を生成する正規方程式生
成部と、 上記正規方程式を解くことにより上記中間画像データの
更新された画素値を決定する画素値決定部とを備えるこ
とを特徴とする請求項1に記載の画像データ変換装置。
4. The normal value generating section that generates a normal equation based on the prediction coefficient, the intermediate image data, and the first image data, and solves the normal equation. The image data conversion device according to claim 1, further comprising a pixel value determination unit that determines an updated pixel value of the intermediate image data.
【請求項5】 上記画素値決定部は、最小二乗法を用い
て上記正規方程式を解くことを特徴とする請求項3に記
載の画像データ変換装置。
5. The image data conversion device according to claim 3, wherein the pixel value determination unit solves the normal equation using a least squares method.
【請求項6】 第1の画像データを、上記第1の画像デ
ータより低質な第2の画像データに変換する画像データ
変換方法において、 第1の画像データから第2の画像データとほぼ同質な中
間画像データを生成するステップと、 上記中間画像データから、一画面中の一部であるブロッ
ク毎の複数の画素データを抽出するステップと、 生成され、または予め取得された予測係数を出力するス
テップと、 上記予測係数と上記中間画像データと上記
第1の画像データとに基づいて上記ブロック抽出部で抽
出された中間画像データの画素値を更新するステップ
と、 上記画素値が更新された中間画像データと上記予測係数
とに基づいて、上記第1の画像データとほぼ同質な予測
画像データを生成するステップと、 上記第1の画像データと上記予測画像データの誤差を検
出するステップと、 上記誤差に基づいて、上記中間画像データを出力画像と
するか否かを決定するステップとを有することを特徴と
する画像データ変換方法。
6. An image data conversion method for converting first image data into second image data having a lower quality than the first image data, wherein the first image data has substantially the same quality as the second image data. Generating intermediate image data; extracting a plurality of pixel data for each block that is a part of one screen from the intermediate image data; outputting a generated or previously obtained prediction coefficient Updating a pixel value of the intermediate image data extracted by the block extracting unit based on the prediction coefficient, the intermediate image data, and the first image data; and an intermediate image having the updated pixel value. Generating predicted image data having substantially the same quality as the first image data based on the data and the prediction coefficient; and generating the first image data and the predicted image data. An image data conversion method, comprising the steps of: detecting an error in the data; and determining whether to use the intermediate image data as an output image based on the error.
【請求項7】 予測係数を出力するステップは、抽出さ
れた中間画像と上記抽出された中間画像データに対応す
る位置の第1の画像データとに基づいて生成することを
特徴とする請求項6に記載の画像データ変換方法。
7. The method according to claim 6, wherein the step of outputting the prediction coefficient is performed based on the extracted intermediate image and first image data at a position corresponding to the extracted intermediate image data. The image data conversion method described in 1.
【請求項8】 上記誤差を検出するステップは、一画面
分の上記第1の画像データと一画面分の上記予測画素デ
ータとの誤差を検出することを特徴とする請求項6に記
載の画像データ変換方法。
8. The image according to claim 6, wherein the step of detecting an error detects an error between the first image data for one screen and the predicted pixel data for one screen. Data conversion method.
【請求項9】 上記画素値を更新するステップは、 上記予測係数と上記中間画像データと上記第1の画像デ
ータとに基づいて、正規方程式を生成するステップと、 上記正規方程式を解くことにより上記中間画像データの
更新された画素値を決定するステップとからなることを
特徴とする請求項6に記載の画像データ変換方法。
9. The method of updating the pixel value, comprising: generating a normal equation based on the prediction coefficient, the intermediate image data, and the first image data; and solving the normal equation, Determining the updated pixel value of the intermediate image data.
【請求項10】 上記画素値を決定するステップは、最
小二乗法を用いて上記正規方程式を解くことを特徴とす
る請求項8に記載の画像データ変換方法。
10. The method according to claim 8, wherein the step of determining the pixel value solves the normal equation using a least squares method.
【請求項11】 第1の画像データを、上記第1の画像
データより低質な第2の画像データに変換する時に、上
記第2の画像データの画素値を学習する学習装置におい
て、 上記第1の画像データから、上記第2の画像データとほ
ぼ同質な中間画像データを生成する中間画像データ生成
部と、 上記中間画像データを記憶する記憶部と、 上記中間画像データから、一画面中の一部であるブロッ
ク毎の複数の画素データを抽出するブロック抽出部と、 生成され、または予め取得された予測係数を出力する予
測係数生成部と、 上記予測係数と上記中間画像データと上記第1の画像デ
ータとに基づいて上記ブロック抽出部で抽出された中間
画像データの画素値を更新する画素値更新部と、 上記画素値更新部で画素値が更新された中間画像データ
と上記予測係数とに基づいて、上記第1の画像データと
ほぼ同質な予測画像データを生成する予測画像データ生
成部と、 上記第1の画像データと上記予測画像データの誤差を検
出する誤差検出部と、 上記誤差に基づいて、上記中間画像データを出力画像と
するか否かを決定する制御部とを備え、 上記画素値更新部は、上記予測係数を生徒データとし、
対応する上記第1の画像データを教師データとして、最
小二乗法によって、上記中間画像データの画素値を更新
することを特徴とする学習装置。
11. A learning apparatus for learning pixel values of the second image data when converting the first image data into second image data having a lower quality than the first image data. An intermediate image data generating unit for generating intermediate image data having substantially the same quality as the second image data from the image data; a storage unit for storing the intermediate image data; A block extraction unit that extracts a plurality of pixel data for each block, which is a unit; a prediction coefficient generation unit that outputs a generated or previously obtained prediction coefficient; a prediction coefficient, the intermediate image data, and the first A pixel value updating unit that updates a pixel value of the intermediate image data extracted by the block extracting unit based on the image data; and an intermediate image data whose pixel value is updated by the pixel value updating unit. A predicted image data generation unit that generates predicted image data substantially the same as the first image data based on the prediction coefficient; and an error detection unit that detects an error between the first image data and the predicted image data. A control unit that determines whether or not to use the intermediate image data as an output image based on the error, wherein the pixel value updating unit sets the prediction coefficient as student data,
A learning device, wherein the pixel value of the intermediate image data is updated by a least square method using the corresponding first image data as teacher data.
【請求項12】 第1の画像データを、上記第1の画像
データより低質な第2の画像データに変換する時に、上
記第2の画像データの画素値を学習する学習方法におい
て、 第1の画像データから第2の画像データとほぼ同質な中
間画像データを生成するステップと、 上記中間画像データから、一画面中の一部であるブロッ
ク毎の複数の画素データを抽出するステップと、 生成され、または予め取得された予測係数を出力するス
テップと、 上記予測係数と上記中間画像データと上記
第1の画像データとに基づいて抽出された中間画像デー
タの画素値を更新するステップと、 上記画素値が更新された中間画像データと上記予測係数
とに基づいて、上記第1の画像データとほぼ同質な予測
画像データを生成するステップと、 上記第1の画像データと上記予測画像データの誤差を検
出するステップと、 上記誤差に基づいて、上記中間画像データを出力画像と
するか否かを決定するステップとを備え、 画素値を更新するステップは、上記予測係数を生徒デー
タとし、対応する上記第1の画像データを教師データと
して、最小二乗法によって、上記中間画像データの画素
値を更新することを特徴とする学習方法。
12. A learning method for learning pixel values of the second image data when converting the first image data into second image data having a lower quality than the first image data. Generating intermediate image data having substantially the same quality as the second image data from the image data; and extracting a plurality of pixel data for each block that is a part of one screen from the intermediate image data. Or outputting a prediction coefficient obtained in advance; updating a pixel value of intermediate image data extracted based on the prediction coefficient, the intermediate image data, and the first image data; Generating predicted image data having substantially the same quality as the first image data based on the intermediate image data whose values have been updated and the prediction coefficient; Detecting an error in the predicted image data; and determining whether to use the intermediate image data as an output image based on the error. The step of updating a pixel value comprises: Using the first image data as the teacher data and updating the pixel values of the intermediate image data by the least squares method.
【請求項13】 第1の画像データを、上記第1の画像
データより低質な第2の画像データに変換する画像デー
タ変換するためのコンピュータ制御可能なプログラムが
記録された記録媒体において、 上記プログラムは、 第1の画像データから第2の画像データとほぼ同質な中
間画像データを生成するステップと、 上記中間画像データから、一画面中の一部であるブロッ
ク毎の複数の画素データを抽出するステップと、 上記抽出された中間画像と上記抽出された中間画像デー
タに対応する位置の第1の画像データとに基づいて予測
係数を生成するステップと、 上記予測係数と上記中間画像データと上記第1の画像デ
ータとに基づいて上記抽出された中間画像データの画素
値を更新するステップと、 上記画素値が更新された中間画像データと上記予測係数
とに基づいて、上記第1の画像データとほぼ同質な予測
画像データを生成するステップと、 上記第1の画像データと上記予測画像データの誤差を検
出するステップと、 上記誤差に基づいて、上記中間画像データを出力画像と
するか否かを決定するステップとからなることを特徴と
する記録媒体。
13. A recording medium on which a computer-controllable program for converting image data for converting first image data into second image data lower in quality than said first image data is recorded. Generating intermediate image data of substantially the same quality as the second image data from the first image data; and extracting a plurality of pixel data for each block that is a part of one screen from the intermediate image data Generating a prediction coefficient based on the extracted intermediate image and first image data at a position corresponding to the extracted intermediate image data; and calculating the prediction coefficient, the intermediate image data, and the Updating the pixel values of the extracted intermediate image data based on the first image data; and updating the pixel values of the extracted intermediate image data with the updated intermediate image data. Generating predicted image data having substantially the same quality as the first image data based on the prediction coefficient; detecting an error between the first image data and the predicted image data; And determining whether or not the intermediate image data is an output image.
JP28447599A 1998-10-05 1999-10-05 Image conversion apparatus and method, learning apparatus and method, and recording medium Expired - Fee Related JP4089104B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28447599A JP4089104B2 (en) 1998-10-05 1999-10-05 Image conversion apparatus and method, learning apparatus and method, and recording medium

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP10-282225 1998-10-05
JP28222598 1998-10-05
JP1053899 1999-01-19
JP5747099 1999-03-04
JP11-10538 1999-03-04
JP11-57470 1999-03-04
JP28447599A JP4089104B2 (en) 1998-10-05 1999-10-05 Image conversion apparatus and method, learning apparatus and method, and recording medium

Publications (3)

Publication Number Publication Date
JP2000316085A true JP2000316085A (en) 2000-11-14
JP2000316085A5 JP2000316085A5 (en) 2006-04-27
JP4089104B2 JP4089104B2 (en) 2008-05-28

Family

ID=27455407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28447599A Expired - Fee Related JP4089104B2 (en) 1998-10-05 1999-10-05 Image conversion apparatus and method, learning apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP4089104B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002085003A1 (en) * 2001-04-12 2002-10-24 Sony Corporation Signal processing device, housing rack, and connector
US7373431B2 (en) 2001-12-10 2008-05-13 Sony Corporation Signal processing apparatus, signal processing method, signal processing system, program and medium
US7694326B2 (en) 2002-05-17 2010-04-06 Sony Corporation Signal processing system and method, signal processing apparatus and method, recording medium, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002085003A1 (en) * 2001-04-12 2002-10-24 Sony Corporation Signal processing device, housing rack, and connector
KR100921060B1 (en) * 2001-04-12 2009-10-08 소니 가부시끼 가이샤 Signal processing device and method, signal processing system, and recording medium
US7859601B2 (en) 2001-04-12 2010-12-28 Sony Corporation Signal processing device, housing rack, and connector
US7373431B2 (en) 2001-12-10 2008-05-13 Sony Corporation Signal processing apparatus, signal processing method, signal processing system, program and medium
US7694326B2 (en) 2002-05-17 2010-04-06 Sony Corporation Signal processing system and method, signal processing apparatus and method, recording medium, and program
US8037509B2 (en) 2002-05-17 2011-10-11 Sony Corporation Signal processing system and method, signal processing apparatus and method, recording medium, and program

Also Published As

Publication number Publication date
JP4089104B2 (en) 2008-05-28

Similar Documents

Publication Publication Date Title
JP5263565B2 (en) Image processing apparatus, image processing method, and program
JP5093557B2 (en) Image processing apparatus, image processing method, and program
JPH11341496A (en) Image processing method, image processing unit and data storage medium
CN112889282A (en) Method and apparatus for performing artificial intelligence encoding and artificial intelligence decoding on image
JP4362895B2 (en) Data processing apparatus, data processing method, and recording medium
JPH1084548A (en) Image coder, image coding method, image decoder, image decoding method, transmission method and recording medium
JP4345231B2 (en) Data conversion apparatus and method, and recording medium
JP2002196737A (en) Information signal processor, information signal processing method, image signal processor and image display device using the same as well as coefficient species data former used for the same and forming method as well as information provision medium and television receiver
JP2000316085A (en) Image converter, image converting method, learning unit and method and recording medium
KR100574732B1 (en) Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium
WO2009122463A1 (en) Image data compression apparatus, decompression apparatus, compression method, decompression method, and program
KR19990087249A (en) Image signal encoding apparatus, image signal encoding method, image signal decoding apparatus, image signal decoding method, and recording medium
JP3844030B2 (en) Image signal encoding apparatus, image signal encoding method, image signal decoding apparatus, and image signal decoding method
EP1037471B1 (en) Image transform device and method and recording medium
JPH1011583A (en) Class classification adaptation processor and learning device/method for class classification adaptation processing
JP4872282B2 (en) Image display system, image display method, image display program, recording medium, data processing device, image display device
JP4514666B2 (en) Video encoding device
JP2007288761A (en) Image distribution system, image processing apparatus and method, distribution device and method, and program
KR100982625B1 (en) Information signal processing device and processing method
CN115398468A (en) AI reducing device and operation method thereof, and AI amplifying device and operation method thereof
JP4314956B2 (en) Electronic device, information signal processing method therefor, program for executing the processing method, and information signal processing apparatus to which the program is connected
JPH1093963A (en) Image encoder and image encoding method, image decoder and image decoding method, transmitting method and recording medium
JP2001298713A (en) Image processor and image processing method, and recording medium
JPH10313403A (en) Still image pickup device, color copying device and display device
JP4655483B2 (en) Information signal processing apparatus and method, program, and recording medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120307

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130307

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130307

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140307

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees