JP2006229623A - Encoder and method therefor, decoder and method therefor, recording medium, program, and image processing system and method therefor - Google Patents

Encoder and method therefor, decoder and method therefor, recording medium, program, and image processing system and method therefor Download PDF

Info

Publication number
JP2006229623A
JP2006229623A JP2005041201A JP2005041201A JP2006229623A JP 2006229623 A JP2006229623 A JP 2006229623A JP 2005041201 A JP2005041201 A JP 2005041201A JP 2005041201 A JP2005041201 A JP 2005041201A JP 2006229623 A JP2006229623 A JP 2006229623A
Authority
JP
Japan
Prior art keywords
image data
block
data
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005041201A
Other languages
Japanese (ja)
Other versions
JP2006229623A5 (en
JP4581733B2 (en
Inventor
Tetsuya Murakami
哲也 村上
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005041201A priority Critical patent/JP4581733B2/en
Publication of JP2006229623A publication Critical patent/JP2006229623A/en
Publication of JP2006229623A5 publication Critical patent/JP2006229623A5/ja
Application granted granted Critical
Publication of JP4581733B2 publication Critical patent/JP4581733B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To increase a deterioration level of image data by repeating encoding and decoding. <P>SOLUTION: A motion estimating unit 114 carries out motion search by using only pixels from top to the 3rd places of a frequency distribution of an original searching block in a digital image data Vdg1, and calculates motion vector. In a residual vector quantization unit 116; a residual after the motion estimation is subjected to vector quantization, and quantization code data is obtained. In a data synthesizing unit 117; the motion vector, quantization code data, and a code block 121 used for vector quantization, are generated as encoded data Vcd to a rear stage. The pixel used for the vector search changes a lot because of phase dislocation which is added to the image data Vdg1 as an object, and it becomes difficult to perform motion estimation correctly. The encoder and the decoder defined above can be applied to an image processing system for decoding image data from a recording medium and displaying it or encoding the image data and recording it in the recording medium. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法に関し、特に、ブロック内の画素頻度分布に着目して動き推定を行い、残差をベクトル量子化することにより、コピー前のデータによる出力の品質を落とすことなく、良好な質を維持したままで、コピーを抑制することができるようにした符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法に関する。   The present invention relates to an encoding device and method, a decoding device and method, a recording medium, a program, an image processing system and a method, and in particular, performs motion estimation by paying attention to a pixel frequency distribution in a block, and sets a residual as a vector quantum. The encoding apparatus and method, the decoding apparatus and method, and the recording medium that can suppress copying while maintaining good quality without degrading the quality of output by the data before copying And a program, an image processing system, and a method.

図1は、従来の画像処理システム1の構成例を示している。この画像処理システム1は、アナログの画像データVanを出力する再生装置11と、この再生装置11から出力される画像データVanに対応する画像を表示するディスプレイ12により構成されている。   FIG. 1 shows a configuration example of a conventional image processing system 1. The image processing system 1 includes a playback device 11 that outputs analog image data Van, and a display 12 that displays an image corresponding to the image data Van output from the playback device 11.

再生装置11は、復号部21とD/A(Digital-to-Analog)変換部22により構成される。復号部21は、図示せぬ光ディスクなどの記録媒体から再生される、符号化された画像データを復号し、復号したデジタルの画像データを、D/A変換部22に供給する。D/A変換部22は、復号部21からのデジタルの画像データを、アナログの画像データに変換し、アナログの画像データVanとして、ディスプレイ12に供給する。   The playback device 11 includes a decoding unit 21 and a D / A (Digital-to-Analog) conversion unit 22. The decoding unit 21 decodes encoded image data reproduced from a recording medium such as an optical disk (not shown), and supplies the decoded digital image data to the D / A conversion unit 22. The D / A conversion unit 22 converts the digital image data from the decoding unit 21 into analog image data, and supplies the analog image data Van to the display 12.

ディスプレイ12は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などで構成される。   The display 12 is composed of, for example, a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display).

ところで、従来においては、このような画像処理システム1の再生装置11により出力されるアナログの画像データVanを利用して、不正コピーが行われる恐れがあった。   Conventionally, there has been a risk of unauthorized copying using analog image data Van output from the playback device 11 of such an image processing system 1.

すなわち、再生装置11から出力されるアナログの画像データVanは、A/D変換部31によりデジタルの画像データVdgに変換されて符号化部32に供給される。符号化部32は、デジタルの画像データVdgを符号化し、符号化された画像データVcdを、記録部33に供給する。記録部33は、符号化された画像データVcdを光ディスクなどの記録媒体に記録する。   That is, the analog image data Van output from the reproduction apparatus 11 is converted into digital image data Vdg by the A / D conversion unit 31 and supplied to the encoding unit 32. The encoding unit 32 encodes the digital image data Vdg and supplies the encoded image data Vcd to the recording unit 33. The recording unit 33 records the encoded image data Vcd on a recording medium such as an optical disk.

以上のように行われてしまうアナログの画像データVanを用いた不正コピーを防止するためには、従来、著作権保護がなされている場合、アナログの画像データVanをスクランブル処理して出力したり(例えば、特許文献1)、あるいはアナログの画像データVdgの出力を抑制したりしていた。しかしながら、この場合、ディスプレイ12に正常な映像が移らないという問題が発生していた。   In order to prevent unauthorized copying using analog image data Van that is performed as described above, when copyright protection has been conventionally performed, analog image data Van is scrambled and output ( For example, Patent Document 1) or the output of analog image data Vdg has been suppressed. However, in this case, there has been a problem that normal video does not move to the display 12.

また、特許文献2に示されるADRC(Adaptive Dynamic Range Coding)を用いて符号化、復号を行う場合にも、符号化、復号によりダイナミックレンジが減少していくことにより、画像データが劣化するが、ADRCによるダイナミックレンジの減少の程度は、それほど大きな劣化ではない。また、ADRCの場合は、動画像に対しても適用可能ではあるが、動きの特性を利用したものではないので、動画像に対してあまり大きな劣化は得られない。   In addition, when encoding and decoding are performed using ADRC (Adaptive Dynamic Range Coding) shown in Patent Document 2, image data deteriorates due to a decrease in dynamic range due to encoding and decoding. The degree of reduction of the dynamic range by ADRC is not so much deterioration. In addition, in the case of ADRC, although it can be applied to a moving image, it does not utilize the characteristics of motion, so that a great deterioration cannot be obtained for the moving image.

そこで、画像が表示されなくなること等の不都合を発生することなく、アナログ画像信号を利用した不正コピーを防止する手法が、本出願人により提案されている(例えば、特許文献3参照)。   Therefore, a method for preventing unauthorized copying using an analog image signal without causing inconvenience such as no image being displayed has been proposed by the present applicant (see, for example, Patent Document 3).

特開2001−245270公報JP 2001-245270 A 特開昭61−144989公報Japanese Patent Laid-Open No. 61-144989 特開2004−289685公報JP 2004-289585 A

特許文献3に記載の手法では、アナログ画像信号をA/D変換することにより得られるデジタル画像信号の位相ずれ等のアナログノイズ(歪み)に着目し、そのデジタル画像信号に対してアナログノイズに着目した符号化を行うことによってコピー前の画像の質を落とさずに、良好な質を維持したままでのコピーを不可能とし、これによりアナログ画像信号を利用した不正コピーを防止するが、デジタルコンテンツの流通が一般的になっている近年においては、上述のように不正コピーを防止するための別の手法の提案が要請されている。   In the method described in Patent Literature 3, attention is paid to analog noise (distortion) such as phase shift of a digital image signal obtained by A / D conversion of the analog image signal, and attention is paid to analog noise for the digital image signal. By performing this encoding, it is impossible to copy while maintaining good quality without degrading the quality of the image before copying, thereby preventing unauthorized copying using analog image signals, but digital content In recent years, when the distribution of such information has become common, there has been a demand for a proposal of another method for preventing unauthorized copying as described above.

本発明は、このような状況に鑑みてなされたものであり、コピー前のデータによる出力の品質を落とすことなく、良好な質を維持したままで、コピーを簡単に抑制することができるようにするものである。   The present invention has been made in view of such a situation, so that copying can be easily suppressed while maintaining good quality without deteriorating the quality of output by data before copying. To do.

本発明の符号化装置は、入力される画像データ中の第1のフレームをブロック化するブロック化手段と、ブロック化手段によりブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素を抽出する画素抽出手段と、画素抽出手段により抽出された画素を用いて、ブロックの動きベクトルを推定する動き推定手段と、動き推定手段により推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分を算出する差分算出手段と、差分算出手段により算出された差分に対して、ベクトル量子化を行うベクトル量子化手段とを備えることを特徴とする。   The encoding apparatus according to the present invention represents a block based on a blocking unit that blocks a first frame in input image data, and a frequency distribution of pixel values of the blocks that are blocked by the blocking unit. A pixel extraction unit that extracts pixels to be used, a motion estimation unit that estimates a motion vector of the block using the pixels extracted by the pixel extraction unit, and a motion vector estimated by the motion estimation unit. Difference calculating means for calculating a difference between the image data of the second frame to be processed and the image data in the block, and vector quantization means for performing vector quantization on the difference calculated by the difference calculating means. It is characterized by.

画像データにノイズを付加し、ノイズが付加された画像データを出力するノイズ付加手段をさらに備え、ブロック化手段は、ノイズ付加手段によりノイズが付加された画像データの第1のフレームをブロック化するようにすることができる。   The image processing apparatus further includes noise adding means for adding noise to the image data and outputting the image data to which the noise is added, and the blocking means blocks the first frame of the image data to which the noise is added by the noise adding means. Can be.

動き推定手段は、画素抽出手段により抽出された画素を用いて、第2のフレームから、画素差分2乗総和の最小となるブロックを探索することにより、動きベクトルを推定するようにすることができる。   The motion estimation means can estimate a motion vector by searching for a block having the minimum sum of squares of pixel differences from the second frame using the pixels extracted by the pixel extraction means. .

ベクトル量子化手段によるベクトル量子化に用いられるコードブックは、入力される画像データに基づいて生成されるようにすることができる。   The code book used for vector quantization by the vector quantization means can be generated based on input image data.

ベクトル量子化手段によるベクトル量子化に用いられるコードブック、ベクトル量子化手段によりベクトル量子化が行われることにより得られる量子化データ、および動き推定手段により推定された動きベクトルを、符号化データとして後段に出力するデータ出力手段をさらに備えるようにすることができる。   Codebook used for vector quantization by vector quantization means, quantized data obtained by vector quantization by vector quantization means, and motion vector estimated by motion estimation means as encoded data It is possible to further include data output means for outputting the data.

画素抽出手段は、ブロックの画素値の頻度分布が上位3位以内の画素を、ブロックを代表する画素として抽出するようにすることができる。   The pixel extraction means can extract pixels having a frequency distribution of pixel values of the block that are within the top three as pixels representing the block.

本発明の符号化方法は、入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、ブロック化ステップの処理によりブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素を抽出する画素抽出ステップと、画素抽出ステップの処理により抽出された画素を用いて、ブロックの動きベクトルを推定する動き推定ステップと、動き推定ステップの処理により推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分を算出する差分算出ステップと、差分算出ステップの処理により算出された差分に対して、ベクトル量子化を行うベクトル量子化ステップとを含むことを特徴とする。   The encoding method of the present invention includes a blocking step for blocking the first frame in the input image data, and a block based on the frequency distribution of the pixel values of the blocks blocked by the processing of the blocking step. A pixel extraction step for extracting a pixel representing the pixel, a motion estimation step for estimating a motion vector of the block using the pixel extracted by the processing of the pixel extraction step, and a motion vector estimated by the processing of the motion estimation step A difference calculation step for calculating a difference between the image data of the second frame corresponding to the block and the image data in the block, and vector quantization on the difference calculated by the processing of the difference calculation step. And a vector quantization step.

画像データにノイズを付加し、ノイズが付加された画像データをブロック化ステップの処理に入力するノイズ付加ステップをさらに含み、ブロック化ステップの処理では、ノイズ付加ステップの処理によりノイズが付加された画像データの第1のフレームをブロック化するようにすることができる。   The image processing method further includes a noise addition step of adding noise to the image data and inputting the noise-added image data to the blocking step processing. In the blocking step processing, the image to which noise has been added by the noise addition step processing The first frame of data can be blocked.

動き推定ステップの処理では、画素抽出ステップの処理により抽出された画素を用いて、第2のフレームから、画素差分2乗総和の最小となるブロックを探索することにより、動きベクトルを推定するようにすることができる。   In the processing of the motion estimation step, the motion vector is estimated by searching the second frame for the block having the minimum sum of squares of pixel differences using the pixels extracted by the processing of the pixel extraction step. can do.

ベクトル量子化ステップの処理によるベクトル量子化に用いられるコードブックは、入力される画像データに基づいて生成されるようにすることができる。   The code book used for vector quantization by the processing of the vector quantization step can be generated based on input image data.

ベクトル量子化ステップの処理によるベクトル量子化に用いられるコードブック、ベクトル量子化ステップの処理によりベクトル量子化が行われることにより得られる量子化データ、および動き推定ステップの処理により推定された動きベクトルを、符号化データとして後段に出力するデータ出力ステップをさらに含むようにすることができる。   Codebook used for vector quantization by vector quantization step processing, quantized data obtained by vector quantization by vector quantization step processing, and motion vector estimated by motion estimation step processing A data output step of outputting the encoded data to the subsequent stage can be further included.

画素抽出ステップの処理では、ブロックの画素値の頻度分布が上位3位以内の画素を、ブロックを代表する画素として抽出するようにすることができる。   In the process of the pixel extraction step, the pixels having the highest frequency distribution of the pixel values of the block can be extracted as the pixels representing the block.

本発明の第1のプログラムが記録される記録媒体は、入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、ブロック化ステップの処理によりブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素を抽出する画素抽出ステップと、画素抽出ステップの処理により抽出された画素を用いて、ブロックの動きベクトルを推定する動き推定ステップと、動き推定ステップの処理により推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分を算出する差分算出ステップと、差分算出ステップの処理により算出された差分に対して、ベクトル量子化を行うベクトル量子化ステップとを含むことを特徴とする。   A recording medium on which the first program of the present invention is recorded includes a blocking step for blocking the first frame in the input image data, and pixel values of blocks blocked by the processing of the blocking step. Based on the frequency distribution, a pixel extraction step for extracting pixels representative of the block, a motion estimation step for estimating a motion vector of the block using the pixels extracted by the processing of the pixel extraction step, and processing of the motion estimation step The difference calculation step for calculating the difference between the image data of the second frame corresponding to the block and the image data in the block using the motion vector estimated by the step, and the difference calculated by the processing of the difference calculation step And a vector quantization step for performing vector quantization.

本発明の第1のプログラムは、入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、ブロック化ステップの処理によりブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素を抽出する画素抽出ステップと、画素抽出ステップの処理により抽出された画素を用いて、ブロックの動きベクトルを推定する動き推定ステップと、動き推定ステップの処理により推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分を算出する差分算出ステップと、差分算出ステップの処理により算出された差分に対して、ベクトル量子化を行うベクトル量子化ステップとを含むことを特徴とする。   The first program of the present invention is based on a blocking step for blocking the first frame in the input image data, and a frequency distribution of pixel values of the blocks blocked by the processing of the blocking step. A pixel extraction step for extracting a pixel representing the block, a motion estimation step for estimating a motion vector of the block using the pixels extracted by the processing of the pixel extraction step, and a motion vector estimated by the processing of the motion estimation step Is used to calculate the difference between the image data of the second frame corresponding to the block and the image data in the block, and the vector quantization is performed on the difference calculated by the processing of the difference calculation step. A vector quantization step to be performed.

本発明の復号装置は、画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力手段と、データ入力手段により入力された量子化データを逆量子化することにより差分値を抽出する差分値抽出手段と、データ入力手段により入力された動きベクトルに応じて、第1のフレームの画像データに、差分値抽出手段により抽出された差分値を加算することで、第2のフレームの画像データを生成するデータ加算手段とを備えることを特徴とする。   The decoding device according to the present invention includes a motion vector obtained using pixels representing a block extracted based on a frequency distribution of pixel values in a block in image data, and a plurality of frames calculated using the motion vector. Data input means for inputting quantized data obtained by performing vector quantization on the difference value between them, and extracting the difference value by inverse quantization of the quantized data input by the data input means The second frame image is obtained by adding the difference value extracted by the difference value extraction unit to the image data of the first frame in accordance with the motion vector input by the difference value extraction unit and the data input unit. And a data adding means for generating data.

データ加算手段により生成された画像データにノイズを付加し、ノイズが付加された画像データを後段に出力するノイズ付加手段をさらに備えるようにすることができる。   Noise addition means for adding noise to the image data generated by the data addition means and outputting the image data with the noise added to the subsequent stage can be further provided.

データ入力手段は、ベクトル量子化に用いられたコードブックも入力し、差分値抽出手段は、データ入力手段により入力されたコードブックを用いて、量子化データを逆量子化するようにすることができる。   The data input means also inputs a codebook used for vector quantization, and the difference value extraction means may inversely quantize the quantized data using the codebook input by the data input means. it can.

データ入力手段により入力された動きベクトルに応じて、第1のフレームの画像データから、予測ブロックの画像データを予測する動き補償手段をさらに備え、データ加算手段は、動き補償手段により予測された予測ブロックの画像データに、差分値抽出手段により抽出された差分値を加算することで、第2のフレームの画像データを生成するようにすることができる。   According to the motion vector input by the data input means, the apparatus further comprises a motion compensation means for predicting the image data of the prediction block from the image data of the first frame, and the data addition means is a prediction predicted by the motion compensation means. By adding the difference value extracted by the difference value extraction means to the image data of the block, the image data of the second frame can be generated.

本発明の復号方法は、画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力ステップと、データ入力ステップの処理により入力された量子化データを逆量子化することにより差分値を抽出する差分値抽出ステップと、データ入力ステップの処理により入力された動きベクトルに応じて、第1のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第2のフレームの画像データを生成するデータ加算ステップとを含むことを特徴とする。   The decoding method of the present invention includes a motion vector obtained using pixels representing a block extracted based on a frequency distribution of pixel values in a block in image data, and a plurality of frames calculated using the motion vector. A data input step for inputting quantized data obtained by performing vector quantization on the difference value between, and the difference value by dequantizing the quantized data input by the processing of the data input step By adding the difference value extracted by the difference value extraction step process to the image data of the first frame according to the difference value extraction step to be extracted and the motion vector input by the data input step process, And a data adding step for generating image data of the second frame.

データ加算ステップの処理により生成された画像データにノイズを付加し、ノイズが付加された画像データを後段に出力するノイズ付加ステップをさらに含むようにすることができる。   It is possible to further include a noise addition step of adding noise to the image data generated by the data addition step processing and outputting the noise-added image data to the subsequent stage.

データ入力ステップの処理では、ベクトル量子化に用いられたコードブックも入力し、差分値抽出ステップの処理では、データ入力ステップの処理により入力されたコードブックを用いて、量子化データを逆量子化するようにすることができる。   In the data input step processing, the code book used for vector quantization is also input. In the difference value extraction step processing, the quantized data is inversely quantized using the code book input by the data input step processing. To be able to.

データ入力ステップの処理により入力された動きベクトルに応じて、第1のフレームの画像データから、予測ブロックの画像データを予測する動き補償ステップをさらに含み、データ加算ステップの処理では、動き補償ステップの処理により予測された予測ブロックの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第2のフレームの画像データを生成するようにすることができる。   The method further includes a motion compensation step of predicting the image data of the prediction block from the image data of the first frame in accordance with the motion vector input by the data input step processing. The image data of the second frame can be generated by adding the difference value extracted by the processing of the difference value extraction step to the image data of the prediction block predicted by the processing.

本発明の第2のプログラムが記録される記録媒体は、画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力ステップと、データ入力ステップの処理により入力された量子化データを逆量子化することにより差分値を抽出する差分値抽出ステップと、データ入力ステップの処理により入力された動きベクトルに応じて、第1のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第2のフレームの画像データを生成するデータ加算ステップとを含むことを特徴とする。   A recording medium on which the second program of the present invention is recorded includes a motion vector obtained by using a pixel representing a block extracted based on a frequency distribution of pixel values in a block in image data, and a motion vector The data input step for inputting the quantized data obtained by performing vector quantization on the difference value between multiple frames calculated using, and the quantized data input by the data input step processing are reversed. In accordance with the difference value extraction step for extracting the difference value by quantization and the motion vector input by the processing of the data input step, the image data of the first frame is extracted by the processing of the difference value extraction step. And a data addition step of generating image data of the second frame by adding the difference values.

本発明の第2のプログラムは、画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力ステップと、データ入力ステップの処理により入力された量子化データを逆量子化することにより差分値を抽出する差分値抽出ステップと、データ入力ステップの処理により入力された動きベクトルに応じて、第1のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第2のフレームの画像データを生成するデータ加算ステップとを含むことを特徴とする。   The second program of the present invention is calculated using a motion vector obtained by using a pixel representing a block extracted based on a frequency distribution of pixel values in a block in image data, and the motion vector. A data input step for inputting quantized data obtained by performing vector quantization on a difference value between multiple frames, and a difference by dequantizing the quantized data input by the data input step processing The difference value extracted by the process of the difference value extraction step is added to the image data of the first frame in accordance with the difference vector extraction step for extracting the value and the motion vector input by the process of the data input step. And a data addition step of generating image data of the second frame.

本発明の第1の画像処理システムは、符号化装置は、入力される画像データ中の第1のフレームをブロック化するブロック化手段と、ブロック化手段によりブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素を抽出する画素抽出手段と、画素抽出手段により抽出された画素を用いて、ブロックの動きベクトルを推定する動き推定手段と、動き推定手段により推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分を算出する差分算出手段と、差分算出手段により算出された差分に対して、ベクトル量子化を行うベクトル量子化手段とを備えることを特徴とする。   In the first image processing system of the present invention, the encoding device includes a blocking unit that blocks the first frame in the input image data, and the frequency of the pixel values of the blocks blocked by the blocking unit. Based on the distribution, pixel extraction means for extracting pixels representing the block, motion estimation means for estimating a motion vector of the block using the pixels extracted by the pixel extraction means, and motion estimated by the motion estimation means Using the vector, the difference calculation means for calculating the difference between the image data of the second frame corresponding to the block and the image data in the block, and vector quantization on the difference calculated by the difference calculation means Vector quantization means.

復号装置からの画像データにノイズを付加し、ノイズが付加された画像データを、符号化装置に入力するノイズ付加手段をさらに備えるようにすることができる。   It is possible to further include noise adding means for adding noise to the image data from the decoding device and inputting the image data to which the noise has been added to the encoding device.

本発明の第1の画像処理方法は、符号化装置の符号化方法は、入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、ブロック化ステップの処理によりブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素を抽出する画素抽出ステップと、画素抽出ステップの処理により抽出された画素を用いて、ブロックの動きベクトルを推定する動き推定ステップと、動き推定ステップの処理により推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分を算出する差分算出ステップと、差分算出ステップの処理により算出された差分に対して、ベクトル量子化を行うベクトル量子化ステップとを含むことを特徴とする。   According to the first image processing method of the present invention, the encoding method of the encoding device is blocked by the block step for blocking the first frame in the input image data and the block step processing. Based on the frequency distribution of the pixel value of the block, a pixel extraction step for extracting a pixel representing the block, a motion estimation step for estimating a motion vector of the block using the pixel extracted by the processing of the pixel extraction step, Using the motion vector estimated by the motion estimation step processing, the difference calculation step for calculating the difference between the image data of the second frame corresponding to the block and the image data in the block, and the calculation by the processing of the difference calculation step And a vector quantization step for performing vector quantization on the difference obtained.

復号装置からの画像データにノイズを付加し、ノイズが付加された画像データを、符号化装置に入力するノイズ付加ステップをさらに含むようにすることができる。   It is possible to further include a noise adding step of adding noise to the image data from the decoding device and inputting the image data to which the noise has been added to the encoding device.

本発明の第2の画像処理システムは、復号装置は、画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力手段と、データ入力手段により入力された量子化データを逆量子化することにより差分値を抽出する差分値抽出手段と、データ入力手段により入力された動きベクトルに応じて、第1のフレームの画像データに差分値抽出手段により抽出された差分値を加算することで、第2のフレームの画像データを生成するデータ加算手段とを備えることを特徴とする。   In the second image processing system according to the present invention, the decoding device includes a motion vector obtained by using a pixel representing a block extracted based on a frequency distribution of pixel values in a block in image data, and a motion vector. Data input means for inputting quantized data obtained by performing vector quantization on the difference value between multiple frames calculated using, and inverse quantization of the quantized data input by the data input means By adding the difference value extracted by the difference value extracting means to the image data of the first frame in accordance with the motion vector input by the data input means and the difference value extracting means for extracting the difference value by And data adding means for generating image data of the second frame.

復号装置からの画像データにノイズを付加し、ノイズが付加された画像データを、符号化装置に出力するノイズ付加手段をさらに備えるようにすることができる。   It is possible to further include noise adding means for adding noise to the image data from the decoding device and outputting the image data to which the noise has been added to the encoding device.

本発明の第2の画像処理方法は、復号装置の復号方法は、画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力ステップと、データ入力ステップの処理により入力された量子化データを逆量子化することにより差分値を抽出する差分値抽出ステップと、データ入力ステップの処理により入力された動きベクトルに応じて、第1のフレームの画像データに差分値抽出ステップの処理により抽出された差分値を加算することで、第2のフレームの画像データを生成するデータ加算ステップとを含むことを特徴とする。   According to a second image processing method of the present invention, the decoding method of the decoding device includes a motion vector obtained by using a pixel representing a block extracted based on a frequency distribution of pixel values in a block in image data. A data input step for inputting quantized data obtained by performing vector quantization on a difference value between a plurality of frames calculated using a motion vector, and a quantization input by processing of the data input step A difference value extraction step for extracting a difference value by dequantizing the data, and extraction of the first frame image data by the difference value extraction step processing according to the motion vector input by the data input step processing And a data addition step of generating image data of the second frame by adding the difference values thus obtained.

復号装置からの画像データにノイズを付加し、ノイズが付加された画像データを、符号化装置に出力するノイズ付加ステップをさらに含むようにすることができる。   It is possible to further include a noise adding step of adding noise to the image data from the decoding device and outputting the image data to which the noise has been added to the encoding device.

第1の本発明においては、入力される画像データ中の第1のフレームがブロック化され、ブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素が抽出され、抽出された画素を用いて、ブロックの動きベクトルが推定される。そして、推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分が算出され、算出された差分に対して、ベクトル量子化が行われる。   In the first aspect of the present invention, the first frame in the input image data is blocked, and pixels representing the block are extracted and extracted based on the frequency distribution of the pixel values of the blocked blocks. The motion vector of the block is estimated using the obtained pixels. Then, using the estimated motion vector, a difference between the image data of the second frame corresponding to the block and the image data in the block is calculated, and vector quantization is performed on the calculated difference.

第2の本発明においては、画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データが入力される。そして、入力された量子化データを逆量子化することにより差分値が抽出され、入力された動きベクトルに応じて、第1のフレームの画像データに、抽出された差分値を加算することで、第2のフレームの画像データが生成される。   In the second aspect of the present invention, a motion vector obtained using pixels representing a block extracted based on a frequency distribution of pixel values in a block in image data, and a plurality of motion vectors calculated using the motion vector. Quantized data obtained by performing vector quantization on the difference value between frames is input. Then, a difference value is extracted by dequantizing the input quantized data, and by adding the extracted difference value to the image data of the first frame according to the input motion vector, Image data of the second frame is generated.

第3の本発明においては、入力される画像データ中の第1のフレームがブロック化され、ブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素が抽出され、抽出された画素を用いて、ブロックの動きベクトルが推定される。そして、推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分が算出され、算出された差分に対して、ベクトル量子化が行われる。   In the third aspect of the present invention, the first frame in the input image data is blocked, and pixels representing the block are extracted and extracted based on the frequency distribution of the pixel values of the blocked blocks. The motion vector of the block is estimated using the obtained pixels. Then, using the estimated motion vector, a difference between the image data of the second frame corresponding to the block and the image data in the block is calculated, and vector quantization is performed on the calculated difference.

第4の本発明においては、画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データが入力される。そして、入力された量子化データを逆量子化することにより差分値が抽出され、入力された動きベクトルに応じて、第1のフレームの画像データに、抽出された差分値を加算することで、第2のフレームの画像データが生成される。   In the fourth aspect of the present invention, a motion vector obtained using a pixel representing a block extracted based on a frequency distribution of pixel values in a block in image data, and a plurality of motion vectors calculated using the motion vector. Quantized data obtained by performing vector quantization on the difference value between frames is input. Then, a difference value is extracted by dequantizing the input quantized data, and by adding the extracted difference value to the image data of the first frame according to the input motion vector, Image data of the second frame is generated.

本発明によれば、符号化、復号の繰り返しにより、画像データの劣化の程度を大きくすることができる。これにより、本発明によれば、コピー前のデータによる出力の品質を落とすことなく、良好な質を維持したままで、コピーを簡単に抑制することができる。   According to the present invention, the degree of degradation of image data can be increased by repeating encoding and decoding. Thus, according to the present invention, it is possible to easily suppress copying while maintaining good quality without degrading the quality of output by data before copying.

以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Accordingly, although there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.

さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。   Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.

請求項1に記載の符号化装置(例えば、図2の符号化装置63)は、入力される画像データ中の第1のフレームをブロック化するブロック化手段(例えば、図5のブロック化部111)と、ブロック化手段によりブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素を抽出する画素抽出手段(例えば、図5の動き推定ブロック生成部113)と、画素抽出手段により抽出された画素を用いて、ブロックの動きベクトルを推定する動き推定手段(例えば、図5の動き推定部114)と、動き推定手段により推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分を算出する差分算出手段(例えば、図5の残差算出部115)と、差分算出手段により算出された差分に対して、ベクトル量子化を行うベクトル量子化手段(例えば、図5の残差ベクトル量子化部116)とを備えることを特徴とする。   The encoding device according to claim 1 (for example, the encoding device 63 in FIG. 2) is a blocking unit (for example, the blocking unit 111 in FIG. 5) that blocks the first frame in the input image data. ), A pixel extraction unit (for example, the motion estimation block generation unit 113 in FIG. 5) that extracts a pixel representing the block based on the frequency distribution of the pixel values of the blocks that are blocked by the blocking unit, and pixel extraction Corresponding to a block using a motion estimation unit (for example, the motion estimation unit 114 in FIG. 5) that estimates a motion vector of a block using the pixels extracted by the unit, and a motion vector estimated by the motion estimation unit Difference calculation means for calculating the difference between the image data of the second frame and the image data in the block (for example, the residual calculation unit 115 in FIG. 5), and difference calculation means For a greater calculated difference, characterized in that it comprises a vector quantization means for performing vector quantization (e.g., residual vector quantization unit 116 of FIG. 5).

請求項2に記載の符号化装置は、画像データにノイズを付加し、ノイズが付加された画像データを出力するノイズ付加手段(例えば、図2のA/D変換部81)をさらに備え、ブロック化手段は、ノイズ付加手段によりノイズが付加された画像データの第1のフレームをブロック化することを特徴とする。   The encoding apparatus according to claim 2 further includes noise adding means (for example, an A / D conversion unit 81 in FIG. 2) for adding noise to the image data and outputting the image data to which the noise has been added. The converting means blocks the first frame of the image data to which noise is added by the noise adding means.

請求項4に記載の符号化装置は、ベクトル量子化手段によるベクトル量子化に用いられるコードブック(例えば、図5のベクトル量子化用コードブック121)は、入力される画像データに基づいて生成されることを特徴とする。   In the encoding device according to claim 4, a code book (for example, the vector quantization code book 121 in FIG. 5) used for vector quantization by the vector quantization means is generated based on input image data. It is characterized by that.

請求項5に記載の符号化装置は、ベクトル量子化手段によるベクトル量子化に用いられるコードブック、ベクトル量子化手段によりベクトル量子化が行われることにより得られる量子化データ、および動き推定手段により推定された動きベクトルを、符号化データとして後段に出力するデータ出力手段(例えば、図5のデータ合成部117)をさらに備えることを特徴とする。   The encoding apparatus according to claim 5 is a codebook used for vector quantization by vector quantization means, quantized data obtained by performing vector quantization by vector quantization means, and estimation by motion estimation means. The apparatus further includes data output means (for example, the data synthesizer 117 in FIG. 5) that outputs the motion vector thus processed as encoded data to the subsequent stage.

請求項7に記載の符号化方法は、入力される画像データ中の第1のフレームをブロック化するブロック化ステップ(例えば、図10のステップS21)と、ブロック化ステップの処理によりブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素を抽出する画素抽出ステップ(例えば、図10のステップS22)と、画素抽出ステップの処理により抽出された画素を用いて、ブロックの動きベクトルを推定する動き推定ステップ(例えば、図10のステップS23)と、動き推定ステップの処理により推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分を算出する差分算出ステップ(例えば、図10のステップS24)と、差分算出ステップの処理により算出された差分に対して、ベクトル量子化を行うベクトル量子化ステップ(例えば、図10のステップS25)とを含むことを特徴とする。   The encoding method according to claim 7 is blocked by processing of a blocking step (for example, step S21 in FIG. 10) for blocking the first frame in the input image data and the blocking step. Based on the frequency distribution of the pixel values of the block, a pixel extraction step (for example, step S22 in FIG. 10) for extracting a pixel representative of the block, and a pixel motion extracted using the pixel extraction process. Using the motion estimation step (for example, step S23 in FIG. 10) for estimating the vector and the motion vector estimated by the processing of the motion estimation step, the image data of the second frame corresponding to the block, and the image data in the block A difference calculating step (for example, step S24 in FIG. 10) for calculating the difference between On the difference calculated by the processing of flops, characterized in that it comprises a vector quantization step of performing vector quantization (e.g., step S25 in FIG. 10).

請求項8に記載の符号化方法は、画像データにノイズを付加し、ノイズが付加された画像データをブロック化ステップの処理に入力するノイズ付加ステップ(例えば、図4のステップS4)をさらに含み、ブロック化ステップの処理では、ノイズ付加ステップの処理によりノイズが付加された画像データの第1のフレームをブロック化することを特徴とする。   The encoding method according to claim 8 further includes a noise adding step (for example, step S4 in FIG. 4) for adding noise to the image data and inputting the noise-added image data to the processing of the blocking step. The blocking step processing is characterized in that the first frame of image data to which noise has been added by the noise addition step processing is blocked.

請求項11に記載の符号化方法は、ベクトル量子化ステップの処理によるベクトル量子化に用いられるコードブック、ベクトル量子化ステップの処理によりベクトル量子化が行われることにより得られる量子化データ、および動き推定ステップの処理により推定された動きベクトルを、符号化データとして後段に出力するデータ出力ステップ(例えば、図10のステップS26)をさらに含むことを特徴とする。   The encoding method according to claim 11 includes a codebook used for vector quantization by a vector quantization step process, quantized data obtained by performing vector quantization by a vector quantization step process, and motion It further includes a data output step (for example, step S26 in FIG. 10) that outputs the motion vector estimated by the processing of the estimation step to the subsequent stage as encoded data.

なお、請求項13に記載の記録媒体および請求項14に記載のプログラムも、上述した請求項7に記載の符号化方法と基本的に同様の処理であるため、繰り返しになるのでその説明は省略する。   Note that the recording medium according to claim 13 and the program according to claim 14 are basically the same processing as the encoding method according to claim 7 described above, and are therefore repeated, so that the description thereof is omitted. To do.

請求項15に記載の復号装置(例えば、図2の符号化装置63)は、画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力手段(例えば、図17のデータ分解部211)と、データ入力手段により入力された量子化データを逆量子化することにより差分値を抽出する差分値抽出手段(例えば、図17の残差逆ベクトル量子化部212)と、データ入力手段により入力された動きベクトルに応じて、第1のフレームの画像データに、差分値抽出手段により抽出された差分値を加算することで、第2のフレームの画像データを生成するデータ加算手段(例えば、図17の残差加算部215)とを備えることを特徴とする。   The decoding device according to claim 15 (for example, the encoding device 63 in FIG. 2) is obtained by using a pixel representing a block extracted based on a frequency distribution of pixel values in a block in image data. Data input means for inputting a motion vector and quantized data obtained by performing vector quantization on a difference value between a plurality of frames calculated using the motion vector (for example, the data decomposition unit 211 in FIG. 17) ), Difference value extraction means (for example, the residual inverse vector quantization unit 212 in FIG. 17) for extracting a difference value by inverse quantization of the quantized data input by the data input means, and data input means By adding the difference value extracted by the difference value extraction means to the image data of the first frame according to the input motion vector, the image data of the second frame is added. Data addition means for generating data (e.g., the residual addition unit 215 of FIG. 17), characterized in that it comprises a.

請求項16に記載の復号装置は、データ加算手段により生成された画像データにノイズを付加し、ノイズが付加された画像データを後段に出力するノイズ付加手段(例えば、図2のD/A変換部85)をさらに備えることを特徴とする。   17. The decoding apparatus according to claim 16, wherein noise is added to the image data generated by the data addition means, and noise addition means for outputting the image data with the noise added to a subsequent stage (for example, D / A conversion in FIG. 2). Part 85).

請求項17に記載の復号装置は、データ入力手段は、ベクトル量子化に用いられたコードブック(例えば、図5のベクトル量子化用コードブック121)も入力し、差分値抽出手段は、データ入力手段により入力されたコードブックを用いて、量子化データを逆量子化することを特徴とする。   In the decoding device according to claim 17, the data input means also inputs a code book used for vector quantization (for example, the vector quantization code book 121 of FIG. 5), and the difference value extraction means receives the data input. The quantized data is inversely quantized using the code book input by the means.

請求項18に記載の復号装置は、データ入力手段により入力された動きベクトルに応じて、第1のフレームの画像データから、予測ブロックの画像データを予測する動き補償手段(例えば、図17の動き補償部214)をさらに備え、データ加算手段は、動き補償手段により予測された予測ブロックの画像データに、差分値抽出手段により抽出された差分値を加算することで、第2のフレームの画像データを生成することを特徴とする。   The decoding apparatus according to claim 18 is a motion compensation unit that predicts image data of a prediction block from image data of a first frame in accordance with a motion vector input by a data input unit (for example, motion of FIG. 17). The second frame image data by adding the difference value extracted by the difference value extraction means to the image data of the prediction block predicted by the motion compensation means. Is generated.

請求項19に記載の復号方法は、画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力ステップ(例えば、図21のステップS211)と、データ入力ステップの処理により入力された量子化データを逆量子化することにより差分値を抽出する差分値抽出ステップ(例えば、図21のステップS212)と、データ入力ステップの処理により入力された動きベクトルに応じて、第1のフレームの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第2のフレームの画像データを生成するデータ加算ステップ(例えば、図21のステップS214)とを含むことを特徴とする。   The decoding method according to claim 19 is calculated using a motion vector obtained by using a pixel representing a block extracted based on a frequency distribution of pixel values in a block in image data, and the motion vector. A data input step (for example, step S211 in FIG. 21) for inputting quantized data obtained by performing vector quantization on a difference value between a plurality of frames, and a quantum input by processing of the data input step A difference value extraction step (for example, step S212 in FIG. 21) for extracting a difference value by inverse quantization of the quantized data, and an image of the first frame according to the motion vector input by the data input step processing The image data of the second frame is generated by adding the difference value extracted by the difference value extraction step to the data. Data addition step (e.g., step S214 in FIG. 21), characterized in that it comprises a.

請求項20に記載の復号方法は、データ加算ステップの処理により生成された画像データにノイズを付加し、ノイズが付加された画像データを後段に出力するノイズ付加ステップ(例えば、図4のステップS7(またはS2))をさらに含むことを特徴とする。   The decoding method according to claim 20 adds a noise to the image data generated by the processing of the data addition step, and outputs the noise-added image data to a subsequent stage (for example, step S7 in FIG. 4). (Or S2)).

請求項22に記載の復号方法は、データ入力ステップの処理により入力された動きベクトルに応じて、第1のフレームの画像データから、予測ブロックの画像データを予測する動き補償ステップ(例えば、図21のステップS213)をさらに含み、データ加算ステップの処理では、動き補償ステップの処理により予測された予測ブロックの画像データに、差分値抽出ステップの処理により抽出された差分値を加算することで、第2のフレームの画像データを生成することを特徴とする。   The decoding method according to claim 22 is a motion compensation step of predicting image data of a prediction block from image data of a first frame in accordance with a motion vector input by the data input step (for example, FIG. 21). In the data addition step processing, the difference value extracted by the difference value extraction step processing is added to the image data of the prediction block predicted by the motion compensation step processing. Image data of two frames is generated.

なお、請求項23に記載の記録媒体および請求項24に記載のプログラムも、上述した請求項19に記載の復号方法と基本的に同様の処理であるため、繰り返しになるのでその説明は省略する。   Note that the recording medium according to claim 23 and the program according to claim 24 are basically the same processing as the decoding method according to claim 19 described above, and are therefore repeated, so the description thereof is omitted. .

請求項25に記載の画像処理システム(例えば、図2の画像処理システム51)は、符号化装置(例えば、図2の符号化部82)は、入力される画像データ中の第1のフレームをブロック化するブロック化手段(例えば、図5のブロック化部111)と、ブロック化手段によりブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素を抽出する画素抽出手段(例えば、図5の動き推定ブロック生成部113)と、画素抽出手段により抽出された画素を用いて、ブロックの動きベクトルを推定する動き推定手段(例えば、図5の動き推定部114)と、動き推定手段により推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分を算出する差分算出手段(例えば、図5の残差算出部115)と、差分算出手段により算出された差分に対して、ベクトル量子化を行うベクトル量子化手段(例えば、図5の残差ベクトル量子化部116)とを備えることを特徴とする。   In the image processing system according to claim 25 (for example, the image processing system 51 in FIG. 2), the encoding device (for example, the encoding unit 82 in FIG. 2) uses the first frame in the input image data. Blocking means for blocking (for example, the blocking unit 111 in FIG. 5) and pixel extraction means for extracting pixels representing blocks based on the frequency distribution of the pixel values of the blocks blocked by the blocking means ( For example, the motion estimation block generation unit 113 in FIG. 5, the motion estimation unit (for example, the motion estimation unit 114 in FIG. 5) that estimates the motion vector of the block using the pixels extracted by the pixel extraction unit, A difference for calculating a difference between the image data of the second frame corresponding to the block and the image data in the block using the motion vector estimated by the estimation means An output unit (for example, the residual calculation unit 115 in FIG. 5) and a vector quantization unit for performing vector quantization on the difference calculated by the difference calculation unit (for example, the residual vector quantization unit 116 in FIG. 5). ).

請求項26に記載の画像処理システムは、復号装置(例えば、図2の復号部71または復号部84)からの画像データにノイズを付加し、ノイズが付加された画像データを、符号化装置に入力するノイズ付加手段(例えば、図2のA/D変換部81)をさらに備えることを特徴とする。   An image processing system according to a twenty-sixth aspect adds noise to image data from a decoding device (for example, the decoding unit 71 or the decoding unit 84 in FIG. 2), and the image data with the noise added to the encoding device. It further comprises an input noise adding means (for example, the A / D conversion unit 81 in FIG. 2).

請求項27に記載の画像処理方法は、符号化装置の符号化方法は、入力される画像データ中の第1のフレームをブロック化するブロック化ステップ(例えば、図10のステップS21)と、ブロック化ステップの処理によりブロック化されたブロックの画素値の頻度分布に基づいて、ブロックを代表する画素を抽出する画素抽出ステップ(例えば、図10のステップS22)と、画素抽出ステップの処理により抽出された画素を用いて、ブロックの動きベクトルを推定する動き推定ステップ(例えば、図10のステップS23)と、動き推定ステップの処理により推定された動きベクトルを用いて、ブロックに対応する第2のフレームの画像データと、ブロックにおける画像データとの差分を算出する差分算出ステップ(例えば、図10のステップS24)と、差分算出ステップの処理により算出された差分に対して、ベクトル量子化を行うベクトル量子化ステップ(例えば、図10のステップS25)とを含むことを特徴とする。   The image processing method according to claim 27, wherein the encoding method of the encoding device includes a blocking step (for example, step S21 in FIG. 10) for blocking the first frame in the input image data, The pixel extraction step (for example, step S22 in FIG. 10) for extracting the pixel representative of the block based on the frequency distribution of the pixel values of the block that has been blocked by the conversion step processing, and the pixel extraction step processing A second frame corresponding to the block using the motion estimation step (for example, step S23 in FIG. 10) for estimating the motion vector of the block using the obtained pixels and the motion vector estimated by the processing of the motion estimation step. The difference calculating step for calculating the difference between the image data of the image and the image data in the block (for example, the step of FIG. And-up S24), on the difference calculated by the processing of the difference calculation step, characterized in that it comprises a vector quantization step of performing vector quantization (e.g., step S25 in FIG. 10).

請求項28に記載の画像処理方法は、復号装置からの画像データにノイズを付加し、ノイズが付加された画像データを、符号化装置に入力するノイズ付加ステップ(例えば、図4のステップS4)をさらに含むことを特徴とする。   The image processing method according to claim 28 adds noise to the image data from the decoding device, and inputs the noise-added image data to the encoding device (for example, step S4 in FIG. 4). Is further included.

請求項29に記載の画像処理システムは、復号装置(例えば、図2の復号部84)は、入力される画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力手段(例えば、図17のデータ分解部211)と、データ入力手段により入力された量子化データを逆量子化することにより差分値を抽出する差分値抽出手段(例えば、図17の残差逆ベクトル量子化部212)と、データ入力手段により入力された動きベクトルに応じて、第1のフレームの画像データに差分値抽出手段により抽出された差分値を加算することで、第2のフレームの画像データを生成するデータ加算手段(例えば、図17の残差加算部215)とを備えることを特徴とする。   In the image processing system according to claim 29, the decoding device (for example, the decoding unit 84 in FIG. 2) represents a block extracted based on a frequency distribution of pixel values in the block in the input image data. A data input means for inputting quantized data obtained by performing vector quantization on a motion vector obtained using a pixel and a difference value between a plurality of frames calculated using the motion vector (for example, 17 and a difference value extraction unit (for example, a residual inverse vector quantization unit 212 in FIG. 17) that extracts a difference value by dequantizing the quantized data input by the data input unit. ) And the difference value extracted by the difference value extraction means to the image data of the first frame in accordance with the motion vector input by the data input means. Data addition means for generating image data of the second frame (e.g., the residual addition unit 215 of FIG. 17), characterized in that it comprises a.

請求項30に記載の画像処理システムは、復号装置からの画像データにノイズを付加し、ノイズが付加された画像データを、符号化装置に出力するノイズ付加手段(例えば、図2のD/A変換部85)をさらに備えることを特徴とする。   The image processing system according to claim 30 adds noise to the image data from the decoding device, and outputs noise added image data to the encoding device (for example, D / A in FIG. 2). A conversion unit 85) is further provided.

請求項31に記載の画像処理方法は、復号装置の復号方法は、入力される画像データ中のブロック内での画素値の頻度分布に基づいて抽出されたブロックを代表する画素を用いて得られる動きベクトルと、動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力ステップ(例えば、図21のステップS211)と、データ入力ステップの処理により入力された量子化データを逆量子化することにより差分値を抽出する差分値抽出ステップ(例えば、図21のステップS212)と、データ入力ステップの処理により入力された動きベクトルに応じて、第1のフレームの画像データに差分値抽出ステップの処理により抽出された差分値を加算することで、第2のフレームの画像データを生成するデータ加算ステップ(例えば、図21のステップS214)とを含むことを特徴とする。   The image processing method according to claim 31 is obtained by using a pixel representing a block extracted based on a frequency distribution of pixel values in a block in input image data. A data input step (for example, step S211 in FIG. 21) for inputting a motion vector and quantized data obtained by performing vector quantization on a difference value between a plurality of frames calculated using the motion vector; A difference value extraction step (for example, step S212 in FIG. 21) for extracting a difference value by inverse quantization of the quantized data input by the data input step processing, and a motion input by the data input step processing According to the vector, adding the difference value extracted by the processing of the difference value extraction step to the image data of the first frame Data adding step of generating image data of the second frame (e.g., step S214 in FIG. 21), characterized in that it comprises a.

請求項32に記載の画像処理方法は、復号装置からの画像データにノイズを付加し、ノイズが付加された画像データを、符号化装置に出力するノイズ付加ステップ(例えば、図4のステップS7(またはS2))をさらに含むことを特徴とする。   The image processing method according to a thirty-second aspect adds a noise to the image data from the decoding device and outputs the noise-added image data to the encoding device (for example, step S7 in FIG. 4). Or S2)).

以下、図を参照して本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2は、本発明を適用した画像処理システム51の構成例を表している。この画像処理システム51は、アナログの画像データVan1を出力する再生装置61、再生装置61から出力される画像データVan1に対応する画像を表示するディスプレイ62、およびアナログの画像データVan1を用いて、再び符号化処理を行い、符号化された画像データVcd(以下、符号化データVcdとも称する)を、図示せぬ光ディスクなどの記録媒体に記録する符号化装置63により構成される。   FIG. 2 shows a configuration example of an image processing system 51 to which the present invention is applied. The image processing system 51 again uses a playback device 61 that outputs analog image data Van1, a display 62 that displays an image corresponding to the image data Van1 output from the playback device 61, and analog image data Van1. The encoding unit 63 is configured to perform encoding processing and record encoded image data Vcd (hereinafter also referred to as encoded data Vcd) on a recording medium such as an optical disk (not shown).

再生装置61は、復号部71およびD/A(Digital-to-Analog)変換部72により構成される。復号部71は、図示せぬ光ディスクなどの記録媒体から再生される、符号化された画像データを復号し、復号したデジタルの画像データVdg0を、D/A変換部72に供給する。D/A変換部72は、復号部71からのデジタルの画像データVdg0を、アナログの画像データVan1に変換し、変換されたアナログの画像データVan1をディスプレイ62に供給する。   The playback device 61 includes a decoding unit 71 and a D / A (Digital-to-Analog) conversion unit 72. The decoding unit 71 decodes encoded image data reproduced from a recording medium such as an optical disc (not shown), and supplies the decoded digital image data Vdg0 to the D / A conversion unit 72. The D / A conversion unit 72 converts the digital image data Vdg0 from the decoding unit 71 into analog image data Van1, and supplies the converted analog image data Van1 to the display 62.

ディスプレイ62は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などで構成され、D/A変換部72からのアナログの画像データVan1に対応する画像を表示する。   The display 62 is composed of, for example, a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), and displays an image corresponding to the analog image data Van1 from the D / A converter 72.

符号化装置63は、A/D(Analog-to-Digital)変換部81、符号化部82、記録部83、復号部84、D/A変換部85、およびディスプレイ86により構成される。   The encoding device 63 includes an A / D (Analog-to-Digital) conversion unit 81, an encoding unit 82, a recording unit 83, a decoding unit 84, a D / A conversion unit 85, and a display 86.

A/D変換部81は、再生装置61からのアナログの画像データVan1をデジタルの画像データVdg1に変換し、符号化部82に供給する。   The A / D converter 81 converts the analog image data Van1 from the playback device 61 into digital image data Vdg1, and supplies the digital image data Vdg1 to the encoder 82.

符号化部82は、A/D変換部81からのデジタルの画像データVdg1を符号化し、符号化データVcdを記録部83または復号部84に供給する。符号化部82においては、再生装置61において記録媒体から再生されて得られる符号化された画像データと同様の符号化処理が実行される。すなわち、符号化部82は、デジタルの画像データVdg1の探索元のブロックの頻度分布上位3位までの画素のみを用いて、ブロックマッチングによる動き探索を行うとともに、動き推定後の残差をベクトル量子化することにより、符号化データVcdを得る。符号化部82の構成の詳細は、後述する。   The encoding unit 82 encodes the digital image data Vdg1 from the A / D conversion unit 81 and supplies the encoded data Vcd to the recording unit 83 or the decoding unit 84. In the encoding unit 82, the same encoding process as that of the encoded image data obtained by reproducing from the recording medium in the reproducing apparatus 61 is executed. That is, the encoding unit 82 performs motion search by block matching using only the pixels of the top three frequency distributions of the search source block of the digital image data Vdg1, and calculates the residual after motion estimation as a vector quantum. As a result, encoded data Vcd is obtained. Details of the configuration of the encoding unit 82 will be described later.

記録部83は、符号化部82からの符号化データVcdを、図示せぬ光ディスクなどの記録媒体に記録する。なお、記録部83により記録媒体に記録された符号化データVcdが記録部83により読み出され、復号部84に供給されるようにしてもよい。   The recording unit 83 records the encoded data Vcd from the encoding unit 82 on a recording medium such as an optical disc (not shown). The encoded data Vcd recorded on the recording medium by the recording unit 83 may be read by the recording unit 83 and supplied to the decoding unit 84.

復号部84は、符号化部82または記録部83からの符号化データVcdを復号し、復号したデジタルの画像データVdg2をD/A変換部85に供給する。復号部84においては、復号部71における復号と同様の復号処理が実行される。すなわち、復号部84は、符号化部82からの符号化データVcdを用いて、動き補償および逆ベクトル量子化を行うことによりそれぞれ得られる予測ブロックおよび残差ブロックを足し合わせた出力ブロックで構成されるデジタルの画像データVdg2を取得する。復号部84の構成の詳細は、後述する。   The decoding unit 84 decodes the encoded data Vcd from the encoding unit 82 or the recording unit 83, and supplies the decoded digital image data Vdg 2 to the D / A conversion unit 85. In the decoding unit 84, a decoding process similar to the decoding in the decoding unit 71 is executed. That is, the decoding unit 84 is configured by an output block obtained by adding a prediction block and a residual block obtained by performing motion compensation and inverse vector quantization using the encoded data Vcd from the encoding unit 82, respectively. Get digital image data Vdg2. Details of the configuration of the decoding unit 84 will be described later.

D/A変換部85は、復号部84からのデジタルの画像データVdg2を、アナログの画像データVan2に変換し、変換されたアナログの画像データVan2を、ディスプレイ86に供給する。ディスプレイ86は、例えば、CRTやLCDなどで構成され、D/A変換部85からのアナログの画像データVan2に対応する画像を表示する。   The D / A conversion unit 85 converts the digital image data Vdg2 from the decoding unit 84 into analog image data Van2, and supplies the converted analog image data Van2 to the display 86. The display 86 is composed of, for example, a CRT or LCD, and displays an image corresponding to the analog image data Van2 from the D / A converter 85.

この画像処理システム51において、D/A変換部72やD/A変換部85においてアナログデータに変換される際、A/D変換部81においてデジタルデータに変換される際、並びにD/A変換部72とA/D変換部81の間の通信路などにおいてデータが通信される際、変換された画像データには、ホワイトノイズなどのノイズ(による高周波成分の歪み)や、画像データの位相がずれることによる歪み(以下、位相ずれと称する)が生じる。すなわち、ホワイトノイズによる高周波成分の歪みや位相ずれによる歪みが、ノイズとして変換後の画像データに付加される。なお、これらのホワイトノイズおよび位相ずれ(による歪み)をまとめてアナログノイズ(または、アナログ歪み)ともいう。   In the image processing system 51, when the D / A conversion unit 72 or the D / A conversion unit 85 converts the data into analog data, the A / D conversion unit 81 converts the data into digital data, and the D / A conversion unit. When data is communicated through a communication path between the A / D converter 81 and the A / D converter 81, noise (such as distortion of high-frequency components) such as white noise or the phase of the image data is shifted in the converted image data. This causes distortion (hereinafter referred to as phase shift). That is, high-frequency component distortion due to white noise and distortion due to phase shift are added to the converted image data as noise. These white noise and phase shift (distortion due to phase difference) are collectively referred to as analog noise (or analog distortion).

ここで、ホワイトノイズに起因する高周波成分の歪みについて説明する。デジタルの画像データがアナログの画像データに変換される過程において、周波数成分がほぼ均一なホワイトノイズが画像データに付加される。ホワイトノイズのレベルは、時系列でランダムに変化し、その分布はほぼ正規分布に従う。すなわち、各画素に対応するアナログの画像データに付加されるホワイトノイズのレベルはランダムに変化する。   Here, the distortion of the high frequency component caused by white noise will be described. In the process of converting digital image data into analog image data, white noise with a substantially uniform frequency component is added to the image data. The level of white noise changes randomly in time series, and its distribution almost follows a normal distribution. That is, the level of white noise added to the analog image data corresponding to each pixel changes randomly.

したがって、例えば、変換前のデジタルの画像データVdg0において、水平方向1ラインの複数の画素の画素値が同一の値を有していたとしても、D/A変換部72によりD/A変換され、さらに、A/D変換部81によりA/D変換された後のデジタルの画像データ画像データVdg1における、その同一の値であった画素の画素値は、もとの値(同一の値)を中心値としたある程度の範囲内に分散された値となってしまい、その結果、画像データに高周波成分の歪みが生じる。また、水平方向だけでなく、垂直方向にも同様に高周波成分の歪みが生じる。なお、各画素に付加されるホワイトノイズのレベルの散らばり具合によっては、高周波成分以外の成分の歪みが生じる場合もある。   Therefore, for example, in the digital image data Vdg0 before conversion, even if the pixel values of a plurality of pixels in one horizontal line have the same value, they are D / A converted by the D / A converter 72, Further, the pixel value of the pixel having the same value in the digital image data image data Vdg1 after A / D conversion by the A / D conversion unit 81 is centered on the original value (the same value). As a result, the image data is distorted with high frequency components. Similarly, not only the horizontal direction but also the vertical direction is distorted by high frequency components. In addition, depending on the degree of dispersion of the level of white noise added to each pixel, distortion of components other than high-frequency components may occur.

このように、D/A変換部72やD/A変換部85においては、デジタルの画像データがアナログの画像データに変換される過程において、ホワイトノイズが付加されることで、水平方向と垂直方向の2次元に、データの歪みが生じる。なお、画像データに付加されるノイズは、ホワイトノイズに限らず、他の有色のノイズも含まれる。   As described above, in the D / A conversion unit 72 and the D / A conversion unit 85, white noise is added in the process of converting digital image data into analog image data. In the two dimensions, data distortion occurs. Note that the noise added to the image data is not limited to white noise but also includes other colored noise.

一方、位相ずれによる歪みとは、画像データVan1に位相ずれによる歪みが付加され、画像データVan1をA/D変換する際に、画像データが量子化される位置がずれることにより、画像データVdg1の画素の位置は、本来の画像データVdg0の画素の位置と比べて、例えば、水平方向にφhおよび垂直方向にφvだけずれてしまうことをいう。なお、水平方向の位相ずれ幅φhは、水平方向の画素間隔より小さくなったり大きくなったりする一方、垂直方向の位相ずれ幅φvは、垂直方向の画素間隔の整数倍となる。また、位相ずれは、水平方向または垂直方向の一方向のみ生じる場合がある。   On the other hand, the distortion due to the phase shift adds distortion due to the phase shift to the image data Van1, and when the A / D conversion is performed on the image data Van1, the position where the image data is quantized shifts, and thus the image data Vdg1 The pixel position is, for example, shifted by φh in the horizontal direction and φv in the vertical direction compared to the pixel position of the original image data Vdg0. The horizontal phase shift width φh is smaller or larger than the horizontal pixel interval, while the vertical phase shift width φv is an integral multiple of the vertical pixel interval. Further, the phase shift may occur only in one direction in the horizontal direction or the vertical direction.

なお、位相ずれが発生することにより、位相ずれの範囲だけ画像の表示位置がずれることになるが、表示位置のずれはわずかであり、ユーザが視認することができるレベルの画像の画質にはほとんど影響を及ぼさない。   When the phase shift occurs, the display position of the image is shifted by the range of the phase shift. However, the display position shift is slight, and the image quality of the image that can be visually recognized by the user is almost the same. Has no effect.

以上のように、D/A変換部72から出力されるアナログの画像データVan1や、A/D変換部81からのデジタルの画像データVdg1は、デジタルの画像データVdg0に較べて、ホワイトノイズおよび位相ずれを伴っており、D/A変換部85から出力されるアナログの画像データVan2は、デジタルの画像データVdg1に較べて、さらに、ホワイトノイズおよび位相ずれを伴っている。   As described above, the analog image data Van1 output from the D / A converter 72 and the digital image data Vdg1 from the A / D converter 81 have white noise and phase as compared with the digital image data Vdg0. The analog image data Van2 output from the D / A converter 85 is further accompanied by white noise and a phase shift as compared with the digital image data Vdg1.

これらのホワイトノイズおよび位相ずれによる画質の劣化度合いとしては、それほど大きいものではないが、符号化部82において、アナログノイズのうちの特に位相ずれを伴うデジタルの画像データVdg1を用いて符号化処理が実行されることにより、符号化部82における動き推定やベクトル量子化が正確に行われることが抑制される。   Although the degree of deterioration of image quality due to the white noise and the phase shift is not so great, the encoding unit 82 uses the digital image data Vdg1 with a phase shift, among the analog noises, to perform the encoding process. By being executed, accurate estimation of motion and vector quantization in the encoding unit 82 is suppressed.

これにより、符号化部82から得られる符号化データVcdや復号部84から得られるアナログの画像データVan2の画質は、デジタルの画像データVdg0やVdg1の画質と較べて大きく劣化するので、ディスプレイ62に、画質の劣化度合いの少ない画像を表示させつつ、アナログコピー防止に寄与することが可能になる。   As a result, the image quality of the encoded data Vcd obtained from the encoding unit 82 and the analog image data Van2 obtained from the decoding unit 84 are greatly deteriorated compared to the image quality of the digital image data Vdg0 and Vdg1. Thus, it is possible to contribute to the prevention of analog copy while displaying an image with little deterioration in image quality.

さらに、上述したように、ホワイトノイズや位相ずれは、アナログおよびデジタルの変換の際に発生するため、デジタルデータをコピーする際には、あまり影響がない。したがって、この画像処理システム51によれば、アナログコピーのみ制限が可能であり、アナログコピーの際に、画像データの画質を劣化させることができる。   Furthermore, as described above, white noise and phase shift occur during analog and digital conversion, and therefore have little effect when copying digital data. Therefore, according to the image processing system 51, only analog copying can be restricted, and the image quality of image data can be deteriorated during analog copying.

なお、図2の画像処理システム51において、D/A変換部72やD/A変換部85におけるアナログ変換の際、A/D変換部81におけるデジタル変換の際、ホワイトノイズの付加や位相ずれは、自然に発生するが、自然に発生する以上のホワイトノイズの付加や位相ずれの発生を強制的にかける(付加する)ようにしてもよい。   In the image processing system 51 of FIG. 2, white noise addition and phase shift are not caused during analog conversion in the D / A conversion unit 72 or D / A conversion unit 85 or in digital conversion in the A / D conversion unit 81. Although it occurs naturally, it is possible to forcibly apply (add) the occurrence of white noise or phase shift more than naturally occurring.

これにより、さらに、アナログコピー防止の効果を向上させることができる。   As a result, the effect of preventing analog copy can be further improved.

図3は、本発明に係る画像処理システム51において処理される画像データのフレームの構成を示している。   FIG. 3 shows a frame configuration of image data processed in the image processing system 51 according to the present invention.

図3の例においては、画像データのフレームが時間軸に沿って示されている。画像データは、0フレーム目と5フレーム目の基準フレーム(図中ハッチングされている)と基準フレーム以外のフレームにより構成されている。基準フレームの間隔は、5フレーム間隔であり、ユーザにより設定可能である。   In the example of FIG. 3, a frame of image data is shown along the time axis. The image data is composed of reference frames (hatched in the figure) of the 0th frame and the 5th frame and frames other than the reference frame. The reference frame interval is 5 frame intervals, and can be set by the user.

画像処理システム51においては、これらのフレームのうち、基準フレームには、例えば、符号化、復号によりダイナミックレンジが減少していく、特許文献2に示されるADRC(Adaptive Dynamic Range Coding)が用いられて、フレーム内符号化が実行される。そして、基準フレーム以外のフレームには、以下に説明するフレーム間符号化が実行される。すなわち、以降における説明は、フレーム間符号化を対象とするものである。   In the image processing system 51, among these frames, the reference frame uses ADRC (Adaptive Dynamic Range Coding) shown in Patent Document 2 in which the dynamic range is reduced by encoding and decoding, for example. Intra-frame encoding is performed. Then, inter-frame encoding described below is executed for frames other than the reference frame. That is, the following description is directed to interframe coding.

次に、図4のフローチャートを参照して、画像処理システム51における処理の例を説明する。   Next, an example of processing in the image processing system 51 will be described with reference to the flowchart of FIG.

ステップS1において、復号部71は、図示せぬ光ディスクなどの記録媒体から再生される、符号化された画像データを復号し、復号したデジタルの画像データVdg0を、D/A変換部72に供給し、ステップS2に進む。なお、ステップS1においては、後述するステップS6の復号処理と同様の処理が実行される。   In step S1, the decoding unit 71 decodes encoded image data reproduced from a recording medium such as an optical disc (not shown), and supplies the decoded digital image data Vdg0 to the D / A conversion unit 72. The process proceeds to step S2. In step S1, processing similar to the decoding processing in step S6 described later is executed.

ステップS2において、D/A変換部72は、復号部71からのデジタルの画像データVdg0を、アナログの画像データVan1に変換し、変換されたアナログの画像データVan1をディスプレイ62およびA/D変換部81に供給し、ステップS3に進む。   In step S2, the D / A conversion unit 72 converts the digital image data Vdg0 from the decoding unit 71 into analog image data Van1, and the converted analog image data Van1 is displayed on the display 62 and the A / D conversion unit. The process proceeds to step S3.

これにより、ステップS3において、ディスプレイ62には、アナログの画像データVan1に対応する画像が表示される。   Thus, in step S3, an image corresponding to the analog image data Van1 is displayed on the display 62.

ステップS4において、A/D変換部81は、D/A変換部72からのアナログの画像データVan1をデジタルの画像データVdg1に変換し、符号化部82に供給し、ステップS5に進む。すなわち、ステップS2におけるD/A変換部72の変換およびステップS4におけるA/D変換部81の変換により、デジタルの画像データVdg1には、デジタルの画像データVdg0と比して、ホワイトノイズおよび位相ずれが付加されている。   In step S4, the A / D conversion unit 81 converts the analog image data Van1 from the D / A conversion unit 72 into digital image data Vdg1, supplies the digital image data Vdg1, and proceeds to step S5. That is, by the conversion of the D / A conversion unit 72 in step S2 and the conversion of the A / D conversion unit 81 in step S4, the digital image data Vdg1 has white noise and phase shift compared to the digital image data Vdg0. Is added.

ステップS5において、符号化部82は、A/D変換部81からのデジタルの画像データVdg1を符号化し、符号化データVcdを復号部84に供給し、ステップS6に進む。符号化部82の処理の詳細は、後述する。   In step S5, the encoding unit 82 encodes the digital image data Vdg1 from the A / D conversion unit 81, supplies the encoded data Vcd to the decoding unit 84, and proceeds to step S6. Details of the processing of the encoding unit 82 will be described later.

ステップS5の符号化処理により、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1の探索元のブロックの頻度分布上位3位までの画素のみを用いて、ブロックマッチングによる動き探索が行われるとともに、動き推定後の残差がベクトル量子化されることで、符号化データVcdが得られ、得られた符号化データVcdが復号部84に供給される。   With the encoding process in step S5, motion search by block matching is performed using only the pixels in the top three frequency distributions of the search source block of the digital image data Vdg1 to which white noise and phase shift are added. The residual after the motion estimation is vector quantized to obtain encoded data Vcd, and the obtained encoded data Vcd is supplied to the decoding unit 84.

ステップS6において、復号部84は、画像データ符号化部82からの符号化データVcdを復号し、復号したデジタルの画像データVdg2をD/A変換部85に供給し、ステップS7に進む。復号部84の処理の詳細は、後述する。   In step S6, the decoding unit 84 decodes the encoded data Vcd from the image data encoding unit 82, supplies the decoded digital image data Vdg2 to the D / A conversion unit 85, and proceeds to step S7. Details of the processing of the decoding unit 84 will be described later.

ステップS6の復号処理により、符号化部82により符号化された符号化データVcdを用いて、動き補償および逆ベクトル量子化を行うことにより得られる予測ブロックおよび残差ブロックを足し合わせた出力ブロックが生成され、生成された出力ブロックで構成されるデジタルの画像データVdg2が取得される。   An output block obtained by adding the prediction block and the residual block obtained by performing motion compensation and inverse vector quantization using the encoded data Vcd encoded by the encoding unit 82 by the decoding processing in step S6 is obtained. Digital image data Vdg2 that is generated and configured by the generated output block is acquired.

ステップS7において、D/A変換部85は、復号部84からのデジタルの画像データVdg2を、アナログの画像データVan2に変換し、変換されたアナログの画像データVan2を、ディスプレイ86に供給し、ステップS8に進む。   In step S7, the D / A conversion unit 85 converts the digital image data Vdg2 from the decoding unit 84 into analog image data Van2, and supplies the converted analog image data Van2 to the display 86. Proceed to S8.

これにより、ステップS8において、ディスプレイ86には、アナログの画像データVan2に対応する画像が表示され、画像処理システム51において、画像処理は、終了される。   As a result, in step S8, an image corresponding to the analog image data Van2 is displayed on the display 86, and the image processing is ended in the image processing system 51.

以上のように、本発明に係る画像処理システム51においては、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を用いて、上述した符号化処理が実行されるため、特に、位相ずれにより、動き推定やベクトル量子化が正確に行われることが抑制される。そして、さらに、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を符号化処理した符号化データVcdを用いて、復号処理が実行されるので、特に、位相ずれにより、動き補償や残差補償が正確に行われることが抑制される。   As described above, in the image processing system 51 according to the present invention, the above-described encoding process is performed using the digital image data Vdg1 to which white noise and phase shift are added. In addition, accurate motion estimation and vector quantization are suppressed. Further, since the decoding process is executed using the encoded data Vcd obtained by encoding the digital image data Vdg1 to which the white noise and the phase shift are added, the motion compensation and the residual are particularly caused by the phase shift. Accurate compensation is suppressed.

これにより、ステップS4においてディスプレイ62に表示される画像よりも、符号化部82から得られる符号化データVcdと、それを復号した復号部84からのデジタルの画像データVdg2が、デジタルの画像データVdg0やアナログの画像データVan1よりも画質が大きく劣化するため、ステップS8においてディスプレイ86に表示される画像の画質が劣化し、アナログコピー防止を図ることができる。   As a result, the encoded data Vcd obtained from the encoding unit 82 and the digital image data Vdg2 from the decoding unit 84 obtained by decoding the encoded data Vcd rather than the image displayed on the display 62 in step S4 are digital image data Vdg0. Since the image quality is greatly deteriorated as compared with the analog image data Van1, the image quality of the image displayed on the display 86 in step S8 is deteriorated, and the analog copy can be prevented.

なお、画質が大きく劣化した符号化データVcdが、記録部83により記録された記録媒体から画像データを読み出して、復号した結果も、ステップS8においてディスプレイ86に表示される画像と同等のものとなる。   It should be noted that the encoded data Vcd whose image quality has greatly deteriorated is read out from the recording medium recorded by the recording unit 83, and the decoded result is also equivalent to the image displayed on the display 86 in step S8. .

したがって、上述したステップS1において、記録部83により記録された記録媒体から符号化部32により符号化された画像データを読み出して、復号した画像データに対して、再度、ステップS5およびS6の符号化、および復号が行われた画像データは、デジタルの画像データVdg2よりもさらに画質が劣化する。すなわち、本発明に係る符号化、復号が繰り返される毎に、その結果得られる画像データの画質は、ますます劣化する。   Therefore, in step S1 described above, the image data encoded by the encoding unit 32 is read from the recording medium recorded by the recording unit 83, and the encoding of steps S5 and S6 is performed again on the decoded image data. The image quality of the decoded image data is further deteriorated than that of the digital image data Vdg2. That is, every time encoding and decoding according to the present invention are repeated, the image quality of the image data obtained as a result deteriorates more and more.

以上により、アナログコピー防止に寄与することが可能になる。   As described above, it is possible to contribute to the prevention of analog copy.

次に、図2の符号化部82の構成の詳細について説明する。   Next, details of the configuration of the encoding unit 82 in FIG. 2 will be described.

図5は、符号化部82の構成を示すブロック図である。符号化部82には、A/D変換部81からのホワイトノイズや位相ずれを伴うデジタルの画像データVdg1が入力され、入力されたデジタルの画像データVdg1が符号化され、符号化データVcdが後段の記録部83または復号部84に供給される。   FIG. 5 is a block diagram showing a configuration of the encoding unit 82. The encoding unit 82 receives the digital image data Vdg1 accompanied by white noise or phase shift from the A / D conversion unit 81, encodes the input digital image data Vdg1, and the encoded data Vcd becomes the subsequent stage. To the recording unit 83 or the decoding unit 84.

符号化部82は、ブロック化部111、フレームメモリ112、動き推定ブロック生成部113、動き推定部114、残差算出部115、残差ベクトル量子化部116、およびデータ合成部117により構成される。   The encoding unit 82 includes a blocking unit 111, a frame memory 112, a motion estimation block generation unit 113, a motion estimation unit 114, a residual calculation unit 115, a residual vector quantization unit 116, and a data synthesis unit 117. .

A/D変換部81からのデジタルの画像データVdg1は、ブロック化部111およびフレームメモリ112に入力される。ブロック化部111は、入力画像を読み込み、指定ブロックサイズ(例えば、4×4画素または8×8画素など)に分割し、指定ブロックサイズの画像データを、入力ブロックとして、ブロック毎に、動き推定ブロック生成部113および残差算出部115に供給する。   The digital image data Vdg1 from the A / D conversion unit 81 is input to the blocking unit 111 and the frame memory 112. The blocking unit 111 reads an input image, divides it into designated block sizes (for example, 4 × 4 pixels or 8 × 8 pixels), and performs motion estimation for each block using image data of the designated block size as an input block. This is supplied to the block generator 113 and the residual calculator 115.

フレームメモリ112は、1フレーム前(以下、前フレームとも称する)の画像データを蓄積し、動き推定部114および残差算出部115に供給する。   The frame memory 112 accumulates image data of the previous frame (hereinafter also referred to as the previous frame) and supplies the image data to the motion estimation unit 114 and the residual calculation unit 115.

動き推定ブロック生成部113は、動き推定部114が行う動き推定のための動き推定ブロックを生成する。すなわち、動き推定ブロック生成部113は、ブロック化部111から供給される入力ブロックを読み込み、入力ブロックの画素のブロック内頻度分布を生成する。動き推定ブロック生成部113は、生成したブロック内頻度分布に基づいて、動き推定ブロックの画素を生成し、生成した動き推定ブロックを、動き推定部114に供給する。   The motion estimation block generation unit 113 generates a motion estimation block for motion estimation performed by the motion estimation unit 114. That is, the motion estimation block generation unit 113 reads the input block supplied from the blocking unit 111 and generates an intra-block frequency distribution of pixels of the input block. The motion estimation block generation unit 113 generates a pixel of the motion estimation block based on the generated intra-block frequency distribution, and supplies the generated motion estimation block to the motion estimation unit 114.

動き推定部114は、フレームメモリ112からの前フレームと、動き推定ブロック生成部113からの動き推定ブロックを読み込み、動き推定ブロックの画素値(0以外)を用いて、ブロックマッチングによる前フレームの動き探索を行い、その結果、動きベクトルを算出し、算出した動きベクトルを、残差算出部115およびデータ合成部117に供給する。   The motion estimation unit 114 reads the previous frame from the frame memory 112 and the motion estimation block from the motion estimation block generation unit 113, and uses the pixel value (other than 0) of the motion estimation block to perform the motion of the previous frame by block matching. As a result, the motion vector is calculated, and the calculated motion vector is supplied to the residual calculation unit 115 and the data synthesis unit 117.

残差算出部115は、動き推定後の残差を求める。すなわち、残差算出部115は、ブロック化部111からの入力ブロック、動き推定部114からの動きベクトル、およびフレームメモリ112からの前フレームを読み込む。残差算出部115は、動きベクトルと前フレームを用いて、予測ブロックの画素値を生成し、予測ブロックを求める。残差算出部115は、求めた予測ブロックと、入力ブロックの残差を、残差ブロックとして、残差ベクトル量子化部116に供給する。   The residual calculation unit 115 calculates a residual after motion estimation. That is, the residual calculation unit 115 reads the input block from the blocking unit 111, the motion vector from the motion estimation unit 114, and the previous frame from the frame memory 112. The residual calculation unit 115 generates a pixel value of the prediction block using the motion vector and the previous frame, and obtains the prediction block. The residual calculation unit 115 supplies the obtained prediction block and the residual of the input block to the residual vector quantization unit 116 as a residual block.

残差ベクトル量子化部116は、残差算出部115からの残差ブロックを読み込み、ベクトル量子化用コードブック121を用いて、LBGアルゴリズムを利用したベクトル量子化を行う。残差ベクトル量子化部116は、ベクトル量子化により得られた量子化コードデータをデータ合成部117に供給する。   The residual vector quantization unit 116 reads the residual block from the residual calculation unit 115 and performs vector quantization using the LBG algorithm using the vector quantization code book 121. The residual vector quantization unit 116 supplies the quantized code data obtained by vector quantization to the data synthesis unit 117.

なお、このベクトル量子化用コードブック121は、符号化部82に内蔵される図示せぬコードブック生成部により、入力画像から生成されたものである。以下、単に、コードブック121とも称する。   The vector quantization code book 121 is generated from an input image by a code book generating unit (not shown) built in the encoding unit 82. Hereinafter, it is also simply referred to as a code book 121.

データ合成部117は、動き推定部114からの動きベクトル、残差ベクトル量子化部116からの量子化コードデータ、およびコードブック121を読み込み、動きベクトル、量子化コードデータ、およびコードブック121を、符号化データVcdとして、後段の記録部83または復号部84に出力する。   The data synthesizer 117 reads the motion vector from the motion estimator 114, the quantized code data from the residual vector quantizer 116, and the code book 121, and reads the motion vector, quantized code data, and code book 121, The encoded data Vcd is output to the subsequent recording unit 83 or decoding unit 84.

以上のように、動き推定ブロック生成部113においては、デジタルの画像データVdg1の入力ブロックのブロック内頻度分布に応じて、動き推定部114が行う動き推定のための動き推定ブロックが生成されて、動き推定部114により用いられる画素が選択されるが、A/D変換部81から入力されるデジタルの画像データVdg1には、位相ずれが付加されているため、動き推定部114により用いられる画素は、記録媒体に記録されている元の画像データが符号化されたときにブロック内頻度分布に応じて用いられる画素と異なるってしまい、正確に動き推定を行うことが困難となる。   As described above, the motion estimation block generation unit 113 generates a motion estimation block for motion estimation performed by the motion estimation unit 114 according to the intra-block frequency distribution of the input block of the digital image data Vdg1. The pixels used by the motion estimation unit 114 are selected, but since the phase shift is added to the digital image data Vdg1 input from the A / D conversion unit 81, the pixels used by the motion estimation unit 114 are When the original image data recorded on the recording medium is encoded, it differs from the pixels used in accordance with the intra-block frequency distribution, and it is difficult to accurately perform motion estimation.

すなわち、動き推定部114により求められた動きベクトルは、必ずしも正確ではなく、その動きベクトルを用いて得られる動き推定後の残差と、入力されたデジタルの画像データVdg1から生成されたコードブックが用いられて量子化された量子化コードデータも、必ずしも正確ではない。   That is, the motion vector obtained by the motion estimation unit 114 is not necessarily accurate, and the codebook generated from the residual after motion estimation obtained using the motion vector and the input digital image data Vdg1 is The quantized code data used and quantized is not always accurate.

したがって、復号部84により符号化データVcdが用いられて復号されて得られるデジタルの画像データVdg2の画質は、劣化してしまう。これによりアナログコピーが抑制される。   Therefore, the image quality of the digital image data Vdg2 obtained by decoding using the encoded data Vcd by the decoding unit 84 deteriorates. Thereby, analog copy is suppressed.

さらに、復号部84に供給される符号化データVcdには、入力されたデジタルの画像データVdg1から生成され、動き推定後の残差の量子化に用いられたコードブックも含まれる。すなわち、復号部84においては、符号化部82において、入力されたデジタルの画像データVdg1から生成されたコードブックが用いられて残差補償が実行されるため、残差補償が正確に行われず、デジタルの画像データVdg2の画質は、劣化してしまう。これによりアナログコピーがさらに抑制される。   Furthermore, the encoded data Vcd supplied to the decoding unit 84 also includes a codebook generated from the input digital image data Vdg1 and used for quantization of the residual after motion estimation. That is, in the decoding unit 84, since the encoding unit 82 uses the code book generated from the input digital image data Vdg1 to perform the residual compensation, the residual compensation is not accurately performed. The image quality of the digital image data Vdg2 is degraded. This further suppresses analog copying.

図6は、図5の動き推定ブロック生成部113の構成例を示している。   FIG. 6 shows a configuration example of the motion estimation block generation unit 113 in FIG.

図6の例において、動き推定ブロック生成部113は、頻度判定部131、動き推定画素生成部132、およびラスタスキャン133により構成されている。   In the example of FIG. 6, the motion estimation block generation unit 113 includes a frequency determination unit 131, a motion estimation pixel generation unit 132, and a raster scan 133.

頻度判定部131は、ブロック化部111から供給される入力ブロックを読み込み、入力ブロックの画素のブロック内頻度分布を生成する。頻度判定部131は、入力ブロックにおいて、注目画素を選択し、選択した注目画素の画素値がブロック内頻度分布の上位3位以内であるか否かを判定し、判定結果に応じて、動き推定画素生成部132を制御し、動き推定ブロックの画素値を設定させる。なお、いまの場合、判定の基準として上位3位以内としたが、上位2位としてもよいし、上位4位としてもよい。すなわち、判定の基準は、上位3位に限定されない。   The frequency determination unit 131 reads the input block supplied from the blocking unit 111 and generates an intra-block frequency distribution of pixels of the input block. The frequency determination unit 131 selects a target pixel in the input block, determines whether or not the pixel value of the selected target pixel is within the top three of the intra-block frequency distribution, and performs motion estimation according to the determination result. The pixel generation unit 132 is controlled to set the pixel value of the motion estimation block. In this case, the criterion for determination is within the top three, but it may be the top two or the top four. That is, the criterion for determination is not limited to the top three.

動き推定画素生成部132は、頻度判定部131の制御のもと、動き推定ブロックの画素値を設定することにより、動き推定ブロックを生成し、生成した動き推定ブロックを、動き推定部114に供給する。   The motion estimation pixel generation unit 132 generates a motion estimation block by setting the pixel value of the motion estimation block under the control of the frequency determination unit 131 and supplies the generated motion estimation block to the motion estimation unit 114. To do.

すなわち、動き推定画素生成部132は、頻度判定部131により注目画素の画素値がブロック内頻度分布の上位3位以内であると判定された場合、入力ブロックの注目画素の画素値を、動き推定ブロックにおける注目画素の画素値として設定し、頻度判定部131により注目画素の画素値がブロック内頻度分布の上位3位以内ではないと判定された場合、動き推定ブロックにおける注目画素の画素値として0を設定する。   That is, when the frequency determination unit 131 determines that the pixel value of the target pixel is within the top three in the intra-block frequency distribution, the motion estimation pixel generation unit 132 calculates the pixel value of the target pixel of the input block as the motion estimation. When the pixel value of the target pixel in the block is set and the frequency determination unit 131 determines that the pixel value of the target pixel is not within the top three in the intra-block frequency distribution, the pixel value of the target pixel in the motion estimation block is 0 Set.

ラスタスキャン部133は、頻度判定部131に、次の注目画素をラスタスキャン順に選択させるため、入力ブロックの画素をラスタスキャン順に移動させる。   The raster scan unit 133 moves the pixels of the input block in the raster scan order so that the frequency determination unit 131 selects the next target pixel in the raster scan order.

図7は、図5の動き推定部114の構成例を示している。   FIG. 7 shows a configuration example of the motion estimation unit 114 of FIG.

図7の例において、動き推定部114は、動き探索部141により構成されている。   In the example of FIG. 7, the motion estimation unit 114 is configured by a motion search unit 141.

動き探索部141は、フレームメモリ112からの前フレームと、動き推定ブロック生成部113からの動き推定ブロックを読み込む。動き探索部141は、動き推定ブロックの0以外の画素値を用いて、前フレームから、ブロックマッチングにより、画素差分2乗総和最小規範で、動きを探索し、動きを探索した結果、動きベクトルを算出する。そして、動き探索部141は、算出した動きベクトルを、残差算出部115およびデータ合成部117に供給する。   The motion search unit 141 reads the previous frame from the frame memory 112 and the motion estimation block from the motion estimation block generation unit 113. The motion search unit 141 uses a pixel value other than 0 of the motion estimation block to search for a motion from the previous frame by the pixel matching square sum minimum norm by block matching, and as a result of searching for the motion, a motion vector is obtained. calculate. Then, the motion search unit 141 supplies the calculated motion vector to the residual calculation unit 115 and the data synthesis unit 117.

図8は、図5の残差算出部115の構成例を示している。   FIG. 8 shows a configuration example of the residual calculation unit 115 of FIG.

図8の例において、残差算出部115は、予測ブロック演算部151および残差演算部152により構成されている。   In the example of FIG. 8, the residual calculation unit 115 includes a prediction block calculation unit 151 and a residual calculation unit 152.

予測ブロック演算部151は、動き推定部114からの動きベクトル、およびフレームメモリ112からの前フレームを読み込み、動きベクトルと前フレームを用いて、予測ブロックの画素値を生成し、予測ブロックを求め、求めた予測ブロックを残差演算部152に供給する。   The prediction block calculation unit 151 reads the motion vector from the motion estimation unit 114 and the previous frame from the frame memory 112, generates a pixel value of the prediction block using the motion vector and the previous frame, obtains a prediction block, The obtained prediction block is supplied to the residual calculation unit 152.

残差演算部152は、ブロック化部111からの入力ブロック、および予測ブロック演算部151からの予測ブロックを読み込み、入力ブロックと予測ブロックの残差を算出し、算出した残差を、残差ブロックとして、残差ベクトル量子化部116に供給する。   The residual calculation unit 152 reads the input block from the blocking unit 111 and the prediction block from the prediction block calculation unit 151, calculates the residual between the input block and the prediction block, and uses the calculated residual as the residual block. Is supplied to the residual vector quantization unit 116.

図9は、図5の残差ベクトル量子化部116の構成例を示している。   FIG. 9 shows a configuration example of the residual vector quantization unit 116 of FIG.

図9の例において、残差ベクトル量子化部116は、ベクトル量子化部161により構成されている。   In the example of FIG. 9, the residual vector quantization unit 116 is configured by a vector quantization unit 161.

ベクトル量子化部161は、残差演算部152からの残差ブロックを読み込み、コードブック121を用いて、残差ブロックを、LBGアルゴリズムによりベクトル量子化し、ベクトル量子化により得られた量子化コードデータを、データ合成部117に供給する。   The vector quantization unit 161 reads the residual block from the residual calculation unit 152, uses the code book 121, performs vector quantization on the residual block by the LBG algorithm, and obtains quantized code data obtained by vector quantization. Is supplied to the data composition unit 117.

次に、図10のフローチャートを参照して、図5の符号化部82の符号化処理を説明する。なお、この符号化処理は、図4を参照して上述した符号化装置63の処理におけるステップS5の符号化処理である。   Next, the encoding process of the encoding unit 82 in FIG. 5 will be described with reference to the flowchart in FIG. 10. This encoding process is the encoding process of step S5 in the process of the encoding device 63 described above with reference to FIG.

符号化部82のブロック化部111およびフレームメモリ112には、A/D変換部81からのデジタルの画像データVdg1が入力される。フレームメモリ112に入力され、蓄積された前フレームの画像データは、動き推定部114および残差算出部115に供給される。   Digital image data Vdg1 from the A / D conversion unit 81 is input to the blocking unit 111 and the frame memory 112 of the encoding unit 82. The image data of the previous frame input and stored in the frame memory 112 is supplied to the motion estimation unit 114 and the residual calculation unit 115.

A/D変換部81からのデジタルの画像データVdg1が入力されると、ブロック化部111は、ステップS21において、ブロック化処理を実行する。このブロック化処理は、図11を参照して詳しく後述する。   When the digital image data Vdg1 from the A / D conversion unit 81 is input, the blocking unit 111 executes a blocking process in step S21. This blocking process will be described later in detail with reference to FIG.

ステップS21のブロック化処理により、読み込まれた入力画像が指定ブロックサイズに分割され、分割された画像データが入力ブロックとして、ブロック毎に動き推定ブロック生成部113および残差算出部115に供給され、処理は、ステップS22に進む。   By the blocking process in step S21, the read input image is divided into designated block sizes, and the divided image data is supplied as input blocks to the motion estimation block generation unit 113 and the residual calculation unit 115 for each block. The process proceeds to step S22.

動き推定ブロック生成部113は、ブロック化部111から入力ブロックが入力されると、ステップS22において、動き推定部114が行う動き推定のための動き推定ブロックを生成する動き推定ブロック生成処理を実行する。この動き推定ブロック生成処理は、図12を参照して詳しく後述する。   When the input block is input from the blocking unit 111, the motion estimation block generation unit 113 executes a motion estimation block generation process for generating a motion estimation block for motion estimation performed by the motion estimation unit 114 in step S22. . This motion estimation block generation process will be described later in detail with reference to FIG.

ステップS22の動き推定ブロック生成処理により、入力ブロックの画素のブロック内頻度分布が生成され、生成されたブロック内頻度分布に基づいて、動き推定ブロックの画素が生成される。そして、生成された動き推定ブロックが、動き推定部114に供給され、処理は、ステップS23に進む。   By the motion estimation block generation processing in step S22, the intra-block frequency distribution of the pixels of the input block is generated, and the pixels of the motion estimation block are generated based on the generated intra-block frequency distribution. Then, the generated motion estimation block is supplied to the motion estimation unit 114, and the process proceeds to step S23.

動き推定部114は、動き推定ブロック生成部113から動き推定ブロックが供給されると、ステップS23において、動き推定ブロック生成部113により生成された動き推定ブロックを用いて、ブロックマッチング法による動き推定処理を実行する。この動き推定処理は、図13を参照して詳しく後述する。   When the motion estimation block is supplied from the motion estimation block generation unit 113, the motion estimation unit 114 uses the motion estimation block generated by the motion estimation block generation unit 113 in step S23 to perform motion estimation processing by the block matching method. Execute. This motion estimation process will be described later in detail with reference to FIG.

ステップS23の動き推定処理により、動き推定ブロックの画素値(0以外)を用いて、フレームメモリ112からの前フレームの動き探索が行われ、その結果、動きベクトルが算出される。そして、算出された動きベクトルが、残差算出部115およびデータ合成部117に供給され、処理は、ステップS24に進む。   By the motion estimation process in step S23, the motion search of the previous frame from the frame memory 112 is performed using the pixel value (other than 0) of the motion estimation block, and as a result, a motion vector is calculated. Then, the calculated motion vector is supplied to the residual calculation unit 115 and the data synthesis unit 117, and the process proceeds to step S24.

残差算出部115は、動き推定部114から動きベクトルが供給されると、ステップS24において、残差算出処理を実行する。この残差算出処理は、図14を参照して詳しく後述する。   When the motion vector is supplied from the motion estimation unit 114, the residual calculation unit 115 executes a residual calculation process in step S24. This residual calculation process will be described later in detail with reference to FIG.

ステップS24の残差算出処理により、動き推定部114からの動きベクトルと、フレームメモリ112からの前フレームを用いて、予測ブロックの画素値が生成され、予測ブロックが求められる。そして、求められた予測ブロックと、ブロック化部111からの入力ブロックの残差が、残差ブロックとして、残差ベクトル量子化部116に供給され、処理は、ステップS25に進む。   By the residual calculation process in step S24, the pixel value of the prediction block is generated using the motion vector from the motion estimation unit 114 and the previous frame from the frame memory 112, and the prediction block is obtained. Then, the obtained prediction block and the residual of the input block from the blocking unit 111 are supplied as a residual block to the residual vector quantization unit 116, and the process proceeds to step S25.

残差ベクトル量子化部116は、残差算出部115から残差ブロックが供給されると、ステップS25において、残差量子化処理を実行する。この残差量子化処理は、図15を参照して詳しく後述する。   When the residual block is supplied from the residual calculation unit 115, the residual vector quantization unit 116 performs a residual quantization process in step S25. This residual quantization process will be described later in detail with reference to FIG.

ステップS25の残差量子化処理により、残差算出部115からの残差ブロックが、ベクトル量子化用コードブック121を用いて、ベクトル量子化され、ベクトル量子化により得られた量子化コードデータが、データ合成部117に供給され、処理は、ステップS26に進む。   By the residual quantization processing in step S25, the residual block from the residual calculation unit 115 is vector quantized using the vector quantization code book 121, and the quantized code data obtained by vector quantization is obtained. , And the process proceeds to step S26.

データ合成部117は、残差ベクトル量子化部116から量子化コードデータが入力されると、ステップS26においてデータ合成処理を実行する。このデータ合成処理は、図16を参照して詳しく後述する。   When the quantized code data is input from the residual vector quantizing unit 116, the data synthesizing unit 117 executes a data synthesizing process in step S26. This data composition processing will be described later in detail with reference to FIG.

ステップS26のデータ合成処理により、動き推定部114からの動きベクトル、残差ベクトル量子化部116からの量子化コードデータ、およびベクトル量子化用コードブック121が、符号化データVcdとして合成され、後段の記録部83または復号部84に出力される。   By the data synthesis process in step S26, the motion vector from the motion estimation unit 114, the quantized code data from the residual vector quantization unit 116, and the vector quantization code book 121 are synthesized as encoded data Vcd, and the subsequent stage. Are output to the recording unit 83 or the decoding unit 84.

以上により、符号化部82の符号化処理は、終了され、処理は、図4のステップS5に戻り、ステップS6に進み、復号処理が実行される。   As described above, the encoding process of the encoding unit 82 is terminated, and the process returns to step S5 in FIG. 4 and proceeds to step S6, where the decoding process is executed.

次に、図11のフローチャートを参照して、図10のステップS21における、図5のブロック化部111のブロック化処理を説明する。   Next, the blocking process of the blocking unit 111 in FIG. 5 in step S21 in FIG. 10 will be described with reference to the flowchart in FIG.

ブロック化部111は、ステップS41において、A/D変換部81から入力されたデジタルの画像データVdg1を入力画像として読み込み、ステップS42に進み、入力画像を指定ブロック(例えば、4×4画素または8×8画素など)に分割し、ステップS43に進む。   In step S41, the block forming unit 111 reads the digital image data Vdg1 input from the A / D conversion unit 81 as an input image, proceeds to step S42, and converts the input image into a designated block (for example, 4 × 4 pixels or 8 X8 pixels, etc.), and the process proceeds to step S43.

ブロック化部111は、ステップS43において、分割した指定ブロックサイズの画像データを、入力ブロックとして、ブロック毎に、動き推定ブロック生成部113および残差算出部115に供給し、ブロック化処理を終了し、図10のステップS21に戻り、ステップS22に進む。   In step S43, the blocking unit 111 supplies the divided image data of the designated block size as an input block for each block to the motion estimation block generation unit 113 and the residual calculation unit 115, and ends the blocking process. Returning to step S21 of FIG. 10, the process proceeds to step S22.

次に、図12のフローチャートを参照して、図10のステップS22における、図5の動き推定ブロック生成部113の動き推定ブロック生成処理を説明する。   Next, the motion estimation block generation process of the motion estimation block generation unit 113 in FIG. 5 in step S22 in FIG. 10 will be described with reference to the flowchart in FIG.

頻度判定部131は、ステップS61において、ブロック化部111から供給される入力ブロックを読み込み、ステップS62に進み、入力ブロックの画素値のブロック内頻度分布を生成し、ステップS63に進む。   In step S61, the frequency determination unit 131 reads the input block supplied from the blocking unit 111, proceeds to step S62, generates an intra-block frequency distribution of pixel values of the input block, and proceeds to step S63.

頻度判定部131は、ステップS63において、入力ブロックから、注目画素を選択し、ステップS64に進む。なお、注目画素は、入力ブロックの左上の画素からラスタスキャン順に選択される。   In step S63, the frequency determination unit 131 selects a target pixel from the input block, and proceeds to step S64. Note that the target pixel is selected in the raster scan order from the upper left pixel of the input block.

頻度判定部131は、ステップS64において、選択した注目画素の画素値がブロック内頻度分布の上位3位以内であるか否かを判定し、選択した注目画素の画素値がブロック内頻度分布の上位3位以内であると判定した場合、ステップS65に進み、動き推定画素生成部132を制御し、入力ブロックの注目画素の画素値を、動き推定ブロックにおける注目画素の画素値として設定させ、ステップS67に進む。   In step S64, the frequency determination unit 131 determines whether or not the pixel value of the selected target pixel is within the top three of the intra-block frequency distribution, and the pixel value of the selected target pixel is the top of the intra-block frequency distribution. When it is determined that it is within the third place, the process proceeds to step S65, the motion estimation pixel generation unit 132 is controlled, and the pixel value of the target pixel in the input block is set as the pixel value of the target pixel in the motion estimation block. Proceed to

また、頻度判定部131は、ステップS64において、選択した注目画素の画素値がブロック内頻度分布の上位3位以内ではないと判定した場合、ステップS66に進み、動き推定画素生成部132を制御し、0を、動き推定ブロックにおける注目画素の画素値として設定させ、ステップS67に進む。   On the other hand, if the frequency determination unit 131 determines in step S64 that the pixel value of the selected target pixel is not within the top three of the intra-block frequency distribution, the frequency determination unit 131 proceeds to step S66 and controls the motion estimation pixel generation unit 132. , 0 is set as the pixel value of the target pixel in the motion estimation block, and the process proceeds to step S67.

すなわち、動き推定ブロックにおいて、画素値がブロック内頻度分布の上位3位以内である画素には、入力ブロックの対応する画素値が設定され、画素値がブロック内頻度分布の上位3位に入らない画素には、0が設定される。   That is, in the motion estimation block, a pixel value that is within the top three in the intra-block frequency distribution is set with the corresponding pixel value in the input block, and the pixel value does not enter the top three in the intra-block frequency distribution. 0 is set to the pixel.

動き推定画素生成部132は、ステップS67において、動き推定ブロックの全画素の処理が終了したか(すなわち、動き推定ブロックの画素値がすべて設定されたか)否かを判定し、動き推定ブロックの全画素の処理が終了していないと判定した場合、ラスタスキャン部133に、入力ブロックの画素を、ラスタスキャン順に移動させ、ステップS63に戻る。   In step S67, the motion estimation pixel generation unit 132 determines whether or not the processing of all the pixels of the motion estimation block has been completed (that is, all the pixel values of the motion estimation block have been set). If it is determined that the pixel processing has not ended, the raster scan unit 133 moves the pixels of the input block in the raster scan order, and the process returns to step S63.

これにより、ステップS63においては、頻度判定部131により、入力ブロックにおける次の注目画素が選択される。   Thereby, in step S63, the frequency determination unit 131 selects the next pixel of interest in the input block.

動き推定画素生成部132は、ステップS67において、動き推定ブロックの全画素の処理が終了したと判定した場合、動き推定ブロックの画素値がすべて設定され、動き推定ブロックが生成されたので、ステップS68に進み、生成された動き推定ブロックを、動き推定部114に供給する。そして、動き推定画素生成部132は、動き推定ブロック生成処理を終了し、図10のステップS22に戻り、ステップS23に進む。   If the motion estimation pixel generation unit 132 determines in step S67 that all the pixels of the motion estimation block have been processed, all the pixel values of the motion estimation block are set and the motion estimation block is generated. Then, the generated motion estimation block is supplied to the motion estimation unit 114. Then, the motion estimation pixel generation unit 132 ends the motion estimation block generation processing, returns to step S22 in FIG. 10, and proceeds to step S23.

次に、図13のフローチャートを参照して、図10のステップS23における、図5の動き推定部114の動き推定処理を説明する。   Next, the motion estimation process of the motion estimation unit 114 in FIG. 5 in step S23 in FIG. 10 will be described with reference to the flowchart in FIG.

動き探索部141は、ステップS81において、動き推定ブロック生成部113からの動き推定ブロックを読み込み、ステップS82に進み、フレームメモリ112からの前フレームを読み込み、ステップS83に進む。   In step S81, the motion search unit 141 reads the motion estimation block from the motion estimation block generation unit 113, proceeds to step S82, reads the previous frame from the frame memory 112, and proceeds to step S83.

動き探索部141は、ステップS83において、動き推定ブロックの0以外の画素値を用いて、前フレームから、画素差分2乗総和最小規範で、動きを探索し、ステップS84に進み、動きを探索した結果、動きベクトルを算出し、算出した動きベクトルを、残差算出部115およびデータ合成部117に供給し、動き推定処理を終了し、図10のステップS23に戻り、ステップS24に進む。   In step S83, the motion search unit 141 uses the pixel value other than 0 of the motion estimation block to search for motion from the previous frame using the pixel difference square sum minimum norm, and proceeds to step S84 to search for motion. As a result, a motion vector is calculated, the calculated motion vector is supplied to the residual calculation unit 115 and the data synthesis unit 117, the motion estimation process is terminated, the process returns to step S23 in FIG. 10, and the process proceeds to step S24.

次に、図14のフローチャートを参照して、図10のステップS24における、図5の残差算出部115の残差算出処理を説明する。   Next, the residual calculation process of the residual calculation unit 115 in FIG. 5 in step S24 in FIG. 10 will be described with reference to the flowchart in FIG.

残差演算部152は、ステップS101において、ブロック化部111から供給される入力ブロックを読み込み、ステップS102に進む。   In step S101, the residual calculation unit 152 reads the input block supplied from the blocking unit 111, and proceeds to step S102.

予測ブロック演算部151は、ステップS102において、動き推定部114から供給される動きベクトルを読み込み、ステップS103に進み、フレームメモリ112から供給される前フレームを読み込み、ステップS104に進む。   In step S102, the prediction block calculation unit 151 reads the motion vector supplied from the motion estimation unit 114, proceeds to step S103, reads the previous frame supplied from the frame memory 112, and proceeds to step S104.

予測ブロック演算部151は、ステップS104において、動き推定部114からの動きベクトルと、フレームメモリ112からの前フレームを用いて、予測ブロックの画素値を生成し、予測ブロックを求め、求めた予測ブロックを残差演算部152に供給し、ステップS105に進む。   In step S104, the prediction block calculation unit 151 generates a pixel value of the prediction block using the motion vector from the motion estimation unit 114 and the previous frame from the frame memory 112, obtains a prediction block, and obtains the prediction block Is supplied to the residual calculation unit 152, and the process proceeds to step S105.

残差演算部152は、ブロック化部111からの入力ブロック、および予測ブロック演算部151からの予測ブロックの残差を算出し、算出した残差を、残差ブロックとして、残差ベクトル量子化部116のベクトル量子化部161に供給し、残差算出処理を終了し、図10のステップS24に戻り、ステップS25に進む。   The residual calculation unit 152 calculates the residual of the input block from the blocking unit 111 and the prediction block from the prediction block calculation unit 151, and uses the calculated residual as a residual block as a residual vector quantization unit. 116 is supplied to the vector quantization unit 161, the residual calculation process is terminated, the process returns to step S24 in FIG. 10, and the process proceeds to step S25.

次に、図15のフローチャートを参照して、図10のステップS25における、図5の残差ベクトル量子化部116の残差量子化処理を説明する。   Next, the residual quantization processing of the residual vector quantization unit 116 in FIG. 5 in step S25 in FIG. 10 will be described with reference to the flowchart in FIG.

ベクトル量子化部161は、ステップS121において、残差演算部152からの残差ブロックを読み込み、ステップS122に進み、図示せぬコードブック生成部から、コードブック121を読み込み、ステップS123に進む。   In step S121, the vector quantization unit 161 reads the residual block from the residual calculation unit 152, proceeds to step S122, reads the code book 121 from the code book generation unit (not shown), and proceeds to step S123.

なお、コードブック121は、符号化部82に内蔵される図示せぬコードブック生成部により入力画像が用いられて生成されたものである。   The code book 121 is generated by using an input image by a code book generation unit (not shown) built in the encoding unit 82.

ベクトル量子化部161は、ステップS123において、コードブック121を用いて、LBGアルゴリズムを利用したベクトル量子化により、量子化コードデータを取得し、取得した量子化コードデータをデータ合成部117に供給し、残差量子化処理を終了し、図10のステップS25に戻り、ステップS26に進む。   In step S123, the vector quantization unit 161 acquires the quantized code data by vector quantization using the LBG algorithm using the code book 121, and supplies the acquired quantized code data to the data synthesis unit 117. Then, the residual quantization process is terminated, the process returns to step S25 in FIG. 10, and the process proceeds to step S26.

次に、図16のフローチャートを参照して、図10のステップS26における、図5のデータ合成部117のデータ合成処理を説明する。   Next, the data composition processing of the data composition unit 117 in FIG. 5 in step S26 in FIG. 10 will be described with reference to the flowchart in FIG.

データ合成部117は、ステップS141において、ベクトル量子化部161から供給される量子化コードデータを読み込み、ステップS142に進み、動き推定部114から供給される動きベクトルを読み込み、ステップS143に進む。   In step S141, the data synthesis unit 117 reads the quantization code data supplied from the vector quantization unit 161, proceeds to step S142, reads the motion vector supplied from the motion estimation unit 114, and proceeds to step S143.

データ合成部117は、ステップS143において、図示せぬコードブック生成部から、コードブック121を読み込み、ステップS144に進み、量子化コードデータ、動きベクトル、およびコードブック121を合成し、符号化データVcdとして、後段の記録部83または復号部84に供給する。   In step S143, the data synthesis unit 117 reads the code book 121 from a code book generation unit (not shown), proceeds to step S144, synthesizes the quantized code data, the motion vector, and the code book 121, and generates the encoded data Vcd. To the recording unit 83 or the decoding unit 84 in the subsequent stage.

そして、データ合成部117は、データ合成処理を終了し、図10のステップS26に戻り、図10の符号化処理を終了し、図4のステップS5に戻り、ステップS6に進む。   Then, the data synthesis unit 117 ends the data synthesis process, returns to step S26 in FIG. 10, ends the encoding process in FIG. 10, returns to step S5 in FIG. 4, and proceeds to step S6.

以上のように、符号化部82においては、ブロック内頻度分布の上位3位以内である画素だけが用いられて探索された動きベクトル、その動きベクトルに基づいて生成された予測ブロックで算出される残差ブロックが量子化された量子化コードデータ、そして、入力画像から生成され、量子化処理に用いられたコードブック121が、符号化データVcdとして後段に供給される。   As described above, the encoding unit 82 calculates the motion vector searched using only the pixels that are within the top three in the intra-block frequency distribution and the prediction block generated based on the motion vector. The quantized code data obtained by quantizing the residual block and the code book 121 generated from the input image and used for the quantization processing are supplied to the subsequent stage as encoded data Vcd.

すなわち、この動きベクトルは、動き推定ブロック生成部113において、デジタルの画像データVdg1の入力ブロックのブロック内頻度分布に応じて生成された動き推定ブロックが用いられて、動き推定部114により求められたものであり、A/D変換部81から入力されるデジタルの画像データVdg1には、ホワイトノイズや位相ずれが付加されており、その位相ずれにより、動き推定部114により用いられる画素と、記録媒体に記録されている元の画像データが符号化されたときに、ブロック内頻度分布に応じて用いられる画素が異なってしまうため、必ずしも正確ではない。   That is, this motion vector is obtained by the motion estimation block 114 using the motion estimation block generated by the motion estimation block generation unit 113 according to the intra-block frequency distribution of the input block of the digital image data Vdg1. The digital image data Vdg1 input from the A / D conversion unit 81 is added with white noise and phase shift, and the pixels used by the motion estimation unit 114 and the recording medium are added due to the phase shift. When the original image data recorded in is encoded, the pixels used in accordance with the intra-block frequency distribution are different, which is not necessarily accurate.

したがって、この動きベクトルを用いて得られる動き推定後の残差が、入力されたデジタルの画像データVdg1から生成されたコードブックを用いて量子化された量子化コードデータも必ずしも正確ではない。   Therefore, the quantized code data obtained by quantizing the residual after motion estimation obtained using this motion vector using the code book generated from the input digital image data Vdg1 is not necessarily accurate.

これにより、復号部84により符号化データVcdが用いられて復号されて得られるデジタルの画像データVdg2の画質は、劣化してしまう。   As a result, the image quality of the digital image data Vdg2 obtained by decoding using the encoded data Vcd by the decoding unit 84 deteriorates.

さらに、復号部84に供給される符号化データVcdには、入力されたデジタルの画像データVdg1から生成され、動き推定後の残差の量子化に用いられたコードブックも含まれる。すなわち、復号部84においては、このコードブックが用いられて残差補償が実行されるため、残差補償が正確に行われず、デジタルの画像データVdg2の画質は、劣化してしまう。   Furthermore, the encoded data Vcd supplied to the decoding unit 84 also includes a codebook generated from the input digital image data Vdg1 and used for quantization of the residual after motion estimation. That is, since the decoding unit 84 uses this codebook to perform residual compensation, the residual compensation is not accurately performed, and the image quality of the digital image data Vdg2 deteriorates.

以上により、符号化部82による符号化により、アナログコピーが抑制される。   As described above, the analog copy is suppressed by the encoding by the encoding unit 82.

次に、図2の復号部84の構成の詳細について説明する。   Next, details of the configuration of the decoding unit 84 of FIG. 2 will be described.

図17は、復号部84の構成を示すブロック図である。復号部84には、符号化部82または記録部83から符号化データVcdが入力され、符号化データVcdが復号され、デジタルの画像データVdg2として、後段のD/A変換部85に供給される。   FIG. 17 is a block diagram illustrating a configuration of the decoding unit 84. The decoding unit 84 receives the encoded data Vcd from the encoding unit 82 or the recording unit 83, decodes the encoded data Vcd, and supplies it as digital image data Vdg2 to the D / A conversion unit 85 at the subsequent stage. .

復号部84は、データ分解部211、残差逆ベクトル量子化部212、フレームメモリ213、動き補償部214、残差加算部215、およびデータ結合部216により構成される。   The decoding unit 84 includes a data decomposition unit 211, a residual inverse vector quantization unit 212, a frame memory 213, a motion compensation unit 214, a residual addition unit 215, and a data combining unit 216.

データ分解部211は、符号化部82(あるいは記録部83)からの符号化データVcdを入力し、符号化データVcdから、動きベクトル、および量子化コードデータとコードブック121を分解し、動きベクトルを、動き補償部214に供給し、量子化コードデータとコードブック121を、残差逆ベクトル量子化部212に供給する。   The data decomposing unit 211 receives the encoded data Vcd from the encoding unit 82 (or the recording unit 83), decomposes the motion vector, the quantized code data, and the code book 121 from the encoded data Vcd, and moves the motion vector. Is supplied to the motion compensation unit 214, and the quantized code data and the code book 121 are supplied to the residual inverse vector quantization unit 212.

残差逆ベクトル量子化部212は、データ分解部211からの量子化コードデータとコードブック121を読み込み、残差補償を行う。すなわち、残差逆ベクトル量子化部212は、量子化コードデータとコードブック121を用いて、逆量子化を行い、逆量子化により得られた値から残差ブロックを求め、求めた残差ブロックを残差加算部215に供給する。   The residual inverse vector quantization unit 212 reads the quantized code data and the code book 121 from the data decomposition unit 211 and performs residual compensation. That is, the residual inverse vector quantization unit 212 performs inverse quantization using the quantized code data and the code book 121, obtains a residual block from the value obtained by the inverse quantization, and obtains the obtained residual block. Is supplied to the residual adder 215.

フレームメモリ213には、データ結合部216からのデジタルの画像データVdg2が蓄積され、フレームメモリ213は、前フレームの画像データを動き補償部214に供給する。   Digital image data Vdg2 from the data combination unit 216 is accumulated in the frame memory 213, and the frame memory 213 supplies the image data of the previous frame to the motion compensation unit 214.

動き補償部214は、データ分解部211からの動きベクトルに基づいて、フレームメモリ213から読み込んだ前フレームから、動き推定先のブロックを求め、求めたブロックから、予測ブロックを取得し、取得した予測ブロックを残差加算部215に供給する。   The motion compensation unit 214 obtains a motion estimation destination block from the previous frame read from the frame memory 213 based on the motion vector from the data decomposition unit 211, obtains a prediction block from the obtained block, and obtains the obtained prediction The block is supplied to the residual adder 215.

残差加算部215は、動き補償部214により求められた予測ブロックに、残差逆ベクトル量子化部212により求められた残差ブロックを加算し、出力ブロックを求め、求めた出力ブロックを、データ結合部216に供給する。   The residual addition unit 215 adds the residual block obtained by the residual inverse vector quantization unit 212 to the prediction block obtained by the motion compensation unit 214, obtains an output block, and obtains the obtained output block as data Supply to the coupling unit 216.

データ結合部216は、内蔵する図示せぬメモリに出力画像領域を有し、残差加算部215からの出力ブロックの画像データを、出力画像領域に書き込み、すべての出力ブロックの分が書き込まれたとき、出力画像領域に書き込まれた画像データを、デジタルの画像データVdg2として、後段のD/A変換部85に供給するとともに、フレームメモリ213に書き込む。   The data combination unit 216 has an output image area in a built-in memory (not shown), writes the image data of the output block from the residual addition unit 215 to the output image area, and all the output blocks are written. At this time, the image data written in the output image area is supplied as digital image data Vdg2 to the D / A conversion unit 85 in the subsequent stage and written into the frame memory 213.

以上のように、図17の復号部84において、動き補償部214により求められた予測ブロックは、符号化部82により求められたあまり確かではない動きベクトルに基づいて取得されている。また、残差逆ベクトル量子化部212により求められた残差ブロックは、符号化部82において入力画像から生成されたコードブック121を用いて求められている。   As described above, in the decoding unit 84 in FIG. 17, the prediction block obtained by the motion compensation unit 214 is acquired based on the motion vector obtained by the encoding unit 82 which is not very certain. Further, the residual block obtained by the residual inverse vector quantization unit 212 is obtained by using the code book 121 generated from the input image by the encoding unit 82.

すなわち、動き補償部214が実行する動き補償も、残差逆ベクトル量子化部212が実行する残差補償も、必ずしも正確ではない。したがって、予測ブロックと残差ブロックが加算されて生成される出力ブロックからなるデジタルの画像データVdg2の画質は劣化してしまう。これにより、アナログコピーが抑制される。   That is, neither the motion compensation performed by the motion compensation unit 214 nor the residual compensation performed by the residual inverse vector quantization unit 212 is necessarily accurate. Therefore, the image quality of the digital image data Vdg2 including the output block generated by adding the prediction block and the residual block deteriorates. Thereby, analog copy is suppressed.

図18は、図17の残差逆ベクトル量子化部212の構成例を示している。   FIG. 18 shows a configuration example of the residual inverse vector quantization unit 212 in FIG.

図18の例において、残差逆ベクトル量子化部212は、逆ベクトル量子化部221により構成されている。   In the example of FIG. 18, the residual inverse vector quantization unit 212 is configured by an inverse vector quantization unit 221.

逆ベクトル量子化部221は、データ分解部211からの量子化コードデータとコードブック121を読み込み、量子化コードデータとコードブック121を用いて、逆量子化を行う。逆ベクトル量子化部221は、逆量子化により得られた値から残差ブロックを求め、求めた残差ブロックを残差加算部215に供給する。   The inverse vector quantization unit 221 reads the quantized code data and the code book 121 from the data decomposing unit 211, and performs inverse quantization using the quantized code data and the code book 121. The inverse vector quantization unit 221 obtains a residual block from the value obtained by inverse quantization, and supplies the obtained residual block to the residual addition unit 215.

なお、このコードブック121は、符号化部82において、入力画像が用いられて生成されたコードブックである。すなわち、逆ベクトル量子化部221においては、動き推定前の画像が用いられたコードブックにより残差補償用の逆量子化が実行される。   The code book 121 is a code book generated by using the input image in the encoding unit 82. That is, in the inverse vector quantization unit 221, the residual quantization inverse quantization is executed by the code book using the image before motion estimation.

図19は、図17の動き補償部214の構成例を示している。   FIG. 19 shows a configuration example of the motion compensation unit 214 of FIG.

図19の例において、動き補償部214は、動き補償処理部231および予測ブロック取得部232により構成されている。   In the example of FIG. 19, the motion compensation unit 214 includes a motion compensation processing unit 231 and a prediction block acquisition unit 232.

動き補償処理部231は、データ分解部211から供給される動きベクトルを読み込み、フレームメモリ213から前フレームを読み込む。そして、動き補償処理部231は、データ分解部211からの動きベクトルに基づいて、フレームメモリ213からの前フレームから、動き推定先のブロックを求める。   The motion compensation processing unit 231 reads the motion vector supplied from the data decomposition unit 211 and reads the previous frame from the frame memory 213. Then, the motion compensation processing unit 231 obtains a motion estimation destination block from the previous frame from the frame memory 213 based on the motion vector from the data decomposing unit 211.

予測ブロック取得部232は、動き補償処理部231により求められた動き推定先のブロックから、予測ブロックを取得し、取得した予測ブロックを残差加算部215に供給する。   The prediction block acquisition unit 232 acquires a prediction block from the motion estimation destination block obtained by the motion compensation processing unit 231, and supplies the acquired prediction block to the residual addition unit 215.

図20は、図17の残差加算部215の構成例を示している。   FIG. 20 shows a configuration example of the residual adder 215 of FIG.

図20の例において、残差加算部215は、残差演算部241により構成されている。   In the example of FIG. 20, the residual adding unit 215 includes a residual calculating unit 241.

残差演算部241は、動き補償部214から供給される予測ブロックを読み込み、残差逆ベクトル量子化部212から供給される残差ブロックを読み込む。残差演算部241は、動き補償部214からの予測ブロックに、残差逆ベクトル量子化部212からの残差ブロックを加算することにより、出力ブロックを求め、求めた出力ブロックを、データ結合部216に供給する。   The residual calculation unit 241 reads the prediction block supplied from the motion compensation unit 214 and reads the residual block supplied from the residual inverse vector quantization unit 212. The residual calculation unit 241 obtains an output block by adding the residual block from the residual inverse vector quantization unit 212 to the prediction block from the motion compensation unit 214, and obtains the obtained output block as a data combining unit. 216.

次に、図21のフローチャートを参照して、図17の復号部84の復号処理を説明する。なお、この符号化処理は、図4を参照して上述した符号化装置63の処理におけるステップS6の復号処理である。   Next, the decoding process of the decoding unit 84 of FIG. 17 will be described with reference to the flowchart of FIG. This encoding process is the decoding process in step S6 in the process of the encoding device 63 described above with reference to FIG.

復号部84のデータ分解部211には、符号化部82(あるいは記録部83)から符号化データVcdが供給される。データ分解部211は、符号化データVcdが供給されると、ステップS211において、データ分解処理を実行する。このデータ分解処理は、図22を参照して詳しく後述する。   The encoded data Vcd is supplied from the encoding unit 82 (or recording unit 83) to the data decomposition unit 211 of the decoding unit 84. When the encoded data Vcd is supplied, the data decomposing unit 211 performs a data decomposing process in step S211. This data decomposition process will be described later in detail with reference to FIG.

ステップS211のデータ分解処理により、符号化部82からの符号化データVcdが分解され、分解された動きベクトルが、動き補償部214に供給され、量子化コードデータとコードブック121が、残差逆ベクトル量子化部212に供給され、処理は、ステップS212に進む。   The encoded data Vcd from the encoding unit 82 is decomposed by the data decomposition processing in step S211, the decomposed motion vector is supplied to the motion compensation unit 214, and the quantized code data and the code book 121 are converted into the inverse of the residual. The data is supplied to the vector quantization unit 212, and the process proceeds to step S212.

残差逆ベクトル量子化部212は、データ分解部211から量子化コードデータとコードブック121が供給されると、ステップS212において、残差逆量子化処理を実行する。この残差逆量子化処理は、図23を参照して詳しく後述する。   When the quantized code data and the code book 121 are supplied from the data decomposition unit 211, the residual inverse vector quantization unit 212 performs a residual inverse quantization process in step S212. This residual inverse quantization process will be described later in detail with reference to FIG.

ステップS212の残差逆量子化処理により、量子化コードデータとコードブック121を用いて、ベクトル逆量子化が行われ、ベクトル逆量子化により得られた値から残差ブロックが求められ、残差加算部215に供給され、処理は、ステップS213に進む。   By the residual inverse quantization process in step S212, vector inverse quantization is performed using the quantized code data and the code book 121, and a residual block is obtained from the value obtained by the vector inverse quantization. The data is supplied to the adding unit 215, and the process proceeds to step S213.

動き補償部214は、データ分解部211から動きベクトルが供給されると、ステップS213において、動き補償処理を実行する。この動き補償処理は、図24を参照して詳しく後述する。   When the motion vector is supplied from the data decomposing unit 211, the motion compensating unit 214 performs a motion compensation process in step S213. This motion compensation process will be described later in detail with reference to FIG.

ステップS213の動き補償処理により、データ分解部211からの動きベクトルに基づいて、フレームメモリ213から読み込んだ前フレームから、動き推定先のブロックが求められ、求められたブロックから、予測ブロックが取得され、取得された予測ブロックが残差加算部215に供給され、処理は、ステップS214に進む。   Based on the motion vector from the data decomposing unit 211, a motion estimation destination block is obtained from the previous frame read from the frame memory 213 by the motion compensation processing in step S213, and a predicted block is obtained from the obtained block. The obtained prediction block is supplied to the residual adding unit 215, and the process proceeds to step S214.

残差加算部215は、動き補償部214から予測ブロックが供給されると、ステップS214において、残差加算処理を実行する。この残差加算処理は、図25を参照して詳しく後述する。   When the prediction block is supplied from the motion compensation unit 214, the residual addition unit 215 performs residual addition processing in step S214. This residual addition process will be described later in detail with reference to FIG.

ステップS214の残差加算処理により、動き補償部214からの予測ブロックに、残差逆ベクトル量子化部212からの残差ブロックが加算され、出力ブロックとしてデータ結合部216に供給され、処理は、ステップS215に進む。   By the residual addition processing in step S214, the residual block from the residual inverse vector quantization unit 212 is added to the prediction block from the motion compensation unit 214, and is supplied to the data combining unit 216 as an output block. Proceed to step S215.

残差加算部215から出力ブロックが供給されると、データ結合部216は、ステップS215において、データ結合処理を実行する。このデータ結合処理は、図26を参照して詳しく後述する。   When the output block is supplied from the residual adding unit 215, the data combining unit 216 executes data combining processing in step S215. This data combination process will be described later in detail with reference to FIG.

ステップS215のデータ結合処理により、残差加算部215からの出力ブロックの画像データが、出力画像領域に書き込まれ、すべての出力ブロックの分が書き込まれたとき、出力画像領域に書き込まれた画像データが、デジタルの画像データVdg2として、後段のD/A変換部85に供給され、復号処理は終了し、図4のステップS6に戻り、ステップS7に進む。   The image data of the output block from the residual adding unit 215 is written in the output image area by the data combination processing in step S215, and the image data written in the output image area when all the output blocks are written. Is supplied as digital image data Vdg2 to the D / A conversion unit 85 in the subsequent stage, the decoding process ends, the process returns to step S6 in FIG. 4, and proceeds to step S7.

次に、図22のフローチャートを参照して、図21のステップS211における図17のデータ分解部211のデータ分解処理を説明する。   Next, the data decomposition process of the data decomposition unit 211 in FIG. 17 in step S211 in FIG. 21 will be described with reference to the flowchart in FIG.

データ分解部211は、ステップS231において、符号化部82から供給される符号化データVcdを入力し、ステップS232に進み、入力した符号化データVcdを分解する。   In step S231, the data decomposing unit 211 receives the encoded data Vcd supplied from the encoding unit 82, proceeds to step S232, and decomposes the input encoded data Vcd.

すなわち、データ分解部211は、ステップS232において、符号化データVcdから、動きベクトル、および量子化コードデータとコードブック121を分解し、ステップS233に進む。   That is, in step S232, the data decomposing unit 211 decomposes the motion vector, the quantized code data, and the code book 121 from the encoded data Vcd, and proceeds to step S233.

データ分解部211は、ステップS233において、分解した動きベクトルを、動き補償部214に供給し、分解した量子化コードデータとコードブック121を、残差逆ベクトル量子化部212に供給し、データ分解処理を終了し、図21のステップS211に戻り、ステップS212に進む。   In step S233, the data decomposition unit 211 supplies the decomposed motion vector to the motion compensation unit 214, supplies the decomposed quantized code data and the code book 121 to the residual inverse vector quantization unit 212, and performs data decomposition. The process ends, the process returns to step S211 in FIG. 21, and the process proceeds to step S212.

次に、図23のフローチャートを参照して、図21のステップS212における、図17の残差逆ベクトル量子化部212の残差逆量子化処理を説明する。   Next, with reference to the flowchart of FIG. 23, the residual inverse quantization process of the residual inverse vector quantization unit 212 of FIG. 17 in step S212 of FIG. 21 will be described.

逆ベクトル量子化部221は、ステップS251において、データ分解部211から供給される量子化コードデータを読み込み、ステップS252に進み、データ分解部211から供給されるコードブック121を読み込み、ステップS253に進む。   In step S251, the inverse vector quantization unit 221 reads the quantized code data supplied from the data decomposition unit 211, proceeds to step S252, reads the code book 121 supplied from the data decomposition unit 211, and proceeds to step S253. .

逆ベクトル量子化部221は、ステップS253において、量子化コードデータとコードブック121を用いて、逆量子化を行い、ステップS254に進み、逆量子化により得られた値から残差ブロックを求め、求めた残差ブロックを残差加算部215に供給し、残差逆量子化処理を終了し、図21のステップS212に戻り、ステップS213に進む。   In step S253, the inverse vector quantization unit 221 performs inverse quantization using the quantized code data and the code book 121, proceeds to step S254, obtains a residual block from the value obtained by the inverse quantization, The obtained residual block is supplied to the residual adding unit 215, the residual inverse quantization process is terminated, the process returns to step S212 in FIG. 21, and the process proceeds to step S213.

次に、図24のフローチャートを参照して、図21のステップS213における、図17の動き補償部214の動き補償処理を説明する。   Next, the motion compensation processing of the motion compensation unit 214 in FIG. 17 in step S213 in FIG. 21 will be described with reference to the flowchart in FIG.

動き補償処理部231は、ステップS271において、データ分解部211から供給される動きベクトルを読み込み、ステップS272に進み、フレームメモリ213から前フレームを読み込み、ステップS273に進む。   In step S271, the motion compensation processing unit 231 reads the motion vector supplied from the data decomposition unit 211, proceeds to step S272, reads the previous frame from the frame memory 213, and proceeds to step S273.

動き補償処理部231は、ステップS273において、データ分解部211からの動きベクトルに基づいて、フレームメモリ213からの前フレームから、動き推定先のブロックを求め、ステップS274に進む。   In step S273, the motion compensation processing unit 231 obtains a motion estimation destination block from the previous frame from the frame memory 213 based on the motion vector from the data decomposition unit 211, and proceeds to step S274.

予測ブロック取得部232は、ステップS274において、動き補償処理部231により求められた動き推定先のブロックから、予測ブロックを取得し、取得した予測ブロックを残差演算部241に供給し、動き補償処理を終了し、図21のステップS213に戻り、ステップS214に進む。   In step S274, the prediction block acquisition unit 232 acquires a prediction block from the motion estimation destination block obtained by the motion compensation processing unit 231, supplies the acquired prediction block to the residual calculation unit 241, and performs motion compensation processing. Is finished, the process returns to step S213 in FIG. 21, and proceeds to step S214.

次に、図25のフローチャートを参照して、図21のステップS214における、図17の残差加算部215の残差加算処理を説明する。   Next, the residual addition process of the residual addition unit 215 in FIG. 17 in step S214 in FIG. 21 will be described with reference to the flowchart in FIG.

残差演算部241は、ステップS291において、残差逆ベクトル量子化部212から供給される残差ブロックを読み込み、ステップS292に進み、動き補償部214から供給される予測ブロックを読み込み、ステップS293に進む。   In step S291, the residual calculation unit 241 reads the residual block supplied from the residual inverse vector quantization unit 212, proceeds to step S292, reads the prediction block supplied from the motion compensation unit 214, and proceeds to step S293. move on.

残差演算部241は、ステップS293において、動き補償部214からの予測ブロックに、残差逆ベクトル量子化部212からの残差ブロックを加算することにより、出力ブロックを求め、求めた出力ブロックを、データ結合部216に供給し、残差加算処理を終了し、図21のステップS214に戻り、ステップS215に進む。   In step S293, the residual calculation unit 241 obtains an output block by adding the residual block from the residual inverse vector quantization unit 212 to the prediction block from the motion compensation unit 214, and obtains the obtained output block. The data is supplied to the data combination unit 216, the residual addition process is terminated, the process returns to step S214 in FIG. 21, and the process proceeds to step S215.

次に、図26のフローチャートを参照して、図21のステップS215における、図17のデータ結合部216のデータ結合処理を説明する。   Next, the data combining process of the data combining unit 216 in FIG. 17 in step S215 in FIG. 21 will be described with reference to the flowchart in FIG.

データ結合部216は、ステップS311において、残差加算部215から供給されるすべての出力ブロック(すなわち、符号化部82のブロック化部111が入力した入力画像に対応するすべてのブロック)を入力し、ステップS312に進む。   In step S311, the data combination unit 216 inputs all output blocks supplied from the residual addition unit 215 (that is, all blocks corresponding to the input image input by the blocking unit 111 of the encoding unit 82). The process proceeds to step S312.

データ結合部216は、ステップS312において、出力ブロックの画像データを出力画像領域に書き込み、ステップS313に進み、すべての出力ブロックの書き込みが終了したか否かを判定し、すべての出力ブロックの書き込みが終了していないと判定した場合、ステップS312に戻り、それ以降の処理を繰り返す。   In step S312, the data combination unit 216 writes the image data of the output block to the output image area, proceeds to step S313, determines whether writing of all the output blocks is completed, and writes all of the output blocks. If it is determined that the process has not ended, the process returns to step S312 to repeat the subsequent processes.

データ結合部216は、ステップS313において、すべての出力ブロックの書き込みが終了したと判定した場合、ステップS314に進み、出力画像領域に書き込まれた画像データを、デジタルの画像データVdg2として、後段のD/A変換部85に供給するとともにフレームメモリ213に書き込み、図21のステップS215に進み、図21の復号処理を終了し、図4のステップS6に戻り、ステップS7に進む。   If the data combination unit 216 determines in step S313 that writing of all output blocks has been completed, the process proceeds to step S314, in which the image data written in the output image area is converted into digital image data Vdg2, and the subsequent D The data is supplied to the / A converter 85 and written to the frame memory 213, and the process proceeds to step S215 in FIG. 21, the decoding process in FIG. 21 is terminated, the process returns to step S6 in FIG. 4, and the process proceeds to step S7.

以上のように、復号部84においては、符号化部82により位相ずれが付加された画像データのブロック内頻度分布の上位3位以内である画素だけが用いられて探索された動きベクトルを用いて、動き補償されるので、動き補償により得られる予測ブロックが用いられて生成される画像データの画質は、劣化してしまう。   As described above, the decoding unit 84 uses the motion vector searched using only the pixels that are within the top three in the intra-block frequency distribution of the image data to which the phase shift is added by the encoding unit 82. Since the motion compensation is performed, the image quality of the image data generated by using the prediction block obtained by the motion compensation is deteriorated.

また、復号部84においては、符号化部82により動きベクトルを用いて得られる動き推定後の残差が量子化された量子化コードデータと、入力されたデジタルの画像データVdg1から生成されたコードブックを用いて、残差補償が実行されるので、残差補償により得られる残差ブロックが用いられて生成される画像データの画質は、劣化してしまう。   Further, in the decoding unit 84, the code generated from the quantized code data obtained by quantizing the residual after motion estimation obtained by using the motion vector by the encoding unit 82 and the input digital image data Vdg1 Since the residual compensation is executed using the book, the image quality of the image data generated by using the residual block obtained by the residual compensation is deteriorated.

したがって、アナログコピーを抑制することができる。   Therefore, analog copying can be suppressed.

以上のように、本発明に係る画像処理システム51においては、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を用いて符号化処理が実行されるため、特に位相ずれにより、符号化部82における動き推定やベクトル量子化が正確に行われることが抑制される。   As described above, in the image processing system 51 according to the present invention, the encoding process is executed using the digital image data Vdg1 to which white noise and phase shift are added. Accurate motion estimation and vector quantization at 82 are suppressed.

また、本発明に係る画像処理システム51においては、ホワイトノイズおよび位相ずれが付加されたデジタルの画像データVdg1を符号化処理した符号化データVcdを用いて、復号処理が実行されるので、動き補償や残差補償が正確に行われることが抑制される。   In the image processing system 51 according to the present invention, since the decoding process is executed using the encoded data Vcd obtained by encoding the digital image data Vdg1 to which white noise and phase shift are added, motion compensation is performed. And the residual compensation is suppressed from being performed accurately.

以上により、符号化部82から得られる符号化データVcdと、それを復号した復号部84からのデジタルの画像データVdg2は、デジタルの画像データVdg0やアナログの画像データVan1よりも画質が大きく劣化してしまう。これにより、アナログコピーの防止に寄与することができる。   As described above, the encoded data Vcd obtained from the encoding unit 82 and the digital image data Vdg2 from the decoding unit 84 obtained by decoding the encoded data Vcd greatly deteriorate in image quality compared with the digital image data Vdg0 and the analog image data Van1. End up. This can contribute to prevention of analog copy.

なお、上記説明においては、符号化装置63の復号部84を用いて説明したが、再生装置61の復号部71も同様の構成であり、同様の処理が実行される。したがって、本発明に係る符号化および復号は、繰り返し実行されることもあり、その場合には、繰り返される毎に、その結果得られる画像データの画質は、ますます劣化するので、さらにアナログコピーの防止の寄与に効果がある。   In the above description, the decoding unit 84 of the encoding device 63 has been described. However, the decoding unit 71 of the reproduction device 61 has the same configuration, and the same processing is executed. Therefore, the encoding and decoding according to the present invention may be repeatedly performed. In this case, the image quality of the resulting image data is further deteriorated every time it is repeated. It is effective in contributing to prevention.

また、本実施の形態においては、各処理を行うブロックを、例えば、8画素×8画素や4画素×4画素などにより構成するようにして説明したが、これらは、一例であり、各処理を行うブロックを構成する画素は、上記画素数に限定されない。   Further, in the present embodiment, the block for performing each process has been described as being configured by, for example, 8 pixels × 8 pixels, 4 pixels × 4 pixels, and the like. However, these are examples, and each process is performed. The number of pixels constituting the block to be performed is not limited to the number of pixels.

上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、図2の再生装置61や符号化装置63は、例えば、図27に示されるようなパーソナルコンピュータ301により構成される。   The series of processes described above can be executed by hardware, but can also be executed by software. In this case, the playback device 61 and the encoding device 63 of FIG. 2 are configured by a personal computer 301 as shown in FIG. 27, for example.

図27に示されるように、CPU311は、ROM(Read Only Memory)312に記録されているプログラム、または記憶部318からRAM(Random Access Memory)313にロードされたプログラムに従って各種の処理を実行する。RAM313にはまた、CPU311が各種の処理を実行する上において必要なデータなども適宜記憶される。   As illustrated in FIG. 27, the CPU 311 executes various processes according to a program recorded in a ROM (Read Only Memory) 312 or a program loaded from a storage unit 318 to a RAM (Random Access Memory) 313. The RAM 313 also appropriately stores data necessary for the CPU 311 to execute various processes.

CPU311、ROM312、およびRAM313は、バス314を介して相互に接続されている。このバス314にはまた、入出力インタフェース315も接続されている。   The CPU 311, the ROM 312, and the RAM 313 are connected to each other via the bus 314. An input / output interface 315 is also connected to the bus 314.

入出力インタフェース315には、キーボード、マウスなどよりなる入力部316、CRT、LCDなどよりなるディスプレイ(例えば、図2のディスプレイ62やディスプレイ86)、並びにスピーカなどよりなる出力部317、ハードディスクなどより構成される記憶部318、モデム、ターミナルアダプタなどより構成される通信部319が接続されている。通信部319は、インターネットを含む図示せぬネットワークを介して他の情報処理装置との通信処理を行う。   The input / output interface 315 includes an input unit 316 including a keyboard and a mouse, a display such as a CRT and an LCD (for example, the display 62 and the display 86 in FIG. 2), an output unit 317 including a speaker, a hard disk, and the like. A communication unit 319 including a storage unit 318, a modem, a terminal adapter, and the like is connected. The communication unit 319 performs communication processing with other information processing apparatuses via a network (not shown) including the Internet.

入出力インタフェース315にはまた、必要に応じて、ドライブ320が接続され、磁気ディスク321、光ディスク322、光磁気ディスク323、或いは半導体メモリ324などよりなるリムーバブル記録媒体が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部318などにインストールされる。   A drive 320 is connected to the input / output interface 315 as necessary, and a removable recording medium including a magnetic disk 321, an optical disk 322, a magneto-optical disk 323, a semiconductor memory 324, or the like is appropriately mounted and read from them. The computer program thus installed is installed in the storage unit 318 or the like as necessary.

すなわち、ドライブ320が、図2の記録部83に相当することになる。   That is, the drive 320 corresponds to the recording unit 83 in FIG.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.

例えば、上述した図2の復号部71およびD/A変換部72、並びに、A/D変換部81、符号化部82、復号部84、およびD/A変換部85などの機能を有するソフトウェアを構成するプログラムがインストールされる。なお、このプログラムは、全体として上述した一連の処理を実行できれば、その形態は特に限定されない。例えば、上述した各ブロックのそれぞれに対応するモジュールのそれぞれからなるモジュール構成とされてもよいし、幾つかのブロックの機能の一部または全部が組み合わされたモジュール、若しくは、ブロックの機能が分割されたモジュールからなるモジュール構成とされてもよい。或いは、単に1つのアルゴリズムを有するプログラムでもよい。   For example, software having functions such as the decoding unit 71 and the D / A conversion unit 72, the A / D conversion unit 81, the encoding unit 82, the decoding unit 84, and the D / A conversion unit 85 in FIG. The program to be configured is installed. Note that the form of the program is not particularly limited as long as it can execute the series of processes described above as a whole. For example, the module configuration may include a module corresponding to each of the blocks described above, a module in which some or all of the functions of several blocks are combined, or the functions of the blocks are divided. It may be a module configuration made up of modules. Or the program which has only one algorithm may be sufficient.

このようなプログラムを含む記録媒体は、図27に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク321(フロッピディスクを含む)、光ディスク322(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク323(MD(Mini-Disk)を含む)、もしくは半導体メモリ324などよりなるリムーバブル記録媒体(パッケージメディア)により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM312や、記憶部318などで構成される。   As shown in FIG. 27, the recording medium including such a program is distributed to provide a program to the user separately from the apparatus main body, and includes a magnetic disk 321 (including a floppy disk) on which the program is recorded. ), Optical disk 322 (including compact disk-read only memory (CD-ROM), DVD (digital versatile disk)), magneto-optical disk 323 (including MD (mini-disk)), or semiconductor memory 324, etc. In addition to being configured by a recording medium (package medium), it is configured by a ROM 312 on which a program is recorded, a storage unit 318, and the like provided to the user in a state of being incorporated in the apparatus main body in advance.

ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。   Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).

また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。   Further, the program may be processed by one computer or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   In the present specification, the term “system” represents the entire apparatus constituted by a plurality of apparatuses.

従来の画像処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the conventional image processing system. 本発明を適用した画像処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing system to which this invention is applied. 画像データのフレームの構成を示す図である。It is a figure which shows the structure of the flame | frame of image data. 図2の画像処理システムの処理を説明するフローチャートである。It is a flowchart explaining the process of the image processing system of FIG. 図2の符号化装置の符号化部の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of an encoding unit of the encoding device in FIG. 2. 図5の動き推定ブロック生成部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the motion estimation block production | generation part of FIG. 図5の動き推定部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the motion estimation part of FIG. 図5の残差算出部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the residual calculation part of FIG. 図5の残差ベクトル量子化部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the residual vector quantization part of FIG. 図4のステップS5における図2の符号化部の符号化処理を説明するフローチャートである。5 is a flowchart for describing an encoding process of an encoding unit in FIG. 2 in step S5 in FIG. 図10のステップS21のブロック化処理を説明するフローチャートである。It is a flowchart explaining the blocking process of step S21 of FIG. 図10のステップS22の動き推定ブロック生成処理を説明するフローチャートである。It is a flowchart explaining the motion estimation block production | generation process of step S22 of FIG. 図10のステップS23の動き推定処理を説明するフローチャートである。It is a flowchart explaining the motion estimation process of step S23 of FIG. 図10のステップS24の残差算出処理を説明するフローチャートである。It is a flowchart explaining the residual calculation process of step S24 of FIG. 図10のステップS25の残差量子化処理を説明するフローチャートである。It is a flowchart explaining the residual quantization process of step S25 of FIG. 図10のステップS26のデータ合成処理を説明するフローチャートである。It is a flowchart explaining the data composition process of step S26 of FIG. 図2の符号化装置の復号部の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a decoding unit of the encoding device in FIG. 2. 図17の残差逆ベクトル量子化部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the residual inverse vector quantization part of FIG. 図17の動き補償部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the motion compensation part of FIG. 図17の残差加算部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the residual addition part of FIG. 図4のステップS6における図2の復号部の復号処理を説明するフローチャートである。6 is a flowchart for explaining the decoding process of the decoding unit of FIG. 2 in step S6 of FIG. 図21のステップS211のデータ分解処理を説明するフローチャートである。It is a flowchart explaining the data decomposition process of step S211 of FIG. 図21のステップS212の残差逆量子化処理を説明するフローチャートである。It is a flowchart explaining the residual dequantization process of step S212 of FIG. 図21のステップS213の動き補償処理を説明するフローチャートである。It is a flowchart explaining the motion compensation process of step S213 of FIG. 図21のステップS214の残差加算処理を説明するフローチャートである。It is a flowchart explaining the residual addition process of step S214 of FIG. 図21のステップS215のデータ結合処理を説明するフローチャートである。It is a flowchart explaining the data combination process of step S215 of FIG. 本発明を適用するパーソナルコンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of the personal computer to which this invention is applied.

符号の説明Explanation of symbols

51 画像処理システム,61 再生装置,62 ディスプレイ,63 符号化装置,81 A/D変換部,82 符号化部,83 記録部,84 復号部,85 D/A変換部,86 ディスプレイ,111 ブロック化部,112 フレームメモリ,113 動き推定ブロック生成部,114 動き推定部,115 残差算出部,116 残差ベクトル量子化部,117 データ合成部,121 ベクトル量子化用コードブック,211 データ分解部,212 残差逆ベクトル量子化部,213 フレームメモリ,214 動き補償部,215 残差加算部,216 データ結合部   51 image processing system, 61 playback device, 62 display, 63 encoding device, 81 A / D conversion unit, 82 encoding unit, 83 recording unit, 84 decoding unit, 85 D / A conversion unit, 86 display, 111 block Unit, 112 frame memory, 113 motion estimation block generation unit, 114 motion estimation unit, 115 residual calculation unit, 116 residual vector quantization unit, 117 data synthesis unit, 121 vector quantization codebook, 211 data decomposition unit, 212 Residual inverse vector quantization unit, 213 frame memory, 214 motion compensation unit, 215 residual addition unit, 216 data combination unit

Claims (32)

画像データを符号化する符号化装置において、
入力される画像データ中の第1のフレームをブロック化するブロック化手段と、
前記ブロック化手段によりブロック化されたブロックの画素値の頻度分布に基づいて、前記ブロックを代表する画素を抽出する画素抽出手段と、
前記画素抽出手段により抽出された前記画素を用いて、前記ブロックの動きベクトルを推定する動き推定手段と、
前記動き推定手段により推定された前記動きベクトルを用いて、前記ブロックに対応する第2のフレームの画像データと、前記ブロックにおける画像データとの差分を算出する差分算出手段と、
前記差分算出手段により算出された前記差分に対して、ベクトル量子化を行うベクトル量子化手段と
を備えることを特徴とする符号化装置。
In an encoding device for encoding image data,
Blocking means for blocking the first frame in the input image data;
Pixel extraction means for extracting pixels representing the block based on a frequency distribution of pixel values of the blocks blocked by the blocking means;
Motion estimation means for estimating a motion vector of the block using the pixels extracted by the pixel extraction means;
Using the motion vector estimated by the motion estimation means, a difference calculation means for calculating a difference between the image data of the second frame corresponding to the block and the image data in the block;
An encoding apparatus comprising: vector quantization means for performing vector quantization on the difference calculated by the difference calculation means.
前記画像データにノイズを付加し、前記ノイズが付加された前記画像データを出力するノイズ付加手段をさらに備え、
前記ブロック化手段は、前記ノイズ付加手段により前記ノイズが付加された前記画像データの第1のフレームをブロック化する
ことを特徴とする請求項1に記載の符号化装置。
Noise addition means for adding noise to the image data and outputting the image data to which the noise has been added;
The encoding apparatus according to claim 1, wherein the blocking unit blocks the first frame of the image data to which the noise is added by the noise adding unit.
前記動き推定手段は、前記画素抽出手段により抽出された前記画素を用いて、前記第2のフレームから、画素差分2乗総和の最小となるブロックを探索することにより、前記動きベクトルを推定する
ことを特徴とする請求項1に記載の符号化装置。
The motion estimation means estimates the motion vector by searching the second frame for a block having a minimum sum of squares of pixel differences using the pixels extracted by the pixel extraction means. The encoding device according to claim 1.
前記ベクトル量子化手段による前記ベクトル量子化に用いられるコードブックは、前記入力される画像データに基づいて生成される
ことを特徴とする請求項1に記載の符号化装置。
The encoding apparatus according to claim 1, wherein a code book used for the vector quantization by the vector quantization means is generated based on the input image data.
前記ベクトル量子化手段による前記ベクトル量子化に用いられる前記コードブック、前記ベクトル量子化手段により前記ベクトル量子化が行われることにより得られる量子化データ、および前記動き推定手段により推定された前記動きベクトルを、符号化データとして後段に出力するデータ出力手段を
さらに備えることを特徴とする請求項4に記載の符号化装置。
The codebook used for the vector quantization by the vector quantization means, the quantized data obtained by performing the vector quantization by the vector quantization means, and the motion vector estimated by the motion estimation means The encoding apparatus according to claim 4, further comprising data output means for outputting the data as encoded data to a subsequent stage.
前記画素抽出手段は、前記ブロックの画素値の頻度分布が上位3位以内の画素を、前記ブロックを代表する画素として抽出する
ことを特徴とする請求項1に記載の符号化装置。
The encoding apparatus according to claim 1, wherein the pixel extracting unit extracts pixels having a frequency distribution of pixel values of the block within the top three as pixels representing the block.
画像データを符号化する符号化装置の符号化方法において、
入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、
前記ブロック化ステップの処理によりブロック化されたブロックの画素値の頻度分布に基づいて、前記ブロックを代表する画素を抽出する画素抽出ステップと、
前記画素抽出ステップの処理により抽出された前記画素を用いて、前記ブロックの動きベクトルを推定する動き推定ステップと、
前記動き推定ステップの処理により推定された前記動きベクトルを用いて、前記ブロックに対応する第2のフレームの画像データと、前記ブロックにおける画像データとの差分を算出する差分算出ステップと、
前記差分算出ステップの処理により算出された前記差分に対して、ベクトル量子化を行うベクトル量子化ステップと
を含むことを特徴とする符号化方法。
In an encoding method of an encoding device for encoding image data,
A blocking step of blocking the first frame in the input image data;
A pixel extraction step of extracting a pixel representing the block based on a frequency distribution of pixel values of the block blocked by the block step;
A motion estimation step of estimating a motion vector of the block using the pixels extracted by the processing of the pixel extraction step;
A difference calculating step of calculating a difference between the image data of the second frame corresponding to the block and the image data in the block using the motion vector estimated by the processing of the motion estimating step;
And a vector quantization step of performing vector quantization on the difference calculated by the difference calculating step.
前記画像データにノイズを付加し、前記ノイズが付加された前記画像データを出力するノイズ付加ステップをさらに含み、
前記ブロック化ステップの処理では、前記ノイズ付加ステップの処理により前記ノイズが付加された前記画像データの第1のフレームをブロック化する
ことを特徴とする請求項7に記載の符号化方法。
A noise adding step of adding noise to the image data and outputting the image data with the noise added;
8. The encoding method according to claim 7, wherein, in the block forming step, the first frame of the image data to which the noise is added by the noise adding step is blocked.
前記動き推定ステップの処理では、前記画素抽出ステップの処理により抽出された前記画素を用いて、前記第2のフレームから、画素差分2乗総和の最小となるブロックを探索することにより、前記動きベクトルを推定する
ことを特徴とする請求項7に記載の符号化方法。
In the process of the motion estimation step, the motion vector is searched by searching the second frame for a block having a minimum sum of squares of pixel differences using the pixels extracted by the process of the pixel extraction step. The encoding method according to claim 7, wherein the encoding method is estimated.
前記ベクトル量子化ステップの処理による前記ベクトル量子化に用いられるコードブックは、前記入力される画像データに基づいて生成される
ことを特徴とする請求項7に記載の符号化方法。
The encoding method according to claim 7, wherein a codebook used for the vector quantization by the processing of the vector quantization step is generated based on the input image data.
前記ベクトル量子化ステップの処理による前記ベクトル量子化に用いられる前記コードブック、前記ベクトル量子化ステップの処理により前記ベクトル量子化が行われることにより得られる量子化データ、および前記動き推定ステップの処理により推定された前記動きベクトルを、符号化データとして後段に出力するデータ出力ステップを
さらに含むことを特徴とする請求項10に記載の符号化方法。
By the codebook used for the vector quantization by the processing of the vector quantization step, the quantized data obtained by performing the vector quantization by the processing of the vector quantization step, and the processing of the motion estimation step The encoding method according to claim 10, further comprising a data output step of outputting the estimated motion vector as encoded data to a subsequent stage.
前記画素抽出ステップの処理では、前記ブロックの画素値の頻度分布が上位3位以内の画素を、前記ブロックを代表する画素として抽出する
ことを特徴とする請求項7に記載の符号化方法。
8. The encoding method according to claim 7, wherein in the processing of the pixel extraction step, pixels having a frequency distribution of pixel values of the block that are within the top three are extracted as pixels representing the block.
画像データを符号化する処理をコンピュータに行わせるプログラムが記録される記録媒体であって、
入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、
前記ブロック化ステップの処理によりブロック化されたブロックの画素値の頻度分布に基づいて、前記ブロックを代表する画素を抽出する画素抽出ステップと、
前記画素抽出ステップの処理により抽出された前記画素を用いて、前記ブロックの動きベクトルを推定する動き推定ステップと、
前記動き推定ステップの処理により推定された前記動きベクトルを用いて、前記ブロックに対応する第2のフレームの画像データと、前記ブロックにおける画像データとの差分を算出する差分算出ステップと、
前記差分算出ステップの処理により算出された前記差分に対して、ベクトル量子化を行うベクトル量子化ステップと
を含むことを特徴とするプログラムが記録される記録媒体。
A recording medium on which a program for causing a computer to perform processing for encoding image data is recorded,
A blocking step of blocking the first frame in the input image data;
A pixel extraction step of extracting a pixel representing the block based on a frequency distribution of pixel values of the block blocked by the block step;
A motion estimation step of estimating a motion vector of the block using the pixels extracted by the processing of the pixel extraction step;
A difference calculating step of calculating a difference between the image data of the second frame corresponding to the block and the image data in the block using the motion vector estimated by the processing of the motion estimating step;
A recording medium on which a program is recorded, comprising: a vector quantization step for performing vector quantization on the difference calculated by the processing of the difference calculation step.
画像データを符号化する処理をコンピュータに行わせるプログラムであって、
入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、
前記ブロック化ステップの処理によりブロック化されたブロックの画素値の頻度分布に基づいて、前記ブロックを代表する画素を抽出する画素抽出ステップと、
前記画素抽出ステップの処理により抽出された前記画素を用いて、前記ブロックの動きベクトルを推定する動き推定ステップと、
前記動き推定ステップの処理により推定された前記動きベクトルを用いて、前記ブロックに対応する第2のフレームの画像データと、前記ブロックにおける画像データとの差分を算出する差分算出ステップと、
前記差分算出ステップの処理により算出された前記差分に対して、ベクトル量子化を行うベクトル量子化ステップと
を含むことを特徴とするプログラム。
A program for causing a computer to perform processing for encoding image data,
A blocking step of blocking the first frame in the input image data;
A pixel extraction step of extracting a pixel representing the block based on a frequency distribution of pixel values of the block blocked by the block step;
A motion estimation step of estimating a motion vector of the block using the pixels extracted by the processing of the pixel extraction step;
A difference calculating step of calculating a difference between the image data of the second frame corresponding to the block and the image data in the block using the motion vector estimated by the processing of the motion estimating step;
And a vector quantization step for performing vector quantization on the difference calculated by the difference calculation step.
画像データを復号する復号装置において、
画像データ中のブロック内での画素値の頻度分布に基づいて抽出された前記ブロックを代表する画素を用いて得られる動きベクトルと、前記動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力手段と、
前記データ入力手段により入力された前記量子化データを逆量子化することにより前記差分値を抽出する差分値抽出手段と、
前記データ入力手段により入力された前記動きベクトルに応じて、第1のフレームの画像データに、前記差分値抽出手段により抽出された前記差分値を加算することで、第2のフレームの画像データを生成するデータ加算手段と
を備えることを特徴とする復号装置。
In a decoding device for decoding image data,
A motion vector obtained using a pixel representing the block extracted based on a frequency distribution of pixel values in a block in image data, and a difference value between a plurality of frames calculated using the motion vector. Data input means for inputting quantized data obtained by performing vector quantization on the data;
Difference value extraction means for extracting the difference value by inverse quantization of the quantized data input by the data input means;
By adding the difference value extracted by the difference value extracting means to the image data of the first frame in accordance with the motion vector input by the data input means, the image data of the second frame is obtained. And a data adding means for generating the decoding device.
前記データ加算手段により生成された前記画像データにノイズを付加し、前記ノイズが付加された画像データを後段に出力するノイズ付加手段を
さらに備えることを特徴とする請求項15に記載の復号装置。
The decoding apparatus according to claim 15, further comprising noise adding means for adding noise to the image data generated by the data adding means and outputting the image data to which the noise is added to a subsequent stage.
前記データ入力手段は、前記ベクトル量子化に用いられたコードブックも入力し、
前記差分値抽出手段は、前記データ入力手段により入力された前記コードブックを用いて、前記量子化データを逆量子化する
ことを特徴とする請求項15に記載の復号装置。
The data input means also inputs a codebook used for the vector quantization,
The decoding apparatus according to claim 15, wherein the difference value extraction unit performs inverse quantization on the quantized data using the codebook input by the data input unit.
前記データ入力手段により入力された前記動きベクトルに応じて、前記第1のフレームの画像データから、予測ブロックの画像データを予測する動き補償手段をさらに備え、
前記データ加算手段は、前記動き補償手段により予測された予測ブロックの画像データに、前記差分値抽出手段により抽出された前記差分値を加算することで、前記第2のフレームの画像データを生成する
ことを特徴とする請求項15に記載の復号装置。
Further comprising motion compensation means for predicting image data of a prediction block from the image data of the first frame in accordance with the motion vector input by the data input means;
The data adding unit generates the image data of the second frame by adding the difference value extracted by the difference value extracting unit to the image data of the prediction block predicted by the motion compensation unit. The decoding device according to claim 15.
画像データを復号する復号装置の復号方法において、
画像データ中のブロック内での画素値の頻度分布に基づいて抽出された前記ブロックを代表する画素を用いて得られる動きベクトルと、前記動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力ステップと、
前記データ入力ステップの処理により入力された前記量子化データを逆量子化することにより前記差分値を抽出する差分値抽出ステップと、
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、第1のフレームの画像データに、前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、第2のフレームの画像データを生成するデータ加算ステップと
を含むことを特徴とする復号方法。
In a decoding method of a decoding device for decoding image data,
A motion vector obtained using a pixel representing the block extracted based on a frequency distribution of pixel values in a block in image data, and a difference value between a plurality of frames calculated using the motion vector. A data input step for inputting quantized data obtained by performing vector quantization on the data;
A difference value extracting step of extracting the difference value by dequantizing the quantized data input by the data input step; and
By adding the difference value extracted by the difference value extraction step to the image data of the first frame in accordance with the motion vector input by the data input step process, the second frame And a data adding step for generating the image data.
前記データ加算ステップの処理により生成された前記画像データにノイズを付加し、前記ノイズが付加された画像データを後段に出力するノイズ付加ステップを
さらに含むことを特徴とする請求項19に記載の復号方法。
The decoding according to claim 19, further comprising a noise adding step of adding noise to the image data generated by the processing of the data adding step and outputting the image data to which the noise is added to a subsequent stage. Method.
前記データ入力ステップの処理では、前記ベクトル量子化に用いられたコードブックも入力し、
前記差分値抽出ステップの処理では、前記データ入力ステップの処理により入力された前記コードブックを用いて、前記量子化データを逆量子化する
ことを特徴とする請求項19に記載の復号方法。
In the data input step, the codebook used for the vector quantization is also input,
The decoding method according to claim 19, wherein in the process of the difference value extraction step, the quantized data is inversely quantized using the codebook input by the process of the data input step.
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、前記第1のフレームの画像データから、予測ブロックの画像データを予測する動き補償ステップをさらに含み、
前記データ加算ステップの処理では、前記動き補償ステップの処理により予測された予測ブロックの画像データに、前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、前記第2のフレームの画像データを生成する
ことを特徴とする請求項19に記載の復号装置。
A motion compensation step of predicting image data of a prediction block from image data of the first frame according to the motion vector input by the processing of the data input step;
In the process of the data addition step, the second frame is added by adding the difference value extracted by the process of the difference value extraction step to the image data of the prediction block predicted by the process of the motion compensation step. The decoding device according to claim 19, wherein the image data is generated.
画像データを復号する処理をコンピュータに行わせるプログラムが記録される記録媒体であって、
画像データ中のブロック内での画素値の頻度分布に基づいて抽出された前記ブロックを代表する画素を用いて得られる動きベクトルと、前記動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力ステップと、
前記データ入力ステップの処理により入力された前記量子化データを逆量子化することにより前記差分値を抽出する差分値抽出ステップと、
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、第1のフレームの画像データに、前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、第2のフレームの画像データを生成するデータ加算ステップと
を含むことを特徴とするプログラムが記録される記録媒体。
A recording medium on which a program for causing a computer to perform processing for decoding image data is recorded,
A motion vector obtained using a pixel representing the block extracted based on a frequency distribution of pixel values in a block in image data, and a difference value between a plurality of frames calculated using the motion vector. A data input step for inputting quantized data obtained by performing vector quantization on the data;
A difference value extracting step of extracting the difference value by dequantizing the quantized data input by the data input step; and
By adding the difference value extracted by the difference value extraction step to the image data of the first frame in accordance with the motion vector input by the data input step process, the second frame And a data adding step for generating the image data. A recording medium on which a program is recorded.
画像データを復号する処理をコンピュータに行わせるプログラムであって、
画像データ中のブロック内での画素値の頻度分布に基づいて抽出された前記ブロックを代表する画素を用いて得られる動きベクトルと、前記動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力ステップと、
前記データ入力ステップの処理により入力された前記量子化データを逆量子化することにより前記差分値を抽出する差分値抽出ステップと、
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、第1のフレームの画像データに、前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、第2のフレームの画像データを生成するデータ加算ステップと
を含むことを特徴とするプログラム。
A program for causing a computer to perform a process of decoding image data,
A motion vector obtained using a pixel representing the block extracted based on a frequency distribution of pixel values in a block in image data, and a difference value between a plurality of frames calculated using the motion vector. A data input step for inputting quantized data obtained by performing vector quantization on the data;
A difference value extracting step of extracting the difference value by dequantizing the quantized data input by the data input step; and
By adding the difference value extracted by the difference value extraction step to the image data of the first frame in accordance with the motion vector input by the data input step process, the second frame And a data adding step for generating the image data.
符号化装置および復号装置からなり、画像データに対して符号化および復号を行う画像処理システムにおいて、
前記符号化装置は、
入力される画像データ中の第1のフレームをブロック化するブロック化手段と、
前記ブロック化手段によりブロック化されたブロックの画素値の頻度分布に基づいて、前記ブロックを代表する画素を抽出する画素抽出手段と、
前記画素抽出手段により抽出された前記画素を用いて、前記ブロックの動きベクトルを推定する動き推定手段と、
前記動き推定手段により推定された前記動きベクトルを用いて、前記ブロックに対応する第2のフレームの画像データと、前記ブロックにおける画像データとの差分を算出する差分算出手段と、
前記差分算出手段により算出された前記差分に対して、ベクトル量子化を行うベクトル量子化手段と
を備えることを特徴とする画像処理システム。
In an image processing system comprising an encoding device and a decoding device for encoding and decoding image data,
The encoding device includes:
Blocking means for blocking the first frame in the input image data;
Pixel extraction means for extracting pixels representing the block based on a frequency distribution of pixel values of the blocks blocked by the blocking means;
Motion estimation means for estimating a motion vector of the block using the pixels extracted by the pixel extraction means;
Using the motion vector estimated by the motion estimation means, a difference calculation means for calculating a difference between the image data of the second frame corresponding to the block and the image data in the block;
An image processing system comprising: vector quantization means for performing vector quantization on the difference calculated by the difference calculation means.
前記復号装置からの前記画像データにノイズを付加し、前記ノイズが付加された前記画像データを、前記符号化装置に入力するノイズ付加手段を
さらに備えることを特徴とする請求項25に記載の画像処理システム。
The image according to claim 25, further comprising noise adding means for adding noise to the image data from the decoding device and inputting the image data to which the noise has been added to the encoding device. Processing system.
符号化装置および復号装置からなり、画像データに対して符号化および復号を行う画像処理システムの画像処理方法において、
前記符号化装置の符号化方法は、
入力される画像データ中の第1のフレームをブロック化するブロック化ステップと、
前記ブロック化ステップの処理によりブロック化されたブロックの画素値の頻度分布に基づいて、前記ブロックを代表する画素を抽出する画素抽出ステップと、
前記画素抽出ステップの処理により抽出された前記画素を用いて、前記ブロックの動きベクトルを推定する動き推定ステップと、
前記動き推定ステップの処理により推定された前記動きベクトルを用いて、前記ブロックに対応する第2のフレームの画像データと、前記ブロックにおける画像データとの差分を算出する差分算出ステップと、
前記差分算出ステップの処理により算出された前記差分に対して、ベクトル量子化を行うベクトル量子化ステップと
を含むことを特徴とする画像処理方法。
In an image processing method of an image processing system that includes an encoding device and a decoding device and performs encoding and decoding on image data,
The encoding method of the encoding device is:
A blocking step of blocking the first frame in the input image data;
A pixel extraction step of extracting a pixel representing the block based on a frequency distribution of pixel values of the block blocked by the block step;
A motion estimation step of estimating a motion vector of the block using the pixels extracted by the processing of the pixel extraction step;
A difference calculating step of calculating a difference between the image data of the second frame corresponding to the block and the image data in the block using the motion vector estimated by the processing of the motion estimating step;
An image processing method comprising: a vector quantization step of performing vector quantization on the difference calculated by the difference calculation step.
前記復号装置からの前記画像データにノイズを付加し、前記ノイズが付加された前記画像データを、前記符号化装置に入力するノイズ付加ステップを
さらに含むことを特徴とする請求項27に記載の画像処理方法。
28. The image according to claim 27, further comprising a noise addition step of adding noise to the image data from the decoding device and inputting the image data to which the noise has been added to the encoding device. Processing method.
符号化装置および復号装置からなり、画像データに対して符号化および復号を行う画像処理システムにおいて、
前記復号装置は、
画像データ中のブロック内での画素値の頻度分布に基づいて抽出された前記ブロックを代表する画素を用いて得られる動きベクトルと、前記動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力手段と、
前記データ入力手段により入力された前記量子化データを逆量子化することにより前記差分値を抽出する差分値抽出手段と、
前記データ入力手段により入力された前記動きベクトルに応じて、第1のフレームの画像データに前記差分値抽出手段により抽出された前記差分値を加算することで、第2のフレームの画像データを生成するデータ加算手段と
を備えることを特徴とする画像処理システム。
In an image processing system comprising an encoding device and a decoding device for encoding and decoding image data,
The decoding device
A motion vector obtained using a pixel representing the block extracted based on a frequency distribution of pixel values in a block in image data, and a difference value between a plurality of frames calculated using the motion vector. Data input means for inputting quantized data obtained by performing vector quantization on the data;
Difference value extraction means for extracting the difference value by inverse quantization of the quantized data input by the data input means;
In accordance with the motion vector input by the data input unit, the image data of the second frame is generated by adding the difference value extracted by the difference value extraction unit to the image data of the first frame. And an image processing system.
前記復号装置からの前記画像データにノイズを付加し、前記ノイズが付加された前記画像データを、前記符号化装置に出力するノイズ付加手段を
さらに備えることを特徴とする請求項29に記載の画像処理システム。
30. The image according to claim 29, further comprising noise adding means for adding noise to the image data from the decoding device and outputting the image data to which the noise has been added to the encoding device. Processing system.
符号化装置および復号装置からなり、画像データに対して符号化および復号を行う画像処理システムの画像処理方法において、
前記復号装置の復号方法は、
画像データ中のブロック内での画素値の頻度分布に基づいて抽出された前記ブロックを代表する画素を用いて得られる動きベクトルと、前記動きベクトルを用いて算出される複数フレーム間の差分値に対してベクトル量子化が行われることにより得られる量子化データを入力するデータ入力ステップと、
前記データ入力ステップの処理により入力された前記量子化データを逆量子化することにより前記差分値を抽出する差分値抽出ステップと、
前記データ入力ステップの処理により入力された前記動きベクトルに応じて、第1のフレームの画像データに前記差分値抽出ステップの処理により抽出された前記差分値を加算することで、第2のフレームの画像データを生成するデータ加算ステップと
を含むことを特徴とする画像処理方法。
In an image processing method of an image processing system that includes an encoding device and a decoding device and performs encoding and decoding on image data,
The decoding method of the decoding device is:
A motion vector obtained using a pixel representing the block extracted based on a frequency distribution of pixel values in a block in image data, and a difference value between a plurality of frames calculated using the motion vector. A data input step for inputting quantized data obtained by performing vector quantization on the data;
A difference value extracting step of extracting the difference value by dequantizing the quantized data input by the data input step; and
In accordance with the motion vector input by the data input step, the difference value extracted by the difference value extraction step is added to the image data of the first frame, so that the second frame An image processing method comprising: a data addition step for generating image data.
前記復号装置からの前記画像データにノイズを付加し、前記ノイズが付加された前記画像データを、前記符号化装置に出力するノイズ付加ステップを
さらに含むことを特徴とする請求項31に記載の画像処理方法。
32. The image according to claim 31, further comprising a noise adding step of adding noise to the image data from the decoding device and outputting the image data to which the noise has been added to the encoding device. Processing method.
JP2005041201A 2005-02-17 2005-02-17 Encoding apparatus and method, decoding apparatus and method, recording medium, program, and image processing system Expired - Fee Related JP4581733B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005041201A JP4581733B2 (en) 2005-02-17 2005-02-17 Encoding apparatus and method, decoding apparatus and method, recording medium, program, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005041201A JP4581733B2 (en) 2005-02-17 2005-02-17 Encoding apparatus and method, decoding apparatus and method, recording medium, program, and image processing system

Publications (3)

Publication Number Publication Date
JP2006229623A true JP2006229623A (en) 2006-08-31
JP2006229623A5 JP2006229623A5 (en) 2007-10-11
JP4581733B2 JP4581733B2 (en) 2010-11-17

Family

ID=36990562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005041201A Expired - Fee Related JP4581733B2 (en) 2005-02-17 2005-02-17 Encoding apparatus and method, decoding apparatus and method, recording medium, program, and image processing system

Country Status (1)

Country Link
JP (1) JP4581733B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009057506A1 (en) * 2007-10-30 2009-05-07 Nippon Telegraph And Telephone Corporation Image encoding method and decoding method, their device, their program, and recording medium with the program recorded thereon

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614316A (en) * 1992-06-26 1994-01-21 Ricoh Co Ltd Motion vector detector
JPH06296273A (en) * 1993-04-09 1994-10-21 Sharp Corp Motion vector detection circuit
JPH08265745A (en) * 1995-03-20 1996-10-11 Daewoo Electron Co Ltd Apparatus and method for identifying feature point
JP2001169291A (en) * 1999-09-27 2001-06-22 Tadahiro Omi Device and method for compressing data, and storage medium
JP2002084413A (en) * 2000-06-28 2002-03-22 Oki Electric Ind Co Ltd Image processing method, image processing unit, image coder, and image decoder
JP2004289685A (en) * 2003-03-24 2004-10-14 Sony Corp Data coding apparatus and data coding method, data output apparatus, and data output method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614316A (en) * 1992-06-26 1994-01-21 Ricoh Co Ltd Motion vector detector
JPH06296273A (en) * 1993-04-09 1994-10-21 Sharp Corp Motion vector detection circuit
JPH08265745A (en) * 1995-03-20 1996-10-11 Daewoo Electron Co Ltd Apparatus and method for identifying feature point
JP2001169291A (en) * 1999-09-27 2001-06-22 Tadahiro Omi Device and method for compressing data, and storage medium
JP2002084413A (en) * 2000-06-28 2002-03-22 Oki Electric Ind Co Ltd Image processing method, image processing unit, image coder, and image decoder
JP2004289685A (en) * 2003-03-24 2004-10-14 Sony Corp Data coding apparatus and data coding method, data output apparatus, and data output method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009057506A1 (en) * 2007-10-30 2009-05-07 Nippon Telegraph And Telephone Corporation Image encoding method and decoding method, their device, their program, and recording medium with the program recorded thereon
KR101128533B1 (en) * 2007-10-30 2012-03-27 니폰덴신뎅와 가부시키가이샤 Image encoding method and decoding method, their device, their program, and recording medium with the program recorded thereon
RU2454823C2 (en) * 2007-10-30 2012-06-27 Ниппон Телеграф Энд Телефон Корпорейшн Method for coding and method for decoding of video, devices for this purpose, programs for this purpose and information media for storage of programs
JP4987086B2 (en) * 2007-10-30 2012-07-25 日本電信電話株式会社 Image encoding method and decoding method, apparatus thereof, program thereof, and recording medium recording the program
US8520727B2 (en) 2007-10-30 2013-08-27 Nippon Telegraph And Telephone Corporation Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs

Also Published As

Publication number Publication date
JP4581733B2 (en) 2010-11-17

Similar Documents

Publication Publication Date Title
KR101807170B1 (en) Video Encoding/Decoding Method and Apparatus Based on Adaptive Second Prediction, and Recording Medium therefor
JP4556124B2 (en) Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program
JP2009529845A (en) Method and apparatus for encoding moving picture by adaptively applying optimal prediction mode, and method and apparatus for decoding moving picture
WO2014045651A1 (en) Video prediction encoding device, video prediction encoding method, video prediction decoding device and video prediction decoding method
JP4445463B2 (en) Video re-encoding method and apparatus
JP4581733B2 (en) Encoding apparatus and method, decoding apparatus and method, recording medium, program, and image processing system
JP5298140B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP4725127B2 (en) Decoding apparatus and method, recording medium, and program
JP2009518912A (en) Method and apparatus for watermarking a stream
JP2016158282A (en) Moving image prediction decoding method and moving image prediction decoding apparatus
JP4696577B2 (en) Encoding apparatus and method, decoding apparatus and method, recording medium, program, image processing system and method
JP4716086B2 (en) Encoding apparatus and method, recording medium, program, and image processing system
JP4552677B2 (en) Encoding apparatus and method, decoding apparatus and method, information processing system, recording medium, and program
JP2020058075A (en) Moving image prediction encoding device, moving image prediction decoding device, moving image prediction encoding method, moving image prediction decoding method, and recording medium
JP2007336277A (en) Moving image encoding and decoding method, encoding and decoding device and moving image encoding and decoding program
JP2006238373A (en) Coder and coding method, decoder and decoding method, image processing system and image processing method, recording medium, and program
JP4577043B2 (en) Image processing apparatus and method, recording medium, and program
JP4556125B2 (en) Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program
JP4573110B2 (en) Encoding apparatus and method, recording medium, program, and image processing system
JP4715222B2 (en) Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program
JP4697519B2 (en) Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program
JP2006238069A (en) Data converter and method, data inverter and method, information processing system and method, recording medium, and program
US20060182352A1 (en) Encoding apparatus and method, decoding apparatus and method, recording medium, and image processing system and method
JP2006229460A (en) Encoder and encoding method, recording medium, program, image processing system and image processing method
JP2004289687A (en) Data encoder and data encoding method, and program therefor

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100816

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees