JP2007300678A - Information processing apparatus and method, recording medium, and program - Google Patents

Information processing apparatus and method, recording medium, and program Download PDF

Info

Publication number
JP2007300678A
JP2007300678A JP2007191595A JP2007191595A JP2007300678A JP 2007300678 A JP2007300678 A JP 2007300678A JP 2007191595 A JP2007191595 A JP 2007191595A JP 2007191595 A JP2007191595 A JP 2007191595A JP 2007300678 A JP2007300678 A JP 2007300678A
Authority
JP
Japan
Prior art keywords
content data
prediction
motion vector
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007191595A
Other languages
Japanese (ja)
Other versions
JP4748127B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yasuhiro Fujimori
泰弘 藤森
Naoki Takeda
直己 武田
Takashi Nakanishi
崇 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007191595A priority Critical patent/JP4748127B2/en
Publication of JP2007300678A publication Critical patent/JP2007300678A/en
Application granted granted Critical
Publication of JP4748127B2 publication Critical patent/JP4748127B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve a coding efficiency, a compression efficiency or a transmission efficiency when transmitting image data. <P>SOLUTION: Classification adaptive processing section 24-1 to 24-n calculate a prediction value corresponding to a target pixel of a predicted frame stored in a prediction frame memory 21 by using pixel data configuring the classification adaptive processing, based on a prediction tap at each position within a searching area having, as a center, a target pixel of a reference frame stored in a reference frame memory 22. A comparator 25 detects a prediction value minimizing a difference between the prediction value and a target pixel value. A quantizer 28 quantizes a motion vector specified by the position of the prediction value and the position of the target pixel and transmits the result. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、効率よく符号化を行うことができるようにした情報処理装置および方法、記録媒体、並びにプログラムに関する。   The present invention relates to an information processing apparatus and method, a recording medium, and a program, and more particularly, to an information processing apparatus and method, a recording medium, and a program that enable efficient encoding.

最近、MPEG(Moving Picture Experts Group)に代表される圧縮方式が普及し、ビデオデータやオーディオデータは、MPEG方式で圧縮された上で、ハードディスク、磁気テープ、光ディスクといった記録媒体に記録されたり、ネットワークを介して伝送されたり、衛星を介して放送される。   Recently, compression methods represented by MPEG (Moving Picture Experts Group) have become widespread, and video data and audio data are compressed by the MPEG method and then recorded on a recording medium such as a hard disk, magnetic tape, or optical disk, or network Or transmitted via satellite.

MPEG方式では、例えば、図1に示されるように、現在フレームの前後に、前フレームと後フレームが存在するような場合、現在フレームが、例えば、8×8画素のブロックに分割される。そして、前フレームの所定の探索範囲内において、8×8画素のブロックが抽出され、現在フレームのブロック1と前フレームのブロック2が、画素毎に絶対差分和、自乗誤差和、または代表点マッチング処理により比較される。前フレームのブロック2は、探索範囲内でその位置が順次移動される。   In the MPEG system, for example, as shown in FIG. 1, when a previous frame and a subsequent frame exist before and after the current frame, the current frame is divided into, for example, blocks of 8 × 8 pixels. Then, a block of 8 × 8 pixels is extracted within a predetermined search range of the previous frame, and block 1 of the current frame and block 2 of the previous frame are subjected to absolute difference sum, square error sum, or representative point matching for each pixel. Compared by processing. The position of the block 2 of the previous frame is sequentially moved within the search range.

そして、探索範囲の中で、絶対差分和、自乗誤差和、または代表点マッチングの値が最も小さかった相対座標位置が動きベクトルとして推定される。   Then, the relative coordinate position having the smallest absolute difference sum, square error sum, or representative point matching value in the search range is estimated as a motion vector.

さらに、クラス分類適応処理が用いられる場合、動きベクトルに対応するブロック2の画素から、クラス分類適応処理に基づいて、ブロック位置の画素が予測され、動きベクトルと予測値とが伝送される。   Further, when the class classification adaptive process is used, the pixel at the block position is predicted from the pixel of the block 2 corresponding to the motion vector based on the class classification adaptive process, and the motion vector and the predicted value are transmitted.

しかしながら、このような、従来のブロックマッチングとクラス分類適応処理を用いる予測符号化方式は、伝送効率、圧縮効率、および符号化効率が悪いという課題があった。   However, such a conventional predictive coding method using block matching and class classification adaptive processing has a problem that transmission efficiency, compression efficiency, and coding efficiency are poor.

本発明は、このような状況に鑑みてなされたものであり、伝送効率、圧縮効率、および符号化効率を向上させるようにするものである。   The present invention has been made in view of such a situation, and is intended to improve transmission efficiency, compression efficiency, and encoding efficiency.

本発明の一側面の情報処理装置は、生成する第1のコンテンツデータの動きベクトルを抽出する動きベクトル抽出手段と、基準となる第2のコンテンツデータを保持する保持手段と、前記動きベクトル抽出手段により抽出された前記動きベクトルに基づいて、前記第2のコンテンツデータから、予測タップを抽出する予測タップ抽出手段と、前記予測タップ抽出手段により抽出された前記予測タップにクラス分類適応処理を施して、予測値を演算する演算手段と、前記演算手段により演算された前記予測値を前記第1のコンテンツデータとして合成する合成手段とを備える。   An information processing apparatus according to an aspect of the present invention includes a motion vector extraction unit that extracts a motion vector of first content data to be generated, a holding unit that holds second content data serving as a reference, and the motion vector extraction unit Based on the motion vector extracted by the above, a prediction tap extraction means for extracting a prediction tap from the second content data, and a classification classification adaptation process is performed on the prediction tap extracted by the prediction tap extraction means. , Calculating means for calculating a predicted value, and combining means for combining the predicted value calculated by the calculating means as the first content data.

前記第1のコンテンツデータに関連するデータを取得する取得手段と、前記取得手段により取得された前記第1のコンテンツデータに関連するデータから、前記第1のコンテンツデータに関連するデータから、前記第2のコンテンツデータにクラス分類適応処理を施して生成された前記第1のコンテンツデータに対応する予測値と前記第1のコンテンツデータとの差に対応する予測残差を表すフラグを抽出するフラグ抽出手段とさらに設けることができる。   From the acquisition means for acquiring data related to the first content data, the data related to the first content data acquired by the acquisition means, from the data related to the first content data, the first Flag extraction for extracting a flag representing a prediction residual corresponding to a difference between a predicted value corresponding to the first content data generated by performing class classification adaptation processing on the second content data and the first content data Means can further be provided.

前記フラグ抽出手段が、前記予測残差を表す前記フラグを抽出した場合、前記第1のコンテンツデータに関連するデータから、前記予測残差を抽出するデータ抽出手段と、前記データ抽出手段により抽出されたデータを復号する復号手段とをさらに設けることができる。   When the flag extraction unit extracts the flag representing the prediction residual, the flag extraction unit extracts the prediction residual from data related to the first content data, and the data extraction unit extracts the prediction residual. Decoding means for decoding the received data can be further provided.

前記第1のコンテンツデータと前記第2のコンテンツデータは、画像データであり、前記第1のコンテンツデータは、前記画像データの第1のフレームであり、前記第2のコンテンツデータは、前記第1のフレームより時間的に前の第2のフレームであるようにすることができる。   The first content data and the second content data are image data, the first content data is a first frame of the image data, and the second content data is the first content data. The second frame may be a temporally previous frame.

前記演算手段には、1画素単位で、前記予測値を演算させることができる。   The computing means can compute the predicted value on a pixel-by-pixel basis.

前記第2のコンテンツデータを更新する更新手段をさらに設けることができる。   Update means for updating the second content data can be further provided.

本発明の一側面の情報処理方法、記録媒体、およびプログラムは、上述した本発明の一側面の情報処理装置に対応する、方法、記録媒体、およびプログラムである。   An information processing method, a recording medium, and a program according to one aspect of the present invention are a method, a recording medium, and a program corresponding to the information processing apparatus according to one aspect of the present invention described above.

本発明の一側面の情報処理装置および方法、記録媒体、並びにプログラムにおいては、生成する第1のコンテンツデータの動きベクトルが抽出され、基準となる第2のコンテンツデータが保持され、抽出された動きベクトルに基づいて、第2のコンテンツデータから、予測タップが抽出され、抽出された予測タップにクラス分類適応処理を施して、予測値が演算され、演算された予測値が第1のコンテンツデータとして合成される。   In the information processing apparatus and method, the recording medium, and the program according to one aspect of the present invention, the motion vector of the first content data to be generated is extracted, the second content data serving as a reference is held, and the extracted motion Based on the vector, a prediction tap is extracted from the second content data, a class classification adaptive process is performed on the extracted prediction tap, a prediction value is calculated, and the calculated prediction value is used as the first content data. Synthesized.

以上の如く、本発明によれば、伝送効率、圧縮効率、および符号化効率を向上させることが可能となる。   As described above, according to the present invention, transmission efficiency, compression efficiency, and encoding efficiency can be improved.

また、本発明によれば、伝送効率、圧縮効率、または符号化効率を向上させた伝送データを、簡単かつ確実に、受信し、復号することが可能となる。   Furthermore, according to the present invention, it is possible to easily and reliably receive and decode transmission data with improved transmission efficiency, compression efficiency, or encoding efficiency.

図2は、本発明を適用した画像処理システムのうちの送信装置の構成例を表している。この送信装置11においては、基準フレームメモリ22に、予測の基準とされる基準フレームの画像データが記憶される。予測フレームメモリ21には、基準フレームの画像に基づいて予測される予測フレームの画像データが、順次、記憶される。   FIG. 2 shows a configuration example of a transmission apparatus in an image processing system to which the present invention is applied. In this transmission device 11, the reference frame memory 22 stores image data of a reference frame that is a reference for prediction. The predicted frame memory 21 sequentially stores image data of predicted frames predicted based on the image of the reference frame.

アドレス設定部23−1は、フレームメモリ22に記憶されている画素データのうち、所定の探索範囲(フレームメモリ21に記憶されている予測フレームの注目画像に対応する探索範囲)内の第1の位置(動きベクトルv0に対応する位置)の予測タップとクラスタップを構成する任意の数の画素のアドレスを設定し、そのアドレスに対応する画素データ、すなわち、予測タップとクラスタップを構成する画素データを読み出し、クラス分類適応処理部24−1に供給する。クラス分類適応処理部24−1は、アドレス設定部23−1より供給された予測タップとクラスタップの画素データに基づいて、クラス分類適応処理を行い、予測フレームメモリ21に記憶されている予測フレームの対応する画素(注目画素)の予測値を演算する。   The address setting unit 23-1 has a first search range (a search range corresponding to the target image of the predicted frame stored in the frame memory 21) in the pixel data stored in the frame memory 22. An address of an arbitrary number of pixels constituting the prediction tap and the class tap of the position (position corresponding to the motion vector v0) is set, and pixel data corresponding to the address, that is, pixel data constituting the prediction tap and the class tap Is supplied to the class classification adaptive processing unit 24-1. The class classification adaptation processing unit 24-1 performs the class classification adaptation process based on the prediction tap and the pixel data of the class tap supplied from the address setting unit 23-1, and the prediction frame stored in the prediction frame memory 21. The predicted value of the corresponding pixel (target pixel) is calculated.

アドレス設定部23−2は、探索範囲内の第2の位置(第2の動きベクトルv1に対応する位置)の予測タップとクラスタップの画素データを抽出し、クラス分類適応処理部24−2に供給する。クラス分類適応処理部24−2は、アドレス設定部23−2より供給された予測タップとクラスタップの画素データに基づいて、クラス分類適応処理を行い、注目画素に対する予測値を演算する。   The address setting unit 23-2 extracts the pixel data of the prediction tap and the class tap at the second position (position corresponding to the second motion vector v1) within the search range, and sends it to the class classification adaptation processing unit 24-2. Supply. The class classification adaptation processing unit 24-2 performs class classification adaptation processing based on the prediction tap and class tap pixel data supplied from the address setting unit 23-2, and calculates a prediction value for the pixel of interest.

同様の構成が探索範囲内を探索して得られる動きベクトルの数(n個)だけ設けられている。すなわち、アドレス設定部とクラス分類適応処理部の組み合わせがn組用意されている。例えば、探索範囲が水平、垂直ともに、マイナス8からプラス8までであるとすると、nの数は、289(=17×17)となる。   Similar configurations are provided for the number of motion vectors (n) obtained by searching the search range. That is, n combinations of address setting units and class classification adaptive processing units are prepared. For example, assuming that the search range is from minus 8 to plus 8 in both the horizontal and vertical directions, the number of n is 289 (= 17 × 17).

比較器25は、クラス分類適応処理部24−1乃至24−nから供給されるn個の予測値を、予測フレームメモリ21から供給される注目画素と比較し、その差を予測残差として検出するとともに、予測残差のうちの、最小の予測残差を評価値として選択する。閾値判定部26は、比較器25より供給される最小の予測残差(評価値)を閾値と比較する。評価値が閾値と等しいか、それより小さい場合には、閾値判定部26は、動きベクトルを後処理部27に供給する。閾値判定部26は、予測残差が閾値より大きい場合には、動きベクトルと予測残差を後処理部27に出力する。   The comparator 25 compares the n prediction values supplied from the class classification adaptive processing units 24-1 to 24-n with the target pixel supplied from the prediction frame memory 21, and detects the difference as a prediction residual. In addition, the smallest prediction residual among the prediction residuals is selected as the evaluation value. The threshold determination unit 26 compares the minimum prediction residual (evaluation value) supplied from the comparator 25 with the threshold. When the evaluation value is equal to or smaller than the threshold value, the threshold value determination unit 26 supplies the motion vector to the post-processing unit 27. The threshold determination unit 26 outputs the motion vector and the prediction residual to the post-processing unit 27 when the prediction residual is larger than the threshold.

後処理部27は、閾値判定部26より動きベクトルが供給されてきたとき、それをそのまま出力する。後処理部27は、閾値判定部26より動きベクトルと予測残差が供給されてきた場合には、予測残差に、それが予測残差であることを表すフラグを付加する。   When the motion vector is supplied from the threshold determination unit 26, the post-processing unit 27 outputs it as it is. When the motion vector and the prediction residual are supplied from the threshold determination unit 26, the post-processing unit 27 adds a flag indicating that it is a prediction residual to the prediction residual.

後処理部27より出力された動きベクトル、または動きベクトルと、フラグが付加された予測残差は、量子化器28に供給される。量子化器28は、このうちの予測残差については、例えば、ロイドマックス、ランレングス等の符号により量子化し、所定の伝送路に伝送する。この伝送路には、各種の通信路の他、記録再生によりデータを伝送する記録媒体も含まれる。   The motion vector output from the post-processing unit 27 or the motion vector and the prediction residual to which the flag is added are supplied to the quantizer 28. The quantizer 28 quantizes the prediction residual among these by using, for example, a code such as Lloyd Max and run length, and transmits the result to a predetermined transmission path. In addition to various communication paths, this transmission path includes a recording medium that transmits data by recording and reproduction.

例えば、マイクロプロセッサなどによりなる制御部30は、送信装置11の各部を制御する。制御部30には、必要に応じて、インタフェース31を介して、磁気ディスク41、光ディスク42、光磁気ディスク43、または半導体メモリ44などが適宜装着される。   For example, the control unit 30 including a microprocessor controls each unit of the transmission device 11. A magnetic disk 41, an optical disk 42, a magneto-optical disk 43, a semiconductor memory 44, or the like is appropriately attached to the control unit 30 via an interface 31 as necessary.

図3は、クラス分類適応処理部24−1乃至24−n(以下、これらを個々に区別する必要がない場合、単に、クラス分類適応処理部24と称する)の構成を表している。クラスタップ抽出部61は、アドレス設定部23−1乃至23−n(以下、これらを個々に区別する必要がない場合、単に、アドレス設定部23と称する)のうち対応するものより供給された画素データから、クラスタップを抽出し、ADRC(Adaptive Dynamic Range Coding)部62に供給する。ADRC部62は、クラスタップ抽出部61より供給された画素データに対して、例えば、1ビットADRC処理を施す。   FIG. 3 shows the configuration of the class classification adaptive processing units 24-1 to 24-n (hereinafter, simply referred to as the class classification adaptive processing unit 24 when it is not necessary to distinguish them individually). The class tap extraction unit 61 is a pixel supplied from a corresponding one of the address setting units 23-1 to 23-n (hereinafter simply referred to as the address setting unit 23 when it is not necessary to distinguish them individually). Class taps are extracted from the data and supplied to an ADRC (Adaptive Dynamic Range Coding) unit 62. The ADRC unit 62 performs, for example, 1-bit ADRC processing on the pixel data supplied from the class tap extraction unit 61.

すなわち、クラスタップを構成する複数の画素データの最大値と最小値が検出され、その最大値と最小値の差が、さらにダイナミックレンジとして算出される。各画素データは、最小値が減算され、さらに、ダイナミックレンジで割算することで正規化される。   That is, the maximum value and the minimum value of the plurality of pixel data constituting the class tap are detected, and the difference between the maximum value and the minimum value is further calculated as a dynamic range. Each pixel data is normalized by subtracting the minimum value and further dividing by the dynamic range.

正規化されたデータは、所定の基準値(例えば、0.5)と比較され、基準値より大きい場合には、例えば1、基準値より小さい場合には、例えば0、とされる。   The normalized data is compared with a predetermined reference value (for example, 0.5), and is set to 1 when it is larger than the reference value, for example, 0 when it is smaller than the reference value.

すなわち、例えばクラスタップを構成する画素の数が9個である場合、ADRC部62から、9ビットのデータがクラスコード決定部63に供給されることになる。クラスコード決定部63は、この9ビットのデータに基づいて、そのクラスタップのクラスコードを決定し、予測係数メモリ64に出力する。   That is, for example, when the number of pixels constituting the class tap is nine, 9-bit data is supplied from the ADRC unit 62 to the class code determining unit 63. The class code determination unit 63 determines the class code of the class tap based on the 9-bit data, and outputs it to the prediction coefficient memory 64.

予測係数メモリ64には、クラスコードに対応する予測係数が予め記憶されており、クラスコード決定部63より供給されたクラスコードに対応する予測係数を、予測値算出部66に出力する。   A prediction coefficient corresponding to the class code is stored in the prediction coefficient memory 64 in advance, and the prediction coefficient corresponding to the class code supplied from the class code determination unit 63 is output to the prediction value calculation unit 66.

予測タップ抽出部65は、アドレス設定部23より供給された画素データから予測タップを構成する画素データを抽出し、予測値算出部66に出力する。予測値算出部66は、予測タップ抽出部65より供給された予測タップを構成する画素データに、予測係数メモリ64より供給される予測係数を乗算し、その和から(すなわち、線形1次結合から)、予測値を算出する。   The prediction tap extraction unit 65 extracts pixel data constituting the prediction tap from the pixel data supplied from the address setting unit 23 and outputs the pixel data to the prediction value calculation unit 66. The prediction value calculation unit 66 multiplies the pixel data constituting the prediction tap supplied from the prediction tap extraction unit 65 by the prediction coefficient supplied from the prediction coefficient memory 64, and from the sum (that is, from linear linear combination). ) To calculate a predicted value.

次に、図4と図5のフローチャートを参照して、送信装置11の処理について説明する。   Next, processing of the transmission device 11 will be described with reference to the flowcharts of FIGS. 4 and 5.

最初に、ステップS11において、制御部30は、閾値判定部26に対して、伝送判定閾値をセットする。この伝送判定閾値は、後述するステップS26の処理で利用される。   First, in step S <b> 11, the control unit 30 sets a transmission determination threshold for the threshold determination unit 26. This transmission determination threshold is used in the process of step S26 described later.

ステップS12において、前フレームデータを蓄積する処理が実行され、ステップS13において、現在フレームデータを蓄積する処理が実行される。すなわち、例えば、1フレーム分の画像データが、予測フレームメモリ21に記憶された後、再びそこから読み出され、基準フレームメモリ22に伝送され、記憶される。そして、予測フレームメモリ21には、それに続く新たな1フレーム分の画像データが記憶される。このようにして、基準フレームメモリ22には、前フレームの画素データが記憶され、予測フレームメモリ21には、現在フレーム(基準フレームより時間的に後のフレーム)の画像データが蓄積される。   In step S12, processing for accumulating previous frame data is executed, and in step S13, processing for accumulating current frame data is executed. That is, for example, image data for one frame is stored in the prediction frame memory 21, read out from there again, transmitted to the reference frame memory 22, and stored. Then, the predicted frame memory 21 stores image data for a new frame following that. In this way, the pixel data of the previous frame is stored in the reference frame memory 22, and the image data of the current frame (a frame temporally later than the reference frame) is stored in the prediction frame memory 21.

ステップS14において、予測フレームメモリ21は、制御部30の制御に基づいて、記憶している1フレーム分の画像データの中から注目画素のデータを抽出し、比較器25に供給する。   In step S <b> 14, the prediction frame memory 21 extracts the data of the pixel of interest from the stored image data for one frame based on the control of the control unit 30, and supplies it to the comparator 25.

ステップS15において、制御部30は、比較器25に比較値をセットする。この比較値は、最小の予測残差としての評価値を求めるために、ステップS24の処理で、より小さい予測残差の値に更新されるものであり、初期値としては、最大値がセットされる。この比較値は、ステップS23の処理で利用される。   In step S <b> 15, the control unit 30 sets a comparison value in the comparator 25. This comparison value is updated to a smaller prediction residual value in step S24 in order to obtain the evaluation value as the minimum prediction residual, and the maximum value is set as the initial value. The This comparison value is used in the process of step S23.

次に、ステップS16において、アドレス設定部23−1乃至23−nに対して、それぞれステップS14の処理で抽出された注目画素に対応するアドレスが設定される。これにより、アドレス設定部23−1乃至23−nから、注目画素に対応する探索範囲内における、各探索位置(動きベクトル)に対応するクラスタップと予測タップを含む画素データが、対応するクラス分類適応処理部24−1乃至24−nに取り込み可能となる。   Next, in step S16, addresses corresponding to the target pixel extracted in the process of step S14 are set for the address setting units 23-1 to 23-n, respectively. As a result, the pixel data including the class tap and the prediction tap corresponding to each search position (motion vector) in the search range corresponding to the target pixel from the address setting units 23-1 to 23-n is converted into the corresponding class classification. The data can be taken into the adaptive processing units 24-1 to 24-n.

そこで、ステップS17において、クラスタップ抽出部61は、供給された画素データの中からクラスタップを抽出する。クラスタップは、例えば、図6に示されるように、予測フレームの注目画素を中心とする7×7個の画素のうちの図中黒く示される3×3個の画素とされる。   Therefore, in step S17, the class tap extraction unit 61 extracts class taps from the supplied pixel data. For example, as shown in FIG. 6, the class tap is 3 × 3 pixels shown in black in the figure out of 7 × 7 pixels centered on the target pixel of the prediction frame.

ADRC部62は、ステップS18において、クラスタップを構成する9個の画素データに対して、1ビットADRC処理を施す。これにより、9個の画素データがそれぞれ0または1の値に変換されて、9ビットのデータがクラスコード決定部63に供給される。クラスコード決定部63は、ADRC部62より供給される9ビットのデータに基づいて、その9個の画素データで構成されるクラスタップに対応するクラスコードを決定し、予測係数メモリ64に出力する。   In step S18, the ADRC unit 62 performs 1-bit ADRC processing on the nine pieces of pixel data constituting the class tap. As a result, the nine pieces of pixel data are converted into values of 0 or 1, respectively, and 9-bit data is supplied to the class code determination unit 63. Based on the 9-bit data supplied from the ADRC unit 62, the class code determination unit 63 determines a class code corresponding to the class tap composed of the nine pixel data, and outputs the class code to the prediction coefficient memory 64. .

予測係数メモリ64は、ステップS19において、クラスコード決定部63より供給されたクラスコードに対する予測係数を読み出し、予測値算出部66に出力する。   In step S <b> 19, the prediction coefficient memory 64 reads the prediction coefficient for the class code supplied from the class code determination unit 63 and outputs the prediction coefficient to the prediction value calculation unit 66.

ステップS20において、予測タップ抽出部65は、アドレス設定部23より供給される画素データから、クラスタップを構成する画素データを取得する。図7は、クラスタップの例を表している。この例においては、予測フレームの注目画素を中心とする7×7個の画素のうち、中央に黒く示される13個の画素がクラスタップとされている。   In step S <b> 20, the prediction tap extraction unit 65 acquires pixel data constituting the class tap from the pixel data supplied from the address setting unit 23. FIG. 7 shows an example of a class tap. In this example, among the 7 × 7 pixels centered on the target pixel of the prediction frame, 13 pixels shown in black at the center are class taps.

予測値算出部66は、ステップS21において、予測値計算処理を実行する。すなわち、予測値算出部66は、予測タップ抽出部65より供給された予測タップを構成する13個の画素データと、予測係数メモリ64より供給される13個の予測係数の線形1次結合を演算して、予測値を算出し、比較器25に出力する。   In step S21, the predicted value calculation unit 66 executes a predicted value calculation process. That is, the prediction value calculation unit 66 calculates a linear primary combination of 13 pixel data constituting the prediction tap supplied from the prediction tap extraction unit 65 and 13 prediction coefficients supplied from the prediction coefficient memory 64. Then, the predicted value is calculated and output to the comparator 25.

比較器25は、ステップS22において、予測残差計算処理を実行する。すなわち、比較器25は、クラス分類適応処理部24(いまの場合、クラス分類適応処理部24−1)より供給される予測値と、予測フレームメモリ21より供給される注目画素(真値)との差を演算することで、予測残差を計算する。   In step S22, the comparator 25 executes a prediction residual calculation process. That is, the comparator 25 includes the predicted value supplied from the class classification adaptive processing unit 24 (in this case, the class classification adaptive processing unit 24-1) and the target pixel (true value) supplied from the predicted frame memory 21. By calculating the difference, the prediction residual is calculated.

ステップS23において、比較器25は、ステップS22の処理で求めた予測残差(評価値)を比較値と比較する。この比較値は、いまの場合、ステップS15の処理で最大値に設定されている。従って、評価値は、比較値より小さいと判定され、ステップS24に進み、比較器25は、ステップS15の処理で最大値にセットされた比較値の値を、ステップS22の処理で計算された予測残差(評価値)に更新する。すなわち、比較値として、より小さい値が設定される。   In step S23, the comparator 25 compares the prediction residual (evaluation value) obtained in the process of step S22 with the comparison value. In this case, this comparison value is set to the maximum value in the process of step S15. Therefore, it is determined that the evaluation value is smaller than the comparison value, and the process proceeds to step S24, where the comparator 25 predicts the value of the comparison value set to the maximum value in the process of step S15 and calculated in the process of step S22. Update to residual (evaluation value). That is, a smaller value is set as the comparison value.

ステップS25において、閾値判定部26は、ステップS22の処理で求められた評価値に対応する動きベクトルを内蔵するメモリに保持する(既に保持されている動きベクトルがある場合には、更新される)。いまの場合、クラス分類適応処理部24−1の出力が処理されているので、この動きベクトルは、v0となる。   In step S25, the threshold determination unit 26 holds a motion vector corresponding to the evaluation value obtained in the process of step S22 in a built-in memory (updated when there is a motion vector already held). . In this case, since the output of the class classification adaptive processing unit 24-1 is processed, this motion vector is v0.

ステップS26において、閾値判定部26は、ステップS22の処理で得られた予測残差(評価値)と、ステップS11の処理でセットされた伝送判定閾値とを比較する。予測残差(評価値)が伝送判定閾値と等しいか、それより大きいと判定された場合、ステップS27において、閾値判定部26は、ステップS22の処理で計算された予測残差を評価値として保持する。   In step S26, the threshold determination unit 26 compares the prediction residual (evaluation value) obtained in the process of step S22 with the transmission determination threshold set in the process of step S11. When it is determined that the prediction residual (evaluation value) is equal to or larger than the transmission determination threshold, in step S27, the threshold determination unit 26 holds the prediction residual calculated in the process of step S22 as an evaluation value. To do.

予測残差(評価値)が伝送判定閾値より小さいと判定された場合には、ステップS27の処理はスキップされる。   When it is determined that the prediction residual (evaluation value) is smaller than the transmission determination threshold, the process of step S27 is skipped.

ステップS23において、予測残差(評価値)が比較値と等しいか、それより大きいと判定された場合には、ステップS24乃至ステップS27の処理はスキップされる。   If it is determined in step S23 that the prediction residual (evaluation value) is equal to or greater than the comparison value, the processes in steps S24 to S27 are skipped.

ステップS28において、閾値判定部26は、探索範囲内の全ての位置の処理を終了したか否かを判定する。すなわち、クラス分類適応処理部24−1乃至24−nの全ての出力に対する処理を完了したか否かがここで判定される。クラス分類適応処理部24−1乃至24−nの出力のうち、まだ処理していないものが残っている場合には、ステップS16に戻り、それ以降の処理が繰り返し実行される。   In step S28, the threshold determination unit 26 determines whether or not the processing for all positions within the search range has been completed. That is, it is determined here whether or not the processing for all the outputs of the class classification adaptive processing units 24-1 to 24-n has been completed. If there is an unprocessed output among the outputs of the class classification adaptive processing units 24-1 to 24-n, the process returns to step S16, and the subsequent processing is repeatedly executed.

以上のようにして、ステップS16乃至ステップS28の処理がクラス分類適応処理部24−1乃至24−nが出力するn個の予測値の全てに対して実行される。   As described above, the processes in steps S16 to S28 are executed for all n predicted values output from the class classification adaptive processing units 24-1 to 24-n.

ステップS28で探索範囲内の全ての位置の処理が終了したと判定された場合、ステップS29に進み、閾値判定部26は、伝送判定閾値より小さい予測残差(評価値)が保存されているか否かを判定する。すなわち、探索範囲内の全ての位置の処理により、n個の予測残差(評価値)が得られることになるが、そのn個の予測残差のうち、少なくとも1つ伝送判定閾値より小さいものがある場合には、その中で最小のものに対応する動きベクトルがステップS25の処理で保持されている。そこで、その場合には、ステップS30において、閾値判定部26は、ステップS25の処理で保持した動きベクトルを読み出し、後処理部27に出力する。   If it is determined in step S28 that the processing of all positions within the search range has been completed, the process proceeds to step S29, and the threshold determination unit 26 stores a prediction residual (evaluation value) smaller than the transmission determination threshold. Determine whether. That is, n prediction residuals (evaluation values) are obtained by processing all positions in the search range, and at least one of the n prediction residuals is smaller than the transmission determination threshold. If there is a motion vector, the motion vector corresponding to the smallest one is held in the process of step S25. Therefore, in that case, in step S <b> 30, the threshold determination unit 26 reads out the motion vector held in the process of step S <b> 25 and outputs it to the post-processing unit 27.

ステップS29において、伝送判定閾値より小さい評価値が存在しないと判定された場合、閾値判定部26、ステップS31において、ステップS27の処理により保持されている予測残差(評価値)を後処理部27に出力する処理を実行する。   If it is determined in step S29 that there is no evaluation value smaller than the transmission determination threshold value, the prediction residual (evaluation value) held by the process in step S27 in the threshold value determination unit 26 and step S31 is used as the post-processing unit 27. Execute the process to output to.

すなわち、n個の予測残差(評価値)が全て伝送判定閾値と等しいか、それより大きい場合には、そのうちの最小の値に対応する予測残差がステップS27の処理で保持されている。そこで、閾値判定部26は、その予測残差を、いま対象とされている検索範囲の評価値(最小の予測残差)として、後処理部27に出力する。   That is, if all n prediction residuals (evaluation values) are equal to or larger than the transmission determination threshold, the prediction residual corresponding to the smallest value among them is held in the process of step S27. Therefore, the threshold determination unit 26 outputs the prediction residual to the post-processing unit 27 as an evaluation value (minimum prediction residual) of the search range currently targeted.

ステップS30,S31の処理の後、ステップS32において、閾値判定部26は、1フレーム内の全ての探索範囲の処理が終了したか否かを判定し、まだ終了していない探索範囲が残っている場合には、ステップS14に戻り、それ以降の処理が繰り返し実行される。   After the processes of steps S30 and S31, in step S32, the threshold determination unit 26 determines whether or not the processing of all search ranges within one frame has been completed, and there is still a search range that has not been completed. In that case, the process returns to step S14, and the subsequent processing is repeatedly executed.

ステップS32において、全ての探索範囲の処理が終了したと判定された場合、ステップS33において、後処理部27は、閾値判定部26より動きベクトルだけが供給されてきた場合には、その動きベクトルをそのまま出力し、閾値判定部26より供給されてきたのが、動きベクトルと予測残差(評価値)である場合には、予測残差に、それが予測残差であることを表すフラグを付加する。   If it is determined in step S32 that the processing for all the search ranges has been completed, in step S33, the post-processing unit 27, when only the motion vector is supplied from the threshold determination unit 26, displays the motion vector. If the motion vector and the prediction residual (evaluation value) are output as is and supplied from the threshold determination unit 26, a flag indicating that this is a prediction residual is added to the prediction residual. To do.

ステップS34において、量子化器28は、後処理部27より供給された動きベクトルをそのまま出力する。動きベクトルと予測残差(評価値)が供給されてきた場合には、量子化器28は、予測残差を量子化し、伝送路に伝送する。   In step S34, the quantizer 28 outputs the motion vector supplied from the post-processing unit 27 as it is. When the motion vector and the prediction residual (evaluation value) have been supplied, the quantizer 28 quantizes the prediction residual and transmits it to the transmission path.

以上のようにして、図8に示されるように、予測フレームメモリ21に記憶されている予測フレーム90において、所定の画素が注目画素91として選択される。そして、基準フレームメモリ22に記憶されている基準フレーム80の注目画素91に対応する画素が注目対応画素83として選択され、注目対応画素83を中心とする所定の範囲が、探索範囲81として設定される。   As described above, as shown in FIG. 8, a predetermined pixel is selected as the target pixel 91 in the prediction frame 90 stored in the prediction frame memory 21. Then, a pixel corresponding to the target pixel 91 of the reference frame 80 stored in the reference frame memory 22 is selected as the target corresponding pixel 83, and a predetermined range centered on the target corresponding pixel 83 is set as the search range 81. The

探索範囲81内において、所定の範囲の画素が予測タップ82として選択され、予測タップ82を構成する画素に基づいて、上述したように、予測値が演算される。そして、その予測値と注目画素91との差が予測残差として算出される。   Within the search range 81, pixels in a predetermined range are selected as the prediction taps 82, and the prediction values are calculated as described above based on the pixels constituting the prediction taps 82. Then, a difference between the predicted value and the target pixel 91 is calculated as a prediction residual.

予測タップ82は、探索範囲81内を、予測タップ82−1乃至82−nとして示されるように、n個の位置に、順次移動される。そして、n個の予測タップのそれぞれに対応して得られるn個の予測残差の中から最小のものがその探索範囲81の評価値として選択される。   The prediction tap 82 is sequentially moved to n positions within the search range 81 as indicated by prediction taps 82-1 to 82-n. Then, the smallest one of the n prediction residuals obtained corresponding to each of the n prediction taps is selected as the evaluation value of the search range 81.

以上のような処理が、予測フレーム90の中の全ての画素を注目画素91として順次選択することで実行される。   The above process is executed by sequentially selecting all the pixels in the prediction frame 90 as the target pixel 91.

以上のようにして、伝送路に伝送された画像データは、図9に示されるような受信装置により受信され、復号される。   As described above, the image data transmitted to the transmission path is received and decoded by a receiving apparatus as shown in FIG.

この受信装置111においては、逆量子化器121が送信装置11により符号化され、伝送路を伝送されてきたデータを取得し、逆量子化する。伝送判定部122は、逆量子化器121より供給されたデータからフラグを読み取り、伝送されてきたデータのうち動きベクトルをアドレス設定部123に出力する。アドレス設定部123は、基準フレームメモリ124に記憶されている、既に復調して得られている基準フレームの画素データから、動きベクトルに対応する範囲の画素データを抽出し、クラス分類適応処理部125に供給する。   In this receiving apparatus 111, the inverse quantizer 121 is encoded by the transmitting apparatus 11, acquires the data transmitted through the transmission path, and performs inverse quantization. The transmission determination unit 122 reads a flag from the data supplied from the inverse quantizer 121 and outputs a motion vector of the transmitted data to the address setting unit 123. The address setting unit 123 extracts pixel data in a range corresponding to the motion vector from the pixel data of the reference frame already demodulated stored in the reference frame memory 124, and the class classification adaptive processing unit 125. To supply.

クラス分類適応処理部125は、アドレス設定部123より供給された画素データに対して、クラス分類適応処理を施し、画素データを生成する。   The class classification adaptation processing unit 125 performs class classification adaptation processing on the pixel data supplied from the address setting unit 123 to generate pixel data.

このクラス分類適応処理部125は、図2の送信装置11のクラス分類適応処理部24と基本的に同様の構成とされる。そこで、図3は、以下の説明で、クラス分類適応処理部125としても、引用される。   The class classification adaptation processing unit 125 has basically the same configuration as the class classification adaptation processing unit 24 of the transmission device 11 of FIG. Therefore, FIG. 3 is also referred to as the class classification adaptation processing unit 125 in the following description.

伝送判定部122は、逆量子化器121より入力されたデータに予測残差のデータが含まれていると判定した場合、これを復号部126に供給する。復号部126は、この予測残差を復号する。   When the transmission determination unit 122 determines that the data input from the inverse quantizer 121 includes prediction residual data, the transmission determination unit 122 supplies the data to the decoding unit 126. The decoding unit 126 decodes this prediction residual.

合成部127は、クラス分類適応処理部125と復号部126より供給された画素データを、メモリ上で適宜合成し、1フレーム分の画素データとし、出力する。合成部127より出力された画素データの一部は、必要に応じて、基準フレームメモリ124に供給され、後続するフレームの処理に対する基準フレームとして記憶される。   The synthesizing unit 127 appropriately synthesizes the pixel data supplied from the class classification adaptive processing unit 125 and the decoding unit 126 on the memory, and outputs the pixel data for one frame. Part of the pixel data output from the combining unit 127 is supplied to the reference frame memory 124 as necessary, and is stored as a reference frame for processing of subsequent frames.

例えば、マイクロプロセッサなどにより構成される制御部128は、受信装置111の各部の動作を制御する。   For example, the control unit 128 configured by a microprocessor or the like controls the operation of each unit of the reception device 111.

制御部128には、インタフェース131を介して、必要に応じて磁気ディスク141、光ディスク142、光磁気ディスク143、または半導体メモリ144が装着され、そこに記憶されているプログラムやデータなどが適宜インストールされる。   The control unit 128 is equipped with a magnetic disk 141, an optical disk 142, a magneto-optical disk 143, or a semiconductor memory 144 as necessary via an interface 131, and programs and data stored therein are appropriately installed. The

次に、図10のフローチャートを参照して、受信装置111における復号処理について説明する。   Next, the decoding process in the receiving apparatus 111 will be described with reference to the flowchart of FIG.

ステップS51において、逆量子化器121は、伝送路を介して伝送されてきた量子化されている画像データを受信し、逆量子化して伝送判定部122に供給する。伝送判定部122は、ステップS52において、いま伝送されてきたデータに含まれているのは、動きベクトルのデータであるのか否かを判定する。入力されたデータに含まれているのが動きベクトルのデータであると判定された場合、伝送判定部122は、ステップS53において、その動きベクトルのデータをアドレス設定部123に出力する。アドレス設定部123は、基準フレームメモリ124に記憶されている画素データから探索範囲の画素データを抽出し、クラス分類適応処理部125に出力する。   In step S <b> 51, the inverse quantizer 121 receives the quantized image data transmitted via the transmission path, performs inverse quantization, and supplies the quantized image data to the transmission determination unit 122. In step S52, the transmission determination unit 122 determines whether or not the data that has been transmitted is motion vector data. When it is determined that the input data includes motion vector data, the transmission determination unit 122 outputs the motion vector data to the address setting unit 123 in step S53. The address setting unit 123 extracts pixel data in the search range from the pixel data stored in the reference frame memory 124 and outputs the pixel data to the class classification adaptation processing unit 125.

クラス分類適応処理部125は、ステップS54において、クラス分類適応処理を実行する。すなわち、クラスタップ抽出部61と、予測タップ抽出部65は、アドレス設定部123より供給される動きベクトルに基づいて、探索範囲の画素データから、それぞれクラスタップと予測タップの画素データを抽出する。ADRC部62は、クラスタップを1ビットADRC処理し、その結果得られたデータに基づいて、クラスコード決定部63は、クラスコードを決定する。予測係数メモリ64は、クラスコードに対応する予測係数を予測値算出部66に出力する。予測値算出部66は、予測タップと予測係数の線形1次結合から予測値を演算する。   In step S54, the class classification adaptation processing unit 125 executes class classification adaptation processing. That is, the class tap extraction unit 61 and the prediction tap extraction unit 65 extract the pixel data of the class tap and the prediction tap from the pixel data in the search range based on the motion vector supplied from the address setting unit 123, respectively. The ADRC unit 62 performs 1-bit ADRC processing on the class tap, and the class code determination unit 63 determines the class code based on the data obtained as a result. The prediction coefficient memory 64 outputs a prediction coefficient corresponding to the class code to the prediction value calculation unit 66. The predicted value calculation unit 66 calculates a predicted value from a linear primary combination of a prediction tap and a prediction coefficient.

生成された予測値は、合成部127に供給される。ステップS57において、合成部127は、クラス分類適応処理部125より供給された予測値をフレームの対応する位置の画素データとして合成する。   The generated predicted value is supplied to the synthesis unit 127. In step S57, the synthesizing unit 127 synthesizes the prediction value supplied from the class classification adaptation processing unit 125 as pixel data at a corresponding position in the frame.

ステップS52において、伝送されてきたデータのうち動きベクトルではないと判定されたデータ(予測誤差のデータ)は、伝送判定部122から復号部126に出力される。復号部126は、ステップS56において、予測残差の復号処理を実行する。すなわち、復号部126は、伝送判定部122より供給された予測残差を復号する。復号部126により復号された予測残差は、合成部127に供給され、ステップS57の処理で、クラス分類適応処理部125で復号された対応する位置の画素データと合成される。   In step S <b> 52, data (prediction error data) determined not to be a motion vector among the transmitted data is output from the transmission determination unit 122 to the decoding unit 126. In step S56, the decoding unit 126 performs a prediction residual decoding process. That is, the decoding unit 126 decodes the prediction residual supplied from the transmission determination unit 122. The prediction residual decoded by the decoding unit 126 is supplied to the combining unit 127, and is combined with the pixel data at the corresponding position decoded by the class classification adaptive processing unit 125 in the process of step S57.

予測係数メモリ64に記憶される予測係数は、学習により取得することができる。図11は、この学習を行う学習装置の構成例を表している。この学習装置160においては、生徒データ生成部161が、入力された教師データとしての画像データの画素値を適宜変更処理するなどして、生徒データを生成する。クラスタップ抽出部162は、生徒データ生成部161より供給された生徒データからクラスタップを抽出し、ADRC部163に出力する。ADRC部163は、クラスタップ抽出部162より供給されたクラスタップの画素データに対して、1ビットADRC処理を施し、得られた結果をクラスコード決定部164に出力する。   The prediction coefficient stored in the prediction coefficient memory 64 can be acquired by learning. FIG. 11 shows a configuration example of a learning device that performs this learning. In the learning device 160, the student data generation unit 161 generates student data by appropriately changing the pixel value of the image data as the input teacher data. The class tap extraction unit 162 extracts class taps from the student data supplied from the student data generation unit 161 and outputs the class taps to the ADRC unit 163. The ADRC unit 163 performs 1-bit ADRC processing on the class tap pixel data supplied from the class tap extraction unit 162 and outputs the obtained result to the class code determination unit 164.

クラスコード決定部164は、ADRC部163より入力されたデータに基づいて、クラスコードを決定し、そのクラスコードを正規方程式生成部166に出力する。   The class code determination unit 164 determines a class code based on the data input from the ADRC unit 163, and outputs the class code to the normal equation generation unit 166.

予測タップ抽出部165は、生徒データ生成部161より供給された生徒データから予測タップを抽出し、正規方程式生成部166に出力する。正規方程式生成部166には、また、生徒データ生成部161において、生徒データを生成する元になった親データとしての教師データが供給されている。正規方程式生成部166は、予測係数(未知数)と生徒データの積和を教師データの値と等しいとする線形1次結合の正規方程式を生成する。   The prediction tap extraction unit 165 extracts a prediction tap from the student data supplied from the student data generation unit 161 and outputs the prediction tap to the normal equation generation unit 166. The normal equation generation unit 166 is also supplied with teacher data as parent data from which the student data generation unit 161 generates student data. The normal equation generation unit 166 generates a linear linear combination normal equation in which the sum of products of the prediction coefficient (unknown number) and the student data is equal to the value of the teacher data.

予測係数決定部167は、正規方程式生成部166により生成された正規方程式を、掃き出し法などの一般的な行列解法を用いて、未知数とされている予測係数を求め、予測係数メモリ64に記憶させる。   The prediction coefficient determination unit 167 obtains a prediction coefficient that is an unknown number from the normal equation generated by the normal equation generation unit 166 by using a general matrix solving method such as a sweep-out method, and stores the prediction coefficient in the prediction coefficient memory 64. .

次に、学習装置160の動作について説明する。クラスタップ抽出部162は、生徒データ生成部161より供給された生徒データからクラスタップの画素データ(図6の例では、3×3個の画素データ)を抽出し、ADRC部163に出力する。ADRC部163は、クラスタップの画素データに対して、1ビットADRC処理を施し、得られた結果を、クラスコード決定部164に出力する。クラスコード決定部164は、ADRC部163より入力されたデータに基づいて、クラスコードを決定し、正規方程式生成部166に出力する。   Next, the operation of the learning device 160 will be described. The class tap extraction unit 162 extracts class tap pixel data (3 × 3 pixel data in the example of FIG. 6) from the student data supplied from the student data generation unit 161, and outputs it to the ADRC unit 163. The ADRC unit 163 performs 1-bit ADRC processing on the pixel data of the class tap, and outputs the obtained result to the class code determination unit 164. The class code determination unit 164 determines a class code based on the data input from the ADRC unit 163 and outputs the class code to the normal equation generation unit 166.

生徒データ生成部161により生成された生徒データからは、予測タップ抽出部165により予測タップを構成する画素データ(図6の例では、13個の画素データ)が抽出され、正規方程式生成部166に供給される。正規方程式生成部166は、予測タップの画素データと予測係数の積和が教師データに等しいとする線形1次結合の正規方程式をクラスコード毎に生成し、予測係数決定部167に出力する。予測係数決定部167は、掃き出し法に基づいて、未知数としての予測係数を決定し、予測係数メモリ64に記憶させる。   From the student data generated by the student data generation unit 161, pixel data constituting the prediction tap is extracted by the prediction tap extraction unit 165 (13 pixel data in the example of FIG. 6), and is output to the normal equation generation unit 166. Supplied. The normal equation generation unit 166 generates a linear linear combination normal equation for each class code, assuming that the product sum of the prediction tap pixel data and the prediction coefficient is equal to the teacher data, and outputs the normal equation to the prediction coefficient determination unit 167. The prediction coefficient determination unit 167 determines a prediction coefficient as an unknown number based on the sweep-out method and stores the prediction coefficient in the prediction coefficient memory 64.

なお、以上においては、図4のステップS29において、伝送判定閾値より小さい評価値が存在しないと判定された場合には、ステップS31の処理で、動きベクトルと予測残差を送出するようにしたが、予測残差に代えて、ステップS21で計算された予測値を送出したり、注目画素の画素データの値そのものを送出するようにすることも可能である。   In the above, when it is determined in step S29 in FIG. 4 that there is no evaluation value smaller than the transmission determination threshold, the motion vector and the prediction residual are transmitted in the process of step S31. Instead of the prediction residual, it is also possible to send the predicted value calculated in step S21 or send the pixel data value of the target pixel itself.

また、画素単位ではなく、ブロック単位で処理することも可能である。この場合には、ブロック内での予測値と入力値とで、絶対誤差和を取得し、その誤差和が所定の閾値よりも小さい場合には、動きベクトルを伝送し、閾値より大きい場合には、ブロック内の画素データを伝送するようにすればよい。   It is also possible to perform processing in units of blocks instead of in units of pixels. In this case, an absolute error sum is obtained from the predicted value and input value in the block, and if the error sum is smaller than a predetermined threshold, a motion vector is transmitted. The pixel data in the block may be transmitted.

このようにした場合、フラグがブロック内に1ビット付加されるだけの構成となるため、余分な情報量が減り、効率よく圧縮することが可能になる。   In this case, since only one bit is added to the flag in the block, the amount of extra information is reduced, and compression can be performed efficiently.

さらに、図12に示されるように、閾値判定部26(そこにおける閾値判定処理)を省略し、常に動きベクトルを送出するようにしてもよい。そのようにすれば、より圧縮効率、伝送効率、符号化効率を向上させることが可能となる。   Furthermore, as shown in FIG. 12, the threshold value determination unit 26 (threshold value determination process) may be omitted and a motion vector may be always transmitted. By doing so, it is possible to further improve the compression efficiency, transmission efficiency, and encoding efficiency.

なお、一番最初のフレームのデータに関しては、量子化を行ってもよいし、行わなくてもよい。また、前フレーム毎に、あるいは数フレーム毎に、基準フレームを更新してもよい。あるいは、また、基準フレームを全く更新しないようにすることも可能である。   Note that the quantization of the first frame data may or may not be performed. Further, the reference frame may be updated every previous frame or every several frames. Alternatively, it is also possible not to update the reference frame at all.

基準フレームを更新するようにした場合には、画像の劣化も少なく、復調側で、より品質の高い画像を再現することが可能なるばかりでなく、雑音による影響が後々まで伝播しないため、よりロバストな画像伝送方式を実現することができる。   When the reference frame is updated, image degradation is small, and not only the demodulation side can reproduce a higher quality image, but also the influence of noise does not propagate to the later stage, so it is more robust. A simple image transmission method can be realized.

このように、本発明によれば、予測誤差が、絶対差分和や自乗誤差和に比べて同じか、それより小さくなるため、絶対差分和、または自乗誤差和を用いる方式に比べて、データの圧縮効率をより高めることができ、また、高画質の画像を伝送することが可能となる。   As described above, according to the present invention, the prediction error is the same as or smaller than the absolute difference sum or the square error sum. Therefore, compared with the method using the absolute difference sum or the square error sum, The compression efficiency can be further increased, and a high-quality image can be transmitted.

以上においては、送信装置11と受信装置111は、独立する構成としたが、1つの装置内に、これらを一体化することも可能である。特に、伝送路が記録媒体により構成される場合には、その記録媒体に対して、データを記録再生する装置においては、送信装置と受信装置の両方が、1つの装置内に配置される。   In the above description, the transmission device 11 and the reception device 111 are configured to be independent from each other. However, they can be integrated in one device. In particular, when the transmission path is configured by a recording medium, in a device that records and reproduces data with respect to the recording medium, both the transmission device and the reception device are arranged in one device.

また、以上においては、画像データを例として説明したが、画像データ以外のコンテンツデータを伝送する場合にも、本発明を適用することが可能である。   In the above description, image data has been described as an example. However, the present invention can also be applied to the case of transmitting content data other than image data.

上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.

この記録媒体は、図2と図9に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク41,141(フロッピディスクを含む)、光ディスク42,142(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク43,143(MD(Mini-Disk)を含む)、もしくは半導体メモリ44,144などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMや、記憶部に含まれるハードディスクなどで構成される。   As shown in FIGS. 2 and 9, the recording medium is distributed to provide a program to the user separately from the apparatus main body, and includes magnetic disks 41 and 141 (including floppy disks) on which the program is recorded. ), Optical disks 42 and 142 (including CD-ROM (Compact Disk-Read Only Memory), DVD (Digital Versatile Disk)), magneto-optical disks 43 and 143 (including MD (Mini-Disk)), or semiconductor memory 44 , 144, etc., as well as a ROM in which a program is recorded, a hard disk included in the storage unit, etc. provided to the user in a state of being preinstalled in the apparatus main body. .

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

ブロックマッチングを説明する図である。It is a figure explaining block matching. 本発明を適用した送信装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the transmitter to which this invention is applied. 図2のクラス分類適応処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the class classification adaptive process part of FIG. 図2の送信装置の処理を説明するフローチャートである。3 is a flowchart for explaining processing of the transmission device in FIG. 図2の送信装置の処理を説明するフローチャートである。3 is a flowchart for explaining processing of the transmission device in FIG. 2. クラスタップの例を示す図である。It is a figure which shows the example of a class tap. 予測タップの例を示す図である。It is a figure which shows the example of a prediction tap. 図2のクラス分類適応処理部における予測処理を説明する図である。It is a figure explaining the prediction process in the class classification adaptive process part of FIG. 本発明を適用した受信装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the receiver which applied this invention. 図9の受信装置の動作を説明するフローチャートである。10 is a flowchart for explaining the operation of the receiving apparatus of FIG. 9. 予測係数を取得する学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus which acquires a prediction coefficient. 本発明を適用した送信装置の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the transmitter to which this invention is applied.

符号の説明Explanation of symbols

21 予測フレームメモリ, 22 基準フレームメモリ, 23−1乃至23−n アドレス設定部, 24−1乃至24−n クラス分類適応処理部, 25 比較器, 26 閾値判定部, 27 後処理部, 28 量子化器   21 prediction frame memory, 22 reference frame memory, 23-1 to 23-n address setting unit, 24-1 to 24-n class classification adaptive processing unit, 25 comparator, 26 threshold value determination unit, 27 post-processing unit, 28 quantum Generator

Claims (9)

生成する第1のコンテンツデータの動きベクトルを抽出する動きベクトル抽出手段と、
基準となる第2のコンテンツデータを保持する保持手段と、
前記動きベクトル抽出手段により抽出された前記動きベクトルに基づいて、前記第2のコンテンツデータから、予測タップを抽出する予測タップ抽出手段と、
前記予測タップ抽出手段により抽出された前記予測タップにクラス分類適応処理を施して、予測値を演算する演算手段と、
前記演算手段により演算された前記予測値を前記第1のコンテンツデータとして合成する合成手段と
を備えることを特徴とする情報処理装置。
Motion vector extraction means for extracting a motion vector of the first content data to be generated;
Holding means for holding second content data as a reference;
Prediction tap extraction means for extracting a prediction tap from the second content data based on the motion vector extracted by the motion vector extraction means;
A calculation unit that performs a class classification adaptive process on the prediction tap extracted by the prediction tap extraction unit, and calculates a prediction value;
An information processing apparatus comprising: combining means for combining the predicted value calculated by the calculating means as the first content data.
前記第1のコンテンツデータに関連するデータを取得する取得手段と、
前記取得手段により取得された前記第1のコンテンツデータに関連するデータから、前記第1のコンテンツデータに関連するデータから、前記第2のコンテンツデータにクラス分類適応処理を施して生成された前記第1のコンテンツデータに対応する予測値と前記第1のコンテンツデータとの差に対応する予測残差を表すフラグを抽出するフラグ抽出手段と
さらに備えることを特徴とする請求項1に記載の情報処理装置。
Obtaining means for obtaining data related to the first content data;
From the data related to the first content data acquired by the acquiring means, from the data related to the first content data, the second content data generated by subjecting the second content data to class classification adaptation processing 2. The information processing according to claim 1, further comprising: a flag extracting unit that extracts a flag representing a prediction residual corresponding to a difference between a predicted value corresponding to one content data and the first content data. apparatus.
前記フラグ抽出手段が、前記予測残差を表す前記フラグを抽出した場合、前記第1のコンテンツデータに関連するデータから、前記予測残差を抽出するデータ抽出手段と、
前記データ抽出手段により抽出されたデータを復号する復号手段と
をさらに備えることを特徴とする請求項2に記載の情報処理装置。
Data extracting means for extracting the prediction residual from data related to the first content data when the flag extracting means extracts the flag representing the prediction residual;
The information processing apparatus according to claim 2, further comprising: a decoding unit that decodes the data extracted by the data extraction unit.
前記第1のコンテンツデータと前記第2のコンテンツデータは、画像データであり、
前記第1のコンテンツデータは、前記画像データの第1のフレームであり、
前記第2のコンテンツデータは、前記第1のフレームより時間的に前の第2のフレームである
ことを特徴とする請求項1に記載の情報処理装置。
The first content data and the second content data are image data,
The first content data is a first frame of the image data;
The information processing apparatus according to claim 1, wherein the second content data is a second frame that is temporally prior to the first frame.
前記演算手段は、1画素単位で、前記予測値を演算する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the calculation unit calculates the predicted value in units of one pixel.
前記第2のコンテンツデータを更新する更新手段を
さらに備えることを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising updating means for updating the second content data.
生成する第1のコンテンツデータの動きベクトルを抽出する動きベクトル抽出ステップと、
基準となる第2のコンテンツデータの保持を制御する保持制御ステップと、
前記動きベクトル抽出ステップの処理により抽出された前記動きベクトルに基づいて、前記第2のコンテンツデータから、予測タップを抽出する予測タップ抽出ステップと、
前記予測タップ抽出ステップの処理により抽出された前記予測タップにクラス分類適応処理を施して、予測値を演算する演算ステップと、
前記演算ステップの処理により演算された前記予測値を前記第1のコンテンツデータとして合成する合成ステップと
を含むことを特徴とする情報処理方法。
A motion vector extraction step of extracting a motion vector of the first content data to be generated;
A holding control step for controlling holding of the second content data as a reference;
A prediction tap extraction step of extracting a prediction tap from the second content data based on the motion vector extracted by the processing of the motion vector extraction step;
A calculation step of performing a class classification adaptation process on the prediction tap extracted by the processing of the prediction tap extraction step and calculating a prediction value;
A synthesis step of synthesizing the predicted value calculated by the processing of the calculation step as the first content data.
生成する第1のコンテンツデータの動きベクトルを抽出する動きベクトル抽出ステップと、
基準となる第2のコンテンツデータの保持を制御する保持制御ステップと、
前記動きベクトル抽出ステップの処理により抽出された前記動きベクトルに基づいて、前記第2のコンテンツデータから、予測タップを抽出する予測タップ抽出ステップと、
前記予測タップ抽出ステップの処理により抽出された前記予測タップにクラス分類適応処理を施して、予測値を演算する演算ステップと、
前記演算ステップの処理により演算された前記予測値を前記第1のコンテンツデータとして合成する合成ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A motion vector extraction step of extracting a motion vector of the first content data to be generated;
A holding control step for controlling holding of the second content data as a reference;
A prediction tap extraction step of extracting a prediction tap from the second content data based on the motion vector extracted by the processing of the motion vector extraction step;
A calculation step of performing a class classification adaptation process on the prediction tap extracted by the processing of the prediction tap extraction step and calculating a prediction value;
And a synthesis step of synthesizing the predicted value calculated by the processing of the calculation step as the first content data. A recording medium on which a computer-readable program is recorded.
生成する第1のコンテンツデータの動きベクトルを抽出する動きベクトル抽出ステップと、
基準となる第2のコンテンツデータの保持を制御する保持制御ステップと、
前記動きベクトル抽出ステップの処理により抽出された前記動きベクトルに基づいて、前記第2のコンテンツデータから、予測タップを抽出する予測タップ抽出ステップと、
前記予測タップ抽出ステップの処理により抽出された前記予測タップにクラス分類適応処理を施して、予測値を演算する演算ステップと、
前記演算ステップの処理により演算された前記予測値を前記第1のコンテンツデータとして合成する合成ステップと
をコンピュータに実行させるプログラム。
A motion vector extraction step of extracting a motion vector of the first content data to be generated;
A holding control step for controlling holding of the second content data as a reference;
A prediction tap extraction step of extracting a prediction tap from the second content data based on the motion vector extracted by the processing of the motion vector extraction step;
A calculation step of performing a class classification adaptation process on the prediction tap extracted by the processing of the prediction tap extraction step and calculating a prediction value;
A program that causes a computer to execute a synthesis step of synthesizing the predicted value calculated by the processing of the calculation step as the first content data.
JP2007191595A 2007-07-24 2007-07-24 Information processing apparatus and method, recording medium, and program Expired - Fee Related JP4748127B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007191595A JP4748127B2 (en) 2007-07-24 2007-07-24 Information processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007191595A JP4748127B2 (en) 2007-07-24 2007-07-24 Information processing apparatus and method, recording medium, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002008251A Division JP4120916B2 (en) 2002-01-17 2002-01-17 Information processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2007300678A true JP2007300678A (en) 2007-11-15
JP4748127B2 JP4748127B2 (en) 2011-08-17

Family

ID=38769707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007191595A Expired - Fee Related JP4748127B2 (en) 2007-07-24 2007-07-24 Information processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4748127B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07203448A (en) * 1993-12-28 1995-08-04 Canon Inc Dynamic image coding device and method therefor
JPH09168155A (en) * 1995-12-15 1997-06-24 Kokusai Denshin Denwa Co Ltd <Kdd> Variable frame rate dynamic image coding method
JP2000324495A (en) * 1999-05-07 2000-11-24 Sony Corp Device and method for converting field frequency
JP2001285882A (en) * 2000-04-03 2001-10-12 Sony Corp Device and method for reducing noise

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07203448A (en) * 1993-12-28 1995-08-04 Canon Inc Dynamic image coding device and method therefor
JPH09168155A (en) * 1995-12-15 1997-06-24 Kokusai Denshin Denwa Co Ltd <Kdd> Variable frame rate dynamic image coding method
JP2000324495A (en) * 1999-05-07 2000-11-24 Sony Corp Device and method for converting field frequency
JP2001285882A (en) * 2000-04-03 2001-10-12 Sony Corp Device and method for reducing noise

Also Published As

Publication number Publication date
JP4748127B2 (en) 2011-08-17

Similar Documents

Publication Publication Date Title
KR101512324B1 (en) Method of estimating motion vector using multiple motion vector predictors, apparatus, encoder, decoder and decoding method
CN101595735B (en) Method and apparatus for encoding video and method and apparatus for decoding video
KR100803611B1 (en) Method and apparatus for encoding video, method and apparatus for decoding video
JP2018152878A (en) Decoding method, apparatus, program, and storage medium
US8229233B2 (en) Method and apparatus for estimating and compensating spatiotemporal motion of image
TWI736186B (en) Image predictive decoding device and image predictive decoding method
JP4994767B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
RU2012102341A (en) IMAGE PREDICTION CODING DEVICE, IMAGE PREDICTION CODING CODING DEVICE, IMAGE PREDICTION CODING PROGRAM, IMAGE PRECORDING CODECODING DEVICE, SCREDICING SCRIPTING
WO2013069384A1 (en) Video prediction encoding device, video prediction encoding method, video prediction encoding program, video prediction decoding device, video prediction decoding method, and video prediction decoding program
JP2009201112A (en) Coding and decoding methods for direct mode
JP4462823B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
KR20170141276A (en) Encoding apparatus and method, decoding apparatus and method, and recording medium
JP4445463B2 (en) Video re-encoding method and apparatus
JP2012235407A (en) Image processing apparatus and image processing method
JP4552261B2 (en) Digital information conversion apparatus and method, and image information conversion apparatus and method
JP4120916B2 (en) Information processing apparatus and method, recording medium, and program
JP4748127B2 (en) Information processing apparatus and method, recording medium, and program
US11589038B2 (en) Methods for video encoding and video decoding
JP2016536859A (en) Media signal encoding and decoding method and apparatus using the same
JP4552262B2 (en) Noise reduction apparatus and method
JP4554138B2 (en) Image encoding apparatus and method, image decoding apparatus and method, image processing system, recording medium, and program
JP4518727B2 (en) Image encoding apparatus and method, recording medium, and program
JP4505729B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4140662B2 (en) Coefficient seed data generation apparatus and coefficient data generation apparatus
JP4552264B2 (en) Error correction apparatus and method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110322

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110502

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees