JP2013085306A - Moving image encoding device, moving image decoding device, moving image encoding method, moving image decoding method, moving image encoding program, and moving image decoding program - Google Patents

Moving image encoding device, moving image decoding device, moving image encoding method, moving image decoding method, moving image encoding program, and moving image decoding program Download PDF

Info

Publication number
JP2013085306A
JP2013085306A JP2013024564A JP2013024564A JP2013085306A JP 2013085306 A JP2013085306 A JP 2013085306A JP 2013024564 A JP2013024564 A JP 2013024564A JP 2013024564 A JP2013024564 A JP 2013024564A JP 2013085306 A JP2013085306 A JP 2013085306A
Authority
JP
Japan
Prior art keywords
block
prediction
resolution
low
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013024564A
Other languages
Japanese (ja)
Other versions
JP5461721B2 (en
Inventor
Yoshinori Suzuki
芳典 鈴木
Chunsen Bun
チュンセン ブン
Mitsuru Kobayashi
充 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013024564A priority Critical patent/JP5461721B2/en
Publication of JP2013085306A publication Critical patent/JP2013085306A/en
Application granted granted Critical
Publication of JP5461721B2 publication Critical patent/JP5461721B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enhance processing efficiency in encoding processing and decoding processing by suppressing increase of the number of codes in additional information.SOLUTION: A moving image decoding device 200 which generates a prediction signal by block unit, comprises: a low-resolution block decoding unit 151 which generates a low-resolution block that has less number of pixels than a prediction block by decoding encoded data; an expanded block generation unit 154 which expands the low-resolution block generated from decoded low-resolution block by using a decoded image, into a block that has the same number of pixels as the prediction block; a block division unit 162 which divides the expanded block on the basis of a predetermined division rule, and generates a plurality of small blocks; and a small block prediction unit 152 which generates prediction small blocks for the small blocks by using the decoded image and the plurality of small blocks.

Description

本発明は、ブロック単位で予測ブロックを生成する動画像復号技術と動画像符号化技術に関する。   The present invention relates to a moving picture decoding technique and a moving picture encoding technique for generating a prediction block in units of blocks.

従来、予測対象ブロックの予測信号(予測ブロック)をブロック単位で生成する既存の符号化方式として、例えば特許文献1に記載の技術が提案されている。かかる技術は、フレーム間の動きを示す動きベクトルと、この動きベクトルから生成される予測ブロックと予測対象ブロックとの間の誤差ブロックとを、エントロピー符号化することにより、時間方向の冗長度を低減するものである。ここで、予測対象ブロックとは、次に予測処理が行われる入力フレームの分割ブロックである。   Conventionally, as an existing coding method for generating a prediction signal (prediction block) of a prediction target block in units of blocks, for example, a technique described in Patent Literature 1 has been proposed. This technology reduces redundancy in the time direction by entropy coding a motion vector indicating motion between frames and an error block between a prediction block generated from this motion vector and a prediction target block. To do. Here, the prediction target block is a divided block of the input frame on which the prediction process is performed next.

特開2002−354486号公報JP 2002-354486 A

細かい動き表現を含む画像領域の時間予測性能を向上させるためには、数多くの動きベクトルなどの情報(以下、「動き情報」と記す。)が必要となる。ところが、上述した従来の方式では、動き情報の符号化が必要となるため、動き情報を始めとする、いわゆる付加情報の符号量が増大する。このことが、符号化処理や復号処理における処理効率の向上を困難とする要因になっている。   In order to improve the temporal prediction performance of an image region including a fine motion expression, information such as a large number of motion vectors (hereinafter referred to as “motion information”) is required. However, since the above-described conventional method requires coding of motion information, the amount of code of so-called additional information including motion information increases. This is a factor that makes it difficult to improve processing efficiency in encoding processing and decoding processing.

そこで、本発明の課題は、上述の付加情報の符号量増大を抑制することにより、符号化処理と復号処理における処理効率を向上することである。   Accordingly, an object of the present invention is to improve the processing efficiency in the encoding process and the decoding process by suppressing the increase in the code amount of the additional information described above.

本発明に係る動画像符号化装置は、ブロック単位で予測ブロックを生成する動画像符号化装置であって、復号済み画像が保持される保持手段(メモリ)と、入力された符号化対象の画像を、複数の予測対象ブロックに分割する第1の分割手段と、前記予測対象ブロックを、当該予測対象ブロックよりも画素数が少ない低解像ブロックに変換及び符号化した後、当該低解像ブロックの符号化データを復号することで、復号低解像ブロックを生成する生成手段と、前記生成された復号低解像ブロックを、前記予測対象ブロックと同じ画素数のブロックに拡大する拡大手段と、前記拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する第2の分割手段と、前記生成された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記生成された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測手段と、前記生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合手段とを備える。   A moving image encoding apparatus according to the present invention is a moving image encoding apparatus that generates a prediction block in units of blocks, and includes a holding unit (memory) that stores a decoded image, and an input image to be encoded Are divided into a plurality of prediction target blocks, and the prediction target block is converted and encoded into a low resolution block having a smaller number of pixels than the prediction target block, and then the low resolution block Generating means for generating a decoded low-resolution block by decoding the encoded data, and an expanding means for expanding the generated decoded low-resolution block to a block having the same number of pixels as the prediction target block; A second dividing means for generating a plurality of small blocks by dividing the enlarged block based on a predetermined division rule; the generated small blocks; and the decoded image; Prediction means for generating, as a predicted small block, a block in the decoded image corresponding to a motion vector of the generated small block detected by block matching between the plurality of generated predicted small blocks, And integrating means for generating a prediction block by integrating based on the division rule.

本発明に係る動画像復号装置は、ブロック単位で予測ブロックを生成する動画像復号装置であって、復号済み画像が保持される保持手段(例えばメモリ)と、入力された符号化データを復号して得られる低解像ブロック情報と前記復号済み画像とに基づいて、予測ブロックよりも画素数が少ない低解像ブロックを生成する復号手段と、前記生成された低解像ブロックを、前記予測ブロックと同じ画素数のブロックに拡大する拡大手段と、当該拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する分割手段と、前記分割された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記分割された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測手段と、当該生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合手段とを備える。   A moving picture decoding apparatus according to the present invention is a moving picture decoding apparatus that generates a prediction block in units of blocks, and stores a decoding unit that holds decoded images and decodes input encoded data. Decoding means for generating a low-resolution block having a smaller number of pixels than the prediction block based on the low-resolution block information and the decoded image obtained, and the generated low-resolution block as the prediction block Expanding means for expanding the block to the same number of pixels, dividing means for generating a plurality of small blocks by dividing the enlarged block based on a predetermined dividing rule, and the divided small blocks A block in the decoded image corresponding to a motion vector of the divided small block detected by block matching with the decoded image is predicted. Prediction means for generating a click, a plurality of predicted small blocks the generation, by integrating based on the division rule, and a merging unit for generating a prediction block.

動画像符号化装置と動画像復号装置間で高精度な予測符号化を行うには、動画像符号化装置において、予測ブロックよりも画素数の少ない低解像ブロックを圧縮符号化して符号化データを動画像復号装置に送信することが望ましい。この点、これらの発明によれば、低解像ブロックの画素数は、予測ブロックの画素数よりも少ないため、低解像ブロックが圧縮された符号化データは、従来の動き情報よりも付加情報の符号量が少なくなる。これにより、付加情報の符号量増大は低減され、その結果、符号化処理と復号処理における処理効率は向上する。   In order to perform predictive coding with high accuracy between the moving picture coding apparatus and the moving picture decoding apparatus, in the moving picture coding apparatus, a low resolution block having a smaller number of pixels than the prediction block is compressed and coded. Is preferably transmitted to the video decoding device. In this respect, according to these inventions, since the number of pixels of the low resolution block is smaller than the number of pixels of the prediction block, the encoded data in which the low resolution block is compressed is additional information than the conventional motion information. The amount of codes is reduced. Thereby, the increase in the code amount of the additional information is reduced, and as a result, the processing efficiency in the encoding process and the decoding process is improved.

特に、動画像復号装置では、まず、拡大ブロックを分割して小ブロックを得、小ブロックと復号済み画像とから予測小ブロックを生成する。これにより、動画像の細かい領域の高精度な予測を行うことが可能な複数の予測小ブロックを得る。そして、これらを統合することで、予測ブロックを生成する。したがって、上述した処理効率の向上と同時に、符号量の少ない低解像ブロックを利用した高精度な予測が可能となる。   In particular, in the moving image decoding apparatus, first, an enlarged block is divided to obtain a small block, and a predicted small block is generated from the small block and the decoded image. As a result, a plurality of small prediction blocks capable of performing high-precision prediction of a fine area of the moving image are obtained. And a prediction block is produced | generated by integrating these. Therefore, simultaneously with the improvement of the processing efficiency described above, it is possible to perform highly accurate prediction using a low resolution block with a small code amount.

上述した動画像符号化装置は、前記符号化対象の画像を符号化対象ブロックに分割する第3の分割手段と、前記分割された符号化対象ブロックと前記予測ブロックとを画素単位で減算して誤差ブロックを生成する減算手段と、前記生成された誤差ブロックを符号化する符号化手段と、前記符号化された符号化データを復号して、復号誤差ブロックを生成する復号手段と、前記予測ブロックと前記復号誤差ブロックとを画素単位で加算して復号ブロックを生成し、当該復号ブロックを前記保持手段に出力する出力手段とを更に備えることが望ましい。   The above-described moving image encoding apparatus subtracts the divided encoding target block and the prediction block in units of pixels by a third dividing unit that divides the encoding target image into encoding target blocks. Subtracting means for generating an error block; encoding means for encoding the generated error block; decoding means for decoding the encoded data and generating a decoded error block; and the prediction block It is desirable to further include output means for adding the decoded error block and the decoded error block in a pixel unit to generate a decoded block and outputting the decoded block to the holding means.

また、動画像符号化装置では、拡大手段が、前記生成された復号低解像ブロックの画素と予測対象ブロックの上辺および左辺に隣接する復号済みブロックの画素を用いて、前記予測対象ブロックと同じ画素数のブロックを生成することが望ましい。   Further, in the moving image encoding apparatus, the enlargement unit uses the generated decoded low-resolution block pixels and the decoded block pixels adjacent to the upper side and the left side of the prediction target block, and is the same as the prediction target block. It is desirable to generate a block of pixels.

また、動画像符号化装置では、生成手段が、前記予測対象ブロックを所定の変換規則に基づいて当該予測対象ブロックよりも画素数が少ない低解像予測対象ブロックに変換する手段と、低解像予測ブロックを生成する低解像予測ブロック生成手段と、前記低解像予測対象ブロックと前記低解像予測ブロックとを画素単位で減算して低解像誤差ブロックを生成する手段と、当該低解像誤差ブロックを符号化した後、前記低解像誤差ブロックの符号化データを復号することで復号低解像誤差ブロックを生成する手段と、前記復号低解像誤差ブロックと前記低解像予測ブロックとを画素単位で加算して前記低解像ブロックを復元する手段とを含んで構成され、前記低解像予測ブロック生成手段が、前記予測ブロックと同じ画素数の第2の予測ブロックを生成する手段と、前記変換規則に基づいて該第2の予測ブロックから前記低解像予測ブロックを生成する手段とを含んで構成され、前記生成手段は、さらに、前記低解像誤差ブロック内のすべての差分画素値がゼロの場合には、前記第2の予測ブロックを前記予測ブロックとして出力する手段を含んで構成されることが望ましい。   In the moving image encoding apparatus, the generation unit converts the prediction target block into a low resolution prediction target block having a smaller number of pixels than the prediction target block based on a predetermined conversion rule; A low-resolution prediction block generating means for generating a prediction block; means for generating a low-resolution error block by subtracting the low-resolution prediction target block and the low-resolution prediction block in units of pixels; Means for generating a decoded low-resolution error block by decoding encoded data of the low-resolution error block after encoding the image error block, the decoded low-resolution error block, and the low-resolution prediction block And reconstructing the low-resolution block by pixel by pixel, and the low-resolution prediction block generation unit includes a second prediction block having the same number of pixels as the prediction block. And means for generating the low-resolution prediction block from the second prediction block based on the conversion rule, and the generation means is further included in the low-resolution error block. In the case where all the difference pixel values of are zero, it is desirable to include means for outputting the second prediction block as the prediction block.

上述した動画像復号装置は、前記符号化データを復号し、誤差ブロックを生成する生成手段と、前記予測ブロックと前記誤差ブロックとを画素単位で加算して復号ブロックを生成し、当該復号ブロックを前記保持手段に出力する出力手段とを更に備えることが望ましい。   The moving image decoding apparatus described above generates a decoding block by decoding the encoded data and generating an error block, adding the prediction block and the error block in units of pixels, and generating the decoding block. It is desirable to further include output means for outputting to the holding means.

また、動画像復号装置では、拡大手段が、前記生成された低解像ブロックの画素と予測ブロックの上辺および左辺に隣接する復号済みブロックの画素を用いて、前記予測ブロックと同じ画素数のブロックを生成することが望ましい。   Further, in the moving image decoding apparatus, the enlargement unit uses a pixel of the generated low-resolution block and a pixel of the decoded block adjacent to the upper side and the left side of the prediction block, and has the same number of pixels as the prediction block It is desirable to generate

また、動画像復号装置では、復号手段が、前記入力された符号化データを復号して低解像誤差ブロックを復号する手段と、低解像予測ブロックを生成する低解像予測ブロック生成手段と、前記低解像誤差ブロックと前記低解像予測ブロックとを画素単位で加算して前記低解像ブロックを生成する手段とを含んで構成され、前記低解像予測ブロック生成手段が、前記予測ブロックと同じ画素数の第2の予測ブロックを生成する手段と、所定の規則に基づいて該第2の予測ブロックから前記低解像予測ブロックを生成する手段とを含んで構成され、前記復号手段は、さらに、前記低解像誤差ブロック内のすべての差分画素値がゼロの場合には、前記第2の予測ブロックを前記予測ブロックとして出力する手段を含んで構成されることが望ましい。   Further, in the moving image decoding apparatus, the decoding unit decodes the input encoded data to decode a low resolution error block, and a low resolution prediction block generation unit generates a low resolution prediction block. Means for adding the low resolution error block and the low resolution prediction block in units of pixels to generate the low resolution block, and the low resolution prediction block generation means includes the prediction Means for generating a second prediction block having the same number of pixels as the block, and means for generating the low-resolution prediction block from the second prediction block based on a predetermined rule, the decoding means Further, it is preferable that the device further includes means for outputting the second prediction block as the prediction block when all the difference pixel values in the low resolution error block are zero.

更に、本発明に係る動画像符号化・復号技術は、装置のみならず、方法あるいはプログラムの形態を採ることもでき、以下にその特徴を説明する動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラムは、動画像符号化装置、及び動画像復号装置に関する上述の効果と同様の効果を奏する。   Furthermore, the moving image encoding / decoding technique according to the present invention can take the form of a method or a program as well as an apparatus, and a moving image encoding method, a moving image decoding method, and a moving image, whose features will be described below, will be described below. The image encoding program and the moving image decoding program have the same effects as the above-described effects related to the moving image encoding device and the moving image decoding device.

すなわち、本発明に係る動画像符号化方法は、復号済み画像を用いてブロック単位で予測ブロックを生成する動画像符号化方法であって、入力された符号化対象の画像を、複数の予測対象ブロックに分割する第1の分割ステップと、前記予測対象ブロックを、当該予測対象ブロックよりも画素数が少ない低解像ブロックに変換及び符号化した後、当該低解像ブロックの符号化データを復号することで、復号低解像ブロックを生成する生成ステップと、前記復号済み画像を用いて、前記生成された復号低解像ブロックを、前記予測対象ブロックと同じ画素数のブロックに拡大する拡大ステップと、前記拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する第2の分割ステップと、前記生成された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記生成された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測ステップと、前記生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合ステップとを含む。   That is, the video encoding method according to the present invention is a video encoding method for generating a prediction block in units of blocks using decoded images, and an input encoding target image is converted into a plurality of prediction targets. A first division step of dividing the block into blocks, and converting the prediction target block into a low resolution block having a smaller number of pixels than the prediction target block, and then decoding the encoded data of the low resolution block A generation step for generating a decoded low-resolution block, and an enlargement step for expanding the generated decoded low-resolution block to a block having the same number of pixels as the prediction target block using the decoded image. A second dividing step of generating a plurality of small blocks by dividing the enlarged block based on a predetermined division rule; and the generated small blocks A prediction step for generating a block in the decoded image corresponding to a motion vector of the generated small block detected by block matching between a block and the decoded image as a predicted small block; And integrating a plurality of predicted small blocks based on the division rule to generate a predicted block.

本発明に係る動画像復号方法は、復号済み画像を用いてブロック単位で予測ブロックを生成する動画像復号方法であって、入力された符号化データを復号して得られる低解像ブロック情報と前記復号済み画像とに基づいて、予測ブロックよりも画素数が少ない低解像ブロックを生成する復号ステップと、前記復号済み画像を用いて、前記生成された低解像ブロックを、前記予測ブロックと同じ画素数のブロックに拡大する拡大ステップと、当該拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する分割ステップと、前記分割された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記分割された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測ステップと、前記生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合ステップとを含む。   A moving picture decoding method according to the present invention is a moving picture decoding method for generating a prediction block in units of blocks using decoded pictures, and includes low-resolution block information obtained by decoding input encoded data, A decoding step for generating a low-resolution block having a smaller number of pixels than a prediction block based on the decoded image, and using the decoded image, the generated low-resolution block is converted into the prediction block. An enlargement step for enlarging the block with the same number of pixels, a division step for generating a plurality of small blocks by dividing the enlarged block based on a predetermined division rule, the divided small block, and the A block in the decoded image corresponding to the motion vector of the divided small block detected by block matching with the decoded image is predicted. A prediction step of generating a small block, a plurality of predicted small blocks said generated by integrating based on the division rule, and a consolidation step of generating a prediction block.

また、本発明に係る動画像符号化プログラムは、復号済み画像と、ブロック単位で予測ブロックを生成する機能を有する動画像符号化プログラムとを保持する保持手段を備えるコンピュータに、入力された符号化対象の画像を、複数の予測対象ブロックに分割する第1の分割処理と、前記予測対象ブロックを、当該予測対象ブロックよりも画素数が少ない低解像ブロックに変換及び符号化した後、当該低解像ブロックの符号化データを復号することで、復号低解像ブロックを生成する生成処理と、前記復号済み画像を用いて、前記生成された復号低解像ブロックを、前記予測対象ブロックと同じ画素数のブロックに拡大する拡大処理と、前記拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する第2の分割処理と、前記生成された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記生成された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測処理と、前記生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合処理とを実行させる。   Further, the moving picture coding program according to the present invention is a coding that is input to a computer having holding means for holding a decoded picture and a moving picture coding program having a function of generating a prediction block in units of blocks. A first division process for dividing the target image into a plurality of prediction target blocks, and after converting and encoding the prediction target block into a low-resolution block having a smaller number of pixels than the prediction target block, A decoding process for generating a decoded low-resolution block by decoding the encoded data of the resolution block, and using the decoded image, the generated decoded low-resolution block is the same as the prediction target block. An enlargement process for enlarging the number of pixels into a block and a plurality of small blocks are generated by dividing the enlarged block based on a predetermined division rule. And a block in the decoded image corresponding to a motion vector of the generated small block detected by block matching between the generated small block and the decoded image as a predicted small block. A prediction process to be generated and an integrated process to generate a prediction block are performed by integrating the plurality of generated prediction small blocks based on the division rule.

本発明に係る動画像復号プログラムは、復号済み画像と、ブロック単位で予測ブロックを生成する機能を有する動画像復号プログラムとを保持する保持手段を備えるコンピュータに、入力された符号化データを復号して得られる低解像ブロック情報と前記復号済み画像とに基づいて、予測ブロックよりも画素数が少ない低解像ブロックを生成する復号処理と、前記復号済み画像を用いて、前記生成された低解像ブロックを、前記予測ブロックと同じ画素数のブロックに拡大する拡大処理と、当該拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する分割処理と、前記分割された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記分割された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測処理と、当該生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合処理とを実行させる。   A moving picture decoding program according to the present invention decodes input encoded data to a computer having holding means for holding a decoded picture and a moving picture decoding program having a function of generating a prediction block in units of blocks. Based on the low-resolution block information obtained and the decoded image, a decoding process for generating a low-resolution block having a smaller number of pixels than the predicted block, and the generated low-resolution block using the decoded image. An enlargement process for enlarging the resolution block to a block having the same number of pixels as the prediction block; and a division process for generating a plurality of small blocks by dividing the enlarged block based on a predetermined division rule; The motion vector of the divided small block detected by block matching between the divided small block and the decoded image A prediction process for generating a corresponding block in the decoded image as a prediction small block, and an integration process for generating a prediction block by integrating the generated plurality of prediction small blocks based on the division rule; Is executed.

上記目的を達成するために、本発明に係る動画像復号装置は、復号対象となる符号化データを所定のブロック単位で復号し予測ブロックを生成する動画像復号装置であって、復号済み画像が保持される保持手段と、入力された符号化データをエントロピー復号することで、前記復号ブロックよりも画素数が少なく当該復号ブロックと時間的・空間的に同一位置の低解像ブロックを符号化した低解像ブロック情報を生成するエントロピー復号手段と、前記エントロピー復号手段により生成された低解像ブロック情報を復号し、前記復号済み画像を参照して、前記低解像ブロックを生成する低解像ブロック復号手段と、前記低解像ブロック復号手段により生成された低解像ブロックを、所定の分割規則に基づき分割することで、複数の低解像分割ブロックを生成する低解像ブロック分割手段と、前記保持手段に保持されている復号済み画像と、前記低解像ブロック分割手段により生成された低解像分割ブロックとから、当該低解像分割ブロックよりも画素数が多く当該低解像分割ブロックと時間的・空間的に同一位置の予測小ブロックを生成する予測小ブロック生成手段と、前記予測小ブロック生成手段により生成された予測小ブロックを、前記分割規則に対応した所定の統合規則に基づき統合することで、予測ブロックを生成するブロック統合手段とを備えることを特徴とする。   In order to achieve the above object, a video decoding apparatus according to the present invention is a video decoding apparatus that decodes encoded data to be decoded in units of a predetermined block to generate a prediction block. By holding the held means and entropy decoding the input encoded data, the number of pixels is smaller than that of the decoded block, and the low-resolution block at the same position in time and space as the decoded block is encoded. Entropy decoding means for generating low-resolution block information, and low-resolution block for decoding the low-resolution block information generated by the entropy decoding means and generating the low-resolution block with reference to the decoded image A block decoding unit and a plurality of low resolution divisions by dividing the low resolution block generated by the low resolution block decoding unit based on a predetermined division rule A low resolution block dividing unit that generates a lock, a decoded image held in the holding unit, and a low resolution divided block generated by the low resolution block dividing unit. A predicted small block generating means for generating a predicted small block having a larger number of pixels than that of the low-resolution divided block at the same position in time and space, and a predicted small block generated by the predicted small block generating means, And a block integration unit that generates a prediction block by integrating based on a predetermined integration rule corresponding to the division rule.

また、上記目的を達成するために、本発明に係る動画像符号化装置は、符号化対象となる画像を所定のブロック単位で符号化し予測ブロックを生成する動画像符号化装置であって、復号済み画像が保持される保持手段と、入力された画像を複数の符号化対象ブロックに分割する符号化ブロック分割手段と、前記符号化ブロック分割手段により分割された符号化対象ブロックよりも画素数が少なく当該符号化対象ブロックと時間的・空間的に同一位置の低解像ブロックを符号化することで低解像ブロック情報を生成し、当該低解像ブロック情報を復号し、前記復号済み画像を参照して、復号低解像ブロックを生成する復号低解像ブロック生成手段と、前記復号低解像ブロック生成手段により生成された復号低解像ブロックを、所定の分割規則に基づき分割することで、複数の低解像分割ブロックを生成する低解像ブロック分割手段と、前記保持手段に保持されている復号済み画像と、前記低解像ブロック分割手段により生成された低解像分割ブロックとから、当該低解像分割ブロックよりも画素数が多く当該低解像分割ブロックと時間的・空間的に同一位置の予測小ブロックを生成する予測小ブロック生成手段と、前記予測小ブロック生成手段により生成された予測小ブロックを、前記分割規則に対応した所定の統合規則に基づき統合することで、予測ブロックを生成するブロック統合手段とを備えることを特徴とする。   In order to achieve the above object, a moving picture encoding apparatus according to the present invention is a moving picture encoding apparatus that generates a prediction block by encoding an image to be encoded in units of a predetermined block. A holding unit that holds a completed image, an encoding block dividing unit that divides the input image into a plurality of encoding target blocks, and a number of pixels that is larger than that of the encoding target block divided by the encoding block dividing unit. The low-resolution block information is generated by encoding the low-resolution block at the same position in time and space as the encoding target block, and the decoded image is decoded. With reference to the decoded low-resolution block generating means for generating the decoded low-resolution block, and the decoded low-resolution block generated by the decoded low-resolution block generating means in accordance with a predetermined division rule. The low resolution block dividing means for generating a plurality of low resolution divided blocks, the decoded image held in the holding means, and the low resolution generated by the low resolution block dividing means. A predicted small block generating means for generating a predicted small block having a larger number of pixels than the low resolution divided block and at the same position temporally and spatially as the low resolution divided block from the image divided block; And a block integration unit that generates a prediction block by integrating the predicted small blocks generated by the block generation unit based on a predetermined integration rule corresponding to the division rule.

動画像符号化装置と動画像復号装置間で高精度な予測符号化を行うには、動画像符号化装置において、符号化対象ブロックよりも画素数の少ない低解像ブロックを圧縮符号化した低解像ブロック情報をエントロピー符号化して動画像復号装置に送信することが望ましい。低解像ブロックは符号化対象ブロックよりも画素数が少なく、低解像ブロック情報は、符号化対象ブロックの予測に必要とされる従来の予測情報よりも付加情報の符号量が少なくなるため、付加情報の符号量増大を回避し、処理効率を高めることができる。   In order to perform highly accurate predictive coding between the moving picture coding apparatus and the moving picture decoding apparatus, in the moving picture coding apparatus, a low resolution block obtained by compressing and coding a low resolution block having a smaller number of pixels than the coding target block. It is desirable that the resolution block information is entropy encoded and transmitted to the video decoding device. The low-resolution block has a smaller number of pixels than the encoding target block, and the low-resolution block information has a smaller amount of additional information than conventional prediction information required for prediction of the encoding target block. An increase in the code amount of the additional information can be avoided and the processing efficiency can be improved.

また、動画像復号装置では、低解像ブロック情報から低解像ブロックを復号し、得られた低解像ブロックを複数の低解像分割ブロックに分割し、各低解像分割ブロックと復号済み画像とから、低解像分割ブロックよりも画素数が多く当該低解像分割ブロックと時間的・空間的に同一位置の予測小ブロックを生成し、該予測小ブロックを統合することで予測ブロックを生成することが望ましい。この場合、低解像ブロックをさらに分割して低解像分割ブロックを得て、低解像分割ブロックと復号済み画像とから、予測小ブロックを生成することで、動画像の細かい領域の高精度な予測を行うことが可能な予測小ブロックを得て、該予測小ブロックを統合することで予測ブロックを生成することができる。即ち、少ない符号量の低解像ブロック情報を用いながら、高精度な予測を行い、同時に、処理効率を高めることができる。   In the video decoding device, the low-resolution block is decoded from the low-resolution block information, the obtained low-resolution block is divided into a plurality of low-resolution divided blocks, and each low-resolution divided block is decoded. From the image, a predicted small block having a larger number of pixels than the low resolution divided block and the same position in time and space as the low resolution divided block is generated, and the predicted block is integrated by integrating the predicted small blocks. It is desirable to generate. In this case, the low-resolution block is further divided to obtain a low-resolution divided block, and a small predicted block is generated from the low-resolution divided block and the decoded image. A prediction block can be generated by obtaining a prediction small block capable of performing accurate prediction and integrating the prediction small blocks. That is, highly accurate prediction can be performed using low resolution block information with a small code amount, and at the same time, processing efficiency can be improved.

本発明に係る動画像復号装置では、前記エントロピー復号手段は、前記符号化データをエントロピー復号することで、当該符号化データに含まれ符号化対象ブロックと予測ブロックとの誤差を表す誤差ブロック情報をさらに生成し、前記動画像復号装置は、前記エントロピー復号手段により生成された誤差ブロック情報を復号することで、誤差ブロックを生成する誤差ブロック復号手段と、前記ブロック統合手段により生成された予測ブロックと、前記誤差ブロック復号手段により生成された誤差ブロックとに基づいて、復号ブロックを生成する復号ブロック生成手段とをさらに具備することが望ましい。   In the moving picture decoding apparatus according to the present invention, the entropy decoding means performs error entropy decoding on the encoded data to obtain error block information representing an error between the encoding target block and the prediction block included in the encoded data. Further, the moving picture decoding apparatus decodes the error block information generated by the entropy decoding unit, thereby generating an error block decoding unit, and a prediction block generated by the block integration unit. It is preferable that the apparatus further comprises decoding block generation means for generating a decoded block based on the error block generated by the error block decoding means.

本発明に係る動画像符号化装置は、前記符号化対象ブロック分割手段により分割された符号化対象ブロックと、前記ブロック統合手段により生成された予測ブロックとの誤差を画素単位で求めることで、当該誤差を表す誤差ブロックを生成する誤差ブロック生成手段と、前記誤差ブロック生成手段により生成された誤差ブロックを符号化することで誤差ブロック情報を生成する誤差ブロック符号化手段と、前記誤差ブロック符号化手段により生成された誤差ブロック情報を復号することで、復号誤差ブロックを生成する誤差ブロック復号手段と、前記ブロック統合手段により生成された予測ブロックと、前記誤差ブロック復号手段により生成された復号誤差ブロックとに基づいて、復号ブロックを生成する復号ブロック生成手段とをさらに具備することが望ましい。   The moving picture encoding apparatus according to the present invention obtains an error between the encoding target block divided by the encoding target block dividing unit and the prediction block generated by the block integration unit in units of pixels, Error block generating means for generating an error block representing an error, error block encoding means for generating error block information by encoding the error block generated by the error block generating means, and the error block encoding means Decoding error block information generated by the error block decoding means for generating a decoded error block, a prediction block generated by the block integration means, and a decoding error block generated by the error block decoding means, And a decoding block generating means for generating a decoding block based on It is desirable to.

また、本発明に係る動画像符号化装置は、前記復号低解像ブロック生成手段により生成された低解像ブロック情報および前記誤差ブロック符号化手段により生成された誤差ブロック情報をエントロピー符号化するエントロピー符号化手段をさらに具備することが望ましい。   Further, the moving picture encoding apparatus according to the present invention is an entropy for entropy encoding the low resolution block information generated by the decoded low resolution block generation means and the error block information generated by the error block encoding means. It is desirable to further include encoding means.

なお、本発明は、動画像復号方法、動画像符号化方法、動画像復号プログラム、動画像符号化プログラムとして捉えることもでき、以下のように記述することができる。これらは、上記の動画像復号装置、動画像符号化装置と同様の効果を奏する。   The present invention can also be understood as a moving image decoding method, a moving image encoding method, a moving image decoding program, and a moving image encoding program, and can be described as follows. These have the same effects as the above-described video decoding device and video encoding device.

本発明に係る動画像復号方法は、復号済み画像が保持される保持手段を備え、復号対象となる符号化データを所定のブロック単位で復号し予測ブロックを生成する動画像復号装置における動画像復号方法であって、入力された復号対象の符号化データをエントロピー復号することで、前記復号ブロックよりも画素数が少なく当該復号ブロックと時間的・空間的に同一位置の低解像ブロックを符号化した低解像ブロック情報を生成するエントロピー復号工程と、前記エントロピー復号工程にて生成された低解像ブロック情報を復号し、前記復号済み画像を参照して、前記低解像ブロックを生成する低解像ブロック復号工程と、前記低解像ブロック復号工程にて生成された低解像ブロックを、所定の分割規則に基づき分割することで、複数の低解像分割ブロックを生成する低解像ブロック分割工程と、前記保持手段に保持されている復号済み画像と、前記低解像ブロック分割工程にて生成された低解像分割ブロックとから、当該低解像分割ブロックよりも画素数が多く当該低解像分割ブロックと時間的・空間的に同一位置の予測小ブロックを生成する予測小ブロック生成工程と、前記予測小ブロック生成工程にて生成された予測小ブロックを、前記分割規則に対応した所定の統合規則に基づき統合することで、予測ブロックを生成するブロック統合工程とを有することを特徴とする。   The moving picture decoding method according to the present invention includes a holding means for holding a decoded picture, and the moving picture decoding in a moving picture decoding apparatus that generates a prediction block by decoding encoded data to be decoded in a predetermined block unit. A method that encodes a low-resolution block at the same position temporally and spatially as the decoded block with fewer pixels than the decoded block by entropy decoding the input encoded data to be decoded An entropy decoding step for generating the low-resolution block information, a low-resolution block information generated by decoding the low-resolution block information generated in the entropy decoding step, and generating the low-resolution block by referring to the decoded image By dividing the low resolution block generated in the resolution block decoding step and the low resolution block decoding step based on a predetermined division rule, a plurality of low resolution blocks A low resolution block dividing step for generating a divided block, a decoded image held in the holding unit, and the low resolution divided block generated in the low resolution block dividing step, the low resolution A predicted small block generating step for generating a predicted small block having a larger number of pixels than the divided block and temporally and spatially the same position as the low resolution divided block, and the predicted small block generated in the predicted small block generating step And a block integration step of generating a prediction block by integrating the blocks based on a predetermined integration rule corresponding to the division rule.

本発明に係る動画像符号化方法は、復号済み画像が保持される保持手段を備え、符号化対象となる画像を所定のブロック単位で符号化し予測ブロックを生成する動画像符号化装置における動画像符号化方法であって、入力された符号化対象の画像を複数の符号化対象ブロックに分割する符号化ブロック分割工程と、前記符号化ブロック分割工程にて分割された符号化対象ブロックよりも画素数が少なく当該符号化対象ブロックと時間的・空間的に同一位置の低解像ブロックを符号化することで低解像ブロック情報を生成し、当該低解像ブロック情報を復号し、前記復号済み画像を参照して、復号低解像ブロックを生成する復号低解像ブロック生成工程と、前記復号低解像ブロック生成工程にて生成された復号低解像ブロックを、所定の分割規則に基づき分割することで、複数の低解像分割ブロックを生成する低解像ブロック分割工程と、前記保持手段に保持されている復号済み画像と、前記低解像ブロック分割工程にて生成された低解像分割ブロックとから、当該低解像分割ブロックよりも画素数が多く当該低解像分割ブロックと時間的・空間的に同一位置の予測小ブロックを生成する予測小ブロック生成工程と、前記予測小ブロック生成工程にて生成された予測小ブロックを、前記分割規則に対応した所定の統合規則に基づき統合することで、予測ブロックを生成するブロック統合工程とを有することを特徴とする。   A moving image encoding method according to the present invention includes a holding unit that holds a decoded image, and a moving image in a moving image encoding apparatus that generates a prediction block by encoding an image to be encoded in a predetermined block unit. An encoding method, which is an encoding block dividing step for dividing an input encoding target image into a plurality of encoding target blocks, and pixels than the encoding target block divided in the encoding block dividing step A low-resolution block information is generated by encoding a low-resolution block in the same position temporally and spatially as the encoding target block with a small number, and the low-resolution block information is decoded and the decoded A decoded low-resolution block generating step for generating a decoded low-resolution block with reference to an image, and the decoded low-resolution block generated in the decoded low-resolution block generating step are divided into predetermined division rules. Generated in the low resolution block dividing step for generating a plurality of low resolution divided blocks, the decoded image held in the holding means, and the low resolution block dividing step. A predicted small block generating step for generating a predicted small block having a larger number of pixels than the low resolution divided block and temporally and spatially the same position as the low resolution divided block from the low resolution divided block; And a block integration step of generating a prediction block by integrating the prediction small block generated in the prediction small block generation step based on a predetermined integration rule corresponding to the division rule.

本発明に係る動画像復号プログラムは、復号済み画像が保持される保持手段を備え、復号対象となる符号化データを所定のブロック単位で復号し予測ブロックを生成する動画像復号装置、に設けたコンピュータを、入力された復号対象の符号化データをエントロピー復号することで、前記復号ブロックよりも画素数が少なく当該復号ブロックと時間的・空間的に同一位置の低解像ブロックを符号化した低解像ブロック情報を生成するエントロピー復号手段と、前記エントロピー復号手段により生成された低解像ブロック情報を復号し、前記復号済み画像を参照して、前記低解像ブロックを生成する低解像ブロック復号手段と、前記低解像ブロック復号手段により生成された低解像ブロックを、所定の分割規則に基づき分割することで、複数の低解像分割ブロックを生成する低解像ブロック分割手段と、前記保持手段に保持されている復号済み画像と、前記低解像ブロック分割手段により生成された低解像分割ブロックとから、当該低解像分割ブロックよりも画素数が多く当該低解像分割ブロックと時間的・空間的に同一位置の予測小ブロックを生成する予測小ブロック生成手段と、前記予測小ブロック生成手段により生成された予測小ブロックを、前記分割規則に対応した所定の統合規則に基づき統合することで、予測ブロックを生成するブロック統合手段、として機能させることを特徴とする。   A moving picture decoding program according to the present invention is provided in a moving picture decoding apparatus that includes a holding unit that holds a decoded image and that decodes encoded data to be decoded in a predetermined block unit to generate a prediction block. The computer encodes a low-resolution block in which the number of pixels is smaller than that of the decoded block and the same position in time and space as the decoded block by entropy decoding the input encoded data to be decoded. Entropy decoding means for generating resolution block information, and low resolution block for decoding the low resolution block information generated by the entropy decoding means and generating the low resolution block with reference to the decoded image By dividing the low resolution block generated by the decoding means and the low resolution block decoding means based on a predetermined division rule, a plurality of From the low resolution block dividing means for generating the resolution divided block, the decoded image held in the holding means, and the low resolution divided block generated by the low resolution block dividing means, the low resolution Predicted small block generating means for generating a predicted small block having a larger number of pixels than the image divided block and temporally and spatially the same position as the low resolution divided block, and the predicted small block generated by the predicted small block generating means The blocks are integrated based on a predetermined integration rule corresponding to the division rule to function as a block integration unit that generates a prediction block.

本発明に係る動画像符号化プログラムは、復号済み画像が保持される保持手段を備え、符号化対象となる画像を所定のブロック単位で符号化し予測ブロックを生成する動画像符号化装置、に設けたコンピュータを、入力された符号化対象の画像を複数の符号化対象ブロックに分割する符号化ブロック分割手段と、前記符号化対象ブロック分割手段により分割された符号化対象ブロックよりも画素数が少なく当該符号化対象ブロックと時間的・空間的に同一位置の低解像ブロックを符号化することで、低解像ブロック情報を生成し、当該低解像ブロック情報を復号し、前記復号済み画像を参照して、復号低解像ブロックを生成する復号低解像ブロック生成手段と、前記復号低解像ブロック生成手段により生成された復号低解像ブロックを、所定の分割規則に基づき分割することで、複数の低解像分割ブロックを生成する低解像ブロック分割手段と、前記保持手段に保持されている復号済み画像と、前記低解像ブロック分割手段により生成された低解像分割ブロックとから、当該低解像分割ブロックよりも画素数が多く当該低解像分割ブロックと時間的・空間的に同一位置の予測小ブロックを生成する予測小ブロック生成手段と、前記予測小ブロック生成手段により生成された予測小ブロックを、前記分割規則に対応した所定の統合規則に基づき統合することで、予測ブロックを生成するブロック統合手段、として機能させることを特徴とする。   A moving picture coding program according to the present invention is provided in a moving picture coding apparatus that includes a holding unit that holds a decoded image and generates a prediction block by coding a picture to be coded in a predetermined block unit. A coding block dividing unit that divides an input encoding target image into a plurality of encoding target blocks, and a smaller number of pixels than the encoding target block divided by the encoding target block dividing unit. By encoding a low-resolution block at the same position in time and space as the current block to be encoded, low-resolution block information is generated, the low-resolution block information is decoded, and the decoded image is With reference to a decoded low-resolution block generating means for generating a decoded low-resolution block, and a decoded low-resolution block generated by the decoded low-resolution block generating means By dividing based on the division rule, a low resolution block dividing unit that generates a plurality of low resolution divided blocks, a decoded image held in the holding unit, and a low resolution block dividing unit A predicted small block generating means for generating a predicted small block having the same number of pixels as the low resolution divided block temporally and spatially from the low resolution divided block; The prediction small block generated by the prediction small block generation unit is integrated based on a predetermined integration rule corresponding to the division rule to function as a block integration unit that generates a prediction block.

本発明によれば、付加情報の符号量増大が抑制されるので、符号化処理や復号処理における処理効率を高めることができる。   According to the present invention, since the increase in the code amount of the additional information is suppressed, the processing efficiency in the encoding process and the decoding process can be increased.

第1実施形態における動画像符号化装置の構成を示す図である。It is a figure which shows the structure of the moving image encoder in 1st Embodiment. 第1実施形態における動画像復号装置の構成を示す図である。It is a figure which shows the structure of the moving image decoding apparatus in 1st Embodiment. ブロックマッチングを説明するための図である。It is a figure for demonstrating block matching. ブロック縮小化処理を説明するための図である。It is a figure for demonstrating a block reduction process. ブロック拡大処理を説明するための第1の図である。It is a 1st figure for demonstrating a block expansion process. ブロック拡大処理を説明するための第2の図である。It is a 2nd figure for demonstrating a block expansion process. 拡大ブロックの4×4分割を説明するための図である。It is a figure for demonstrating 4x4 division | segmentation of an expansion block. 拡大ブロックの2×2分割を説明するための図である。It is a figure for demonstrating 2x2 division | segmentation of an expansion block. 4×4小ブロック動き推定処理を説明するための図である。It is a figure for demonstrating 4x4 small block motion estimation processing. 2×2小ブロック動き推定処理を説明するための図である。It is a figure for demonstrating a 2 * 2 small block motion estimation process. ブロック符号化処理を説明するためのフローチャートである。It is a flowchart for demonstrating a block encoding process. 低解像ブロック符号化・復号処理を説明するためのフローチャートである。It is a flowchart for demonstrating a low-resolution block encoding and decoding process. 小ブロック動き推定処理を説明するためのフローチャートである。It is a flowchart for demonstrating a small block motion estimation process. ブロック復号処理を説明するためのフローチャートである。It is a flowchart for demonstrating a block decoding process. 低解像ブロック復号処理を説明するためのフローチャートである。It is a flowchart for demonstrating a low-resolution block decoding process. 動画像符号化処理又は動画像復号処理をコンピュータシステムにより実現するためのプログラムを格納するデータ記憶媒体について説明する図である。It is a figure explaining the data storage medium which stores the program for implement | achieving a moving image encoding process or a moving image decoding process with a computer system. 第1実施形態の動画像符号化プログラムの構成を示す図である。It is a figure which shows the structure of the moving image encoding program of 1st Embodiment. 第1実施形態の動画像復号プログラムの構成を示す図である。It is a figure which shows the structure of the moving image decoding program of 1st Embodiment. ブロック分割を伴うブロックマッチングを説明するための図である。It is a figure for demonstrating block matching with block division. ブロックサイズに関する第4の変形態様を説明するための図である。It is a figure for demonstrating the 4th deformation | transformation aspect regarding block size. 第5変形態様におけるブロック拡大処理を説明するための図である。It is a figure for demonstrating the block expansion process in a 5th deformation | transformation aspect. 第5変形態様における動画像符号化装置の構成を示す図である。It is a figure which shows the structure of the moving image encoder in the 5th deformation | transformation aspect. 第5変形態様における動画像復号装置の構成を示す図である。It is a figure which shows the structure of the moving image decoding apparatus in a 5th deformation | transformation aspect. 第6変形態様におけるブロック縮小化処理を説明するための図である。It is a figure for demonstrating the block reduction process in a 6th deformation | transformation aspect. 第8変形態様における動画像符号化装置の構成を示す図である。It is a figure which shows the structure of the moving image encoder in the 8th deformation | transformation aspect. 第8変形態様における動画像復号装置の構成を示す図である。It is a figure which shows the structure of the moving image decoding apparatus in an 8th deformation | transformation aspect. 第8変形態様におけるブロック拡大処理を説明するための図である。It is a figure for demonstrating the block expansion process in an 8th deformation | transformation aspect. 第2実施形態における動画像復号装置を説明する図である。It is a figure explaining the moving image decoding apparatus in 2nd Embodiment. 第2実施形態における動画像符号化装置を説明する図である。It is a figure explaining the moving image encoder in 2nd Embodiment. 第2実施形態におけるブロック復号処理フローを示した図である。It is the figure which showed the block decoding processing flow in 2nd Embodiment. 第2実施形態における低解像ブロック復号処理フローを示した図である。It is the figure which showed the low-resolution block decoding processing flow in 2nd Embodiment. 第2実施形態における小ブロック予測処理フローを示した図である。It is the figure which showed the small block prediction process flow in 2nd Embodiment. 第2実施形態におけるブロック符号化処理ブローを示した図である。It is the figure which showed the block encoding process blow in 2nd Embodiment. 第2実施形態における低解像ブロック符号化・復号処理フローを示した図である。It is the figure which showed the low-resolution block encoding / decoding processing flow in 2nd Embodiment. 分割ブロック予測処理を説明するための図である。It is a figure for demonstrating a division | segmentation block prediction process. ブロック画素配置を説明するための図である。It is a figure for demonstrating block pixel arrangement | positioning. 第2実施形態の動画像復号プログラムの構成図である。It is a block diagram of the moving image decoding program of 2nd Embodiment. 第2実施形態の動画像符号化プログラムの構成図である。It is a block diagram of the moving image encoding program of 2nd Embodiment.

[第1実施形態]
以下、添付図面を参照しながら、本発明の第1実施形態について説明する。図1は、本発明に係る予測符号化を実現可能な動画像符号化装置(以下、単に「符号化装置100」と記す。)の構成を示す図である。同様に、図2は、本発明に係る予測復号を実現する動画像復号装置(以下、単に「復号装置200」と記す。)の構成を示す図である。これら各装置の有する構成要素は、バスを介して、相互に信号の入出力が可能なように接続されている。また、両図において、同一の機能を有する構成要素には同一の符号を付す。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a diagram showing a configuration of a moving picture encoding apparatus (hereinafter simply referred to as “encoding apparatus 100”) capable of realizing predictive encoding according to the present invention. Similarly, FIG. 2 is a diagram showing a configuration of a video decoding device (hereinafter simply referred to as “decoding device 200”) that realizes predictive decoding according to the present invention. The components of these devices are connected to each other via a bus so that signals can be input and output. Moreover, in both figures, the same code | symbol is attached | subjected to the component which has the same function.

まず、図1を参照して、符号化装置の構成を説明する。符号化装置100は、符号化ブロック分割部251により、入力フレーム201を、16×16画素の符号化対象ブロック(予測対象ブロック)202に分割する。そして、分割して得られた複数の符号化対象ブロック(予測対象ブロック)202をラスタスキャン順に予測・符号化する装置である。   First, the configuration of the encoding device will be described with reference to FIG. The encoding apparatus 100 divides the input frame 201 into 16 × 16 pixel encoding target blocks (prediction target blocks) 202 by the encoding block dividing unit 251. The apparatus is a device that predicts and encodes a plurality of encoding target blocks (prediction target blocks) 202 obtained by the division in the raster scan order.

ここで、予測対象ブロックとは、入力フレーム201をブロック分割することにより得られるブロックのうち、次の予測対象となるブロックである。符号化対象ブロックとは、入力フレーム201をブロック分割することにより得られるブロックのうち、次の符号化対象となるブロックである。本実施の形態では、予測処理の対象ブロックと符号化処理の対象ブロックとを同サイズとするために、予測対象ブロックと符号化対象ブロックは一致する。また、予測ブロックとは、過去に復号した画素から予測処理により生成されるブロックである。   Here, the prediction target block is a block to be a next prediction target among blocks obtained by dividing the input frame 201 into blocks. The encoding target block is a block to be encoded next among blocks obtained by dividing the input frame 201 into blocks. In the present embodiment, the prediction target block and the encoding target block match in order to make the prediction processing target block and the encoding processing target block the same size. Moreover, a prediction block is a block produced | generated by the prediction process from the pixel decoded in the past.

符号化対象ブロック(予測対象ブロック)202は、まず復号低解像ブロック生成部252に入力される。復号低解像ブロック生成部252は、予測対象ブロック202よりも画素数の少ない復号低解像ブロック110、及び、低解像ブロック情報102を生成する。動き推定部211には、予測対象ブロック202がラスタスキャン順に入力される。動き推定部211は、入力された予測対象ブロック202と、フレームメモリ153に保存されている過去の復号フレームから抽出される複数の候補予測ブロック203との間でブロックマッチングを実行し、1本の低解像ブロック予測用動きベクトル104を検出する。   The encoding target block (prediction target block) 202 is first input to the decoded low-resolution block generation unit 252. The decoded low-resolution block generation unit 252 generates a decoded low-resolution block 110 and low-resolution block information 102 that have fewer pixels than the prediction target block 202. The prediction target block 202 is input to the motion estimation unit 211 in the order of raster scanning. The motion estimation unit 211 performs block matching between the input prediction target block 202 and a plurality of candidate prediction blocks 203 extracted from past decoded frames stored in the frame memory 153, A low-resolution block prediction motion vector 104 is detected.

ここで、図3を参照し、ブロックマッチングを説明する。ブロックマッチングとは、予測対象ブロックの動きベクトルを検出する技術である。ブロックマッチングでは、動き推定部211は、過去に復号された復号フレーム520上に探索範囲522を設定し、探索範囲内を探索する。次に、予測対象ブロック202との差分評価値が最小となるブロック105の位置を検出する。そして、復号フレーム上において予測対象ブロック202と空間的に同一位置にある仮想ブロック521から、検出されたブロック105までの移動量を、動きベクトル104とする。なお、差分評価値としては、検出対象のブロックと符号化対象ブロックとの間で対応する画素の差分絶対値和や、動きベクトルの符号量の換算値を当該差分絶対値和に加算した値などを適用することができる。   Here, block matching will be described with reference to FIG. Block matching is a technique for detecting a motion vector of a prediction target block. In block matching, the motion estimation unit 211 sets a search range 522 on the decoded frame 520 decoded in the past, and searches the search range. Next, the position of the block 105 at which the difference evaluation value from the prediction target block 202 is minimum is detected. The amount of movement from the virtual block 521 that is spatially the same position as the prediction target block 202 on the decoded frame to the detected block 105 is defined as a motion vector 104. In addition, as the difference evaluation value, a value obtained by adding a difference absolute value sum of corresponding pixels between the detection target block and the encoding target block, a converted value of a motion vector code amount, or the like Can be applied.

動き補償部133は、低解像ブロック予測用動きベクトル104に対応する低解像予測ブロック106を生成する。具体的には、低解像ブロック予測用動きベクトル104に基づいて、フレームメモリ153に保存されている過去の復号フレーム520から、8×8画素のブロックに対応する画素を取得し、これを低解像予測ブロック106とする。図4に、16×16画素サイズのブロック10と8×8画素サイズの低解像ブロック11との対応関係を示す。図4に示すように、8×8画素サイズの低解像ブロック11は、16×16画素サイズのブロック10から、縦横1ライン間隔で画素を抽出したブロックである。   The motion compensation unit 133 generates a low-resolution prediction block 106 corresponding to the low-resolution block prediction motion vector 104. Specifically, based on the low-resolution block prediction motion vector 104, a pixel corresponding to a block of 8 × 8 pixels is acquired from a past decoded frame 520 stored in the frame memory 153, and this is reduced. The resolution prediction block 106 is assumed. FIG. 4 shows the correspondence between the block 10 having a 16 × 16 pixel size and the low resolution block 11 having an 8 × 8 pixel size. As shown in FIG. 4, the low-resolution block 11 having an 8 × 8 pixel size is a block obtained by extracting pixels from the block 10 having a 16 × 16 pixel size at intervals of one line in the vertical and horizontal directions.

ここで、低解像ブロックを画素抽出によって生成することは、後述する小ブロック予測処理の予測性能を高める効果がある。つまり、低解像ブロックの各画素が高周波成分を保持しているため、符号化装置100は、動き検出の際に、細かい特徴を捉え易くなる。その結果、予測性能が向上する。   Here, generating a low-resolution block by pixel extraction has an effect of improving the prediction performance of the small block prediction process described later. That is, since each pixel of the low-resolution block holds a high-frequency component, the encoding device 100 can easily capture fine features when performing motion detection. As a result, the prediction performance is improved.

符号化対象ブロック(予測対象ブロック)202に関しても、縮小化処理部134により、図4に示した規則に従って、符号化対象ブロック202よりも画素数の少ない低解像符号化対象ブロック(低解像予測対象ブロック)205に変換される。減算部213は、低解像符号化対象ブロック(低解像予測対象ブロック)205と低解像予測ブロック106とにおける各画素を減算し、低解像誤差ブロック206を生成する。   Also for the encoding target block (prediction target block) 202, the reduction processing unit 134 performs the low resolution encoding target block (low resolution) with a smaller number of pixels than the encoding target block 202 in accordance with the rules shown in FIG. Prediction target block) 205. The subtracting unit 213 subtracts each pixel in the low-resolution encoding target block (low-resolution prediction target block) 205 and the low-resolution prediction block 106 to generate a low-resolution error block 206.

変換部214は、低解像誤差ブロック206を4個の4×4ブロックに分割した後、これら各4×4ブロックに対して、4×4離散コサイン変換(DCT:Discrete Cosine Transform)を施す。そして、それぞれ16個の低解像誤差ブロックに関する変換係数207を生成する。量子化部215は、変換係数207を量子化し、低解像誤差ブロックの量子化変換係数107を生成する。統合部216は、動きベクトル104と低解像誤差ブロックの量子化変換係数107とを纏め、低解像ブロック情報102として、エントロピー符号化部255に出力する。   The conversion unit 214 divides the low-resolution error block 206 into four 4 × 4 blocks, and then performs 4 × 4 discrete cosine transform (DCT) on each 4 × 4 block. Then, transform coefficients 207 for 16 low-resolution error blocks are generated. The quantization unit 215 quantizes the transform coefficient 207 to generate the quantized transform coefficient 107 of the low resolution error block. The integrating unit 216 collects the motion vector 104 and the quantized transform coefficient 107 of the low resolution error block, and outputs the resultant to the entropy encoding unit 255 as the low resolution block information 102.

逆量子化部136は、量子化変換係数107を逆量子化し、低解像誤差ブロックの復号量子化変換係数108を生成する。逆変換部137は、復号量子化変換係数108を逆DCT変換し、復号低解像誤差ブロック109を生成する。加算部217は、低解像予測ブロック106と復号低解像誤差ブロック109とにおける各画素を加算し、復号低解像ブロック110を生成する。   The inverse quantization unit 136 inversely quantizes the quantized transform coefficient 107 to generate a decoded quantized transform coefficient 108 of the low resolution error block. The inverse transform unit 137 performs inverse DCT transform on the decoded quantized transform coefficient 108 to generate a decoded low resolution error block 109. The adder 217 adds the pixels in the low resolution prediction block 106 and the decoded low resolution error block 109 to generate a decoded low resolution block 110.

拡大ブロック生成部154は、復号低解像ブロック110を、図5に示す拡大ブロック127に拡大する。すなわち、拡大ブロック生成部154は、フレームメモリ153に保存されている現フレームの復号済み画素から、現在予測対象となっているブロック位置の上辺、及び左辺に隣接するブロックの復号画素を、境界復号画素群123として取得し、図5に示すように、復号低解像ブロック110の周囲に配置する。   The enlarged block generation unit 154 expands the decoded low resolution block 110 to the enlarged block 127 shown in FIG. That is, the enlarged block generation unit 154 performs boundary decoding on the decoded pixels of the block adjacent to the upper side and the left side of the block position currently being predicted from the decoded pixels of the current frame stored in the frame memory 153. Obtained as the pixel group 123 and arranged around the decoded low-resolution block 110 as shown in FIG.

続いて、拡大ブロック生成部154は、図6に示す内挿計算処理により、黒四角で示す画素の内挿値を算出し、拡大ブロック127を生成する。この処理により、8×8ブロックサイズの復号低解像ブロック110は、後述の予測処理によって生成される予測ブロックと同じブロックサイズ(16×16)の拡大ブロック127に拡張される。なお、予測対象のブロックが現フレームの端のブロックである場合には、隣接するブロックが存在しないため、拡大ブロック生成部154は、境界復号画素群123を取得することができない。この場合には、復号低解像ブロック110の境界画素にて、これを代用する。   Subsequently, the enlarged block generation unit 154 calculates the interpolation value of the pixel indicated by the black square by the interpolation calculation process shown in FIG. With this process, the decoded low-resolution block 110 having an 8 × 8 block size is expanded to an expanded block 127 having the same block size (16 × 16) as a prediction block generated by a prediction process described later. Note that when the prediction target block is the end block of the current frame, there is no adjacent block, and thus the enlarged block generation unit 154 cannot acquire the boundary decoded pixel group 123. In this case, the boundary pixel of the decoded low resolution block 110 is used instead.

ブロック分割部162は、図7のブロック127aに示すように、拡大ブロック127を、16個の4×4小ブロック112aに分割する。更に、ブロック分割部162は、図8のブロック127bに示すように、拡大ブロック127を、64個の2×2小ブロック112bに分割する。これらの分割された各小ブロックは、1個の4×4小ブロック112aと、これと空間的に同一位置にある4個の2×2小ブロック112bとを1組として、順に、小ブロック予測部152に入力される。   The block division unit 162 divides the enlarged block 127 into 16 4 × 4 small blocks 112a as shown in a block 127a in FIG. Further, the block dividing unit 162 divides the enlarged block 127 into 64 2 × 2 small blocks 112b as shown in a block 127b in FIG. Each of these divided small blocks is composed of one 4 × 4 small block 112a and four 2 × 2 small blocks 112b that are spatially at the same position as a set, and the small block prediction is sequentially performed. Input to the unit 152.

小ブロック予測部152は、ブロックマッチングにより小ブロック112の動きベクトル115を検出する小ブロック動き推定部163と、検出された小ブロック動きベクトル115を用いて小ブロック112の予測小ブロック116を生成する小ブロック動き補償部164とから構成される。本実施の形態では、小ブロック予測部152は、これらの機能を用いて、各々の2×2小ブロック112bの予測小ブロック116bを生成する。   The small block prediction unit 152 generates a prediction small block 116 of the small block 112 using the small block motion estimation unit 163 that detects the motion vector 115 of the small block 112 by block matching, and the detected small block motion vector 115. And a small block motion compensation unit 164. In the present embodiment, the small block prediction unit 152 generates a predicted small block 116b of each 2 × 2 small block 112b using these functions.

より具体的には、
(1)小ブロック動き推定部163は、4×4小ブロックの動きベクトル検出処理を実行する。以下、16個の4×4小ブロック112aのうち、特に図9に示す左上端のブロック112a1に着目し、小ブロック予測部152の機能を説明するが、他の15個の4×4小ブロックについても、空間的なブロック位置が異なるだけで、同様の手順によって処理される。図9は、16分割された4×4小ブロックのうち、左上端に位置する4×4小ブロック112a1の動きベクトル115a1の検出手法を説明するための図である。小ブロック動き推定部163は、4×4小ブロック112aが小ブロック動き推定部163に入力されると、過去に復号されたフレーム520(フレームメモリ153に保存)上に探索範囲181a1を設定する。続いて、所与の規則に従って探索範囲内を探索し、4×4小ブロック112a1との差分評価値(小ブロック内における画素の差分絶対値の総和)が最小となる4×4小ブロック116a1の位置を検出し、これを4×4予測小ブロック116a1とする。そして、小ブロック動き推定部163は、4×4小ブロック112a1と空間的に同一位置にある復号フレーム520上の4×4ブロック117a1と、検出された4×4予測小ブロック116a1との間における移動量を、4×4小ブロック112a1の動きベクトル115a1とする。
More specifically,
(1) The small block motion estimation unit 163 performs a motion vector detection process of a 4 × 4 small block. Hereinafter, among the 16 4 × 4 small blocks 112a, the function of the small block predicting unit 152 will be described by focusing on the upper left block 112a1 shown in FIG. 9, but the other 15 4 × 4 small blocks are described. Are processed according to the same procedure except that the spatial block positions are different. FIG. 9 is a diagram for explaining a detection method of the motion vector 115a1 of the 4 × 4 small block 112a1 located at the upper left corner of the 16 divided 4 × 4 small blocks. When the 4 × 4 small block 112a is input to the small block motion estimation unit 163, the small block motion estimation unit 163 sets the search range 181a1 on the previously decoded frame 520 (stored in the frame memory 153). Subsequently, the search range is searched according to a given rule, and the 4 × 4 small block 116a1 having the smallest difference evaluation value (sum of the absolute difference values of pixels in the small block) with the 4 × 4 small block 112a1 is obtained. The position is detected, and this is set as a 4 × 4 prediction small block 116a1. Then, the small block motion estimator 163 is between the 4 × 4 block 117a1 on the decoded frame 520 that is spatially the same position as the 4 × 4 small block 112a1 and the detected 4 × 4 predicted small block 116a1. The movement amount is set as a motion vector 115a1 of the 4 × 4 small block 112a1.

なお、探索範囲181a1は、予め定めたサイズとし、低解像予測ブロックの生成に用いた符号化済みの低解像ブロック予測用動きベクトル104を中心とした位置に設定するものとする。これは、検出される4×4小ブロックの動きベクトルが低解像ブロック予測用動きベクトル104に近い可能性が高いことを考慮してのものであり、探索精度を高める効果や探索範囲を小さく設定できる効果がある。したがって、同一の符号化対象ブロックに属する16個の4×4小ブロックの探索範囲の中心点に関しても同様に、低解像ブロック予測用動きベクトル104の示す位置に設定される。   The search range 181a1 has a predetermined size and is set at a position centered on the encoded low-resolution block prediction motion vector 104 used for generating the low-resolution prediction block. This is because the motion vector of the detected 4 × 4 small block is likely to be close to the low-resolution block prediction motion vector 104, and the effect of improving the search accuracy and the search range are reduced. There is an effect that can be set. Accordingly, the center point of the search range of 16 4 × 4 small blocks belonging to the same encoding target block is similarly set to the position indicated by the low resolution block prediction motion vector 104.

(2)小ブロック動き推定部163は、(1)にて動きベクトルが検出された4×4小ブロック112a1と同一の組に属する4個の2×2小ブロックの動きベクトルを検出する。以下、4個の2×2小ブロックのうち、特に、図10に示す左上端のブロック112b1に着目して説明する。図10は、64分割された2×2小ブロックのうち、左上端に位置する2×2小ブロック112b1の動きベクトル115b1の検出手法を説明するための図である。小ブロック動き推定部163は、2×2小ブロック112b1が小ブロック動き推定部163に入力されると、過去に復号されたフレーム520(フレームメモリ153に保存)上に探索範囲181b1を設定する。続いて、所定の規則に従って探索範囲内を探索し、2×2小ブロック112b1との差分評価値(小ブロック内における画素の差分絶対値の総和)が最小となる2×2小ブロック116b1の位置を検出し、これを2×2予測小ブロック116b1とする。そして、小ブロック動き推定部163は、2×2予測小ブロック112b1と空間的に同一位置にある復号フレーム520上の2×2ブロック117b1と、検出された2×2小ブロック116b1との間の移動量を、2×2小ブロック112b1の動きベクトル115b1とする。更に、残りの3個の2×2小ブロックについても、同様の方法で2×2小ブロックの動きベクトルを検出する。   (2) The small block motion estimation unit 163 detects the motion vectors of four 2 × 2 small blocks belonging to the same set as the 4 × 4 small block 112a1 from which the motion vector is detected in (1). In the following, description will be given focusing on the block 112b1 at the upper left end shown in FIG. 10 among the four 2 × 2 small blocks. FIG. 10 is a diagram for explaining a detection method of the motion vector 115b1 of the 2 × 2 small block 112b1 located at the upper left corner of the 64 divided 2 × 2 small blocks. When the 2 × 2 small block 112b1 is input to the small block motion estimation unit 163, the small block motion estimation unit 163 sets the search range 181b1 on the previously decoded frame 520 (stored in the frame memory 153). Subsequently, the search range is searched according to a predetermined rule, and the position of the 2 × 2 small block 116b1 at which the difference evaluation value from the 2 × 2 small block 112b1 (the sum of absolute difference values of pixels in the small block) is minimized. Is detected and set as a 2 × 2 prediction small block 116b1. Then, the small block motion estimator 163 includes a 2 × 2 block 117b1 on the decoded frame 520 that is spatially located at the same position as the 2 × 2 predicted small block 112b1, and the detected 2 × 2 small block 116b1. The movement amount is set as a motion vector 115b1 of the 2 × 2 small block 112b1. Further, with respect to the remaining three 2 × 2 small blocks, motion vectors of the 2 × 2 small blocks are detected in the same manner.

なお、探索範囲181b1は、予め定めたサイズとし、2×2小ブロック112b1と同じ組に属する4×4小ブロック112a1の動きベクトル115a1を中心とした位置に設定する。これは、検出される2×2小ブロックの動きベクトルが空間的に同一位置にあること、すなわち、当該動きベクトルが、同じ組に属する4×4小ブロックの動きベクトルに近い可能性が高いこと、を考慮したものであり、探索範囲を小さく設定できる効果がある。したがって、小ブロック動き推定部163は、同一の組に属する4個の2×2小ブロックの探索範囲の中心点も同様に、空間的に同一位置にある4×4小ブロックの動きベクトル115a1により示される位置に設定する。   The search range 181b1 has a predetermined size and is set at a position centered on the motion vector 115a1 of the 4 × 4 small block 112a1 belonging to the same set as the 2 × 2 small block 112b1. This is because the motion vectors of the detected 2 × 2 small blocks are spatially at the same position, that is, the motion vectors are likely to be close to the motion vectors of the 4 × 4 small blocks belonging to the same set. Therefore, the search range can be set small. Therefore, the small block motion estimation unit 163 similarly uses the motion vectors 115a1 of the 4 × 4 small blocks spatially located at the center point of the search range of four 2 × 2 small blocks belonging to the same set. Set to the indicated position.

(3)検出された4本の2×2小ブロックの動きベクトル115bは、小ブロック動き補償部164に入力される。小ブロック動き補償部164は、復号フレーム520(フレームメモリ153に保存)から、2×2小ブロックの動きベクトル115bに対応する予測小ブロック116bを取得する。このような小ブロック予測部152の処理は、復号装置200が符号化データから生成可能なデータのみを用いて実行されるため、復号装置200においても同様の処理結果を得ることができる。つまり、復号装置200でも、符号化装置100と同じ動きベクトルを検出することができる。したがって、各2×2小ブロックの動きベクトルは、符号化する必要がない。   (3) The detected four 2 × 2 small block motion vectors 115 b are input to the small block motion compensation unit 164. The small block motion compensation unit 164 obtains a predicted small block 116b corresponding to the motion vector 115b of the 2 × 2 small block from the decoded frame 520 (stored in the frame memory 153). Such processing of the small block predicting unit 152 is executed using only data that can be generated from the encoded data by the decoding apparatus 200, and therefore, the decoding apparatus 200 can obtain the same processing result. That is, the decoding apparatus 200 can detect the same motion vector as that of the encoding apparatus 100. Therefore, it is not necessary to encode the motion vectors of each 2 × 2 small block.

ブロック統合部155は、64個の2×2予測小ブロックのそれぞれを、ブロック分割部162における分割規則に基づいて、分割前の元の位置に並べることにより統合し、これにより16×16画素の予測ブロック118を生成する。減算部253は、符号化対象ブロック202と予測ブロック118とにおける各画素の差分値を計算して誤差ブロック208を生成する。   The block integration unit 155 integrates each of the 64 2 × 2 prediction small blocks by arranging them in the original positions before the division based on the division rule in the block division unit 162, thereby integrating 16 × 16 pixel. A prediction block 118 is generated. The subtraction unit 253 generates a difference block 208 by calculating a difference value of each pixel between the encoding target block 202 and the prediction block 118.

誤差ブロック符号化部254は、誤差ブロック208を符号化して誤差ブロック情報119を生成し、エントロピー符号化部255に出力する。図1に示したように、誤差ブロック符号化部254は、変換部218と量子化部219とをその構成要素とする。変換部218は、誤差ブロック208を、4×4単位で4×4離散コサイン変換(DCT)し、16個の4×4ブロックのそれぞれについて、16個の変換係数209を生成する。量子化部219は、各変換係数209を量子化し、誤差ブロック情報(例えば、量子化変換係数)119を生成する。   The error block encoder 254 encodes the error block 208 to generate error block information 119 and outputs the error block information 119 to the entropy encoder 255. As shown in FIG. 1, the error block encoding unit 254 includes a transform unit 218 and a quantization unit 219 as its components. The transform unit 218 performs 4 × 4 discrete cosine transform (DCT) on the error block 208 in units of 4 × 4, and generates 16 transform coefficients 209 for each of the 16 4 × 4 blocks. The quantization unit 219 quantizes each transform coefficient 209 to generate error block information (for example, quantized transform coefficient) 119.

誤差ブロック復号部156は、誤差ブロック情報119を復号して復号誤差ブロック121を生成する。図1に示したように、誤差ブロック復号部156は、逆量子化部140と逆変換部141とをその構成要素とする。逆量子化部140は、16個の4×4ブロックそれぞれについて、16個の量子化変換係数119を逆量子化することにより、復号量子化変換係数120を生成する。逆変換部141は、各4×4ブロックの復号量子化変換係数120を逆DCT変換することで、復号誤差ブロック121を生成する。   The error block decoding unit 156 generates the decoded error block 121 by decoding the error block information 119. As illustrated in FIG. 1, the error block decoding unit 156 includes the inverse quantization unit 140 and the inverse transform unit 141 as its components. The inverse quantization unit 140 generates the decoded quantized transform coefficient 120 by inversely quantizing the 16 quantized transform coefficients 119 for each of the 16 4 × 4 blocks. The inverse transform unit 141 generates a decoded error block 121 by performing inverse DCT transform on the decoded quantization transform coefficient 120 of each 4 × 4 block.

加算部157は、予測ブロック118と復号誤差ブロック121とにおける各画素を加算し、復号ブロック122を生成する。生成された復号ブロック122はフレームメモリ153に保存され、その結果、復号済み画像は更新される。エントロピー符号化部255は、低解像ブロック情報102と誤差ブロック情報119とをエントロピー符号化することにより、符号化データ101に多重化する。   The adder 157 adds the pixels in the prediction block 118 and the decoding error block 121 to generate a decoding block 122. The generated decoded block 122 is stored in the frame memory 153, and as a result, the decoded image is updated. The entropy encoding unit 255 multiplexes the low resolution block information 102 and the error block information 119 into the encoded data 101 by entropy encoding.

次に、符号化装置100の動作を説明する。併せて、本発明に係る動画像符号化方法を構成する各ステップについて説明する。図11は、予測符号化の対象ブロックの符号化処理を説明するためのフローチャートである。なお、図11のブロック符号化処理において、後述するブロック復号処理とその内容及び処理結果が共通するステップの符号を図中括弧内に示す。   Next, the operation of the encoding apparatus 100 will be described. In addition, each step constituting the moving picture coding method according to the present invention will be described. FIG. 11 is a flowchart for explaining an encoding process of a target block for predictive encoding. In the block encoding process of FIG. 11, reference numerals of steps having the same contents and processing results as the block decoding process described later are shown in parentheses in the figure.

まず、符号化ブロック分割部251により入力フレーム201が分割されると、符号化装置100は、符号化対象ブロック202を得る。S1では、復号低解像ブロック生成部252が、図12に示す低解像ブロック符号化・復号処理を実行する。   First, when the input frame 201 is divided by the coding block division unit 251, the coding apparatus 100 obtains a coding target block 202. In S1, the decoded low-resolution block generation unit 252 performs the low-resolution block encoding / decoding process illustrated in FIG.

図12のS101では、次の符号化対象ブロック(予測対象ブロック)が入力される。S102では、動き推定部211が、予測対象ブロックと、フレームメモリに保存されている過去に復号された復号フレームとから、低解像ブロック予測用動きベクトルを検出する。なお、動きベクトルの検出手法は、復号低解像ブロック生成部252の構成説明において既述のため、省略する。   In S101 of FIG. 12, the next encoding target block (prediction target block) is input. In S102, the motion estimator 211 detects a low-resolution block prediction motion vector from the prediction target block and a previously decoded frame stored in the frame memory. The motion vector detection method is already described in the description of the configuration of the decoded low-resolution block generation unit 252 and is therefore omitted.

S103では、動き補償部133が、フレームメモリの復号フレームから低解像ブロック予測用動きベクトルに対応する低解像予測ブロックを取得する。S104では、縮小化処理部134が、図4を参照して説明した上述の変換規則に基づいて、予測対象ブロックを低解像予測対象ブロックに変換する。S105では、減算部213が、低解像予測対象ブロックと低解像予測ブロックとの間において各画素を減算し、低解像誤差ブロックを生成する。   In S103, the motion compensation unit 133 acquires a low-resolution prediction block corresponding to the low-resolution block prediction motion vector from the decoded frame of the frame memory. In S104, the reduction processing unit 134 converts the prediction target block into the low resolution prediction target block based on the above-described conversion rule described with reference to FIG. In S105, the subtraction unit 213 subtracts each pixel between the low-resolution prediction target block and the low-resolution prediction block to generate a low-resolution error block.

S106では、変換部214が低解像誤差ブロックをDCT変換した後、量子化部215がDCT係数を量子化する。その結果、低解像誤差ブロックの量子化変換係数が生成される。なお、S106における量子化精度は、後述する図11のS8における量子化精度よりも高く設定する。これは、符号化装置100が低解像ブロックの画質を高くすることにより、S3、S4における2×2小予測ブロック検出精度を高くすることができる、という効果による。   In S106, after the conversion unit 214 DCT-transforms the low resolution error block, the quantization unit 215 quantizes the DCT coefficient. As a result, a quantized transform coefficient of the low resolution error block is generated. Note that the quantization accuracy in S106 is set higher than the quantization accuracy in S8 of FIG. This is due to the effect that the 2 × 2 small prediction block detection accuracy in S3 and S4 can be increased by increasing the image quality of the low-resolution block by the encoding apparatus 100.

図12のS107では、逆量子化部136と逆変換部137とが、低解像誤差ブロックの量子化変換係数を復号(逆量子化・逆変換)する。その結果、復号低解像誤差ブロックが生成される。S108では、加算部217が、低解像予測ブロックと復号低解像誤差ブロックとの間で各画素を加算し、復号低解像ブロックを生成する。そして、統合部216が、動きベクトルと低解像誤差ブロックの量子化変換係数とを統合して低解像ブロック情報を生成する(S109)。   In S107 of FIG. 12, the inverse quantization unit 136 and the inverse transform unit 137 decode (inverse quantization / inverse transform) the quantized transform coefficient of the low resolution error block. As a result, a decoded low resolution error block is generated. In S108, the addition unit 217 adds each pixel between the low-resolution prediction block and the decoded low-resolution error block to generate a decoded low-resolution block. Then, the integration unit 216 integrates the motion vector and the quantized transform coefficient of the low resolution error block to generate low resolution block information (S109).

図11に戻り、S2では、拡大ブロック生成部154が、図5及び図6に示したように、復号低解像ブロックを、予測ブロックと同サイズ(16×16画素)の拡大ブロック127に拡大する。拡大ブロックの生成手法に関しては、拡大ブロック生成部154の機能説明にて、図5、図6を参照して説明した通りであるので省略する。   Returning to FIG. 11, in S <b> 2, the enlarged block generation unit 154 enlarges the decoded low-resolution block to an enlarged block 127 having the same size (16 × 16 pixels) as the prediction block, as shown in FIGS. 5 and 6. To do. The method for generating the enlarged block is the same as that described with reference to FIG. 5 and FIG.

S3では、図7、図8に示したように、ブロック分割部162が、拡大ブロックを4×4小ブロックと2×2小ブロックとに分割する。分割された各小ブロックは、1個の4×4小ブロックと、空間的にこれと同一位置にある4個の2×2小ブロックとを1組として、小ブロック動き推定部163に入力される。   In S3, as shown in FIGS. 7 and 8, the block dividing unit 162 divides the enlarged block into 4 × 4 small blocks and 2 × 2 small blocks. Each of the divided small blocks is input to the small block motion estimation unit 163 as one set of 4 × 4 small blocks and four 2 × 2 small blocks spatially located at the same position. The

S4では、小ブロック動き推定部163が、上記組単位で、4個の2×2小ブロックの動きベクトルを検出する。小ブロック動き推定処理は、1個の4×4小ブロックと4個の2×2小ブロックとに対してそれぞれ実行される。その順序は、先に4×4小ブロックに対する処理が実行され、その後、4個の2×2小ブロックに対する処理が実行される。   In S4, the small block motion estimator 163 detects the motion vectors of four 2 × 2 small blocks in units of the set. The small block motion estimation process is executed for one 4 × 4 small block and four 2 × 2 small blocks. In this order, processing for 4 × 4 small blocks is executed first, and then processing for four 2 × 2 small blocks is executed.

ここで、図13を参照して、小ブロック動き推定処理を説明する。まず、S41では小ブロックが入力され、評価値Eminが、最大整数値(初期値)として設定される(S42)。次に、S43にて、小ブロックのサイズが判定される。その後、その判定結果に応じた処理S441またはS442が実行される。すなわち、過去の復号フレーム520(フレームメモリ153に保存)上に、探索範囲のサイズと探索範囲の中心位置(探索中心点)とが設定される。   Here, the small block motion estimation process will be described with reference to FIG. First, in S41, a small block is input, and the evaluation value Emin is set as the maximum integer value (initial value) (S42). Next, in S43, the size of the small block is determined. Thereafter, processing S441 or S442 according to the determination result is executed. That is, the size of the search range and the center position (search center point) of the search range are set on the past decoded frame 520 (stored in the frame memory 153).

続いて、復号フレーム520の探索範囲内における予測小ブロックの候補が、その探索中心点からスパイラル順に探索され、その結果、上記評価値Eminが最小となる予測小ブロックが特定される。具体的には、小ブロック動き推定部163は、フレームメモリ153の復号フレームから、次の候補の予測小ブロック113を取得し(S45)、評価値Eを計算する(S46)。評価値Eは、小ブロックと予測小ブロックとの間における画素差分値の絶対値の総和である。   Subsequently, prediction small block candidates within the search range of the decoded frame 520 are searched in a spiral order from the search center point, and as a result, the prediction small block having the minimum evaluation value Emin is specified. Specifically, the small block motion estimation unit 163 obtains the next candidate predicted small block 113 from the decoded frame in the frame memory 153 (S45), and calculates an evaluation value E (S46). The evaluation value E is the sum of absolute values of pixel difference values between the small block and the predicted small block.

S47では、評価値Eが評価値Eminよりも小さいか否かが判定される。評価値Eが評価値Eminより小さい場合には(S47;YES)、評価値Eminが評価値Eに更新されるとともに、小ブロックの動きベクトルが、小ブロックの位置から予測小ブロックの現候補ブロックの位置までの移動量に更新される(S48)。一方、評価値Eが評価値Emin以上の場合には(S47;NO)、S48の処理は省略され、S49に移行する。   In S47, it is determined whether or not the evaluation value E is smaller than the evaluation value Emin. When the evaluation value E is smaller than the evaluation value Emin (S47; YES), the evaluation value Emin is updated to the evaluation value E, and the motion vector of the small block is changed from the position of the small block to the current candidate block of the predicted small block. The amount of movement to the position is updated (S48). On the other hand, when the evaluation value E is equal to or higher than the evaluation value Emin (S47; NO), the process of S48 is omitted and the process proceeds to S49.

S49では、探索範囲内における全候補の予測小ブロックの探索が終了したか否かが判定される。以降、S49にて探索範囲内における全候補の予測小ブロックの探索が終了したと判断されるまで、S45〜S49の一連の処理が繰り返し実行される。そして、上記探索が終了したと判断された時点で、小ブロック動き推定処理は終了する。   In S49, it is determined whether or not the search for all candidate predicted small blocks within the search range has been completed. Thereafter, a series of processes of S45 to S49 are repeatedly executed until it is determined in S49 that the search for all candidate small predicted blocks within the search range has been completed. Then, when it is determined that the search is finished, the small block motion estimation process is finished.

図11に戻り、S5では、小ブロック動き補償部164が、S3とS4にて検出された4本の2×2小ブロックの動きベクトルに対応する2×2予測小ブロック116を、フレームメモリ153の復号フレームからそれぞれ取得する。S3〜S5の各処理は、16組の小ブロックについて実行される。   Returning to FIG. 11, in S5, the small block motion compensation unit 164 converts the 2 × 2 predicted small block 116 corresponding to the motion vectors of the four 2 × 2 small blocks detected in S3 and S4 into the frame memory 153. Respectively obtained from the decoded frames. Each process of S3-S5 is performed about 16 sets of small blocks.

S6では、ブロック統合部155が、S3で用いた分割規則に基づいて、64個の2×2予測小ブロックを分割前の位置に並べることにより、16×16画素の予測ブロックに統合する。S7では、減算部253が、符号化対象ブロックと予測ブロックとの間で各画素を減算し、誤差ブロックを生成する。S8では、誤差ブロック符号化部254が、誤差ブロックを符号化(変換・量子化)して、誤差ブロック情報(例えば、量子化変換係数)を生成する。   In S6, based on the division rule used in S3, the block integration unit 155 arranges the 64 2 × 2 prediction small blocks at the position before division, thereby integrating them into a prediction block of 16 × 16 pixels. In S7, the subtraction unit 253 subtracts each pixel between the encoding target block and the prediction block to generate an error block. In S8, the error block encoder 254 encodes (transforms / quantizes) the error block to generate error block information (for example, quantized transform coefficients).

S9では、誤差ブロック復号部156が、上記誤差ブロック情報を復号(逆量子化・逆変換)し、復号誤差ブロックを生成する。S10では、加算部157が、予測ブロックと復号誤差ブロックとの間で各画素を加算し、復号ブロックを生成する。生成された復号ブロックが、フレームメモリ153の現在の復号フレームに保存されると(S11)、エントロピー符号化部255は、低解像ブロック情報と誤差ブロック情報とをエントロピー符号化し(S12)、ブロック符号化処理は終了する。   In S9, the error block decoding unit 156 decodes (inverse quantization / inverse transform) the error block information to generate a decoded error block. In S10, the adding unit 157 adds each pixel between the prediction block and the decoding error block to generate a decoding block. When the generated decoded block is stored in the current decoded frame in the frame memory 153 (S11), the entropy encoding unit 255 entropy encodes the low-resolution block information and the error block information (S12), The encoding process ends.

次いで、図2に示した復号装置200の構成を説明する。復号装置200は、ブロック単位の予測処理と符号化データ101の復号処理とを実行し、ブロック単位でラスタスキャン順に復号ブロック122を再生する装置である。本実施の形態では、予測処理により生成される予測ブロックと復号ブロックとは同サイズであり、共に16×16画素とする。   Next, the configuration of the decoding device 200 shown in FIG. 2 will be described. The decoding device 200 is a device that executes prediction processing in units of blocks and decoding processing of the encoded data 101 and reproduces the decoding blocks 122 in raster scan order in units of blocks. In this embodiment, the prediction block generated by the prediction process and the decoded block have the same size, and both are 16 × 16 pixels.

エントロピー復号部150は、復号対象とする復号ブロックの生成に必要とされる符号化データ101の入力を受けると、エントロピー復号により、符号化データ101を、低解像ブロック情報102と誤差ブロック情報119とに分離する。低解像ブロック復号部151は、低解像ブロック情報102を復号することにより、予測ブロックよりも画素数の少ない8×8画素の復号低解像ブロック110を生成する。   When receiving the input of the encoded data 101 necessary for generating a decoding block to be decoded, the entropy decoding unit 150 converts the encoded data 101 into low-resolution block information 102 and error block information 119 by entropy decoding. And to separate. The low-resolution block decoding unit 151 decodes the low-resolution block information 102 to generate a decoded low-resolution block 110 having 8 × 8 pixels that has a smaller number of pixels than the prediction block.

分離部131は、低解像ブロック情報102を、低解像ブロック予測用動きベクトル104と低解像誤差ブロック情報(例えば、低解像誤差ブロックの量子化変換係数)107とに分離する。動き補償部133は、低解像ブロック予測用動きベクトル104に対応する低解像予測ブロック106を、フレームメモリ153に保存されている復号フレーム520から取得する。   The separation unit 131 separates the low-resolution block information 102 into low-resolution block prediction motion vectors 104 and low-resolution error block information (for example, quantized transform coefficients of the low-resolution error block) 107. The motion compensation unit 133 acquires the low-resolution prediction block 106 corresponding to the low-resolution block prediction motion vector 104 from the decoded frame 520 stored in the frame memory 153.

逆量子化部136は、低解像誤差ブロックの量子化変換係数107を逆量子化して、低解像誤差ブロックの復号量子化変換係数108を生成する。逆変換部137は、復号量子化変換係数108を逆DCT変換することにより、復号低解像誤差ブロック109を生成する。加算部135は、低解像予測ブロック106と復号低解像誤差ブロック109とにおける各画素の加算値を算出し、復号低解像ブロック110を生成する。   The inverse quantization unit 136 inversely quantizes the quantized transform coefficient 107 of the low resolution error block to generate the decoded quantized transform coefficient 108 of the low resolution error block. The inverse transform unit 137 generates a decoded low-resolution error block 109 by performing inverse DCT transform on the decoded quantized transform coefficient 108. The adder 135 calculates an addition value of each pixel in the low resolution prediction block 106 and the decoded low resolution error block 109, and generates a decoded low resolution block 110.

なお、拡大ブロック生成部154、ブロック分割部162、小ブロック予測部152、及び、ブロック統合部155の有する各機能と処理結果は、符号化装置100の説明と同様である。したがって、その説明、及び説明のための図示は省略する。   Note that the functions and processing results of the expanded block generation unit 154, the block division unit 162, the small block prediction unit 152, and the block integration unit 155 are the same as those described in the encoding apparatus 100. Therefore, the explanation and illustration for explanation are omitted.

また、誤差ブロック復号部156は、誤差ブロック情報(例えば、量子化変換係数)119を復号して復号誤差ブロック121を生成する。誤差ブロック復号部156は、逆量子化部140と逆変換部141とを有する。逆量子化部140は、量子化変換係数119を逆量子化し、復号量子化変換係数120を生成する。逆変換部141は、復号量子化変換係数120を逆DCT変換し、復号誤差ブロック121を生成する。   Further, the error block decoding unit 156 generates error decoding block 121 by decoding error block information (for example, quantized transform coefficient) 119. The error block decoding unit 156 includes an inverse quantization unit 140 and an inverse transform unit 141. The inverse quantization unit 140 inversely quantizes the quantized transform coefficient 119 to generate a decoded quantized transform coefficient 120. The inverse transform unit 141 performs inverse DCT transform on the decoded quantized transform coefficient 120 to generate a decoded error block 121.

加算部157は、予測ブロック118の各画素について、復号誤差ブロック121と空間的に一致する位置の画素と当該画素との加算値を算出し、これにより復号ブロック122を生成する。復号ブロック122はフレームメモリ153に保存され復号済み画像が更新される。   The adder 157 calculates, for each pixel of the prediction block 118, an addition value between a pixel at a position spatially coincident with the decoding error block 121 and the pixel, and thereby generates a decoding block 122. The decoding block 122 is stored in the frame memory 153 and the decoded image is updated.

続いて、復号装置200の動作を説明し、併せて、本発明に係る動画像復号方法を構成する各ステップについて説明する。なお、図14のブロック復号処理において、図11に示したブロック符号化処理とその内容及び処理結果が共通するステップの符号を図中括弧内に示す。   Subsequently, the operation of the decoding device 200 will be described, and each step constituting the moving image decoding method according to the present invention will be described. In the block decoding process of FIG. 14, the reference numerals of steps having the same contents and processing results as the block encoding process shown in FIG. 11 are shown in parentheses in the figure.

次のブロックの復号処理が開始されると、まず、T1にて、当該ブロックの復号に必要とされる1ブロック分の符号化データが、エントロピー復号部150に入力される(T1)。T2では、エントロピー復号部150が、入力された符号化データをエントロピー復号し、低解像ブロック情報と誤差ブロック情報とを得る。これらの情報のうち、低解像ブロック情報は、低解像ブロック復号処理404により、低解像ブロック復号部151に入力され、復号低解像ブロックに復号される。   When the decoding process for the next block is started, first, at T1, encoded data for one block necessary for decoding the block is input to the entropy decoding unit 150 (T1). In T2, the entropy decoding unit 150 performs entropy decoding on the input encoded data to obtain low-resolution block information and error block information. Among these pieces of information, the low resolution block information is input to the low resolution block decoding unit 151 by the low resolution block decoding process 404 and decoded into the decoded low resolution block.

ここで、図15を参照し、T3における低解像ブロック復号処理を説明する。T31では、低解像ブロック情報が分離部131に入力される。分離部131は、T32にて、低解像ブロック情報を動きベクトルと低解像誤差ブロック情報とに分離する。T33では、動き補償部133が、過去に復号された復号フレーム520(フレームメモリ153に保存)から、低解像ブロック予測用動きベクトル104に対応する低解像ブロック予測ブロック106を取得する。   Here, the low-resolution block decoding process in T3 will be described with reference to FIG. At T31, the low resolution block information is input to the separation unit 131. In T32, the separation unit 131 separates the low resolution block information into the motion vector and the low resolution error block information. In T33, the motion compensation unit 133 acquires the low-resolution block prediction block 106 corresponding to the low-resolution block prediction motion vector 104 from the previously decoded frame 520 (stored in the frame memory 153).

T34では、逆量子化部136が、低解像誤差ブロック情報としての量子化変換係数107を逆量子化し、復号量子化変換係数108を生成する。更に、逆変換部137が、この復号量子化変換係数108を逆DCT変換し、復号低解像誤差ブロック109を生成する。T35では、加算部135が、低解像予測ブロック106と復号低解像誤差ブロック109との各画素を加算して、復号低解像ブロック110を生成する。   At T34, the inverse quantization unit 136 inversely quantizes the quantized transform coefficient 107 as the low-resolution error block information, and generates a decoded quantized transform coefficient 108. Further, the inverse transform unit 137 performs inverse DCT transform on the decoded quantized transform coefficient 108 to generate a decoded low resolution error block 109. At T35, the adding unit 135 adds the pixels of the low-resolution prediction block 106 and the decoded low-resolution error block 109 to generate a decoded low-resolution block 110.

図14に戻り、図5及び図6に示したように、拡大ブロック生成部154が、復号低解像ブロック110を予測ブロックと同サイズ(16×16画素)の拡大ブロック127に拡大する(T4)。拡大ブロックの生成手法に関しては、拡大ブロック生成部154の機能説明にて、図5、図6を参照して説明した通りであるので省略する。   Returning to FIG. 14, as illustrated in FIGS. 5 and 6, the expanded block generation unit 154 expands the decoded low-resolution block 110 to the expanded block 127 having the same size (16 × 16 pixels) as the prediction block (T4). ). The method for generating the enlarged block is the same as that described with reference to FIG. 5 and FIG.

T5〜T7では、ブロック分割部162と小ブロック予測部152とが、64個の2×2小ブロックに拡大ブロックを分割し、64個の2×2予測小ブロックを生成する。なお、図14のT5,T6の各処理は、図11に示したS3,S4の各処理とそれぞれ同様であるので、その詳細な説明は省略する。また、T7の処理は、図11のS5の処理と同様であるので、その説明は省略する。   In T5 to T7, the block dividing unit 162 and the small block predicting unit 152 divide the expanded block into 64 2 × 2 small blocks, and generate 64 2 × 2 predicted small blocks. Note that the processes at T5 and T6 in FIG. 14 are the same as the processes at S3 and S4 shown in FIG. 11, and thus detailed description thereof is omitted. Further, the process of T7 is the same as the process of S5 in FIG.

T8では、ブロック統合部155は、T6及びT7にて生成された64個の2×2予測小ブロックを、T5における分割規則に基づいて、分割前の元の位置に並べる。これにより、上記予測小ブロックを16×16画素の予測ブロックに統合する。   In T8, the block integration unit 155 arranges the 64 2 × 2 prediction small blocks generated in T6 and T7 at the original positions before the division based on the division rule in T5. As a result, the small prediction block is integrated into a 16 × 16 pixel prediction block.

T9では、誤差ブロック復号部156が、誤差ブロック情報(例えば量子化変換係数)を復号(逆量子化・逆変換)し、復号誤差ブロックを生成する。T10では、加算部157が、予測ブロックと復号誤差ブロックとの各画素を加算し、復号ブロックを生成する。T11では、復号ブロックがフレームメモリ153に保存され、その結果、復号済み画像が更新される。   In T9, the error block decoding unit 156 decodes (inverse quantization / inverse transform) error block information (for example, quantized transform coefficients) to generate a decoded error block. In T10, the addition unit 157 adds each pixel of the prediction block and the decoding error block to generate a decoding block. At T11, the decoded block is stored in the frame memory 153, and as a result, the decoded image is updated.

図16(a)は、本実施の形態における画像符号化処理を実現するための動画像符号化プログラム、及び、同画像復号処理を実現するための動画像復号プログラムが格納されたフレキシブルディスクの物理フォーマットを例示している。また、図16(b)は、上記フレキシブルディスクの正面の外観と断面構造を示す。フレキシブルディスクFDはケースF内に内蔵され、当該ディスクの表面には、外周からは内周に向かって同心円状に複数のトラックTrが形成されている。これら各トラックは、角度方向に、16個のセクタSeに分割されている。フレキシブルディスクFD上に割り当てられた領域には、データとして、上述のプログラムが記録されている。   FIG. 16A shows the physical structure of a flexible disk in which a moving image encoding program for realizing the image encoding process and a moving image decoding program for realizing the image decoding process in the present embodiment are stored. The format is illustrated. FIG. 16B shows a front appearance and a cross-sectional structure of the flexible disk. The flexible disk FD is built in the case F, and a plurality of tracks Tr are formed concentrically from the outer periphery toward the inner periphery on the surface of the disk. Each of these tracks is divided into 16 sectors Se in the angular direction. In the area allocated on the flexible disk FD, the above-mentioned program is recorded as data.

フレキシブルディスクFDに上記プログラムを記録する場合には、図16(c)に示すように、コンピュータシステムCsからフレキシブルディスクドライブFDDを介する。フレキシブルディスクFD内のプログラムにより、符号化装置100または復号装置200をコンピュータシステムCs中に構築する場合には、フレキシブルディスクドライブFDDが、上記プログラムをフレキシブルディスクFDから読み出し、コンピュータシステムCsに転送する。   When the program is recorded on the flexible disk FD, as shown in FIG. 16C, the computer system Cs passes the flexible disk drive FDD. When the encoding device 100 or the decoding device 200 is built in the computer system Cs by the program in the flexible disk FD, the flexible disk drive FDD reads the program from the flexible disk FD and transfers it to the computer system Cs.

図17は、本発明に係る動画像符号化プログラム261の構成を示す図である。動画像符号化プログラム261は、記録媒体260に記録されている。記録媒体260は、例えば、上述したフレキシブルディスクであるが、光ディスクやICカード、CD−ROM、DVD、あるいは半導体メモリであってもよい。コンピュータシステムCsには、PC(Personal Computer)に限らず、CPUを具備し、ソフトウエアによる情報処理や制御を行うDVDプレーヤ、セットトップボックス、携帯電話などを含む。   FIG. 17 is a diagram showing a configuration of the moving image encoding program 261 according to the present invention. The moving image encoding program 261 is recorded on the recording medium 260. The recording medium 260 is, for example, the flexible disk described above, but may be an optical disk, an IC card, a CD-ROM, a DVD, or a semiconductor memory. The computer system Cs is not limited to a PC (Personal Computer), and includes a DVD player, a set-top box, a mobile phone, and the like that have a CPU and perform software information processing and control.

次に、本発明に係る動画像符号化プログラムおよび動画像復号プログラムの構成について説明する。動画像符号化プログラム261は、図17に示すように、記録媒体260に形成されたプログラム格納領域260a内に格納されている。動画像符号化プログラム261は、動画像符号化処理を統括的に制御するメインモジュール261aと、符号化対象ブロック分割モジュール261bと、復号低解像ブロック生成モジュール261cと、低解像ブロック拡大モジュール216dと、拡大ブロック分割モジュール261eと、小ブロック予測モジュール261fと、ブロック統合モジュール261gとを、構成単位として有する。これら各モジュールを実行させることによって実現する機能は、上述した動画像符号化装置100の符号化ブロック分割部251、復号低解像ブロック生成部252、拡大ブロック生成部154、ブロック分割部162、小ブロック予測部152、ブロック統合部155の各機能とそれぞれ同様である。   Next, the configuration of the moving image encoding program and the moving image decoding program according to the present invention will be described. As shown in FIG. 17, the moving image encoding program 261 is stored in a program storage area 260a formed in the recording medium 260. The moving image encoding program 261 includes a main module 261a that comprehensively controls moving image encoding processing, an encoding target block division module 261b, a decoded low-resolution block generation module 261c, and a low-resolution block enlargement module 216d. And an expanded block division module 261e, a small block prediction module 261f, and a block integration module 261g. The functions realized by executing these modules are the encoding block dividing unit 251, the decoded low-resolution block generating unit 252, the enlarged block generating unit 154, the block dividing unit 162, the small unit, and the like of the moving image encoding apparatus 100 described above. The functions of the block prediction unit 152 and the block integration unit 155 are the same.

動画像復号プログラム161は、図18に示すように、記録媒体160に形成されたプログラム格納領域160a内に格納されている。動画像復号プログラム161は、動画像復号処理を統括的に制御するメインモジュール161aと、エントロピー復号モジュール161bと、低解像ブロック復号モジュール161cと、低解像ブロック拡大モジュール161dと、拡大ブロック分割モジュール161eと、小ブロック予測モジュール161fと、ブロック統合モジュール161gとを、構成単位として有する。これら各モジュールを実行させることによって実現する機能は、上述した動画像復号装置200のエントロピー復号部150、低解像ブロック復号部151、拡大ブロック生成部154、ブロック分割部162、小ブロック予測部152、ブロック統合部155の各機能とそれぞれ同様である。   The moving picture decoding program 161 is stored in a program storage area 160a formed on the recording medium 160, as shown in FIG. The moving picture decoding program 161 includes a main module 161a that comprehensively controls moving picture decoding processing, an entropy decoding module 161b, a low resolution block decoding module 161c, a low resolution block enlargement module 161d, and an enlargement block division module. 161e, a small block prediction module 161f, and a block integration module 161g are included as structural units. The functions realized by executing these modules are the entropy decoding unit 150, the low-resolution block decoding unit 151, the expanded block generation unit 154, the block division unit 162, and the small block prediction unit 152 of the video decoding device 200 described above. The functions of the block integration unit 155 are the same.

なお、動画像符号化プログラム261は、その一部若しくは全部が、通信回線等の伝送媒体を介して伝送され、他の機器により受信されて記録(インストールを含む)される構成としてもよい。動画像復号プログラム161に関しても同様に、その一部若しくは全部が、通信回線等の伝送媒体を介して伝送され、他の機器により受信されて記録(インストールを含む)される構成としてもよい。   Note that a part or all of the moving picture encoding program 261 may be transmitted via a transmission medium such as a communication line, received by another device, and recorded (including installation). Similarly, a part or all of the moving picture decoding program 161 may be transmitted via a transmission medium such as a communication line and received and recorded (including installation) by another device.

なお、上記実施の形態に記載の態様は、本発明に係る動画像符号化・復号技術の好適な一例であり、本発明は、かかる態様に限定されるものではない。   The aspect described in the above embodiment is a preferred example of the moving picture encoding / decoding technique according to the present invention, and the present invention is not limited to this aspect.

(第1の変形態様)
かかる態様は、小ブロックの動きベクトル検出方法に関する。上記実施形態では、小ブロックの動きベクトル検出の際の探索範囲を、4×4小ブロックで±32、2×2小ブロックで±1としたが、異なる探索範囲でもよい。また、小ブロックの動きベクトル成分の精度についても、整数値だけでなく、実数値とすることも可能である。実数値には、1/2画素、1/4画素などがあり、ベクトル成分が実数値の場合における予測画素の算出方法としては、例えばH.264(“Text of ISO/IEC 14496-10 Advanced Video Coding 3rd Edition”,September 2004.)に記載されている方法を適用できる。
(First variant)
This aspect relates to a small block motion vector detection method. In the above embodiment, the search range when detecting a motion vector of a small block is ± 32 for a 4 × 4 small block and ± 1 for a 2 × 2 small block, but may be a different search range. Further, the accuracy of the motion vector component of the small block can be not only an integer value but also a real value. The real value includes ½ pixel, ¼ pixel, and the like. As a prediction pixel calculation method when the vector component is a real value, for example, H.264 is used. H.264 (“Text of ISO / IEC 14496-10 Advanced Video Coding 3rd Edition”, September 2004) can be applied.

また、上記実施形態では、小ブロックの動きベクトル検出時における探索範囲の中心点に関しては、4×4小ブロックでは低解像ブロック予測用動きベクトル、2×2小ブロックでは空間的に同一位置の4×4小ブロックの動きベクトルとした。しかし、符号化側と復号側とで一意に決定できる値であれば、これに限定されない。例えば、0ベクトルや、中央値予測などの方法により隣接小ブロックの動きベクトルから選定される予測ベクトルを、探索範囲の中心点に設定することもできる。   In the above embodiment, the center point of the search range when detecting the motion vector of the small block is the low resolution block prediction motion vector in the 4 × 4 small block and spatially the same position in the 2 × 2 small block. The motion vector is a 4 × 4 small block. However, the present invention is not limited to this as long as the value can be uniquely determined on the encoding side and the decoding side. For example, a prediction vector selected from motion vectors of adjacent small blocks by a method such as a zero vector or median prediction can be set as the center point of the search range.

更に、小ブロックの動きベクトルを検出する際の評価値を画素差分値の絶対値和としたが、これに限定されず、符号化側と復号側とで一意に決定できる評価方法であればよい。例えば、画素差分値の二乗和や、画素位置に応じた画素差分値の重み付け絶対値和(二乗和)などへの変形も可能である。予測対象の復号フレームを1フレームに限定したが、複数の復号済みフレームを対象とし、小ブロック毎に異なる復号フレームから予測小ブロックを生成してもよい。このとき、評価値として画素差分値の絶対値和など、符号化側と復号側とで同じ評価値を用いれば、復号フレームの選択情報を符号化する必要はなくなり、効率的である。   Furthermore, although the evaluation value when detecting the motion vector of the small block is the sum of the absolute values of the pixel difference values, the evaluation value is not limited to this, and any evaluation method that can be uniquely determined on the encoding side and the decoding side may be used. . For example, it is possible to transform the pixel difference value into a square sum or a weighted absolute value sum (square sum) of the pixel difference value according to the pixel position. Although the decoding frame to be predicted is limited to one frame, a prediction small block may be generated from a decoding frame that is different for each small block with respect to a plurality of decoded frames. At this time, if the same evaluation value is used on the encoding side and the decoding side, such as the sum of absolute values of pixel difference values as the evaluation value, it is not necessary to encode the selection information of the decoded frame, which is efficient.

(第2の変形態様)
かかる態様は、予測方法に関する。予測方法として、時間方向の予測に限定して説明したが、符号化対象ブロックまたは復号ブロックと同一フレーム内の既に復号された復号済み画像を用いた空間方向の予測にも、同様の方法を適用することができる。すなわち、上述した復号低解像ブロックを、イントラ予測を用いて拡大することも可能である。より具体的には、復号装置200が、復号低解像ブロックを再分割した低解像ブロックを分割し、同じフレーム内の隣接する復号済みの画素を用いて、例えばH.264(“Text of ISO/IEC 14496-10 Advanced Video Coding 3rd Edition”, September 2004.)の複数のイントラ予測モードから、最適なモードを決定した上で、当該復号低解像ブロックに該当する高解像度信号のブロックを予測する場合なども本発明に含まれる。この場合、各縮小分割ブロックの予測モードを明示的に伝送する必要がないため、少ない補助情報で高精度に対象ブロックを予測できるという優れた効果を奏する。また、上述した時間方向の予測と空間方向の予測とを組み合わせて高精度の予測を行ってもよい。例えば、拡大ブロック生成部154にて、イントラ予測による復号低解像ブロックの拡大処理を実行し、この拡大ブロックを小ブロックに分割して、小ブロック予測部152の処理を実現する方法も有効である。
(Second modification)
This aspect relates to a prediction method. Although the prediction method has been limited to prediction in the temporal direction, the same method can be applied to prediction in the spatial direction using a decoded image that has already been decoded in the same frame as the current block or decoding block. can do. That is, the above-described decoded low-resolution block can be expanded using intra prediction. More specifically, the decoding apparatus 200 divides the low-resolution block obtained by re-dividing the decoded low-resolution block, and uses adjacent decoded pixels in the same frame. H.264 ("Text of ISO / IEC 14496-10 Advanced Video Coding 3rd Edition", September 2004) The case where a block of a signal is predicted is also included in the present invention. In this case, since it is not necessary to explicitly transmit the prediction mode of each reduced divided block, there is an excellent effect that the target block can be predicted with high accuracy with a small amount of auxiliary information. Moreover, you may perform highly accurate prediction combining the prediction of the time direction mentioned above, and the prediction of a spatial direction. For example, it is also effective to execute an expansion process of a decoded low-resolution block by intra prediction in the expanded block generation unit 154 and divide the expanded block into small blocks to realize the processing of the small block prediction unit 152. is there.

(第3の変形態様)
かかる態様は、誤差ブロックの符号化に関する。予測ブロックと符号化対象ブロックとの間の誤差ブロックを符号化する処理は必須ではない。つまり、誤差ブロック符号化部254(図1)と誤差ブロック復号部156(図1と図2)とは省略することもできる。また、符号化対象ブロックあるいは復号ブロック毎に符号化の有無を決めてもよい。誤差ブロック、及び低解像誤差ブロックの具体的な符号化・復号方法については、上述の方法に限定されるものではない。更に、上記実施の形態では、符号化対象ブロックと予測対象ブロックとを同じブロックサイズとしたが、異なるサイズでも本発明の予測方法は実現可能である。また、誤差信号の符号化は、ブロック単位に限定されるものではなく、画面単位で行ってもよい。但し、この場合には、低解像ブロックの拡大処理に用いるブロック境界の復号画素を用意すべく、低解像ブロックの拡大処理を実行する前に、隣接予測ブロックの生成処理と予測誤差信号の復号処理とを実行する必要がある。
(Third Modification)
Such an aspect relates to encoding of error blocks. The process of encoding the error block between the prediction block and the encoding target block is not essential. That is, the error block encoding unit 254 (FIG. 1) and the error block decoding unit 156 (FIGS. 1 and 2) can be omitted. Also, the presence or absence of encoding may be determined for each encoding target block or decoding block. The specific encoding / decoding method of the error block and the low resolution error block is not limited to the above-described method. Furthermore, although the encoding target block and the prediction target block have the same block size in the above embodiment, the prediction method of the present invention can be realized even with different sizes. Further, the encoding of the error signal is not limited to the block unit, and may be performed on a screen basis. However, in this case, in order to prepare decoded pixels at the block boundary used for the enlargement process of the low resolution block, before executing the enlargement process of the low resolution block, the generation process of the adjacent prediction block and the prediction error signal It is necessary to execute a decryption process.

(第4の変形態様)
かかる態様は、ブロックサイズに関する。上記実施の形態では、低解像ブロック予測用の動きベクトルは、符号化対象ブロックと復号ブロックとに1本ずつとした。しかし、図19に示すように、符号化対象ブロックを複数のブロックに分割し、分割ブロック単位でブロックマッチングを実施する方法に対しても、本発明に係る予測方法は適用可能である。この場合には、符号化対象ブロック単位で小ブロックのサイズが決定されるとともに、分割ブロックのサイズ情報と複数個の動きベクトル(104a,104b,104c,104d)とが符号化される。
(Fourth modification)
Such an aspect relates to block size. In the above embodiment, one motion vector for predicting low-resolution blocks is set for each of the encoding target block and the decoding block. However, as shown in FIG. 19, the prediction method according to the present invention can also be applied to a method of dividing a block to be encoded into a plurality of blocks and performing block matching in units of divided blocks. In this case, the size of the small block is determined for each block to be encoded, and the size information of the divided blocks and a plurality of motion vectors (104a, 104b, 104c, 104d) are encoded.

更に、図19の例では、4×4小ブロックの動きベクトル検出時における探索範囲の中心点は、4本の低解像ブロック予測用の動きベクトルから空間的に同一の位置の動きベクトルが示す位置に設定できる。   Furthermore, in the example of FIG. 19, the center point of the search range when detecting the motion vector of the 4 × 4 small block is indicated by the motion vector at the same spatial position from the four motion vectors for low resolution block prediction. Can be set to position.

なお、図19では、分割方法を8×8単位としているが、これに限定されるものではなく、H.264(“Text of ISO/IEC 14496-10 Advanced Video Coding 3rd Edition”, September 2004.)に示すような複数の分割方法を適応的に利用することができる。また、符号化対象ブロックサイズと復号ブロックサイズとに関しても、16×16に限定されるものではない。すなわち、32×32、8×8、4×4など、異なるブロックサイズであっても、そのサイズに応じて小ブロックのサイズを変更することにより、本発明を適用できる。   In FIG. 19, the division method is 8 × 8 units, but is not limited to this. H.264 (“Text of ISO / IEC 14496-10 Advanced Video Coding 3rd Edition”, September 2004) can be used adaptively. Also, the encoding target block size and the decoding block size are not limited to 16 × 16. That is, even if the block sizes are different such as 32 × 32, 8 × 8, and 4 × 4, the present invention can be applied by changing the size of the small block according to the size.

小ブロック予測部152(図6のS3とS4)における小ブロックのサイズも、4×4と2×2とに限定されるものではない。例えば、図20に示す5×5小ブロック112cや3×3小ブロック112dのように、隣接小ブロックを相互にオーバラップさせることで、小ブロックサイズを拡大してもよい。小さいブロックサイズは、ブロック内に特徴がない場合に予測性能が落ちる傾向があるため、かかる態様を採ることで、局所的な予測性能の向上が見込まれる。なお、小ブロックサイズを、5×5と4×4並びに3×3と2×2で適応的に切り替える方法も有効である。これと同様に、変換・量子化を実行する際のブロックサイズも限定されない。すなわち、符号化装置100及び復号装置200は、誤差ブロックを、例えば8×8ブロックや16×16ブロック単位で変換・量子化してもよい。   The size of the small block in the small block prediction unit 152 (S3 and S4 in FIG. 6) is not limited to 4 × 4 and 2 × 2. For example, the small block size may be enlarged by causing adjacent small blocks to overlap each other like a 5 × 5 small block 112c or a 3 × 3 small block 112d shown in FIG. A small block size tends to decrease the prediction performance when there is no feature in the block. Therefore, by adopting such a mode, it is expected that the local prediction performance is improved. It is also effective to adaptively switch the small block size between 5 × 5 and 4 × 4, and 3 × 3 and 2 × 2. Similarly, the block size at the time of executing transformation / quantization is not limited. That is, the encoding device 100 and the decoding device 200 may transform and quantize the error block, for example, in units of 8 × 8 blocks or 16 × 16 blocks.

(第5の変形態様)
かかる態様は、復号低解像ブロックの拡大方法に関する。上記実施の形態では、拡大ブロック生成部154は、復号低解像ブロックを拡大するために参照する境界復号画素群123を、予測ブロックの上辺と左辺に隣接するブロックの復号画素から取得するものとした。しかし、図21に示すように、境界復号画素群123を、隣接するブロックの復号低解像ブロックの復号画素から取得して、拡大ブロックを生成することもできる。
(5th modification)
This aspect relates to a method for enlarging a decoded low resolution block. In the above embodiment, the enlarged block generation unit 154 acquires the boundary decoded pixel group 123 referred to for enlarging the decoded low-resolution block from the decoded pixels of the blocks adjacent to the upper side and the left side of the prediction block. did. However, as shown in FIG. 21, the boundary decoded pixel group 123 can be acquired from the decoded pixels of the decoded low-resolution block of the adjacent block to generate an enlarged block.

上述の変形態様を実現するための符号化装置300及び復号装置400を、図22、図23にそれぞれ示す。符号化装置300、復号装置400は、符号化装置100、復号装置200と以下の点において相違する。
(i)復号低解像ブロック110を一度フレームメモリ153に保存する点
(ii)隣接ブロックに空間的に対応する復号低解像ブロックの復号画素を境界復号画素として、復号低解像ブロックに統合する点
(iii)境界復号画素を含む低解像ブロック124(図21参照)を単位として、拡大ブロック生成部154に入力する点このように符号化装置300及び復号装置400を構成することで、境界復号画素を変更することが可能となる。
An encoding device 300 and a decoding device 400 for realizing the above-described modification are shown in FIGS. 22 and 23, respectively. The encoding device 300 and the decoding device 400 are different from the encoding device 100 and the decoding device 200 in the following points.
(I) The point where the decoded low-resolution block 110 is once stored in the frame memory 153 (ii) The decoded low-resolution block spatially corresponding to the adjacent block is integrated into the decoded low-resolution block as a boundary decoded pixel (Iii) A point that is input to the enlarged block generation unit 154 in units of a low resolution block 124 (see FIG. 21) including boundary decoding pixels. By configuring the encoding device 300 and the decoding device 400 in this way, It becomes possible to change the boundary decoding pixel.

なお、図1と図2に示した各装置の特徴と、図22と図23に示した各装置の特徴とを、条件に応じて適応的に組み合わせてもよい。例えば、各装置は、隣接するブロックの低解像ブロック用動きベクトルが現在の予測対象のブロックと同じ場合には、復号低解像ブロックの復号画素を境界復号画素として用いる。異なる場合には、復号フレームの復号画素を境界復号画素として用いる。また、複数の予測方法をブロック単位で適応的に切り替える符号化方式では、現在の予測対象ブロックの隣接ブロックの予測方法を条件として、境界復号画素を変更してもよい。   Note that the features of each device shown in FIGS. 1 and 2 and the features of each device shown in FIGS. 22 and 23 may be adaptively combined according to conditions. For example, each device uses the decoded pixel of the decoded low-resolution block as the boundary decoded pixel when the motion vector for the low-resolution block of the adjacent block is the same as the current prediction target block. If they are different, the decoded pixel of the decoded frame is used as the boundary decoded pixel. Further, in an encoding method in which a plurality of prediction methods are adaptively switched in units of blocks, boundary decoding pixels may be changed on the condition that the prediction method of a block adjacent to the current prediction target block is used as a condition.

更に、境界復号画素を用いることなく、フレーム端での処理のように、低解像予測ブロック内の画素のみから拡大ブロックを生成するものとしてもよい。また、上記実施の形態では、境界復号画素を現フレームの復号済み画像から抽出したが、空間的に同一位置にある過去の復号フレームの復号画素を用いることもできる。境界復号画素は、予測対象のブロックに隣接する画素としたが、復号済みの画素であれば、これに限定されることはなく、ブロック境界から離れた復号画素、あるいは、複数の復号画素から生成した画素などを用いてもよい。   Furthermore, an enlarged block may be generated only from pixels in the low-resolution prediction block, as in the processing at the frame end, without using boundary decoding pixels. In the above embodiment, the boundary decoded pixels are extracted from the decoded image of the current frame. However, the decoded pixels of the past decoded frames at the same spatial position can also be used. The boundary decoding pixel is a pixel adjacent to the prediction target block. However, the boundary decoding pixel is not limited to this as long as it is a decoded pixel, and is generated from a decoding pixel separated from the block boundary or a plurality of decoding pixels. Pixels that have been used may also be used.

(第6の変形態様)
かかる態様は、縮小化方法に関する。上記実施の形態では、図4に示したように、ブロックの縮小化処理として、縦・横方向に1ライン間隔で間引く方法を採ったが、この方法に限定されない。例えば、低解像ブロックの画素数は、符号化装置100と復号装置200間で予め定めておけばよく、復号ブロック(符号化対象ブロック)よりも画素数の少ない任意の形状とすることができる。例えば、図4に示した低解像予測ブロック106の各画素を縦横方向に1画素ずらしたブロックや、図24の低解像予測ブロック1061のように画素数を半分としたブロックに対しても、本発明は適用可能である。
(Sixth modification)
This aspect relates to a reduction method. In the above embodiment, as shown in FIG. 4, the block thinning process employs a method of thinning out at intervals of one line in the vertical and horizontal directions, but is not limited to this method. For example, the number of pixels of the low-resolution block may be determined in advance between the encoding device 100 and the decoding device 200, and can be an arbitrary shape having a smaller number of pixels than the decoding block (encoding target block). . For example, a block in which each pixel of the low resolution prediction block 106 shown in FIG. 4 is shifted by one pixel in the vertical and horizontal directions, or a block in which the number of pixels is halved, such as the low resolution prediction block 1061 in FIG. The present invention is applicable.

また、上記実施の形態では、ブロックの縮小化を、画素間引き処理のみにより実現したが、ブロックの画素にローパスフィルタ処理を施した後に間引き処理を行ってもよい。但し、動き探索の精度を高めるためには、小ブロック動き推定部163への入力となる候補予測ブロック113に対しても、同一のローパスフィルタ処理を施す必要がある。   In the above embodiment, the block reduction is realized only by the pixel thinning process. However, the thinning process may be performed after the low-pass filter process is performed on the pixels of the block. However, in order to increase the accuracy of the motion search, it is necessary to perform the same low-pass filter processing on the candidate prediction block 113 that is an input to the small block motion estimation unit 163.

(第7の変形態様)
かかる態様は、低解像ブロック予測に関する。上記実施の形態では、各装置は、低解像予測ブロックを、フレームメモリ153から直接取得したが、低解像予測ブロック106を生成するために必要とするデータ15を、フレームメモリ153に保存されている過去の復号フレーム520から取得してもよい。その後、動き補償部133の内部で、図3に示した16×16画素サイズの予測ブロック105を生成し、予測ブロック105を8×8画素サイズの低解像予測ブロック106に変換してもよい。
(Seventh modification)
Such an aspect relates to low resolution block prediction. In each of the above embodiments, each device directly acquires the low-resolution prediction block from the frame memory 153. However, the data 15 necessary for generating the low-resolution prediction block 106 is stored in the frame memory 153. It may be obtained from the past decoded frame 520. Thereafter, the motion compensation unit 133 may generate the prediction block 105 having the size of 16 × 16 pixels illustrated in FIG. 3 and convert the prediction block 105 into the low-resolution prediction block 106 having the size of 8 × 8 pixels. .

また、上記実施の形態では、各装置は、16×16画素の予測対象ブロックを動き推定部211への入力としたが、低解像ブロック予測は本実施例に記載した方法には限定されず、例えば、予測対象ブロックに図4の変換規則を施した低解像ブロックを上記入力としてもよい。この場合、低解像予測ブロックと低解像符号化対象ブロック(低解像予測対象ブロック)との予測誤差が小さくなるように、低解像ブロック予測用動きベクトルを選定することにより、低解像誤差ブロックの符号量が削減される効果がある。   In each of the above embodiments, each device uses a 16 × 16 pixel prediction target block as an input to the motion estimation unit 211. However, low-resolution block prediction is not limited to the method described in this embodiment. For example, a low-resolution block obtained by applying the conversion rule of FIG. 4 to the prediction target block may be used as the input. In this case, the low-resolution block prediction motion vector is selected so that the prediction error between the low-resolution prediction block and the low-resolution encoding target block (low-resolution prediction target block) becomes small. There is an effect that the code amount of the image error block is reduced.

(第8の変形態様)
かかる態様は、複数予測モードの符号化に関する。上述の実施形態では、符号化対象ブロック(復号ブロック)の予測方法を、本発明に係る予測方法のみとした。しかし、背景技術に記載したような、複数の動きベクトルを符号化する従来のブロック予測方法と、発明に係る予測方法との何れかを、符号化対象ブロック(復号ブロック)単位で、適宜選択するものとしてもよい。
(Eighth modification)
This aspect relates to encoding of multiple prediction modes. In the above-described embodiment, only the prediction method according to the present invention is used as the prediction method for the encoding target block (decoded block). However, one of the conventional block prediction method for encoding a plurality of motion vectors as described in the background art and the prediction method according to the invention is appropriately selected in units of encoding target blocks (decoding blocks). It may be a thing.

更に、上述の予測方法では、16×16ブロック内の全画素を、本発明に係る予測方法により予測するものとした。しかし、16×16ブロックを分割し、分割ブロック単位で、本発明の予測方法と、低解像ブロック予測用動きベクトルを用いたフレーム間予測方法とを適応的に切り替えてもよい。例えば、16×16符号化対象ブロック(復号ブロック)を4個の8×8ブロックに分割し、8×8単位での適応予測を行う場合において、その実施を可能とする符号化装置500を図25に示す。同様の復号装置600を図26に示す。本態様における、復号低解像ブロック及び拡大ブロックを図27に示す。   Furthermore, in the above-described prediction method, all pixels in the 16 × 16 block are predicted by the prediction method according to the present invention. However, a 16 × 16 block may be divided and the prediction method of the present invention may be adaptively switched between the prediction method of the present invention and the inter-frame prediction method using the low-resolution block prediction motion vector for each divided block. For example, in a case where a 16 × 16 encoding target block (decoding block) is divided into four 8 × 8 blocks and adaptive prediction is performed in units of 8 × 8, an encoding apparatus 500 that enables the implementation is illustrated. 25. A similar decoding device 600 is shown in FIG. FIG. 27 shows a decoded low-resolution block and an enlarged block in this aspect.

図25の符号化装置500は、図1に示した符号化装置100と、以下の点において相違する。第1に、拡大ブロック生成部1541は、復号低解像ブロックの拡大処理を8×8単位で実行する。すなわち、拡大ブロック生成部1541は、4×4単位で復号低解像ブロックを8×8拡大ブロックに拡張し、ブロック分割部162に出力する。拡大ブロック生成部1541は、図27に示すように、8×8復号低解像ブロック110を、4個の4×4低解像ブロック110a,110b,110c,110dに分割する。そして、4×4ブロック単位で、境界復号画素群128a〜128dと統合し、8×8拡大ブロック1271に拡大する。拡大された8×8拡大ブロックは、ブロック分割部165にて、ブロック1271aとブロック1271bとに示すように、4×4小ブロックと2×2小ブロックとに分割される。そして、小ブロック予測部152に入力される。   The encoding apparatus 500 in FIG. 25 is different from the encoding apparatus 100 shown in FIG. 1 in the following points. First, the enlarged block generating unit 1541 executes the decoding process of the decoded low-resolution block in units of 8 × 8. That is, the expanded block generation unit 1541 expands the decoded low-resolution block to an 8 × 8 expanded block in units of 4 × 4, and outputs it to the block dividing unit 162. As shown in FIG. 27, the enlarged block generation unit 1541 divides the 8 × 8 decoded low-resolution block 110 into four 4 × 4 low-resolution blocks 110a, 110b, 110c, and 110d. Then, the 4 × 4 block unit is integrated with the boundary decoded pixel groups 128 a to 128 d and expanded to an 8 × 8 expanded block 1271. The expanded 8 × 8 enlarged block is divided by the block dividing unit 165 into 4 × 4 small blocks and 2 × 2 small blocks as shown in blocks 1271a and 1271b. Then, it is input to the small block prediction unit 152.

なお、境界復号画素群128a〜128dには、復号画素を用いるため、この適応予測方式では、8×8単位で予測誤差の符号化処理を実行する必要がある。但し、既存の符号化方式では、通常8×8単位で予測誤差の符号化処理が実行されるため、予測処理と誤差符号化処理の実行単位を切り替えるだけで、上記適応予測方式にも対応することができる。   Note that since the decoded pixels are used for the boundary decoded pixel groups 128a to 128d, in this adaptive prediction method, it is necessary to execute a prediction error encoding process in units of 8 × 8. However, in the existing encoding method, since the prediction error encoding process is normally executed in units of 8 × 8, it is possible to cope with the adaptive prediction method only by switching the execution unit of the prediction process and the error encoding process. be able to.

第2に、判定部256は、8×8ブロック単位で、予測方法と予測ブロックの選択を行う。判定部256には、予測対象ブロック202と、動き補償部1331が低解像ブロック予測用動きベクトル104を用いてフレームメモリ153から読み出した16×16予測ブロック105とが入力される。その後、これらのブロックは、4個の8×8符号化対象ブロックと、16×16予測ブロックを4分割した低解像予測ブロック選択用8×8予測ブロックとにそれぞれ分割される。   Second, the determination unit 256 selects a prediction method and a prediction block in units of 8 × 8 blocks. The determination unit 256 receives the prediction target block 202 and the 16 × 16 prediction block 105 read from the frame memory 153 by the motion compensation unit 1331 using the low-resolution block prediction motion vector 104. Thereafter, these blocks are each divided into four 8 × 8 encoding target blocks and a low-resolution prediction block selection 8 × 8 prediction block obtained by dividing the 16 × 16 prediction block into four.

一方、判定部256には、ブロック統合部155から、本発明の小ブロック予測方法にて生成された8×8予測ブロック118が入力される。判定部256は、2種類の予測ブロックについて、符号化対象ブロックとの画素差分絶対値和を8×8単位で計算し、値が小さい方の8×8予測ブロックを選択し、16×16画素の予測ブロック126に統合する。そして、選択された予測方式の選択情報125を統合部2161に出力する。   On the other hand, the 8 × 8 prediction block 118 generated by the small block prediction method of the present invention is input from the block integration unit 155 to the determination unit 256. The determination unit 256 calculates the pixel difference absolute value sum of the two types of prediction blocks with the encoding target block in units of 8 × 8, selects the smaller 8 × 8 prediction block, and has 16 × 16 pixels. Are integrated into the prediction block 126. The selection information 125 of the selected prediction method is output to the integration unit 2161.

第3に、統合部2161は、選択情報125を、低解像ブロック情報1021に統合する。選択情報125が低解像ブロック予測用動きベクトル104を用いた予測方式を選択している場合には、8×8ブロックサイズの復号低解像ブロックのうち、対応する4×4ブロック領域の情報は必要ない。このため、かかる場合には、対応する4×4低解像誤差ブロックの量子化変換係数はすべてゼロとなるため、低解像ブロック情報1021に統合しない。   Third, the integration unit 2161 integrates the selection information 125 with the low resolution block information 1021. When the selection information 125 selects a prediction method using the low-resolution block prediction motion vector 104, information on the corresponding 4 × 4 block area among the decoded low-resolution blocks of 8 × 8 block size. Is not necessary. For this reason, in such a case, the quantization transform coefficients of the corresponding 4 × 4 low resolution error block are all zero, and are not integrated into the low resolution block information 1021.

図26の復号装置600は、図1に示した復号装置200と、以下の点において相違する。第1に、拡大ブロック生成部1541は、復号低解像ブロックの拡大処理を8×8単位で実行する。その手法は、図27を用いて説明した通りであるので、詳細は省略するが、復号側においても、8×8予測ブロックが生成された時点で、対応する8×8予測誤差ブロックの復号処理を実行し、8×8復号ブロックを復号する必要がある。   26 is different from the decoding device 200 shown in FIG. 1 in the following points. First, the enlarged block generating unit 1541 executes the decoding process of the decoded low-resolution block in units of 8 × 8. Since the method is the same as described with reference to FIG. 27, the details are omitted, but the decoding side also decodes the corresponding 8 × 8 prediction error block when the 8 × 8 prediction block is generated. To decode the 8 × 8 decoding block.

第2に、スイッチ159は、低解像ブロック情報1021から分離された選択情報125に従って、2種類の予測方式を切り替える。但し、選択情報125が動きベクトル104を用いた予測方式を選択している場合には、8×8復号低解像ブロックのうち、対応する4×4ブロック領域の情報が、低解像ブロック情報1021に含まれていない。つまり、低解像誤差ブロックの量子化係数はすべてゼロとなる。このため、当該領域については、該当する4×4低解像ブロックの復号処理、及び本発明の小ブロック予測処理は実行されない。   Second, the switch 159 switches between two types of prediction methods according to the selection information 125 separated from the low resolution block information 1021. However, when the selection information 125 selects the prediction method using the motion vector 104, the corresponding 4 × 4 block region information among the 8 × 8 decoded low resolution blocks is the low resolution block information. 1021 is not included. That is, the quantization coefficients of the low resolution error block are all zero. For this reason, the corresponding 4 × 4 low-resolution block decoding process and the small block prediction process of the present invention are not executed for the region.

なお、第8の変形態様においても、上述した第5の変形態様にて説明したブロック拡大方法の適用は可能であり、予測対象ブロックの隣接ブロックの予測方法に応じて、ブロック拡大方法を適応的に切り替えることができる。   Note that the block expansion method described in the fifth modification described above can also be applied in the eighth modification, and the block expansion method is adaptive according to the prediction method of adjacent blocks of the prediction target block. You can switch to

[第2実施形態]
以下、図面を参照しながら、本発明に係る実施形態を説明する。
[Second Embodiment]
Embodiments according to the present invention will be described below with reference to the drawings.

[装置構成]
図28には、本発明の予測復号を実現する動画像復号装置(以下「復号装置」と称する)の構成を示し、図29には、本発明の予測符号化を実現する動画像符号化装置(以下「符号化装置」と称する)の構成を示す。なお、図28及び図29において同じ番号が付された処理部は、同じ機能を有するものとする。
[Device configuration]
FIG. 28 shows the configuration of a moving picture decoding apparatus (hereinafter referred to as “decoding apparatus”) that implements predictive decoding according to the present invention, and FIG. 29 shows a moving picture coding apparatus that implements predictive coding according to the present invention. (Hereinafter referred to as “encoding device”). It should be noted that the processing units with the same numbers in FIGS. 28 and 29 have the same functions.

[符号化装置の構成]
図29の符号化装置は、入力フレーム201を符号化ブロック分割部251にて8×8の符号化対象ブロック202に分割し、分割で得られた複数の符号化対象ブロック202をラスタスキャン順に符号化する装置である。第1実施形態と同様に、本実施形態でも予測対象の予測対象ブロックと符号化対象の符号化対象ブロックのブロックサイズを同じとするため、予測対象ブロックと符号化対象ブロックは一致する。また、予測ブロックとは、過去に復号した画素から予測処理により生成されるブロックである。なお、予測対象ブロックと符号化対象ブロックのブロックサイズが異なっても良い。符号化対象ブロック202はまず、復号低解像ブロック生成部252に入力される。
[Configuration of Encoding Device]
29 divides the input frame 201 into 8 × 8 encoding target blocks 202 by the encoding block dividing unit 251 and encodes a plurality of encoding target blocks 202 obtained by the division in the raster scan order. It is a device to convert. Similarly to the first embodiment, in this embodiment, since the block size of the prediction target block to be predicted is the same as that of the encoding target block to be encoded, the prediction target block and the encoding target block match. Moreover, a prediction block is a block produced | generated by the prediction process from the pixel decoded in the past. Note that the block sizes of the prediction target block and the encoding target block may be different. The encoding target block 202 is first input to the decoded low resolution block generation unit 252.

復号低解像ブロック生成部252は、「符号化対象ブロック(予測対象ブロック)202よりも画素数の少ない復号低解像ブロック110」及び「低解像ブロック情報102」を生成する処理部である。ここで、復号低解像ブロック生成部252の動作を説明する。動き推定部211には、符号化対象ブロック(予測対象ブロック)202がラスタスキャン順に入力され、動き推定部211は、入力された符号化対象ブロック(予測対象ブロック)202とフレームメモリ153に保持されている複数の候補予測ブロック203との間でブロックマッチングを実施し、1本の動きベクトル104を検出する。動きベクトル予測・符号化部212は、検出された動きベクトル104を入力し、各成分の値について予測動きベクトルの各成分の値を減算した差分動きベクトル103を算出する。予測動きベクトルは、現ブロックの左、直上、右上(フレームの外の場合は、左上)の隣接3ブロックの動きベクトルを対象とした中央値予測(成分毎)により算出される。動き補償部133は、フレームメモリ153に保持されている復号済みの復号フレーム520から、動きベクトル104に対応するブロック105を取得する。ブロック105は、縮小化処理部134によって、図36に示すように、縦横1ライン置きに画素を抽出した低解像予測ブロック106に変換される。さらに符号化対象ブロック(予測対象ブロック)202も同様に、縮小化処理部134によって符号化対象ブロック(予測対象ブロック)202よりも画素数の少ない低解像符号化対象ブロック(低解像予測対象ブロック)205に変換される。減算部213は、低解像符号化対象ブロック(低解像予測対象ブロック)205の各画素について、低解像予測ブロック106と空間的に一致する位置の画素と当該各画素との差分値を算出し、低解像誤差ブロック206を生成する。変換部214は低解像誤差ブロック206を4x4離散コサイン変換(DCT)し、16個の低解像誤差ブロックの変換係数207を生成する。量子化部215は変換係数207を量子化し、低解像誤差ブロックの量子化変換係数107を生成する。統合部216は、差分動きベクトル103と低解像誤差ブロックの量子化変換係数107とをまとめて、低解像ブロック情報102としてエントロピー符号化部255に出力する。逆量子化部136は、量子化変換係数107を逆量子化し、低解像誤差ブロックの復号量子化変換係数108を生成する。逆変換部137は、復号量子化変換係数108を逆DCT変換し、復号低解像誤差ブロック109を生成する。加算部217は、低解像予測ブロック106の各画素について、復号低解像誤差ブロック109と空間的に一致する位置の画素と当該各画素との加算値を算出し、復号低解像ブロック110を生成する。   The decoded low-resolution block generation unit 252 is a processing unit that generates the “decoded low-resolution block 110 having a smaller number of pixels than the encoding target block (prediction target block) 202” and “low-resolution block information 102”. . Here, the operation of the decoded low-resolution block generation unit 252 will be described. The motion estimation unit 211 receives the encoding target block (prediction target block) 202 in the raster scan order, and the motion estimation unit 211 is held in the input encoding target block (prediction target block) 202 and the frame memory 153. Block matching is performed with a plurality of candidate prediction blocks 203, and one motion vector 104 is detected. The motion vector prediction / encoding unit 212 receives the detected motion vector 104 and calculates a difference motion vector 103 obtained by subtracting the value of each component of the predicted motion vector from the value of each component. The predicted motion vector is calculated by median prediction (each component) for the motion vectors of three adjacent blocks on the left, directly above, and upper right (upper left in the case of outside the frame) of the current block. The motion compensation unit 133 acquires the block 105 corresponding to the motion vector 104 from the decoded frame 520 that is already stored in the frame memory 153. The block 105 is converted into a low resolution prediction block 106 in which pixels are extracted every other vertical and horizontal lines, as shown in FIG. Further, the encoding target block (prediction target block) 202 is similarly reduced by the reduction processing unit 134 to a low resolution encoding target block (low resolution prediction target) having a smaller number of pixels than the encoding target block (prediction target block) 202. Block) 205. For each pixel of the low-resolution encoding target block (low-resolution prediction target block) 205, the subtraction unit 213 calculates a difference value between the pixel at a position spatially matching the low-resolution prediction block 106 and each pixel. The low resolution error block 206 is generated by calculation. The conversion unit 214 performs 4 × 4 discrete cosine transform (DCT) on the low resolution error block 206 to generate conversion coefficients 207 of 16 low resolution error blocks. The quantization unit 215 quantizes the transform coefficient 207 to generate a quantized transform coefficient 107 of a low resolution error block. The integrating unit 216 collects the difference motion vector 103 and the quantized transform coefficient 107 of the low resolution error block, and outputs them to the entropy encoding unit 255 as the low resolution block information 102. The inverse quantization unit 136 inversely quantizes the quantized transform coefficient 107 to generate a decoded quantized transform coefficient 108 of the low resolution error block. The inverse transform unit 137 performs inverse DCT transform on the decoded quantized transform coefficient 108 to generate a decoded low resolution error block 109. The adder 217 calculates, for each pixel of the low resolution prediction block 106, an addition value between the pixel at a position spatially coincident with the decoded low resolution error block 109 and each pixel, and the decoded low resolution block 110. Is generated.

次に、低解像ブロック分割部166は、復号低解像ブロック110を、図36のブロック106と同様に2x2の低解像分割ブロック112に分割する。各低解像分割ブロック112は、小ブロック予測部158(図1、図2の152に相当)に入力される。   Next, the low-resolution block dividing unit 166 divides the decoded low-resolution block 110 into 2 × 2 low-resolution divided blocks 112 in the same manner as the block 106 in FIG. Each low-resolution divided block 112 is input to the small block prediction unit 158 (corresponding to 152 in FIGS. 1 and 2).

小ブロック予測部158は、フレームメモリ153に保持されている復号済み画像を用いて、低解像分割ブロック112毎に、4x4の予測小ブロック116を生成する処理部である。この小ブロック予測部158の処理は、復号済み画像のみを入力として実施するため、復号装置においても同様の処理が実施できる。ここで、小ブロック予測部158の動作を説明する。小ブロック予測部158に入力された4x4ブロック(「候補予測小ブロック」という)113は、縮小化処理部134によって、画素数の少ない候補縮小予測小ブロック114に変換され、拡大動き推定部138へ出力される。拡大動き推定部138は、図35に示す2x2の低解像分割ブロック112(112a〜112d)と、低解像分割ブロックの4画素と空間的に対応する4画素(候補縮小予測小ブロック114)との間のブロックマッチングを実施し、低解像分割ブロックの動きベクトル115(115a〜115d)を検出する。この際の差分評価値は、「低解像分割ブロックの4画素」と「検索する4x4ブロック(候補予測小ブロック113)の16画素の内、低解像分割ブロックの4画素と空間的に対応する4画素(候補縮小予測小ブロック114)」との差分絶対値和とする(詳細は図32を用いて後述する)。このような復号済み画像のみを入力値とした差分評価値は、復号装置でも算出できるため、復号装置でも符号化装置と同じ動きベクトルを検出することができる。予測小ブロック取得部139は、低解像分割ブロックの動きベクトル115(115a〜115d)に対応する4x4予測小ブロック116(116a〜116d)を、フレームメモリ153の復号フレーム520から取得する。   The small block prediction unit 158 is a processing unit that generates a 4 × 4 prediction small block 116 for each low resolution divided block 112 using the decoded image stored in the frame memory 153. Since the process of the small block predicting unit 158 is performed using only the decoded image as an input, the same process can be performed in the decoding apparatus. Here, the operation of the small block prediction unit 158 will be described. A 4 × 4 block (referred to as a “candidate prediction small block”) 113 input to the small block prediction unit 158 is converted into a candidate reduced prediction small block 114 having a small number of pixels by the reduction processing unit 134, and is supplied to the expansion motion estimation unit 138. Is output. The expanded motion estimation unit 138 has a 2 × 2 low-resolution divided block 112 (112a to 112d) illustrated in FIG. 35 and four pixels spatially corresponding to the four pixels of the low-resolution divided block (candidate reduced prediction small block 114). And the motion vector 115 (115a to 115d) of the low resolution divided block is detected. The difference evaluation value at this time spatially corresponds to 4 pixels of the low resolution divided block among 16 pixels of “4 pixels of the low resolution divided block” and “4 × 4 block to be searched (candidate prediction small block 113)”. The sum of absolute differences is 4 pixels (candidate reduced prediction small block 114) ”(details will be described later using FIG. 32). Since a difference evaluation value using only such decoded images as input values can be calculated by the decoding device, the same motion vector as that of the encoding device can be detected by the decoding device. The predicted small block acquisition unit 139 acquires the 4 × 4 predicted small blocks 116 (116 a to 116 d) corresponding to the motion vectors 115 (115 a to 115 d) of the low resolution divided blocks from the decoded frame 520 of the frame memory 153.

次に、ブロック統合部155は、図35の左側に示すように4個の予測小ブロック116a〜116dを統合し、8x8の予測ブロック118(図29)を生成する。減算部253は、符号化対象ブロック202の各画素について、予測ブロック118と空間的に一致する位置の画素と当該各画素との差分値を算出し、誤差ブロック208を生成する。   Next, the block integration unit 155 integrates the four prediction small blocks 116a to 116d as shown on the left side of FIG. 35, and generates an 8 × 8 prediction block 118 (FIG. 29). The subtraction unit 253 calculates, for each pixel of the encoding target block 202, a difference value between the pixel at a position spatially coincident with the prediction block 118 and each pixel, and generates an error block 208.

誤差ブロック符号化部254は、誤差ブロック208を符号化して誤差ブロック情報119を生成し、エントロピー符号化部255に出力する処理部である。ここで、誤差ブロック符号化部254の動作を説明する。変換部218は誤差ブロック208を8x8離散コサイン変換(DCT)し、64個の変換係数209を生成する。量子化部219は変換係数209を量子化し、誤差ブロック情報(量子化変換係数)119を生成する。   The error block encoding unit 254 is a processing unit that encodes the error block 208 to generate error block information 119 and outputs the error block information 119 to the entropy encoding unit 255. Here, the operation of the error block encoding unit 254 will be described. The transform unit 218 performs 8 × 8 discrete cosine transform (DCT) on the error block 208 to generate 64 transform coefficients 209. The quantization unit 219 quantizes the transform coefficient 209 to generate error block information (quantized transform coefficient) 119.

誤差ブロック復号部156は、誤差ブロック情報119を復号して復号誤差ブロック121を生成する処理部である。ここで、誤差ブロック復号部156の動作を説明する。逆量子化部140は、量子化変換係数119を逆量子化し、復号量子化変換係数120を生成する。逆変換部141は、復号量子化変換係数120を逆DCT変換し、復号誤差ブロック121を生成する。   The error block decoding unit 156 is a processing unit that generates the decoded error block 121 by decoding the error block information 119. Here, the operation of the error block decoding unit 156 will be described. The inverse quantization unit 140 inversely quantizes the quantized transform coefficient 119 to generate a decoded quantized transform coefficient 120. The inverse transform unit 141 performs inverse DCT transform on the decoded quantized transform coefficient 120 to generate a decoded error block 121.

次に、加算部157は、予測ブロック118の各画素について、復号誤差ブロック121と空間的に一致する位置の画素と当該各画素との加算値を算出し、復号ブロック122を生成する。生成された復号ブロック122はフレームメモリ153の現在の復号フレーム610に保持される。最後に、エントロピー符号化部255は、低解像ブロック情報102と誤差ブロック情報119とをエントロピー符号化して、符号化データ101に多重化する。   Next, the addition unit 157 calculates the addition value of the pixel at the position spatially coincident with the decoding error block 121 and each pixel for each pixel of the prediction block 118 and generates a decoding block 122. The generated decoded block 122 is held in the current decoded frame 610 of the frame memory 153. Finally, the entropy encoding unit 255 performs entropy encoding on the low-resolution block information 102 and the error block information 119 and multiplexes the encoded data 101.

[復号装置の構成]
図28の復号装置は、符号化データ101を復号し、8x8復号ブロック122をラスタスキャン順で再生する装置である。1個の8x8復号ブロックに相当する符号化データ101は、まず、エントロピー復号部150に入力される。エントロピー復号部150は、エントロピー復号によって低解像ブロック情報102と誤差ブロック情報119とを生成する。
[Configuration of Decoding Device]
The decoding device in FIG. 28 is a device that decodes the encoded data 101 and reproduces the 8 × 8 decoding block 122 in raster scan order. The encoded data 101 corresponding to one 8 × 8 decoded block is first input to the entropy decoding unit 150. The entropy decoding unit 150 generates low resolution block information 102 and error block information 119 by entropy decoding.

低解像ブロック復号部151は、低解像ブロック情報102を復号して、復号ブロックよりも画素数の少ない復号低解像ブロック110を生成する処理部である。ここで、低解像ブロック復号部151の動作を説明する。分離部131は、低解像ブロック情報102を差分動きベクトル103と低解像誤差ブロック情報(低解像誤差ブロックの量子化変換係数)107とに分離する。動きベクトル予測・復号部132は、差分動きベクトル103の各成分の値に予測動きベクトルの各成分の値を加算することにより動きベクトル104を算出する。予測動きベクトルは、例えば、現ブロックの左、直上、右上(フレームの外の場合は、左上)の隣接3ブロックの動きベクトルを対象とした中央値予測(成分毎)により算出される。動き補償部133は、フレームメモリ153に保持されている復号済みの復号フレーム520から、動きベクトル104に対応するブロック105を取得する。ブロック105は、縮小化処理部134によって、図36に示すように、縦横1ライン置きに画素を抽出した低解像予測ブロック106に変換される。逆量子化部136は、低解像誤差ブロックの量子化変換係数107を逆量子化し、低解像誤差ブロックの復号量子化変換係数108を生成する。逆変換部137は、復号量子化変換係数108を逆DCT変換し、復号低解像誤差ブロック109を生成する。加算部135は、低解像予測ブロック106の各画素について、復号低解像誤差ブロック109と空間的に一致する位置の画素と当該各画素との加算値を算出し、復号低解像ブロック110を生成する。   The low-resolution block decoding unit 151 is a processing unit that decodes the low-resolution block information 102 and generates a decoded low-resolution block 110 having a smaller number of pixels than the decoded block. Here, the operation of the low-resolution block decoding unit 151 will be described. The separation unit 131 separates the low-resolution block information 102 into the differential motion vector 103 and the low-resolution error block information (quantized transform coefficient of the low-resolution error block) 107. The motion vector prediction / decoding unit 132 calculates the motion vector 104 by adding the value of each component of the motion vector predictor to the value of each component of the differential motion vector 103. The predicted motion vector is calculated, for example, by median prediction (for each component) for the motion vectors of three adjacent blocks on the left, immediately above, and upper right (upper left in the case of outside the frame) of the current block. The motion compensation unit 133 acquires the block 105 corresponding to the motion vector 104 from the decoded frame 520 that is already stored in the frame memory 153. The block 105 is converted into a low resolution prediction block 106 in which pixels are extracted every other vertical and horizontal lines, as shown in FIG. The inverse quantization unit 136 inversely quantizes the quantized transform coefficient 107 of the low resolution error block, and generates a decoded quantized transform coefficient 108 of the low resolution error block. The inverse transform unit 137 performs inverse DCT transform on the decoded quantized transform coefficient 108 to generate a decoded low resolution error block 109. The adder 135 calculates, for each pixel of the low resolution prediction block 106, an addition value between the pixel at a position spatially coincident with the decoded low resolution error block 109 and each pixel, and the decoded low resolution block 110. Is generated.

次に、低解像ブロック分割部166は、図36のブロック106と同様に、復号低解像ブロック110を2x2の低解像分割ブロック112に分割する。各低解像分割ブロック112は、小ブロック予測部158に入力される。   Next, the low-resolution block dividing unit 166 divides the decoded low-resolution block 110 into 2 × 2 low-resolution divided blocks 112, similarly to the block 106 in FIG. Each low-resolution divided block 112 is input to the small block prediction unit 158.

小ブロック予測部158(図1、図2の152に相当)は、フレームメモリ153に保持されている復号済み画像を用いて、低解像分割ブロック112毎に、4x4の予測小ブロック116を生成する処理部である。ここで、小ブロック予測部158の動作を説明する。拡大動き推定部138は、図35に示す2x2の低解像分割ブロック112(112a〜112d)と、低解像分割ブロックの4画素と空間的に対応する4画素(候補縮小予測小ブロック114)との間のブロックマッチングを実施し、低解像分割ブロックの動きベクトル115(115a〜115d)を検出する。この際の差分評価値は、「低解像分割ブロックの4画素」と「検索する4x4ブロック(候補予測小ブロック113)の16画素の内、低解像分割ブロックの4画素と空間的に対応する4画素(候補縮小予測小ブロック114)」との差分絶対値和とする(詳細は図32を用いて後述する)。このような復号済み画像のみを入力値とした差分評価値は、復号装置でも算出できるため、復号装置でも符号化装置と同じ動きベクトルを検出することができる。予測小ブロック取得部139は、低解像分割ブロックの動きベクトル115(115a〜115d)に対応する4x4予測小ブロック116(116a〜116d)を、フレームメモリ153の復号フレーム520から取得する。   The small block prediction unit 158 (corresponding to 152 in FIGS. 1 and 2) generates a 4 × 4 prediction small block 116 for each low resolution divided block 112 using the decoded image held in the frame memory 153. Is a processing unit. Here, the operation of the small block prediction unit 158 will be described. The expanded motion estimation unit 138 has a 2 × 2 low-resolution divided block 112 (112a to 112d) illustrated in FIG. 35 and four pixels spatially corresponding to the four pixels of the low-resolution divided block (candidate reduced prediction small block 114). And the motion vector 115 (115a to 115d) of the low resolution divided block is detected. The difference evaluation value at this time spatially corresponds to 4 pixels of the low resolution divided block among 16 pixels of “4 pixels of the low resolution divided block” and “4 × 4 block to be searched (candidate prediction small block 113)”. The sum of absolute differences is 4 pixels (candidate reduced prediction small block 114) ”(details will be described later using FIG. 32). Since a difference evaluation value using only such decoded images as input values can be calculated by the decoding device, the same motion vector as that of the encoding device can be detected by the decoding device. The predicted small block acquisition unit 139 acquires the 4 × 4 predicted small blocks 116 (116 a to 116 d) corresponding to the motion vectors 115 (115 a to 115 d) of the low resolution divided blocks from the decoded frame 520 of the frame memory 153.

次に、ブロック統合部155は、図35の左側に示すように4個の予測小ブロック116a〜116dを統合し、8x8の予測ブロック118(図28)を生成する。   Next, the block integration unit 155 integrates the four prediction small blocks 116a to 116d as shown on the left side of FIG. 35, and generates an 8 × 8 prediction block 118 (FIG. 28).

誤差ブロック復号部156は、誤差ブロック情報(量子化変換係数)119を復号して復号誤差ブロック121を生成する処理部である。ここで、誤差ブロック復号部156の動作を説明する。逆量子化部140は、量子化変換係数119を逆量子化し、復号量子化変換係数120を生成する。逆変換部141は、復号量子化変換係数120を逆DCT変換し、復号誤差ブロック121を生成する。   The error block decoding unit 156 is a processing unit that generates the decoded error block 121 by decoding the error block information (quantized transform coefficient) 119. Here, the operation of the error block decoding unit 156 will be described. The inverse quantization unit 140 inversely quantizes the quantized transform coefficient 119 to generate a decoded quantized transform coefficient 120. The inverse transform unit 141 performs inverse DCT transform on the decoded quantized transform coefficient 120 to generate a decoded error block 121.

次に、加算部157は、予測ブロック118の各画素について、復号誤差ブロック121と空間的に一致する位置の画素と当該各画素との加算値を算出し、復号ブロック122を生成する。復号ブロック122はフレームメモリ153の現在の復号フレーム610に保持される。   Next, the addition unit 157 calculates the addition value of the pixel at the position spatially coincident with the decoding error block 121 and each pixel for each pixel of the prediction block 118 and generates a decoding block 122. The decoding block 122 is held in the current decoding frame 610 of the frame memory 153.

[処理フローの説明]
図30には、本発明の予測復号を実現する動画像復号処理フローを示し、図33には、本発明の予測符号化を実現する動画像符号化処理フローを示す。なお、図30及び図33において同じ番号が付された処理は、同じ処理結果を導くものとする。
[Description of processing flow]
FIG. 30 shows a moving picture decoding process flow for realizing the predictive decoding of the present invention, and FIG. 33 shows a moving picture coding process flow for realizing the predictive coding of the present invention. It should be noted that the processes with the same numbers in FIGS. 30 and 33 lead to the same process results.

[動画像復号処理フロー]
図30にて本発明の予測符号化を実現する動画像復号処理フローを説明する。次の復号ブロックの復号処理が開始されると(処理401)、まず、処理402により、次の復号ブロックの復号に必要とされる1ブロック分の符号化データが図28のエントロピー復号部150に入力される。入力された符号化データは、処理403にて、エントロピー復号部150によってエントロピー復号され、低解像ブロック情報と誤差ブロック情報とが得られる。このうち低解像ブロック情報は処理404にて、低解像ブロック復号部151によって低解像ブロック復号処理が施され、復号低解像ブロックが生成される。
[Video decoding process flow]
A moving picture decoding process flow for realizing the predictive coding of the present invention will be described with reference to FIG. When the decoding process for the next decoding block is started (process 401), first, the encoded data for one block required for decoding the next decoding block is sent to the entropy decoding unit 150 in FIG. Entered. In step 403, the input encoded data is entropy-decoded by the entropy decoding unit 150, and low-resolution block information and error block information are obtained. Of these, the low-resolution block information is subjected to low-resolution block decoding processing by the low-resolution block decoding unit 151 in process 404 to generate a decoded low-resolution block.

ここで、図31を用いて、処理404の低解像ブロック復号処理フローを説明する。低解像ブロック復号処理が開始されると(処理421)、まず、分離部131が低解像ブロック情報を取得し(処理422)、該低解像ブロック情報を差分動きベクトルと低解像誤差ブロック情報とに分離する(処理423)。処理424では、動きベクトル予測・復号部132が、差分動きベクトル103の各成分の値に予測動きベクトルの各成分の値を加算することにより動きベクトル104を算出(復号)する。予測動きベクトルは、例えば、現ブロックの左、直上、右上(フレームの外の場合は、左上)の隣接3ブロックの動きベクトルを対象とした中央値予測(成分毎)により算出される。得られた動きベクトルは、以降の復号ブロックの復号における動きベクトル予測処理のために保持される。   Here, the low-resolution block decoding process flow of the process 404 will be described with reference to FIG. When the low-resolution block decoding process is started (process 421), first, the separation unit 131 acquires low-resolution block information (process 422), and the low-resolution block information is converted into a differential motion vector and a low-resolution error. Separated into block information (process 423). In the process 424, the motion vector prediction / decoding unit 132 calculates (decodes) the motion vector 104 by adding the value of each component of the motion vector predictor to the value of each component of the differential motion vector 103. The predicted motion vector is calculated, for example, by median prediction (for each component) for the motion vectors of three adjacent blocks on the left, immediately above, and upper right (upper left in the case of outside the frame) of the current block. The obtained motion vector is retained for the motion vector prediction process in the subsequent decoding of the decoded block.

次の処理425では、動き補償部133が、フレームメモリ153に保持されている復号済みの復号フレーム520から、動きベクトル104に対応するブロック105を取得する。次の処理426では、取得されたブロック105は、縮小化処理部134によって、図36に示すように縦横1ライン置きに画素を抽出した低解像予測ブロック106に変換される。   In the next process 425, the motion compensation unit 133 acquires the block 105 corresponding to the motion vector 104 from the decoded frame 520 that has been stored in the frame memory 153. In the next process 426, the acquired block 105 is converted into a low-resolution prediction block 106 in which pixels are extracted every other vertical and horizontal lines as shown in FIG.

次の処理427では、逆量子化部136が、低解像誤差ブロックの量子化変換係数107を逆量子化し、低解像誤差ブロックの復号量子化変換係数108を生成する。そして、逆変換部137が、復号量子化変換係数108を逆DCT変換し、復号低解像誤差ブロック109を生成する。そして、処理428では、加算部135が、低解像予測ブロック106の各画素について、復号低解像誤差ブロック109と空間的に一致する位置の画素と当該各画素との加算値を算出し、復号低解像ブロック110を生成して、低解像ブロック復号処理を終了する(処理429)。   In the next process 427, the inverse quantization unit 136 inversely quantizes the quantized transform coefficient 107 of the low resolution error block to generate the decoded quantized transform coefficient 108 of the low resolution error block. Then, the inverse transform unit 137 performs inverse DCT transform on the decoded quantized transform coefficient 108 to generate a decoded low resolution error block 109. In process 428, the adding unit 135 calculates, for each pixel of the low resolution prediction block 106, an addition value between the pixel at a position spatially coincident with the decoded low resolution error block 109 and each pixel, A decoded low-resolution block 110 is generated, and the low-resolution block decoding process is terminated (process 429).

図30に説明を戻す。処理405では、低解像ブロック分割部166が、復号低解像ブロック110を2x2の低解像分割ブロック112に分割する。処理406では、小ブロック予測部158が、4個の低解像分割ブロック112に対して、小ブロック予測処理を施す。   Returning to FIG. In the process 405, the low resolution block dividing unit 166 divides the decoded low resolution block 110 into 2 × 2 low resolution division blocks 112. In processing 406, the small block prediction unit 158 performs small block prediction processing on the four low-resolution divided blocks 112.

ここで、図32を用いて小ブロック予測処理フローを説明する。小ブロック予測処理が開始されると(処理430)、まず、処理431では、初期値として、評価値Eminは最大整数値に設定され、分割動きベクトル0ベクトルに設定される。次に、処理432では、低解像分割ブロック112が小ブロック予測部158に入力される。続いて処理434の拡大動き推定処理では、拡大動き推定部138によって低解像分割ブロックの動きベクトルが検出される。   Here, the small block prediction processing flow will be described with reference to FIG. When the small block prediction process is started (process 430), first, in process 431, as an initial value, the evaluation value Emin is set to the maximum integer value and set to the divided motion vector 0 vector. Next, in process 432, the low resolution divided block 112 is input to the small block prediction unit 158. Subsequently, in the expanded motion estimation process of process 434, the expanded motion estimation unit 138 detects the motion vector of the low resolution divided block.

この拡大動き推定処理では、フレームメモリ153の復号フレームの探索範囲(縦、横方向に±16画素)内をその中心(0ベクトル)からスパイラル順に候補予測小ブロックが抽出され、評価値Eminが最小となる予測小ブロック位置が検出される。より具体的には、処理4341にて、フレームメモリ153の復号フレームから次の候補の予測小ブロックが取得され、処理4342にて、取得された候補予測小ブロックが、例えば図36のブロック106と同様に低解像予測ブロックの次元(画素数)に変換される。処理4343では、評価値E(「低解像分割ブロックの4画素」と「検索する4x4ブロックの16画素の内、低解像分割ブロックの4画素と空間的に対応する4画素」との差分の絶対値和)が計算され、処理4344では、評価値Eが評価値Eminより小さいか否かが判断される。ここで、評価値Eが評価値Eminより小さい場合には、処理4345にて、評価値Eminが評価値Eに更新され、分割動きベクトルが、評価値Eに対応する分割動きベクトルに更新される。以降、処理4341〜処理4345が、探索範囲内の全ての候補予測小ブロックの探索が終了するまで、繰り返される。最後に、処理435にて、予測小ブロック取得部139が、評価値Eが最小となる分割動きベクトルに対応する予測小ブロックを、フレームメモリ153の復号フレームから取得することにより、小ブロック予測処理が終了する(処理436)。以上の小ブロック予測処理により、4個の予測小ブロックが生成される。   In this expanded motion estimation process, candidate prediction small blocks are extracted in the spiral order from the center (0 vector) within the search range (± 16 pixels in the vertical and horizontal directions) of the decoded frame in the frame memory 153, and the evaluation value Emin is minimized. The predicted small block position is detected. More specifically, the next candidate predicted small block is acquired from the decoded frame of the frame memory 153 in the process 4341, and the acquired candidate predicted small block is processed in the process 4342, for example, with the block 106 in FIG. Similarly, it is converted into the dimension (number of pixels) of the low resolution prediction block. In the process 4343, the difference between the evaluation value E (“4 pixels of the low resolution divided block” and “4 pixels spatially corresponding to 4 pixels of the low resolution divided block among the 16 pixels of the 4 × 4 block to be searched”) In step 4344, it is determined whether or not the evaluation value E is smaller than the evaluation value Emin. If the evaluation value E is smaller than the evaluation value Emin, the evaluation value Emin is updated to the evaluation value E in processing 4345, and the divided motion vector is updated to the divided motion vector corresponding to the evaluation value E. . Thereafter, processing 4341 to processing 4345 are repeated until the search for all candidate prediction small blocks within the search range is completed. Finally, in process 435, the predicted small block acquisition unit 139 acquires the predicted small block corresponding to the divided motion vector having the smallest evaluation value E from the decoded frame in the frame memory 153, thereby performing the small block prediction process. Is terminated (process 436). By the above small block prediction process, four predicted small blocks are generated.

説明を図30に戻す。処理406にて生成された4個の予測小ブロックは、処理407にてブロック統合部155によって、予測ブロックに統合される。次の処理408では、誤差ブロック復号部156が、誤差ブロック情報(量子化変換係数)を復号(逆量子化・逆変換)し、復号誤差ブロックを生成する。次の処理409では、加算部157によって予測ブロックと復号誤差ブロックとが各画素について加算され、復号ブロックが生成される。最後に、処理410にて、復号ブロックはフレームメモリ153の現在の復号フレームに保持され、ブロック復号処理は終了する(処理411)。   Returning to FIG. The four predicted small blocks generated in the process 406 are integrated into a predicted block by the block integration unit 155 in the process 407. In the next process 408, the error block decoding unit 156 decodes (inverse quantization / inverse transform) error block information (quantized transform coefficient) to generate a decoded error block. In the next process 409, the addition unit 157 adds the prediction block and the decoding error block for each pixel to generate a decoding block. Finally, in process 410, the decoded block is held in the current decoded frame in the frame memory 153, and the block decoding process ends (process 411).

[動画像符号化処理フロー]
次に、図33を用いて本発明の予測符号化を実現する符号化対象ブロックの符号化処理フローを説明する。最初に、図29の符号化ブロック分割部251が入力フレーム201を分割することにより、符号化対象ブロック202が得られる。符号化対象ブロック202の符号化処理が開始されると(処理441)、まず、処理442では、復号低解像ブロック生成部252が、図34の低解像ブロック符号化・復号処理を実行する。
[Video coding process flow]
Next, an encoding process flow of an encoding target block that realizes predictive encoding according to the present invention will be described with reference to FIG. First, the coding block dividing unit 251 in FIG. 29 divides the input frame 201, whereby the coding target block 202 is obtained. When the encoding process of the encoding target block 202 is started (process 441), first, in process 442, the decoded low-resolution block generation unit 252 executes the low-resolution block encoding / decoding process of FIG. .

以下、図34を用いて低解像ブロック符号化・復号処理を説明する。低解像ブロック符号化・復号処理が開始されると(処理451)、まず、処理452にて、次の符号化対象ブロックが入力され、処理453では、符号化対象ブロックとフレームメモリの復号フレームとから動きベクトルが検出される。なお、ここでの動きベクトルの検出方法については、図29の復号低解像ブロック生成部252の構成説明において、説明済みのため割愛する。次の処理454では、フレームメモリの復号フレームから動きベクトルに対応するブロックが取得される。次の処理455では、予測動きベクトル生成後、動きベクトルと予測動きベクトルとの間で各成分について減算処理が行われ、差分動きベクトルが生成される。動きベクトルと生成された差分動きベクトルとは、以降の符号化対象ブロックにおける動きベクトル予測のために保持される。なお、ここでの予測動きベクトルの生成方法については、図29の動きベクトル予測・符号化部212の構成説明において、説明済みのため割愛する。次の処理456では、符号化対象ブロック(予測対象ブロック)が、例えば図36のブロック106と同様に、低解像符号化対象ブロック(低解像予測対象ブロック)に変換され、さらに処理457では、動きベクトルに対応するブロックが、上記符号化対象ブロック(予測対象ブロック)と同様に、低解像予測ブロックに変換される。   Hereinafter, the low-resolution block encoding / decoding process will be described with reference to FIG. When the low-resolution block encoding / decoding process is started (process 451), first, in process 452, the next encoding target block is input. In process 453, the encoding target block and the decoded frame in the frame memory are input. From these, a motion vector is detected. Note that the motion vector detection method here is omitted because it has already been described in the configuration of the decoded low-resolution block generation unit 252 in FIG. In the next process 454, a block corresponding to the motion vector is obtained from the decoded frame in the frame memory. In the next process 455, after the predicted motion vector is generated, a subtraction process is performed on each component between the motion vector and the predicted motion vector to generate a differential motion vector. The motion vector and the generated differential motion vector are retained for motion vector prediction in subsequent encoding target blocks. The predicted motion vector generation method here is omitted because it has already been described in the configuration of the motion vector prediction / encoding unit 212 in FIG. In the next process 456, the encoding target block (prediction target block) is converted into a low resolution encoding target block (low resolution prediction target block), for example, similarly to the block 106 in FIG. The block corresponding to the motion vector is converted into a low resolution prediction block in the same manner as the encoding target block (prediction target block).

処理458では、低解像符号化対象ブロック(低解像予測対象ブロック)と低解像予測ブロックとの間で各画素について減算が行われ、低解像誤差ブロックが生成される。次の処理459では、低解像誤差ブロックが符号化(変換・量子化)され、低解像誤差ブロックの量子化変換係数が生成される。次の処理427では、量子化変換係数が復号(逆量子化・逆変換)され、復号低解像誤差ブロックが生成される。次の処理428では、低解像予測ブロックと復号低解像誤差ブロックとの間で各画素について加算が行われ、復号低解像ブロックが生成される。最後に、処理460では、差分動きベクトルと量子化変換係数とが統合され、低解像ブロック情報が生成されて、低解像ブロック符号化・復号処理が終了する(処理461)。   In the process 458, subtraction is performed on each pixel between the low-resolution encoding target block (low-resolution prediction target block) and the low-resolution prediction block to generate a low-resolution error block. In the next process 459, the low resolution error block is encoded (transformed / quantized), and the quantized transform coefficient of the low resolution error block is generated. In the next process 427, the quantized transform coefficient is decoded (inverse quantization / inverse transform), and a decoded low-resolution error block is generated. In the next process 428, addition is performed for each pixel between the low-resolution prediction block and the decoded low-resolution error block to generate a decoded low-resolution block. Finally, in process 460, the differential motion vector and the quantized transform coefficient are integrated, low-resolution block information is generated, and the low-resolution block encoding / decoding process ends (process 461).

説明を図33に戻す。処理405では、低解像ブロック分割部166が、生成された復号低解像ブロックを、低解像分割ブロックに分割する。処理406では、小ブロック予測部158が、分割された低解像分割ブロックに対して小ブロック予測処理を施し、予測小ブロックを生成する。なお、ここでは、小ブロック予測処理(図32)については、既に説明済みのため、説明を省略する。   Returning to FIG. In process 405, the low-resolution block dividing unit 166 divides the generated decoded low-resolution block into low-resolution divided blocks. In the process 406, the small block prediction unit 158 performs a small block prediction process on the divided low-resolution divided block to generate a predicted small block. Here, since the small block prediction process (FIG. 32) has already been described, the description thereof is omitted.

処理407では、ブロック統合部155が、生成された予測小ブロックを、予測ブロックに統合する。次の処理443では、減算部253が符号化対象ブロックと予測ブロックとの間で各画素の減算処理を実施し、誤差ブロックを生成する。次の処理444では、誤差ブロック符号化部254が誤差ブロックを符号化(変換・量子化)し、誤差ブロック情報(量子化変換係数)を生成する。次の処理408では、誤差ブロック復号部156がに誤差ブロック情報(量子化変換係数)を復号(逆量子化・逆変換)し、復号誤差ブロックを生成する。次の処理409では、加算部157が予測ブロックと復号誤差ブロックとの間で各画素の加算処理を実施し、復号ブロックを生成する。そして、処理410にて、生成された復号ブロックがフレームメモリ153の現在の復号フレームに保持された後、処理445では、エントロピー符号化部255が、低解像ブロック情報と誤差ブロック情報とをエントロピー符号化し、ブロック符号化処理は終了する(処理446)。   In process 407, the block integration unit 155 integrates the generated prediction small block into the prediction block. In the next process 443, the subtraction unit 253 performs a subtraction process on each pixel between the encoding target block and the prediction block to generate an error block. In the next processing 444, the error block encoding unit 254 encodes (transforms / quantizes) the error block, and generates error block information (quantized transform coefficient). In the next process 408, the error block decoding unit 156 decodes (inverse quantization / inverse transform) the error block information (quantized transform coefficient) to generate a decoded error block. In the next process 409, the adder 157 performs an addition process for each pixel between the prediction block and the decoded error block to generate a decoded block. Then, after the generated decoded block is held in the current decoded frame of the frame memory 153 in process 410, in process 445, the entropy encoding unit 255 entropy converts the low-resolution block information and the error block information. The block encoding process is completed (process 446).

[コンピュータシステムの構成例]
図16は、上記実施形態の画像符号化処理に関する動画像符号化プログラム、画像復号処理に関する動画像復号プログラムを格納したフレキシブルディスク等の記憶媒体を用いて、コンピュータシステムにより実施する場合を説明するための図である。
[Configuration example of computer system]
FIG. 16 is a diagram for explaining a case where the present invention is implemented by a computer system using a storage medium such as a flexible disk storing a moving image encoding program related to the image encoding process and a moving image decoding program related to the image decoding process of the above embodiment. FIG.

図16(b)は、フレキシブルディスクの正面からみた外観、断面構造、及びフレキシブルディスクを示し、図16(a)は、記録媒体本体であるフレキシブルディスクの物理フォーマットの例を示している。フレキシブルディスクFDはケースF内に内蔵され、該ディスクの表面には、同心円状に外周からは内周に向かって複数のトラックTrが形成され、各トラックは角度方向に16個のセクタSeに分割されている。従って、上記プログラムを格納したフレキシブルディスクでは、上記フレキシブルディスクFD上に割り当てられた領域に、上記プログラムとしてのデータが記録されている。   FIG. 16B shows the appearance, cross-sectional structure, and flexible disk as seen from the front of the flexible disk, and FIG. 16A shows an example of the physical format of the flexible disk that is the recording medium body. The flexible disk FD is built in the case F, and a plurality of tracks Tr are formed concentrically on the surface of the disk from the outer periphery toward the inner periphery, and each track is divided into 16 sectors Se in the angular direction. Has been. Therefore, in the flexible disk storing the program, data as the program is recorded in an area allocated on the flexible disk FD.

また、図16(c)は、フレキシブルディスクFDに上記プログラムの記録再生を行うための構成を示す。上記プログラムをフレキシブルディスクFDに記録する場合は、コンピュータシステムCsから上記プログラムとしてのデータを、フレキシブルディスクドライブを介して書き込む。また、フレキシブルディスク内のプログラムにより上記符号化装置あるいは復号化装置をコンピュータシステム中に構築する場合は、フレキシブルディスクドライブによりプログラムをフレキシブルディスクから読み出し、コンピュータシステムに転送する。   FIG. 16C shows a configuration for recording and reproducing the program on the flexible disk FD. When the program is recorded on the flexible disk FD, data as the program is written from the computer system Cs via the flexible disk drive. When the encoding device or the decoding device is constructed in a computer system by a program on a flexible disk, the program is read from the flexible disk by a flexible disk drive and transferred to the computer system.

なお、上記説明では、データ記録媒体としてフレキシブルディスクを用いて説明を行ったが、光ディスクを用いても同様に行うことができる。また、記録媒体はこれに限らず、ICカード、ROMカセット等、プログラムを記録できるものであれば同様に実施することができる。またコンピュータとして、CPUを具備しソフトウエアによる処理や制御を行うDVDプレーヤ、セットトップボックス、携帯電話などを含む。   In the above description, a flexible disk is used as the data recording medium, but the same can be done using an optical disk. Further, the recording medium is not limited to this, and any recording medium such as an IC card or a ROM cassette capable of recording a program can be similarly implemented. In addition, the computer includes a DVD player, a set top box, a mobile phone and the like that have a CPU and perform processing and control by software.

次に、動画像復号プログラムおよび動画像符号化プログラムの構成について説明する。   Next, the configuration of the moving image decoding program and the moving image encoding program will be described.

図37に示すように、動画像復号プログラム161は、記録媒体160に形成されたプログラム格納領域160a内に格納されている。動画像復号プログラム161は、動画像復号処理を統括的に制御するメインモジュール161aと、図28のエントロピー復号部150の動作を実行するためのエントロピー復号モジュール161bと、図28の低解像ブロック復号部151の動作を実行するための低解像ブロック復号モジュール161cと、図28の低解像ブロック分割部166の動作を実行するための低解像ブロック分割モジュール161hと、図28の小ブロック予測部158の動作を実行するための小ブロック予測モジュール161iと、図28のブロック統合部155の動作を実行するためのブロック統合モジュール161gとを備えて構成される。   As shown in FIG. 37, the moving picture decoding program 161 is stored in a program storage area 160a formed on the recording medium 160. The moving picture decoding program 161 includes a main module 161a that comprehensively controls the moving picture decoding process, an entropy decoding module 161b that executes the operation of the entropy decoding unit 150 in FIG. 28, and the low-resolution block decoding in FIG. 28, the low-resolution block decoding module 161c for executing the operation of the unit 151, the low-resolution block dividing module 161h for executing the operation of the low-resolution block dividing unit 166 of FIG. 28, and the small block prediction of FIG. The small block prediction module 161i for executing the operation of the unit 158 and the block integration module 161g for executing the operation of the block integration unit 155 of FIG.

図38に示すように、動画像符号化プログラム261は、記録媒体260に形成されたプログラム格納領域260a内に格納されている。動画像符号化プログラム261は、動画像符号化処理を統括的に制御するメインモジュール261aと、図29の符号化ブロック分割部251の動作を実行するための符号化ブロック分割モジュール261bと、図29の復号低解像ブロック生成部252の動作を実行するための復号低解像ブロック生成モジュール261cと、図29の低解像ブロック分割部166の動作を実行するための低解像ブロック分割モジュール261hと、図29の小ブロック予測部158の動作を実行するための小ブロック予測モジュール261iと、図29のブロック統合部155の動作を実行するためのブロック統合モジュール261gとを備えて構成される。   As shown in FIG. 38, the moving image encoding program 261 is stored in a program storage area 260a formed on the recording medium 260. The moving picture coding program 261 includes a main module 261a that controls the moving picture coding process in an integrated manner, a coding block division module 261b for executing the operation of the coding block division unit 251 in FIG. 29, and FIG. The decoded low-resolution block generation module 261c for executing the operation of the decoded low-resolution block generation unit 252 and the low-resolution block division module 261h for executing the operation of the low-resolution block division unit 166 of FIG. And a small block prediction module 261i for executing the operation of the small block prediction unit 158 of FIG. 29 and a block integration module 261g for executing the operation of the block integration unit 155 of FIG.

なお、上記の動画像復号プログラム161は、その一部若しくは全部が、通信回線等の伝送媒体を介して伝送され、他の機器により受信されて記録(インストールを含む)される構成としてもよい。同様に、動画像符号化プログラム261も、その一部若しくは全部が、通信回線等の伝送媒体を介して伝送され、他の機器により受信されて記録(インストールを含む)される構成としてもよい。   A part or all of the moving picture decoding program 161 may be transmitted via a transmission medium such as a communication line, received by another device, and recorded (including installation). Similarly, a part or all of the moving image encoding program 261 may be transmitted via a transmission medium such as a communication line, received by another device, and recorded (including installation).

[各種の変形態様の説明]
以上、本発明の実施形態について説明したが、次のような変形を行っても良く、いずれの形態も本発明に含まれる。
[Description of various modifications]
As mentioned above, although embodiment of this invention was described, the following modifications may be performed and any form is also included in this invention.

(1)予測方法に関する変形態様
上述では、予測方法として、時間方向の予測に限定して説明したが、符号化対象ブロック(予測対象ブロック)又は復号ブロックと同一フレーム内の既に復号した復号済み画像を用いた空間方向の予測にも、同様の方法を適用することができる。即ち、上述した復号低解像ブロックを基に、当該復号低解像ブロックを再分割した低解像分割ブロックに対し、同じフレーム内の隣接する復号済みの画素を用いて、例えば、H.264(”Text of ISO/IEC 14496-10 Advanced Video Coding 3rd Edition”, September 2004.)の複数のイントラ予測モードから、最適なモードを決定した上で、当該復号低解像ブロックに該当する高解像度信号のブロックを予測する場合なども本発明に含まれる。この場合、各低解像分割ブロックの予測モードを明示的に伝送する必要がないため、少ない補助情報で高精度に対象ブロックを予測できるという優れた効果がある。また、上述した時間方向の予測と空間方向の予測とを組み合わせて高精度の予測を行ってもよい。
(1) Modified Mode Related to Prediction Method In the above description, the prediction method is limited to prediction in the time direction, but a decoded image that has already been decoded in the same frame as the encoding target block (prediction target block) or the decoding block. The same method can also be applied to the prediction of the spatial direction using. That is, based on the above-described decoded low-resolution block, for the low-resolution divided block obtained by re-dividing the decoded low-resolution block, using adjacent decoded pixels in the same frame, for example, H.264 (“Text of ISO / IEC 14496-10 Advanced Video Coding 3rd Edition”, September 2004.) After determining the optimal mode from multiple intra prediction modes, the high-resolution signal corresponding to the decoded low-resolution block The present invention also includes the case of predicting a block of the same. In this case, since it is not necessary to explicitly transmit the prediction mode of each low-resolution divided block, there is an excellent effect that the target block can be predicted with high accuracy with a small amount of auxiliary information. Moreover, you may perform highly accurate prediction combining the prediction of the time direction mentioned above, and the prediction of a spatial direction.

(2)誤差ブロックの符号化に関する変形態様
予測ブロックと符号化対象ブロックとの間の誤差ブロックを符号化することは必須ではない。つまり、誤差ブロック符号化部254(図29)と誤差ブロック復号部156(図28と図29)の処理は省略してもよい。また、符号化対象ブロックあるいは復号ブロック毎に符号化の有無を決めても良い。また、誤差ブロックならびに低解像誤差ブロックの具体的な符号化・復号方法については、上述の方法に限定されるものではない。
(2) Modified mode related to encoding of error block It is not essential to encode an error block between a prediction block and a block to be encoded. That is, the processing of the error block encoding unit 254 (FIG. 29) and the error block decoding unit 156 (FIGS. 28 and 29) may be omitted. Also, the presence or absence of encoding may be determined for each encoding target block or decoding block. Further, the specific encoding / decoding method of the error block and the low resolution error block is not limited to the above-described method.

(3)複数予測モードの符号化に関する変形態様
上述の実施形態では、符号化対象ブロックの符号化処理に適用する予測方法を、本発明の予測方法のみとしているが、符号化対象ブロックを縮小しない従来の符号化方法に対し、本発明の予測方法を適用してもよい。
(3) Modified Mode Related to Encoding in Multiple Prediction Mode In the above-described embodiment, the prediction method applied to the encoding process of the encoding target block is only the prediction method of the present invention, but the encoding target block is not reduced. The prediction method of the present invention may be applied to a conventional encoding method.

(4)ブロックサイズに関する変形態様
上述では、符号化対象ブロック(予測対象ブロック)ならびに復号ブロックのサイズを8x8、低解像ブロックのサイズを4x4、低解像分割ブロックを2x2としているが、本発明の予測符号化は、これらのサイズには限定されない。例えば、符号化対象ブロック及び復号ブロックのサイズをH.264と同じ16x16、低解像ブロックを8x8、低解像分割ブロックを2x2とするなど、低解像ブロックをさらに4分割よりも細かく分割する場合にも本発明は有効である。同様に、変換・量子化を実施するブロックサイズも限定されない。例えば、H.264のように、誤差ブロックを4x4ブロックに分割して、4x4ブロック単位で変換・量子化を行ってもよい。
(4) Modifications related to block size In the above description, the size of the encoding target block (prediction target block) and the decoding block is set to 8x8, the size of the low resolution block is set to 4x4, and the low resolution divided block is set to 2x2. The predictive coding is not limited to these sizes. For example, the size of the encoding target block and the decoding block is 16x16 which is the same as H.264, the low resolution block is 8x8, and the low resolution divided block is 2x2. Even in this case, the present invention is effective. Similarly, the block size for performing transformation / quantization is not limited. For example, as in H.264, an error block may be divided into 4 × 4 blocks, and conversion and quantization may be performed in units of 4 × 4 blocks.

(5)縮小化方法に関する変形態様
上述では、図36のように、縮小化処理を縦・横に1ライン間引く方法としているが、ブロックの縮小化処理はこの方法には限定されない。例えば、低解像ブロックは、符号化装置と復号装置間で予め定めておけば、復号ブロック(符号化対象ブロック、予測対象ブロック)よりも画素数の少ない任意の形状としてもよく、図36のブロック106の各画素を縦横方向に1画素ずらしたブロック(図36のブロック1060)や、図36のブロック106の画素とブロック1060の画素の両方を持つブロック1062なども含まれる。また、ブロックにローパスフィルタ処理を施した後に縦・横にダウンサンプリングする方法や、4個の隣接画素を平均化して1画素に変換する方法など、画像縮小化に適用される様々な方法を適用することができる。
(5) Modified Mode Related to Reduction Method In the above description, as shown in FIG. 36, the reduction processing is a method of thinning out one line vertically and horizontally, but the block reduction processing is not limited to this method. For example, the low resolution block may have an arbitrary shape having a smaller number of pixels than the decoding block (the encoding target block and the prediction target block) as long as it is determined in advance between the encoding device and the decoding device. A block in which each pixel of the block 106 is shifted by one pixel in the vertical and horizontal directions (a block 1060 in FIG. 36), a block 1062 having both the pixel in the block 106 and the pixel in the block 1060 in FIG. In addition, various methods applied to image reduction, such as a method of down-sampling vertically and horizontally after applying low-pass filter processing to a block, and a method of averaging four adjacent pixels and converting them to one pixel are applied. can do.

(6)縮小化処理の実施手順に関する変形態様
縮小化処理部は省略してもよい。例えば、縮小化処理部の機能が、動き補償部や拡大動き推定部に含まれている場合や、低解像ブロックに属さない画素を評価に含めずに処理できる場合には、縮小化処理部は必要とされない。また、低解像ブロック復号部による縮小化処理と低解像予測ブロック生成部による縮小化処理とは、復号装置と符号化装置間で予め規定されていれば、異なる方法を用いても良い。
(6) Modification concerning the implementation procedure of the reduction processing The reduction processing unit may be omitted. For example, when the function of the reduction processing unit is included in the motion compensation unit or the expanded motion estimation unit, or when the processing can be performed without including pixels that do not belong to the low resolution block, the reduction processing unit Is not required. In addition, different methods may be used for the reduction process by the low-resolution block decoding unit and the reduction process by the low-resolution prediction block generation unit as long as they are defined in advance between the decoding apparatus and the encoding apparatus.

(7)拡大動き推定に関する変形態様
拡大動き推定処理における探索範囲、探索手順及び探索開始点は、上述の方法に限定されない。探索範囲は符号化装置と復号装置間で予め規定されていれば、任意の範囲に設定できる。探索手順についても同様で、例えば、中心からのスパイラルではなく、探索範囲を左上から右下に向かってラスタスキャン順に探索する方法なども適用できる。探索開始点についても、0ベクトルではなく、例えば、予測ベクトルを中心として探索範囲を設定することも可能である。また、動き推定・動き補償方法についても、動きベクトルを検出するブロックマッチングに限定されず、アフィンパラメータや透視投影変換パラメータなどの動きパラメータにてブロック内の画素の予測値を算出する方法でも、本発明は適用可能である。この場合も、小ブロック予測部にて検出された動きパラメータは伝送する必要がない。第1実施例の小ブロック予測も同様にブロックマッチングに限定されない。
(7) Modified Mode Related to Expanded Motion Estimation The search range, search procedure, and search start point in the expanded motion estimation process are not limited to the method described above. The search range can be set to an arbitrary range as long as it is defined in advance between the encoding device and the decoding device. The same applies to the search procedure. For example, instead of a spiral from the center, a method of searching the search range from the upper left to the lower right in the raster scan order can be applied. As for the search start point, it is also possible to set a search range centering on the prediction vector, for example, instead of the zero vector. In addition, the motion estimation / compensation method is not limited to block matching for detecting a motion vector, and a method for calculating a predicted value of a pixel in a block using a motion parameter such as an affine parameter or a perspective projection transformation parameter may be used. The invention is applicable. Also in this case, it is not necessary to transmit the motion parameter detected by the small block prediction unit. Similarly, the small block prediction of the first embodiment is not limited to block matching.

(8)分離部、統合部に関する変形態様
図28の分離部131及び図29の統合部216は必ずしも必要とされない。例えば、図28では、動きベクトル予測・復号部132と逆量子化部136が、エントロピー復号部150からデータを直接受け取ってもよい。図29では、動きベクトル予測・符号化部212と量子化部215から直接、エントロピー符号化部255にデータを出力してもよい。
(8) Modifications Regarding Separation Unit and Integration Unit The separation unit 131 in FIG. 28 and the integration unit 216 in FIG. 29 are not necessarily required. For example, in FIG. 28, the motion vector prediction / decoding unit 132 and the inverse quantization unit 136 may directly receive data from the entropy decoding unit 150. In FIG. 29, data may be directly output from the motion vector prediction / encoding unit 212 and the quantization unit 215 to the entropy encoding unit 255.

100、300、500…動画像符号化装置、131…分離部、132…ベクトル予測・復号部、133…補償部、134…縮小化処理部、135…加算部、136…逆量子化部、137…逆変換部、138…推定部、139…予測小ブロック取得部、140…逆量子化部、141…逆変換部、150…エントロピー復号部、151…低解像ブロック復号部、152、158…小ブロック予測部、153…フレームメモリ、154…拡大ブロック生成部、155…ブロック統合部、156…誤差ブロック復号部、157…加算部、159…スイッチ、160…記録媒体、162…ブロック分割部、163…推定部、164…補償部、165…ブロック分割部、166…低解像ブロック分割部、200、400、600…動画像復号装置、211…推定部、212…ベクトル予測・符号化部、213…減算部、214…変換部、215…量子化部、216…統合部、217…加算部、218…変換部、219…量子化部、251…符号化ブロック分割部、252…復号低解像ブロック生成部、253…減算部、254…誤差ブロック符号化部、255…エントロピー符号化部、256…判定部、260…記録媒体。   DESCRIPTION OF SYMBOLS 100, 300, 500 ... Moving image encoding apparatus, 131 ... Separation part, 132 ... Vector prediction and decoding part, 133 ... Compensation part, 134 ... Reduction process part, 135 ... Addition part, 136 ... Dequantization part, 137 ... inverse transform unit, 138 ... estimation unit, 139 ... predicted small block acquisition unit, 140 ... inverse quantization unit, 141 ... inverse transform unit, 150 ... entropy decoding unit, 151 ... low resolution block decoding unit, 152, 158 ... Small block prediction unit, 153 ... frame memory, 154 ... enlarged block generation unit, 155 ... block integration unit, 156 ... error block decoding unit, 157 ... addition unit, 159 ... switch, 160 ... recording medium, 162 ... block division unit, 163 ... Estimating unit, 164 ... Compensating unit, 165 ... Block dividing unit, 166 ... Low resolution block dividing unit, 200, 400, 600 ... Video decoding device, 21 Estimator 212, vector predictor / encoder 213, subtractor 214, converter 215, quantizer 216, integrator 217, adder 218, converter 219, quantizer 251... Encoded block dividing unit, 252... Decoded low resolution block generating unit, 253... Subtracting unit, 254... Error block encoding unit, 255 ... Entropy encoding unit, 256.

Claims (12)

ブロック単位で予測ブロックを生成する動画像符号化装置であって、
復号済み画像が保持される保持手段と、
入力された符号化対象画像を、複数の予測対象ブロックに分割する第1の分割手段と、
前記予測対象ブロックを、当該予測対象ブロックよりも画素数が少ない低解像ブロックに変換及び符号化した後、当該低解像ブロックの符号化データを復号することで、復号低解像ブロックを生成する生成手段と、
前記生成された復号低解像ブロックを、前記予測対象ブロックと同じ画素数のブロックに拡大する拡大手段と、
前記拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する第2の分割手段と、
前記生成された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記生成された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測手段と、
前記生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合手段とを備える動画像符号化装置。
A video encoding device that generates a prediction block in block units,
Holding means for holding the decoded image;
A first dividing unit that divides the input encoding target image into a plurality of prediction target blocks;
After the prediction target block is converted and encoded into a low resolution block having a smaller number of pixels than the prediction target block, a decoded low resolution block is generated by decoding the encoded data of the low resolution block Generating means for
Expansion means for expanding the generated decoded low-resolution block to a block having the same number of pixels as the prediction target block;
A second dividing unit that generates a plurality of small blocks by dividing the enlarged block based on a predetermined division rule;
Prediction means for generating a block in the decoded image corresponding to a motion vector of the generated small block detected by block matching between the generated small block and the decoded image as a predicted small block; ,
A moving image encoding apparatus comprising: an integration unit that generates a prediction block by integrating the plurality of generated prediction small blocks based on the division rule.
前記符号化対象画像を符号化対象ブロックに分割する第3の分割手段と、
前記分割された符号化対象ブロックと前記予測ブロックとを画素単位で減算して誤差ブロックを生成する減算手段と、
前記生成された誤差ブロックを符号化する符号化手段と、
前記符号化された符号化データを復号して、復号誤差ブロックを生成する復号手段と、
前記予測ブロックと前記復号誤差ブロックとを画素単位で加算して復号ブロックを生成し、当該復号ブロックを前記保持手段に出力する出力手段とを更に備える請求項1に記載の動画像符号化装置。
Third dividing means for dividing the encoding target image into encoding target blocks;
Subtracting means for generating an error block by subtracting the divided encoding target block and the prediction block in units of pixels;
Encoding means for encoding the generated error block;
Decoding means for decoding the encoded data and generating a decoding error block;
The moving image encoding apparatus according to claim 1, further comprising: an output unit that adds the prediction block and the decoding error block in units of pixels to generate a decoded block, and outputs the decoded block to the holding unit.
前記拡大手段が、前記生成された復号低解像ブロックの画素と予測対象ブロックの上辺および左辺に隣接する復号済みブロックの画素を用いて、前記予測対象ブロックと同じ画素数のブロックを生成する
ことを特徴とする請求項1に記載の動画像符号化装置。
The enlargement unit generates a block having the same number of pixels as the prediction target block using the pixel of the generated decoded low-resolution block and the pixel of the decoded block adjacent to the upper side and the left side of the prediction target block. The moving picture coding apparatus according to claim 1, wherein:
前記生成手段が、
前記予測対象ブロックを所定の変換規則に基づいて当該予測対象ブロックよりも画素数が少ない低解像予測対象ブロックに変換する手段と、
低解像予測ブロックを生成する低解像予測ブロック生成手段と、
前記低解像予測対象ブロックと前記低解像予測ブロックとを画素単位で減算して低解像誤差ブロックを生成する手段と、
当該低解像誤差ブロックを符号化した後、前記低解像誤差ブロックの符号化データを復号することで復号低解像誤差ブロックを生成する手段と、
前記復号低解像誤差ブロックと前記低解像予測ブロックとを画素単位で加算して前記低解像ブロックを復元する手段と、
を含んで構成され、
前記低解像予測ブロック生成手段が、
前記予測ブロックと同じ画素数の第2の予測ブロックを生成する手段と、
前記変換規則に基づいて該第2の予測ブロックから前記低解像予測ブロックを生成する手段と、
を含んで構成され、
前記生成手段は、さらに、
前記低解像誤差ブロック内のすべての差分画素値がゼロの場合には、前記第2の予測ブロックを前記予測ブロックとして出力する手段を含んで構成される、
ことを特徴とする請求項1に記載の動画像符号化装置。
The generating means is
Means for converting the prediction target block into a low resolution prediction target block having a smaller number of pixels than the prediction target block based on a predetermined conversion rule;
Low-resolution prediction block generation means for generating a low-resolution prediction block;
Means for subtracting the low-resolution prediction target block and the low-resolution prediction block in units of pixels to generate a low-resolution error block;
Means for generating a decoded low-resolution error block by decoding the encoded data of the low-resolution error block after encoding the low-resolution error block;
Means for adding the decoded low-resolution error block and the low-resolution prediction block in units of pixels to restore the low-resolution block;
Comprising
The low-resolution prediction block generating means is
Means for generating a second prediction block having the same number of pixels as the prediction block;
Means for generating the low-resolution prediction block from the second prediction block based on the conversion rule;
Comprising
The generating means further includes:
When all the difference pixel values in the low-resolution error block are zero, the second prediction block is configured to output as the prediction block.
The moving picture coding apparatus according to claim 1, wherein:
ブロック単位で予測ブロックを生成する動画像復号装置であって、
復号済み画像が保持される保持手段と、
入力された符号化データを復号して得られる低解像ブロック情報と前記復号済み画像とに基づいて、予測ブロックよりも画素数が少ない低解像ブロックを生成する復号手段と、
前記生成された低解像ブロックを、前記予測ブロックと同じ画素数のブロックに拡大する拡大手段と、
当該拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する分割手段と、
前記分割された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記分割された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測手段と、
当該生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合手段とを備える動画像復号装置。
A video decoding device that generates a prediction block in block units,
Holding means for holding the decoded image;
Decoding means for generating a low-resolution block having a smaller number of pixels than a prediction block based on low-resolution block information obtained by decoding input encoded data and the decoded image;
Enlarging means for enlarging the generated low-resolution block to a block having the same number of pixels as the prediction block;
Dividing means for generating a plurality of small blocks by dividing the enlarged block based on a predetermined division rule;
Prediction means for generating a block in the decoded image corresponding to a motion vector of the divided small block detected by block matching between the divided small block and the decoded image as a predicted small block; ,
A moving picture decoding apparatus provided with the integrated means which produces | generates a prediction block by integrating the produced | generated several prediction small block based on the said division | segmentation rule.
前記符号化データを復号し、誤差ブロックを生成する生成手段と、
前記予測ブロックと前記誤差ブロックとを画素単位で加算して復号ブロックを生成し、当該復号ブロックを前記保持手段に出力する出力手段とを更に備える請求項5に記載の動画像復号装置。
Generating means for decoding the encoded data and generating an error block;
6. The moving picture decoding apparatus according to claim 5, further comprising: an output unit that adds the prediction block and the error block in units of pixels to generate a decoded block, and outputs the decoded block to the holding unit.
前記拡大手段が、前記生成された低解像ブロックの画素と予測ブロックの上辺および左辺に隣接する復号済みブロックの画素を用いて、前記予測ブロックと同じ画素数のブロックを生成する
ことを特徴とする請求項5に記載の動画像復号装置。
The expansion means generates a block having the same number of pixels as the prediction block, using the pixel of the generated low resolution block and the pixel of the decoded block adjacent to the upper side and the left side of the prediction block. The moving picture decoding apparatus according to claim 5.
前記復号手段が、
前記入力された符号化データを復号して低解像誤差ブロックを復号する手段と、
低解像予測ブロックを生成する低解像予測ブロック生成手段と、
前記低解像誤差ブロックと前記低解像予測ブロックとを画素単位で加算して前記低解像ブロックを生成する手段と、
を含んで構成され、
前記低解像予測ブロック生成手段が、
前記予測ブロックと同じ画素数の第2の予測ブロックを生成する手段と、
所定の規則に基づいて該第2の予測ブロックから前記低解像予測ブロックを生成する手段と、
を含んで構成され、
前記復号手段は、さらに、
前記低解像誤差ブロック内のすべての差分画素値がゼロの場合には、前記第2の予測ブロックを前記予測ブロックとして出力する手段を含んで構成される、
ことを特徴とする請求項5に記載の動画像復号装置。
The decoding means comprises:
Means for decoding the input encoded data to decode a low-resolution error block;
Low-resolution prediction block generation means for generating a low-resolution prediction block;
Means for adding the low resolution error block and the low resolution prediction block in units of pixels to generate the low resolution block;
Comprising
The low-resolution prediction block generating means is
Means for generating a second prediction block having the same number of pixels as the prediction block;
Means for generating the low-resolution prediction block from the second prediction block based on a predetermined rule;
Comprising
The decoding means further includes
When all the difference pixel values in the low-resolution error block are zero, the second prediction block is configured to output as the prediction block.
The moving picture decoding apparatus according to claim 5, wherein:
復号済み画像を用いてブロック単位で予測ブロックを生成する動画像符号化方法であって、
入力された符号化対象の画像を、複数の予測対象ブロックに分割する第1の分割ステップと、
前記予測対象ブロックを、当該予測対象ブロックよりも画素数が少ない低解像ブロックに変換及び符号化した後、当該低解像ブロックの符号化データを復号することで、復号低解像ブロックを生成する生成ステップと、
前記生成された復号低解像ブロックを、前記予測対象ブロックと同じ画素数のブロックに拡大する拡大ステップと、
前記拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する第2の分割ステップと、
前記生成された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記生成された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測ステップと、
前記生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合ステップとを含むことを特徴とする動画像符号化方法。
A video encoding method for generating a prediction block in units of blocks using a decoded image,
A first dividing step of dividing the input encoding target image into a plurality of prediction target blocks;
After the prediction target block is converted and encoded into a low resolution block having a smaller number of pixels than the prediction target block, a decoded low resolution block is generated by decoding the encoded data of the low resolution block Generating step to
An expansion step of expanding the generated decoded low-resolution block to a block having the same number of pixels as the prediction target block;
A second division step of generating a plurality of small blocks by dividing the enlarged block based on a predetermined division rule;
A prediction step of generating a block in the decoded image corresponding to a motion vector of the generated small block detected by block matching between the generated small block and the decoded image as a predicted small block; ,
A moving picture encoding method comprising: an integrating step of generating a prediction block by integrating the plurality of generated prediction small blocks based on the division rule.
復号済み画像を用いてブロック単位で予測ブロックを生成する動画像復号方法であって、
入力された符号化データを復号して得られる低解像ブロック情報と前記復号済み画像とに基づいて、予測ブロックよりも画素数が少ない低解像ブロックを生成する復号ステップと、
前記生成された低解像ブロックを、前記予測ブロックと同じ画素数のブロックに拡大する拡大ステップと、
当該拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する分割ステップと、
前記分割された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記分割された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測ステップと、
前記生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合ステップとを含むことを特徴とする動画像復号方法。
A video decoding method for generating a prediction block in block units using a decoded image,
A decoding step for generating a low-resolution block having a smaller number of pixels than a prediction block, based on low-resolution block information obtained by decoding input encoded data and the decoded image;
Expanding the generated low-resolution block to a block having the same number of pixels as the prediction block;
A division step of generating a plurality of small blocks by dividing the enlarged block based on a predetermined division rule;
A prediction step of generating a block in the decoded image corresponding to a motion vector of the divided small block detected by block matching between the divided small block and the decoded image as a predicted small block; ,
A moving picture decoding method comprising: an integrating step of generating a prediction block by integrating the plurality of generated prediction small blocks based on the division rule.
復号済み画像と、ブロック単位で予測ブロックを生成する機能を有する動画像符号化プログラムとを保持する保持手段を備えるコンピュータに、
入力された符号化対象の画像を、複数の予測対象ブロックに分割する第1の分割処理と、
前記予測対象ブロックを、当該予測対象ブロックよりも画素数が少ない低解像ブロックに変換及び符号化した後、当該低解像ブロックの符号化データを復号することで、復号低解像ブロックを生成する生成処理と、
前記生成された復号低解像ブロックを、前記予測対象ブロックと同じ画素数のブロックに拡大する拡大処理と、
前記拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する第2の分割処理と、
前記生成された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記生成された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測処理と、
前記生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合処理とを実行させることを特徴とする動画像符号化プログラム。
In a computer comprising holding means for holding a decoded image and a moving picture coding program having a function of generating a prediction block in units of blocks,
A first division process for dividing the input encoding target image into a plurality of prediction target blocks;
After the prediction target block is converted and encoded into a low resolution block having a smaller number of pixels than the prediction target block, a decoded low resolution block is generated by decoding the encoded data of the low resolution block Generation process to
An expansion process for expanding the generated decoded low-resolution block to a block having the same number of pixels as the prediction target block;
A second division process for generating a plurality of small blocks by dividing the enlarged block based on a predetermined division rule;
A prediction process for generating a block in the decoded image corresponding to a motion vector of the generated small block detected by block matching between the generated small block and the decoded image as a predicted small block; ,
A moving picture encoding program that performs an integration process for generating a prediction block by integrating the plurality of generated prediction small blocks based on the division rule.
復号済み画像と、ブロック単位で予測ブロックを生成する機能を有する動画像復号プログラムとを保持する保持手段を備えるコンピュータに、
入力された符号化データを復号して得られる低解像ブロック情報と前記復号済み画像とに基づいて、予測ブロックよりも画素数が少ない低解像ブロックを生成する復号処理と、
前記生成された低解像ブロックを、前記予測ブロックと同じ画素数のブロックに拡大する拡大処理と、
当該拡大されたブロックを、所定の分割規則に基づいて分割することで、複数の小ブロックを生成する分割処理と、
前記分割された小ブロックと前記復号済み画像との間のブロックマッチングにより検出された前記分割された小ブロックの動きベクトルに対応する前記復号済み画像内のブロックを予測小ブロックとして生成する予測処理と、
当該生成された複数の予測小ブロックを、前記分割規則に基づいて統合することで、予測ブロックを生成する統合処理とを実行させることを特徴とする動画像復号プログラム。
In a computer comprising holding means for holding a decoded image and a moving picture decoding program having a function of generating a prediction block in block units,
A decoding process for generating a low-resolution block having a smaller number of pixels than the prediction block, based on the low-resolution block information obtained by decoding the input encoded data and the decoded image;
An expansion process for expanding the generated low-resolution block to a block having the same number of pixels as the prediction block;
A division process for generating a plurality of small blocks by dividing the enlarged block based on a predetermined division rule;
A prediction process for generating a block in the decoded image corresponding to a motion vector of the divided small block detected by block matching between the divided small block and the decoded image as a predicted small block; ,
A moving picture decoding program that performs an integration process for generating a prediction block by integrating the plurality of generated prediction small blocks based on the division rule.
JP2013024564A 2005-01-07 2013-02-12 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program Expired - Fee Related JP5461721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013024564A JP5461721B2 (en) 2005-01-07 2013-02-12 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2005002992 2005-01-07
JP2005002992 2005-01-07
JP2005126461 2005-04-25
JP2005126461 2005-04-25
JP2013024564A JP5461721B2 (en) 2005-01-07 2013-02-12 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010276956A Division JP5313223B2 (en) 2005-01-07 2010-12-13 Moving picture decoding apparatus and moving picture encoding apparatus

Publications (2)

Publication Number Publication Date
JP2013085306A true JP2013085306A (en) 2013-05-09
JP5461721B2 JP5461721B2 (en) 2014-04-02

Family

ID=43943994

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010276956A Expired - Fee Related JP5313223B2 (en) 2005-01-07 2010-12-13 Moving picture decoding apparatus and moving picture encoding apparatus
JP2013024564A Expired - Fee Related JP5461721B2 (en) 2005-01-07 2013-02-12 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010276956A Expired - Fee Related JP5313223B2 (en) 2005-01-07 2010-12-13 Moving picture decoding apparatus and moving picture encoding apparatus

Country Status (1)

Country Link
JP (2) JP5313223B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160037184A1 (en) * 2013-03-14 2016-02-04 Sony Corporation Image processing device and method
JP6390275B2 (en) 2014-09-01 2018-09-19 株式会社ソシオネクスト Encoding circuit and encoding method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04177992A (en) * 1990-11-09 1992-06-25 Victor Co Of Japan Ltd Picture coder having hierarchical structure
JP2001008214A (en) * 1999-06-18 2001-01-12 Matsushita Electric Ind Co Ltd Video signal hierarchizing/encoding device and video signal hierarchizing/decoding device
WO2004057759A1 (en) * 2002-12-19 2004-07-08 Koninklijke Philips Electronics N.V. Digital filter with spatial scalability

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045475A (en) * 1999-07-27 2001-02-16 Matsushita Electric Ind Co Ltd Video signal hierarchical coder, video signal hierarchical decoder and program recording medium
KR20040054746A (en) * 2001-10-26 2004-06-25 코닌클리케 필립스 일렉트로닉스 엔.브이. Method and apparatus for spatial scalable compression

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04177992A (en) * 1990-11-09 1992-06-25 Victor Co Of Japan Ltd Picture coder having hierarchical structure
JP2001008214A (en) * 1999-06-18 2001-01-12 Matsushita Electric Ind Co Ltd Video signal hierarchizing/encoding device and video signal hierarchizing/decoding device
WO2004057759A1 (en) * 2002-12-19 2004-07-08 Koninklijke Philips Electronics N.V. Digital filter with spatial scalability

Also Published As

Publication number Publication date
JP5313223B2 (en) 2013-10-09
JP2011055554A (en) 2011-03-17
JP5461721B2 (en) 2014-04-02

Similar Documents

Publication Publication Date Title
JP2006333436A (en) Motion image encoding apparatus, method, and program, and motion image decoding apparatus, method, and program
RU2697738C1 (en) Predictive coding method, a predictive coding device and a predictive coding method of a motion vector and a predictive decoding method, a predictive decoding device and a motion vector prediction decoding program
JP6776276B2 (en) Image prediction method and image prediction device
US11902563B2 (en) Encoding and decoding method and device, encoder side apparatus and decoder side apparatus
US7822119B2 (en) Image encoding apparatus, image encoding method, image encoding program, image decoding apparatus, image decoding method, and image decoding program
US9351014B2 (en) Moving image encoding and decoding system
CN110651477B (en) Apparatus and method for determining motion vector of prediction block
US9031125B2 (en) Image predictive encoding and decoding device
US20050105621A1 (en) Apparatus capable of performing both block-matching motion compensation and global motion compensation and method thereof
KR20080064982A (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
RU2584546C2 (en) Method and device for predictive motion compensation
KR20090094595A (en) Method and appratus for encoding images using motion prediction by multiple reference, and method and apparatus for decoding images using motion prediction by multiple reference
RU2768375C1 (en) Dynamic image decoding device, a dynamic image decoding method, a dynamic image decoding program, a dynamic image encoding device, a dynamic image encoding method and a dynamic image encoding program
JP2005318297A (en) Method and device for encoding/decoding dynamic image
JP4284265B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture decoding apparatus, and moving picture decoding method
KR101690253B1 (en) Image processing method and Apparatus
JP5461721B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program
WO2019150411A1 (en) Video encoding device, video encoding method, video decoding device, and video decoding method, and video encoding system
WO2011062082A1 (en) Video encoder and video decoder
RU2779930C2 (en) Dynamic image decoding device, dynamic image decoding method, dynamic image decoding program, dynamic image encoding device, dynamic image coding method and dynamic image coding program
WO2021111595A1 (en) Filter generation method, filter generation device, and program
JP2015156704A (en) Moving image prediction encoding device, moving image prediction encoding method, moving image prediction decoding device, and moving image prediction decoding method
JP2009017107A (en) Video encoder and video encoding method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140115

R150 Certificate of patent or registration of utility model

Ref document number: 5461721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees