JP2012157061A - Method and device for decoding image - Google Patents

Method and device for decoding image Download PDF

Info

Publication number
JP2012157061A
JP2012157061A JP2012090706A JP2012090706A JP2012157061A JP 2012157061 A JP2012157061 A JP 2012157061A JP 2012090706 A JP2012090706 A JP 2012090706A JP 2012090706 A JP2012090706 A JP 2012090706A JP 2012157061 A JP2012157061 A JP 2012157061A
Authority
JP
Japan
Prior art keywords
motion vector
block
image
prediction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012090706A
Other languages
Japanese (ja)
Other versions
JP5197864B2 (en
Inventor
Taiichiro Shiodera
太一郎 塩寺
Takeshi Nakajo
健 中條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012090706A priority Critical patent/JP5197864B2/en
Publication of JP2012157061A publication Critical patent/JP2012157061A/en
Application granted granted Critical
Publication of JP5197864B2 publication Critical patent/JP5197864B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide image decoding with high encoding efficiency.SOLUTION: A decoding device includes: a decoding section decoding an encoded prediction error; a storage section 207 acquiring a first motion vector 308 corresponding to a first pixel region which is previously decoded; a first derivation section deriving a motion vector group including at least one first motion vector 308; a second derivation section 206 deriving a second motion vector 307 corresponding to each third pixel region obtained by dividing a second pixel region before decoding based on the motion vector group; a prediction section generating a first inter-prediction image of each third pixel region by using the second motion vector 307; an integration section integrating the first inter-prediction images and generating a second inter-prediction image corresponding to the second pixel region before decoding; and an addition section adding the second inter-prediction image and the prediction error and generating a decoding image.

Description

本発明は、動画像や静止画像の符号化/復号化方法及び装置に関する。   The present invention relates to a method and apparatus for encoding / decoding moving images and still images.

ITU-T及びISO/IECより、動画像符号化方式の共同勧告(標準)としてITU-T Rec. H. 264及びISO/IEC 14496-10(以下、単にH.264と称する)が策定されている。H.264では、符号化対象の矩形ブロック(符号化対象ブロック)毎に予測処理、変換処理及びエントロピー符号化処理が行われる。上記予測処理では、例えば、既に符号化済みのフレーム(参照フレーム)が参照され、符号化対象ブロックに対して時間方向の予測(動き補償)が行われる。上記動き補償では、一般に、符号化対象ブロックと参照フレーム内において参照されるブロックとの間の空間的シフト情報である動きベクトルを符号化する必要がある。また、上記参照フレームを複数用いる場合には、個々の参照フレームを識別するために参照フレーム番号も符号化する必要がある。   ITU-T Rec. H. 264 and ISO / IEC 14496-10 (hereinafter simply referred to as H.264) have been formulated by ITU-T and ISO / IEC as joint recommendations (standards) for video coding systems. Yes. In H.264, prediction processing, conversion processing, and entropy coding processing are performed for each rectangular block to be coded (coding target block). In the prediction process, for example, a frame (reference frame) that has already been encoded is referred to, and temporal prediction (motion compensation) is performed on the encoding target block. In the motion compensation, it is generally necessary to encode a motion vector that is spatial shift information between a block to be encoded and a block referenced in a reference frame. When a plurality of reference frames are used, it is necessary to encode a reference frame number in order to identify each reference frame.

非特許文献1記載の動画像符号化方式(即ち、H.264)は、符号化対象ブロックの隣接ブロックの動きベクトルが既に符号化済みである場合に、当該隣接ブロックの動きベクトルに基づき予測動きベクトル(例えば、隣接ブロックの動きベクトルのメディアン値)を導出する。非特許文献1記載の動画像符号化方式は、上記予測動きベクトルと符号化対象ブロックに対し実際に導出した動きベクトルとの間の差分を符号化している。   In the moving picture coding method described in Non-Patent Document 1 (ie, H.264), when a motion vector of an adjacent block of an encoding target block has already been encoded, a predicted motion is based on the motion vector of the adjacent block. A vector (for example, a median value of a motion vector of an adjacent block) is derived. The moving picture encoding method described in Non-Patent Document 1 encodes the difference between the predicted motion vector and the motion vector actually derived for the encoding target block.

非特許文献2記載の動画像符号化方式は、上記予測動きベクトルのバリエーションを複数用意し、符号化対象ブロック毎に利用する予測動きベクトルを切り替え、選択された予測動きベクトルと符号化対象ブロックに対し実際に導出した動きベクトルとの間の差分を符号化している。従って、非特許文献2記載の動画像符号化方式によれば、符号量が小さくなるように予測動きベクトルを選択的に利用することができる。   The moving picture coding method described in Non-Patent Document 2 prepares a plurality of variations of the predicted motion vector, switches the predicted motion vector used for each coding target block, and selects the selected predicted motion vector and the coding target block. On the other hand, the difference between the actually derived motion vector is encoded. Therefore, according to the moving picture coding method described in Non-Patent Document 2, the prediction motion vector can be selectively used so that the code amount is small.

特許文献1記載の動画像符号化方法は、既に符号化済みの動きベクトルをフレーム単位で保存しておき、当該フレーム内において符号化対象ブロックと同位置(Collocate位置)のブロックの動きベクトルを、当該符号化対象ブロックの動きベクトルをして取得している。従って、特許文献1記載の動画像符号化方法によれば、動きベクトルの符号化を省略することができる。   In the moving image encoding method described in Patent Document 1, a motion vector that has already been encoded is stored in units of frames, and a motion vector of a block at the same position as the encoding target block (Collocate position) in the frame is The motion vector of the encoding target block is obtained. Therefore, according to the moving image encoding method described in Patent Document 1, it is possible to omit encoding of a motion vector.

特許第3977716号公報Japanese Patent No. 3977716

ITU-T Rec. H.264ITU-T Rec. H.264 ITU-T Q.6/SG16, VCEG-AC06r1, "Competition-Based Scheme for Motion Vector Selection and Coding"ITU-T Q.6 / SG16, VCEG-AC06r1, "Competition-Based Scheme for Motion Vector Selection and Coding"

非特許文献1記載の動画像符号化方式は、予測動きベクトルと、符号化対象ブロックに関し実際に導出した動きベクトルとの間の差分を符号化しているが、当該差分に関する符号量が上記実際に導出した動きベクトルに関する符号量を下回るとは限らない。   The moving image encoding method described in Non-Patent Document 1 encodes a difference between a predicted motion vector and a motion vector actually derived with respect to the encoding target block. It is not always less than the code amount related to the derived motion vector.

非特許文献2記載の動画像符号化方式は、符号化対象ブロック毎にいずれの予測動きベクトルが選択されたかを復号化側に通知するために切り替え情報を符号化する必要がある。即ち、非特許文献2記載の動画像符号化方式は、上記切り替え情報の符号量により却って符号量が増大するおそれがある。   In the moving picture encoding method described in Non-Patent Document 2, it is necessary to encode switching information in order to notify the decoding side which prediction motion vector has been selected for each encoding target block. That is, in the moving picture coding method described in Non-Patent Document 2, there is a possibility that the code amount increases on the contrary due to the code amount of the switching information.

特許文献1記載の動画像符号化方法によれば、動きベクトルの符号化を省略することは可能であるが、Collocate位置のブロックに関する動きベクトルは符号化対象ブロックの動きベクトルとして必ずしも適切でない。   According to the moving picture encoding method described in Patent Document 1, it is possible to omit the encoding of a motion vector, but the motion vector related to the block at the Collocate position is not necessarily appropriate as the motion vector of the encoding target block.

従って、本発明は符号化効率の高い画像符号化/復号化装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an image encoding / decoding device with high encoding efficiency.

本発明の一態様に係る画像復号化装置は、符号化された予測誤差を復号化する復号化部と、既に復号化済みの第1の画素領域に対応する第1の動きベクトルを取得する記憶部と、前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出する第1の導出部と、前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出する第2の導出部と、前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成する予測部と、前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成する統合部と、前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成する加算部とを具備する。   An image decoding apparatus according to an aspect of the present invention includes a decoding unit that decodes an encoded prediction error, and a memory that acquires a first motion vector corresponding to a first pixel area that has already been decoded. , A first derivation unit for deriving a motion vector group including at least one of the first motion vectors, and a third pixel obtained by dividing the second pixel region before decoding based on the motion vector group A second derivation unit for deriving a second motion vector corresponding to each of the regions, and a prediction for generating a first inter prediction image for each of the third pixel regions using the second motion vector An integration unit that integrates the first inter-predicted image to generate a second inter-predicted image corresponding to the second pixel region before decoding, the second inter-predicted image, and the Add decoded error to generate decoded image ; And a calculation part.

本発明によれば、符号化効率の高い画像符号化/復号化装置を提供できる。   According to the present invention, an image encoding / decoding device with high encoding efficiency can be provided.

第1の実施形態に係る画像符号化装置を示すブロック図。1 is a block diagram showing an image encoding device according to a first embodiment. 図1の動きベクトル導出部を示すブロック図。The block diagram which shows the motion vector derivation | leading-out part of FIG. 図2の動きベクトル処理部を示すブロック図。The block diagram which shows the motion vector process part of FIG. 図1のインター予測部を示すブロック図。The block diagram which shows the inter estimation part of FIG. 図1の画像符号化装置によるマクロブロックに対する符号化処理順序の一例を示す図。The figure which shows an example of the encoding process order with respect to the macroblock by the image coding apparatus of FIG. 図1の画像符号化装置の使用する符号化対象ブロックのサイズの一例を示す図。The figure which shows an example of the size of the encoding object block which the image coding apparatus of FIG. 1 uses. 図6Aの他の例を示す図。The figure which shows the other example of FIG. 6A. 図6A及び図6Bの他の例を示す図。The figure which shows the other example of FIG. 6A and 6B. インター予測処理の一例の説明図。Explanatory drawing of an example of the inter prediction process. 図7Aの他の例の説明図。FIG. 7B is an explanatory diagram of another example of FIG. 7A. インター予測処理におけるマクロブロック単位の動き補償ブロックサイズの一例を示す図。The figure which shows an example of the motion compensation block size of the macroblock unit in the inter prediction process. 図8Aの他の例を示す図。The figure which shows the other example of FIG. 8A. 図8A及び図8Bの他の例を示す図。The figure which shows the other example of FIG. 8A and 8B. 図8A、図8B及び図8Cの他の例を示す図。The figure which shows the other example of FIG. 8A, FIG. 8B, and FIG. 8C. インター予測処理におけるサブマクロブロック単位の動き補償ブロックサイズの一例を示す図。The figure which shows an example of the motion compensation block size of the sub macroblock unit in the inter prediction process. 図9Aの他の例を示す図。The figure which shows the other example of FIG. 9A. 図9A及び図9Bの他の例を示す図。The figure which shows the other example of FIG. 9A and 9B. 図9A、図9B及び図9Cの他の例を示す図。The figure which shows the other example of FIG. 9A, FIG. 9B, and FIG. 9C. 図3の動きベクトルブロック生成部によって生成される動きベクトルブロックの一例を示す図。The figure which shows an example of the motion vector block produced | generated by the motion vector block production | generation part of FIG. 図2の参照動きベクトルメモリに記憶される動きベクトルフレームの一例を示す図。The figure which shows an example of the motion vector frame memorize | stored in the reference motion vector memory of FIG. 図3の動きベクトル生成部によって利用される動きベクトルブロック情報の説明図。Explanatory drawing of the motion vector block information utilized by the motion vector production | generation part of FIG. 動きベクトルブロックのサイズと、図3の動きベクトル生成部によって生成される動きベクトルの数との関係を示すテーブル。The table which shows the relationship between the size of a motion vector block, and the number of the motion vectors produced | generated by the motion vector production | generation part of FIG. 図4の動き補償部による動き補償処理の説明図。Explanatory drawing of the motion compensation process by the motion compensation part of FIG. 図4の動き補償部による動き補償処理において利用可能な小数画素精度の補間処理の説明図。Explanatory drawing of the interpolation process of the decimal pixel precision which can be utilized in the motion compensation process by the motion compensation part of FIG. 図1のインター予測部による動きベクトルブロック予測処理を示すフローチャート。The flowchart which shows the motion vector block prediction process by the inter estimation part of FIG. 図16のステップS402における処理によって分割されたマクロブロック内のインデクスの一例を示す図。The figure which shows an example of the index in the macroblock divided | segmented by the process in step S402 of FIG. 図16のステップS404における処理の説明図。Explanatory drawing of the process in step S404 of FIG. 図1のインター予測部による動きベクトルブロック予測処理の適用例を概念的に示す図。The figure which shows notionally the example of application of the motion vector block prediction process by the inter prediction part of FIG. 図19の他の例を概念的に示す図。The figure which shows the other example of FIG. 19 notionally. 空間SKIPモードの説明図。Explanatory drawing of space SKIP mode. 第2の実施形態に係る画像符号化装置を示すブロック図。The block diagram which shows the image coding apparatus which concerns on 2nd Embodiment. 図22の予測部を示すブロック図。The block diagram which shows the estimation part of FIG. 複数フレームを利用する場合における、図1のインター予測部による動きベクトルブロック予測処理の一例の説明図。Explanatory drawing of an example of the motion vector block prediction process by the inter estimation part of FIG. 1 in the case of using a some flame | frame. 図24Aの他の例の説明図。Explanatory drawing of the other example of FIG. 24A. 図1の画像符号化装置が使用するシンタクス構造の一例を示す図。The figure which shows an example of the syntax structure which the image coding apparatus of FIG. 1 uses. 図25のマクロブロックレイヤーシンタクスの一例を示す図。The figure which shows an example of the macroblock layer syntax of FIG. 図25のマクロブロックプレディクションシンタクスの一例を示す図。The figure which shows an example of the macroblock prediction syntax of FIG. 図25のマクロブロックプレディクションシンタクスのサブマクロブロックに関する一例を示す図。The figure which shows an example regarding the submacroblock of the macroblock prediction syntax of FIG. 第3の実施形態に係る画像符号化装置を示すブロック図。The block diagram which shows the image coding apparatus which concerns on 3rd Embodiment. 図29の予測部を示すブロック図。The block diagram which shows the estimation part of FIG. 図30の第2インター予測部を示すブロック図。The block diagram which shows the 2nd inter estimation part of FIG. 図25のシーケンスパラメータセットシンタクスの一例を示す図。The figure which shows an example of the sequence parameter set syntax of FIG. 図25のピクチャパラメータセットシンタクスの一例を示す図。The figure which shows an example of the picture parameter set syntax of FIG. 図25のスライスヘッダシンタクスの一例を示す図。The figure which shows an example of the slice header syntax of FIG. 図25のマクロブロックレイヤーシンタクスの一例を示す図。The figure which shows an example of the macroblock layer syntax of FIG. 図27の他の例を示す図。The figure which shows the other example of FIG. 図28の他の例を示す図。The figure which shows the other example of FIG. 動きベクトルブロックSKIPモードにおける、mv_block_in_mb_flagの符号化省略処理を示すフローチャート。The flowchart which shows the encoding omission process of mv_block_in_mb_flag in motion vector block SKIP mode. 第4の実施形態に係る画像復号化装置における動きベクトル導出部を示すブロック図。The block diagram which shows the motion vector derivation | leading-out part in the image decoding apparatus which concerns on 4th Embodiment. 図39の動きベクトル導出部を含む画像復号化装置を示すブロック図。FIG. 40 is a block diagram showing an image decoding apparatus including the motion vector deriving unit in FIG. 39. 図39の動きベクトルブロック処理部を示すブロック図。FIG. 40 is a block diagram showing a motion vector block processing unit in FIG. 39. 図40のインター予測部を示すブロック図。The block diagram which shows the inter estimation part of FIG. 第5の実施形態に係る画像復号化装置を示すブロック図。The block diagram which shows the image decoding apparatus which concerns on 5th Embodiment. 図43の予測部を示すブロック図。The block diagram which shows the estimation part of FIG. 第6の実施形態に係る画像復号化装置を示すブロック図。The block diagram which shows the image decoding apparatus which concerns on 6th Embodiment. 図45の予測部を示すブロック図。The block diagram which shows the estimation part of FIG. 図46の第2インター予測部を示すブロック図。The block diagram which shows the 2nd inter estimation part of FIG.

以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1に示すように、本発明の第1の実施形態に係る画像符号化装置は、画像符号化部1000、符号化制御部130及び出力バッファ112を有する。図1の画像符号化装置は、LSIチップなどのハードウエアにより実現されてよいし、コンピュータに画像符号化プログラムを実行させることにより実現されてもよい。画像符号化部1000は、インター予測部101、減算部102、変換・量子化部103、エントロピー符号化部104、逆変換・逆量子化部105、加算部106、参照画像メモリ107及び動きベクトル導出部124を有する。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
As shown in FIG. 1, the image coding apparatus according to the first embodiment of the present invention includes an image coding unit 1000, a coding control unit 130, and an output buffer 112. The image encoding device in FIG. 1 may be realized by hardware such as an LSI chip, or may be realized by causing a computer to execute an image encoding program. The image coding unit 1000 includes an inter prediction unit 101, a subtraction unit 102, a transform / quantization unit 103, an entropy coding unit 104, an inverse transform / inverse quantization unit 105, an addition unit 106, a reference image memory 107, and a motion vector derivation. Part 124.

符号化制御部130は、発生符号量のフィードバック制御、量子化制御、予測モード制御及びエントロピー符号化制御といった画像符号化部1000による符号化処理全般を制御する。具体的には、符号化制御部130は、画像符号化部1000の各部に符号化制御情報30を設定し、また、画像符号化部1000の各部からフィードバック情報31を適宜取得する。符号化制御情報30には、予測情報22(予測モード情報及びブロックサイズ切り替え情報を含む)、動きベクトル情報18、動きベクトルブロック情報21及び量子化パラメータ(量子化幅(量子化ステップサイズ)及び量子化マトリクスなどを含む)等が含まれる。フィードバック情報31は、画像符号化部1000による発生符号量を含み、例えば上記量子化パラメータの決定に用いられる。   The encoding control unit 130 controls overall encoding processing by the image encoding unit 1000 such as feedback control of generated code amount, quantization control, prediction mode control, and entropy encoding control. Specifically, the encoding control unit 130 sets the encoding control information 30 in each unit of the image encoding unit 1000, and appropriately acquires the feedback information 31 from each unit of the image encoding unit 1000. The encoding control information 30 includes prediction information 22 (including prediction mode information and block size switching information), motion vector information 18, motion vector block information 21, and quantization parameters (quantization width (quantization step size) and quantum). And the like). The feedback information 31 includes the amount of code generated by the image encoding unit 1000 and is used, for example, for determining the quantization parameter.

画像符号化部1000には、動画像または静止画像である原画像10が、所定の処理単位(例えば、マクロブロック、サブブロックまたは1画素などの小画素ブロック)に分割されたうえで入力される。尚、上記処理単位はフレームまたはフィールドでもよい。以下の説明では、特に断りのない限り上記処理単位をマクロブロックとし、処理対象であるマクロブロック単位の原画像10を特に符号化対象ブロックと称する。   An original image 10 that is a moving image or a still image is input to the image encoding unit 1000 after being divided into predetermined processing units (for example, macroblocks, subblocks, or small pixel blocks such as one pixel). . The processing unit may be a frame or a field. In the following description, unless otherwise specified, the processing unit is referred to as a macro block, and the original image 10 of the macro block unit to be processed is particularly referred to as an encoding target block.

符号化対象ブロックのサイズは、図6Aに示すような16×16画素、図6Bに示すような8×8画素、或いは図6Cに示すような4×4画素であってもよいし、図示しないその他のサイズ(例えば32×32画素)でもよい。また、マクロブロックの形状は、正方形状に限らず任意形状でよいが、以下の説明では、マクロブロックの形状は正方形状であるものとする。   The size of the encoding target block may be 16 × 16 pixels as shown in FIG. 6A, 8 × 8 pixels as shown in FIG. 6B, or 4 × 4 pixels as shown in FIG. 6C. Other sizes (for example, 32 × 32 pixels) may be used. Further, the shape of the macroblock is not limited to a square shape, but may be an arbitrary shape. However, in the following description, the shape of the macroblock is assumed to be a square shape.

また、原画像10の符号化対象フレームを構成する各符号化対象ブロックに対する符号化処理順序は任意であるが、以下の説明では、図5に示すように左上から右下に至るまで、いわゆるラスタ・スキャン順に処理が行われるものとする。   In addition, although the encoding processing order for each encoding target block constituting the encoding target frame of the original image 10 is arbitrary, in the following description, as shown in FIG.・ Processing shall be performed in scan order.

インター予測部101は、後述する参照画像メモリ107から取得した参照画像(参照画像信号)17と、後述する動きベクトル導出部124から入力される複数の動きベクトル情報18と、符号化制御部130から通知される予測情報22とに基づきインター予測を行って、符号化対象ブロックの予測画像(予測画像信号)11を生成する。インター予測部101は、予測画像11を減算部102及び加算部106に入力する。尚、インター予測部101による予測処理は、図1の画像符号化装置が行う特徴的な予測処理に過ぎず、図1の画像符号化装置は、いわゆる通常のインター予測処理及びイントラ予測処理を選択的に行って予測画像11を生成してもよい。インター予測部101による予測処理の詳細は後述する。   The inter prediction unit 101 includes a reference image (reference image signal) 17 acquired from a reference image memory 107 described later, a plurality of motion vector information 18 input from a motion vector deriving unit 124 described later, and an encoding control unit 130. Inter prediction is performed based on the notified prediction information 22 to generate a predicted image (predicted image signal) 11 of the encoding target block. The inter prediction unit 101 inputs the predicted image 11 to the subtraction unit 102 and the addition unit 106. Note that the prediction processing by the inter prediction unit 101 is merely characteristic prediction processing performed by the image encoding device in FIG. 1, and the image encoding device in FIG. 1 selects so-called normal inter prediction processing and intra prediction processing. The prediction image 11 may be generated by performing the above. Details of the prediction processing by the inter prediction unit 101 will be described later.

減算部102は、符号化対象ブロックより予測画像11を減算し、予測誤差(予測誤差信号)12を変換・量子化部103に入力する。   The subtraction unit 102 subtracts the prediction image 11 from the encoding target block, and inputs the prediction error (prediction error signal) 12 to the transform / quantization unit 103.

変換・量子化部103は、減算部102からの予測誤差12に対して変換処理・量子化処理を行って、量子化された変換係数(以下、単に量子化変換係数と称する)13をエントロピー符号化部104及び逆変換・逆量子化部105に入力する。上記変換処理は、例えば離散コサイン変換(DCT;Discrete Cosine Transform)、ウェーブレット変換または独立成分解析などである。上記量子化処理は、符号化制御部130によって設定される量子化パラメータに従って行われる。   The transform / quantization unit 103 performs transform processing / quantization processing on the prediction error 12 from the subtraction unit 102, and converts the quantized transform coefficient (hereinafter simply referred to as a quantized transform coefficient) 13 to an entropy code. To the conversion unit 104 and the inverse transform / inverse quantization unit 105. The conversion process is, for example, discrete cosine transform (DCT), wavelet transform, independent component analysis, or the like. The quantization process is performed according to a quantization parameter set by the encoding control unit 130.

エントロピー符号化部104は、変換・量子化部103からの量子化変換係数13、符号化制御部130からの動きベクトルブロック情報21、予測情報22及び量子化パラメータ等を含む符号化パラメータに対しエントロピー符号化を行って、符号化データ14を出力バッファ112に入力する。上記エントロピー符号化処理は、例えば等長符号化、ハフマン符号化または算術符号化等である。尚、従来の画像符号化装置は、インター予測を行った場合には動きベクトル情報18を符号化する必要があるが、図1の画像符号化装置は、上記動きベクトル情報18の符号化を行わず、動きベクトルブロック情報21を符号化する。符号化データ14は、多重化された状態で出力バッファ112に一時的に蓄積され、符号化制御部130によって管理される出力タイミングに応じ、図1の画像符号化装置の外部に出力される。ここで、図1の画像符号化装置の外部とは、図示しない蓄積系(蓄積メディア)または伝送系(通信回線)である。   The entropy encoding unit 104 entropy is applied to the encoding parameters including the quantized transform coefficient 13 from the transform / quantization unit 103, the motion vector block information 21, the prediction information 22, and the quantization parameter from the encoding control unit 130. Encoding is performed, and the encoded data 14 is input to the output buffer 112. The entropy encoding process is, for example, isometric encoding, Huffman encoding, or arithmetic encoding. The conventional image encoding device needs to encode the motion vector information 18 when performing inter prediction, but the image encoding device in FIG. 1 encodes the motion vector information 18. First, the motion vector block information 21 is encoded. The encoded data 14 is temporarily stored in the output buffer 112 in a multiplexed state, and is output to the outside of the image encoding device in FIG. 1 according to the output timing managed by the encoding control unit 130. Here, the outside of the image encoding apparatus in FIG. 1 is a storage system (storage medium) or a transmission system (communication line) not shown.

逆変換・逆量子化部105は、変換・量子化部103からの量子化変換係数13に対して、逆量子化・逆変換を行って予測誤差12を復号化し、復号予測誤差15として加算部106に入力する。上記逆量子化処理は、符号化制御部130によって設定される量子化パラメータに従って行われる。また、上記逆変換処理は、前述した変換処理の逆変換処理であって、例えば逆離散コサイン変換(IDCT;Inverse Discrete Cosine Transform)または逆ウェーブレット変換などである。   The inverse transform / inverse quantization unit 105 performs inverse quantization / inverse transform on the quantized transform coefficient 13 from the transform / quantization unit 103 to decode the prediction error 12, and adds it as a decoded prediction error 15. 106. The inverse quantization process is performed according to a quantization parameter set by the encoding control unit 130. The inverse transform process is an inverse transform process of the transform process described above, and is, for example, an inverse discrete cosine transform (IDCT) or an inverse wavelet transform.

加算部106は、逆変換・逆量子化部105からの復号予測誤差15と、インター予測部101からの予測画像11とを加算し、符号化対象ブロックの局所復号画像16を生成する。加算部106は、局所復号画像(局所復号画像信号)16を参照画像メモリ107に参照画像(参照画像信号)17として記憶させる。   The adding unit 106 adds the decoded prediction error 15 from the inverse transform / inverse quantization unit 105 and the predicted image 11 from the inter prediction unit 101 to generate a local decoded image 16 of the encoding target block. The adding unit 106 stores the locally decoded image (local decoded image signal) 16 in the reference image memory 107 as a reference image (reference image signal) 17.

参照画像メモリ107には、例えばフレーム単位で参照画像17が記憶され、インター予測部101によって必要に応じて読み出される。   The reference image memory 107 stores the reference image 17 in units of frames, for example, and is read out by the inter prediction unit 101 as necessary.

動きベクトル導出部124は、符号化制御部130からの動きベクトルブロック情報21及び予測情報22に基づき、複数の動きベクトル情報18を導出する。具体的には、図2に示すように、動きベクトル処理部108及び参照動きベクトルメモリ109を有する。   The motion vector deriving unit 124 derives a plurality of motion vector information 18 based on the motion vector block information 21 and the prediction information 22 from the encoding control unit 130. Specifically, as shown in FIG. 2, a motion vector processing unit 108 and a reference motion vector memory 109 are included.

動きベクトル処理部108は、符号化制御部130からの動きベクトルブロック情報21及び予測情報22に基づき、参照動きベクトルメモリ109から参照動きベクトル情報19を取得し、複数の動きベクトル情報18を導出する。尚、動きベクトル処理部108による動きベクトル導出処理の詳細は後述する。   The motion vector processing unit 108 acquires the reference motion vector information 19 from the reference motion vector memory 109 based on the motion vector block information 21 and the prediction information 22 from the encoding control unit 130 and derives a plurality of motion vector information 18. . Details of the motion vector derivation processing by the motion vector processing unit 108 will be described later.

参照動きベクトルメモリ109には、既に符号化済みの動きベクトル情報18が、参照動きベクトル情報19として一時的に保存される。より詳細には、図11に示すように、参照動きベクトルメモリ109には、参照動きベクトル情報19がフレーム単位で保存され、参照動きベクトルフレーム114を形成している。参照動きベクトルメモリ109には、符号化済みの動きベクトル情報18が順次入力され、時間的位置に応じた参照動きベクトルフレーム114を構成する参照動きベクトル情報19として保存される。図11において、参照動きベクトルフレーム114を構成する参照動きベクトル情報19の動き補償ブロックサイズは4×4画素であるが、2×2画素や1画素単位でもよく、また、矩形状に限らず任意形状でもよい。また、図10に示すように、動きベクトルブロック28は4×4の16個の参照動きベクトル情報19の集合であるが、動きベクトルブロック28の具体的態様はこれに限られない。   In the reference motion vector memory 109, already encoded motion vector information 18 is temporarily stored as reference motion vector information 19. More specifically, as shown in FIG. 11, the reference motion vector memory 109 stores the reference motion vector information 19 in units of frames to form a reference motion vector frame 114. Encoded motion vector information 18 is sequentially input to the reference motion vector memory 109 and stored as reference motion vector information 19 constituting a reference motion vector frame 114 corresponding to a temporal position. In FIG. 11, the motion compensation block size of the reference motion vector information 19 constituting the reference motion vector frame 114 is 4 × 4 pixels, but it may be 2 × 2 pixels or one pixel unit, and is not limited to a rectangular shape and is arbitrary. Shape may be sufficient. As shown in FIG. 10, the motion vector block 28 is a set of 16 reference motion vector information 19 of 4 × 4, but the specific mode of the motion vector block 28 is not limited to this.

以下、図3を用いて動きベクトルブロック処理部108による動きベクトル導出処理を説明する。図3に示すように、動きベクトルブロック処理部108は、動きベクトルブロック生成部110及び動きベクトル生成部111を有する。   Hereinafter, the motion vector deriving process by the motion vector block processing unit 108 will be described with reference to FIG. As illustrated in FIG. 3, the motion vector block processing unit 108 includes a motion vector block generation unit 110 and a motion vector generation unit 111.

動きベクトルブロック生成部110は、動きベクトルブロック情報21を取得し、当該動きベクトルブロック情報21に応じた参照動きベクトル情報19の集合である動きベクトルブロック28を生成する。動きベクトルブロック生成部110は、動きベクトルブロック28を動きベクトル生成部111に入力する。   The motion vector block generation unit 110 acquires the motion vector block information 21 and generates a motion vector block 28 that is a set of reference motion vector information 19 corresponding to the motion vector block information 21. The motion vector block generation unit 110 inputs the motion vector block 28 to the motion vector generation unit 111.

動きベクトルブロック情報21は、図12に示すように、参照動きベクトルフレーム114内における動きベクトルブロック28の空間的位置を示す情報である。以下の説明では、参照動きベクトルフレーム114内において、符号化対象ブロックの左上頂点と同一位置を基準点とし、当該基準点から上記動きベクトルブロック28の左上頂点までの空間的シフト量を動きベクトルブロック情報21とする。本実施形態において、輝度信号に関し、参照動きベクトル情報19の動き補償ブロックサイズは4×4画素なので、動きベクトルブロック情報21は、次の数式(1)に示すような4×4画素精度の情報である。

Figure 2012157061
The motion vector block information 21 is information indicating the spatial position of the motion vector block 28 in the reference motion vector frame 114 as shown in FIG. In the following description, in the reference motion vector frame 114, the same position as the upper left vertex of the encoding target block is used as a reference point, and the spatial shift amount from the reference point to the upper left vertex of the motion vector block 28 is expressed as a motion vector block. Information 21 is assumed. In this embodiment, since the motion compensation block size of the reference motion vector information 19 is 4 × 4 pixels with respect to the luminance signal, the motion vector block information 21 is information of 4 × 4 pixel accuracy as shown in the following equation (1). It is.
Figure 2012157061

数式(1)において、(blk_x, blk_y)は符号化対象ブロックの左頂点位置のフレーム内における垂直方向及び水平方向のインデクス(座標)を示し、(mvblk_x_pos, mvblk_y_pos)は動き補償ブロック28の左頂点位置の参照動きベクトルフレーム114内における垂直方向及び水平方向のインデクスを示し、(mvblk_x, mvblk_y)は動きベクトルブロック情報21の垂直方向及び水平方向成分を示している。動きベクトルブロック28のサイズと、当該動きベクトルブロック28内に含まれる参照動きベクトル情報19の数との関係は、図13に示す通りである。尚、動きベクトルブロック情報21は、既に符号化済みの他の動きベクトルブロックベクトル情報21に対する差分によって表現されてもよい。   In Equation (1), (blk_x, blk_y) indicates the vertical and horizontal indexes (coordinates) in the frame at the left vertex position of the encoding target block, and (mvblk_x_pos, mvblk_y_pos) indicates the left vertex of the motion compensation block 28. The vertical and horizontal indexes in the reference motion vector frame 114 of the position are shown, and (mvblk_x, mvblk_y) show the vertical and horizontal components of the motion vector block information 21. The relationship between the size of the motion vector block 28 and the number of reference motion vector information 19 included in the motion vector block 28 is as shown in FIG. The motion vector block information 21 may be expressed by a difference with respect to other motion vector block vector information 21 that has already been encoded.

尚、動きベクトルブロック28のサイズは、符号化対象ブロックと同サイズであってもよいし、符号化対象ブロックを分割したサイズでもよい。例えば、符号化対象ブロックが16×16画素ブロックであれば、動きベクトルブロック28は16×16画素ブロック、16×8画素ブロック、8×16画素ブロック、8×8画素ブロック、8×4画素ブロック、4×8画素ブロックまたは4×4画素ブロックのいずれでもよい。動きベクトルブロック28のサイズを、符号化対象ブロックを分割したサイズとする場合、当該分割数に応じた数の動きベクトルブロック情報21が取得されることが望ましい。   The size of the motion vector block 28 may be the same size as the encoding target block or may be a size obtained by dividing the encoding target block. For example, if the encoding target block is a 16 × 16 pixel block, the motion vector block 28 is a 16 × 16 pixel block, a 16 × 8 pixel block, an 8 × 16 pixel block, an 8 × 8 pixel block, or an 8 × 4 pixel block. Either a 4 × 8 pixel block or a 4 × 4 pixel block may be used. When the size of the motion vector block 28 is a size obtained by dividing the encoding target block, it is desirable that the number of motion vector block information 21 corresponding to the number of divisions is acquired.

ここで、動きベクトルブロックベクトル情報21を利用することの技術的意義を説明する。
動きベクトルブロック28には、例えば図10に示すように4×4の計16個の参照動きベクトル情報19が含まれており、後述するインター予測部101は当該16個の参照動きベクトル情報19を符号化対象ブロックに適用することができる。例えば符号化対象ブロックのサイズが16×16画素であれば、インター予測部101はこれを更に分割した4×4画素ブロック単位での動き補償を行うことが可能となり、インター予測処理の精度向上が期待できる。また、H.264では個々の動きベクトル情報18を符号化する必要があるが、前述したようにエントロピー符号化部104は上記動きベクトルブロック28に含まれる個々の参照動きベクトル情報19を動きベクトル情報18として符号化する必要は無く、動きベクトルブロック情報21のみを符号化すればよい。従って、本実施形態に係る画像符号化装置によれば、動きベクトル情報に関する符号量(オーバーヘッド)を削減することができる。また、H.264における動きベクトル情報は、1/4画素精度の情報であるのに対し、動きベクトルブロック情報21は4画素精度の情報であるので、情報量は1/16程度に抑えられる。
Here, the technical significance of using the motion vector block vector information 21 will be described.
For example, as shown in FIG. 10, the motion vector block 28 includes a total of 16 reference motion vector information 19 of 4 × 4, and the inter prediction unit 101 described later stores the 16 reference motion vector information 19. It can be applied to the encoding target block. For example, if the size of the encoding target block is 16 × 16 pixels, the inter prediction unit 101 can perform motion compensation in units of 4 × 4 pixel blocks obtained by further dividing the block, which improves the accuracy of inter prediction processing. I can expect. In H.264, it is necessary to encode the individual motion vector information 18, but as described above, the entropy encoding unit 104 converts the individual reference motion vector information 19 included in the motion vector block 28 into the motion vector information. It is not necessary to encode as 18, and only the motion vector block information 21 may be encoded. Therefore, according to the image coding apparatus according to the present embodiment, it is possible to reduce the amount of code (overhead) related to motion vector information. In addition, since the motion vector information in H.264 is information of 1/4 pixel accuracy, the motion vector block information 21 is information of 4 pixel accuracy, so the information amount can be suppressed to about 1/16.

また、動きベクトルブロック情報21は、外部から与えられてもよいし、いわゆる動き探索処理を利用して動きベクトルブロック28を参照動きベクトルフレーム114から実際に探索することにより導出されてもよい。上記動き探索処理において、後述する数式(5)または(6)に示すコストを利用してもよい。参照動きベクトルフレーム114において符号化対象ブロックと同一位置から、上記動き探索処理の結果得られた最適な動きベクトルブロック28までの空間的シフト量が動きベクトルブロック情報21として利用される。   Further, the motion vector block information 21 may be given from the outside, or may be derived by actually searching the motion vector block 28 from the reference motion vector frame 114 using a so-called motion search process. In the motion search process, the cost shown in Equation (5) or (6) described later may be used. The spatial shift amount from the same position as the encoding target block in the reference motion vector frame 114 to the optimum motion vector block 28 obtained as a result of the motion search process is used as the motion vector block information 21.

動きベクトル生成部111は、動きベクトルブロック生成部110からの動きベクトルブロック28に含まれる参照動きベクトル情報19に基づき、符号化対象ブロックを分割した複数の小画素ブロック(小画素ブロック信号)23の各々に関する動きベクトル情報18を生成し、出力する。具体的には、動きベクトル生成部111は、小画素ブロック23に関する動きベクトル情報18として、適切な参照動きベクトル情報19を代入する。例えば、小画素ブロック23のブロックサイズと、参照動きベクトル情報19の動き補償ブロックサイズが一致しているならば、各小画素ブロック23と各参照動きベクトル情報19とが位置的に一対一に対応するので、動きベクトル生成部111は小画素ブロック23に対応する動きベクトル情報18として当該小画素ブロック23に位置的に対応する参照動きベクトル情報19を逐次代入すればよい。小画素ブロック23のブロックサイズと、参照動きベクトル情報19の動き補償ブロックサイズとが異なる場合には、動きベクトル生成部111は例えば小画素ブロック23と空間的位置が重複する動き補償ブロックに対応する参照動きベクトル情報19を代入すればよい。   Based on the reference motion vector information 19 included in the motion vector block 28 from the motion vector block generation unit 110, the motion vector generation unit 111 includes a plurality of small pixel blocks (small pixel block signals) 23 obtained by dividing the encoding target block. The motion vector information 18 for each is generated and output. Specifically, the motion vector generation unit 111 substitutes appropriate reference motion vector information 19 as the motion vector information 18 regarding the small pixel block 23. For example, if the block size of the small pixel block 23 and the motion compensation block size of the reference motion vector information 19 match, each small pixel block 23 and each reference motion vector information 19 have a one-to-one correspondence. Therefore, the motion vector generation unit 111 may sequentially substitute the reference motion vector information 19 corresponding to the position of the small pixel block 23 as the motion vector information 18 corresponding to the small pixel block 23. When the block size of the small pixel block 23 and the motion compensation block size of the reference motion vector information 19 are different, the motion vector generation unit 111 corresponds to, for example, a motion compensation block whose spatial position overlaps with the small pixel block 23. The reference motion vector information 19 may be substituted.

また、動きベクトル生成部111は、小画素ブロック23に対応する動きベクトル情報18として参照動きベクトル情報19をそのまま代入するのでなく、以下のような変形を加えてよい。   In addition, the motion vector generation unit 111 may add the following modifications instead of substituting the reference motion vector information 19 as the motion vector information 18 corresponding to the small pixel block 23 as it is.

(A)参照動きベクトル情報19の反転ベクトル(マイナス値)を代入
(B)参照動きベクトル情報19と、当該参照動きベクトル情報19に隣接する参照動きベクトル情報との加重平均値、メディアン値、最大値または最小値を代入
(C)参照フレーム番号または動きベクトルブロックの時間的位置に応じ、参照動きベクトルを正規化した値を代入
ここで、正規化は、参照動きベクトル情報19が参照するフレームの時間的距離と、符号化対象ブロックが参照するフレームの時間的距離とが異なる場合に行われることが望ましい。具体的には、参照動きベクトル情報19が属する参照動きベクトルフレーム114と、当該参照動きベクトル情報19が参照する参照画像17との間の時間的距離をTR、符号化対象ブロックの属するフレームと、当該符号化対象ブロックの参照画像17との間の時間的距離をTCとすると、参照動きベクトル情報19をTC/TR倍した値を動きベクトル情報18として代入すればよい。
(A) Inverted vector (negative value) of reference motion vector information 19 is substituted. (B) Weighted average value, median value, maximum of reference motion vector information 19 and reference motion vector information adjacent to the reference motion vector information 19 Substituting a value or minimum value (C) Substituting a value obtained by normalizing the reference motion vector according to the reference frame number or the temporal position of the motion vector block. Here, normalization is performed for the frame referred to by the reference motion vector information 19 This is preferably performed when the temporal distance is different from the temporal distance of the frame referenced by the encoding target block. Specifically, the temporal distance between the reference motion vector frame 114 to which the reference motion vector information 19 belongs and the reference image 17 to which the reference motion vector information 19 refers is TR, the frame to which the block to be encoded belongs, Assuming that the time distance between the encoding target block and the reference image 17 is TC, a value obtained by multiplying the reference motion vector information 19 by TC / TR may be substituted as the motion vector information 18.

尚、符号化対象ブロックをどのように複数の小画素ブロック23に分割するかは、予測情報22によって指定される。例えば、符号化対象ブロックが16×16画素のマクロブロックであれば、4×4画素ブロックや1画素等が小画素ブロック23の例として挙げられる。前述したように参照動きベクトル情報19に基づいて、小画素ブロック23に関する動きベクトル18が生成されるため、参照動きベクトル情報19の動き補償ブロックサイズは、小画素ブロック23のブロックサイズ以下であることが望ましい。例えば、小画素ブロック23のブロックサイズが4×4画素であれば、参照動きベクトル情報19の動き補償ブロックサイズは4×4画素であってもよいし、2×2画素であってもよいし、1画素であってもよい。   Note that the prediction information 22 specifies how to divide the encoding target block into a plurality of small pixel blocks 23. For example, if the encoding target block is a 16 × 16 pixel macroblock, a 4 × 4 pixel block, one pixel, and the like are examples of the small pixel block 23. Since the motion vector 18 related to the small pixel block 23 is generated based on the reference motion vector information 19 as described above, the motion compensation block size of the reference motion vector information 19 is equal to or smaller than the block size of the small pixel block 23. Is desirable. For example, if the block size of the small pixel block 23 is 4 × 4 pixels, the motion compensation block size of the reference motion vector information 19 may be 4 × 4 pixels or 2 × 2 pixels. One pixel may be sufficient.

以下、インター予測部101によるインター予測処理を説明する。
まず、インター予測部101によるインター予測処理が理解しやすいように、図1の画像符号化装置が利用可能なその他の予測処理を説明する。図1の画像符号化装置は、複数の予測モードが利用可能であり、各予測モードは予測画像11を生成するための予測処理や動き補償ブロックサイズが互いに異なる。尚、予測モードは予測情報22によって指定される。上記予測処理は、空間方向の予測処理及び時間方向の予測処理に大別され、夫々イントラ予測(フレーム内予測)及びインター予測(フレーム間予測)と称される。イントラ予測は、符号化対象ブロックと同一のフレームまたはフィールドの参照画像17を用いて予測画像11を生成する。インター予測は、符号化対象ブロックと時間的位置の異なるフレームまたはフィールドの参照画像17用いて予測画像11を生成する。
Hereinafter, the inter prediction process by the inter prediction unit 101 will be described.
First, other prediction processes that can be used by the image coding apparatus in FIG. 1 will be described so that the inter prediction process by the inter prediction unit 101 can be easily understood. The image coding apparatus in FIG. 1 can use a plurality of prediction modes, and each prediction mode has a different prediction process and motion compensation block size for generating the predicted image 11. Note that the prediction mode is specified by the prediction information 22. The prediction process is roughly classified into a spatial direction prediction process and a temporal direction prediction process, and is referred to as intra prediction (intraframe prediction) and inter prediction (interframe prediction), respectively. In the intra prediction, the prediction image 11 is generated using the reference image 17 in the same frame or field as the encoding target block. In inter prediction, a predicted image 11 is generated using a reference image 17 of a frame or a field having a temporal position different from that of an encoding target block.

通常のインター予測に関して更に詳細に説明すると、例えば図7Aに示すように、参照画像17において符号化対象ブロックと同一位置から、動きベクトル情報18に応じて空間的にシフトした位置の画素ブロックを予測画像11として生成する。尚、上記インター予測では、小数画素精度の動き補償が可能であり、例えばH.264では輝度信号に関して1/2画素精度及び1/4画素精度の動き補償が可能である。1/4画素精度の動き補償を行う場合、動きベクトル情報18の情報量は整数画素精度の動き補償を行う場合の16(=4×4)倍となる。   In more detail regarding normal inter prediction, for example, as shown in FIG. 7A, a pixel block at a position spatially shifted according to the motion vector information 18 is predicted from the same position as the encoding target block in the reference image 17. Generated as an image 11. In the inter prediction, motion compensation with decimal pixel accuracy is possible. For example, with H.264, motion compensation with 1/2 pixel accuracy and 1/4 pixel accuracy can be performed for a luminance signal. When performing motion compensation with 1/4 pixel accuracy, the amount of information of the motion vector information 18 is 16 (= 4 × 4) times that when motion compensation with integer pixel accuracy is performed.

また、インター予測処理において、参照可能なフレーム数は1つに限られず、例えば図7Bに示すように、時間的位置が異なる複数の参照画像17を利用してもよい。複数の参照画像17を利用する場合、いずれの参照画像17が参照されたかは参照フレーム番号によって識別される。参照フレーム番号は、各画素領域単位(ピクチャまたはブロック単位など)で変更されてもよい。参照フレーム番号は、例えば符号化対象ブロックの属するフレームの1つ前のフレームに対して「0」、2つ前のフレームに対して「1」などが与えられる。また、参照フレーム数が1である場合には、当該参照フレームの参照フレーム番号は「0」などで固定される。   In the inter prediction process, the number of frames that can be referred to is not limited to one. For example, as illustrated in FIG. 7B, a plurality of reference images 17 having different temporal positions may be used. When a plurality of reference images 17 are used, which reference image 17 is referenced is identified by the reference frame number. The reference frame number may be changed in units of each pixel area (such as a picture or a block). As the reference frame number, for example, “0” is given to the frame immediately before the frame to which the encoding target block belongs, and “1” is given to the second previous frame. When the number of reference frames is 1, the reference frame number of the reference frame is fixed to “0” or the like.

また、インター予測処理において、複数の動き補償ブロックサイズの中から符号化対象ブロックに適したものを選択することができる。具体的には、マクロブロックに関し、図8Aに示す16×16画素、図8Bに示す16×8画素、図8Cに示す8×16画素及び図8Dに示す8×8画素等が選択可能であり、サブマクロブロックに関し、図9Aに示す8×8画素、図9Bに示す8×4画素、図9Cに示す4×8画素及び図9Dに示す4×4画素等が選択可能である。上記動き補償ブロック毎に個別に動きベクトルを導出することが可能なので、符号化対象ブロックの局所的な性質に従って、最適な動き補償ブロックの形状(サイズ)及び動きベクトルが選択される。   Also, in the inter prediction process, it is possible to select a suitable one for the encoding target block from a plurality of motion compensation block sizes. Specifically, for the macroblock, 16 × 16 pixels shown in FIG. 8A, 16 × 8 pixels shown in FIG. 8B, 8 × 16 pixels shown in FIG. 8C, 8 × 8 pixels shown in FIG. For the sub-macroblock, 8 × 8 pixels shown in FIG. 9A, 8 × 4 pixels shown in FIG. 9B, 4 × 8 pixels shown in FIG. 9C, 4 × 4 pixels shown in FIG. 9D, and the like can be selected. Since a motion vector can be derived individually for each motion compensation block, an optimal motion compensation block shape (size) and motion vector are selected according to the local nature of the block to be encoded.

図4に示すように、インター予測部101は、予測画像信号統合部115及び複数の動き補償部113を有する。
複数の動き補償部113の各々は、符号化対象ブロックを分割した複数の小画素ブロック23の各々に対して小予測画像24を生成する。動き補償部113は、小予測画像24を予測画像信号統合部115に入力する。
As illustrated in FIG. 4, the inter prediction unit 101 includes a predicted image signal integration unit 115 and a plurality of motion compensation units 113.
Each of the plurality of motion compensation units 113 generates a small predicted image 24 for each of the plurality of small pixel blocks 23 obtained by dividing the encoding target block. The motion compensation unit 113 inputs the small predicted image 24 to the predicted image signal integration unit 115.

動き補償部113は、図14に示すように、参照画像17において小画素ブロック23と同一位置から、当該小画素ブロック23に関する動きベクトル情報18に応じて空間シフトした位置の画素ブロックを小予測画像(小予測画像信号)24として生成する。動き補償部113が小画素ブロック23に対して行う動き補償処理は、H.264における動き補償処理と同様に実現できる。具体的には、1/2画素精度や1/4画素精度の動き補償処理が利用可能である。1/4画素精度までの動き補償を行う場合、小予測画像24の位置は以下の数式(2)によって定められる。

Figure 2012157061
As shown in FIG. 14, the motion compensation unit 113 subtracts a pixel block at a position spatially shifted from the same position as the small pixel block 23 in the reference image 17 according to the motion vector information 18 related to the small pixel block 23. (Small prediction image signal) 24 is generated. The motion compensation process performed by the motion compensation unit 113 on the small pixel block 23 can be realized in the same manner as the motion compensation process in H.264. Specifically, motion compensation processing with 1/2 pixel accuracy or 1/4 pixel accuracy can be used. When motion compensation is performed up to 1/4 pixel accuracy, the position of the small predicted image 24 is determined by the following formula (2).
Figure 2012157061

数式(2)におて、(x, y)は小画素ブロック23の左上頂点を示す水平方向のインデクス及び垂直方向のインデクス、(mv_x, mv_y)は動きベクトル情報18の水平方向成分及び垂直方向成分、(x_pos, y_pos)は小予測画像24の左上頂点を示す水平方向のインデクス及び垂直方向のインデクスを夫々示す。小予測画像24の左上頂点(x_pos, y_pos)は、動きベクトル情報18の水平方向成分mv_x及び垂直方向成分mv_yが4の倍数であれば整数画素位置、4の倍数でない2の倍数であれば1/2画素位置、奇数であれば1/4画素位置である。小予測画像24の左上頂点(x_pos, y_pos)が1/2画素位置または1/4画素位置であれば、画素値の補間処理が必要である。具体的には、図15において、左下斜線のみが付されたブロックは整数画素位置に対応する画素、左下斜線及び右下斜線が付されたブロックは1/2画素位置に対応する画素、その他のブロックは1/4画素位置に対応する画素を夫々示す。   In Equation (2), (x, y) is the horizontal index and vertical index indicating the upper left vertex of the small pixel block 23, and (mv_x, mv_y) is the horizontal component and vertical direction of the motion vector information 18 The component (x_pos, y_pos) indicates a horizontal index and a vertical index indicating the upper left vertex of the small predicted image 24, respectively. The upper left vertex (x_pos, y_pos) of the small predicted image 24 is an integer pixel position if the horizontal direction component mv_x and the vertical direction component mv_y of the motion vector information 18 are multiples of 4, and is 1 if the multiple of 2 is not a multiple of 4. / 2 pixel position, if it is odd, it is a 1/4 pixel position. If the upper left vertex (x_pos, y_pos) of the small predicted image 24 is a 1/2 pixel position or a 1/4 pixel position, pixel value interpolation processing is required. Specifically, in FIG. 15, blocks with only the lower left oblique line are pixels corresponding to integer pixel positions, blocks with lower left oblique line and lower right oblique line are pixels corresponding to 1/2 pixel positions, and the like. Each block indicates a pixel corresponding to a 1/4 pixel position.

1/2画素位置に対応する画素の画素値b及びhは、以下の補間式(3)によって導出される。

Figure 2012157061
Pixel values b and h of the pixel corresponding to the 1/2 pixel position are derived by the following interpolation formula (3).
Figure 2012157061

数式(3)において>>は右シフト演算を示し、>>5は32で除算することに相当する。即ち、1/2画素位置に対応する画素の画素値は、6タップFIR(Finite Impulse Response)フィルタ(タップ係数:(1,−5,20,20、−5,1)/32)を用いて生成される。 In Equation (3), >> indicates a right shift operation, and >> 5 corresponds to division by 32. That is, the pixel value of the pixel corresponding to the 1/2 pixel position is determined using a 6-tap FIR (Finite Impulse Response) filter (tap coefficient: (1, -5, 20, 20, -5, 1) / 32). Generated.

また、1/4画素位置に対応する画素の画素値a及びdは、以下の補間式(4)によって導出される。

Figure 2012157061
The pixel values a and d of the pixels corresponding to the 1/4 pixel position are derived by the following interpolation formula (4).
Figure 2012157061

即ち、1/4画素位置に対応する画素の画素値は、2タップの平均値フィルタ(タップ係数:(1/2,1/2))を用いて生成される。尚、4つの整数画素位置の中間に存在する画素の画素値jは、垂直方向6タップFIRフィルタ及び水平方向6タップFIRフィルタを適宜組み合わせて生成される。例えば、垂直方向6タップFIRフィルタを用いて画素値cc、dd、h、m、ee、及びffを生成し、これらに水平方向6タップFIRフィルタを適用することにより画素値jが生成される。また、水平方向6タップFIRフィルタを用いて画素値aa、bb、b、s、gg及びhhを生成し、これらに垂直方向6タップFIRフィルタを適用することにより画素値jが生成される。その他の位置に対応する画素の画素値も同様の補間ルールに従って生成できる。   That is, the pixel value of the pixel corresponding to the 1/4 pixel position is generated using a 2-tap average value filter (tap coefficient: (1/2, 1/2)). The pixel value j of the pixel existing in the middle of the four integer pixel positions is generated by appropriately combining a vertical 6-tap FIR filter and a horizontal 6-tap FIR filter. For example, pixel values cc, dd, h, m, ee, and ff are generated using a vertical 6-tap FIR filter, and a pixel value j is generated by applying a horizontal 6-tap FIR filter thereto. Also, pixel values aa, bb, b, s, gg and hh are generated using a horizontal 6-tap FIR filter, and a pixel value j is generated by applying a vertical 6-tap FIR filter to these. Pixel values of pixels corresponding to other positions can be generated according to the same interpolation rule.

尚、数式(3)及び(4)とは異なる補間処理を行って、小数精度画素位置に対応する画素の画素値を生成してもよい。また、補間係数は、前述したものに限らず、符号化制御部130によって固定値または可変値が設定されてもよい。更に、補間係数を可変とする場合、後述する符号化コストの観点からフレーム毎に補間係数が最適化されてもよい。   In addition, the pixel value of the pixel corresponding to the decimal precision pixel position may be generated by performing an interpolation process different from Expressions (3) and (4). In addition, the interpolation coefficient is not limited to that described above, and a fixed value or a variable value may be set by the encoding control unit 130. Further, when the interpolation coefficient is variable, the interpolation coefficient may be optimized for each frame from the viewpoint of encoding cost described later.

予測画像信号統合部115は、複数の動き補償部113からの小予測画像24を統合し、符号化対象ブロックに対応する予測画像11を生成する。即ち、個々の小画素ブロック23に対応する小予測画像24を統合することにより、当該小画素ブロック23に分割する前の符号化対象ブロックに対応する予測画像11が得られる。ここで、統合とは、小予測画像24をつなぎ合わせて、予測画像11を生成することを意味する。   The prediction image signal integration unit 115 integrates the small prediction images 24 from the plurality of motion compensation units 113 and generates the prediction image 11 corresponding to the encoding target block. That is, by integrating the small predicted images 24 corresponding to the individual small pixel blocks 23, the predicted image 11 corresponding to the encoding target block before being divided into the small pixel blocks 23 is obtained. Here, the integration means that the small predicted images 24 are connected to generate the predicted image 11.

以上説明したように、インター予測部101によるインター予測処理は、通常のインター予測処理とは異なり、動きベクトルブロック28を利用する点が特徴的である。以降、動きベクトルブロックを利用したインター予測処理を、動きベクトルブロック予測処理と称する。   As described above, the inter prediction process performed by the inter prediction unit 101 is different from the normal inter prediction process in that the motion vector block 28 is used. Hereinafter, inter prediction processing using motion vector blocks is referred to as motion vector block prediction processing.

以下、図16を用いてインター予測部101による動きベクトルブロック予測処理の流れを説明する。尚、図16において符号化対象ブロックは16×16画素のマクロブロックとし、一連の処理が終了すると次の符号化対象ブロックに対する処理を行うものとする。
まず、動きベクトルブロック生成部110は、動きベクトルブロック情報21に基づき符号化対象ブロックに対応する動きベクトルブロック28を生成する(ステップS401)。具体的には、動きベクトルブロック生成部110は、参照動きベクトルメモリ109に保存されている参照動きベクトルフレーム114において符号化対象ブロックと同一位置から上記動きベクトルブロック情報21に応じて空間的にシフトした位置における、参照動きベクトル情報19の集合を動きベクトルブロック28として生成する。本例では、参照動きベクトル情報19の各々の動き補償ブロックサイズは4×4画素とし、動きベクトルブロック28には4×4の計16個の参照動きベクトル情報19が含まれる。
Hereinafter, the flow of motion vector block prediction processing by the inter prediction unit 101 will be described with reference to FIG. In FIG. 16, the encoding target block is a 16 × 16 pixel macroblock, and when a series of processing ends, processing for the next encoding target block is performed.
First, the motion vector block generation unit 110 generates a motion vector block 28 corresponding to the encoding target block based on the motion vector block information 21 (step S401). Specifically, the motion vector block generator 110 spatially shifts the reference motion vector frame 114 stored in the reference motion vector memory 109 from the same position as the encoding target block according to the motion vector block information 21. A set of reference motion vector information 19 at the determined position is generated as a motion vector block 28. In this example, each motion compensation block size of the reference motion vector information 19 is 4 × 4 pixels, and the motion vector block 28 includes 4 × 4 total 16 pieces of reference motion vector information 19.

次に、動きベクトル生成部111は、予測情報22に従って符号化対象ブロックを4×4画素の小画素ブロック23に分割する(ステップS402)。尚、小画素ブロック23の各々は、図17に示すような「0」から「15」までのインデクスが付与され、識別される。   Next, the motion vector generation unit 111 divides the encoding target block into 4 × 4 pixel small pixel blocks 23 according to the prediction information 22 (step S402). Each small pixel block 23 is identified by being assigned an index from “0” to “15” as shown in FIG.

次に、動きベクトル生成部111は、現在処理対象としている小画素ブロック23を特定するための変数BlkIdxに初期値として「0」代入し(ステップS403)、処理はステップS404に進む。   Next, the motion vector generation unit 111 assigns “0” as an initial value to the variable BlkIdx for specifying the small pixel block 23 currently being processed (step S403), and the process proceeds to step S404.

ステップS404では、変数BlkIdxに対応する小画素ブロック23に関する動きベクトル情報Vc(BlkIdx)として、適切な参照動きベクトル情報19を代入する。本例では、小画素ブロック23のブロックサイズ(4×4画素)と、参照動きベクトル情報19の動き補償ブロックサイズ(4×4画素)とが一致しているため、図18に示すように、動きベクトル情報Vc(BlkIdx)には同一位置の参照動きベクトル情報Vr(BlkIdx)を代入することが望ましい。   In step S404, appropriate reference motion vector information 19 is substituted as motion vector information Vc (BlkIdx) regarding the small pixel block 23 corresponding to the variable BlkIdx. In this example, since the block size (4 × 4 pixels) of the small pixel block 23 and the motion compensation block size (4 × 4 pixels) of the reference motion vector information 19 match, as shown in FIG. It is desirable to substitute the reference motion vector information Vr (BlkIdx) at the same position for the motion vector information Vc (BlkIdx).

次に、複数の動き補償部113のいずれか1つが、変数BlkIdxに対応する小画素ブロック23に関する動きベクトル情報Vc(BlkIdx)を用いて動き補償を行って、当該小画素ブロック23に対応する小予測画像24を生成する(ステップS405)。   Next, any one of the plurality of motion compensation units 113 performs motion compensation using the motion vector information Vc (BlkIdx) regarding the small pixel block 23 corresponding to the variable BlkIdx, and performs a small compensation corresponding to the small pixel block 23. A predicted image 24 is generated (step S405).

次に、動きベクトル生成部111は、変数BlkIdxに対応する小画素ブロック23に関する動きベクトル情報Vc(BlkIdx)を参照動きベクトルメモリ109に保存させる(ステップS406)。動きベクトル生成部111は、変数BlkIdxを1インクリメントし(ステップS407)、変数BlkIdxと定数BLK_MAXとの大小比較を行う(ステップS408)。ここで、定数BLK_MAXは変数BlkIdxの最大値であり、本例では「15」が設定される。   Next, the motion vector generation unit 111 stores the motion vector information Vc (BlkIdx) regarding the small pixel block 23 corresponding to the variable BlkIdx in the reference motion vector memory 109 (step S406). The motion vector generation unit 111 increments the variable BlkIdx by 1 (step S407), and compares the variable BlkIdx with the constant BLK_MAX (step S408). Here, the constant BLK_MAX is the maximum value of the variable BlkIdx, and “15” is set in this example.

変数BlkIdxが定数BLK_MAXを超えれば(ステップS408)、処理はステップS409に進み、変数BlkIdxが定数BLK_MAX以下であれば(ステップS408)、処理はステップS404に戻る。   If the variable BlkIdx exceeds the constant BLK_MAX (step S408), the process proceeds to step S409. If the variable BlkIdx is equal to or less than the constant BLK_MAX (step S408), the process returns to step S404.

ステップS409では、予測画像信号統合部115が、ステップS404乃至ステップS408の処理ループにより得られた全ての小予測画像24を統合し、符号化対象ブロックに対応する予測画像11を生成し(ステップS409)、当該符号化対象ブロックに対する動きベクトルブロック予測処理が終了する。   In step S409, the prediction image signal integration unit 115 integrates all the small prediction images 24 obtained by the processing loop of steps S404 to S408, and generates the prediction image 11 corresponding to the encoding target block (step S409). ), The motion vector block prediction process for the encoding target block ends.

以下、動きベクトルブロック予測処理の適用例を、図19を用いて概念的に説明する。
図19において、横軸が時間方向、縦軸が空間方向のうち垂直方向のみを夫々表す。より具体的には、時間tのフレームにおけるC0、C2、C8及びC10は、夫々符号化対象ブロックのインデクス0、2、8及び10に対応する小画素ブロック23を示している。符号化対象ブロックに対応する動きベクトルブロック情報21に基づき、小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)として、参照動きベクトル情報Vr(0)、Vr(2)、Vr(8)及びVr(10)が夫々代入される。小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)が生成されると、小予測画像P0、P2、P8及びP10が夫々生成される。このように、動きベクトルブロック予測処理が適用される場合、動きベクトルブロック情報21さえ符号化すれば、各小画素ブロック23に対する小予測画像24の生成において個別の動きベクトル情報18を利用することが可能となる。一方、通常のインター予測処理では、小予測画像24の生成において個別の動きベクトル情報18を利用するためには、当該個別の動きベクトル情報18を符号化する必要がある。この点において、動きベクトルブロック予測処理は、インター予測処理に比べて動きベクトル情報に関する符号量を削減できる。
Hereinafter, an application example of the motion vector block prediction process will be conceptually described with reference to FIG.
In FIG. 19, the horizontal axis represents the time direction, and the vertical axis represents only the vertical direction of the spatial direction. More specifically, C0, C2, C8, and C10 in the frame at time t indicate the small pixel blocks 23 corresponding to the indexes 0, 2, 8, and 10 of the encoding target block, respectively. Based on the motion vector block information 21 corresponding to the block to be encoded, motion vector information Vc (0), Vc (2), Vc (8) and Vc (10) corresponding to the small pixel blocks C0, C2, C8 and C10. Reference motion vector information Vr (0), Vr (2), Vr (8) and Vr (10) are respectively substituted. When motion vector information Vc (0), Vc (2), Vc (8) and Vc (10) corresponding to the small pixel blocks C0, C2, C8 and C10 is generated, the small predicted images P0, P2, P8 and P10 is generated respectively. As described above, when motion vector block prediction processing is applied, if only motion vector block information 21 is encoded, individual motion vector information 18 can be used in generating small predicted images 24 for each small pixel block 23. It becomes possible. On the other hand, in the normal inter prediction process, in order to use the individual motion vector information 18 in generating the small predicted image 24, it is necessary to encode the individual motion vector information 18. In this regard, the motion vector block prediction process can reduce the amount of code related to motion vector information compared to the inter prediction process.

以下、動きベクトルブロック予測処理の図19とは異なる例を、図20を用いて概念的に説明する。
図19の例では、参照フレームが固定されていたが、前述したように参照フレームは任意に選択されてもよい。図20に示す例では、いずれの参照フレームが参照されているかが参照フレーム番号によって識別されるものとし、当該参照フレーム番号には符号化対象ブロックの属するフレームから参照フレームまでの時間的シフト量に応じた値が設定されるものとする。例えば、符号化対象ブロックの属するフレームの1つ前の参照フレームには「0」、2つ前の参照フレームには「1」が夫々参照フレーム番号として設定されるものとする。
Hereinafter, an example different from FIG. 19 of the motion vector block prediction process will be conceptually described with reference to FIG.
In the example of FIG. 19, the reference frame is fixed. However, as described above, the reference frame may be arbitrarily selected. In the example shown in FIG. 20, it is assumed that which reference frame is referenced is identified by a reference frame number, and the reference frame number includes a temporal shift amount from the frame to which the encoding target block belongs to the reference frame. The corresponding value shall be set. For example, it is assumed that “0” is set as the reference frame number for the reference frame immediately before the frame to which the block to be encoded belongs, and “1” is set as the reference frame number for the reference frame two times before.

図20において、横軸が時間方向、縦軸が空間方向のうち垂直方向のみを夫々表す。より具体的には、時間tのフレームにおけるC0、C2、C8及びC10は、夫々符号化対象ブロックのインデクス0、2、8及び10に対応する小画素ブロック23を示している。符号化対象ブロックに対応する動きベクトルブロック情報21に基づき、小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)として、参照動きベクトル情報Vr(0)、Vr(2)、Vr(8)及びVr(10)が夫々代入される。ここで、参照動きベクトル情報Vr(0)、Vr(2)、Vr(8)及びVr(10)には、参照フレーム内における空間的シフト量である参照動きベクトルのみならず、時間的シフト量である参照フレーム番号も含まれているものとし、当該参照フレーム番号も動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)として代入されるものとする。小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)が生成されると、小予測画像P0、P2、P8及びP10が夫々生成される。このように、動きベクトルブロック予測処理において、参照動きベクトルのみならず、参照フレーム番号をも小画素ブロック23に対応する動きベクトル情報18として代入することにより、小予測画像24の生成において参照フレームの異なる個別の動きベクトル情報18を利用できる。   In FIG. 20, the horizontal axis represents the time direction, and the vertical axis represents only the vertical direction of the spatial direction. More specifically, C0, C2, C8, and C10 in the frame at time t indicate the small pixel blocks 23 corresponding to the indexes 0, 2, 8, and 10 of the encoding target block, respectively. Based on the motion vector block information 21 corresponding to the block to be encoded, motion vector information Vc (0), Vc (2), Vc (8) and Vc (10) corresponding to the small pixel blocks C0, C2, C8 and C10. Reference motion vector information Vr (0), Vr (2), Vr (8) and Vr (10) are respectively substituted. Here, the reference motion vector information Vr (0), Vr (2), Vr (8) and Vr (10) include not only the reference motion vector which is a spatial shift amount in the reference frame but also the temporal shift amount. The reference frame number is also included, and the reference frame number is also substituted as motion vector information Vc (0), Vc (2), Vc (8), and Vc (10). When motion vector information Vc (0), Vc (2), Vc (8) and Vc (10) corresponding to the small pixel blocks C0, C2, C8 and C10 is generated, the small predicted images P0, P2, P8 and P10 is generated respectively. Thus, in the motion vector block prediction process, not only the reference motion vector but also the reference frame number is substituted as the motion vector information 18 corresponding to the small pixel block 23, so that the reference frame of the reference frame is generated in the generation of the small predicted image 24. Different individual motion vector information 18 can be used.

以下、動きベクトルブロック予測処理におけるSKIPモードを説明する。
まず、動きベクトルブロック予測処理におけるSKIPモードが理解しやすいように、いわゆるH.264における空間SKIPモードを説明する。空間SKIPモードでは、符号化対象ブロックに関する動きベクトル情報18及び量子化変換係数13等の符号化が行われない。具体的には、図21に示すように、符号化対象ブロックに隣接する符号化済みマクロブロックA、B及びCの動きベクトル情報18のメディアン値によって参照される参照画像(符号化対象ブロックと同サイズ)がそのまま復号画像及び局所復号画像16として使用される。従って、空間SKIPモードによれば、符号化対象ブロックの動きベクトル情報18及び量子化変換係数13等を符号化する必要がない。
Hereinafter, the SKIP mode in the motion vector block prediction process will be described.
First, the spatial SKIP mode in H.264 will be described so that the SKIP mode in the motion vector block prediction process can be easily understood. In the spatial SKIP mode, the motion vector information 18 and the quantized transform coefficient 13 relating to the encoding target block are not encoded. Specifically, as shown in FIG. 21, a reference image (same as the encoding target block) referenced by the median value of the motion vector information 18 of the encoded macro blocks A, B, and C adjacent to the encoding target block. Size) is used as the decoded image and the local decoded image 16 as they are. Therefore, according to the spatial SKIP mode, it is not necessary to encode the motion vector information 18 of the encoding target block, the quantized transform coefficient 13, and the like.

一方、動きベクトルブロック予測処理におけるSKIPモードは次の通りである。尚、以降の説明において、上記SKIPモードを動きベクトルブロックSKIPモードと称する。   On the other hand, the SKIP mode in the motion vector block prediction process is as follows. In the following description, the SKIP mode is referred to as a motion vector block SKIP mode.

動きベクトルブロックSKIPモードでは、符号化対象ブロックに対応する動きベクトルブロック情報21を符号化しない。具体的には、既に符号化済であって、かつ、1つ前の参照動きベクトルフレーム114において空間的に同位置の動きベクトルブロック28が、符号化対象ブロックに対応する動きベクトルブロック28として用いられる。即ち、動きベクトルブロック情報21は、「0(同位置)」となる。また、動きベクトルブロックSKIPモードにおいても、符号化対象ブロックに対応する量子化変換係数13を符号化する必要はなく、動きベクトルブロック28に含まれる参照動きベクトル情報18によって参照される個々の参照画像(小画素ブロック23と同サイズ)が統合され、そのまま復号画像及び局所復号画像16として利用される。   In the motion vector block SKIP mode, the motion vector block information 21 corresponding to the encoding target block is not encoded. Specifically, the motion vector block 28 that has already been encoded and is spatially in the same position in the previous reference motion vector frame 114 is used as the motion vector block 28 corresponding to the encoding target block. It is done. That is, the motion vector block information 21 is “0 (same position)”. Also in the motion vector block SKIP mode, it is not necessary to encode the quantized transform coefficient 13 corresponding to the encoding target block, and each reference image referred to by the reference motion vector information 18 included in the motion vector block 28 (The same size as the small pixel block 23) are integrated and used as the decoded image and the local decoded image 16 as they are.

動きベクトルブロックSKIPモードの他のバリエーションとして、既に符号化済みの隣接ブロックにおける動きベクトル情報18または動きベクトルブロック情報21を利用して、符号化対象ブロックに対応する動きベクトルブロック情報21を導出してもよい。具体的には、複数の隣接ブロックに対応する動きベクトルブロック情報21のメディアン値、平均値、最大値または最小値などが、符号化対象ブロックに対応する動きベクトルブロック情報21として導出されてもよい。   As another variation of the motion vector block SKIP mode, the motion vector block information 21 corresponding to the encoding target block is derived using the motion vector information 18 or the motion vector block information 21 in the already encoded adjacent block. Also good. Specifically, median values, average values, maximum values, minimum values, and the like of the motion vector block information 21 corresponding to a plurality of adjacent blocks may be derived as the motion vector block information 21 corresponding to the encoding target block. .

以下、動きベクトルブロック予測処理の双方向予測処理への適用例を説明する。H.264におけるBスライスでは、符号化対象ブロックに対して2つの動きベクトル情報18を導出し、当該2つの動きベクトル情報18に基づく予測画像の画素単位の加重平均によって最終的な予測画像11を生成する双方向予測処理が行われる。動きベクトルブロック予測処理を双方向予測処理に適用すると、1つの符号化対象ブロックに対し2つの動きベクトルブロック28が生成され、当該符号化対象ブロックを構成する小画素ブロック23の各々に対し2つの動きベクトル情報18が与えられる。動き補償部113は、2つの動きベクトル情報18に基づき、各小画素ブロック23に対し既存の双方向予測処理と同様の予測処理を行って、小予測画像24を生成する。   Hereinafter, an application example of the motion vector block prediction process to the bidirectional prediction process will be described. In the B slice in H.264, two pieces of motion vector information 18 are derived for the encoding target block, and the final predicted image 11 is obtained by weighted averaging in units of pixels of the predicted image based on the two motion vector information 18. The bi-directional prediction process to generate is performed. When the motion vector block prediction process is applied to the bidirectional prediction process, two motion vector blocks 28 are generated for one encoding target block, and two motion vector blocks are formed for each small pixel block 23 constituting the encoding target block. Motion vector information 18 is provided. Based on the two motion vector information 18, the motion compensation unit 113 performs a prediction process similar to the existing bidirectional prediction process on each small pixel block 23 to generate a small predicted image 24.

例えば、図24Aに示すように、過去方向の2フレームから2つの動きベクトルブロックを生成する場合であれば、時間的距離の近い動きベクトルブロック情報及び動きベクトルブロックをリスト0動きベクトルブロック情報及びリスト0動きベクトルブロックとし、時間的距離の遠い動きベクトルブロック情報及び動きベクトルブロックをリスト1動きベクトルブロック情報及びリスト1動きベクトルブロックとして夫々識別することができる。尚、リスト0及びリスト1を逆にしてもよい。   For example, as shown in FIG. 24A, when two motion vector blocks are generated from two frames in the past direction, motion vector block information and motion vector blocks having a short temporal distance are represented as list 0 motion vector block information and list. The motion vector block information and the motion vector block having a long time distance can be identified as the list 1 motion vector block information and the list 1 motion vector block, respectively. List 0 and list 1 may be reversed.

また、図24Bに示すように、過去方向の1フレーム及び未来方向の1フレームから1つずつ動きベクトルブロックを生成する場合であれば、過去方向のフレームに関する動きベクトルブロック情報及び動きベクトルブロックをリスト0動きベクトルブロック情報及びリスト0動きベクトルブロックとし、未来方向のフレームに関する動きベクトルブロック情報及び動きベクトルブロックをリスト1動きベクトルブロック情報及びリスト1動きベクトルブロックとして夫々識別することができる。尚、リスト0及びリスト1を逆にしてもよい。   In addition, as shown in FIG. 24B, if one motion vector block is generated from one frame in the past direction and one frame in the future direction, a list of motion vector block information and motion vector blocks related to the frame in the past direction is listed. The motion vector block information and the motion vector block regarding the frame in the future direction can be identified as the list 1 motion vector block information and the list 1 motion vector block, respectively. List 0 and list 1 may be reversed.

その他、次の場合にも動きベクトルブロック予測処理を同様に適用可能である。
(A)2つの動きベクトルブロックが同一フレームに存在する場合
(B)1つの符号化対象ブロックに対して3つ以上の動きベクトルブロックが生成される場合
以下、図1の画像符号化装置が使用するシンタクス構造を説明する。
図25に示すように、図1の画像符号化装置が使用するシンタクス構造は、ハイレベルシンタクス901、スライスレベルシンタクス904及びマクロブロックレベルシンタクス907の3つのパートで構成される。ハイレベルシンタクス901には、スライスよりも上位のレイヤ(シーケンスまたはピクチャ等)に関するシンタクス情報が記述され、シーケンスパラメータセットシンタクス902及びピクチャパラメータセットシンタクス903が含まれる。スライスレベルシンタクス904には、スライスに関するシンタクス情報が記述され、スライスヘッダシンタクス905及びスライスデータシンタクス906が含まれる。マクロブロックレベルシンタクス907には、マクロブロックに関するシンタクス情報が記述され、マクロブロックレイヤーシンタクス908及びマクロブロックプレディクションシンタクス909が含まれる。
In addition, the motion vector block prediction process can be similarly applied to the following cases.
(A) When two motion vector blocks exist in the same frame (B) When three or more motion vector blocks are generated for one encoding target block Hereinafter, the image encoding device of FIG. 1 uses A syntax structure to be described will be described.
As shown in FIG. 25, the syntax structure used by the image encoding apparatus of FIG. 1 is composed of three parts: a high level syntax 901, a slice level syntax 904, and a macroblock level syntax 907. The high level syntax 901 describes syntax information regarding a layer (sequence or picture) higher than the slice, and includes a sequence parameter set syntax 902 and a picture parameter set syntax 903. The slice level syntax 904 describes syntax information regarding a slice, and includes a slice header syntax 905 and a slice data syntax 906. The macro block level syntax 907 describes syntax information regarding a macro block, and includes a macro block layer syntax 908 and a macro block prediction syntax 909.

図26に示すように、マクロブロックレイヤーシンタクス908には、マクロブロックタイプ情報mb_typeが記述される。マクロブロックタイプ情報mb_typeには、当該マクロブロックに対して行われた予測処理(イントラ予測またはインター予測等)や、ブロック形状等の情報が含まれる。   As shown in FIG. 26, the macroblock layer syntax 908 describes macroblock type information mb_type. The macro block type information mb_type includes information such as a prediction process (intra prediction or inter prediction) performed on the macro block and a block shape.

図27に示すように、マクロブロックプレディクションシンタクス909には、マクロブロック内の小画素ブロック単位(8×8画素ブロックや16×16画素ブロック等)の予測モード及び当該マクロブロックに対応する動きベクトルブロック情報21が記述される。図27において、前述したリスト0動きベクトルブロック情報(参照動きベクトルフレーム114内における空間的シフト量)がmvblk_l0、リスト1動きベクトルブロック情報がmvblk_l1で表現される。尚、1つの符号化対象ブロックに対し、1つの動きベクトルブロック28のみが用いられる場合にはリスト1動きベクトルブロック情報mvblk_1は記述されず、3つ以上の動きベクトルブロック28が用いられる場合にはリスト2動きベクトルブロック情報mvblk_2等が記述される。   As shown in FIG. 27, the macroblock prediction syntax 909 includes a prediction mode in units of small pixel blocks (such as an 8 × 8 pixel block or a 16 × 16 pixel block) in a macroblock and a motion vector corresponding to the macroblock. Block information 21 is described. In FIG. 27, the list 0 motion vector block information (spatial shift amount in the reference motion vector frame 114) described above is expressed as mvblk_l0, and the list 1 motion vector block information is expressed as mvblk_l1. When only one motion vector block 28 is used for one encoding target block, the list 1 motion vector block information mvblk_1 is not described, and when three or more motion vector blocks 28 are used. List 2 motion vector block information mvblk_2 and the like are described.

また、マクロブロックプレディクションシンタクス909には、リスト0動きベクトルブロックが属する参照動きベクトルフレームを表す参照フレーム番号ref_mvblk_idx_l0及びリスト1動きベクトルブロックが属する参照動きベクトルフレームを表す参照フレーム番号ref_mvblk_idx_l1が記述される。   In the macroblock prediction syntax 909, a reference frame number ref_mvblk_idx_l0 representing a reference motion vector frame to which the list 0 motion vector block belongs and a reference frame number ref_mvblk_idx_l1 representing a reference motion vector frame to which the list 1 motion vector block belongs are described. .

尚、リスト0動きベクトルブロック及びリスト1動きベクトルブロックが属する参照動きベクトルフレームが、既に符号化済みの1つ前の参照動きベクトルフレーム等に固定されている場合には、参照フレーム番号ref_mvblk_idx_l0及びref_mvblk_idx_l1を符号化する必要はない。参照フレーム番号ref_mvblk_idx_l0及びref_mvblk_idx_l1を符号化しない場合には、例えば「0」等の固定値が参照フレーム番号ref_mvblk_idx_l0及びref_mvblk_idx_l1として自動的に代入される。   If the reference motion vector frame to which the list 0 motion vector block and the list 1 motion vector block belong is fixed to the previously encoded reference motion vector frame or the like, the reference frame numbers ref_mvblk_idx_l0 and ref_mvblk_idx_l1 Need not be encoded. When the reference frame numbers ref_mvblk_idx_l0 and ref_mvblk_idx_l1 are not encoded, for example, fixed values such as “0” are automatically substituted as the reference frame numbers ref_mvblk_idx_l0 and ref_mvblk_idx_l1.

図27に示すマクロブロックプレディクションシンタクス909は、サブマクロブロック(8×8画素ブロック以下)に関しても同様に記述することが可能であり、一例を図28に示す。   The macroblock prediction syntax 909 shown in FIG. 27 can be similarly described for sub-macroblocks (8 × 8 pixel blocks or less), and an example is shown in FIG.

尚、図26乃至28は、本実施形態に係る画像符号化装置が使用するシンタクス構造を例示しているに過ぎず、適宜変形を加えてもよい。具体的には、図26乃至28において、その他のシンタクスエレメントが挿入されたり、その他の条件分岐に関する記述が含まれたりしてもよい。また、図26乃至28において、シンタクステーブルを複数のテーブルに分割または統合したりしてもよい。また、図26乃至28において、記述されている用語を変更してもよい。更に、図26に示すマクロブロックレイヤーシンタクス908に記述されるシンタクスエレメントは、後述するマクロブロックデータシンタクスに記述されてもよい。   26 to 28 merely illustrate the syntax structure used by the image coding apparatus according to the present embodiment, and modifications may be made as appropriate. Specifically, in FIGS. 26 to 28, other syntax elements may be inserted, or other conditional branch descriptions may be included. 26 to 28, the syntax table may be divided or integrated into a plurality of tables. In addition, the terms described in FIGS. 26 to 28 may be changed. Furthermore, the syntax element described in the macroblock layer syntax 908 shown in FIG. 26 may be described in a macroblock data syntax described later.

以上説明したように、本実施形態に係る画像符号化装置は、符号化対象ブロックを更に細分化した小画素ブロックの各々に対応する動きベクトル情報を纏めた動きベクトルブロックを用いて予測処理を行い、上記動きベクトル情報の個々の符号化は行わず動きベクトルブロック情報を符号化している。従って、本実施形態に係る画像符号化装置によれば、動きベクトル情報に関する符号量を削減しつつ、符号化対象ブロックよりも更に細かな小画素ブロック単位での動き補償予測を行えるため、高い符号化効率を実現できる。   As described above, the image coding apparatus according to the present embodiment performs prediction processing using motion vector blocks in which motion vector information corresponding to each of small pixel blocks obtained by further subdividing the block to be coded is collected. The motion vector block information is encoded without individual encoding of the motion vector information. Therefore, the image coding apparatus according to the present embodiment can perform motion compensation prediction in units of small pixel blocks that are finer than the current block while reducing the amount of code related to motion vector information. Efficiency can be realized.

(第2の実施形態)
図22に示すように、本発明の第2の実施形態に係る画像符号化装置は、上記図1に示す画像符号化装置において、インター予測部101を予測部116に置き換えている。以下の説明では、図22において図1と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
(Second Embodiment)
As shown in FIG. 22, the image coding apparatus according to the second embodiment of the present invention replaces the inter prediction unit 101 with a prediction unit 116 in the image coding apparatus shown in FIG. In the following description, the same parts in FIG. 22 as those in FIG. 1 are denoted by the same reference numerals, and different parts will be mainly described.

予測部116は、図23に示すように、インター予測部101、イントラ予測部117、モード判定部118及びモード選択スイッチ119を有する。
インター予測部101は、第1の実施形態において説明した動きベクトルブロック予測を行って、予測画像11をモード選択スイッチ119に入力する。
As illustrated in FIG. 23, the prediction unit 116 includes an inter prediction unit 101, an intra prediction unit 117, a mode determination unit 118, and a mode selection switch 119.
The inter prediction unit 101 performs the motion vector block prediction described in the first embodiment, and inputs the predicted image 11 to the mode selection switch 119.

イントラ予測部117は、いわゆるH.264におけるイントラ予測処理を行う。H.264において図6Aに示す16×16画素ブロック単位のイントラ予測処理、図6Bに示す8×8画素ブロック単位のイントラ予測処理及び図6Cに示す4×4画素ブロック単位のイントラ予測処理が夫々規定されている。いずれのイントラ予測処理においても、符号化対象ブロックと同一フレーム内の既に符号化済みのブロックの画素値をコピーすることによって予測画像11が生成される。イントラ予測部117は、予測画像11をモード選択スイッチ119に入力する。   The intra prediction unit 117 performs intra prediction processing in so-called H.264. In H.264, the 16 × 16 pixel block unit intra prediction process shown in FIG. 6A, the 8 × 8 pixel block unit intra prediction process shown in FIG. 6B, and the 4 × 4 pixel block unit intra prediction process shown in FIG. It is prescribed. In any intra prediction process, the predicted image 11 is generated by copying the pixel value of an already encoded block in the same frame as the encoding target block. The intra prediction unit 117 inputs the predicted image 11 to the mode selection switch 119.

モード判定部118は、符号化対象ブロック(またはスライス)に関する予測情報22に基づき、モード選択スイッチ119が選択すべき予測モードを判定し、判定結果を予測モード判定情報26としてモード選択スイッチ119に入力する。   The mode determination unit 118 determines a prediction mode to be selected by the mode selection switch 119 based on the prediction information 22 regarding the encoding target block (or slice), and inputs the determination result to the mode selection switch 119 as prediction mode determination information 26. To do.

モード判定部118は、符号化対象スライスがいわゆるIスライスであれば、モード選択スイッチ119をイントラ予測部117に接続させる。一方、モード判定部118は、符号化対象スライスがいわゆるPスライスまたはBスライスであれば、コストに基づく予測モード判定を行う。   If the encoding target slice is a so-called I slice, the mode determination unit 118 connects the mode selection switch 119 to the intra prediction unit 117. On the other hand, if the encoding target slice is a so-called P slice or B slice, the mode determination unit 118 performs prediction mode determination based on the cost.

モード判定部118は、例えば次の数式(5)に従ってコストを算出する。

Figure 2012157061
The mode determination unit 118 calculates the cost according to the following formula (5), for example.
Figure 2012157061

数式(5)において、Kは符号化コスト、SADは符号化対象ブロックと予測画像11との間の差分絶対値和(即ち、予測誤差12の絶対値和)、OHは予測情報22に関する符号量(例えば、動きベクトルブロック情報21の符号量及びブロック形状の符号量等)を夫々表す。また、λは量子化幅等によって定められるラグランジュ未定定数である。モード判定部118は、コストKの最も小さな予測モードを最適な予測モードとして選択し、予測モード判定情報26をモード選択スイッチ119に入力する。   In Equation (5), K is the coding cost, SAD is the sum of absolute differences between the encoding target block and the predicted image 11 (that is, the sum of absolute values of the prediction error 12), and OH is the amount of code related to the prediction information 22. (For example, the code amount of the motion vector block information 21 and the code amount of the block shape, etc.) respectively. Further, λ is a Lagrange undetermined constant determined by the quantization width or the like. The mode determination unit 118 selects the prediction mode with the lowest cost K as the optimal prediction mode, and inputs the prediction mode determination information 26 to the mode selection switch 119.

また、モード判定部118が利用可能なコストは、数式(5)におけるコストKに限られず、予測画像11のみに基づき算出された値や、SADのみに基づき算出された値や、予測画像11及びSADにアダマール変換を施した値及びこれに近似した値等であってもよい。また、モード判定部118は、符号化対象ブロックの画素値のアクティビティ(分散)に基づき算出された値や、量子化幅または量子化パラメータに基づき算出された値をコストとして利用してもよい。   In addition, the cost that can be used by the mode determination unit 118 is not limited to the cost K in Equation (5), but a value calculated based only on the predicted image 11, a value calculated based only on the SAD, A value obtained by subjecting SAD to Hadamard transformation, a value approximated thereto, and the like may be used. The mode determination unit 118 may use a value calculated based on the activity (dispersion) of the pixel value of the encoding target block, or a value calculated based on the quantization width or the quantization parameter as the cost.

更に、モード判定部118は、インター予測部101からの予測画像11に対応する予測誤差12及びイントラ予測部117からの予測画像11に対応する予測誤差12を夫々仮符号化ユニットによって仮符号化した場合の発生符号量と、符号化対象ブロックと局所復号画像16との間の二乗誤差和とを用いて符号化コストを算出し、予測モード判定に利用してもよい。具体的な符号化コストの算出式は次の数式(6)である。

Figure 2012157061
Further, the mode determination unit 118 temporarily encodes the prediction error 12 corresponding to the prediction image 11 from the inter prediction unit 101 and the prediction error 12 corresponding to the prediction image 11 from the intra prediction unit 117 by the temporary encoding unit. The encoding cost may be calculated using the generated code amount in this case and the sum of square errors between the encoding target block and the locally decoded image 16 and used for prediction mode determination. A specific formula for calculating the encoding cost is the following formula (6).
Figure 2012157061

数式(6)において、Jは符号化コスト、Dは符号化対象ブロックと局所復号画像16との間の二乗誤差和を表す符号化歪み、Rは仮符号化による発生符号量を夫々表す。λは数式(5)と同様である。モード判定部118は、符号化コストJの最も小さな予測モードを最適な予測モードとして選択し、予測モード判定情報26をモード選択スイッチ119に入力する。   In Equation (6), J represents the coding cost, D represents the coding distortion representing the sum of square errors between the block to be coded and the locally decoded image 16, and R represents the amount of code generated by provisional coding. λ is the same as Equation (5). The mode determination unit 118 selects the prediction mode with the lowest coding cost J as the optimal prediction mode, and inputs the prediction mode determination information 26 to the mode selection switch 119.

数式(6)における符号化コストJを利用する場合、予測モード毎に仮符号化処理及び局所復号化処理が必要であるので、前述したその他のコストを利用する場合に比べて画像符号化装置の回路規模及び演算量は増大する。しかしながら、符号化コストJは、前述したその他のコストに比べて予測モード判定の信頼度が高く、符号化効率の向上を期待できる。また、モード判定部118は、数式(6)における符号化コストJをそのまま利用せずに、R及びDのいずれか一方のみに基づき算出されたコストを利用してもよいし、RまたはDの近似値に基づき算出されたコストを利用してもよい。   When the encoding cost J in Equation (6) is used, provisional encoding processing and local decoding processing are required for each prediction mode. Therefore, the image encoding apparatus can be compared with the case where other costs described above are used. The circuit scale and the amount of calculation increase. However, the encoding cost J has higher reliability of prediction mode determination than the other costs described above, and an improvement in encoding efficiency can be expected. Further, the mode determination unit 118 may use the cost calculated based on only one of R and D without using the coding cost J in Equation (6) as it is, A cost calculated based on the approximate value may be used.

モード選択スイッチ119は、予測モード判定情報26に従ってインター予測部101及びイントラ予測部117のいずれか一方から予測画像11を取得する。モード選択スイッチ119によって取得された予測画像11は、減算部102及び加算部106に入力される。   The mode selection switch 119 acquires the predicted image 11 from either the inter prediction unit 101 or the intra prediction unit 117 according to the prediction mode determination information 26. The predicted image 11 acquired by the mode selection switch 119 is input to the subtraction unit 102 and the addition unit 106.

以上説明したように、本実施形態に係る画像符号化装置は、前述した第1の実施形態に係る動きベクトルブロック予測処理と、いわゆるイントラ予測処理とをマクロブロック毎、小画素ブロック毎またはフレーム毎に選択的に利用している。従って、本実施形態に係る画像符号化装置によれば、より符号化効率の高い予測処理が選択されるため、符号化効率の向上が期待できる。   As described above, the image coding apparatus according to the present embodiment performs the motion vector block prediction process and the so-called intra prediction process according to the first embodiment described above for each macroblock, each small pixel block, or each frame. Selective use. Therefore, according to the image coding apparatus according to the present embodiment, since a prediction process with higher coding efficiency is selected, an improvement in coding efficiency can be expected.

(第3の実施形態)
図29に示すように、本発明の第3の実施形態に係る画像符号化装置は、上記図22に示す画像符号化装置において、予測部116を予測部125に置き換え、動きベクトル推定部120を更に設けている。以下の説明では、図29において図22と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
(Third embodiment)
As shown in FIG. 29, the image coding apparatus according to the third embodiment of the present invention replaces the prediction unit 116 with a prediction unit 125 and replaces the motion vector estimation unit 120 with the image coding apparatus shown in FIG. Furthermore, it is provided. In the following description, the same parts in FIG. 29 as those in FIG. 22 are denoted by the same reference numerals, and different parts will be mainly described.

予測部125は、図30に示すように、第1インター予測部101、イントラ予測部117、第2インター予測部121、モード判定部122及びモード選択スイッチ123を有する。   As illustrated in FIG. 30, the prediction unit 125 includes a first inter prediction unit 101, an intra prediction unit 117, a second inter prediction unit 121, a mode determination unit 122, and a mode selection switch 123.

第1インター予測部101及びイントラ予測部117は、前述した動きベクトルブロック予測処理及びイントラ予測処理を夫々行って予測画像11を生成し、モード選択スイッチ123に入力する。尚、後述する第2インター予測部121と区別するために、図22におけるインター予測部101の名称を図29において第1インター予測部101へと便宜的に改めている。   The first inter prediction unit 101 and the intra prediction unit 117 generate the prediction image 11 by performing the above-described motion vector block prediction processing and intra prediction processing, respectively, and input the prediction image 11 to the mode selection switch 123. In addition, in order to distinguish from the 2nd inter prediction part 121 mentioned later, the name of the inter prediction part 101 in FIG. 22 is changed into the 1st inter prediction part 101 in FIG. 29 for convenience.

第2インター予測部121は、いわゆるH.264におけるインター予測処理を行う。第2インター予測部121は、後述する動きベクトル推定部120からの動きベクトル情報25と、参照画像メモリ107からの参照画像17とに基づき予測画像11を生成する。第2インター予測部121は、図31に示すように1つの動き補償部126を有する。   The second inter prediction unit 121 performs so-called inter prediction processing in H.264. The second inter prediction unit 121 generates the predicted image 11 based on motion vector information 25 from the motion vector estimation unit 120 described later and the reference image 17 from the reference image memory 107. The second inter prediction unit 121 includes one motion compensation unit 126 as illustrated in FIG.

動き補償部126は、動きベクトル情報25を用いて参照画像17の動き補償を行う。即ち、動き補償部126は、参照画像17において動きベクトル情報25が指し示す画素ブロックを予測画像11として出力する。   The motion compensation unit 126 performs motion compensation of the reference image 17 using the motion vector information 25. That is, the motion compensation unit 126 outputs the pixel block indicated by the motion vector information 25 in the reference image 17 as the predicted image 11.

モード判定部122及びモード選択スイッチ123の基本的機能は、図23におけるモード判定部118及びモード選択スイッチ119と同様であるが、第2インター予測部121からの予測画像11を選択可能な点が異なる。尚、モード選択スイッチ119によって第2インター予測部121からの予測画像11が選択された場合、エントロピー符号化部104は動きベクトルブロック情報21ではなく動きベクトル情報25に対してエントロピー符号化処理を行う。   The basic functions of the mode determination unit 122 and the mode selection switch 123 are the same as those of the mode determination unit 118 and the mode selection switch 119 in FIG. 23, except that the prediction image 11 from the second inter prediction unit 121 can be selected. Different. When the prediction image 11 from the second inter prediction unit 121 is selected by the mode selection switch 119, the entropy encoding unit 104 performs entropy encoding processing on the motion vector information 25 instead of the motion vector block information 21. .

以下、通常のインター予測処理と、動きベクトルブロック予測処理とを選択的に利用することの技術的意義を説明する。
通常のインター予測処理は、後述するように符号化対象ブロックに対するマッチングによって推定した動きベクトル情報25を利用するため、予測精度が高い。しかしながら、符号化対象ブロックを分割するほど(即ち、動き補償対象ブロックを多く設けるほど)、符号化の必要な動きベクトル情報25も追随して増加するため符号量が増大する。
Hereinafter, the technical significance of selectively using normal inter prediction processing and motion vector block prediction processing will be described.
Since the normal inter prediction process uses the motion vector information 25 estimated by matching with the encoding target block as described later, the prediction accuracy is high. However, as the encoding target block is divided (that is, the more motion compensation target blocks are provided), the amount of code increases because the motion vector information 25 that needs to be encoded increases accordingly.

一方、動きベクトルブロック予測処理は、個々の動きベクトル情報18を符号化する必要は無いが、参照動きベクトル情報19の集合を動きベクトルブロック28として利用するため、第2インター予測処理に比べて動きベクトル情報18の選択の自由度が低い。   On the other hand, the motion vector block prediction process does not need to encode the individual motion vector information 18, but uses a set of reference motion vector information 19 as the motion vector block 28. The degree of freedom in selecting the vector information 18 is low.

換言すれば、第2インター予測処理は予測誤差を抑える観点において、動きベクトル予測処理は符号量を抑える観点において夫々他方に比べて優れる。従って、両者を選択的に利用することにより、符号化効率を更に高めることが可能となる。   In other words, the second inter prediction process is superior to the other in terms of suppressing the prediction error, and the motion vector prediction process is superior in terms of suppressing the code amount. Therefore, it is possible to further increase the encoding efficiency by selectively using both.

動きベクトル推定部120は、符号化対象ブロックと、参照画像17とに基づき動きベクトル情報25を推定する。具体的には、動きベクトル推定部120は、符号化対象ブロックと参照画像17の補間画像との間でブロックマッチングを行う。動きベクトル推定部120は、上記ブロックマッチングにおいて例えば両者の間の誤差を画素毎に累積した値を算出し、当該累積値の最も小さくなる動きベクトル情報を動きベクトル情報25として推定する。また、動きベクトル推定部120は、上記累積値に何らかの変換を行って得られる値を評価値としてもよい。更に、動きベクトル推定部120は、動きベクトル情報25の大きさや符号量、数式(5)または(6)を推定に利用してもよい。また、動きベクトル推定部120は、符号化装置の外部から指定される探索範囲情報に基づいて探索範囲内を全探索してもよいし、画素精度に応じて階層的に探索してもよい。また、動きベクトル推定部120は、探索処理を行わず、符号化制御部130から入力される動きベクトル情報25を出力してもよい。   The motion vector estimation unit 120 estimates the motion vector information 25 based on the encoding target block and the reference image 17. Specifically, the motion vector estimation unit 120 performs block matching between the encoding target block and the interpolated image of the reference image 17. In the block matching, for example, the motion vector estimation unit 120 calculates a value obtained by accumulating errors between the pixels for each pixel, and estimates motion vector information having the smallest accumulated value as the motion vector information 25. Further, the motion vector estimation unit 120 may use a value obtained by performing some conversion on the accumulated value as an evaluation value. Furthermore, the motion vector estimation unit 120 may use the size and the code amount of the motion vector information 25 and Equation (5) or (6) for estimation. In addition, the motion vector estimation unit 120 may perform a full search within the search range based on search range information specified from the outside of the encoding device, or may perform a hierarchical search according to pixel accuracy. The motion vector estimation unit 120 may output the motion vector information 25 input from the encoding control unit 130 without performing the search process.

前述した第1の実施形態に係る画像符号化装置は、図27に示すマクロブロックプレディクションシンタクス909を使用していたが、本実施形態に係る画像符号化装置は、図36に示すマクロブロックプレディクションシンタクス909を使用する。   The image coding apparatus according to the first embodiment described above uses the macroblock prediction syntax 909 shown in FIG. 27, but the image coding apparatus according to the present embodiment uses the macroblock prediction syntax shown in FIG. ACTION syntax 909 is used.

図36において、mv_block_in_mb_flagは、マクロブロックに対して動きベクトルブロック予測処理が適用されるか否かを示すフラグである。mv_block_in_mb_flagが「1(TRUE)」であればマクロブロックに対して動きベクトルブロック予測処理が適用され、「0(FALSE)」であればマクロブロックに対して動きベクトルブロック予測処理が適用されない。mv_block_in_mb_flagが「1(TRUE)」の場合には、図27に示すマクロブロックプレディクションシンタクス909と同様に、リスト0動きベクトルブロック情報mvblk_l0、リスト1動きベクトルブロック情報がmvblk_l1、リスト0動きベクトルブロックの参照フレーム番号ref_mvblk_idx_l0及びリスト1動きベクトルブロックの参照フレーム番号ref_mvblk_idx_l1等が記述される。図36に示すマクロブロックプレディクションシンタクス909は、サブマクロブロック(8×8画素ブロック以下)に関しても同様に記述することが可能であり、一例を図37に示す。   In FIG. 36, mv_block_in_mb_flag is a flag indicating whether or not motion vector block prediction processing is applied to a macroblock. If mv_block_in_mb_flag is “1 (TRUE)”, the motion vector block prediction process is applied to the macroblock, and if “0 (FALSE)”, the motion vector block prediction process is not applied to the macroblock. When mv_block_in_mb_flag is “1 (TRUE)”, the list 0 motion vector block information mvblk_l0, the list 1 motion vector block information is mvblk_l1, and the list 0 motion vector block is similar to the macroblock prediction syntax 909 shown in FIG. The reference frame number ref_mvblk_idx_l0, the reference frame number ref_mvblk_idx_l1 of the list 1 motion vector block, and the like are described. The macroblock prediction syntax 909 shown in FIG. 36 can be similarly described for sub-macroblocks (8 × 8 pixel blocks or less), and an example is shown in FIG.

本実施形態に係る画像符号化装置は、図32に示すシーケンスパラメータセットシンタクス902を使用する。図32において、mv_block_in_seq_flagは、シーケンス内で動きベクトルブロック予測処理が適用可能であるか否かを示すフラグである。mv_block_in_seq_flagが「1(TRUE)」であればシーケンス内で動きベクトルブロック予測処理の適用が可能であり、「0(FALSE)」であればシーケンス内で動きベクトルブロック予測処理の適用が不可能である。   The image encoding apparatus according to the present embodiment uses a sequence parameter set syntax 902 shown in FIG. In FIG. 32, mv_block_in_seq_flag is a flag indicating whether or not motion vector block prediction processing is applicable in the sequence. If mv_block_in_seq_flag is “1 (TRUE)”, motion vector block prediction processing can be applied within the sequence, and if “0 (FALSE)”, motion vector block prediction processing cannot be applied within the sequence. .

本実施形態に係る画像符号化装置は、図33に示すピクチャパラメータセットシンタクス903を使用する。図33において、mv_block_in_pic_flagは、ピクチャ内で動きベクトルブロック予測処理が適用可能であるか否かを示すフラグであり、前述したmv_block_in_seq_flagが「1(TRUE)」の場合に記述される。mv_block_in_pic_flagが「1(TRUE)」であればピクチャ内で動きベクトルブロック予測処理の適用が可能であり、「0(FALSE)」であればピクチャ内で動きベクトルブロック予測処理の適用が不可能である。   The image encoding apparatus according to the present embodiment uses a picture parameter set syntax 903 shown in FIG. In FIG. 33, mv_block_in_pic_flag is a flag indicating whether or not motion vector block prediction processing is applicable in a picture, and is described when mv_block_in_seq_flag described above is “1 (TRUE)”. If mv_block_in_pic_flag is “1 (TRUE)”, the motion vector block prediction process can be applied in the picture, and if “0 (FALSE)”, the motion vector block prediction process cannot be applied in the picture. .

本実施形態に係る画像符号化装置は、図34に示すスライダヘッダシンタクス905を使用する。図34において、mv_block_in_slice_flagは、スライス内で動きベクトルブロック予測処理が適用可能であるか否かを示すフラグであり、前述したmv_block_in_pic_flagが「1(TRUE)」の場合に記述される。mv_block_in_slice_flagが「1(TRUE)」であればスライス内で動きベクトルブロック予測処理の適用が可能であり、「0(FALSE)」であればスライス内で動きベクトルブロック予測処理の適用が不可能である。   The image encoding apparatus according to the present embodiment uses a slider header syntax 905 shown in FIG. In FIG. 34, mv_block_in_slice_flag is a flag indicating whether or not motion vector block prediction processing is applicable in the slice, and is described when the above-described mv_block_in_pic_flag is “1 (TRUE)”. If mv_block_in_slice_flag is “1 (TRUE)”, the motion vector block prediction process can be applied within the slice, and if “0 (FALSE)”, the motion vector block prediction process cannot be applied within the slice. .

本実施形態に係る画像符号化装置は、図35に示すマクロブロックレイヤーシンタクス908を使用する。図35において、mv_block_in_mb_flagは、前述したmv_block_in_slice_flagが「1(TRUE)」の場合に記述される。   The image encoding apparatus according to the present embodiment uses a macroblock layer syntax 908 shown in FIG. In FIG. 35, mv_block_in_mb_flag is described when mv_block_in_slice_flag described above is “1 (TRUE)”.

尚、前述したフラグ(シンタクスエレメント)mv_block_in_seq_flag、mv_block_in_pic_flag、mv_block_in_slice_flag及びmv_block_in_mb_flagの初期値は「0(FALSE)」とする。   Note that the initial values of the aforementioned flags (syntax elements) mv_block_in_seq_flag, mv_block_in_pic_flag, mv_block_in_slice_flag, and mv_block_in_mb_flag are “0 (FALSE)”.

また、上記シンタクスが示す情報はそれぞれ符号化して復号側に伝送しても良いし、上記シンタクスが示す情報は符号化して復号側に伝送せずに符号化済みの隣接ブロックにおける画素の相関関係や分散などのアクティビティ情報に応じて切り替えても良い。   The information indicated by the syntax may be encoded and transmitted to the decoding side, or the information indicated by the syntax may be encoded and transmitted to the decoding side without being transmitted to the decoding side. Switching may be performed according to activity information such as distribution.

また、本実施形態に係る画像符号化装置も、前述した動きベクトルブロックSKIPモードを使用可能である。動きベクトルブロックSKIPモードを適用する場合において、特定の条件下で前述したmv_block_in_mb_flag等のシンタクスエレメントの符号化が省略されてもよい。上記特定の条件下とは、動きベクトルブロックSKIPモードを適用して得られる動きベクトルブロックを構成する全ての動きベクトル情報と、いわゆる空間SKIPモードを適用して得られる動きベクトル情報とが一致する場合である。   Also, the image coding apparatus according to the present embodiment can use the above-described motion vector block SKIP mode. When the motion vector block SKIP mode is applied, encoding of syntax elements such as mv_block_in_mb_flag described above may be omitted under specific conditions. The specific condition is that all motion vector information constituting a motion vector block obtained by applying the motion vector block SKIP mode matches motion vector information obtained by applying the so-called spatial SKIP mode. It is.

以下、図38のフローチャートを用いて、mv_block_in_mb_flagの符号化省略処理を説明する。
まず、動きベクトル生成部111は、動きベクトルブロックSKIPモードを適用した場合の動きベクトルブロック28に含まれる動きベクトル情報MVblk1、MVblk2、MVblk3、・・・、MVblk16を生成する(ステップS501)。本例では、動きベクトルブロックのサイズは16×16画素とし、動きベクトル情報18の動き補償ブロックサイズは4×4画素としている。
Hereinafter, the process of omitting the encoding of mv_block_in_mb_flag will be described using the flowchart of FIG.
First, the motion vector generation unit 111 generates motion vector information MVblk1, MVblk2, MVblk3,..., MVblk16 included in the motion vector block 28 when the motion vector block SKIP mode is applied (step S501). In this example, the size of the motion vector block is 16 × 16 pixels, and the motion compensation block size of the motion vector information 18 is 4 × 4 pixels.

ステップS501において生成された動きベクトル情報MVblk1、MVblk2、MVblk3、・・・、MVblk16が全て等しければ処理はステップS503に進み、そうでなければ処理はステップS507に進む(ステップS502)。   If the motion vector information MVblk1, MVblk2, MVblk3,..., MVblk16 generated in step S501 are all equal, the process proceeds to step S503, and if not, the process proceeds to step S507 (step S502).

ステップS503において、動きベクトル生成部111は空間SKIPモードを適用した場合の動きベクトル情報MVspaを符号化対象ブロックの隣接ブロックから導出する。動きベクトル情報MVspaと、動きベクトル情報MVblk1(=MVblk2=MVblk3=・・・=MVblk16)とが等しければ処理はステップS505に進み、そうでなければ処理はステップS507に進む(ステップS507)。   In step S503, the motion vector generation unit 111 derives the motion vector information MVspa when the spatial SKIP mode is applied from the adjacent block of the encoding target block. If the motion vector information MVspa is equal to the motion vector information MVblk1 (= MVblk2 = MVblk3 =... = MVblk16), the process proceeds to step S505. Otherwise, the process proceeds to step S507 (step S507).

ステップS505において、mv_block_in_mb_flagには「0(FALSE)」が設定され、当該mv_block_in_mb_flagの符号化が省略され(ステップS506)、処理は終了する。また、ステップS507において、mv_block_in_mb_flagは符号化され、処理が終了する。   In step S505, “0 (FALSE)” is set in mv_block_in_mb_flag, encoding of the mv_block_in_mb_flag is omitted (step S506), and the process ends. In step S507, mv_block_in_mb_flag is encoded, and the process ends.

以上のように、mv_block_in_mb_flagの符号化省略処理を行うことにより、mv_block_in_mb_flagの不要な符号化を回避し、符号量を削減することが可能となる。尚、mv_block_in_mb_flag以外にも、前述したmv_block_in_seq_flag、mv_block_in_pic_flag、mv_block_in_slice_flag及びマクロブロックを分割した小画素ブロックに関する動きベクトルブロック予測処理の適用の可否を示すシンタクスエレメントに対しても同様の符号化省略処理を行うことが可能である。即ち、上記説明において符号化対象ブロックのサイズをシーケンス、ピクチャ、スライス小画素ブロックに夫々置き換えればよい。また、動きベクトルブロックSKIPモード以外の、動きベクトルブロック予測処理が適用される場合には、リスト0及びリスト1動きベクトルブロック情報を予め符号化し、参照動きベクトルフレーム内における参照位置を特定すれば、同様の処理を行うことができる。   As described above, by performing the encoding omission processing of mv_block_in_mb_flag, unnecessary encoding of mv_block_in_mb_flag can be avoided and the code amount can be reduced. In addition to mv_block_in_mb_flag, the same encoding omission processing is also performed for the syntax elements indicating whether or not to apply the motion vector block prediction processing for the small pixel block obtained by dividing the macro block, and mv_block_in_seq_flag, mv_block_in_pic_flag, mv_block_in_slice_flag described above. Is possible. That is, in the above description, the size of the encoding target block may be replaced with a sequence, a picture, and a slice small pixel block, respectively. In addition, when motion vector block prediction processing other than the motion vector block SKIP mode is applied, if the list 0 and list 1 motion vector block information is encoded in advance and the reference position in the reference motion vector frame is specified, Similar processing can be performed.

以上説明したように、本実施形態に係る画像符号化装置は、前述した第1の実施形態における動きベクトルブロック予測処理と、いわゆるイントラ予測処理及びインター予測処理をマクロブロック毎、小画素ブロック毎またはフレーム毎に選択的に利用している。従って、本実施形態に係る画像符号化装置によれば、より符号化効率の高い予測処理が選択されるため、符号化効率の向上が期待できる。   As described above, the image coding apparatus according to the present embodiment performs the motion vector block prediction process and the so-called intra prediction process and inter prediction process in the first embodiment described above for each macroblock, each small pixel block, or each pixel block. It is selectively used for each frame. Therefore, according to the image coding apparatus according to the present embodiment, since a prediction process with higher coding efficiency is selected, an improvement in coding efficiency can be expected.

(第4の実施形態)
図40に示すように、本発明の第4の実施形態に係る画像復号化装置は前述した第1の実施形態に係る画像符号化装置に対応する画像復号化装置であって、入力バッファ200、画像復号化部2000、復号化制御部230及び出力バッファ208を有する。図40の画像復号化装置は、LSIチップなどのハードウエアにより実現されてもよいし、コンピュータに画像復号化プログラムを実行させることにより実現されてもよい。画像復号化部2000は、エントロピー復号化部201、逆変換・逆量子化部202、加算部203、参照画像メモリ204、インター予測部205及び動きベクトル導出部218を有する。
(Fourth embodiment)
As shown in FIG. 40, an image decoding apparatus according to the fourth embodiment of the present invention is an image decoding apparatus corresponding to the image encoding apparatus according to the first embodiment described above, and includes an input buffer 200, The image decoding unit 2000 includes a decoding control unit 230 and an output buffer 208. The image decoding apparatus in FIG. 40 may be realized by hardware such as an LSI chip, or may be realized by causing a computer to execute an image decoding program. The image decoding unit 2000 includes an entropy decoding unit 201, an inverse transform / inverse quantization unit 202, an addition unit 203, a reference image memory 204, an inter prediction unit 205, and a motion vector derivation unit 218.

図示しない伝送系または蓄積系から入力される符号化データ300は、入力バッファ200に一度蓄積され、多重化された状態で画像復号化部2000に入力される。   Encoded data 300 input from a transmission system or storage system (not shown) is once stored in the input buffer 200 and input to the image decoding unit 2000 in a multiplexed state.

エントロピー復号化部201は、フレーム毎またはフィールド毎にシンタクスに基づく構文解析を行って、各種データを復号化する。具体的には、エントロピー復号化部201は、復号化対象ブロックに対応する量子化変換係数301、予測情報304及び動きベクトルブロック情報309を復号化する。エントロピー復号化部201は、量子化変換係数を逆変換・逆量子化部202、予測情報304を動きベクトル導出部218及びインター予測部205、動きベクトルブロック情報309を動きベクトル導出部218に夫々入力する。その他、エントロピー復号化部201は、量子化パラメータ等の画像復号化に必要な情報も復号化し、フィードバック情報331として復号化制御部230に入力する。   The entropy decoding unit 201 performs syntax analysis based on the syntax for each frame or field, and decodes various data. Specifically, the entropy decoding unit 201 decodes the quantized transform coefficient 301, the prediction information 304, and the motion vector block information 309 corresponding to the decoding target block. The entropy decoding unit 201 inputs the quantized transform coefficient to the inverse transform / inverse quantization unit 202, the prediction information 304 to the motion vector deriving unit 218 and the inter prediction unit 205, and the motion vector block information 309 to the motion vector deriving unit 218, respectively. To do. In addition, the entropy decoding unit 201 also decodes information necessary for image decoding, such as a quantization parameter, and inputs the information as feedback information 331 to the decoding control unit 230.

逆変換・逆量子化部202は、エントロピー復号化部201からの量子化変換係数301に対して、逆量子化・逆変換を行って予測誤差を復号化し、復号予測誤差302として加算部203に入力する。上記逆量子化処理は、復号化制御部230によって設定される量子化パラメータに従って行われる。また、上記逆変換処理は、符号化側で行われた変換処理の逆変換処理であって、例えばIDCTまたは逆ウェーブレット変換等である。   The inverse transform / inverse quantization unit 202 performs inverse quantization / inverse transform on the quantized transform coefficient 301 from the entropy decoding unit 201 to decode the prediction error, and outputs the decoded prediction error 302 to the addition unit 203. input. The inverse quantization process is performed according to the quantization parameter set by the decoding control unit 230. Moreover, the said inverse transformation process is an inverse transformation process of the transformation process performed by the encoding side, Comprising: For example, it is IDCT or inverse wavelet transformation.

加算部203は、逆変換・逆量子化部202からの復号予測誤差302と、インター予測部205からの予測画像305とを加算し、復号化対象ブロックの復号画像(復号画像信号)303を生成する。加算部203は、復号画像303を参照画像メモリ204に参照画像(参照画像信号)306として記憶させる。また、復号画像303は、出力バッファ208に一時的に蓄積され、復号化制御部230によって管理される出力タイミングに応じ、図40の画像符号化装置の外部に出力される
参照画像メモリ204には、例えばフレーム単位で参照画像306が記憶され、インター予測部205によって必要に応じて読み出される。
The adding unit 203 adds the decoded prediction error 302 from the inverse transform / inverse quantization unit 202 and the predicted image 305 from the inter prediction unit 205 to generate a decoded image (decoded image signal) 303 of the decoding target block. To do. The adding unit 203 stores the decoded image 303 in the reference image memory 204 as a reference image (reference image signal) 306. The decoded image 303 is temporarily stored in the output buffer 208, and is output to the outside of the image encoding device in FIG. 40 according to the output timing managed by the decoding control unit 230. For example, the reference image 306 is stored in units of frames, and is read by the inter prediction unit 205 as necessary.

インター予測部205は、図1におけるインター予測部101と同様の機能を有する。具体的には図42に示すように、インター予測部205は、予測画像信号統合部115に対応する予測画像信号統合部213と、複数の動き補償部113に対応する複数の動き補償部212とを有する。   The inter prediction unit 205 has the same function as the inter prediction unit 101 in FIG. Specifically, as illustrated in FIG. 42, the inter prediction unit 205 includes a prediction image signal integration unit 213 corresponding to the prediction image signal integration unit 115, and a plurality of motion compensation units 212 corresponding to the plurality of motion compensation units 113. Have

動き補償部212の各々は、復号化対象ブロックを分割した複数の小画素ブロックの各々に対して小予測画像312を生成する。動き補償部212は、小予測画像312を予測画像信号統合部213に入力する。   Each of the motion compensation units 212 generates a small predicted image 312 for each of a plurality of small pixel blocks obtained by dividing the decoding target block. The motion compensation unit 212 inputs the small predicted image 312 to the predicted image signal integration unit 213.

動き補償部212は、参照画像306において小画素ブロックと同一位置から、当該小画素ブロックに関する動きベクトル情報307に応じて空間シフトした位置の画素ブロックを小予測画像312として生成する。動き補償部212が小画素ブロックに対して行う動き補償処理は、H.264における動き補償処理と同様に実現できる。   The motion compensation unit 212 generates, as a small predicted image 312, a pixel block at a position spatially shifted in accordance with the motion vector information 307 regarding the small pixel block from the same position as the small pixel block in the reference image 306. The motion compensation process performed by the motion compensation unit 212 on the small pixel block can be realized in the same manner as the motion compensation process in H.264.

予測画像信号統合部213は、複数の動き補償部212からの小予測画像を統合し、復号化対象ブロックに対応する予測画像305を生成する。即ち、個々の小画素ブロックに対応する小予測画像312を統合することにより、当該小画素ブロックに分割する前の復号化対象ブロックに対応する予測画像305が得られる。   The prediction image signal integration unit 213 integrates the small prediction images from the plurality of motion compensation units 212 and generates a prediction image 305 corresponding to the decoding target block. That is, by integrating the small predicted images 312 corresponding to the individual small pixel blocks, a predicted image 305 corresponding to the decoding target block before being divided into the small pixel blocks is obtained.

動きベクトル導出部218は、図1における動きベクトル導出部124と同様の機能を有する。具体的には図39に示すように、動きベクトル導出部218は、参照動きベクトルメモリ109に対応する参照動きベクトルメモリ207と、動きベクトルブロック処理部108に対応する動きベクトルブロック処理部206とを有する。   The motion vector deriving unit 218 has the same function as the motion vector deriving unit 124 in FIG. Specifically, as shown in FIG. 39, the motion vector deriving unit 218 includes a reference motion vector memory 207 corresponding to the reference motion vector memory 109 and a motion vector block processing unit 206 corresponding to the motion vector block processing unit 108. Have.

参照動きベクトルメモリ207には、既に復号化済みの動きベクトル情報307が、参照動きベクトル情報308として一時的に保存される。   In the reference motion vector memory 207, already decoded motion vector information 307 is temporarily stored as reference motion vector information 308.

動きベクトル処理部206は、エントロピー復号化部201からの動きベクトルブロック情報309及び予測情報304に基づき、参照動きベクトルメモリ207から参照動きベクトル情報308を取得し、複数の動きベクトル情報307を導出する。より詳細には、動きベクトル処理部206は、図41に示すように、動きベクトルブロック生成部110に対応する動きベクトルブロック生成部210と、動きベクトル生成部111に対応する動きベクトル生成部211とを有する。   The motion vector processing unit 206 acquires the reference motion vector information 308 from the reference motion vector memory 207 based on the motion vector block information 309 and the prediction information 304 from the entropy decoding unit 201, and derives a plurality of motion vector information 307. . More specifically, as shown in FIG. 41, the motion vector processing unit 206 includes a motion vector block generation unit 210 corresponding to the motion vector block generation unit 110, a motion vector generation unit 211 corresponding to the motion vector generation unit 111, Have

動きベクトルブロック生成部210は、動きベクトルブロック情報309をエントロピー復号化部201から取得し、当該動きベクトルブロック情報309に応じた参照動きベクトル情報308の集合である動きベクトルブロック311を生成する。動きベクトルブロック生成部210は、動きベクトルブロック311を動きベクトル生成部211に入力する。   The motion vector block generation unit 210 acquires the motion vector block information 309 from the entropy decoding unit 201, and generates a motion vector block 311 that is a set of reference motion vector information 308 corresponding to the motion vector block information 309. The motion vector block generation unit 210 inputs the motion vector block 311 to the motion vector generation unit 211.

動きベクトル生成部211は、動きベクトルブロック生成部210からの動きベクトルブロック311に含まれる参照動きベクトル情報308に基づき、復号化対象ブロックを分割した複数の小画素ブロックの各々に関する動きベクトル情報307を生成し、出力する。具体的には、動きベクトル生成部211は、小画素ブロックに関する動きベクトル情報307として、適切な参照動きベクトル情報308を代入する。   Based on the reference motion vector information 308 included in the motion vector block 311 from the motion vector block generation unit 210, the motion vector generation unit 211 obtains motion vector information 307 regarding each of a plurality of small pixel blocks obtained by dividing the decoding target block. Generate and output. Specifically, the motion vector generation unit 211 substitutes appropriate reference motion vector information 308 as the motion vector information 307 regarding the small pixel block.

以上説明したように、本実施形態に係る画像復号化装置は、前述した第1の実施形態に係る画像符号化装置によって符号化された画像を復号化している。従って、本実施形態に係る画像復号化装置によれば、比較的小さな符号化データから高画質な復号画像を再生することが可能となる。   As described above, the image decoding apparatus according to the present embodiment decodes the image encoded by the image encoding apparatus according to the first embodiment described above. Therefore, according to the image decoding apparatus according to the present embodiment, it is possible to reproduce a high-quality decoded image from relatively small encoded data.

(第5の実施形態)
図43に示すように、本発明の第5の実施形態に係る画像復号化装置は前述した第2の実施形態に係る画像符号化装置に対応する画像復号化装置であって、上記図40に示す画像復号化装置において、インター予測部205を予測部214に置き換えている。以下の説明では、図43において図40と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
(Fifth embodiment)
As shown in FIG. 43, an image decoding apparatus according to the fifth embodiment of the present invention is an image decoding apparatus corresponding to the image encoding apparatus according to the second embodiment described above. In the illustrated image decoding apparatus, the inter prediction unit 205 is replaced with a prediction unit 214. In the following description, the same parts in FIG. 43 as those in FIG. 40 are denoted by the same reference numerals, and different parts will be mainly described.

予測部214は図44に示すように、インター予測部205、イントラ予測部220及びモード選択スイッチ221を有する。
インター予測部205は、第1の実施形態において説明した動きベクトルブロック予測を行って、予測画像305をモード選択スイッチ221に入力する。イントラ予測部220は、図23におけるイントラ予測部117と同様の機能を有する。イントラ予測部220は、予測画像305をモード選択スイッチ221に入力する。
As shown in FIG. 44, the prediction unit 214 includes an inter prediction unit 205, an intra prediction unit 220, and a mode selection switch 221.
The inter prediction unit 205 performs the motion vector block prediction described in the first embodiment, and inputs the predicted image 305 to the mode selection switch 221. The intra prediction unit 220 has the same function as the intra prediction unit 117 in FIG. The intra prediction unit 220 inputs the predicted image 305 to the mode selection switch 221.

モード選択スイッチ221は、エントロピー復号化部201からの予測情報304に従って、インター予測部205及びイントラ予測部220のいずれか一方から予測画像305を取得する。モード選択スイッチ221によって取得された予測画像305は、加算部203に入力される。   The mode selection switch 221 acquires the predicted image 305 from either the inter prediction unit 205 or the intra prediction unit 220 according to the prediction information 304 from the entropy decoding unit 201. The predicted image 305 acquired by the mode selection switch 221 is input to the adding unit 203.

以上説明したように、本実施形態に係る画像復号化装置は、前述した第2の実施形態に係る画像符号化装置によって符号化された画像を復号化している。従って、本実施形態に係る画像復号化装置によれば、比較的小さな符号化データから高画質な復号画像を再生することが可能となる。   As described above, the image decoding apparatus according to the present embodiment decodes the image encoded by the above-described image encoding apparatus according to the second embodiment. Therefore, according to the image decoding apparatus according to the present embodiment, it is possible to reproduce a high-quality decoded image from relatively small encoded data.

(第6の実施形態)
図45に示すように、本発明の第6の実施形態に係る画像復号化装置は前述した第3の実施形態に係る画像符号化装置に対応する画像復号化装置であって、上記図43に示す画像復号化装置において、予測部214を予測部223に置き換えている。以下の説明では、図43において図40と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
(Sixth embodiment)
As shown in FIG. 45, an image decoding apparatus according to the sixth embodiment of the present invention is an image decoding apparatus corresponding to the image encoding apparatus according to the third embodiment described above. In the illustrated image decoding apparatus, the prediction unit 214 is replaced with a prediction unit 223. In the following description, the same parts in FIG. 43 as those in FIG. 40 are denoted by the same reference numerals, and different parts will be mainly described.

予測部223は、図46に示すように、第1インター予測部205、イントラ予測部220、第2インター予測部217及びモード選択スイッチ216を有する。
第1インター予測部205は、図44における第1インター予測部205と同様の機能を有し、動きベクトルブロック予測処理を行って予測画像305を生成し、モード選択スイッチ216に入力する。イントラ予測部220は、図44におけるイントラ予測部220と同様の機能を有し、イントラ予測処理を行って予測画像305を生成し、モード選択スイッチ216に入力する。尚、後述する第2インター予測部217と区別するために、図44におけるインター予測部205の名称を図44において第1インター予測部205へと便宜的に改めている。
As illustrated in FIG. 46, the prediction unit 223 includes a first inter prediction unit 205, an intra prediction unit 220, a second inter prediction unit 217, and a mode selection switch 216.
The first inter prediction unit 205 has the same function as the first inter prediction unit 205 in FIG. 44, performs a motion vector block prediction process, generates a prediction image 305, and inputs the prediction image 305 to the mode selection switch 216. The intra prediction unit 220 has the same function as the intra prediction unit 220 in FIG. 44, performs an intra prediction process, generates a prediction image 305, and inputs the prediction image 305 to the mode selection switch 216. In addition, in order to distinguish from the 2nd inter prediction part 217 mentioned later, the name of the inter prediction part 205 in FIG. 44 is changed into the 1st inter prediction part 205 in FIG. 44 for convenience.

第2インター予測部217は、いわゆるH.264におけるインター予測処理を行う。第2インター予測部217は、エントロピー復号化部201によって復号化された動きベクトル情報313と、参照画像メモリ204からの参照画像306とに基づき予測画像305を生成する。第2インター予測部217は、図47に示すように1つの動き補償部222を有する。   The second inter prediction unit 217 performs inter prediction processing in so-called H.264. The second inter prediction unit 217 generates a predicted image 305 based on the motion vector information 313 decoded by the entropy decoding unit 201 and the reference image 306 from the reference image memory 204. The second inter prediction unit 217 includes one motion compensation unit 222 as illustrated in FIG.

動き補償部222は、動きベクトル情報313を用いて参照画像306の動き補償を行う。即ち、動き補償部222は、参照画像306において動きベクトル情報313が指し示す画素ブロックを予測画像305として出力する。   The motion compensation unit 222 performs motion compensation of the reference image 306 using the motion vector information 313. That is, the motion compensation unit 222 outputs the pixel block indicated by the motion vector information 313 in the reference image 306 as the predicted image 305.

モード選択スイッチ216の基本的機能は、図44におけるモード選択スイッチ221と同様であるが、第2インター予測部217からの予測画像305を選択可能な点が異なる。   The basic function of the mode selection switch 216 is the same as that of the mode selection switch 221 in FIG. 44 except that the prediction image 305 from the second inter prediction unit 217 can be selected.

また、第3の実施形態において、mv_block_in_mb_flagの符号化省略処理を説明したが、本実施形態に係る画像復号化装置においても同様の復号化省略処理を行うことができる。上記復号化省略処理を行うことにより、符号化側において不要なmv_block_in_mb_flagが符号化されていた場合であっても、図45の画像復号化装置は必要なmv_block_in_mb_flagのみを選択的に復号化できるため演算量を削減できる。   Moreover, although the encoding omission process of mv_block_in_mb_flag has been described in the third embodiment, the same decoding omission process can be performed also in the image decoding apparatus according to the present embodiment. By performing the above-described decoding omitting process, even if unnecessary mv_block_in_mb_flag is encoded on the encoding side, the image decoding apparatus in FIG. 45 can selectively decode only necessary mv_block_in_mb_flag. The amount can be reduced.

以上説明したように、本実施形態に係る画像復号化装置は、前述した第3の実施形態に係る画像符号化装置によって符号化された画像を復号化している。従って、本実施形態に係る画像復号化装置によれば、比較的小さな符号化データから高画質な復号画像を再生することが可能となる。   As described above, the image decoding apparatus according to the present embodiment decodes the image encoded by the image encoding apparatus according to the third embodiment described above. Therefore, according to the image decoding apparatus according to the present embodiment, it is possible to reproduce a high-quality decoded image from relatively small encoded data.

なお、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. Further, for example, a configuration in which some components are deleted from all the components shown in each embodiment is also conceivable. Furthermore, you may combine suitably the component described in different embodiment.

その一例として例えば、上記第1乃至第6の実施形態を次のように変形しても同様の効果が得られる。
(1)図5に示す符号化/復号化順序は一例に過ぎず、例えば、画面右下から左上に向かう処理順序でもよいし、右上から左下に向かう処理順序でもよい。また、渦巻き状に中心部から周辺部に向かう処理順序でもよいし、周辺部から中心部に向かう処理順序でもよい。
For example, the same effect can be obtained by modifying the first to sixth embodiments as follows.
(1) The encoding / decoding order shown in FIG. 5 is merely an example, and may be, for example, a processing order from the lower right to the upper left of the screen or a processing order from the upper right to the lower left. Further, the processing order from the central part to the peripheral part may be a spiral, or the processing order from the peripheral part to the central part may be used.

(2)図6A乃至図6Cに示したブロックサイズは全て正方形状であるが、符号化対象ブロックのサイズはこれらに限られず、例えば16×8画素、8×16画素、8×4画素または4×8画素などの長方形状でもよい。また、異なるサイズの符号化対象ブロックが選択的に利用されてもよい。この場合、サイズの切り替え情報に関する符号化が必要になるが、前述したコスト等を利用して符号化歪みと符号量とのバランスの取れた符号化が実現されることが望ましい。   (2) Although the block sizes shown in FIGS. 6A to 6C are all square, the size of the block to be encoded is not limited to these. For example, 16 × 8 pixels, 8 × 16 pixels, 8 × 4 pixels, or 4 A rectangular shape such as × 8 pixels may be used. Also, different size encoding target blocks may be selectively used. In this case, encoding related to the size switching information is required, but it is desirable to realize encoding that balances encoding distortion and code amount by using the above-described cost or the like.

(3)第1乃至第6の実施形態において、輝度信号と色差信号とを分割せず、一方の色信号成分に限定した例を説明した。しかしながら、予測処理が輝度信号と色差信号とを分割し、個別に予測処理を適用してもよい。   (3) In the first to sixth embodiments, the example in which the luminance signal and the color difference signal are not divided and is limited to one color signal component has been described. However, the prediction process may divide the luminance signal and the color difference signal and apply the prediction process individually.

その他、本発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。   In addition, it goes without saying that the present invention can be similarly implemented even if various modifications are made without departing from the gist of the present invention.

10・・・原画像
11・・・予測画像
12・・・予測誤差
13・・・量子化変換係数
14・・・符号化データ
15・・・復号予測誤差
16・・・局所復号画像
17・・・参照画像
18・・・動きベクトル情報
19・・・参照動きベクトル情報
21・・・動きベクトルブロック情報
22・・・予測情報
23・・・小画素ブロック
24・・・小予測画像
25・・・動きベクトル情報
26・・・予測モード判定情報
28・・・動きベクトルブロック
30・・・符号化制御情報
31・・・フィードバック情報
101・・・インター予測部
102・・・減算部
103・・・変換・量子化部
104・・・エントロピー符号化部
105・・・逆変換・逆量子化部
106・・・加算部
107・・・参照画像メモリ
108・・・動きベクトルブロック処理部
109・・・参照動きベクトルメモリ
110・・・動きベクトルブロック生成部
111・・・動きベクトル生成部
112・・・出力バッファ
113・・・動き補償部
114・・・参照動きベクトルフレーム
115・・・予測画像信号統合部
116・・・予測部
117・・・イントラ予測部
118・・・モード判定部
119・・・モード選択スイッチ
120・・・動きベクトル推定部
121・・・第2インター予測部
122・・・モード選択スイッチ
124・・・動きベクトル導出部
125・・・予測部
126・・・動き補償部
130・・・符号化制御部
200・・・入力バッファ
201・・・エントロピー復号化部
202・・・逆変換・逆量子化部
203・・・加算部
204・・・参照画像メモリ
205・・・インター予測部
206・・・動きベクトルブロック処理部
207・・・参照動きベクトルメモリ
208・・・出力バッファ
210・・・動きベクトルブロック生成部
211・・・動きベクトル生成部
212・・・動き補償部
213・・・予測画像信号統合部
214・・・予測部
217・・・第2インター予測部
218・・・動きベクトル導出部
220・・・イントラ予測部
221・・・モード選択スイッチ
222・・・動き補償部
223・・・予測部
230・・・復号化制御部
300・・・符号化データ
301・・・量子化変換係数
302・・・復号予測残差
303・・・復号画像
304・・・予測情報
305・・・予測画像
306・・・参照画像
307・・・動きベクトル情報
308・・・参照動きベクトル情報
309・・・動きベクトルブロック情報
311・・・動きベクトルブロック
312・・・小予測画像
313・・・動きベクトル情報
330・・・復号化制御情報
331・・・フィードバック情報
901・・・ハイレベルシンタクス
902・・・シーケンスパラメータセットシンタクス
903・・・ピクチャパラメータセットシンタクス
904・・・スライスレベルシンタクス
905・・・スライスヘッダシンタクス
906・・・スライスデータシンタクス
907・・・マクロブロックレベルシンタクス
908・・・マクロブロックレイヤーシンタクス
909・・・マクロブロックプレディクションシンタクス
1000、1100、1200・・・画像符号化部
2000、2100、2200・・・画像復号化部
DESCRIPTION OF SYMBOLS 10 ... Original image 11 ... Predicted image 12 ... Prediction error 13 ... Quantization transform coefficient 14 ... Encoded data 15 ... Decoded prediction error 16 ... Local decoded image 17 ... Reference image 18 ... motion vector information 19 ... reference motion vector information 21 ... motion vector block information 22 ... prediction information 23 ... small pixel block 24 ... small prediction image 25 ... Motion vector information 26 ... Prediction mode determination information 28 ... Motion vector block 30 ... Coding control information 31 ... Feedback information 101 ... Inter prediction unit 102 ... Subtraction unit 103 ... Conversion Quantizer 104: Entropy encoder 105 ... Inverse transform / inverse quantizer 106 ... Adder 107 ... Reference image memory 108 ... Motion vector Lock processing unit 109 ... reference motion vector memory 110 ... motion vector block generation unit 111 ... motion vector generation unit 112 ... output buffer 113 ... motion compensation unit 114 ... reference motion vector frame 115 ... Predictive image signal integration part 116 ... Prediction part 117 ... Intra prediction part 118 ... Mode determination part 119 ... Mode selection switch 120 ... Motion vector estimation part 121 ... 2nd inter Prediction unit 122 ... mode selection switch 124 ... motion vector derivation unit 125 ... prediction unit 126 ... motion compensation unit 130 ... encoding control unit 200 ... input buffer 201 ... entropy decoding Conversion unit 202... Inverse transform / inverse quantization unit 203... Addition unit 204 .. reference image memory 205. Inter prediction unit 206 ... motion vector block processing unit 207 ... reference motion vector memory 208 ... output buffer 210 ... motion vector block generation unit 211 ... motion vector generation unit 212 ... motion compensation unit 213 ... Predictive image signal integration unit 214 ... Prediction unit 217 ... Second inter prediction unit 218 ... Motion vector derivation unit 220 ... Intra prediction unit 221 ... Mode selection switch 222 ... Motion compensation unit 223 ... Prediction unit 230 ... Decoding control unit 300 ... Encoded data 301 ... Quantized transform coefficient 302 ... Decoded prediction residual 303 ... Decoded image 304 ... Prediction information 305 ... Prediction image 306 ... Reference image 307 ... Motion vector information 308 ... Reference motion vector information 309 ... Motion vector block information 311 ... motion vector block 312 ... small prediction image 313 ... motion vector information 330 ... decoding control information 331 ... feedback information 901 ... high-level syntax 902 .. Sequence parameter set syntax 903 ... Picture parameter set syntax 904 ... Slice level syntax 905 ... Slice header syntax 906 ... Slice data syntax 907 ... Macroblock level syntax 908 ... Macroblock layer Syntax 909: Macroblock prediction syntax 1000, 1100, 1200 ... Image encoding unit 2000, 2100, 2200 ... Image decoding unit

Claims (2)

符号化された予測誤差を復号化する復号化部と、
既に復号化済みの第1の画素領域に対応する第1の動きベクトルを取得する記憶部と、
前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出する第1の導出部と、
前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出する第2の導出部と、
前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成する予測部と、
前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成する統合部と、
前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成する加算部と
を具備することを特徴とする画像復号化装置。
A decoding unit for decoding the encoded prediction error;
A storage unit for acquiring a first motion vector corresponding to a first pixel region that has already been decoded;
A first derivation unit for deriving a motion vector group including at least one of the first motion vectors;
A second deriving unit for deriving a second motion vector corresponding to each of the third pixel regions obtained by dividing the second pixel region before decoding based on the motion vector group;
A prediction unit that generates a first inter prediction image of each of the third pixel regions using the second motion vector;
An integration unit that integrates the first inter prediction image and generates a second inter prediction image corresponding to the second pixel region before decoding;
An image decoding apparatus comprising: an adder configured to add the second inter prediction image and the prediction error to generate a decoded image.
符号化された予測誤差を復号化することと、
既に復号化済みの第1の画素領域に対応する第1の動きベクトルを取得することと、
前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出することと、
前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出することと、
前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、
前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成することと、
前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成することと
を具備することを特徴とする画像復号化方法。
Decoding the encoded prediction error;
Obtaining a first motion vector corresponding to a first pixel area that has already been decoded;
Deriving a group of motion vectors including at least one of the first motion vectors;
Deriving a second motion vector corresponding to each of the third pixel regions obtained by dividing the second pixel region before decoding based on the motion vector group;
Generating a first inter-predicted image for each of the third pixel regions using the second motion vector;
Integrating the first inter-predicted image to generate a second inter-predicted image corresponding to the second pixel region before decoding;
An image decoding method comprising: adding the second inter prediction image and the prediction error to generate a decoded image.
JP2012090706A 2012-04-12 2012-04-12 Image decoding method and apparatus Expired - Fee Related JP5197864B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012090706A JP5197864B2 (en) 2012-04-12 2012-04-12 Image decoding method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012090706A JP5197864B2 (en) 2012-04-12 2012-04-12 Image decoding method and apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008166348A Division JP4977094B2 (en) 2008-06-25 2008-06-25 Image coding method

Publications (2)

Publication Number Publication Date
JP2012157061A true JP2012157061A (en) 2012-08-16
JP5197864B2 JP5197864B2 (en) 2013-05-15

Family

ID=46838216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012090706A Expired - Fee Related JP5197864B2 (en) 2012-04-12 2012-04-12 Image decoding method and apparatus

Country Status (1)

Country Link
JP (1) JP5197864B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015186120A (en) * 2014-03-25 2015-10-22 沖電気工業株式会社 Encoding method conversion apparatus and program
JPWO2015034061A1 (en) * 2013-09-06 2017-03-02 三菱電機株式会社 Moving picture coding apparatus, moving picture transcoding apparatus, moving picture coding method, moving picture transcoding method, and moving picture stream transmission system
CN115209161A (en) * 2019-10-10 2022-10-18 华为技术有限公司 Encoder, decoder and corresponding methods for simplifying an indication picture header

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304383A (en) * 1997-04-25 1998-11-13 Victor Co Of Japan Ltd Movement compensated encoding device/method and encoding recording medium
JP2004032355A (en) * 2002-06-26 2004-01-29 Nippon Telegr & Teleph Corp <Ntt> Motion picture encoding method, motion picture decoding method, and apparatus for the both method
JP2005244503A (en) * 2004-02-25 2005-09-08 Sony Corp Apparatus and method for coding image information
JP2007243784A (en) * 2006-03-10 2007-09-20 Victor Co Of Japan Ltd Moving image decoding device and moving image decoding method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304383A (en) * 1997-04-25 1998-11-13 Victor Co Of Japan Ltd Movement compensated encoding device/method and encoding recording medium
JP2004032355A (en) * 2002-06-26 2004-01-29 Nippon Telegr & Teleph Corp <Ntt> Motion picture encoding method, motion picture decoding method, and apparatus for the both method
JP2005244503A (en) * 2004-02-25 2005-09-08 Sony Corp Apparatus and method for coding image information
JP2007243784A (en) * 2006-03-10 2007-09-20 Victor Co Of Japan Ltd Moving image decoding device and moving image decoding method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015034061A1 (en) * 2013-09-06 2017-03-02 三菱電機株式会社 Moving picture coding apparatus, moving picture transcoding apparatus, moving picture coding method, moving picture transcoding method, and moving picture stream transmission system
JP2015186120A (en) * 2014-03-25 2015-10-22 沖電気工業株式会社 Encoding method conversion apparatus and program
CN115209161A (en) * 2019-10-10 2022-10-18 华为技术有限公司 Encoder, decoder and corresponding methods for simplifying an indication picture header
CN115209161B (en) * 2019-10-10 2023-05-12 华为技术有限公司 Video decoding method, decoder, decoding device, and storage medium

Also Published As

Publication number Publication date
JP5197864B2 (en) 2013-05-15

Similar Documents

Publication Publication Date Title
JP4977094B2 (en) Image coding method
KR102549223B1 (en) A method and an apparatus for processing a video signal
JP5368631B2 (en) Image encoding method, apparatus, and program
JP2017041901A (en) Apparatus for encoding moving picture
KR102006443B1 (en) Method and apparatus for video encoding/decoding using error compensation
JP5197864B2 (en) Image decoding method and apparatus
JP5479648B1 (en) Image encoding method and image decoding method
JP5444497B2 (en) Image encoding method and image decoding method
JP5513333B2 (en) Moving picture coding apparatus, moving picture coding method, and program
JP5571262B2 (en) Image encoding method and image decoding method
JP7399332B2 (en) Image encoding method and image decoding method
JP6609004B2 (en) Image encoding method and image decoding method
JP6367452B2 (en) Image encoding method and image decoding method
JP6370977B2 (en) Image encoding method and image decoding method
JP6271694B2 (en) Image encoding method and image decoding method
JP6196341B2 (en) Image encoding method and image decoding method
JP5659314B1 (en) Image encoding method and image decoding method
JP5509398B1 (en) Image encoding method and image decoding method
JP5571229B2 (en) Image encoding method and image decoding method
JP2014131293A (en) Image encoding method and image decoding method
JP2014131295A (en) Image encoding method and image decoding method
JP2020025308A (en) Image encoding method and image decoding method
JP2015053729A (en) Image encoding method, and image decoding method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees