JP2010010950A - Image coding/decoding method and apparatus - Google Patents

Image coding/decoding method and apparatus Download PDF

Info

Publication number
JP2010010950A
JP2010010950A JP2008166348A JP2008166348A JP2010010950A JP 2010010950 A JP2010010950 A JP 2010010950A JP 2008166348 A JP2008166348 A JP 2008166348A JP 2008166348 A JP2008166348 A JP 2008166348A JP 2010010950 A JP2010010950 A JP 2010010950A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
motion vector
image
block
inter prediction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008166348A
Other languages
Japanese (ja)
Other versions
JP4977094B2 (en )
JP2010010950A5 (en )
Inventor
Takeshi Nakajo
Taiichiro Shiodera
健 中條
太一郎 塩寺
Original Assignee
Toshiba Corp
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image coding/decoding method and apparatus with high coding efficiency. <P>SOLUTION: An image decoding apparatus includes: a storage part 109 which sequentially stores first motion vectors 19 corresponding to first already coded pixel regions; a first derivation part which derives a group of motion vectors including at least one of the first motion vectors 19; a second derivation part 108 which derives second motion vectors 18 corresponding to each of third pixel regions obtained by dividing second pixel regions before coding based on the group of motion vectors; a prediction part which generates first inter prediction images of each of the third pixel regions using the second motion vectors; an integration part which integrates the first inter prediction images to generate second inter prediction images corresponding to the second pixel regions before coding; and a coding part which codes prediction errors of the second inter prediction images and an original image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、動画像や静止画像の符号化/復号化方法及び装置に関する。 The present invention relates to a coding / decoding method and apparatus of the moving image and still images.

ITU-T及びISO/IECより、動画像符号化方式の共同勧告(標準)としてITU-T Rec. H. 264及びISO/IEC 14496-10(以下、単にH.264と称する)が策定されている。 From ITU-T and ISO / IEC, joint recommendations of the moving picture coding method (standard) as ITU-T Rec. H. 264 and ISO / IEC 14496-10 (hereinafter, simply referred to as H.264) is formulated there. H.264では、符号化対象の矩形ブロック(符号化対象ブロック)毎に予測処理、変換処理及びエントロピー符号化処理が行われる。 In H.264, the prediction process for each rectangular block (target block) to be encoded, the conversion process and entropy coding process is performed. 上記予測処理では、例えば、既に符号化済みのフレーム(参照フレーム)が参照され、符号化対象ブロックに対して時間方向の予測(動き補償)が行われる。 In the prediction process, for example, referenced earlier coded frame (reference frame) is a time-based prediction with respect to the encoding target block (motion compensation) is performed. 上記動き補償では、一般に、符号化対象ブロックと参照フレーム内において参照されるブロックとの間の空間的シフト情報である動きベクトルを符号化する必要がある。 In the motion compensation, generally, it is necessary to encode the motion vector is a spatial shift information between the blocks referenced in the reference frame and the encoding target block. また、上記参照フレームを複数用いる場合には、個々の参照フレームを識別するために参照フレーム番号も符号化する必要がある。 In the case of using a plurality of the reference frame, it is necessary to be encoded reference frame number for identifying the respective reference frame.

非特許文献1記載の動画像符号化方式(即ち、H.264)は、符号化対象ブロックの隣接ブロックの動きベクトルが既に符号化済みである場合に、当該隣接ブロックの動きベクトルに基づき予測動きベクトル(例えば、隣接ブロックの動きベクトルのメディアン値)を導出する。 Video coding method of Non-Patent Document 1 (i.e., H.264), when the motion vectors of neighboring blocks of the encoding target block is already encoded, prediction motion based on the motion vector of the neighboring block vector (e.g., median value of motion vectors of neighboring blocks) to derive. 非特許文献1記載の動画像符号化方式は、上記予測動きベクトルと符号化対象ブロックに対し実際に導出した動きベクトルとの間の差分を符号化している。 Video coding method described in Non-Patent Document 1, has encode the differences between the motion vectors actually derived to the predicted motion vector and the encoding target block.

非特許文献2記載の動画像符号化方式は、上記予測動きベクトルのバリエーションを複数用意し、符号化対象ブロック毎に利用する予測動きベクトルを切り替え、選択された予測動きベクトルと符号化対象ブロックに対し実際に導出した動きベクトルとの間の差分を符号化している。 Video coding method of Non-Patent Document 2, the variation of the predicted motion vector preparing a plurality switches the predicted motion vector to be used for each encoding target block, the prediction motion vector and the encoding target blocks selected and it encodes the difference between the actual derived motion vector against. 従って、非特許文献2記載の動画像符号化方式によれば、符号量が小さくなるように予測動きベクトルを選択的に利用することができる。 Therefore, according to the moving picture coding method of Non-Patent Document 2, it is possible to selectively use the predictive motion vector as the code amount is small.

特許文献1記載の動画像符号化方法は、既に符号化済みの動きベクトルをフレーム単位で保存しておき、当該フレーム内において符号化対象ブロックと同位置(Collocate位置)のブロックの動きベクトルを、当該符号化対象ブロックの動きベクトルをして取得している。 Moving picture coding method described in Patent Document 1, previously to keep the coded motion vector in units of frames, the motion vector of the block of the encoding target block in the same position within the frame (COLlocate position), It is obtained by the motion vector of the encoding target block. 従って、特許文献1記載の動画像符号化方法によれば、動きベクトルの符号化を省略することができる。 Therefore, according to the moving picture coding method described in Patent Document 1, it is possible to omit the encoding of motion vectors.
特許3977716号公報 Patent 3977716 No.

非特許文献1記載の動画像符号化方式は、予測動きベクトルと、符号化対象ブロックに関し実際に導出した動きベクトルとの間の差分を符号化しているが、当該差分に関する符号量が上記実際に導出した動きベクトルに関する符号量を下回るとは限らない。 Video coding method described in Non-Patent Document 1, the prediction motion vector, although the difference between the motion vector obtained by actually derived relates current block being coded, the code amount is the fact related to the difference not necessarily less than the amount of code on the derived motion vector.

非特許文献2記載の動画像符号化方式は、符号化対象ブロック毎にいずれの予測動きベクトルが選択されたかを復号化側に通知するために切り替え情報を符号化する必要がある。 Video coding method of Non-Patent Document 2, it is necessary to encode the switching information to notify the decoding side or predicted motion vector of any for each encoding target block is selected. 即ち、非特許文献2記載の動画像符号化方式は、上記切り替え情報の符号量により却って符号量が増大するおそれがある。 That is, the moving picture coding method of Non-Patent Document 2, there is a possibility that instead the code amount by the sign of the switching information increases.

特許文献1記載の動画像符号化方法によれば、動きベクトルの符号化を省略することは可能であるが、Collocate位置のブロックに関する動きベクトルは符号化対象ブロックの動きベクトルとして必ずしも適切でない。 According to the moving picture coding method described in Patent Document 1, it is possible to omit encoding of the motion vector, the motion vector for a block of Collocate position is not always appropriate as a motion vector of the current block.

従って、本発明は符号化効率の高い画像符号化/復号化装置を提供することを目的とする。 Accordingly, the present invention aims to provide a high image encoding / decoding apparatus coding efficiency.

本発明の一態様に係る画像符号化方法は、既に符号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶することと、前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出することと、前記動きベクトル群に基づき、符号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出することと、前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、前記第1のインター予測画像を統合して、前記符号化前の第2の画素領域に対応する第2のインター予測画像を生成することと、前記第2のインター予測画像と原画像との間の予測誤差を符号化することとを具備する。 Image encoding method according to an embodiment of the present invention are that already sequentially stores the first motion vector corresponding to the first pixel region of the encoded, comprising at least one motion the first motion vector and deriving a vector group, and deriving a second motion vector corresponding to each of the basis of the motion vector group, the third pixel area obtained by dividing the second pixel region before encoding, the first using 2 motion vectors, wherein generating a first inter prediction image of each of the third pixel region, the first integrated inter prediction image, the second pixel of the previous said coded comprising generating a second inter prediction image corresponding to the region, and encoding the prediction error between the second inter prediction image and the original image.

本発明の他の態様に係る画像符号化方法は、既に符号化済みの第1の画素領域を分割した第2の画素領域に対応する第1の動きベクトルを逐次記憶することと、空間的に連続する前記第1の動きベクトルを纏め、前記第1の画素領域と同一サイズの動きベクトルブロックを導出することと、前記動きベクトルブロックを構成する第1の動きベクトルの各々を、符号化前の第1の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルとして、空間的に対応させて代入することと、前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、前記第1のインター予測画像を統合して、前記符号化前の第1の画素領域に対応する第2のインター予測画像を生成することと、前記第 Image encoding method according to another aspect of the present invention are that already sequentially stores the first motion vector corresponding to the second pixel regions obtained by dividing the first pixel region of the encoded spatially summarized the first motion vector continuous, and deriving a motion vector block of the first pixel region and the same size, each of the first motion vectors constituting the motion vector block before encoding a second motion vector corresponding to each of the third pixel area obtained by dividing a first pixel region, and substituting spatially to correspond, using the second motion vector, said third generating a first inter prediction image of each pixel region, by integrating the first inter prediction image, generating a second inter prediction image corresponding to the first pixel region before the encoding the method comprising, the first のインター予測画像と原画像との間の予測誤差を符号化することとを具備する。 Comprising and encoding the prediction error between the inter prediction image and the original image.

本発明の一態様に係る画像復号化方法は、符号化された予測誤差を復号化することと、既に復号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶することと、前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出することと、前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出することと、前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成することと、前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成することとを具備する。 Picture decoding method according to an embodiment of the present invention includes decoding the prediction error encoded, and it already sequentially stores the first motion vector corresponding to the first pixel region already decoded and deriving at least one comprising motion vector group of the first motion vector, based on the motion vector group, corresponding to each of the third pixel regions obtained by dividing the second pixel area before decoding and deriving a second motion vector, using the second motion vector, and generating a first inter prediction image of each of the third pixel region, the first inter prediction image integration to generate a second and generating an inter prediction image, the decoded image by adding said prediction error and said second inter prediction image corresponding to the second pixel area before the decoding ; and a thing.

本発明の他の態様に係る画像復号化方法は、符号化された予測誤差を復号化することと、既に復号化済みの第1の画素領域を分割した第2の画素領域に対応する第1の動きベクトルを逐次記憶することと、空間的に連続する前記第1の動きベクトルを纏め、前記第1の画素領域と同一サイズの動きベクトルブロックを導出することと、前記動きベクトルブロックを構成する第1の動きベクトルの各々を、復号化前の第1の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルとして、空間的に対応させて代入することと、前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、前記第1のインター予測画像を統合して、前記復号化前の第1の画素領域に対応する第2の Picture decoding method according to another aspect of the present invention, the first corresponding to the decoding the prediction error encoded, the second pixel area already divided the first pixel region already decoded configuring the method comprising sequentially storing motion vectors, and that collectively the first motion vector spatially continuous, it derives the motion vector block of the first pixel region and the same size, the motion vector block and that each of the first motion vector, a second motion vector corresponding to each of the third pixel area obtained by dividing a first pixel region before decoding, substituted spatially to correspond, the using a second motion vector, and generating a first inter prediction image of each of the third pixel region, by integrating the first inter prediction image, first before the decoding second corresponding to the pixel region ンター予測画像を生成することと、前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成することとを具備する。 Comprising generating a centers prediction image, and generating a decoded image by adding said prediction error and said second inter prediction image.

本発明によれば、符号化効率の高い画像符号化/復号化装置を提供できる。 The present invention can provide a high image encoding / decoding apparatus coding efficiency.

以下、図面を参照して、本発明の実施形態について説明する。 Hereinafter, with reference to the drawings, embodiments of the present invention will be described.
(第1の実施形態) (First Embodiment)
図1に示すように、本発明の第1の実施形態に係る画像符号化装置は、画像符号化部1000、符号化制御部130及び出力バッファ112を有する。 1, the image coding apparatus according to a first embodiment of the present invention, an image coding unit 1000 includes an encoding control unit 130 and the output buffer 112. 図1の画像符号化装置は、LSIチップなどのハードウエアにより実現されてよいし、コンピュータに画像符号化プログラムを実行させることにより実現されてもよい。 Image encoding apparatus of FIG. 1 may be implemented by hardware such as an LSI chip, or may be realized by executing the image coding program on a computer. 画像符号化部1000は、インター予測部101、減算部102、変換・量子化部103、エントロピー符号化部104、逆変換・逆量子化部105、加算部106、参照画像メモリ107及び動きベクトル導出部124を有する。 Image coding unit 1000, an inter prediction unit 101, subtracting unit 102, transform and quantization unit 103, entropy encoder 104, inverse transform and inverse quantization unit 105, an adder 106, the reference image memory 107 and a motion vector derivation having a section 124.

符号化制御部130は、発生符号量のフィードバック制御、量子化制御、予測モード制御及びエントロピー符号化制御といった画像符号化部1000による符号化処理全般を制御する。 Coding control unit 130, feedback control of the generated code amount, the quantization control, and controls the encoding process in general by the image coding unit 1000 such prediction mode control and entropy encoding control. 具体的には、符号化制御部130は、画像符号化部1000の各部に符号化制御情報30を設定し、また、画像符号化部1000の各部からフィードバック情報31を適宜取得する。 Specifically, the encoding control unit 130 sets the encoding control information 30 to each part of the image coding unit 1000, also appropriately acquires feedback information 31 from each part of the image coding unit 1000. 符号化制御情報30には、予測情報22(予測モード情報及びブロックサイズ切り替え情報を含む)、動きベクトル情報18、動きベクトルブロック情報21及び量子化パラメータ(量子化幅(量子化ステップサイズ)及び量子化マトリクスなどを含む)等が含まれる。 The coded control information 30 (including the prediction mode information and the block size switching information) prediction information 22, motion vector information 18, the motion vector block information 21 and the quantization parameter (quantization width (quantization step size) and quantization -matrix, etc.) and the like. フィードバック情報31は、画像符号化部1000による発生符号量を含み、例えば上記量子化パラメータの決定に用いられる。 Feedback information 31 includes a generation code amount by the image coding unit 1000, for example, used to determine the quantization parameter.

画像符号化部1000には、動画像または静止画像である原画像10が、所定の処理単位(例えば、マクロブロック、サブブロックまたは1画素などの小画素ブロック)に分割されたうえで入力される。 The image coding unit 1000, the original image 10 is a moving image or a still image is input after having been divided into predetermined processing units (e.g., macroblock, subblock, or small pixel blocks such as 1 pixel) . 尚、上記処理単位はフレームまたはフィールドでもよい。 The above processing units may be a frame or a field. 以下の説明では、特に断りのない限り上記処理単位をマクロブロックとし、処理対象であるマクロブロック単位の原画像10を特に符号化対象ブロックと称する。 In the following description, in particular the processing unit unless otherwise specified by a macro block, the original image 10 in units of macroblocks to be processed is referred to as a particular block to be coded.

符号化対象ブロックのサイズは、図6Aに示すような16×16画素、図6Bに示すような8×8画素、或いは図6Cに示すような4×4画素であってもよいし、図示しないその他のサイズ(例えば32×32画素)でもよい。 Size of the encoding target block, 16 × 16 pixels as shown in FIG. 6A, 8 × 8 pixels as shown in FIG. 6B, or may be a 4 × 4 pixels as shown in FIG. 6C, not shown It may be other sizes (e.g., 32 × 32 pixels). また、マクロブロックの形状は、正方形状に限らず任意形状でよいが、以下の説明では、マクロブロックの形状は正方形状であるものとする。 The shape of the macro blocks may be any shape not limited to the square shape, in the following description, the shape of the macro-block is assumed to be square.

また、原画像10の符号化対象フレームを構成する各符号化対象ブロックに対する符号化処理順序は任意であるが、以下の説明では、図5に示すように左上から右下に至るまで、いわゆるラスタ・スキャン順に処理が行われるものとする。 Although the encoding processing order is arbitrary for each encoding target block constituting the target frame of the original image 10, in the following description, from the upper left as shown in FIG. 5 up to the lower right, a so-called raster scan order of processing is intended to be carried out.

インター予測部101は、後述する参照画像メモリ107から取得した参照画像(参照画像信号)17と、後述する動きベクトル導出部124から入力される複数の動きベクトル情報18と、符号化制御部130から通知される予測情報22とに基づきインター予測を行って、符号化対象ブロックの予測画像(予測画像信号)11を生成する。 Inter prediction unit 101, the reference image the reference image acquired from the memory 107 (reference image signal) 17 to be described later, a plurality of motion vector information 18 inputted from the motion vector derivation unit 124 to be described later, the coding control unit 130 performing inter prediction based on the prediction information 22 to be notified, and generates a predicted image (prediction image signal) 11 of the encoding target block. インター予測部101は、予測画像11を減算部102及び加算部106に入力する。 Inter prediction unit 101 inputs the predicted image 11 to the subtracting unit 102 and the addition unit 106. 尚、インター予測部101による予測処理は、図1の画像符号化装置が行う特徴的な予測処理に過ぎず、図1の画像符号化装置は、いわゆる通常のインター予測処理及びイントラ予測処理を選択的に行って予測画像11を生成してもよい。 Incidentally, the prediction process by the inter prediction section 101, only the characteristic prediction process performed by the image encoding apparatus of FIG. 1, the image encoding device of Figure 1, select the inter-prediction and intra prediction processing of so-called normal it may generate a predicted image 11 performed manner. インター予測部101による予測処理の詳細は後述する。 The details will be described later prediction processing by the inter prediction section 101.

減算部102は、符号化対象ブロックより予測画像11を減算し、予測誤差(予測誤差信号)12を変換・量子化部103に入力する。 Subtracting unit 102 subtracts the predicted image 11 from the encoding target block, and inputs the prediction error (prediction error signal) 12 to the transform and quantization unit 103.

変換・量子化部103は、減算部102からの予測誤差12に対して変換処理・量子化処理を行って、量子化された変換係数(以下、単に量子化変換係数と称する)13をエントロピー符号化部104及び逆変換・逆量子化部105に入力する。 Transform and quantization unit 103 performs a conversion processing and quantization processing on the prediction error 12 from subtracting unit 102, the quantized transform coefficients (hereinafter, simply referred to as quantized transform coefficients) 13 entropy codes input to the unit 104 and the inverse transform and inverse quantization unit 105. 上記変換処理は、例えば離散コサイン変換(DCT;Discrete Cosine Transform)、ウェーブレット変換または独立成分解析などである。 The conversion process, for example, discrete cosine transform (DCT; Discrete Cosine Transform), and the like wavelet transform or independent component analysis. 上記量子化処理は、符号化制御部130によって設定される量子化パラメータに従って行われる。 The quantization process is carried out according to the quantization parameter set by the encoding control unit 130.

エントロピー符号化部104は、変換・量子化部103からの量子化変換係数13、符号化制御部130からの動きベクトルブロック情報21、予測情報22及び量子化パラメータ等を含む符号化パラメータに対しエントロピー符号化を行って、符号化データ14を出力バッファ112に入力する。 The entropy encoding unit 104 entropy to coding parameters including the motion vector block information 21, the prediction information 22 and the quantization parameter or the like from the quantized transform coefficients 13, the encoding control unit 130 from the transform and quantization unit 103 performs coding, inputs the coded data 14 to the output buffer 112. 上記エントロピー符号化処理は、例えば等長符号化、ハフマン符号化または算術符号化等である。 The entropy encoding process, for example, equal-length coding, a Huffman coding or arithmetic coding or the like. 尚、従来の画像符号化装置は、インター予測を行った場合には動きベクトル情報18を符号化する必要があるが、図1の画像符号化装置は、上記動きベクトル情報18の符号化を行わず、動きベクトルブロック情報21を符号化する。 Incidentally, the conventional image coding apparatus, when performing inter prediction, it is necessary to encode the motion vector information 18, the image encoding device of Figure 1, perform the coding of the motion vector information 18 not, encoding motion vector block information 21. 符号化データ14は、多重化された状態で出力バッファ112に一時的に蓄積され、符号化制御部130によって管理される出力タイミングに応じ、図1の画像符号化装置の外部に出力される。 Encoded data 14 is temporarily stored in the output buffer 112 in a state of being multiplexed, according to the output timing managed by the encoding control unit 130 is output to the outside of the image encoding apparatus of FIG. ここで、図1の画像符号化装置の外部とは、図示しない蓄積系(蓄積メディア)または伝送系(通信回線)である。 Here, the external image encoding apparatus of FIG. 1, a not-shown storage system (storage medium) or a transmission system (communication line).

逆変換・逆量子化部105は、変換・量子化部103からの量子化変換係数13に対して、逆量子化・逆変換を行って予測誤差12を復号化し、復号予測誤差15として加算部106に入力する。 Inverse transform and inverse quantization unit 105, the quantized transform coefficients 13 from the transform and quantization unit 103, decodes the prediction error 12 by performing inverse quantization and inverse transform, the adding unit as a decoded prediction error 15 input to 106. 上記逆量子化処理は、符号化制御部130によって設定される量子化パラメータに従って行われる。 The inverse quantization process is carried out according to the quantization parameter set by the encoding control unit 130. また、上記逆変換処理は、前述した変換処理の逆変換処理であって、例えば逆離散コサイン変換(IDCT;Inverse Discrete Cosine Transform)または逆ウェーブレット変換などである。 Further, the inverse conversion process is a reverse conversion of the conversion processing described above, for example, inverse discrete cosine transform; and the like (IDCT Inverse Discrete Cosine Transform) or inverse wavelet transform.

加算部106は、逆変換・逆量子化部105からの復号予測誤差15と、インター予測部101からの予測画像11とを加算し、符号化対象ブロックの局所復号画像16を生成する。 Addition unit 106, the decoded prediction error 15 from the inverse transform and inverse quantization unit 105, adds the predicted image 11 from the inter prediction unit 101, it generates a local decoded image 16 of the encoding target block. 加算部106は、局所復号画像(局所復号画像信号)16を参照画像メモリ107に参照画像(参照画像信号)17として記憶させる。 Addition unit 106, and stores as a reference image (reference image signal) 17 in the reference image memory 107 the local decoded image (local decoded image signal) 16.

参照画像メモリ107には、例えばフレーム単位で参照画像17が記憶され、インター予測部101によって必要に応じて読み出される。 In the reference picture memory 107, for example the reference image 17 in frame units is stored and read out as required by the inter prediction section 101.

動きベクトル導出部124は、符号化制御部130からの動きベクトルブロック情報21及び予測情報22に基づき、複数の動きベクトル情報18を導出する。 Motion vector derivation unit 124, based on the motion vector block information 21 and the prediction information 22 from the coding control unit 130 derives a plurality of motion vector information 18. 具体的には、図2に示すように、動きベクトル処理部108及び参照動きベクトルメモリ109を有する。 Specifically, as shown in FIG. 2, a motion vector processing unit 108 and the reference motion vector memory 109.

動きベクトル処理部108は、符号化制御部130からの動きベクトルブロック情報21及び予測情報22に基づき、参照動きベクトルメモリ109から参照動きベクトル情報19を取得し、複数の動きベクトル情報18を導出する。 Motion vector processing unit 108, based on the motion vector block information 21 and the prediction information 22 from the coding control unit 130, a reference motion vector information 19 from the reference motion vector memory 109 obtains, derives a plurality of motion vector information 18 . 尚、動きベクトル処理部108による動きベクトル導出処理の詳細は後述する。 The details of the motion vector derivation process according to the motion vector processing unit 108 will be described later.

参照動きベクトルメモリ109には、既に符号化済みの動きベクトル情報18が、参照動きベクトル情報19として一時的に保存される。 A reference motion vector memory 109, already coded motion vector information 18 is temporarily stored as a reference motion vector information 19. より詳細には、図11に示すように、参照動きベクトルメモリ109には、参照動きベクトル情報19がフレーム単位で保存され、参照動きベクトルフレーム114を形成している。 More specifically, as shown in FIG. 11, the reference motion vector memory 109, the reference motion vector information 19 is stored in units of frames, and forms a reference motion vector frame 114. 参照動きベクトルメモリ109には、符号化済みの動きベクトル情報18が順次入力され、時間的位置に応じた参照動きベクトルフレーム114を構成する参照動きベクトル情報19として保存される。 A reference motion vector memory 109, coded motion vector information 18 is sequentially inputted and stored as a reference motion vector information 19 constituting the reference motion vector frame 114 corresponding to the temporal position. 図11において、参照動きベクトルフレーム114を構成する参照動きベクトル情報19の動き補償ブロックサイズは4×4画素であるが、2×2画素や1画素単位でもよく、また、矩形状に限らず任意形状でもよい。 11, although the motion compensation block size of the reference motion vector information 19 constituting the reference motion vector frame 114 is 4 × 4 pixels, it may be a 2 × 2 pixels and one pixel unit, also not limited to a rectangular shape optionally it may be in shape. また、図10に示すように、動きベクトルブロック28は4×4の16個の参照動きベクトル情報19の集合であるが、動きベクトルブロック28の具体的態様はこれに限られない。 Further, as shown in FIG. 10, although the motion vector block 28 is a set of 16 reference motion vector information 19 of 4 × 4, embodiments of the motion vector block 28 is not limited to this.

以下、図3を用いて動きベクトルブロック処理部108による動きベクトル導出処理を説明する。 Hereinafter, describing the motion vector derivation process according to the motion vector block processing unit 108 with reference to FIG. 図3に示すように、動きベクトルブロック処理部108は、動きベクトルブロック生成部110及び動きベクトル生成部111を有する。 As shown in FIG. 3, the motion vector block processor 108, a motion vector block generating unit 110 and the motion vector generation unit 111.

動きベクトルブロック生成部110は、動きベクトルブロック情報21を取得し、当該動きベクトルブロック情報21に応じた参照動きベクトル情報19の集合である動きベクトルブロック28を生成する。 Motion vector block generating unit 110 obtains the motion vector block information 21, and generates the motion vector block 28 is a set of reference motion vector information 19 in accordance with the motion vector block information 21. 動きベクトルブロック生成部110は、動きベクトルブロック28を動きベクトル生成部111に入力する。 Motion vector block generator 110 are input to vector generator 111 motion the motion vector block 28.

動きベクトルブロック情報21は、図12に示すように、参照動きベクトルフレーム114内における動きベクトルブロック28の空間的位置を示す情報である。 Motion vector block information 21, as shown in FIG. 12, information indicating the spatial position of the motion vector block 28 in the reference motion vector frame 114. 以下の説明では、参照動きベクトルフレーム114内において、符号化対象ブロックの左上頂点と同一位置を基準点とし、当該基準点から上記動きベクトルブロック28の左上頂点までの空間的シフト量を動きベクトルブロック情報21とする。 In the following description, in the reference motion vector frame 114, the same position as the upper left vertex of the encoding target block and a reference point, the vector block motion spatial shift amount from the reference point to the upper left corner of the motion vector block 28 and information 21. 本実施形態において、輝度信号に関し、参照動きベクトル情報19の動き補償ブロックサイズは4×4画素なので、動きベクトルブロック情報21は、次の数式(1)に示すような4×4画素精度の情報である。 In the present embodiment, with respect to the luminance signal, since the motion compensation block size of the reference motion vector information 19 is a 4 × 4 pixels, the motion vector block information 21, information of 4 × 4-pixel accuracy as shown in the following equation (1) it is.

数式(1)において、(blk_x, blk_y)は符号化対象ブロックの左頂点位置のフレーム内における垂直方向及び水平方向のインデクス(座標)を示し、(mvblk_x_pos, mvblk_y_pos)は動き補償ブロック28の左頂点位置の参照動きベクトルフレーム114内における垂直方向及び水平方向のインデクスを示し、(mvblk_x, mvblk_y)は動きベクトルブロック情報21の垂直方向及び水平方向成分を示している。 In Equation (1), (blk_x, blk_y) represents the index (coordinates) of the vertical and horizontal directions in the frame of the left vertex position of the encoding target block, (mvblk_x_pos, mvblk_y_pos) left vertex of the motion compensation block 28 shows the vertical and horizontal indices in the position of the reference motion vector frame 114, (mvblk_x, mvblk_y) indicates the vertical and horizontal components of the motion vector block information 21. 動きベクトルブロック28のサイズと、当該動きベクトルブロック28内に含まれる参照動きベクトル情報19の数との関係は、図13に示す通りである。 Relationship between the size of the motion vector block 28, the number of reference motion vector information 19 contained in the motion vector block 28 is shown in FIG. 13. 尚、動きベクトルブロック情報21は、既に符号化済みの他の動きベクトルブロックベクトル情報21に対する差分によって表現されてもよい。 The motion vector block information 21 may be already expressed by the difference from the other motion vector block vector information 21 already encoded.

尚、動きベクトルブロック28のサイズは、符号化対象ブロックと同サイズであってもよいし、符号化対象ブロックを分割したサイズでもよい。 The size of the motion vector block 28 can be the encoding target block and the same size, or the size obtained by dividing the encoding target block. 例えば、符号化対象ブロックが16×16画素ブロックであれば、動きベクトルブロック28は16×16画素ブロック、16×8画素ブロック、8×16画素ブロック、8×8画素ブロック、8×4画素ブロック、4×8画素ブロックまたは4×4画素ブロックのいずれでもよい。 For example, if the encoding target block is 16 × 16 pixel block, the motion vector block 28 16 × 16 pixel blocks, 16 × 8 pixel block, 8 × 16 pixel block, 8 × 8 pixel blocks, 8 × 4 pixel block It may be either a 4 × 8 pixel block or 4 × 4 pixel block. 動きベクトルブロック28のサイズを、符号化対象ブロックを分割したサイズとする場合、当該分割数に応じた数の動きベクトルブロック情報21が取得されることが望ましい。 The size of the motion vector block 28, if the size obtained by dividing the encoding target block, it is desirable that the number of motion vector block information 21 in accordance with the division number is obtained.

ここで、動きベクトルブロックベクトル情報21を利用することの技術的意義を説明する。 Here will be described the technical significance of utilizing the motion vector block vector information 21.
動きベクトルブロック28には、例えば図10に示すように4×4の計16個の参照動きベクトル情報19が含まれており、後述するインター予測部101は当該16個の参照動きベクトル情報19を符号化対象ブロックに適用することができる。 The motion vector block 28, for example 10 to includes a total of 16 reference motion vector information 19 of 4 × 4 as shown, the inter prediction unit 101 the 16 reference motion vector information 19 to be described later it can be applied to the encoding target block. 例えば符号化対象ブロックのサイズが16×16画素であれば、インター予測部101はこれを更に分割した4×4画素ブロック単位での動き補償を行うことが可能となり、インター予測処理の精度向上が期待できる。 For example, if the size of 16 × 16 pixels of the encoding target block, the inter prediction section 101 becomes possible to perform motion compensation in the 4 × 4 pixel block of which was further divided, improve the accuracy of inter prediction process It can be expected. また、H.264では個々の動きベクトル情報18を符号化する必要があるが、前述したようにエントロピー符号化部104は上記動きベクトルブロック28に含まれる個々の参照動きベクトル情報19を動きベクトル情報18として符号化する必要は無く、動きベクトルブロック情報21のみを符号化すればよい。 Further, it is necessary to encode an individual motion vector information 18 in H.264, motion vector information of each reference motion vector information 19 included in the above motion vector block 28 the entropy coding unit 104, as described above 18 need not be encoded as may be coded only the motion vector block information 21. 従って、本実施形態に係る画像符号化装置によれば、動きベクトル情報に関する符号量(オーバーヘッド)を削減することができる。 Therefore, according to the image coding apparatus according to the present embodiment, it is possible to reduce the code amount related to the motion vector information (overhead). また、H.264における動きベクトル情報は、1/4画素精度の情報であるのに対し、動きベクトルブロック情報21は4画素精度の情報であるので、情報量は1/16程度に抑えられる。 The motion vector information in H.264, compared to the information of the 1/4-pixel accuracy, since the motion vector block information 21 is a 4-pixel accuracy information, the information amount is suppressed to about 1/16.

また、動きベクトルブロック情報21は、外部から与えられてもよいし、いわゆる動き探索処理を利用して動きベクトルブロック28を参照動きベクトルフレーム114から実際に探索することにより導出されてもよい。 The motion vector block information 21 may be supplied from the outside, may be derived by actually searched from the reference motion vector frame 114 the motion vector block 28 by utilizing a so-called motion search. 上記動き探索処理において、後述する数式(5)または(6)に示すコストを利用してもよい。 In the motion search may be used cost shown in Equation (5) or (6) described later. 参照動きベクトルフレーム114において符号化対象ブロックと同一位置から、上記動き探索処理の結果得られた最適な動きベクトルブロック28までの空間的シフト量が動きベクトルブロック情報21として利用される。 From the same position and the encoding target block in the reference motion vector frame 114, the spatial shift of up resulting optimum motion vector block 28 of the motion search is used as the vector block information 21 motion.

動きベクトル生成部111は、動きベクトルブロック生成部110からの動きベクトルブロック28に含まれる参照動きベクトル情報19に基づき、符号化対象ブロックを分割した複数の小画素ブロック(小画素ブロック信号)23の各々に関する動きベクトル情報18を生成し、出力する。 Motion vector generation unit 111, the motion based on the reference motion vector information 19 contained in the motion vector block 28 from the vector block generator 110, a plurality of small pixel blocks obtained by dividing the encoding target block (small pixel block signal) 23 It generates motion vector information 18 for each, and outputs. 具体的には、動きベクトル生成部111は、小画素ブロック23に関する動きベクトル情報18として、適切な参照動きベクトル情報19を代入する。 Specifically, the motion vector generation unit 111, as the motion vector information 18 about the small pixel block 23, substituting the appropriate reference motion vector information 19. 例えば、小画素ブロック23のブロックサイズと、参照動きベクトル情報19の動き補償ブロックサイズが一致しているならば、各小画素ブロック23と各参照動きベクトル情報19とが位置的に一対一に対応するので、動きベクトル生成部111は小画素ブロック23に対応する動きベクトル情報18として当該小画素ブロック23に位置的に対応する参照動きベクトル情報19を逐次代入すればよい。 For example, the block size of the small pixel block 23, if the motion compensation block size of the reference motion vector information 19 matches, with each small pixel block 23 and the reference motion vector information 19 correspond one-to-one positionally since, the motion vector generating unit 111 may be sequentially assigns a reference motion vector information 19 positionally corresponding to the small pixel block 23 as the motion vector information 18 corresponding to small pixel block 23. 小画素ブロック23のブロックサイズと、参照動きベクトル情報19の動き補償ブロックサイズとが異なる場合には、動きベクトル生成部111は例えば小画素ブロック23と空間的位置が重複する動き補償ブロックに対応する参照動きベクトル情報19を代入すればよい。 And the block size of the small pixel block 23, if the motion compensation block size of the reference motion vector information 19 are different, motion vector generation unit 111 is, for example, small pixel blocks 23 and spatial position corresponds to the motion compensation block overlapping the reference motion vector information 19 may be substituted.

また、動きベクトル生成部111は、小画素ブロック23に対応する動きベクトル情報18として参照動きベクトル情報19をそのまま代入するのでなく、以下のような変形を加えてよい。 The motion vector generation unit 111, instead of directly substituting the reference motion vector information 19 as the motion vector information 18 corresponding to the small pixel block 23, may be added the following modifications.

(A)参照動きベクトル情報19の反転ベクトル(マイナス値)を代入 (B)参照動きベクトル情報19と、当該参照動きベクトル情報19に隣接する参照動きベクトル情報との加重平均値、メディアン値、最大値または最小値を代入 (C)参照フレーム番号または動きベクトルブロックの時間的位置に応じ、参照動きベクトルを正規化した値を代入 ここで、正規化は、参照動きベクトル情報19が参照するフレームの時間的距離と、符号化対象ブロックが参照するフレームの時間的距離とが異なる場合に行われることが望ましい。 An inverting assignment vector (negative values) (B) reference motion vector information 19 (A) reference motion vector information 19, the weighted average value of the reference motion vector information adjacent to the reference motion vector information 19, the median value, the maximum depending on the temporal location of assigning the value or minimum value (C) reference frame number or the motion vector block, a reference motion vector here substituting normalized values, normalization of the frame reference motion vector information 19 is referenced a temporal distance, and time distance of the frame encoding target block refers is desirably carried out when different. 具体的には、参照動きベクトル情報19が属する参照動きベクトルフレーム114と、当該参照動きベクトル情報19が参照する参照画像17との間の時間的距離をTR、符号化対象ブロックの属するフレームと、当該符号化対象ブロックの参照画像17との間の時間的距離をTCとすると、参照動きベクトル情報19をTC/TR倍した値を動きベクトル情報18として代入すればよい。 Specifically, a reference motion vector frame 114 reference motion vector information 19 belongs, and frames belonging TR, the encoding target block temporal distance between the reference image 17 in which the reference motion vector information 19 is referenced, If the temporal distance between the reference image 17 of the coding target block and TC, a reference motion vector information 19 may be substituted as the vector information 18 motion TC / TR multiplied value.

尚、符号化対象ブロックをどのように複数の小画素ブロック23に分割するかは、予測情報22によって指定される。 Incidentally, how to divide into a plurality of small pixel block 23 to the coding target block is designated by the prediction information 22. 例えば、符号化対象ブロックが16×16画素のマクロブロックであれば、4×4画素ブロックや1画素等が小画素ブロック23の例として挙げられる。 For example, if a macroblock of the encoding target block is 16 × 16 pixels, 4 × 4 pixel block and one pixel, and the like as examples of a small pixel block 23. 前述したように参照動きベクトル情報19に基づいて、小画素ブロック23に関する動きベクトル18が生成されるため、参照動きベクトル情報19の動き補償ブロックサイズは、小画素ブロック23のブロックサイズ以下であることが望ましい。 Based on the reference motion vector information 19 as described above that, since the motion vector 18 is generated about the small pixel block 23, the motion compensation block size of the reference motion vector information 19 is less block size of the small pixel blocks 23 It is desirable 例えば、小画素ブロック23のブロックサイズが4×4画素であれば、参照動きベクトル情報19の動き補償ブロックサイズは4×4画素であってもよいし、2×2画素であってもよいし、1画素であってもよい。 For example, if the block size is 4 × 4 pixels of the small pixel block 23, the reference motion motion compensation block size of the vector information 19 may be a 4 × 4 pixels, may be a 2 × 2 pixels it may be one pixel.

以下、インター予測部101によるインター予測処理を説明する。 Hereinafter will be described the inter prediction process by the inter prediction section 101.
まず、インター予測部101によるインター予測処理が理解しやすいように、図1の画像符号化装置が利用可能なその他の予測処理を説明する。 First, as inter prediction operation is easily understood by the inter prediction section 101, the image encoding apparatus of FIG. 1 will be described other prediction process available. 図1の画像符号化装置は、複数の予測モードが利用可能であり、各予測モードは予測画像11を生成するための予測処理や動き補償ブロックサイズが互いに異なる。 Image encoding apparatus of FIG. 1, a plurality of prediction modes are available, each prediction mode is different from the prediction process and the motion compensation block size for generating the predicted image 11. 尚、予測モードは予測情報22によって指定される。 Incidentally, the prediction mode is designated by the prediction information 22. 上記予測処理は、空間方向の予測処理及び時間方向の予測処理に大別され、夫々イントラ予測(フレーム内予測)及びインター予測(フレーム間予測)と称される。 The prediction process can be broadly divided into predictive processing and temporal prediction processing in the spatial direction, it referred to as respectively the intra prediction (intraframe prediction) and inter prediction (inter-frame prediction). イントラ予測は、符号化対象ブロックと同一のフレームまたはフィールドの参照画像17を用いて予測画像11を生成する。 Intra prediction to generate a predicted image 11 using the reference image 17 of the encoding target block and the same frame or field. インター予測は、符号化対象ブロックと時間的位置の異なるフレームまたはフィールドの参照画像17用いて予測画像11を生成する。 Inter prediction generates a predicted image 11 using the reference image 17 of a different frame or field of the encoding target block and temporal position.

通常のインター予測に関して更に詳細に説明すると、例えば図7Aに示すように、参照画像17において符号化対象ブロックと同一位置から、動きベクトル情報18に応じて空間的にシフトした位置の画素ブロックを予測画像11として生成する。 With further described in detail with respect to a normal inter-prediction, for example, as shown in FIG. 7A, the same position as the coding target block in the reference picture 17, predicts a spatially shifted position of the pixel block in accordance with the motion vector information 18 generating an image 11. 尚、上記インター予測では、小数画素精度の動き補償が可能であり、例えばH.264では輝度信号に関して1/2画素精度及び1/4画素精度の動き補償が可能である。 In the above inter prediction, a possible motion compensation sub-pixel accuracy, it is possible to half the motion compensation pixel precision and quarter pixel precision with respect to the luminance signal in for example H.264. 1/4画素精度の動き補償を行う場合、動きベクトル情報18の情報量は整数画素精度の動き補償を行う場合の16(=4×4)倍となる。 When performing motion compensation of 1/4 pixel accuracy, the information amount of the motion vector information 18 becomes 16 (= 4 × 4) times in the case of performing the motion compensation of the integer pixel accuracy.

また、インター予測処理において、参照可能なフレーム数は1つに限られず、例えば図7Bに示すように、時間的位置が異なる複数の参照画像17を利用してもよい。 Also, in the inter prediction process, the number of possible reference frames is not limited to one, for example, as shown in FIG. 7B, may be used a plurality of reference images 17 having different temporal position. 複数の参照画像17を利用する場合、いずれの参照画像17が参照されたかは参照フレーム番号によって識別される。 When using a plurality of reference images 17, one of the reference image 17 is referenced it is identified by the reference frame number. 参照フレーム番号は、各画素領域単位(ピクチャまたはブロック単位など)で変更されてもよい。 Reference frame number may be changed in each pixel region units (such as pictures or blocks). 参照フレーム番号は、例えば符号化対象ブロックの属するフレームの1つ前のフレームに対して「0」、2つ前のフレームに対して「1」などが与えられる。 Reference frame number, for example "0" for the previous frame of the frame belongs encoding target block, such as "1" is given to the two previous frames. また、参照フレーム数が1である場合には、当該参照フレームの参照フレーム番号は「0」などで固定される。 Further, when the number of reference frames is one, the reference frame number of the reference frame is fixed in such "0".

また、インター予測処理において、複数の動き補償ブロックサイズの中から符号化対象ブロックに適したものを選択することができる。 Further, it is possible in the inter prediction process, selecting those suitable for the encoding target block from among a plurality of motion compensation block sizes. 具体的には、マクロブロックに関し、図8Aに示す16×16画素、図8Bに示す16×8画素、図8Cに示す8×16画素及び図8Dに示す8×8画素等が選択可能であり、サブマクロブロックに関し、図9Aに示す8×8画素、図9Bに示す8×4画素、図9Cに示す4×8画素及び図9Dに示す4×4画素等が選択可能である。 Specifically it relates macroblock is 16 × 16 pixels shown in FIG. 8A, 16 × 8 pixels shown in FIG. 8B, 8 × 8 pixels or the like as shown in 8 × 16 pixels, and FIG. 8D FIG. 8C selectable relates submacroblock, 8 × 8 pixels shown in FIG. 9A, 8 × 4 pixels shown in FIG. 9B, 4 × 4 pixels or the like as shown in 4 × 8 pixels and 9D shown in FIG. 9C is selectable. 上記動き補償ブロック毎に個別に動きベクトルを導出することが可能なので、符号化対象ブロックの局所的な性質に従って、最適な動き補償ブロックの形状(サイズ)及び動きベクトルが選択される。 Since it is possible to derive a motion vector separately for each of the motion compensation block, according to the local nature of the encoding target block, the shape of the optimal motion compensation block (size) and the motion vectors are selected.

図4に示すように、インター予測部101は、予測画像信号統合部115及び複数の動き補償部113を有する。 As shown in FIG. 4, the inter prediction unit 101 includes a prediction image signal integration unit 115 and a plurality of motion compensation unit 113.
複数の動き補償部113の各々は、符号化対象ブロックを分割した複数の小画素ブロック23の各々に対して小予測画像24を生成する。 Each of the plurality of motion compensation unit 113 generates a small prediction image 24 for each of a plurality of small pixel block 23 that divides the encoding target block. 動き補償部113は、小予測画像24を予測画像信号統合部115に入力する。 Motion compensation unit 113 inputs the small prediction image 24 to the prediction image signal integration section 115.

動き補償部113は、図14に示すように、参照画像17において小画素ブロック23と同一位置から、当該小画素ブロック23に関する動きベクトル情報18に応じて空間シフトした位置の画素ブロックを小予測画像(小予測画像信号)24として生成する。 Motion compensation unit 113, as shown in FIG. 14, from the same position and the small pixel block 23 in the reference image 17, the small prediction image pixel blocks of position space shifted according to the motion vector information 18 about the small pixel block 23 generating a (small prediction image signal) 24. 動き補償部113が小画素ブロック23に対して行う動き補償処理は、H.264における動き補償処理と同様に実現できる。 Motion compensation processing by the motion compensation unit 113 performs the small pixel block 23 may be implemented similarly to the motion compensation process in H.264. 具体的には、1/2画素精度や1/4画素精度の動き補償処理が利用可能である。 Specifically, 1/2 motion compensation processing pixel precision and quarter-pixel precision are available. 1/4画素精度までの動き補償を行う場合、小予測画像24の位置は以下の数式(2)によって定められる。 When performing motion compensation to 1/4 pixel accuracy, the position of the small prediction image 24 is determined by the following equation (2).

数式(2)におて、(x, y)は小画素ブロック23の左上頂点を示す水平方向のインデクス及び垂直方向のインデクス、(mv_x, mv_y)は動きベクトル情報18の水平方向成分及び垂直方向成分、(x_pos, y_pos)は小予測画像24の左上頂点を示す水平方向のインデクス及び垂直方向のインデクスを夫々示す。 And you in equation (2), (x, y) is the horizontal direction of the index and vertical index indicating the upper left corner of the small pixel blocks 23, (mv_x, mv_y) the horizontal component and the vertical motion vector information 18 component, (x_pos, y_pos) indicates respectively a horizontal index and vertical index indicating the upper left corner of the small prediction image 24. 小予測画像24の左上頂点(x_pos, y_pos)は、動きベクトル情報18の水平方向成分mv_x及び垂直方向成分mv_yが4の倍数であれば整数画素位置、4の倍数でない2の倍数であれば1/2画素位置、奇数であれば1/4画素位置である。 Upper left corner of the small prediction image 24 (x_pos, y_pos) is the integer pixel positions for a multiple of the horizontal component mv_x and vertical components mv_y the fourth motion vector information 18, if a multiple of 2 is not a multiple of 4 1 / 2 pixel position is 1/4 pixel position, if an odd number. 小予測画像24の左上頂点(x_pos, y_pos)が1/2画素位置または1/4画素位置であれば、画素値の補間処理が必要である。 Upper left corner of the small prediction image 24 (x_pos, y_pos) if 1/2 pixel positions or 1/4 pixel position, it is necessary to interpolation of the pixel values. 具体的には、図15において、左下斜線のみが付されたブロックは整数画素位置に対応する画素、左下斜線及び右下斜線が付されたブロックは1/2画素位置に対応する画素、その他のブロックは1/4画素位置に対応する画素を夫々示す。 Specifically, in FIG. 15, the blocks only lower left hatched pixel corresponding to the integer pixel positions, the pixel corresponding to the block lower left hatched and lower right hatched 1/2 pixel positions, other blocks respectively show the pixel corresponding to a quarter pixel position.

1/2画素位置に対応する画素の画素値b及びhは、以下の補間式(3)によって導出される。 Pixel values ​​b and h of the pixels corresponding to 1/2 pixel position is derived by the following interpolation formula (3).

数式(3)において>>は右シフト演算を示し、>>5は32で除算することに相当する。 In Equation (3) >> represents a right shift operation, >> 5 equivalent to dividing by 32. 即ち、1/2画素位置に対応する画素の画素値は、6タップFIR(Finite Impulse Response)フィルタ(タップ係数:(1,−5,20,20、−5,1)/32)を用いて生成される。 That is, the pixel values ​​of pixels corresponding to the 1/2-pixel position, 6-tap FIR (Finite Impulse Response) filter (tap coefficients: (1, -5,20,20, -5, 1) / 32) using It is generated.

また、1/4画素位置に対応する画素の画素値a及びdは、以下の補間式(4)によって導出される。 The pixel values ​​a and d of the pixels corresponding to the 1/4-pixel position is derived by the following interpolation formula (4).

即ち、1/4画素位置に対応する画素の画素値は、2タップの平均値フィルタ(タップ係数:(1/2,1/2))を用いて生成される。 That is, the pixel values ​​of pixels corresponding to 1/4-pixel location, 2-tap average filter (tap coefficients: (1 / 2,1 / 2)) are generated using. 尚、4つの整数画素位置の中間に存在する画素の画素値jは、垂直方向6タップFIRフィルタ及び水平方向6タップFIRフィルタを適宜組み合わせて生成される。 The pixel value j for pixels present in the middle of the four integer pixel positions is generated by combining the vertical 6-tap FIR filter and horizontal 6-tap FIR filter as appropriate. 例えば、垂直方向6タップFIRフィルタを用いて画素値cc、dd、h、m、ee、及びffを生成し、これらに水平方向6タップFIRフィルタを適用することにより画素値jが生成される。 For example, the pixel value cc with the vertical 6-tap FIR filter, dd, h, m, ee, and generates ff, pixel value j is generated by applying the horizontal 6-tap FIR filter in these. また、水平方向6タップFIRフィルタを用いて画素値aa、bb、b、s、gg及びhhを生成し、これらに垂直方向6タップFIRフィルタを適用することにより画素値jが生成される。 The pixel values ​​aa with horizontal 6-tap FIR filter, bb, b, s, and generates a gg and hh, pixel value j is generated by applying a vertical 6-tap FIR filter in these. その他の位置に対応する画素の画素値も同様の補間ルールに従って生成できる。 Pixel values ​​of pixels corresponding to the other positions can also be produced according to the same interpolation rules.

尚、数式(3)及び(4)とは異なる補間処理を行って、小数精度画素位置に対応する画素の画素値を生成してもよい。 Incidentally, by performing the different interpolation and equation (3) and (4) may generate the pixel values ​​of pixels corresponding to the decimal accuracy pixel position. また、補間係数は、前述したものに限らず、符号化制御部130によって固定値または可変値が設定されてもよい。 Further, the interpolation coefficient is not limited to those described above, a fixed value or a variable value by the encoding control unit 130 may be set. 更に、補間係数を可変とする場合、後述する符号化コストの観点からフレーム毎に補間係数が最適化されてもよい。 Furthermore, when the interpolation coefficients and variable interpolation coefficients for each frame in terms of coding cost, which will be described later, may be optimized.

予測画像信号統合部115は、複数の動き補償部113からの小予測画像24を統合し、符号化対象ブロックに対応する予測画像11を生成する。 Prediction image signal integration section 115 integrates the small prediction image 24 from a plurality of motion compensation unit 113 generates a predicted image 11 corresponding to the coding target block. 即ち、個々の小画素ブロック23に対応する小予測画像24を統合することにより、当該小画素ブロック23に分割する前の符号化対象ブロックに対応する予測画像11が得られる。 That is, by integrating the small prediction image 24 corresponding to each small pixel block 23, the predicted image 11 corresponding to the encoding target block before dividing into the small pixel block 23 is obtained. ここで、統合とは、小予測画像24をつなぎ合わせて、予測画像11を生成することを意味する。 Here, integration and is by joining the small prediction image 24, means that generates a predicted image 11.

以上説明したように、インター予測部101によるインター予測処理は、通常のインター予測処理とは異なり、動きベクトルブロック28を利用する点が特徴的である。 As described above, inter prediction process by the inter prediction section 101, unlike the conventional inter prediction operation, that utilizes a motion vector block 28 is characteristic. 以降、動きベクトルブロックを利用したインター予測処理を、動きベクトルブロック予測処理と称する。 Hereinafter, the inter prediction process using the motion vector block, referred to as motion vector block prediction process.

以下、図16を用いてインター予測部101による動きベクトルブロック予測処理の流れを説明する。 Hereinafter, the flow of the motion vector block prediction processing by the inter prediction section 101 with reference to FIG. 16. 尚、図16において符号化対象ブロックは16×16画素のマクロブロックとし、一連の処理が終了すると次の符号化対象ブロックに対する処理を行うものとする。 Note that the encoding target block is a macro block of 16 × 16 pixels in FIG. 16, a series of processing is completed and performs the processing for the next block to be coded.
まず、動きベクトルブロック生成部110は、動きベクトルブロック情報21に基づき符号化対象ブロックに対応する動きベクトルブロック28を生成する(ステップS401)。 First, the motion vector block generating unit 110 generates a motion vector block 28 corresponding to the encoding target block based on the motion vector block information 21 (step S401). 具体的には、動きベクトルブロック生成部110は、参照動きベクトルメモリ109に保存されている参照動きベクトルフレーム114において符号化対象ブロックと同一位置から上記動きベクトルブロック情報21に応じて空間的にシフトした位置における、参照動きベクトル情報19の集合を動きベクトルブロック28として生成する。 Specifically, the motion vector block generating unit 110, spatially shifted according the reference motion vector frame 114 stored in the reference motion vector memory 109 from the encoding target block in the same position in the motion vector block information 21 in position, to generate a set of reference motion vector information 19 as the motion vector block 28. 本例では、参照動きベクトル情報19の各々の動き補償ブロックサイズは4×4画素とし、動きベクトルブロック28には4×4の計16個の参照動きベクトル情報19が含まれる。 In this example, each of the motion compensation block size of the reference motion vector information 19 is a 4 × 4 pixels, the motion vector block 28 includes a total of 16 reference motion vector information 19 of 4 × 4.

次に、動きベクトル生成部111は、予測情報22に従って符号化対象ブロックを4×4画素の小画素ブロック23に分割する(ステップS402)。 Next, the motion vector generating unit 111 divides the encoding target block in the 4 × 4 pixels of the small pixel block 23 according to the prediction information 22 (step S402). 尚、小画素ブロック23の各々は、図17に示すような「0」から「15」までのインデクスが付与され、識別される。 Incidentally, each of the small pixel block 23, index "0" as shown in FIG. 17 to "15" is given, it is identified.

次に、動きベクトル生成部111は、現在処理対象としている小画素ブロック23を特定するための変数BlkIdxに初期値として「0」代入し(ステップS403)、処理はステップS404に進む。 Next, the motion vector generation unit 111, a small pixel block 23 which is currently processed is "0" substituted as an initial value to a variable BlkIdx for specifying (step S403), the process proceeds to step S404.

ステップS404では、変数BlkIdxに対応する小画素ブロック23に関する動きベクトル情報Vc(BlkIdx)として、適切な参照動きベクトル情報19を代入する。 In step S404, regarding the small pixel blocks 23 corresponding to the variable BlkIdx as the motion vector information Vc (BlkIdx), substituting the appropriate reference motion vector information 19. 本例では、小画素ブロック23のブロックサイズ(4×4画素)と、参照動きベクトル情報19の動き補償ブロックサイズ(4×4画素)とが一致しているため、図18に示すように、動きベクトル情報Vc(BlkIdx)には同一位置の参照動きベクトル情報Vr(BlkIdx)を代入することが望ましい。 In this embodiment, since the block size of the small pixel blocks 23 (4 × 4 pixels), the motion compensation block size of the reference motion vector information 19 (4 × 4 pixels) and match, as shown in FIG. 18, it is desirable for the motion vector information Vc (BlkIdx) which assigns a reference motion vector information Vr at the same position (BlkIdx).

次に、複数の動き補償部113のいずれか1つが、変数BlkIdxに対応する小画素ブロック23に関する動きベクトル情報Vc(BlkIdx)を用いて動き補償を行って、当該小画素ブロック23に対応する小予測画像24を生成する(ステップS405)。 Then, one of the plurality of motion compensation unit 113 performs motion compensation using the motion vector information Vc (BlkIdx) regarding small pixel blocks 23 corresponding to the variable BlkIdx, corresponding to the small pixel blocks 23 small generating a predicted image 24 (step S405).

次に、動きベクトル生成部111は、変数BlkIdxに対応する小画素ブロック23に関する動きベクトル情報Vc(BlkIdx)を参照動きベクトルメモリ109に保存させる(ステップS406)。 Next, the motion vector generator 111 to store the motion vector information Vc (BlkIdx) regarding small pixel blocks 23 corresponding to the variable BlkIdx the reference motion vector memory 109 (step S406). 動きベクトル生成部111は、変数BlkIdxを1インクリメントし(ステップS407)、変数BlkIdxと定数BLK_MAXとの大小比較を行う(ステップS408)。 Motion vector generating unit 111 increments the variable BlkIdx (step S407), it performs the comparison between variables BlkIdx and constants BLK_MAX (step S408). ここで、定数BLK_MAXは変数BlkIdxの最大値であり、本例では「15」が設定される。 Here, the constant BLK_MAX the maximum value of the variable BlkIdx, in this example is set to "15".

変数BlkIdxが定数BLK_MAXを超えれば(ステップS408)、処理はステップS409に進み、変数BlkIdxが定数BLK_MAX以下であれば(ステップS408)、処理はステップS404に戻る。 If it exceeds the variable BlkIdx is a constant BLK_MAX (step S408), the process proceeds to step S409, the long variable BlkIdx constants BLK_MAX less (step S408), the process returns to step S404.

ステップS409では、予測画像信号統合部115が、ステップS404乃至ステップS408の処理ループにより得られた全ての小予測画像24を統合し、符号化対象ブロックに対応する予測画像11を生成し(ステップS409)、当該符号化対象ブロックに対する動きベクトルブロック予測処理が終了する。 In step S409, the prediction image signal integration section 115 integrates all of the small prediction image 24 obtained by the processing loop of steps S404 to step S408, and generates a prediction image 11 corresponding to the encoding target block (step S409 ), the motion vector block prediction process on the coding target block is completed.

以下、動きベクトルブロック予測処理の適用例を、図19を用いて概念的に説明する。 Hereinafter, an application example of the motion vector block predicting process, will be described conceptually with reference to FIG. 19.
図19において、横軸が時間方向、縦軸が空間方向のうち垂直方向のみを夫々表す。 19, the horizontal axis is the time direction and the vertical axis respectively represent the only vertical direction in the spatial directions. より具体的には、時間tのフレームにおけるC0、C2、C8及びC10は、夫々符号化対象ブロックのインデクス0、2、8及び10に対応する小画素ブロック23を示している。 More specifically, C0, C2, C8 and C10 in the frame of time t indicates the small pixel blocks 23 corresponding to the index 0,2,8 and 10 of each block to be coded. 符号化対象ブロックに対応する動きベクトルブロック情報21に基づき、小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)として、参照動きベクトル情報Vr(0)、Vr(2)、Vr(8)及びVr(10)が夫々代入される。 Based on the motion vector block information 21 corresponding to the coding target block, small pixel blocks C0, C2, C8 and motion vector information Vc corresponding to C10 (0), Vc (2), Vc (8) and Vc (10) as a reference motion vector information Vr (0), Vr (2), Vr (8) and Vr (10) are respectively substituted. 小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)が生成されると、小予測画像P0、P2、P8及びP10が夫々生成される。 Small pixel blocks C0, C2, C8 and motion vector information Vc corresponding to C10 (0), Vc (2), when Vc (8) and Vc (10) is generated, the small prediction image P0, P2, P8 and P10 are respectively generated. このように、動きベクトルブロック予測処理が適用される場合、動きベクトルブロック情報21さえ符号化すれば、各小画素ブロック23に対する小予測画像24の生成において個別の動きベクトル情報18を利用することが可能となる。 Thus, if the motion vector block prediction processing is applied, as long as the encoded motion vector block information 21, to utilize separate motion vector information 18 in the generation of small predicted image 24 for each small pixel block 23 It can become. 一方、通常のインター予測処理では、小予測画像24の生成において個別の動きベクトル情報18を利用するためには、当該個別の動きベクトル情報18を符号化する必要がある。 On the other hand, in the conventional inter prediction process, in order to use a separate motion vector information 18 in the generation of the small prediction image 24, it is necessary to encode the individual motion vector information 18. この点において、動きベクトルブロック予測処理は、インター予測処理に比べて動きベクトル情報に関する符号量を削減できる。 In this regard, the motion vector block prediction process can reduce the code amount related to the motion vector information as compared with the inter prediction process.

以下、動きベクトルブロック予測処理の図19とは異なる例を、図20を用いて概念的に説明する。 Hereinafter, an example different from FIG. 19 of the motion vector block predicting process, will be described conceptually with reference to FIG. 20.
図19の例では、参照フレームが固定されていたが、前述したように参照フレームは任意に選択されてもよい。 In the example of FIG. 19, although the reference frame is fixed, the reference frame as described above may be arbitrarily selected. 図20に示す例では、いずれの参照フレームが参照されているかが参照フレーム番号によって識別されるものとし、当該参照フレーム番号には符号化対象ブロックの属するフレームから参照フレームまでの時間的シフト量に応じた値が設定されるものとする。 In the example shown in FIG. 20, it is assumed that any one reference frame is referenced is identified by the reference frame number, it is to the reference frame number to the time shift amount to the reference frame from the frame which belong encoding target block shall depending values ​​are set. 例えば、符号化対象ブロックの属するフレームの1つ前の参照フレームには「0」、2つ前の参照フレームには「1」が夫々参照フレーム番号として設定されるものとする。 For example, "0" to the previous reference frame of the frame belongs encoding target block, the two previous reference frames it is assumed that "1" is set as the respective reference frame number.

図20において、横軸が時間方向、縦軸が空間方向のうち垂直方向のみを夫々表す。 20, the horizontal axis is the time direction and the vertical axis respectively represent the only vertical direction in the spatial directions. より具体的には、時間tのフレームにおけるC0、C2、C8及びC10は、夫々符号化対象ブロックのインデクス0、2、8及び10に対応する小画素ブロック23を示している。 More specifically, C0, C2, C8 and C10 in the frame of time t indicates the small pixel blocks 23 corresponding to the index 0,2,8 and 10 of each block to be coded. 符号化対象ブロックに対応する動きベクトルブロック情報21に基づき、小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)として、参照動きベクトル情報Vr(0)、Vr(2)、Vr(8)及びVr(10)が夫々代入される。 Based on the motion vector block information 21 corresponding to the coding target block, small pixel blocks C0, C2, C8 and motion vector information Vc corresponding to C10 (0), Vc (2), Vc (8) and Vc (10) as a reference motion vector information Vr (0), Vr (2), Vr (8) and Vr (10) are respectively substituted. ここで、参照動きベクトル情報Vr(0)、Vr(2)、Vr(8)及びVr(10)には、参照フレーム内における空間的シフト量である参照動きベクトルのみならず、時間的シフト量である参照フレーム番号も含まれているものとし、当該参照フレーム番号も動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)として代入されるものとする。 Here, the reference motion vector information Vr (0), Vr (2), the Vr (8) and Vr (10), not only the reference motion vector is a spatial shift in the reference frame, the temporal shift also included is assumed that the reference frame number is, the motion vector information Vc (0) is also the reference frame number, Vc (2), shall be substituted as Vc (8) and Vc (10). 小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)が生成されると、小予測画像P0、P2、P8及びP10が夫々生成される。 Small pixel blocks C0, C2, C8 and motion vector information Vc corresponding to C10 (0), Vc (2), when Vc (8) and Vc (10) is generated, the small prediction image P0, P2, P8 and P10 are respectively generated. このように、動きベクトルブロック予測処理において、参照動きベクトルのみならず、参照フレーム番号をも小画素ブロック23に対応する動きベクトル情報18として代入することにより、小予測画像24の生成において参照フレームの異なる個別の動きベクトル情報18を利用できる。 Thus, in the motion vector block predicting process, not the reference motion vector only, by substituting the motion vector information 18 corresponding to the small pixel block 23 a reference frame number, the reference frame in the generation of the small prediction image 24 It can utilize different individual motion vector information 18.

以下、動きベクトルブロック予測処理におけるSKIPモードを説明する。 Hereinafter, explaining the SKIP mode in the motion vector block prediction process.
まず、動きベクトルブロック予測処理におけるSKIPモードが理解しやすいように、いわゆるH.264における空間SKIPモードを説明する。 First, as SKIP mode is easily understood in the motion vector block prediction process, explaining the spatial SKIP mode in the so-called H.264. 空間SKIPモードでは、符号化対象ブロックに関する動きベクトル情報18及び量子化変換係数13等の符号化が行われない。 In the spatial SKIP mode, the coding of motion vector information 18 and the quantized transform coefficient 13 concerning the encoding target block is not performed. 具体的には、図21に示すように、符号化対象ブロックに隣接する符号化済みマクロブロックA、B及びCの動きベクトル情報18のメディアン値によって参照される参照画像(符号化対象ブロックと同サイズ)がそのまま復号画像及び局所復号画像16として使用される。 More specifically, as shown in FIG. 21, the same as the encoded macroblocks A, the reference picture (encoding target block that is referenced by the median value of the B and C of the motion vector information 18 adjacent to the encoding target block size) is used directly as the decoded image and the local decoded image 16. 従って、空間SKIPモードによれば、符号化対象ブロックの動きベクトル情報18及び量子化変換係数13等を符号化する必要がない。 Therefore, according to the space SKIP mode, it is not necessary to encode the motion vector information 18 and the quantized transform coefficient 13 and the like of the encoding target block.

一方、動きベクトルブロック予測処理におけるSKIPモードは次の通りである。 On the other hand, SKIP mode in the motion vector block prediction process is as follows. 尚、以降の説明において、上記SKIPモードを動きベクトルブロックSKIPモードと称する。 In the following description, it referred to as a vector block SKIP mode motion the SKIP mode.

動きベクトルブロックSKIPモードでは、符号化対象ブロックに対応する動きベクトルブロック情報21を符号化しない。 The motion vector block SKIP mode, no encoding motion vector block information 21 corresponding to the encoding target block. 具体的には、既に符号化済であって、かつ、1つ前の参照動きベクトルフレーム114において空間的に同位置の動きベクトルブロック28が、符号化対象ブロックに対応する動きベクトルブロック28として用いられる。 Specifically, a pre already coded, and the motion vector block 28 spatially same position in the previous reference motion vector frame 114, used as the motion vector block 28 corresponding to the encoding target block It is. 即ち、動きベクトルブロック情報21は、「0(同位置)」となる。 That is, the motion vector block information 21 is "0 (same position)." また、動きベクトルブロックSKIPモードにおいても、符号化対象ブロックに対応する量子化変換係数13を符号化する必要はなく、動きベクトルブロック28に含まれる参照動きベクトル情報18によって参照される個々の参照画像(小画素ブロック23と同サイズ)が統合され、そのまま復号画像及び局所復号画像16として利用される。 Also in the motion vector block SKIP mode is not necessary to encode the quantized transform coefficient 13 corresponding to the coding target block, each reference picture referred to by the reference motion vector information 18 contained in the motion vector block 28 (same size as the small pixel block 23) are integrated, is used as it is as decoded image and the local decoded image 16.

動きベクトルブロックSKIPモードの他のバリエーションとして、既に符号化済みの隣接ブロックにおける動きベクトル情報18または動きベクトルブロック情報21を利用して、符号化対象ブロックに対応する動きベクトルブロック情報21を導出してもよい。 Other variations of the motion vector block SKIP mode, using the already motion vector information 18 or the motion vector block information 21 in the encoded adjacent blocks, to derive the motion vector block information 21 corresponding to the encoding target block it may be. 具体的には、複数の隣接ブロックに対応する動きベクトルブロック情報21のメディアン値、平均値、最大値または最小値などが、符号化対象ブロックに対応する動きベクトルブロック情報21として導出されてもよい。 Specifically, the median value of the motion vector block information 21 corresponding to a plurality of adjacent blocks, the mean value, maximum value or minimum value, etc., may be derived as the motion vector block information 21 corresponding to the encoding target block .

以下、動きベクトルブロック予測処理の双方向予測処理への適用例を説明する。 Hereinafter will be described an application example to the bidirectional prediction process of the motion vector block prediction process. H.264におけるBスライスでは、符号化対象ブロックに対して2つの動きベクトル情報18を導出し、当該2つの動きベクトル情報18に基づく予測画像の画素単位の加重平均によって最終的な予測画像11を生成する双方向予測処理が行われる。 In B slices in H.264, two motion vector information 18 derived for the encoding target block, the final predicted image 11 by a weighted average of the pixel unit of the prediction image based on the two motion vector information 18 bidirectional prediction process is performed to generate. 動きベクトルブロック予測処理を双方向予測処理に適用すると、1つの符号化対象ブロックに対し2つの動きベクトルブロック28が生成され、当該符号化対象ブロックを構成する小画素ブロック23の各々に対し2つの動きベクトル情報18が与えられる。 Applying motion vector block prediction process in the bidirectional prediction process, the one for the encoding target block has two motion vectors block 28 is generated, for each small pixel block 23 constituting the encoding target blocks of the two motion vector information 18 is given. 動き補償部113は、2つの動きベクトル情報18に基づき、各小画素ブロック23に対し既存の双方向予測処理と同様の予測処理を行って、小予測画像24を生成する。 Motion compensation unit 113, based on the two motion vector information 18, the relative small pixel block 23 performs a prediction process similar to the existing bidirectional prediction process to generate small prediction image 24.

例えば、図24Aに示すように、過去方向の2フレームから2つの動きベクトルブロックを生成する場合であれば、時間的距離の近い動きベクトルブロック情報及び動きベクトルブロックをリスト0動きベクトルブロック情報及びリスト0動きベクトルブロックとし、時間的距離の遠い動きベクトルブロック情報及び動きベクトルブロックをリスト1動きベクトルブロック情報及びリスト1動きベクトルブロックとして夫々識別することができる。 For example, as shown in FIG. 24A, in the case of generating two motion vectors block from the two frames in the past direction, lists close motion vector block information and the motion vector block of temporal distance 0 motion vector block information and the list 0 motion and vector blocks can be respectively identified farther motion vector block information and the motion vector block of temporal distance as a list 1 motion vector block information and list 1 motion vector block. 尚、リスト0及びリスト1を逆にしてもよい。 It is also possible to list 0 and list 1 reversed.

また、図24Bに示すように、過去方向の1フレーム及び未来方向の1フレームから1つずつ動きベクトルブロックを生成する場合であれば、過去方向のフレームに関する動きベクトルブロック情報及び動きベクトルブロックをリスト0動きベクトルブロック情報及びリスト0動きベクトルブロックとし、未来方向のフレームに関する動きベクトルブロック情報及び動きベクトルブロックをリスト1動きベクトルブロック情報及びリスト1動きベクトルブロックとして夫々識別することができる。 List Further, as shown in FIG. 24B, in the case of generating one each motion vector block from one frame of one frame and the future direction of the past direction, a motion vector block information and the motion vector block of historical direction of the frame 0 and the motion vector block information and the list 0 motion vector block may be respectively identify motion vector block information and the motion vector blocks for future direction of the frame as a list 1 motion vector block information and list 1 motion vector block. 尚、リスト0及びリスト1を逆にしてもよい。 It is also possible to list 0 and list 1 reversed.

その他、次の場合にも動きベクトルブロック予測処理を同様に適用可能である。 Other, is similarly applicable to also the motion vector block prediction if:.
(A)2つの動きベクトルブロックが同一フレームに存在する場合 (B)1つの符号化対象ブロックに対して3つ以上の動きベクトルブロックが生成される場合 以下、図1の画像符号化装置が使用するシンタクス構造を説明する。 (A) If the two motion vectors block has more than two motion vectors block is generated for the case (B) 1 one of the encoding target block existing in the same frame or less, using the image encoding apparatus of FIG. 1 the syntax structure to be described.
図25に示すように、図1の画像符号化装置が使用するシンタクス構造は、ハイレベルシンタクス901、スライスレベルシンタクス904及びマクロブロックレベルシンタクス907の3つのパートで構成される。 As shown in FIG. 25, the syntax structure used by the image encoding apparatus of FIG. 1, the high level syntax 901, consisting of three parts of the slice level syntax 904 and the macroblock level syntax 907. ハイレベルシンタクス901には、スライスよりも上位のレイヤ(シーケンスまたはピクチャ等)に関するシンタクス情報が記述され、シーケンスパラメータセットシンタクス902及びピクチャパラメータセットシンタクス903が含まれる。 The high level syntax 901, syntax information related to higher layers (sequence or picture etc.) than the slice is described, it contains a sequence parameter set syntax 902 and picture parameter set syntax 903. スライスレベルシンタクス904には、スライスに関するシンタクス情報が記述され、スライスヘッダシンタクス905及びスライスデータシンタクス906が含まれる。 The slice level syntax 904, syntax information about the slice is described, it includes a slice header syntax 905 and slice data syntax 906. マクロブロックレベルシンタクス907には、マクロブロックに関するシンタクス情報が記述され、マクロブロックレイヤーシンタクス908及びマクロブロックプレディクションシンタクス909が含まれる。 Macroblock level syntax 907, syntax information about the macroblock is described, it includes a macroblock layer syntax 908 and the macroblock prediction syntax 909.

図26に示すように、マクロブロックレイヤーシンタクス908には、マクロブロックタイプ情報mb_typeが記述される。 As shown in FIG. 26, the macroblock layer syntax 908, macroblock type information mb_type is described. マクロブロックタイプ情報mb_typeには、当該マクロブロックに対して行われた予測処理(イントラ予測またはインター予測等)や、ブロック形状等の情報が含まれる。 The macroblock type information mb_type, prediction processing was performed on the macroblock (intra prediction or inter prediction, etc.) and includes information such as block-shaped.

図27に示すように、マクロブロックプレディクションシンタクス909には、マクロブロック内の小画素ブロック単位(8×8画素ブロックや16×16画素ブロック等)の予測モード及び当該マクロブロックに対応する動きベクトルブロック情報21が記述される。 As shown in FIG. 27, the macroblock prediction syntax 909, a motion corresponding to the prediction mode and the macroblock of the small pixel block in the macroblock (8 × 8 pixel blocks or 16 × 16 pixel block, etc.) vector block information 21 is described. 図27において、前述したリスト0動きベクトルブロック情報(参照動きベクトルフレーム114内における空間的シフト量)がmvblk_l0、リスト1動きベクトルブロック情報がmvblk_l1で表現される。 27, the list 0 motion vector block information described above (spatial shift in the reference motion vector frame 114) is Mvblk_l0, list 1 motion vector block information is expressed in Mvblk_l1. 尚、1つの符号化対象ブロックに対し、1つの動きベクトルブロック28のみが用いられる場合にはリスト1動きベクトルブロック情報mvblk_1は記述されず、3つ以上の動きベクトルブロック28が用いられる場合にはリスト2動きベクトルブロック情報mvblk_2等が記述される。 Note that for one encoding target block, a list 1 motion vector block information mvblk_1 if only one motion vector block 28 is used is not described, when the three or more motion vectors block 28 are used Listing 2 motion vector block information mvblk_2 like are described.

また、マクロブロックプレディクションシンタクス909には、リスト0動きベクトルブロックが属する参照動きベクトルフレームを表す参照フレーム番号ref_mvblk_idx_l0及びリスト1動きベクトルブロックが属する参照動きベクトルフレームを表す参照フレーム番号ref_mvblk_idx_l1が記述される。 Further, in the macroblock prediction syntax 909, a reference frame number ref_mvblk_idx_l1 representing the reference motion vector frame list 0 reference frame number ref_mvblk_idx_l0 and list 1 motion vector block representing the reference motion vector frame motion vector block belongs belongs is described .

尚、リスト0動きベクトルブロック及びリスト1動きベクトルブロックが属する参照動きベクトルフレームが、既に符号化済みの1つ前の参照動きベクトルフレーム等に固定されている場合には、参照フレーム番号ref_mvblk_idx_l0及びref_mvblk_idx_l1を符号化する必要はない。 The reference motion vector frame list 0 motion vector block and list 1 motion vector block belongs, if it is already fixed to the encoded previous reference motion vector frame or the like of the reference frame number ref_mvblk_idx_l0 and ref_mvblk_idx_l1 it is not necessary to encode the. 参照フレーム番号ref_mvblk_idx_l0及びref_mvblk_idx_l1を符号化しない場合には、例えば「0」等の固定値が参照フレーム番号ref_mvblk_idx_l0及びref_mvblk_idx_l1として自動的に代入される。 When the reference frame numbers ref_mvblk_idx_l0 and Ref_mvblk_idx_l1 not coded, for example, a fixed value such as "0" is automatically substituted as a reference frame number ref_mvblk_idx_l0 and Ref_mvblk_idx_l1.

図27に示すマクロブロックプレディクションシンタクス909は、サブマクロブロック(8×8画素ブロック以下)に関しても同様に記述することが可能であり、一例を図28に示す。 Macroblock prediction syntax 909 shown in FIG. 27, it is possible to similarly described with regard sub-macroblock (8 × 8 pixel block hereinafter) shows an example in Figure 28.

尚、図26乃至28は、本実施形態に係る画像符号化装置が使用するシンタクス構造を例示しているに過ぎず、適宜変形を加えてもよい。 Incidentally, FIG. 26 through 28 are merely the image coding apparatus according to the present embodiment illustrates the syntax structure used, it may be added appropriately modified. 具体的には、図26乃至28において、その他のシンタクスエレメントが挿入されたり、その他の条件分岐に関する記述が含まれたりしてもよい。 Specifically, in FIG. 26 to 28, or is inserted other syntax elements may be or contain other conditions statements branch. また、図26乃至28において、シンタクステーブルを複数のテーブルに分割または統合したりしてもよい。 Further, in FIG. 26 to 28 may or split or integrated syntax table to multiple tables. また、図26乃至28において、記述されている用語を変更してもよい。 Further, in FIG. 26 to 28 may be modified terms are described. 更に、図26に示すマクロブロックレイヤーシンタクス908に記述されるシンタクスエレメントは、後述するマクロブロックデータシンタクスに記述されてもよい。 Further, syntax elements described in the macroblock layer syntax 908 illustrated in FIG. 26 may be described in the later-described macroblock data syntax.

以上説明したように、本実施形態に係る画像符号化装置は、符号化対象ブロックを更に細分化した小画素ブロックの各々に対応する動きベクトル情報を纏めた動きベクトルブロックを用いて予測処理を行い、上記動きベクトル情報の個々の符号化は行わず動きベクトルブロック情報を符号化している。 As described above, the image coding apparatus according to the present embodiment performs prediction processing using the motion vector block summarizing the motion vector information corresponding to each small pixel block obtained by further subdividing the target block to be encoded , each encoding of the motion vector information is coded motion vector block information without. 従って、本実施形態に係る画像符号化装置によれば、動きベクトル情報に関する符号量を削減しつつ、符号化対象ブロックよりも更に細かな小画素ブロック単位での動き補償予測を行えるため、高い符号化効率を実現できる。 Therefore, according to the image coding apparatus according to this embodiment, since that allows a while reducing the amount of code relating to motion vector information, the motion compensated prediction in finer small pixel block than the target block, high code the efficiency can be realized.

(第2の実施形態) (Second Embodiment)
図22に示すように、本発明の第2の実施形態に係る画像符号化装置は、上記図1に示す画像符号化装置において、インター予測部101を予測部116に置き換えている。 As shown in FIG. 22, the image coding apparatus according to a second embodiment of the present invention is an image encoding apparatus shown in FIG. 1, and replacing the inter prediction unit 101 to the prediction unit 116. 以下の説明では、図22において図1と同一部分には同一符号を付して示し、異なる部分を中心に述べる。 In the following description, in FIG. 1, the same parts in FIG. 22 are denoted by the same reference numerals, and the different component will be mainly described.

予測部116は、図23に示すように、インター予測部101、イントラ予測部117、モード判定部118及びモード選択スイッチ119を有する。 Prediction unit 116, as shown in FIG. 23, has an inter prediction unit 101, an intra prediction unit 117, mode judgment unit 118 and the mode selection switch 119.
インター予測部101は、第1の実施形態において説明した動きベクトルブロック予測を行って、予測画像11をモード選択スイッチ119に入力する。 Inter prediction unit 101 performs a motion vector block prediction described in the first embodiment, and inputs the predicted image 11 to the mode selection switch 119.

イントラ予測部117は、いわゆるH.264におけるイントラ予測処理を行う。 The intra prediction unit 117 performs intra prediction processing in the so-called H.264. H.264において図6Aに示す16×16画素ブロック単位のイントラ予測処理、図6Bに示す8×8画素ブロック単位のイントラ予測処理及び図6Cに示す4×4画素ブロック単位のイントラ予測処理が夫々規定されている。 Intra prediction processing of 16 × 16 pixel block shown in FIG. 6A in H.264, the intra prediction processing of 4 × 4 pixel block illustrated in intra prediction process and 6C of 8 × 8 pixel block shown in FIG. 6B respectively It is defined. いずれのイントラ予測処理においても、符号化対象ブロックと同一フレーム内の既に符号化済みのブロックの画素値をコピーすることによって予測画像11が生成される。 In any of the intra prediction process, the predicted image 11 is generated by already copied the pixel value of the coded block of the encoding target block and the same frame. イントラ予測部117は、予測画像11をモード選択スイッチ119に入力する。 The intra prediction unit 117 inputs the predicted image 11 to the mode selection switch 119.

モード判定部118は、符号化対象ブロック(またはスライス)に関する予測情報22に基づき、モード選択スイッチ119が選択すべき予測モードを判定し、判定結果を予測モード判定情報26としてモード選択スイッチ119に入力する。 Mode determination unit 118, based on the prediction information 22 about the encoding target block (or slice), and determines a prediction mode mode selection switch 119 is to be selected, the input to the mode selection switch 119 of the determination result as the prediction mode determination information 26 to.

モード判定部118は、符号化対象スライスがいわゆるIスライスであれば、モード選択スイッチ119をイントラ予測部117に接続させる。 Mode determination unit 118, if coded slice-called I-slice, to connect the mode selection switch 119 to the intra prediction unit 117. 一方、モード判定部118は、符号化対象スライスがいわゆるPスライスまたはBスライスであれば、コストに基づく予測モード判定を行う。 On the other hand, the mode determining unit 118, if coded slices called P slice or a B slice, performs a prediction mode determination based on cost.

モード判定部118は、例えば次の数式(5)に従ってコストを算出する。 Mode determination unit 118, for example, calculates the costs according to the following equation (5).

数式(5)において、Kは符号化コスト、SADは符号化対象ブロックと予測画像11との間の差分絶対値和(即ち、予測誤差12の絶対値和)、OHは予測情報22に関する符号量(例えば、動きベクトルブロック情報21の符号量及びブロック形状の符号量等)を夫々表す。 In Equation (5), K is the sum of absolute differences between the coding cost, SAD is a coding target block and the predicted image 11 (i.e., the sum of absolute values ​​of prediction errors 12), OH code amount related to prediction information 22 (e.g., code amount of the code amount and the block shape of the motion vector block information 21) indicating respectively a. また、λは量子化幅等によって定められるラグランジュ未定定数である。 Moreover, lambda is a Lagrange constant determined by the quantization width and the like. モード判定部118は、コストKの最も小さな予測モードを最適な予測モードとして選択し、予測モード判定情報26をモード選択スイッチ119に入力する。 Mode determination unit 118 selects the smallest prediction mode cost K as the best prediction mode, and inputs the prediction mode determining information 26 to the mode selection switch 119.

また、モード判定部118が利用可能なコストは、数式(5)におけるコストKに限られず、予測画像11のみに基づき算出された値や、SADのみに基づき算出された値や、予測画像11及びSADにアダマール変換を施した値及びこれに近似した値等であってもよい。 Moreover, the cost available mode determination unit 118 is not limited to the cost K in equation (5), only the calculated value and on the basis of the predicted image 11, only the calculated value and based on the SAD, the predicted image 11 and the Hadamard transform values ​​and may be a value such that approximates to subjected to SAD. また、モード判定部118は、符号化対象ブロックの画素値のアクティビティ(分散)に基づき算出された値や、量子化幅または量子化パラメータに基づき算出された値をコストとして利用してもよい。 The mode determination unit 118, the activity was calculated based on the (distributed) value of the pixel values ​​and the encoding target block may utilize calculated values ​​based on the quantization width or a quantization parameter as cost.

更に、モード判定部118は、インター予測部101からの予測画像11に対応する予測誤差12及びイントラ予測部117からの予測画像11に対応する予測誤差12を夫々仮符号化ユニットによって仮符号化した場合の発生符号量と、符号化対象ブロックと局所復号画像16との間の二乗誤差和とを用いて符号化コストを算出し、予測モード判定に利用してもよい。 Furthermore, the mode judgment unit 118, and temporarily encoded by the prediction error 12 respectively tentative coding unit corresponding to the predicted image 11 from the prediction error 12 and the intra prediction unit 117 corresponds to the predicted image 11 from the inter prediction unit 101 a generated code amount in the case, to calculate the encoding cost by using the squared error sum between the encoding target block and the local decoded image 16, may be used to the prediction mode determination. 具体的な符号化コストの算出式は次の数式(6)である。 Calculation formula of specific coding cost is the next equation (6).

数式(6)において、Jは符号化コスト、Dは符号化対象ブロックと局所復号画像16との間の二乗誤差和を表す符号化歪み、Rは仮符号化による発生符号量を夫々表す。 In Equation (6), J is the coding cost, D is encoding distortion representing a square error sum between the encoding target block and the local decoded image 16, R represents each a generated code amount by the temporary coding. λは数式(5)と同様である。 λ is the same as that of the equation (5). モード判定部118は、符号化コストJの最も小さな予測モードを最適な予測モードとして選択し、予測モード判定情報26をモード選択スイッチ119に入力する。 Mode determination unit 118 selects the smallest prediction mode coding cost J as the best prediction mode, and inputs the prediction mode determining information 26 to the mode selection switch 119.

数式(6)における符号化コストJを利用する場合、予測モード毎に仮符号化処理及び局所復号化処理が必要であるので、前述したその他のコストを利用する場合に比べて画像符号化装置の回路規模及び演算量は増大する。 When using the encoding cost J in Equation (6), since it is necessary to tentative coding processing and local decoding process for each prediction mode, the picture coding apparatus as compared with the case of using the other costs mentioned above circuit scale and the calculation amount is increased. しかしながら、符号化コストJは、前述したその他のコストに比べて予測モード判定の信頼度が高く、符号化効率の向上を期待できる。 However, the encoding cost J is high reliability of the prediction mode determination in comparison to other costs described above can be expected to improve the coding efficiency. また、モード判定部118は、数式(6)における符号化コストJをそのまま利用せずに、R及びDのいずれか一方のみに基づき算出されたコストを利用してもよいし、RまたはDの近似値に基づき算出されたコストを利用してもよい。 The mode determination unit 118, without it not utilize encoding cost J in Equation (6), may be utilized either cost calculated based on only one of R and D, R or D the cost calculated based on the approximate value may be used.

モード選択スイッチ119は、予測モード判定情報26に従ってインター予測部101及びイントラ予測部117のいずれか一方から予測画像11を取得する。 Mode selection switch 119 obtains the predicted image 11 from one of the inter prediction unit 101 and the intra prediction unit 117 according to the prediction mode determination information 26. モード選択スイッチ119によって取得された予測画像11は、減算部102及び加算部106に入力される。 Predicted image 11 acquired by the mode selection switch 119 is input to the subtraction unit 102 and the addition unit 106.

以上説明したように、本実施形態に係る画像符号化装置は、前述した第1の実施形態に係る動きベクトルブロック予測処理と、いわゆるイントラ予測処理とをマクロブロック毎、小画素ブロック毎またはフレーム毎に選択的に利用している。 As described above, the image coding apparatus according to this embodiment, the motion vector block prediction processing according to the first embodiment described above, so-called intra prediction process and a macro block basis, small pixel for each block or each frame It is utilized selectively to. 従って、本実施形態に係る画像符号化装置によれば、より符号化効率の高い予測処理が選択されるため、符号化効率の向上が期待できる。 Therefore, according to the image coding apparatus according to the present embodiment, more for higher prediction processing coding efficiency is selected, the improvement of coding efficiency can be expected.

(第3の実施形態) (Third Embodiment)
図29に示すように、本発明の第3の実施形態に係る画像符号化装置は、上記図22に示す画像符号化装置において、予測部116を予測部125に置き換え、動きベクトル推定部120を更に設けている。 As shown in FIG. 29, the image coding apparatus according to a third embodiment of the present invention is an image encoding apparatus shown in FIG. 22 is replaced with the prediction unit 125 the prediction unit 116, the motion vector estimation unit 120 It is further provided. 以下の説明では、図29において図22と同一部分には同一符号を付して示し、異なる部分を中心に述べる。 In the following description, in FIG. 22, the same parts in FIG. 29 are denoted by the same reference numerals, and the different component will be mainly described.

予測部125は、図30に示すように、第1インター予測部101、イントラ予測部117、第2インター予測部121、モード判定部122及びモード選択スイッチ123を有する。 Prediction unit 125, as shown in FIG. 30, a first inter prediction unit 101, an intra prediction unit 117, a second inter prediction unit 121, the mode determining unit 122 and the mode selection switch 123.

第1インター予測部101及びイントラ予測部117は、前述した動きベクトルブロック予測処理及びイントラ予測処理を夫々行って予測画像11を生成し、モード選択スイッチ123に入力する。 The first inter prediction unit 101 and the intra prediction unit 117, the motion vector block prediction process and an intra prediction process described above respectively performed to generate a predicted image 11, and inputs the mode selection switch 123. 尚、後述する第2インター予測部121と区別するために、図22におけるインター予測部101の名称を図29において第1インター予測部101へと便宜的に改めている。 In order to distinguish the second inter prediction unit 121 to be described later, it is conveniently reformed to a first inter prediction unit 101 in FIG. 29 the name of the inter prediction section 101 in FIG. 22.

第2インター予測部121は、いわゆるH.264におけるインター予測処理を行う。 The second inter prediction unit 121 performs inter prediction process in the so-called H.264. 第2インター予測部121は、後述する動きベクトル推定部120からの動きベクトル情報25と、参照画像メモリ107からの参照画像17とに基づき予測画像11を生成する。 The second inter prediction unit 121 generates the motion vector information 25 from the motion vector estimation unit 120 to be described later, the predicted image 11 based on the reference image 17 from the reference image memory 107. 第2インター予測部121は、図31に示すように1つの動き補償部126を有する。 The second inter prediction unit 121 has one motion compensation unit 126 as shown in FIG. 31.

動き補償部126は、動きベクトル情報25を用いて参照画像17の動き補償を行う。 The motion compensation unit 126 performs motion compensation for the reference image 17 using the motion vector information 25. 即ち、動き補償部126は、参照画像17において動きベクトル情報25が指し示す画素ブロックを予測画像11として出力する。 That is, the motion compensation unit 126 outputs the pixel block motion vector information 25 is indicated as a predicted image 11 in the reference image 17.

モード判定部122及びモード選択スイッチ123の基本的機能は、図23におけるモード判定部118及びモード選択スイッチ119と同様であるが、第2インター予測部121からの予測画像11を選択可能な点が異なる。 The basic functions of the mode determining unit 122 and the mode selection switch 123 is similar to the mode determination unit 118 and the mode selection switch 119 in FIG. 23, the point can be selected prediction image 11 from the second inter prediction unit 121 different. 尚、モード選択スイッチ119によって第2インター予測部121からの予測画像11が選択された場合、エントロピー符号化部104は動きベクトルブロック情報21ではなく動きベクトル情報25に対してエントロピー符号化処理を行う。 Incidentally, if the predicted image 11 from the second inter prediction unit 121 is selected by the mode selection switch 119, performs entropy coding on the entropy encoding unit 104 motion vector information 25 without the motion vector block information 21 .

以下、通常のインター予測処理と、動きベクトルブロック予測処理とを選択的に利用することの技術的意義を説明する。 Hereinafter, a conventional inter prediction process, the technical significance of the selective use of the motion vector block prediction process will be described.
通常のインター予測処理は、後述するように符号化対象ブロックに対するマッチングによって推定した動きベクトル情報25を利用するため、予測精度が高い。 Normal inter prediction operation, in order to utilize the motion vector information 25 estimated by matching for the encoding target block as described later, the prediction accuracy is high. しかしながら、符号化対象ブロックを分割するほど(即ち、動き補償対象ブロックを多く設けるほど)、符号化の必要な動きベクトル情報25も追随して増加するため符号量が増大する。 However, as to divide the current block (that is, as providing many motion compensation object block), the code amount increases to increase to follow also the motion vector information 25 needed for coding.

一方、動きベクトルブロック予測処理は、個々の動きベクトル情報18を符号化する必要は無いが、参照動きベクトル情報19の集合を動きベクトルブロック28として利用するため、第2インター予測処理に比べて動きベクトル情報18の選択の自由度が低い。 On the other hand, the motion vector block prediction process, is not necessary to encode an individual motion vector information 18, for using the set of reference motion vector information 19 as the motion vector block 28, as compared with the second inter prediction processing motion a low degree of freedom of choice of the vector information 18.

換言すれば、第2インター予測処理は予測誤差を抑える観点において、動きベクトル予測処理は符号量を抑える観点において夫々他方に比べて優れる。 In other words, the second inter prediction process in terms of suppressing the prediction errors, the motion vector prediction process is excellent compared to each other in view of suppressing the amount of code. 従って、両者を選択的に利用することにより、符号化効率を更に高めることが可能となる。 Therefore, by selectively utilizing both, it is possible to further improve the coding efficiency.

動きベクトル推定部120は、符号化対象ブロックと、参照画像17とに基づき動きベクトル情報25を推定する。 Motion vector estimation unit 120 estimates the coding target block, the motion vector information 25 based on the reference image 17. 具体的には、動きベクトル推定部120は、符号化対象ブロックと参照画像17の補間画像との間でブロックマッチングを行う。 Specifically, the motion vector estimation unit 120 performs block matching between the interpolated image of the encoding target block and the reference image 17. 動きベクトル推定部120は、上記ブロックマッチングにおいて例えば両者の間の誤差を画素毎に累積した値を算出し、当該累積値の最も小さくなる動きベクトル情報を動きベクトル情報25として推定する。 Motion vector estimation unit 120 calculates a value obtained by accumulating for each pixel the error between the example two in the block matching, estimated as vector information 25 motion smallest motion vector information of the accumulated value. また、動きベクトル推定部120は、上記累積値に何らかの変換を行って得られる値を評価値としてもよい。 The motion vector estimation unit 120, a value obtained by performing some transformation to the accumulated value may be used as the evaluation value. 更に、動きベクトル推定部120は、動きベクトル情報25の大きさや符号量、数式(5)または(6)を推定に利用してもよい。 Furthermore, the motion vector estimation unit 120, the size and the code amount of motion vector information 25, may be used to estimate the formula (5) or (6). また、動きベクトル推定部120は、符号化装置の外部から指定される探索範囲情報に基づいて探索範囲内を全探索してもよいし、画素精度に応じて階層的に探索してもよい。 The motion vector estimation unit 120, to be based on the search range information designated from the outside of the encoding device in the search range may be traversed, it may be hierarchically search according to the pixel accuracy. また、動きベクトル推定部120は、探索処理を行わず、符号化制御部130から入力される動きベクトル情報25を出力してもよい。 The motion vector estimation unit 120 does not perform the search process, may output the motion vector information 25 inputted from the encoding control unit 130.

前述した第1の実施形態に係る画像符号化装置は、図27に示すマクロブロックプレディクションシンタクス909を使用していたが、本実施形態に係る画像符号化装置は、図36に示すマクロブロックプレディクションシンタクス909を使用する。 The image coding apparatus according to the first embodiment described above, but uses a macroblock prediction syntax 909 illustrated in FIG. 27, the image coding apparatus according to this embodiment, macro block predictor shown in FIG. 36 using the action syntax 909.

図36において、mv_block_in_mb_flagは、マクロブロックに対して動きベクトルブロック予測処理が適用されるか否かを示すフラグである。 In Figure 36, Mv_block_in_mb_flag is a flag indicating whether the motion vector block prediction processing is applied to the macroblock. mv_block_in_mb_flagが「1(TRUE)」であればマクロブロックに対して動きベクトルブロック予測処理が適用され、「0(FALSE)」であればマクロブロックに対して動きベクトルブロック予測処理が適用されない。 mv_block_in_mb_flag motion vector block prediction processing is applied for a macroblock if it is "1 (TRUE)", "0 (FALSE)" motion vector block prediction process on the macroblock if does not apply. mv_block_in_mb_flagが「1(TRUE)」の場合には、図27に示すマクロブロックプレディクションシンタクス909と同様に、リスト0動きベクトルブロック情報mvblk_l0、リスト1動きベクトルブロック情報がmvblk_l1、リスト0動きベクトルブロックの参照フレーム番号ref_mvblk_idx_l0及びリスト1動きベクトルブロックの参照フレーム番号ref_mvblk_idx_l1等が記述される。 If mv_block_in_mb_flag is "1 (TRUE)", similarly to the macroblock prediction syntax 909 illustrated in FIG. 27, the list 0 motion vector block information Mvblk_l0, list 1 motion vector block information Mvblk_l1, the list 0 motion vector block reference frame number ref_mvblk_idx_l1 like reference frame number ref_mvblk_idx_l0 and list 1 motion vector block are described. 図36に示すマクロブロックプレディクションシンタクス909は、サブマクロブロック(8×8画素ブロック以下)に関しても同様に記述することが可能であり、一例を図37に示す。 Macroblock prediction syntax 909 illustrated in FIG. 36, it is possible to similarly described with regard sub-macroblock (8 × 8 pixel block hereinafter) shows an example in Figure 37.

本実施形態に係る画像符号化装置は、図32に示すシーケンスパラメータセットシンタクス902を使用する。 The image coding apparatus according to the present embodiment uses the sequence parameter set syntax 902 illustrated in FIG. 32. 図32において、mv_block_in_seq_flagは、シーケンス内で動きベクトルブロック予測処理が適用可能であるか否かを示すフラグである。 In Figure 32, Mv_block_in_seq_flag is a flag indicating whether motion or vector block prediction process can be applied in the sequence. mv_block_in_seq_flagが「1(TRUE)」であればシーケンス内で動きベクトルブロック予測処理の適用が可能であり、「0(FALSE)」であればシーケンス内で動きベクトルブロック予測処理の適用が不可能である。 mv_block_in_seq_flag are possible applications of the motion vector block prediction process in the "1 (TRUE)" a case if the sequence, it is impossible to apply the motion vector block prediction process in the sequence if it is "0 (FALSE)" .

本実施形態に係る画像符号化装置は、図33に示すピクチャパラメータセットシンタクス903を使用する。 The image coding apparatus according to the present embodiment uses the picture parameter set syntax 903 illustrated in FIG. 33. 図33において、mv_block_in_pic_flagは、ピクチャ内で動きベクトルブロック予測処理が適用可能であるか否かを示すフラグであり、前述したmv_block_in_seq_flagが「1(TRUE)」の場合に記述される。 In Figure 33, Mv_block_in_pic_flag is a flag indicating whether the motion vector block prediction process can be applied in the picture, is described when mv_block_in_seq_flag mentioned above is "1 (TRUE)". mv_block_in_pic_flagが「1(TRUE)」であればピクチャ内で動きベクトルブロック予測処理の適用が可能であり、「0(FALSE)」であればピクチャ内で動きベクトルブロック予測処理の適用が不可能である。 mv_block_in_pic_flag are possible applications of the motion vector block prediction process in the "1 (TRUE)" a case if a picture, it is impossible to apply the motion vector block prediction processing in the picture if it is "0 (FALSE)" .

本実施形態に係る画像符号化装置は、図34に示すスライダヘッダシンタクス905を使用する。 The image coding apparatus according to the present embodiment uses a slider header syntax 905 illustrated in FIG. 34. 図34において、mv_block_in_slice_flagは、スライス内で動きベクトルブロック予測処理が適用可能であるか否かを示すフラグであり、前述したmv_block_in_pic_flagが「1(TRUE)」の場合に記述される。 In Figure 34, Mv_block_in_slice_flag is a flag indicating whether the motion vector block prediction process in the slice are applicable, is described in the case mv_block_in_pic_flag mentioned above is "1 (TRUE)". mv_block_in_slice_flagが「1(TRUE)」であればスライス内で動きベクトルブロック予測処理の適用が可能であり、「0(FALSE)」であればスライス内で動きベクトルブロック予測処理の適用が不可能である。 mv_block_in_slice_flag are possible application of the motion vector block prediction process in the slice if "1 (TRUE)", it is impossible to apply the motion vector block prediction process in the slice if "0 (FALSE)" .

本実施形態に係る画像符号化装置は、図35に示すマクロブロックレイヤーシンタクス908を使用する。 The image coding apparatus according to the present embodiment uses a macroblock layer syntax 908 illustrated in FIG. 35. 図35において、mv_block_in_mb_flagは、前述したmv_block_in_slice_flagが「1(TRUE)」の場合に記述される。 In Figure 35, Mv_block_in_mb_flag is described when mv_block_in_slice_flag mentioned above is "1 (TRUE)".

尚、前述したフラグ(シンタクスエレメント)mv_block_in_seq_flag、mv_block_in_pic_flag、mv_block_in_slice_flag及びmv_block_in_mb_flagの初期値は「0(FALSE)」とする。 Note that the flag described above (syntax elements) mv_block_in_seq_flag, mv_block_in_pic_flag, the initial value of mv_block_in_slice_flag and mv_block_in_mb_flag is "0 (FALSE)".

また、上記シンタクスが示す情報はそれぞれ符号化して復号側に伝送しても良いし、上記シンタクスが示す情報は符号化して復号側に伝送せずに符号化済みの隣接ブロックにおける画素の相関関係や分散などのアクティビティ情報に応じて切り替えても良い。 Further, to each of the information which the syntax is shown may be transmitted to the decoding side by encoding the information the syntax indicates the Ya correlation of pixels in encoded adjacent blocks without transmitting to the decoding side is encoded it may be switched depending on the activity information, such as distributed.

また、本実施形態に係る画像符号化装置も、前述した動きベクトルブロックSKIPモードを使用可能である。 Further, the image coding apparatus according to the present embodiment can also be used for motion vector block SKIP mode described above. 動きベクトルブロックSKIPモードを適用する場合において、特定の条件下で前述したmv_block_in_mb_flag等のシンタクスエレメントの符号化が省略されてもよい。 In the case of applying the motion vector block SKIP mode, the coding of syntax elements mv_block_in_mb_flag etc. described above under certain conditions may be omitted. 上記特定の条件下とは、動きベクトルブロックSKIPモードを適用して得られる動きベクトルブロックを構成する全ての動きベクトル情報と、いわゆる空間SKIPモードを適用して得られる動きベクトル情報とが一致する場合である。 The above and certain conditions, if all the motion vector information constituting the motion vector block obtained by applying motion vector block SKIP mode, the motion vector information obtained by applying the so-called spatial SKIP mode matches it is.

以下、図38のフローチャートを用いて、mv_block_in_mb_flagの符号化省略処理を説明する。 Hereinafter, with reference to the flowchart of FIG. 38, illustrating an encoding omission processing Mv_block_in_mb_flag.
まず、動きベクトル生成部111は、動きベクトルブロックSKIPモードを適用した場合の動きベクトルブロック28に含まれる動きベクトル情報MVblk1、MVblk2、MVblk3、・・・、MVblk16を生成する(ステップS501)。 First, the motion vector generation unit 111, motion vector information included in the motion vector block 28 in the case of applying the motion vector block SKIP mode MVblk1, MVblk2, MVblk3, ···, generates a MVblk16 (step S501). 本例では、動きベクトルブロックのサイズは16×16画素とし、動きベクトル情報18の動き補償ブロックサイズは4×4画素としている。 In this example, the size of the motion vector block and 16 × 16 pixels, motion compensation block size of the motion vector information 18 is set to 4 × 4 pixels.

ステップS501において生成された動きベクトル情報MVblk1、MVblk2、MVblk3、・・・、MVblk16が全て等しければ処理はステップS503に進み、そうでなければ処理はステップS507に進む(ステップS502)。 Step motion generated in S501 vector information MVblk1, MVblk2, MVblk3, ···, processing equal all MVblk16 proceeds to step S503, otherwise processed, the process proceeds to step S507 (step S502).

ステップS503において、動きベクトル生成部111は空間SKIPモードを適用した場合の動きベクトル情報MVspaを符号化対象ブロックの隣接ブロックから導出する。 In step S503, the motion vector generating unit 111 derives the motion vector information MVspa of applying the spatial SKIP mode from neighboring blocks of the encoding target block. 動きベクトル情報MVspaと、動きベクトル情報MVblk1(=MVblk2=MVblk3=・・・=MVblk16)とが等しければ処理はステップS505に進み、そうでなければ処理はステップS507に進む(ステップS507)。 And motion vector information MVspa, processing being equal and the motion vector information MVblk1 (= MVblk2 = MVblk3 = ··· = MVblk16) proceeds to step S505, otherwise processed, the process proceeds to step S507 (step S507).

ステップS505において、mv_block_in_mb_flagには「0(FALSE)」が設定され、当該mv_block_in_mb_flagの符号化が省略され(ステップS506)、処理は終了する。 In step S505, the mv_block_in_mb_flag is set to "0 (FALSE)", the encoding of the mv_block_in_mb_flag is omitted (step S506), the process ends. また、ステップS507において、mv_block_in_mb_flagは符号化され、処理が終了する。 Further, in step S507, Mv_block_in_mb_flag is encoded, the process is terminated.

以上のように、mv_block_in_mb_flagの符号化省略処理を行うことにより、mv_block_in_mb_flagの不要な符号化を回避し、符号量を削減することが可能となる。 As described above, by coding omission processing Mv_block_in_mb_flag, avoiding unnecessary coding Mv_block_in_mb_flag, it is possible to reduce the amount of codes. 尚、mv_block_in_mb_flag以外にも、前述したmv_block_in_seq_flag、mv_block_in_pic_flag、mv_block_in_slice_flag及びマクロブロックを分割した小画素ブロックに関する動きベクトルブロック予測処理の適用の可否を示すシンタクスエレメントに対しても同様の符号化省略処理を行うことが可能である。 Incidentally, in addition mv_block_in_mb_flag, mv_block_in_seq_flag described above, Mv_block_in_pic_flag, by performing the same coding omitted treatment against syntax element indicating whether the application of the motion vector block prediction process related to small pixel blocks obtained by dividing the mv_block_in_slice_flag and macroblock it is possible. 即ち、上記説明において符号化対象ブロックのサイズをシーケンス、ピクチャ、スライス小画素ブロックに夫々置き換えればよい。 That is, the size of the encoding target block sequence, the picture may be replaced each slice small pixel block in the above description. また、動きベクトルブロックSKIPモード以外の、動きベクトルブロック予測処理が適用される場合には、リスト0及びリスト1動きベクトルブロック情報を予め符号化し、参照動きベクトルフレーム内における参照位置を特定すれば、同様の処理を行うことができる。 Further, other than the motion vector block SKIP mode, if the motion vector block prediction processing is applied, pre-coded list 0 and list 1 motion vector block information, if a particular reference position in the reference motion vector frame, it is possible to perform the same processing.

以上説明したように、本実施形態に係る画像符号化装置は、前述した第1の実施形態における動きベクトルブロック予測処理と、いわゆるイントラ予測処理及びインター予測処理をマクロブロック毎、小画素ブロック毎またはフレーム毎に選択的に利用している。 As described above, the image coding apparatus according to this embodiment, the first motion vector block prediction processing in the above-mentioned embodiment, so-called intra-prediction and inter-prediction processing macroblock basis, small pixel for each block or It is selectively used on a frame-by-frame basis. 従って、本実施形態に係る画像符号化装置によれば、より符号化効率の高い予測処理が選択されるため、符号化効率の向上が期待できる。 Therefore, according to the image coding apparatus according to the present embodiment, more for higher prediction processing coding efficiency is selected, the improvement of coding efficiency can be expected.

(第4の実施形態) (Fourth Embodiment)
図40に示すように、本発明の第4の実施形態に係る画像復号化装置は前述した第1の実施形態に係る画像符号化装置に対応する画像復号化装置であって、入力バッファ200、画像復号化部2000、復号化制御部230及び出力バッファ208を有する。 As shown in FIG. 40, a fourth embodiment the image decoding apparatus according to Embodiment image decoding apparatus corresponding to the image coding apparatus according to the first embodiment described above of the present invention, the input buffer 200, image decoding unit 2000 includes a decoding control unit 230 and the output buffer 208. 図40の画像復号化装置は、LSIチップなどのハードウエアにより実現されてもよいし、コンピュータに画像復号化プログラムを実行させることにより実現されてもよい。 Image decoding apparatus of FIG. 40 may be implemented by hardware such as an LSI chip, or may be realized by executing the image decoding program on a computer. 画像復号化部2000は、エントロピー復号化部201、逆変換・逆量子化部202、加算部203、参照画像メモリ204、インター予測部205及び動きベクトル導出部218を有する。 The image decoding unit 2000 includes an entropy decoding unit 201, inverse transform and inverse quantization unit 202, an adder 203, the reference image memory 204, the inter prediction unit 205 and the motion vector derivation unit 218.

図示しない伝送系または蓄積系から入力される符号化データ300は、入力バッファ200に一度蓄積され、多重化された状態で画像復号化部2000に入力される。 Encoded data 300 input from the transmission system or storage system (not shown) is once stored in the buffer 200 is input to the image decoding unit 2000 in a state of being multiplexed.

エントロピー復号化部201は、フレーム毎またはフィールド毎にシンタクスに基づく構文解析を行って、各種データを復号化する。 The entropy decoding unit 201 performs a syntax analysis based on syntax every or every field frame, decodes the various data. 具体的には、エントロピー復号化部201は、復号化対象ブロックに対応する量子化変換係数301、予測情報304及び動きベクトルブロック情報309を復号化する。 Specifically, the entropy decoding unit 201, the quantized transform coefficients 301 corresponding to the decoding target block, decodes the prediction information 304 and the motion vector block information 309. エントロピー復号化部201は、量子化変換係数を逆変換・逆量子化部202、予測情報304を動きベクトル導出部218及びインター予測部205、動きベクトルブロック情報309を動きベクトル導出部218に夫々入力する。 The entropy decoding unit 201 inversely transforms the quantized transform coefficients and inverse quantization unit 202, the motion prediction information 304 vector derivation unit 218 and the inter prediction unit 205, respectively inputted to the vector derivation unit 218 motion motion vector block information 309 to. その他、エントロピー復号化部201は、量子化パラメータ等の画像復号化に必要な情報も復号化し、フィードバック情報331として復号化制御部230に入力する。 Other, entropy decoding unit 201, and also decoding information required for image decoding, such as the quantization parameter is input to the decoding control section 230 as feedback information 331.

逆変換・逆量子化部202は、エントロピー復号化部201からの量子化変換係数301に対して、逆量子化・逆変換を行って予測誤差を復号化し、復号予測誤差302として加算部203に入力する。 Inverse transform and inverse quantization unit 202, the quantized transform coefficients 301 from the entropy decoder 201 decodes the prediction error by performing inverse quantization and inverse transformation, to the addition unit 203 as a decoded prediction error 302 input. 上記逆量子化処理は、復号化制御部230によって設定される量子化パラメータに従って行われる。 The inverse quantization process is carried out according to the quantization parameter set by the decoding control unit 230. また、上記逆変換処理は、符号化側で行われた変換処理の逆変換処理であって、例えばIDCTまたは逆ウェーブレット変換等である。 Further, the inverse conversion process is a reverse conversion of the conversion processing performed on the encoding side, such as IDCT or inverse wavelet transform or the like.

加算部203は、逆変換・逆量子化部202からの復号予測誤差302と、インター予測部205からの予測画像305とを加算し、復号化対象ブロックの復号画像(復号画像信号)303を生成する。 Addition unit 203 generates the decoded prediction error 302 from the inverse transform and inverse quantization unit 202, adds the predicted image 305 from the inter prediction unit 205, the decoded image (decoded image signal) 303 of the current block to. 加算部203は、復号画像303を参照画像メモリ204に参照画像(参照画像信号)306として記憶させる。 The addition unit 203, and stores as a reference image (reference image signal) 306 the decoded image 303 in the reference image memory 204. また、復号画像303は、出力バッファ208に一時的に蓄積され、復号化制御部230によって管理される出力タイミングに応じ、図40の画像符号化装置の外部に出力される 参照画像メモリ204には、例えばフレーム単位で参照画像306が記憶され、インター予測部205によって必要に応じて読み出される。 Further, the decoded image 303 is temporarily stored in the output buffer 208, according to an output timing managed by the decoding control unit 230, the reference image memory 204 to be output to the outside of the image encoding apparatus of FIG. 40 , for example, the reference image 306 in frame units is stored and read out as required by the inter prediction section 205.

インター予測部205は、図1におけるインター予測部101と同様の機能を有する。 Inter prediction unit 205 has the same function as the inter prediction unit 101 in FIG. 具体的には図42に示すように、インター予測部205は、予測画像信号統合部115に対応する予測画像信号統合部213と、複数の動き補償部113に対応する複数の動き補償部212とを有する。 More specifically, as shown in FIG. 42, the inter prediction unit 205, a prediction image signal integration section 213 corresponding to the prediction image signal integration section 115, a plurality of motion compensation unit 212 corresponding to the plurality of motion compensation unit 113 having.

動き補償部212の各々は、復号化対象ブロックを分割した複数の小画素ブロックの各々に対して小予測画像312を生成する。 Each of the motion compensation unit 212 generates a small prediction image 312 for each of a plurality of small pixel blocks obtained by dividing the decoding target block. 動き補償部212は、小予測画像312を予測画像信号統合部213に入力する。 The motion compensation unit 212 inputs the small prediction image 312 to the prediction image signal integration section 213.

動き補償部212は、参照画像306において小画素ブロックと同一位置から、当該小画素ブロックに関する動きベクトル情報307に応じて空間シフトした位置の画素ブロックを小予測画像312として生成する。 The motion compensation unit 212, from the same position and the small pixel block in the reference image 306, and generates a small prediction image 312 pixel blocks of position space shifted according to the motion vector information 307 about the small pixel block. 動き補償部212が小画素ブロックに対して行う動き補償処理は、H.264における動き補償処理と同様に実現できる。 Motion compensation processing by the motion compensation unit 212 makes to small pixel blocks may be implemented similarly to the motion compensation process in H.264.

予測画像信号統合部213は、複数の動き補償部212からの小予測画像を統合し、復号化対象ブロックに対応する予測画像305を生成する。 Prediction image signal integration section 213 integrates the small prediction image from a plurality of motion compensation unit 212 generates a predicted image 305 corresponding to the decoding target block. 即ち、個々の小画素ブロックに対応する小予測画像312を統合することにより、当該小画素ブロックに分割する前の復号化対象ブロックに対応する予測画像305が得られる。 That is, by integrating the small prediction image 312 corresponding to each small pixel block, the predicted image 305 corresponding to the decoding target block before dividing into the small pixel block is obtained.

動きベクトル導出部218は、図1における動きベクトル導出部124と同様の機能を有する。 Motion vector deriving unit 218 has the same function as the motion vector derivation unit 124 in FIG. 具体的には図39に示すように、動きベクトル導出部218は、参照動きベクトルメモリ109に対応する参照動きベクトルメモリ207と、動きベクトルブロック処理部108に対応する動きベクトルブロック処理部206とを有する。 As shown in FIG. 39 in particular, the motion vector derivation unit 218, a reference motion vector memory 207 corresponding to the reference motion vector memory 109, a motion vector block processor 206 corresponding to the motion vector block processor 108 a.

参照動きベクトルメモリ207には、既に復号化済みの動きベクトル情報307が、参照動きベクトル情報308として一時的に保存される。 The reference motion vector memory 207, already decoded motion vector information 307 is temporarily stored as a reference motion vector information 308.

動きベクトル処理部206は、エントロピー復号化部201からの動きベクトルブロック情報309及び予測情報304に基づき、参照動きベクトルメモリ207から参照動きベクトル情報308を取得し、複数の動きベクトル情報307を導出する。 Motion vector processing unit 206, based on the motion vector block information 309 and the prediction information 304 from the entropy decoding unit 201, referring to acquire the motion vector information 308 from the reference motion vector memory 207, and derives a plurality of motion vector information 307 . より詳細には、動きベクトル処理部206は、図41に示すように、動きベクトルブロック生成部110に対応する動きベクトルブロック生成部210と、動きベクトル生成部111に対応する動きベクトル生成部211とを有する。 More specifically, the motion vector processing unit 206, as shown in FIG. 41, a motion vector block generator 210 corresponding to the motion vector block generating unit 110, a motion vector generation unit 211 corresponding to the motion vector generation unit 111 having.

動きベクトルブロック生成部210は、動きベクトルブロック情報309をエントロピー復号化部201から取得し、当該動きベクトルブロック情報309に応じた参照動きベクトル情報308の集合である動きベクトルブロック311を生成する。 Motion vector block generator 210 obtains the motion vector block information 309 from the entropy decoding unit 201 generates motion vector block 311 is a set of reference motion vector information 308 in accordance with the motion vector block information 309. 動きベクトルブロック生成部210は、動きベクトルブロック311を動きベクトル生成部211に入力する。 Motion vector block generator 210 are input to vector generator 211 motion the motion vector block 311.

動きベクトル生成部211は、動きベクトルブロック生成部210からの動きベクトルブロック311に含まれる参照動きベクトル情報308に基づき、復号化対象ブロックを分割した複数の小画素ブロックの各々に関する動きベクトル情報307を生成し、出力する。 Motion vector generation unit 211, based on the reference motion vector information 308 included in the motion vector block 311 from the motion vector block generator 210, the motion vector information 307 for each of the plurality of small pixel blocks obtained by dividing the decoding target block generated and output. 具体的には、動きベクトル生成部211は、小画素ブロックに関する動きベクトル情報307として、適切な参照動きベクトル情報308を代入する。 Specifically, the motion vector generation unit 211, as the motion vector information 307 about the small pixel block, substituting the appropriate reference motion vector information 308.

以上説明したように、本実施形態に係る画像復号化装置は、前述した第1の実施形態に係る画像符号化装置によって符号化された画像を復号化している。 As described above, the image decoding apparatus according to the present embodiment decodes the encoded image by the image coding apparatus according to the first embodiment described above. 従って、本実施形態に係る画像復号化装置によれば、比較的小さな符号化データから高画質な復号画像を再生することが可能となる。 Therefore, according to the image decoding apparatus according to this embodiment, it is possible to reproduce a high-quality decoded image from a relatively small coded data.

(第5の実施形態) (Fifth Embodiment)
図43に示すように、本発明の第5の実施形態に係る画像復号化装置は前述した第2の実施形態に係る画像符号化装置に対応する画像復号化装置であって、上記図40に示す画像復号化装置において、インター予測部205を予測部214に置き換えている。 As shown in FIG. 43, an image decoding apparatus image decoding apparatus according to a fifth embodiment corresponding to the image coding apparatus according to the second embodiment described above of the present invention, in FIG. 40 in the image decoding apparatus shown, it replaces the inter prediction unit 205 to the prediction unit 214. 以下の説明では、図43において図40と同一部分には同一符号を付して示し、異なる部分を中心に述べる。 In the following description, in FIG. 40, the same parts in FIG. 43 are denoted by the same reference numerals, and the different component will be mainly described.

予測部214は図44に示すように、インター予測部205、イントラ予測部220及びモード選択スイッチ221を有する。 Prediction unit 214, as shown in FIG. 44, has an inter prediction unit 205, an intra prediction unit 220 and the mode selection switch 221.
インター予測部205は、第1の実施形態において説明した動きベクトルブロック予測を行って、予測画像305をモード選択スイッチ221に入力する。 Inter prediction unit 205 performs motion vector block prediction described in the first embodiment, and inputs the predicted image 305 to the mode selection switch 221. イントラ予測部220は、図23におけるイントラ予測部117と同様の機能を有する。 The intra prediction unit 220 has the same function as the intra prediction unit 117 in FIG. 23. イントラ予測部220は、予測画像305をモード選択スイッチ221に入力する。 The intra prediction unit 220 inputs the predicted image 305 to the mode selection switch 221.

モード選択スイッチ221は、エントロピー復号化部201からの予測情報304に従って、インター予測部205及びイントラ予測部220のいずれか一方から予測画像305を取得する。 Mode selection switch 221 according to the prediction information 304 from the entropy decoding unit 201 obtains the predicted image 305 from one of the inter prediction unit 205 and the intra prediction unit 220. モード選択スイッチ221によって取得された予測画像305は、加算部203に入力される。 Predicted image 305 acquired by the mode selection switch 221 is input to the adder 203.

以上説明したように、本実施形態に係る画像復号化装置は、前述した第2の実施形態に係る画像符号化装置によって符号化された画像を復号化している。 As described above, the image decoding apparatus according to the present embodiment decodes the encoded image by the image coding apparatus according to the second embodiment described above. 従って、本実施形態に係る画像復号化装置によれば、比較的小さな符号化データから高画質な復号画像を再生することが可能となる。 Therefore, according to the image decoding apparatus according to this embodiment, it is possible to reproduce a high-quality decoded image from a relatively small coded data.

(第6の実施形態) (Sixth Embodiment)
図45に示すように、本発明の第6の実施形態に係る画像復号化装置は前述した第3の実施形態に係る画像符号化装置に対応する画像復号化装置であって、上記図43に示す画像復号化装置において、予測部214を予測部223に置き換えている。 As shown in FIG. 45, an image decoding apparatus image decoding apparatus according to a sixth embodiment corresponding to the image coding apparatus according to the third embodiment described above of the present invention, in FIG. 43 in the image decoding apparatus shown, it is replaced by a prediction unit 223 to the prediction unit 214. 以下の説明では、図43において図40と同一部分には同一符号を付して示し、異なる部分を中心に述べる。 In the following description, in FIG. 40, the same parts in FIG. 43 are denoted by the same reference numerals, and the different component will be mainly described.

予測部223は、図46に示すように、第1インター予測部205、イントラ予測部220、第2インター予測部217及びモード選択スイッチ216を有する。 Prediction unit 223, as shown in FIG. 46, a first inter prediction unit 205, an intra prediction unit 220, a second inter prediction unit 217 and the mode selection switch 216.
第1インター予測部205は、図44における第1インター予測部205と同様の機能を有し、動きベクトルブロック予測処理を行って予測画像305を生成し、モード選択スイッチ216に入力する。 The first inter prediction unit 205 has the same function as the first inter prediction unit 205 in FIG. 44, by performing the motion vector block prediction process generates a predicted image 305 is input to the mode selection switch 216. イントラ予測部220は、図44におけるイントラ予測部220と同様の機能を有し、イントラ予測処理を行って予測画像305を生成し、モード選択スイッチ216に入力する。 The intra prediction unit 220 has the same function as the intra prediction unit 220 in FIG. 44, by performing the intra prediction process generates a predicted image 305 is input to the mode selection switch 216. 尚、後述する第2インター予測部217と区別するために、図44におけるインター予測部205の名称を図44において第1インター予測部205へと便宜的に改めている。 In order to distinguish the second inter prediction unit 217 to be described later, it is conveniently reformed to a first inter prediction unit 205 in FIG. 44 the name of the inter prediction section 205 in FIG. 44.

第2インター予測部217は、いわゆるH.264におけるインター予測処理を行う。 The second inter prediction unit 217 performs inter prediction process in the so-called H.264. 第2インター予測部217は、エントロピー復号化部201によって復号化された動きベクトル情報313と、参照画像メモリ204からの参照画像306とに基づき予測画像305を生成する。 The second inter prediction unit 217, the motion vector information 313 decoded by the entropy decoding unit 201 generates a predicted image 305 based on the reference image 306 from the reference image memory 204. 第2インター予測部217は、図47に示すように1つの動き補償部222を有する。 The second inter prediction unit 217 has one motion compensation unit 222 as shown in FIG. 47.

動き補償部222は、動きベクトル情報313を用いて参照画像306の動き補償を行う。 The motion compensation unit 222 performs motion compensation of the reference image 306 using the motion vector information 313. 即ち、動き補償部222は、参照画像306において動きベクトル情報313が指し示す画素ブロックを予測画像305として出力する。 That is, the motion compensation unit 222 outputs the pixel block motion vector information 313 indicate a predicted image 305 in the reference image 306.

モード選択スイッチ216の基本的機能は、図44におけるモード選択スイッチ221と同様であるが、第2インター予測部217からの予測画像305を選択可能な点が異なる。 The basic function of the mode selection switch 216 is similar to the mode selection switch 221 in FIG. 44, points can be selected are different prediction image 305 from the second inter prediction unit 217.

また、第3の実施形態において、mv_block_in_mb_flagの符号化省略処理を説明したが、本実施形態に係る画像復号化装置においても同様の復号化省略処理を行うことができる。 In the third embodiment has described the encoding omission processing Mv_block_in_mb_flag, similar decoding omitted process in the image decoding apparatus according to this embodiment can be performed. 上記復号化省略処理を行うことにより、符号化側において不要なmv_block_in_mb_flagが符号化されていた場合であっても、図45の画像復号化装置は必要なmv_block_in_mb_flagのみを選択的に復号化できるため演算量を削減できる。 By performing the decoding omitted treatment, even if the unnecessary mv_block_in_mb_flag the encoding side has been coded, since it selectively decoding only the image decoding apparatus necessary mv_block_in_mb_flag in Figure 45 operation the amount can be reduced.

以上説明したように、本実施形態に係る画像復号化装置は、前述した第3の実施形態に係る画像符号化装置によって符号化された画像を復号化している。 As described above, the image decoding apparatus according to the present embodiment decodes the encoded image by the image coding apparatus according to the third embodiment described above. 従って、本実施形態に係る画像復号化装置によれば、比較的小さな符号化データから高画質な復号画像を再生することが可能となる。 Therefore, according to the image decoding apparatus according to this embodiment, it is possible to reproduce a high-quality decoded image from a relatively small coded data.

なお、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。 The present invention is not limited to the above embodiments and may be embodied with the components modified without departing from the scope of the invention. また上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。 Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。 Further, for example, also conceivable configuration in which it removed some of the components shown in the embodiments. さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。 It may be appropriately combined constituent elements described in different embodiments.

その一例として例えば、上記第1乃至第6の実施形態を次のように変形しても同様の効果が得られる。 For example, as an example, the same effect can be obtained by modifying the embodiment of the first to sixth as follows.
(1)図5に示す符号化/復号化順序は一例に過ぎず、例えば、画面右下から左上に向かう処理順序でもよいし、右上から左下に向かう処理順序でもよい。 (1) encoding / decoding order shown in FIG. 5 is only an example, for example, may be a processing order directed from the bottom right to the upper left, or in processing order directed from the upper right to the lower left. また、渦巻き状に中心部から周辺部に向かう処理順序でもよいし、周辺部から中心部に向かう処理順序でもよい。 Further, it may be a processing order toward the periphery from the center in a spiral shape, or a processing order toward the central portion from the peripheral portion.

(2)図6A乃至図6Cに示したブロックサイズは全て正方形状であるが、符号化対象ブロックのサイズはこれらに限られず、例えば16×8画素、8×16画素、8×4画素または4×8画素などの長方形状でもよい。 (2) Although all block sizes shown in FIGS. 6A to 6C is a square, the size of the encoding target block is not limited to, for example, 16 × 8 pixels, 8 × 16 pixels, 8 × 4 pixels, or 4 × may be rectangular, such as 8 pixels. また、異なるサイズの符号化対象ブロックが選択的に利用されてもよい。 Further, the encoding target blocks of different sizes may be selectively used. この場合、サイズの切り替え情報に関する符号化が必要になるが、前述したコスト等を利用して符号化歪みと符号量とのバランスの取れた符号化が実現されることが望ましい。 In this case, it becomes necessary coding related switching information size, it is desirable to take the encoding of the balance between the encoding distortion and code amount using the cost or the like described above are realized.

(3)第1乃至第6の実施形態において、輝度信号と色差信号とを分割せず、一方の色信号成分に限定した例を説明した。 (3) In the first to sixth embodiments, without dividing the luminance signal and color difference signals, an example was described of limiting to one of the color signal components. しかしながら、予測処理が輝度信号と色差信号とを分割し、個別に予測処理を適用してもよい。 However, the prediction process is divided into a luminance signal and color difference signals may be applied individually prediction process.

その他、本発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。 Other, it can of course be carried out similarly be subjected to various modifications without departing from the gist of the present invention.

第1の実施形態に係る画像符号化装置を示すブロック図。 Block diagram illustrating an image coding apparatus according to the first embodiment. 図1の動きベクトル導出部を示すブロック図。 Block diagram of a motion vector derivation unit of FIG. 図2の動きベクトル処理部を示すブロック図。 Block diagram showing a motion vector processing unit of FIG. 図1のインター予測部を示すブロック図。 Block diagram illustrating an inter prediction unit of FIG. 図1の画像符号化装置によるマクロブロックに対する符号化処理順序の一例を示す図。 It illustrates an example of encoding processing order for a macroblock according to the image encoding apparatus of FIG. 図1の画像符号化装置の使用する符号化対象ブロックのサイズの一例を示す図。 Diagram illustrating an example of the size of the encoding target block to use the image encoding apparatus of FIG. 図6Aの他の例を示す図。 Diagram showing another example of Figure 6A. 図6A及び図6Bの他の例を示す図。 Diagram showing another example of FIGS. 6A and 6B. インター予測処理の一例の説明図。 An example of a diagram of the inter prediction process. 図7Aの他の例の説明図。 Illustration of another example of Figure 7A. インター予測処理におけるマクロブロック単位の動き補償ブロックサイズの一例を示す図。 It illustrates an example of a motion compensation block size of the macroblock in the inter prediction process. 図8Aの他の例を示す図。 Diagram showing another example of Figure 8A. 図8A及び図8Bの他の例を示す図。 Diagram showing another example of FIGS. 8A and 8B. 図8A、図8B及び図8Cの他の例を示す図。 FIGS. 8A, showing another example of FIG. 8B and FIG. 8C. インター予測処理におけるサブマクロブロック単位の動き補償ブロックサイズの一例を示す図。 It illustrates an example of a motion compensation block size of the sub-macroblock in the inter prediction process. 図9Aの他の例を示す図。 Diagram showing another example of Figure 9A. 図9A及び図9Bの他の例を示す図。 Diagram showing another example of FIGS. 9A and 9B. 図9A、図9B及び図9Cの他の例を示す図。 Figures 9A, showing another example of FIGS. 9B and 9C. 図3の動きベクトルブロック生成部によって生成される動きベクトルブロックの一例を示す図。 Diagram illustrating an example of the motion vector block generated by the motion vector block generating unit of FIG. 図2の参照動きベクトルメモリに記憶される動きベクトルフレームの一例を示す図。 It illustrates an example of a motion vector frames stored in the reference motion vector memory of FIG. 図3の動きベクトル生成部によって利用される動きベクトルブロック情報の説明図。 Illustration of the motion vector block information utilized by the motion vector generation unit of FIG. 動きベクトルブロックのサイズと、図3の動きベクトル生成部によって生成される動きベクトルの数との関係を示すテーブル。 Table showing the size of the motion vector block, the relationship between the number of motion vectors generated by the motion vector generation unit of FIG. 図4の動き補償部による動き補償処理の説明図。 Illustration of the motion compensation processing by the motion compensation unit of FIG. 図4の動き補償部による動き補償処理において利用可能な小数画素精度の補間処理の説明図。 Illustration of interpolation fractional pixel precision available in the motion compensation processing by the motion compensation unit of FIG. 図1のインター予測部による動きベクトルブロック予測処理を示すフローチャート。 Flowchart illustrating a motion vector block prediction processing by the inter prediction unit of FIG. 図16のステップS402における処理によって分割されたマクロブロック内のインデクスの一例を示す図。 It illustrates an example of the index in the macro blocks divided by the processing in step S402 in FIG. 16. 図16のステップS404における処理の説明図。 Illustration of the processing in step S404 in FIG. 16. 図1のインター予測部による動きベクトルブロック予測処理の適用例を概念的に示す図。 Diagram schematically showing an application example of the motion vector block prediction processing by the inter prediction unit of FIG. 図19の他の例を概念的に示す図。 Diagram conceptually showing another example of Figure 19. 空間SKIPモードの説明図。 Illustration of a space SKIP mode. 第2の実施形態に係る画像符号化装置を示すブロック図。 Block diagram illustrating an image coding apparatus according to the second embodiment. 図22の予測部を示すブロック図。 Block diagram illustrating a prediction unit in FIG. 22. 複数フレームを利用する場合における、図1のインター予測部による動きベクトルブロック予測処理の一例の説明図。 In the case of using the plurality of frames, an example of a diagram of a motion vector block prediction processing by the inter prediction unit of FIG. 図24Aの他の例の説明図。 Illustration of another example of FIG. 24A. 図1の画像符号化装置が使用するシンタクス構造の一例を示す図。 It illustrates an example of a syntax structure of the image encoding apparatus of FIG. 1 is used. 図25のマクロブロックレイヤーシンタクスの一例を示す図。 It illustrates an example of a macroblock layer syntax in FIG. 25. 図25のマクロブロックプレディクションシンタクスの一例を示す図。 It illustrates an example of a macroblock prediction syntax in FIG. 25. 図25のマクロブロックプレディクションシンタクスのサブマクロブロックに関する一例を示す図。 It illustrates an example relating to the sub macro blocks of the macroblock prediction syntax in FIG. 25. 第3の実施形態に係る画像符号化装置を示すブロック図。 Block diagram illustrating an image coding apparatus according to the third embodiment. 図29の予測部を示すブロック図。 Block diagram illustrating a prediction unit in FIG. 29. 図30の第2インター予測部を示すブロック図。 Block diagram showing a second inter prediction unit of FIG. 30. 図25のシーケンスパラメータセットシンタクスの一例を示す図。 Diagram showing an example of a sequence parameter set syntax of FIG. 25. 図25のピクチャパラメータセットシンタクスの一例を示す図。 It illustrates an example of a picture parameter set syntax of FIG. 25. 図25のスライスヘッダシンタクスの一例を示す図。 It illustrates an example of a slice header syntax of FIG. 25. 図25のマクロブロックレイヤーシンタクスの一例を示す図。 It illustrates an example of a macroblock layer syntax in FIG. 25. 図27の他の例を示す図。 Diagram showing another example of Figure 27. 図28の他の例を示す図。 Diagram showing another example of Figure 28. 動きベクトルブロックSKIPモードにおける、mv_block_in_mb_flagの符号化省略処理を示すフローチャート。 In the motion vector block SKIP mode, flowchart illustrating the encoding omission processing Mv_block_in_mb_flag. 第4の実施形態に係る画像復号化装置における動きベクトル導出部を示すブロック図。 Block diagram of a motion vector derivation unit in the image decoding apparatus according to a fourth embodiment. 図39の動きベクトル導出部を含む画像復号化装置を示すブロック図。 Block diagram illustrating an image decoding apparatus including a motion vector derivation unit of Figure 39. 図39の動きベクトルブロック処理部を示すブロック図。 Block diagram showing the motion vector block processor of FIG. 39. 図40のインター予測部を示すブロック図。 Block diagram illustrating an inter prediction unit of FIG. 40. 第5の実施形態に係る画像復号化装置を示すブロック図。 Block diagram illustrating an image decoding apparatus according to a fifth embodiment. 図43の予測部を示すブロック図。 Block diagram illustrating a prediction unit in FIG. 43. 第6の実施形態に係る画像復号化装置を示すブロック図。 Block diagram illustrating an image decoding apparatus according to a sixth embodiment. 図45の予測部を示すブロック図。 Block diagram illustrating a prediction unit in FIG. 45. 図46の第2インター予測部を示すブロック図。 Block diagram showing a second inter prediction unit of FIG. 46.

符号の説明 DESCRIPTION OF SYMBOLS

10・・・原画像 11・・・予測画像 12・・・予測誤差 13・・・量子化変換係数 14・・・符号化データ 15・・・復号予測誤差 16・・・局所復号画像 17・・・参照画像 18・・・動きベクトル情報 19・・・参照動きベクトル情報 21・・・動きベクトルブロック情報 22・・・予測情報 23・・・小画素ブロック 24・・・小予測画像 25・・・動きベクトル情報 26・・・予測モード判定情報 28・・・動きベクトルブロック 30・・・符号化制御情報 31・・・フィードバック情報 101・・・インター予測部 102・・・減算部 103・・・変換・量子化部 104・・・エントロピー符号化部 105・・・逆変換・逆量子化部 106・・・加算部 107・・・参照画像メモリ 108・・・動きベクトル 10 ... original image 11 ... predicted image 12 ... prediction error 13 ... quantized transform coefficient 14 ... encoded data 15 ... decoded prediction error 16 ... local decoded image 17 .. and the reference image 18 ... motion vector information 19 ... reference motion vector information 21 ... motion vector block information 22 ... prediction information 23 ... small pixel blocks 24 ... small prediction image 25 ... motion vector information 26 ... prediction mode determining information 28 ... motion vector block 30 ... encoding control information 31 ... feedback information 101 ... inter prediction unit 102 ... subtraction unit 103 ... transformation and quantization unit 104 ... entropy encoder 105 ... inverse transform and inverse quantization unit 106 ... adding unit 107 ... reference image memory 108 ... motion vector ロック処理部 109・・・参照動きベクトルメモリ 110・・・動きベクトルブロック生成部 111・・・動きベクトル生成部 112・・・出力バッファ 113・・・動き補償部 114・・・参照動きベクトルフレーム 115・・・予測画像信号統合部 116・・・予測部 117・・・イントラ予測部 118・・・モード判定部 119・・・モード選択スイッチ 120・・・動きベクトル推定部 121・・・第2インター予測部 122・・・モード選択スイッチ 124・・・動きベクトル導出部 125・・・予測部 126・・・動き補償部 130・・・符号化制御部 200・・・入力バッファ 201・・・エントロピー復号化部 202・・・逆変換・逆量子化部 203・・・加算部 204・・・参照画像メモリ 205・・・ Locking unit 109 ... reference motion vector memory 110 ... motion vector block generator 111 ... motion vector generation unit 112 ... output buffer 113 ... motion compensation unit 114 ... reference motion vector frame 115 ... prediction image signal integration section 116 ... prediction unit 117 ... intra-prediction unit 118 ... mode identifying unit 119 ... mode selection switch 120 ... motion vector estimation unit 121 ... second inter prediction unit 122 ... mode selection switch 124 ... motion vector derivation unit 125 ... prediction unit 126 ... motion compensation unit 130 ... encoding control unit 200 ... input buffer 201 ... entropy decoding section 202 ... inverse transform and inverse quantization unit 203 ... adding unit 204 ... reference image memory 205 ... インター予測部 206・・・動きベクトルブロック処理部 207・・・参照動きベクトルメモリ 208・・・出力バッファ 210・・・動きベクトルブロック生成部 211・・・動きベクトル生成部 212・・・動き補償部 213・・・予測画像信号統合部 214・・・予測部 217・・・第2インター予測部 218・・・動きベクトル導出部 220・・・イントラ予測部 221・・・モード選択スイッチ 222・・・動き補償部 223・・・予測部 230・・・復号化制御部 300・・・符号化データ 301・・・量子化変換係数 302・・・復号予測残差 303・・・復号画像 304・・・予測情報 305・・・予測画像 306・・・参照画像 307・・・動きベクトル情報 308・・・参照動きベクトル情報 309・ Inter prediction unit 206 ... motion vector block processor 207 ... reference motion vector memory 208 ... output buffer 210 ... motion vector block generator 211 ... motion vector generation unit 212 ... motion compensation unit 213 ... prediction image signal integration section 214 ... prediction unit 217 ... second inter prediction unit 218 ... motion vector deriving unit 220 ... intra-prediction unit 221 ... mode selection switch 222 ... motion compensation unit 223 ... prediction unit 230 ... decryption controller 300 ... coded data 301 ... quantized transform coefficients 302 ... decoding prediction residual 303 ... decoded image 304 ... prediction information 305 ... predicted image 306 ... reference image 307 ... motion vector information 308 ... reference motion vector information 309, ・・動きベクトルブロック情報 311・・・動きベクトルブロック 312・・・小予測画像 313・・・動きベクトル情報 330・・・復号化制御情報 331・・・フィードバック情報 901・・・ハイレベルシンタクス 902・・・シーケンスパラメータセットシンタクス 903・・・ピクチャパラメータセットシンタクス 904・・・スライスレベルシンタクス 905・・・スライスヘッダシンタクス 906・・・スライスデータシンタクス 907・・・マクロブロックレベルシンタクス 908・・・マクロブロックレイヤーシンタクス 909・・・マクロブロックプレディクションシンタクス 1000、1100、1200・・・画像符号化部 2000、2100、2200・・・画像復号化部 ... motion vector block information 311 ... motion vector block 312 ... small prediction image 313 ... motion vector information 330 ... decoding control information 331 ... feedback information 901 ... high level syntax 902, · the sequence parameter set syntax 903 ... picture parameter set syntax 904 ... slice level syntax 905 ... slice header syntax 906 ... slice data syntax 907 ... macroblock level syntax 908 ... macroblock layer syntax 909 ... macroblock prediction syntax 1000,1100,1200 ... image encoding unit 2000,2100,2200 ... image decoding unit

Claims (28)

  1. 既に符号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶することと、 And it already sequentially stores the first motion vector corresponding to the first pixel region in the coded,
    前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出することと、 And deriving the motion vector group comprising at least one said first motion vector,
    前記動きベクトル群に基づき、符号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出することと、 And deriving a second motion vector corresponding to each of the basis of the motion vector group, the third pixel area obtained by dividing the second pixel region before encoding,
    前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、 And that by using the second motion vector to produce a first inter prediction image of each of the third pixel region,
    前記第1のインター予測画像を統合して、前記符号化前の第2の画素領域に対応する第2のインター予測画像を生成することと、 And that by integrating the first inter prediction image to generate a second inter prediction image corresponding to the second pixel area before the coding,
    前記第2のインター予測画像と原画像との間の予測誤差を符号化することと を具備することを特徴とする画像符号化方法。 Picture coding method characterized by comprising the encoding the prediction error between the second inter prediction image and the original image.
  2. 既に符号化済みの第1の画素領域を分割した第2の画素領域に対応する第1の動きベクトルを逐次記憶することと、 And it already sequentially stores the first motion vector corresponding to the second pixel regions obtained by dividing the first pixel region in the coded,
    空間的に連続する前記第1の動きベクトルを纏め、前記第1の画素領域と同一サイズの動きベクトルブロックを導出することと、 And that collectively the first motion vectors spatially continuous, derives the motion vector block of the first pixel region and the same size,
    前記動きベクトルブロックを構成する第1の動きベクトルの各々を、符号化前の第1の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルとして、空間的に対応させて代入することと、 Each of the first motion vectors constituting the motion vector block, a second motion vector corresponding to each of the third pixel area obtained by dividing a first pixel region before encoding, spatially correspond and by substituting Te,
    前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、 And that by using the second motion vector to produce a first inter prediction image of each of the third pixel region,
    前記第1のインター予測画像を統合して、前記符号化前の第1の画素領域に対応する第2のインター予測画像を生成することと、 And that by integrating the first inter prediction image to generate a second inter prediction image corresponding to the first pixel region before the coding,
    前記第2のインター予測画像と原画像との間の予測誤差を符号化することと を具備することを特徴とする画像符号化方法。 Picture coding method characterized by comprising the encoding the prediction error between the second inter prediction image and the original image.
  3. 前記第1の動きベクトル及び前記第2の動きベクトルは、前記既に符号化済みの第1の画素領域で構成されるフレーム単位の参照画像フレームにおける参照位置を指し示すことを特徴とする請求項2記載の画像符号化方法。 Said first motion vector and the second motion vector, according to claim 2, wherein the point to the already referenced position in the reference image frame in units of frames including the first pixel region of the encoded image coding method.
  4. 前記第1の動きベクトルは、動きベクトルフレームとしてフレーム単位で逐次記憶され、 Wherein the first motion vector is sequentially stored in units of frames as a motion vector frame,
    前記動きベクトルフレームにおいて前記符号化前の第1の画素領域と同位置の第1の動きベクトルが、前記動きベクトルブロックとして導出されることを特徴とする請求項3記載の画像符号化方法。 The motion first motion vector of the first pixel region and the position before the encoding in the vector frame, the picture coding method according to claim 3, characterized in that it is derived as the motion vector block.
  5. 前記動きベクトルブロックの位置情報を符号化することを更に具備することを特徴とする請求項3記載の画像符号化方法。 Picture coding method according to claim 3, wherein the further comprising encoding the position information of the motion vector block.
  6. 前記位置情報は、前記符号化前の第1の画素領域に対する前記動きベクトルブロックの時空間的なシフト量を示すことを特徴とする請求項5記載の画像符号化方法。 The position information, the image coding method according to claim 5, wherein the indicating the spatial shift amount when the motion vector block for the first pixel region before the encoding.
  7. 前記第1の動きベクトルは、当該第1の動きベクトルが動き補償する参照画像フレームの時間的位置を示す参照フレーム番号と共に逐次記憶され、 Wherein the first motion vector, said first motion vectors are sequentially stored together with the reference frame number indicating a temporal position of the reference image frame to compensate motion,
    前記参照フレーム番号は、当該参照フレーム番号に対応する第1の動きベクトルと共に前記第2の動きベクトルとして代入されること を特徴とする請求項4乃至6のいずれか1項記載の画像符号化方法。 The reference frame number, the first image encoding method according to any one of claims 4 to 6, characterized in that it is substituted as the second motion vector with the motion vector corresponding to the reference frame number .
  8. 前記符号化前の第1の画素領域に対応する第3の動きベクトルを推定することと、 Estimating a third motion vector corresponding to the first pixel region before the coding,
    前記第3の動きベクトルを用いて、前記符号化前の第1の画素領域の第3のインター予測画像を生成することと、 And that by using the third motion vector, and generates a third inter prediction image of the first pixel region before the coding,
    前記第2のインター予測画像及び前記第3のインター予測画像のいずれか一方を最適予測画像として選択することとを更に具備し、 Further comprising a selecting one of the second inter prediction image and the third inter prediction image as the optimal prediction image,
    前記最適予測画像と前記原画像との間の予測誤差が符号化されることを特徴とする請求項4乃至7のいずれか1項記載の画像符号化方法。 Picture coding method according to any one of claims 4 to 7 prediction error is characterized in that it is encoded between the original image and the optimum prediction image.
  9. 前記第2のインター予測画像及び前記第3のインター予測画像のいずれが前記最適予測画像として選択されたかを示す選択情報を符号化することを更に具備することを特徴とする請求項8記載の画像符号化方法。 Image of claim 8, wherein the one of the second inter prediction image and the third inter prediction image further comprising encoding the selection information indicating which is selected as the optimum predictive image encoding method.
  10. 前記第2の動きベクトルの全てが前記第3の動きベクトルと同一であれば、前記選択情報の符号化が省略されることを特徴とする請求項9記載の画像符号化方法。 If the same as all the third motion vector of the second motion vector, the image coding method of claim 9, wherein the encoding of the selection information, characterized in that it is omitted.
  11. 前記第2の画素領域に対応する第2の動きベクトルが複数の場合には、複数の第2の動きベクトルの各々を用いて生成した第4のインター予測画像同士を加重平均することにより前記第1のインター予測画像が生成されることを特徴とする請求項4乃至10のいずれか1項記載の画像符号化方法。 The second when the second motion vector corresponding to the pixel region of the plurality, the first by a weighted average of the fourth inter prediction image between generated using each of the plurality of second motion vectors picture coding method according to any one of claims 4 to 10, characterized in that the first inter prediction image is generated.
  12. 前記第2の動きベクトルは、(A)前記第1の動きベクトルの反転ベクトル、(B)前記第1の動きベクトルと、当該第1の動きベクトルに隣接する他の第1の動きベクトルとの間の加重平均値、メディアン値、最大値または最小値、(C)前記動きベクトルブロックの時間的位置に応じて前記第1の動きベクトルを正規化した値及び(D)前記第1の動きベクトルのいずれか1つが代入されることを特徴とする請求項4乃至11のいずれか1項記載の画像符号化方法。 It said second motion vectors, (A) the inverted vector of the first motion vector, (B) and said first motion vector, with the other first motion vectors adjacent to the first motion vector weighted average, median, maximum or minimum value, (C) values ​​and (D) said first motion vectors obtained by normalizing the said first motion vector in accordance with the temporal position of the motion vector block between any one of being assigned picture coding method of any one of claims 4 to 11, characterized in that the.
  13. 符号化された予測誤差を復号化することと、 And decoding the prediction error encoded,
    既に復号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶することと、 And it already sequentially stores the first motion vector corresponding to the first pixel region already decoded,
    前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出することと、 And deriving the motion vector group comprising at least one said first motion vector,
    前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出することと、 And deriving a second motion vector corresponding to each of the third pixel region based on said motion vector groups, and dividing the second pixel area before decoding,
    前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、 And that by using the second motion vector to produce a first inter prediction image of each of the third pixel region,
    前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成することと、 And that by integrating the first inter prediction image to generate a second inter prediction image corresponding to the second pixel area before the decoding,
    前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成することと を具備することを特徴とする画像復号化方法。 Picture decoding method characterized by comprising and generating a decoded image by adding the second inter prediction image and the prediction error.
  14. 符号化された予測誤差を復号化することと、 And decoding the prediction error encoded,
    既に復号化済みの第1の画素領域を分割した第2の画素領域に対応する第1の動きベクトルを逐次記憶することと、 And it already sequentially stores the first motion vector corresponding to the second pixel regions obtained by dividing the first pixel region already decoded,
    空間的に連続する前記第1の動きベクトルを纏め、前記第1の画素領域と同一サイズの動きベクトルブロックを導出することと、 And that collectively the first motion vectors spatially continuous, derives the motion vector block of the first pixel region and the same size,
    前記動きベクトルブロックを構成する第1の動きベクトルの各々を、復号化前の第1の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルとして、空間的に対応させて代入することと、 Each of the first motion vectors constituting the motion vector block, a second motion vector corresponding to each of the third pixel area obtained by dividing a first pixel region before decoding, spatially correspond and by substituting Te,
    前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、 And that by using the second motion vector to produce a first inter prediction image of each of the third pixel region,
    前記第1のインター予測画像を統合して、前記復号化前の第1の画素領域に対応する第2のインター予測画像を生成することと、 And that by integrating the first inter prediction image to generate a second inter prediction image corresponding to the first pixel region before the decoding,
    前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成することと を具備することを特徴とする画像復号化方法。 Picture decoding method characterized by comprising and generating a decoded image by adding the second inter prediction image and the prediction error.
  15. 前記第1の動きベクトル及び前記第2の動きベクトルは、前記既に復号化済みの第1の画素領域で構成されるフレーム単位の参照画像フレームにおける参照位置を指し示すことを特徴とする請求項14記載の画像復号化方法。 Said first motion vector and the second motion vector, according to claim 14, wherein the point to the reference position in the reference image frame of the frame unit formed the already first pixel region already decoded image decoding method.
  16. 前記第1の動きベクトルは、動きベクトルフレームとしてフレーム単位で逐次記憶され、 Wherein the first motion vector is sequentially stored in units of frames as a motion vector frame,
    前記動きベクトルフレームにおいて前記復号化前の第1の画素領域と同位置の第1の動きベクトルが、前記動きベクトルブロックとして導出されることを特徴とする請求項15記載の画像復号化方法。 The motion first motion vector of the first pixel region and the position before the decoding in the vector frame, image decoding method of claim 15, characterized in that it is derived as the motion vector block.
  17. 前記動きベクトルブロックの位置情報を復号化することを更に具備することを特徴とする請求項15記載の画像復号化方法。 The image decoding method of claim 15, wherein the further comprising decoding the position information of the motion vector block.
  18. 前記位置情報は、前記復号化前の第1の画素領域に対する前記動きベクトルブロックの時空間的なシフト量を示すことを特徴とする請求項17記載の画像復号化方法。 The location information, the image decoding method of claim 17, wherein the indicating the spatial shift amount when the motion vector block for the first pixel region before the decoding.
  19. 前記第1の動きベクトルは、当該第1の動きベクトルが動き補償する参照画像フレームの時間的位置を示す参照フレーム番号と共に逐次記憶され、 Wherein the first motion vector, said first motion vectors are sequentially stored together with the reference frame number indicating a temporal position of the reference image frame to compensate motion,
    前記参照フレーム番号は、当該参照フレーム番号に対応する第1の動きベクトルと共に前記第2の動きベクトルとして代入されること を特徴とする請求項16乃至18のいずれか1項記載の画像復号化方法。 The reference frame number, a first image decoding method according to any one of claims 16 to 18, characterized in that it is substituted as the second motion vector with the motion vector corresponding to the reference frame number .
  20. 前記復号化前の第1の画素領域に対応する第3の動きベクトルを推定することと、 Estimating a third motion vector corresponding to the first pixel region before the decoding,
    前記第3の動きベクトルを用いて、前記復号化前の第1の画素領域の第3のインター予測画像を生成することと、 And that by using the third motion vector, and generates a third inter prediction image of the first pixel region before the decoding,
    前記第2のインター予測画像及び前記第3のインター予測画像のいずれか一方を最適予測画像として選択することとを更に具備し、 Further comprising a selecting one of the second inter prediction image and the third inter prediction image as the optimal prediction image,
    前記最適予測画像と前記予測誤差とを加算して前記復号画像が生成されることを特徴とする請求項16乃至19のいずれか1項記載の画像復号化方法。 The optimum prediction image and the prediction error and the image decoding method according to any one of claims 16 to 19 added to, wherein the decoded image is generated a.
  21. 前記第2のインター予測画像及び前記第3のインター予測画像のいずれが前記最適予測画像として選択されるかを示す選択情報を復号化することを更に具備することを特徴とする請求項20記載の画像復号化方法。 Of claim 20, wherein the one of the second inter prediction image and the third inter prediction image, further comprising decoding the selected information indicating is selected as the optimum predictive image image decoding method.
  22. 前記第2の動きベクトルの全てが前記第3の動きベクトルと同一であれば、前記選択情報の復号化が省略されることを特徴とする請求項21記載の画像復号化方法。 Wherein if all of the second motion vector is the same as the third motion vector, image decoding method of claim 21, wherein the decoding of the selected information, characterized in that it is omitted.
  23. 前記第2の画素領域に対応する第2の動きベクトルが複数の場合には、複数の第2の動きベクトルの各々を用いて生成した第4のインター予測画像同士を加重平均することにより前記第1のインター予測画像が生成されることを特徴とする請求項16乃至22のいずれか1項記載の画像復号化方法。 The second when the second motion vector corresponding to the pixel region of the plurality, the first by a weighted average of the fourth inter prediction image between generated using each of the plurality of second motion vectors image decoding method according to any one of claims 16 to 22, characterized in that one of the inter prediction image is generated.
  24. 前記第2の動きベクトルは、(A)前記第1の動きベクトルの反転ベクトル、(B)前記第1の動きベクトルと、当該第1の動きベクトルに隣接する他の第1の動きベクトルとの間の加重平均値、メディアン値、最大値または最小値、(C)前記動きベクトルブロックの時間的位置に応じて前記第1の動きベクトルを正規化した値及び(D)前記第1の動きベクトルのいずれか1つが代入されることを特徴とする請求項16乃至23のいずれか1項記載の画像復号化方法。 It said second motion vectors, (A) the inverted vector of the first motion vector, (B) and said first motion vector, with the other first motion vectors adjacent to the first motion vector weighted average, median, maximum or minimum value, (C) values ​​and (D) said first motion vectors obtained by normalizing the said first motion vector in accordance with the temporal position of the motion vector block between any one of being assigned image decoding method according to any one of claims 16 to 23, characterized in that the.
  25. 既に符号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶する記憶部と、 A storage unit that already sequentially stores the first motion vector corresponding to the first pixel region in the coded,
    前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出する第1の導出部と、 A first deriving unit that derives the motion vector group comprising at least one said first motion vector,
    前記動きベクトル群に基づき、符号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出する第2の導出部と、 Based on the motion vector group, and a second deriving unit deriving a second motion vector corresponding to each of the third pixel regions obtained by dividing the second pixel region before encoding,
    前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成する予測部と、 Using the second motion vector, a prediction unit for generating a first inter prediction image of each of the third pixel region,
    前記第1のインター予測画像を統合して、前記符号化前の第2の画素領域に対応する第2のインター予測画像を生成する統合部と、 And integration unit that integrates the first inter prediction image to generate a second inter prediction image corresponding to the second pixel area before the coding,
    前記第2のインター予測画像と原画像との間の予測誤差を符号化する符号化部と を具備することを特徴とする画像符号化装置。 Image encoding device characterized by comprising an encoding unit for encoding the prediction error between the second inter prediction image and the original image.
  26. 符号化された予測誤差を復号化する復号化部と、 A decoding unit to decode the prediction error coding,
    既に復号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶する記憶部と、 A storage unit that already sequentially stores the first motion vector corresponding to the first pixel region already decoded,
    前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出する第1の導出部と、 A first deriving unit that derives the motion vector group comprising at least one said first motion vector,
    前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出する第2の導出部と、 Based on the motion vector group, and a second deriving unit deriving a second motion vector corresponding to each of the third pixel regions obtained by dividing the second pixel area before decoding,
    前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成する予測部と、 Using the second motion vector, a prediction unit for generating a first inter prediction image of each of the third pixel region,
    前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成する統合部と、 And integration unit that integrates the first inter prediction image to generate a second inter prediction image corresponding to the second pixel area before the decoding,
    前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成する加算部と を具備することを特徴とする画像復号化装置。 Image decoding apparatus characterized by comprising an addition unit for generating a decoded image by adding said prediction error and said second inter prediction image.
  27. コンピュータを 既に符号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶する手段、 Means for sequentially storing the first motion vector corresponding to the first pixel region already encoded the computer,
    前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出する手段、 It means for deriving at least one comprising motion vector group of the first motion vector,
    前記動きベクトル群に基づき、符号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出する手段、 It means for deriving a second motion vector corresponding to each of the basis of the motion vector group, the third pixel area obtained by dividing the second pixel region before encoding,
    前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成する手段、 Using the second motion vector, means for generating a first inter prediction image of each of the third pixel region,
    前記第1のインター予測画像を統合して、前記符号化前の第2の画素領域に対応する第2のインター予測画像を生成する手段、 The first integrates the inter prediction image, means for generating a second inter prediction image corresponding to the second pixel area before the coding,
    前記第2のインター予測画像と原画像との間の予測誤差を符号化する手段 として機能させるための画像符号化プログラム。 Image encoding program for functioning as a means for encoding the prediction error between the second inter prediction image and the original image.
  28. コンピュータを 符号化された予測誤差を復号化する手段、 It means for decoding the prediction error encoding a computer,
    既に復号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶する手段、 First means for sequentially storing motion vectors already corresponding to the first pixel region already decoded,
    前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出する手段、 It means for deriving at least one comprising motion vector group of the first motion vector,
    前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出する手段、 Means for deriving a second motion vector corresponding to each of the third pixel region based on said motion vector groups, and dividing the second pixel area before decoding,
    前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成する手段、 Using the second motion vector, means for generating a first inter prediction image of each of the third pixel region,
    前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成する手段、 The first integrates the inter prediction image, means for generating a second inter prediction image corresponding to the second pixel area before the decoding,
    前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成する手段 として機能させるための画像復号化プログラム。 Image decoding program for functioning as means for generating a decoded image by adding said prediction error and said second inter prediction image.
JP2008166348A 2008-06-25 2008-06-25 Image coding method Expired - Fee Related JP4977094B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008166348A JP4977094B2 (en) 2008-06-25 2008-06-25 Image coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008166348A JP4977094B2 (en) 2008-06-25 2008-06-25 Image coding method

Publications (3)

Publication Number Publication Date
JP2010010950A true true JP2010010950A (en) 2010-01-14
JP2010010950A5 true JP2010010950A5 (en) 2011-05-12
JP4977094B2 JP4977094B2 (en) 2012-07-18

Family

ID=41590933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008166348A Expired - Fee Related JP4977094B2 (en) 2008-06-25 2008-06-25 Image coding method

Country Status (1)

Country Link
JP (1) JP4977094B2 (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011125256A1 (en) * 2010-04-08 2011-10-13 株式会社 東芝 Image encoding method and image decoding method
WO2012005194A1 (en) * 2010-07-09 2012-01-12 ソニー株式会社 Image processing device and method
WO2012172668A1 (en) * 2011-06-15 2012-12-20 株式会社 東芝 Video encoding method and device, and video decoding method and device
WO2013014693A1 (en) * 2011-07-22 2013-01-31 株式会社日立製作所 Video decoding method and image encoding method
JP2013520124A (en) * 2010-02-17 2013-05-30 ユニバーシティ−インダストリ コーポレーション グループ オブ キュン ヘ ユニバーシティ Coding structure
JP2013524731A (en) * 2010-04-12 2013-06-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated Mixing tap filter
JP2013132046A (en) * 2011-11-21 2013-07-04 Jvc Kenwood Corp Video decoder, video decoding method, video decoding program, receiver, receiving method, and receiving program
JP2013132047A (en) * 2011-11-21 2013-07-04 Jvc Kenwood Corp Video encoder, video encoding method, video encoding program, transmitter, transmission method, and transmission program
JP2013529877A (en) * 2010-07-12 2013-07-22 聯發科技股▲ふん▼有限公司Mediatek Inc. The method and apparatus of the temporal motion vector prediction
CN103227922A (en) * 2010-04-08 2013-07-31 株式会社东芝 The image decoding method and image decoding apparatus
JP5303683B2 (en) * 2010-09-24 2013-10-02 パナソニック株式会社 Picture coding method and the picture coding apparatus
JP2013219805A (en) * 2013-06-03 2013-10-24 Toshiba Corp Image encoding method and image decoding method
JP5367161B2 (en) * 2010-04-08 2013-12-11 株式会社東芝 Image encoding method, apparatus, and program
JP2014017848A (en) * 2010-04-08 2014-01-30 Toshiba Corp Image decoding method, device, and program
JP2014017853A (en) * 2013-09-11 2014-01-30 Toshiba Corp Image encoding method and image decoding method
JP2014090459A (en) * 2013-12-10 2014-05-15 Toshiba Corp Image encoding method and image decoding method
JP5509398B1 (en) * 2014-01-23 2014-06-04 株式会社東芝 Picture coding method and picture decoding method
JP2014103698A (en) * 2010-04-22 2014-06-05 Mediatek Inc Motion vector prediction method
WO2014107074A1 (en) * 2013-01-04 2014-07-10 삼성전자 주식회사 Motion compensation method and device for encoding and decoding scalable video
JP2014131295A (en) * 2014-01-23 2014-07-10 Toshiba Corp Image encoding method and image decoding method
JP2014131293A (en) * 2014-01-23 2014-07-10 Toshiba Corp Image encoding method and image decoding method
JP2014131294A (en) * 2014-01-23 2014-07-10 Toshiba Corp Image encoding method and image decoding method
JP2015019426A (en) * 2014-10-01 2015-01-29 株式会社東芝 Image encoding method and image decoding method
JPWO2012172668A1 (en) * 2011-06-15 2015-02-23 株式会社東芝 Video encoding method and apparatus and video decoding method and apparatus
JP2015053729A (en) * 2014-11-17 2015-03-19 株式会社東芝 Image encoding method, and image decoding method
JP2015092705A (en) * 2014-12-16 2015-05-14 株式会社日立製作所 Dynamic image decoding method and image coding method
JP2016007065A (en) * 2010-01-19 2016-01-14 サムスン エレクトロニクス カンパニー リミテッド Method and device for encoding/decoding motion vector based upon candidate for reduced prediction motion vector
JP2016129387A (en) * 2016-02-17 2016-07-14 株式会社東芝 Image encoding method and image decoding method
JP2016537839A (en) * 2013-09-26 2016-12-01 クゥアルコム・インコーポレイテッドQualcomm Incorporated Sub pu design in sub-prediction unit (pu) based temporal motion vector prediction and 3d-HEVC in Hevc
JP2017076980A (en) * 2016-10-24 2017-04-20 株式会社Jvcケンウッド Image encoding device
JP2017085616A (en) * 2016-12-16 2017-05-18 株式会社東芝 Image encoding method and image decoding method
JP2018023126A (en) * 2017-08-31 2018-02-08 株式会社東芝 Image encoding method and image decoding method
JP2018057016A (en) * 2017-11-13 2018-04-05 株式会社東芝 Image encoding method and image decoding method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304383A (en) * 1997-04-25 1998-11-13 Victor Co Of Japan Ltd Movement compensated encoding device/method and encoding recording medium
JP2004032355A (en) * 2002-06-26 2004-01-29 Nippon Telegr & Teleph Corp <Ntt> Motion picture encoding method, motion picture decoding method, and apparatus for the both method
JP2005244503A (en) * 2004-02-25 2005-09-08 Sony Corp Apparatus and method for coding image information
JP2007243784A (en) * 2006-03-10 2007-09-20 Victor Co Of Japan Ltd Moving image decoding device and moving image decoding method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304383A (en) * 1997-04-25 1998-11-13 Victor Co Of Japan Ltd Movement compensated encoding device/method and encoding recording medium
JP2004032355A (en) * 2002-06-26 2004-01-29 Nippon Telegr & Teleph Corp <Ntt> Motion picture encoding method, motion picture decoding method, and apparatus for the both method
JP2005244503A (en) * 2004-02-25 2005-09-08 Sony Corp Apparatus and method for coding image information
JP2007243784A (en) * 2006-03-10 2007-09-20 Victor Co Of Japan Ltd Moving image decoding device and moving image decoding method

Cited By (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9565447B2 (en) 2010-01-19 2017-02-07 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding motion vector based on reduced motion vector predictor candidates
JP2016007065A (en) * 2010-01-19 2016-01-14 サムスン エレクトロニクス カンパニー リミテッド Method and device for encoding/decoding motion vector based upon candidate for reduced prediction motion vector
JP2017108423A (en) * 2010-01-19 2017-06-15 サムスン エレクトロニクス カンパニー リミテッド Method and device for encoding/decoding motion vector on the basis of reduced predicted motion vector candidate
US10057597B2 (en) 2010-01-19 2018-08-21 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding motion vector based on reduced motion vector predictor candidates
US9571853B2 (en) 2010-01-19 2017-02-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding motion vector based on reduced motion vector predictor candidates
US9924170B2 (en) 2010-02-17 2018-03-20 University-Industry Cooperation Group Of Kyung Hee University Coding structure
US8891891B2 (en) 2010-02-17 2014-11-18 University-Industry Cooperation Group of Kyung Hee Universirty Coding structure
US10051272B2 (en) 2010-02-17 2018-08-14 University-Industry Cooperation Group Of Kyung Hee University Coding structure
JP2013520124A (en) * 2010-02-17 2013-05-30 ユニバーシティ−インダストリ コーポレーション グループ オブ キュン ヘ ユニバーシティ Coding structure
US10051271B2 (en) 2010-02-17 2018-08-14 University-Industry Cooperation Group Of Kyung Hee University Coding structure
US9794587B2 (en) 2010-04-08 2017-10-17 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10009623B2 (en) 2010-04-08 2018-06-26 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
CN103227922A (en) * 2010-04-08 2013-07-31 株式会社东芝 The image decoding method and image decoding apparatus
US9538181B2 (en) 2010-04-08 2017-01-03 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
WO2011125256A1 (en) * 2010-04-08 2011-10-13 株式会社 東芝 Image encoding method and image decoding method
CN102835109A (en) * 2010-04-08 2012-12-19 株式会社东芝 The image coding method and an image decoding method
CN102823248A (en) * 2010-04-08 2012-12-12 株式会社东芝 The image coding method and an image decoding method
JP5367161B2 (en) * 2010-04-08 2013-12-11 株式会社東芝 Image encoding method, apparatus, and program
JP5368631B2 (en) * 2010-04-08 2013-12-18 株式会社東芝 Image encoding method, apparatus, and program
CN103227922B (en) * 2010-04-08 2016-06-01 株式会社东芝 The image decoding method and image decoding apparatus
US10091525B2 (en) 2010-04-08 2018-10-02 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
WO2011125211A1 (en) * 2010-04-08 2011-10-13 株式会社 東芝 Image encoding method and image decoding method
US9906812B2 (en) 2010-04-08 2018-02-27 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
JP2014017848A (en) * 2010-04-08 2014-01-30 Toshiba Corp Image decoding method, device, and program
CN102823248B (en) * 2010-04-08 2015-06-24 株式会社东芝 Image encoding method and image decoding method
JP2013524731A (en) * 2010-04-12 2013-06-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated Mixing tap filter
US9219921B2 (en) 2010-04-12 2015-12-22 Qualcomm Incorporated Mixed tap filters
JP2014103698A (en) * 2010-04-22 2014-06-05 Mediatek Inc Motion vector prediction method
WO2012005194A1 (en) * 2010-07-09 2012-01-12 ソニー株式会社 Image processing device and method
JP2013529877A (en) * 2010-07-12 2013-07-22 聯發科技股▲ふん▼有限公司Mediatek Inc. The method and apparatus of the temporal motion vector prediction
US9961364B2 (en) 2010-07-12 2018-05-01 Hfi Innovation Inc. Method and apparatus of temporal motion vector prediction
US8861592B2 (en) 2010-09-24 2014-10-14 Panasonic Intellectual Property Corporation Of America Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
JP2013225898A (en) * 2010-09-24 2013-10-31 Panasonic Corp Image encoding/decoding apparatus
JP5303683B2 (en) * 2010-09-24 2013-10-02 パナソニック株式会社 Picture coding method and the picture coding apparatus
US9621915B2 (en) 2010-09-24 2017-04-11 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
US8848805B2 (en) 2010-09-24 2014-09-30 Panasonic Intellectual Property Corporation Of America Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
US9392298B2 (en) 2010-09-24 2016-07-12 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
JP2013211920A (en) * 2010-09-24 2013-10-10 Panasonic Corp Image decoding method and image decoding device
US9930334B2 (en) 2010-09-24 2018-03-27 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
WO2012172668A1 (en) * 2011-06-15 2012-12-20 株式会社 東芝 Video encoding method and device, and video decoding method and device
JPWO2012172668A1 (en) * 2011-06-15 2015-02-23 株式会社東芝 Video encoding method and apparatus and video decoding method and apparatus
JPWO2013014693A1 (en) * 2011-07-22 2015-02-23 株式会社日立製作所 Moving picture decoding method and a moving picture coding method
WO2013014693A1 (en) * 2011-07-22 2013-01-31 株式会社日立製作所 Video decoding method and image encoding method
JP5677576B2 (en) * 2011-07-22 2015-02-25 株式会社日立製作所 Moving picture decoding method and a moving picture coding method
JP2013132046A (en) * 2011-11-21 2013-07-04 Jvc Kenwood Corp Video decoder, video decoding method, video decoding program, receiver, receiving method, and receiving program
JP2013132047A (en) * 2011-11-21 2013-07-04 Jvc Kenwood Corp Video encoder, video encoding method, video encoding program, transmitter, transmission method, and transmission program
WO2014107074A1 (en) * 2013-01-04 2014-07-10 삼성전자 주식회사 Motion compensation method and device for encoding and decoding scalable video
JP2013219805A (en) * 2013-06-03 2013-10-24 Toshiba Corp Image encoding method and image decoding method
JP2014017853A (en) * 2013-09-11 2014-01-30 Toshiba Corp Image encoding method and image decoding method
JP2016537839A (en) * 2013-09-26 2016-12-01 クゥアルコム・インコーポレイテッドQualcomm Incorporated Sub pu design in sub-prediction unit (pu) based temporal motion vector prediction and 3d-HEVC in Hevc
JP2014090459A (en) * 2013-12-10 2014-05-15 Toshiba Corp Image encoding method and image decoding method
JP2014131293A (en) * 2014-01-23 2014-07-10 Toshiba Corp Image encoding method and image decoding method
JP2014131294A (en) * 2014-01-23 2014-07-10 Toshiba Corp Image encoding method and image decoding method
JP5509398B1 (en) * 2014-01-23 2014-06-04 株式会社東芝 Picture coding method and picture decoding method
JP2014131295A (en) * 2014-01-23 2014-07-10 Toshiba Corp Image encoding method and image decoding method
JP2015019426A (en) * 2014-10-01 2015-01-29 株式会社東芝 Image encoding method and image decoding method
JP2015053729A (en) * 2014-11-17 2015-03-19 株式会社東芝 Image encoding method, and image decoding method
JP2015092705A (en) * 2014-12-16 2015-05-14 株式会社日立製作所 Dynamic image decoding method and image coding method
JP2016129387A (en) * 2016-02-17 2016-07-14 株式会社東芝 Image encoding method and image decoding method
JP2017076980A (en) * 2016-10-24 2017-04-20 株式会社Jvcケンウッド Image encoding device
JP2017085616A (en) * 2016-12-16 2017-05-18 株式会社東芝 Image encoding method and image decoding method
JP2018023126A (en) * 2017-08-31 2018-02-08 株式会社東芝 Image encoding method and image decoding method
JP2018057016A (en) * 2017-11-13 2018-04-05 株式会社東芝 Image encoding method and image decoding method

Also Published As

Publication number Publication date Type
JP4977094B2 (en) 2012-07-18 grant

Similar Documents

Publication Publication Date Title
US20130156335A1 (en) Method for encoding and decoding video, and apparatus using same
US20060222074A1 (en) Method and system for motion estimation in a video encoder
US20100135389A1 (en) Method and apparatus for image encoding and image decoding
WO2010064396A1 (en) Moving picture decoding method and moving picture encoding method
US20090310677A1 (en) Image encoding and decoding method and apparatus
US20100284464A1 (en) Reducing computational complexity when video encoding uses bi-predictively encoded frames
WO2012128540A2 (en) Method for selecting motion vector predictor and device using same
WO2011125256A1 (en) Image encoding method and image decoding method
US20100226432A1 (en) Interpolation filtering method, image coding method, image decoding method, interpolation filtering apparatus, program, and integrated circuit
US20040240550A1 (en) Moving picture signal coding method, decoding method, coding apparatus, and decoding apparatus
KR20100074137A (en) Video coding method and video decoding method
JP2004032355A (en) Motion picture encoding method, motion picture decoding method, and apparatus for the both method
US20130148734A1 (en) Image coding apparatus, image coding method and image coding program, and image decoding apparatus, image decoding method and image decoding program
JP2010011075A (en) Method and apparatus for encoding and decoding moving image
JP2014529254A (en) Inter prediction method and apparatus
JP2010010950A (en) Image coding/decoding method and apparatus
JP2010135864A (en) Image encoding method, device, image decoding method, and device
WO2013036041A2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method
EP1469682A1 (en) Moving picture signal coding method, decoding method, coding apparatus, and decoding apparatus
WO2012148139A2 (en) Method for managing a reference picture list, and apparatus using same
JP5478740B2 (en) Moving picture coding apparatus, the moving picture decoding apparatus, moving picture coding method and the moving picture decoding method
JP2004165785A (en) Image coding method, image decoding method, image coder, image decoder, image coding program, image decoding program and recording medium with the programs
US20140064372A1 (en) Video encoding and decoding
WO2007105590A1 (en) Dynamic image encoding method and device and program using the same
JP2012028863A (en) Moving image encoder

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120413

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees