JP2013106312A - Image encoder, image encoding method and image encoding program - Google Patents

Image encoder, image encoding method and image encoding program Download PDF

Info

Publication number
JP2013106312A
JP2013106312A JP2011250823A JP2011250823A JP2013106312A JP 2013106312 A JP2013106312 A JP 2013106312A JP 2011250823 A JP2011250823 A JP 2011250823A JP 2011250823 A JP2011250823 A JP 2011250823A JP 2013106312 A JP2013106312 A JP 2013106312A
Authority
JP
Japan
Prior art keywords
prediction
motion
motion information
vector
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011250823A
Other languages
Japanese (ja)
Inventor
Kazumi Arakage
和美 荒蔭
Motoharu Ueda
基晴 上田
Shigeru Fukushima
茂 福島
Hiroya Nakamura
博哉 中村
Satoshi Sakazume
智 坂爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011250823A priority Critical patent/JP2013106312A/en
Publication of JP2013106312A publication Critical patent/JP2013106312A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve encoding efficiency when motion compensation prediction is used.SOLUTION: A prediction mode determination section 109 can select a mode for using an index of a reference block adjacent to a block of an encoding object and a difference vector between motion vector of the block of the encoding object and that of the reference block as motion information of the block of the encoding object. A prediction error encoding section 103 encodes a prediction error signal being a difference between a prediction signal generated based on the motion information supplied from the prediction mode determination section 109 and an image signal of the block of the encoding object. A motion information encoding section 110 encodes the motion information. When a prediction type acquired from the motion information of the reference block is single prediction, the prediction mode determination section 109 sets the motion vector of the single prediction to be the motion vector of first prediction and performs integral multiplication on the motion vector of the first prediction so as to generate the motion vector of second prediction for generating the motion vector of bi-prediction.

Description

本発明は、動き補償予測を用いた動画像符号化技術に関し、特に動き補償予測に利用する画像符号化装置、画像符号化方法及び画像符号化プログラムに関する。   The present invention relates to a moving image encoding technique using motion compensated prediction, and more particularly to an image encoding device, an image encoding method, and an image encoding program used for motion compensated prediction.

MPEG−4 AVC/H.264(以後、AVC)等に代表される動画像符号化では、時間方向の相関を利用した情報圧縮として、符号化対象となる画像信号である符号化対象ピクチャに対して、既に符号化され復号された局部復号信号を参照ピクチャとして用い、所定の符号化処理単位で、対象ピクチャと参照ピクチャとの間での動き量(以後、動きベクトル)を検出し、予測信号を生成する動き補償予測が用いられる。   MPEG-4 AVC / H. In moving picture coding represented by H.264 (hereinafter referred to as AVC) and the like, as information compression using correlation in the time direction, a picture to be coded which is a picture signal to be coded is already coded and decoded. Motion-compensated prediction that uses the local decoded signal as a reference picture, detects a motion amount (hereinafter referred to as a motion vector) between the target picture and the reference picture in a predetermined coding processing unit, and generates a prediction signal. Used.

AVCでは、動き補償予測において1つの参照ピクチャから1本の動きベクトルを利用して単一の予測信号を生成する単予測と、2つの参照ピクチャから2本の動きベクトルを利用して2つの予測信号を生成する双予測が用いられる。これらを所定の符号化処理単位となる16×16画素の2次元ブロック内で処理対象となっているブロック(以後、予測対象ブロック)の大きさを可変にする手法や、複数の参照ピクチャの中から予測に用いる参照ピクチャを選択する手法に適用することで、予測信号の情報量を削減している。符号化側では、予測モード情報や参照画像を指定する情報を選択して伝送し、復号側では、伝送された予測モード情報や参照画像を指定する情報に従って動き補償予測処理が施される。   In AVC, single prediction for generating a single prediction signal using one motion vector from one reference picture in motion compensated prediction, and two predictions using two motion vectors from two reference pictures. Bi-prediction that generates a signal is used. A method of changing the size of a block to be processed (hereinafter referred to as a prediction target block) within a 16 × 16 pixel two-dimensional block as a predetermined encoding processing unit, or among a plurality of reference pictures By applying this method to the method of selecting a reference picture used for prediction, the information amount of the prediction signal is reduced. On the encoding side, information specifying the prediction mode information and the reference image is selected and transmitted, and on the decoding side, motion compensation prediction processing is performed according to the transmitted prediction mode information and information specifying the reference image.

動きベクトルについては、処理対象ブロックに隣接する符号化済みのブロックの動きベクトルを予測動きベクトル(以降、予測ベクトル)とし、処理対象ブロックの動きベクトルと予測ベクトルとの差分を求め、差分ベクトルを符号化ベクトルとして伝送することで圧縮効率を向上させている。   For the motion vector, the motion vector of the encoded block adjacent to the processing target block is set as the prediction motion vector (hereinafter referred to as prediction vector), the difference between the motion vector of the processing target block and the prediction vector is obtained, and the difference vector is encoded. The compression efficiency is improved by transmitting as a vector.

更に、AVCにおいては、予測対象ブロックと同一位置にある参照ピクチャのブロックの符号化に用いられた動きベクトルを利用して、符号化ベクトルを伝送することなく動き補償予測を実現するダイレクト動き補償予測が知られている。   Further, in AVC, a direct motion compensated prediction that realizes motion compensated prediction without transmitting an encoded vector by using a motion vector used for encoding a block of a reference picture at the same position as the prediction target block. It has been known.

また、他の符号化ベクトルを伝送しない手法として、処理対象ブロックに隣接するブロックの動き情報を利用して、動き補償予測を実現する動き補償予測が知られている(例えば、特許文献1参照)。   In addition, as a method of not transmitting other encoded vectors, motion compensation prediction that realizes motion compensation prediction using motion information of a block adjacent to a processing target block is known (see, for example, Patent Document 1). .

特開平10−276439号公報JP-A-10-276439

上述したダイレクト動き補償予測は、予測対象ブロックと同一位置にある参照ピクチャのブロックにおける時間方向の動きの連続性に着目し、上述した符号化ベクトルを伝送しない動き補償予測は、予測対象ブロックと予測対象ブロックに隣接する符号化済ブロックにおける空間方向の動きの連続性に着目することで、他のブロックの動き情報をそのまま利用する。これにより、差分ベクトルを符号化ベクトルとして符号化せずに符号化効率を向上させている。   The direct motion compensated prediction described above pays attention to the continuity of motion in the temporal direction in the block of the reference picture located at the same position as the prediction target block, and the motion compensated prediction that does not transmit the coded vector described above is predicted as the prediction target block. By focusing on the continuity of motion in the spatial direction in the encoded block adjacent to the target block, the motion information of other blocks is used as it is. As a result, encoding efficiency is improved without encoding the difference vector as an encoded vector.

しかしながら、動きの連続性が十分保たれていない場合や、他ブロックの動き情報における動きベクトルが正確な動きを示していない場合などに、他のブロックの動き情報をそのまま利用する方式を用いた際には、ずれの生じた動き情報を用いた予測画像が生成される。その場合、精度良い動き補償予測画像を生成できず、符号化効率が向上しないという難しい面がある。   However, when the continuity of motion is not sufficiently maintained or when the motion vector in the motion information of other blocks does not indicate an accurate motion, etc. In this case, a predicted image using the motion information in which the shift has occurred is generated. In that case, there is a difficult aspect that a motion compensated prediction image with high accuracy cannot be generated and the encoding efficiency is not improved.

また、差分動きベクトルを符号化せずに動き補償を行わない場合には、差分動きベクトルを符号化する従来の動き補償予測が用いられるが、従来の動き補償予測を行う際には、予測モード情報や参照画像の指定情報、更に指定された参照画像に対して用いられる動きベクトルを予測ベクトルとの差分ベクトルとして、それぞれ符号化する必要がある。この場合、動き補償予測手法を指定する符号量が増大し、十分に符号化効率が向上しないという難しい面がある。   In addition, when motion compensation is not performed without encoding a differential motion vector, conventional motion compensated prediction that encodes a differential motion vector is used, but when performing conventional motion compensated prediction, a prediction mode is used. It is necessary to encode information, designation information of the reference image, and a motion vector used for the designated reference image as a difference vector from the prediction vector. In this case, there is a difficult aspect that the amount of codes for specifying the motion compensation prediction method increases and the encoding efficiency is not sufficiently improved.

本発明はこうした状況に鑑みてなされたものであり、その目的は、動き補償予測を使用する際の符号化効率を向上させる技術を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a technique for improving the coding efficiency when using motion compensation prediction.

上記課題を解決するために、本発明のある態様の画像符号化装置は、動画像の各ピクチャを分割したブロック単位で動きベクトルを検出して符号化する画像符号化装置であって、符号化対象ブロックの動き情報として、前記符号化対象ブロックに隣接する参照ブロックのインデックス、及び前記符号化対象ブロックの動きベクトルと前記参照ブロックの動きベクトルとの差分ベクトルを使用するモードを選択可能な予測モード判定部(109)と、前記予測モード判定部(109)から供給される動き情報をもとに生成される予測信号と、前記符号化対象ブロックの画像信号との差分である予測誤差信号を符号化する予測誤差信号符号化部(103)と、前記予測モード判定部(109)から供給される動き情報を符号化する動き情報符号化部(110)と、前記予測誤差信号符号化部(103)から供給される符号化データと、前記動き情報符号化部(110)から供給される符号化データとを多重化する多重化部(112)とを備える。前記予測モード判定部(109)は、前記参照ブロックの動き情報から取得される予測種別が単予測の場合、双予測の動きベクトルを生成するために、前記単予測の動きベクトルを第1予測の動きベクトルとし、前記第1予測の動きベクトルを整数倍することにより第2予測の動きベクトルを生成する。   In order to solve the above problems, an image encoding device according to an aspect of the present invention is an image encoding device that detects and encodes a motion vector in units of blocks obtained by dividing each picture of a moving image. Prediction mode capable of selecting a mode using an index of a reference block adjacent to the coding target block and a difference vector between the motion vector of the coding target block and the motion vector of the reference block as motion information of the target block A prediction error signal that is a difference between a prediction signal generated based on motion information supplied from the determination unit (109) and the prediction mode determination unit (109) and an image signal of the encoding target block is encoded. A prediction error signal encoding unit (103) to be encoded and motion information encoding to encode the motion information supplied from the prediction mode determination unit (109) (110) and a multiplexing unit (112) that multiplexes the encoded data supplied from the prediction error signal encoding unit (103) and the encoded data supplied from the motion information encoding unit (110). ). When the prediction type acquired from the motion information of the reference block is uni-prediction, the prediction mode determination unit (109) uses the uni-prediction motion vector as a first prediction in order to generate a bi-prediction motion vector. A motion vector for the second prediction is generated by multiplying the motion vector for the first prediction by an integer.

本発明の別の態様は、画像符号化方法である。この方法は、動画像の各ピクチャを分割したブロック単位で動きベクトルを検出して符号化する画像符号化方法であって、符号化対象ブロックの動き情報として、前記符号化対象ブロックに隣接する参照ブロックのインデックス、及び前記符号化対象ブロックの動きベクトルと前記参照ブロックの動きベクトルとの差分ベクトルを使用するモードを選択可能な予測モード判定ステップと、前記予測モード判定ステップから供給される動き情報をもとに生成される予測信号と、前記符号化対象ブロックの画像信号との差分である予測誤差信号を符号化する予測誤差信号符号化ステップと、前記予測モード判定ステップから供給される動き情報を符号化する動き情報符号化ステップと、前記予測誤差信号符号化ステップから供給される符号化データと、前記動き情報符号化ステップから供給される符号化データとを多重化する多重化ステップとを備える。前記予測モード判定ステップは、前記参照ブロックの動き情報から取得される予測種別が単予測の場合、双予測の動きベクトルを生成するために、前記単予測の動きベクトルを第1予測の動きベクトルとし、前記第1予測の動きベクトルを整数倍することにより第2予測の動きベクトルを生成する。   Another aspect of the present invention is an image encoding method. This method is an image coding method in which a motion vector is detected and coded in units of blocks obtained by dividing each picture of a moving image, and reference information adjacent to the coding target block is used as motion information of the coding target block. A prediction mode determination step capable of selecting a mode using a block index and a difference vector between the motion vector of the encoding target block and the motion vector of the reference block; and motion information supplied from the prediction mode determination step. A prediction error signal encoding step that encodes a prediction error signal that is a difference between a prediction signal that is originally generated and an image signal of the encoding target block; and motion information supplied from the prediction mode determination step. A motion information encoding step to be encoded, and encoded data supplied from the prediction error signal encoding step. When, and a multiplexing step of multiplexing the encoded data supplied from the motion information encoding step. When the prediction type acquired from the motion information of the reference block is uni-prediction, the prediction mode determination step uses the uni-prediction motion vector as a first-prediction motion vector to generate a bi-prediction motion vector. Then, a motion vector for the second prediction is generated by multiplying the motion vector for the first prediction by an integer.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.

本発明によれば、動き補償予測を使用する際の符号化効率を向上させることができる。   According to the present invention, it is possible to improve the coding efficiency when using motion compensated prediction.

本発明の実施の形態1に係る動画像符号化装置の構成を示す図である。It is a figure which shows the structure of the moving image encoder which concerns on Embodiment 1 of this invention. 符号化対象画像の一例を示す図である。It is a figure which shows an example of an encoding target image. 予測ブロックサイズの詳細な定義を示す図である。It is a figure which shows the detailed definition of prediction block size. 図4(a)〜(d)は、動き補償予測の予測種別について説明するための図である。4A to 4D are diagrams for explaining the prediction type of motion compensation prediction. 本発明の実施の形態1に係る動画像符号化装置における符号化処理の動作の流れ示すフローチャートである。It is a flowchart which shows the flow of the operation | movement of the encoding process in the moving image encoder which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る動画像復号装置の構成を示す図である。It is a figure which shows the structure of the moving image decoding apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る動画像復号装置における復号処理の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the decoding process in the moving image decoding apparatus which concerns on Embodiment 1 of this invention. 図8(a)、(b)は、本発明の実施の形態1における動き補償予測において使用される動き情報を符号化するための3つの予測モードを説明するための図である。FIGS. 8A and 8B are diagrams for explaining three prediction modes for encoding motion information used in motion compensated prediction according to Embodiment 1 of the present invention. 動き補償予測および動き補償予測を実施しない画面内予測における、動き補償の予測の数と、参照画像を定義する情報、及び符号化する動きベクトル数の関連に関して説明するための図である。It is a figure for demonstrating the relationship between the number of the predictions of motion compensation, the information which defines a reference image, and the number of the motion vectors to encode in the prediction in motion which does not implement motion compensation prediction and motion compensation prediction. 実施の形態1の動画像符号化装置におけるモード判定部の詳細な構成を示す図である。FIG. 3 is a diagram illustrating a detailed configuration of a mode determination unit in the moving image encoding device according to the first embodiment. 予測ベクトル算出部の構成を示す図である。It is a figure which shows the structure of a prediction vector calculation part. 結合動き情報算出部の構成を示す図である。It is a figure which shows the structure of a joint motion information calculation part. 結合動き修正動き補償予測生成部の構成を示す図である。It is a figure which shows the structure of a joint motion correction motion compensation prediction production | generation part. 図10の予測モード判定部を介して動作する、図5のステップS502である動き補償予測モード/予測信号生成の動作について説明するためのフローチャートである。FIG. 11 is a flowchart for explaining an operation of motion compensation prediction mode / prediction signal generation, which is step S502 of FIG. 5, which operates via the prediction mode determination unit of FIG. 図14のステップS1400における結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of combined motion information candidate list generation in step S1400 of FIG. 空間結合動き情報候補リスト生成に用いる空間候補ブロック群を示す図である。It is a figure which shows the space candidate block group used for a space joint motion information candidate list generation. 空間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of a space joint motion information candidate list generation. 時間結合動き情報候補リスト生成に用いる時間候補ブロック群を示す図である。It is a figure which shows the time candidate block group used for a time joint movement information candidate list generation. 時間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of time coupling | bonding motion information candidate list generation. 時間結合動き情報に対する基準動きベクトル値ColMvに対する、L0予測、L1予測に対して登録する動きベクトル値mvL0t、mvL1tの算出手法を説明するための図である。It is a figure for demonstrating the calculation method of the motion vector value mvL0t and mvL1t registered with respect to the reference | standard motion vector value ColMv with respect to time coupling | bonding motion information with respect to L0 prediction and L1 prediction. 図19のステップS1401における結合予測モード評価値生成の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of combined prediction mode evaluation value generation in step S1401 of FIG. 図14のステップS1402における結合動き修正予測モード評価値生成の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of combined motion correction prediction mode evaluation value production | generation in step S1402 of FIG. 図23(a)〜(c)は、結合動き修正予測モードにおける結合動き情報に対するスケーリング処理の概念を示す図である。FIGS. 23A to 23C are diagrams illustrating the concept of scaling processing for combined motion information in the combined motion modified prediction mode. 各結合動き情報に対して存在するスケーリングされて生成した動きベクトル数を示す図である。It is a figure which shows the number of the motion vectors generated by scaling which exist with respect to each joint motion information. 図25(a)〜(c)は、実施の形態1における差分動きベクトル伝送参照画像確定アルゴリズムを示す概念図である。FIGS. 25A to 25C are conceptual diagrams showing the differential motion vector transmission reference image determination algorithm in the first embodiment. 図22のステップS2203の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S2203 of FIG. 図26のステップS2601の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S2601 of FIG. 図27のステップS2702の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S2702 of FIG. 図14のステップS1403の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S1403 of FIG. 図29のステップS2901の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S2901 of FIG. 空間動き情報利用予測ベクトル候補リスト生成の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of spatial motion information utilization prediction vector candidate list generation. 時間動き情報利用予測ベクトル候補リスト生成の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of temporal motion information utilization prediction vector candidate list generation. 図14のステップS1404の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S1404 of FIG. 図5のステップS504の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S504 of FIG. 実施の形態1における動き予測フラグの一例を示す図である。6 is a diagram illustrating an example of a motion prediction flag according to Embodiment 1. FIG. 図34のフローチャートで示した、動き情報符号化データ生成処理によって生成される符号化ストリームのシンタックスの一例を示す図である。FIG. 35 is a diagram illustrating an example of syntax of an encoded stream generated by motion information encoded data generation processing illustrated in the flowchart of FIG. 34. 図6に示した実施の形態1の動画像復号装置における動き情報復号部の詳細な構成を示す図である。It is a figure which shows the detailed structure of the motion information decoding part in the moving image decoding apparatus of Embodiment 1 shown in FIG. 図7のステップS701の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S701 of FIG. 図38のステップS3802の詳細動作を説明するためのフローチャートである。FIG. 39 is a flowchart for explaining detailed operation of step S3802 of FIG. 38. FIG. 図38のステップS3807の詳細動作を説明するためのフローチャートである。FIG. 39 is a flowchart for explaining detailed operation of step S3807 of FIG. 38. FIG. 図38のステップS3811の詳細動作を説明するためのフローチャートである。FIG. 39 is a flowchart for explaining detailed operation of step S3811 of FIG. 38. FIG. 図38のステップS3810の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S3810 of FIG. 図43(a)〜(d)は、結合動き修正予測モードにおける結合動き情報に対するスケーリング処理の概念を示す図である。43 (a) to 43 (d) are diagrams showing the concept of scaling processing for combined motion information in the combined motion modified prediction mode. 実施の形態2における参照画像リストの一例を示す図である。FIG. 10 is a diagram showing an example of a reference image list in the second embodiment. 結合動き修正動き補償予測生成部の構成を示す図である。It is a figure which shows the structure of a joint motion correction motion compensation prediction production | generation part. 結合動き修正動き補償予測生成部の構成を用いた結合動き修正予測モード評価値生成の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of joint motion correction prediction mode evaluation value production | generation using the structure of a joint motion correction motion compensation prediction production | generation part. 図7のステップS701の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S701 of FIG. 図47のステップS4711の詳細動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of step S4711 of FIG. CurrL0DistおよびCurrL1Distの絶対値から、除算結果を得るテーブルである。It is a table which obtains a division result from the absolute value of CurrL0Dist and CurrL1Dist.

以下、図面とともに本発明の実施の形態に係る動画像符号化装置、動画像符号化方法、動画像符号化プログラム、並びに動画像復号装置、動画像復号方法、動画像復号プログラムの好適な実施の形態について詳細に説明する。なお、図面の説明には同一要素には同一符号を付与して重複する説明を省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Preferred embodiments of a moving image encoding apparatus, a moving image encoding method, a moving image encoding program, a moving image decoding apparatus, a moving image decoding method, and a moving image decoding program according to an embodiment of the present invention will be described below with reference to the drawings. A form is demonstrated in detail. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

(実施の形態1)
[動画像符号化装置全体構成]
図1は、本発明の実施の形態1に係る動画像符号化装置の構成を示す図である。以下、各部の動作について説明する。実施の形態1に係る動画像符号化装置は、入力端子100、減算部101、直交変換・量子化部102、予測誤差符号化部103、逆量子化・逆変換部104、加算部105、復号画像メモリ106、動きベクトル検出部107、動き補償予測部108、予測モード判定部109、動き情報符号化部110、動き情報メモリ111、多重化部112、及び出力端子113を備える。
(Embodiment 1)
[Overall configuration of video encoding apparatus]
FIG. 1 is a diagram showing a configuration of a moving picture coding apparatus according to Embodiment 1 of the present invention. Hereinafter, the operation of each unit will be described. The moving picture coding apparatus according to Embodiment 1 includes an input terminal 100, a subtraction unit 101, an orthogonal transformation / quantization unit 102, a prediction error coding unit 103, an inverse quantization / inverse transformation unit 104, an addition unit 105, and a decoding An image memory 106, a motion vector detection unit 107, a motion compensation prediction unit 108, a prediction mode determination unit 109, a motion information encoding unit 110, a motion information memory 111, a multiplexing unit 112, and an output terminal 113 are provided.

入力端子100より入力される画像信号から符号化処理対象の予測ブロックの画像信号が、予測ブロックの位置情報と予測ブロックサイズに基づいて切り出され、予測ブロックの画像信号は、減算部101、動きベクトル検出部107及び予測モード判定部109に供給される。   The image signal of the prediction block to be encoded is extracted from the image signal input from the input terminal 100 based on the position information and the prediction block size of the prediction block, and the image signal of the prediction block is subtracted by the subtractor 101, the motion vector. This is supplied to the detection unit 107 and the prediction mode determination unit 109.

図2は、符号化対象画像の一例を示す図である。実施の形態1に係る予測ブロックサイズに関しては、図2に示すように符号化対象画像が64×64画素の符号化ブロック(CU)単位で符号化処理され、予測ブロックは符号化ブロックが更に分割された単位で構成される。最大予測ブロックサイズは符号化ブロックと同じ64×64画素で、最小予測ブロックサイズは4×4画素である。符号化ブロックの予測ブロックへの分割構成は、非分割(2N×2N)、水平・垂直への分割(N×N)、水平方向のみへの分割(2N×N)、垂直方向のみへの分割(N×2N)が可能である。水平・垂直への分割の場合のみ、更に分割された予測ブロックを符号化ブロックとして階層的に予測ブロックに分割でき、その階層をCU分割数で表現する。   FIG. 2 is a diagram illustrating an example of an encoding target image. Regarding the prediction block size according to the first embodiment, as shown in FIG. 2, the encoding target image is encoded in units of 64 × 64 pixel encoding blocks (CU), and the prediction block is further divided into encoding blocks. Unit. The maximum prediction block size is 64 × 64 pixels, which is the same as the encoded block, and the minimum prediction block size is 4 × 4 pixels. The coding block is divided into prediction blocks: non-division (2N × 2N), horizontal / vertical division (N × N), horizontal only division (2N × N), and vertical division only (N × 2N) is possible. Only in the case of horizontal and vertical division, the further divided prediction block can be divided into prediction blocks hierarchically as encoded blocks, and the hierarchy is expressed by the number of CU divisions.

図3は、予測ブロックサイズの詳細な定義を示す図である。CU分割数が0であって最大の予測ブロックサイズである64画素×64画素から、CU分割数が3であって最小の予測ブロックサイズである4画素×4画素までの13の予測ブロックサイズが存在することになる。   FIG. 3 is a diagram showing a detailed definition of the predicted block size. There are 13 predicted block sizes from 64 pixels × 64 pixels, which is the maximum predicted block size with 0 CU divisions, to 4 pixels × 4 pixels, which is the minimum predicted block size with 3 CU partitions. Will exist.

本発明の実施の形態1に係る予測ブロックの分割構成に関して、この組み合わせに限定されない。また、動画像符号化装置における予測ブロックサイズの選択は、符号化ブロック単位で符号化効率のより良い構造を適応的に選択することが可能であるが、実施の形態1は予測ブロック単位での画面間予測及び画面間動き情報の符号化に注目したものであるため、最適な予測ブロックサイズの選択に関する構成要素及び説明を省略する。以降の動画像符号化装置の動作に関しては、選択した予測ブロックサイズ単位で施される動作を説明する。   Regarding the division | segmentation structure of the prediction block which concerns on Embodiment 1 of this invention, it is not limited to this combination. In addition, the selection of the prediction block size in the moving image encoding apparatus can adaptively select a structure with better encoding efficiency in units of encoding blocks, but the first embodiment is in units of prediction blocks. Since attention is paid to inter-frame prediction and inter-frame motion information encoding, the components and description relating to selection of the optimal prediction block size are omitted. Regarding the subsequent operation of the video encoding apparatus, the operation performed in units of the selected prediction block size will be described.

図1に戻り、減算部101は、入力端子100より供給される画像信号と予測モード判定部109より供給される予測信号を減算して予測誤差信号を算出し、予測誤差信号を直交変換・量子化部102に供給する。   Returning to FIG. 1, the subtraction unit 101 subtracts the image signal supplied from the input terminal 100 and the prediction signal supplied from the prediction mode determination unit 109 to calculate a prediction error signal, and orthogonally transforms / quantizes the prediction error signal. To the conversion unit 102.

直交変換・量子化部102は、減算部101より供給される予測誤差信号に直交変換及び量子化を施し、量子化された予測誤差信号を予測誤差符号化部103及び逆量子化・逆変換部104に供給する。   The orthogonal transform / quantization unit 102 performs orthogonal transform and quantization on the prediction error signal supplied from the subtraction unit 101, and the quantized prediction error signal is subjected to a prediction error encoding unit 103 and an inverse quantization / inverse conversion unit. 104 is supplied.

予測誤差符号化部103は、直交変換・量子化部102より供給される量子化された予測誤差信号をエントロピー符号化して、予測誤差信号に対する符号列を生成して、多重化部112に供給する。   The prediction error encoding unit 103 entropy-encodes the quantized prediction error signal supplied from the orthogonal transform / quantization unit 102, generates a code string for the prediction error signal, and supplies the code sequence to the multiplexing unit 112 .

逆量子化・逆変換部104は、直交変換・量子化部102より供給される量子化された予測誤差信号に対して、逆量子化や逆直交変換などの処理を行い、復号予測誤差信号を生成し加算部105に供給する。   The inverse quantization / inverse transform unit 104 performs processing such as inverse quantization and inverse orthogonal transform on the quantized prediction error signal supplied from the orthogonal transform / quantization unit 102, and outputs the decoded prediction error signal. Generated and supplied to the adding unit 105.

加算部105は、逆量子化・逆変換部104より供給される復号予測誤差信号と、予測モード判定部109より供給される予測信号を加算して、復号画像信号を生成し、復号画像信号を復号画像メモリ116に供給する。   The addition unit 105 adds the decoded prediction error signal supplied from the inverse quantization / inverse conversion unit 104 and the prediction signal supplied from the prediction mode determination unit 109, generates a decoded image signal, and outputs the decoded image signal. The decoded image memory 116 is supplied.

復号画像メモリ106は、加算部105より供給される復号画像信号を格納する。また、画像全体の復号が完了した復号画像については参照画像として1以上の所定画像数記憶し、参照画像信号を動きベクトル検出部107と動き補償予測部108に供給する。   The decoded image memory 106 stores the decoded image signal supplied from the adding unit 105. In addition, a decoded image for which decoding of the entire image has been completed is stored as a reference image by a predetermined number of images, and the reference image signal is supplied to the motion vector detection unit 107 and the motion compensation prediction unit 108.

動きベクトル検出部107は、入力端子100より供給される予測ブロックの画像信号と、復号画像メモリ106に記憶された参照画像信号の入力を受けて、各参照画像に対する動きベクトルを検出し、動きベクトル値を予測モード判定部109に供給する。   The motion vector detection unit 107 receives the prediction block image signal supplied from the input terminal 100 and the reference image signal stored in the decoded image memory 106, detects the motion vector for each reference image, and detects the motion vector. The value is supplied to the prediction mode determination unit 109.

一般的な動きベクトルの検出方法は、画像信号と同一位置より所定の移動量だけ移動させた参照画像に相当する画像信号について誤差評価値を算出し、誤差評価値が最小となる移動量を動きベクトルとする。誤差評価値としては、画素毎の差分絶対値の総和SAD(Sum of Absolute Difference)や、画素毎の二乗誤差値の総和SSE(Sum of Square Error)等を利用する。さらに、動きベクトルの符号化に関わる符号量も誤差評価値に含めることも可能である。   A general motion vector detection method calculates an error evaluation value for an image signal corresponding to a reference image moved by a predetermined movement amount from the same position as the image signal, and moves the movement amount that minimizes the error evaluation value. Let it be a vector. As the error evaluation value, a sum of absolute differences SAD (Sum of Absolute Difference) for each pixel, a sum of square error values SSE (Sum of Square Error) for each pixel, or the like is used. Furthermore, the code amount related to the coding of the motion vector can also be included in the error evaluation value.

動き補償予測部108は、予測モード判定部109より指定される参照画像指定情報と、動きベクトル値に従って、復号画像メモリ106内の参照画像指定情報で示される参照画像を、動きベクトル値だけ予測ブロックの画像信号と同一位置より移動させた位置の画像信号を取得して予測信号を生成する。   The motion compensated prediction unit 108 predicts the reference image indicated by the reference image designation information in the decoded image memory 106 by a motion vector value according to the reference image designation information designated by the prediction mode determination unit 109 and the motion vector value. An image signal at a position moved from the same position as the image signal is acquired to generate a prediction signal.

予測モード判定部109より指定される予測モードが単予測の場合には、1つの参照画像から取得した予測信号を動き補償予測信号とし、予測モードが双予測の場合には、2つの参照画像から取得した予測信号を重みづけ平均したものを動き補償予測信号とし、動き補償予測信号を予測モード判定部109に供給する。ここでは双予測の重みづけ平均の比率を1:1とする。   When the prediction mode specified by the prediction mode determination unit 109 is uni-prediction, a prediction signal acquired from one reference image is used as a motion-compensated prediction signal. When the prediction mode is bi-prediction, two reference images are used. A weighted average of the obtained prediction signals is used as a motion compensation prediction signal, and the motion compensation prediction signal is supplied to the prediction mode determination unit 109. Here, the ratio of the weighted average of bi-prediction is set to 1: 1.

図4(a)〜(d)は、動き補償予測の予測種別について説明するための図である。単一の参照画像からの予測を行う処理を単予測と定義し、単予測の場合はL0予測の参照画像リストまたはL1予測の参照画像リストの2つの参照画像管理リストに登録された参照画像のいずれか一方を利用する。   4A to 4D are diagrams for explaining the prediction type of motion compensation prediction. The process of performing prediction from a single reference image is defined as single prediction. In the case of single prediction, the reference image registered in the two reference image management lists of the reference image list for L0 prediction or the reference image list for L1 prediction is used. Use either one.

図4(a)は単予測であってL0予測の参照画像(RefL0Pic)が符号化対象画像(CurPic)より前の時刻にある場合を示している。図4(b)は単予測であってL0予測の参照画像が符号化対象画像より後の時刻にある場合を示している。同様に、図4(a)および図4(b)のL0予測の参照画像をL1予測の参照画像(RefL1Pic)に置き換えて単予測を行うこともできる。   FIG. 4A shows a case of single prediction and the reference image (RefL0Pic) for L0 prediction is at a time before the encoding target image (CurPic). FIG. 4B shows a case in which the prediction image is a single prediction and the reference image of the L0 prediction is at a time after the encoding target image. Similarly, the L0 prediction reference image shown in FIGS. 4A and 4B can be replaced with the L1 prediction reference image (RefL1Pic) to perform single prediction.

2つの参照画像からの予測を行う処理を双予測と定義し、双予測の場合はL0予測とL1予測の双方を利用してBI予測と表現する。図4(c)は双予測であってL0予測の参照画像が符号化対象画像より前の時刻にあって、L1予測の参照画像が符号化対象画像より後の時刻にある場合を示している。図4(d)は双予測であってL0予測の参照画像とL1予測の参照画像が符号化対象画像より前の時刻にある場合を示している。このように、L0/L1の予測と時間の関係は、L0が過去方向、L1が未来方向とは限定されずに用いることが可能である。   The process of performing prediction from two reference images is defined as bi-prediction. In the case of bi-prediction, both L0 prediction and L1 prediction are used to represent BI prediction. FIG. 4C illustrates a case where bi-prediction is performed, and the reference image for L0 prediction is at a time before the encoding target image and the reference image for L1 prediction is at a time after the encoding target image. . FIG. 4D shows a case of bi-prediction, where the reference image for L0 prediction and the reference image for L1 prediction are at a time before the encoding target image. As described above, the relationship between the prediction of L0 / L1 and time can be used without being limited to L0 being the past direction and L1 being the future direction.

実施の形態1では、参照画像及び符号化対象画像の時刻を示す情報としてPOC(Picture Order Count)を用いる。POCはAVCで定義された画像の表示順序を示すカウンタである。画像の表示順序が1増加するとPOCも1増加する。したがって、画像間のPOC差から画像間の時間差(距離)を取得できる。   In the first embodiment, POC (Picture Order Count) is used as information indicating the time of the reference image and the encoding target image. POC is a counter indicating the display order of images defined by AVC. When the image display order is increased by 1, the POC is also increased by 1. Therefore, the time difference (distance) between images can be acquired from the POC difference between images.

図1に戻り、予測モード判定部109は、動きベクトル検出部107より入力される各参照画像に対して検出された動きベクトル値と、動き情報メモリ111に格納された動き情報(予測種別、動きベクトル値、及び参照画像指定情報)をもとに、実施の形態1において定義した動き補償予測モードのそれぞれに対して用いられる、参照画像指定情報と動きベクトル値を動き補償予測部108に設定する。設定した値によって、動き補償予測部108から供給される動き補償予測信号と、入力端子100より供給される予測ブロックの画像信号を用いて、最適な動き補償予測モードを決定する。   Returning to FIG. 1, the prediction mode determination unit 109 detects the motion vector value detected for each reference image input from the motion vector detection unit 107 and the motion information stored in the motion information memory 111 (prediction type, motion Based on the vector value and the reference image designation information), the reference image designation information and the motion vector value used for each of the motion compensation prediction modes defined in the first embodiment are set in the motion compensation prediction unit 108. . Based on the set value, an optimal motion compensation prediction mode is determined using the motion compensation prediction signal supplied from the motion compensation prediction unit 108 and the image signal of the prediction block supplied from the input terminal 100.

予測モード判定部109は、決定した予測モード、及び予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定する情報を、動き情報符号化部110に供給し、決定した予測モード及びその予測モードに対する、予測種別、動きベクトル値、及び参照画像指定情報を動き情報メモリ111に供給すると共に、減算部101及び加算部105に決定した予測モードに対応する予測信号を供給する。   The prediction mode determination unit 109 supplies information that identifies the determined prediction mode and the prediction type, motion vector, and reference image designation information corresponding to the prediction mode to the motion information encoding unit 110, and determines the determined prediction mode and A prediction type, a motion vector value, and reference image designation information for the prediction mode are supplied to the motion information memory 111, and a prediction signal corresponding to the determined prediction mode is supplied to the subtraction unit 101 and the addition unit 105.

動画像符号化装置において、基準とする参照画像を符号化するために同一画面内の符号化済画像を用いて予測を行う画面内予測が行われるが、実施の形態1は画面間予測に注目したものであるため、画面内予測に関連する構成要素は省略する。予測モード判定部109の詳細な構成については後述する。   In the moving image encoding apparatus, intra-frame prediction is performed in which prediction is performed using an encoded image in the same screen in order to encode a reference image as a reference. Embodiment 1 focuses on inter-screen prediction. Therefore, the components related to the intra prediction are omitted. A detailed configuration of the prediction mode determination unit 109 will be described later.

動き情報符号化部110は、予測モード判定部109より供給される予測モード、及び予測モードに応じた予測の種類、動きベクトル、及び参照画像指定情報を特定する情報を所定のシンタックス構造に従って符号化することで、動き情報の符号列を生成し、多重化部112に供給する。動き情報符号化部110の詳細な構成については後述する。   The motion information encoding unit 110 encodes the prediction mode supplied from the prediction mode determination unit 109 and information specifying the prediction type, the motion vector, and the reference image designation information according to the prediction mode according to a predetermined syntax structure. By doing so, a code string of motion information is generated and supplied to the multiplexing unit 112. A detailed configuration of the motion information encoding unit 110 will be described later.

動き情報メモリ111は、予測モード判定部109より供給される動き情報(予測種別、動きベクトル、及び参照画像インデックス)を、最小予測ブロックサイズ単位を基準として所定画像分記憶する。処理対象の予測ブロックの隣接ブロックの動き情報を空間候補ブロック群とし、処理対象の予測ブロックと同一位置にあるColPic上のブロックとその周辺ブロックの動き情報を時間候補ブロック群とする。   The motion information memory 111 stores motion information (prediction type, motion vector, and reference image index) supplied from the prediction mode determination unit 109 for a predetermined image on the basis of the minimum prediction block size unit. The motion information of the adjacent block of the prediction block to be processed is set as a spatial candidate block group, and the motion information of the block on the ColPic at the same position as the prediction block to be processed and its neighboring blocks is set as the time candidate block group.

ColPicとは、処理対象の予測ブロックとは別の復号済みの画像であって、復号画像メモリ106に参照画像として記憶されている。実施の形態1では、ColPicは直前に復号した参照画像とする。なお、実施の形態1では、ColPicは直前に復号した参照画像としたが、表示順で直前の参照画像や表示順で直後の参照画像でもよく、符号化ストリーム中に、ColPicに用いる参照画像を直接指定することも可能である。   ColPic is a decoded image different from the prediction block to be processed, and is stored in the decoded image memory 106 as a reference image. In Embodiment 1, ColPic is a reference image decoded immediately before. In the first embodiment, ColPic is the reference image decoded immediately before, but the reference image immediately before in display order or the reference image immediately after in display order may be used, and the reference image used for ColPic is included in the encoded stream. Direct specification is also possible.

動き情報メモリ111は、空間候補ブロック群と時間候補ブロック群の動き情報を、候補ブロック群の動き情報として予測モード判定部109に供給する。多重化部112は、予測誤差符号化部103から供給される予測誤差の符号化列と、動き情報符号化部110から供給される動き情報の符号化列を多重化することで符号化ビットストリームを生成し、出力端子113経由で、記録媒体・伝送路等に当該符号化ビットストリームを出力する。   The motion information memory 111 supplies the motion information of the spatial candidate block group and the temporal candidate block group to the prediction mode determination unit 109 as motion information of the candidate block group. The multiplexing unit 112 multiplexes the prediction error encoded sequence supplied from the prediction error encoding unit 103 and the motion information encoded sequence supplied from the motion information encoding unit 110 to encode the encoded bit stream. And the encoded bit stream is output to the recording medium / transmission path via the output terminal 113.

図1に示した動画像符号化装置の構成は、CPU(Central Processing Unit)、フレームメモリ、ハードディスクなどを備える情報処理装置等のハードウェアによっても実現可能である。   The configuration of the moving picture encoding apparatus shown in FIG. 1 can also be realized by hardware such as an information processing apparatus including a CPU (Central Processing Unit), a frame memory, and a hard disk.

図5は、本発明の実施の形態1に係る動画像符号化装置における符号化処理の動作の流れ示すフローチャートである。予測ブロック単位毎に、入力端子100より処理対象の予測ブロック画像を取得する(S500)。動きベクトル検出部107は、処理対象の予測ブロック画像と復号画像メモリ106に格納された複数の参照画像より、参照画像毎の動きベクトル値を算出する(S501)。   FIG. 5 is a flowchart showing the flow of the encoding process in the video encoding apparatus according to Embodiment 1 of the present invention. A prediction block image to be processed is acquired from the input terminal 100 for each prediction block unit (S500). The motion vector detection unit 107 calculates a motion vector value for each reference image from the prediction block image to be processed and a plurality of reference images stored in the decoded image memory 106 (S501).

続いて、予測モード判定部109は、動きベクトル検出部107より供給される動きベクトルと、動き情報メモリ111に格納された動き情報を用いて、実施の形態1において定義した動き補償予測モードのそれぞれに対する予測信号を、動き補償予測部108を用いて取得し、最適な予測モードを選択し、予測信号を生成する(S502)。ステップS502の処理の詳細については後述する。   Subsequently, the prediction mode determination unit 109 uses each of the motion vectors supplied from the motion vector detection unit 107 and the motion information stored in the motion information memory 111 to each of the motion compensation prediction modes defined in the first embodiment. Is obtained using the motion compensation prediction unit 108, an optimal prediction mode is selected, and a prediction signal is generated (S502). Details of the processing in step S502 will be described later.

続いて、減算部101は、処理対象の予測ブロック画像と予測モード判定部109より供給された予測信号との差分を予測誤差信号として算出する(S503)。動き情報符号化部110は、予測モード判定部109より供給される予測モード、及び予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定する情報を所定のシンタックス構造に従って符号化し、動き情報の符号化データを生成する(S504)。ステップS504の処理の詳細については後述する。   Subsequently, the subtraction unit 101 calculates a difference between the prediction block image to be processed and the prediction signal supplied from the prediction mode determination unit 109 as a prediction error signal (S503). The motion information encoding unit 110 encodes the prediction mode supplied from the prediction mode determination unit 109 and information specifying the prediction type, the motion vector, and the reference image designation information according to the prediction mode according to a predetermined syntax structure. Then, encoded data of motion information is generated (S504). Details of the processing in step S504 will be described later.

続いて、予測誤差符号化部103は、直交変換・量子化部102で生成された量子化された予測誤差信号をエントロピー符号化して、予測誤差の符号化データを生成する(S505)。多重化部112は、動き情報符号化部110から供給される動き情報の符号化データと、予測誤差符号化部103から供給される予測誤差の符号化データを多重化し、符号化ビットストリームを生成する(S506)。   Subsequently, the prediction error encoding unit 103 entropy encodes the quantized prediction error signal generated by the orthogonal transform / quantization unit 102 to generate encoded data of the prediction error (S505). The multiplexing unit 112 multiplexes the motion information encoded data supplied from the motion information encoding unit 110 and the prediction error encoded data supplied from the prediction error encoding unit 103 to generate an encoded bitstream. (S506).

加算部105は、逆量子化・逆変換部104より供給される復号予測誤差信号と、予測モード判定部109より供給される予測信号を加算して、復号画像信号を生成する(S507)。加算部105によって、生成された復号画像信号が復号画像メモリ106に供給、格納され、以降に符号化する符号化画像の動き補償予測処理に用いられる(S508)。動き情報メモリ111は、動きベクトル検出部107より供給される動き情報(予測種別、動きベクトル、及び参照画像指定情報)を最小の予測ブロックサイズ単位で格納する(S509)。   The adding unit 105 adds the decoded prediction error signal supplied from the inverse quantization / inverse transform unit 104 and the prediction signal supplied from the prediction mode determination unit 109 to generate a decoded image signal (S507). The generated decoded image signal is supplied to and stored in the decoded image memory 106 by the adding unit 105, and is used for motion compensation prediction processing of an encoded image to be encoded later (S508). The motion information memory 111 stores the motion information (prediction type, motion vector, and reference image designation information) supplied from the motion vector detection unit 107 in units of the minimum predicted block size (S509).

[動画像復号装置全体構成]
図6は、本発明の実施の形態1に係る動画像復号装置の構成を示す図である。以下、各部の動作について説明する。実施の形態1に係る動画像復号装置は、入力端子600、多重分離部601、予測差分情報復号部602、逆量子化・逆変換部603、加算部604、復号画像メモリ605、動き情報復号部606、動き情報メモリ607、動き補償予測部608、及び出力端子609を備える。
[Overall configuration of video decoding apparatus]
FIG. 6 is a diagram showing a configuration of the moving picture decoding apparatus according to Embodiment 1 of the present invention. Hereinafter, the operation of each unit will be described. The video decoding apparatus according to Embodiment 1 includes an input terminal 600, a demultiplexing unit 601, a prediction difference information decoding unit 602, an inverse quantization / inverse transformation unit 603, an addition unit 604, a decoded image memory 605, and a motion information decoding unit. 606, a motion information memory 607, a motion compensation prediction unit 608, and an output terminal 609.

入力端子600より符号化ビットストリームが多重分離部601に供給される。多重分離部601は、供給された符号化ビットストリームの符号列を予測誤差情報の符号化列と、予測モード、並びに予測モードに応じた予測の種類、動きベクトル、及び参照画像指定情報を特定する情報で構成される動き情報の符号化列に分離する。当該予測誤差情報の符号化列を予測差分情報復号部602に供給し、当該動き情報の符号化列を動き情報復号部606に供給する。   The encoded bit stream is supplied from the input terminal 600 to the demultiplexing unit 601. The demultiplexing unit 601 specifies the code sequence of the supplied encoded bitstream, the encoded sequence of the prediction error information, the prediction mode, the prediction type according to the prediction mode, the motion vector, and the reference image designation information. It separates into motion information encoded sequences composed of information. The encoded sequence of the prediction error information is supplied to the prediction difference information decoding unit 602, and the encoded sequence of the motion information is supplied to the motion information decoding unit 606.

予測差分情報復号部602は、多重分離部601より供給された予測誤差情報の符号化列を復号し、量子化された予測誤差信号を生成する。予測差分情報復号部602は、生成した量子化された予測誤差信号を逆量子化・逆変換部603に供給する。   The prediction difference information decoding unit 602 decodes the encoded sequence of the prediction error information supplied from the demultiplexing unit 601 and generates a quantized prediction error signal. The prediction difference information decoding unit 602 supplies the generated quantized prediction error signal to the inverse quantization / inverse transform unit 603.

逆量子化・逆変換部603は、予測差分情報復号部602より供給される量子化された予測誤差信号を逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し、復号予測誤差信号を加算部604に供給する。   The inverse quantization / inverse transform unit 603 performs a process such as inverse quantization or inverse orthogonal transform on the quantized prediction error signal supplied from the prediction difference information decoding unit 602 to generate a prediction error signal, and performs decoding prediction. The error signal is supplied to the adding unit 604.

加算部604は、逆量子化・逆変換部603より供給される復号予測誤差信号と、動き補償予測部608より供給される予測信号を加算して復号画像信号を生成し、復号画像信号を復号画像メモリ605に供給する。   The adder 604 adds the decoded prediction error signal supplied from the inverse quantization / inverse transform unit 603 and the prediction signal supplied from the motion compensation prediction unit 608 to generate a decoded image signal, and decodes the decoded image signal This is supplied to the image memory 605.

復号画像メモリ605は、図1の動画像符号化装置における復号画像メモリ106と同じ機能を有し、加算部604から供給された復号画像信号を格納し、参照画像信号を動き補償予測部608に供給する。また、復号画像メモリ605は、格納された復号画像信号を再生時刻に合わせて、画像の表示順序に従い出力端子609に供給する。   The decoded image memory 605 has the same function as the decoded image memory 106 in the moving image encoding apparatus in FIG. 1, stores the decoded image signal supplied from the addition unit 604, and stores the reference image signal in the motion compensation prediction unit 608. Supply. Also, the decoded image memory 605 supplies the stored decoded image signal to the output terminal 609 in accordance with the image display order in accordance with the reproduction time.

動き情報復号部606は、多重分離部601より供給される動き情報の符号化列より、予測モード、並びに予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定する情報を動き情報として復号する。復号した動き情報と、動き情報メモリ607より供給される候補ブロック群の動き情報より、動き補償予測に用いる予測種別、動きベクトル及び参照画像指定情報を再生し、動き補償予測部608に供給する。また、動き情報復号部606は再生した動き情報を、動き情報メモリ607に供給する。動き情報復号部606の詳細な構成については後述する。   The motion information decoding unit 606 obtains information specifying the prediction mode, the prediction type corresponding to the prediction mode, the motion vector, and the reference image designation information from the motion information encoded sequence supplied from the demultiplexing unit 601. Decrypt as Based on the decoded motion information and the motion information of the candidate block group supplied from the motion information memory 607, the prediction type, motion vector, and reference image designation information used for motion compensation prediction are reproduced and supplied to the motion compensation prediction unit 608. In addition, the motion information decoding unit 606 supplies the reproduced motion information to the motion information memory 607. A detailed configuration of the motion information decoding unit 606 will be described later.

動き情報メモリ607は、図1の動画像符号化装置における動き情報メモリ111と同じ機能を持ち、動き情報復号部606より供給される再生した動き情報を最小予測ブロックサイズ単位を基準として所定画像分記憶する。また、動き情報メモリ607は、空間候補ブロック群と時間候補ブロック群の動き情報を、候補ブロック群の動き情報として動き情報復号部606に供給する。   The motion information memory 607 has the same function as that of the motion information memory 111 in the video encoding apparatus of FIG. 1, and reproduces the reproduced motion information supplied from the motion information decoding unit 606 for a predetermined image on the basis of the minimum prediction block size unit. Remember. Also, the motion information memory 607 supplies the motion information of the space candidate block group and the time candidate block group to the motion information decoding unit 606 as motion information of the candidate block group.

動き補償予測部608は、図1の動画像符号化装置における動き補償予測部108と同じ機能を持ち、動き情報復号部606より供給される動き情報に基づいて、復号画像メモリ605内の参照画像指定情報が示す参照画像を、動きベクトル値だけ予測ブロックの画像信号と同一位置より移動させた位置の画像信号を取得して予測信号を生成する。動き補償予測のが双予測であれば、各予測の予測信号を平均したものを予測信号として生成し、予測信号を加算部604に供給する。   The motion compensation prediction unit 608 has the same function as that of the motion compensation prediction unit 108 in the video encoding apparatus in FIG. 1, and based on the motion information supplied from the motion information decoding unit 606, a reference image in the decoded image memory 605. A prediction signal is generated by acquiring an image signal at a position obtained by moving the reference image indicated by the designation information from the same position as the image signal of the prediction block by the motion vector value. If the motion compensation prediction is bi-prediction, an average of the prediction signals of the predictions is generated as a prediction signal, and the prediction signal is supplied to the adding unit 604.

出力端子609は、復号画像メモリ605より供給された復号画像信号を、ディスプレイなどの表示媒体に出力することで、復号画像信号が再生される。   The output terminal 609 reproduces a decoded image signal by outputting the decoded image signal supplied from the decoded image memory 605 to a display medium such as a display.

図6に示した動画像復号装置の構成も、図1に示した動画像符号化装置の構成と同様に、CPU、フレームメモリ、ハードディスクなどを備える情報処理装置等のハードウェアによっても実現可能である。   The configuration of the video decoding device shown in FIG. 6 can also be realized by hardware such as an information processing device including a CPU, a frame memory, a hard disk, etc., similarly to the configuration of the video encoding device shown in FIG. is there.

図7は、本発明の実施の形態1に係る動画像復号装置における復号処理の動作の流れを示すフローチャートである。多重分離部601は、入力端子600より供給された符号化ビットストリームを予測誤差情報の符号化列と、動き情報の符号化列に分離する(S700)。分離された動き情報の符号化列は動き情報復号部606に供給され、動き情報メモリ607より供給される候補ブロック群の動き情報を用いて、復号対象ブロックの動き情報を復号する(S701)。   FIG. 7 is a flowchart showing a flow of decoding processing in the video decoding apparatus according to Embodiment 1 of the present invention. The demultiplexing unit 601 separates the coded bit stream supplied from the input terminal 600 into a coded sequence of prediction error information and a coded sequence of motion information (S700). The separated coded sequence of motion information is supplied to the motion information decoding unit 606, and the motion information of the decoding target block is decoded using the motion information of the candidate block group supplied from the motion information memory 607 (S701).

分離された予測誤差情報の符号化列は、予測差分情報復号部602に供給され、量子化された予測誤差信号として復号され、逆量子化・逆変換部603で逆量子化や逆直交変換などの処理を施されることで、復号予測誤差信号が生成される(S702)。ステップS702の処理の詳細については後述する。   The separated coded sequence of prediction error information is supplied to the prediction difference information decoding unit 602, decoded as a quantized prediction error signal, and dequantized or inverse orthogonal transformed by an inverse quantization / inverse transformation unit 603. By performing the above process, a decoded prediction error signal is generated (S702). Details of the processing in step S702 will be described later.

動き情報復号部606より、復号対象ブロックの動き情報が動き補償予測部608に供給され、動き補償予測部608は動き情報にしたがって動き補償予測を行い予測信号を算出する(S703)。加算部604は、逆量子化・逆変換部603から供給された復号予測誤差信号と、動き補償予測部608から供給された予測信号とを加算し、復号画像信号を生成する(S704)。   The motion information decoding unit 606 supplies the motion information of the decoding target block to the motion compensation prediction unit 608, and the motion compensation prediction unit 608 performs motion compensation prediction according to the motion information to calculate a prediction signal (S703). The adding unit 604 adds the decoded prediction error signal supplied from the inverse quantization / inverse transform unit 603 and the prediction signal supplied from the motion compensation prediction unit 608 to generate a decoded image signal (S704).

加算部604より供給された復号画像信号は、復号画像メモリ605に格納される(S705)と共に、動き情報復号部606より供給された復号対象ブロックの動き情報が動き情報メモリ607に格納される(S706)。これで、予測ブロック単位の復号処理が終了する。   The decoded image signal supplied from the adding unit 604 is stored in the decoded image memory 605 (S705), and the motion information of the decoding target block supplied from the motion information decoding unit 606 is stored in the motion information memory 607 ( S706). This completes the decoding process in units of prediction blocks.

[実施の形態1の詳細機能説明]
本発明の実施の形態1に係る動画像符号化装置の予測モード判定部109及び動き情報符号化部110の動作、図5のフローチャートにおけるステップS502及びステップS504の処理、並びに本発明の実施の形態1に係る動画像復号装置における動き情報復号部606の動作、図7のフローチャートにおけるステップS702の処理の詳細動作を、以下説明する。
[Detailed Function Description of Embodiment 1]
Operation of prediction mode determination unit 109 and motion information encoding unit 110 of the video encoding apparatus according to Embodiment 1 of the present invention, processing in steps S502 and S504 in the flowchart of FIG. 5, and embodiment of the present invention The operation of the motion information decoding unit 606 in the moving image decoding apparatus according to 1 and the detailed operation of the processing in step S702 in the flowchart of FIG. 7 will be described below.

[実施の形態1における動き補償予測モードの定義]
図8(a)、(b)は、本発明の実施の形態1における動き補償予測において使用される動き情報を符号化するための3つの予測モードを説明するための図である。第一の予測モードは、予測対象ブロックと当該予測対象ブロックに隣接する符号化済ブロックにおける時間方向や空間方向の動きの連続性を用いて、当該予測対象ブロックは自身の動き情報を直接符号化せずに、空間及び時間的に隣接するブロックの動き情報を符号化に使用する手法であり、結合予測モード(マージモード)と呼ぶ。
[Definition of Motion Compensation Prediction Mode in Embodiment 1]
FIGS. 8A and 8B are diagrams for explaining three prediction modes for encoding motion information used in motion compensated prediction according to Embodiment 1 of the present invention. In the first prediction mode, the prediction target block directly encodes its own motion information using the continuity of motion in the temporal direction and the spatial direction in the prediction target block and the encoded block adjacent to the prediction target block. In this method, the motion information of spatially and temporally adjacent blocks is used for encoding, which is called a joint prediction mode (merge mode).

結合予測モードの場合には、複数の隣接ブロック候補より選択的に結合する動き情報が定義でき、動き情報は使用する隣接ブロックを指定する情報(インデックス)を符号化することで、指定情報をもとに取得した動き情報をそのまま動き補償予測に用いる。更に、結合予測モードにおいては、予測差分情報を符号化伝送せずに、結合予測モードで予測された予測信号を復号ピクチャとするSkipモードを定義し、結合した動き情報のみの少ない情報で復号画像が再生できる構成を有する。Skipモードにおいて伝送する動き情報は、結合予測モードと同様に隣接ブロックを定義する指定情報となる。   In the combined prediction mode, motion information that is selectively combined from a plurality of adjacent block candidates can be defined, and the motion information is encoded with information (index) that specifies the adjacent block to be used. The obtained motion information is used as it is for motion compensation prediction. Further, in the joint prediction mode, a Skip mode is defined in which the prediction signal predicted in the joint prediction mode is a decoded picture without encoding prediction transmission of the prediction difference information, and a decoded image is obtained with information having only the combined motion information. Can be reproduced. The motion information transmitted in the Skip mode is designation information that defines adjacent blocks, as in the combined prediction mode.

第二の予測モードは、動き情報の構成要素を個別にすべて符号化し、予測ブロックに対して予測誤差の少ない動き情報を伝送する手法であり、動き検出予測モードと呼ぶ。動き検出予測モードは、従来の動き補償予測の動き情報の符号化と同様に、参照画像を特定するための情報(参照画像インデックス)と、動きベクトルを特定するための情報が別々に符号化される。   The second prediction mode is a technique for individually coding all the components of motion information and transmitting motion information with little prediction error to the prediction block, and is called a motion detection prediction mode. In the motion detection prediction mode, information for specifying a reference image (reference image index) and information for specifying a motion vector are encoded separately, as in the case of encoding motion information in conventional motion compensation prediction. The

動き検出予測モードには、単予測と双予測のどちらを使用するか予測モードで指示し、単予測の場合には1つの参照画像に対する参照画像を特定する情報と、動きベクトルの予測ベクトルとの差分ベクトルを符号化する。双予測の場合には2つの参照画像に対する参照画像を特定する情報と、動きベクトルがそれぞれ個別に符号化される。動きベクトルに対する予測ベクトルは、AVCと同様に隣接ブロックの動き情報から生成されるが、結合予測モードと同様に、複数の隣接ブロック候補より予測ベクトルに用いる動きベクトルを選択でき、動きベクトルは予測ベクトルに使用する隣接ブロックを指定する情報(インデックス)と差分ベクトルの2つを符号化することで伝送される。   In the motion detection prediction mode, the prediction mode indicates whether to use single prediction or bi-prediction. In the case of single prediction, information for specifying a reference image for one reference image and a prediction vector of a motion vector Encode the difference vector. In the case of bi-prediction, information for specifying reference images for two reference images and a motion vector are individually encoded. The prediction vector for the motion vector is generated from the motion information of the adjacent block similarly to the AVC. However, similarly to the combined prediction mode, the motion vector used for the prediction vector can be selected from a plurality of adjacent block candidates, and the motion vector is the prediction vector. The information is transmitted by encoding two pieces of information (index) for designating adjacent blocks to be used for and a difference vector.

第三の予測モードは、隣接ブロックの動き情報に対して、動きベクトル値を修正するための差分ベクトル値を追加で符号化することで、隣接ブロックから生成される動き情報に対して一部の動きベクトルに対する修正を行い、動き情報として符号化する手法であり、結合動き修正予測モード(マージMVDモード)と呼ぶ。結合動き修正予測モードにおいて伝送する動き情報は、結合予測モードと同様に、隣接ブロックを指定する情報に加えて、修正する動きベクトルに対する差分ベクトル値となる。実施の形態1における、結合動き修正予測モードでは、差分ベクトル値は常に1つ伝送され、動き補償予測は双予測となる。   In the third prediction mode, a part of the motion information generated from the adjacent block is encoded by additionally encoding a difference vector value for correcting the motion vector value with respect to the motion information of the adjacent block. This is a technique of correcting motion vectors and encoding them as motion information, and is called a combined motion correction prediction mode (merge MVD mode). Similar to the combined prediction mode, the motion information transmitted in the combined motion correction prediction mode is a difference vector value for the motion vector to be corrected in addition to the information specifying the adjacent block. In the combined motion modified prediction mode in the first embodiment, one difference vector value is always transmitted, and the motion compensated prediction is bi-prediction.

この結合動き修正予測モードを有する構成が、結合動き修正予測モードを有さない従来の構成に対して符号化効率を向上させる要因となる。つまり、結合動き修正予測モードでは、結合予測モードにおいて符号化する情報に対して、動きベクトルを修正するための差分ベクトルを符号化して追加する。これにより、動きの連続性が十分保たれていない場合や、他ブロックの動き情報における動きベクトルが正確な動きを示していない場合などに、隣接ブロックから生成される動き情報に対して、動きベクトルのみを修正することで、予測残差が少ない動き補償予測信号を生成する動き情報を、少ない情報で表現することができる。   The configuration having the combined motion correction prediction mode is a factor that improves the coding efficiency over the conventional configuration that does not have the combined motion correction prediction mode. That is, in the combined motion correction prediction mode, a difference vector for correcting a motion vector is encoded and added to the information encoded in the combined prediction mode. As a result, when the continuity of motion is not sufficiently maintained, or when the motion vector in the motion information of other blocks does not indicate an accurate motion, the motion vector is generated for the motion information generated from the adjacent block. By correcting only the motion information, motion information for generating a motion compensated prediction signal with a small prediction residual can be expressed with a small amount of information.

図9は、動き補償予測および動き補償予測を実施しない画面内予測における、動き補償の種類と、参照画像を定義する情報、及び符号化する動きベクトル数の関連に関して説明するための図である。   FIG. 9 is a diagram for explaining the relationship between the type of motion compensation, information defining a reference image, and the number of motion vectors to be encoded in motion compensation prediction and intra prediction without performing motion compensation prediction.

動き検出予測モードの内、予測が単予測である単予測モード(UniPred)の場合は、符号化する動き情報として1つの符号化ベクトル、1つの参照画像インデックス、1つの予測ベクトルインデックスが伝送される。   Of the motion detection prediction modes, when the prediction is a single prediction mode (UniPred), one encoded vector, one reference image index, and one prediction vector index are transmitted as motion information to be encoded. .

同様に予測が双予測である双予測モード(BiPred)の場合は、符号化する動き情報として2つの符号化ベクトル、2つの参照画像インデックス、2つの予測ベクトルインデックスが伝送される。   Similarly, in the case of the bi-prediction mode (BiPred) in which the prediction is bi-prediction, two encoded vectors, two reference image indexes, and two prediction vector indexes are transmitted as motion information to be encoded.

結合予測モード(Merge)の場合には、1つの結合動き情報インデックスのみが符号化する動き情報として伝送され、動き情報に基づいて単予測もしくは双予測の動き補償予測が施される。   In the joint prediction mode (Merge), only one joint motion information index is transmitted as motion information to be encoded, and single prediction or bi-prediction motion compensation prediction is performed based on the motion information.

結合動き修正予測モード(MergeMvd)の場合には、1つの結合動き情報インデックスと1つの符号化ベクトルが符号化する動き情報として伝送され、動き情報と動きベクトルの修正情報に従って、双予測が施される。   In the combined motion correction prediction mode (MergeMvd), one combined motion information index and one encoded vector are transmitted as motion information to be encoded, and bi-prediction is performed according to the motion information and the motion vector correction information. The

動き補償予測を実施しない予測符号化モードであるイントラモード(Intra)においては、動き情報は符号化されない。   In the intra mode (Intra), which is a predictive coding mode in which motion compensation prediction is not performed, motion information is not coded.

隣接する動き情報との時間的・空間的な相関性が非常に高い場合には、結合予測モードが有効な動き補償予測モードとして選択される。相関性が低い場合もしくは一部の動き情報のみが有効に予測ブロックの動き情報として利用できる場合には、動き検出予測モードが有効な動き補償予測モードとして選択される。相関性が高いが動きに微小なずれを生じている場合や、隣接するブロックの動き情報が正確な動きを示していない場合、また大部分の動き情報が有効であるが一部の動き情報のみ相関性が十分でない場合などに、結合動き修正予測モードが有効な動き補償予測モードとして選択される。このように、結合予測モード、動き検出予測モードに加えて、結合動き修正予測モードを具備することで、さまざまな動き情報相関性の状況に応じて、符号化効率の高い動き補償予測を選択できる。   When temporal and spatial correlation with adjacent motion information is very high, the combined prediction mode is selected as an effective motion compensation prediction mode. When the correlation is low or only a part of the motion information can be effectively used as the motion information of the prediction block, the motion detection prediction mode is selected as an effective motion compensation prediction mode. If the correlation is high but there is a slight shift in the motion, or if the motion information of the adjacent block does not show accurate motion, or most of the motion information is valid, but only some motion information When the correlation is not sufficient, the combined motion correction prediction mode is selected as an effective motion compensation prediction mode. As described above, by providing the combined motion correction prediction mode in addition to the combined prediction mode and the motion detection prediction mode, it is possible to select motion compensated prediction with high coding efficiency according to various motion information correlation situations. .

[実施の形態1における動画像符号化装置における予測モード判定部の詳細動作説明]
図10は、実施の形態1の動画像符号化装置における予測モード判定部109の詳細な構成を示す図である。予測モード判定部109は、最適な動き補償予測モードを決定する機能を有する。
[Detailed Operation Description of Prediction Mode Determination Unit in Moving Picture Encoding Device in Embodiment 1]
FIG. 10 is a diagram illustrating a detailed configuration of the prediction mode determination unit 109 in the video encoding device according to the first embodiment. The prediction mode determination unit 109 has a function of determining an optimal motion compensation prediction mode.

予測モード判定部109は、動き補償単予測生成部1000、動き補償双予測生成部1001、予測誤差算出部1002、予測ベクトル算出部1003、差分ベクトル算出部1004、動き情報符号量算出部1005、予測モード評価部1006、結合動き情報算出部1007、結合動き補償予測生成部1008、及び結合動き修正動き補償予測生成部1009を含む。   The prediction mode determination unit 109 includes a motion compensation single prediction generation unit 1000, a motion compensation bi-prediction generation unit 1001, a prediction error calculation unit 1002, a prediction vector calculation unit 1003, a difference vector calculation unit 1004, a motion information code amount calculation unit 1005, a prediction A mode evaluation unit 1006, a combined motion information calculation unit 1007, a combined motion compensation prediction generation unit 1008, and a combined motion modified motion compensation prediction generation unit 1009 are included.

図1における予測モード判定部109に対して、動きベクトル検出部107より入力された動きベクトル値が、動き補償単予測生成部1000、動き補償双予測生成部1001、及び結合動き修正動き補償予測生成部1009に供給され、動き情報メモリ111より入力された動き情報が、予測ベクトル算出部1003、及び結合動き情報算出部1007に供給される。   The motion vector values input from the motion vector detection unit 107 to the prediction mode determination unit 109 in FIG. 1 are the motion compensation single prediction generation unit 1000, the motion compensation bi-prediction generation unit 1001, and the combined motion correction motion compensation prediction generation. The motion information supplied to the unit 1009 and input from the motion information memory 111 is supplied to the prediction vector calculation unit 1003 and the combined motion information calculation unit 1007.

また、動き補償予測部108に対して、動き補償単予測生成部1000、動き補償双予測生成部1001、結合動き補償予測生成部1008、及び結合動き修正動き補償予測生成部1009から、動き補償予測に用いる参照画像指定情報と動きベクトルが出力される。また、動き補償予測部108より、生成された動き補償予測画像が予測誤差算出部1002に供給される。予測誤差算出部1002には更に、入力端子100より符号化対象となる予測ブロックの画像信号が供給される。   In addition, the motion compensation prediction unit 108 receives motion compensation prediction from the motion compensation single prediction generation unit 1000, the motion compensation bi-prediction generation unit 1001, the combined motion compensation prediction generation unit 1008, and the combined motion correction motion compensation prediction generation unit 1009. Reference image designation information and motion vectors used for the are output. Further, the motion compensation prediction image generated by the motion compensation prediction unit 108 is supplied to the prediction error calculation unit 1002. The prediction error calculation unit 1002 is further supplied with an image signal of a prediction block to be encoded from the input terminal 100.

また、予測モード評価部1006から、動き情報符号化部110に対して符号化する動き情報と確定した予測モード情報を供給し、動き情報メモリ111に動き情報を供給し、動き補償予測信号を減算部101及び加算部105に供給する。   Also, the motion information encoding unit 110 is supplied with motion information to be encoded and the determined prediction mode information from the prediction mode evaluation unit 1006, the motion information is supplied to the motion information memory 111, and the motion compensated prediction signal is subtracted. To the unit 101 and the addition unit 105.

動き補償単予測生成部1000は、単予測に使用可能な各参照画像に対して算出された動きベクトル値を受信し、参照画像指定情報を予測ベクトル算出部1003に供給し、参照画像指定情報と動きベクトルを動き補償予測部108に出力する。   The motion compensation single prediction generation unit 1000 receives a motion vector value calculated for each reference image that can be used for single prediction, supplies reference image designation information to the prediction vector calculation unit 1003, and the reference image designation information and The motion vector is output to the motion compensation prediction unit 108.

動き補償双予測生成部1001も同様に、双予測に使用可能な各参照画像に対して算出された動きベクトル値を受信し、それぞれの参照画像に対する参照画像指定情報を予測ベクトル算出部1003に供給し、それぞれの参照画像に対する参照画像指定情報と動きベクトルを動き補償予測部108に出力する。   Similarly, the motion-compensated bi-prediction generation unit 1001 receives the motion vector value calculated for each reference image that can be used for bi-prediction, and supplies reference image designation information for each reference image to the prediction vector calculation unit 1003. Then, reference image designation information and motion vectors for each reference image are output to the motion compensation prediction unit 108.

予測誤差算出部1002は、入力された動き補償予測画像と処理対象の予測ブロック画像より、予測誤差評価値を算出する。誤差評価値を算出するための演算としては、動きベクトル検出における誤差評価値と同様に、画素毎の差分絶対値の総和SADや、画素毎の二乗誤差値の総和SSE等を使用できる。更に、予測残差の符号化を行う際に施される、直交変換・量子化を行うことによって復号画像に生じる歪成分の量を加味することで、より正確な誤差評価値が算出可能である。この場合には、予測誤差算出部1002内に、図1における減算部101、直交変換・量子化部102、逆量子化・逆変換部104、加算部105の機能を有することで実現できる。予測誤差算出部1002は、各予測モードにおいて算出された予測誤差評価値と、動き補償予測信号を予測モード評価部1006に供給する。   The prediction error calculation unit 1002 calculates a prediction error evaluation value from the input motion compensated prediction image and the prediction block image to be processed. As the calculation for calculating the error evaluation value, the sum SAD of the absolute difference value for each pixel, the sum SSE of the square error value for each pixel, and the like can be used as in the error evaluation value in motion vector detection. Furthermore, a more accurate error evaluation value can be calculated by taking into account the amount of distortion components generated in the decoded image by performing orthogonal transform / quantization performed when encoding the prediction residual. . In this case, the prediction error calculation unit 1002 can be realized by having the functions of the subtraction unit 101, the orthogonal transformation / quantization unit 102, the inverse quantization / inverse transformation unit 104, and the addition unit 105 in FIG. The prediction error calculation unit 1002 supplies the prediction error evaluation value calculated in each prediction mode and the motion compensation prediction signal to the prediction mode evaluation unit 1006.

予測ベクトル算出部1003は、動き補償単予測生成部1000及び動き補償双予測生成部1001より参照画像指定情報を供給され、動き情報メモリ111から供給される隣接ブロックの動き情報における候補ブロック群より、指定された参照画像に対する動きベクトル値を特定する。そして、複数の予測ベクトルを予測ベクトル候補リストと共に生成し、差分ベクトル算出部1004に、参照画像指定情報と共に供給する。   The prediction vector calculation unit 1003 is supplied with the reference image designation information from the motion compensation uni-prediction generation unit 1000 and the motion compensation bi-prediction generation unit 1001, and from the candidate block group in the motion information of adjacent blocks supplied from the motion information memory 111, The motion vector value for the specified reference image is specified. Then, a plurality of prediction vectors are generated together with the prediction vector candidate list, and supplied to the difference vector calculation unit 1004 together with the reference image designation information.

図11は、予測ベクトル算出部1003の構成を示す図である。予測ベクトル算出部1003は、予測ベクトル候補リスト生成部1100及び予測ベクトル候補リスト削除部1101を含み、候補ブロック群より所定の順番で予測ベクトルの候補を作成し、その中から同一の動きベクトル値を示す候補を削除することで、有効な予測ベクトルのみを予測ベクトル候補として登録する。予測ベクトル算出部1003の詳細動作に関しては、後述する。   FIG. 11 is a diagram illustrating a configuration of the prediction vector calculation unit 1003. The prediction vector calculation unit 1003 includes a prediction vector candidate list generation unit 1100 and a prediction vector candidate list deletion unit 1101, creates prediction vector candidates in a predetermined order from the candidate block group, and uses the same motion vector value from among them. By deleting the candidates to be shown, only valid prediction vectors are registered as prediction vector candidates. The detailed operation of the prediction vector calculation unit 1003 will be described later.

図10に戻り、差分ベクトル算出部1004は、予測ベクトル算出部1003より供給された、予測ベクトル候補のそれぞれに対して、動き補償単予測生成部1000及び動き補償双予測生成部1001から供給される動きベクトル値との差分を計算し、差分ベクトル値を算出する。算出された差分ベクトル値と予測ベクトル候補に対する指定情報である予測ベクトルインデックスを符号化した際の符号量が最も少ない情報量で、動きベクトル値を表現出来る差分ベクトルとなる。従って、最も少ない情報量である予測ベクトルに対する予測ベクトルインデックスと差分ベクトル値を参照画像指定情報と共に、動き情報符号量算出部1005に供給する。   Returning to FIG. 10, the difference vector calculation unit 1004 is supplied from the motion compensation single prediction generation unit 1000 and the motion compensation bi-prediction generation unit 1001 for each prediction vector candidate supplied from the prediction vector calculation unit 1003. The difference with the motion vector value is calculated, and the difference vector value is calculated. The difference vector value and the prediction vector index, which is the designation information for the prediction vector candidate, are the difference vectors that can represent the motion vector value with the least amount of information when encoding the prediction vector index. Therefore, the prediction vector index and the difference vector value for the prediction vector having the smallest information amount are supplied to the motion information code amount calculation unit 1005 together with the reference image designation information.

動き情報符号量算出部1005は、差分ベクトル算出部1004より供給される、単予測モード及び双予測モードの差分ベクトル値、参照画像指定情報、予測ベクトルインデックス、予測モードより、各予測モードにおける動き情報に要する符号量を算出する。また、動き情報符号量算出部1005は、結合動き補償予測生成部1008より、結合予測モードにおいて伝送する必要がある、結合動き情報インデックスと予測モードを示すための情報を受け取り、結合予測モードにおける動き情報に要する符号量を算出する。   The motion information code amount calculation unit 1005 supplies motion information in each prediction mode based on the difference vector value, reference image designation information, prediction vector index, and prediction mode supplied from the difference vector calculation unit 1004. The amount of code required for the calculation is calculated. In addition, the motion information code amount calculation unit 1005 receives information indicating a combined motion information index and a prediction mode that needs to be transmitted in the combined prediction mode from the combined motion compensation prediction generation unit 1008, and performs motion in the combined prediction mode. The amount of code required for information is calculated.

同様に、動き情報符号量算出部1005は、結合動き修正動き補償予測生成部1009より、結合動き修正予測モードにおいて伝送する必要がある、結合動き情報インデックスと差分ベクトル値と予測モードを示すための情報を受け取り、結合動き修正予測モードにおける動き情報に要する符号量を算出する。動き情報符号量算出部1005は、各予測モードにおいて算出された動き情報及び動き情報に要する符号量を予測モード評価部1006に供給する。   Similarly, the motion information code amount calculation unit 1005 indicates a combined motion information index, a difference vector value, and a prediction mode that need to be transmitted in the combined motion correction prediction prediction mode from the combined motion correction motion compensation prediction generation unit 1009. Information is received, and the amount of code required for motion information in the combined motion correction prediction mode is calculated. The motion information code amount calculation unit 1005 supplies the motion information calculated in each prediction mode and the code amount required for the motion information to the prediction mode evaluation unit 1006.

予測モード評価部1006は、予測誤差算出部1002より供給された各予測モードの予測誤差評価値と、動き情報符号量算出部1005から供給された各予測モードの動き情報符号量を用いて、各予測モードの総合動き補償予測誤差評価値を算出し、最も少ない評価値である予測モードを選択し、選択した予測モードと選択した予測モードに対する動き情報を、動き情報符号化部110及び動き情報メモリ111に出力する。また、予測モード評価部1006は同様に、予測誤差算出部1002より供給された動き補償予測信号に対して、選択した予測モードにおける予測信号を選択して減算部101及び加算部105に出力する。   The prediction mode evaluation unit 1006 uses the prediction error evaluation value of each prediction mode supplied from the prediction error calculation unit 1002 and the motion information code amount of each prediction mode supplied from the motion information code amount calculation unit 1005. An overall motion compensation prediction error evaluation value of the prediction mode is calculated, a prediction mode having the smallest evaluation value is selected, and the motion information encoding unit 110 and the motion information memory store the selected prediction mode and motion information for the selected prediction mode. To 111. Similarly, the prediction mode evaluation unit 1006 selects a prediction signal in the selected prediction mode for the motion compensated prediction signal supplied from the prediction error calculation unit 1002 and outputs it to the subtraction unit 101 and the addition unit 105.

結合動き情報算出部1007は、動き情報メモリ111より供給される隣接ブロックの動き情報における候補ブロック群を用いて、単予測であるか双予測であるかを示す予測種別、参照画像指定情報、動きベクトル値で構成される動き情報として、複数の動き情報を結合動き情報候補リストと共に生成し、結合動き補償予測生成部1008及び結合動き修正動き補償予測生成部1009に供給する。   The combined motion information calculation unit 1007 uses a candidate block group in the motion information of the adjacent blocks supplied from the motion information memory 111, a prediction type indicating whether the prediction is uni-prediction or bi-prediction, reference image designation information, motion A plurality of pieces of motion information are generated together with the combined motion information candidate list as motion information composed of vector values, and supplied to the combined motion compensation prediction generation unit 1008 and the combined motion correction motion compensation prediction generation unit 1009.

図12は、結合動き情報算出部1007の構成を示す図である。結合動き情報算出部1007は、結合動き情報候補リスト生成部1200及び結合動き情報候補リスト削除部1201を含む。結合動き情報算出部1007は、候補ブロック群より所定の順番で動き情報の候補を作成し、その中から、動き情報の各要素(予測種別、参照画像指定情報、及び動きベクトル値)が全て同一の値を示している候補を削除することで、有効な動き情報のみを結合動き情報候補として登録する。結合動き情報算出部1007の詳細動作に関しては、後述する。   FIG. 12 is a diagram illustrating a configuration of the combined motion information calculation unit 1007. The combined motion information calculation unit 1007 includes a combined motion information candidate list generation unit 1200 and a combined motion information candidate list deletion unit 1201. The combined motion information calculation unit 1007 creates motion information candidates from the candidate block group in a predetermined order, and from among them, each element of motion information (prediction type, reference image designation information, and motion vector value) is the same. By deleting the candidate indicating the value of, only valid motion information is registered as a combined motion information candidate. The detailed operation of the combined motion information calculation unit 1007 will be described later.

図10に戻り、結合動き補償予測生成部1008は、結合動き情報算出部1007より供給された結合動き情報候補リストより、登録された結合動き情報候補のそれぞれに対して、動き情報より、予測種別に応じて1つの参照画像(単予測)もしくは2つの参照画像(双予測)の参照画像指定情報と動きベクトル値を動き補償予測部108に指定して、動き補償予測画像を生成すると共に、それぞれの結合動き情報インデックスを動き情報符号量算出部1005に供給する。結合動き補償予測生成部1008の詳細動作に関しては、後述する。   Returning to FIG. 10, the combined motion compensation prediction generation unit 1008 determines, based on the motion information, the prediction type for each registered combined motion information candidate from the combined motion information candidate list supplied from the combined motion information calculation unit 1007. In accordance with the reference image designation information and motion vector value of one reference image (uni-prediction) or two reference images (bi-prediction), the motion compensated prediction unit 108 is designated to generate a motion compensated prediction image, Are provided to the motion information code amount calculation unit 1005. The detailed operation of the combined motion compensation prediction generation unit 1008 will be described later.

図10の構成では、それぞれの結合動き情報インデックスにおける予測モード評価は、予測モード評価部1006で施されるが、予測誤差評価値及び動き情報符号量を予測誤差算出部1002及び動き情報符号量算出部1005より受け取り、結合動き補償予測生成部1008内で、最適な結合動き補償予測の結合動きインデックスを確定させた後に、他の予測モードを含めた最適予測モードの評価を行う構成を取ることも可能である。   In the configuration of FIG. 10, the prediction mode evaluation in each combined motion information index is performed by the prediction mode evaluation unit 1006. The prediction error evaluation value and the motion information code amount are calculated by the prediction error calculation unit 1002 and the motion information code amount calculation. In other words, the combined motion compensation prediction generation unit 1008 receives the information from the unit 1005 and, after the combined motion index of the optimal combined motion compensated prediction is determined, evaluates the optimal prediction mode including other prediction modes. Is possible.

結合動き修正動き補償予測生成部1009は、結合動き情報算出部1007より供給された結合動き情報候補リスト、登録された結合動き情報候補に対して、双予測の動き情報を算出する。そして、その中で動きベクトル値を修正する参照画像を特定し、特定した参照画像の参照画像指定情報に対して、動きベクトル検出部107で検出された動きベクトル値を入力し、差分ベクトル値を計算する。そして、双予測の参照画像指定情報と修正した動きベクトル値を含む、動き補償予測に用いる動きベクトル値を動き補償予測部108に指定して、動き補償予測画像を生成すると共に、それぞれに結合動き情報インデックスと伝送する差分ベクトル値を動き情報符号量算出部1005に供給する。   The combined motion corrected motion compensated prediction generation unit 1009 calculates bi-prediction motion information for the combined motion information candidate list and the registered combined motion information candidates supplied from the combined motion information calculation unit 1007. Then, the reference image whose motion vector value is to be corrected is identified, the motion vector value detected by the motion vector detection unit 107 is input to the reference image designation information of the identified reference image, and the difference vector value is obtained. calculate. Then, the motion compensated prediction unit 108 is designated with motion vector values used for motion compensated prediction including the bi-predicted reference image designation information and the corrected motion vector value, and a motion compensated predicted image is generated. The information index and the difference vector value to be transmitted are supplied to the motion information code amount calculation unit 1005.

図13は、結合動き修正動き補償予測生成部1009の構成を示す図である。結合動き修正動き補償予測生成部1009は、基準参照画像・動き修正参照画像選択部1300、動き修正参照画像動きベクトル取得部1301、結合動き情報修正動き補償予測生成部1302、及び差分ベクトル算出部1303を含む。   FIG. 13 is a diagram illustrating a configuration of the combined motion corrected motion compensation prediction generation unit 1009. The combined motion corrected motion compensation prediction generation unit 1009 includes a reference reference image / motion correction reference image selection unit 1300, a motion correction reference image motion vector acquisition unit 1301, a combined motion information correction motion compensation prediction generation unit 1302, and a difference vector calculation unit 1303. including.

基準参照画像・動き修正参照画像選択部1300は登録された結合動き情報候補に対して、双予測の動き情報を算出して動きベクトル値を修正する参照画像を特定する機能を有する。動き修正参照画像動きベクトル取得部1301は特定した参照画像の参照画像指定情報に対する動きベクトル値を入力する機能を有する。結合動き情報修正動き補償予測生成部1302は動き補償予測に用いる動きベクトル値と参照画像指定情報を動き補償予測部108に出力する機能をする。差分ベクトル算出部1303は基準参照画像・動き修正参照画像選択部1300で算出された動き情報の動きベクトル値と、動きベクトル検出部107から入力された動きベクトル値の差分ベクトル値を算出する機能を有する。結合動き修正動き補償予測生成部1009の詳細動作は後述する。   The reference reference image / motion correction reference image selection unit 1300 has a function of calculating a bi-prediction motion information for a registered combined motion information candidate and specifying a reference image for correcting a motion vector value. The motion correction reference image motion vector acquisition unit 1301 has a function of inputting a motion vector value for the reference image designation information of the identified reference image. The combined motion information modified motion compensation prediction generation unit 1302 has a function of outputting a motion vector value used for motion compensation prediction and reference image designation information to the motion compensation prediction unit 108. The difference vector calculation unit 1303 has a function of calculating a difference vector value between the motion vector value of the motion information calculated by the standard reference image / motion correction reference image selection unit 1300 and the motion vector value input from the motion vector detection unit 107. Have. The detailed operation of the combined motion corrected motion compensation prediction generation unit 1009 will be described later.

図14は、図10の予測モード判定部109を介して動作する、図5のステップS502である動き補償予測モード/予測信号生成の動作について説明するためのフローチャートである。最初に、結合動き情報候補リスト生成を行い(S1400)、結合予測モード評価値を生成する(S1401)。   FIG. 14 is a flowchart for explaining the operation of motion compensation prediction mode / prediction signal generation, which is step S502 of FIG. 5, which operates via the prediction mode determination unit 109 of FIG. First, a combined motion information candidate list is generated (S1400), and a combined prediction mode evaluation value is generated (S1401).

続いて、ステップS1400で生成された結合動き情報候補リストを用いて、結合動き修正予測モード評価値を生成し(S1402)、単予測モード評価値を生成し(S1403)、双予測モード評価値を生成し(S1404)、生成した評価値を比較することで最適な予測モードを選択する(S1405)。ただし、ステップS1401、ステップS1402、ステップS1403、及びステップS1404の評価値生成の順序はこの順序に限らない。   Subsequently, using the combined motion information candidate list generated in step S1400, a combined motion correction prediction mode evaluation value is generated (S1402), a single prediction mode evaluation value is generated (S1403), and a bi-prediction mode evaluation value is calculated. It generates (S1404) and compares the generated evaluation values to select an optimal prediction mode (S1405). However, the order of evaluation value generation in step S1401, step S1402, step S1403, and step S1404 is not limited to this order.

選択された予測モードに従い予測信号を出力し(S1406)、選択された予測モードに従い動き情報を出力する(S1407)ことで、予測ブロック単位の動き補償予測モード/予測信号生成処理が終了する。ステップS1400、ステップS1401、ステップS1402、ステップS1404、及びステップS1404の詳細動作に関しては後述する。   A prediction signal is output in accordance with the selected prediction mode (S1406), and motion information is output in accordance with the selected prediction mode (S1407), thereby completing the motion compensation prediction mode / prediction signal generation process for each prediction block. Detailed operations of step S1400, step S1401, step S1402, step S1404, and step S1404 will be described later.

図15は、図14のステップS1400における結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。この動作は、図10の結合動き情報算出部1007における構成の詳細動作を示している。図12の結合動き情報候補リスト生成部1200は、動き情報メモリ111より供給される空間候補ブロック群から領域外である候補ブロックやイントラモードである候補ブロックを除いた候補ブロック群から、空間結合動き情報候補リストを生成する(S1500)。空間結合動き情報候補リスト生成の詳細な動作は後述する。   FIG. 15 is a flowchart for explaining the detailed operation of generating the combined motion information candidate list in step S1400 of FIG. This operation shows the detailed operation of the configuration in the combined motion information calculation unit 1007 in FIG. The combined motion information candidate list generation unit 1200 in FIG. 12 performs spatial combined motion from a candidate block group obtained by excluding candidate blocks outside the region and candidate blocks in the intra mode from the spatial candidate block group supplied from the motion information memory 111. An information candidate list is generated (S1500). Detailed operations for generating the spatially coupled motion information candidate list will be described later.

結合動き情報候補リスト生成部1200は、続いて動き情報メモリ111より供給される時間候補ブロック群から領域外である候補ブロックやイントラモードである候補ブロックを除いた候補ブロック群から、時間結合動き情報候補リストを生成する(S1501)。時間結合動き情報候補リスト生成の詳細な動作は後述する。   The combined motion information candidate list generation unit 1200 subsequently generates temporal combined motion information from a candidate block group obtained by excluding candidate blocks outside the region and candidate blocks in the intra mode from the temporal candidate block group supplied from the motion information memory 111. A candidate list is generated (S1501). Detailed operation of the time combination motion information candidate list generation will be described later.

続いて、結合動き情報候補リスト削除部1201において、生成された空間結合動き情報候補リストと時間結合動き情報候補リストを統合した結合動き情報候補リストより、重複している動き情報を持つ結合動き情報候補が複数存在する場合には1つの結合動き情報候補を残して削除して動き情報候補リストを更新する(S1502)。   Subsequently, in the combined motion information candidate list deleting unit 1201, combined motion information having overlapping motion information from the combined motion information candidate list obtained by integrating the generated spatial combined motion information candidate list and the temporal combined motion information candidate list. If there are a plurality of candidates, the motion information candidate list is updated by deleting one of the combined motion information candidates (S1502).

最後に、上記処理において隣接ブロックに有効な動き情報が存在せず、結合動き情報候補が存在しない場合(S1503:YES)、固定の動き情報を結合動き情報候補リストに追加して(S1504)、処理を終了する。実施の形態1における固定の動き情報としては、予測種別が双予測で、参照画像指定情報(インデックス)が0、2つの動きベクトル値が共に(0,0)の値を設定する。実施の形態1における固定の動き情報としては、上記設定には限定されず、暗黙的に指定できる手法で設定されることにより、動画像復号装置においても同じ動き情報が再現できる。なお、上記処理において隣接ブロックに有効な動き情報が存在し、結合動き情報候補が存在する場合(S1503:NO)、ステップS1504をスキップして、処理を終了する。   Finally, when there is no valid motion information in the adjacent block in the above process and there is no combined motion information candidate (S1503: YES), fixed motion information is added to the combined motion information candidate list (S1504), The process ends. As the fixed motion information in the first embodiment, the prediction type is bi-prediction, the reference image designation information (index) is 0, and the two motion vector values are both (0, 0). The fixed motion information in the first embodiment is not limited to the above setting, and the same motion information can be reproduced in the moving picture decoding apparatus by being set by a method that can be implicitly specified. In the above process, when valid motion information exists in adjacent blocks and there is a combined motion information candidate (S1503: NO), step S1504 is skipped and the process ends.

動き情報メモリ111より、結合動き情報算出部1007に供給される動き情報の候補ブロック群には、空間候補ブロック群と時間候補ブロック群が含まれる。まず、空間結合動き情報候補リスト生成について説明する。   The candidate block group of motion information supplied from the motion information memory 111 to the combined motion information calculation unit 1007 includes a spatial candidate block group and a temporal candidate block group. First, generation of a spatially coupled motion information candidate list will be described.

図16は、空間結合動き情報候補リスト生成に用いる空間候補ブロック群を示す図である。空間候補ブロック群は、符号化対象画像の予測対象ブロックに隣接している同一画像のブロックを示す。ブロック群は、その管理が最小予測ブロックサイズ単位で行われ、図16に示すようなA1〜A4、B1〜B4、C、D、Eの位置のブロックが隣接するブロック群となる。候補ブロックの位置は、最小予測ブロックサイズの単位で管理されるが、隣接ブロックの予測ブロックサイズが最小予測ブロックサイズよりも大きな場合には、予測ブロックサイズ内の全ての候補ブロックに同一の動き情報が格納される。実施の形態1においては、これら隣接するブロック群の内、空間候補ブロック群をブロックA1、ブロックB1、ブロックC、ブロックDの4ブロックとする。   FIG. 16 is a diagram illustrating a spatial candidate block group used for generating a spatially coupled motion information candidate list. The spatial candidate block group indicates a block of the same image adjacent to the prediction target block of the encoding target image. The block group is managed in units of the minimum predicted block size, and the blocks at positions A1 to A4, B1 to B4, C, D, and E as shown in FIG. 16 are adjacent block groups. The position of the candidate block is managed in units of the minimum prediction block size, but if the prediction block size of the adjacent block is larger than the minimum prediction block size, the same motion information for all candidate blocks within the prediction block size Is stored. In the first embodiment, among these adjacent block groups, the spatial candidate block group is assumed to be four blocks of block A1, block B1, block C, and block D.

図17は、空間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。空間候補ブロック群に含まれる4つの候補ブロックであるブロックA1、ブロックB1、ブロックC、ブロックDについて以下の処理を繰り返し行う(S1700からS1703)。   FIG. 17 is a flowchart for explaining the detailed operation of generating the spatially coupled motion information candidate list. The following processing is repeated for the four candidate blocks included in the space candidate block group, block A1, block B1, block C, and block D (S1700 to S1703).

最初に候補ブロックの有効性を検査する(S1701)。候補ブロックが領域外でなくイントラモードでない場合(S1701:YES)、候補ブロックは有効となる。候補ブロックが有効であれば、候補ブロックの動き情報を空間結合動き情報候補リストに追加する(S1702)。   First, the validity of the candidate block is checked (S1701). If the candidate block is not outside the area and is not in the intra mode (S1701: YES), the candidate block is valid. If the candidate block is valid, the motion information of the candidate block is added to the spatially combined motion information candidate list (S1702).

ここでは、空間結合動き情報候補リストには4以下の候補ブロックの動き情報が含まれるとしたが、空間候補ブロック群は、処理対象の予測ブロックに隣接する少なくとも1以上の処理済みのブロックであり、候補ブロックの有効性によって空間結合動き情報候補リストの数が変動すればよく、これに限定されない。なお、候補ブロックが領域外またはイントラモードの場合(S1701:NO)、ステップS1702をスキップし、次の候補ブロックの有効/無効判定が行われる。   Here, it is assumed that the spatial combination motion information candidate list includes motion information of four or less candidate blocks, but the spatial candidate block group is at least one or more processed blocks adjacent to the prediction block to be processed. The number of spatially coupled motion information candidate lists may be changed depending on the effectiveness of the candidate block, and the present invention is not limited to this. If the candidate block is out of the region or in the intra mode (S1701: NO), step S1702 is skipped, and the validity / invalidity determination of the next candidate block is performed.

続いて、時間結合動き情報候補リスト生成について説明する。図18は、時間結合動き情報候補リスト生成に用いる時間候補ブロック群を示す図である。時間候補ブロック群は、予測対象ブロックとは別の復号済みの画像ColPicにおける予測対象ブロックと同位置及びその周辺にあるブロックを示す。図18におけるA1〜A4、B1〜B4、C、D、E、F1〜F4、G1〜G4、H、I1〜I16の位置のブロックが、時間的に隣接するブロック群となる。実施の形態1においては、これら時間的に隣接するブロック群の内、時間候補ブロック群をブロックHとブロックI6の2ブロックとする。   Subsequently, generation of a time combination motion information candidate list will be described. FIG. 18 is a diagram illustrating a time candidate block group used for generating a time combination motion information candidate list. The temporal candidate block group indicates blocks at the same position and the periphery of the prediction target block in the decoded image ColPic different from the prediction target block. The blocks at positions A1 to A4, B1 to B4, C, D, E, F1 to F4, G1 to G4, H, and I1 to I16 in FIG. 18 are temporally adjacent block groups. In the first embodiment, among these temporally adjacent block groups, the temporal candidate block group is assumed to be two blocks, block H and block I6.

図19は、時間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。時間候補ブロック群に含まれる2つの候補ブロックであるブロックHとブロックI6について(ステップ1900、ステップS1905)、候補ブロックの有効性を検査する(S1901)。候補ブロックが有効である場合(S1901:YES)、ステップS1902〜ステップS1904の処理が行われ、生成された動き情報が時間結合動き情報候補リストに登録され、処理が終了する。候補ブロックが画面領域外の位置を示す場合や、候補ブロックがイントラ予測ブロックである場合(S1901:NO)、候補ブロックが有効でなく、次の候補ブロックの有効/無効判定が行われる。   FIG. 19 is a flowchart for explaining the detailed operation of generating the time combination motion information candidate list. Regarding the block H and block I6 which are two candidate blocks included in the time candidate block group (step 1900, step S1905), the validity of the candidate block is checked (S1901). If the candidate block is valid (S1901: YES), the processing of step S1902 to step S1904 is performed, the generated motion information is registered in the time combination motion information candidate list, and the processing ends. When the candidate block indicates a position outside the screen area, or when the candidate block is an intra prediction block (S1901: NO), the candidate block is not valid and the next candidate block is determined to be valid / invalid.

候補ブロックが有効である場合(S1901:YES)、候補ブロックの動き情報をもとに結合動き情報候補に登録する参照画像選択候補を確定する(S1902)。実施の形態1ではL0予測の参照画像を、L0予測の参照画像のうち処理対象画像に最も近い距離にある参照画像とし、L1予測の参照画像を、L1予測の参照画像のうち処理対象画像に最も近い距離にある参照画像とする。   If the candidate block is valid (S1901: YES), the reference image selection candidate to be registered in the combined motion information candidate is determined based on the motion information of the candidate block (S1902). In the first embodiment, the L0 prediction reference image is the reference image that is the closest to the processing target image among the L0 prediction reference images, and the L1 prediction reference image is the processing target image among the L1 prediction reference images. The reference image is the closest distance.

ここでの参照画像選択候補の確定手法は、L0予測の参照画像とL1予測の参照画像が決定できればよく、これに限定されない。符号化処理と復号処理で同一の手法で参照画像を確定することで、符号化時に意図した参照画像を確定できる。他の確定手法としては、例えばL0予測の参照画像及びL1予測の参照画像の参照画像インデックスが0である参照画像を選択する手法や、空間隣接ブロックが使用しているL0参照画像及びL1参照画像で、最も多く使用されている参照画像を予測対象ブロックにおける参照画像として選択する手法や、符号化ストリーム中でL0予測およびL1予測の参照画像を指定する手法を用いることが可能である。   The determination method of the reference image selection candidate here is not limited to this as long as the reference image for L0 prediction and the reference image for L1 prediction can be determined. The reference image intended at the time of encoding can be determined by determining the reference image by the same method in the encoding process and the decoding process. As another determination method, for example, a method of selecting a reference image having a reference image index of 0 for a reference image for L0 prediction and a reference image for L1 prediction, or a L0 reference image and a L1 reference image used by spatially neighboring blocks. Thus, it is possible to use a method of selecting the most frequently used reference image as a reference image in the prediction target block, or a method of designating reference images for L0 prediction and L1 prediction in the encoded stream.

次に、候補ブロックの動き情報をもとに結合動き情報候補に登録する動きベクトル値を確定する(S1903)。実施の形態1における、時間結合動き情報は、候補ブロックの動き情報で有効な予測種別である動きベクトル値をもとに、双予測の動き情報を算出する。候補ブロックの予測種別がL0予測もしくはL1予測の単予測の場合には、予測に用いられている参照画像リスト(L0予測の参照画像リスト或いはL1予測の参照画像リスト)に対する動き情報を選択し、その参照画像指定情報と動きベクトル値を双予測動き情報生成の基準値とする。   Next, the motion vector value to be registered in the combined motion information candidate is determined based on the motion information of the candidate block (S1903). In the first embodiment, the temporally coupled motion information calculates bi-prediction motion information based on motion vector values that are effective prediction types in motion information of candidate blocks. When the prediction type of the candidate block is L0 prediction or L1 prediction single prediction, the motion information for the reference image list (L0 prediction reference image list or L1 prediction reference image list) used for prediction is selected. The reference image designation information and the motion vector value are set as a reference value for generating bi-predictive motion information.

候補ブロックの予測種別が双予測である場合には、L0予測或いはL1予測のどちらか一方の動き情報を基準値として選択する。基準値の選択方法は、例えばColPicと同じ予測種別に存在する動き情報を選択する、候補ブロックのL0予測、L1予測のそれぞれの参照画像でColPicとの画像間距離が近い方を選択する、或いは候補ブロックのL0予測、L1予測のそれぞれの動きベクトルが符号化処理対象画像と交差する方を選択する等が挙げられる。   If the prediction type of the candidate block is bi-prediction, motion information of either L0 prediction or L1 prediction is selected as a reference value. The selection method of the reference value is, for example, selecting motion information that exists in the same prediction type as ColPic, selecting the reference image of the candidate block that has a shorter inter-image distance from ColPic in the L0 prediction and L1 prediction, or For example, it is possible to select a direction in which the motion vectors of the L0 prediction and the L1 prediction of the candidate block intersect with the encoding process target image.

双予測動き情報生成の基準とする動きベクトル値が確定したら、結合動き情報候補に登録する動きベクトル値を算出する。   When the motion vector value used as a reference for bi-predictive motion information generation is determined, a motion vector value to be registered in the combined motion information candidate is calculated.

図20は、時間結合動き情報に対する基準動きベクトル値ColMvに対する、L0予測、L1予測に対して登録する動きベクトル値mvL0t、mvL1tの算出手法を説明するための図である。基準動きベクトル値ColMvに対するColPicと候補ブロックの基準とする動きベクトルの対象となる参照画像との画像間距離をColDistとする。L0予測、L1予測の各参照画像と処理対象画像との画像間距離をCurrL0Dist、CuurL1Distとする。ColMvを、ColDistとCurrL0Dist、CurrL1Distの距離比率でスケーリングした動きベクトルを、それぞれに登録する動きベクトルとする。具体的には、登録する動きベクトル値mvL0t、mvL1tは、下記式1、2で算出される。
mvL0t=mvCol×CurrL0Dist/ColDist ・・・(式1)
mvL1t=mvCol×CurrL1Dist/ColDist ・・・(式2)
となる。
FIG. 20 is a diagram for explaining a calculation method of motion vector values mvL0t and mvL1t registered for L0 prediction and L1 prediction with respect to the reference motion vector value ColMv for temporally coupled motion information. The distance between images between ColPic for the reference motion vector value ColMv and the reference image that is the target of the motion vector used as a reference for the candidate block is referred to as ColDist. The inter-image distances between the L0 prediction and L1 prediction reference images and the processing target image are CurrL0Dist and CururL1Dist. A motion vector obtained by scaling ColMv with a distance ratio of ColDist to CurrL0Dist and CurrL1Dist is set as a motion vector to be registered. Specifically, the motion vector values mvL0t and mvL1t to be registered are calculated by the following formulas 1 and 2.
mvL0t = mvCol × CurrL0Dist / ColDist (Formula 1)
mvL1t = mvCol × CurrL1Dist / ColDist (Formula 2)
It becomes.

図19に戻り、このようにして生成された、双予測の参照画像選択情報(インデックス)と、動きベクトル値を結合動き情報候補に追加し(S1904)、時間結合動き情報候補リスト作成処理が終了する。   Returning to FIG. 19, the bi-predicted reference image selection information (index) and the motion vector value generated in this way are added to the combined motion information candidates (S1904), and the temporally combined motion information candidate list creation process ends. To do.

図21は、図19のステップS1401における結合予測モード評価値生成の詳細動作を説明するためのフローチャートである。この動作は、図10の結合動き補償予測生成部1008を用いた構成の詳細動作を示している。   FIG. 21 is a flowchart for explaining the detailed operation of the combined prediction mode evaluation value generation in step S1401 of FIG. This operation is a detailed operation of the configuration using the combined motion compensation prediction generation unit 1008 of FIG.

最初に予測誤差評価値を最大値に設定し、予測誤差が最小となる結合動き情報インデックスを初期化(例えば、−1などのリスト外の値)する(S2100)。結合動き情報候補リスト生成処理により、生成された結合動き情報候補リストの数をnum_of_indexとすると、i=0からnum_of_index−1までの結合動き情報候補について以下の処理を繰り返し行う(S2101からS2109)。   First, the prediction error evaluation value is set to the maximum value, and the combined motion information index that minimizes the prediction error is initialized (for example, a value outside the list such as −1) (S2100). If the number of combined motion information candidate lists generated by the combined motion information candidate list generation process is num_of_index, the following processing is repeated for combined motion information candidates from i = 0 to num_of_index-1 (S2101 to S2109).

先ず、結合動き情報候補リストよりインデックスiに格納された動き情報を取得する(S2102)。続いて動き情報符号量を算出する(S2103)。結合予測モードにおいては、結合動き情報インデックスのみが符号化されるので、結合動き情報インデックスのみが動き情報符号量となる。結合動き情報インデックスの符号列としては、実施の形態1では、Truncated Unary符号列を用いる。   First, the motion information stored in the index i is acquired from the combined motion information candidate list (S2102). Subsequently, a motion information code amount is calculated (S2103). In the joint prediction mode, since only the joint motion information index is encoded, only the joint motion information index becomes the motion information code amount. In the first embodiment, a Truncated Unary code string is used as the code string of the combined motion information index.

続いて、動き情報の予測種別が単予測である場合(S2104:YES)、1つの参照画像に対する参照画像指定情報と動きベクトルを、図1における動き補償予測部108に設定して、動き補償単予測ブロックを生成する(S2105)。動き情報が単予測でない場合(S2104:NO)、2つの参照画像に対する参照画像指定情報と動きベクトルを動き補償予測部108に設定して、動き補償双予測ブロックを生成する(S2106)。   Subsequently, when the motion information prediction type is single prediction (S2104: YES), the reference image designation information and the motion vector for one reference image are set in the motion compensation prediction unit 108 in FIG. A prediction block is generated (S2105). When the motion information is not uni-prediction (S2104: NO), reference image designation information and motion vectors for two reference images are set in the motion compensated prediction unit 108, and a motion compensated bi-prediction block is generated (S2106).

続いて、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、予測誤差評価値を算出し(S2107)、予測誤差評価値が最小値である場合には評価値を更新すると共に、予測誤差最小インデックスを更新する(S2108)。   Subsequently, a prediction error evaluation value is calculated from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block (S2107), and when the prediction error evaluation value is the minimum value, the evaluation value is updated. The prediction error minimum index is updated (S2108).

全ての結合動き情報候補についての予測誤差評価値が比較された結果、選択された予測誤差最小インデックスを、結合予測モードで用いる結合動き情報インデックスとして、予測誤差最小値、動き補償予測ブロックと共に出力し(S2110)、結合予測モード評価値生成処理を終了する。   As a result of comparison of the prediction error evaluation values for all the combined motion information candidates, the selected prediction error minimum index is output together with the prediction error minimum value and the motion compensated prediction block as a combined motion information index used in the combined prediction mode. (S2110), the combined prediction mode evaluation value generation process is terminated.

図22は、図14のステップS1402における結合動き修正予測モード評価値生成の詳細動作を説明するためのフローチャートである。この動作は、図10の結合動き修正動き補償予測生成部1009を用いた構成の詳細動作を示している。   FIG. 22 is a flowchart for explaining the detailed operation of the combined motion correction prediction mode evaluation value generation in step S1402 of FIG. This operation shows a detailed operation of the configuration using the combined motion corrected motion compensation prediction generation unit 1009 of FIG.

最初に予測誤差評価値を最大値に設定し、予測誤差が最小となる結合動き情報インックスを初期化(例えば、−1などのリスト外の値)する(S2200)。結合動き情報候補リスト生成処理により、生成された結合動き情報候補リストの数をnum_of_indexとすると、i=0からnum_of_index−1までの結合動き情報候補について以下の処理を繰り返し行う(S2201からS2210)。   First, the prediction error evaluation value is set to the maximum value, and the combined motion information index that minimizes the prediction error is initialized (for example, a value outside the list such as −1) (S2200). If the number of combined motion information candidate lists generated by the combined motion information candidate list generation process is num_of_index, the following processing is repeated for combined motion information candidates from i = 0 to num_of_index-1 (S2201 to S2210).

先ず、結合動き情報候補リストよりインデックスiに格納された動き情報を取得する(S2202)。続いて、取得した動き情報より双予測の動きベクトル値と参照画像指定情報、及び差分ベクトルを伝送する参照画像となる動き修正参照画像を確定する(S2203)。ステップS2203の詳細動作に関しては、後述する。   First, the motion information stored in the index i is acquired from the combined motion information candidate list (S2202). Subsequently, a motion-corrected reference image serving as a reference image for transmitting a bi-predicted motion vector value, reference image designation information, and a difference vector is determined from the acquired motion information (S2203). The detailed operation of step S2203 will be described later.

次に、ステップS2203により確定された動き補正参照画像に対して、図1の動きベクトル検出部107より動き補正参照画像に対する検出した動きベクトル値を入力する(S2204)。入力された動きベクトル値を動き補償予測に用いるため、結合動き情報候補より算出された動き情報における、動き補正参照画像の動きベクトル値との差分ベクトルが生成される(S2205)。   Next, the motion vector value detected for the motion correction reference image is input from the motion vector detection unit 107 of FIG. 1 to the motion correction reference image determined in step S2203 (S2204). In order to use the input motion vector value for motion compensation prediction, a difference vector with the motion vector value of the motion correction reference image in the motion information calculated from the combined motion information candidate is generated (S2205).

続いて、動き情報符号量を算出する(S2206)。結合動き修正予測モードにおいては、結合動き情報インデックスと差分ベクトル値が符号化されることで、必要な動き情報が伝送される。そのため、結合動き情報インデックスの符号量と差分ベクトル値の符号量が加算され、結合動き修正予測モードにおける動き情報符号量となる。   Subsequently, a motion information code amount is calculated (S2206). In the combined motion correction prediction mode, necessary motion information is transmitted by encoding the combined motion information index and the difference vector value. For this reason, the code amount of the combined motion information index and the code amount of the difference vector value are added to obtain the motion information code amount in the combined motion correction prediction mode.

結合修正動き予測モードの場合に、結合動き情報より生成された双予測の動きベクトルと参照画像選択情報に対して、動き修正参照画像に対する修正した動きベクトルのみを入れ替えた動き情報を、図1における動き補償予測部108に設定して、動き補償双予測ブロックを生成する(S2207)。   In the combined corrected motion prediction mode, the motion information obtained by replacing only the motion vector corrected for the motion corrected reference image with respect to the bi-predicted motion vector generated from the combined motion information and the reference image selection information is shown in FIG. A motion compensation bi-prediction block is generated by setting the motion compensation prediction unit 108 (S2207).

動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、予測誤差評価値を算出し(S2208)、予測誤差評価値が最小値である場合には評価値を更新すると共に、予測誤差最小インデックスを更新する(S2209)。   A prediction error evaluation value is calculated from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block (S2208). When the prediction error evaluation value is the minimum value, the evaluation value is updated and the prediction error is calculated. The minimum index is updated (S2209).

全ての結合動き情報候補についての予測誤差評価値が比較された結果、選択された予測誤差最小インデックスを、結合予測モードで用いる結合動き情報インデックスとして、予測誤差最小値、動き補償予測ブロックと共に出力し(S2211)、結合動き修正予測モード評価値生成処理を終了する。   As a result of comparison of the prediction error evaluation values for all the combined motion information candidates, the selected prediction error minimum index is output together with the prediction error minimum value and the motion compensated prediction block as a combined motion information index used in the combined prediction mode. (S2211) The combined motion correction prediction mode evaluation value generation process ends.

次に、ステップS2203の詳細動作を説明する前に、結合動き修正予測モードにおける結合動き情報に対するスケーリング処理の説明を行う。図23(a)〜(d)は、結合動き修正予測モードにおける結合動き情報に対するスケーリング処理の概念を示す図である。結合動き情報としては、図23(a)に示す空間隣接ブロックから算出された予測種別が双予測である空間BiPredと、図23(b)、(c)に示す空間隣接ブロックから算出された予測種別が単予測である空間UniPredと、図23(d)に示す時間連接ブロックから算出された時間BiPredが存在する。   Next, before describing the detailed operation of step S2203, the scaling process for the combined motion information in the combined motion correction prediction mode will be described. 23A to 23D are diagrams illustrating the concept of scaling processing for combined motion information in the combined motion modified prediction mode. As the combined motion information, the prediction type calculated from the space BiPred whose prediction type is the bi-prediction calculated from the space adjacent block shown in FIG. 23A and the space adjacent block shown in FIGS. There exists a space UniPred whose type is single prediction and a time BiPred calculated from the time concatenated block shown in FIG.

実施の形態1における、結合動き情報に対するスケーリング処理は、双予測の動き情報が取得できる空間BiPred及び時間BiPredにおいては、結合動き情報算出時に施された動きベクトルをそのまま用い、空間UniPredに関しては、単予測で定義されている動きベクトル値を、符号化対象画像とL0の参照画像、L1の参照画像との時間的な位置関係に応じて1倍または−1倍することで、使用されていなかった参照画像リストの動きベクトルを生成する。   The scaling process for the combined motion information in the first embodiment uses the motion vector applied at the time of calculating the combined motion information as it is for the space BiPred and the time BiPred where bi-prediction motion information can be acquired. It was not used by multiplying the motion vector value defined in the prediction by 1 or -1 according to the temporal positional relationship between the encoding target image and the L0 reference image and the L1 reference image. A motion vector of the reference image list is generated.

すなわち、図43(b)に示すように、符号化対象画像に対して、L0の参照画像とL1の参照画像が時間方向で反対の方向にある場合には、単予測で定義されている動きベクトル値を、−1倍、すなわち動きベクトル値の正負の符号を反転することにより、既に使用している参照画像リストの動きベクトルと反対方向の動きベクトルを生成する。なお、符号化対象画像に対して、L0の参照画像とL1の参照画像が反対の方向に存在する条件判定に関しては、下記の条件判定を用いる。
L0の参照画像のPOCの値<符号化対象画像のPOCの値、かつ、符号化対象画像のPOCの値<L1の参照画像のPOCの値
That is, as shown in FIG. 43 (b), when the L0 reference image and the L1 reference image are in the opposite directions in the temporal direction with respect to the encoding target image, the motion defined by the single prediction is performed. By inverting the vector value by −1, that is, the sign of the motion vector value, a motion vector in the opposite direction to the motion vector of the reference image list already used is generated. Note that the following condition determination is used for the condition determination in which the L0 reference image and the L1 reference image exist in opposite directions with respect to the encoding target image.
The POC value of the L0 reference image <the POC value of the encoding target image, and the POC value of the encoding target image <the POC value of the reference image of L1

一方、図43(c)に示すように、符号化対象画像に対して、L0の参照画像とL1の参照画像が時間方向で同じ方向にある場合には、単予測で定義されている動きベクトルを1倍、すなわち同じ動きベクトル値を他方の動きベクトル値として用いる。なお、符号化対象画像に対して、L0の参照画像とL1の参照画像が同じ方向に存在する条件判定に関しては、下記の条件判定を用いる。
L0の参照画像のPOCの値<符号化対象画像のPOCの値、かつ、L1の参照画像のPOCの値<符号化対象画像のPOCの値
または
符号化対象画像のPOCの値<L1の参照画像のPOCの値、かつ、符号化対象画像のPOCの値<L0の参照画像のPOCの値
On the other hand, as shown in FIG. 43 (c), when the L0 reference image and the L1 reference image are in the same direction in the time direction with respect to the encoding target image, the motion vector defined by single prediction is used. Is multiplied by 1, that is, the same motion vector value is used as the other motion vector value. The following condition determination is used for the condition determination in which the L0 reference image and the L1 reference image exist in the same direction with respect to the encoding target image.
PO value of the reference image of L0 <POC value of the encoding target image, and POC value of the reference image of L1 <POC value of the encoding target image or POC value of the encoding target image <reference of L1 The POC value of the image, and the POC value of the encoding target image <the value of the POC of the reference image of L0

以上の処理を単予測で定義されている動きベクトルに対して行うことにより、単予測で定義されている動きベクトルから使用されていなかった他方の参照画像リストの参照画像動きベクトルを生成することができる。この点が本実施の形態において符号化効率を向上する特徴的な構成であり、処理対象ブロックに隣接するブロックの動き情報が単予測の場合においても、複雑な処理を行うことなくより簡易な方法で他方のベクトルを生成して双予測を行うことが可能である。   By performing the above processing on the motion vector defined by the single prediction, the reference image motion vector of the other reference image list that has not been used can be generated from the motion vector defined by the single prediction. it can. This is a characteristic configuration that improves the encoding efficiency in the present embodiment, and a simpler method without performing complicated processing even when the motion information of the block adjacent to the processing target block is uni-prediction It is possible to perform bi-prediction by generating the other vector.

本発明の符号化装置においては、最大で結合予測モードの候補数分だけ使用されていない他方の参照画像リストの動きベクトルを生成する可能性があるため、既に使用している参照画像リストの動きベクトル値に対して演算を施すことなく他方の参照画像リストの動きベクトルを生成できる本手法により処理量を削減できる。
本発明の復号装置においては、修正予測モード選択時に、結合予測リスト生成後に必要となる可能性がある動きベクトル値の演算を削減でき、結合予測モード選択時とほぼ同等の演算負荷で修正予測モードの動き情報算出処理が可能となる。
In the encoding device of the present invention, there is a possibility that the motion vector of the other reference image list that is not used by the maximum number of combined prediction mode candidates may be generated. The amount of processing can be reduced by this method that can generate a motion vector of the other reference image list without performing an operation on a vector value.
In the decoding apparatus of the present invention, when the modified prediction mode is selected, it is possible to reduce the calculation of motion vector values that may be necessary after the combined prediction list is generated, and the modified prediction mode with almost the same computational load as when the combined prediction mode is selected. Motion information calculation processing can be performed.

図44にL0予測およびL1予測の参照画像リストに登録されている参照画像の例を示す。図44は符号化対象画像のPOCが10である場合の参照画像の例である。通常、参照画像は符号化対象画像に時間的に近い画像から順に登録される。また、L0予測の参照画像は符号化対象画像よりも時間的に前の画像が時間的に後の画像より優先して登録され、L1予測の参照画像は符号化対象画像よりも時間的に後の画像が時間的に前の画像に優先して登録されることから、各参照画像リストの最初の画像は符号化対象画像に対して同一距離に設定してあることが多い。また、符号化対象画像に近い画像は符号化対象画像と相関が高いことから、参照画像として用いられる確率が高く、すなわち、参照画像リストの最初の画像が参照画像として用いられる頻度が高い。よって、単予測の動きベクトルを参照画像の位置に応じて1倍また−1倍して他方の動きベクトルを生成しても、通常の画像間距離に応じたスケーリング演算を行った場合と比較して大きな誤差が生じることはなく、より少ない処理量で双予測を行う結合動き修正予測モードを使用することができる。   FIG. 44 shows an example of reference images registered in the reference image list for L0 prediction and L1 prediction. FIG. 44 shows an example of a reference image when the POC of the encoding target image is 10. Usually, reference images are registered in order from an image that is temporally close to the encoding target image. In addition, the L0 prediction reference image is preferentially registered with respect to the temporally preceding image relative to the encoding target image, and the L1 prediction reference image is temporally later than the encoding target image. In this case, the first image in each reference image list is often set at the same distance with respect to the encoding target image. In addition, since an image close to the encoding target image has a high correlation with the encoding target image, the probability of being used as a reference image is high, that is, the first image in the reference image list is frequently used as a reference image. Therefore, even if the motion vector of the single prediction is multiplied by 1 or −1 according to the position of the reference image and the other motion vector is generated, it is compared with the case where the scaling operation according to the normal inter-image distance is performed. Therefore, a combined motion modified prediction mode that performs bi-prediction with a smaller amount of processing can be used.

図24は、各結合動き情報に対して存在するスケーリングされて生成した動きベクトル数を示す図である。空間UniPredが上記スケーリング処理における1個、空間BiPredは結合動き情報算出時にスケーリング処理が施されていないため0個、時間BiPredは結合動き情報算出時の2つの動きベクトル値の算出時にスケーリング処理が施されているため2個となる。   FIG. 24 is a diagram illustrating the number of scaled motion vectors that exist for each piece of combined motion information. The space UniPred is 1 in the above scaling process, the space BiPred is 0 because no scaling process is performed when calculating the combined motion information, and the time BiPred is subjected to the scaling process when calculating two motion vector values when calculating the combined motion information. Because it is, it becomes two.

上記スケーリング処理が施された動きベクトル値は、隣接ブロックで使用された動きベクトル値をそのまま動きベクトル値として採用した結合動き情報と比較すると、スケーリングによる演算誤差の影響や、動き量の時間変化が一定でない場合の影響があり、その動き情報の精度にずれが生じている可能性が高い。また、隣接ブロックに使用された動きベクトル値は、符号化対象から時間的に離れた参照画像になるほど画面の変化が大きくなるため、その値の精度が低下する。   When the motion vector value subjected to the above scaling processing is compared with the combined motion information in which the motion vector value used in the adjacent block is directly adopted as the motion vector value, the influence of the calculation error due to scaling and the temporal change of the motion amount There is an influence when it is not constant, and there is a high possibility that the accuracy of the motion information has shifted. In addition, since the motion vector value used for the adjacent block has a larger screen change as the reference image is temporally separated from the encoding target, the accuracy of the value decreases.

実施の形態1においては、これらの結合動き情報に登録された動きベクトルの算出時の特性を利用して、差分ベクトルを送って動きベクトルを修正する必要のある動きベクトルを、付加情報を伝送することなく特定し、差分ベクトルのみを追加で符号化する。これにより、動き補償予測の予測精度が高い動き情報を、少ない動き情報の伝送で実現することができる。   In the first embodiment, using the characteristics at the time of calculation of the motion vector registered in the combined motion information, a motion vector that needs to be corrected by sending a difference vector is transmitted as additional information. And specify only the difference vector. Thereby, motion information with high prediction accuracy of motion compensation prediction can be realized by transmission of a small amount of motion information.

実施の形態1においては、スケーリングされて算出された動きベクトル値を持つ参照画像を優先的に、差分ベクトルを伝送する動き修正参照画像に設定する。2つの動きベクトルが共にスケーリングされている場合や、共にスケーリングされていない場合には、予測対象画像からの時間的距離が離れた参照画像を、差分ベクトルを伝送する動き修正参照画像に設定する。   In the first embodiment, a reference image having a motion vector value calculated by scaling is preferentially set as a motion correction reference image for transmitting a difference vector. When the two motion vectors are both scaled or are not scaled together, a reference image that is separated in time from the prediction target image is set as a motion-corrected reference image that transmits the difference vector.

図25(a)〜(c)は、実施の形態1における差分動きベクトル伝送参照画像確定アルゴリズムを示す概念図である。図25(a)に示す空間BiPredでは、スケーリングされた動きベクトルが0個のため、時間的距離の遠い参照画像の動きベクトルに差分ベクトルを追加する。図25(b)に示す空間UniPredでは、スケーリングされた動きベクトルが1個のため、スケーリングされた動きベクトルに差分ベクトルを追加する。図25(c)に示す時間BiPredでは、スケーリングされた動きベクトルが2個のため、時間的距離の遠い参照画像の動きベクトルに差分ベクトルを追加する。   FIGS. 25A to 25C are conceptual diagrams showing the differential motion vector transmission reference image determination algorithm in the first embodiment. In the space BiPred shown in FIG. 25A, since the scaled motion vector is zero, a difference vector is added to the motion vector of the reference image far in time. In the space UniPred shown in FIG. 25B, since there is one scaled motion vector, a difference vector is added to the scaled motion vector. At time BiPred shown in FIG. 25C, since there are two scaled motion vectors, a difference vector is added to the motion vector of the reference image far in time.

図26は、図22のステップS2203の詳細動作を説明するためのフローチャートである。図22のステップS2203では、上記差分ベクトルを伝送する参照画像の確定処理が行われる。   FIG. 26 is a flowchart for explaining detailed operation of step S2203 of FIG. In step S2203 of FIG. 22, a reference image transmission process for transmitting the difference vector is performed.

最初に、取得した結合動き情報の予測種別が単予測である場合には(S2600:YES)、空間UniPredで導出された結合動き情報であり、双予測の動き補償予測を行うための第2参照画像と第2参照画像の動きベクトル値を確定する処理を行う(S2601)。ステップS2601の詳細動作に関しては、後述する。   First, when the prediction type of the acquired combined motion information is uni-prediction (S2600: YES), the second reference for performing bi-prediction motion compensation prediction is combined motion information derived in the space UniPred. Processing for determining the motion vector values of the image and the second reference image is performed (S2601). The detailed operation of step S2601 will be described later.

続いて、双予測の参照画像の動きベクトル値のうちスケーリングされた動きベクトルが単予測の1つの動きベクトルのみである場合(S2602:YES)、スケーリングされた動きベクトル値を持つ参照画像を動き修正参照画像に設定する(S2603)。   Subsequently, when the scaled motion vector is only one motion vector of uni-prediction among the motion vector values of the bi-predictive reference image (S2602: YES), the reference image having the scaled motion vector value is corrected for motion. The reference image is set (S2603).

スケーリングされた動きベクトルが単予測の1つの動きベクトルでない場合(S2602:NO)、符号化対象画像、L0参照画像、L1参照画像の時間情報を示すPOC値を取得し、それぞれPOCcur、POC_L0、POC_L1に設定する(S2604)。   When the scaled motion vector is not a single motion vector for uni-prediction (S2602: NO), POC values indicating temporal information of the encoding target image, the L0 reference image, and the L1 reference image are acquired, and POCcur, POC_L0, and POC_L1 are obtained. (S2604).

符号化対象画像と2つの参照画像の間での時間的距離を下記式3で比較する。
abs(POCcur−POC_L0)>abs(POCcur−POC_L1)
・・・(式3)
The temporal distance between the encoding target image and the two reference images is compared by the following expression 3.
abs (POCcur-POC_L0)> abs (POCcur-POC_L1)
... (Formula 3)

上記式3を満たす場合(S2605:YES)、L0参照画像が遠い参照画像と判断し、L0参照画像を動き修正参照画像に設定する(S2606)。上記式3を満たさない場合(S2605:NO)、L1参照画像を動き修正参照画像に設定する(S2607)。以上で、双予測の動きベクトル値と差分ベクトルを伝送する参照画像を確定する処理が終了する。   When Expression 3 is satisfied (S2605: YES), the L0 reference image is determined to be a distant reference image, and the L0 reference image is set as a motion corrected reference image (S2606). When Expression 3 is not satisfied (S2605: NO), the L1 reference image is set as a motion-corrected reference image (S2607). This completes the process of determining the reference image for transmitting the bi-prediction motion vector value and the difference vector.

図27は、図26のステップS2601の詳細動作を説明するためのフローチャートである。最初に、結合動き情報に格納されている動き情報がL0予測であった場合(S2700:YES)、第2参照画像としてL1予測の参照画像インデックスを確定する(S2701)。L0予測でない場合(S2700:NO)、第2参照画像としてL0予測の参照画像インデックスを確定する(S2702)。ステップS2702における参照画像インデックスの確定処理に関しては、後述する。   FIG. 27 is a flowchart for explaining the detailed operation of step S2601 of FIG. First, when the motion information stored in the combined motion information is L0 prediction (S2700: YES), a reference image index for L1 prediction is determined as the second reference image (S2701). When it is not L0 prediction (S2700: NO), a reference image index for L0 prediction is determined as the second reference image (S2702). The reference image index determination process in step S2702 will be described later.

続いて、符号化対象画像、結合動き情報に格納されている参照画像、第2参照画像のPOC値を取得し、POCcur、POC_Lx、POC_Lyに設定する(S2703)。上記POC値を用いて、結合動き情報に格納されている動きベクトル値を2つの参照画像と符号化対象画像との距離比率でスケーリングする(S2704)。   Subsequently, POC values of the encoding target image, the reference image stored in the combined motion information, and the second reference image are acquired and set to POCcur, POC_Lx, POC_Ly (S2703). Using the POC value, the motion vector value stored in the combined motion information is scaled by the distance ratio between the two reference images and the encoding target image (S2704).

結合動き情報に格納されている動き情報がL0予測であった場合(S2705:YES)、スケーリングして生成された動きベクトル値をL1予測の参照画像に対する基準動きベクトル値として設定する(S2706)。L0予測でない場合(S2705:NO)、スケーリングして生成された動きベクトル値をL0予測の参照画像に対する基準動きベクトル値として設定し(S2707)、処理を終了する。   When the motion information stored in the combined motion information is L0 prediction (S2705: YES), the motion vector value generated by scaling is set as the reference motion vector value for the reference image of L1 prediction (S2706). If it is not the L0 prediction (S2705: NO), the motion vector value generated by scaling is set as the reference motion vector value for the reference image for the L0 prediction (S2707), and the process is terminated.

図28は、図27のステップS2702の詳細動作を説明するためのフローチャートである。図27のステップS2702では、参照画像インデックスを確定する処理が行われる。   FIG. 28 is a flowchart for explaining the detailed operation of step S2702 of FIG. In step S2702 of FIG. 27, a process of determining a reference image index is performed.

最初に、結合動き情報に格納されている参照画像を基準参照画像として取得するとともに、第2参照画像を設定する予測種別における参照画像リストを第2参照画像候補リストとして取得する(S2800)。   First, the reference image stored in the combined motion information is acquired as a standard reference image, and the reference image list in the prediction type for setting the second reference image is acquired as a second reference image candidate list (S2800).

次に、符号化対象画像を挟んで基準参照画像と反対方向の時間位置に存在する参照画像が第2参照画像候補リスト内に存在するかを調べる(S2801)。存在する場合(S2801:YES)、その中で最も符号化対象画像に近い時間位置に存在する参照画像を第2参照画像に対する参照画像インデックスとして確定する(S2802)。存在しない場合(S2801:NO)、符号化対象に最も近い時間位置に存在する参照画像を第2参照画像候補と設定し(S2803)、基準参照画像と第2参照画像候補が同一画像であるかを調べる(S2804)。   Next, it is checked whether or not a reference image that exists at a time position in the opposite direction to the standard reference image across the encoding target image exists in the second reference image candidate list (S2801). If it exists (S2801: YES), the reference image existing at the time position closest to the encoding target image is determined as the reference image index for the second reference image (S2802). If it does not exist (S2801: NO), the reference image existing at the time position closest to the encoding target is set as the second reference image candidate (S2803), and the reference reference image and the second reference image candidate are the same image. (S2804).

基準参照画像と第2参照画像候補が同一画像でない場合(S2804:NO)、第2参照画像候補を第2参照画像に対する参照画像インデックスとして確定する(S2805)。基準参照画像と第2参照画像候補が同一画像である場合(S2804:YES)、他の参照画像が第2参照画像候補リストに存在するかを調べる(S2806)。存在する場合(S2806:YES)、時間位置で次に符号化対象画像に近い参照画像を取得し、第2参照画像に対する参照画像インデックスとして確定する(S2807)。他の参照画像が存在しない場合(S2806:NO)、ステップS2805に進み、第2参照画像候補を第2参照画像に対する参照画像インデックスとして確定する。以上で全ての場合における第2参照画像に対する参照画像インデックスが確定し、処理を終了する。   If the reference reference image and the second reference image candidate are not the same image (S2804: NO), the second reference image candidate is determined as a reference image index for the second reference image (S2805). When the reference reference image and the second reference image candidate are the same image (S2804: YES), it is checked whether another reference image exists in the second reference image candidate list (S2806). If it exists (S2806: YES), a reference image closest to the next encoding target image at the time position is acquired and determined as a reference image index for the second reference image (S2807). If no other reference image exists (S2806: NO), the process proceeds to step S2805, and the second reference image candidate is determined as a reference image index for the second reference image. As described above, the reference image index for the second reference image in all cases is determined, and the process ends.

実施の形態1における第2参照画像の確定アルゴリズムは、動き補償予測処理が双予測において符号化対象画像を挟んで反対方向に存在する参照画像で構成される補間型(内挿型)の双予測の方が、符号化対象画像を挟まずに同一方向に存在する参照画像で構成する補間(外挿型)の双予測よりも、動きや物体の時間変化の影響を平均化できるために予測精度が良い点、符号化対象画像から近い参照画像の方が動きや物体の時間変化の影響が少なく動き補償予測の精度が良い点、同じ参照画像を重ね合わせて生成する予測画像よりも、2つの異なる参照画像より生成される双予測画像の方が動きを正しく捉えた場合の予測画像の予測精度が高い点の3つの知見に基づく確定アルゴリズムである。この手法により、双予測に適した参照画像を第2参照画像として設定できる利点がある。   The determination algorithm for the second reference image in the first embodiment is an interpolation type (interpolation type) bi-prediction in which the motion-compensated prediction process is composed of reference images that exist in opposite directions across the encoding target image in bi-prediction. Compared to interpolation (extrapolation type) bi-prediction consisting of reference images that exist in the same direction without interposing the encoding target image, it is possible to average the effects of motion and temporal changes in objects, so that the prediction accuracy The reference image closer to the encoding target image is less affected by the motion and the time change of the object and the accuracy of motion compensation prediction is better, and the prediction image generated by superimposing the same reference image The bi-predictive image generated from different reference images is a deterministic algorithm based on three findings that the prediction image has a higher prediction accuracy when the motion is correctly captured. This method has an advantage that a reference image suitable for bi-prediction can be set as the second reference image.

しかしながら、上述した参照画像インデックスの確定処理に関しては、第2参照画像の参照画像インデックスが確定できればよく、異なる確定アルゴリズムを用いることも可能である。符号化処理と復号処理で同一の手法で参照画像を確定することで、符号化時に意図した参照画像を確定できる。他の確定方法として、他ブロックの動き情報における動きベクトルが正確な動きを示していない場合に、同じ参照画像を重ね合わせて生成する予測画像を用いることで、参照画像に微小な変化を加えた動き補償予測信号を新たな候補として加えることが出来る効果を重視して、図28のフローチャートにおける、基準参照画像と第2参照画像候補が同一画像であるかを調べる処理であるステップS2804を無くして、同一画像であっても第2参照画像候補として確定する方法を用いることができる。   However, regarding the above-described determination process of the reference image index, it is only necessary to determine the reference image index of the second reference image, and it is possible to use a different determination algorithm. The reference image intended at the time of encoding can be determined by determining the reference image by the same method in the encoding process and the decoding process. As another determination method, when a motion vector in the motion information of another block does not indicate an accurate motion, a minute change is added to the reference image by using a prediction image generated by overlapping the same reference image. Emphasizing the effect that a motion compensated prediction signal can be added as a new candidate, step S2804, which is a process for checking whether the reference reference image and the second reference image candidate are the same image in the flowchart of FIG. 28, is eliminated. Even if the images are the same, a method of determining them as the second reference image candidates can be used.

更に他の確定方法として、第2参照画像として確定する予測種別の参照画像の中で、単純に符号化対象画像に最も近い距離にある参照画像を選択する方法や、常に参照画像インデックスが0で示される参照画像を取得する方法や、空間隣接ブロックが使用しているL0参照画像及びL1参照画像で、最も多く使用されている参照画像を予測対象ブロックにおける参照画像として選択する方法などの、時間BiPredにおける参照画像確定処理に用いた確定手段を用いることも可能である。また、図28に示したアルゴリズムを用いて、時間BiPredにおける参照画像確定処理に応用することも可能である。 As another determination method, among the reference images of the prediction type determined as the second reference image, a method of simply selecting a reference image that is closest to the encoding target image, or a reference image index that is always 0 is used. Time, such as a method for obtaining the indicated reference image, or a method for selecting the reference image used most frequently as the reference image in the prediction target block in the L0 reference image and the L1 reference image used by the spatially adjacent block It is also possible to use determination means used in the reference image determination process in BiPred. In addition, the algorithm shown in FIG. 28 can be used for reference image determination processing at time BiPred.

図29は、図14のステップS1403の詳細動作を説明するためのフローチャートである。図14のステップS1403では、単予測モード評価値生成処理が行われる。   FIG. 29 is a flowchart for explaining the detailed operation of step S1403 of FIG. In step S1403 of FIG. 14, a single prediction mode evaluation value generation process is performed.

最初に、単予測に対する参照画像指定情報(インデックス)と動きベクトル値を取得する(S2900)。続いて、予測ベクトル候補リストを生成し(S2901)、予測ベクトルの中から最適予測ベクトルを選択し、差分ベクトルを生成する(S2902)。最適予測ベクトルの選択手法は、予測ベクトルと伝送する動きベクトルの差分ベクトルを実際に符号化する際の符号量が最も少ないものを選択することが望ましいが、単純に差分ベクトルの水平・垂直成分の絶対値の総和が小さいものを選択するなどの手法で、簡易的に算出してもよい。ステップS2901の詳細動作については、後述する。   First, reference image designation information (index) and motion vector values for single prediction are acquired (S2900). Subsequently, a prediction vector candidate list is generated (S2901), an optimal prediction vector is selected from the prediction vectors, and a difference vector is generated (S2902). It is desirable to select the optimal prediction vector with the least amount of code when the difference vector between the prediction vector and the motion vector to be transmitted is actually encoded. However, the horizontal and vertical components of the difference vector are simply selected. The calculation may be simplified by a method such as selecting one having a small absolute sum. Detailed operation of step S2901 will be described later.

続いて、動き情報符号量を算出する(S2903)。単予測モードの場合に、符号化する動き情報としては、1つの参照画像に対する、参照画像指定情報、差分ベクトル値、及び予測ベクトルインデックスの3要素となり、各々符号化された符号量の総量が動き情報符号量として算出される。実施の形態1における予測ベクトルインデックスの符号列生成手法としては、結合動き情報インデックスの符号列と同様にTruncated Unary符号列を用いるものとする。   Subsequently, a motion information code amount is calculated (S2903). In the single prediction mode, as motion information to be encoded, there are three elements of reference image designation information, a difference vector value, and a prediction vector index for one reference image, and the total amount of the encoded amount of motion is the motion. It is calculated as the information code amount. As a predictive vector index code string generation method according to Embodiment 1, a Trunked Unary code string is used in the same manner as the combined motion information index code string.

続いて、1つの参照画像に対する参照画像指定情報と動きベクトルを図1における動き補償予測部108に設定して、動き補償単予測ブロックを生成する(S2904)。さらに、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、予測誤差評価値を算出し(S2905)、予測誤差評価値と、1つの参照画像に対する動き情報である、参照画像指定情報と差分ベクトル値と予測ベクトルインデックスを動き補償予測ブロックと共に出力し(S2906)、単予測モード評価値生成処理を終了する。   Subsequently, reference image designation information and a motion vector for one reference image are set in the motion compensated prediction unit 108 in FIG. 1 to generate a motion compensated single prediction block (S2904). Further, a prediction error evaluation value is calculated from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block (S2905), and a reference image designation that is the prediction error evaluation value and motion information for one reference image. Information, a difference vector value, and a prediction vector index are output with a motion compensation prediction block (S2906), and a single prediction mode evaluation value generation process is complete | finished.

図30は、図29のステップS2901の詳細動作を説明するためのフローチャートである。図29のステップS2901では、予測ベクトル候補リスト生成が行われる。この動作は、図10の予測ベクトル算出部1003における構成の詳細動作を示している。   FIG. 30 is a flowchart for explaining the detailed operation of step S2901 of FIG. In step S2901 in FIG. 29, a prediction vector candidate list is generated. This operation shows the detailed operation of the configuration in the prediction vector calculation unit 1003 of FIG.

図11の予測ベクトル候補リスト生成部1100は、動き情報メモリ111より供給される空間候補ブロック群から領域外である候補ブロックや、イントラモードである候補ブロックを除いた候補ブロック群から空間動き情報利用予測ベクトル候補リストを生成する(S3000)。空間動き情報利用予測ベクトル候補リスト生成の詳細な動作は後述する。   The prediction vector candidate list generation unit 1100 in FIG. 11 uses the spatial motion information from the candidate block group excluding the candidate block outside the region from the spatial candidate block group supplied from the motion information memory 111 and the candidate block in the intra mode. A prediction vector candidate list is generated (S3000). The detailed operation of generating the spatial motion information use prediction vector candidate list will be described later.

予測ベクトル候補リスト生成部1100は、続いて動き情報メモリ111より供給される時間候補ブロック群から領域外である候補ブロックやイントラモードである候補ブロックを除いた候補ブロック群から時間動き情報利用予測ベクトル候補リストを生成する(S3001)。時間動き情報利用予測ベクトル候補リスト生成の詳細な動作は後述する。   The prediction vector candidate list generation unit 1100 subsequently uses the temporal motion information use prediction vector from the candidate block group obtained by excluding the candidate block outside the region and the candidate block in the intra mode from the temporal candidate block group supplied from the motion information memory 111. A candidate list is generated (S3001). The detailed operation of generating the temporal motion information use prediction vector candidate list will be described later.

続いて、予測ベクトル候補リスト削除部1101は、生成された空間動き情報利用予測ベクトル候補リストと時間動き情報利用予測ベクトル候補リストを統合した予測ベクトル候補リストより、重複している動きベクトルを持つ予測ベクトル候補が複数存在する場合には1つの予測ベクトル候補を残して削除して予測ベクトル候補リストを更新する(S3002)。   Subsequently, the prediction vector candidate list deletion unit 1101 performs prediction with overlapping motion vectors from the prediction vector candidate list obtained by integrating the generated spatial motion information use prediction vector candidate list and temporal motion information use prediction vector candidate list. If there are a plurality of vector candidates, the prediction vector candidate list is updated by deleting one of the prediction vector candidates (S3002).

最後に、上記処理において隣接ブロックに有効な動き情報が存在せず、予測ベクトル候補が存在しない場合(S3003:YES)、固定ベクトル値(0,0)を予測ベクトル候補リストに追加して(S3004)、処理を終了する。   Finally, when there is no valid motion information in the adjacent block and no prediction vector candidate exists in the above processing (S3003: YES), the fixed vector value (0, 0) is added to the prediction vector candidate list (S3004). ), The process is terminated.

図31は、空間動き情報利用予測ベクトル候補リスト生成の詳細動作を説明するためのフローチャートである。動き情報メモリ111より、予測ベクトル算出部1003に供給される動き情報の候補ブロック群には、空間候補ブロック群と時間候補ブロック群が含まれる。空間候補ブロック群と時間候補ブロック群の概念は、図16や図18に示した、結合動き情報に対する動き情報の候補ブロックと同様である。   FIG. 31 is a flowchart for explaining a detailed operation of generating a spatial motion information use prediction vector candidate list. The candidate block group of motion information supplied from the motion information memory 111 to the prediction vector calculation unit 1003 includes a spatial candidate block group and a temporal candidate block group. The concepts of the spatial candidate block group and the temporal candidate block group are the same as those of the motion information candidate blocks for the combined motion information shown in FIGS.

実施の形態1においては、空間候補ブロック群としては図16におけるブロックA1、ブロックB1、ブロックC、ブロックDの4ブロックとする。実施の形態1において、候補ブロックの数や位置に関しては限定されず、また結合動き情報において用いる候補ブロックの数や位置と、予測ベクトルにおいて用いる候補ブロックの数や位置は、一致しても一致しなくてもかまわない。   In the first embodiment, the space candidate block group is assumed to be four blocks of block A1, block B1, block C, and block D in FIG. In Embodiment 1, the number and position of candidate blocks are not limited, and the number and position of candidate blocks used in the combined motion information and the number and position of candidate blocks used in the prediction vector match even if they match. It doesn't have to be.

最初に、空間候補ブロック群に含まれる4つの候補ブロックであるブロックA1、ブロックB1、ブロックC、ブロックDについて以下の処理を繰り返し行う(S3100からS3103)。   First, the following processing is repeated for the four candidate blocks included in the space candidate block group, block A1, block B1, block C, and block D (S3100 to S3103).

最初に候補ブロックにおいて指定した参照画像における動きベクトル値の有効性を検査する(S3101)。候補ブロックが領域外でなくイントラモードでない場合だけでなく、単予測で指定した参照画像が使用されない場合や、参照インデックスが異なる場合に、動きベクトル値は無効となる。ただし、実施の形態1においては、単予測で指定した参照画像が使用されない場合や、参照インデックスが異なる場合に、他の参照画像の動きベクトル値をスケーリングして動きベクトルを求めるなどの追加の処理を行い、有効な動きベクトルとして扱うことも可能であり、上記動きベクトル値の有効/無効判断手法は、実施の形態1の手法に限定されない。   First, the validity of the motion vector value in the reference image designated in the candidate block is checked (S3101). The motion vector value becomes invalid not only when the candidate block is not out of the region and not in the intra mode, but also when the reference image designated by the single prediction is not used or when the reference index is different. However, in the first embodiment, when the reference image specified in the single prediction is not used or when the reference index is different, additional processing such as obtaining a motion vector by scaling the motion vector value of another reference image And the motion vector value valid / invalid determination method is not limited to the method of the first embodiment.

続いて、動きベクトル値が有効であれば(S3101:YES)、候補ブロックの動きベクトル値を予測ベクトル候補リストに追加する(S3102)。動きベクトル値が無効であれば(S3101:NO)、ステップS3102をスキップし、次の候補ブロックの動きベクトル値の有効/無効判断を行う。   Subsequently, if the motion vector value is valid (S3101: YES), the motion vector value of the candidate block is added to the prediction vector candidate list (S3102). If the motion vector value is invalid (S3101: NO), step S3102 is skipped, and valid / invalid determination of the motion vector value of the next candidate block is performed.

図32は、時間動き情報利用予測ベクトル候補リスト生成の詳細動作を説明するためのフローチャートである。実施の形態1においては、図18における時間的に隣接するブロック群の内、時間候補ブロック群をブロックHとブロックI6の2ブロックとする。時間動き情報利用予測ベクトル候補リスト生成においても、候補ブロックの数や位置に関しては限定されず、また結合動き情報において用いる候補ブロックの数や位置と別に設定することが可能である。   FIG. 32 is a flowchart for explaining a detailed operation of generating a temporal motion information use prediction vector candidate list. In the first embodiment, among the temporally adjacent block groups in FIG. 18, the temporal candidate block group is assumed to be two blocks, block H and block I6. Also in the generation of a temporal motion information prediction vector candidate list, the number and position of candidate blocks are not limited, and can be set separately from the number and position of candidate blocks used in combined motion information.

時間候補ブロック群に含まれる2つの候補ブロックであるブロックHとブロックI6について(ステップ3200、ステップS3204)、候補ブロックの有効性を検査する(S3201)。候補ブロックが有効である場合(S3201:YES)、ステップS3202〜ステップS3203の処理が行われ、生成された動きベクトル値が予測ベクトル候補リストに登録され、処理が終了する。候補ブロックが画面領域外の位置を示す場合や、候補ブロックがイントラ予測ブロックである場合には、候補ブロックが有効でなく(S3201:NO)、次の候補ブロックの有効/無効判定が行われる。   Regarding the block H and the block I6 that are two candidate blocks included in the time candidate block group (step 3200, step S3204), the validity of the candidate block is checked (S3201). If the candidate block is valid (S3201: YES), the processes of steps S3202 to S3203 are performed, the generated motion vector values are registered in the prediction vector candidate list, and the process ends. When the candidate block indicates a position outside the screen area, or when the candidate block is an intra prediction block, the candidate block is not valid (S3201: NO), and the validity / invalidity determination of the next candidate block is performed.

候補ブロックが有効である場合(S3201:YES)、候補ブロックの動き情報をもとに予測ベクトル候補に登録する動きベクトル値を確定する(S3202)。確定した動きベクトル値を予測ベクトル候補リストに追加して(S3203)、時間動き情報利用予測ベクトル候補リスト生成が終了する。   If the candidate block is valid (S3201: YES), the motion vector value to be registered in the prediction vector candidate is determined based on the motion information of the candidate block (S3202). The confirmed motion vector value is added to the prediction vector candidate list (S3203), and generation of the temporal motion information use prediction vector candidate list ends.

図33は、図14のステップS1404の詳細動作を説明するためのフローチャートである。図14のステップS1404では、双予測モード評価値生成処理が行われる。   FIG. 33 is a flowchart for explaining the detailed operation of step S1404 of FIG. In step S1404 of FIG. 14, bi-prediction mode evaluation value generation processing is performed.

最初に、L0予測に対する参照画像指定情報(インデックス)と動きベクトル値を取得する(S3300)。続いて、L0予測ベクトル候補リストを生成し(S3301)、予測ベクトルの中からL0予測における最適予測ベクトルを選択し、差分ベクトルを生成する(S3302)。これらの処理は、図29のフローチャート内の単予測モード評価値生成処理における、ステップ2900〜ステップS2902までの処理と同じ処理である。   First, reference image designation information (index) and motion vector values for L0 prediction are acquired (S3300). Subsequently, an L0 prediction vector candidate list is generated (S3301), an optimal prediction vector in L0 prediction is selected from the prediction vectors, and a difference vector is generated (S3302). These processes are the same as the processes from step 2900 to step S2902 in the single prediction mode evaluation value generation process in the flowchart of FIG.

続いて、L1予測に対する参照画像指定情報(インデックス)と動きベクトル値を取得する(S3303)。続いて、L1予測ベクトル候補リストを生成し(S3304)、予測ベクトルの中からL1予測における最適予測ベクトルを選択し、差分ベクトルを生成する(S3305)。これらの処理も同様に、図29のフローチャート内の単予測モード評価値生成処理における、ステップ2900〜ステップS2902までの処理と同じ処理である。   Subsequently, reference image designation information (index) and motion vector value for L1 prediction are acquired (S3303). Subsequently, an L1 prediction vector candidate list is generated (S3304), an optimal prediction vector in L1 prediction is selected from the prediction vectors, and a difference vector is generated (S3305). These processes are also the same as the processes from step 2900 to step S2902 in the single prediction mode evaluation value generation process in the flowchart of FIG.

続いて、動き情報符号量を算出する(S3306)。双予測モードの場合には、符号化する動き情報としては、L0とL1の2つの参照画像に対する、参照画像指定情報、差分ベクトル値、及び予測ベクトルインデックスの計6要素となり、各々符号化された符号量の総量が動き情報符号量として算出される。そのため、結合予測モードや結合動き修正予測モードと比較して、符号化される動き情報の符号量は大きくなる。   Subsequently, a motion information code amount is calculated (S3306). In the case of the bi-prediction mode, the motion information to be encoded is a total of six elements of reference image designation information, difference vector value, and prediction vector index for the two reference images of L0 and L1, each encoded. The total amount of code is calculated as the motion information code amount. For this reason, the amount of code of motion information to be encoded is larger than in the combined prediction mode and the combined motion correction prediction mode.

続いて、2つの参照画像に対する参照画像指定情報と動きベクトルを図1における動き補償予測部108に設定して、動き補償双予測ブロックを生成する(S3307)。さらに、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、予測誤差評価値を算出し(S3308)、予測誤差評価値と、L0、L1の2つの参照画像に対する動き情報である、2つの参照画像指定情報と2つの差分ベクトル値と2つの予測ベクトルインデックスを動き補償予測ブロックと共に出力し(S3309)、双予測モード評価値生成処理を終了する。   Subsequently, reference image designation information and motion vectors for the two reference images are set in the motion compensated prediction unit 108 in FIG. 1 to generate a motion compensated bi-prediction block (S3307). Further, a prediction error evaluation value is calculated from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block (S3308), and the prediction error evaluation value and motion information for two reference images L0 and L1. Two pieces of reference image designation information, two difference vector values, and two prediction vector indexes are output together with the motion compensated prediction block (S3309), and the bi-prediction mode evaluation value generation process is terminated.

以上の処理が、実施の形態1における動画像符号化装置における予測モード判定部109の詳細動作となる。   The above processing is the detailed operation of the prediction mode determination unit 109 in the video encoding apparatus in the first embodiment.

[実施の形態1における動画像符号化装置における動き情報符号化部の詳細動作説明]
図34は、図5のステップS504の詳細動作を説明するためのフローチャートである。図5のステップS504の処理は、実施の形態1の動画像符号化装置の動き情報符号化部110における、各動き補償予測モードに対する動き情報を符号化する処理を示す。
[Detailed Description of Operation of Motion Information Encoding Unit in Moving Picture Encoding Device in Embodiment 1]
FIG. 34 is a flowchart for explaining the detailed operation of step S504 of FIG. The process of step S504 in FIG. 5 shows a process of encoding motion information for each motion compensation prediction mode in the motion information encoding unit 110 of the video encoding apparatus of the first embodiment.

動き情報符号化部110には、予測モード判定部109において決定された動き補償予測モードにおける、予測モードを示す情報と、各予測モードの動き情報を表現するために必要な情報が供給され、動き情報符号化部110は動き情報符号化データ生成処理を開始する。   The motion information encoding unit 110 is supplied with information indicating the prediction mode in the motion compensated prediction mode determined by the prediction mode determination unit 109 and information necessary for expressing the motion information of each prediction mode. The information encoding unit 110 starts a motion information encoded data generation process.

最初に、予測モードが結合予測モードである場合(S3400:YES)、ステップS3401に進み、対象となる予測ブロックで予測誤差信号を符号化しない(Skipモード)状態である場合(S3401:YES)、Skipフラグを符号化し(S3402)、そうでない場合(S3401:NO)、マージフラグを1として符号化する(S3403)。   First, when the prediction mode is the combined prediction mode (S3400: YES), the process proceeds to step S3401, and when the prediction error signal is not encoded in the target prediction block (Skip mode) (S3401: YES), The Skip flag is encoded (S3402). Otherwise (S3401: NO), the merge flag is encoded as 1 (S3403).

Skipフラグ或いはマージフラグを符号化した後、結合動き情報候補リストが1より大きい場合(S3404:YES)、結合動き情報インデックスを符号化し(S3405)、処理を終了する。結合動き情報候補リストが1の場合(S3404:NO)、結合動き情報が特定できるため、結合動き情報インデックスは伝送されない。   After the Skip flag or merge flag is encoded, if the combined motion information candidate list is greater than 1 (S3404: YES), the combined motion information index is encoded (S3405), and the process ends. When the combined motion information candidate list is 1 (S3404: NO), since combined motion information can be specified, the combined motion information index is not transmitted.

次に、予測モードが結合予測モードでない場合(S3400:NO)、マージフラグを0として符号化し(S3406)、動き予測フラグを符号化する(S3407)。動き予測フラグは、予測種別が単予測であるか双予測であるかを指示する情報として符号化される。   Next, when the prediction mode is not the combined prediction mode (S3400: NO), the merge flag is encoded as 0 (S3406), and the motion prediction flag is encoded (S3407). The motion prediction flag is encoded as information indicating whether the prediction type is single prediction or bi-prediction.

図35は、実施の形態1における動き予測フラグの一例を示す図である。動き予測フラグ(inter_pred_flag)として、単予測を示す値(Pred_LC)が0、双予測を示す値(Pred_BI)が1で符号化される。結合動き修正予測モードに関しては、動き補償予測の構造は双予測となり、Pred_BIとして動き予測フラグが送られる。   FIG. 35 is a diagram illustrating an example of a motion prediction flag in the first embodiment. As a motion prediction flag (inter_pred_flag), a value (Pred_LC) indicating uni-prediction is 0, and a value (Pred_BI) indicating bi-prediction is 1. Regarding the combined motion correction prediction mode, the structure of motion compensation prediction is bi-prediction, and a motion prediction flag is sent as Pred_BI.

続いて、動き予測フラグで示された予測種別が単予測である場合(S3408:YES)、単予測モードの動き情報伝送が行われる。最初に、参照画像指定情報(インデックス)を符号化し(S3409)、続いて、差分ベクトルを符号化する(S3410)。予測ベクトル候補リストが1より大きい場合(S3411:YES)、予測ベクトルインデックスを符号化し(S3412)、処理を終了する。予測ベクトル候補リストが1の場合(S3411:NO)、予測ベクトルが特定できるため、インデックスは伝送されない。   Subsequently, when the prediction type indicated by the motion prediction flag is single prediction (S3408: YES), motion information transmission in the single prediction mode is performed. First, reference image designation information (index) is encoded (S3409), and then a difference vector is encoded (S3410). If the predicted vector candidate list is greater than 1 (S3411: YES), the predicted vector index is encoded (S3412), and the process is terminated. When the prediction vector candidate list is 1 (S3411: NO), since the prediction vector can be specified, the index is not transmitted.

一方、動き予測フラグで示された予測種別が単予測でない場合(S3408:NO)において、予測モードが結合動き修正予測モードである場合(S3413:YES)、結合動き修正予測モードの動き情報伝送が行われる。   On the other hand, when the prediction type indicated by the motion prediction flag is not single prediction (S3408: NO), when the prediction mode is the combined motion correction prediction mode (S3413: YES), motion information transmission in the combined motion correction prediction mode is performed. Done.

最初に、結合動き修正予測モードを特定するためのマージMvdフラグを1で符号化する(S3414)。続いて、結合動き情報候補リストが1より大きい場合(S3415:YES)、結合動き情報インデックスを符号化する(S3416)。結合動き情報候補リストが1の場合(S3415:NO)、結合動き情報インデックスは伝送されない。最後に、結合動き修正予測モードで特定された動き修正参照画像の動きベクトル値に対して、結合動き情報の動き修正参照画像の修正前動きベクトルとの差分ベクトル値を符号化し(S3417)、処理を終了する。   First, the merge Mvd flag for specifying the combined motion correction prediction mode is encoded with 1 (S3414). Subsequently, when the combined motion information candidate list is larger than 1 (S3415: YES), the combined motion information index is encoded (S3416). When the combined motion information candidate list is 1 (S3415: NO), the combined motion information index is not transmitted. Finally, the difference vector value between the motion vector value of the motion correction reference image specified in the combined motion correction prediction mode and the motion vector before correction of the motion correction reference image of the combined motion information is encoded (S3417), and processing Exit.

予測モードが結合動き修正予測モードでない場合(S3413:NO)、予測モードは双予測モードとなり、双予測モードの動き情報伝送が行われる。最初に、結合動き修正予測モードでないことを示すためにマージMvdフラグを0で符号化する(S3418)。続いて、L0予測の動き情報であるL0参照画像指定情報を符号化し(S3419)、L0差分ベクトル値を符号化する(S3420)。L0予測の予測ベクトル候補リストが1より大きい場合(S3421:YES)、L0予測ベクトルインデックスを符号化する(S3422)。L0予測の予測ベクトル候補リストが1の場合(S3421:NO)、L0予測ベクトルインデックスは伝送されない。   When the prediction mode is not the combined motion correction prediction mode (S3413: NO), the prediction mode becomes the bi-prediction mode, and motion information transmission in the bi-prediction mode is performed. First, the merge Mvd flag is encoded with 0 to indicate that it is not the combined motion correction prediction mode (S3418). Subsequently, L0 reference image designation information, which is motion information of L0 prediction, is encoded (S3419), and an L0 difference vector value is encoded (S3420). When the prediction vector candidate list for the L0 prediction is larger than 1 (S3421: YES), the L0 prediction vector index is encoded (S3422). When the prediction vector candidate list for L0 prediction is 1 (S3421: NO), the L0 prediction vector index is not transmitted.

続いて、L1予測の動き情報であるL1参照画像指定情報を符号化し(S3423)、L1差分ベクトル値を符号化する(S3424)。L1予測の予測ベクトル候補リストが1より大きい場合(S3425:YES)、L1予測ベクトルインデックスを符号化する(S3426)。L1予測の予測ベクトル候補リストが1の場合(S3425:NO)、L1予測ベクトルインデックスは伝送されない。以上の処理により、動き情報符号化データの生成が終了する。   Subsequently, L1 reference image designation information, which is motion information of L1 prediction, is encoded (S3423), and an L1 difference vector value is encoded (S3424). When the prediction vector candidate list for L1 prediction is larger than 1 (S3425: YES), the L1 prediction vector index is encoded (S3426). When the prediction vector candidate list for L1 prediction is 1 (S3425: NO), the L1 prediction vector index is not transmitted. With the above processing, the generation of motion information encoded data is completed.

図36は、図34のフローチャートで示した、動き情報符号化データ生成処理によって生成される符号化ストリームのシンタックスの一例を示す。図36の符号化シンタックスにおいては、Skipフラグの伝送は予測ブロック単位での動き情報の符号化より上の階層での符号化ブロック単位で選択される。従って、上位の符号化ブロックの単位で、図34の予測誤差信号を符号化しない(Skipモード)状態であるか否かの判定(S3401)が行われる。   FIG. 36 shows an example of the syntax of the encoded stream generated by the motion information encoded data generation process shown in the flowchart of FIG. In the coding syntax of FIG. 36, the transmission of the Skip flag is selected in units of coding blocks in a layer higher than the coding of motion information in units of prediction blocks. Therefore, it is determined (S3401) whether or not the prediction error signal in FIG. 34 is not encoded (Skip mode) in units of higher-order encoded blocks.

[実施の形態1における動画像復号装置における動き情報復号部の詳細動作説明]
図37は、図6に示した実施の形態1の動画像復号装置における動き情報復号部606の詳細な構成を示す図である。動き情報復号部606は、動き情報ビットストリーム復号部3700、予測ベクトル算出部3701、ベクトル加算部3702、動き補償単予測復号部3703、動き補償双予測復号部3704、結合動き情報算出部3705、結合動き補償予測復号部3706、及び結合動き修正動き補償予測復号部3707を含む。
[Detailed Operation Description of Motion Information Decoding Unit in Moving Picture Decoding Device in Embodiment 1]
FIG. 37 is a diagram showing a detailed configuration of the motion information decoding unit 606 in the moving picture decoding apparatus according to Embodiment 1 shown in FIG. The motion information decoding unit 606 includes a motion information bitstream decoding unit 3700, a prediction vector calculation unit 3701, a vector addition unit 3702, a motion compensation uni-prediction decoding unit 3703, a motion compensation bi-prediction decoding unit 3704, a combined motion information calculation unit 3705, a combination A motion compensation prediction decoding unit 3706 and a combined motion modified motion compensation prediction decoding unit 3707 are included.

図6における動き情報復号部606に対して、多重分離部601より入力された動き情報ビットストリームが、動き情報ビットストリーム復号部3700に供給され、動き情報メモリ607より入力された動き情報が、予測ベクトル算出部3701、及び結合動き情報算出部3705に供給される。   For the motion information decoding unit 606 in FIG. 6, the motion information bitstream input from the demultiplexing unit 601 is supplied to the motion information bitstream decoding unit 3700, and the motion information input from the motion information memory 607 is predicted. The vector calculation unit 3701 and the combined motion information calculation unit 3705 are supplied.

また、動き補償予測部608に対して、動き補償単予測復号部3703、動き補償双予測復号部3704、結合動き補償予測復号部3706、及び結合動き修正動き補償予測復号部3707から、動き補償予測に用いる参照画像指定情報と動きベクトルが出力され、予測種別を示す情報を含めた復号された動き情報が、動き情報メモリ607に格納される。   In addition, the motion compensated prediction prediction unit 608 includes a motion compensated prediction prediction unit 3703, a motion compensated bi-prediction decoding unit 3704, a joint motion compensation prediction decoding unit 3706, and a joint motion corrected motion compensation prediction decoding unit 3707. The reference image designation information and the motion vector used for are output, and the decoded motion information including information indicating the prediction type is stored in the motion information memory 607.

動き情報ビットストリーム復号部3700は、多重分離部601より入力された動き情報ビットストリームを符号化シンタックスに従って復号していくことで、伝送された予測モードと、予測モードに応じた動き情報を生成する。生成した動き情報の中で、結合動き情報インデックスは、予測モードに応じて結合動き補償予測復号部3706、もしくは結合動き修正動き補償予測復号部3707に供給され、参照画像指定情報が予測ベクトル算出部3701に供給され、予測ベクトルインデックスがベクトル加算部3702に供給され、差分ベクトル値が予測モードに応じてベクトル加算部3702、もしくは結合動き修正動き補償予測復号部3707に供給される。   The motion information bitstream decoding unit 3700 generates motion information corresponding to the transmitted prediction mode and the prediction mode by decoding the motion information bitstream input from the demultiplexing unit 601 according to the encoding syntax. To do. Among the generated motion information, the combined motion information index is supplied to the combined motion compensation prediction decoding unit 3706 or the combined motion modified motion compensation prediction decoding unit 3707 according to the prediction mode, and the reference image designation information is the prediction vector calculation unit. 3701, the prediction vector index is supplied to the vector addition unit 3702, and the difference vector value is supplied to the vector addition unit 3702 or the combined motion modified motion compensated prediction decoding unit 3707 according to the prediction mode.

予測ベクトル算出部3701は、動き情報メモリ607より供給された隣接ブロックの動き情報と、動き情報ビットストリーム復号部3700より供給された参照画像指定情報から、動き補償予測の対象となる参照画像に対する予測ベクトル候補リストを生成し、参照画像指定情報と共にベクトル加算部3702に供給する。予測ベクトル算出部3701の動作に関しては、図10の動画像符号化装置における予測ベクトル算出部1003と同一の動作が行われ、符号化時の予測ベクトル候補リストと同一の候補リストが生成される。   The prediction vector calculation unit 3701 predicts a reference image that is a target of motion compensation prediction from the motion information of the adjacent block supplied from the motion information memory 607 and the reference image designation information supplied from the motion information bitstream decoding unit 3700. A vector candidate list is generated and supplied to the vector addition unit 3702 together with the reference image designation information. Regarding the operation of the prediction vector calculation unit 3701, the same operation as that of the prediction vector calculation unit 1003 in the moving picture encoding apparatus in FIG. 10 is performed, and the same candidate list as the prediction vector candidate list at the time of encoding is generated.

ベクトル加算部3702は、予測ベクトル算出部3701より供給された予測ベクトル候補リスト及び参照画像指定情報と、動き情報ビットストリーム復号部3700から供給された予測ベクトルインデックス及び差分ベクトルより、予測ベクトルインデックスで示された位置に登録された予測ベクトル値と差分ベクトル値を加算することで、動き補償予測対象となる参照画像に対しての動きベクトル値が再生される。再生された動きベクトル値は、参照画像指定情報と共に、予測モードに応じて動き補償単予測復号部3703、もしくは動き補償双予測復号部3704に供給される。   The vector addition unit 3702 indicates the prediction vector index from the prediction vector candidate list and reference image designation information supplied from the prediction vector calculation unit 3701 and the prediction vector index and difference vector supplied from the motion information bitstream decoding unit 3700. By adding the prediction vector value and the difference vector value registered at the set position, the motion vector value for the reference image to be motion compensated prediction is reproduced. The reproduced motion vector value is supplied to the motion compensation uni-prediction decoding unit 3703 or the motion compensation bi-prediction decoding unit 3704 according to the prediction mode together with the reference image designation information.

動き補償単予測復号部3703は、ベクトル加算部3702より1つの参照画像に対する、再生された動きベクトル値と参照画像指定情報が供給され、動きベクトル値と参照画像指定情報を動き補償予測部608に設定することで、動き補償予測信号を生成する。   The motion compensated uni-prediction decoding unit 3703 is supplied with the reconstructed motion vector value and reference image designation information for one reference image from the vector addition unit 3702, and sends the motion vector value and the reference image designation information to the motion compensation prediction unit 608. By setting, a motion compensation prediction signal is generated.

動き補償双予測復号部3704は、ベクトル加算部3702より双予測の2つの参照画像に対する、再生された動きベクトル値と参照画像指定情報が供給され、動きベクトル値と参照画像指定情報を動き補償予測部608に設定することで、動き補償予測信号を生成する。   The motion compensated bi-prediction decoding unit 3704 is supplied with the reconstructed motion vector values and reference image designation information for the two reference images for bi-prediction from the vector addition unit 3702, and performs motion compensation prediction on the motion vector values and the reference image designation information. By setting in the unit 608, a motion compensated prediction signal is generated.

結合動き情報算出部3705は、動き情報メモリ607から供給される隣接ブロックの動き情報より、結合動き情報候補リストを生成し、結合動き情報候補リストとリスト内の構成要素である結合動き情報候補の参照画像指定情報と動きベクトル値を、予測モードに応じて結合動き補償予測復号部3706、もしくは結合動き修正動き補償予測復号部3707に供給する。   The combined motion information calculation unit 3705 generates a combined motion information candidate list from the motion information of adjacent blocks supplied from the motion information memory 607, and combines the combined motion information candidate list and the combined motion information candidate that is a component in the list. The reference image designation information and the motion vector value are supplied to the joint motion compensation prediction decoding unit 3706 or the joint motion corrected motion compensation prediction decoding unit 3707 according to the prediction mode.

結合動き情報算出部3705の動作に関しては、図10の動画像符号化装置における結合動き情報算出部1007と同一の動作が行われ、符号化時の結合動き情報候補リストと同一の候補リストが生成される。   Regarding the operation of the combined motion information calculation unit 3705, the same operation as that of the combined motion information calculation unit 1007 in the moving image encoding apparatus of FIG. 10 is performed, and the same candidate list as the combined motion information candidate list at the time of encoding is generated. Is done.

結合動き補償予測復号部3706は、結合動き情報算出部3705より供給される結合動き情報候補リストとリスト内の構成要素である結合動き情報候補の参照画像指定情報と動きベクトル値と、動き情報ビットストリーム復号部3700より供給される結合動き情報インデックスより、結合動き情報インデックスで示された結合動き情報候補リストにおける参照画像指定情報と動きベクトル値を再生し、動き補償予測部608に設定することで、動き補償予測信号を生成する。   The combined motion compensated prediction decoding unit 3706 includes a combined motion information candidate list supplied from the combined motion information calculation unit 3705, reference image designation information of a combined motion information candidate that is a component in the list, a motion vector value, and a motion information bit. The reference image designation information and the motion vector value in the combined motion information candidate list indicated by the combined motion information index are reproduced from the combined motion information index supplied from the stream decoding unit 3700, and set in the motion compensation prediction unit 608. Generate a motion compensated prediction signal.

結合動き修正動き補償予測復号部3707は、結合動き情報算出部3705より供給される結合動き情報候補リストとリスト内の構成要素である結合動き情報候補の参照画像指定情報と動きベクトル値と、動き情報ビットストリーム復号部3700より供給される結合動き情報インデックスより、結合動き修正予測モードに対する動き情報を算出し、動き修正参照画像を確定する。そして、動き修正参照画像の動きベクトル値に対して差分ベクトル値を加算することで、双予測の参照画像指定情報と動きベクトル値を再生し、動き補償予測部608に設定することで、動き補償予測信号を生成する。   The combined motion corrected motion compensated prediction decoding unit 3707 includes a combined motion information candidate list supplied from the combined motion information calculation unit 3705, reference image designation information of a combined motion information candidate that is a component in the list, a motion vector value, and a motion. The motion information for the combined motion correction prediction mode is calculated from the combined motion information index supplied from the information bitstream decoding unit 3700, and the motion correction reference image is determined. Then, by adding the difference vector value to the motion vector value of the motion-corrected reference image, the bi-predictive reference image designation information and the motion vector value are reproduced and set in the motion compensation prediction unit 608, so that motion compensation is performed. Generate a prediction signal.

図38は、図7のステップS701の詳細動作を説明するためのフローチャートである。動き情報ビットストリーム復号部3700、予測ベクトル算出部3701、結合動き情報算出部3705、及び結合動き修正動き補償予測復号部3707により、図7のステップS701における動き情報復号処理が行われる。   FIG. 38 is a flowchart for explaining the detailed operation of step S701 in FIG. The motion information decoding process in step S701 in FIG. 7 is performed by the motion information bitstream decoding unit 3700, the prediction vector calculation unit 3701, the combined motion information calculation unit 3705, and the combined motion correction motion compensation prediction decoding unit 3707.

動き情報復号処理は、図36のシンタックス構造で符号化された符号化ビットストリームより動き情報を復号する処理である。最初に符号化ブロックの所定単位でSkipフラグを復号する(S3800)。以降は予測ブロック単位の処理となる。SkipフラグがSkipモードを示している場合(S3801:YES)、結合予測動き情報復号を行う(S3802)。ステップS3802の詳細処理については、後述する。   The motion information decoding process is a process of decoding motion information from the encoded bit stream encoded with the syntax structure of FIG. First, the Skip flag is decoded in a predetermined unit of the encoded block (S3800). Thereafter, processing is performed in units of prediction blocks. When the Skip flag indicates the Skip mode (S3801: YES), joint prediction motion information decoding is performed (S3802). Detailed processing in step S3802 will be described later.

Skipモードでない場合(S3801:NO)、マージフラグを復号する(S3803)。マージフラグが1を示している場合(S3804:YES)、ステップS3802の結合予測動き情報復号に進む。   If it is not the Skip mode (S3801: NO), the merge flag is decoded (S3803). When the merge flag indicates 1 (S3804: YES), the process proceeds to joint prediction motion information decoding in step S3802.

マージフラグが1でない場合(S3804:NO)、動き予測フラグを復号する(S3805)。動き予測フラグが単予測モードである場合(S3806:YES)、即ち図35におけるinter_pred_flagがPred_LCを示す場合、単予測動き情報復号を行う(S3807)。ステップS3807の詳細動作については、後述する。   If the merge flag is not 1 (S3804: NO), the motion prediction flag is decoded (S3805). When the motion prediction flag is in the single prediction mode (S3806: YES), that is, when inter_pred_flag in FIG. 35 indicates Pred_LC, single prediction motion information decoding is performed (S3807). Detailed operation of step S3807 will be described later.

動き予測フラグが単予測モードを示していない場合(S3806:NO)、マージMvdフラグを復号する(S3808)。マージMvdフラグが1である場合(S3809:YES)、結合動き修正予測動き情報復号が行われ(S3810)、マージMvdフラグが1でない場合(S3809:NO)、双予測動き情報復号が行われる(S3811)。ステップS3810、及びステップS3811の詳細動作については、後述する。   When the motion prediction flag does not indicate the single prediction mode (S3806: NO), the merge Mvd flag is decoded (S3808). When the merge Mvd flag is 1 (S3809: YES), joint motion modified prediction motion information decoding is performed (S3810), and when the merge Mvd flag is not 1 (S3809: NO), bi-prediction motion information decoding is performed ( S3811). Detailed operations of step S3810 and step S3811 will be described later.

図39は、図38のステップS3802の詳細動作を説明するためのフローチャートである。図38のステップS3802では、結合予測動き情報復号処理が行われる。   FIG. 39 is a flowchart for explaining the detailed operation of step S3802 of FIG. In step S3802 of FIG. 38, joint prediction motion information decoding processing is performed.

最初に予測モードに結合予測モードを設定し(S3900)、結合動き情報候補リストを生成する(S3901)。ステップS3901の処理は、図14のフローチャート内の、動画像符号化装置における結合動き情報候補リスト生成であるステップS1401と同一の処理である。   First, the combined prediction mode is set as the prediction mode (S3900), and a combined motion information candidate list is generated (S3901). The process of step S3901 is the same process as step S1401 which is the combined motion information candidate list generation in the moving image encoding device in the flowchart of FIG.

結合動き情報候補リストが1よりも大きい場合(S3902:YES)、即ち複数の結合動き情報候補がある場合には、結合動き情報インデックスを復号し(S3903)、結合動き情報候補リストが1つの場合(S3902:NO)、結合動き情報インデックスに0を設定する(S3904)。   When the combined motion information candidate list is larger than 1 (S3902: YES), that is, when there are a plurality of combined motion information candidates, the combined motion information index is decoded (S3903), and the combined motion information candidate list is one. (S3902: NO), 0 is set to the combined motion information index (S3904).

続いて、結合動き情報候補リストより、結合動き情報インデックスで示す位置に格納されている動き情報を取得する(S3905)。取得する動き情報としては、単予測/双予測を示す予測種別、参照画像指定情報、動きベクトル値となる。生成された動き情報は、結合予測モードの動き情報として格納され(S3906)、結合動き補償予測復号部3706に供給される。   Subsequently, the motion information stored at the position indicated by the combined motion information index is acquired from the combined motion information candidate list (S3905). The motion information to be acquired includes a prediction type indicating single prediction / bi-prediction, reference image designation information, and a motion vector value. The generated motion information is stored as motion information in the joint prediction mode (S3906), and is supplied to the joint motion compensation prediction decoding unit 3706.

図40は、図38のステップS3807の詳細動作を説明するためのフローチャートである。図38のステップS3807では、単予測動き情報復号処理が行われる。   FIG. 40 is a flowchart for explaining the detailed operation of step S3807 of FIG. In step S3807 of FIG. 38, single prediction motion information decoding processing is performed.

最初に参照画像指定情報を復号し(S4000)、差分ベクトル値を復号する(S4001)。次に、予測ベクトル候補リストを生成し(S4002)、予測ベクトル候補リストが1より大きい場合(S4003:YES)、予測ベクトルインデックスを復号し(S4004)、予測ベクトル候補リストが1の場合(S4003:NO)、予測ベクトルインデックスに0を設定する(S4005)。   First, the reference image designation information is decoded (S4000), and the difference vector value is decoded (S4001). Next, a prediction vector candidate list is generated (S4002). When the prediction vector candidate list is larger than 1 (S4003: YES), the prediction vector index is decoded (S4004), and when the prediction vector candidate list is 1 (S4003: NO), 0 is set to the prediction vector index (S4005).

ここで、ステップS4002では、動画像符号化装置における図29のフローチャートのステップS2901と同様の処理が行われる。次に、予測ベクトル候補リストより、予測ベクトルインデックスで示す位置に格納されている動きベクトル値を取得する(S40006)。復号した差分ベクトル値と動きベクトル値を加算することで動きベクトルを再生する(S4007)。生成された動き情報として、1つの参照画像に対する参照画像指定情報と動きベクトル値が、単予測モードの動き情報として格納され(S4008)、動き補償単予測復号部3703に供給される。   Here, in step S4002, processing similar to that in step S2901 in the flowchart of FIG. 29 in the video encoding device is performed. Next, the motion vector value stored at the position indicated by the prediction vector index is acquired from the prediction vector candidate list (S40006). The motion vector is reproduced by adding the decoded difference vector value and the motion vector value (S4007). As generated motion information, reference image designation information and motion vector values for one reference image are stored as motion information in the single prediction mode (S4008) and supplied to the motion compensation single prediction decoding unit 3703.

図41は、図38のステップS3811の詳細動作を説明するためのフローチャートである。図38のステップS3811では、双予測動き情報復号処理が行われる。   FIG. 41 is a flowchart for explaining the detailed operation of step S3811 of FIG. In step S3811 of FIG. 38, bi-predictive motion information decoding processing is performed.

最初にL0予測の参照画像指定情報を復号し(S4100)、差分ベクトル値を復号する(S4101)。次に、L0予測の予測ベクトル候補リストを生成し(S4102)、予測ベクトル候補リストが1より大きい場合(S4103:YES)、L0予測の予測ベクトルインデックスを復号する(S4104)。予測ベクトル候補リストが1の場合(S4103:NO)、L0予測の予測ベクトルインデックスに0を設定する(S4105)。ステップS4102では、動画像符号化装置における図33のフローチャートのステップS3301と同様の処理が行われる。   First, reference image designation information for L0 prediction is decoded (S4100), and a difference vector value is decoded (S4101). Next, a prediction vector candidate list for L0 prediction is generated (S4102). When the prediction vector candidate list is larger than 1 (S4103: YES), a prediction vector index for L0 prediction is decoded (S4104). When the prediction vector candidate list is 1 (S4103: NO), 0 is set to the prediction vector index of L0 prediction (S4105). In step S4102, processing similar to that in step S3301 in the flowchart of FIG. 33 in the video encoding device is performed.

次に、予測ベクトル候補リストより、L0予測の予測ベクトルインデックスで示す位置に格納されている動きベクトル値を取得する(S4106)。復号した差分ベクトル値と動きベクトル値を加算することで動きベクトルを再生する(S4107)。   Next, the motion vector value stored at the position indicated by the prediction vector index of the L0 prediction is acquired from the prediction vector candidate list (S4106). A motion vector is reproduced by adding the decoded difference vector value and motion vector value (S4107).

続いて、同様の動き情報復号処理がL1予測の参照画像に対して行われる。L1予測の参照画像指定情報を復号し(S4108)、差分ベクトル値を復号し(S4109)。L1予測の予測ベクトル候補リストを生成し(S4110)、予測ベクトル候補リストが1より大きい場合(S4111:YES)、L1予測の予測ベクトルインデックスを復号する(S4112)。予測ベクトル候補リストが1の場合(S4111:NO)、L1予測の予測ベクトルインデックスに0を設定する(S4113)。ステップS4113では、動画像符号化装置における図33のフローチャートのステップS3304と同様の処理が行われる。   Subsequently, a similar motion information decoding process is performed on the reference image for L1 prediction. The reference image designation information for L1 prediction is decoded (S4108), and the difference vector value is decoded (S4109). A prediction vector candidate list for L1 prediction is generated (S4110), and if the prediction vector candidate list is larger than 1 (S4111: YES), a prediction vector index for L1 prediction is decoded (S4112). When the prediction vector candidate list is 1 (S4111: NO), 0 is set to the prediction vector index of L1 prediction (S4113). In step S4113, processing similar to that in step S3304 in the flowchart of FIG. 33 in the video encoding device is performed.

次に、予測ベクトル候補リストより、L1予測の予測ベクトルインデックスで示す位置に格納されている動きベクトル値を取得する(S4114)。復号した差分ベクトル値と動きベクトル値を加算することで動きベクトルを再生する(S4115)。生成された動き情報として、2つの参照画像に対する参照画像指定情報と動きベクトル値が、双予測モードの動き情報として格納され(S4116)、動き補償双予測復号部3704に供給される。   Next, the motion vector value stored at the position indicated by the prediction vector index of the L1 prediction is acquired from the prediction vector candidate list (S4114). A motion vector is reproduced by adding the decoded difference vector value and the motion vector value (S4115). As the generated motion information, reference image designation information and motion vector values for two reference images are stored as motion information in bi-prediction mode (S4116) and supplied to the motion-compensated bi-prediction decoding unit 3704.

図42は、図38のステップS3810の詳細動作を説明するためのフローチャートである。図38のステップS3810では、結合動き修正予測動き情報復号処理が行われる。   FIG. 42 is a flowchart for explaining the detailed operation of step S3810 of FIG. In step S3810 of FIG. 38, a combined motion corrected predicted motion information decoding process is performed.

最初に予測モードに結合動き修正予測モードを設定し(S4200)、結合動き情報候補リストを生成する(S4201)。ステップS4201では、動画像符号化装置における図14のフローチャートのステップS1401と同一の処理が行われる。   First, the combined motion correction prediction mode is set as the prediction mode (S4200), and a combined motion information candidate list is generated (S4201). In step S4201, the same processing as in step S1401 of the flowchart of FIG. 14 in the moving image encoding apparatus is performed.

結合動き情報候補リストが1よりも大きい場合(S4202:YES)、即ち複数の結合動き情報候補がある場合には、結合動き情報インデックスを復号し(S4203)、結合動き情報候補リストが1つの場合(S4202:NO)、結合動き情報インデックスに0を設定する(S4204)。   When the combined motion information candidate list is larger than 1 (S4202: YES), that is, when there are a plurality of combined motion information candidates, the combined motion information index is decoded (S4203), and the combined motion information candidate list is one. (S4202: NO), 0 is set to the combined motion information index (S4204).

続いて、結合動き情報候補リストより、結合動き情報インデックスで示す位置に格納されている動き情報を取得する(S4205)。取得する動き情報としては、単予測/双予測を示す予測種別、参照画像指定情報、動きベクトル値となる。   Subsequently, the motion information stored at the position indicated by the combined motion information index is acquired from the combined motion information candidate list (S4205). The motion information to be acquired includes a prediction type indicating single prediction / bi-prediction, reference image designation information, and a motion vector value.

次に、取得された結合動き情報インデックスと動き情報をもとに、結合動き修正動き補償予測復号部3707において、双予測動きベクトル値と差分ベクトルを伝送する参照画像確定処理を行う(S4206)。ステップS4206では、動画像符号化装置における図22のフローチャートのステップS2203と同一の処理が行われる。更に詳細な処理内容に関しては、図26、図27、図28に示されるフローチャートの処理が施され、動画像符号化装置と同じ双予測動きベクトル値と差分ベクトルを伝送する参照画像の確定が行われる。   Next, based on the acquired combined motion information index and motion information, the combined motion corrected motion compensated prediction decoding unit 3707 performs reference image determination processing for transmitting the bi-predicted motion vector value and the difference vector (S4206). In step S4206, the same processing as in step S2203 in the flowchart of FIG. 22 in the moving image encoding apparatus is performed. For more detailed processing contents, the processing of the flowcharts shown in FIGS. 26, 27, and 28 is performed, and the same bi-predicted motion vector values and difference vectors as those of the moving image coding apparatus are determined. Is called.

次に、確定した差分ベクトルを伝送する参照画像である動き修正参照画像に対して、動き情報として格納された修正前の動きベクトル値に対する、差分ベクトルを復号し(S4207)、修正前の動きベクトル値に差分ベクトルを加算することで、動き修正参照画像の動きベクトル値を算出する(S4208)。   Next, with respect to the motion correction reference image that is the reference image for transmitting the determined difference vector, the difference vector for the motion vector value before correction stored as motion information is decoded (S4207), and the motion vector before correction is obtained. The motion vector value of the motion correction reference image is calculated by adding the difference vector to the value (S4208).

結合動き情報インデックスで示す位置に格納されている動き情報に対して、予測種別は双予測に設定されると共に、動き情報が単予測であった場合の第2参照画像を指定する参照画像指定情報と動き修正参照画像における更新された動きベクトル値が、動き情報として格納され(S4209)、結合動き修正動き補償予測復号部3707より、図6における動き補償予測部608及び動き情報メモリ607に出力される。   For the motion information stored at the position indicated by the combined motion information index, the prediction type is set to bi-prediction, and reference image designation information for designating the second reference image when the motion information is uni-prediction The updated motion vector value in the motion correction reference image is stored as motion information (S4209), and is output from the combined motion correction motion compensation prediction decoding unit 3707 to the motion compensation prediction unit 608 and motion information memory 607 in FIG. The

実施の形態1における、動画像符号化装置及び動画像復号装置においては、従来の動画像符号化手法であるAVCにおける動き補償予測に対して、より多くの隣接ブロックの動き情報を選択候補として用いることで、周囲の動き情報をより有効に利用できる候補として登録し、周囲の動き情報に対して動きベクトル値の修正情報を差分ベクトルとして符号化する構成を取る新規の予測モードである結合動き修正予測モードを用いた。これにより、動き情報の相関性が高いが動きの連続性が十分保たれていない場合や、他ブロックの動き情報における動きベクトルが予測残差を符号化した際の歪などの要因で正確な動きに対してずれを生じている場合などに、隣接ブロックから生成される動き情報に対して、少ない情報で適切な動きベクトルの修正が出来、少ない付加情報で予測残差が少ない動き補償予測信号を生成する、符号化装置及び復号装置を実現できる。   In the moving picture coding apparatus and the moving picture decoding apparatus in Embodiment 1, the motion information of more adjacent blocks is used as selection candidates for the motion compensated prediction in AVC which is the conventional moving picture coding method. Thus, the combined motion correction is a new prediction mode in which the surrounding motion information is registered as a candidate that can be used more effectively and the motion vector value correction information is encoded as a difference vector with respect to the surrounding motion information. Prediction mode was used. As a result, the motion information is highly correlated but the continuity of the motion is not sufficiently maintained, or the motion vector in the motion information of other blocks is not accurate, due to factors such as distortion when the prediction residual is encoded. For example, a motion compensated prediction signal that can correct an appropriate motion vector with a small amount of information and has a small prediction residual with a small amount of additional information with respect to motion information generated from adjacent blocks. An encoding device and a decoding device to be generated can be realized.

また、実施の形態1における、動画像符号化装置及び動画像復号装置においては、動きベクトルを修正する参照画像の設定を、周囲の動き情報に格納された予測モードや周囲の動き情報から結合する動き情報を取得する際の取得方法を基準に、結合する動き情報における動きベクトルの信頼度を評価し、修正する必要のある参照画像を特定する。これにより、符号化時に伝送する指定情報を追加せずに、適切な動きベクトルの修正を可能とする効果を有する。   In the video encoding device and video decoding device according to Embodiment 1, the setting of the reference image for correcting the motion vector is combined from the prediction mode stored in the surrounding motion information and the surrounding motion information. Based on the acquisition method when acquiring the motion information, the reliability of the motion vector in the combined motion information is evaluated, and the reference image that needs to be corrected is specified. Accordingly, there is an effect that it is possible to correct an appropriate motion vector without adding designation information to be transmitted at the time of encoding.

また、実施の形態1における、動画像符号化装置及び動画像復号装置においては、結合予測モードと共用して結合動き修正予測モードの基準参照画像及び基準動きベクトルが決定・算出される。これにより、結合動き修正予測モード用の新たな処理を最小限に抑制しつつ、付加情報を少なく符号化できる結合動き修正予測モードを具備することができる。   In the video encoding device and video decoding device according to Embodiment 1, the reference reference image and the reference motion vector of the combined motion modified prediction mode are determined and calculated in common with the combined prediction mode. Accordingly, it is possible to provide a combined motion correction prediction mode that can encode a small amount of additional information while minimizing new processing for the combined motion correction prediction mode.

また、実施の形態1における、動画像符号化装置及び動画像復号装置においては、周囲の動き情報における動きベクトルが単予測の動きベクトルしかない場合においても、参照画像の位置に応じて1倍または−1倍することにより、より少ない負荷と符号量で双予測を行う結合動き修正予測モードを使用することができ、以降に符号化・復号するブロックで参照する隣接ブロックの動き情報を増やすことができるため、符号化効率を向上させることができる。   Further, in the moving image encoding device and the moving image decoding device according to the first embodiment, even when the motion vector in the surrounding motion information is only a uni-prediction motion vector, it is multiplied by 1 or according to the position of the reference image. By multiplying by −1, it is possible to use a combined motion modified prediction mode in which bi-prediction is performed with a smaller load and code amount, and it is possible to increase motion information of adjacent blocks to be referred to in blocks to be encoded / decoded thereafter. Therefore, encoding efficiency can be improved.

(実施の形態2)
次に、本発明の実施の形態2についての説明を行う。実施の形態2は、実施の形態1に対して、結合動き修正予測モードにおける結合動き情報に対するスケーリング処理が異なる。結合動き情報に対するスケーリング処理以外の構成および処理は実施の形態1と同一であるので、ここでは図10の予測モード判定部109における結合動き情報に対するスケーリング処理の実施の形態1との差異のみ説明する。
(Embodiment 2)
Next, the second embodiment of the present invention will be described. The second embodiment is different from the first embodiment in scaling processing for combined motion information in the combined motion modified prediction mode. Since the configuration and processing other than the scaling processing for the combined motion information are the same as those in the first embodiment, only the differences from the first embodiment of the scaling processing for the combined motion information in the prediction mode determination unit 109 in FIG. 10 will be described here. .

図43(a)〜(c)は、実施の形態2における結合動き情報に対するスケーリング処理の概念を示す図である。結合動き情報としては、図43(a)に示す空間隣接ブロックから算出された予測種別が双予測である空間BiPredと、図43(b)に示す空間隣接ブロックから算出された予測種別が単予測である空間UniPredと、図43(c)に示す時間連接ブロックから算出された時間BiPredが存在する。   FIGS. 43A to 43C are diagrams showing the concept of scaling processing for combined motion information in the second embodiment. As the combined motion information, the prediction type calculated from the spatial adjacent block shown in FIG. 43A is bi-prediction, and the prediction type calculated from the spatial adjacent block shown in FIG. There is a space UniPred and a time BiPred calculated from the time concatenation block shown in FIG.

実施の形態2における、結合動き情報に対するスケーリング処理は、双予測の動き情報が取得できる空間BiPred及び時間BiPredにおいては、結合動き情報算出時に施された動きベクトルをそのまま用い、時間UniPredに関しては、単予測で定義されている動きベクトル値を、符号化対象画像とL0の参照画像、L1の参照画像との符号化対象画像とL0の参照画像、L1の参照画像との距離比率を整数にしてスケーリングすることで、使用されていなかった参照画像リストの動きベクトルを生成する。   The scaling processing for the combined motion information in the second embodiment uses the motion vector applied when calculating the combined motion information as it is in the space BiPred and the time BiPred in which bi-prediction motion information can be acquired. The motion vector value defined in the prediction is scaled by using the distance ratio between the encoding target image and the L0 reference image, the L1 reference image, the L0 reference image, and the L1 reference image as an integer. Thus, a motion vector of a reference image list that has not been used is generated.

すなわち、図23(b)に示すように、L0予測の動きベクトル値mvL0のみが定義されている場合、符号化対象画像のPOCの値からL0の参照画像のPOCの値を減算して得られる画像間距離をCurrL0Dist、符号化対象画像のPOCの値からL1の参照画像のPOCの値を減算して得られる画像間距離をCurrL1Dist、スケール係数をScaleFactorとすると、スケール係数ScaleFactorおよび他方の動きベクトル値mvL1は下記式3、式4で算出される。
ScaleFactor=Int(CurrL1Dist/CurrL0Dist)
・・・(式3)
mvL1=ScaleFactor×mvL0
・・・(式4)
ここで、式3のInt( )は、整数値を示す。
That is, as shown in FIG. 23B, when only the L0 prediction motion vector value mvL0 is defined, the POC value of the L0 reference image is subtracted from the POC value of the encoding target image. When the inter-image distance is CurrL0Dist, the inter-image distance obtained by subtracting the POC value of the L1 reference image from the POC value of the encoding target image is CurrL1Dist, the scale factor is ScaleFactor, the scale factor ScaleFactor and the other motion vector The value mvL1 is calculated by the following formulas 3 and 4.
ScaleFactor = Int (CurrL1Dist / CurrL0Dist)
... (Formula 3)
mvL1 = ScaleFactor × mvL0
... (Formula 4)
Here, Int () in Equation 3 represents an integer value.

ここで、スケール係数ScaleFactorの導出は、式3の演算を行う代わりに予め計算して記録された図49のテーブルから導出し、除算は行わない。図49はCurrL0DistおよびCurrL1Distの絶対値から、除算結果を得るテーブルである。CurrL0DistおよびCurrL1Distの正負の符号が異なる場合には、図49のテーブルを参照して得られた値の符号を反転する。なお、CurrL0Dist、CurrL1Distの値が図49のテーブルの範囲外の値である場合は、スケール係数ScaleFactorは1とする。   Here, the derivation of the scale factor ScaleFactor is derived from the table of FIG. 49 that has been calculated and recorded in advance instead of performing the operation of Equation 3, and no division is performed. FIG. 49 is a table for obtaining a division result from the absolute values of CurrL0Dist and CurrL1Dist. When the signs of CurrL0Dist and CurrL1Dist are different, the sign of the value obtained by referring to the table of FIG. 49 is inverted. If the values of CurrL0Dist and CurrL1Dist are values outside the range of the table of FIG. 49, the scale factor ScaleFactor is set to 1.

以上の処理を単予測で定義されている動きベクトルに対して行うことにより、単予測で定義されている動きベクトルから他方のベクトルを生成することができる。この点が本実施の形態において符号化効率を向上する特徴的な構成であり、処理対象ブロックに隣接するブロックの動き情報が単予測の場合においても、複雑な処理を行うことなく他方のベクトルを生成して双予測を行うことが可能である。   By performing the above processing on a motion vector defined by single prediction, the other vector can be generated from the motion vector defined by single prediction. This is a characteristic configuration that improves the coding efficiency in the present embodiment. Even when the motion information of the block adjacent to the processing target block is uni-predicted, the other vector is used without performing complicated processing. It is possible to generate and perform bi-prediction.

特に、実施の形態2における、結合動き情報に対するスケーリング処理は、L0の参照画像、L1の参照画像との距離比率を用いて整数値であるスケール係数を導出しているので、通常の画像間距離に応じたスケーリング演算を行った場合と比較して大きな誤差が生じることはなく、また、符号化対象画像とL0の参照画像、L1の参照画像との距離に応じたスケール係数を予めテーブル化しておくことにより、少ない処理量で双予測を行う結合動き修正予測モードを使用することができ、以降に符号化・復号するブロックで参照する隣接ブロックの動き情報を増やすことができるため、符号化効率を向上させることができる。   In particular, the scaling process for the combined motion information in the second embodiment derives a scale coefficient that is an integer value using the distance ratio between the reference image of L0 and the reference image of L1, and thus a normal inter-image distance. A large error does not occur compared to the case of performing the scaling operation according to the above, and the scale factor corresponding to the distance between the encoding target image and the reference image of L0 and the reference image of L1 is tabulated in advance. Therefore, it is possible to use the joint motion modified prediction mode that performs bi-prediction with a small amount of processing, and it is possible to increase the motion information of adjacent blocks that are referred to in the blocks to be encoded / decoded later. Can be improved.

(実施の形態3)
次に、本発明の実施の形態3についての説明を行う。実施の形態3は、実施の形態1に対して、結合動き修正動き補償予測生成部1009の構成が異なる。結合動き修正動き補償予測生成部1009の構成および結合動き修正動き補償予測生成部1009における結合動き修正予測モード評価値生成処理およびステップS701における動き情報復号処理以外の構成および処理は実施の形態1と同一であるので、ここでは結合動き修正動き補償予測生成部1009における結合動き修正予測モード評価値生成処理の実施の形態1との差異のみ説明する。
(Embodiment 3)
Next, the third embodiment of the present invention will be described. The third embodiment is different from the first embodiment in the configuration of the combined motion corrected motion compensated prediction generation unit 1009. The configuration and processing other than the configuration of the combined motion corrected motion compensated prediction generation unit 1009, the combined motion corrected motion compensation prediction generation unit 1009, and the motion information decoding processing in step S701 are the same as those in the first embodiment. Since they are the same, only the difference from the first embodiment of the combined motion corrected prediction mode evaluation value generation process in the combined motion corrected motion compensation prediction generation unit 1009 will be described here.

図45は、結合動き修正動き補償予測生成部1009の構成を示す図である。結合動き修正動き補償予測生成部1009は、結合動き情報確定部4504、基準参照画像・動き修正参照画像選択部4500、動き修正参照画像動きベクトル取得部4501、結合動き情報修正動き補償予測生成部4502、及び差分ベクトル算出部4503を含む。   FIG. 45 is a diagram illustrating a configuration of the combined motion corrected motion compensation prediction generation unit 1009. The combined motion correction motion compensation prediction generation unit 1009 includes a combined motion information determination unit 4504, a reference reference image / motion correction reference image selection unit 4500, a motion correction reference image motion vector acquisition unit 4501, and a combined motion information correction motion compensation prediction generation unit 4502. , And a difference vector calculation unit 4503.

結合動き情報確定部4504は、登録された結合動き情報候補に対して1つの結合動き情報を確定させる機能を有し、基準参照画像・動き修正参照画像選択部4500は確定した1つの結合動き情報に対して、双予測の動き情報を算出して動きベクトル値を修正する参照画像を特定する機能を有する。この結合動き情報確定部4504を設けた構成が、本発明の実施の形態3における特徴的な構成であり、動き情報候補の選択に要する処理の負荷も最小限に抑制しつつ、付加情報を少なく符号化を行うことが可能である。   The combined motion information determination unit 4504 has a function of determining one combined motion information for the registered combined motion information candidate, and the reference reference image / motion correction reference image selection unit 4500 has determined one combined motion information. On the other hand, it has a function of specifying a reference image for correcting motion vector values by calculating bi-prediction motion information. The configuration provided with the combined motion information determination unit 4504 is a characteristic configuration according to the third embodiment of the present invention, and the additional processing is reduced while minimizing the processing load required for selecting motion information candidates. It is possible to perform encoding.

図46は、図45の結合動き修正動き補償予測生成部1009の構成を用いた結合動き修正予測モード評価値生成の詳細動作を説明するためのフローチャートである。   FIG. 46 is a flowchart for explaining detailed operation of combined motion correction prediction mode evaluation value generation using the configuration of the combined motion correction motion compensation prediction generation unit 1009 of FIG.

最初に結合動き情報リストより動き情報を利用するインデックスiを決定する(S4600)。実施の形態3においては、結合動き情報候補リスト生成処理により生成された結合動き情報候補リストの数をnum_of_indexとした場合に、リストの先頭であるi=0の結合動き情報候補を確定した動き情報として用いる。このステップS4600における動作が、図45における結合動き情報確定部4504の詳細な動作であり、これ以降の各ステップの動作は実施の形態1における図22の対応する各ステップの動作と同様であるから説明を省略する。   First, an index i using motion information is determined from the combined motion information list (S4600). In Embodiment 3, when the number of combined motion information candidate lists generated by the combined motion information candidate list generation process is num_of_index, the motion information in which the combined motion information candidate i = 0 at the head of the list is fixed Used as The operation in step S4600 is the detailed operation of the combined motion information determination unit 4504 in FIG. 45, and the operations in the subsequent steps are the same as the operations in the corresponding steps in FIG. 22 in the first embodiment. Description is omitted.

図47は、図7のステップS701の詳細動作を説明するためのフローチャートである。動き情報ビットストリーム復号部3700、予測ベクトル算出部3701、結合動き情報算出部3705、及び結合動き修正動き補償予測復号部3707により、図7のステップS701における動き情報復号処理が行われる。   FIG. 47 is a flowchart for explaining the detailed operation of step S701 in FIG. The motion information decoding process in step S701 in FIG. 7 is performed by the motion information bitstream decoding unit 3700, the prediction vector calculation unit 3701, the combined motion information calculation unit 3705, and the combined motion correction motion compensation prediction decoding unit 3707.

動き情報復号処理は、図36のシンタックス構造で符号化された符号化ビットストリームより動き情報を復号する処理である。最初に符号化ブロックの所定単位でSkipフラグを復号する(S4700)。以降は予測ブロック単位の処理となる。SkipフラグがSkipモードを示している場合(S4701:YES)、結合予測動き情報復号を行う(S4702)。   The motion information decoding process is a process of decoding motion information from the encoded bit stream encoded with the syntax structure of FIG. First, the Skip flag is decoded in a predetermined unit of the encoded block (S4700). Thereafter, processing is performed in units of prediction blocks. When the Skip flag indicates the Skip mode (S4701: YES), joint prediction motion information decoding is performed (S4702).

Skipモードでない場合(S4701:NO)、マージフラグを復号する(S4703)。マージフラグが1を示している場合(S4704:YES)、ステップS4702の結合予測動き情報復号に進む。   When the mode is not the Skip mode (S4701: NO), the merge flag is decoded (S4703). When the merge flag indicates 1 (S4704: YES), the process proceeds to joint prediction motion information decoding in step S4702.

マージフラグが1でない場合(S4704:NO)、マージMvdフラグを復号する(S4705)。マージMvdフラグが1でない場合(S4706:NO)、動き予測フラグを復号する(S4707)。動き予測フラグが単予測である場合(S4708:YES)、即ち図35におけるinter_pred_flagがPred_LCを示す場合、単予測動き情報復号を行う(S4709)。   When the merge flag is not 1 (S4704: NO), the merge Mvd flag is decoded (S4705). When the merge Mvd flag is not 1 (S4706: NO), the motion prediction flag is decoded (S4707). When the motion prediction flag is single prediction (S4708: YES), that is, when inter_pred_flag in FIG. 35 indicates Pred_LC, single prediction motion information decoding is performed (S4709).

動き予測フラグが単予測を示していない場合(S4708:NO)、双予測動き情報復号が行われる(S4710)。また、マージMvdフラグが1である場合(S4706:YES)には、結合動き修正予測動き情報復号が行われる(S4711)。このステップS4711における結合動き修正予測動き情報復号処理が実施の形態3と実施の形態1との差異である。   When the motion prediction flag does not indicate single prediction (S4708: NO), bi-predictive motion information decoding is performed (S4710). If the merge Mvd flag is 1 (S4706: YES), combined motion corrected predicted motion information decoding is performed (S4711). The combined motion modified prediction motion information decoding process in step S4711 is the difference between the third embodiment and the first embodiment.

図48は、図47のステップS4711の詳細動作を説明するためのフローチャートである。図47のステップS4711では、結合動き修正予測動き情報復号処理が行われる。   FIG. 48 is a flowchart for explaining the detailed operation of step S4711 of FIG. In step S4711 of FIG. 47, a combined motion corrected predicted motion information decoding process is performed.

最初に予測モードに結合動き修正予測モードを設定し(S4800)、結合動き情報候補リストを生成する(S4801)。ステップS4801では、動画像符号化装置における図14のフローチャートのステップS1401と同一の処理が行われる。   First, the combined motion correction prediction mode is set as the prediction mode (S4800), and a combined motion information candidate list is generated (S4801). In step S4801, the same processing as step S1401 in the flowchart of FIG. 14 in the moving image encoding apparatus is performed.

続いて、結合動き情報候補リストより動き情報を使用するインデックスiを暗黙で指定する(S4802)。インデックスiに関しては、実施の形態3の動画像符号化装置における図46のフローチャートのステップS4600と同様の指定を行い、結合動き情報候補リスト生成処理により生成された結合動き情報候補リストの数をnum_of_indexとした場合に、リストの先頭であるi=0の結合動き情報候補を確定した動き情報として用いる。以降の各ステップの動作は実施の形態1の図42の対応する各ステップの動作と同様であるから説明を省略する。   Subsequently, an index i using motion information is implicitly specified from the combined motion information candidate list (S4802). With respect to the index i, the same designation as in step S4600 of the flowchart of FIG. 46 in the moving picture coding apparatus of the third embodiment is performed, and the number of combined motion information candidate lists generated by the combined motion information candidate list generation process is set to num_of_index. In this case, the combined motion information candidate i = 0 at the top of the list is used as the confirmed motion information. Since the operation of each subsequent step is the same as the operation of each corresponding step in FIG. 42 of the first embodiment, the description thereof is omitted.

以上の構成および動作により、結合予測モードで用いられる結合動き情報候補リストより所定の規則に従い1つの動き情報を特定し、結合動き修正予測モードの基準参照画像及び基準動きベクトルが決定・算出される。そのため、結合動き修正予測モードでは、結合動き情報候補リスト生成処理における、図12の結合動き情報候補リスト削除部1201及び図15のS1502の処理が不要になり演算量が削減できるとともに、動き情報候補を生成するための新たな処理を最小限に抑制し、動き情報候補の選択に要する処理の負荷も最小限に抑制しつつ、付加情報を少なく符号化できる。   With the above configuration and operation, one piece of motion information is specified according to a predetermined rule from the combined motion information candidate list used in the combined prediction mode, and a reference reference image and a reference motion vector of the combined motion correction prediction mode are determined and calculated. . Therefore, in the combined motion correction prediction mode, the combined motion information candidate list deletion unit 1201 in FIG. 12 and the processing of S1502 in FIG. Can be encoded with a small amount of additional information while minimizing the new processing for generating the image and minimizing the processing load required to select motion information candidates.

結合動き情報候補リストには、優先順位が高い順に、少なくとも一つの結合動き情報候補が登録されている。例えば、複数の結合動き情報候補のうち、符号化対象ブロックに対する隣接度が相対的に高い順に結合動き情報候補が選択され、結合動き情報候補リストに登録される。また、空間候補ブロックが時間候補ブロックより先に選択される。実施の形態3の結合動き修正予測モードにおける、動き情報を使用するインデックスiを黙示的に指定する処理(動画像符号化装置:図46のS4600、動画像復号装置:図48のS4802)は、結合動き情報候補リスト生成処理により生成された結合動き情報候補リストの数をnum_of_indexとした場合に、リストの先頭であるi=0の結合動き情報候補を、動き情報を使用するインデックスとして確定する処理になっているが、1つのインデックスを特定する機能を有すればよく、他の確定アルゴリズムを用いてもよい。   In the combined motion information candidate list, at least one combined motion information candidate is registered in descending order of priority. For example, among the plurality of combined motion information candidates, combined motion information candidates are selected in descending order of the degree of adjacency with respect to the encoding target block, and are registered in the combined motion information candidate list. Further, the space candidate block is selected before the time candidate block. In the combined motion modified prediction mode of Embodiment 3, the process of implicitly specifying the index i using motion information (moving image encoding device: S4600 in FIG. 46, moving image decoding device: S4802 in FIG. 48) When the number of combined motion information candidate lists generated by the combined motion information candidate list generation process is num_of_index, the combined motion information candidate with i = 0 at the head of the list is determined as an index using motion information However, it is only necessary to have a function for specifying one index, and another deterministic algorithm may be used.

例えば、結合動き情報候補リストの最後の結合動き情報候補であるi=num_of_index−1の結合動き情報候補をインデックスとして確定するアルゴリズムや、結合動き情報候補リストのインデックスの小さい順に結合動き情報の内容を確認し、最初に空間BiPredもしくは時間BiPRedの動き情報(即ち、双予測の動き情報)が格納されたインデックスを結合動き修正予測モードにおけるインデックスとして確定してもよい。   For example, an algorithm for determining the combined motion information candidate of i = num_of_index-1, which is the last combined motion information candidate in the combined motion information candidate list, as an index, or the contents of combined motion information in ascending order of the index of the combined motion information candidate list. First, an index in which motion information (that is, bi-prediction motion information) in space BiPred or time BiPRed is first stored may be determined as an index in the combined motion correction prediction mode.

インデックスi=0を暗黙のインデックスとして特定する場合には、結合予測モードにおいて優先度の高い動き情報を用いることで、有効な動き情報を使用できる可能性が高くなると共に、リストの最初の動き情報を固定で取得することができるため、動き情報の取得処理がシンプルに構成できる利点がある。   When the index i = 0 is specified as an implicit index, the use of motion information with high priority in the joint prediction mode increases the possibility that valid motion information can be used, and the first motion information in the list. Since the motion information can be acquired in a fixed manner, there is an advantage that the motion information acquisition process can be configured simply.

インデックスi=num_of_index−1を暗黙のインデックスとして特定する場合には、結合予測モードにおいて優先度の低い動き情報を用いることで、結合予測モードにおいて選択されにくい動き情報に差分ベクトルを加え、有効な動き情報として伝送することが可能となり、結合予測モードとの選択における情報量における重複度を少なくすることが出来る利点がある。   When the index i = num_of_index-1 is specified as an implicit index, by using motion information with low priority in the joint prediction mode, a difference vector is added to motion information that is difficult to select in the joint prediction mode, and effective motion is achieved. It is possible to transmit as information, and there is an advantage that the degree of duplication in the amount of information in selection with the combined prediction mode can be reduced.

結合動き情報候補リストのインデックスの小さい順に結合動き情報の内容を確認し、最初に空間BiPredもしくは時間BiPRedの動き情報が格納されたインデックスを、暗黙のインデックスとして特定する場合には、有効な動き情報がより多く格納されている可能性の高いBiPredの動き情報を優先的に用いることにより、結合動き修正予測モードにおいて、品質の良い動き補償予測ブロックを生成する可能性を高めることが出来る利点がある。   When the content of the combined motion information is confirmed in ascending order of the index of the combined motion information candidate list, and the index in which the motion information of space BiPred or time BiPRed is first stored is specified as an implicit index, effective motion information By preferentially using BiPred motion information that is likely to be stored more, there is an advantage that it is possible to increase the possibility of generating a motion compensated prediction block with good quality in the combined motion correction prediction mode. .

これらのインデックスを特定するアルゴリズムに関しては、1つの手法を固定的に適用する構成に加えて、所定単位に上記アルゴリズムを特定する情報を符号化することで、選択的にインデックスの取得アルゴリズムを切り替えることも可能である。   Regarding the algorithm for specifying these indexes, in addition to the configuration in which one method is fixedly applied, the information for specifying the algorithm is encoded in a predetermined unit to selectively switch the index acquisition algorithm. Is also possible.

以上述べた実施の形態の動画像符号化装置が出力する動画像の符号化ストリームは、実施の形態で用いられた符号化方法に応じて復号することができるように特定のデータフォーマットを有しており、動画像符号化装置に対応する動画像復号装置がこの特定のデータフォーマットの符号化ストリームを復号することができる。   The moving image encoded stream output from the moving image encoding apparatus of the embodiment described above has a specific data format so that it can be decoded according to the encoding method used in the embodiment. Therefore, the moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode the encoded stream of this specific data format.

動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネットワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ストリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。   When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted. In that case, a video transmission apparatus that converts the encoded stream output from the video encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.

動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモリと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化データをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化された符号化データをネットワークを介して受信する受信部と、受信された符号化データをバッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動画像復号装置に提供するパケット処理部とを含む。   The moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network. Part. The moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.

また、以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置として実現することができるのは勿論のこと、ROM(Read Only Memory)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送のデータ放送として提供することも可能である。   Further, the above-described processing relating to encoding and decoding can be realized as a transmission, storage, and reception device using hardware, and is stored in a ROM (Read Only Memory), a flash memory, or the like. It can also be realized by firmware or software such as a computer. The firmware program and software program can be recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as a data broadcast of terrestrial or satellite digital broadcasting Is also possible.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

100 入力端子、 101 減算部、 102 直交変換・量子化部、 103 予測誤差符号化部、 104 逆量子化・逆変換部、 105 加算部、 106 復号画像メモリ、 107 動きベクトル検出部、 108 動き補償予測部、 109 予測モード判定部、 110 動き情報符号化部、 111 動き情報メモリ、 112 多重化部、 113 出力端子、 600 入力端子、 601 多重分離部、 602 予測差分情報復号部、 603 逆量子化・逆変換部、 604 加算部、 605 復号画像メモリ、 606 動き情報復号部、 607 動き情報メモリ、 608 動き補償予測部、 609 出力端子、 1000 動き補償単予測生成部、 1001 動き補償双予測生成部、 1002 予測誤差算出部、 1003 予測ベクトル算出部、 1004 差分ベクトル算出部、 1005 動き情報符号量算出部、 1006 予測モード評価部、 1007 結合動き情報算出部、 1008 結合動き補償予測生成部、 1009 結合動き修正動き補償予測生成部、 1100 予測ベクトル候補リスト生成部、 1101 予測ベクトル候補リスト削除部、 1200 結合動き情報候補リスト生成部、 1201 結合動き情報候補リスト削除部、 1300 基準参照画像・動き修正参照画像選択部、 1301 動き修正参照画像動きベクトル取得部、 1302 結合動き情報修正動き補償予測生成部、 1303 差分ベクトル算出部、 3700 動き情報ビットストリーム復号部、 3701 予測ベクトル算出部、 3702 ベクトル加算部、 3703 動き補償単予測復号部、 3704 動き補償双予測復号部、 3705 結合動き情報算出部、 3706 結合動き補償予測復号部、 3707 結合動き修正動き補償予測復号部、 4500 基準参照画像・動き修正参照画像選択部、 4501 修正参照画像動きベクトル取得部、 4502 情報修正動き補償予測生成部、 4503 差分ベクトル算出部、 4504 結合動き情報確定部。   100 input terminals, 101 subtraction unit, 102 orthogonal transform / quantization unit, 103 prediction error coding unit, 104 inverse quantization / inverse transform unit, 105 addition unit, 106 decoded image memory, 107 motion vector detection unit, 108 motion compensation Prediction unit, 109 prediction mode determination unit, 110 motion information encoding unit, 111 motion information memory, 112 multiplexing unit, 113 output terminal, 600 input terminal, 601 demultiplexing unit, 602 prediction difference information decoding unit, 603 inverse quantization Inverse transformation unit, 604 addition unit, 605 decoded image memory, 606 motion information decoding unit, 607 motion information memory, 608 motion compensation prediction unit, 609 output terminal, 1000 motion compensation single prediction generation unit, 1001 motion compensation bi-prediction generation unit , 1002 prediction error calculation unit, 1003 prediction 1004 Coefficient calculation unit, 1004 Difference vector calculation unit, 1005 Motion information code amount calculation unit, 1006 Prediction mode evaluation unit, 1007 Coupling motion information calculation unit, 1008 Coupling motion compensation prediction generation unit, 1009 Coupling motion correction motion compensation prediction generation unit, 1100 Prediction vector candidate list generation unit 1101 Prediction vector candidate list deletion unit 1200 Combined motion information candidate list generation unit 1201 Combined motion information candidate list deletion unit 1300 Reference reference image / motion correction reference image selection unit 1301 Motion correction reference image Motion vector acquisition unit, 1302 combined motion information modified motion compensation prediction generation unit, 1303 difference vector calculation unit, 3700 motion information bitstream decoding unit, 3701 prediction vector calculation unit, 3702 vector addition unit, 3703 motion compensation Compensated uni-prediction decoding unit, 3704 motion compensation bi-prediction decoding unit, 3705 joint motion information calculation unit, 3706 joint motion compensation prediction decoding unit, 3707 joint motion correction motion compensation prediction decoding unit, 4500 reference reference image / motion correction reference image selection unit 4501 Modified reference image motion vector acquisition unit 4502 Information modified motion compensation prediction generation unit 4503 Difference vector calculation unit 4504 Combined motion information determination unit

Claims (5)

動画像の各ピクチャを分割したブロック単位で動きベクトルを検出して符号化する画像符号化装置であって、
符号化対象ブロックの動き情報として、前記符号化対象ブロックに隣接する参照ブロックのインデックス、及び前記符号化対象ブロックの動きベクトルと前記参照ブロックの動きベクトルとの差分ベクトルを使用するモードを選択可能な予測モード判定部と、
前記予測モード判定部から供給される動き情報をもとに生成される予測信号と、前記符号化対象ブロックの画像信号との差分である予測誤差信号を符号化する予測誤差信号符号化部と、
前記予測モード判定部から供給される動き情報を符号化する動き情報符号化部と、
前記予測誤差信号符号化部から供給される符号化データと、前記動き情報符号化部から供給される符号化データとを多重化する多重化部とを備え、
前記予測モード判定部は、前記参照ブロックの動き情報から取得される予測種別が単予測の場合、双予測の動きベクトルを生成するために、前記単予測の動きベクトルを第1予測の動きベクトルとし、前記第1予測の動きベクトルを整数倍することにより第2予測の動きベクトルを生成することを特徴とする画像符号化装置。
An image encoding device that detects and encodes a motion vector in units of blocks obtained by dividing each picture of a moving image,
A mode that uses an index of a reference block adjacent to the encoding target block and a difference vector between the motion vector of the encoding target block and the motion vector of the reference block can be selected as motion information of the encoding target block. A prediction mode determination unit;
A prediction error signal encoding unit that encodes a prediction error signal that is a difference between a prediction signal generated based on motion information supplied from the prediction mode determination unit and an image signal of the encoding target block;
A motion information encoding unit that encodes the motion information supplied from the prediction mode determination unit;
A multiplexing unit that multiplexes the encoded data supplied from the prediction error signal encoding unit and the encoded data supplied from the motion information encoding unit;
When the prediction type acquired from the motion information of the reference block is uni-prediction, the prediction mode determination unit uses the uni-prediction motion vector as a first-prediction motion vector in order to generate a bi-prediction motion vector. An image encoding apparatus for generating a motion vector for the second prediction by multiplying the motion vector for the first prediction by an integer.
前記整数倍は、−1倍または1倍であることを特徴とする請求項1に記載の画像符号化装置。   The image encoding apparatus according to claim 1, wherein the integer multiple is −1 or 1 times. 前記動き情報符号化部は、前記第2予測の動きベクトルについて、前記符号化対象ブロックの動きベクトルとの差分ベクトルを前記動き情報として符号化することを特徴とする請求項1または2に記載の画像符号化装置。   The said motion information encoding part encodes the difference vector with the motion vector of the said encoding object block as said motion information about the motion vector of said 2nd prediction, The motion information of Claim 1 or 2 characterized by the above-mentioned. Image encoding device. 動画像の各ピクチャを分割したブロック単位で動きベクトルを検出して符号化する画像符号化方法であって、
符号化対象ブロックの動き情報として、前記符号化対象ブロックに隣接する参照ブロックのインデックス、及び前記符号化対象ブロックの動きベクトルと前記参照ブロックの動きベクトルとの差分ベクトルを使用するモードを選択可能な予測モード判定ステップと、
前記予測モード判定ステップから供給される動き情報をもとに生成される予測信号と、前記符号化対象ブロックの画像信号との差分である予測誤差信号を符号化する予測誤差信号符号化ステップと、
前記予測モード判定ステップから供給される動き情報を符号化する動き情報符号化ステップと、
前記予測誤差信号符号化ステップから供給される符号化データと、前記動き情報符号化ステップから供給される符号化データとを多重化する多重化ステップとを備え、
前記予測モード判定ステップは、前記参照ブロックの動き情報から取得される予測種別が単予測の場合、双予測の動きベクトルを生成するために、前記単予測の動きベクトルを第1予測の動きベクトルとし、前記第1予測の動きベクトルを整数倍することにより第2予測の動きベクトルを生成することを特徴とする画像符号化方法。
An image encoding method for detecting and encoding a motion vector in units of blocks obtained by dividing each picture of a moving image,
A mode that uses an index of a reference block adjacent to the encoding target block and a difference vector between the motion vector of the encoding target block and the motion vector of the reference block can be selected as motion information of the encoding target block. A prediction mode determination step;
A prediction error signal encoding step for encoding a prediction error signal that is a difference between a prediction signal generated based on motion information supplied from the prediction mode determination step and an image signal of the encoding target block;
A motion information encoding step for encoding the motion information supplied from the prediction mode determination step;
A multiplexing step for multiplexing the encoded data supplied from the prediction error signal encoding step and the encoded data supplied from the motion information encoding step;
When the prediction type acquired from the motion information of the reference block is uni-prediction, the prediction mode determination step uses the uni-prediction motion vector as a first-prediction motion vector to generate a bi-prediction motion vector. An image encoding method comprising generating a motion vector for the second prediction by multiplying the motion vector for the first prediction by an integer.
動画像の各ピクチャを分割したブロック単位で動きベクトルを検出して符号化する画像符号化プログラムであって、
符号化対象ブロックの動き情報として、前記符号化対象ブロックに隣接する参照ブロックのインデックス、及び前記符号化対象ブロックの動きベクトルと前記参照ブロックの動きベクトルとの差分ベクトルを使用するモードを選択可能な予測モード判定ステップと、
前記予測モード判定ステップから供給される動き情報をもとに生成される予測信号と、前記符号化対象ブロックの画像信号との差分である予測誤差信号を符号化する予測誤差信号符号化ステップと、
前記予測モード判定ステップから供給される動き情報を符号化する動き情報符号化ステップと、
前記予測誤差信号符号化ステップから供給される符号化データと、前記動き情報符号化ステップから供給される符号化データとを多重化する多重化ステップとをコンピュータに実行させ、
前記予測モード判定ステップは、前記参照ブロックの動き情報から取得される予測種別が単予測の場合、双予測の動きベクトルを生成するために、前記単予測の動きベクトルを第1予測の動きベクトルとし、前記第1予測の動きベクトルを整数倍することにより第2予測の動きベクトルを生成することを特徴とする画像符号化プログラム。
An image encoding program for detecting and encoding a motion vector in units of blocks obtained by dividing each picture of a moving image,
A mode that uses an index of a reference block adjacent to the encoding target block and a difference vector between the motion vector of the encoding target block and the motion vector of the reference block can be selected as motion information of the encoding target block. A prediction mode determination step;
A prediction error signal encoding step for encoding a prediction error signal that is a difference between a prediction signal generated based on motion information supplied from the prediction mode determination step and an image signal of the encoding target block;
A motion information encoding step for encoding the motion information supplied from the prediction mode determination step;
Causing the computer to execute a multiplexing step of multiplexing the encoded data supplied from the prediction error signal encoding step and the encoded data supplied from the motion information encoding step;
When the prediction type acquired from the motion information of the reference block is uni-prediction, the prediction mode determination step uses the uni-prediction motion vector as a first-prediction motion vector to generate a bi-prediction motion vector. An image encoding program for generating a motion vector for the second prediction by multiplying the motion vector for the first prediction by an integer.
JP2011250823A 2011-11-16 2011-11-16 Image encoder, image encoding method and image encoding program Pending JP2013106312A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011250823A JP2013106312A (en) 2011-11-16 2011-11-16 Image encoder, image encoding method and image encoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011250823A JP2013106312A (en) 2011-11-16 2011-11-16 Image encoder, image encoding method and image encoding program

Publications (1)

Publication Number Publication Date
JP2013106312A true JP2013106312A (en) 2013-05-30

Family

ID=48625521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011250823A Pending JP2013106312A (en) 2011-11-16 2011-11-16 Image encoder, image encoding method and image encoding program

Country Status (1)

Country Link
JP (1) JP2013106312A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015005750A1 (en) * 2013-07-12 2015-01-15 삼성전자 주식회사 Video encoding method and apparatus therefor using modification vector inducement, video decoding method and apparatus therefor
CN110324637A (en) * 2018-03-29 2019-10-11 华为技术有限公司 A kind of bidirectional interframe predictive method and device
CN112514394A (en) * 2018-07-17 2021-03-16 松下电器(美国)知识产权公司 System and method for video encoding

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015005750A1 (en) * 2013-07-12 2015-01-15 삼성전자 주식회사 Video encoding method and apparatus therefor using modification vector inducement, video decoding method and apparatus therefor
US10009618B2 (en) 2013-07-12 2018-06-26 Samsung Electronics Co., Ltd. Video encoding method and apparatus therefor using modification vector inducement, video decoding method and apparatus therefor
CN110324637A (en) * 2018-03-29 2019-10-11 华为技术有限公司 A kind of bidirectional interframe predictive method and device
JP2021519548A (en) * 2018-03-29 2021-08-10 華為技術有限公司Huawei Technologies Co.,Ltd. Two-way inter-prediction method and equipment
CN113315975A (en) * 2018-03-29 2021-08-27 华为技术有限公司 Bidirectional interframe prediction method and device
US11350122B2 (en) 2018-03-29 2022-05-31 Huawei Technologies Co., Ltd. Bidirectional inter prediction method and apparatus
JP7143435B2 (en) 2018-03-29 2022-09-28 華為技術有限公司 Bi-directional inter-prediction method and apparatus
CN113315975B (en) * 2018-03-29 2022-12-06 华为技术有限公司 Bidirectional interframe prediction method and device
CN110324637B (en) * 2018-03-29 2023-11-17 华为技术有限公司 Bidirectional inter-frame prediction method and device
US11838535B2 (en) 2018-03-29 2023-12-05 Huawei Technologies Co., Ltd. Bidirectional inter prediction method and apparatus
US11924458B2 (en) 2018-03-29 2024-03-05 Huawei Technologies Co., Ltd. Bidirectional inter prediction method and apparatus
CN112514394A (en) * 2018-07-17 2021-03-16 松下电器(美国)知识产权公司 System and method for video encoding

Similar Documents

Publication Publication Date Title
JP5786498B2 (en) Image coding apparatus, image coding method, and image coding program
JP6344508B2 (en) Image decoding apparatus, image decoding method, and image decoding program
JP2013106312A (en) Image encoder, image encoding method and image encoding program
JP6065952B2 (en) Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program
JP5786499B2 (en) Image decoding apparatus, image decoding method, and image decoding program
JP6172326B2 (en) Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program
JP6172324B2 (en) Image decoding apparatus, image decoding method, image decoding program, receiving apparatus, receiving method, and receiving program
JP6172325B2 (en) Image decoding apparatus, image decoding method, image decoding program, receiving apparatus, receiving method, and receiving program
JP6065951B2 (en) Image decoding apparatus, image decoding method, image decoding program, receiving apparatus, receiving method, and receiving program
JP6142943B2 (en) Image decoding apparatus, image decoding method, image decoding program, receiving apparatus, receiving method, and receiving program
JP6172328B2 (en) Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program
JP6172327B2 (en) Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program
JP6344509B2 (en) Image coding apparatus, image coding method, and image coding program
JP6414307B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP2013042241A (en) Apparatus, method and program for encoding moving image
JP2016015734A (en) Video encoding device, video encoding method, video encoding program, transmitting device, transmitting method, and transmitting program
JP2013106313A (en) Image decoder, image decoding method and image decoding program
JP6065070B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2013042242A (en) Image decoder, image decoding method, and image decoding program
JP2013042240A (en) Image decoder, image decoding method, and image decoding program
JP2013042239A (en) Image encoder, image encoding method, and image encoding program
JP6406409B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP6406408B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP6399182B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP6399183B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program