JP2016140092A - Moving picture encoding device, moving picture encoding method and moving picture encoding program, and transmission device, transmission method and transmission program - Google Patents

Moving picture encoding device, moving picture encoding method and moving picture encoding program, and transmission device, transmission method and transmission program Download PDF

Info

Publication number
JP2016140092A
JP2016140092A JP2016044672A JP2016044672A JP2016140092A JP 2016140092 A JP2016140092 A JP 2016140092A JP 2016044672 A JP2016044672 A JP 2016044672A JP 2016044672 A JP2016044672 A JP 2016044672A JP 2016140092 A JP2016140092 A JP 2016140092A
Authority
JP
Japan
Prior art keywords
block
prediction
prediction information
inter prediction
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016044672A
Other languages
Japanese (ja)
Other versions
JP6079918B2 (en
Inventor
博哉 中村
Hiroya Nakamura
博哉 中村
福島 茂
Shigeru Fukushima
茂 福島
英樹 竹原
Hideki Takehara
英樹 竹原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Publication of JP2016140092A publication Critical patent/JP2016140092A/en
Application granted granted Critical
Publication of JP6079918B2 publication Critical patent/JP6079918B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a moving picture encoding technology for reducing the amount of code of coding information by improving the encoding efficiency.SOLUTION: In inter prediction that is performed by partitioning a first block, which is obtained by partitioning each picture, into one or more second blocks, a spatial merge candidate generating unit 130 derives a spatial merge candidate without referring to a block included in the first block that includes the second blocks. In the case of a mode where a coding block is divided by a horizontal border into upper and lower prediction blocks, a reference index derivation unit 131 of a time merge candidate sets reference index information of the time merge candidate to a value of reference index information of an encoded prediction block adjacent to a left edge of a prediction block subject to encoding. In the case of a mode where a coding block is divided by a vertical border into left and right prediction blocks, the reference index derivation unit sets reference index information of the time merge candidate to a value of reference index information of an encoded prediction block adjacent to an upper edge of a prediction block subject to encoding.SELECTED DRAWING: Figure 13

Description

本発明は、動画像符号化技術に関し、特に動き補償予測を利用した動画像符号化技術に関する。   The present invention relates to a moving picture coding technique, and more particularly to a moving picture coding technique using motion compensated prediction.

動画像の圧縮符号化方式の代表的なものとして、MPEG−4 AVC/H.264の規格がある。MPEG−4 AVC/H.264では、ピクチャを複数の矩形ブロックに分割し、すでに符号化・復号したピクチャを参照ピクチャとし、参照ピクチャからの動きを予測する動き補償が用いられている。この動き補償により動きを予測する手法をインター予測または動き補償予測と呼ぶ。MPEG−4 AVC/H.264でのインター予測では、複数のピクチャを参照ピクチャとして用いることができ、これらの複数の参照ピクチャから最も適した参照ピクチャをブロック毎に選択して動き補償を行う。そこで、それぞれの参照ピクチャには参照インデックスが割り当てられ、この参照インデックスにより、参照ピクチャを特定する。なお、Bピクチャでは、復号済みの参照ピクチャから最大で2枚を選択してインター予測に用いることができる。それらの2枚の参照ピクチャからの予測をそれぞれ主に前方向の予測として使われるL0予測(リスト0予測)、主に後方向の予測として使われるL1予測(リスト1予測)として区別している。   As a typical moving image compression encoding method, MPEG-4 AVC / H. There are H.264 standards. MPEG-4 AVC / H. In H.264, motion compensation is used in which a picture is divided into a plurality of rectangular blocks, a picture that has already been encoded / decoded is used as a reference picture, and motion from the reference picture is predicted. This method of predicting motion by motion compensation is called inter prediction or motion compensated prediction. MPEG-4 AVC / H. In the inter prediction in H.264, a plurality of pictures can be used as reference pictures, and the most suitable reference picture is selected for each block from the plurality of reference pictures to perform motion compensation. Therefore, a reference index is assigned to each reference picture, and the reference picture is specified by this reference index. For B pictures, a maximum of two pictures can be selected from decoded reference pictures and used for inter prediction. The predictions from these two reference pictures are distinguished as L0 prediction (list 0 prediction) mainly used as forward prediction and L1 prediction (list 1 prediction) mainly used as backward prediction.

さらに、L0予測とL1予測の2つのインター予測を同時に用いる双予測も定義されている。双予測の場合は、双方向の予測を行い、L0予測、L1予測のそれぞれのインター予測された信号に重み付け係数を掛け算し、オフセット値を加算して重畳し、最終的なインター予測画像信号を生成する。重み付け予測に用いる重み付け係数及びオフセット値はピクチャ単位で各リストの参照ピクチャ毎に代表的な値が設定され、符号化される。インター予測に関する符号化情報には、ブロック毎に、L0予測とL1予測、双予測を区別する予測モード、ブロック毎の参照リスト毎に、参照ピクチャを特定する参照インデックス、ブロックの移動方向・移動量を表す動きベクトルがあり、これらの符号化情報を符号化・復号する。   Furthermore, bi-prediction using two inter predictions of L0 prediction and L1 prediction at the same time is also defined. In the case of bi-prediction, bi-directional prediction is performed, the inter-predicted signals of L0 prediction and L1 prediction are multiplied by a weighting coefficient, an offset value is added and superimposed, and a final inter-predicted image signal is obtained. Generate. As weighting coefficients and offset values used for weighted prediction, representative values are set for each reference picture in each list and encoded. The encoding information related to inter prediction includes, for each block, a prediction mode for distinguishing between L0 prediction and L1 prediction and bi-prediction, a reference index for specifying a reference picture for each reference list for each block, and a moving direction and a moving amount of the block. There is a motion vector that expresses and encodes and decodes the encoded information.

さらに、MPEG−4 AVC/H.264では、復号済みのブロックのインター予測情報から符号化または復号対象のブロックのインター予測情報を生成するダイレクトモードが定義されている。ダイレクトモードはインター予測情報の符号化が不要となるので、符号化効率が向上する。   Furthermore, MPEG-4 AVC / H. H.264 defines a direct mode for generating inter prediction information of a block to be encoded or decoded from inter prediction information of a decoded block. In the direct mode, encoding of inter prediction information is not necessary, so that encoding efficiency is improved.

時間方向のインター予測情報の相関を利用する時間ダイレクトモードについて図42を用いて説明する。L1の参照インデックスが0に登録されているピクチャを基準ピクチャcolPicとする。基準ピクチャcolPic内で符号化または復号対象ブロックと同じ位置のブロックを基準ブロックとする。   The temporal direct mode using the correlation of inter prediction information in the time direction will be described with reference to FIG. A picture in which the reference index of L1 is registered as 0 is defined as a reference picture colPic. A block in the same position as the block to be encoded or decoded in the reference picture colPic is set as a reference block.

基準ブロックがL0予測を用いて符号化されていれば、基準ブロックのL0の動きベクトルを基準動きベクトルmvColとし、基準ブロックがL0予測を用いて符号化されておらず、L1予測を用いて符号化されていれば、基準ブロックのL1の動きベクトルを基準動きベクトルmvColとする。基準動きベクトルmvColが参照するピクチャを時間ダイレクトモードのL0の参照ピクチャとし、基準ピクチャcolPicを時間ダイレクトモードのL1の参照ピクチャとする。   If the reference block is encoded using the L0 prediction, the L0 motion vector of the reference block is set as the reference motion vector mvCol, and the reference block is not encoded using the L0 prediction and is encoded using the L1 prediction. If this is the case, the L1 motion vector of the reference block is set as the reference motion vector mvCol. The picture referred to by the reference motion vector mvCol is the L0 reference picture in the temporal direct mode, and the reference picture colPic is the L1 reference picture in the temporal direct mode.

基準動きベクトルmvColからスケーリング演算処理により時間ダイレクトモードのL0の動きベクトルmvL0とL1の動きベクトルmvL1を導出する。   From the reference motion vector mvCol, the L0 motion vector mvL0 and the L1 motion vector mvL1 in the temporal direct mode are derived by scaling calculation processing.

基準ピクチャcolPicのPOCから、時間ダイレクトモードのL0の参照ピクチャのPOCを減算してピクチャ間距離tdを導出する。なお、POCは符号化されるピクチャに関連付けられる変数とし、ピクチャの出力順序で1ずつ増加する値が設定される。2つのピクチャのPOCの差が時間軸方向でのピクチャ間距離を示す。
td=基準ピクチャcolPicのPOC−時間ダイレクトモードのL0の参照ピクチャのPOC
The inter-picture distance td is derived by subtracting the POC of the L0 reference picture in the temporal direct mode from the POC of the base picture colPic. Note that POC is a variable associated with the picture to be encoded, and is set to a value that increases by 1 in the picture output order. The difference in POC between two pictures indicates the inter-picture distance in the time axis direction.
td = POC of base picture colPic-POC of L0 reference picture in temporal direct mode

符号化または復号対象ピクチャのPOCから時間ダイレクトモードのL0の参照ピクチャのPOCを減算してピクチャ間距離tbを導出する。
tb=符号化または復号対象ピクチャのPOC−時間ダイレクトモードのL0の参照ピクチャのPOC
The inter-picture distance tb is derived by subtracting the POC of the L0 reference picture in the temporal direct mode from the POC of the picture to be encoded or decoded.
tb = POC of picture to be encoded or decoded-POC of reference picture of L0 in temporal direct mode

基準動きベクトルmvColからスケーリング演算処理により時間ダイレクトモードのL0の動きベクトルmvL0を導出する。
mvL0=tb / td * mvCol
The motion vector mvL0 of L0 in the temporal direct mode is derived from the reference motion vector mvCol by scaling calculation processing.
mvL0 = tb / td * mvCol

時間ダイレクトモードのL0の動きベクトルmvL0から基準動きベクトルmvColを減算しL1の動きベクトルmvL1を導出する。
mvL1=mvL0 - mvCol
The motion vector mvL1 of L1 is derived by subtracting the reference motion vector mvCol from the motion vector mvL0 of L0 in the temporal direct mode.
mvL1 = mvL0-mvCol

特開2004−129191号公報JP 2004-129191 A

しかし、従来の方法では、符号化および復号対象のブロックにとって、時間ダイレクトでは、予測精度が低下し、符号化効率が良くならない場合もあった。   However, in the conventional method, for the block to be encoded and decoded, the prediction accuracy is reduced and the encoding efficiency may not be improved in the time direct.

このような状況下、本発明者らは、動き補償予測を使用する動画像符号化方式において、符号化情報をより一層圧縮し、全体の符号量を削減する必要性を認識するに至った。   Under such circumstances, the present inventors have come to recognize the necessity of further compressing the encoded information and reducing the overall code amount in the moving image encoding method using motion compensation prediction.

本発明はこうした状況に鑑みてなされたものであり、その目的は、符号化情報の候補を算出することにより、符号化情報の符号量の削減を図って符号化効率を向上させる動画像符号化技術を提供することにある。   The present invention has been made in view of such a situation, and an object of the present invention is to calculate a moving picture coding that reduces coding amount of coding information and improves coding efficiency by calculating coding information candidates. To provide technology.

各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化装置であって、符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出部と、前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出部と、前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築部と、前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択部と、前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化部とを備え、前記第1予測情報導出部は、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、前記第2予測情報導出部は、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする動画像符号化装置を提供する。
各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化方法であって、符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出ステップと、前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出ステップと、前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築ステップと、前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択ステップと、前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化ステップとを備え、前記第1予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、前記第2予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする動画像符号化方法を提供する。
各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化プログラムであって、符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出ステップと、前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出ステップと、前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築ステップと、前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択ステップと、前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化ステップとをコンピュータに実行させ、前記第1予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、前記第2予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする動画像符号化プログラムを提供する。
各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化方法により符号化された符号化ストリームをパケット化して符号化データを得るパケット処理部と、パケット化された前記符号化データを送信する送信部とを備え、前記動画像符号化方法は、符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出ステップと、前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出ステップと、前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築ステップと、前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択ステップと、前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化ステップとを備え、前記第1予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、前記第2予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする送信装置を提供する。
各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化方法により符号化された符号化ストリームをパケット化して符号化データを得るパケット処理ステップと、パケット化された前記符号化データを送信する送信ステップとを備え、前記動画像符号化方法は、符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出ステップと、前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出ステップと、前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築ステップと、前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択ステップと、前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化ステップとを備え、前記第1予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、前記第2予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする送信方法を提供する。
各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化方法により符号化された符号化ストリームをパケット化して符号化データを得るパケット処理ステップと、パケット化された前記符号化データを送信する送信ステップとをコンピュータに実行させ、前記動画像符号化方法は、符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出ステップと、前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出ステップと、前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築ステップと、前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択ステップと、前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化ステップとを備え、前記第1予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、前記第2予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする送信プログラムを提供する。
A moving picture coding apparatus that divides a first block obtained by dividing each picture into one or a plurality of second blocks and codes a moving picture using inter prediction, in a picture to be coded A first prediction information deriving unit for deriving one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block to be encoded, Derivation of second inter prediction information candidates from inter prediction information of a fourth block existing at the same position or in the vicinity of the second block to be encoded in a picture different from the picture to be encoded A second prediction information deriving unit that performs processing, and when the first inter prediction information candidate is derived, the derived first inter prediction information candidate is represented by the second inter prediction. When a report candidate is derived, a candidate list construction unit that constructs a prediction information candidate list including predetermined prediction information candidates obtained by adding the derived second inter prediction information candidates, and the prediction information candidates A selection unit that selects an inter prediction information candidate used for the inter prediction of the second block to be encoded from the prediction information candidates in a list, and determines an index indicating the inter prediction information; and the encoding An encoding unit that encodes an index indicating inter prediction information used for inter prediction of the second block to be processed, and the first prediction information deriving unit includes the first block as an upper block; The second block to be encoded in the division mode in which the lower block is vertically divided into 1: 1, 1: 3, or 3: 1. In the case of the lower block, the first inter prediction information candidate derivation process is performed without referring to the encoding information of the fifth block adjacent to the upper side of the second block, and the second prediction information The derivation unit is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by the upper block and the lower block, and the second block that is the encoding target. Without referring to the encoding information of the fifth block included in the same first block as the first block including the first block, the reference index value of the second inter prediction information candidate as a default value, There is provided a moving picture coding apparatus characterized in that the second inter prediction information candidate derivation process is performed based on a reference index.
A moving picture coding method for dividing a first block obtained by dividing each picture into one or a plurality of second blocks and coding a moving picture using inter prediction, in a picture to be coded A first prediction information derivation step of performing derivation processing of one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block to be encoded; Derivation of second inter prediction information candidates from inter prediction information of a fourth block existing at the same position or in the vicinity of the second block to be encoded in a picture different from the picture to be encoded A second prediction information deriving step for performing processing, and when the first inter prediction information candidate is derived, the derived first inter prediction information candidate is defined as the second inter prediction information candidate. A candidate list construction step of constructing a prediction information candidate list composed of predetermined prediction information candidates obtained by adding the derived second inter prediction information candidates, respectively, A selection step of selecting a candidate of inter prediction information used for the inter prediction of the second block to be encoded from the prediction information candidates in the information candidate list, and determining an index indicating the inter prediction information; An encoding step for encoding an index indicating inter prediction information used for inter prediction of the second block to be encoded, and the first prediction information deriving step includes the first block as an upper block. And the lower block in a split mode that divides up and down 1: 1, 1: 3, or 3: 1. When the second block to be encoded is a lower block, the first inter prediction information candidate is not referenced without referring to the encoding information of the fifth block adjacent to the upper side of the second block. In addition to performing a derivation process, the second prediction information derivation step includes a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block. The second inter prediction information candidate without referring to the encoding information of the fifth block included in the same first block as the first block including the second block to be encoded The video encoding method is characterized in that the second inter prediction information candidate derivation process is performed based on the reference index using the reference index value as a default value.
A moving picture encoding program that divides a first block obtained by dividing each picture into one or a plurality of second blocks and encodes a moving picture using inter prediction, in a picture to be encoded A first prediction information derivation step of performing derivation processing of one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block to be encoded; Derivation of second inter prediction information candidates from inter prediction information of a fourth block existing at the same position or in the vicinity of the second block to be encoded in a picture different from the picture to be encoded A second prediction information deriving step for performing processing, and when the first inter prediction information candidate is derived, the derived first inter prediction information candidate is When a second inter prediction information candidate is derived, a candidate list construction step of constructing a prediction information candidate list composed of predetermined prediction information candidates obtained by adding the derived second inter prediction information candidates, A selection step of selecting an inter prediction information candidate used for the inter prediction of the second block to be encoded from the prediction information candidates in the prediction information candidate list, and determining an index indicating the inter prediction information; , Causing the computer to execute an encoding step for encoding an index indicating inter prediction information used for inter prediction of the second block to be encoded, and the first prediction information derivation step includes the first prediction information derivation step. Blocks are 1: 1, 1: 3 or 3: 1 up and down with the upper and lower blocks When the second block to be encoded is a lower block in the division mode to be divided, the encoding information of the fifth block adjacent to the upper side of the second block is referred to without referring to the encoding information. The first inter prediction information candidate derivation process is performed, and the second prediction information derivation step includes 1: 1, 1: 3, or 3 up and down of the first block in the upper block and the lower block. Without dividing the encoding information of the fifth block included in the same first block as the first block including the second block to be encoded in the division mode of dividing into 1: The second inter prediction information candidate reference index value is set as a default value, and the second inter prediction information candidate derivation process is performed based on the reference index. Serve grams.
A first block obtained by dividing each picture is divided into one or a plurality of second blocks, and an encoded stream encoded by a moving image encoding method that encodes a moving image using inter prediction is packetized. A packet processing unit for obtaining encoded data and a transmission unit for transmitting the packetized encoded data. The moving image encoding method is an encoding target in a picture to be encoded. A first prediction information derivation step for deriving one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block; and a picture to be encoded; Are inter-prediction information based on inter-prediction information of a fourth block existing at the same position or in the vicinity of the second block to be encoded in a different picture. A second prediction information derivation step for performing an information candidate derivation process; and when the first inter prediction information candidate is derived, the derived first inter prediction information candidate is designated as the second inter prediction information candidate. Is derived, a candidate list construction step of constructing a prediction information candidate list composed of predetermined prediction information candidates, each of the derived second inter prediction information candidates added, and in the prediction information candidate list A selection step of selecting a candidate of inter prediction information used for the inter prediction of the second block to be encoded from the prediction information candidates, and determining an index indicating inter prediction information; An encoding step for encoding an index indicating inter prediction information used for inter prediction of the second block. The first prediction information derivation step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block; When the second block to be encoded is a lower block, the first inter prediction information candidate without referring to the encoding information of the fifth block adjacent to the upper side of the second block In the second prediction information derivation step, the first block is divided into 1: 1, 1: 3, or 3: 1 in the vertical direction by the upper block and the lower block. In the mode, the second inter prediction information without referring to the encoding information of the fifth block included in the same first block as the first block including the second block to be encoded Candidate reference index As a default value, the second inter prediction information candidate derivation process is performed based on the reference index.
A first block obtained by dividing each picture is divided into one or a plurality of second blocks, and an encoded stream encoded by a moving image encoding method that encodes a moving image using inter prediction is packetized. A packet processing step for obtaining encoded data and a transmission step for transmitting the packetized encoded data, wherein the moving image encoding method is an encoding target in a picture to be encoded A first prediction information derivation step for deriving one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block; and a picture to be encoded; Is obtained from the inter prediction information of the fourth block existing at the same position or in the vicinity of the second block to be encoded in a different picture. A second prediction information derivation step for deriving an inter prediction information candidate; and when the first inter prediction information candidate is derived, the derived first inter prediction information candidate is converted into the second inter prediction information candidate. When an information candidate is derived, a candidate list construction step of constructing a prediction information candidate list composed of predetermined prediction information candidates obtained by adding the derived second inter prediction information candidates, and the prediction information candidates A selection step of selecting a candidate of inter prediction information used for the inter prediction of the second block to be encoded from the prediction information candidates in a list, and determining an index indicating the inter prediction information; and the encoding An index indicating inter prediction information used for inter prediction of the second block as a target is encoded. An encoding step, wherein the first prediction information deriving step divides the first block into a 1: 1, 1: 3, or 3: 1 vertically by an upper block and a lower block. In the mode, when the second block to be encoded is a lower block, the first interface is referred to without referring to the encoding information of the fifth block adjacent to the upper side of the second block. In addition to performing a prediction information candidate derivation process, the second prediction information derivation step is configured such that the first block is 1: 1, 1: 3, or 3: 1 up and down between the upper block and the lower block. In the division mode to divide, the second block without referring to the encoding information of the fifth block included in the same first block as the first block including the second block to be encoded Inter prediction information candidate reference Provided is a transmission method characterized in that the second inter prediction information candidate derivation process is performed based on the reference index using an index value as a default value.
A first block obtained by dividing each picture is divided into one or a plurality of second blocks, and an encoded stream encoded by a moving image encoding method that encodes a moving image using inter prediction is packetized. The computer executes a packet processing step for obtaining encoded data and a transmission step for transmitting the packetized encoded data, and the moving picture encoding method includes encoding in a picture to be encoded. A first prediction information derivation step for deriving one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the target second block; In the fourth block existing in the same position as or near the second block to be encoded in a picture different from the picture to be encoded A second prediction information derivation step for deriving a second inter prediction information candidate from the prediction information; and when the first inter prediction information candidate is derived, the derived first inter prediction information candidate is When the second inter prediction information candidate is derived, a candidate list construction step of constructing a prediction information candidate list made up of predetermined prediction information candidates obtained by adding the derived second inter prediction information candidates, respectively. Selecting an inter prediction information candidate to be used for the inter prediction of the second block to be encoded from the prediction information candidates in the prediction information candidate list, and determining an index indicating the inter prediction information And an index indicating inter prediction information used for inter prediction of the second block to be encoded And the first prediction information derivation step includes 1: 1, 1: 3, or 3: up and down of the first block in an upper block and a lower block. When the second block to be encoded is a lower block in the division mode of dividing into 1, the encoding information of the fifth block adjacent to the upper side of the second block is not referred to. The first inter prediction information candidate derivation process is performed, and in the second prediction information derivation step, the first block is vertically divided into 1: 1 and 1: 3 by an upper block and a lower block. Alternatively, in the division mode dividing into 3: 1, the encoding information of the fifth block included in the same first block as the first block including the second block to be encoded is not referred to. And the second interface Provided is a transmission program characterized in that the second inter prediction information candidate derivation process is performed based on the reference index with the value of the reference index of the prediction information candidate as a default value.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、伝送する符号化情報の発生符号量を削減させて、符号化効率を向上させることができる。   According to the present invention, it is possible to reduce the amount of generated code of encoded information to be transmitted and improve the encoding efficiency.

実施の形態に係る動きベクトルの予測方法を実行する動画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image encoder which performs the motion vector prediction method which concerns on embodiment. 実施の形態に係る動きベクトルの予測方法を実行する動画像復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image decoding apparatus which performs the motion vector prediction method which concerns on embodiment. ツリーブロック、符号化ブロックを説明する図である。It is a figure explaining a tree block and an encoding block. 予測ブロックの分割モードを説明する図である。It is a figure explaining the division mode of a prediction block. マージモードでの空間マージ候補での処理対象の予測ブロックに近接する予測ブロックを説明する図である。It is a figure explaining the prediction block which adjoins to the prediction block of the process target by the spatial merge candidate in merge mode. マージモードでの空間マージ候補での処理対象の予測ブロックに近接する予測ブロックを説明する図である。It is a figure explaining the prediction block which adjoins to the prediction block of the process target by the spatial merge candidate in merge mode. マージモードでの空間マージ候補での処理対象の予測ブロックに近接する予測ブロックを説明する図である。It is a figure explaining the prediction block which adjoins to the prediction block of the process target by the spatial merge candidate in merge mode. マージモードでの空間マージ候補での処理対象の予測ブロックに近接する予測ブロックを説明する図である。It is a figure explaining the prediction block which adjoins to the prediction block of the process target by the spatial merge candidate in merge mode. マージモードでの時間マージ候補の導出の際に参照する予測ブロックを説明する図である。It is a figure explaining the prediction block referred in the time of derivation | leading-out of the time merge candidate in merge mode. マージモードに関するスライスレベルでのビットストリームのシンタックスを説明する図である。It is a figure explaining the syntax of the bit stream in the slice level regarding merge mode. マージモードに関する予測ブロックレベルでのビットストリームのシンタックスを説明する図である。It is a figure explaining the syntax of the bit stream in the prediction block level regarding merge mode. マージインデックスのシンタックス要素のエントロピー符号の一例を説明する図である。It is a figure explaining an example of the entropy code | symbol of the syntax element of a merge index. 図1の動画像符号化装置のインター予測情報導出部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the inter prediction information derivation | leading-out part of the moving image encoder of FIG. 図2の動画像復号装置のインター予測情報導出部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the inter prediction information derivation | leading-out part of the moving image decoding apparatus of FIG. マージモードでの処理対象の予測ブロックに近接する予測ブロックを説明する図である。It is a figure explaining the prediction block adjacent to the prediction block of the process target in merge mode. マージ候補導出及びマージ候補リストの構築処理の順次処理の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the sequential process of merge candidate derivation | leading-out and the merge candidate list construction process. マージ候補導出及びマージ候補リストの構築処理の並列処理の処理手順を説明するフローチャートである。It is a flowchart explaining the processing procedure of the parallel processing of merge candidate derivation | leading-out and the merge candidate list construction processing. マージモードのマージ候補の導出処理及びマージ候補リストの構築処理野手順を説明するフローチャートである。It is a flowchart explaining a merge candidate derivation process in merge mode and a merge candidate list construction process. マージモードの空間マージ候補導出処理手順を説明するフローチャートである。It is a flowchart explaining the space merge candidate derivation | leading-out process of merge mode. 本実施の形態の実施例1における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを説明する図である。It is a figure explaining the adjacent block referred in the derivation | leading-out process of the reference index of the time merge candidate in Example 1 of this Embodiment. 実施例1の方法によるマージモードの時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。10 is a flowchart for explaining a reference index derivation processing procedure for temporal merge candidates in the merge mode according to the method of the first embodiment. 本実施の形態の実施例2における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを説明する図である。It is a figure explaining the adjacent block referred in the derivation | leading-out process of the reference index of the time merge candidate in Example 2 of this Embodiment. 実施例2の方法によるマージモードの時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。12 is a flowchart for explaining a reference index derivation processing procedure of a temporal merge candidate in a merge mode according to the method of the second embodiment. 本実施の形態の実施例3における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを説明する図である。It is a figure explaining the adjacent block referred in the derivation | leading-out process of the reference index of the time merge candidate in Example 3 of this Embodiment. 実施例3の方法によるマージモードの時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。10 is a flowchart for explaining a reference index derivation processing procedure for temporal merge candidates in a merge mode according to the method of the third embodiment. 本実施の形態の実施例4における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを説明する図である。It is a figure explaining the adjacent block referred in the derivation | leading-out process of the reference index of the time merge candidate in Example 4 of this Embodiment. 実施例4の方法によるマージモードの時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。15 is a flowchart for describing a reference index derivation processing procedure for temporal merge candidates in the merge mode according to the method of the fourth embodiment. 本実施の形態の実施例5における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを説明する図である。It is a figure explaining the adjacent block referred in the derivation | leading-out process of the reference index of the time merge candidate in Example 5 of this Embodiment. 実施例5の方法によるマージモードの時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。FIG. 10 is a flowchart for describing a reference index derivation processing procedure for a merged time temporal merge candidate according to the method of the fifth embodiment. 実施例6の方法によるマージモードの時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。22 is a flowchart for describing a reference index derivation processing procedure for temporal merge candidates in the merge mode according to the method of the sixth embodiment. 本実施の形態の実施例7における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを説明する図である。It is a figure explaining the adjacent block referred in the derivation | leading-out process of the reference index of the time merge candidate in Example 7 of this Embodiment. 実施例7の方法によるマージモードの時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。FIG. 25 is a flowchart for describing a procedure for deriving a reference index of a merge mode temporal merge candidate according to the method of the seventh embodiment. NxN分割の符号化ブロックの参照インデックスの導出処理において参照する近接ブロックを説明する図である。It is a figure explaining the adjacent block referred in the derivation | leading-out process of the reference index of the encoding block of a NxN division | segmentation. マージモードの時間マージ候補導出処理手順を説明するフローチャートである。It is a flowchart explaining the time merge candidate derivation | leading-out process procedure of merge mode. マージモードの異なる時間のピクチャの導出処理手順を説明するフローチャートである。It is a flowchart explaining the derivation | leading-out process procedure of the picture of the time from which merge mode differs. マージモードの異なる時間のピクチャの予測ブロックの導出処理手順を説明するフローチャートである。It is a flowchart explaining the derivation | leading-out process procedure of the prediction block of the picture of the time from which merge mode differs. マージモードの時間マージ候補導出処理手順を説明するフローチャートである。It is a flowchart explaining the time merge candidate derivation | leading-out process procedure of merge mode. マージモードの時間マージ候補導出処理手順を説明するフローチャートである。It is a flowchart explaining the time merge candidate derivation | leading-out process procedure of merge mode. 動きベクトルのスケーリング演算処理手順を説明するフローチャートである。It is a flowchart explaining the scaling calculation processing procedure of a motion vector. 動きベクトルのスケーリング演算処理手順を説明するフローチャートである。It is a flowchart explaining the scaling calculation processing procedure of a motion vector. マージモードのマージ候補リストの構築処理手順を説明するフローチャートである。It is a flowchart explaining the construction process procedure of the merge candidate list | wrist of merge mode. 従来のMPEG−4 AVC/H.264の時間ダイレクトモードを説明する図である。Conventional MPEG-4 AVC / H. It is a figure explaining the H.264 time direct mode. 本実施の形態の実施例8における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを説明する図である。It is a figure explaining the adjacent block referred in the derivation | leading-out process of the reference index of the time merge candidate in Example 8 of this Embodiment. 実施例8の方法によるマージモードの時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。FIG. 30 is a flowchart for describing a reference index derivation process procedure for a temporal merge candidate in the merge mode according to the method of the eighth embodiment.

本実施の形態では、動画像の符号化に関し、特にピクチャを任意のサイズ、形状の矩形ブロックに分割し、ピクチャ間でブロック単位に動き補償を行う動画像符号化における符号化効率を向上させる為に、符号化対象ブロックに近接するブロックまたは符号化済みのピクチャのブロックの動きベクトルから複数の予測動きベクトルを導出し、符号化対象のブロックの動きベクトルと選択された予測動きベクトルとの差分ベクトルを算出して符号化することによって符号量を削減する。あるいは、符号化対象ブロックに近接するブロックまたは符号化済みのピクチャのブロックの符号化情報を利用することにより、符号化対象ブロックの符号化情報を導出することによって符号量を削減する。また、動画像の復号の場合は、復号対象ブロックに近接するブロックまたは復号済みのピクチャのブロックの動きベクトルから複数の予測動きベクトルを算出し、符号化ストリームから復号された差分ベクトルと選択された予測動きベクトルとから復号対象のブロックの動きベクトルを算出して復号する。あるいは、復号対象ブロックに近接するブロックまたは復号済みのピクチャのブロックの符号化情報を利用することにより、復号対象ブロックの符号化情報を導出する。   In the present embodiment, with regard to moving picture coding, in particular, to improve coding efficiency in moving picture coding in which a picture is divided into rectangular blocks of an arbitrary size and shape and motion compensation is performed in units of blocks between pictures. In addition, a plurality of predicted motion vectors are derived from the motion vectors of a block adjacent to the encoding target block or a block of an encoded picture, and a difference vector between the motion vector of the encoding target block and the selected prediction motion vector The amount of code is reduced by calculating and encoding. Alternatively, the coding amount is reduced by deriving the coding information of the coding target block by using the coding information of the block adjacent to the coding target block or the block of the coded picture. Also, in the case of decoding a moving image, a plurality of predicted motion vectors are calculated from the motion vectors of a block adjacent to the decoding target block or a block of a decoded picture, and selected from the difference vector decoded from the encoded stream The motion vector of the decoding target block is calculated from the predicted motion vector and decoded. Alternatively, the encoding information of the decoding target block is derived by using the encoding information of the block adjacent to the decoding target block or the block of the decoded picture.

まず、本実施の形態において使用する技術、及び技術用語を定義する。   First, techniques used in the present embodiment and technical terms are defined.

(ツリーブロック、符号化ブロックについて)
実施の形態では、図3に示されるように、ピクチャ内を任意の同一サイズの正方の矩形の単位にて均等分割する。この単位をツリーブロックと定義し、ピクチャ内での符号化または復号対象ブロック(符号化処理においては符号化対象ブロック、復号処理においては復号対象ブロックのことである。以下、断りのない限り、この意味で用いる。)を特定するためのアドレス管理の基本単位とする。モノクロを除きツリーブロックは1つの輝度信号と2つの色差信号で構成される。ツリーブロックのサイズはピクチャサイズやピクチャ内のテクスチャに応じて、2のべき乗のサイズで自由に設定することができる。ツリーブロックはピクチャ内のテクスチャに応じて、符号化処理を最適にすべく、必要に応じてツリーブロック内の輝度信号、及び色差信号を階層的に4分割(縦横に2分割ずつ)して、ブロックサイズの小さいブロックにすることができる。このブロックをそれぞれ符号化ブロックと定義し、符号化及び復号を行う際の処理の基本単位とする。モノクロを除き符号化ブロックも1つの輝度信号と2つの色差信号で構成される。符号化ブロックの最大サイズはツリーブロックのサイズと同一である。符号化ブロックの最小のサイズとなる符号化ブロックを最小符号化ブロックと呼び、2のべき乗のサイズで自由に設定することができる。
(About tree blocks and coding blocks)
In the embodiment, as shown in FIG. 3, the picture is equally divided into square units of any same size. This unit is defined as a tree block, and is a block to be encoded or decoded in a picture (a block to be encoded in the encoding process and a block to be decoded in the decoding process. Hereinafter, unless otherwise noted, It is used as a basic unit of address management for specifying. Except for monochrome, the tree block is composed of one luminance signal and two color difference signals. The size of the tree block can be freely set to a power of 2 depending on the picture size and the texture in the picture. In order to optimize the encoding process according to the texture in the picture, the tree block divides the luminance signal and chrominance signal in the tree block hierarchically into four parts (two parts vertically and horizontally) as necessary, The block can be made smaller in block size. Each block is defined as a coding block, and is a basic unit of processing when performing coding and decoding. Except for monochrome, the coding block is also composed of one luminance signal and two color difference signals. The maximum size of the coding block is the same as the size of the tree block. An encoded block having the minimum size of the encoded block is called a minimum encoded block, and can be freely set to a power of 2.

図3においては、符号化ブロックAは、ツリーブロックを分割せず、1つの符号化ブロックとしたものである。符号化ブロックBは、ツリーブロックを4分割してできた符号化ブロックである。符号化ブロックCは、ツリーブロックを4分割してできたブロックをさらに4分割してできた符号化ブロックである。符号化ブロックDは、ツリーブロックを4分割してできたブロックをさらに階層的に2度4分割してできた符号化ブロックであり、最小サイズの符号化ブロックである。   In FIG. 3, the encoding block A is a single encoding block without dividing the tree block. The encoding block B is an encoding block formed by dividing a tree block into four. The coding block C is a coding block obtained by further dividing the block obtained by dividing the tree block into four. The coding block D is a coding block obtained by further dividing the block obtained by dividing the tree block into four parts and further dividing the block into four twice hierarchically, and is a coding block of the minimum size.

(予測モードについて)
符号化ブロック単位で、符号化または復号対象ピクチャ内の符号化または復号済み(符号化処理においては符号化した信号を復号したピクチャ、予測ブロック、画像信号等に用い、復号処理においては復号したピクチャ、予測ブロック、画像信号等に用いる。以下、断りのない限り、この意味で用いる。)の周囲の画像信号から予測を行うイントラ予測(MODE_INTRA)、及び符号化または復号済みのピクチャの画像信号から予測を行うインター予測(MODE_INTER)を切り替える。このイントラ予測(MODE_INTRA)とインター予測(MODE_INTER)を識別するモードを予測モード(PredMode)と定義する。予測モード(PredMode)はイントラ予測(MODE_INTRA)、またはインター予測(MODE_INTER)を値として持ち、選択して符号化できる。
(About prediction mode)
Encoded or decoded within the picture to be encoded or decoded in units of coding blocks (in the encoding process, the encoded signal is used for a decoded picture, a prediction block, an image signal, etc., and the decoded picture in the decoding process) This is used for prediction blocks, image signals, etc. Hereinafter, unless otherwise noted, it is used in this sense.) From intra-prediction (MODE_INTRA) in which prediction is performed from surrounding image signals, and from encoded or decoded picture image signals Switch inter prediction (MODE_INTER) to perform prediction. A mode for identifying the intra prediction (MODE_INTRA) and the inter prediction (MODE_INTER) is defined as a prediction mode (PredMode). The prediction mode (PredMode) has intra prediction (MODE_INTRA) or inter prediction (MODE_INTER) as a value, and can be selected and encoded.

(分割モード、予測ブロック、予測ユニットについて)
ピクチャ内をブロックに分割してイントラ予測(MODE_INTRA)及びインター予測(MODE_INTER)を行う場合、イントラ予測及びインター予測の方法を切り替える単位をより小さくするために、必要に応じて符号化ブロックを分割して予測を行う。この符号化ブロックの輝度信号と色差信号の分割方法を識別するモードを分割モード(PartMode)と定義する。さらに、この分割されたブロックを予測ブロックと定義する。図4に示すように、符号化ブロックの輝度信号の分割方法に応じて8種類の分割モード(PartMode)を定義する。
(About split mode, prediction block, prediction unit)
When performing intra prediction (MODE_INTRA) and inter prediction (MODE_INTER) by dividing the picture into blocks, the coded block is divided as necessary to reduce the unit for switching the intra prediction and inter prediction methods. Make predictions. A mode for identifying the division method of the luminance signal and the color difference signal of the coding block is defined as a division mode (PartMode). Furthermore, this divided block is defined as a prediction block. As shown in FIG. 4, eight types of partition modes (PartMode) are defined according to the method of dividing the luminance signal of the coding block.

図4(a)に示す符号化ブロックの輝度信号を分割せず1つの予測ブロックとみなした分割モード(PartMode)を2N×2N分割(PART_2Nx2N)と定義する。図4(b)、(c)、(d)に示す符号化ブロックの輝度信号を上下に並ぶ2つの予測ブロックに分割する分割モード(PartMode)をそれぞれ2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)と定義する。ただし、2N×N分割(PART_2NxN)は上下に1:1の比率で分割した分割モードであり、2N×nU分割(PART_2NxnU)は上下に1:3の比率で分割した分割モードであり、2N×nD分割(PART_2NxnD)は上下に3:1の比率で分割した分割モードである。図4(e)、(f)、(g)に示す符号化ブロックの輝度信号を左右に並ぶ2つの予測ブロックに分割する分割モード(PartMode)をそれぞれN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)と定義する。ただし、N×2N分割(PART_Nx2N)は左右に1:1の比率で分割した分割モードであり、nL×2N分割(PART_nLx2N)は左右に1:3の比率で分割した分割モードであり、nR×2N分割(PART_nRx2N)は左右に3:1の比率で分割した分割モードである。図4(h)に示す符号化ブロックの輝度信号を上下左右に4分割して、4つの予測ブロックとした分割モード(PartMode)をN×N分割(PART_NxN)とそれぞれ定義する。   A division mode (PartMode) that is regarded as one prediction block without dividing the luminance signal of the encoded block shown in FIG. 4A is defined as 2N × 2N division (PART_2Nx2N). The division modes (PartMode) for dividing the luminance signal of the coding block shown in FIGS. 4B, 4C, and 4D into two prediction blocks arranged vertically are 2N × N division (PART_2NxN) and 2N × nU, respectively. It is defined as division (PART_2NxnU) and 2N × nD division (PART_2NxnD). However, 2N × N division (PART_2NxN) is a division mode divided up and down at a ratio of 1: 1, and 2N × nU division (PART_2NxnU) is a division mode divided up and down at a ratio of 1: 3 and 2N × The nD division (PART_2NxnD) is a division mode in which division is performed at a ratio of 3: 1 up and down. The division modes (PartMode) for dividing the luminance signals of the coding blocks shown in FIGS. 4 (e), (f), and (g) into two prediction blocks arranged on the left and right are divided into N × 2N divisions (PART_Nx2N) and nL × 2N, respectively. It is defined as division (PART_nLx2N) and nR × 2N division (PART_nRx2N). However, N × 2N division (PART_Nx2N) is a division mode in which left and right are divided at a ratio of 1: 1, and nL × 2N division (PART_nLx2N) is a division mode in which division is performed at a ratio of 1: 3 in the left and right, and nR × 2N division (PART_nRx2N) is a division mode in which the image is divided in the ratio of 3: 1 to the left and right. The division mode (PartMode) in which the luminance signal of the coding block shown in FIG. 4 (h) is divided into four parts in the vertical and horizontal directions and defined as four prediction blocks is defined as N × N division (PART_NxN).

なお、各分割モード(PartMode)毎に輝度信号の縦横の分割比率と同様に色差信号も分割する。   Note that the color difference signal is also divided in the same manner as the vertical and horizontal division ratios of the luminance signal for each division mode (PartMode).

符号化ブロック内部において、各予測ブロックを特定する為に、0から開始する番号を、符号化順序で、符号化ブロック内部に存在する予測ブロックに対して割り当てる。この番号を分割インデックスPartIdxと定義する。図4の符号化ブロックの各予測ブロックの中に記述された数字は、その予測ブロックの分割インデックスPartIdxを表す。図4(b)、(c)、(d)に示す2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)では上の予測ブロックの分割インデックスPartIdxを0とし、下の予測ブロックの分割インデックスPartIdxを1とする。図4(e)、(f)、(g)に示すN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)では左の予測ブロックの分割インデックスPartIdxを0とし、右の予測ブロックの分割インデックスPartIdxを1とする。図4(h)に示すN×N分割(PART_NxN)では、左上の予測ブロックの分割インデックスPartIdxを0とし、右上の予測ブロックの分割インデックスPartIdxを1とし、左下の予測ブロックの分割インデックスPartIdxを2とし、右下の予測ブロックの分割インデックスPartIdxを3とする。   In order to specify each prediction block within the coding block, a number starting from 0 is assigned to the prediction block existing inside the coding block in the coding order. This number is defined as a split index PartIdx. A number described in each prediction block of the encoded block in FIG. 4 represents a partition index PartIdx of the prediction block. In the 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), and 2N × nD partition (PART_2NxnD) shown in FIGS. 4B, 4C, and 4D, the partition index PartIdx of the upper prediction block is set to 0. The partition index PartIdx of the lower prediction block is set to 1. In the N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), and nR × 2N partition (PART_nRx2N) shown in FIGS. 4E, 4F, and 4G, the partition index PartIdx of the left prediction block is set to 0. The division index PartIdx of the right prediction block is set to 1. In the N × N partition (PART_NxN) shown in FIG. 4H, the partition index PartIdx of the upper left prediction block is 0, the partition index PartIdx of the upper right prediction block is 1, and the partition index PartIdx of the lower left prediction block is 2. And the division index PartIdx of the prediction block at the lower right is set to 3.

予測モード(PredMode)がインター予測(MODE_INTER)では、分割モード(PartMode)は2N×2N分割(PART_2Nx2N)、2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)、N×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、及びnR×2N分割(PART_nRx2N)を定義する。最小の符号化ブロックである符号化ブロックDのみ、分割モード(PartMode)は2N×2N分割(PART_2Nx2N)、2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)、N×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、及びnR×2N分割(PART_nRx2N)に加えてN×N分割(PART_NxN)を定義することもできるが、本実施の形態においては、分割モード(PartMode)がN×N分割(PART_NxN)を定義しないものとする。   When the prediction mode (PredMode) is inter prediction (MODE_INTER), the partition mode (PartMode) is 2N × 2N partition (PART_2Nx2N), 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD) , N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), and nR × 2N partition (PART_nRx2N). Only coding block D, which is the smallest coding block, has a partition mode (PartMode) of 2N × 2N partition (PART_2Nx2N), 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD) In addition to N × 2N division (PART_Nx2N), nL × 2N division (PART_nLx2N), and nR × 2N division (PART_nRx2N), N × N division (PART_NxN) can be defined. It is assumed that the partition mode (PartMode) does not define N × N partition (PART_NxN).

予測モード(PredMode)がイントラ予測(MODE_INTRA)では、最小の符号化ブロックである符号化ブロックD以外では、分割モード(PartMode)は2N×2N分割(PART_2Nx2N)だけを定義し、最小の符号化ブロックである符号化ブロックDのみ、分割モード(PartMode)は2N×2N分割(PART_2Nx2N)に加えてN×N分割(PART_NxN)を定義する。なお、最小の符号化ブロック以外にN×N分割(PART_NxN)を定義しない理由は最小の符号化ブロック以外では、符号化ブロックを4分割して小さな符号化ブロックを表現できるからである。   When the prediction mode (PredMode) is intra prediction (MODE_INTRA), only the 2N × 2N partition (PART_2Nx2N) is defined as the partition mode (PartMode) except for the encoding block D which is the minimum encoding block, and the minimum encoding block For only the coding block D, the partition mode (PartMode) defines N × N partition (PART_NxN) in addition to 2N × 2N partition (PART_2Nx2N). The reason why N × N division (PART_NxN) is not defined other than the smallest coding block is that, except for the smallest coding block, the coding block can be divided into four to represent a small coding block.

(ツリーブロック、符号化ブロック、予測ブロック、変換ブロックの位置)
本実施の形態のツリーブロック、符号化ブロック、予測ブロック、変換ブロックを始めとする各ブロックの位置は、輝度信号の画面の一番左上の輝度信号の画素の位置を原点(0,0)とし、それぞれのブロックの領域に含まれる一番左上の輝度信号の画素の位置を(x,y)の二次元座標で表す。座標軸の向きは水平方向に右の方向、垂直方向に下の方向をそれぞれ正の向きとし、単位は輝度信号の1画素単位である。輝度信号と色差信号で画像サイズ(画素数)が同じである色差フォーマットが4:4:4の場合ではもちろんのこと、輝度信号と色差信号で画像サイズ(画素数)が異なる色差フォーマットが4:2:0、4:2:2の場合でも色差信号の各ブロックの位置をそのブロックの領域に含まれる輝度信号の画素の座標で表し、単位は輝度信号の1画素である。この様にすることで、色差信号の各ブロックの位置が特定できるのはもちろんのこと、座標の値を比較するだけで、輝度信号のブロックと色差信号のブロックの位置の関係も明確となる。
(Position of tree block, coding block, prediction block, transform block)
The position of each block including the tree block, the encoding block, the prediction block, and the transform block according to the present embodiment has the position of the pixel of the luminance signal at the upper left of the luminance signal screen as the origin (0, 0). The pixel position of the upper left luminance signal included in each block area is represented by two-dimensional coordinates (x, y). The direction of the coordinate axis is a right direction in the horizontal direction and a downward direction in the vertical direction, respectively, and the unit is one pixel unit of the luminance signal. Of course, the luminance signal and the color difference signal have the same image size (number of pixels) and the color difference format is 4: 4: 4. Of course, the luminance signal and the color difference signal have a different color size format of 4: 4. Even in the case of 2: 0, 4: 2: 2, the position of each block of the color difference signal is represented by the coordinates of the pixel of the luminance signal included in the block area, and the unit is one pixel of the luminance signal. In this way, not only can the position of each block of the color difference signal be specified, but also the relationship between the positions of the luminance signal block and the color difference signal block can be clarified only by comparing the coordinate values.

(インター予測モード、参照リストについて)
本発明の実施の形態においては、復号済みのピクチャの画像信号から予測を行うインター予測では、複数の復号済みのピクチャを参照ピクチャとして用いることができる。複数の参照ピクチャから選択された参照ピクチャを特定するため、予測ブロック毎に参照インデックスを付ける。Bスライスでは予測ブロック毎に任意の2枚の参照ピクチャを選択してインター予測を行うことができ、インター予測モードとしてL0予測(Pred_L0)、L1予測(Pred_L1)、双予測(Pred_BI)がある。参照ピクチャはリスト構造のL0(参照リスト0)とL1(参照リスト1)で管理され、L0またはL1の参照インデックスを指定することにより参照ピクチャを特定することができる。L0予測(Pred_L0)はL0で管理されている参照ピクチャを参照するインター予測であり、L1予測(Pred_L1)はL1で管理されている参照ピクチャを参照するインター予測であり、双予測(Pred_BI)はL0予測とL1予測が共に行われ、L0とL1のそれぞれで管理されている1つずつの参照ピクチャを参照するインター予測である。Pスライスのインター予測ではL0予測のみが使用でき、Bスライスのインター予測ではL0予測、L1予測、L0予測とL1予測を平均または重み付け加算する双予測(Pred_BI)が使用できる。以降の処理において出力に添え字LXが付いている定数、変数に関しては、L0、L1ごとに処理が行われることを前提とする。
(Inter prediction mode, reference list)
In the embodiment of the present invention, in inter prediction in which prediction is performed from an image signal of a decoded picture, a plurality of decoded pictures can be used as reference pictures. In order to identify a reference picture selected from a plurality of reference pictures, a reference index is attached to each prediction block. In the B slice, any two reference pictures can be selected for each prediction block, and inter prediction can be performed. As inter prediction modes, there are L0 prediction (Pred_L0), L1 prediction (Pred_L1), and bi-prediction (Pred_BI). The reference picture is managed by L0 (reference list 0) and L1 (reference list 1) of the list structure, and the reference picture can be specified by specifying the reference index of L0 or L1. L0 prediction (Pred_L0) is inter prediction that refers to a reference picture managed in L0, L1 prediction (Pred_L1) is inter prediction that refers to a reference picture managed in L1, and bi-prediction (Pred_BI) is This is inter prediction in which both L0 prediction and L1 prediction are performed and one reference picture managed by each of L0 and L1 is referred to. Only L0 prediction can be used in inter prediction of P slice, and L0 prediction, L1 prediction, and bi-prediction (Pred_BI) that averages or weights and adds L0 prediction and L1 prediction can be used in inter prediction of B slice. In the subsequent processing, it is assumed that the constants and variables with the subscript LX in the output are processed for each of L0 and L1.

(マージモード、マージ候補)
マージモードとは、符号化または復号対象の予測ブロックの予測モード、参照インデックス、動きベクトル等のインター予測情報を符号化または復号するのではなく、符号化または復号対象の予測ブロックと同一ピクチャ内でその符号化または復号対象の予測ブロックに近接する予測ブロック、あるいは符号化または復号対象の予測ブロックと時間的に異なる復号済みのピクチャの符号化または復号対象の予測ブロックと同一位置あるいはその付近(近傍の位置)に存在する予測ブロックのインター予測情報から符号化または復号対象の予測ブロックのインター予測情報を導出することによりインター予測を行うモードである。符号化または復号対象の予測ブロックと同一ピクチャ内でその符号化または復号対象の予測ブロックに近接する予測ブロック及びその予測ブロックのインター予測情報を空間マージ候補、符号化または復号対象の予測ブロックと時間的に異なる符号化または復号済みのピクチャの符号化または復号対象の予測ブロックと同一位置あるいはその付近(近傍の位置)に存在する予測ブロック及びその予測ブロックのインター予測情報から導出されるインター予測情報を時間マージ候補とする。それぞれのマージ候補はマージ候補リストに登録され、マージインデックスによりインター予測で用いるマージ候補を特定する。
(Merge mode, merge candidate)
In the merge mode, the prediction mode of the prediction block to be encoded or decoded, the inter prediction information such as the reference index and the motion vector is not encoded or decoded, but within the same picture as the prediction block to be encoded or decoded. Prediction block close to the prediction block to be encoded or decoded, or the same position as or near the prediction block to be encoded or decoded of a decoded picture that is temporally different from the prediction block to be encoded or decoded (neighboring In this mode, the inter prediction is performed by deriving the inter prediction information of the prediction block to be encoded or decoded from the inter prediction information of the prediction block existing at the position. A prediction block close to the prediction block to be encoded or decoded in the same picture as the prediction block to be encoded or decoded and inter prediction information of the prediction block are spatial merge candidates, a prediction block to be encoded or decoded, and time Prediction information derived from a prediction block existing at the same position as or near (previously near) a prediction block to be encoded or decoded of a differently encoded or decoded picture and inter prediction information of the prediction block Are time merge candidates. Each merge candidate is registered in the merge candidate list, and the merge candidate used in the inter prediction is specified by the merge index.

(近接する予測ブロックについて)
図5、図6、図7及び図8は空間マージ候補の導出、および時間マージ候補の参照インデックスの導出の際に参照する符号化または復号対象の予測ブロックと同一ピクチャ内でその符号化または復号対象の予測ブロックに近接する予測ブロックを説明する図である。図9は時間マージ候補の参照インデックスの導出の際に参照する符号化または復号対象の予測ブロックと時間的に異なる符号化または復号済みのピクチャにおいて、符号化または復号対象の予測ブロックと同一位置あるいはその付近に存在する既に符号化または復号済みの予測ブロックを説明する図である。図5、図6、図7、図8及び図9を用いて符号化または復号対象の予測ブロックの空間方向に近接する予測ブロック、及び異なる時間の同一位置の予測ブロックについて説明する。
(About adjacent prediction blocks)
5, 6, 7, and 8 illustrate the encoding or decoding within the same picture as the prediction block to be encoded or decoded that is referenced when the spatial merge candidate is derived and the reference index of the temporal merge candidate is derived. It is a figure explaining the prediction block adjacent to the prediction block of object. FIG. 9 illustrates the same position as the prediction block to be encoded or decoded in a picture that has been encoded or decoded that is temporally different from the prediction block to be encoded or decoded that is referred to when the reference index of the temporal merge candidate is derived. It is a figure explaining the prediction block already encoded or decoded which exists in the vicinity. A prediction block that is close in the spatial direction of a prediction block to be encoded or decoded and a prediction block at the same position at different times will be described with reference to FIGS. 5, 6, 7, 8, and 9. FIG.

図5に示すように、符号化または復号対象の予測ブロックと同一ピクチャ内でその符号化または復号対象の予測ブロックの左側の辺に近接する予測ブロックA、上側の辺に近接する予測ブロックB、右上の頂点に近接する予測ブロックC、左下の頂点に近接する予測ブロックD、および左上の頂点に近接する予測ブロックEを空間方向に近接する予測ブロックと定義する。   As shown in FIG. 5, a prediction block A close to the left side of the prediction block to be encoded or decoded in the same picture as the prediction block to be encoded or decoded, a prediction block B close to the upper side, A prediction block C that is close to the upper right vertex, a prediction block D that is close to the lower left vertex, and a prediction block E that is close to the upper left vertex are defined as prediction blocks close to the spatial direction.

なお、図6に示すように、符号化または復号対象の予測ブロックの左側の辺に近接する予測ブロックのサイズが符号化または復号対象の予測ブロックより小さく、複数存在する場合には、本実施の形態においては左側の辺に近接する予測ブロックの中で最も下の予測ブロックA10を左側の辺に近接する予測ブロックAとする。   As shown in FIG. 6, when the size of the prediction block adjacent to the left side of the prediction block to be encoded or decoded is smaller than the prediction block to be encoded or decoded and there are a plurality of prediction blocks, this embodiment In the embodiment, the lowest prediction block A10 among the prediction blocks close to the left side is assumed to be the prediction block A close to the left side.

同様に、符号化または復号対象の予測ブロックの上側の辺に近接する予測ブロックのサイズが符号化または復号対象の予測ブロックより小さく、複数存在する場合には、本実施の形態においては左側の辺に近接する予測ブロックの中で最も右の予測ブロックB10を上側の辺に近接する予測ブロックB1とする。   Similarly, when the size of the prediction block adjacent to the upper side of the prediction block to be encoded or decoded is smaller than the prediction block to be encoded or decoded and there are a plurality of prediction blocks, the left side in the present embodiment The rightmost prediction block B10 among the prediction blocks adjacent to is assumed to be the prediction block B1 adjacent to the upper side.

なお、図7に示すように、符号化または復号対象の予測ブロックの左側に近接する予測ブロックFのサイズが符号化または復号対象の予測ブロックより大きい場合にも、前記条件に従い、左側に近接する予測ブロックAがその符号化または復号対象の予測ブロックの左側の辺に近接していれば予測ブロックAとし、符号化または復号対象の予測ブロックの左下の頂点に近接していれば予測ブロックDとし、符号化または復号対象の予測ブロックの左上の頂点に近接していれば予測ブロックEとする。図6の例では、予測ブロックA、予測ブロックE及び予測ブロックEは同一の予測ブロックとなる。   In addition, as shown in FIG. 7, even when the size of the prediction block F adjacent to the left side of the prediction block to be encoded or decoded is larger than the prediction block to be encoded or decoded, it is close to the left side according to the above condition. If the prediction block A is close to the left side of the prediction block to be encoded or decoded, the prediction block A is determined. If the prediction block A is close to the lower left vertex of the prediction block to be encoded or decoded, the prediction block D is determined. If it is close to the top left vertex of the prediction block to be encoded or decoded, the prediction block E is determined. In the example of FIG. 6, the prediction block A, the prediction block E, and the prediction block E are the same prediction block.

なお、図8に示すように、符号化または復号対象の予測ブロックの上側に近接する予測ブロックGのサイズが符号化または復号対象の予測ブロックより大きい場合にも、前記条件に従い、上側に近接する予測ブロックGがその符号化または復号対象の予測ブロックの上側の辺に近接していれば予測ブロックBとし、符号化または復号対象の予測ブロックの右上の頂点に近接していれば予測ブロックCとし、符号化または復号対象の予測ブロックの左上の頂点に近接していれば予測ブロックEとする。図8の例では、予測ブロックB、予測ブロックC及び予測ブロックEは同一の予測ブロックとなる。   In addition, as shown in FIG. 8, even when the size of the prediction block G adjacent to the upper side of the prediction block to be encoded or decoded is larger than the prediction block to be encoded or decoded, the size is close to the upper side according to the above condition. When the prediction block G is close to the upper side of the prediction block to be encoded or decoded, the prediction block B is used. When the prediction block G is close to the upper right vertex of the prediction block to be encoded or decoded, the prediction block C is set. If it is close to the top left vertex of the prediction block to be encoded or decoded, the prediction block E is determined. In the example of FIG. 8, the prediction block B, the prediction block C, and the prediction block E are the same prediction block.

図9に示すように、符号化または復号対象の予測ブロックと時間的に異なる復号済みのピクチャにおいて、符号化または復号対象の予測ブロックと同一位置あるいはその付近に存在する既に符号化または復号済みの予測ブロックT0およびT1を異なる時間の同一位置の予測ブロックと定義する。   As shown in FIG. 9, in a decoded picture that is temporally different from a prediction block to be encoded or decoded, an already encoded or decoded image that exists at or near the same position as the prediction block to be encoded or decoded Prediction blocks T0 and T1 are defined as prediction blocks at the same position at different times.

(POCについて)
POCは符号化されるピクチャに関連付けられる変数とし、ピクチャの出力順序で1ずつ増加する値が設定される。POCの値によって、同じピクチャであるかを判別したり、出力順序でのピクチャ間の前後関係を判別したり、ピクチャ間の距離を導出したりすることができる。例えば、2つのピクチャのPOCが同じ値を持つ場合、同一のピクチャであると判断できる。2つのピクチャのPOCが違う値を持つ場合、POCの値が小さいピクチャのほうが、先に出力されるピクチャであると判断でき、2つのピクチャのPOCの差が時間軸方向でのピクチャ間距離を示す。
(About POC)
POC is a variable associated with the picture to be encoded, and is set to a value that increases by 1 in the picture output order. Based on the POC value, it is possible to determine whether they are the same picture, to determine the anteroposterior relationship between pictures in the output order, or to derive the distance between pictures. For example, if the POCs of two pictures have the same value, it can be determined that they are the same picture. When the POCs of two pictures have different values, it can be determined that the picture with the smaller POC value is the picture output first, and the difference between the POCs of the two pictures indicates the inter-picture distance in the time axis direction. Show.

以下、図面と共に本発明の実施の形態を説明する。図1は本発明の実施の形態に係る動画像符号化装置の構成を示すブロック図である。実施の形態の動画像符号化装置は、画像メモリ101、動きベクトル検出部102、差分動きベクトル算出部103、インター予測情報導出部104、動き補償予測部105、イントラ予測部106、予測方法決定部107、残差信号生成部108、直交変換・量子化部109、第1の符号化ビット列生成部110、第2の符号化ビット列生成部111、多重化部112、逆量子化・逆直交変換部113、復号画像信号重畳部114、符号化情報格納メモリ115、および復号画像メモリ116を備える。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a moving picture coding apparatus according to an embodiment of the present invention. The moving image encoding apparatus according to the embodiment includes an image memory 101, a motion vector detection unit 102, a difference motion vector calculation unit 103, an inter prediction information derivation unit 104, a motion compensation prediction unit 105, an intra prediction unit 106, and a prediction method determination unit. 107, residual signal generation section 108, orthogonal transform / quantization section 109, first encoded bit string generation section 110, second encoded bit string generation section 111, multiplexing section 112, inverse quantization / inverse orthogonal transform section 113, a decoded image signal superimposing unit 114, an encoded information storage memory 115, and a decoded image memory 116.

画像メモリ101は、撮影/表示時間順に供給された符号化対象のピクチャの画像信号を一時格納する。画像メモリ101は、格納された符号化対象のピクチャの画像信号を、所定の画素ブロック単位で、動きベクトル検出部102、予測方法決定部107、および残差信号生成部108に供給する。その際、撮影/表示時間順に格納されたピクチャの画像信号は、符号化順序に並べ替えられて、画素ブロック単位で、画像メモリ101から出力される。   The image memory 101 temporarily stores the image signal of the encoding target picture supplied in the order of shooting / display time. The image memory 101 supplies the stored image signal of the picture to be encoded to the motion vector detection unit 102, the prediction method determination unit 107, and the residual signal generation unit 108 in units of predetermined pixel blocks. At this time, the image signals of the pictures stored in the order of shooting / display time are rearranged in the encoding order and output from the image memory 101 in units of pixel blocks.

動きベクトル検出部102は、画像メモリ101から供給される画像信号と復号画像メモリ116から供給される参照ピクチャ間でブロックマッチング等により各予測ブロックサイズ、各予測モードのそれぞれの動きベクトルを各予測ブロック単位で検出し、検出された動きベクトルを動き補償予測部105、差分動きベクトル算出部103、および予測方法決定部107に供給する。   The motion vector detection unit 102 uses the motion vector for each prediction block size and each prediction mode by block matching between the image signal supplied from the image memory 101 and the reference picture supplied from the decoded image memory 116 for each prediction block. Detection is performed in units, and the detected motion vector is supplied to the motion compensation prediction unit 105, the difference motion vector calculation unit 103, and the prediction method determination unit 107.

差分動きベクトル算出部103は、符号化情報格納メモリ115に記憶されている既に符号化された画像信号の符号化情報を用いて、複数の予測動きベクトルの候補を算出して予測動きベクトルリストに登録し、予測動きベクトルリストに登録された複数の予測動きベクトルの候補の中から最適な予測動きベクトルを選択し、動きベクトル検出部102が検出した動きベクトルと予測動きベクトルから差分動きベクトルを算出し、算出された差分動きベクトルを予測方法決定部107に供給する。さらに、予測動きベクトルリストに登録された予測動きベクトルの候補から選択された予測動きベクトルを特定する予測動きベクトルインデックスを予測方法決定部107に供給する。   The difference motion vector calculation unit 103 calculates a plurality of motion vector predictor candidates by using the encoded information of the already encoded image signal stored in the encoded information storage memory 115, and generates a prediction motion vector list. The optimum motion vector predictor is selected from a plurality of motion vector predictor candidates registered and registered in the motion vector predictor list, and a motion vector difference is calculated from the motion vector detected by the motion vector detector 102 and the motion vector predictor. Then, the calculated difference motion vector is supplied to the prediction method determination unit 107. Furthermore, a prediction motion vector index that identifies a prediction motion vector selected from prediction motion vector candidates registered in the prediction motion vector list is supplied to the prediction method determination unit 107.

インター予測情報導出部104は、マージモードでのマージ候補を導出する。符号化情報格納メモリ115に記憶されている既に符号化された予測ブロックの符号化情報を用いて、複数のマージ候補を導出して後述するマージ候補リストに登録し、マージ候補リストに登録された複数のマージ候補の中から適したマージ候補を選択し、選択されたマージ候補の各予測ブロックのL0予測、及びL1予測を利用するかどうかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][yP]、参照インデックスrefIdxL0[xP][yP], refIdxL1[xP][yP]、動きベクトルmvL0[xP][yP], mvL1[xP][yP]等のインター予測情報を動き補償予測部105に供給するとともに、選択されたマージ候補を特定するマージインデックスを予測方法決定部107に供給する。ここで、xP、yPはピクチャ内での予測ブロックの左上の画素の位置を示すインデックスである。インター予測情報導出部104の詳細な構成と動作は後述する。   The inter prediction information deriving unit 104 derives merge candidates in the merge mode. A plurality of merge candidates are derived using the encoding information of the already encoded prediction block stored in the encoding information storage memory 115 and registered in a merge candidate list described later, and registered in the merge candidate list Flags predFlagL0 [xP] [yP], predFlagL1 [xP indicating whether or not to use the L0 prediction and L1 prediction of each prediction block of the selected merge candidate from among a plurality of merge candidates ] [yP], reference index refIdxL0 [xP] [yP], refIdxL1 [xP] [yP], motion vector mvL0 [xP] [yP], mvL1 [xP] [yP] etc. And a merge index for specifying the selected merge candidate is supplied to the prediction method determination unit 107. Here, xP and yP are indexes indicating the position of the upper left pixel of the prediction block in the picture. The detailed configuration and operation of the inter prediction information deriving unit 104 will be described later.

動き補償予測部105は、動きベクトル検出部102およびインター予測情報導出部104により検出された動きベクトルを用いて参照ピクチャからインター予測(動き補償予測)により予測画像信号を生成し、予測画像信号を予測方法決定部107に供給する。なお、L0予測、及びL1予測では、片方向の予測を行う。双予測(Pred_BI)の場合は、双方向の予測を行い、L0予測、L1予測のそれぞれのインター予測された信号に適応的に重み係数を掛け算し、オフセット値を加算して重畳し、最終的な予測画像信号を生成する。   The motion compensated prediction unit 105 generates a predicted image signal by inter prediction (motion compensated prediction) from the reference picture using the motion vectors detected by the motion vector detection unit 102 and the inter prediction information deriving unit 104, and generates the predicted image signal. This is supplied to the prediction method determination unit 107. In L0 prediction and L1 prediction, one-way prediction is performed. In the case of bi-prediction (Pred_BI), bi-directional prediction is performed, the inter-predicted signals of L0 prediction and L1 prediction are adaptively multiplied by weighting factors, offset values are added and superimposed, and finally A predicted image signal is generated.

イントラ予測部106は、各イントラ予測モードについてイントラ予測を行う。復号画像メモリ211に格納されている復号済みの画像信号からイントラ予測により予測画像信号を生成し、複数のイントラ予測モードの中から適したイントラ予測モードを選択し、選択されたイントラ予測モード、及び選択されたイントラ予測モードに応じた予測画像信号を予測方法決定部107に供給する。   The intra prediction unit 106 performs intra prediction for each intra prediction mode. A prediction image signal is generated by intra prediction from the decoded image signal stored in the decoded image memory 211, a suitable intra prediction mode is selected from a plurality of intra prediction modes, the selected intra prediction mode, and A prediction image signal corresponding to the selected intra prediction mode is supplied to the prediction method determination unit 107.

予測方法決定部107はそれぞれの予測方法毎に符号化情報及び残差信号の符号量、予測画像信号と画像信号との間の歪量等を評価することにより、複数の予測方法の中から、最適な符号化ブロック単位でインター予測(PRED_INTER)かイントラ予測(PRED_INTRA)かを判別する予測モードPredMode、分割モードPartModeを決定し、インター予測(PRED_INTER)では予測ブロック単位でマージモードか否かを決定し、マージモードの場合はマージインデックス、マージモードでない場合はインター予測モード、予測動きベクトルインデックス、L0、L1の参照インデックス、差分動きベクトル等を決定して、決定に応じた符号化情報を第1の符号化ビット列生成部110に供給する。   The prediction method determination unit 107 evaluates the encoding information and the code amount of the residual signal for each prediction method, the distortion amount between the prediction image signal and the image signal, and the like from among a plurality of prediction methods. The prediction mode PredMode and split mode PartMode are determined to determine whether inter prediction (PRED_INTER) or intra prediction (PRED_INTRA) is optimal for each coding block. In inter prediction (PRED_INTER), it is determined whether or not the mode is merge mode. When the merge mode is selected, the merge index is determined. When the merge mode is not selected, the inter prediction mode, the prediction motion vector index, the L0 and L1 reference indexes, the difference motion vector, and the like are determined. To the encoded bit string generation unit 110.

さらに、予測方法決定部107は、決定された予測方法を示す情報、及び決定された予測方法に応じた動きベクトル等を含む符号化情報を符号化情報格納メモリ115に格納する。ここで格納する符号化情報は、各符号化ブロックの予測モードPredMode、分割モードPartMode、各予測ブロックのL0予測、及びL1予測を利用するかどうかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][yP]、L0、L1の参照インデックスrefIdxL0[xP][yP], refIdxL1[xP][yP]、L0、L1の動きベクトルmvL0[xP][yP], mvL1[xP][yP]等である。ここで、xP、yPはピクチャ内での予測ブロックの左上の画素の位置を示すインデックスである。なお、予測モードPredModeがイントラ予測(MODE_INTRA)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xP][yP]、L1予測を利用するかどうかを示すフラグpredFlagL1[xP][yP]は共に0である。一方、予測モードPredModeがインター予測(MODE_INTER)で、インター予測モードがL0予測(Pred_L0)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xP][yP]は1, L1予測を利用するかどうかを示すフラグpredFlagL1[xP][yP]は0である。インター予測モードがL1予測(Pred_L1)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xP][yP]は0, L1予測を利用するかどうかを示すフラグpredFlagL1[xP][yP]は1である。インター予測モードが双予測(Pred_BI)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xP][yP]、L1予測を利用するかどうかを示すフラグpredFlagL1[xP][yP]は共に1である。予測方法決定部107は、決定された予測モードに応じた予測画像信号を残差信号生成部108と復号画像信号重畳部114に供給する。   Furthermore, the prediction method determination unit 107 stores information indicating the determined prediction method and encoded information including a motion vector corresponding to the determined prediction method in the encoded information storage memory 115. The encoded information stored here is a flag predFlagL0 [xP] [yP], predFlagL1 [indicating whether to use the prediction mode PredMode, the partition mode PartMode, the L0 prediction of each prediction block, and the L1 prediction of each prediction block. xP] [yP], L0, L1 reference indices refIdxL0 [xP] [yP], refIdxL1 [xP] [yP], L0, L1 motion vectors mvL0 [xP] [yP], mvL1 [xP] [yP], etc. It is. Here, xP and yP are indexes indicating the position of the upper left pixel of the prediction block in the picture. When the prediction mode PredMode is intra prediction (MODE_INTRA), a flag predFlagL0 [xP] [yP] indicating whether to use L0 prediction and a flag predFlagL1 [xP] [yP] indicating whether to use L1 prediction are Both are zero. On the other hand, when the prediction mode PredMode is inter prediction (MODE_INTER) and the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 [xP] [yP] indicating whether to use L0 prediction is 1, L1 prediction is used. The flag predFlagL1 [xP] [yP] indicating whether or not is zero. When the inter prediction mode is L1 prediction (Pred_L1), the flag predFlagL0 [xP] [yP] indicating whether to use L0 prediction is 0, and the flag predFlagL1 [xP] [yP] indicating whether to use L1 prediction is 1. When the inter prediction mode is bi-prediction (Pred_BI), a flag predFlagL0 [xP] [yP] indicating whether to use L0 prediction and a flag predFlagL1 [xP] [yP] indicating whether to use L1 prediction are both 1. It is. The prediction method determination unit 107 supplies a prediction image signal corresponding to the determined prediction mode to the residual signal generation unit 108 and the decoded image signal superimposition unit 114.

残差信号生成部108は、符号化する画像信号と予測画像信号との減算を行うことにより残差信号を生成し、直交変換・量子化部109に供給する。
直交変換・量子化部109は、残差信号に対して量子化パラメータに応じて直交変換及び量子化を行い直交変換・量子化された残差信号を生成し、第2の符号化ビット列生成部111と逆量子化・逆直交変換部113に供給する。さらに、直交変換・量子化部109は、量子化パラメータを符号化情報格納メモリ115に格納する。
The residual signal generation unit 108 generates a residual signal by performing subtraction between the image signal to be encoded and the predicted image signal, and supplies the residual signal to the orthogonal transform / quantization unit 109.
The orthogonal transform / quantization unit 109 performs orthogonal transform and quantization on the residual signal in accordance with the quantization parameter to generate an orthogonal transform / quantized residual signal, and a second encoded bit string generation unit 111 and the inverse quantization / inverse orthogonal transform unit 113. Further, the orthogonal transform / quantization unit 109 stores the quantization parameter in the encoded information storage memory 115.

第1の符号化ビット列生成部110は、シーケンス、ピクチャ、スライス、符号化ブロック単位の情報に加えて、符号化ブロック及び予測ブロック毎に予測方法決定部107によって決定された予測方法に応じた符号化情報を符号化する。具体的には、符号化ブロック毎の予測モードPredMode、分割モードPartMode、インター予測(PRED_INTER)の場合、マージモードかどうかを判別するフラグ、マージモードの場合はマージインデックス、マージモードでない場合はインター予測モード、予測動きベクトルインデックス、差分動きベクトルに関する情報等の符号化情報を後述する規定のシンタックス規則に従って符号化して第1の符号化ビット列を生成し、多重化部112に供給する。   The first encoded bit string generation unit 110, in addition to information in units of sequences, pictures, slices, and encoded blocks, codes corresponding to the prediction method determined by the prediction method determination unit 107 for each encoded block and predicted block Encoding information is encoded. Specifically, in the prediction mode PredMode, partition mode PartMode, and inter prediction (PRED_INTER) for each coding block, a flag that determines whether or not the mode is merge mode, merge index in the case of merge mode, and inter prediction in the case of not in merge mode Encoding information such as information on the mode, the predicted motion vector index, and the difference motion vector is encoded according to a prescribed syntax rule to be described later to generate a first encoded bit string, which is supplied to the multiplexing unit 112.

第2の符号化ビット列生成部111は、直交変換及び量子化された残差信号を規定のシンタックス規則に従ってエントロピー符号化して第2の符号化ビット列を生成し、多重化部112に供給する。多重化部112で、第1の符号化ビット列と第2の符号化ビット列を規定のシンタックス規則に従って多重化し、ビットストリームを出力する。   The second encoded bit string generation unit 111 generates a second encoded bit string by entropy-encoding the orthogonally transformed and quantized residual signal according to a specified syntax rule, and supplies the second encoded bit string to the multiplexing unit 112. The multiplexing unit 112 multiplexes the first encoded bit string and the second encoded bit string in accordance with a prescribed syntax rule, and outputs a bit stream.

逆量子化・逆直交変換部113は、直交変換・量子化部109から供給された直交変換・量子化された残差信号を逆量子化及び逆直交変換して残差信号を算出し、復号画像信号重畳部114に供給する。復号画像信号重畳部114は、予測方法決定部107による決定に応じた予測画像信号と逆量子化・逆直交変換部113で逆量子化及び逆直交変換された残差信号を重畳して復号画像を生成し、復号画像メモリ116に格納する。なお、復号画像に対して符号化によるブロック歪等の歪を減少させるフィルタリング処理を施して、復号画像メモリ116に格納されることもある。   The inverse quantization / inverse orthogonal transform unit 113 performs inverse quantization and inverse orthogonal transform on the orthogonal transform / quantized residual signal supplied from the orthogonal transform / quantization unit 109 to calculate a residual signal, and performs decoding. This is supplied to the image signal superimposing unit 114. The decoded image signal superimposing unit 114 superimposes the predicted image signal according to the determination by the prediction method determining unit 107 and the residual signal subjected to inverse quantization and inverse orthogonal transform by the inverse quantization / inverse orthogonal transform unit 113 to decode the decoded image. Is generated and stored in the decoded image memory 116. Note that the decoded image may be stored in the decoded image memory 116 after filtering processing for reducing distortion such as block distortion due to encoding.

図2は図1の動画像符号化装置に対応した本発明の実施の形態に係る動画像復号装置の構成を示すブロックである。実施の形態の動画像復号装置は、分離部201、第1符号化ビット列復号部202、第2符号化ビット列復号部203、動きベクトル算出部204、インター予測情報導出部205、動き補償予測部206、イントラ予測部207、逆量子化・逆直交変換部208、復号画像信号重畳部209、符号化情報格納メモリ210、および復号画像メモリ211を備える。   FIG. 2 is a block diagram showing the configuration of the moving picture decoding apparatus according to the embodiment of the present invention corresponding to the moving picture encoding apparatus of FIG. The moving picture decoding apparatus according to the embodiment includes a separation unit 201, a first encoded bit string decoding unit 202, a second encoded bit string decoding unit 203, a motion vector calculation unit 204, an inter prediction information derivation unit 205, and a motion compensation prediction unit 206. , An intra prediction unit 207, an inverse quantization / inverse orthogonal transform unit 208, a decoded image signal superimposing unit 209, an encoded information storage memory 210, and a decoded image memory 211.

図2の動画像復号装置の復号処理は、図1の動画像符号化装置の内部に設けられている復号処理に対応するものであるから、図2の動き補償予測部206、逆量子化・逆直交変換部208、復号画像信号重畳部209、符号化情報格納メモリ210、および復号画像メモリ211の各構成は、図1の動画像符号化装置の動き補償予測部105、逆量子化・逆直交変換部113、復号画像信号重畳部114、符号化情報格納メモリ115、および復号画像メモリ116の各構成とそれぞれ対応する機能を有する。   The decoding process of the moving picture decoding apparatus in FIG. 2 corresponds to the decoding process provided in the moving picture encoding apparatus in FIG. 1, so the motion compensation prediction unit 206 in FIG. The configuration of the inverse orthogonal transform unit 208, the decoded image signal superimposing unit 209, the encoded information storage memory 210, and the decoded image memory 211 is the same as that of the motion compensation prediction unit 105, the inverse quantization / inverse of the moving image encoding device in FIG. The orthogonal transform unit 113, the decoded image signal superimposing unit 114, the encoded information storage memory 115, and the decoded image memory 116 have functions corresponding to the respective configurations.

分離部201に供給されるビットストリームは規定のシンタックスの規則に従って分離し、分離された第1の符号化ビット列が第1符号化ビット列復号部202に供給され、第2の符号化ビット列が第2符号化ビット列復号部203に供給される。   The bit stream supplied to the separation unit 201 is separated according to a rule of a prescribed syntax, the separated first encoded bit string is supplied to the first encoded bit string decoding unit 202, and the second encoded bit string is the first encoded bit string. This is supplied to the 2-encoded bit string decoding unit 203.

第1符号化ビット列復号部202は、供給された符号化ビット列を復号して、シーケンス、ピクチャ、スライス、符号化ブロック単位の情報、及び、予測ブロック単位の符号化情報を得る。具体的には、符号化ブロック単位でインター予測(PRED_INTER)かイントラ予測(PRED_INTRA)かを判別する予測モードPredMode、分割モードPartMode、インター予測(PRED_INTER)の場合、マージモードかどうかを判別するフラグ、マージモードの場合はマージインデックス、マージモードでない場合はインター予測モード、予測動きベクトルインデックス、差分動きベクトル等に関する符号化情報を後述する規定のシンタックス規則に従って復号し、符号化情報を動きベクトル算出部204、インター予測情報導出部205またはイントラ予測部207に供給する。   The first encoded bit string decoding unit 202 decodes the supplied encoded bit string to obtain sequence, picture, slice, encoded block unit information, and predicted block unit encoded information. Specifically, in the prediction mode PredMode for determining whether the prediction is inter prediction (PRED_INTER) or intra prediction (PRED_INTRA) for each coding block, split mode PartMode, and inter prediction (PRED_INTER), a flag for determining whether the mode is merge mode, When the merge mode is selected, the merge index is decoded. When the merge mode is not selected, the encoded information related to the inter prediction mode, the predicted motion vector index, the difference motion vector, and the like is decoded according to a predetermined syntax rule to be described later, and the encoded information is a motion vector calculation unit. 204, supplied to the inter prediction information deriving unit 205 or the intra prediction unit 207.

第2符号化ビット列復号部203は、供給された符号化ビット列を復号して直交変換・量子化された残差信号を算出し、直交変換・量子化された残差信号を逆量子化・逆直交変換部208に供給する。   The second encoded bit string decoding unit 203 calculates a residual signal that has been orthogonally transformed / quantized by decoding the supplied encoded bit string, and dequantized / inverted the residual signal that has been orthogonally transformed / quantized. This is supplied to the orthogonal transform unit 208.

動きベクトル算出部204は、復号対象の予測ブロックの予測モードPredModeがインター予測(PRED_INTER)でマージモードでない時に、符号化情報格納メモリ210に記憶されている既に復号された画像信号の符号化情報を用いて、複数の予測動きベクトルの候補を導出して後述する予測動きベクトルリストに登録し、予測動きベクトルリストに登録された複数の予測動きベクトルの候補の中から、第1符号化ビット列復号部202で復号され供給される予測動きベクトルインデックスに応じた予測動きベクトルを選択し、第1符号化ビット列復号部202で復号された差分ベクトルと選択された予測動きベクトルから動きベクトルを算出し、他の符号化情報とともに動き補償予測部206に供給するとともに、符号化情報格納メモリ210に格納する。ここで供給・格納する予測ブロックの符号化情報は、予測モードPredMode、分割モードPartMode、L0予測、及びL1予測を利用するかどうかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][yP]、L0、L1の参照インデックスrefIdxL0[xP][yP], refIdxL1[xP][yP]、L0、L1の動きベクトルmvL0[xP][yP], mvL1[xP][yP]等である。ここで、xP、yPはピクチャ内での予測ブロックの左上の画素の位置を示すインデックスである。予測モードPredModeがインター予測(MODE_INTER)で、インター予測モードがL0予測(Pred_L0)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0は1, L1予測を利用するかどうかを示すフラグpredFlagL1は0である。インター予測モードがL1予測(Pred_L1)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0は0, L1予測を利用するかどうかを示すフラグpredFlagL1は1である。インター予測モードが双予測(Pred_BI)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0、L1予測を利用するかどうかを示すフラグpredFlagL1は共に1である。   When the prediction mode PredMode of the prediction block to be decoded is inter prediction (PRED_INTER) and not the merge mode, the motion vector calculation unit 204 stores the encoded information of the already decoded image signal stored in the encoded information storage memory 210. A plurality of motion vector predictor candidates that are derived and registered in a motion vector predictor list to be described later, and a first encoded bit string decoding unit is selected from the motion vector predictor candidates registered in the motion vector predictor list A prediction motion vector corresponding to the prediction motion vector index decoded and supplied in 202 is selected, a motion vector is calculated from the difference vector decoded in the first encoded bit string decoding unit 202 and the selected prediction motion vector, The encoded information is supplied to the motion compensation prediction unit 206 and stored in the encoded information storage memory 210. To. The encoding information of the prediction block supplied / stored here is a flag predFlagL0 [xP] [yP], predFlagL1 [xP] [yP indicating whether to use the prediction mode PredMode, the partition mode PartMode, the L0 prediction, and the L1 prediction. ], L0, L1 reference indices refIdxL0 [xP] [yP], refIdxL1 [xP] [yP], L0, L1 motion vectors mvL0 [xP] [yP], mvL1 [xP] [yP], and the like. Here, xP and yP are indexes indicating the position of the upper left pixel of the prediction block in the picture. When the prediction mode PredMode is inter prediction (MODE_INTER) and the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 indicating whether to use the L0 prediction is 1, and the flag predFlagL1 indicating whether to use the L1 prediction is 0. It is. When the inter prediction mode is L1 prediction (Pred_L1), the flag predFlagL0 indicating whether to use L0 prediction is 0, and the flag predFlagL1 indicating whether to use L1 prediction is 1. When the inter prediction mode is bi-prediction (Pred_BI), a flag predFlagL0 indicating whether to use L0 prediction and a flag predFlagL1 indicating whether to use L1 prediction are both 1.

インター予測情報導出部205は、復号対象の予測ブロックの予測モードPredModeがインター予測(PRED_INTER)でマージモードの時に、マージ候補を導出する。符号化情報格納メモリ115に記憶されている既に復号された予測ブロックの符号化情報を用いて、複数のマージの候補を導出して後述するマージ候補リストに登録し、マージ候補リストに登録された複数のマージ候補の中から第1符号化ビット列復号部202で復号され供給されるマージインデックスに対応したマージ候補を選択し、選択されたマージ候補のL0予測、及びL1予測を利用するかどうかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][yP]、L0、L1の参照インデックスrefIdxL0[xP][yP], refIdxL1[xP][yP]、L0、L1の動きベクトルmvL0[xP][yP], mvL1[xP][yP]等のインター予測情報を動き補償予測部206に供給するとともに、符号化情報格納メモリ210に格納する。ここで、xP、yPはピクチャ内での予測ブロックの左上の画素の位置を示すインデックスである。インター予測情報導出部205の詳細な構成と動作は後述する。   The inter prediction information deriving unit 205 derives merge candidates when the prediction mode PredMode of the prediction block to be decoded is inter prediction (PRED_INTER) and in the merge mode. A plurality of merge candidates are derived and registered in a merge candidate list, which will be described later, using the encoded information of already decoded prediction blocks stored in the encoded information storage memory 115, and registered in the merge candidate list Whether a merge candidate corresponding to the merge index decoded and supplied by the first encoded bit string decoding unit 202 is selected from among a plurality of merge candidates, and whether to use the L0 prediction and the L1 prediction of the selected merge candidate PredFlagL0 [xP] [yP], predFlagL1 [xP] [yP], L0, L1 reference indices refIdxL0 [xP] [yP], refIdxL1 [xP] [yP], L0, L1 motion vectors mvL0 [xP] Inter prediction information such as [yP] and mvL1 [xP] [yP] is supplied to the motion compensation prediction unit 206 and stored in the encoded information storage memory 210. Here, xP and yP are indexes indicating the position of the upper left pixel of the prediction block in the picture. The detailed configuration and operation of the inter prediction information deriving unit 205 will be described later.

動き補償予測部206は、動きベクトル算出部204またはインター予測情報導出部205で算出されたインター予測情報を用いて復号画像メモリ211に格納されている参照ピクチャからインター予測(動き補償予測)により予測画像信号を生成し、予測画像信号を復号画像信号重畳部209に供給する。なお、双予測(Pred_BI)の場合は、L0予測、L1予測の2つの動き補償予測画像信号に適応的に重み係数を掛け算して重畳し、最終的な予測画像信号を生成する。   The motion compensation prediction unit 206 performs prediction by inter prediction (motion compensation prediction) from the reference picture stored in the decoded image memory 211 using the inter prediction information calculated by the motion vector calculation unit 204 or the inter prediction information deriving unit 205. An image signal is generated, and the predicted image signal is supplied to the decoded image signal superimposing unit 209. In the case of bi-prediction (Pred_BI), a weighted coefficient is adaptively multiplied and superimposed on the two motion-compensated predicted image signals of L0 prediction and L1 prediction to generate a final predicted image signal.

イントラ予測部207は、復号対象の予測ブロックの予測モードPredModeがイントラ予測(PRED_INTRA)の時に、イントラ予測を行う。第1符号化ビット列復号部で復号された符号化情報にはイントラ予測モードが含まれており、イントラ予測モードに応じて、復号画像メモリ211に格納されている復号済みの画像信号からイントラ予測により予測画像信号を生成し、予測画像信号を復号画像信号重畳部209に供給する。L0予測、及びL1予測を利用するかどうかを示すフラグpredFlagL0[xP][yP], predFlagL1[xP][yP]を共に0に設定し、符号化情報格納メモリ210に格納する。ここで、xP、yPはピクチャ内での予測ブロックの左上の画素の位置を示すインデックスである。   The intra prediction unit 207 performs intra prediction when the prediction mode PredMode of the prediction block to be decoded is intra prediction (PRED_INTRA). The encoded information decoded by the first encoded bit string decoding unit includes an intra prediction mode, and by intra prediction from a decoded image signal stored in the decoded image memory 211 according to the intra prediction mode. A predicted image signal is generated, and the predicted image signal is supplied to the decoded image signal superimposing unit 209. Flags predFlagL0 [xP] [yP] and predFlagL1 [xP] [yP] indicating whether to use L0 prediction and L1 prediction are both set to 0 and stored in the encoded information storage memory 210. Here, xP and yP are indexes indicating the position of the upper left pixel of the prediction block in the picture.

逆量子化・逆直交変換部208は、第1符号化ビット列復号部202で復号された直交変換・量子化された残差信号に対して逆直交変換及び逆量子化を行い、逆直交変換・逆量子化された残差信号を得る。   The inverse quantization / inverse orthogonal transform unit 208 performs inverse orthogonal transform and inverse quantization on the orthogonal transform / quantized residual signal decoded by the first encoded bit string decoding unit 202, and performs inverse orthogonal transform / An inverse quantized residual signal is obtained.

復号画像信号重畳部209は、動き補償予測部206でインター予測された予測画像信号、またはイントラ予測部207でイントラ予測された予測画像信号と、逆量子化・逆直交変換部208により逆直交変換・逆量子化された残差信号とを重畳することにより、復号画像信号を復号し、復号画像メモリ211に格納する。復号画像メモリ211に格納する際には、復号画像に対して符号化によるブロック歪等を減少させるフィルタリング処理を施して、復号画像メモリ211に格納されることもある。   The decoded image signal superimposing unit 209 performs the prediction image signal inter-predicted by the motion compensation prediction unit 206 or the prediction image signal intra-predicted by the intra prediction unit 207 and the inverse orthogonal transform by the inverse quantization / inverse orthogonal transform unit 208. The decoded image signal is decoded by superimposing the dequantized residual signal, and stored in the decoded image memory 211. When stored in the decoded image memory 211, the decoded image may be stored in the decoded image memory 211 after filtering processing that reduces block distortion or the like due to encoding is performed on the decoded image.

(シンタックスについて)
次に、本実施の形態に係る動きベクトルの予測方法を備える動画像符号化装置により符号化され、復号装置により復号される動画像のビットストリームの符号化および復号の共通規則であるシンタックスについて説明する。
(About syntax)
Next, a syntax that is a common rule for encoding and decoding a bit stream of a moving image that is encoded by a moving image encoding device including the motion vector prediction method according to the present embodiment and decoded by the decoding device explain.

図10は本実施の形態により生成されるビットストリームのスライス単位でスライスヘッダーに記述される第1のシンタックス構造を示す。ただし、本実施の形態に関係のあるシンタックス要素のみを示している。スライスタイプがBスライスの場合は、時間方向の予測動きベクトルの候補、またはマージ候補を導出する際に用いる異なる時間のピクチャcolPicが処理対象の予測ブロックが含まれるピクチャのL0の参照リスト或いはL1の参照リストのどちらに登録されている参照ピクチャを使用するかを示すフラグcollocated_from_l0_flagが設置される。フラグcollocated_from_l0_flagの詳細については後述する。   FIG. 10 shows a first syntax structure described in the slice header in units of slices of the bitstream generated according to the present embodiment. However, only syntax elements relevant to the present embodiment are shown. When the slice type is a B slice, a picture colPic at a different time used in deriving a temporal motion vector predictor candidate or merge candidate is a L0 reference list of pictures including a prediction block to be processed or an L1 reference picture A flag collocated_from_l0_flag indicating which reference picture registered in the reference list is used is set. Details of the flag collocated_from_l0_flag will be described later.

なお、以上のシンタックス要素はピクチャ単位で設定されるシンタックス要素を記述するピクチャ・パラメータ・セットに設置してもよい。   Note that the above syntax elements may be placed in a picture parameter set describing syntax elements set in units of pictures.

図11は予測ブロック単位に記述されるシンタックスパターンを示す。予測ブロックの予測モードPredModeの値がインター予測(MODE_INTER)の場合、マージモードかどうかを示すmerge_flag[x0][y0]が設置される。ここで、x0、y0は輝度信号のピクチャ内での予測ブロックの左上の画素の位置を示すインデックスであり、merge_flag[x0][y0]はピクチャ内の(x0, y0)に位置する予測ブロックのマージモードかどうかを示すフラグである。   FIG. 11 shows a syntax pattern described in units of prediction blocks. When the value of the prediction mode PredMode of the prediction block is inter prediction (MODE_INTER), merge_flag [x0] [y0] indicating whether the mode is the merge mode is set. Here, x0 and y0 are indices indicating the position of the upper left pixel of the prediction block in the picture of the luminance signal, and merge_flag [x0] [y0] is the prediction block located at (x0, y0) in the picture It is a flag indicating whether or not merge mode.

次に、merge_flag[x0][y0]が1の場合、マージモードであることを示し、参照するマージ候補のリストであるマージリストのインデックスのシンタックス要素merge_idx[x0][y0]が設置される。ここで、x0、y0はピクチャ内での予測ブロックの左上の画素の位置を示すインデックスであり、merge_idx[x0][y0]はピクチャ内の(x0, y0)に位置する予測ブロックのマージインデックスである。図12はマージインデックスのシンタックス要素merge_idx[x0][y0]のエントロピー符号の一例である。本発明の本実施の形態においてはマージの候補数を5と設定する。マージインデックスが0, 1, 2, 3, 4の時、マージインデックスのシンタックス要素merge_idx[x0][y0]の符号はそれぞれ'0'、'10'、'110'、'1110'、'1111'となる。   Next, when merge_flag [x0] [y0] is 1, it indicates merge mode, and a merge list index syntax element merge_idx [x0] [y0] is set, which is a list of merge candidates to be referred to. . Here, x0 and y0 are indices indicating the position of the upper left pixel of the prediction block in the picture, and merge_idx [x0] [y0] is the merge index of the prediction block located at (x0, y0) in the picture. is there. FIG. 12 shows an example of the entropy code of the merge index syntax element merge_idx [x0] [y0]. In the present embodiment of the present invention, the number of merge candidates is set to five. When the merge index is 0, 1, 2, 3, 4, the signs of the merge index syntax elements merge_idx [x0] [y0] are “0”, “10”, “110”, “1110”, and “1111”, respectively. 'Become.

一方、merge_flag[x0][y0]が0の場合、マージモードでないことを示し、スライスタイプがBスライスの場合、インター予測モードを識別するシンタックス要素inter_pred_flag[x0][y0]が設置され、このシンタックス要素でL0予測(Pred_L0)、L1予測(Pred_L1)、双予測(Pred_BI)を識別する。L0、L1ごとに、参照ピクチャを特定するための参照インデックスのシンタックス要素ref_idx_l0[x0][y0]、ref_idx_l1[x0][y0]、動きベクトル検出にて求められた予測ブロックの動きベクトルと予測動きベクトルとの差分である差分動きベクトルのシンタックス要素mvd_l0[x0][y0][j]、mvd_l1[x0][y0][j]が設置される。ここで、x0、y0はピクチャ内での予測ブロックの左上の画素の位置を示すインデックスであり、ref_idx_l0[x0][y0]、mvd_l0[x0][y0][j]はそれぞれピクチャ内の(x0, y0)に位置する予測ブロックのL0の参照インデックス、及び差分動きベクトルであり、ref_idx_l1[x0][y0]、mvd_l1[x0][y0][j]はそれぞれピクチャ内の(x0, y0)に位置する予測ブロックのL1の参照インデックス、及び差分動きベクトルである。また、jは差分動きベクトルの成分を表し、jが0はx成分を、jが1はy成分を表す。次に、参照する予測動きベクトルの候補のリストである予測動きベクトルリストのインデックスのシンタックス要素mvp_idx_l0[x0][y0]、mvp_idx_l1[x0][y0]が設置される。ここで、x0、y0はピクチャ内での予測ブロックの左上の画素の位置を示すインデックスであり、mvp_idx_l0[x0][y0]、mvp_idx_l1[x0][y0]はピクチャ内の(x0, y0)に位置する予測ブロックのL0、L1の予測動きベクトルインデックスである。本発明の本実施の形態においてはこれらの候補数の値を2と設定する。   On the other hand, when merge_flag [x0] [y0] is 0, it indicates that the mode is not merge mode. When the slice type is B slice, a syntax element inter_pred_flag [x0] [y0] for identifying the inter prediction mode is installed. The syntax element identifies L0 prediction (Pred_L0), L1 prediction (Pred_L1), and bi-prediction (Pred_BI). For each of L0 and L1, syntax elements ref_idx_l0 [x0] [y0] and ref_idx_l1 [x0] [y0] of the reference index for specifying the reference picture, the motion vector and prediction of the prediction block obtained by motion vector detection The differential motion vector syntax elements mvd_l0 [x0] [y0] [j] and mvd_l1 [x0] [y0] [j], which are the differences from the motion vector, are provided. Here, x0 and y0 are indexes indicating the position of the upper left pixel of the prediction block in the picture, and ref_idx_l0 [x0] [y0] and mvd_l0 [x0] [y0] [j] are respectively (x0 , y0) is the reference index of L0 of the prediction block and the differential motion vector, and ref_idx_l1 [x0] [y0] and mvd_l1 [x0] [y0] [j] are respectively (x0, y0) in the picture It is the reference index of L1 of the prediction block located, and a difference motion vector. Further, j represents a differential motion vector component, j represents 0 as an x component, and j represents 1 as a y component. Next, syntax elements mvp_idx_l0 [x0] [y0] and mvp_idx_l1 [x0] [y0] of an index of a predicted motion vector list that is a list of predicted motion vector candidates to be referred to are set. Here, x0 and y0 are indices indicating the position of the upper left pixel of the prediction block in the picture, and mvp_idx_l0 [x0] [y0] and mvp_idx_l1 [x0] [y0] are in (x0, y0) in the picture It is the prediction motion vector index of L0 and L1 of the prediction block located. In the present embodiment of the present invention, the value of the number of candidates is set to 2.

実施の形態に係るインター予測情報導出方法は、図1の動画像符号化装置のインター予測情報導出部104及び図2の動画像復号装置のインター予測情報導出部205において実施される。   The inter prediction information deriving method according to the embodiment is implemented in the inter prediction information deriving unit 104 of the video encoding device in FIG. 1 and the inter prediction information deriving unit 205 of the video decoding device in FIG.

次に、実施の形態に係るインター予測情報導出方法を図面を用いて説明する。インター予測情報導出方法は、符号化ブロックを構成する予測ブロック単位に、符号化及び復号の処理の何れでも実施される。予測ブロックの予測モードPredModeがインター予測(MODE_INTER)で、マージモードの場合に、符号化の場合、符号化済みの予測ブロックの予測モード、参照インデックス、動きベクトルを利用して符号化対象の予測ブロックの予測モード、参照インデックス、動きベクトルを導出する際、復号の場合、復号済みの予測ブロックの予測モード、参照インデックス、動きベクトルを利用して復号対象の予測ブロックの予測モード、参照インデックス、動きベクトルを導出する際に実施される。   Next, the inter prediction information derivation method according to the embodiment will be described with reference to the drawings. The inter prediction information derivation method is performed in any of encoding and decoding processes for each prediction block constituting the encoding block. When the prediction mode PredMode of the prediction block is inter prediction (MODE_INTER) and in the merge mode, in the case of encoding, the prediction block to be encoded using the prediction mode, reference index, and motion vector of the encoded prediction block When the prediction mode, the reference index, and the motion vector are derived, in the case of decoding, the prediction mode, the reference index, and the motion vector of the prediction block to be decoded using the prediction mode, the reference index, and the motion vector of the decoded prediction block It is carried out when deriving.

マージモードは図5、図6、図7及び図8を用いて説明した左に近接する予測ブロックA、上に近接する予測ブロックB、右上に近接する予測ブロックC、左下に近接する予測ブロックD、左上に近接する予測ブロックEの5つの予測ブロックに加えて、図9を用いて説明した異なる時間の同一位置あるいはその付近に存在する予測ブロックCol(T0、T1のいずれか)の予測ブロックからマージ候補を導出する。動画像符号化装置のインター予測情報導出部104、及び動画像復号装置のインター予測情報導出部205はそれらのマージ候補を符号化側と復号側で共通の規定の順序でマージ候補リストに登録し、動画像符号化装置のインター予測情報導出部104がマージ候補リストの要素を特定するマージインデックスを決定して第1の符号化ビット列生成部を経由して符号化し、動画像復号装置のインター予測情報導出部205は第1符号化ビット列復号部202で復号されたマージインデックスが供給されて、そのマージインデックスに応じた予測ブロックをマージ候補リストから選択し、その選択されたマージ候補の予測モード、参照インデックス、動きベクトル等のインター予測情報を用いて、動き補償予測を行う。   The merge mode is the prediction block A that is close to the left, the prediction block B that is close to the top, the prediction block C that is close to the top right, and the prediction block D that is close to the bottom left described with reference to FIGS. 5, 6, 7, and 8. In addition to the five prediction blocks of the prediction block E adjacent to the upper left, from the prediction block Col (either T0 or T1) existing at or near the same position at different times described with reference to FIG. Derive merge candidates. The inter prediction information deriving unit 104 of the moving image encoding device and the inter prediction information deriving unit 205 of the moving image decoding device register these merge candidates in the merge candidate list in a common order on the encoding side and the decoding side. The inter prediction information deriving unit 104 of the video encoding device determines a merge index for specifying an element of the merge candidate list, encodes it via the first encoded bit string generation unit, and performs inter prediction of the video decoding device. The information deriving unit 205 is supplied with the merge index decoded by the first encoded bit string decoding unit 202, selects a prediction block corresponding to the merge index from the merge candidate list, and selects the prediction mode of the selected merge candidate, Motion compensation prediction is performed using inter prediction information such as a reference index and a motion vector.

図13は、図1の動画像符号化装置のインター予測情報導出部104の詳細な構成を示す図である。また、図14は、図2の動画像復号装置のインター予測情報導出部205の詳細な構成を示す図である。   FIG. 13 is a diagram illustrating a detailed configuration of the inter prediction information deriving unit 104 of the video encoding device in FIG. FIG. 14 is a diagram illustrating a detailed configuration of the inter prediction information deriving unit 205 of the video decoding device in FIG.

図13及び図14の太枠線で囲まれる部分はそれぞれ、動画像符号化装置のインター予測情報導出部104及び動画像復号装置のインター予測情報導出部205を示している。   13 and FIG. 14 indicate the inter prediction information deriving unit 104 of the moving picture coding apparatus and the inter prediction information deriving unit 205 of the moving picture decoding apparatus, respectively.

更に、それらの内部の太点線で囲まれる部分はそれぞれのマージ候補を導出してマージ候補リストを構築する動画像符号化装置のマージ候補リストの構築部120及び動画像復号装置のマージ候補リストの構築部220を示しており、実施の形態の動画像符号化装置と対応する動画像復号装置にも同様に設置され、符号化と復号で矛盾しない同一の導出結果を得られるようにしている。   Furthermore, the portions surrounded by the thick dotted lines inside them are the merge candidate list construction unit 120 of the moving picture coding apparatus that derives the respective merge candidates and constructs the merge candidate list, and the merge candidate list of the moving picture decoding apparatus. A construction unit 220 is shown, which is similarly installed in a moving picture decoding apparatus corresponding to the moving picture encoding apparatus of the embodiment, so that the same derivation result consistent with encoding and decoding can be obtained.

実施の形態に係るインター予測情報導出方法においては、動画像符号化装置のマージ候補リストの構築部120及び動画像復号装置のマージ候補リストの構築部220でのマージ候補導出及びマージ候補リスト構築処理において、処理対象となる予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる予測ブロックを参照せずに、処理対象の予測ブロックのマージ候補導出及びマージ候補リスト構築処理を行うものとする。この様にすることで、符号化ブロックの分割モード(PartMode)が、2N×2N分割(PART_2Nx2N)でない場合、すなわち、符号化ブロック内に複数の予測ブロックが存在する場合に、符号化側で符号化ブロック内でそれぞれの予測ブロックのマージ候補導出及びマージ候補リストの構築処理を並列に処理することが可能となる。   In the inter prediction information derivation method according to the embodiment, merge candidate derivation and merge candidate list construction processing in the merge candidate list construction unit 120 of the video encoding device and the merge candidate list construction unit 220 of the video decoding device , Merging candidate derivation and merge candidate list construction processing of the prediction block to be processed are performed without referring to a prediction block included in the same encoding block as the encoding block including the prediction block to be processed. In this way, when the coding block division mode (PartMode) is not 2N × 2N division (PART_2Nx2N), that is, when there are a plurality of prediction blocks in the coding block, the coding side performs coding. The merge candidate derivation of each prediction block and the merge candidate list construction process can be performed in parallel in the conversion block.

符号化ブロック内でのそれぞれの予測ブロックのマージ候補リストの構築の並列処理について、図15を用いて分割モード(PartMode)毎に説明する。図15は処理対象の符号化ブロックの分割モード(PartMode)毎に処理対象の予測ブロックに近接する予測ブロックを説明する図である。図15において、A0、B0、C0、D0、E0は分割インデックスPartIdxが0の処理対象の予測ブロックのそれぞれ左側の辺に近接する予測ブロックA、上側の辺に近接する予測ブロックB、右上の頂点に近接する予測ブロックC、左下の頂点に近接する予測ブロックD、および左上の頂点に近接する予測ブロックEを示し、A1、B1、C1、D1、E1は分割インデックスPartIdxが1の処理対象の予測ブロックのそれぞれ左側の辺に近接する予測ブロックA、上側の辺に近接する予測ブロックB、右上の頂点に近接する予測ブロックC、左下の頂点に近接する予測ブロックD、および左上の頂点に近接する予測ブロックEを示し、A2、B2、C2、D2、E2は分割インデックスPartIdxが2の処理対象の予測ブロックのそれぞれ左側の辺に近接する予測ブロックA、上側の辺に近接する予測ブロックB、右上の頂点に近接する予測ブロックC、左下の頂点に近接する予測ブロックD、および左上の頂点に近接する予測ブロックEを示し、A3、B3、C3、D3、E3は分割インデックスPartIdxが3の処理対象の予測ブロックのそれぞれ左側の辺に近接する予測ブロックA、上側の辺に近接する予測ブロックB、右上の頂点に近接する予測ブロックC、左下の頂点に近接する予測ブロックD、および左上の頂点に近接する予測ブロックEを示す。   The parallel processing for constructing the merge candidate list of each prediction block in the coding block will be described for each partition mode (PartMode) with reference to FIG. FIG. 15 is a diagram illustrating a prediction block that is close to a processing target prediction block for each division mode (PartMode) of the processing target coding block. In FIG. 15, A0, B0, C0, D0, and E0 are a prediction block A that is close to the left side of the prediction block to be processed whose partition index PartIdx is 0, a prediction block B that is close to the upper side, and a vertex at the upper right. A prediction block C that is close to, a prediction block D that is close to the lower left vertex, and a prediction block E that is close to the upper left vertex are shown, and A1, B1, C1, D1, and E1 are predictions of processing targets with a partition index PartIdx of 1 Prediction block A near the left side of each block, prediction block B near the top side, prediction block C near the top right vertex, prediction block D near the bottom left vertex, and top left vertex Indicates the prediction block E, and A2, B2, C2, D2, and E2 are the left sides of the prediction blocks to be processed whose partition index PartIdx is 2, respectively. A prediction block A that is close, a prediction block B that is close to the upper side, a prediction block C that is close to the top right vertex, a prediction block D that is close to the bottom left vertex, and a prediction block E that is close to the top left vertex are shown as A3 , B3, C3, D3, and E3 are a prediction block A that is close to the left side of the prediction block to be processed whose partition index PartIdx is 3, a prediction block B that is close to the upper side, and a prediction block that is close to the top right vertex. C, a prediction block D close to the lower left vertex, and a prediction block E close to the upper left vertex.

図15(b)、(c)、(d)は処理対象の符号化ブロックを上下に並ぶ2つの予測ブロックに分割する分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)での近接する予測ブロックを示す図である。PartIdxが1の処理対象の予測ブロックに近接する予測ブロックB1はPartIdxが0の予測ブロックである。したがって、予測ブロックB1を参照して、PartIdxが1の予測ブロックのマージ候補導出及びマージ候補リスト構築処理を行うには、予測ブロックB1である同じ符号化ブロックに属するPartIdxが0の予測ブロックのマージ候補導出及びマージ候補リスト構築処理が完了し、利用するマージ候補を特定した後でないと、処理を行うことができない。したがって、実施の形態に係るインター予測情報導出方法においては、分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)で、処理対象の予測ブロックのPartIdxが1では、処理対象の予測ブロックの上辺に近接し、処理対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれるPartIdxが0の予測ブロックである予測ブロックB1の符号化情報を参照せずに、処理対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれない予測ブロックA1、C1、D1またはE1の符号化情報を参照してPartIdxが1の予測ブロックのマージ候補導出及びマージ候補リストの構築処理を行うことにより、符号化ブロック内の2つの予測ブロックのマージ候補導出及びマージ候補リストの構築処理を並列に処理することが可能となる。   FIGS. 15B, 15C, and 15D show that the partition mode (PartMode) for dividing the encoded block to be processed into two prediction blocks arranged vertically is 2N × N partition (PART_2NxN), 2N × nU partition ( It is a figure which shows the prediction block which adjoins in PART_2NxnU) and 2NxnD division | segmentation (PART_2NxnD). A prediction block B1 close to a processing target prediction block with PartIdx of 1 is a prediction block with PartIdx of 0. Therefore, with reference to the prediction block B1, in order to perform merge candidate derivation and merge candidate list construction processing for a prediction block with PartIdx of 1, merging prediction blocks with a PartIdx of 0 belonging to the same coding block as the prediction block B1 The processing cannot be performed unless the candidate derivation and merge candidate list construction processing is completed and the merge candidates to be used are specified. Therefore, in the inter prediction information derivation method according to the embodiment, the partition mode (PartMode) is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD), and the prediction of the processing target When the block's PartIdx is 1, the encoding of the prediction block B1 that is close to the upper side of the processing target prediction block and included in the same coding block as the coding block including the processing target prediction block is a prediction block having a PartIdx of 0 Without referring to the information, with reference to the encoding information of the prediction block A1, C1, D1, or E1 that is not included in the same encoding block as the encoding block including the prediction block to be processed, the prediction block of PartIdx = 1 By performing merge candidate derivation and merge candidate list construction processing, merge candidate derivation and merge candidate of two prediction blocks in the encoded block Complementary list construction processing can be processed in parallel.

図15(e)、(f)、(g)は処理対象の符号化ブロックを左右に並ぶ2つの予測ブロックに分割するモードを示す分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)での近接する予測ブロックを示す図である。PartIdxが1の処理対象の予測ブロックに近接する予測ブロックA1はPartIdxが0の予測ブロックである。したがって、予測ブロックA1を参照して、PartIdxが1の予測ブロックのマージ候補導出及びマージ候補リスト構築処理を行うには、予測ブロックA1である同じ符号化ブロックに属するPartIdxが0の予測ブロックのマージ候補導出及びマージ候補リスト構築処理が完了し、利用するマージ候補を特定した後でないと、処理を行うことができない。したがって、実施の形態に係るインター予測情報導出方法においては、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)で、処理対象の予測ブロックのPartIdxが1では、処理対象の予測ブロックの左辺に近接し、処理対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれるPartIdxが0の予測ブロックである予測ブロックA1の符号化情報を参照せずに、処理対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれない予測ブロックB1、C1、D1またはE1の符号化情報を参照してPartIdxが1の予測ブロックのマージ候補導出及びマージ候補リストの構築処理を行うことにより、符号化ブロック内のそれぞれの予測ブロックのマージ候補導出及びマージ候補リストの構築処理を並列に処理することが可能となる。   15 (e), (f), and (g) show that the division mode (PartMode) indicating the mode for dividing the coding block to be processed into two prediction blocks arranged side by side is N × 2N division (PART_Nx2N), nL × It is a figure which shows the prediction block which adjoins by 2N division | segmentation (PART_nLx2N) and nRx2N division | segmentation (PART_nRx2N). A prediction block A1 adjacent to a processing target prediction block with PartIdx of 1 is a prediction block with PartIdx of 0. Therefore, with reference to the prediction block A1, in order to perform merge candidate derivation and merge candidate list construction processing for a prediction block with PartIdx of 1, the merge of prediction blocks with PartIdx of 0 belonging to the same coding block that is the prediction block A1 The processing cannot be performed unless the candidate derivation and merge candidate list construction processing is completed and the merge candidates to be used are specified. Therefore, in the inter prediction information derivation method according to the embodiment, the partition mode (PartMode) is N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), and nR × 2N partition (PART_nRx2N), When the block's PartIdx is 1, the encoding of the prediction block A1 is a prediction block that is close to the left side of the processing target prediction block and is included in the same encoding block as the encoding block including the processing target prediction block. Without referring to the information, the encoding information of the prediction block B1, C1, D1, or E1 that is not included in the same encoding block as the encoding block including the prediction block to be processed is referred to and the prediction block of PartIdx is 1 By performing merge candidate derivation and merge candidate list construction processing, merge candidate derivation and marching of each prediction block in the encoded block are performed. The candidate list construction process can be processed in parallel.

ここで、マージ候補導出及びマージ候補リストの構築処理の並列処理について説明する。図16は順次処理によるマージ候補導出及びマージ候補リストの構築処理を説明するフローチャートであり、図17は並列処理によるマージ候補導出及びマージ候補リストの構築処理を説明するフローチャートである。   Here, parallel processing of merge candidate derivation and merge candidate list construction processing will be described. FIG. 16 is a flowchart for explaining merge candidate derivation and merge candidate list construction processing by sequential processing, and FIG. 17 is a flowchart for explaining merge candidate derivation and merge candidate list construction processing by parallel processing.

図16に示すマージ候補導出及びマージ候補リストの構築処理の順次処理において、処理対象となる符号化ブロックの分割インデックスPartIdxが0の予測ブロックのマージ候補の導出、及びマージ候補リストを構築する(ステップS101)。続いて、分割モード(PartMode)が2N×2N分割(PART_2Nx2N)である場合(ステップS102のNO)、本マージ候補導出及びマージ候補リストの構築処理を終了する。分割モード(PartMode)が2N×2N分割(PART_2Nx2N)でない場合(ステップS102のNO)、すなわち、分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)、N×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)の場合、処理対象となる符号化ブロックの分割インデックスPartIdxが1の予測ブロックのマージ候補の導出、及びマージ候補リストを構築し(ステップS103)、本マージ候補導出及びマージ候補リストの構築処理を終了する。   In the sequential processing of merge candidate derivation and merge candidate list construction processing shown in FIG. 16, derivation of merge candidates of a prediction block whose partition index PartIdx of a coding block to be processed is 0 and construction of a merge candidate list (steps) S101). Subsequently, when the division mode (PartMode) is 2N × 2N division (PART_2Nx2N) (NO in step S102), the merge candidate derivation and merge candidate list construction processing are terminated. When the partition mode (PartMode) is not 2N × 2N partition (PART_2Nx2N) (NO in step S102), that is, the partition mode (PartMode) is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD), N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), nR × 2N partition (PART_nRx2N) The derivation and merge candidate list is constructed (step S103), and the merge candidate derivation and merge candidate list construction process ends.

図17に示すマージ候補導出及びマージ候補リストの構築処理の並列処理において、処理対象となる符号化ブロックの分割インデックスPartIdxが0の予測ブロックのマージ候補の導出、及びマージ候補リストを構築する(ステップS101)。ステップS101と並行して、分割モード(PartMode)が2N×2N分割(PART_2Nx2N)でない場合(ステップS102のNO)、すなわち、分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)、N×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)の場合、処理対象となる符号化ブロックの分割インデックスPartIdxが1の予測ブロックのマージ候補の導出、及びマージ候補リストを構築する(ステップS103)。   In the parallel processing of merge candidate derivation and merge candidate list construction processing shown in FIG. 17, the merge candidate derivation of the prediction block whose partition index PartIdx of the coding block to be processed is 0 and the merge candidate list are constructed (step) S101). In parallel with step S101, when the partition mode (PartMode) is not 2N × 2N partition (PART_2Nx2N) (NO in step S102), that is, the partition mode (PartMode) is 2N × N partition (PART_2NxN), 2N × nU partition ( In the case of PART_2NxnU), 2N × nD partition (PART_2NxnD), N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), nR × 2N partition (PART_nRx2N), the partition index PartIdx of the processing target coding block is 1 Derivation of merge candidates for the prediction block and a merge candidate list are constructed (step S103).

図17に示すマージ候補導出及びマージ候補リストの構築処理の並列処理においては、分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)、N×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)またはnR×2N分割(PART_nRx2N)の場合、同一符号化ブロック内のPartIdxが0の予測ブロックを参照せずに、PartIdxが1の予測ブロックのマージ候補導出及びマージ候補リストの構築処理を行うことにより、分割インデックスPartIdxが0と1の2つの予測ブロックのマージ候補導出及びマージ候補リストの構築処理を同時に開始することが可能となる。   In the parallel processing of merge candidate derivation and merge candidate list construction processing shown in FIG. 17, the partition mode (PartMode) is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD), For N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), or nR × 2N partition (PART_nRx2N), a prediction block with PartIdx equal to 1 without referring to a prediction block with PartIdx of 0 in the same encoded block By performing the merge candidate derivation and merge candidate list construction processing, it is possible to simultaneously start merge candidate derivation and merge candidate list construction processing of two prediction blocks whose partition indexes PartIdx are 0 and 1.

図16に示すマージ候補導出及びマージ候補リストの構築処理の順次処理においても、PartIdxが0の予測ブロックを参照せずに、PartIdxが1の予測ブロックのマージ候補導出及びマージ候補リストの構築処理を行うことが可能である。   In the sequential processing of merge candidate derivation and merge candidate list construction processing shown in FIG. 16, merge candidate derivation and merge candidate list construction processing for a prediction block with PartIdx of 1 are performed without referring to a prediction block with PartIdx of 0. Is possible.

また、本実施の形態においては、分割モード(PartMode)がN×N分割(PART_NxN)を定義しないものとしているが、N×N分割(PART_NxN)を定義することもできる。図15(h)は処理対象の符号化ブロックの輝度信号を上下左右に4分割して4つの予測ブロックとした分割モード(PartMode)がN×N分割(PART_NxN)での近接する予測ブロックを示す図である。PartIdxが1の処理対象の予測ブロックに近接する予測ブロックA1はPartIdxが0の予測ブロックである。したがって、予測ブロックA1を参照してPartIdxが1の予測ブロックのマージ候補導出及びマージ候補リスト構築処理を行うには、予測ブロックA1である同じ符号化ブロックに属するPartIdxが0の予測ブロックのマージ候補導出及びマージ候補リスト構築処理が完了し、利用するマージ候補を特定した後でないと、処理を行うことができない。したがって、実施の形態に係るインター予測情報導出方法においては、分割モード(PartMode)がN×N分割(PART_NxN)で、処理対象の予測ブロックのPartIdxが1では、PartIdxが0の予測ブロックである予測ブロックA1を参照せずに、PartIdxが1の予測ブロックのマージ候補導出及びマージ候補リストの構築処理を行うことにより、符号化ブロック内のそれぞれの予測ブロックのマージ候補導出及びマージ候補リストの構築処理を並列に処理することが可能となる。PartIdxが2の処理対象の予測ブロックに近接する予測ブロックB2はPartIdxが0の予測ブロックであり、予測ブロックC2はPartIdxが1の予測ブロックである。したがって、予測ブロックB2及びC2を参照してPartIdxが2の予測ブロックのマージ候補導出及びマージ候補リスト構築処理を行うには、予測ブロックB2及びC2である同じ符号化ブロックに属するPartIdxが0及び1の予測ブロックのマージ候補導出及びマージ候補リスト構築処理が完了し、利用するマージ候補を特定した後でないと、処理を行うことができない。したがって、実施の形態に係るインター予測情報導出方法においては、分割モード(PartMode)がN×N分割(PART_NxN)で、処理対象の予測ブロックのPartIdxが2では、PartIdxが0及び1の予測ブロックである予測ブロックB2及びC2を参照せずに、PartIdxが2の予測ブロックのマージ候補導出及びマージ候補リストの構築処理を行うことにより、符号化ブロック内のそれぞれの予測ブロックのマージ候補導出及びマージ候補リストの構築処理を並列に処理することが可能となる。PartIdxが3の処理対象の予測ブロックに近接する予測ブロックE3はPartIdxが0の予測ブロックであり、予測ブロックB3はPartIdxが1の予測ブロックであり、予測ブロックA3はPartIdxが2の予測ブロックである。したがって、予測ブロックE3、B3及びA3を参照してPartIdxが3の予測ブロックのマージ候補導出及びマージ候補リスト構築処理を行うには、予測ブロックE3、B3及びA3である同じ符号化ブロックに属するPartIdxが0、1及び2の予測ブロックのマージ候補導出及びマージ候補リスト構築処理が完了し、利用するマージ候補を特定した後でないと、処理を行うことができない。したがって、実施の形態に係るインター予測情報導出方法においては、分割モード(PartMode)がN×N分割(PART_NxN)で、処理対象の予測ブロックのPartIdxが3では、PartIdxが0、1及び2の予測ブロックである予測ブロックE3、B3及びA3を参照せずに、PartIdxが3の予測ブロックのマージ候補導出及びマージ候補リストの構築処理を行うことにより、符号化ブロック内のそれぞれの予測ブロックのマージ候補導出及びマージ候補リストの構築処理を並列に処理することが可能となる。   In this embodiment, the division mode (PartMode) does not define N × N division (PART_NxN), but N × N division (PART_NxN) can also be defined. FIG. 15 (h) shows adjacent prediction blocks in which the division mode (PartMode) is divided into four prediction blocks by dividing the luminance signal of the coding block to be processed into four prediction blocks in the vertical and horizontal directions, and in N × N division (PART_NxN). FIG. A prediction block A1 adjacent to a processing target prediction block with PartIdx of 1 is a prediction block with PartIdx of 0. Therefore, in order to perform merge candidate derivation and merge candidate list construction processing for a prediction block with PartIdx of 1 with reference to the prediction block A1, merge candidates of prediction blocks with PartIdx of 0 belonging to the same coding block that is the prediction block A1. The process cannot be performed unless the derivation and merge candidate list construction process is completed and the merge candidates to be used are specified. Therefore, in the inter prediction information derivation method according to the embodiment, the prediction mode is a prediction block in which the partition mode (PartMode) is N × N partition (PART_NxN), the processing target prediction block PartIdx is 1, and PartIdx is 0 The merge candidate derivation and merge candidate list construction processing for each prediction block in the encoded block by performing merge candidate derivation and merge candidate list construction processing for a prediction block whose PartIdx is 1 without referring to the block A1 Can be processed in parallel. A prediction block B2 adjacent to a processing target prediction block with PartIdx of 2 is a prediction block with PartIdx of 0, and a prediction block C2 is a prediction block of PartIdx with 1. Therefore, in order to perform merge candidate derivation and merge candidate list construction processing for a prediction block whose PartIdx is 2 with reference to the prediction blocks B2 and C2, the PartIdx belonging to the same coding block that is the prediction blocks B2 and C2 is 0 and 1 After the prediction block merge candidate derivation and merge candidate list construction processing are completed and the merge candidates to be used are specified, the processing cannot be performed. Therefore, in the inter prediction information deriving method according to the embodiment, the partition mode (PartMode) is N × N partition (PART_NxN), the prediction block to be processed is PartIdx of 2, and the partIdx is 0 and 1 prediction blocks. By performing merge candidate derivation of a prediction block with PartIdx of 2 and construction of a merge candidate list without referring to certain prediction blocks B2 and C2, merge candidate derivation and merge candidate of each prediction block in the encoded block are performed. The list construction process can be processed in parallel. The prediction block E3 that is close to the processing target prediction block whose PartIdx is 3 is a prediction block whose PartIdx is 0, the prediction block B3 is a prediction block whose PartIdx is 1, and the prediction block A3 is a prediction block whose PartIdx is 2. . Accordingly, in order to perform merge candidate derivation and merge candidate list construction processing for a prediction block with PartIdx of 3 with reference to the prediction blocks E3, B3, and A3, PartIdx belonging to the same encoded block that is the prediction blocks E3, B3, and A3 If the merge candidate derivation and merge candidate list construction process for the prediction blocks of 0, 1, and 2 are completed and the merge candidates to be used are specified, the process cannot be performed. Therefore, in the inter prediction information derivation method according to the embodiment, when the partition mode (PartMode) is N × N partition (PART_NxN), and the PartIdx of the prediction block to be processed is 3, the prediction of PartIdx is 0, 1 and 2 By performing the merge candidate derivation of the prediction block with PartIdx of 3 and the construction of the merge candidate list without referring to the prediction blocks E3, B3, and A3 that are blocks, the merge candidate of each prediction block in the encoded block The derivation and merge candidate list construction processes can be processed in parallel.

図13の動画像符号化装置のインター予測情報導出部104は、空間マージ候補生成部130、時間マージ候補の参照インデックス導出部131、時間マージ候補生成部132、マージ候補登録部133、マージ候補同一判定部134、マージ候補補充部135、および符号化情報選択部136を含む。   The inter prediction information deriving unit 104 of the video encoding device in FIG. 13 includes a spatial merge candidate generation unit 130, a temporal merge candidate reference index deriving unit 131, a temporal merge candidate generation unit 132, a merge candidate registration unit 133, and the same merge candidate. A determination unit 134, a merge candidate supplement unit 135, and an encoding information selection unit 136 are included.

図14の動画像復号装置のインター予測情報導出部205は、空間マージ候補生成部230、時間マージ候補の参照インデックス導出部231、時間マージ候補生成部232、マージ候補登録部233、マージ候補同一判定部234、マージ候補補充部235、および符号化情報選択部236を含む。   The inter prediction information deriving unit 205 of the video decoding device in FIG. 14 includes a spatial merge candidate generation unit 230, a temporal merge candidate reference index deriving unit 231, a temporal merge candidate generation unit 232, a merge candidate registration unit 233, and a merge candidate identical determination. Section 234, merge candidate supplement section 235, and encoding information selection section 236.

図18は本発明の実施の形態による動画像符号化装置のインター予測情報導出部104及び動画像復号装置のインター予測情報導出部205とで共通する機能を有するマージ候補の導出処理及びマージ候補リストの構築処理の手順を説明するフローチャートである。以下、諸過程を順を追って説明する。なお、以下の説明においては特に断りのない限りスライスタイプslice_typeがBスライスの場合について説明するが、Pスライスの場合にも適用できる。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   FIG. 18 is a merge candidate derivation process and a merge candidate list having functions common to the inter prediction information deriving unit 104 of the video encoding device and the inter prediction information deriving unit 205 of the video decoding device according to the embodiment of the present invention. It is a flowchart explaining the procedure of this construction process. Hereinafter, the processes will be described in order. In the following description, a case where the slice type slice_type is a B slice will be described unless otherwise specified, but the present invention can also be applied to a P slice. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

動画像符号化装置のインター予測情報導出部104の空間マージ候補生成部130及び動画像復号装置のインター予測情報導出部205の空間マージ候補生成部230では、符号化または復号対象ブロックに近接するそれぞれの予測ブロックA,B,C,D,Eからの空間マージ候補A,B,C,D,Eを導出し、出力する。ここで、A,B,C,D,Eまたは時間マージ候補Colのいずれかを示すNを定義する。予測ブロックNのインター予測情報が空間マージ候補Nとして利用できるかどうかを示すフラグavailableFlagN、空間マージ候補NのL0の参照インデックスrefIdxL0N及びL1の参照インデックスrefIdxL1N、L0予測が行われるかどうかを示すL0予測フラグpredFlagL0NおよびL1予測が行われるかどうかを示すL1予測フラグpredFlagL1N、L0の動きベクトルmvL0N、L1の動きベクトルmvL1Nを出力する(ステップS201)。ただし、本実施の形態においては処理対象となる予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる予測ブロックを参照せずに、マージ候補を導出するので、処理対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる空間マージ候補は導出しない。ステップS201の詳細な処理手順については図19のフローチャートを用いて後ほど詳細に説明する。   In the spatial merge candidate generation unit 130 of the inter prediction information deriving unit 104 of the moving image encoding device and the spatial merge candidate generation unit 230 of the inter prediction information deriving unit 205 of the moving image decoding device, each of them close to the encoding or decoding target block. Spatial merge candidates A, B, C, D, E from the prediction blocks A, B, C, D, E are derived and output. Here, N indicating any one of A, B, C, D, E and the temporal merge candidate Col is defined. A flag availableFlagN indicating whether or not the inter prediction information of the prediction block N can be used as the spatial merge candidate N, the L0 reference index refIdxL0N and the L1 reference index refIdxL1N of the spatial merge candidate N, and the L0 prediction indicating whether or not L0 prediction is performed. The flag predFlagL0N and the L1 prediction flag predFlagL1N indicating whether or not the L1 prediction is performed, the L0 motion vector mvL0N, and the L1 motion vector mvL1N are output (step S201). However, in the present embodiment, the merge candidate is derived without referring to the prediction block included in the same encoding block as the encoding block including the prediction block to be processed, so that the code including the prediction block to be processed Spatial merge candidates included in the same coding block as the coding block are not derived. The detailed processing procedure of step S201 will be described later in detail using the flowchart of FIG.

続いて、動画像符号化装置のインター予測情報導出部104の時間マージ候補の参照インデックス導出部131及び動画像復号装置のインター予測情報導出部205の時間マージ候補の参照インデックス導出部231では、符号化または復号対象ブロックに近接する予測ブロックから時間マージ候補の参照インデックスを導出して出力する(ステップS202)。ただし、本実施の形態においては処理対象となる予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる予測ブロックを参照せずに、時間マージ候補の参照インデックスを導出する。スライスタイプslice_typeがPスライスで時間マージ候補のインター予測情報を用いてインター予測を行う場合は、L0予測(Pred_L0)を行うために、L0の参照インデックスだけを導出し、スライスタイプslice_typeがBスライスで時間マージ候補のインター予測情報を用いてインター予測を行う場合は、双予測(Pred_BI)を行うために、L0とL1のそれぞれの参照インデックスを導出する。ステップS202の詳細な処理手順については図21、図23、図25、図27、図29、図30、図32のフローチャートを用いて後ほど詳細に説明する。   Subsequently, the temporal merge candidate reference index deriving unit 131 of the inter prediction information deriving unit 104 of the video encoding device and the temporal merge candidate reference index deriving unit 231 of the inter prediction information deriving unit 205 of the video decoding device A reference index of a temporal merge candidate is derived and output from a prediction block adjacent to a block to be converted or decoded (step S202). However, in the present embodiment, the reference index of the temporal merge candidate is derived without referring to the prediction block included in the same encoded block as the encoded block including the prediction block to be processed. When the inter prediction is performed using the inter prediction information of the temporal merge candidate when the slice type slice_type is P slice, only the L0 reference index is derived in order to perform the L0 prediction (Pred_L0), and the slice type slice_type is the B slice. When performing inter prediction using inter prediction information of temporal merge candidates, in order to perform bi-prediction (Pred_BI), respective reference indexes of L0 and L1 are derived. The detailed processing procedure of step S202 will be described later in detail using the flowcharts of FIGS. 21, 23, 25, 27, 29, 30, and 32.

続いて、動画像符号化装置のインター予測情報導出部104の時間マージ候補生成部132及び動画像復号装置のインター予測情報導出部205の時間マージ候補生成部232では、異なる時間のピクチャからの時間マージ候補を導出し、時間マージ候補を出力する。時間マージ候補が利用できるかどうかを示すフラグavailableFlagCol、時間マージ候補のL0予測が行われるかどうかを示すL0予測フラグpredFlagL0ColおよびL1予測が行われるかどうかを示すL1予測フラグpredFlagL1Col、及びL0の動きベクトルmvL0N、L1の動きベクトルmvL1Nを出力する(ステップS203)。ステップS203の詳細な処理手順については図34のフローチャートを用いて後ほど詳細に説明する。   Subsequently, in the temporal merge candidate generating unit 132 of the inter prediction information deriving unit 104 of the video encoding device and the temporal merge candidate generating unit 232 of the inter prediction information deriving unit 205 of the video decoding device, time from pictures at different times A merge candidate is derived and a time merge candidate is output. A flag availableFlagCol indicating whether a temporal merge candidate is available, an L0 prediction flag predFlagL0Col indicating whether L0 prediction of the temporal merge candidate is performed, an L1 prediction flag predFlagL1Col indicating whether L1 prediction is performed, and a motion vector of L0 The motion vector mvL1N of mvL0N and L1 is output (step S203). The detailed processing procedure of step S203 will be described later in detail using the flowchart of FIG.

続いて、動画像符号化装置のインター予測情報導出部104のマージ候補登録部133及び動画像復号装置のインター予測情報導出部205のマージ候補登録部233では、マージ候補リストmergeCandListを作成し、マージ候補リストmergeCandListに空間マージ候補A,B,C,D,E,および時間マージ候補Colを追加することで、マージ候補リストmergeCandListを構築し、マージ候補リストmergeCandListを出力する(ステップS204)。ステップS204の詳細な処理手順については図41のフローチャートを用いて後ほど詳細に説明する。   Subsequently, the merge candidate registration unit 133 of the inter prediction information deriving unit 104 of the video encoding device and the merge candidate registration unit 233 of the inter prediction information deriving unit 205 of the video decoding device create a merge candidate list mergeCandList and merge The merge candidate list mergeCandList is constructed by adding the spatial merge candidates A, B, C, D, E and the temporal merge candidate Col to the candidate list mergeCandList, and the merge candidate list mergeCandList is output (step S204). The detailed processing procedure of step S204 will be described later in detail using the flowchart of FIG.

続いて、動画像符号化装置のインター予測情報導出部104のマージ候補同一判定部134及び動画像復号装置のインター予測情報導出部205のマージ候補同一判定部234では、マージ候補リストmergeCandList内で、マージ候補が同じ参照インデックスの動きベクトルが同じ値を持っている場合に、最も小さい順番のマージ候補を除いてそのマージ候補を取り除き、マージ候補リストmergeCandListを出力する(ステップS205)。   Subsequently, in the merge candidate identity determination unit 134 of the inter prediction information deriving unit 104 of the video encoding device and the merge candidate identity determination unit 234 of the inter prediction information deriving unit 205 of the video decoding device, in the merge candidate list mergeCandList, When the motion vectors of the same reference index have the same value as the merge candidate, the merge candidate is removed except for the merge candidate in the smallest order, and the merge candidate list mergeCandList is output (step S205).

続いて、動画像符号化装置のインター予測情報導出部104のマージ候補補充部135及び動画像復号装置のインター予測情報導出部205のマージ候補補充部235では、マージ候補リストmergeCandList内に登録されているマージ候補の数が規定数となるようにマージ候補を補充し、マージ候補リストmergeCandListを出力する(ステップS206)。なお、本実施の形態ではマージ候補の数を5と規定する。マージ候補リストmergeCandList内に登録されるマージ候補の数が5を上限として、すでに登録されているマージ候補同士のL0予測とL1予測の組み合わせを変更した予測モードが双予測(Pred_BI)のマージ候補や異なる参照インデックスで動きベクトルが(0,0)の値を持つ予測モードが双予測(Pred_BI)のマージ候補を追加する。   Subsequently, the merge candidate supplementing unit 135 of the inter prediction information deriving unit 104 of the video encoding device and the merge candidate supplementing unit 235 of the inter prediction information deriving unit 205 of the video decoding device are registered in the merge candidate list mergeCandList. The merge candidates are supplemented so that the number of merge candidates that are present becomes the specified number, and the merge candidate list mergeCandList is output (step S206). In the present embodiment, the number of merge candidates is defined as five. The merge candidate list mergeCandList has a maximum number of merge candidates up to five, and the prediction mode in which the combination of L0 prediction and L1 prediction between already registered merge candidates is changed is a bi-prediction (Pred_BI) merge candidate or A merge candidate having a prediction mode having a value of (0, 0) at a different reference index and biprediction (Pred_BI) is added.

次に、図18のステップS201の処理手順である符号化または復号対象ブロックに近接する予測ブロックNからのマージ候補Nの導出方法について詳細に説明する。図19は図18のステップS201の空間マージ候補導出処理手順を説明するフローチャートである。
Nには近接する予測ブロックの領域を表すA(左側)、B(上側)、C(右上)、D(左下)またはE(左上)が入る。なお、本実施の形態においては、近接する5つの予測ブロックから最大4つの空間マージ候補を導出する。
Next, a method for deriving the merge candidate N from the prediction block N adjacent to the encoding or decoding target block, which is the processing procedure of step S201 in FIG. 18, will be described in detail. FIG. 19 is a flowchart for describing the spatial merge candidate derivation processing procedure in step S201 of FIG.
In N, A (left side), B (upper side), C (upper right), D (lower left), or E (upper left) representing the region of the adjacent prediction block is entered. In this embodiment, a maximum of four spatial merge candidates are derived from five adjacent prediction blocks.

図18で、変数NをAとして符号化または復号対象の予測ブロックの左側に近接する予測ブロックAの符号化情報を調べてマージ候補Aを導出し、変数NをBとして上側に近接する予測ブロックBの符号化情報を調べてマージ候補Bを導出し、変数NをCとして右上側に近接する予測ブロックCの符号化情報を調べてマージ候補Cを導出し、変数NをDとして左下側に近接する予測ブロックDの符号化情報を調べてマージ候補Dを導出し、変数NをEとして左上側に近接する予測ブロックEの符号化情報を調べてマージ候補Eを導出する(ステップS1101〜ステップS1114)。   In FIG. 18, the encoding information of the prediction block A adjacent to the left side of the prediction block to be encoded or decoded is determined with the variable N as A to derive the merge candidate A, and the prediction block adjacent to the upper side with the variable N as B The encoding information of B is examined to derive the merge candidate B, the encoding information of the prediction block C adjacent to the upper right side is determined with the variable N as C, the merge candidate C is derived, and the variable N is set as D to the lower left side. The encoding information of the adjacent prediction block D is checked to derive the merge candidate D, and the variable N is set as E to check the encoding information of the prediction block E adjacent to the upper left side to derive the merge candidate E (step S1101 to step S1101). S1114).

まず、変数NがEで、フラグavailableFlagA, availableFlagB, availableFlagC, availableFlagDの値を加算して合計が4の場合(ステップS1102のYES)、すなわち4つの空間マージ候補が導出された場合、マージ候補EのフラグavailableFlagEを0に設定し(ステップS1107)、マージ候補Eの動きベクトルmvL0E, mvL1Eの値を共に(0,0)に設定し(ステップS1108)、マージ候補EのフラグpredFlagL0E、predFlagL1Eの値を共に0に設定し(ステップS1109)、本空間マージ候補導出処理を終了する。本実施の形態においては、近接する予測ブロックから4つのマージ候補を導出するので、既に4つの空間マージ候補が導出された場合はそれ以上の空間マージ候補の導出処理を行う必要がない。   First, when the variable N is E and the values of the flags availableFlagA, availableFlagB, availableFlagC, and availableFlagD are added and the total is 4 (YES in step S1102), that is, when four spatial merge candidates are derived, the merge candidate E The flag availableFlagE is set to 0 (step S1107), the values of the motion vectors mvL0E and mvL1E of the merge candidate E are both set to (0, 0) (step S1108), and the values of the flags predFlagL0E and predFlagL1E of the merge candidate E are both set. It is set to 0 (step S1109), and the space merge candidate derivation process is terminated. In the present embodiment, four merge candidates are derived from adjacent prediction blocks. Therefore, when four spatial merge candidates are already derived, it is not necessary to perform further spatial merge candidate derivation processing.

一方、変数NがEでないか、フラグavailableFlagA, availableFlagB, availableFlagC, availableFlagDの値を加算して合計が4でない場合(ステップS1102のNO)、ステップS1103に進む。近接する予測ブロックNが導出対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる場合(ステップS1103のYES)、マージ候補NのフラグavailableFlagNの値を0に設定し(ステップS1107)、マージ候補Nの動きベクトルmvL0N, mvL1Nの値を共に(0,0)に設定し(ステップS1108)、マージ候補NのフラグpredFlagL0N、predFlagL1Nの値を共に0に設定する(ステップS1109)。近接する予測ブロックNが導出対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる場合(ステップS1103のYES)、近接する予測ブロックNの符号化情報を参照せず、マージ候補NのフラグavailableFlagNの値を0に設定して空間マージ候補としないことで、同じ符号化ブロック内のそれぞれの予測ブロックのマージ候補導出及びマージ候補リストの構築処理の並列処理を可能とする。   On the other hand, if the variable N is not E or the values of the flags availableFlagA, availableFlagB, availableFlagC, and availableFlagD are added and the total is not 4 (NO in step S1102), the process proceeds to step S1103. When the adjacent prediction block N is included in the same encoding block as the encoding block including the prediction block to be derived (YES in step S1103), the value of the flag availableFlagN of the merge candidate N is set to 0 (step S1107). The values of the motion vectors mvL0N and mvL1N of the merge candidate N are both set to (0, 0) (step S1108), and the values of the flags predFlagL0N and predFlagL1N of the merge candidate N are both set to 0 (step S1109). When the adjacent prediction block N is included in the same encoding block as the encoding block including the prediction block to be derived (YES in step S1103), the encoding information of the adjacent prediction block N is not referred to, and the merge candidate N By setting the value of the flag availableFlagN to 0 and not making it a spatial merge candidate, parallel processing of merge candidate derivation and merge candidate list construction processing for each prediction block in the same coding block is enabled.

具体的には、分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)または2N×nD分割(PART_2NxnD)で、処理対象の予測ブロックのPartIdxが1で、導出対象の予測ブロックの上辺に近接する予測ブロックBの場合が、近接する予測ブロックNが導出対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる場合である。この場合、導出対象の予測ブロックの上辺に近接する予測ブロックBは導出対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれるPartIdxが0の予測ブロックであるので、近接する予測ブロックBの符号化情報を参照せず、マージ候補BのフラグavailableFlagBの値を0に設定して空間マージ候補としないことで、同じ符号化ブロック内のそれぞれの予測ブロックのマージ候補導出及びマージ候補リストの構築処理の並列処理を可能とする。   Specifically, the partition mode (PartMode) is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU) or 2N × nD partition (PART_2NxnD), and the processing target prediction block PartIdx is 1, The case of the prediction block B adjacent to the upper side of the prediction block is a case where the adjacent prediction block N is included in the same encoded block as the encoded block including the prediction block to be derived. In this case, since the prediction block B adjacent to the upper side of the prediction block to be derived is a prediction block in which the PartIdx included in the same encoding block as the encoding block including the prediction block to be derived is 0, the adjacent prediction block B By not setting the value of the flag availableFlagB of the merge candidate B to 0 and setting it as a spatial merge candidate, the merge candidate derivation and merge candidate list of each prediction block in the same encoded block are not referred to. Enables parallel processing of construction processing.

さらに、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)またはnR×2N分割(PART_nRx2N)で、処理対象の予測ブロックのPartIdxが1で、導出対象の予測ブロックの左辺に近接する予測ブロックAの場合も、近接する予測ブロックNが導出対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれる場合である。この場合も、導出対象の予測ブロックの左辺に近接する予測ブロックAは導出対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれるPartIdxが0の予測ブロックであるので、近接する予測ブロックAの符号化情報を参照せず、マージ候補AのフラグavailableFlagAの値を0に設定して空間マージ候補としないことで、同じ符号化ブロック内のそれぞれの予測ブロックのマージ候補導出及びマージ候補リストの構築処理の並列処理を可能とする。   Furthermore, the partition mode (PartMode) is N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N) or nR × 2N partition (PART_nRx2N), and the processing target prediction block PartIdx is 1, and the derivation target prediction block The case of the prediction block A adjacent to the left side is also a case where the adjacent prediction block N is included in the same encoding block as the encoding block including the prediction block to be derived. Also in this case, since the prediction block A adjacent to the left side of the prediction block to be derived is a prediction block in which the PartIdx included in the same encoding block as the encoding block including the prediction block to be derived is 0, the adjacent prediction block By not referring to the encoding information of A and setting the value of the flag availableFlagA of the merge candidate A to 0 to make it not a spatial merge candidate, merge candidate derivation and merge candidate list of each prediction block in the same encoded block Enables parallel processing of the building process.

さらに、本実施の形態では定義しないが、分割モード(PartMode)がN×N分割(PART_NxN)で、処理対象の予測ブロックのPartIdxが1、2または3の場合も、近接する予測ブロックNが導出対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれることがある。   Further, although not defined in the present embodiment, the adjacent prediction block N is derived even when the partition mode (PartMode) is N × N partition (PART_NxN) and the PartIdx of the prediction block to be processed is 1, 2 or 3. It may be included in the same encoded block as the encoded block including the target prediction block.

一方、近接する予測ブロックNが処理対象の予測ブロックを含む符号化ブロックと同じ符号化ブロックに含まれない場合(ステップS1103のNO)、符号化または復号対象の予測ブロックに近接する予測ブロックNを特定し、それぞれの予測ブロックNが利用できる場合は符号化情報格納メモリ115または210から予測ブロックNの符号化情報を取得する(ステップS1104)。   On the other hand, when the adjacent prediction block N is not included in the same encoding block as the encoding block including the processing target prediction block (NO in step S1103), the prediction block N adjacent to the prediction block to be encoded or decoded is determined. If each prediction block N is specified, the encoding information of the prediction block N is acquired from the encoding information storage memory 115 or 210 (step S1104).

近接する予測ブロックNが利用できないか(ステップS1105のNO)、予測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)である場合(ステップS1106のNO)、マージ候補NのフラグavailableFlagNの値を0に設定し(ステップS1107)、マージ候補Nの動きベクトルmvL0N, mvL1Nの値を共に(0,0)に設定し(ステップS1108)、マージ候補NのフラグpredFlagL0N、predFlagL1Nの値を共に0に設定する(ステップS1109)。ここで、近接する予測ブロックNが利用できない場合とは、具体的には近接する予測ブロックNが符号化または復号対象スライスの外に位置する場合や、まだ符号化または復号処理順序で後のため、符号化または復号処理が完了していない場合等が該当する。   If the adjacent prediction block N cannot be used (NO in step S1105), or the prediction mode PredMode of the prediction block N is intra prediction (MODE_INTRA) (NO in step S1106), the value of the flag availableFlagN of the merge candidate N is set to 0. (Step S1107), the values of the motion vectors mvL0N and mvL1N of the merge candidate N are both set to (0, 0) (Step S1108), and the values of the flags predFlagL0N and predFlagL1N of the merge candidate N are both set to 0 ( Step S1109). Here, when the adjacent prediction block N cannot be used, specifically, when the adjacent prediction block N is located outside the slice to be encoded or decoded, or still in the encoding or decoding processing order. This corresponds to the case where the encoding or decoding process has not been completed.

一方、近接する予測ブロックNが導出対象の予測ブロックの符号化ブロックと同じ符号化ブロック外か(ステップS1104のYES)、近接する予測ブロックNが利用でき(ステップS1105のYES)、予測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)でない場合(ステップS1106のYES)、予測ブロックNのインター予測情報をマージ候補Nのインター予測情報とする。マージ候補NのフラグavailableFlagNの値を1に設定し(ステップS1110)、マージ候補Nの動きベクトルmvL0N, mvL1Nをそれぞれ予測ブロックNの動きベクトルmvL0N[xN][yN], mvL1N[xN][yN]と同じ値に設定し(ステップS1111)、マージ候補Nの参照インデックスrefIdxL0N, refIdxL1Nをそれぞれ予測ブロックNの参照インデックスrefIdxL0[xN][yN], refIdxL1[xN][yN]と同じ値に設定し(ステップS1112)、マージ候補NのフラグpredFlagL0N, predFlagL1Nをそれぞれ予測ブロックNのフラグpredFlagL0[xN][yN], predFlagL1[xN][yN]に設定する(ステップS1113)。ここで、xN、yNはピクチャ内での予測ブロックNの左上の画素の位置を示すインデックスである。   On the other hand, whether the adjacent prediction block N is outside the same encoding block as the encoding block of the prediction block to be derived (YES in step S1104), or the adjacent prediction block N can be used (YES in step S1105). When the prediction mode PredMode is not intra prediction (MODE_INTRA) (YES in step S1106), the inter prediction information of the prediction block N is set as the inter prediction information of the merge candidate N. The value of the flag availableFlagN of the merge candidate N is set to 1 (step S1110), and the motion vectors mvL0N and mvL1N of the merge candidate N are respectively used as the motion vectors mvL0N [xN] [yN] and mvL1N [xN] [yN] of the prediction block N. (Step S1111), the reference indexes refIdxL0N and refIdxL1N of the merge candidate N are set to the same values as the reference indexes refIdxL0 [xN] [yN] and refIdxL1 [xN] [yN] of the prediction block N, respectively ( In step S1112, the flags predFlagL0N and predFlagL1N of the merge candidate N are set to the flags predFlagL0 [xN] [yN] and predFlagL1 [xN] [yN] of the prediction block N, respectively (step S1113). Here, xN and yN are indexes indicating the position of the upper left pixel of the prediction block N in the picture.

以上のステップS1102〜ステップS1113の処理をN=A,B,C,D,Eについてそれぞれ繰り返す(ステップS1101〜ステップS1114)。   The processes in steps S1102 to S1113 are repeated for N = A, B, C, D, and E (steps S1101 to S1114).

次に、図18のS202の時間マージ候補の参照インデックスを導出する方法について詳細に説明する。時間マージ候補のL0とL1のそれぞれの参照インデックスを導出する。   Next, a method for deriving the reference index of the time merge candidate in S202 of FIG. 18 will be described in detail. The reference indices of L0 and L1 as temporal merge candidates are derived.

本実施の形態においては、空間マージ候補の参照インデックス、即ち符号化または復号対象ブロックに近接する予測ブロックで利用された参照インデックスを利用して時間マージ候補の参照インデックスを導出する。これは、時間マージ候補が選択される場合において、符号化または復号対象の予測ブロックの参照インデックスは空間マージ候補となる符号化または復号対象ブロックに近接する予測ブロックの参照インデックスと高い相関を持つからである。特に、本実施の形態においては、後述する実施例6および実施例7を除いて、導出対象の予測ブロックの左の辺に近接する予測ブロックA、または上の辺に近接する予測ブロックBの参照インデックスだけを利用する。なぜなら、空間マージ候補でもある近接する予測ブロックA,B,C,D,Eの中でも符号化または復号対象の予測ブロックの辺に接している予測ブロックA,Bは、符号化または復号対象の予測ブロックの頂点のみに接している予測ブロックC,D,Eよりも相関が高いからである。相対的に相関の低い予測ブロックC,D,Eを利用せずに、利用する予測ブロックを予測ブロックA,Bに限定することで、時間マージ候補の参照インデックスの導出による符号化効率の改善効果を得るとともに、時間マージ候補の参照インデックス導出処理に関する演算量及びメモリアクセス量を削減する。   In the present embodiment, the reference index of the temporal merge candidate is derived using the reference index of the spatial merge candidate, that is, the reference index used in the prediction block adjacent to the encoding or decoding target block. This is because when the temporal merge candidate is selected, the reference index of the prediction block to be encoded or decoded has a high correlation with the reference index of the prediction block adjacent to the encoding or decoding target block to be the spatial merge candidate. It is. In particular, in the present embodiment, except for Example 6 and Example 7 described later, reference is made to the prediction block A that is close to the left side of the prediction block to be derived or the prediction block B that is close to the upper side. Use only the index. This is because the prediction blocks A and B that are in contact with the sides of the prediction block to be encoded or decoded among the adjacent prediction blocks A, B, C, D, and E that are also spatial merge candidates are predicted to be encoded or decoded. This is because the correlation is higher than prediction blocks C, D, and E that are in contact with only the vertices of the block. By limiting the prediction blocks to be used to the prediction blocks A and B without using the prediction blocks C, D, and E having relatively low correlation, the effect of improving the coding efficiency by deriving the reference index of the temporal merge candidate In addition, the amount of computation and the amount of memory access related to the reference index derivation process of the temporal merge candidate are reduced.

実施例1
以下、本実施の形態をいくつかの実施例に分けて説明する。まず、本実施の形態の実施例1について説明する。図20は本実施の形態の実施例1における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを示す図である。本実施の形態の実施例1では、分割モード(PartMode)に応じて、導出対象の予測ブロックの左辺に近接する予測ブロックまたは上辺に近接する予測ブロックのどちらを参照するかを切り替える。符号化ブロック外となる辺に近接する予測ブロックを参照する。分割モード(PartMode)が2N×2N分割(PART_2Nx2N)では、図20(a)に示すように、導出対象の予測ブロックの左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。
Example 1
Hereinafter, this embodiment will be described by dividing it into several examples. First, Example 1 of the present embodiment will be described. FIG. 20 is a diagram illustrating adjacent blocks referred to in the time merge candidate reference index derivation process according to the first embodiment of the present embodiment. In Example 1 of the present embodiment, either the prediction block adjacent to the left side of the prediction block to be derived or the prediction block adjacent to the upper side is switched according to the division mode (PartMode). Reference is made to a prediction block close to a side outside the coding block. When the partition mode (PartMode) is 2N × 2N partition (PART_2Nx2N), as shown in FIG. 20A, the prediction block A0 adjacent to the left of the prediction block to be derived is referred to, and the LX reference index of the temporal merge candidate Is set to the value of the reference index of the LX of the prediction block A0.

処理対象の符号化ブロックを上下に並ぶ2つの予測ブロックに分割する分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)では、図20(b)、(c)、(d)に示すように、導出対象の予測ブロックの左辺に近接する予測ブロックを参照し、それぞれの時間マージ候補のLXの参照インデックスをそれぞれの導出対象の予測ブロックの左辺に近接する予測ブロックのLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが0の予測ブロックでは左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは左に近接する予測ブロックA1を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA1のLXの参照インデックスの値に設定する。参照する予測ブロックA0、A1が共に符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   When the partition mode (PartMode) for dividing the processing target coding block into two prediction blocks arranged vertically is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), and 2N × nD partition (PART_2NxnD), FIG. As shown in (b), (c), and (d), the prediction block adjacent to the left side of the prediction block to be derived is referred to, and the LX reference index of each temporal merge candidate is used as the prediction block to be derived. Is set to the value of the reference index of the LX of the prediction block adjacent to the left side of. In a prediction block whose partition index PartIdx to be derived is 0, the prediction block A0 adjacent to the left is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A0. In a prediction block whose division index PartIdx to be derived is 1, the prediction block A1 that is adjacent to the left is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A1. Since the prediction blocks A0 and A1 to be referred to are both outside the coding block, the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1 can be derived in parallel.

処理対象の符号化ブロックを左右に並ぶ2つの予測ブロックに分割する分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)では、図20(e)、(f)、(g)に示すように、導出対象の予測ブロックの上辺に近接する予測ブロックを参照し、それぞれの時間マージ候補のLXの参照インデックスをそれぞれの導出対象の予測ブロックの上辺に近接する予測ブロックのLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが0の予測ブロックでは上に近接する予測ブロックB0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックB0、B1のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは上に近接する予測ブロックB1を参照し、時間マージ候補のLXの参照インデックスを予測ブロックB1のLXの参照インデックスの値に設定する。参照する予測ブロックB0、B1が共に符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   When the division mode (PartMode) for dividing the coding block to be processed into two prediction blocks arranged side by side is N × 2N division (PART_Nx2N), nL × 2N division (PART_nLx2N), and nR × 2N division (PART_nRx2N), FIG. As shown in (e), (f), and (g), the prediction block adjacent to the upper side of the prediction block to be derived is referred to, and the LX reference index of each temporal merge candidate is used as the prediction block of each derivation target. Is set to the value of the reference index of the LX of the prediction block adjacent to the upper side. In the prediction block whose partition index PartIdx to be derived is 0, the prediction block B0 that is close to the top is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction blocks B0 and B1. In a prediction block whose partition index PartIdx to be derived is 1, the prediction block B1 that is close to the top is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block B1. Since the prediction blocks B0 and B1 to be referred to are both outside the coding block, the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1 can be derived in parallel.

ただし、近接する予測ブロックA、予測ブロックBがLX予測を行わない場合は時間マージ候補のLXの参照インデックスの値をデフォルト値の0とする。近接する予測ブロックA、予測ブロックBがLX予測を行わない場合に時間マージ候補のLXの参照インデックスのデフォルト値を0とする理由は、インター予測において参照インデックスの値が0に対応する参照ピクチャが最も選択される確率が高いからである。ただし、これに限定されず、参照インデックスのデフォルト値を0以外の値(1、2など)としても良いし、シーケンスレベル、ピクチャレベル、またはスライスレベルで符号化ストリーム内に参照インデックスのデフォルト値を示すシンタックス要素を設置し伝送できるようにして、符号化側で選択できるようにしても良い。   However, when the adjacent prediction block A and prediction block B do not perform LX prediction, the reference index value of the LX that is a temporal merge candidate is set to 0 as the default value. When the adjacent prediction block A and prediction block B do not perform LX prediction, the default value of the reference index of the temporal merge candidate LX is set to 0 because the reference picture corresponding to the reference index value of 0 in inter prediction This is because the probability of being most selected is high. However, the present invention is not limited to this, and the default value of the reference index may be a value other than 0 (1, 2, etc.), and the default value of the reference index may be set in the encoded stream at the sequence level, picture level, or slice level. The syntax element shown may be installed and transmitted so that it can be selected on the encoding side.

図21は本実施の形態の実施例1の方法による図18のステップS202の時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。まず、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)でない場合(ステップS2101のNO)、即ち2N×2N分割(PART_2Nx2N)、2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)である場合、符号化情報格納メモリ115または210から左に近接する予測ブロックAの符号化情報を取得する(ステップS2111)。   FIG. 21 is a flow chart for explaining the procedure for deriving the reference index of the time merge candidate in step S202 of FIG. 18 by the method of Example 1 of the present embodiment. First, when the partition mode (PartMode) is not N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), or nR × 2N partition (PART_nRx2N) (NO in step S2101), that is, 2N × 2N partition (PART_2Nx2N), 2N In the case of × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), and 2N × nD partition (PART_2NxnD), the encoded information of the prediction block A adjacent to the left is acquired from the encoded information storage memory 115 or 210 ( Step S2111).

続くステップS2113からステップS2115までの処理をL0、L1それぞれにおいて行う(ステップS2112〜S2116)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The subsequent processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0でない場合(ステップS2113のYES)、時間マージ候補のLXの参照インデックスrefIdxLXColを予測ブロックAのLXの参照インデックスrefIdxLX[xA][yA]の値と同じ値に設定する(ステップS2114)。ここで、xA、yAはピクチャ内での予測ブロックAの左上の画素の位置を示すインデックスである。   When the flag predFlagLX [xA] [yA] indicating whether to perform LX prediction of the prediction block A is not 0 (YES in step S2113), the LX reference index refIdxLXCol of the temporal merge candidate is used as the LX reference index refIdxLX of the prediction block A. The same value as [xA] [yA] is set (step S2114). Here, xA and yA are indexes indicating the position of the upper left pixel of the prediction block A in the picture.

なお、本実施の形態においては、予測ブロックN(N=A,B)において、予測ブロックNが符号化または復号対象のスライス外で利用できない場合や予測ブロックNが符号化または復号順序で符号化または復号対象の予測ブロックよりも後のために符号化または復号されておらず利用できない場合や予測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、予測ブロックNのL1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に0である。ここで、xN、yNはピクチャ内での予測ブロックNの左上の画素の位置を示すインデックスである。予測ブロックNの予測モードPredModeがインター予測(MODE_INTER)で、インター予測モードがL0予測(Pred_L0)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は1, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は0である。予測ブロックNのインター予測モードがL1予測(Pred_L1)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は0, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は1である。予測ブロックNのインター予測モードが双予測(Pred_BI)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に1である。   In the present embodiment, in the prediction block N (N = A, B), when the prediction block N cannot be used outside the slice to be encoded or decoded, the prediction block N is encoded or encoded in the decoding order. Alternatively, a flag indicating whether or not to use L0 prediction when the encoding block is not encoded or decoded after the decoding target prediction block and cannot be used, or when the prediction mode PredMode of the prediction block N is intra prediction (MODE_INTRA). Both predFlagL0 [xN] [yN] and the flag predFlagL1 [xN] [yN] indicating whether to use the L1 prediction of the prediction block N are 0. Here, xN and yN are indexes indicating the position of the upper left pixel of the prediction block N in the picture. When the prediction mode PredMode of the prediction block N is inter prediction (MODE_INTER) and the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N is 1 , Flag predFlagL1 [xN] [yN] indicating whether to use L1 prediction is zero. When the inter prediction mode of the prediction block N is L1 prediction (Pred_L1), a flag predFlagL0 [xN] [yN] indicating whether or not to use the L0 prediction of the prediction block N is 0 and a flag indicating whether or not to use the L1 prediction predFlagL1 [xN] [yN] is 1. When the inter prediction mode of the prediction block N is bi-prediction (Pred_BI), a flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N, and a flag predFlagL1 [indicating whether to use the L1 prediction xN] [yN] are both 1.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0である場合(ステップS2113のNO)、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2115)。   When the flag predFlagLX [xA] [yA] indicating whether or not to perform LX prediction of the prediction block A is 0 (NO in step S2113), the reference index refIdxLXCol of the LX that is a temporal merge candidate is set to a default value of 0 ( Step S2115).

L0、L1それぞれにおいてステップS2113からステップS2115までの処理を行い(ステップS2112〜S2116)、本参照インデックス導出処理を終了する。   The processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116), and this reference index derivation processing is terminated.

一方、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)の場合(ステップS2101のYES)、符号化情報格納メモリ115または210から導出対象の予測ブロックの上に近接する予測ブロックBの符号化情報を取得する(ステップS2117)。   On the other hand, when the partition mode (PartMode) is N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), nR × 2N partition (PART_nRx2N) (YES in step S2101), derived from the encoded information storage memory 115 or 210 The encoding information of the prediction block B adjacent on the target prediction block is acquired (step S2117).

続くステップS2119からステップS2121までの処理をL0、L1それぞれにおいて行う(ステップS2118〜S2122)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The subsequent processing from step S2119 to step S2121 is performed in each of L0 and L1 (steps S2118 to S2122). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

予測ブロックBのLX予測を行うかどうかを示すフラグpredFlagLX[xB][yB]が0でない場合(ステップS2119のYES)、時間マージ候補のLXの参照インデックスrefIdxLXColを予測ブロックBのLXの参照インデックスrefIdxLX[xB][yB]の値と同じ値に設定する(ステップS2120)。ここで、xB、yBはピクチャ内での予測ブロックBの左上の画素の位置を示すインデックスである。   When the flag predFlagLX [xB] [yB] indicating whether to perform LX prediction of the prediction block B is not 0 (YES in step S2119), the LX reference index refIdxLXCol of the temporal merge candidate is used as the LX reference index refIdxLX of the prediction block B. It is set to the same value as [xB] [yB] (step S2120). Here, xB and yB are indexes indicating the position of the upper left pixel of the prediction block B in the picture.

予測ブロックBのLX予測を行うかどうかを示すフラグpredFlagLX[xB][yB]が0である場合(ステップS2119のNO)、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2121)。   When the flag predFlagLX [xB] [yB] indicating whether or not to perform LX prediction of the prediction block B is 0 (NO in step S2119), the reference index refIdxLXCol of the time merge candidate LX is set to a default value of 0 ( Step S2121).

L0、L1それぞれにおいてステップS2119からステップS2121までの処理を行い(ステップS2118〜S2122)、本参照インデックス導出処理を終了する。   The processing from step S2119 to step S2121 is performed in each of L0 and L1 (steps S2118 to S2122), and this reference index derivation processing is terminated.

実施例2
次に、本実施の形態の実施例2について説明する。図22は本実施の形態の実施例2における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを示す図である。本実施の形態の実施例2では、符号化ブロックの分割モード(PartMode)と予測ブロックの分割インデックスPartIdxに応じて、導出対象の予測ブロックの左辺に近接する予測ブロックまたは上辺に近接する予測ブロックのどちらを参照するかを切り替える。符号化ブロック外となる辺に近接する予測ブロックを参照する。分割モード(PartMode)が2N×2N分割(PART_2Nx2N)では、図22(a)に示すように、導出対象の予測ブロックの左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。
Example 2
Next, Example 2 of the present embodiment will be described. FIG. 22 is a diagram illustrating neighboring blocks referred to in the time merge candidate reference index derivation process according to the second example of the present embodiment. In Example 2 of the present embodiment, the prediction block close to the left side of the prediction block to be derived or the prediction block close to the upper side is determined according to the partition mode (PartMode) of the encoded block and the partition index PartIdx of the prediction block. Switch which one to reference. Reference is made to a prediction block close to a side outside the coding block. When the partition mode (PartMode) is 2N × 2N partition (PART_2Nx2N), as shown in FIG. 22A, the prediction block A0 adjacent to the left of the prediction block to be derived is referred to, and the LX reference index of the temporal merge candidate Is set to the value of the reference index of the LX of the prediction block A0.

処理対象の符号化ブロックを上下に並ぶ2つの予測ブロックに分割する分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)では、図22(b)、(c)、(d)に示すように、導出対象の予測ブロックの左辺に近接する予測ブロックを参照し、それぞれの時間マージ候補のLXの参照インデックスをそれぞれの導出対象の予測ブロックの左辺に近接する予測ブロックのLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが0の予測ブロックでは左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは左に近接する予測ブロックA1を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA1のLXの参照インデックスの値に設定する。参照する予測ブロックA0、A1が共に符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   When the partition mode (PartMode) for dividing the processing target coding block into two prediction blocks arranged vertically is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), and 2N × nD partition (PART_2NxnD), FIG. As shown in (b), (c), and (d), the prediction block adjacent to the left side of the prediction block to be derived is referred to, and the LX reference index of each temporal merge candidate is used as the prediction block to be derived. Is set to the value of the reference index of the LX of the prediction block adjacent to the left side of. In a prediction block whose partition index PartIdx to be derived is 0, the prediction block A0 adjacent to the left is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A0. In a prediction block whose division index PartIdx to be derived is 1, the prediction block A1 that is adjacent to the left is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A1. Since the prediction blocks A0 and A1 to be referred to are both outside the coding block, the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1 can be derived in parallel.

処理対象の符号化ブロックを左右に並ぶ2つの予測ブロックに分割する分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)では、図22(e)、(f)、(g)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロックでは左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは上に近接する予測ブロックB1を参照し、時間マージ候補のLXの参照インデックスを予測ブロックB1のLXの参照インデックスの値に設定する。参照する予測ブロックA0、B1が共に符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   When the division mode (PartMode) for dividing the processing target coding block into two prediction blocks arranged side by side is N × 2N division (PART_Nx2N), nL × 2N division (PART_nLx2N), and nR × 2N division (PART_nRx2N), FIG. As shown in (e), (f), and (g), in the prediction block whose partition index PartIdx to be derived is 0, the prediction block A0 that is adjacent to the left is referred to, and the LX reference index that is the temporal merge candidate is the prediction block Set to the value of the LX reference index of A0. In a prediction block whose partition index PartIdx to be derived is 1, the prediction block B1 that is close to the top is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block B1. Since the prediction blocks A0 and B1 to be referred to are both outside the coding block, the reference indexes of the temporal merge candidates of the two prediction blocks having the division indexes PartIdx of 0 and 1 can be derived in parallel.

ただし、近接する予測ブロックA、予測ブロックBがLX予測を行わない場合は時間マージ候補のLXの参照インデックスの値をデフォルト値の0とする。近接する予測ブロックA、予測ブロックBがLX予測を行わない場合に時間マージ候補のLXの参照インデックスのデフォルト値を0とする理由は、インター予測において参照インデックスの値が0に対応する参照ピクチャが最も選択される確率が高いからである。ただし、これに限定されず、参照インデックスのデフォルト値を0以外の値(1、2など)としても良いし、シーケンスレベル、ピクチャレベル、またはスライスレベルで符号化ストリーム内に参照インデックスのデフォルト値を示すシンタックス要素を設置し伝送できるようにして、符号化側で選択できるようにしても良い。   However, when the adjacent prediction block A and prediction block B do not perform LX prediction, the reference index value of the LX that is a temporal merge candidate is set to 0 as the default value. When the adjacent prediction block A and prediction block B do not perform LX prediction, the default value of the reference index of the temporal merge candidate LX is set to 0 because the reference picture corresponding to the reference index value of 0 in inter prediction This is because the probability of being most selected is high. However, the present invention is not limited to this, and the default value of the reference index may be a value other than 0 (1, 2, etc.), and the default value of the reference index may be set in the encoded stream at the sequence level, picture level, or slice level. The syntax element shown may be installed and transmitted so that it can be selected on the encoding side.

図23は本実施の形態の実施例2の方法による図18のステップS202の時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。まず、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)で分割インデックスPartIdxが1でない場合(ステップS2102のNO)、即ち2N×2N分割(PART_2Nx2N)、2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)であるか、N×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)で分割インデックスPartIdxが0である場合、符号化情報格納メモリ115または210から導出対象の予測ブロックの左に近接する予測ブロックAの符号化情報を取得する(ステップS2111)。   FIG. 23 is a flow chart for explaining the procedure for deriving the reference index of the time merge candidate in step S202 of FIG. 18 by the method of Example 2 of the present embodiment. First, when the partition mode (PartMode) is N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), nR × 2N partition (PART_nRx2N) and the partition index PartIdx is not 1 (NO in step S2102), that is, 2N × 2N Partition (PART_2Nx2N), 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD), or N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), nR × When 2N division (PART_nRx2N) and the division index PartIdx is 0, the encoding information of the prediction block A adjacent to the left of the prediction block to be derived is acquired from the encoding information storage memory 115 or 210 (step S2111).

続くステップS2113からステップS2115までの処理をL0、L1それぞれにおいて行う(ステップS2112〜S2116)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The subsequent processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0でない場合(ステップS2113のYES)、時間マージ候補のLXの参照インデックスrefIdxLXColを予測ブロックAのLXの参照インデックスrefIdxLX[xA][yA]の値と同じ値に設定する(ステップS2114)。ここで、xA、yAはピクチャ内での予測ブロックAの左上の画素の位置を示すインデックスである。   When the flag predFlagLX [xA] [yA] indicating whether to perform LX prediction of the prediction block A is not 0 (YES in step S2113), the LX reference index refIdxLXCol of the temporal merge candidate is used as the LX reference index refIdxLX of the prediction block A. The same value as [xA] [yA] is set (step S2114). Here, xA and yA are indexes indicating the position of the upper left pixel of the prediction block A in the picture.

なお、本実施の形態においては、予測ブロックN(N=A,B)において、予測ブロックNが符号化または復号対象のスライス外で利用できない場合や予測ブロックNが符号化または復号順序で符号化または復号対象の予測ブロックよりも後のために符号化または復号されておらず利用できない場合や予測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、予測ブロックNのL1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に0である。ここで、xN、yNはピクチャ内での予測ブロックNの左上の画素の位置を示すインデックスである。予測ブロックNの予測モードPredModeがインター予測(MODE_INTER)で、インター予測モードがL0予測(Pred_L0)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は1, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は0である。予測ブロックNのインター予測モードがL1予測(Pred_L1)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は0, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は1である。予測ブロックNのインター予測モードが双予測(Pred_BI)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に1である。   In the present embodiment, in the prediction block N (N = A, B), when the prediction block N cannot be used outside the slice to be encoded or decoded, the prediction block N is encoded or encoded in the decoding order. Alternatively, a flag indicating whether or not to use L0 prediction when the encoding block is not encoded or decoded after the decoding target prediction block and cannot be used, or when the prediction mode PredMode of the prediction block N is intra prediction (MODE_INTRA). Both predFlagL0 [xN] [yN] and the flag predFlagL1 [xN] [yN] indicating whether to use the L1 prediction of the prediction block N are 0. Here, xN and yN are indexes indicating the position of the upper left pixel of the prediction block N in the picture. When the prediction mode PredMode of the prediction block N is inter prediction (MODE_INTER) and the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N is 1 , Flag predFlagL1 [xN] [yN] indicating whether to use L1 prediction is zero. When the inter prediction mode of the prediction block N is L1 prediction (Pred_L1), a flag predFlagL0 [xN] [yN] indicating whether or not to use the L0 prediction of the prediction block N is 0 and a flag indicating whether or not to use the L1 prediction predFlagL1 [xN] [yN] is 1. When the inter prediction mode of the prediction block N is bi-prediction (Pred_BI), a flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N, and a flag predFlagL1 [indicating whether to use the L1 prediction xN] [yN] are both 1.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0である場合(ステップS2113のNO)、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2115)。   When the flag predFlagLX [xA] [yA] indicating whether or not to perform LX prediction of the prediction block A is 0 (NO in step S2113), the reference index refIdxLXCol of the LX that is a temporal merge candidate is set to a default value of 0 ( Step S2115).

L0、L1それぞれにおいてステップS2113からステップS2115までの処理を行い(ステップS2112〜S2116)、本参照インデックス導出処理を終了する。   The processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116), and this reference index derivation processing is terminated.

一方、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)で分割インデックスPartIdxが1である場合(ステップS2102のYES)、符号化情報格納メモリ115または210から導出対象の予測ブロックの上に近接する予測ブロックBの符号化情報を取得する(ステップS2117)。   On the other hand, when the partition mode (PartMode) is N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), and nR × 2N partition (PART_nRx2N) and the partition index PartIdx is 1 (YES in step S2102), encoding information The encoding information of the prediction block B adjacent to the prediction block to be derived is acquired from the storage memory 115 or 210 (step S2117).

続くステップS2119からステップS2121までの処理をL0、L1それぞれにおいて行う(ステップS2118〜S2122)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The subsequent processing from step S2119 to step S2121 is performed in each of L0 and L1 (steps S2118 to S2122). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

予測ブロックBのLX予測を行うかどうかを示すフラグpredFlagLX[xB][yB]が0でない場合(ステップS2119のYES)、時間マージ候補のLXの参照インデックスrefIdxLXColを予測ブロックBのLXの参照インデックスrefIdxLX[xB][yB]の値と同じ値に設定する(ステップS2120)。ここで、xB、yBはピクチャ内での予測ブロックBの左上の画素の位置を示すインデックスである。   When the flag predFlagLX [xB] [yB] indicating whether to perform LX prediction of the prediction block B is not 0 (YES in step S2119), the LX reference index refIdxLXCol of the temporal merge candidate is used as the LX reference index refIdxLX of the prediction block B. It is set to the same value as [xB] [yB] (step S2120). Here, xB and yB are indexes indicating the position of the upper left pixel of the prediction block B in the picture.

予測ブロックBのLX予測を行うかどうかを示すフラグpredFlagLX[xB][yB]が0である場合(ステップS2119のNO)、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2121)。   When the flag predFlagLX [xB] [yB] indicating whether or not to perform LX prediction of the prediction block B is 0 (NO in step S2119), the reference index refIdxLXCol of the time merge candidate LX is set to a default value of 0 ( Step S2121).

L0、L1それぞれにおいてステップS2119からステップS2121までの処理を行い(ステップS2118〜S2122)、本参照インデックス導出処理を終了する。   The processing from step S2119 to step S2121 is performed in each of L0 and L1 (steps S2118 to S2122), and this reference index derivation processing is terminated.

実施例3
次に、本実施の形態の実施例3について説明する。図24は本実施の形態の実施例3における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを示す図である。本実施の形態の実施例3では、符号化ブロックの分割モード(PartMode)と予測ブロックの分割インデックスPartIdxに応じて、導出対象の予測ブロックの左辺に近接する予測ブロックまたは上辺に近接する予測ブロックのどちらを参照するかを切り替える。分割インデックスPartIdxが0の予測ブロックでは、より高い相関を持つ長い辺に近接する予測ブロックを参照し、分割インデックスPartIdxが1の予測ブロックでは、符号化ブロック外となる辺に近接する予測ブロックを参照する。分割モード(PartMode)が2N×2N分割(PART_2Nx2N)では、図24(a)に示すように、導出対象の予測ブロックの左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。
Example 3
Next, Example 3 of the present embodiment will be described. FIG. 24 is a diagram illustrating neighboring blocks referred to in the time merge candidate reference index derivation process according to the third example of the present embodiment. In Example 3 of the present embodiment, the prediction block close to the left side of the prediction block to be derived or the prediction block close to the upper side is determined according to the partition mode (PartMode) of the encoded block and the partition index PartIdx of the prediction block. Switch which one to reference. For a prediction block with a partition index PartIdx of 0, refer to a prediction block close to a long side having higher correlation, and for a prediction block with a partition index PartIdx of 1, refer to a prediction block close to a side outside the coding block To do. When the partition mode (PartMode) is 2N × 2N partition (PART_2Nx2N), as shown in FIG. 24A, the prediction block A0 adjacent to the left of the prediction block to be derived is referred to, and the LX reference index of the temporal merge candidate Is set to the value of the reference index of the LX of the prediction block A0.

処理対象の符号化ブロックを上下に並ぶ2つの予測ブロックに分割する分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)では、図24(b)、(c)、(d)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロックでは長い辺である上辺に近接する予測ブロックB0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックB0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは符号化ブロック外となる左辺に近接する予測ブロックA1を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA1のLXの参照インデックスの値に設定する。参照する予測ブロックB0、A1が共に符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   When the division mode (PartMode) for dividing the coding block to be processed into two prediction blocks arranged vertically is 2N × N division (PART_2NxN), 2N × nU division (PART_2NxnU), 2N × nD division (PART_2NxnD), FIG. As shown in (b), (c), and (d), the prediction block B0 that is close to the upper side, which is a long side in the prediction block whose partition index PartIdx to be derived is 0, is referenced, and the LX reference of the temporal merge candidate The index is set to the value of the LX reference index of the prediction block B0. In the prediction block whose partition index PartIdx is 1 to be derived, the prediction block A1 close to the left side outside the coding block is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A1. To do. Since the prediction blocks B0 and A1 to be referred to are both outside the encoded block, the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1 can be derived in parallel.

処理対象の符号化ブロックを左右に並ぶ2つの予測ブロックに分割する分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)では、図24(e)、(f)、(g)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロックでは長い辺である左辺に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは符号化ブロック外となる上辺に近接する予測ブロックB1を参照し、時間マージ候補のLXの参照インデックスを予測ブロックB1のLXの参照インデックスの値に設定する。参照する予測ブロックA0、B1が共に符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   When the division mode (PartMode) for dividing the coding block to be processed into two prediction blocks arranged side by side is N × 2N division (PART_Nx2N), nL × 2N division (PART_nLx2N), and nR × 2N division (PART_nRx2N), FIG. As shown in (e), (f), and (g), a prediction block A0 that is close to the left side, which is a long side in a prediction block whose partition index PartIdx to be derived is 0, is referenced, and a reference to LX that is a temporal merge candidate The index is set to the value of the LX reference index of the prediction block A0. In the prediction block whose partition index PartIdx is 1 to be derived, the prediction block B1 close to the upper side outside the coding block is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block B1. To do. Since the prediction blocks A0 and B1 to be referred to are both outside the coding block, the reference indexes of the temporal merge candidates of the two prediction blocks having the division indexes PartIdx of 0 and 1 can be derived in parallel.

ただし、近接する予測ブロックA、予測ブロックBがLX予測を行わない場合は時間マージ候補のLXの参照インデックスの値をデフォルト値の0とする。近接する予測ブロックA、予測ブロックBがLX予測を行わない場合に時間マージ候補のLXの参照インデックスのデフォルト値を0とする理由は、インター予測において参照インデックスの値が0に対応する参照ピクチャが最も選択される確率が高いからである。ただし、これに限定されず、参照インデックスのデフォルト値を0以外の値(1、2など)としても良いし、シーケンスレベル、ピクチャレベル、またはスライスレベルで符号化ストリーム内に参照インデックスのデフォルト値を示すシンタックス要素を設置し伝送できるようにして、符号化側で選択できるようにしても良い。   However, when the adjacent prediction block A and prediction block B do not perform LX prediction, the reference index value of the LX that is a temporal merge candidate is set to 0 as the default value. When the adjacent prediction block A and prediction block B do not perform LX prediction, the default value of the reference index of the temporal merge candidate LX is set to 0 because the reference picture corresponding to the reference index value of 0 in inter prediction This is because the probability of being most selected is high. However, the present invention is not limited to this, and the default value of the reference index may be a value other than 0 (1, 2, etc.), and the default value of the reference index may be set in the encoded stream at the sequence level, picture level, or slice level. The syntax element shown may be installed and transmitted so that it can be selected on the encoding side.

図25は本実施の形態の実施例3の方法による図18のステップS202の時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。まず、分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)で分割インデックスPartIdxが0でなく、N×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)で分割インデックスPartIdxが1でない場合(ステップS2103のNO)、即ち2N×2N分割(PART_2Nx2N)であるか、2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)で分割インデックスPartIdxが0であるか、N×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)で分割インデックスPartIdxが0である場合、符号化情報格納メモリ115または210から導出対象の予測ブロックの左に近接する予測ブロックAの符号化情報を取得する(ステップS2111)。   FIG. 25 is a flow chart for explaining the procedure for deriving the reference index of the time merge candidate in step S202 of FIG. 18 according to the method of Example 3 of the present embodiment. First, the partition mode (PartMode) is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD), and the partition index PartIdx is not 0, N × 2N partition (PART_Nx2N), nL × When 2N partition (PART_nLx2N), nR × 2N partition (PART_nRx2N) and partition index PartIdx is not 1 (NO in step S2103), that is, 2N × 2N partition (PART_2Nx2N) or 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD) and partition index PartIdx is 0, or N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), nR × 2N partition (PART_nRx2N) partition index PartIdx Is 0, the encoding information of the prediction block A adjacent to the left of the prediction block to be derived is acquired from the encoding information storage memory 115 or 210 (step S21). 1).

続くステップS2113からステップS2115までの処理をL0、L1それぞれにおいて行う(ステップS2112〜S2116)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The subsequent processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0でない場合(ステップS2113のYES)、時間マージ候補のLXの参照インデックスrefIdxLXColを予測ブロックAのLXの参照インデックスrefIdxLX[xA][yA]の値と同じ値に設定する(ステップS2114)。ここで、xA、yAはピクチャ内での予測ブロックAの左上の画素の位置を示すインデックスである。   When the flag predFlagLX [xA] [yA] indicating whether to perform LX prediction of the prediction block A is not 0 (YES in step S2113), the LX reference index refIdxLXCol of the temporal merge candidate is used as the LX reference index refIdxLX of the prediction block A. The same value as [xA] [yA] is set (step S2114). Here, xA and yA are indexes indicating the position of the upper left pixel of the prediction block A in the picture.

なお、本実施の形態においては、予測ブロックN(N=A,B)において、予測ブロックNが符号化または復号対象のスライス外で利用できない場合や予測ブロックNが符号化または復号順序で符号化または復号対象の予測ブロックよりも後のために符号化または復号されておらず利用できない場合や予測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、予測ブロックNのL1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に0である。ここで、xN、yNはピクチャ内での予測ブロックNの左上の画素の位置を示すインデックスである。予測ブロックNの予測モードPredModeがインター予測(MODE_INTER)で、インター予測モードがL0予測(Pred_L0)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は1, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は0である。予測ブロックNのインター予測モードがL1予測(Pred_L1)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は0, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は1である。予測ブロックNのインター予測モードが双予測(Pred_BI)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に1である。   In the present embodiment, in the prediction block N (N = A, B), when the prediction block N cannot be used outside the slice to be encoded or decoded, the prediction block N is encoded or encoded in the decoding order. Alternatively, a flag indicating whether or not to use L0 prediction when the encoding block is not encoded or decoded after the decoding target prediction block and cannot be used, or when the prediction mode PredMode of the prediction block N is intra prediction (MODE_INTRA). Both predFlagL0 [xN] [yN] and the flag predFlagL1 [xN] [yN] indicating whether to use the L1 prediction of the prediction block N are 0. Here, xN and yN are indexes indicating the position of the upper left pixel of the prediction block N in the picture. When the prediction mode PredMode of the prediction block N is inter prediction (MODE_INTER) and the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N is 1 , Flag predFlagL1 [xN] [yN] indicating whether to use L1 prediction is zero. When the inter prediction mode of the prediction block N is L1 prediction (Pred_L1), a flag predFlagL0 [xN] [yN] indicating whether or not to use the L0 prediction of the prediction block N is 0 and a flag indicating whether or not to use the L1 prediction predFlagL1 [xN] [yN] is 1. When the inter prediction mode of the prediction block N is bi-prediction (Pred_BI), a flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N, and a flag predFlagL1 [indicating whether to use the L1 prediction xN] [yN] are both 1.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0である場合(ステップS2113のNO)、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2115)。   When the flag predFlagLX [xA] [yA] indicating whether or not to perform LX prediction of the prediction block A is 0 (NO in step S2113), the reference index refIdxLXCol of the LX that is a temporal merge candidate is set to a default value of 0 ( Step S2115).

L0、L1それぞれにおいてステップS2113からステップS2115までの処理を行い(ステップS2112〜S2116)、本参照インデックス導出処理を終了する。   The processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116), and this reference index derivation processing is terminated.

一方、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)で分割インデックスPartIdxが1である場合(ステップS2102のYES)、符号化情報格納メモリ115または210から導出対象の予測ブロックの上に近接する予測ブロックBの符号化情報を取得する(ステップS2117)。   On the other hand, when the partition mode (PartMode) is N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), and nR × 2N partition (PART_nRx2N) and the partition index PartIdx is 1 (YES in step S2102), encoding information The encoding information of the prediction block B adjacent to the prediction block to be derived is acquired from the storage memory 115 or 210 (step S2117).

続くステップS2119からステップS2121までの処理をL0、L1それぞれにおいて行う(ステップS2118〜S2122)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The subsequent processing from step S2119 to step S2121 is performed in each of L0 and L1 (steps S2118 to S2122). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

予測ブロックBのLX予測を行うかどうかを示すフラグpredFlagLX[xB][yB]が0でない場合(ステップS2119のYES)、時間マージ候補のLXの参照インデックスrefIdxLXColを予測ブロックBのLXの参照インデックスrefIdxLX[xB][yB]の値と同じ値に設定する(ステップS2120)。ここで、xB、yBはピクチャ内での予測ブロックBの左上の画素の位置を示すインデックスである。   When the flag predFlagLX [xB] [yB] indicating whether to perform LX prediction of the prediction block B is not 0 (YES in step S2119), the LX reference index refIdxLXCol of the temporal merge candidate is used as the LX reference index refIdxLX of the prediction block B. It is set to the same value as [xB] [yB] (step S2120). Here, xB and yB are indexes indicating the position of the upper left pixel of the prediction block B in the picture.

予測ブロックBのLX予測を行うかどうかを示すフラグpredFlagLX[xB][yB]が0である場合(ステップS2119のNO)、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2121)。   When the flag predFlagLX [xB] [yB] indicating whether or not to perform LX prediction of the prediction block B is 0 (NO in step S2119), the reference index refIdxLXCol of the time merge candidate LX is set to a default value of 0 ( Step S2121).

L0、L1それぞれにおいてステップS2119からステップS2121までの処理を行い(ステップS2118〜S2122)、本参照インデックス導出処理を終了する。   The processing from step S2119 to step S2121 is performed in each of L0 and L1 (steps S2118 to S2122), and this reference index derivation processing is terminated.

実施例4
次に、本実施の形態の実施例4について説明する。図26は本実施の形態の実施例4における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを示す図である。本実施の形態の実施例4では、符号化ブロックの分割モード(PartMode)と予測ブロックの分割インデックスPartIdxに応じて、導出対象の予測ブロックの左辺に近接する予測ブロックを参照するかどうかを切り替える。左辺に近接する予測ブロックが符号化ブロック外となる場合に参照し、符号化ブロック内となる場合には参照せずデフォルト値とする。分割モード(PartMode)が2N×2N分割(PART_2Nx2N)では、図26(a)に示すように、導出対象の予測ブロックの左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。
Example 4
Next, Example 4 of the present embodiment will be described. FIG. 26 is a diagram illustrating adjacent blocks referred to in the time merge candidate reference index derivation process according to the fourth example of the present embodiment. In Example 4 of the present embodiment, whether to refer to the prediction block adjacent to the left side of the prediction block to be derived is switched according to the partition mode (PartMode) of the encoded block and the partition index PartIdx of the prediction block. This is referred to when the prediction block close to the left side is outside the coding block, and when it is inside the coding block, it is not referred to and is set as a default value. When the partition mode (PartMode) is 2N × 2N partition (PART_2Nx2N), as illustrated in FIG. 26A, the prediction block A0 adjacent to the left of the prediction block to be derived is referred to, and the LX reference index of the temporal merge candidate Is set to the value of the reference index of the LX of the prediction block A0.

処理対象の符号化ブロックを上下に並ぶ2つの予測ブロックに分割する分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)では、図26(b)、(c)、(d)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロックでは左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは左に近接する予測ブロックA1を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA1のLXの参照インデックスの値に設定する。参照する予測ブロックA0、A1が共に符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   When the partition mode (PartMode) for dividing the processing target coding block into two prediction blocks arranged vertically is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), and 2N × nD partition (PART_2NxnD), FIG. As shown in (b), (c), and (d), in the prediction block whose partitioning index PartIdx to be derived is 0, the prediction block A0 that is adjacent to the left is referred to, and the LX reference index that is the temporal merge candidate is the prediction block Set to the value of the LX reference index of A0. In a prediction block whose division index PartIdx to be derived is 1, the prediction block A1 that is adjacent to the left is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A1. Since the prediction blocks A0 and A1 to be referred to are both outside the coding block, the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1 can be derived in parallel.

処理対象の符号化ブロックを左右に並ぶ2つの予測ブロックに分割する分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)では、図26(e)、(f)、(g)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロックでは左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは近接する予測ブロックを参照せず、時間マージ候補のLXの参照インデックスをデフォルト値の0に設定する。参照する予測ブロックA0が符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   When the division mode (PartMode) for dividing the processing target coding block into two prediction blocks arranged side by side is N × 2N division (PART_Nx2N), nL × 2N division (PART_nLx2N), and nR × 2N division (PART_nRx2N), FIG. As shown in (e), (f), and (g), in the prediction block whose partition index PartIdx to be derived is 0, the prediction block A0 that is adjacent to the left is referred to, and the LX reference index that is the temporal merge candidate is the prediction block Set to the value of the LX reference index of A0. In the prediction block whose partition index PartIdx to be derived is 1, the adjacent prediction block is not referred to, and the LX reference index of the temporal merge candidate is set to the default value 0. Since the prediction block A0 to be referred to is outside the encoded block, the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1 can be derived in parallel.

ただし、近接する予測ブロックAがLX予測を行わない場合は時間マージ候補のLXの参照インデックスの値をデフォルト値の0とする。近接する予測ブロックAがLX予測を行わない場合や導出対象の予測ブロックの分割インデックスPartIdxが1の場合に、時間マージ候補のLXの参照インデックスのデフォルト値を0とする理由は、インター予測において参照インデックスの値が0に対応する参照ピクチャが最も選択される確率が高いからである。ただし、これに限定されず、参照インデックスのデフォルト値を0以外の値(1、2など)としても良いし、シーケンスレベル、ピクチャレベル、またはスライスレベルで符号化ストリーム内に参照インデックスのデフォルト値を示すシンタックス要素を設置し伝送できるようにして、符号化側で選択できるようにしても良い。   However, when the adjacent prediction block A does not perform LX prediction, the value of the reference index of the LX that is a temporal merge candidate is set to 0 as the default value. The reason why the default value of the LX reference index of the temporal merge candidate is 0 when the adjacent prediction block A does not perform LX prediction or when the partition index PartIdx of the prediction block to be derived is 1 is referred to in inter prediction This is because the reference picture corresponding to the index value 0 is most likely to be selected. However, the present invention is not limited to this, and the default value of the reference index may be a value other than 0 (1, 2, etc.), and the default value of the reference index may be set in the encoded stream at the sequence level, picture level, or slice level. The syntax element shown may be installed and transmitted so that it can be selected on the encoding side.

図27は本実施の形態の実施例4の方法による図18のステップS202の時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。まず、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)で分割インデックスPartIdxが1でない場合(ステップS2102のNO)、即ち2N×2N分割(PART_2Nx2N)、2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)であるか、N×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)で分割インデックスPartIdxが0である場合、符号化情報格納メモリ115または210から導出対象の予測ブロックの左に近接する予測ブロックAの符号化情報を取得する(ステップS2111)。   FIG. 27 is a flowchart for explaining the reference process for deriving the reference index of the time merge candidate in step S202 of FIG. 18 according to the method of Example 4 of the present embodiment. First, when the partition mode (PartMode) is N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), nR × 2N partition (PART_nRx2N) and the partition index PartIdx is not 1 (NO in step S2102), that is, 2N × 2N Partition (PART_2Nx2N), 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD), or N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), nR × When 2N division (PART_nRx2N) and the division index PartIdx is 0, the encoding information of the prediction block A adjacent to the left of the prediction block to be derived is acquired from the encoding information storage memory 115 or 210 (step S2111).

続くステップS2113からステップS2115までの処理をL0、L1それぞれにおいて行う(ステップS2112〜S2116)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The subsequent processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0でない場合(ステップS2113のYES)、時間マージ候補のLXの参照インデックスrefIdxLXColを予測ブロックAのLXの参照インデックスrefIdxLX[xA][yA]の値と同じ値に設定する(ステップS2114)。ここで、xA、yAはピクチャ内での予測ブロックAの左上の画素の位置を示すインデックスである。   When the flag predFlagLX [xA] [yA] indicating whether to perform LX prediction of the prediction block A is not 0 (YES in step S2113), the LX reference index refIdxLXCol of the temporal merge candidate is used as the LX reference index refIdxLX of the prediction block A. The same value as [xA] [yA] is set (step S2114). Here, xA and yA are indexes indicating the position of the upper left pixel of the prediction block A in the picture.

なお、本実施の形態においては、予測ブロックN(N=A,B)において、予測ブロックNが符号化または復号対象のスライス外で利用できない場合や予測ブロックNが符号化または復号順序で符号化または復号対象の予測ブロックよりも後のために符号化または復号されておらず利用できない場合や予測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、予測ブロックNのL1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に0である。ここで、xN、yNはピクチャ内での予測ブロックNの左上の画素の位置を示すインデックスである。予測ブロックNの予測モードPredModeがインター予測(MODE_INTER)で、インター予測モードがL0予測(Pred_L0)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は1, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は0である。予測ブロックNのインター予測モードがL1予測(Pred_L1)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は0, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は1である。予測ブロックNのインター予測モードが双予測(Pred_BI)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に1である。   In the present embodiment, in the prediction block N (N = A, B), when the prediction block N cannot be used outside the slice to be encoded or decoded, the prediction block N is encoded or encoded in the decoding order. Alternatively, a flag indicating whether or not to use L0 prediction when the encoding block is not encoded or decoded after the decoding target prediction block and cannot be used, or when the prediction mode PredMode of the prediction block N is intra prediction (MODE_INTRA). Both predFlagL0 [xN] [yN] and the flag predFlagL1 [xN] [yN] indicating whether to use the L1 prediction of the prediction block N are 0. Here, xN and yN are indexes indicating the position of the upper left pixel of the prediction block N in the picture. When the prediction mode PredMode of the prediction block N is inter prediction (MODE_INTER) and the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N is 1 , Flag predFlagL1 [xN] [yN] indicating whether to use L1 prediction is zero. When the inter prediction mode of the prediction block N is L1 prediction (Pred_L1), a flag predFlagL0 [xN] [yN] indicating whether or not to use the L0 prediction of the prediction block N is 0 and a flag indicating whether or not to use the L1 prediction predFlagL1 [xN] [yN] is 1. When the inter prediction mode of the prediction block N is bi-prediction (Pred_BI), a flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N, and a flag predFlagL1 [indicating whether to use the L1 prediction xN] [yN] are both 1.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0である場合(ステップS2113のNO)、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2115)。   When the flag predFlagLX [xA] [yA] indicating whether or not to perform LX prediction of the prediction block A is 0 (NO in step S2113), the reference index refIdxLXCol of the LX that is a temporal merge candidate is set to a default value of 0 ( Step S2115).

L0、L1それぞれにおいてステップS2113からステップS2115までの処理を行い(ステップS2112〜S2116)、本参照インデックス導出処理を終了する。   The processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116), and this reference index derivation processing is terminated.

一方、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)で分割インデックスPartIdxが1である場合(ステップS2102のYES)、続くステップS2121の処理をL0、L1それぞれにおいて行う(ステップS2118〜S2122)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   On the other hand, when the partition mode (PartMode) is N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), and nR × 2N partition (PART_nRx2N) and the partition index PartIdx is 1 (YES in step S2102), the following step S2121 This process is performed in each of L0 and L1 (steps S2118 to S2122). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2121)。   The LX reference index refIdxLXCol of the time merge candidate is set to a default value of 0 (step S2121).

L0、L1それぞれにおいてステップS2121までの処理を行い(ステップS2118〜S2122)、本参照インデックス導出処理を終了する。   The process up to step S2121 is performed in each of L0 and L1 (steps S2118 to S2122), and this reference index derivation process is terminated.

実施例5
次に、本実施の形態の実施例5について説明する。図28は本実施の形態の実施例5における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを示す図である。本実施の形態の実施例5では、分割モード(PartMode)に応じて、導出対象の予測ブロックの左辺に近接する予測ブロックを参照するかどうかを切り替える。符号化ブロック外となる辺に近接する予測ブロックを参照する。左辺に近接する予測ブロックが符号化ブロック外となる場合に参照し、符号化ブロック内となる場合には参照せずデフォルト値とする。分割モード(PartMode)が2N×2N分割(PART_2Nx2N)では、図28(a)に示すように、導出対象の予測ブロックの左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。
Example 5
Next, Example 5 of the present embodiment will be described. FIG. 28 is a diagram illustrating adjacent blocks that are referred to in the time merge candidate reference index derivation process according to the fifth example of the present embodiment. In Example 5 of the present embodiment, whether to refer to a prediction block adjacent to the left side of the prediction block to be derived is switched according to the division mode (PartMode). Reference is made to a prediction block close to a side outside the coding block. This is referred to when the prediction block close to the left side is outside the coding block, and when it is inside the coding block, it is not referred to and is set as a default value. When the partition mode (PartMode) is 2N × 2N partition (PART_2Nx2N), as shown in FIG. 28A, the prediction block A0 adjacent to the left of the prediction block to be derived is referred to, and the LX reference index of the temporal merge candidate Is set to the value of the reference index of the LX of the prediction block A0.

処理対象の符号化ブロックを上下に並ぶ2つの予測ブロックに分割する分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)では、図28(b)、(c)、(d)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロックでは左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは左に近接する予測ブロックA1を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA1のLXの参照インデックスの値に設定する。参照する予測ブロックA0、A1が共に符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   When the division mode (PartMode) for dividing the coding block to be processed into two prediction blocks arranged vertically is 2N × N division (PART_2NxN), 2N × nU division (PART_2NxnU), and 2N × nD division (PART_2NxnD), FIG. As shown in (b), (c), and (d), in the prediction block whose partitioning index PartIdx to be derived is 0, the prediction block A0 that is adjacent to the left is referred to, and the LX reference index that is the temporal merge candidate is the prediction block Set to the value of the LX reference index of A0. In a prediction block whose division index PartIdx to be derived is 1, the prediction block A1 that is adjacent to the left is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A1. Since the prediction blocks A0 and A1 to be referred to are both outside the coding block, the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1 can be derived in parallel.

処理対象の符号化ブロックを左右に並ぶ2つの予測ブロックに分割する分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)では、導出対象の分割インデックスPartIdxが0および1の予測ブロックでは共に近接する予測ブロックを参照せず、時間マージ候補のLXの参照インデックスをデフォルト値の0に設定する。処理対象の予測ブロックに近接する予測ブロックを参照しないので、符号化ブロック内の予測ブロックを参照することも無く、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   When the division mode (PartMode) for dividing the processing target coding block into two prediction blocks arranged side by side is N × 2N division (PART_Nx2N), nL × 2N division (PART_nLx2N), and nR × 2N division (PART_nRx2N) In the prediction blocks having the partition index PartIdx of 0 and 1, both of the prediction blocks that are adjacent to each other are not referred to, and the LX reference index of the temporal merge candidate is set to a default value of 0. Since the prediction block adjacent to the prediction block to be processed is not referred to, the prediction block in the coding block is not referred to, and the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1, respectively. It can be derived in parallel.

ただし、近接する予測ブロックAがLX予測を行わない場合は時間マージ候補のLXの参照インデックスの値をデフォルト値の0とする。近接する予測ブロックAがLX予測を行わない場合や導出対象の予測ブロックを含む符号化ブロックの分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)の場合に、時間マージ候補のLXの参照インデックスのデフォルト値を0とする理由は、インター予測において参照インデックスの値が0に対応する参照ピクチャが最も選択される確率が高いからである。ただし、これに限定されず、参照インデックスのデフォルト値を0以外の値(1、2など)としても良いし、シーケンスレベル、ピクチャレベル、またはスライスレベルで符号化ストリーム内に参照インデックスのデフォルト値を示すシンタックス要素を設置し伝送できるようにして、符号化側で選択できるようにしても良い。   However, when the adjacent prediction block A does not perform LX prediction, the value of the reference index of the LX that is a temporal merge candidate is set to 0 as the default value. When the adjacent prediction block A does not perform LX prediction, or the partition mode (PartMode) of the encoding block including the prediction block to be derived is N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), nR × 2N partition In the case of (PART_nRx2N), the reason why the default value of the reference index of the LX as a temporal merge candidate is set to 0 is that there is a high probability that a reference picture corresponding to a reference index value of 0 is most selected in inter prediction. . However, the present invention is not limited to this, and the default value of the reference index may be a value other than 0 (1, 2, etc.), and the default value of the reference index may be set in the encoded stream at the sequence level, picture level, or slice level. The syntax element shown may be installed and transmitted so that it can be selected on the encoding side.

図29は本実施の形態の実施例5の方法による図18のステップS202の時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。まず、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)でない場合(ステップS2101のNO)、即ち2N×2N分割(PART_2Nx2N)、2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)である場合、符号化情報格納メモリ115または210から導出対象の予測ブロックの左に近接する予測ブロックAの符号化情報を取得する(ステップS2111)。   FIG. 29 is a flow chart for explaining the procedure for deriving the reference index of the time merge candidate in step S202 of FIG. 18 according to the method of the fifth embodiment of the present embodiment. First, when the partition mode (PartMode) is not N × 2N partition (PART_Nx2N), nL × 2N partition (PART_nLx2N), or nR × 2N partition (PART_nRx2N) (NO in step S2101), that is, 2N × 2N partition (PART_2Nx2N), 2N In the case of × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), and 2N × nD partition (PART_2NxnD), the code of the prediction block A adjacent to the left of the prediction block to be derived from the encoded information storage memory 115 or 210 Information is acquired (step S2111).

続くステップS2113からステップS2115までの処理をL0、L1それぞれにおいて行う(ステップS2112〜S2116)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The subsequent processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0でない場合(ステップS2113のYES)、時間マージ候補のLXの参照インデックスrefIdxLXColを予測ブロックAのLXの参照インデックスrefIdxLX[xA][yA]の値と同じ値に設定する(ステップS2114)。ここで、xA、yAはピクチャ内での予測ブロックAの左上の画素の位置を示すインデックスである。   When the flag predFlagLX [xA] [yA] indicating whether to perform LX prediction of the prediction block A is not 0 (YES in step S2113), the LX reference index refIdxLXCol of the temporal merge candidate is used as the LX reference index refIdxLX of the prediction block A. The same value as [xA] [yA] is set (step S2114). Here, xA and yA are indexes indicating the position of the upper left pixel of the prediction block A in the picture.

なお、本実施の形態においては、予測ブロックN(N=A,B)において、予測ブロックNが符号化または復号対象のスライス外で利用できない場合や予測ブロックNが符号化または復号順序で符号化または復号対象の予測ブロックよりも後のために符号化または復号されておらず利用できない場合や予測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、予測ブロックNのL1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に0である。ここで、xN、yNはピクチャ内での予測ブロックNの左上の画素の位置を示すインデックスである。予測ブロックNの予測モードPredModeがインター予測(MODE_INTER)で、インター予測モードがL0予測(Pred_L0)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は1, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は0である。予測ブロックNのインター予測モードがL1予測(Pred_L1)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は0, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は1である。予測ブロックNのインター予測モードが双予測(Pred_BI)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に1である。   In the present embodiment, in the prediction block N (N = A, B), when the prediction block N cannot be used outside the slice to be encoded or decoded, the prediction block N is encoded or encoded in the decoding order. Alternatively, a flag indicating whether or not to use L0 prediction when the encoding block is not encoded or decoded after the decoding target prediction block and cannot be used, or when the prediction mode PredMode of the prediction block N is intra prediction (MODE_INTRA). Both predFlagL0 [xN] [yN] and the flag predFlagL1 [xN] [yN] indicating whether to use the L1 prediction of the prediction block N are 0. Here, xN and yN are indexes indicating the position of the upper left pixel of the prediction block N in the picture. When the prediction mode PredMode of the prediction block N is inter prediction (MODE_INTER) and the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N is 1 , Flag predFlagL1 [xN] [yN] indicating whether to use L1 prediction is zero. When the inter prediction mode of the prediction block N is L1 prediction (Pred_L1), a flag predFlagL0 [xN] [yN] indicating whether or not to use the L0 prediction of the prediction block N is 0 and a flag indicating whether or not to use the L1 prediction predFlagL1 [xN] [yN] is 1. When the inter prediction mode of the prediction block N is bi-prediction (Pred_BI), a flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N, and a flag predFlagL1 [indicating whether to use the L1 prediction xN] [yN] are both 1.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0である場合(ステップS2113のNO)、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2115)。   When the flag predFlagLX [xA] [yA] indicating whether or not to perform LX prediction of the prediction block A is 0 (NO in step S2113), the reference index refIdxLXCol of the LX that is a temporal merge candidate is set to a default value of 0 ( Step S2115).

L0、L1それぞれにおいてステップS2113からステップS2115までの処理を行い(ステップS2112〜S2116)、本参照インデックス導出処理を終了する。   The processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116), and this reference index derivation processing is terminated.

一方、分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)である場合(ステップS2101のYES)、続くステップS2121の処理をL0、L1それぞれにおいて行う(ステップS2118〜S2122)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   On the other hand, when the division mode (PartMode) is N × 2N division (PART_Nx2N), nL × 2N division (PART_nLx2N), or nR × 2N division (PART_nRx2N) (YES in step S2101), the processing in subsequent step S2121 is performed as L0 and L1. It performs in each (step S2118-S2122). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2121)。   The LX reference index refIdxLXCol of the time merge candidate is set to a default value of 0 (step S2121).

L0、L1それぞれにおいてステップS2121までの処理を行い(ステップS2118〜S2122)、本参照インデックス導出処理を終了する。   The process up to step S2121 is performed in each of L0 and L1 (steps S2118 to S2122), and this reference index derivation process is terminated.

実施例6
次に、本実施の形態の実施例6について説明する。本実施の形態の実施例6では、導出対象の予測モードを含む符号化ブロック(処理対象の符号化ブロック)の分割モード(PartMode)や導出対象の予測モードの分割インデックスPartIdxの値に関わらず、近接する予測ブロックを参照せず、時間マージ候補のLXの参照インデックスをデフォルト値の0に設定する。処理対象の予測ブロックに近接する予測ブロックを参照しないので、符号化ブロック内の予測ブロックを参照することも無く、同じ符号化ブロックに含まれる分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補をそれぞれ並列に導出することができる。
Example 6
Next, Example 6 of the present embodiment will be described. In Example 6 of the present embodiment, regardless of the value of the partition mode (PartMode) of the coding block including the prediction mode to be derived (the coding block to be processed) and the partition index PartIdx of the prediction mode to be derived, The reference index of LX as a temporal merge candidate is set to a default value of 0 without referring to adjacent prediction blocks. Since the prediction block adjacent to the prediction block to be processed is not referred to, the prediction block in the encoded block is not referred to, and the time of two prediction blocks whose division indexes PartIdx are 0 and 1 included in the same encoded block Merge candidates can be derived in parallel.

時間マージ候補のLXの参照インデックスのデフォルト値を0とする理由は、インター予測において参照インデックスの値が0に対応する参照ピクチャが最も選択される確率が高いからである。ただし、これに限定されず、参照インデックスのデフォルト値を0以外の値(1、2など)としても良いし、シーケンスレベル、ピクチャレベル、またはスライスレベルで符号化ストリーム内に参照インデックスのデフォルト値を示すシンタックス要素を設置し伝送できるようにして、符号化側で選択できるようにしても良い。   The reason why the default value of the LX reference index of the temporal merge candidate is set to 0 is that there is a high probability that the reference picture corresponding to the reference index value of 0 is most selected in inter prediction. However, the present invention is not limited to this, and the default value of the reference index may be a value other than 0 (1, 2, etc.), and the default value of the reference index may be set in the encoded stream at the sequence level, picture level, or slice level. The syntax element shown may be installed and transmitted so that it can be selected on the encoding side.

さらに、実施例6は近接ブロックを参照せずに、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定するので、実施例1、2、3、4、5および後述する実施例7に比べて、導出処理を簡略化することができる。   Further, in the sixth embodiment, the reference index refIdxLXCol of the time merge candidate LX is set to the default value of 0 without referring to the adjacent block, so the first, second, third, fourth, fifth, and later-described seventh embodiment. The derivation process can be simplified compared to.

図30は本実施の形態の実施例6の方法による図18のステップS202の時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。   FIG. 30 is a flowchart for describing the reference process for deriving the reference index of the time merge candidate in step S202 of FIG. 18 according to the method of Example 6 of the present embodiment.

ステップS2115の処理をL0、L1それぞれにおいて行う(ステップS2112〜S2116)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The processing in step S2115 is performed in each of L0 and L1 (steps S21112 to S2116). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2115)。   The LX reference index refIdxLXCol of the time merge candidate is set to a default value of 0 (step S2115).

L0、L1それぞれにおいてステップS2115の処理を行い(ステップS2112〜S2116)、本参照インデックス導出処理を終了する。   The processing of step S2115 is performed in each of L0 and L1 (steps S2112 to S2116), and this reference index derivation processing is terminated.

実施例7
次に、本実施の形態の実施例7について説明する。図31は本実施の形態の実施例7における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを示す図である。本実施の形態の実施例7では、導出対象の予測モードを含む符号化ブロック(処理対象の符号化ブロック)の分割モード(PartMode)や導出対象の予測モードの分割インデックスPartIdxの値に関わらず、図31(a)〜(g)に示すように、処理対象の符号化ブロックの左に近接する予測ブロックAを参照し、時間マージ候補のLXの参照インデックスを予測ブロックAのLXの参照インデックスの値に設定する。参照する予測ブロックAが符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。
Example 7
Next, Example 7 of the present embodiment will be described. FIG. 31 is a diagram illustrating adjacent blocks that are referred to in the time merge candidate reference index derivation process according to the seventh embodiment of the present embodiment. In Example 7 of the present embodiment, regardless of the value of the partition mode (PartMode) of the encoding block (the processing target encoding block) including the prediction mode to be derived and the value of the partition index PartIdx of the prediction mode to be derived, As illustrated in FIGS. 31A to 31G, the prediction block A adjacent to the left of the processing target encoding block is referred to, and the LX reference index of the prediction block A is used as the LX reference index of the prediction block A. Set to value. Since the prediction block A to be referred to is outside the encoded block, the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1 can be derived in parallel.

ただし、近接する予測ブロックAがLX予測を行わない場合は時間マージ候補のLXの参照インデックスの値をデフォルト値の0とする。近接する予測ブロックAがLX予測を行わない場合に、時間マージ候補のLXの参照インデックスのデフォルト値を0とする理由は、インター予測において参照インデックスの値が0に対応する参照ピクチャが最も選択される確率が高いからである。ただし、これに限定されず、参照インデックスのデフォルト値を0以外の値(1、2など)としても良いし、シーケンスレベル、ピクチャレベル、またはスライスレベルで符号化ストリーム内に参照インデックスのデフォルト値を示すシンタックス要素を設置し伝送できるようにして、符号化側で選択できるようにしても良い。   However, when the adjacent prediction block A does not perform LX prediction, the value of the reference index of the LX that is a temporal merge candidate is set to 0 as the default value. When the adjacent prediction block A does not perform LX prediction, the reason why the default value of the reference index of the temporal merge candidate LX is set to 0 is that the reference picture corresponding to the reference index value of 0 is most selected in inter prediction. This is because the probability is high. However, the present invention is not limited to this, and the default value of the reference index may be a value other than 0 (1, 2, etc.), and the default value of the reference index may be set in the encoded stream at the sequence level, picture level, or slice level. The syntax element shown may be installed and transmitted so that it can be selected on the encoding side.

実施例7は符号化ブロック内のそれぞれの予測ブロックの時間マージ候補の参照インデックスが共通の値に設定されるので、符号化ブロック内のそれぞれの予測ブロック毎に時間マージ候補の参照インデックスを導出する必要が無く、導出処理を簡略化することができる。   In the seventh embodiment, since the reference index of the temporal merge candidate of each prediction block in the encoded block is set to a common value, the reference index of the temporal merge candidate is derived for each prediction block in the encoded block. There is no need, and the derivation process can be simplified.

図32は本実施の形態の実施例7の方法による図18のステップS202の時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。まず、符号化情報格納メモリ115または210から処理対象の符号化ブロックの左に近接する予測ブロックAの符号化情報を取得する(ステップS2131)。   FIG. 32 is a flow chart for explaining the procedure for deriving the reference index of the time merge candidate in step S202 of FIG. 18 by the method of Example 7 of the present embodiment. First, the coding information of the prediction block A adjacent to the left of the coding block to be processed is acquired from the coding information storage memory 115 or 210 (step S2131).

続くステップS2133からステップS2135までの処理をL0、L1それぞれにおいて行う(ステップS2132〜S2136)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The subsequent processing from step S2133 to step S2135 is performed in each of L0 and L1 (steps S2132 to S2136). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

処理対象の符号化ブロックの左に近接する予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0でない場合(ステップS2133のYES)、時間マージ候補のLXの参照インデックスrefIdxLXColを予測ブロックAのLXの参照インデックスrefIdxLX[xA][yA]の値と同じ値に設定する(ステップS2134)。ここで、xA、yAはピクチャ内での処理対象の符号化ブロックの左に近接する予測ブロックAの左上の画素の位置を示すインデックスである。   When the flag predFlagLX [xA] [yA] indicating whether or not to perform LX prediction of the prediction block A adjacent to the left of the processing target coding block is not 0 (YES in step S2133), the LX reference index of the temporal merge candidate refIdxLXCol is set to the same value as the value of the reference index refIdxLX [xA] [yA] of the LX of the prediction block A (step S2134). Here, xA and yA are indexes indicating the position of the upper left pixel of the prediction block A adjacent to the left of the coding block to be processed in the picture.

なお、本実施の形態においては、予測ブロックN(N=A,B)において、予測ブロックNが符号化または復号対象のスライス外で利用できない場合や予測ブロックNが符号化または復号順序で符号化または復号対象の予測ブロックよりも後のために符号化または復号されておらず利用できない場合や予測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、予測ブロックNのL1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に0である。ここで、xN、yNはピクチャ内での予測ブロックNの左上の画素の位置を示すインデックスである。予測ブロックNの予測モードPredModeがインター予測(MODE_INTER)で、インター予測モードがL0予測(Pred_L0)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は1, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は0である。予測ブロックNのインター予測モードがL1予測(Pred_L1)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は0, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は1である。予測ブロックNのインター予測モードが双予測(Pred_BI)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に1である。   In the present embodiment, in the prediction block N (N = A, B), when the prediction block N cannot be used outside the slice to be encoded or decoded, the prediction block N is encoded or encoded in the decoding order. Alternatively, a flag indicating whether or not to use L0 prediction when the encoding block is not encoded or decoded after the decoding target prediction block and cannot be used, or when the prediction mode PredMode of the prediction block N is intra prediction (MODE_INTRA). Both predFlagL0 [xN] [yN] and the flag predFlagL1 [xN] [yN] indicating whether to use the L1 prediction of the prediction block N are 0. Here, xN and yN are indexes indicating the position of the upper left pixel of the prediction block N in the picture. When the prediction mode PredMode of the prediction block N is inter prediction (MODE_INTER) and the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N is 1 , Flag predFlagL1 [xN] [yN] indicating whether to use L1 prediction is zero. When the inter prediction mode of the prediction block N is L1 prediction (Pred_L1), a flag predFlagL0 [xN] [yN] indicating whether or not to use the L0 prediction of the prediction block N is 0 and a flag indicating whether or not to use the L1 prediction predFlagL1 [xN] [yN] is 1. When the inter prediction mode of the prediction block N is bi-prediction (Pred_BI), a flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N, and a flag predFlagL1 [indicating whether to use the L1 prediction xN] [yN] are both 1.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0である場合(ステップS2133のNO)、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2135)。   When the flag predFlagLX [xA] [yA] indicating whether to perform LX prediction of the prediction block A is 0 (NO in step S2133), the reference index refIdxLXCol of the LX that is a temporal merge candidate is set to 0 as a default value ( Step S2135).

L0、L1それぞれにおいてステップS2133からステップS2135までの処理を行い(ステップS2132〜S2136)、本参照インデックス導出処理を終了する。   The processing from step S2133 to step S2135 is performed in each of L0 and L1 (steps S2132 to S2136), and this reference index derivation processing is terminated.

なお、実施例7においては導出対象の予測ブロックを含む符号化ブロックの左辺に近接する予測ブロックを参照するかどうかを切り替えたが、左辺に近接する予測ブロックの代わりに上辺に近接する予測ブロックを参照するかどうかを切り替えてもよい。   In the seventh embodiment, whether to refer to the prediction block adjacent to the left side of the encoded block including the prediction block to be derived is switched. However, instead of the prediction block adjacent to the left side, the prediction block close to the upper side is changed. You may switch whether to refer.

実施例8
次に、本実施の形態の実施例8について説明する。図43は本実施の形態の実施例8における時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを示す図である。本実施の形態の実施例8では、符号化ブロックの分割モード(PartMode)に関わらず、予測ブロックの分割インデックスPartIdxに応じて、導出対象の予測ブロックの左辺に近接する予測ブロックを参照するかどうかを切り替える。予測ブロックの分割インデックスPartIdxが0の場合は左辺に近接する予測ブロックを参照し、分割インデックスPartIdxが0以外の場合は近接する予測ブロックを参照せずデフォルト値とする。予測ブロックの分割インデックスPartIdxが0の場合はどの分割モード(PartMode)においても左辺に近接する予測ブロックは必ず符号化ブロック外となるが、予測ブロックの分割インデックスPartIdxが0以外の場合は分割モード(PartMode)よっては符号化ブロック内となる。図43(a)に示すように、導出対象の予測ブロックの左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。
Example 8
Next, Example 8 of the present embodiment will be described. FIG. 43 is a diagram illustrating neighboring blocks referred to in the time merge candidate reference index derivation process according to the eighth embodiment of the present embodiment. In Example 8 of the present embodiment, whether to refer to a prediction block adjacent to the left side of the prediction block to be derived, according to the prediction index PartIdx of the prediction block, regardless of the encoding block partition mode (PartMode) Switch. When the partition index PartIdx of the prediction block is 0, the prediction block adjacent to the left side is referred to, and when the partition index PartIdx is other than 0, the adjacent prediction block is not referred to and is set as a default value. When the partition index PartIdx of the prediction block is 0, in any partition mode (PartMode), the prediction block close to the left side is always outside the encoded block, but when the partition index PartIdx of the prediction block is other than 0, the partition mode ( PartMode) depending on the coding block. As illustrated in FIG. 43A, the prediction block A0 adjacent to the left of the prediction block to be derived is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A0.

処理対象の符号化ブロックを上下に並ぶ2つの予測ブロックに分割する分割モード(PartMode)が2N×N分割(PART_2NxN)、2N×nU分割(PART_2NxnU)、2N×nD分割(PART_2NxnD)、および処理対象の符号化ブロックを左右に並ぶ2つの予測ブロックに分割する分割モード(PartMode)がN×2N分割(PART_Nx2N)、nL×2N分割(PART_nLx2N)、nR×2N分割(PART_nRx2N)では、図43(b)、(c)、(d)、(e)、(f)、(g)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロックでは左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは近接する予測ブロックを参照せず、時間マージ候補のLXの参照インデックスをデフォルト値の0に設定する。参照する予測ブロックA0が符号化ブロック外にあるので、分割インデックスPartIdxが0と1の2つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   The partition mode (PartMode) for dividing the processing target coding block into two prediction blocks arranged vertically is 2N × N partition (PART_2NxN), 2N × nU partition (PART_2NxnU), 2N × nD partition (PART_2NxnD), and processing target When the division mode (PartMode) for dividing the encoded block of 2 into two prediction blocks arranged side by side is N × 2N division (PART_Nx2N), nL × 2N division (PART_nLx2N), and nR × 2N division (PART_nRx2N), FIG. ), (C), (d), (e), (f), and (g), the prediction block A0 that is adjacent to the left is referred to in the prediction block with the division index PartIdx to be derived, and the time The LX reference index of the merge candidate is set to the value of the LX reference index of the prediction block A0. In the prediction block whose partition index PartIdx to be derived is 1, the adjacent prediction block is not referred to, and the LX reference index of the temporal merge candidate is set to the default value 0. Since the prediction block A0 to be referred to is outside the encoded block, the reference indexes of the temporal merge candidates of the two prediction blocks whose division indexes PartIdx are 0 and 1 can be derived in parallel.

ただし、近接する予測ブロックAがLX予測を行わない場合は時間マージ候補のLXの参照インデックスの値をデフォルト値の0とする。近接する予測ブロックAがLX予測を行わない場合や導出対象の予測ブロックの分割インデックスPartIdxが1の場合に、時間マージ候補のLXの参照インデックスのデフォルト値を0とする理由は、インター予測において参照インデックスの値が0に対応する参照ピクチャが最も選択される確率が高いからである。ただし、これに限定されず、参照インデックスのデフォルト値を0以外の値(1、2など)としても良いし、シーケンスレベル、ピクチャレベル、またはスライスレベルで符号化ストリーム内に参照インデックスのデフォルト値を示すシンタックス要素を設置し伝送できるようにして、符号化側で選択できるようにしても良い。   However, when the adjacent prediction block A does not perform LX prediction, the value of the reference index of the LX that is a temporal merge candidate is set to 0 as the default value. The reason why the default value of the LX reference index of the temporal merge candidate is 0 when the adjacent prediction block A does not perform LX prediction or when the partition index PartIdx of the prediction block to be derived is 1 is referred to in inter prediction This is because the reference picture corresponding to the index value 0 is most likely to be selected. However, the present invention is not limited to this, and the default value of the reference index may be a value other than 0 (1, 2, etc.), and the default value of the reference index may be set in the encoded stream at the sequence level, picture level, or slice level. The syntax element shown may be installed and transmitted so that it can be selected on the encoding side.

図44は本実施の形態の実施例8の方法による図18のステップS202の時間マージ候補の参照インデックスの導出処理手順を説明するフローチャートである。まず、分割インデックスPartIdxが0である場合(ステップS2104のYES)、符号化情報格納メモリ115または210から導出対象の予測ブロックの左に近接する予測ブロックAの符号化情報を取得する(ステップS2111)。   FIG. 44 is a flowchart for describing the procedure for deriving the reference index of the time merge candidate in step S202 of FIG. 18 according to the method of Example 8 of the present embodiment. First, when the division index PartIdx is 0 (YES in step S2104), the encoding information of the prediction block A adjacent to the left of the prediction block to be derived is acquired from the encoding information storage memory 115 or 210 (step S2111). .

続くステップS2113からステップS2115までの処理をL0、L1それぞれにおいて行う(ステップS2112〜S2116)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   The subsequent processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0でない場合(ステップS2113のYES)、時間マージ候補のLXの参照インデックスrefIdxLXColを予測ブロックAのLXの参照インデックスrefIdxLX[xA][yA]の値と同じ値に設定する(ステップS2114)。ここで、xA、yAはピクチャ内での予測ブロックAの左上の画素の位置を示すインデックスである。   When the flag predFlagLX [xA] [yA] indicating whether to perform LX prediction of the prediction block A is not 0 (YES in step S2113), the LX reference index refIdxLXCol of the temporal merge candidate is used as the LX reference index refIdxLX of the prediction block A. The same value as [xA] [yA] is set (step S2114). Here, xA and yA are indexes indicating the position of the upper left pixel of the prediction block A in the picture.

なお、本実施の形態においては、予測ブロックN(N=A,B)において、予測ブロックNが符号化または復号対象のスライス外で利用できない場合や予測ブロックNが符号化または復号順序で符号化または復号対象の予測ブロックよりも後のために符号化または復号されておらず利用できない場合や予測ブロックNの予測モードPredModeがイントラ予測(MODE_INTRA)の場合、L0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、予測ブロックNのL1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に0である。ここで、xN、yNはピクチャ内での予測ブロックNの左上の画素の位置を示すインデックスである。予測ブロックNの予測モードPredModeがインター予測(MODE_INTER)で、インター予測モードがL0予測(Pred_L0)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は1, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は0である。予測ブロックNのインター予測モードがL1予測(Pred_L1)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]は0, L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は1である。予測ブロックNのインター予測モードが双予測(Pred_BI)の場合、予測ブロックNのL0予測を利用するかどうかを示すフラグpredFlagL0[xN][yN]、L1予測を利用するかどうかを示すフラグpredFlagL1[xN][yN]は共に1である。   In the present embodiment, in the prediction block N (N = A, B), when the prediction block N cannot be used outside the slice to be encoded or decoded, the prediction block N is encoded or encoded in the decoding order. Alternatively, a flag indicating whether or not to use L0 prediction when the encoding block is not encoded or decoded after the decoding target prediction block and cannot be used, or when the prediction mode PredMode of the prediction block N is intra prediction (MODE_INTRA). Both predFlagL0 [xN] [yN] and the flag predFlagL1 [xN] [yN] indicating whether to use the L1 prediction of the prediction block N are 0. Here, xN and yN are indexes indicating the position of the upper left pixel of the prediction block N in the picture. When the prediction mode PredMode of the prediction block N is inter prediction (MODE_INTER) and the inter prediction mode is L0 prediction (Pred_L0), the flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N is 1 , Flag predFlagL1 [xN] [yN] indicating whether to use L1 prediction is zero. When the inter prediction mode of the prediction block N is L1 prediction (Pred_L1), a flag predFlagL0 [xN] [yN] indicating whether or not to use the L0 prediction of the prediction block N is 0 and a flag indicating whether or not to use the L1 prediction predFlagL1 [xN] [yN] is 1. When the inter prediction mode of the prediction block N is bi-prediction (Pred_BI), a flag predFlagL0 [xN] [yN] indicating whether to use the L0 prediction of the prediction block N, and a flag predFlagL1 [indicating whether to use the L1 prediction xN] [yN] are both 1.

予測ブロックAのLX予測を行うかどうかを示すフラグpredFlagLX[xA][yA]が0である場合(ステップS2113のNO)、時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2115)。   When the flag predFlagLX [xA] [yA] indicating whether or not to perform LX prediction of the prediction block A is 0 (NO in step S2113), the reference index refIdxLXCol of the LX that is a temporal merge candidate is set to a default value of 0 ( Step S2115).

L0、L1それぞれにおいてステップS2113からステップS2115までの処理を行い(ステップS2112〜S2116)、本参照インデックス導出処理を終了する。   The processing from step S2113 to step S2115 is performed in each of L0 and L1 (steps S2112 to S2116), and this reference index derivation processing is terminated.

一方、分割インデックスPartIdxが0でない場合(ステップS2104のNO)、続くステップS2121の処理をL0、L1それぞれにおいて行う(ステップS2118〜S2122)。なお、時間マージ候補のL0の参照インデックスを導出する際にはLXはL0に設定され、L1の参照インデックスを導出する際にはLXはL1に設定される。ただし、スライスタイプslice_typeがPスライスの場合、インター予測モードとしてL0予測(Pred_L0)だけがあり、L1予測(Pred_L1)、双予測(Pred_BI)がないので、L1に纏わる処理を省略することができる。   On the other hand, when the division index PartIdx is not 0 (NO in step S2104), the subsequent processing in step S2121 is performed in each of L0 and L1 (steps S2118 to S2122). Note that LX is set to L0 when deriving the L0 reference index of the temporal merge candidate, and LX is set to L1 when deriving the L1 reference index. However, when the slice type slice_type is a P slice, only the L0 prediction (Pred_L0) is provided as the inter prediction mode, and there is no L1 prediction (Pred_L1) and bi-prediction (Pred_BI). Therefore, the processing related to L1 can be omitted.

時間マージ候補のLXの参照インデックスrefIdxLXColをデフォルト値の0に設定する(ステップS2121)。   The LX reference index refIdxLXCol of the time merge candidate is set to a default value of 0 (step S2121).

L0、L1それぞれにおいてステップS2121までの処理を行い(ステップS2118〜S2122)、本参照インデックス導出処理を終了する。   The process up to step S2121 is performed in each of L0 and L1 (steps S2118 to S2122), and this reference index derivation process is terminated.

なお、実施例8においては導出対象の予測ブロックの左辺に近接する予測ブロックを参照するかどうかを切り替えたが、左辺に近接する予測ブロックの代わりに上辺に近接する予測ブロックを参照するかどうかを切り替えてもよい。   In the eighth embodiment, whether or not to refer to the prediction block close to the left side of the prediction block to be derived is switched, but whether or not to refer to the prediction block close to the upper side instead of the prediction block close to the left side is determined. You may switch.

また、本実施の形態においては、符号化ブロックの分割モード(PartMode)がN×N分割(PART_NxN)を定義しないものとしているが、N×N分割(PART_NxN)を定義することもできる。符号化ブロックの分割モード(PartMode)がN×N分割(PART_NxN)においても、処理対象の符号化ブロックに含まれる予測ブロックの時間マージ候補の参照インデックスを導出する際には、処理対象の予測ブロックに含まれる符号化ブロックと同じ符号化ブロックに含まれる近接する予測ブロックを参照せずに導出することで、分割インデックスPartIdxが0、1、2、3の4つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   In the present embodiment, the partition mode (PartMode) of the encoded block does not define N × N partition (PART_NxN), but N × N partition (PART_NxN) can also be defined. Even when the coding block partition mode (PartMode) is N × N partition (PART_NxN), when deriving the reference index of the prediction block temporal merge candidate included in the processing target coding block, the processing target prediction block By deriving without referring to adjacent prediction blocks included in the same encoding block as the encoding block included in the reference block, reference to temporal merge candidates of four prediction blocks whose partition index PartIdx is 0, 1, 2, 3 Each index can be derived in parallel.

例えば、N×N分割(PART_NxN)では、近接する予測ブロックを参照せず、時間マージ候補のLXの参照インデックスをデフォルト値の0に設定する。導出対象の予測ブロックに近接する予測ブロックを参照しないので、分割インデックスPartIdxが0、1、2、3の4つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   For example, in N × N division (PART_NxN), adjacent reference blocks are not referenced, and the LX reference index of the temporal merge candidate is set to a default value of 0. Since the prediction block adjacent to the prediction block to be derived is not referred to, the reference indexes of the temporal merge candidates of the four prediction blocks whose division indexes PartIdx are 0, 1, 2, and 3 can be derived in parallel.

または、近接ブロックの参照インデックスを参照して、時間マージ候補の参照インデックスを導出することもできる。図33はN×N分割(PART_NxN)の符号化ブロックの時間マージ候補の参照インデックスの導出処理において参照する近接ブロックを説明する図である。   Alternatively, the reference index of the temporal merge candidate can be derived by referring to the reference index of the neighboring block. FIG. 33 is a diagram for explaining adjacent blocks to be referred to in the process of deriving the reference index of the temporal merge candidate of the N × N division (PART_NxN) encoded block.

図33(a)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロックでは左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1の予測ブロックでは上に近接する予測ブロックB1を参照し、時間マージ候補のLXの参照インデックスを予測ブロックB1のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが2の予測ブロックでは左に近接する予測ブロックA2を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA2のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが3の予測ブロックでは近接する予測ブロックを参照せず、時間マージ候補のLXの参照インデックスをデフォルト値の0に設定する。処理対象の予測ブロックの左に近接する予測ブロックA0、A2、上に近接する予測ブロックB1が共に符号化ブロック外にあるので、分割インデックスPartIdxが0、1、2、3の4つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   As shown in FIG. 33 (a), in the prediction block whose partitioning index PartIdx to be derived is 0, the prediction block A0 adjacent to the left is referred to, and the LX reference index of the prediction block A0 is used as the LX reference index of the temporal merge candidate. Set to the value of. In a prediction block whose partition index PartIdx to be derived is 1, the prediction block B1 that is close to the top is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block B1. In a prediction block with a partition index PartIdx of 2 to be derived, the prediction block A2 adjacent to the left is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A2. In a prediction block whose partitioning index PartIdx to be derived is 3, the adjacent prediction block is not referred to, and the LX reference index of the temporal merge candidate is set to a default value of 0. Since the prediction blocks A0 and A2 adjacent to the left of the prediction block to be processed and the prediction block B1 adjacent above are both outside the coding block, the four prediction blocks whose division index PartIdx is 0, 1, 2, 3 Reference indices for temporal merge candidates can be derived in parallel.

または、図33(b)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロックでは左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが2の予測ブロックでは左に近接する予測ブロックA2を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA2のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが1または3の予測ブロックでは近接する予測ブロックを参照せず、時間マージ候補のLXの参照インデックスをデフォルト値の0に設定する。処理対象の予測ブロックの左に近接する予測ブロックA0、A2が共に符号化ブロック外にあるので、分割インデックスPartIdxが0、1、2、3の4つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   Alternatively, as shown in FIG. 33 (b), in the prediction block whose partitioning index PartIdx to be derived is 0, the prediction block A0 adjacent to the left is referred to, and the LX reference index of the temporal merge candidate is set to the LX of the prediction block A0. Set to the value of the reference index. In a prediction block with a partition index PartIdx of 2 to be derived, the prediction block A2 adjacent to the left is referred to, and the LX reference index of the temporal merge candidate is set to the value of the LX reference index of the prediction block A2. In the prediction block whose partition index PartIdx to be derived is 1 or 3, the adjacent prediction block is not referred to, and the LX reference index of the temporal merge candidate is set to the default value 0. Since both the prediction blocks A0 and A2 adjacent to the left of the prediction block to be processed are outside the encoding block, the reference indexes of the temporal merge candidates of the four prediction blocks whose division indexes PartIdx are 0, 1, 2, and 3 are respectively set. It can be derived in parallel.

または、図33(c)に示すように、処理対象の符号化ブロックの左に近接する予測ブロックAを参照し、時間マージ候補のLXの参照インデックスを予測ブロックAのLXの参照インデックスの値に設定する。処理対象の符号化ブロックの左に近接する予測ブロックAが符号化ブロック外にあるので、分割インデックスPartIdxが0、1、2、3の4つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   Alternatively, as illustrated in FIG. 33C, the prediction block A adjacent to the left of the processing target coding block is referred to, and the LX reference index of the temporal merge candidate is changed to the value of the LX reference index of the prediction block A. Set. Since the prediction block A adjacent to the left of the coding block to be processed is outside the coding block, the reference indexes of the temporal merge candidates of the four prediction blocks whose division indexes PartIdx are 0, 1, 2, and 3 are respectively parallel. Can be derived.

または、図33(d)に示すように、導出対象の分割インデックスPartIdxが0の予測ブロックでは左に近接する予測ブロックA0を参照し、時間マージ候補のLXの参照インデックスを予測ブロックA0のLXの参照インデックスの値に設定する。導出対象の分割インデックスPartIdxが0以外(PartIdxが1,2または3)の予測ブロックでは近接する予測ブロックを参照せず、時間マージ候補のLXの参照インデックスをデフォルト値の0に設定する。処理対象の予測ブロックの左に近接する予測ブロックA0符号化ブロック外にあるので、分割インデックスPartIdxが0、1、2、3の4つの予測ブロックの時間マージ候補の参照インデックスをそれぞれ並列に導出することができる。   Alternatively, as shown in FIG. 33 (d), in the prediction block whose partitioning index PartIdx to be derived is 0, the prediction block A0 that is adjacent to the left is referred to, and the LX reference index of the temporal merge candidate is set to the LX of the prediction block A0. Set to the value of the reference index. In the prediction block whose partitioning index PartIdx to be derived is other than 0 (PartIdx is 1, 2 or 3), the adjacent prediction block is not referred to, and the reference index of the LX as a temporal merge candidate is set to the default value of 0. Since it is outside the prediction block A0 coding block adjacent to the left of the prediction block to be processed, the reference indexes of the temporal merge candidates of the four prediction blocks whose division indexes PartIdx are 0, 1, 2, and 3 are respectively derived in parallel. be able to.

次に、図18のステップS203の異なる時間のピクチャのインター予測情報を用いるマージ候補の導出方法について詳細に説明する。図34は図18のステップS203の時間マージ候補導出処理手順を説明するフローチャートである。   Next, the merge candidate derivation method using inter prediction information of pictures at different times in step S203 in FIG. 18 will be described in detail. FIG. 34 is a flowchart for explaining the time merge candidate derivation processing procedure in step S203 of FIG.

まず、スライスタイプslice_typeと前述のフラグcollocated_from_l0_flagにより、異なる時間のピクチャcolPicを導出する(ステップS3101)。   First, a picture colPic at a different time is derived from the slice type slice_type and the above-described flag collocated_from_l0_flag (step S3101).

図35は図34のステップS3101の異なる時間のピクチャcolPicの導出処理手順を説明するフローチャートである。スライスタイプslice_typeがBスライスで、前述のフラグcollocated_from_l0_flagが0の場合(ステップS3201のYES、ステップS3202のYES)、RefPicList1[0]、すなわち参照リストL1の参照インデックスが0のピクチャが異なる時間のピクチャcolPicとなる(ステップS3203)。そうでない場合、すなわちスライスタイプslice_typeがBスライスで前述のフラグcollocated_from_l0_flagが1の場合(ステップS3201のYES、ステップS3202のNO)、またはスライスタイプslice_typeがPスライスの場合(ステップS3201のNO、S3204のYES)、RefPicList0[0]、すなわち参照リストL0の参照インデックスが0のピクチャが異なる時間のピクチャcolPicとなる(ステップS3205)。   FIG. 35 is a flowchart for explaining the procedure for deriving the picture colPic at different times in step S3101 of FIG. When the slice type slice_type is a B slice and the above-described flag collocated_from_l0_flag is 0 (YES in step S3201 and YES in step S3202), RefPicList1 [0], that is, a picture colPic at a time when the pictures with the reference index 0 in the reference list L1 are different (Step S3203). Otherwise, that is, when the slice type slice_type is B slice and the aforementioned flag collocated_from_l0_flag is 1 (YES in step S3201, NO in step S3202), or when the slice type slice_type is P slice (NO in step S3201 and YES in S3204) ), RefPicList0 [0], that is, the picture colPic of the reference list L0 with the reference index 0 is a different time (step S3205).

次に、図34のフローチャートに戻り、異なる時間の予測ブロックcolPUを導出し、符号化情報を取得する(ステップS3102)。   Next, returning to the flowchart of FIG. 34, a prediction block colPU at a different time is derived, and encoded information is acquired (step S3102).

図36は図34のステップS3102の異なる時間のピクチャcolPicの予測ブロックcolPUの導出処理手順を説明するフローチャートである。   FIG. 36 is a flowchart for explaining the procedure for deriving the prediction block colPU of the picture colPic at different times in step S3102 of FIG.

まず、異なる時間のピクチャcolPic内で処理対象の予測ブロックと同一位置の右下(外側)に位置する予測ブロックを異なる時間の予測ブロックcolPUとする(ステップS3301)。この予測ブロックは図9の予測ブロックT0に相当する。   First, a prediction block located at the lower right (outside) of the same position as a processing target prediction block in a picture colPic at a different time is set as a prediction block colPU at a different time (step S3301). This prediction block corresponds to the prediction block T0 in FIG.

次に、異なる時間の予測ブロックcolPUの符号化情報を取得する(ステップS3302)。異なる時間の予測ブロックcolPUのPredModeが利用できないか、異なる時間の予測ブロックcolPUの予測モードPredModeがイントラ予測(MODE_INTRA)である場合(ステップS3303のYES、ステップS3304のYES)、異なる時間のピクチャcolPic内で処理対象の予測ブロックと同一位置の中央左上に位置する予測ブロックを異なる時間の予測ブロックcolPUとする(ステップS3305)。この予測ブロックは図9の予測ブロックT1に相当する。   Next, encoding information of the prediction block colPU at different times is acquired (step S3302). When PredMode of a prediction block colPU at a different time cannot be used, or when the prediction mode PredMode of a prediction block colPU at a different time is intra prediction (MODE_INTRA) (YES in step S3303, YES in step S3304), the picture colPic in a different time The prediction block located in the upper left center of the same position as the processing target prediction block is set as a prediction block colPU at a different time (step S3305). This prediction block corresponds to the prediction block T1 in FIG.

次に、図34のフローチャートに戻り、符号化または復号対象の予測ブロックと同位置の他ピクチャの予測ブロックから導出されるL0の予測動きベクトルmvL0Colと時間マージ候補Colが有効か否かを示すフラグavailableFlagL0Colを導出するとともに(ステップS3103)、L1の予測動きベクトルmvL1Colと時間マージ候補Colが有効か否かを示すフラグavailableFlagL1Colを導出する。さらに、フラグavailableFlagL0Col またはフラグavailableFlagL1Colが1の場合に、時間マージ候補Colが有効か否かを示すフラグavailableFlagColを1に設定する。   Next, returning to the flowchart of FIG. 34, a flag indicating whether the prediction motion vector mvL0Col of L0 derived from the prediction block of another picture at the same position as the prediction block to be encoded or decoded and the temporal merge candidate Col are valid. In addition to deriving availableFlagL0Col (step S3103), a flag availableFlagL1Col indicating whether the prediction motion vector mvL1Col of L1 and the temporal merge candidate Col are valid is derived. Further, when the flag availableFlagL0Col or the flag availableFlagL1Col is 1, a flag availableFlagCol indicating whether the time merge candidate Col is valid is set to 1.

図37は図34のステップS3103、ステップS3104の時間マージ候補のインター予測情報の導出処理手順を説明するフローチャートである。L0またはL1で、時間マージ候補の導出対象のリストをLXとし、LXを用いた予測をLX予測とする。以下、断りのない限り、この意味で用いる。時間マージ候補のL0の導出処理であるステップS3103として呼び出される際には、LXがL0となり、時間マージ候補のL1の導出処理であるステップS3104として呼び出される際には、LXがL1となる。   FIG. 37 is a flowchart for explaining the procedure for deriving inter prediction information of the temporal merge candidate in steps S3103 and S3104 in FIG. In L0 or L1, the list of time merge candidate derivation targets is LX, and the prediction using LX is LX prediction. Hereinafter, unless otherwise noted, this meaning is used. LX becomes L0 when called as step S3103, which is a time merge candidate L0 derivation process, and LX becomes L1, when called as step S3104, which is a time merge candidate L1 derivation process.

異なる時間の予測ブロックcolPUの予測モードPredModeがイントラ予測(MODE_INTRA)か、利用できない場合(ステップS3401のNO、ステップS3402のNO)、フラグavailableFlagLXColとフラグpredFlagLXColを共に0とし(ステップS3403)、動きベクトルmvLXColを(0,0)として(ステップS3404)、本時間マージ候補のインター予測情報の導出処理を終了する。   When the prediction mode PredMode of the prediction block colPU at different time is intra prediction (MODE_INTRA) or cannot be used (NO in step S3401 and NO in step S3402), both the flag availableFlagLXCol and the flag predFlagLXCol are set to 0 (step S3403), and the motion vector mvLXCol Is set to (0, 0) (step S3404), and the process of deriving inter prediction information of the current time merge candidate ends.

予測ブロックcolPUが利用できて予測モードPredModeがイントラ予測(MODE_INTRA)でない場合(ステップS3401のYES、ステップS3402のYES)、以下の手順でmvColとrefIdxColとavailableFlagColを導出する。   When the prediction block colPU is available and the prediction mode PredMode is not intra prediction (MODE_INTRA) (YES in step S3401 and YES in step S3402), mvCol, refIdxCol, and availableFlagCol are derived by the following procedure.

予測ブロックcolPUのL0予測が利用されているかどうかを示すフラグPredFlagL0[xPCol][yPCol]が0の場合(ステップS3405のYES)、予測ブロックcolPUの予測モードはPred_L1であるので、動きベクトルmvColが予測ブロックcolPUのL1の動きベクトルであるMvL1[xPCol][yPCol]と同じ値に設定され(ステップS3406)、参照インデックスrefIdxColがL1の参照インデックスRefIdxL1[xPCol][yPCol]と同じ値に設定され(ステップS3407)、リストListColがL1に設定される(ステップS3408)。ここで、xPCol、yPColは異なる時間のピクチャcolPic内での予測ブロックcolPUの左上の画素の位置を示すインデックスである。   When the flag PredFlagL0 [xPCol] [yPCol] indicating whether or not the L0 prediction of the prediction block colPU is used (YES in step S3405), the prediction mode of the prediction block colPU is Pred_L1, and therefore the motion vector mvCol is predicted. The same value as MvL1 [xPCol] [yPCol] that is the L1 motion vector of the block colPU is set (step S3406), and the reference index refIdxCol is set to the same value as the reference index RefIdxL1 [xPCol] [yPCol] of L1 (step S3406). In step S3407, the list ListCol is set to L1 (step S3408). Here, xPCol and yPCol are indexes indicating the position of the upper left pixel of the prediction block colPU in the picture colPic at different times.

一方、予測ブロックcolPUのL0予測フラグPredFlagL0[xPCol][yPCol]が0でない場合(図37のステップS3405のNO)、予測ブロックcolPUのL1予測フラグPredFlagL1[xPCol][yPCol]が0かどうかを判定する。予測ブロックcolPUのL1予測フラグPredFlagL1[xPCol][yPCol]が0の場合(ステップS3409のYES)、動きベクトルmvColが予測ブロックcolPUのL0の動きベクトルであるMvL0[xPCol][yPCol]と同じ値に設定され(ステップS3410)、参照インデックスrefIdxColがL0の参照インデックスRefIdxL0[xPCol][yPCol]と同じ値に設定され(ステップS3411)、リストListColがL0に設定される(ステップS3412)。   On the other hand, when the L0 prediction flag PredFlagL0 [xPCol] [yPCol] of the prediction block colPU is not 0 (NO in step S3405 in FIG. 37), it is determined whether the L1 prediction flag PredFlagL1 [xPCol] [yPCol] of the prediction block colPU is 0. To do. When the L1 prediction flag PredFlagL1 [xPCol] [yPCol] of the prediction block colPU is 0 (YES in step S3409), the motion vector mvCol becomes the same value as MvL0 [xPCol] [yPCol], which is the L0 motion vector of the prediction block colPU. It is set (step S3410), the reference index refIdxCol is set to the same value as the reference index RefIdxL0 [xPCol] [yPCol] of L0 (step S3411), and the list ListCol is set to L0 (step S3412).

予測ブロックcolPUのL0予測フラグPredFlagL0[xPCol][yPCol]と予測ブロックcolPUのL1予測フラグPredFlagL1[xPCol][yPCol]が共に0でない場合(ステップS3405のNO、ステップS3409のNO)、予測ブロックcolPUのインター予測モードは双予測(Pred_BI)であるので、L0、L1の2つの動きベクトルから、一方を選択する(ステップS3413)。   When the L0 prediction flag PredFlagL0 [xPCol] [yPCol] of the prediction block colPU and the L1 prediction flag PredFlagL1 [xPCol] [yPCol] of the prediction block colPU are not 0 (NO in step S3405, NO in step S3409), the prediction block colPU Since the inter prediction mode is bi-prediction (Pred_BI), one of the two motion vectors L0 and L1 is selected (step S3413).

図38は予測ブロックcolPUのインター予測モードが双予測(Pred_BI)のときの時間マージ候補のインター予測情報の導出処理手順を示すフローチャートである。   FIG. 38 is a flowchart illustrating a procedure for deriving inter prediction information of temporal merge candidates when the inter prediction mode of the prediction block colPU is bi-prediction (Pred_BI).

まず、すべての参照リストに登録されているすべてのピクチャのPOCが現在の符号化または復号対象ピクチャのPOCより小さいかどうかを判定し(ステップS3501)、予測ブロックcolPUのすべての参照リストであるL0及びL1に登録されているすべてのピクチャのPOCが現在の符号化または復号対象ピクチャのPOCより小さい場合で(ステップS3501のYES)、LXがL0、即ち符号化または復号対象ピクチャのL0の動きベクトルの予測ベクトル候補を導出している場合(ステップS3502のYES)、予測ブロックcolPUのL0の方のインター予測情報を選択し、LXがL1、即ち符号化または復号対象ピクチャのL1の動きベクトルの予測ベクトル候補を導出している場合(ステップS3502のNO)、予測ブロックcolPUのL1の方のインター予測情報を選択する。一方、予測ブロックcolPUのすべての参照リストL0及びL1に登録されているピクチャのPOCの少なくとも1つが現在の符号化または復号対象ピクチャのPOCより大きい場合で(ステップS3501のNO)、フラグcollocated_from_l0_flagが0の場合(ステップS3503のYES)、予測ブロックcolPUのL0の方のインター予測情報を選択し、フラグcollocated_from_l0_flagが1の場合(ステップS3503のNO)、予測ブロックcolPUのL1の方のインター予測情報を選択する。   First, it is determined whether the POCs of all the pictures registered in all the reference lists are smaller than the POC of the current encoding or decoding target picture (step S3501), and L0, which is all the reference lists of the prediction block colPU. When the POC of all the pictures registered in L1 is smaller than the POC of the current encoding or decoding target picture (YES in step S3501), LX is L0, that is, the motion vector of L0 of the encoding or decoding target picture When the prediction vector candidate is derived (YES in step S3502), the L0 inter prediction information of the prediction block colPU is selected, and LX is L1, that is, the prediction of the motion vector of the encoding or decoding target picture L1. When the vector candidate is derived (NO in step S3502), the prediction block The inter prediction information for L1 of the colPU is selected. On the other hand, when at least one of the POCs of pictures registered in all the reference lists L0 and L1 of the prediction block colPU is larger than the POC of the current encoding or decoding target picture (NO in step S3501), the flag collocated_from_l0_flag is 0. (YES in step S3503), the L0 inter prediction information of the prediction block colPU is selected. If the flag collocated_from_l0_flag is 1 (NO in step S3503), the L1 inter prediction information of the prediction block colPU is selected. To do.

予測ブロックcolPUのL0の方のインター予測情報を選択する場合(ステップのYES、ステップS3503のYES)、動きベクトルmvColがMvL0[xPCol][yPCol]と同じ値に設定され(ステップS3504)、参照インデックスrefIdxColがRefIdxL0[xPCol][yPCol]と同じ値に設定され(ステップS3505)、リストListColがL0に設定される(ステップS3506)。   When the inter prediction information of L0 of the prediction block colPU is selected (YES in step, YES in step S3503), the motion vector mvCol is set to the same value as MvL0 [xPCol] [yPCol] (step S3504), and the reference index refIdxCol is set to the same value as RefIdxL0 [xPCol] [yPCol] (step S3505), and the list ListCol is set to L0 (step S3506).

予測ブロックcolPUのL1の方のインター予測情報を選択する場合(ステップS2502のNO、ステップS3503のNO)、動きベクトルmvColがMvL1[xPCol][yPCol]と同じ値に設定され(ステップS3507)、参照インデックスrefIdxColがRefIdxL1[xPCol][yPCol]と同じ値に設定され(ステップS3508)、リストListColがL1に設定される(ステップS3509)。   When the inter prediction information of L1 of the prediction block colPU is selected (NO in step S2502 and NO in step S3503), the motion vector mvCol is set to the same value as MvL1 [xPCol] [yPCol] (step S3507), see The index refIdxCol is set to the same value as RefIdxL1 [xPCol] [yPCol] (step S3508), and the list ListCol is set to L1 (step S3509).

図37に戻り、予測ブロックcolPUからインター予測情報が取得できたらフラグavailableFlagLXColとフラグpredFlagLXColを共に1とする(ステップS3414)。   Returning to FIG. 37, when the inter prediction information can be acquired from the prediction block colPU, both the flag availableFlagLXCol and the flag predFlagLXCol are set to 1 (step S3414).

続いて、動きベクトルmvColをスケーリングして時間マージ候補のLXの動きベクトルmvLXColとする(ステップS3415)。この動きベクトルのスケーリング演算処理手順を図39及び図40を用いて説明する。   Subsequently, the motion vector mvCol is scaled to obtain an LX motion vector mvLXCol as a temporal merge candidate (step S3415). The motion vector scaling calculation processing procedure will be described with reference to FIGS. 39 and 40. FIG.

図39は図34のステップS3105の動きベクトルのスケーリング演算処理手順を示すフローチャートである。   FIG. 39 is a flowchart showing the motion vector scaling calculation processing procedure in step S3105 of FIG.

異なる時間のピクチャcolPicのPOCから、予測ブロックcolPUのリストListColで参照する参照インデックスrefIdxColに対応する参照ピクチャのPOCを減算してピクチャ間距離tdを導出する(ステップS3601)。なお、異なる時間のピクチャcolPicよりも予測ブロックcolPUのリストListColで参照する参照ピクチャのPOCの方が表示順序で前の場合、ピクチャ間距離tdは正の値となり、異なる時間のピクチャcolPicよりも予測ブロックcolPUのリストListColで参照する参照ピクチャのPOCの方が表示順序で後の場合、ピクチャ間距離tdは負の値となる。
td=異なる時間のピクチャcolPicのPOC−予測ブロックcolPUのリストListColで参照する参照ピクチャのPOC
The inter-picture distance td is derived by subtracting the POC of the reference picture corresponding to the reference index refIdxCol referenced in the list ListCol of the prediction block colPU from the POC of the picture colPic at different times (step S3601). Note that when the POC of the reference picture referenced in the list Col of the prediction block colPU is earlier in the display order than the picture colPic at a different time, the inter-picture distance td is a positive value, and the prediction is more accurate than the picture colPic at a different time. When the POC of the reference picture referenced in the list ListCol of the block colPU is later in the display order, the inter-picture distance td becomes a negative value.
td = POC of picture colPic at different time-POC of reference picture referenced by list ListCol of prediction block colPU

現在の符号化または復号対象ピクチャのPOCから図18のステップS202で導出された時間マージ候補のLXの参照インデックスに対応する参照ピクチャのPOCを減算してピクチャ間距離tbを導出する(ステップS3602)。なお、現在の符号化または復号対象ピクチャよりも現在の符号化または復号対象ピクチャのリストLXで参照する参照ピクチャの方が表示順序で前の場合、ピクチャ間距離tbは正の値となり、現在の符号化または復号対象ピクチャのリストLXで参照する参照ピクチャの方が表示順序で後の場合、ピクチャ間距離tbは負の値となる。
tb=現在の符号化または復号対象ピクチャのPOC−時間マージ候補のLXの参照インデックスに対応する参照ピクチャのPOC
The inter-picture distance tb is derived by subtracting the POC of the reference picture corresponding to the reference index of the temporal merge candidate LX derived in step S202 of FIG. 18 from the POC of the current encoding or decoding target picture (step S3602). . If the reference picture referenced in the list LX of the current encoding or decoding target picture is earlier than the current encoding or decoding target picture in the display order, the inter-picture distance tb is a positive value. When the reference picture referred to in the encoding or decoding target picture list LX is later in the display order, the inter-picture distance tb is a negative value.
tb = POC of current encoding or decoding target picture—POC of reference picture corresponding to LX reference index of temporal merge candidate

続いて、ピクチャ間距離tdとtbを比較し(ステップS3603)、ピクチャ間距離tdとtbが等しい場合(ステップS3603のYES)、時間マージ候補のLXの動きベクトルmvLXColを動きベクトルmvColと同じ値に設定して(ステップS3604)、本スケーリング演算処理を終了する。
mvLXCol=mvCol
Subsequently, the inter-picture distances td and tb are compared (step S3603). If the inter-picture distances td and tb are equal (YES in step S3603), the LX motion vector mvLXCol as a temporal merge candidate is set to the same value as the motion vector mvCol. After setting (step S3604), the scaling calculation process is terminated.
mvLXCol = mvCol

一方、ピクチャ間距離tdとtbが等しくない場合(ステップS3603のNO)、次式によりmvColにスケール係数tbまたはtdを乗じることでスケーリング演算処理を行い(ステップS3605)、スケーリングされた時間マージ候補のLXの動きベクトルmvLXColを得る。
mvLXCol=tb または td * mvCol
On the other hand, if the inter-picture distances td and tb are not equal (NO in step S3603), scaling calculation processing is performed by multiplying mvCol by the scale factor tb or td according to the following equation (step S3605), and the scaled temporal merge candidate Obtain the motion vector mvLXCol of LX.
mvLXCol = tb or td * mvCol

また、ステップS3605のスケーリング演算を整数精度の演算で行う場合の例を図40に示す。図40のステップS3606〜ステップS3608の処理が、図39のステップS3605の処理に相当する。   FIG. 40 shows an example of the case where the scaling operation in step S3605 is performed with integer precision arithmetic. The processing in steps S3606 to S3608 in FIG. 40 corresponds to the processing in step S3605 in FIG.

まず、図39のフローチャートと同様に、ピクチャ間距離tdとピクチャ間距離tbを導出する(ステップS3601、ステップS3602)。   First, similarly to the flowchart of FIG. 39, the inter-picture distance td and the inter-picture distance tb are derived (steps S3601 and S3602).

続いて、ピクチャ間距離tdとtbを比較し(ステップS3603)、ピクチャ間距離tdとtbが等しい場合(ステップS3603のYES)、図39のフローチャートと同様に、時間マージ候補のLXの動きベクトルmvLXColを動きベクトルmvColと同じ値に設定して(ステップS3604)、本スケーリング演算処理を終了する。
mvLXCol=mvCol
Subsequently, the inter-picture distances td and tb are compared (step S3603). If the inter-picture distances td and tb are equal (YES in step S3603), the LX motion vector mvLXCol that is the temporal merge candidate is similar to the flowchart of FIG. Is set to the same value as the motion vector mvCol (step S3604), and this scaling calculation process is terminated.
mvLXCol = mvCol

一方、ピクチャ間距離tdとtbが等しくない場合(ステップS3603のNO)、次式により変数txを導出する(ステップS3606)。
tx = ( 16384 + Abs( td または 2 ) ) または td
On the other hand, if the inter-picture distances td and tb are not equal (NO in step S3603), a variable tx is derived from the following equation (step S3606).
tx = (16384 + Abs (td or 2)) or td

続いて、次式によりスケール係数DistScaleFactorを導出する(ステップS3607)。
DistScaleFactor = ( tb * tx + 32 ) >> 6
Subsequently, the scale coefficient DistScaleFactor is derived from the following equation (step S3607).
DistScaleFactor = (tb * tx + 32) >> 6

続いて、次式により、スケーリングされた時間マージ候補のLXの動きベクトルmvLXColを得る(ステップS3608)。
mvLXCol = ClipMv( Sign( DistScaleFactor * mvCol ) * ( (Abs( DistScaleFactor * mvCol ) + 127 ) >> 8 ) )
Subsequently, a scaled temporal merge candidate LX motion vector mvLXCol is obtained by the following equation (step S3608).
mvLXCol = ClipMv (Sign (DistScaleFactor * mvCol) * ((Abs (DistScaleFactor * mvCol) + 127) >> 8))

次に、図18のステップS204のマージ候補をマージ候補リストに登録し、マージ候補リストを構築する方法について詳細に説明する。図41はマージ候補リストの構築処理手順を示すフローチャートである。本方式では、優先順位をつけて、優先順位の高いものからマージ候補リストmergeCandListにマージ候補を登録することで、マージインデックスmerge_idx[x0][y0]の符号量を削減する。優先順位の高い要素をマージ候補リストの前方に配置することで、符号量を削減する。例えば、マージ候補リストmergeCandListの要素が5個の場合、マージ候補リストのインデックス0を「0」、インデックス1を「10」、インデックス2を「110」、インデックス3を「1110」、インデックス4を「11110」とすることで、インデックス0を表す符号量が1ビットとなり、インデックス0に発生頻度が高いと考えられる要素を登録することで、符号量を削減する。   Next, a method for registering the merge candidates in step S204 of FIG. 18 in the merge candidate list and constructing the merge candidate list will be described in detail. FIG. 41 is a flowchart showing a merge candidate list construction processing procedure. In this method, priorities are assigned, and merge candidates are registered in the merge candidate list mergeCandList in descending order of priority, thereby reducing the code amount of the merge index merge_idx [x0] [y0]. The amount of codes is reduced by placing elements with higher priorities in front of the merge candidate list. For example, when there are five elements in the merge candidate list mergeCandList, the index 0 of the merge candidate list is “0”, the index 1 is “10”, the index 2 is “110”, the index 3 is “1110”, and the index 4 is “ By setting “11110”, the code amount representing the index 0 becomes 1 bit, and the code amount is reduced by registering an element considered to have a high occurrence frequency in the index 0.

マージ候補リストmergeCandListはリスト構造を成し、マージ候補リスト内部の所在を示すマージインデックスと、インデックスに対応するマージ候補を要素として格納する記憶領域が設けられている。マージインデックスの数字は0から開始され、マージ候補リストmergeCandListの記憶領域に、マージ候補が格納される。以降の処理では、マージ候補リストmergeCandListに登録されたマージインデックスiのマージ候補となる予測ブロックは、mergeCandList[i]で表すこととし、マージ候補リストmergeCandListとは配列表記をすることで区別することとする。   The merge candidate list mergeCandList has a list structure, and is provided with a merge index indicating the location within the merge candidate list and a storage area for storing merge candidates corresponding to the index as elements. The number of the merge index starts from 0, and merge candidates are stored in the storage area of the merge candidate list mergeCandList. In the subsequent processing, a prediction block that is a merge candidate of the merge index i registered in the merge candidate list mergeCandList is represented by mergeCandList [i], and is distinguished from the merge candidate list mergeCandList by array notation. To do.

まず、availableFlagAが1の場合(ステップS4101のYES)、マージ候補リストmergeCandListの先頭にマージ候補Aを登録する(ステップS4102)。
続いて、availableFlagBが1の場合(ステップS4103のYES)、マージ候補リストmergeCandListの最後にマージ候補Bを登録する(ステップS4104)。
続いて、availableFlagCが1の場合(ステップS4105のYES)、マージ候補リストmergeCandListの最後にマージ候補Cを登録する(ステップS4106)。
続いて、availableFlagDが1の場合(ステップS4107のYES)、マージ候補リストmergeCandListの最後にマージ候補Dを登録する(ステップS4108)。
続いて、availableFlagEが1の場合(ステップS4109のYES)、マージ候補リストmergeCandListの最後にマージ候補Eを登録する(ステップS4110)。
続いて、availableFlagColが1の場合(ステップS4109のYES)、マージ候補リストmergeCandListの最後にマージ候補Colを登録する(ステップS4110)。
First, when availableFlagA is 1 (YES in step S4101), merge candidate A is registered at the head of the merge candidate list mergeCandList (step S4102).
Subsequently, when availableFlagB is 1 (YES in step S4103), merge candidate B is registered at the end of the merge candidate list mergeCandList (step S4104).
Subsequently, when availableFlagC is 1 (YES in step S4105), the merge candidate C is registered at the end of the merge candidate list mergeCandList (step S4106).
Subsequently, when availableFlagD is 1 (YES in step S4107), the merge candidate D is registered at the end of the merge candidate list mergeCandList (step S4108).
Subsequently, when availableFlagE is 1 (YES in step S4109), the merge candidate E is registered at the end of the merge candidate list mergeCandList (step S4110).
Subsequently, when availableFlagCol is 1 (YES in step S4109), the merge candidate Col is registered at the end of the merge candidate list mergeCandList (step S4110).

なお、マージモードにおいて、左に近接する予測ブロックA及び上に近接する予測ブロックBは符号化または復号対象の予測ブロックと一体となる動きになることが多いので、予測ブロックA、Bのインター予測情報が取得できる場合には、マージ候補A、Bを他のマージ候補C,D,E,Colよりも優先的にマージ候補リストの前方に登録する。   In the merge mode, the prediction block A adjacent to the left and the prediction block B adjacent to the top often move together with the prediction block to be encoded or decoded, so inter prediction of the prediction blocks A and B is performed. When the information can be acquired, the merge candidates A and B are registered ahead of the merge candidate list in preference to the other merge candidates C, D, E, and Col.

図13において、動画像符号化装置のインター予測情報導出部104の符号化情報選択部136では、マージ候補リストに登録されているマージ候補の中から、マージ候補を選択し、マージインデックスおよびマージインデックスに対応するマージ候補のインター予測情報を動き補償予測部105に供給する。   In FIG. 13, the encoding information selection unit 136 of the inter prediction information deriving unit 104 of the video encoding device selects a merge candidate from the merge candidates registered in the merge candidate list, and merge index and merge index are selected. The inter prediction information of the merge candidate corresponding to is supplied to the motion compensation prediction unit 105.

マージ候補の選択においては、予測方法決定部107と同様の方法を用いることができる。それぞれのマージ候補ごとに符号化情報及び残差信号の符号量と予測画像信号と画像信号との間の符号化歪を導出し、最も少ない発生符号量と符号化歪となるマージ候補が決定される。それぞれのマージ候補毎にマージモードの符号化情報であるマージインデックスのシンタックス要素merge_idxのエントロピー符号化を行い、符号化情報の符号量を算出する。さらに、それぞれのマージ候補毎に動き補償予測部105と同様の方法で各マージ候補のインター予測情報に応じて動き補償した予測画像信号と、画像メモリ101から供給される符号化対象の画像信号との予測残差信号を符号化した予測残差信号の符号量を算出する。符号化情報、即ちマージインデックスの符号量と予測残差信号の符号量とが加算された総発生符号量を算出し評価値とする。   In selecting a merge candidate, the same method as the prediction method determination unit 107 can be used. For each merge candidate, the coding information and the coding amount of the residual signal and the coding distortion between the predicted image signal and the image signal are derived, and the merge candidate that produces the least generated code amount and coding distortion is determined. The For each merge candidate, entropy coding is performed on the merge index syntax element merge_idx, which is coding information in the merge mode, and the code amount of the coding information is calculated. Further, for each merge candidate, a predicted image signal motion-compensated according to the inter prediction information of each merge candidate by the same method as the motion compensation prediction unit 105, and an encoding target image signal supplied from the image memory 101, The amount of code of the prediction residual signal obtained by encoding the prediction residual signal is calculated. Coding information, that is, the total generated code amount obtained by adding the code amount of the merge index and the code amount of the prediction residual signal is calculated as an evaluation value.

また、こうした予測残差信号を符号化後に、歪量評価の為に復号し、符号化により生じる元の画像信号との誤差を表す比率として符号化歪が算出される。これら総発生符号量と符号化歪とをマージ候補毎に比較することで、少ない発生符号量と符号化歪となる符号化情報が決定される。決定された符号化情報に対応するマージインデックスが、予測ブロック単位の第2のシンタックスパターンで表されるフラグmerge_idxとして符号化される。
尚、ここで算出される発生符号量は、符号化過程をシミュレートしたものであることが望ましいが、簡便に近似したり、概算することも可能である。
Further, after encoding such a prediction residual signal, it is decoded for distortion amount evaluation, and the encoding distortion is calculated as a ratio representing an error from the original image signal caused by the encoding. By comparing the total generated code amount and the encoding distortion for each merge candidate, encoding information with a small generated code amount and encoding distortion is determined. A merge index corresponding to the determined encoding information is encoded as a flag merge_idx represented by a second syntax pattern in units of prediction blocks.
The generated code amount calculated here is preferably a simulation of the encoding process, but can be approximated or approximated easily.

一方、図14において、動画像符号化装置のインター予測情報導出部205の符号化情報選択部236では、マージ候補リストに登録されているマージ候補の中から、供給されたマージインデックスに対応するマージ候補を選択し、マージ候補のインター予測情報を動き補償予測部206に供給するとともに、符号化情報格納メモリ210に格納する。   On the other hand, in FIG. 14, the encoding information selection unit 236 of the inter prediction information deriving unit 205 of the moving image encoding device performs a merge corresponding to the supplied merge index from among the merge candidates registered in the merge candidate list. A candidate is selected, and the inter prediction information of the merge candidate is supplied to the motion compensation prediction unit 206 and stored in the encoded information storage memory 210.

以上述べた実施の形態の動画像符号化装置が出力する動画像の符号化ストリームは、実施の形態で用いられた符号化方法に応じて復号することができるように特定のデータフォーマットを有しており、動画像符号化装置に対応する動画像復号装置がこの特定のデータフォーマットの符号化ストリームを復号することができる。   The moving image encoded stream output from the moving image encoding apparatus of the embodiment described above has a specific data format so that it can be decoded according to the encoding method used in the embodiment. Therefore, the moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode the encoded stream of this specific data format.

動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネットワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ストリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。   When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted. In that case, a video transmission apparatus that converts the encoded stream output from the video encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.

動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモリと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化データをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化された符号化データをネットワークを介して受信する受信部と、受信された符号化データをバッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動画像復号装置に提供するパケット処理部とを含む。   The moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network. Part. The moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.

以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送のデータ放送として提供することも可能である。   The above processing relating to encoding and decoding can be realized as a transmission, storage, and reception device using hardware, and is stored in a ROM (Read Only Memory), a flash memory, or the like. It can also be realized by firmware or software such as a computer. The firmware program and software program can be recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as a data broadcast of terrestrial or satellite digital broadcasting Is also possible.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

101 画像メモリ、 102 動きベクトル検出部、 103 差分動きベクトル算出部、 104 インター予測情報導出部、 105 動き補償予測部、 106 イントラ予測部、 107 予測方法決定部、 108 残差信号生成部、 109 直交変換・量子化部、 110 第1の符号化ビット列生成部、 111 第2の符号化ビット列生成部、 112 多重化部、 130 空間マージ候補生成部、 131 時間マージ候補の参照インデックス導出部、 132 時間マージ候補生成部、 133 マージ候補登録部、 134 マージ候補同一判定部、 135 マージ候補補充部、 136 符号化情報選択部、 201 分離部、 202 第1符号化ビット列復号部、 203 第2符号化ビット列復号部、 204 動きベクトル算出部、 205 インター予測情報導出部、 206 動き補償予測部、 207 イントラ予測部、 208 逆量子化・逆直交変換部、 209 復号画像信号重畳部、 210 符号化情報格納メモリ、 211 復号画像メモリ、 230 空間マージ候補生成部、 231 時間マージ候補の参照インデックス導出部、 232 時間マージ候補生成部、 233 マージ候補登録部、 234 マージ候補同一判定部、 235 マージ候補補充部、 236 符号化情報選択部。   DESCRIPTION OF SYMBOLS 101 Image memory, 102 Motion vector detection part, 103 Difference motion vector calculation part, 104 Inter prediction information derivation part, 105 Motion compensation prediction part, 106 Intra prediction part, 107 Prediction method determination part, 108 Residual signal generation part, 109 Orthogonal Transform / quantization unit, 110 first encoded bit string generation unit, 111 second encoded bit string generation unit, 112 multiplexing unit, 130 spatial merge candidate generation unit, 131 time merge candidate reference index deriving unit, 132 time Merge candidate generation unit, 133 Merge candidate registration unit, 134 Merge candidate identity determination unit, 135 Merge candidate supplementation unit, 136 Encoding information selection unit, 201 Separation unit, 202 First encoded bit sequence decoding unit, 203 Second encoded bit sequence Decoding unit, 204 motion vector calculation unit 205 Inter prediction information derivation unit, 206 Motion compensation prediction unit, 207 Intra prediction unit, 208 Inverse quantization / inverse orthogonal transform unit, 209 Decoded image signal superimposing unit, 210 Encoded information storage memory, 211 Decoded image memory, 230 Spatial merge A candidate generation unit, a 231 time merge candidate reference index derivation unit, a 232 time merge candidate generation unit, a 233 merge candidate registration unit, a 234 merge candidate identity determination unit, a 235 merge candidate supplement unit, and a 236 encoding information selection unit.

Claims (6)

各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化装置であって、
符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出部と、
前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出部と、
前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築部と、
前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択部と、
前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化部とを備え、
前記第1予測情報導出部は、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、
前記第2予測情報導出部は、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする動画像符号化装置。
A moving picture coding apparatus that divides a first block obtained by dividing each picture into one or a plurality of second blocks and codes a moving picture using inter prediction,
A first process of deriving one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block to be encoded in a picture to be encoded A prediction information deriving unit;
From the inter prediction information of the fourth block existing at the same position or in the vicinity of the second block to be encoded in a picture different from the picture to be encoded, the second inter prediction information candidate A second prediction information derivation unit that performs derivation processing;
When the first inter prediction information candidate is derived, the derived first inter prediction information candidate is obtained. When the second inter prediction information candidate is derived, the derived second inter prediction information candidate is derived. A candidate list construction unit for constructing a prediction information candidate list composed of predetermined prediction information candidates to which inter prediction information candidates are respectively added;
A selection unit that selects an inter prediction information candidate to be used for the inter prediction of the second block to be encoded from the prediction information candidates in the prediction information candidate list, and determines an index indicating inter prediction information; ,
An encoding unit that encodes an index indicating inter prediction information used for inter prediction of the second block to be encoded;
The first prediction information deriving unit is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target When the second block is a lower block, the first inter prediction information candidate derivation process is performed without referring to the encoding information of the fifth block adjacent to the upper side of the second block. As well as
The second prediction information deriving unit is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target Without referring to the coding information of the fifth block included in the same first block as the first block including the second block, the reference index value of the second inter prediction information candidate is A moving picture encoding apparatus, wherein the second inter prediction information candidate derivation process is performed as a default value based on the reference index.
各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化方法であって、
符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出ステップと、
前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出ステップと、
前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築ステップと、
前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択ステップと、
前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化ステップとを備え、
前記第1予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、
前記第2予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする動画像符号化方法。
A moving picture coding method for dividing a first block obtained by dividing each picture into one or a plurality of second blocks and coding a moving picture using inter prediction,
A first process of deriving one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block to be encoded in a picture to be encoded A prediction information deriving step;
From the inter prediction information of the fourth block existing at the same position or in the vicinity of the second block to be encoded in a picture different from the picture to be encoded, the second inter prediction information candidate A second prediction information derivation step for performing a derivation process;
When the first inter prediction information candidate is derived, the derived first inter prediction information candidate is obtained. When the second inter prediction information candidate is derived, the derived second inter prediction information candidate is derived. A candidate list construction step of constructing a prediction information candidate list composed of predetermined prediction information candidates to which inter prediction information candidates are added,
A selection step of selecting an inter prediction information candidate used for the inter prediction of the second block to be encoded from the prediction information candidates in the prediction information candidate list, and determining an index indicating the inter prediction information; ,
An encoding step of encoding an index indicating inter prediction information used for inter prediction of the second block to be encoded,
The first prediction information deriving step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target When the second block is a lower block, the first inter prediction information candidate derivation process is performed without referring to the encoding information of the fifth block adjacent to the upper side of the second block. As well as
The second prediction information derivation step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target Without referring to the coding information of the fifth block included in the same first block as the first block including the second block, the reference index value of the second inter prediction information candidate is A moving picture coding method, wherein the second inter prediction information candidate derivation process is performed as a default value based on the reference index.
各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化プログラムであって、
符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出ステップと、
前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出ステップと、
前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築ステップと、
前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択ステップと、
前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化ステップとをコンピュータに実行させ、
前記第1予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、
前記第2予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする動画像符号化プログラム。
A moving picture encoding program that divides a first block obtained by dividing each picture into one or a plurality of second blocks and encodes a moving picture using inter prediction,
A first process of deriving one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block to be encoded in a picture to be encoded A prediction information deriving step;
From the inter prediction information of the fourth block existing at the same position or in the vicinity of the second block to be encoded in a picture different from the picture to be encoded, the second inter prediction information candidate A second prediction information derivation step for performing a derivation process;
When the first inter prediction information candidate is derived, the derived first inter prediction information candidate is obtained. When the second inter prediction information candidate is derived, the derived second inter prediction information candidate is derived. A candidate list construction step of constructing a prediction information candidate list composed of predetermined prediction information candidates to which inter prediction information candidates are added,
A selection step of selecting an inter prediction information candidate used for the inter prediction of the second block to be encoded from the prediction information candidates in the prediction information candidate list, and determining an index indicating the inter prediction information; ,
Causing the computer to execute an encoding step of encoding an index indicating inter prediction information used for inter prediction of the second block to be encoded,
The first prediction information deriving step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target When the second block is a lower block, the first inter prediction information candidate derivation process is performed without referring to the encoding information of the fifth block adjacent to the upper side of the second block. As well as
The second prediction information derivation step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target Without referring to the coding information of the fifth block included in the same first block as the first block including the second block, the reference index value of the second inter prediction information candidate is A moving picture coding program that performs a derivation process of the second inter prediction information candidate based on the reference index as a default value.
各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化方法により符号化された符号化ストリームをパケット化して符号化データを得るパケット処理部と、
パケット化された前記符号化データを送信する送信部とを備え、
前記動画像符号化方法は、
符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出ステップと、
前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出ステップと、
前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築ステップと、
前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択ステップと、
前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化ステップとを備え、
前記第1予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、
前記第2予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする送信装置。
A first block obtained by dividing each picture is divided into one or a plurality of second blocks, and an encoded stream encoded by a moving image encoding method that encodes a moving image using inter prediction is packetized. A packet processing unit for obtaining encoded data by
A transmission unit for transmitting the packetized encoded data,
The moving image encoding method includes:
A first process of deriving one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block to be encoded in a picture to be encoded A prediction information deriving step;
From the inter prediction information of the fourth block existing at the same position or in the vicinity of the second block to be encoded in a picture different from the picture to be encoded, the second inter prediction information candidate A second prediction information derivation step for performing a derivation process;
When the first inter prediction information candidate is derived, the derived first inter prediction information candidate is obtained. When the second inter prediction information candidate is derived, the derived second inter prediction information candidate is derived. A candidate list construction step of constructing a prediction information candidate list composed of predetermined prediction information candidates to which inter prediction information candidates are added,
A selection step of selecting an inter prediction information candidate used for the inter prediction of the second block to be encoded from the prediction information candidates in the prediction information candidate list, and determining an index indicating the inter prediction information; ,
An encoding step of encoding an index indicating inter prediction information used for inter prediction of the second block to be encoded,
The first prediction information deriving step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target When the second block is a lower block, the first inter prediction information candidate derivation process is performed without referring to the encoding information of the fifth block adjacent to the upper side of the second block. As well as
The second prediction information derivation step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target Without referring to the coding information of the fifth block included in the same first block as the first block including the second block, the reference index value of the second inter prediction information candidate is The transmission apparatus characterized in that the second inter prediction information candidate derivation process is performed based on the reference index as a default value.
各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化方法により符号化された符号化ストリームをパケット化して符号化データを得るパケット処理ステップと、
パケット化された前記符号化データを送信する送信ステップとを備え、
前記動画像符号化方法は、
符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出ステップと、
前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出ステップと、
前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築ステップと、
前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択ステップと、
前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化ステップとを備え、
前記第1予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、
前記第2予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする送信方法。
A first block obtained by dividing each picture is divided into one or a plurality of second blocks, and an encoded stream encoded by a moving image encoding method that encodes a moving image using inter prediction is packetized. Packet processing step for obtaining encoded data by
Transmitting the packetized encoded data, and
The moving image encoding method includes:
A first process of deriving one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block to be encoded in a picture to be encoded A prediction information deriving step;
From the inter prediction information of the fourth block existing at the same position or in the vicinity of the second block to be encoded in a picture different from the picture to be encoded, the second inter prediction information candidate A second prediction information derivation step for performing a derivation process;
When the first inter prediction information candidate is derived, the derived first inter prediction information candidate is obtained. When the second inter prediction information candidate is derived, the derived second inter prediction information candidate is derived. A candidate list construction step of constructing a prediction information candidate list composed of predetermined prediction information candidates to which inter prediction information candidates are added,
A selection step of selecting an inter prediction information candidate used for the inter prediction of the second block to be encoded from the prediction information candidates in the prediction information candidate list, and determining an index indicating the inter prediction information; ,
An encoding step of encoding an index indicating inter prediction information used for inter prediction of the second block to be encoded,
The first prediction information deriving step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target When the second block is a lower block, the first inter prediction information candidate derivation process is performed without referring to the encoding information of the fifth block adjacent to the upper side of the second block. As well as
The second prediction information derivation step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target Without referring to the coding information of the fifth block included in the same first block as the first block including the second block, the reference index value of the second inter prediction information candidate is A transmission method, wherein the second inter prediction information candidate derivation process is performed as a default value based on the reference index.
各ピクチャを分割した第1のブロックを1つまたは複数の第2のブロックに分割し、インター予測を用いて動画像を符号化する動画像符号化方法により符号化された符号化ストリームをパケット化して符号化データを得るパケット処理ステップと、
パケット化された前記符号化データを送信する送信ステップとをコンピュータに実行させ、
前記動画像符号化方法は、
符号化対象となるピクチャ内の、符号化対象となる前記第2のブロックに近接する1以上の第3のブロックのインター予測情報から1以上の第1インター予測情報候補の導出処理を行う第1予測情報導出ステップと、
前記符号化対象となるピクチャとは異なるピクチャ内の、前記符号化対象となる前記第2のブロックと同一位置またはその付近に存在する第4のブロックのインター予測情報から第2インター予測情報候補の導出処理を行う第2予測情報導出ステップと、
前記第1インター予測情報候補が導出された場合には、その導出された前記第1インター予測情報候補を、前記第2インター予測情報候補が導出された場合には、その導出された前記第2インター予測情報候補を、それぞれ加えた所定の予測情報候補からなる予測情報候補リストを構築する候補リスト構築ステップと、
前記予測情報候補リストにおける前記予測情報候補から、前記符号化対象となる前記第2のブロックの前記インター予測に用いるインター予測情報の候補を選択し、インター予測情報を示すインデックスを決定する選択ステップと、
前記符号化対象となる前記第2のブロックのインター予測に用いるインター予測情報を示すインデックスを符号化する符号化ステップとを備え、
前記第1予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックが下側のブロックの場合には、前記第2ブロックの上辺に近接する第5のブロックの符号化情報を参照せずに前記第1インター予測情報候補の導出処理を行うとともに、
前記第2予測情報導出ステップは、前記第1のブロックを上側のブロックと、下側のブロックとで上下に1:1、1:3または3:1に分割する分割モードで、前記符号化対象となる前記第2のブロックを含む前記第1のブロックと同じ第1のブロックに含まれる第5のブロックの符号化情報を参照せずに、前記第2インター予測情報候補の参照インデックスの値をデフォルト値として、前記参照インデックスに基づいて、前記第2インター予測情報候補の導出処理を行うことを特徴とする送信プログラム。
A first block obtained by dividing each picture is divided into one or a plurality of second blocks, and an encoded stream encoded by a moving image encoding method that encodes a moving image using inter prediction is packetized. Packet processing step for obtaining encoded data by
Transmitting the packetized encoded data to the computer, and
The moving image encoding method includes:
A first process of deriving one or more first inter prediction information candidates from inter prediction information of one or more third blocks adjacent to the second block to be encoded in a picture to be encoded A prediction information deriving step;
From the inter prediction information of the fourth block existing at the same position or in the vicinity of the second block to be encoded in a picture different from the picture to be encoded, the second inter prediction information candidate A second prediction information derivation step for performing a derivation process;
When the first inter prediction information candidate is derived, the derived first inter prediction information candidate is obtained. When the second inter prediction information candidate is derived, the derived second inter prediction information candidate is derived. A candidate list construction step of constructing a prediction information candidate list composed of predetermined prediction information candidates to which inter prediction information candidates are added,
A selection step of selecting an inter prediction information candidate used for the inter prediction of the second block to be encoded from the prediction information candidates in the prediction information candidate list, and determining an index indicating the inter prediction information; ,
An encoding step of encoding an index indicating inter prediction information used for inter prediction of the second block to be encoded,
The first prediction information deriving step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target When the second block is a lower block, the first inter prediction information candidate derivation process is performed without referring to the encoding information of the fifth block adjacent to the upper side of the second block. As well as
The second prediction information derivation step is a division mode in which the first block is vertically divided into 1: 1, 1: 3, or 3: 1 by an upper block and a lower block, and the encoding target Without referring to the coding information of the fifth block included in the same first block as the first block including the second block, the reference index value of the second inter prediction information candidate is A transmission program characterized in that, as a default value, the second inter prediction information candidate derivation process is performed based on the reference index.
JP2016044672A 2011-12-16 2016-03-08 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program Active JP6079918B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011276456 2011-12-16
JP2011276456 2011-12-16
JP2011289287 2011-12-28
JP2011289287 2011-12-28

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012273314A Division JP5900308B2 (en) 2011-12-16 2012-12-14 Moving picture coding apparatus, moving picture coding method, and moving picture coding program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017002433A Division JP6264476B2 (en) 2011-12-16 2017-01-11 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program

Publications (2)

Publication Number Publication Date
JP2016140092A true JP2016140092A (en) 2016-08-04
JP6079918B2 JP6079918B2 (en) 2017-02-15

Family

ID=49049407

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2012273314A Active JP5900308B2 (en) 2011-12-16 2012-12-14 Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP2016044672A Active JP6079918B2 (en) 2011-12-16 2016-03-08 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP2016044673A Active JP6079919B2 (en) 2011-12-16 2016-03-08 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP2017002433A Active JP6264476B2 (en) 2011-12-16 2017-01-11 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP2017184643A Active JP6376260B2 (en) 2011-12-16 2017-09-26 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP2018137538A Active JP6644270B2 (en) 2011-12-16 2018-07-23 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmitting apparatus, transmitting method and transmitting program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012273314A Active JP5900308B2 (en) 2011-12-16 2012-12-14 Moving picture coding apparatus, moving picture coding method, and moving picture coding program

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2016044673A Active JP6079919B2 (en) 2011-12-16 2016-03-08 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP2017002433A Active JP6264476B2 (en) 2011-12-16 2017-01-11 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP2017184643A Active JP6376260B2 (en) 2011-12-16 2017-09-26 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP2018137538A Active JP6644270B2 (en) 2011-12-16 2018-07-23 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmitting apparatus, transmitting method and transmitting program

Country Status (1)

Country Link
JP (6) JP5900308B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5900308B2 (en) * 2011-12-16 2016-04-06 株式会社Jvcケンウッド Moving picture coding apparatus, moving picture coding method, and moving picture coding program
CN116614639A (en) 2016-07-12 2023-08-18 韩国电子通信研究院 Image encoding/decoding method and recording medium therefor
CN110198440B (en) * 2018-03-29 2022-11-18 腾讯科技(深圳)有限公司 Method, apparatus and readable medium for determining coding prediction information and video coding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011019253A2 (en) * 2009-08-14 2011-02-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding video in consideration of scanning order of coding units having hierarchical structure, and method and apparatus for decoding video in consideration of scanning order of coding units having hierarchical structure
WO2012116212A1 (en) * 2011-02-24 2012-08-30 Qualcomm Incorporated Hierarchy of motion prediction video blocks
WO2013067939A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of deriving motion information
WO2013067938A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of constructing merge list

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130050149A (en) * 2011-11-07 2013-05-15 오수미 Method for generating prediction block in inter prediction mode
JP5900308B2 (en) * 2011-12-16 2016-04-06 株式会社Jvcケンウッド Moving picture coding apparatus, moving picture coding method, and moving picture coding program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011019253A2 (en) * 2009-08-14 2011-02-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding video in consideration of scanning order of coding units having hierarchical structure, and method and apparatus for decoding video in consideration of scanning order of coding units having hierarchical structure
WO2012116212A1 (en) * 2011-02-24 2012-08-30 Qualcomm Incorporated Hierarchy of motion prediction video blocks
WO2013067939A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of deriving motion information
WO2013067938A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of constructing merge list

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JPN6012068665; Yunfei Zheng et al.: 'Unified Motion Vector Predictor Selection for Merge and AMVP' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-E396, 201103, pp.1-5, 5th Meeting: Geneva *
JPN6012068666; Yunfei Zheng et al.: 'Merge Candidate Selection in 2NxN, Nx2N, and NxN Mode' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F302_r2, 201107, pp.1-6, 6th Meeting: Torino, IT *
JPN6014019041; Hideki Takehara and Shigeru Fukushima: 'Non-CE9: Merging candidate reordering' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-G181, 201111, pp.1-16, 7th Meeting: Geneva, CH *
JPN6014019042; Yunfei Zheng et al.: 'Non-CE9: Simplified Merge candidate derivation' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-G681_r1, 201111, pp.1-5, 7th Meeting: Geneva, CH *
JPN6014019043; Hiroya Nakamura et al.: 'Non-CE9: Derivation process of reference indices for temporal merging candidates' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-H0199, 201202, pp.1-10, 8th Meeting: San Jose, CA, USA *
JPN6015019264; Shan Liu et al.: 'Method and syntax for partial CU merge' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-E085, 201103, pp.1-5, 5th Meeting: Geneva, CH *

Also Published As

Publication number Publication date
JP6376260B2 (en) 2018-08-22
JP6264476B2 (en) 2018-01-24
JP2016140093A (en) 2016-08-04
JP2018033145A (en) 2018-03-01
JP6079918B2 (en) 2017-02-15
JP6644270B2 (en) 2020-02-12
JP2018196136A (en) 2018-12-06
JP5900308B2 (en) 2016-04-06
JP2017098994A (en) 2017-06-01
JP6079919B2 (en) 2017-02-15
JP2013153422A (en) 2013-08-08

Similar Documents

Publication Publication Date Title
WO2013088738A1 (en) Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program
JP6090512B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP6229806B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP6644270B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmitting apparatus, transmitting method and transmitting program
JP2013090032A (en) Video image coding device, video image coding method, and video image coding program
WO2013065301A1 (en) Video coding device, video coding method, video coding program, transmission device, transmission method, and transmission program, as well as video decoding device, video decoding method, video decoding program, reception device, reception method, and reception program
JP2013102260A (en) Moving image decoder, moving image decoding method and moving image decoding program
JP2013090033A (en) Video image decoding device, video image decoding method, and video image decoding program
JP2013098733A (en) Moving image decoder, moving image decoding method and moving image decoding program
JP2013102259A (en) Moving image encoder, moving image encoding method and moving image encoding program
JP2013118624A (en) Moving image encoding apparatus, moving image encoding method, moving image encoding program, transmitting apparatus, transmitting method and transmitting program
JP2013098732A (en) Moving image encoder, moving image encoding method and moving image encoding program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170102

R150 Certificate of patent or registration of utility model

Ref document number: 6079918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150