JP5846327B1 - Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program - Google Patents

Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program Download PDF

Info

Publication number
JP5846327B1
JP5846327B1 JP2015182701A JP2015182701A JP5846327B1 JP 5846327 B1 JP5846327 B1 JP 5846327B1 JP 2015182701 A JP2015182701 A JP 2015182701A JP 2015182701 A JP2015182701 A JP 2015182701A JP 5846327 B1 JP5846327 B1 JP 5846327B1
Authority
JP
Japan
Prior art keywords
motion information
prediction
combined motion
information candidate
decoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015182701A
Other languages
Japanese (ja)
Other versions
JP2016027731A (en
Inventor
英樹 竹原
英樹 竹原
福島 茂
茂 福島
博哉 中村
博哉 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2015182701A priority Critical patent/JP5846327B1/en
Application granted granted Critical
Publication of JP5846327B1 publication Critical patent/JP5846327B1/en
Publication of JP2016027731A publication Critical patent/JP2016027731A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】予測動きベクトルの予測精度が低下し、符号化効率が改善しない。【解決手段】結合動き情報候補リスト構築部162は、空間結合動き情報候補と時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する。第2結合動き情報候補補充部165は、参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して結合動き情報候補リストに追加する。結合動き情報選択部231は、復号された特定インデックスに基づいて、新たな結合動き情報候補が追加された結合動き情報候補リストから1つの結合動き情報候補を選択し、復号対象の予測ブロックの動き情報として、選択した1つの結合動き情報候補を導出する。【選択図】図13The prediction accuracy of a motion vector predictor is reduced, and the encoding efficiency is not improved. A combined motion information candidate list construction unit 162 generates a combined motion information candidate list, which is a list of combined motion information candidates, using a spatially combined motion information candidate and a temporally combined motion information candidate. The second combined motion information candidate supplementing unit 165 presets a reference index when the reference index indicates an available reference picture, and a predetermined reference index when the reference index does not indicate an available reference picture. A new combined motion information candidate including a motion vector having a size and direction is generated and added to the combined motion information candidate list. Based on the decoded specific index, the combined motion information selection unit 231 selects one combined motion information candidate from the combined motion information candidate list to which a new combined motion information candidate is added, and the motion of the prediction block to be decoded As information, one selected combined motion information candidate is derived. [Selection] Figure 13

Description

本発明は、動き補償予測を用いた動画像復号技術に関し、特に動き補償予測で利用する動き情報を復号する動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラムに関する。   The present invention relates to a moving image decoding technique using motion compensated prediction, and in particular, a moving image decoding device, a moving image decoding method, a moving image decoding program, a receiving device, and a receiving device that decode motion information used in motion compensated prediction. The present invention relates to a method and a receiving program.

一般的な動画像圧縮符号化では動き補償予測が利用される。動き補償予測は、対象画像を細かいブロックに分割し、復号済みの画像を参照画像として、動きベクトルで示される動き量に基づいて、対象画像の処理対象ブロックから参照画像の参照ブロックに移動した位置の信号を予測信号として生成する技術である。動き補償予測には1本の動きベクトルを利用して単予測に行うものと、2本の動きベクトルを利用して双予測に行うものがある。   In general video compression coding, motion compensation prediction is used. The motion compensated prediction is performed by dividing the target image into fine blocks, using the decoded image as a reference image, and moving from the processing target block of the target image to the reference block of the reference image based on the amount of motion indicated by the motion vector. This is a technique for generating a signal as a prediction signal. There are two types of motion compensated prediction, one for single prediction using one motion vector and the other for bi-prediction using two motion vectors.

動きベクトルについては、処理対象ブロックに隣接する符号化済みのブロックの動きベクトルを予測動きベクトル(単に「予測ベクトル」ともいう)とし、処理対象ブロックの動きベクトルと予測ベクトルとの差分を求め、差分ベクトルを符号化ベクトルとして伝送することで圧縮効率を向上させている。   For a motion vector, a motion vector of an encoded block adjacent to the processing target block is set as a prediction motion vector (also simply referred to as “prediction vector”), and a difference between the motion vector of the processing target block and the prediction vector is obtained. The compression efficiency is improved by transmitting the vector as an encoded vector.

MPEG−4AVC/H.264(以下、AVC)のような動画像圧縮符号化では、動き補償予測を行うブロックサイズを細かく且つ多様にすることで、精度の高い動き補償予測を可能としている。一方、ブロックサイズを小さくすることで、符号化ベクトルの符号量は大きくなる問題があった。   MPEG-4 AVC / H. In moving picture compression coding such as H.264 (hereinafter referred to as AVC), motion compensation prediction with high accuracy is possible by making the block size for motion compensation prediction fine and diverse. On the other hand, there is a problem that the code amount of the encoded vector is increased by reducing the block size.

そこで、AVCでは、時間方向の動きの連続性に着目し、処理対象ブロックと同一位置にある参照画像のブロックが有する動きベクトルをスケーリングして処理対象ブロックの動きベクトルとして利用することで、符号化ベクトルを伝送することなく動き補償予測を実現する時間ダイレクト動き補償予測が用いられている。   Therefore, in AVC, focusing on the continuity of motion in the time direction, encoding is performed by scaling the motion vector of the block of the reference image at the same position as the processing target block and using it as the motion vector of the processing target block. Temporal direct motion compensated prediction is used to realize motion compensated prediction without transmitting a vector.

また、特許文献1では、空間方向の動きの連続性に着目し、処理対象ブロックに隣接する処理済みのブロックが有する動きベクトルを処理対象ブロックの動きベクトルとして利用して、符号化ベクトルを伝送することなく動き補償予測を実現する方法が開示されている。   Also, in Patent Document 1, paying attention to the continuity of motion in the spatial direction, the encoded vector is transmitted using the motion vector of the processed block adjacent to the processing target block as the motion vector of the processing target block. A method for realizing motion compensated prediction without the need is disclosed.

特開平10−276439号公報JP-A-10-276439

しかし、AVCや特許文献1に記載された方法では、予測ベクトルが1つとダイレクトモードが1つしか得られないため、画像によっては予測動きベクトルの予測精度が低下し、符号化効率が良くならない場合もある。   However, in the method described in AVC and Patent Document 1, since only one prediction vector and one direct mode can be obtained, the prediction accuracy of a motion vector predictor is lowered depending on the image, and the encoding efficiency is not improved. There is also.

このような状況下、本発明者らは、動き補償予測を使用する動画像符号化方式において、符号化情報をより一層圧縮し、全体の符号量を削減する必要性を認識するに至った。   Under such circumstances, the present inventors have come to recognize the necessity of further compressing the encoded information and reducing the overall code amount in the moving image encoding method using motion compensation prediction.

本発明はこうした状況に鑑みてなされたものであり、その目的は、動き情報を伝送しない場合に複数の動き情報の候補を設置することで動き情報の符号量の削減を図って符号化効率を向上させる動画像復号技術を提供することにある。   The present invention has been made in view of such a situation, and an object of the present invention is to reduce the amount of coding of motion information by setting a plurality of motion information candidates when motion information is not transmitted, thereby improving coding efficiency. An object of the present invention is to provide an improved video decoding technique.

予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する動画像復号装置であって、符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号部と、前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出部と、前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出部と、前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成部と、前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充部と、復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択部とを備え、前記所定の参照インデックスは0であり、前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする動画像復号装置を提供する。
予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する動画像復号方法であって、符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号ステップと、前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出ステップと、前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出ステップと、前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成ステップと、前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充ステップと、復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択ステップとを備え、前記所定の参照インデックスは0であり、前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする動画像復号方法を提供する。
予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する動画像復号プログラムであって、符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号ステップと、前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出ステップと、前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出ステップと、前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成ステップと、前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充ステップと、復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択ステップとをコンピュータに実行させ、前記所定の参照インデックスは0であり、前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする動画像復号プログラムを提供する。
符号化列から、予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する受信装置であって、動画像が符号化された符号化データを受信する受信部と、前記符号化データをパケット処理して前記符号化列を生成するパケット処理部と、前記符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号部と、前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出部と、前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出部と、前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成部と、前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充部と、復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択部とを備え、前記所定の参照インデックスは0であり、前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする受信装置を提供する。
符号化列から、予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する受信方法であって、動画像が符号化された符号化データを受信する受信ステップと、前記符号化データをパケット処理して前記符号化列を生成するパケット処理ステップと、前記符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号ステップと、前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出ステップと、前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出ステップと、前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成ステップと、前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充ステップと、復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択ステップとを備え、前記所定の参照インデックスは0であり、前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする受信方法を提供する。
符号化列から、予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する受信プログラムであって、動画像が符号化された符号化データを受信する受信ステップと、前記符号化データをパケット処理して前記符号化列を生成するパケット処理ステップと、前記符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号ステップと、前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出ステップと、前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出ステップと、前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成ステップと、前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充ステップと、復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択ステップとをコンピュータに実行させ、前記所定の参照インデックスは0であり、前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする受信プログラムを提供する。
A moving picture decoding apparatus for deriving motion information including a reference index and a motion vector in units of prediction blocks, and specifying for identifying joint motion information candidates to be used for the prediction block to be decoded from a code string A decoding unit that decodes an index, a spatially combined motion information candidate derivation unit that derives spatially combined motion information candidates from motion information of a plurality of decoded prediction blocks that are in the vicinity of the prediction block to be decoded, and the decoding A temporally combined motion information candidate deriving unit for deriving temporally combined motion information candidates from motion information of the predicted block in a decoded picture different from a picture with the target predicted block; and the spatially combined motion information candidate; A combined motion that generates a combined motion information candidate list that is a list of combined motion information candidates using the temporally combined motion information candidates An information candidate list generation unit and a reference index when the reference index indicates an available reference picture, and a predetermined reference index when the reference index does not indicate an available reference picture, are set to a predetermined size. A combined motion information candidate supplementing unit that generates a new combined motion information candidate and includes it in the combined motion information candidate list, and includes the new vector based on the decoded specific index. One combined motion information candidate is selected from the combined motion information candidate list to which the combined motion information candidate is added, and the selected one combined motion information candidate is derived as the motion information of the prediction block to be decoded. A combination motion information selection unit, wherein the predetermined reference index is 0 and the preset motion index is set in advance. Motion vector having a magnitude and provides a video decoding apparatus which is a (0,0).
A moving picture decoding method for deriving motion information including a reference index and a motion vector in units of prediction blocks, and specifying for identifying joint motion information candidates to be used for the prediction block to be decoded from a code string A decoding step of decoding an index, a spatially combined motion information candidate derivation step of deriving a spatially combined motion information candidate from motion information of a plurality of decoded prediction blocks in the vicinity of the prediction block to be decoded, and the decoding A temporally combined motion information candidate derivation step for deriving temporally combined motion information candidates from motion information of the predicted block in a decoded picture different from a picture with the target prediction block; and the spatially combined motion information candidates; A combined motion information candidate list that is a list of combined motion information candidates using the temporally combined motion information candidates Generating a combined motion information candidate list, generating a reference index when the reference index indicates an available reference picture, and a predetermined reference index when the reference index does not indicate an available reference picture, Based on the decoded specific index, a combined motion information candidate supplement step of generating a new combined motion information candidate including a motion vector having a preset size and direction and adding the candidate to the combined motion information candidate list Then, one combined motion information candidate is selected from the combined motion information candidate list to which the new combined motion information candidate is added, and the selected one combined motion is used as the motion information of the prediction block to be decoded. A combined motion information selection step for deriving information candidates, DEX is 0, the motion vector having a magnitude that the preset provides a moving picture decoding method which is a (0,0).
A moving picture decoding program for deriving motion information including a reference index and a motion vector in units of prediction blocks, and specifying for identifying joint motion information candidates to be used for the prediction block to be decoded from a code string A decoding step of decoding an index, a spatially combined motion information candidate derivation step of deriving a spatially combined motion information candidate from motion information of a plurality of decoded prediction blocks in the vicinity of the prediction block to be decoded, and the decoding A temporally combined motion information candidate derivation step for deriving temporally combined motion information candidates from motion information of the predicted block in a decoded picture different from a picture with the target prediction block; and the spatially combined motion information candidates; Combined motion information candidates that are lists of combined motion information candidates using the temporally combined motion information candidates A combined motion information candidate list generating step for generating a list, a reference index when the reference index indicates an available reference picture, and a predetermined reference index when the reference index does not indicate an available reference picture. A combined motion information candidate supplement step for generating a new combined motion information candidate including a motion vector having a preset size and direction and adding it to the combined motion information candidate list; and the decoded specific index Based on the combined motion information candidate list to which the new combined motion information candidate is added, and selects one combined motion information candidate as the motion information of the prediction block to be decoded. A combined motion information selection step for deriving motion information candidates is implemented on a computer. Is allowed, the predetermined the reference index 0, motion vector having a magnitude that the preset provides a moving picture decoding program, which is a (0,0).
A receiving apparatus for deriving motion information including a reference index and a motion vector from a coded sequence in units of prediction blocks, a receiving unit that receives coded data in which a moving image is coded, and the coded data A packet processing unit that performs packet processing to generate the encoded sequence, and a decoding unit that decodes a specific index for specifying a combined motion information candidate to be used for the prediction block to be decoded from the code sequence, A spatially coupled motion information candidate derivation unit for deriving a spatially coupled motion information candidate from motion information of a plurality of decoded prediction blocks that are in the vicinity of the prediction block to be decoded; and a picture with the prediction block to be decoded A temporally combined motion information candidate derivation that derives temporally combined motion information candidates from the motion information of the prediction block in a decoded picture different from A combined motion information candidate list generation unit that generates a combined motion information candidate list that is a list of combined motion information candidates using the spatially combined motion information candidate and the temporally combined motion information candidate, and the reference index A new reference index including a reference index when indicating an available reference picture, and a predetermined reference index when the reference index does not indicate an available reference picture, together with a motion vector having a preset size and direction. A combined motion information candidate supplementing unit that generates a new combined motion information candidate and adds it to the combined motion information candidate list, and the combined motion in which the new combined motion information candidate is added based on the decoded specific index One combined motion information candidate is selected from the information candidate list, and the motion of the prediction block to be decoded is selected. The information includes a combined motion information selection unit for deriving the selected single combined motion information candidate, the predetermined reference index is 0, and the motion vector having the preset size is (0, 0 And a receiving apparatus characterized by the above.
A reception method for deriving motion information including a reference index and a motion vector in units of prediction blocks from an encoded sequence, a reception step of receiving encoded data in which a moving image is encoded, and the encoded data A packet processing step of performing packet processing to generate the encoded sequence; a decoding step of decoding a specific index for specifying a combined motion information candidate to be used for the prediction block to be decoded from the code sequence; A spatially coupled motion information candidate derivation step for deriving spatially coupled motion information candidates from motion information of a plurality of the predicted blocks that have been decoded in the vicinity of the prediction block to be decoded; and a picture with the prediction block to be decoded A temporally combined motion information candidate is derived from the motion information of the prediction block in a decoded picture different from A temporally combined motion information candidate derivation step, and a combined motion information candidate list generation step of generating a combined motion information candidate list that is a list of combined motion information candidates using the spatially combined motion information candidate and the temporally combined motion information candidate. When the reference index indicates an available reference picture, the reference index is set. When the reference index does not indicate an available reference picture, a predetermined reference index has a predetermined size and direction. A combined motion information candidate supplementing step for generating a new combined motion information candidate including the motion vector and adding it to the combined motion information candidate list, and the new combined motion information candidate is based on the decoded specific index. Select one combined motion information candidate from the added combined motion information candidate list A combined motion information selection step for deriving the selected one combined motion information candidate as the motion information of the prediction block to be decoded, wherein the predetermined reference index is 0 and the preset A receiving method is provided in which a motion vector having a magnitude is (0, 0).
A receiving program for deriving motion information including a reference index and a motion vector for each prediction block from a coded sequence, a receiving step for receiving coded data in which a moving image is coded, and the coded data A packet processing step of performing packet processing to generate the encoded sequence; a decoding step of decoding a specific index for specifying a combined motion information candidate to be used for the prediction block to be decoded from the code sequence; A spatially coupled motion information candidate derivation step for deriving spatially coupled motion information candidates from motion information of a plurality of the predicted blocks that have been decoded in the vicinity of the prediction block to be decoded; and a picture with the prediction block to be decoded A temporally combined motion information candidate is obtained from the motion information of the predicted block in a decoded picture. A combined motion information candidate list that generates a combined motion information candidate list that is a list of combined motion information candidates by using the temporally combined motion information candidate derivation step to be output, and the spatially combined motion information candidate and the temporally combined motion information candidate. A generation step and a reference index when the reference index indicates an available reference picture, a predetermined reference index when the reference index does not indicate an available reference picture, a preset size and direction, A combined motion information candidate supplement step for generating a new combined motion information candidate and adding it to the combined motion information candidate list, and the new combined motion information based on the decoded specific index One combined motion information candidate from the combined motion information candidate list to which the candidate is added Selecting, as the motion information of the prediction block to be decoded, causing the computer to execute a joint motion information selection step for deriving the selected joint motion information candidate, and the predetermined reference index is 0, A receiving program is provided in which the motion vector having a preset size is (0, 0).

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、動き情報を伝送しない場合にも複数の動き情報の候補を設置することで動き情報の符号量の削減を実現することができる。   According to the present invention, even when motion information is not transmitted, it is possible to reduce the amount of code of motion information by installing a plurality of motion information candidates.

図1(a)、(b)は、符号化ブロックを説明する図である。FIGS. 1A and 1B are diagrams for explaining an encoded block. 図2(a)〜(d)は、予測ブロックサイズタイプを説明する図である。FIGS. 2A to 2D are diagrams for explaining the prediction block size type. 予測ブロックサイズタイプを説明する図である。It is a figure explaining a prediction block size type. 予測符号化モードを説明する図である。It is a figure explaining prediction coding mode. マージインデックスと符号列の関係を説明する図である。It is a figure explaining the relationship between a merge index and a code sequence. 予測ブロックのシンタックスの一例を説明する図である。It is a figure explaining an example of the syntax of a prediction block. 実施の形態1に係る動画像符号化装置の構成を示す図である。1 is a diagram illustrating a configuration of a moving image encoding device according to Embodiment 1. FIG. 参照ピクチャリストL0の生成の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the production | generation of the reference picture list L0. 参照ピクチャリストL1の生成の動作を説明するフローチャートである。It is a flowchart explaining the production | generation operation | movement of the reference picture list L1. 図7の動き情報生成部の構成を示す図である。It is a figure which shows the structure of the motion information generation part of FIG. 図10のマージモード決定部の構成を説明する図である。It is a figure explaining the structure of the merge mode determination part of FIG. マージモード決定部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of a merge mode determination part. 図11の結合動き情報候補リスト生成部の構成を説明する図である。It is a figure explaining the structure of the joint motion information candidate list production | generation part of FIG. 図11の結合動き情報候補リスト生成部の動作を説明するフローチャートである。12 is a flowchart for explaining the operation of the combined motion information candidate list generation unit in FIG. 11. 予測ブロックの空間候補ブロック群について説明する図である。It is a figure explaining the space candidate block group of a prediction block. 図13の空間結合動き情報候補導出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the space joint motion information candidate derivation | leading-out part of FIG. 図13の時間結合動き情報候補導出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the time combination motion information candidate derivation | leading-out part of FIG. 図13の第1結合動き情報候補補充部の動作を説明するフローチャートである。14 is a flowchart illustrating an operation of a first combined motion information candidate supplementing unit in FIG. 13. 組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係を説明する図である。It is a figure explaining the relationship between the frequency | count of combination inspection, combined motion information candidate M, and combined motion information candidate N. 図13の第2結合動き情報候補補充部の動作を説明するフローチャートである。14 is a flowchart illustrating an operation of a second combined motion information candidate supplementing unit in FIG. 13. 処理対象ピクチャと参照ピクチャの関係を説明する図である。It is a figure explaining the relationship between a process target picture and a reference picture. 参照ピクチャリストの一例を説明する図である。It is a figure explaining an example of a reference picture list. 実施の形態1による第2補充結合動き情報候補の参照インデックスとPOCの関係の一例を説明する図である。It is a figure explaining an example of the relationship between the reference index of the 2nd supplementary joint motion information candidate by Embodiment 1, and POC. 予測ベクトルモード決定部の構成を示す図である。It is a figure which shows the structure of a prediction vector mode determination part. 予測ベクトルモード決定部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a prediction vector mode determination part. 予測ベクトル候補リスト生成部の構成を説明する図である。It is a figure explaining the structure of a prediction vector candidate list production | generation part. 予測ベクトル候補リスト生成部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of a prediction vector candidate list production | generation part. 空間予測ベクトル候補導出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of a spatial prediction vector candidate derivation | leading-out part. 空間スケーリング予測ベクトル候補導出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of a spatial scaling prediction vector candidate derivation | leading-out part. 時間予測ベクトル候補導出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of a time prediction vector candidate derivation | leading-out part. 実施の形態1に係る動画像復号装置の構成を示す図である。1 is a diagram illustrating a configuration of a video decoding device according to Embodiment 1. FIG. 図31の動き情報再生部の構成を示す図である。It is a figure which shows the structure of the motion information reproduction | regeneration part of FIG. 図32の結合動き情報再生部の構成を示す図である。It is a figure which shows the structure of the joint motion information reproduction | regeneration part of FIG. 結合動き情報再生部の動作を説明する図である。It is a figure explaining operation | movement of a joint motion information reproduction part. 動きベクトル再生部の構成を説明する図である。It is a figure explaining the structure of a motion vector reproduction | regeneration part. 動きベクトル再生部の動作を説明する図である。It is a figure explaining operation | movement of a motion vector reproduction part. 実施の形態2の第2結合動き情報候補補充部の動作を説明するフローチャートである。10 is a flowchart illustrating an operation of a second combined motion information candidate supplementing unit according to the second embodiment. 実施の形態2による第2補充結合動き情報候補の参照インデックスとPOCの関係の一例を説明する図である。It is a figure explaining an example of the relationship between the reference index of the 2nd supplementary joint motion information candidate according to Embodiment 2 and POC. 実施の形態3の第2結合動き情報候補補充部の動作を説明するフローチャートである。22 is a flowchart for explaining the operation of the second combined motion information candidate supplementing unit of the third embodiment. 実施の形態3による第2補充結合動き情報候補の参照インデックスとPOCの関係の一例を説明する図である。FIG. 25 is a diagram for explaining an example of a relationship between a reference index of a second supplementary combined motion information candidate and a POC according to Embodiment 3.

まず、本発明の実施の形態の前提となる技術を説明する。   First, a technique that is a premise of the embodiment of the present invention will be described.

現在、MPEG(Moving Picture Experts Group)などの符号化方式に準拠した装置およびシステムが普及している。そのような符号化方式では、時間軸上に連続する複数の画像をデジタル信号の情報として取り扱う。その際、効率の高い情報の放送、伝送または蓄積などを目的とし、画像を複数のブロックに分割して時間方向の冗長性を利用した動き補償予測、および空間方向の冗長性を利用した離散コサイン変換などの直交変換を用いて圧縮符号化する。   Currently, apparatuses and systems that comply with an encoding method such as MPEG (Moving Picture Experts Group) are widely used. In such an encoding method, a plurality of images that are continuous on the time axis are handled as digital signal information. At that time, for the purpose of broadcasting, transmitting or storing information with high efficiency, motion compensated prediction using the temporal redundancy by dividing the image into a plurality of blocks and the discrete cosine using the redundancy in the spatial direction Compression encoding is performed using orthogonal transformation such as transformation.

2003年に、国際標準化機構(ISO)と国際電気標準会議(IEC)のジョイント技術委員会(ISO/IEC)と、国際電気通信連合電気通信標準化部門(ITU−T)の共同作業によってAVCと呼ばれる符号化方式(ISO/IECでは14496−10、ITU−TではH.264の規格番号がつけられている)が国際標準として制定された。AVCでは、基本的に処理対象ブロックの複数の隣接ブロックの動きベクトルの中央値を予測ベクトルとする。予測ブロックサイズが正方形でない場合で処理対象ブロックの特定の隣接ブロックの参照インデックスと処理対象ブロックの参照インデックスが一致する場合には、その特定の隣接ブロックの動きベクトルを予測ベクトルとする。   Called AVC in 2003 by the joint work of the International Organization for Standardization (ISO) and the International Electrotechnical Commission (IEC) Joint Technical Committee (ISO / IEC) and the International Telecommunication Union Telecommunication Standardization Sector (ITU-T) An encoding system (standard number of 14495-10 for ISO / IEC and H.264 for ITU-T) has been established as an international standard. In AVC, basically, a median value of motion vectors of a plurality of adjacent blocks of a processing target block is used as a prediction vector. When the prediction block size is not square and the reference index of a specific adjacent block of the processing target block matches the reference index of the processing target block, the motion vector of the specific adjacent block is set as a prediction vector.

現在、国際標準化機構(ISO)と国際電気標準会議(IEC)のジョイント技術委員会(ISO/IEC)と、国際電気通信連合電気通信標準化部門(ITU−T)の共同作業によってHEVCと呼ばれる符号化方式の標準化が検討されている。   Coding currently called HEVC by the joint work of the International Technical Organization (ISO) and the International Electrotechnical Commission (IEC) Joint Technical Committee (ISO / IEC) and the International Telecommunication Union Telecommunication Standardization Sector (ITU-T) Standardization of the method is being studied.

HEVCの標準化では、処理対象のブロックの複数の隣接ブロックと復号済みの別の画像のブロックを候補ブロックとして、これら候補ブロック群で構成される候補ブロック群から1つの候補ブロックが選択されて、選択された候補ブロックの情報が符号化および復号されて、選択された候補ブロックの動き情報が処理対象のブロックの動き情報として利用されるマージモードが検討されている。
また、処理対象のブロックの複数の隣接ブロックと復号済みの別の画像のブロックを候補ブロックとして、これら候補ブロック群で構成される候補ブロック群から1つの候補ブロックが選択されて、選択された候補ブロックの情報が符号化および復号されて、選択された候補ブロックの動きベクトルが処理対象のブロックの予測ベクトルとして利用される予測ベクトルモードが検討されている。
In the HEVC standardization, a plurality of adjacent blocks of a block to be processed and a block of another decoded image are used as candidate blocks, and one candidate block is selected from the candidate block group composed of these candidate block groups and selected. A merge mode in which the information on the candidate block is encoded and decoded, and the motion information on the selected candidate block is used as the motion information on the block to be processed has been studied.
In addition, a plurality of adjacent blocks of the block to be processed and a block of another image that has been decoded are selected as candidate blocks, and one candidate block is selected from the candidate block group configured by these candidate block groups, and the selected candidate is selected. A prediction vector mode in which block information is encoded and decoded and a motion vector of a selected candidate block is used as a prediction vector of a block to be processed has been studied.

[実施の形態1]
(符号化ブロック)
本実施の形態では、入力された画像信号は最大符号化ブロック単位に分割され、分割された最大符号化ブロックをラスタースキャン順序で処理する。符号化ブロックは階層構造となっており、符号化効率などを考慮して順次4分割することでより小さい符号化ブロックにすることができる。なお、4分割された符号化ブロックはジグザグスキャン順で符号化される。これ以上小さくすることのできない符号化ブロックを最小符号化ブロックと呼ぶ。符号化ブロックは符号化の単位となり、最大符号化ブロックも分割回数が0である場合は符号化ブロックとなる。本実施の形態では、最大符号化ブロックを64画素×64画素、最小符号化ブロックを8画素×8画素とする。
[Embodiment 1]
(Encoding block)
In the present embodiment, the input image signal is divided into units of maximum encoding blocks, and the divided maximum encoding blocks are processed in a raster scan order. The encoding block has a hierarchical structure, and can be made into a smaller encoding block by sequentially dividing into four in consideration of encoding efficiency and the like. Note that the encoded blocks divided into four are encoded in the zigzag scan order. An encoded block that cannot be further reduced is called a minimum encoded block. The encoded block is a unit of encoding, and the maximum encoded block is also an encoded block when the number of divisions is zero. In this embodiment, the maximum coding block is 64 pixels × 64 pixels, and the minimum coding block is 8 pixels × 8 pixels.

図1(a)、(b)は、符号化ブロックを説明するための図である。図1(a)の例では、符号化ブロックが10個に分割されている。CU0、CU1およびCU9は32画素×32画素の符号化ブロック、CU2、CU3およびCU8は16画素×16画素の符号化ブロック、ならびにCU4、CU5、CU6およびCU7は8画素×8画素の符号化ブロックとなっている。図1(b)の例では、符号化ブロックが1個に分割されている。   FIGS. 1A and 1B are diagrams for explaining an encoded block. In the example of FIG. 1A, the encoded block is divided into ten. CU0, CU1 and CU9 are 32 × 32 pixel coding blocks, CU2, CU3 and CU8 are 16 × 16 pixel coding blocks, and CU4, CU5, CU6 and CU7 are 8 × 8 pixel coding blocks. It has become. In the example of FIG. 1B, the encoded block is divided into one.

(予測ブロック)
本実施の形態では、符号化ブロックはさらに予測ブロック(パーティションともいう)に分割される。符号化ブロックは予測ブロックサイズタイプ(分割タイプやパーティションタイプともいう)によって1以上の予測ブロックに分割される。図2(a)〜(d)は、予測ブロックサイズタイプを説明するための図である。図2(a)は符号化ブロックを分割しない2N×2N、図2(b)は水平に2分割する2N×N、図2(c)は垂直に2分割するN×2N、および図2(d)は水平と垂直に4分割するN×Nを示す。2N×2Nは1個の予測ブロック0、2N×NとN×2Nは2個の予測ブロック0と予測ブロック1、N×Nは4個の予測ブロック0、予測ブロック1、予測ブロック2、予測ブロック3からなる。予測ブロック0、予測ブロック1、予測ブロック2、予測ブロック3の順に符号化される。
(Prediction block)
In the present embodiment, the encoded block is further divided into prediction blocks (also referred to as partitions). An encoded block is divided into one or more prediction blocks according to a prediction block size type (also referred to as a division type or a partition type). FIGS. 2A to 2D are diagrams for explaining the prediction block size type. 2 (a) is 2N × 2N that does not divide the encoded block, FIG. 2 (b) is 2N × N that is horizontally divided, FIG. 2 (c) is N × 2N that is vertically divided, and FIG. d) shows N × N which is divided into 4 parts horizontally and vertically. 2N × 2N is one prediction block 0, 2N × N and N × 2N are two prediction blocks 0 and 1, and N × N is four prediction blocks 0, prediction block 1, prediction block 2, and prediction It consists of block 3. The prediction block 0, the prediction block 1, the prediction block 2, and the prediction block 3 are encoded in this order.

図3は、符号化ブロックの分割回数と予測ブロックサイズタイプによる予測ブロックサイズを説明するための図である。本実施の形態における予測ブロックサイズは、CU分割回数が0であって予測ブロックサイズタイプが2N×2Nである64画素×64画素からCU分割回数が3であって予測ブロックサイズタイプN×Nである4画素×4画素までの13の予測ブロックサイズが存在することになる。例えば、符号化ブロックを非対称に水平や垂直に2分割することもできる。   FIG. 3 is a diagram for explaining the prediction block size according to the number of times of coding block division and the prediction block size type. The prediction block size in the present embodiment is from 64 pixels × 64 pixels in which the number of CU divisions is 0 and the prediction block size type is 2N × 2N, and the number of CU divisions is 3, and the prediction block size type is N × N. There are 13 predicted block sizes up to 4 pixels x 4 pixels. For example, the coding block can be asymmetrically divided into two horizontally and vertically.

本実施の形態では、最大符号化ブロックを64画素×64画素、最小符号化ブロックを8画素×8画素とするが、この組み合わせに限定されない。また、予測ブロックの分割のパターンを図2(a)〜(d)としたが、1以上に分割される組み合わせであればよくこれに限定されない。   In the present embodiment, the maximum encoding block is 64 pixels × 64 pixels and the minimum encoding block is 8 pixels × 8 pixels, but the present invention is not limited to this combination. In addition, although the prediction block division pattern is shown in FIGS. 2A to 2D, the combination is not limited to this as long as the combination is divided into one or more.

(ピクチャとスライス)
ピクチャとスライスはAVCなどで利用されている一般的な概念であるためここでは説明は省略する。また、Iピクチャ、Pピクチャ、Bピクチャ、Iスライス、Pスライス、Bスライスについても一般的な概念であるためここでは説明は省略する。以下、画像はピクチャといいかえてもよい。
(Picture and slice)
Since pictures and slices are general concepts used in AVC and the like, description thereof is omitted here. In addition, since I pictures, P pictures, B pictures, I slices, P slices, and B slices are also general concepts, description thereof is omitted here. Hereinafter, an image may be called a picture.

(予測符号化モード)
本実施の形態では、動き補償予測や符号化ベクトル数を予測ブロック毎に切り替えることが可能となっている。ここで、動き補償予測と符号化ベクトル数を関連付けた予測符号化モードの一例について図4を用いて簡単に説明する。図4は、予測符号化モードを説明するための図である。
(Predictive coding mode)
In the present embodiment, the motion compensation prediction and the number of encoded vectors can be switched for each prediction block. Here, an example of a predictive coding mode in which motion compensation prediction is associated with the number of coding vectors will be briefly described with reference to FIG. FIG. 4 is a diagram for explaining the predictive coding mode.

図4に示す予測符号化モードには、動き補償予測の予測方向が単予測(L0予測)であって符号化ベクトル数が1であるPredL0、動き補償予測の予測方向が単予測(L1予測)であって符号化ベクトル数が1であるPredL1、動き補償予測の予測方向が双予測(BI予測)であって符号化ベクトル数が2であるPredBI、および動き補償予測の予測方向が単予測(L0予測/L1予測)または双予測(BI予測)であって符号化ベクトル数が0であるマージモード(MERGE)がある。また、動き補償予測を実施しない予測符号化モードであるイントラモード(Intra)もある。ここで、PredL0、PredL1、およびPredBIが予測ベクトルモードとなる。   In the predictive coding mode shown in FIG. 4, the prediction direction of motion compensation prediction is single prediction (L0 prediction) and the number of coding vectors is PredL0, and the prediction direction of motion compensation prediction is single prediction (L1 prediction). PredL1 in which the number of encoding vectors is 1, PredBI in which the prediction direction of motion compensation prediction is bi-prediction (BI prediction) and the number of encoding vectors is 2, and the prediction direction in motion compensation prediction is single prediction ( There is a merge mode (MERGE) which is L0 prediction / L1 prediction) or bi-prediction (BI prediction) and the number of encoding vectors is zero. There is also an intra mode (Intra) which is a predictive coding mode in which motion compensation prediction is not performed. Here, PredL0, PredL1, and PredBI are prediction vector modes.

マージモードでは予測方向がL0予測/L1予測/BI予測のいずれにもなるが、それは、マージモードの予測方向は候補ブロック群から選択された候補ブロックの予測方向をそのまま引き継ぐか、復号済みの情報から導出されるためである。また、マージモードでは符号化ベクトルが符号化されない。これは、マージモードの符号化ベクトルは候補ブロック群から選択された候補ブロックの動きベクトルをそのまま引き継ぐか、あらかじめ定められた規則によって導出されるためである。   In the merge mode, the prediction direction is any of L0 prediction / L1 prediction / BI prediction. This is because the prediction direction of the merge mode takes over the prediction direction of the candidate block selected from the candidate block group as it is, or is decoded information. This is because it is derived from In the merge mode, the encoded vector is not encoded. This is because the merge mode encoding vector inherits the motion vector of the candidate block selected from the candidate block group as it is or is derived by a predetermined rule.

(参照インデックス)
本実施の形態では、動き補償予測の精度向上のために、動き補償予測において複数の参照画像の中から最適な参照画像を選択することを可能とする。そのため、動き補償予測で利用した参照画像を参照画像インデックスとして符号化ベクトルとともに符号化する。動き補償予測で利用される参照画像インデックスは0以上の数値となる。参照インデックスには、参照インデックスL0(L0予測の参照インデックスともいう)と参照インデックスL1(L1予測の参照インデックスともいう)がある。動き補償予測が単予測であれば、参照インデックスは参照インデックスL0または参照インデックスL1のいずれか1つ利用され、動き補償予測が双予測であれば、参照インデックスL0と参照インデックスL1の2つの参照インデックスが利用される(図4)。参照インデックスの符号列としては後述するTruncated Unary符号列が用いられる。
(Reference index)
In this embodiment, in order to improve the accuracy of motion compensation prediction, it is possible to select an optimal reference image from a plurality of reference images in motion compensation prediction. For this reason, the reference image used in the motion compensation prediction is encoded as a reference image index together with the encoded vector. The reference image index used in motion compensation prediction is a numerical value of 0 or more. The reference index includes a reference index L0 (also referred to as a reference index for L0 prediction) and a reference index L1 (also referred to as a reference index for L1 prediction). If the motion compensated prediction is a uni-prediction, one of the reference index L0 and the reference index L1 is used, and if the motion compensated prediction is a bi-prediction, two reference indexes of the reference index L0 and the reference index L1 are used. Is used (FIG. 4). A Truncated Unary code string, which will be described later, is used as the code string of the reference index.

マージモードでは参照インデックスは符号化されない。これは、マージモードの参照インデックスは候補ブロック群から選択された候補ブロックの参照インデックスをそのまま引き継ぐか、あらかじめ定められた規則によって導出されるためである。   In merge mode, the reference index is not encoded. This is because the merge mode reference index is derived from the reference index of the candidate block selected from the candidate block group as it is or according to a predetermined rule.

(参照ピクチャリスト)
本実施の形態では、動き補償予測で利用できる1以上の参照画像を参照ピクチャリスト内に登録しておき、参照ピクチャリスト内に登録された参照画像を参照インデックスで示すことによって参照画像を確定させて動き補償予測で利用する。参照ピクチャリストには、参照ピクチャリストL0(L0予測の参照ピクチャリストともいう)と参照ピクチャリストL1(L1予測の参照ピクチャリストともいう)がある。動き補償予測が単予測の場合は、参照ピクチャリストL0の中の参照画像を用いたL0予測、または参照ピクチャリストL1の中の参照画像を用いたL1予測のいずれかを利用する。双予測の場合は参照ピクチャリストL0と参照ピクチャリストL1の2つを利用したBI予測を利用する。
なお、参照インデックスL0は参照ピクチャリストL0の参照画像を示し、参照インデックスL1は参照ピクチャリストL1の参照画像を示す。
(Reference picture list)
In the present embodiment, one or more reference images that can be used in motion compensation prediction are registered in a reference picture list, and the reference image registered in the reference picture list is indicated by a reference index to determine the reference image. Used in motion compensated prediction. The reference picture list includes a reference picture list L0 (also referred to as a reference picture list for L0 prediction) and a reference picture list L1 (also referred to as a reference picture list for L1 prediction). When the motion compensation prediction is simple prediction, either L0 prediction using the reference image in the reference picture list L0 or L1 prediction using the reference image in the reference picture list L1 is used. In the case of bi-prediction, BI prediction using the reference picture list L0 and the reference picture list L1 is used.
Note that the reference index L0 indicates a reference image in the reference picture list L0, and the reference index L1 indicates a reference image in the reference picture list L1.

(マージインデックス)
本実施の形態では、マージモードの場合には、処理対象画像内の複数の隣接ブロックおよび符号化済みの別の画像内の処理対象の予測ブロックと同一位置にある同一位置予測ブロック内と同一位置予測ブロックの周辺にあるブロックを候補ブロック群として、候補ブロック群の中から最適な予測符号化モード、動きベクトル、及び参照インデックスを持つ候補ブロックを選択し、選択した候補ブロックを示すためのマージインデックスを符号化および復号する。マージモードのときのみマージインデックスが1つ利用される(図4)。
ここでは、マージインデックスの最大個数(マージ候補最大数ともいう)はスライスヘッダで指定されるものとする。マージ候補最大数については後述する。なお、マージ候補最大数が5の場合のマージインデックスは0から4までの整数となる。
(Merge index)
In the present embodiment, in the merge mode, the same position in the same position prediction block that is at the same position as the plurality of adjacent blocks in the processing target image and the processing target prediction block in another encoded image A merge index for selecting a candidate block having an optimal predictive coding mode, motion vector, and reference index from the candidate block group using blocks around the prediction block as a candidate block group, and indicating the selected candidate block Is encoded and decoded. Only one merge index is used in the merge mode (FIG. 4).
Here, it is assumed that the maximum number of merge indexes (also called the maximum number of merge candidates) is specified by the slice header. The maximum number of merge candidates will be described later. When the maximum number of merge candidates is 5, the merge index is an integer from 0 to 4.

以降、マージインデックスの対象となる候補ブロックの動き情報を結合動き情報候補と呼び、結合動き情報候補の集合体を結合動き情報候補リストと呼ぶ。以降、動き情報とは予測方向、動きベクトル、及び参照インデックスを含む。   Hereinafter, the motion information of the candidate block that is the target of the merge index is referred to as a combined motion information candidate, and the aggregate of combined motion information candidates is referred to as a combined motion information candidate list. Hereinafter, the motion information includes a prediction direction, a motion vector, and a reference index.

次に、マージインデックスと符号列の関係について説明する。図5はマージ候補最大数が5である場合のマージインデックスと符号列の関係を説明するための図である。マージインデックスの符号列としてTruncated Unary符号列を用いる。マージインデックスが0の場合の符号列は'0'、マージインデックスが1の場合の符号列は'10'、マージインデックスが2の場合の符号列は'110'、マージインデックスが3の場合の符号列は'1110'、マージインデックスが4の場合の符号列は'1111'となり、マージインデックスが小さくなるほど符号列が短くなるように設定される。そのため、選択率の高い候補ブロックに小さいマージインデックスを割り当てることで、符号化効率を向上させることができる。   Next, the relationship between the merge index and the code string will be described. FIG. 5 is a diagram for explaining the relationship between the merge index and the code string when the maximum number of merge candidates is five. A Truncated Unary code string is used as the code string of the merge index. The code string when the merge index is 0 is '0', the code string when the merge index is 1 is '10', the code string when the merge index is 2 is '110', and the code string when the merge index is 3 The code string when the column is “1110” and the merge index is 4 is “1111”, and the code string is set to be shorter as the merge index is smaller. Therefore, it is possible to improve the encoding efficiency by assigning a small merge index to a candidate block with a high selection rate.

マージ候補最大数が4である場合は、マージインデックスが0の場合の符号列は'0'、マージインデックスが1の場合の符号列は'10'、マージインデックスが2の場合の符号列は'110'、マージインデックスが3の場合の符号列は'111'となる。マージ候補最大数が3である場合は、マージインデックスが0の場合の符号列は'0'、マージインデックスが1の場合の符号列は'10'、マージインデックスが2の場合の符号列は'11'となる。マージ候補最大数が2である場合は、マージインデックスが0の場合の符号列は'0'、マージインデックスが1の場合の符号列は'1'となる。マージ候補最大数が1である場合は、マージインデックスが0は符号化ストリーム中には符号化されず、復号時にはマージインデックスは暗黙的に0として処理される。   When the maximum number of merge candidates is 4, the code string when the merge index is 0 is' 0 ', the code string when the merge index is 1 is' 10', and the code string when the merge index is 2 is' The code string when the merge index is 3 and 110 is “111”. When the maximum number of merge candidates is 3, the code string when the merge index is 0 is' 0 ', the code string when the merge index is 1 is' 10', and the code string when the merge index is 2 is' 11 '. When the maximum number of merge candidates is 2, the code string when the merge index is 0 is “0”, and the code string when the merge index is 1 is “1”. When the maximum number of merge candidates is 1, a merge index of 0 is not encoded in the encoded stream, and the merge index is implicitly processed as 0 at the time of decoding.

次に、結合動き情報候補リストとマージインデックスの関係について説明する。マージインデックス0は結合動き情報候補リスト内の最初(0番目)の結合動き情報候補を示す。以下、マージインデックスmは結合動き情報候補リスト内のm番目の結合動き情報候補を示す。ここで、mは0から(マージ候補最大数−1)の整数となる。   Next, the relationship between the combined motion information candidate list and the merge index will be described. The merge index 0 indicates the first (0th) combined motion information candidate in the combined motion information candidate list. Hereinafter, the merge index m indicates the m-th combined motion information candidate in the combined motion information candidate list. Here, m is an integer from 0 to (maximum number of merge candidates−1).

(予測ベクトルインデックス)
本実施の形態では、予測ベクトルの精度を向上させるために、処理対象画像内の複数の隣接ブロックおよび符号化済みの別の画像の処理対象ブロックと同一位置にある同一位置予測ブロック内と同一位置予測ブロックの周辺にあるブロックを候補ブロック群として、候補ブロック群から予測ベクトルとして最適な動きベクトルを持つ候補ブロックを選択し、選択した候補ブロックを示すための予測ベクトルインデックスを符号化および復号する。動き補償予測が単予測であれば、予測ベクトルインデックスは1つ利用され、動き補償予測が双予測であれば、2つの予測ベクトルインデックスが利用される(図4)。予測ベクトルインデックスの最大数(予測ベクトル候補最大数ともいう)は2であり、予測ベクトルインデックスは0または1の整数となる。ここでは、予測ベクトル候補最大数を2としたが、2以上であればよく、これに限定されない。
次に、予測ベクトルインデックスと符号列の関係について説明する。予測ベクトルインデックスの符号列としてTruncated Unary符号列を用いる。
予測ベクトルインデックスの符号列は予測ベクトルインデックスが0の場合の符号列は'0'、予測ベクトルインデックスが1の場合の符号列は'1'とする。
(Predicted vector index)
In the present embodiment, in order to improve the accuracy of the prediction vector, the same position in the same position prediction block that is in the same position as the plurality of adjacent blocks in the processing target image and the processing target block of another encoded image A candidate block having an optimal motion vector as a prediction vector is selected from the candidate block group using blocks around the prediction block as a candidate block group, and a prediction vector index for indicating the selected candidate block is encoded and decoded. If the motion compensation prediction is uni-prediction, one prediction vector index is used, and if the motion compensation prediction is bi-prediction, two prediction vector indexes are used (FIG. 4). The maximum number of prediction vector indexes (also referred to as the maximum number of prediction vector candidates) is 2, and the prediction vector index is an integer of 0 or 1. Although the maximum number of prediction vector candidates is 2 here, it may be 2 or more, and is not limited to this.
Next, the relationship between the prediction vector index and the code string will be described. A Truncated Unary code string is used as the code string of the prediction vector index.
The code string of the prediction vector index is “0” when the prediction vector index is 0, and is “1” when the prediction vector index is 1.

以降、予測ベクトルインデックスの対象となる候補ブロックの動きベクトルを予測ベクトル候補と呼び、予測ベクトル候補の集合体を予測ベクトル候補リストと呼ぶ。予測ベクトルインデックス0は予測ベクトル候補リスト内の最初(0番目)の予測ベクトル候補を示す。以下、予測ベクトルインデックスmは予測ベクトル候補リスト内のm番目の予測ベクトル候補を示す。ここで、mは0から(予測ベクトル候補最大数−1)の整数となる。   Hereinafter, a motion vector of a candidate block that is a target of a prediction vector index is referred to as a prediction vector candidate, and a set of prediction vector candidates is referred to as a prediction vector candidate list. The prediction vector index 0 indicates the first (0th) prediction vector candidate in the prediction vector candidate list. Hereinafter, the prediction vector index m indicates the mth prediction vector candidate in the prediction vector candidate list. Here, m is an integer from 0 to (maximum number of prediction vector candidates−1).

(POC)
本発明の実施の形態では、画像の時間情報(距離情報)としてPOC(Picture Order Count)を用いる。POCは画像の表示順序を示すカウンタであってAVCで定義されているものと同様であるとする。ここでは、画像の表示順序が1増加するとPOCも1増加するとする。したがって、画像間のPOC差から画像間の時間差(距離)を取得できる。
(POC)
In the embodiment of the present invention, POC (Picture Order Count) is used as time information (distance information) of an image. POC is a counter indicating the display order of images and is the same as that defined in AVC. Here, when the image display order is increased by 1, the POC is also increased by 1. Therefore, the time difference (distance) between images can be acquired from the POC difference between images.

(シンタックス)
本実施の形態による予測ブロックのシンタックスの一例について説明する。図6は本実施の形態に係るシンタックスを説明する図である。図6はPPS(Picture Parameter Set)、スライスヘッダ(Slice Header)、符号化木(Coding Tree)、符号化ブロック(Coding Unit)、及び予測ブロック(Prediction Unit)のシンタックス構成の一例を示す。
(Syntax)
An example of the syntax of the prediction block according to the present embodiment will be described. FIG. 6 is a diagram for explaining the syntax according to the present embodiment. FIG. 6 shows an example of the syntax configuration of a PPS (Picture Parameter Set), a slice header (Slice Header), a coding tree (Coding Tree), a coding block (Coding Unit), and a prediction block (Prediction Unit).

PPSはピクチャの特性を決定するためのパラメータ群を定義するパラメータセットである。PPSには当該ピクチャで利用できるL0予測の参照インデックスの所定の最大値(num_ref_idx_l0_default_active_minus1)、L1予測の参照インデックスの所定の最大値(num_ref_idx_l1_default_active_minus1)、及び時間候補利用許可フラグ(enable_temporal_mvp_flag)が設置される。   PPS is a parameter set that defines a group of parameters for determining picture characteristics. The PPS includes a predetermined maximum value (num_ref_idx_l0_default_active_minus1) of a reference index of L0 prediction that can be used in the picture, a predetermined maximum value of a reference index of L1 prediction (num_ref_idx_l1_default_active_minus1), and a time candidate use mp (full_g_ent_g_ent_g_ent_g_ent_g_ent_g_______)

時間候補利用許可フラグは0または1の値を1ビットの符号であって、ColPic上の動きベクトルと参照インデックスの利用を制限するためのフラグである。時間候補利用許可フラグが1であれば、ColPic上の動きベクトルと参照インデックスが利用可能となり、時間候補利用許可フラグが0であれば、ColPic上の動きベクトルと参照インデックスは利用不可能となる。本実施の形態では、時間候補利用許可フラグは1として説明する。   The time candidate use permission flag is a 1-bit code with a value of 0 or 1, and is a flag for restricting the use of a motion vector and a reference index on ColPic. If the time candidate use permission flag is 1, the motion vector and reference index on the ColPic can be used, and if the time candidate use permission flag is 0, the motion vector and the reference index on the ColPic cannot be used. In the present embodiment, the time candidate use permission flag is assumed to be 1.

スライスヘッダはスライスの特性を決定するためのパラメータ群を定義したヘッダである。スライスヘッダにはPOCと当該スライスがPスライスまたはBスライスである場合に当該スライスで利用できる参照インデックスの最大値を変更するためのフラグ(num_ref_idx_active_override_flag)、L0予測の参照インデックスの最大値(num_ref_idx_l0_active_minus1)、及びL1予測の参照インデックスの最大値(num_ref_idx_l1_active_minus1)が設置される。   The slice header is a header that defines a group of parameters for determining the characteristics of the slice. In the slice header, when the POC and the slice are P slices or B slices, a flag (num_ref_idx_active_override_flag) for changing the maximum value of the reference index that can be used in the slice, the maximum value of the reference index of L0 prediction (num_ref_idx_l0_active_minus1), And the maximum value (num_ref_idx_l1_active_minus1) of the reference index of L1 prediction is set.

参照インデックスの最大値を変更するためのフラグが1であれば、当該スライスで利用できるL0予測の参照インデックスの最大値(num_ref_idx_l0_active_minus1)がスライスヘッダに設置され、当該スライスがBスライスである場合には当該スライスで利用できるL1予測の参照インデックスの最大値(num_ref_idx_l1_active_minus1)がさらにスライスヘッダに設置され、利用される。   If the flag for changing the maximum value of the reference index is 1, the maximum value (num_ref_idx_10_active_minus1) of the L0 prediction reference index that can be used in the slice is set in the slice header, and the slice is a B slice. The maximum value (num_ref_idx_l1_active_minus1) of the reference index of L1 prediction that can be used in the slice is further installed in the slice header and used.

参照インデックスの最大値を変更するためのフラグが0であれば、当該スライスで利用できるL0予測の参照インデックスの最大値としてPPSで設置されたL0予測の参照インデックスの所定の最大値が利用され、当該スライスで利用できるL1予測の参照インデックスの最大値としてPPSで設置されたL1予測の参照インデックスの所定の最大値が適用される。   If the flag for changing the maximum value of the reference index is 0, the predetermined maximum value of the L0 prediction reference index installed in the PPS is used as the maximum value of the L0 prediction reference index that can be used in the slice, The predetermined maximum value of the L1 prediction reference index installed in the PPS is applied as the maximum value of the L1 prediction reference index that can be used in the slice.

また、当該スライスがPスライスまたはBスライスである場合には、マージ候補最大数を決定するためのパラメータである5_minus_max_num_merge_candsが設置される。5_minus_max_num_merge_candsはマージ候補最大数を決定するためのパラメータであって、0から4までの整数となる。マージ候補最大数(MaxNumMergeCand)は5から5_minus_max_num_merge_candsを減算することで算出される。5_minus_max_num_merge_candsの符号列にはTruncated Unary符号列が用いられるとする。本実施の形態では、5_minus_max_num_merge_candsは0で、マージ候補最大数は5として説明する。
符号化木では符号化ブロックの分割情報が管理される。符号化木にはsplit_coding_unit_flagが設置され、split_coding_unit_flagが1であれば符号化木は4個の符号化木に分割される。split_coding_unit_flagが0であれば符号化木は符号化ブロックとなる。
When the slice is a P slice or a B slice, 5_minus_max_num_merge_cands, which is a parameter for determining the maximum number of merge candidates, is set. 5_minus_max_num_merge_cands is a parameter for determining the maximum number of merge candidates, and is an integer from 0 to 4. The maximum number of merge candidates (MaxNumMergeCand) is calculated by subtracting 5_minus_max_num_merge_cands from 5. It is assumed that a Trunked Unary code string is used as the code string of 5_minus_max_num_merge_cands. In this embodiment, 5_minus_max_num_merge_cands is 0 and the maximum number of merge candidates is 5.
In the coding tree, the division information of the coding block is managed. A split_coding_unit_flag is set in the coding tree. If split_coding_unit_flag is 1, the coding tree is divided into four coding trees. If split_coding_unit_flag is 0, the coding tree is a coding block.

符号化ブロックには、スキップモードフラグ(skip_flag)、予測モード(pred_mode)と予測ブロックサイズタイプ(part_mode)が設置され、スキップモードフラグと予測ブロックサイズタイプに応じて1個または2個または4個の予測ブロックに分割される。   The coding block is provided with a skip mode flag (skip_flag), a prediction mode (pred_mode), and a prediction block size type (part_mode), and one, two, or four according to the skip mode flag and the prediction block size type. Divided into prediction blocks.

予測モードはイントラ予測(画面内予測)を行う符号化ブロックであるかインター予測(動き補償予測)を行う符号化ブロックであるかを示す。スキップモードフラグが1である場合はスキップモードとなって、スキップモードは1個の予測ブロックを持つ。符号化ブロック(符号化木)の分割回数は符号化ブロック(符号化木)の深さともいう。   The prediction mode indicates whether it is a coding block that performs intra prediction (intra-screen prediction) or an encoding block that performs inter prediction (motion compensation prediction). When the skip mode flag is 1, the skip mode is set, and the skip mode has one prediction block. The number of divisions of the coding block (coding tree) is also referred to as the depth of the coding block (coding tree).

予測ブロックには、マージフラグ(merge_flag)、マージインデックス(merge_idx)、インター予測タイプ(inter_pred_type)、L0予測の参照インデックス(ref_idx_l0)、L0予測の差分ベクトル(mvd_l0[0]、mvd_l0[1])、L0予測の予測ベクトルインデックス(mvp_idx_l0)、L1予測の参照インデックス(ref_idx_l1)、L1予測の差分ベクトル(mvd_l1[0]、mvd_l1[1])、及びL1予測の予測ベクトルインデックス(mvp_idx_l1)が設置されている。差分ベクトルの[0]は水平成分、[1]は垂直成分を示す。   The prediction block includes a merge flag (merge_flag), a merge index (merge_idx), an inter prediction type (inter_pred_type), an L0 prediction reference index (ref_idx_l0), an L0 prediction difference vector (mvd_l0 [0], mvd_l0 [1]), A prediction vector index for L0 prediction (mvp_idx_l0), a reference index for L1 prediction (ref_idx_l1), a difference vector for L1 prediction (mvd_l1 [0], mvd_l1 [1]), and a prediction vector index for L1 prediction (mvp_idx_l1) are installed. Yes. [0] of the difference vector indicates a horizontal component and [1] indicates a vertical component.

ここで、inter_pred_typeは動き補償予測の予測方向(インター予測タイプとも呼ぶ)を示し、Pred_L0(L0予測の単予測)、Pred_L1(L1予測の単予測)およびPred_BI(BI予測の双予測)の3種類がある。inter_pred_typeがPred_L0またはPred_BIの場合は、L0予測に関する情報が設置されて、inter_pred_typeがPred_L1またはPred_BIの場合は、L1予測に関する情報が設置される。Pスライスではinter_pred_typeは一意にPred_L0となるため、inter_pred_typeは省略される。   Here, inter_pred_type indicates the prediction direction (also referred to as inter prediction type) of motion compensation prediction, and three types of Pred_L0 (uni prediction of L0 prediction), Pred_L1 (uni prediction of L1 prediction) and Pred_BI (bi prediction of BI prediction). There is. When inter_pred_type is Pred_L0 or Pred_BI, information about L0 prediction is installed, and when inter_pred_type is Pred_L1 or Pred_BI, information about L1 prediction is installed. Since inter_pred_type is uniquely Pred_L0 in the P slice, inter_pred_type is omitted.

また、スキップモードの場合、予測ブロックはインター予測を行う符号化ブロックであって、予測符号化モードとしてはマージモードとなる。そのため、スキップモードの場合はマージインデックスが設置される。   In the skip mode, the prediction block is an encoding block that performs inter prediction, and the prediction encoding mode is the merge mode. Therefore, a merge index is set in the skip mode.

なお、本実施の形態に係るシンタックスを図6のように設定したが、符号化ブロックや予測ブロックが複数のブロックサイズを有し、参照画像を利用し、マージモードと予測ベクトルモードが利用できればよく、これに限定されない。   Although the syntax according to the present embodiment is set as shown in FIG. 6, if the encoding block or the prediction block has a plurality of block sizes, the reference mode is used, and the merge mode and the prediction vector mode can be used. Well, not limited to this.

以下、図面とともに本発明の好適な実施の形態に係る動画像符号化装置、動画像符号化方法および動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法および動画像復号プログラムの詳細について説明する。なお、図面の説明において同一要素には同一符号を付与して重複する説明を省略する。   Hereinafter, with reference to the drawings, details of a moving image encoding apparatus, a moving image encoding method, a moving image encoding program, a moving image decoding apparatus, a moving image decoding method, and a moving image decoding program according to a preferred embodiment of the present invention will be described. explain. In the description of the drawings, the same elements are denoted by the same reference numerals and redundant description is omitted.

(動画像符号化装置100の構成)
図7は、本実施の形態1に係る動画像符号化装置100の構成を示す。動画像符号化装置100は、動画像信号を、動き補償予測を実施する予測ブロック単位で符号化する装置である。スライスタイプの決定、スライスで利用できる参照インデックスの最大値、符号化ブロックの分割、スキップモードの決定、予測ブロックサイズタイプの決定、予測ブロックサイズと予測ブロックの符号化ブロック内の位置(予測ブロックの位置情報や予測ブロック番号ともいう)の決定、予測符号化モードがイントラであるかの決定は動画像符号化装置100の外部の符号化制御部112で決定されて動画像符号化装置100に供給される。参照ピクチャリストは動画像符号化装置100の外部の参照ピクチャリスト生成部113で生成されて動画像符号化装置100に供給される。実施の形態1では予測符号化モードがイントラでない場合について説明する。また、実施の形態1では特に断らない限り、双予測に対応したBピクチャ(Bスライス)について説明するが、双予測に対応しないPピクチャ(Pスライス)についてはL1予測を省略すればよい。
(Configuration of moving picture coding apparatus 100)
FIG. 7 shows the configuration of moving picture coding apparatus 100 according to the first embodiment. The moving image encoding apparatus 100 is an apparatus that encodes a moving image signal in units of prediction blocks for performing motion compensated prediction. Slice type determination, maximum reference index that can be used in a slice, coding block division, skip mode determination, prediction block size type determination, prediction block size and position of prediction block in encoding block (prediction block Determination of whether the prediction encoding mode is intra or not is determined by the encoding control unit 112 outside the moving image encoding device 100 and supplied to the moving image encoding device 100. Is done. The reference picture list is generated by a reference picture list generation unit 113 outside the moving image encoding device 100 and supplied to the moving image encoding device 100. In the first embodiment, a case where the predictive coding mode is not intra will be described. In Embodiment 1, a B picture (B slice) corresponding to bi-prediction will be described unless otherwise specified, but L1 prediction may be omitted for a P picture (P slice) not corresponding to bi-prediction.

動画像符号化装置100は、CPU(Central Processing Unit)、フレームメモリ、ハードディスクなどを備える情報処理装置などのハードウェアにより実現される。動画像符号化装置100は、上記の構成要素が動作することにより、以下に説明する機能的な構成要素を実現する。なお、スライスタイプ、参照ピクチャリスト、スライスで利用できる参照インデックスの最大値、処理対象の予測ブロックの位置情報、予測ブロックサイズおよび動き補償予測の予測方向に関しては動画像符号化装置100内で共有していることとし、図示しない。   The moving image encoding apparatus 100 is realized by hardware such as an information processing apparatus including a CPU (Central Processing Unit), a frame memory, and a hard disk. The moving image encoding apparatus 100 realizes functional components described below by operating the above components. Note that the slice type, the reference picture list, the maximum value of the reference index that can be used in the slice, the position information of the prediction block to be processed, the prediction block size, and the prediction direction of motion compensation prediction are shared in the moving picture coding apparatus 100. And not shown.

実施の形態1の動画像符号化装置100は、予測ブロック画像取得部101、減算部102、予測誤差符号化部103、符号列生成部104、予測誤差復号部105、動き補償部106、加算部107、動きベクトル検出部108、動き情報生成部109、フレームメモリ110、および動き情報メモリ111を含む。   The moving image encoding apparatus 100 according to Embodiment 1 includes a prediction block image acquisition unit 101, a subtraction unit 102, a prediction error encoding unit 103, a code string generation unit 104, a prediction error decoding unit 105, a motion compensation unit 106, and an addition unit. 107, a motion vector detection unit 108, a motion information generation unit 109, a frame memory 110, and a motion information memory 111.

(動画像符号化装置100の機能と動作)
以下、各部の機能と動作について説明する。予測ブロック画像取得部101は、予測ブロックの位置情報と予測ブロックサイズに基づいて、端子10より供給される画像信号から処理対象の予測ブロックの画像信号を取得し、予測ブロックの画像信号を減算部102、動きベクトル検出部108および動き情報生成部109に供給する。
(Function and operation of moving picture coding apparatus 100)
Hereinafter, the function and operation of each unit will be described. The prediction block image acquisition unit 101 acquires the image signal of the prediction block to be processed from the image signal supplied from the terminal 10 based on the position information and the prediction block size of the prediction block, and subtracts the image signal of the prediction block 102, and supplied to the motion vector detection unit 108 and the motion information generation unit 109.

動きベクトル検出部108は、予測ブロック画像取得部101より供給される画像信号および内部に記憶している複数の参照画像に相当する画像信号から、L0予測とL1予測それぞれの動きベクトルと参照画像を示す参照インデックスを検出する。当該L0予測とL1予測の動きベクトル、および当該L0予測とL1予測の参照インデックスを動き情報生成部109に供給する。ここでは、動きベクトル検出部108は参照画像として内部に記憶している複数の参照画像に相当する画像信号を利用するとしたが、フレームメモリ110に記憶されている参照画像を利用することもできる。   The motion vector detection unit 108 obtains motion vectors and reference images of the L0 prediction and the L1 prediction from the image signal supplied from the prediction block image acquisition unit 101 and image signals corresponding to a plurality of reference images stored therein. Detect the reference index indicated. The motion vector of the L0 prediction and the L1 prediction and the reference index of the L0 prediction and the L1 prediction are supplied to the motion information generation unit 109. Here, the motion vector detection unit 108 uses image signals corresponding to a plurality of reference images stored therein as reference images, but a reference image stored in the frame memory 110 can also be used.

一般的な動きベクトルの検出方法は、対象画像の画像信号と、同一位置より所定の移動量だけ移動させた参照画像の予測信号について誤差評価値を算出し、誤差評価値が最小となる移動量を動きベクトルとする。参照画像が複数ある場合には各参照画像について動きベクトルを検出し、誤差評価値が最小となる参照画像を選択する。誤差評価値としては、絶対差分和を示すSAD(Sum of Absolute Difference)や二乗誤差平均を示すMSE(Mean Square Error)などを利用することが可能である。また、動きベクトル符号量を誤差評価値に加算して評価することも可能である。   A general motion vector detection method calculates an error evaluation value for an image signal of a target image and a prediction signal of a reference image moved by a predetermined movement amount from the same position, and a movement amount that minimizes the error evaluation value. Is a motion vector. When there are a plurality of reference images, a motion vector is detected for each reference image, and a reference image having a minimum error evaluation value is selected. As the error evaluation value, SAD (Sum of Absolute Difference) indicating the sum of absolute differences, MSE (Mean Square Error) indicating the mean square error, or the like can be used. It is also possible to evaluate by adding the motion vector code amount to the error evaluation value.

動き情報生成部109は、動きベクトル検出部108より供給されるL0予測とL1予測の動きベクトルおよびL0予測とL1予測の参照インデックス、動き情報メモリ111より供給される候補ブロック群、参照インデックスで示されるフレームメモリ110内の参照画像、および予測ブロック画像取得部101より供給される画像信号から、予測符号化モードを決定する。   The motion information generation unit 109 indicates L0 prediction and L1 prediction motion vectors supplied from the motion vector detection unit 108, reference indexes for L0 prediction and L1 prediction, candidate block groups supplied from the motion information memory 111, and reference indexes. The prediction encoding mode is determined from the reference image in the frame memory 110 and the image signal supplied from the prediction block image acquisition unit 101.

決定された予測符号化モードに基づいて、マージフラグ、マージインデックス、動き補償予測の予測方向、L0予測とL1予測の参照インデックス、L0予測とL1予測の差分ベクトルおよびL0予測とL1予測の予測ベクトルインデックスを必要に応じて、符号列生成部104に供給する。動き補償予測の予測方向、L0予測とL1予測の参照インデックス、およびL0予測とL1予測の動きベクトルを動き補償部106および動き情報メモリ111に供給する。動き情報生成部109の詳細については後述する。   Based on the determined predictive coding mode, the merge flag, the merge index, the prediction direction of motion compensation prediction, the reference index of L0 prediction and L1 prediction, the difference vector of L0 prediction and L1 prediction, and the prediction vector of L0 prediction and L1 prediction The index is supplied to the code string generation unit 104 as necessary. The motion compensation prediction direction, the reference index of L0 prediction and L1 prediction, and the motion vector of L0 prediction and L1 prediction are supplied to the motion compensation unit 106 and the motion information memory 111. Details of the motion information generation unit 109 will be described later.

動き補償部106は、動き情報生成部109より供給される動き補償予測の予測方向がLN予測であれば、動き情報生成部109より供給されるLN予測の参照インデックスで示されるフレームメモリ110内の参照画像を、動き情報生成部109より供給されるLN予測の動きベクトルに基づき動き補償してLN予測の予測信号を生成する。Nは0または1である。ここで、動き補償予測の予測方向が双予測であれば、L0予測とL1予測の予測信号の平均値が予測信号となる。なお、L0予測とL1予測の予測信号を重みづけしてもよい。動き補償部106は、当該予測信号を減算部102に供給する。   If the prediction direction of the motion compensation prediction supplied from the motion information generation unit 109 is LN prediction, the motion compensation unit 106 stores the frame compensation information in the frame memory 110 indicated by the LN prediction reference index supplied from the motion information generation unit 109. The reference image is motion-compensated based on the LN prediction motion vector supplied from the motion information generation unit 109 to generate a prediction signal for LN prediction. N is 0 or 1. Here, if the prediction direction of motion compensation prediction is bi-prediction, the average value of the prediction signals of L0 prediction and L1 prediction is the prediction signal. Note that the prediction signals of the L0 prediction and the L1 prediction may be weighted. The motion compensation unit 106 supplies the prediction signal to the subtraction unit 102.

減算部102は、予測ブロック画像取得部101より供給される画像信号と動き補償部106より供給される予測信号を減算して予測誤差信号を算出し、当該予測誤差信号を予測誤差符号化部103に供給する。   The subtraction unit 102 subtracts the image signal supplied from the prediction block image acquisition unit 101 and the prediction signal supplied from the motion compensation unit 106 to calculate a prediction error signal, and calculates the prediction error signal to the prediction error encoding unit 103. To supply.

予測誤差符号化部103は、減算部102より供給される予測誤差信号に対して、直交変換や量子化などの処理を行って予測誤差符号化データを生成し、当該予測誤差符号化データを符号列生成部104および予測誤差復号部105に供給する。   The prediction error encoding unit 103 performs processing such as orthogonal transformation and quantization on the prediction error signal supplied from the subtraction unit 102 to generate prediction error encoded data, and encodes the prediction error encoded data. The data is supplied to the column generation unit 104 and the prediction error decoding unit 105.

符号列生成部104は、予測誤差符号化部103より供給される予測誤差符号化データ、ならびに動き情報生成部109より供給されるマージフラグ、マージインデックス、動き補償予測の予測方向(インター予測タイプ)、L0予測とL1予測の参照インデックス、L0予測とL1予測の差分ベクトルおよびL0予測とL1予測の予測ベクトルインデックスを図6に示すシンタックスの順序に従ってエントロピー符号化して符号列を生成し、当該符号列を符号化ストリームとして端子11に供給する。エントロピー符号化は算術符号化やハフマン符号化などの可変長符号化を含む方法によって実施される。   The code string generation unit 104 includes prediction error encoded data supplied from the prediction error encoding unit 103, a merge flag, a merge index, and a motion compensation prediction prediction direction (inter prediction type) supplied from the motion information generation unit 109. , The reference index of L0 prediction and L1 prediction, the difference vector of L0 prediction and L1 prediction, and the prediction vector index of L0 prediction and L1 prediction are entropy-coded according to the syntax sequence shown in FIG. The sequence is supplied to the terminal 11 as an encoded stream. Entropy coding is performed by a method including variable length coding such as arithmetic coding or Huffman coding.

また、符号列生成部104は、動画像符号化装置100で利用された符号化ブロックの分割情報、予測ブロックサイズタイプ、予測ブロックの符号化ブロック内の位置、及び予測符号化モードを、符号化ストリームの特性を決定するためのパラメータ群を定義したSPS(Sequence Parameter Set)、ピクチャの特性を決定するためのパラメータ群を定義したPPS(Picture Parameter Set)、やスライスの特性を決定するためのパラメータ群を定義したスライスヘッダなどと共に符号化ストリーム中に多重化する。   Also, the code string generation unit 104 encodes the coding block division information, the prediction block size type, the position of the prediction block in the coding block, and the prediction coding mode used in the video coding apparatus 100. SPS (Sequence Parameter Set) that defines parameter groups for determining stream characteristics, PPS (Picture Parameter Set) that defines parameter groups for determining picture characteristics, and parameters for determining slice characteristics Multiplexed in the encoded stream together with slice headers defining groups.

予測誤差復号部105は、予測誤差符号化部103より供給される予測誤差符号化データに対して、逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し、当該予測誤差信号を加算部107に供給する。加算部107は、予測誤差復号部105より供給される予測誤差信号と、動き補償部106より供給される予測信号を加算して復号画像信号を生成し、当該復号画像信号をフレームメモリ110に供給する。   The prediction error decoding unit 105 performs a process such as inverse quantization or inverse orthogonal transform on the prediction error encoded data supplied from the prediction error encoding unit 103 to generate a prediction error signal, and the prediction error signal Is supplied to the adder 107. The addition unit 107 adds the prediction error signal supplied from the prediction error decoding unit 105 and the prediction signal supplied from the motion compensation unit 106 to generate a decoded image signal, and supplies the decoded image signal to the frame memory 110. To do.

フレームメモリ110は、加算部107より供給される復号画像信号を記憶する。また、画像全体の復号が完了した復号画像については参照画像として、当該参照画像のPOCと共に1以上の所定の画像数を記憶する。フレームメモリ110は、記憶した参照画像信号を動き補償部106および動き情報生成部109に供給する。参照画像を記憶する記憶領域はFIFO(First In First Out)方式で制御される。ここでは、参照画像のPOCをフレームメモリ110に記憶するとしたが、参照画像とPOCが一意に認識できればよく、これに限定されない。また、POCは動画像符号化装置100、符号化制御部112、及び参照ピクチャリスト生成部113で共有されているものとして図示しない。   The frame memory 110 stores the decoded image signal supplied from the adding unit 107. In addition, for a decoded image in which decoding of the entire image is completed, a predetermined number of images of 1 or more is stored as a reference image together with the POC of the reference image. The frame memory 110 supplies the stored reference image signal to the motion compensation unit 106 and the motion information generation unit 109. A storage area for storing the reference image is controlled by a FIFO (First In First Out) method. Here, the POC of the reference image is stored in the frame memory 110, but the reference image and the POC need only be uniquely recognized, and the present invention is not limited to this. The POC is not illustrated as being shared by the moving picture coding apparatus 100, the coding control unit 112, and the reference picture list generation unit 113.

動き情報メモリ111は、動き情報生成部109より供給される動き情報を最小の予測ブロックサイズ単位で所定の画像数、記憶する。処理対象の予測ブロックの隣接ブロックの動き情報を空間候補ブロック群とする。   The motion information memory 111 stores the motion information supplied from the motion information generation unit 109 for a predetermined number of images in units of the minimum predicted block size. The motion information of the adjacent block of the prediction block to be processed is set as a space candidate block group.

また、動き情報メモリ111は、処理対象の予測ブロックと同一位置にあるColPic上の同一位置予測ブロック内とその周辺ブロックの動き情報を時間候補ブロック群とする。動き情報メモリ111は、空間候補ブロック群と時間候補ブロック群を候補ブロック群として動き情報生成部109に供給する。動き情報メモリ111は、フレームメモリ110と同期しており、FIFO(First In First Out)方式で制御される。   In addition, the motion information memory 111 uses the motion information of the same position prediction block on the ColPic at the same position as the processing target prediction block and its neighboring blocks as a time candidate block group. The motion information memory 111 supplies the spatial candidate block group and the temporal candidate block group to the motion information generation unit 109 as candidate block groups. The motion information memory 111 is synchronized with the frame memory 110 and is controlled by a FIFO (First In First Out) method.

ここで、ColPicとは、処理対象の予測ブロックのある画像とは別の復号済みの画像であって、フレームメモリ110に参照画像として記憶されている。実施の形態1では、ColPicは処理対象画像の直前に復号した参照画像とする。なお、実施の形態1では、ColPicは処理対象画像の直前に復号した参照画像としたが、復号済みの画像であればよく、例えば、表示順で直前の参照画像や表示順で直後の参照画像でもよく、L0予測またはL1予測の参照ピクチャリストの0番目の参照画像としてもよく、符号化ストリーム中で指定することも可能である。   Here, ColPic is a decoded image different from an image having a prediction block to be processed, and is stored in the frame memory 110 as a reference image. In Embodiment 1, ColPic is a reference image decoded immediately before the processing target image. In Embodiment 1, ColPic is a reference image decoded immediately before the processing target image. However, it may be a decoded image, for example, the reference image immediately before in the display order or the reference image immediately after in the display order. Alternatively, it may be the 0th reference image in the reference picture list of L0 prediction or L1 prediction, and can be specified in the encoded stream.

ここで、動き情報メモリ111における動き情報の管理方法について説明する。動き情報は最小の予測ブロック単位で各メモリエリアに記憶される。各メモリエリアには、少なくとも予測方向、L0予測の動きベクトル、L0予測の参照インデックス、L1予測の動きベクトル、およびL1予測の参照インデックスが記憶される。   Here, a method for managing motion information in the motion information memory 111 will be described. The motion information is stored in each memory area in units of the smallest prediction block. Each memory area stores at least a prediction direction, a motion vector for L0 prediction, a reference index for L0 prediction, a motion vector for L1 prediction, and a reference index for L1 prediction.

なお、予測符号化モードがイントラモードである場合、L0予測とL1予測の動きベクトルとして(0,0)が記憶され、L0予測とL予測の参照インデックスとして「−1」が記憶される。これ以降、動きベクトルの(H、V)は、Hが水平成分、Vが垂直成分を表すこととする。なお、参照インデックスの「−1」は動き補償予測を実施しないモードであることが判定できればどのような値でもよい。これ以降は特に断らない限り単にブロックと表現する場合には、最小の予測ブロック単位のことを示すこととする。また、領域外のブロックである場合もイントラモードと同様に、L0予測とL1予測の動きベクトルとして(0,0)が記憶され、L0予測とL1予測の参照インデックスとして「−1」が記憶される。LX方向(Xは0または1)が有効であるとはLX方向の参照インデックスが0以上であることで、LX方向が無効である(有効でない)とはLX方向の参照インデックスが「−1」であることである。   When the predictive coding mode is the intra mode, (0, 0) is stored as a motion vector for L0 prediction and L1 prediction, and “−1” is stored as a reference index for L0 prediction and L prediction. Hereinafter, in the motion vector (H, V), H represents a horizontal component and V represents a vertical component. The reference index “−1” may be any value as long as it can be determined that the mode in which motion compensation prediction is not performed. From this point onward, unless expressed otherwise, the term “block” refers to the smallest predicted block unit when expressed simply as a block. Also, in the case of a block outside the area, (0, 0) is stored as a motion vector for L0 prediction and L1 prediction, and “−1” is stored as a reference index for L0 prediction and L1 prediction, as in the intra mode. The When the LX direction (X is 0 or 1) is valid, the reference index in the LX direction is 0 or more, and when the LX direction is invalid (not valid), the reference index in the LX direction is “−1”. That is.

(参照ピクチャリスト生成部113の動作)
続いて、参照ピクチャリスト生成部113の動作について説明する。参照ピクチャリスト生成部113は、符号化制御部112から供給されるスライスタイプに応じて、参照ピクチャリストを生成する。スライスタイプがPスライスまたはBスライスであれば参照ピクチャリストL0を生成し、スライスタイプがBスライスであれば参照ピクチャリストL1を生成する。
(Operation of Reference Picture List Generation Unit 113)
Next, the operation of the reference picture list generation unit 113 will be described. The reference picture list generation unit 113 generates a reference picture list according to the slice type supplied from the encoding control unit 112. If the slice type is P slice or B slice, the reference picture list L0 is generated, and if the slice type is B slice, the reference picture list L1 is generated.

図8は参照ピクチャリストL0の生成の動作を説明するフローチャートである。図8を用いて参照ピクチャリストL0の生成の動作を説明する。最初に、処理対象ピクチャのPOCより小さいPOCを有する参照ピクチャをPOCの降順に参照ピクチャリストL0(RefPicListL0)の利用可能な参照ピクチャ数に達するまで並べる(S400)。次に、処理対象ピクチャのPOCより大きいPOCを有する参照ピクチャをPOCの昇順に参照ピクチャリストL0(RefPicListL0)の利用可能な参照ピクチャ数に達するまで並べる(S401)。ここで、参照ピクチャリストL0(RefPicListL0)の利用可能な参照ピクチャ数とは、L0予測の参照インデックスの最大値(num_ref_idx_l0_active_minus1)に1を加えた値である。   FIG. 8 is a flowchart for explaining the operation of generating the reference picture list L0. The operation of generating the reference picture list L0 will be described with reference to FIG. First, reference pictures having a POC smaller than the POC of the processing target picture are arranged in descending POC order until the number of reference pictures available in the reference picture list L0 (RefPicListL0) is reached (S400). Next, reference pictures having a POC larger than the POC of the processing target picture are arranged in ascending POC order until the number of reference pictures available in the reference picture list L0 (RefPicListL0) is reached (S401). Here, the number of reference pictures that can be used in the reference picture list L0 (RefPicListL0) is a value obtained by adding 1 to the maximum value (num_ref_idx_10_active_minus1) of the reference index of L0 prediction.

図9は参照ピクチャリストL1の生成の動作を説明するフローチャートである。図9を用いて参照ピクチャリストL1の生成の動作を説明する。最初に、処理対象ピクチャのPOCより大きいPOCを有する参照ピクチャをPOCの昇順に参照ピクチャリストL1(RefPicListL1)の利用可能な参照ピクチャ数に達するまで並べる(S410)。次に、処理対象ピクチャのPOCより小さいPOCを有する参照ピクチャをPOCの降順に参照ピクチャリストL1(RefPicListL1)の利用可能な参照ピクチャ数に達するまで並べる(S411)。ここで、参照ピクチャリストL1(RefPicListL1)の利用可能な参照ピクチャ数とは、L1予測の参照インデックスの最大値(num_ref_idx_l1_active_minus1)に1を加えた値である。   FIG. 9 is a flowchart for explaining the operation of generating the reference picture list L1. The operation of generating the reference picture list L1 will be described with reference to FIG. First, reference pictures having a POC larger than the POC of the processing target picture are arranged in ascending POC order until the number of reference pictures available in the reference picture list L1 (RefPicListL1) is reached (S410). Next, reference pictures having a POC smaller than the POC of the processing target picture are arranged in descending POC order until the number of reference pictures available in the reference picture list L1 (RefPicListL1) is reached (S411). Here, the number of usable reference pictures in the reference picture list L1 (RefPicListL1) is a value obtained by adding 1 to the maximum value (num_ref_idx_l1_active_minus1) of the reference index of L1 prediction.

以上のように、参照ピクチャリストL0には処理対象ピクチャよりも表示時間が前で処理対象ピクチャに近い参照ピクチャから並べられる。参照ピクチャリストL1には処理対象ピクチャよりも表示時間が後で処理対象ピクチャに近い参照ピクチャから並べられる。   As described above, the reference picture list L0 is arranged from the reference pictures that are close to the processing target picture and have a display time before the processing target picture. In the reference picture list L1, reference pictures that are closer to the processing target picture after the display time than the processing target picture are arranged.

また、参照ピクチャリストL0(RefPicListL0)の利用可能な参照ピクチャの数が処理対象ピクチャよりも表示時間が前の参照ピクチャの数よりも多い場合には、参照ピクチャリストL0は参照ピクチャリストL1と同じ参照ピクチャを有し、参照ピクチャリストL1(RefPicListL1)の利用可能な参照ピクチャの数が処理対象ピクチャよりも表示時間が後の参照ピクチャの数よりも多い場合には、参照ピクチャリストL1は参照ピクチャリストL0と同じ参照ピクチャを有する。これによって、同一の参照ピクチャから双予測可能となる。   When the number of reference pictures that can be used in the reference picture list L0 (RefPicListL0) is larger than the number of reference pictures whose display time is earlier than the processing target picture, the reference picture list L0 is the same as the reference picture list L1. When there is a reference picture and the number of available reference pictures in the reference picture list L1 (RefPicListL1) is larger than the number of reference pictures whose display time is later than the processing target picture, the reference picture list L1 is a reference picture. It has the same reference picture as list L0. Thereby, bi-prediction is possible from the same reference picture.

(動き情報生成部109の構成)
続いて、動き情報生成部109の詳細な構成について説明する。図10は、動き情報生成部109の構成を示す。動き情報生成部109は、予測ベクトルモード決定部120、マージモード決定部121および予測符号化モード決定部122を含む。端子12は動き情報メモリ111に、端子13は動きベクトル検出部108に、端子14はフレームメモリ110に、端子15は予測ブロック画像取得部101に、端子16は符号列生成部104に、端子50は動き補償部106に、および端子51は動き情報メモリ111にそれぞれ接続されている。
(Configuration of the motion information generation unit 109)
Next, a detailed configuration of the motion information generation unit 109 will be described. FIG. 10 shows the configuration of the motion information generation unit 109. The motion information generation unit 109 includes a prediction vector mode determination unit 120, a merge mode determination unit 121, and a prediction encoding mode determination unit 122. The terminal 12 is in the motion information memory 111, the terminal 13 is in the motion vector detection unit 108, the terminal 14 is in the frame memory 110, the terminal 15 is in the prediction block image acquisition unit 101, the terminal 16 is in the code string generation unit 104, and the terminal 50 Are connected to the motion compensation unit 106, and the terminal 51 is connected to the motion information memory 111, respectively.

(動き情報生成部109の機能と動作)
以下、各部の機能と動作について説明する。予測ベクトルモード決定部120は、端子12より供給される候補ブロック群、端子13より供給されるL0予測とL1予測の動きベクトルおよびL0予測とL1予測の参照インデックス、端子14より供給される参照インデックスで示される参照画像、および端子15より供給される画像信号から、インター予測タイプを決定し、インター予測タイプに従って、L0予測とL1予測の予測ベクトルインデックスを選択してL0予測とL1予測の差分ベクトルを算出するとともに、予測誤差を算出し、レート歪み評価値を算出する。そして、当該インター予測タイプに基づいた動き情報、差分ベクトル、予測ベクトルインデックス、およびレート歪み評価値を予測符号化モード決定部122に供給する。予測ベクトルモード決定部120の詳細については後述する。
(Function and operation of motion information generation unit 109)
Hereinafter, the function and operation of each unit will be described. The prediction vector mode determination unit 120 includes a candidate block group supplied from the terminal 12, a motion vector for L0 prediction and L1 prediction supplied from the terminal 13, a reference index for L0 prediction and L1 prediction, and a reference index supplied from the terminal 14. The inter-prediction type is determined from the reference image shown in FIG. 5 and the image signal supplied from the terminal 15, and the prediction vector index of the L0 prediction and the L1 prediction is selected according to the inter prediction type, and the difference vector between the L0 prediction and the L1 prediction is selected. , A prediction error is calculated, and a rate distortion evaluation value is calculated. Then, motion information, a difference vector, a prediction vector index, and a rate distortion evaluation value based on the inter prediction type are supplied to the prediction coding mode determination unit 122. Details of the prediction vector mode determination unit 120 will be described later.

マージモード決定部121は、端子12より供給される候補ブロック群、端子14より供給される参照画像、および端子15より供給される画像信号から、結合動き情報候補リストを生成し、当該結合動き情報候補リストの中から1つの結合動き情報候補を選択してマージインデックスを決定し、レート歪み評価値を算出する。そして、当該結合動き情報候補の動き情報、当該マージインデックスおよび当該レート歪み評価値を予測符号化モード決定部122に供給する。マージモード決定部121の詳細については後述する。   The merge mode determination unit 121 generates a combined motion information candidate list from the candidate block group supplied from the terminal 12, the reference image supplied from the terminal 14, and the image signal supplied from the terminal 15, and the combined motion information One merged motion information candidate is selected from the candidate list, a merge index is determined, and a rate distortion evaluation value is calculated. Then, the motion information of the combined motion information candidate, the merge index, and the rate distortion evaluation value are supplied to the predictive coding mode determination unit 122. Details of the merge mode determination unit 121 will be described later.

予測符号化モード決定部122は、予測ベクトルモード決定部120より供給されるレート歪み評価値と、マージモード決定部121より供給されるレート歪み評価値とを比較してマージフラグを決定する。   The prediction coding mode determination unit 122 compares the rate distortion evaluation value supplied from the prediction vector mode determination unit 120 and the rate distortion evaluation value supplied from the merge mode determination unit 121 to determine a merge flag.

予測ベクトルモードレート歪み評価値がマージモードレート歪み評価値未満の場合は、マージフラグを「0」に設定する。予測符号化モード決定部122は、当該マージフラグ、予測ベクトルモード決定部120より供給されるインター予測タイプ、参照インデックス、差分ベクトルと予測ベクトルインデックスを端子16に供給し、予測ベクトルモード決定部120より供給される動き情報を端子50および端子51に供給する。   If the predicted vector mode rate distortion evaluation value is less than the merge mode rate distortion evaluation value, the merge flag is set to “0”. The prediction encoding mode determination unit 122 supplies the merge flag, the inter prediction type, the reference index, the difference vector, and the prediction vector index supplied from the prediction vector mode determination unit 120 to the terminal 16, and the prediction vector mode determination unit 120 The supplied motion information is supplied to the terminal 50 and the terminal 51.

マージモードレート歪み評価値が予測ベクトルモードレート歪み評価値以下の場合は、マージフラグを「1」に設定する。予測符号化モード決定部122は、当該マージフラグおよびマージモード決定部121より供給されるマージインデックスを端子16に供給し、マージモード決定部121より供給される動き情報を端子50および端子51に供給する。なお、レート歪み評価値の具体的な算出方法は本発明の主眼ではないため詳細な説明は省略するが、予測誤差と符号量から符号量当たりの予測誤差量を算出し、レート歪み評価値が小さいほど符号化効率は高くなる特性を持つ評価値である。そのため、レート歪み評価値が小さい予測符号化モードを選択することで符号化効率を向上させることができる。   If the merge mode rate distortion evaluation value is less than or equal to the predicted vector mode rate distortion evaluation value, the merge flag is set to “1”. The predictive coding mode determination unit 122 supplies the merge flag and the merge index supplied from the merge mode determination unit 121 to the terminal 16, and supplies the motion information supplied from the merge mode determination unit 121 to the terminal 50 and the terminal 51. To do. Although a specific calculation method of the rate distortion evaluation value is not the main point of the present invention, detailed description is omitted, but the prediction error amount per code amount is calculated from the prediction error and the code amount, and the rate distortion evaluation value is calculated. The evaluation value has a characteristic that the encoding efficiency increases as the value decreases. Therefore, encoding efficiency can be improved by selecting a predictive encoding mode with a small rate distortion evaluation value.

(マージモード決定部121の構成)
続いて、マージモード決定部121の詳細な構成について説明する。図11は、マージモード決定部121の構成を説明する図である。マージモード決定部121は、結合動き情報候補リスト生成部140および結合動き情報選択部141を含む。結合動き情報候補リスト生成部140は、実施の形態1に係る動画像符号化装置100により生成された符号列を復号する動画像復号装置200にも同様に設置されて、動画像符号化装置100と動画像復号装置200にて同一の結合動き情報リストが生成される。
(Configuration of merge mode determination unit 121)
Next, a detailed configuration of the merge mode determination unit 121 will be described. FIG. 11 is a diagram for explaining the configuration of the merge mode determination unit 121. The merge mode determination unit 121 includes a combined motion information candidate list generation unit 140 and a combined motion information selection unit 141. The combined motion information candidate list generation unit 140 is also installed in the video decoding device 200 that decodes the code sequence generated by the video encoding device 100 according to Embodiment 1 in the same manner. The moving image decoding apparatus 200 generates the same combined motion information list.

(マージモード決定部121の機能と動作)
以下、各部の機能と動作について説明する。図12は、マージモード決定部121の動作を説明するフローチャートである。結合動き情報候補リスト生成部140は、端子12より供給される候補ブロック群からマージ候補最大数の結合動き情報候補を含む結合動き情報候補リストを生成し(S100)、当該結合動き情報候補リストを結合動き情報選択部141に供給する。結合動き情報候補リスト生成部140の詳細な構成については後述する。
(Function and operation of merge mode determination unit 121)
Hereinafter, the function and operation of each unit will be described. FIG. 12 is a flowchart for explaining the operation of the merge mode determination unit 121. The combined motion information candidate list generation unit 140 generates a combined motion information candidate list that includes the maximum number of merge candidate motion candidates from the candidate block group supplied from the terminal 12 (S100), and generates the combined motion information candidate list. This is supplied to the combined motion information selection unit 141. A detailed configuration of the combined motion information candidate list generation unit 140 will be described later.

結合動き情報選択部141は、結合動き情報候補リスト生成部140より供給される結合動き情報候補リストの中から、最適な結合動き情報候補を選択し(S101)、選択された結合動き情報候補を示す情報であるマージインデックスを決定して(S102)、当該マージインデックスを端子17に供給する。   The combined motion information selection unit 141 selects an optimal combined motion information candidate from the combined motion information candidate list supplied from the combined motion information candidate list generation unit 140 (S101), and selects the selected combined motion information candidate. A merge index, which is information to be indicated, is determined (S102), and the merge index is supplied to the terminal 17.

ここで、最適な結合動き情報候補の選択方法について説明する。結合動き情報候補の予測方向、動きベクトルおよび参照インデックスに基づいて動き補償予測されて得られる端子14より供給される参照画像と、端子15より供給される画像信号とから予測誤差量が算出される。マージインデックスの符号量と、当該予測誤差量とからレート歪み評価値が算出されて、レート歪み評価値が最小となる結合動き情報候補が最適な結合動き情報候補として選択される。   Here, a method for selecting an optimal combined motion information candidate will be described. A prediction error amount is calculated from the reference image supplied from the terminal 14 obtained by motion compensation prediction based on the prediction direction, motion vector, and reference index of the combined motion information candidate, and the image signal supplied from the terminal 15. . A rate distortion evaluation value is calculated from the code amount of the merge index and the prediction error amount, and a combined motion information candidate that minimizes the rate distortion evaluation value is selected as an optimal combined motion information candidate.

(結合動き情報候補リスト生成部140の構成)
続いて、結合動き情報候補リスト生成部140の詳細な構成について説明する。図13は、結合動き情報候補リスト生成部140の構成を説明するための図である。端子19は結合動き情報選択部141に接続されている。結合動き情報候補リスト生成部140は、空間結合動き情報候補導出部160、時間結合動き情報候補導出部161、結合動き情報候補リスト構築部162、冗長結合動き情報候補削除部163、第1結合動き情報候補補充部164、および第2結合動き情報候補補充部165を含む。
(Configuration of combined motion information candidate list generation unit 140)
Next, a detailed configuration of the combined motion information candidate list generation unit 140 will be described. FIG. 13 is a diagram for explaining the configuration of the combined motion information candidate list generation unit 140. The terminal 19 is connected to the combined motion information selection unit 141. The combined motion information candidate list generation unit 140 includes a spatially combined motion information candidate derivation unit 160, a temporally combined motion information candidate derivation unit 161, a combined motion information candidate list construction unit 162, a redundant combined motion information candidate deletion unit 163, and a first combined motion. An information candidate supplementing unit 164 and a second combined motion information candidate supplementing unit 165 are included.

(結合動き情報候補リスト生成部140の機能と動作)
以下、各部の機能と動作について説明する。図14は、結合動き情報候補リスト生成部140の動作を説明するためのフローチャートである。
(Function and operation of combined motion information candidate list generation unit 140)
Hereinafter, the function and operation of each unit will be described. FIG. 14 is a flowchart for explaining the operation of the combined motion information candidate list generation unit 140.

最初に、空間結合動き情報候補導出部160は、端子12より供給される空間候補ブロック群から0個から空間結合動き情報候補最大数の空間結合動き情報候補を導出し(S110)、当該空間結合動き情報候補を結合動き情報候補リスト構築部162に供給する。空間結合動き情報候補導出部160の詳細な動作については後述する。また、空間結合動き情報候補最大数についても後述する。   First, the spatially coupled motion information candidate deriving unit 160 derives the maximum number of spatially coupled motion information candidates from 0 from the spatial candidate block group supplied from the terminal 12 (S110). The motion information candidates are supplied to the combined motion information candidate list construction unit 162. The detailed operation of the spatially coupled motion information candidate derivation unit 160 will be described later. The maximum number of spatially coupled motion information candidates will be described later.

次に、結合動き情報候補リスト生成部140は、時間候補利用許可フラグ(enable_temporal_mvp_flag)が1であるか検査する(S111)。   Next, the combined motion information candidate list generation unit 140 checks whether the time candidate use permission flag (enable_temporal_mvp_flag) is 1 (S111).

時間候補利用許可フラグが1であれば(S111のY)、時間結合動き情報候補導出部161は、端子12より供給される時間候補ブロック群から0個から時間結合動き情報候補最大数の時間結合動き情報候補を導出し(S112)、当該時間結合動き情報候補を結合動き情報候補リスト構築部162に供給する。時間結合動き情報候補導出部161の詳細な動作については後述する。   If the time candidate use permission flag is 1 (Y of S111), the time combination motion information candidate derivation unit 161 starts from 0 from the time candidate block group supplied from the terminal 12 and combines the maximum number of time combination motion information candidates. A motion information candidate is derived (S112), and the temporal combined motion information candidate is supplied to the combined motion information candidate list construction unit 162. The detailed operation of the time combination motion information candidate derivation unit 161 will be described later.

時間候補利用許可フラグが0であれば(S111のN)、ステップS112をスキップする。   If the time candidate use permission flag is 0 (N in S111), step S112 is skipped.

次に、結合動き情報候補リスト構築部162は0個から空間結合動き情報候補最大数の空間結合動き情報候補と0個から時間結合動き情報候補最大数の時間結合動き情報候補から結合動き情報候補リストを構築する(S113)。ここでは、結合動き情報候補リストには導出された順序で空間結合動き情報候補と時間結合動き情報候補が順次登録されるものとする。   Next, the combined motion information candidate list construction unit 162 generates a combined motion information candidate from 0 to the maximum number of spatially combined motion information candidates and from 0 to the maximum number of temporally combined motion information candidates. A list is constructed (S113). Here, it is assumed that the spatially combined motion information candidate and the temporally combined motion information candidate are sequentially registered in the combined motion information candidate list in the derived order.

次に、冗長結合動き情報候補削除部163は、結合動き情報候補リスト構築部162より供給される結合動き情報候補リストに登録されている結合動き情報候補を検査し、同一の動き情報を有する結合動き情報候補が複数存在する場合には1つの結合動き情報候補を残してその他の結合動き情報候補を削除し(S114)、当該結合動き情報候補リストを第1結合動き情報候補補充部164に供給する。ここで、当該結合動き情報候補リストに登録されている結合動き情報候補は全てが異なる結合動き情報候補となる。   Next, the redundant combined motion information candidate deletion unit 163 examines the combined motion information candidates registered in the combined motion information candidate list supplied from the combined motion information candidate list construction unit 162, and combines the same motion information. When there are a plurality of motion information candidates, one combined motion information candidate is left and other combined motion information candidates are deleted (S114), and the combined motion information candidate list is supplied to the first combined motion information candidate supplementing unit 164. To do. Here, the combined motion information candidates registered in the combined motion information candidate list are all different combined motion information candidates.

ここでは、冗長結合動き情報候補削除部163は結合動き情報候補リストから同一の動き情報を有する結合動き情報候補を完全に削除するとしたが、第1補充結合動き情報候補や第2補充結合動き情報候補が追加され易くなればよく、これに限定されない。   Here, the redundant combined motion information candidate deletion unit 163 completely deletes the combined motion information candidate having the same motion information from the combined motion information candidate list, but the first supplemental combined motion information candidate and the second supplemental combined motion information The candidate is not limited to this as long as it is easy to add candidates.

次に、第1結合動き情報候補補充部164は、冗長結合動き情報候補削除部163より供給される結合動き情報候補リストに登録された結合動き情報候補から0個から2個の第1補充結合動き情報候補を導出してマージ候補最大数を超えないように結合動き情報候補リストに追加し(S115)、当該結合動き情報候補リストを第2結合動き情報候補補充部165に供給する。なお、冗長結合動き情報候補削除部163より供給される結合動き情報候補リストに登録された結合動き情報候補の数がマージ候補最大数である場合は、冗長結合動き情報候補削除部163より供給される結合動き情報候補リストがそのまま第2結合動き情報候補補充部165に供給されることになる。第1結合動き情報候補補充部164の詳細な動作については後述する。   Next, the first combined motion information candidate supplementing unit 164 includes 0 to 2 first supplemental combining from the combined motion information candidates registered in the combined motion information candidate list supplied from the redundant combined motion information candidate deleting unit 163. The motion information candidates are derived and added to the combined motion information candidate list so as not to exceed the maximum number of merge candidates (S115), and the combined motion information candidate list is supplied to the second combined motion information candidate supplementing unit 165. When the number of combined motion information candidates registered in the combined motion information candidate list supplied from the redundant combined motion information candidate deletion unit 163 is the maximum number of merge candidates, the redundant combined motion information candidate deletion unit 163 supplies The combined motion information candidate list is supplied to the second combined motion information candidate supplementing unit 165 as it is. The detailed operation of the first combined motion information candidate supplement unit 164 will be described later.

次に、第2結合動き情報候補補充部165は、第1結合動き情報候補補充部164より供給される結合動き情報候補リストに登録された結合動き情報候補の数がマージ候補最大数を超えないように第2補充結合動き情報候補を導出して当該結合動き情報候補リストに追加し(S116)、当該結合動き情報候補リストを端子19に供給する。なお、第1結合動き情報候補補充部164より供給される結合動き情報候補リストに登録された結合動き情報候補の数がマージ候補最大数である場合は、第1結合動き情報候補補充部164より供給される結合動き情報候補リストを端子19に供給されることになる。第2結合動き情報候補補充部165の詳細な動作については後述する。   Next, the second combined motion information candidate supplementing unit 165 has the number of combined motion information candidates registered in the combined motion information candidate list supplied from the first combined motion information candidate supplementing unit 164 not exceeding the maximum number of merge candidates. Thus, the second supplemental combined motion information candidate is derived and added to the combined motion information candidate list (S116), and the combined motion information candidate list is supplied to the terminal 19. If the number of combined motion information candidates registered in the combined motion information candidate list supplied from the first combined motion information candidate supplementing unit 164 is the maximum number of merge candidates, the first combined motion information candidate supplementing unit 164 The supplied combined motion information candidate list is supplied to the terminal 19. The detailed operation of the second combined motion information candidate supplement unit 165 will be described later.

以上のように、結合動き情報候補リスト生成部140は結合動き情報候補リストを生成する。   As described above, the combined motion information candidate list generation unit 140 generates a combined motion information candidate list.

(ブロック群について)
以降、予測ブロックの候補ブロック群について説明する。図15は予測ブロックの空間候補ブロック群について説明する図である。図15(a)は符号化ブロックの大きさが16画素×16画素で予測ブロックサイズタイプが2Nx2Nである場合の予測ブロックサイズの空間候補ブロック群を示す。
(About blocks)
Hereinafter, candidate block groups of prediction blocks will be described. FIG. 15 is a diagram illustrating a spatial candidate block group of prediction blocks. FIG. 15A shows a space candidate block group having a predicted block size when the size of the encoded block is 16 pixels × 16 pixels and the predicted block size type is 2N × 2N.

空間候補ブロック群は、予測ブロックの左下の画素の左に位置するブロックA、予測ブロックの右上の画素の上に位置するブロックB、予測ブロックの右上の画素の右斜め上に位置するブロックC、予測ブロックの左下の画素の左斜め下に位置するブロックE、及び予測ブロックの左上の画素の左斜め上に位置するブロックDの5個とする。   The spatial candidate block group includes a block A positioned to the left of the lower left pixel of the prediction block, a block B positioned above the upper right pixel of the prediction block, a block C positioned diagonally to the upper right of the upper right pixel of the prediction block, It is assumed that the block E is located at the lower left of the prediction block and the block D is located at the upper left of the prediction block.

時間候補ブロック群は、ColPicの所定領域の代表ブロックであるブロックHとブロックIの2個とする。処理対象の予測ブロックの左上の画素の位置を(x,y)、処理対象の予測ブロックの幅と高さをそれぞれPUW、PUHとすると、((((x+PUW)>>4)<<4),(((y+PUH)>>4)<<4))となる画素の位置をブロックの左上の画素の位置として含むColPic上のブロックを時間候補ブロックHとする。ここで、>>は右方向のビットシフト、<<は左方向のビットシフトである。   There are two time candidate block groups, block H and block I, which are representative blocks in a predetermined area of ColPic. If the position of the upper left pixel of the prediction block to be processed is (x, y) and the width and height of the prediction block to be processed are PUW and PUH, respectively ((((x + PUW) >> 4) << 4) , (((Y + PUH) >> 4) << 4)), a block on ColPic that includes the position of the pixel on the upper left of the block as a time candidate block H. Here, >> is a bit shift in the right direction, and << is a bit shift in the left direction.

同様に、(x+(PUW>>1),y+(PUH>>1))となる画素の位置をブロックの左上の画素の位置として含むColPic上のブロックを時間候補ブロックIとする。   Similarly, a block on ColPic including the position of the pixel at (x + (PUW >> 1), y + (PUH >> 1)) as the position of the upper left pixel of the block is set as a time candidate block I.

なお、予測ブロックサイズタイプが2N×2Nではない符号化ブロックにおける予測ブロックに対しても予測ブロックサイズタイプが2N×2Nである符号化ブロックの予測ブロックと同じ位置関係を適用するものとする。図15(b)は符号化ブロックの大きさが8画素×8画素で予測ブロックサイズタイプが2NxNである場合の空間候補ブロック群を示す。   Note that the same positional relationship as that of a prediction block of a coding block having a prediction block size type of 2N × 2N is applied to a prediction block in a coding block whose prediction block size type is not 2N × 2N. FIG. 15B shows a spatial candidate block group when the size of the encoded block is 8 pixels × 8 pixels and the predicted block size type is 2N × N.

ここでは、ブロックAを予測ブロックの左下の画素の左に位置するブロックとしたが、予測ブロックの左辺に接していればよく、これに限定されない。また、ブロックBを予測ブロックの右上の画素の上に位置するブロックとしたが、予測ブロックの上辺に接していればよく、これに限定されない。また、時間候補ブロック群をブロックHとブロックIの2個としたが、同一位置予測ブロック内と同一位置予測ブロックの周辺にあるブロックであればよく、これに限定されない。   Here, the block A is a block located to the left of the lower left pixel of the prediction block. However, the block A is not limited to this as long as it is in contact with the left side of the prediction block. Further, although the block B is a block located on the upper right pixel of the prediction block, it is sufficient if it is in contact with the upper side of the prediction block, and the present invention is not limited to this. Moreover, although the time candidate block group is two blocks, block H and block I, any block may be used as long as it is within the same position prediction block and around the same position prediction block, and is not limited to this.

(空間結合動き情報候補導出部160の詳細な動作)
続いて、空間結合動き情報候補導出部160の詳細な動作について説明する。図16は、空間結合動き情報候補導出部160の動作を説明するためのフローチャートである。空間結合動き情報候補導出部160は、候補ブロック群の空間候補ブロック群に含まれる候補ブロックであるブロックA、ブロックB、ブロックC、ブロックE、ブロックDの順に以下の処理を繰り返し行う(S120からS124)。
(Detailed operation of spatially coupled motion information candidate derivation unit 160)
Next, a detailed operation of the spatially coupled motion information candidate derivation unit 160 will be described. FIG. 16 is a flowchart for explaining the operation of the spatially coupled motion information candidate derivation unit 160. The spatially coupled motion information candidate derivation unit 160 repeatedly performs the following processing in the order of block A, block B, block C, block E, and block D, which are candidate blocks included in the spatial candidate block group of the candidate block group (from S120) S124).

最初に、候補ブロックが有効であるか検査する(S121)。候補ブロックが有効であるとは、候補ブロックのL0予測とL1予測の参照インデックスの少なくとも一方が0以上であることである。候補ブロックが有効であれば(S121のY)、候補ブロックの動き情報を空間結合動き情報候補として導出する(S122)。候補ブロックが有効でなければ(S121のN)、次の候補ブロックを検査し(S124)、全ての候補ブロックの検査が終了すれば、処理を終了する。ステップS122に続いて、導出した空間結合動き情報候補の数が空間結合動き情報候補最大数であるか検査する(S123)。導出した空間結合動き情報候補の数が空間結合動き情報候補最大数でなければ(S123のN)、次の候補ブロックを検査する(S124)。導出した空間結合動き情報候補の数が空間結合動き情報候補最大数であれば(S123のY)、処理を終了する。ここで、空間結合動き情報候補最大数は4とする。   First, it is checked whether the candidate block is valid (S121). That the candidate block is valid means that at least one of the reference indexes of the L0 prediction and the L1 prediction of the candidate block is 0 or more. If the candidate block is valid (Y in S121), the motion information of the candidate block is derived as a spatially combined motion information candidate (S122). If the candidate block is not valid (N in S121), the next candidate block is inspected (S124), and if all candidate blocks have been inspected, the process ends. Following step S122, it is checked whether the derived number of spatially coupled motion information candidates is the maximum number of spatially coupled motion information candidates (S123). If the number of derived spatially coupled motion information candidates is not the maximum number of spatially coupled motion information candidates (N in S123), the next candidate block is examined (S124). If the derived number of spatially coupled motion information candidates is the maximum number of spatially coupled motion information candidates (Y in S123), the process ends. Here, the maximum number of spatially coupled motion information candidates is 4.

(時間結合動き情報候補導出部161の詳細な動作)
続いて、時間結合動き情報候補導出部161の詳細な動作について説明する。図17は、時間結合動き情報候補導出部161の動作を説明するためのフローチャートである。L0予測とL1予測の各予測方向LXについて以下の処理を繰り返し行う(S140からS147)。ここで、Xは0または1である。また、候補ブロック群の時間候補ブロック群に含まれる候補ブロックであるブロックH、ブロックIの順に以下の処理を繰り返し行う(S141からS146)。
(Detailed operation of time combination motion information candidate derivation unit 161)
Next, a detailed operation of the time combination motion information candidate derivation unit 161 will be described. FIG. 17 is a flowchart for explaining the operation of the time combination motion information candidate derivation unit 161. The following processing is repeated for each prediction direction LX of L0 prediction and L1 prediction (S140 to S147). Here, X is 0 or 1. Further, the following processing is repeated in the order of block H and block I, which are candidate blocks included in the time candidate block group of the candidate block group (S141 to S146).

時間結合動き情報候補導出部161は、候補ブロックのLN予測が有効であるか検査する(S142)。ここで、Nは0または1である。ここでは、NはXと同じであるとする。候補ブロックのLN予測が有効であるとは、候補ブロックのLN予測の参照インデックスが0以上であることである。候補ブロックのLN予測が有効であれば(S142のY)、候補ブロックのLN予測の動きベクトルをLX予測の基準動きベクトルとする(S143)。候補ブロックのLN予測が有効でなければ(S142のN)、ステップS143からステップS145をスキップして次の候補ブロックを検査し(S146)、全ての候補ブロックの検査が終了すると、次の予測方向を処理する(S147)。   The temporal combination motion information candidate derivation unit 161 checks whether the LN prediction of the candidate block is valid (S142). Here, N is 0 or 1. Here, N is the same as X. That the LN prediction of the candidate block is valid means that the reference index of the LN prediction of the candidate block is 0 or more. If the LN prediction of the candidate block is valid (Y of S142), the motion vector of the LN prediction of the candidate block is set as the reference motion vector of the LX prediction (S143). If the LN prediction of the candidate block is not valid (N of S142), the next candidate block is inspected by skipping steps S143 to S145 (S146), and when the inspection of all candidate blocks is completed, the next prediction direction Is processed (S147).

ステップS143に続いて、時間結合動き情報候補のLX予測の参照画像を決定する(S144)。ここでは、時間結合動き情報候補のLX予測の参照画像は、LX予測の参照インデックス0の参照画像とする。次に、基準動きベクトルを処理対象画像と時間結合動き情報候補のLX予測の参照画像の距離に合うようにスケーリングして時間結合動き情報候補のLX予測の動きベクトルを算出し(S145)、次の予測方向を処理する(S147)。時間結合動き情報候補のLX予測の動きベクトルの具体的な算出式については後述する。   Subsequent to step S143, a reference image for LX prediction of a temporally combined motion information candidate is determined (S144). Here, the LX prediction reference image of the temporally combined motion information candidate is a reference image with a reference index 0 of LX prediction. Next, the base motion vector is scaled to match the distance between the processing target image and the LX prediction reference image of the temporally combined motion information candidate to calculate an LX predictive motion vector of the temporally combined motion information candidate (S145). The prediction direction is processed (S147). A specific formula for calculating the motion vector of the LX prediction of the temporally combined motion information candidate will be described later.

L0予測とL1予測について処理が終了したステップS147に続いて、時間結合動き情報候補のL0予測とL1予測の少なくとも一方の予測が有効であるか検査する(S148)。時間結合動き情報候補のL0予測とL1予測の少なくとも一方の予測が有効であれば(S148のY)、時間結合動き情報候補のインター予測タイプを決定して時間結合動き情報候補を導出する(S149)。   Following step S147 in which the processing for the L0 prediction and the L1 prediction is completed, it is checked whether at least one of the L0 prediction and the L1 prediction of the temporally coupled motion information candidate is valid (S148). If at least one of the L0 prediction and the L1 prediction of the temporal combination motion information candidate is valid (Y in S148), the inter prediction type of the temporal combination motion information candidate is determined to derive the temporal combination motion information candidate (S149). ).

ここでは、インター予測タイプの決定は、L0予測だけが有効であれば、時間結合動き情報候補のインター予測タイプをPred_L0とし、L1予測だけが有効であれば、時間結合動き情報候補のインター予測タイプをPred_L1とし、L0予測とL1予測の両方が有効であれば、時間結合動き情報候補のインター予測タイプをPred_BIとする。   Here, in the determination of the inter prediction type, if only the L0 prediction is valid, the inter prediction type of the temporally combined motion information candidate is Pred_L0, and if only the L1 prediction is valid, the inter prediction type of the temporally combined motion information candidate is Is Pred_L1, and if both the L0 prediction and the L1 prediction are valid, the inter prediction type of the temporally combined motion information candidate is Pred_BI.

続いて、時間結合動き情報候補のLX予測の動きベクトルの算出式について説明する。時間候補ブロックを有するColPicと時間候補ブロックがLX予測の動き補償予測で参照するピクチャであるColRefLXPicの画像間距離をtd、時間結合動き情報候補のLX予測の参照画像RefLXPicと処理対象画像CurPicの画像間距離をtb、LX予測の基準動きベクトルをmvLXとすると、時間結合動き情報候補のLX予測の動きベクトルmvLXColは式1より算出される。式1より時間結合動き情報候補のLX予測の動きベクトルの算出にはtbとtdを算出するための減算と、除算、及び乗算が必要となることがわかる。
mvLXCol = tb / td * mvLX; 式1
Next, a formula for calculating a motion vector for LX prediction of temporally combined motion information candidates will be described. The distance between images of ColPic having a temporal candidate block and ColRefLXPic which is a picture to which the temporal candidate block refers in motion compensated prediction of LX prediction is td, the reference image RefLXPic of the LX prediction of the temporal combined motion information candidate and the image of the processing target image CurPic When the inter-distance is tb and the reference motion vector for LX prediction is mvLX, the LX prediction motion vector mvLXCol of the temporally combined motion information candidate is calculated from Equation 1. It can be seen from Equation 1 that subtraction, division, and multiplication for calculating tb and td are required to calculate a motion vector for LX prediction of temporally combined motion information candidates.
mvLXCol = tb / td * mvLX; Equation 1

浮動小数点演算の簡略化のために整数演算とする場合には例えば、式2から式4のように展開して利用してもよい。Abs(v)は値vの絶対値を算出する関数、Clip3(uv,lv,v)は値vを下限lvから上限uvまでに制限する関数、Sign(v)は値vが0以上であれば1を値vが0より小さい場合は−1を返す関数である。>>は右方向のビットシフトを、<<は左方向のビットシフトを表す。
tx = (16384+Abs(td/2) ) / td; 式2
DistScaleFactor = Clip3( -4096, 4095, ( tb * tx + 32 ) >> 6 ); 式3
mvLXCol = Sign( DistScaleFactor * mvLX ) * ( (Abs( DistScaleFactor * mvLX ) + 127 ) >> 8 ); 式4
In order to simplify the floating point arithmetic, an integer arithmetic may be used, for example, by expanding as in Expression 2 to Expression 4. Abs (v) is a function that calculates the absolute value of the value v, Clip3 (uv, lv, v) is a function that limits the value v from the lower limit lv to the upper limit uv, and Sign (v) For example, the function returns 1 when the value v is smaller than 0. >> represents a bit shift in the right direction, and << represents a bit shift in the left direction.
tx = (16384 + Abs (td / 2)) / td; Equation 2
DistScaleFactor = Clip3 (-4096, 4095, (tb * tx + 32) >>6); Equation 3
mvLXCol = Sign (DistScaleFactor * mvLX) * ((Abs (DistScaleFactor * mvLX) + 127) >>8); Equation 4

ここでは、時間結合動き情報候の最大数である時間結合動き情報候補最大数を1とした。そのため、図17には空間結合動き情報候補導出部160の動作を説明するフローチャートである図17で示したステップS123に相当する処理を省略したが、時間結合動き情報候補最大数が2以上である場合にはステップS149の後にステップS123に相当する処理を追加することもできる。   Here, the maximum number of temporally combined motion information candidates, which is the maximum number of temporally combined motion information candidates, is set to 1. For this reason, FIG. 17 omits the processing corresponding to step S123 shown in FIG. 17 which is a flowchart for explaining the operation of the spatially coupled motion information candidate deriving unit 160, but the maximum number of temporally coupled motion information candidate candidates is 2 or more. In this case, a process corresponding to step S123 can be added after step S149.

ここでは、時間結合動き情報候補のインター予測タイプは変動するとしたが、例えば、XとNの依存関係をなくして各XについてNが0と1の順に検査するようにして常にPred_BIが生成されるようにしてもよい。   Here, the inter prediction type of temporally coupled motion information candidates is assumed to vary. For example, Pred_BI is always generated by eliminating the dependency relationship between X and N and checking each X in the order of 0 and 1. You may do it.

(第1結合動き情報候補補充部164の詳細な動作)
続いて、第1結合動き情報候補補充部164の詳細な動作について説明する。図18は、第1結合動き情報候補補充部164の動作を説明するためのフローチャートである。最初に、結合動き情報候補リストに登録された結合動き情報候補の数(NumCandList)とマージ候補最大数(MaxNumMergeCand)から、第1補充結合動き情報候補を導出する最大数であるMaxNumGenCandを式5より算出する(S170)。
MaxNumGenCand=MaxNumMergeCand-NumCandList; (NumCandList>1)
MaxNumGenCand=0; (NumCandList<=1) 式5
(Detailed operation of the first combined motion information candidate supplement unit 164)
Next, a detailed operation of the first combined motion information candidate supplement unit 164 will be described. FIG. 18 is a flowchart for explaining the operation of the first combined motion information candidate supplementing unit 164. First, MaxNumGenCand, which is the maximum number for deriving the first supplementary combined motion information candidates, is calculated from the number of combined motion information candidates (NumCandList) registered in the combined motion information candidate list and the maximum number of merge candidates (MaxNumMergeCand) from Equation 5. Calculate (S170).
MaxNumGenCand = MaxNumMergeCand-NumCandList; (NumCandList> 1)
MaxNumGenCand = 0; (NumCandList <= 1) Equation 5

次に、MaxNumGenCandが0より大きいか検査する(S171)。MaxNumGenCandが0より大きくなければ(S171のN)、処理を終了する。MaxNumGenCandが0より大きければ(S171のY)、以下の処理を行う。まず、組み合わせ検査回数であるloopTimesを決定する。loopTimesはNumCandList×NumCandListに設定する。ただし、loopTimesが8を超える場合にはloopTimesは8に制限する(S172)。ここで、loopTimesは0から7までの整数となる。loopTimesだけ以下の処理を繰り返し行う(S172からS180)。結合動き情報候補Mと結合動き情報候補Nの組み合わせを決定する(S173)。ここで、組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係について説明する。図19は組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係を説明するための図である。図19のようにMとNは異なる値であって、MとNの合計値が小さくなる順に設定される。結合動き情報候補MのL0予測が有効で且つ結合動き情報候補NのL1予測が有効であるか検査する(S174)。結合動き情報候補MのL0予測が有効で且つ結合動き情報候補NのL1予測が有効であれば(S174のY)、結合動き情報候補MのL0予測の参照画像と動きベクトルが結合動き情報候補NのL1予測の参照画像と動きベクトルと異なるか検査する(S175)。結合動き情報候補MのL0予測が有効で且つ結合動き情報候補NのL1予測が有効でなければ(S174のN)、次の組み合わせを処理する。結合動き情報候補MのL0予測の参照画像と結合動き情報候補NのL1予測の参照画像が異なれば(S175のY)、結合動き情報候補MのL0予測の動きベクトルと参照画像を結合動き情報候補NのL1予測の動きベクトルと参照画像と組み合わせてインター予測タイプがPred_BIである双結合動き情報候補を導出する(S176)。ここでは、第1補充結合動き情報候補として、ある結合動き情報候補のL0予測とそれとは異なる結合動き情報候補のL1予測の動き情報を組み合わせた双結合動き情報を導出する。結合動き情報候補MのL0予測の参照画像と結合動き情報候補NのL1予測の参照画像が同じであれば(S175のN)、次の組み合わせを処理する。ステップS176に続いて、双結合動き情報候補を結合動き情報候補リストに追加する(S178)。ステップS178に続いて、導出した双結合動き情報の数がMaxNumGenCandであるか検査する(S179)。導出された双結合動き情報の数がMaxNumGenCandであれば(S179のY)、処理を終了する。導出された双結合動き情報の数がMaxNumGenCandでなければ(S179のN)、次の組み合わせを処理する(S180)。全ての組み合わせの処理が終了すれば処理を終了する。   Next, it is checked whether MaxNumGenCand is greater than 0 (S171). If MaxNumGenCand is not greater than 0 (N in S171), the process ends. If MaxNumGenCand is greater than 0 (Y in S171), the following processing is performed. First, loopTimes that is the number of combination inspections is determined. loopTimes is set to NumCandList × NumCandList. However, if loopTimes exceeds 8, loopTimes is limited to 8 (S172). Here, loopTimes is an integer from 0 to 7. The following processing is repeated for loopTimes (S172 to S180). A combination of the combined motion information candidate M and the combined motion information candidate N is determined (S173). Here, the relationship between the number of combination inspections, the combined motion information candidate M, and the combined motion information candidate N will be described. FIG. 19 is a diagram for explaining the relationship between the number of combination inspections, the combined motion information candidate M, and the combined motion information candidate N. As shown in FIG. 19, M and N are different values, and are set in order of decreasing total value of M and N. It is checked whether the L0 prediction of the combined motion information candidate M is valid and the L1 prediction of the combined motion information candidate N is valid (S174). If the L0 prediction of the combined motion information candidate M is valid and the L1 prediction of the combined motion information candidate N is valid (Y in S174), the L0 prediction reference image of the combined motion information candidate M and the motion vector are combined motion information candidates. It is checked whether or not the reference image of the N L1 prediction is different from the motion vector (S175). If the L0 prediction of the combined motion information candidate M is not valid and the L1 prediction of the combined motion information candidate N is not valid (N in S174), the next combination is processed. If the reference image for L0 prediction of the combined motion information candidate M and the reference image for L1 prediction of the combined motion information candidate N are different (Y in S175), the motion vector of the combined motion information candidate M and the reference image for the L0 prediction are combined motion information. A candidate for bi-coupled motion information whose inter prediction type is Pred_BI is derived by combining the motion vector of L1 prediction of candidate N and the reference image (S176). Here, as the first supplementary combined motion information candidate, bi-coupled motion information obtained by combining the motion information of the L1 prediction of a combined motion information candidate different from the L0 prediction of a certain combined motion information candidate is derived. If the reference image for L0 prediction of the combined motion information candidate M and the reference image for L1 prediction of the combined motion information candidate N are the same (N in S175), the next combination is processed. Subsequent to step S176, the bi-join motion information candidate is added to the joint motion information candidate list (S178). Subsequent to step S178, it is checked whether or not the number of derived double coupled motion information is MaxNumGenCand (S179). If the number of derived double coupled motion information is MaxNumGenCand (Y in S179), the process is terminated. If the derived number of double coupled motion information is not MaxNumGenCand (N in S179), the next combination is processed (S180). When all combinations have been processed, the process ends.

ここでは、第1補充結合動き情報候補を、結合動き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトルと参照画像を、別の結合動き情報候補のL1予測の動きベクトルと参照画像と組み合わせて、動き補償予測の方向が双方向である双結合動き情報候補としたが、これに限定されない。ここでは、NumCandListが1以下の場合は結合動き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトルと参照画像を、別の結合動き情報候補のL1予測の動きベクトルと参照画像と組み合わせることができないため、MaxNumGenCandを0とした。例えば、結合動き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトルとL1予測の動きベクトルに+1などのオフセット値を加えた動き補償予測の方向が双方向である結合動き情報候補、結合動き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトルまたはL1予測の動きベクトルに+1などのオフセット値を加えた双予測である結合動き情報候補としてもよい。   Here, the first supplemental combined motion information candidate is set as an L0 prediction motion vector of a certain combined motion information candidate registered in the combined motion information candidate list and the reference image, and the L1 prediction motion vector of another combined motion information candidate. In combination with the reference image, a bi-coupled motion information candidate in which the direction of motion compensation prediction is bidirectional is used, but the present invention is not limited to this. Here, when NumCandList is 1 or less, the L0 prediction motion vector and reference image of another combined motion information candidate registered in the combined motion information candidate list are used as the L1 prediction motion vector and reference image of another combined motion information candidate. MaxNumGenCand was set to 0 because it cannot be combined with. For example, combined motion information in which the direction of motion compensated prediction in which an offset value such as +1 is added to the motion vector of L0 prediction and the motion vector of L1 prediction of a certain combined motion information candidate registered in the combined motion information candidate list is bidirectional. The candidate may be a combined motion information candidate that is bi-prediction obtained by adding an offset value such as +1 to a motion vector of L0 prediction or a motion vector of L1 prediction of a combined motion information candidate registered in the combined motion information candidate list.

ここで、第1補充結合動き情報候補は、結合動き情報候補リストに登録された結合動き情報候補の動き情報と処理対象の動き情報候補の動きに微妙にずれがある場合に、結合動き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトルと参照画像を、別の結合動き情報候補のL1予測の動きベクトルと参照画像と組み合わせて、動き補償予測の方向が双方向である新たな結合動き情報候補を導出することで、符号化効率を高めることができる。   Here, the first supplemental combined motion information candidate is a combined motion information candidate when there is a slight difference between the motion information of the combined motion information candidate registered in the combined motion information candidate list and the motion information candidate to be processed. The direction of motion compensation prediction is bidirectional by combining the motion vector and reference image of the L0 prediction of another combined motion information candidate registered in the list with the motion vector and reference image of another combined motion information candidate. Deriving new combined motion information candidates can increase the encoding efficiency.

(第2結合動き情報候補補充部165の詳細な動作)
続いて、第2結合動き情報候補補充部165の詳細な動作について説明する。図20は、第2結合動き情報候補補充部165の動作を説明するためのフローチャートである。ここでは、参照ピクチャリストL0の利用可能な参照ピクチャ数が参照ピクチャリストL1の利用可能な参照ピクチャ数以上であるとして説明する。
(Detailed operation of second combined motion information candidate supplementing unit 165)
Next, the detailed operation of the second combined motion information candidate supplement unit 165 will be described. FIG. 20 is a flowchart for explaining the operation of the second combined motion information candidate supplementing unit 165. Here, description will be made assuming that the number of reference pictures that can be used in the reference picture list L0 is equal to or greater than the number of reference pictures that can be used in the reference picture list L1.

最初に、第1結合動き情報候補補充部164より供給される結合動き情報候補リストに登録された結合動き情報候補の数(NumCandList)、マージ候補最大数(MaxNumMergeCand)、及び参照ピクチャリストL0の利用可能な参照ピクチャ数(num_ref_idx_l0_active_minus1+1)から、第2補充結合動き情報候補を導出する最大数であるMaxNumGenCandを式6より算出する(S180)。ここで、Min(x,y)はxとyの最小値を返す関数である。
MaxNumGenCand=Min(MaxNumMergeCand-NumCandList, num_ref_idx_l0_active_minus1+1); 式6
First, the number of combined motion information candidates (NumCandList) registered in the combined motion information candidate list supplied from the first combined motion information candidate supplementing unit 164, the maximum number of merge candidates (MaxNumMergeCand), and use of the reference picture list L0 From the number of possible reference pictures (num_ref_idx_l0_active_minus1 + 1), MaxNumGenCand, which is the maximum number for deriving the second supplemental combined motion information candidate, is calculated from Equation 6 (S180). Here, Min (x, y) is a function that returns the minimum value of x and y.
MaxNumGenCand = Min (MaxNumMergeCand-NumCandList, num_ref_idx_l0_active_minus1 + 1); Formula 6

次に、以下の処理をiについてMaxNumGenCand回繰り返し行う(S181からS186)。ここで、iは0からMaxNumGenCand−1の整数となる。すなわち、第1結合動き情報候補補充部164より供給される結合動き情報候補リストに登録された結合動き情報候補の数(NumCandList)が、マージ候補最大数(MaxNumMergeCand)より少ない場合は、少なくとも1つの第2補充結合動き情報候補が導出されて、結合動き情報候補リストに追加されることになる。一方、NumCandListがMaxNumMergeCand以上であれば、第2補充結合動き情報候補は導出されず、結合動き情報候補リストに追加されない。このように、NumCandListがMaxNumMergeCand以上であれば、第2補充結合動き情報候補を結合動き情報候補リストに追加しないことで、MaxNumMergeCandより大きな結合動き情報候補リストのメモリは不要となる。
L0予測の動きベクトル(mvL0)が(0,0)、L0予測の参照インデックス(ref_idx_l0)がi、インター予測タイプ(predDir)がPred_L0である第2補充結合動き情報候補を導出する(S182)。
Next, the following process is repeated MaxNumCand times for i (S181 to S186). Here, i is an integer from 0 to MaxNumGenCand-1. That is, when the number of combined motion information candidates (NumCandList) registered in the combined motion information candidate list supplied from the first combined motion information candidate supplementing unit 164 is smaller than the maximum number of merge candidates (MaxNumMergeCand), at least one The second supplemental combined motion information candidate is derived and added to the combined motion information candidate list. On the other hand, if NumCandList is greater than or equal to MaxNumMergeCand, the second supplemental combined motion information candidate is not derived and is not added to the combined motion information candidate list. In this way, if NumCandList is equal to or greater than MaxNumMergeCand, the second supplemental combined motion information candidate is not added to the combined motion information candidate list, so that a combined motion information candidate list memory larger than MaxNumMergeCand becomes unnecessary.
A second supplementary combined motion information candidate is derived in which the L0 prediction motion vector (mvL0) is (0, 0), the L0 prediction reference index (ref_idx_10) is i, and the inter prediction type (predDir) is Pred_L0 (S182).

次に、スライスタイプがBスライスであるか検査する(S183)。スライスタイプがBスライスであれば(S183のY)、L1予測の動きベクトル(mvL1)が(0,0)、L1予測の参照インデックス(ref_idx_l1)が0、インター予測タイプがPred_BIである第2補充結合動き情報候補を導出し(S184)、当該第2補充結合動き情報候補を結合動き情報候補リストに追加する(S185)。   Next, it is inspected whether the slice type is a B slice (S183). If the slice type is B slice (Y in S183), the second supplement that the motion vector (mvL1) of the L1 prediction is (0, 0), the reference index (ref_idx_l1) of the L1 prediction is 0, and the inter prediction type is Pred_BI. A combined motion information candidate is derived (S184), and the second supplemental combined motion information candidate is added to the combined motion information candidate list (S185).

スライスタイプがBスライスでなければ(S183のN)、S182で導出した第2補充結合動き情報候補を結合動き情報候補リストに追加する(S185)。   If the slice type is not B slice (N in S183), the second supplementary combined motion information candidate derived in S182 is added to the combined motion information candidate list (S185).

次に、次のiについて処理する(S186)。全てのiについて処理が終了すれば処理を終了する。   Next, the next i is processed (S186). If the process is completed for all i, the process ends.

ここでは、Pスライスの場合は、第2補充結合動き情報候補をL0予測の動きベクトルが(0,0)、参照インデックスがiであって、インター予測タイプがPred_L0である結合動き情報候補とし、Bスライスの場合は、第2補充結合動き情報候補をL0予測の動きベクトルが(0,0)、参照インデックスがi、L1予測の動きベクトルが(0,0)、参照インデックスが0であってインター予測タイプがPred_BIである結合動き情報候補とした。   Here, in the case of a P slice, the second supplemental combined motion information candidate is a combined motion information candidate having an L0 prediction motion vector of (0, 0), a reference index of i, and an inter prediction type of Pred_L0. In the case of the B slice, the second supplementary combined motion information candidate has an L0 prediction motion vector (0,0), a reference index i, an L1 prediction motion vector (0,0), and a reference index 0. The combined motion information candidate whose inter prediction type is Pred_BI is used.

これは、一般的な画像の一部が静止しているような動画像において、動きベクトルが(0,0)が有効となること、また、動画像は時間方向に連続性があるため、処理対象画像に近い参照ピクチャほど処理対象画像との相関性が高くなるためである。   This is because the motion vector (0, 0) is effective in a moving image in which a part of a general image is stationary, and the moving image is continuous in the time direction. This is because the reference picture closer to the target image has higher correlation with the processing target image.

以下、Bスライスの場合の第2補充結合動き情報候補について詳細に説明する。   Hereinafter, the second supplementary combined motion information candidate for the B slice will be described in detail.

最初に、入力画像順と符号化順を並び替えない符号化と入力画像順と符号化順を並び替える符号化について説明する。   First, encoding that does not rearrange the input image order and the encoding order and encoding that rearranges the input image order and the encoding order will be described.

図21は処理対象ピクチャと参照ピクチャの関係を説明する図である。図21(a)は入力画像順と符号化順を並び替えない場合を、図21(b)は入力画像順と符号化順を並び替える場合を示す。図21(a)では、POCがn+4からn+7の画像は参照ピクチャ、POCがn+8の画像は処理対象ピクチャCurPicである。図21(b)では、POCがn+2、n+4、n+6、n+8の画像は参照ピクチャ、POCがn+5の画像は処理対象ピクチャCurPicである。   FIG. 21 is a diagram for explaining the relationship between the processing target picture and the reference picture. FIG. 21A shows a case where the input image order and the encoding order are not rearranged, and FIG. 21B shows a case where the input image order and the encoding order are rearranged. In FIG. 21A, an image with a POC of n + 4 to n + 7 is a reference picture, and an image with a POC of n + 8 is a processing target picture CurPic. In FIG. 21B, images with POC of n + 2, n + 4, n + 6, and n + 8 are reference pictures, and images with POC of n + 5 are processing target pictures CurPic.

次に、入力画像順と符号化順を並び替えない符号化と入力画像順と符号化順を並び替える符号化における参照ピクチャリストについて説明する。参照ピクチャリストは参照ピクチャリスト生成部113により生成される。   Next, reference picture lists in encoding that does not rearrange the input image order and encoding order and encoding that rearranges the input image order and encoding order will be described. The reference picture list is generated by the reference picture list generation unit 113.

図22は参照ピクチャリストの一例を説明する図である。図22は参照ピクチャリストL0の利用可能な参照ピクチャ数と参照ピクチャリストL1の利用可能な参照ピクチャ数が共に4である場合の例を示す。図22(a)は入力画像順と符号化順を並び替えない場合の参照ピクチャリストの様子を示す。フレームメモリ110には少なくともPOCがn+4である参照ピクチャ、POCがn+5である参照ピクチャ、POCがn+6である参照ピクチャ、POCがn+8である参照ピクチャが記憶されているとする。図22(b)は入力画像順と符号化順を並び替える場合の参照ピクチャリストの様子を示す。フレームメモリ110には少なくともPOCがn+2である参照ピクチャ、POCがn+4である参照ピクチャ、POCがn+6である参照ピクチャ、POCがn+8である参照ピクチャが記憶されているとする。入力画像順と符号化順を並び替えない場合は参照ピクチャリストL0と参照ピクチャリストL1は同一となるが、入力画像順と符号化順を並び替える場合は参照ピクチャリストL0と参照ピクチャリストL1は同一とならない。   FIG. 22 is a diagram for explaining an example of the reference picture list. FIG. 22 shows an example in which the number of usable reference pictures in the reference picture list L0 and the number of usable reference pictures in the reference picture list L1 are both four. FIG. 22A shows the state of the reference picture list when the input image order and the encoding order are not rearranged. Assume that the frame memory 110 stores at least a reference picture whose POC is n + 4, a reference picture whose POC is n + 5, a reference picture whose POC is n + 6, and a reference picture whose POC is n + 8. FIG. 22B shows the state of the reference picture list when the input image order and the encoding order are rearranged. Assume that the frame memory 110 stores at least a reference picture whose POC is n + 2, a reference picture whose POC is n + 4, a reference picture whose POC is n + 6, and a reference picture whose POC is n + 8. When the input image order and the encoding order are not rearranged, the reference picture list L0 and the reference picture list L1 are the same, but when the input image order and the encoding order are rearranged, the reference picture list L0 and the reference picture list L1 are It is not the same.

次に、入力画像順と符号化順を並び替えない符号化と入力画像順と符号化順を並び替える符号化における第2補充結合動き情報候補について説明する。   Next, the second supplementary combined motion information candidate in encoding that does not rearrange the input image order and encoding order and encoding that rearranges the input image order and encoding order will be described.

図23は実施の形態1による第2補充結合動き情報候補の参照インデックスとPOCの関係の一例を説明する図である。図23は参照ピクチャリストL0の利用可能な参照ピクチャ数と参照ピクチャリストL1の利用可能な参照ピクチャ数が共に4である場合の第2補充結合動き情報候補の例を示す。図23(a)は入力画像順と符号化順を並び替えない場合の第2補充結合動き情報候補の参照インデックスを、図23(b)は入力画像順と符号化順を並び替える場合の第2補充結合動き情報候補の参照インデックスを示す。   FIG. 23 is a diagram for explaining an example of the relationship between the reference index of the second supplementary combined motion information candidate and the POC according to the first embodiment. FIG. 23 shows an example of the second supplementary combined motion information candidate when the number of usable reference pictures in the reference picture list L0 and the number of usable reference pictures in the reference picture list L1 are both four. FIG. 23A shows the reference index of the second supplemental combined motion information candidate when the input image order and the encoding order are not rearranged, and FIG. 23B shows the reference index when the input image order and the encoding order are rearranged. 2 Indicates a reference index of supplementary combined motion information candidates.

図23(a)の場合について説明する。0番目(iが0)の第2補充結合動き情報候補のL0予測の参照インデックスは0であるため、POCがn+7である参照ピクチャをL0予測の動き補償予測に利用し、L1予測の参照インデックスは0であるため、POCがn+7である参照ピクチャをL1予測の動き補償予測に利用する。L0予測とL1予測の動きベクトルは(0,0)で同一、参照ピクチャも同一であるため、L0予測とL1予測の予測信号は同一となる。したがって、0番目の第2補充結合動き情報候補は、双予測の動き情報を有するが、POCがn+7の参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。   The case of FIG. 23A will be described. Since the reference index for L0 prediction of the 0th (i is 0) second supplementary joint motion information candidate is 0, the reference picture with POC of n + 7 is used for motion compensated prediction of L0 prediction, and the reference index of L1 prediction Since 0 is 0, a reference picture whose POC is n + 7 is used for motion compensated prediction of L1 prediction. Since the motion vectors of L0 prediction and L1 prediction are the same at (0, 0) and the reference pictures are also the same, the prediction signals of L0 prediction and L1 prediction are the same. Therefore, the 0th second supplemental combined motion information candidate has bi-prediction motion information, but has the same prediction signal as the single prediction in which the motion compensation prediction of the reference picture with POC of n + 7 is performed with the motion vector (0, 0). Become.

1番目の第2補充結合動き情報候補は、POCがn+6である参照ピクチャをL0予測の動き補償予測に利用し、POCがn+7である参照ピクチャをL1予測の動き補償予測に利用する。これは直近(1番目に近い)の参照ピクチャと2番目に近い参照ピクチャを利用した双予測の動き補償予測となる。   For the first second supplemental combined motion information candidate, a reference picture with POC of n + 6 is used for motion compensated prediction for L0 prediction, and a reference picture with POC of n + 7 is used for motion compensated prediction for L1 prediction. This is bi-predictive motion compensated prediction using the latest (closest to the first) reference picture and the second closest reference picture.

同様に、2番目の第2補充結合動き情報候補は、直近の参照ピクチャと3番目に近い参照ピクチャを利用した双予測の動き補償予測となり、3番目の第2補充結合動き情報候補は、直近の参照ピクチャと4番目に近い参照ピクチャを利用した双予測の動き補償予測となる。   Similarly, the second second supplemental combined motion information candidate is a bi-predictive motion compensated prediction using the latest reference picture and the third closest reference picture, and the third second supplemental combined motion information candidate is the latest Bi-prediction motion compensated prediction using the reference picture and the fourth closest reference picture.

図23(b)の場合について説明する。0番目(iが0)の第2補充結合動き情報候補のL0予測の参照インデックスは0であるため、POCがn+4である参照ピクチャをL0予測の動き補償予測に利用し、L1予測の参照インデックスは0であるため、POCがn+6である参照ピクチャをL1予測の動き補償予測に利用する。POCがn+4である参照ピクチャとPOCがn+6である参照ピクチャはそれぞれ処理対象ピクチャの表示順で直前と直後の参照ピクチャであるため、第2補充結合動き情報候補の中では相対的には最も選択率の高いと考えられる双予測の動き補償予測となる。   The case of FIG. 23B will be described. Since the reference index for L0 prediction of the 0th (i = 0) second supplementary combined motion information candidate is 0, the reference picture with POC of n + 4 is used for motion compensated prediction of L0 prediction, and the reference index of L1 prediction Is 0, the reference picture whose POC is n + 6 is used for motion compensated prediction of L1 prediction. Since the reference picture whose POC is n + 4 and the reference picture whose POC is n + 6 are the reference pictures immediately before and immediately after in the display order of the processing target pictures, respectively, they are relatively selected among the second supplemental combined motion information candidates. It is a bi-predicted motion compensated prediction that is considered to have a high rate.

1番目の第2補充結合動き情報候補は、POCがn+2である参照ピクチャをL0予測の動き補償予測に利用し、POCがn+6である参照ピクチャをL1予測の動き補償予測に利用する。これは処理対象ピクチャの表示順で2番目に前の参照ピクチャと表示順で直後の参照ピクチャを利用した双予測の動き補償予測となる。   For the first second supplementary combined motion information candidate, a reference picture with POC of n + 2 is used for motion compensated prediction of L0 prediction, and a reference picture with POC of n + 6 is used for motion compensated prediction of L1 prediction. This is a bi-prediction motion compensated prediction using the second previous reference picture in the display order of the processing target picture and the next reference picture in the display order.

2番目の第2補充結合動き情報候補は、双予測の動き情報を有するが、POCがn+6である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。   The second second supplemental combined motion information candidate has bi-prediction motion information, but has the same prediction signal as the single prediction in which the motion picture (0, 0) is used for motion compensation prediction of a reference picture whose POC is n + 6. .

3番目の第2補充結合動き情報候補は、POCがn+8である参照ピクチャをL0予測の動き補償予測に利用し、POCがn+6である参照ピクチャをL1予測の動き補償予測に利用する。これは処理対象ピクチャの表示順で2番目に後の参照ピクチャと表示順で直後の参照ピクチャを利用した双予測の動き補償予測となる。   The third second supplemental joint motion information candidate uses a reference picture with POC of n + 8 for motion compensated prediction of L0 prediction, and uses a reference picture with POC of n + 6 for motion compensated prediction of L1 prediction. This is a bi-prediction motion compensated prediction using the second reference picture in the display order of the processing target picture and the reference picture immediately in the display order.

以上のように、Bスライスの第2補充結合動き情報候補のL0予測の動きベクトルを(0,0)、L0予測の参照インデックスを1つずつインクリメントしてL1予測の動きベクトルが(0,0)、L1予測の参照インデックスをL1予測の参照ピクチャリストの直近の参照ピクチャが登録されている0とすることで、全ての第2補充結合動き情報候補を直近の参照ピクチャを利用した双予測とすることができる。   As described above, the motion vector of the L0 prediction of the second supplementary joint motion information candidate of the B slice is (0, 0), the reference index of the L0 prediction is incremented by one, and the motion vector of the L1 prediction is (0, 0). ), By setting the reference index of L1 prediction to 0 in which the latest reference picture of the reference picture list of L1 prediction is registered, all the second supplementary combined motion information candidates are converted to bi-prediction using the latest reference picture. can do.

また、L1予測の参照ピクチャが存在しない場合は、第2補充結合動き情報候補をL0予測からの単予測とすることで、第2補充結合動き情報候補の選択が増え、動き情報予測処理の予測効率を向上させることができる。   In addition, when there is no reference picture for L1 prediction, the second supplementary combined motion information candidates are set to simple prediction from L0 prediction, so that the selection of second supplemental combined motion information candidates is increased and prediction of motion information prediction processing is performed. Efficiency can be improved.

また、全ての第2補充結合動き情報候補が異なる予測信号となるため、マージモードの選択肢の幅を広げることで符号化効率を向上させることができる。   Also, since all the second supplementary combined motion information candidates are different prediction signals, the encoding efficiency can be improved by widening the range of options for the merge mode.

また、参照ピクチャリストL1の利用可能な参照ピクチャ数に依存せず、参照ピクチャリストL0の利用可能な参照ピクチャ数と同数の第2補充結合動き情報候補を導出することができる。   Also, the same number of second supplemental combined motion information candidates as the number of usable reference pictures in the reference picture list L0 can be derived without depending on the number of usable reference pictures in the reference picture list L1.

例えば、画像の一部が少なくとも静止してランダムノイズが混入しているような動画像において、直近の参照ピクチャとその他の参照ピクチャを利用した双予測の予測信号とすることで、直近の参照ピクチャだけを用いた単予測の予測信号よりもフィルタリング効果や量子化幅による各参照ピクチャの鮮鋭度によって精度の高い予測信号を得ることが可能となる場合がある。   For example, in a moving image in which a part of the image is at least stationary and random noise is mixed, a bi-predictive prediction signal using the most recent reference picture and other reference pictures is used as the most recent reference picture. In some cases, it is possible to obtain a prediction signal with higher accuracy by the filtering effect and the sharpness of each reference picture due to the quantization width than the prediction signal of uni-prediction using only.

ここで、第2補充結合動き情報候補として結合動き情報候補リストに登録された結合動き情報候補に依存しない結合動き情報候補を設定することで、結合動き情報候補リストに登録された結合動き情報候補が0個である場合に、マージモードを利用することを可能とし、符号化効率を向上させることができる。また、結合動き情報候補リストに登録された結合動き情報候補の動き情報と処理対象の動き情報候補の動きが異なる場合に、新たな結合動き情報候補を導出して選択肢の幅を広げることで、符号化効率を向上させることができる。   Here, by setting a combined motion information candidate that does not depend on the combined motion information candidate registered in the combined motion information candidate list as the second supplemental combined motion information candidate, the combined motion information candidate registered in the combined motion information candidate list When the number is zero, it is possible to use the merge mode and improve the encoding efficiency. In addition, when the motion information of the combined motion information candidate registered in the combined motion information candidate list and the motion information candidate motion to be processed are different, by deriving a new combined motion information candidate and expanding the range of options, Encoding efficiency can be improved.

また、全ての第2補充結合動き情報候補を双予測とすることで、隣接ブロックにおける第1補充結合動き情報候補の導出される確率を上げて符号化効率を向上させることができる。以下、その効果について詳細に説明する。   Also, by making all the second supplemental combined motion information candidates bi-predicted, it is possible to increase the probability of deriving the first supplemental combined motion information candidates in adjacent blocks and improve the encoding efficiency. Hereinafter, the effect will be described in detail.

最初に、L0予測の単予測である第2補充結合動き情報候補を結合動き情報候補リストに追加された場合の問題について説明する。L0予測の単予測である第2補充結合動き情報候補と結合動き情報候補リストにある所定の結合動き情報候補とが組み合わされて第1補充結合動き情報候補が導出される場合、所定の結合動き情報候補がL0予測の単予測である場合には新たな第2補充結合動き情報候補は導出されない。また、所定の結合動き情報候補が双予測であった場合でも、所定の結合動き情報候補のL0予測と組み合わされるべきL1予測の動きベクトルと参照画像が第2補充結合動き情報候補にはないため、所定の結合動き情報候補のL0予測を利用した第1補充結合動き情報候補が導出されない。   First, a problem when the second supplemental combined motion information candidate that is a single prediction of L0 prediction is added to the combined motion information candidate list will be described. When the second supplemental combined motion information candidate that is a single prediction of L0 prediction and the predetermined combined motion information candidate in the combined motion information candidate list are combined to derive the first supplemental combined motion information candidate, the predetermined combined motion When the information candidate is a single prediction of L0 prediction, a new second supplementary combined motion information candidate is not derived. In addition, even when the predetermined combined motion information candidate is bi-prediction, the L1 prediction motion vector and the reference image to be combined with the L0 prediction of the predetermined combined motion information candidate are not included in the second supplemental combined motion information candidate. The first supplemental combined motion information candidate using the L0 prediction of the predetermined combined motion information candidate is not derived.

ここでは、全ての第2補充結合動き情報候補を双予測とすることで、結合動き情報候補リストにある所定の結合動き情報候補と組み合わせた場合に、より多くの第1補充結合動き情報候補の導出を可能とし、符号化効率を向上させることができる。   Here, all the second supplemental combined motion information candidates are set to bi-prediction, so that when combined with predetermined combined motion information candidates in the combined motion information candidate list, more first supplemental combined motion information candidates can be obtained. Derivation is possible, and encoding efficiency can be improved.

ここでは、空間候補ブロック群を5個、時間候補ブロック群を2個、マージ候補最大数の上限を5とし、空間結合動き情報候補最大数を4、時間結合動き情報候補最大数を1としたが、これに限定されない。   Here, five spatial candidate block groups, two temporal candidate block groups, the upper limit of the maximum number of merge candidates is 5, the maximum number of spatial combination motion information candidates is 4, and the maximum number of temporal combination motion information candidates is 1. However, it is not limited to this.

ここでは、L0予測とL1予測の動きベクトルを(0,0)としたが、結合動き情報候補リストに登録された結合動き情報候補の動き情報に依存せず、統計的に利用頻度が高い動きベクトルであれば、これに限定されない。例えば、第2補充結合動き情報候補の動きベクトルを符号化済みの画像や符号化済みの画像の一部の発生頻度の高い動きベクトルとし、符号化ストリームに符号化して伝送して設定することもできる。また、L1予測の参照インデックスを0としたが、直近の参照ピクチャが0以外にあれば、0以外の参照インデックスに固定してもよい。   Here, the motion vector of the L0 prediction and the L1 prediction is (0, 0), but it does not depend on the motion information of the combined motion information candidates registered in the combined motion information candidate list, and is a statistically frequently used motion. If it is a vector, it will not be limited to this. For example, the motion vector of the second supplemental combined motion information candidate may be an encoded image or a motion vector with a high occurrence frequency of a part of the encoded image, encoded in an encoded stream, and transmitted and set. it can. Also, although the reference index for L1 prediction is set to 0, if the latest reference picture is other than 0, it may be fixed to a reference index other than 0.

また、一般的には参照ピクチャリストL0の利用可能な参照ピクチャ数の方が参照ピクチャリストL1の利用可能な参照ピクチャ数以上となることが多いため、ここでは、第2補充結合動き情報候補を導出する最大数の算出に参照ピクチャリストL0の利用可能な参照ピクチャ数を用い、L0予測の参照インデックスを変動させてL1予測の参照インデックスを固定しているが、参照ピクチャリストL1の利用可能な参照ピクチャ数の方が参照ピクチャリストL0の利用可能な参照ピクチャ数よりも大きい場合には、第2補充結合動き情報候補を導出する最大数の算出に参照ピクチャリストL1の利用可能な参照ピクチャ数を用い、L1予測の参照インデックスを変動させてL0予測の参照インデックスを固定することもできる。   In general, the number of reference pictures that can be used in the reference picture list L0 is often greater than or equal to the number of reference pictures that can be used in the reference picture list L1. The number of reference pictures that can be used in the reference picture list L0 is used to calculate the maximum number to be derived, and the reference index for L1 prediction is fixed by changing the reference index for L0 prediction, but the reference picture list L1 can be used. When the number of reference pictures is larger than the number of reference pictures that can be used in the reference picture list L0, the number of reference pictures that can be used in the reference picture list L1 for calculating the maximum number for deriving the second supplemental joint motion information candidate The reference index for L0 prediction can be fixed by changing the reference index for L1 prediction.

(予測ベクトルモード決定部120の構成)
続いて、予測ベクトルモード決定部120の詳細な構成について説明する。図24は、予測ベクトルモード決定部120の構成を示す図である。予測ベクトルモード決定部120は、予測ベクトル候補リスト生成部130および予測ベクトル決定部131を含む。端子17は予測符号化モード決定部122に接続されている。
(Configuration of Predictive Vector Mode Determination Unit 120)
Subsequently, a detailed configuration of the prediction vector mode determination unit 120 will be described. FIG. 24 is a diagram illustrating a configuration of the prediction vector mode determination unit 120. The prediction vector mode determination unit 120 includes a prediction vector candidate list generation unit 130 and a prediction vector determination unit 131. The terminal 17 is connected to the predictive coding mode determination unit 122.

予測ベクトル候補リスト生成部130は、実施の形態1に係る動画像符号化装置100により生成された符号列を復号する動画像復号装置200内の動きベクトル再生部211の中にも同様に設置されて、動画像符号化装置100と動画像復号装置200にて同一の予測ベクトル候補リストが生成される。   The prediction vector candidate list generation unit 130 is also installed in the motion vector reproduction unit 211 in the video decoding device 200 that decodes the code sequence generated by the video encoding device 100 according to Embodiment 1. Thus, the same prediction vector candidate list is generated by the moving image encoding device 100 and the moving image decoding device 200.

(予測ベクトルモード決定部120の動作)
以下、予測ベクトルモード決定部120の動作について説明する。図25は、予測ベクトルモード決定部120の動作を示すフローチャートである。
(Operation of prediction vector mode determination unit 120)
Hereinafter, the operation of the prediction vector mode determination unit 120 will be described. FIG. 25 is a flowchart showing the operation of the prediction vector mode determination unit 120.

最初に、L0予測について以下の処理を行う。以下、Xは0とする。予測ベクトル候補リスト生成部130は、端子13より供給されるLX予測の参照インデックスを取得する。端子12より供給される候補ブロック群とLX予測の参照インデックスから予測ベクトル候補最大数の予測ベクトル候補を含むLX予測の予測ベクトル候補リストを生成する(S200)。予測ベクトル候補リスト生成部130は、当該LX予測の予測ベクトル候補リストを予測ベクトル決定部131に供給する。   First, the following processing is performed for L0 prediction. Hereinafter, X is assumed to be 0. The prediction vector candidate list generation unit 130 acquires a reference index for LX prediction supplied from the terminal 13. A prediction vector candidate list for LX prediction including the maximum number of prediction vector candidates is generated from the candidate block group supplied from the terminal 12 and the reference index for LX prediction (S200). The prediction vector candidate list generation unit 130 supplies the prediction vector candidate list of the LX prediction to the prediction vector determination unit 131.

予測ベクトル決定部131は、予測ベクトル候補リスト生成部130より供給されるLX予測の予測ベクトル候補リストから1つの予測ベクトル候補をLX予測の予測ベクトルとして選択し(S201)、当該LX予測の予測ベクトルインデックスを決定する(S202)。   The prediction vector determination unit 131 selects one prediction vector candidate from the prediction vector candidate list of LX prediction supplied from the prediction vector candidate list generation unit 130 as a prediction vector of LX prediction (S201), and the prediction vector of the LX prediction An index is determined (S202).

予測ベクトル決定部131は、端子13より供給されるLX予測の動きベクトルからLX予測の予測ベクトルを減算してLX予測の差分ベクトルを算出し(S203)、当該LX予測の差分ベクトルと当該LX予測の予測ベクトルインデックスを出力する。   The prediction vector determination unit 131 calculates an LX prediction difference vector by subtracting the LX prediction prediction vector from the LX prediction motion vector supplied from the terminal 13 (S203), and the LX prediction difference vector and the LX prediction The prediction vector index of is output.

予測ベクトル決定部131は、端子15より供給される画像信号と、端子14より供給される参照画像を端子13より供給されるLX予測の動きベクトルおよびLX予測の参照インデックスに基づいて動き補償予測したLX予測の予測信号とから予測誤差量を算出し、当該予測誤差量と、LX予測の差分ベクトル、LX予測の参照インデックス、およびLX予測の予測ベクトルインデックスの符号量とからPred_LXのレート歪評価値を算出する。   The prediction vector determination unit 131 motion-predicted the image signal supplied from the terminal 15 and the reference image supplied from the terminal 14 based on the LX prediction motion vector and the LX prediction reference index supplied from the terminal 13. Pred_LX rate distortion evaluation value is calculated from the prediction error amount from the LX prediction prediction signal, and from the prediction error amount, the LX prediction difference vector, the LX prediction reference index, and the LX prediction vector index code amount. Is calculated.

次に、Xを1としてL1予測についてL0予測と同じ処理を行う。   Next, X is set to 1 and the same processing as L0 prediction is performed for L1 prediction.

続いて、予測ベクトル決定部131は、端子15より供給される画像信号と、L0予測の予測信号およびL1予測の予測信号を平均したBI予測の予測信号とから予測誤差量を算出し、当該予測誤差量と、L0予測とL1予測の差分ベクトル、L0予測とL1予測の参照インデックス、およびL0予測とL1予測の予測ベクトルインデックスの符号量とからPred_BIのレート歪評価値を算出する。   Subsequently, the prediction vector determination unit 131 calculates a prediction error amount from the image signal supplied from the terminal 15 and the prediction signal of BI prediction obtained by averaging the prediction signal of L0 prediction and the prediction signal of L1 prediction, and the prediction The rate distortion evaluation value of Pred_BI is calculated from the error amount, the difference vector between the L0 prediction and the L1 prediction, the reference index of the L0 prediction and the L1 prediction, and the code amount of the prediction vector index of the L0 prediction and the L1 prediction.

予測ベクトル決定部131は、Pred_L0のレート歪評価値、Pred_L1のレート歪評価値、およびPred_BIのレート歪評価値を比較して、最小のレート歪評価値である予測符号化モードを1つ選択する。そして、予測符号化モードに基づいた動き情報、差分ベクトル、予測ベクトルインデックス、およびレート歪み評価値を予測符号化モード決定部122に供給する。なお、予測符号化モードがPred_L0であれば、L1予測の動きベクトルは(0,0)、L1予測の参照インデックスは「−1」とし、予測符号化モードがPred_L1であれば、L0予測の動きベクトルは(0,0)、L0予測の参照インデックスは「−1」とする。   The prediction vector determination unit 131 compares the rate distortion evaluation value of Pred_L0, the rate distortion evaluation value of Pred_L1, and the rate distortion evaluation value of Pred_BI, and selects one prediction coding mode that is the minimum rate distortion evaluation value. . Then, motion information, a difference vector, a prediction vector index, and a rate distortion evaluation value based on the prediction coding mode are supplied to the prediction coding mode determination unit 122. If the predictive coding mode is Pred_L0, the L1 prediction motion vector is (0, 0), the L1 prediction reference index is “−1”, and if the predictive coding mode is Pred_L1, the motion of the L0 prediction is The vector is (0, 0), and the L0 prediction reference index is “−1”.

(予測ベクトル候補リスト生成部130の構成)
続いて、予測ベクトル候補リスト生成部130の詳細な構成について説明する。図26は、予測ベクトル候補リスト生成部130の構成を説明するための図である。端子18は予測ベクトル決定部131に接続されている。予測ベクトル候補リスト生成部130は、空間予測ベクトル候補導出部150、空間スケーリング予測ベクトル候補導出部151、時間予測ベクトル候補導出部152、予測ベクトルリスト構築部153、冗長予測ベクトル候補削除部154、及び予測ベクトル候補補充部155を含む。
(Configuration of Predictive Vector Candidate List Generation Unit 130)
Next, a detailed configuration of the prediction vector candidate list generation unit 130 will be described. FIG. 26 is a diagram for explaining the configuration of the prediction vector candidate list generation unit 130. The terminal 18 is connected to the prediction vector determination unit 131. The prediction vector candidate list generation unit 130 includes a spatial prediction vector candidate derivation unit 150, a spatial scaling prediction vector candidate derivation unit 151, a temporal prediction vector candidate derivation unit 152, a prediction vector list construction unit 153, a redundant prediction vector candidate deletion unit 154, and A prediction vector candidate supplementing unit 155 is included.

(予測ベクトル候補リスト生成部130の動作)
以下、各部の機能と動作について説明する。図27は、予測ベクトル候補リスト生成部130の動作を説明するためのフローチャートである。
(Operation of prediction vector candidate list generation unit 130)
Hereinafter, the function and operation of each unit will be described. FIG. 27 is a flowchart for explaining the operation of the prediction vector candidate list generation unit 130.

予測ベクトル候補リスト生成部130は、端子12より供給される空間候補ブロック群に含まれる候補ブロックを第1グループであるブロックEとブロックA、第2グループであるブロックC、ブロックB、及びブロックDの2グループに分け、第1グループ、第2グループの順に以下の処理を繰り返す(S210からS212)。   The prediction vector candidate list generation unit 130 selects candidate blocks included in the spatial candidate block group supplied from the terminal 12 as a block E and a block A that are the first group, a block C, a block B, and a block D that are the second group. The following processing is repeated in the order of the first group and the second group (S210 to S212).

ここで、端子12より供給される候補ブロック群はマージモードの場合と同一の候補ブロック群とする。   Here, the candidate block group supplied from the terminal 12 is the same candidate block group as in the merge mode.

空間予測ベクトル候補導出部150は、第iグループ(iは1または2)の空間候補ブロック群と端子13より供給されるLX予測の参照インデックスからLX予測の空間予測ベクトル候補を0個または1個導出し(S211)、当該LX予測の空間予測ベクトル候補を予測ベクトルリスト構築部153に供給する。空間予測ベクトル候補導出部150の詳細な動作については後述する。また、空間予測ベクトル候補導出部150と空間スケーリング予測ベクトル候補導出部151の関係についても後述する。   The spatial prediction vector candidate derivation unit 150 obtains 0 or 1 spatial prediction vector candidates for LX prediction from the spatial candidate block group of the i-th group (i is 1 or 2) and the LX prediction reference index supplied from the terminal 13. Deriving (S211), the spatial prediction vector candidate of the LX prediction is supplied to the prediction vector list construction unit 153. The detailed operation of the spatial prediction vector candidate derivation unit 150 will be described later. The relationship between the spatial prediction vector candidate derivation unit 150 and the spatial scaling prediction vector candidate derivation unit 151 will also be described later.

第1グループ、第2グループについて処理が終了すると、予測ベクトル候補リスト生成部130は、時間候補利用許可フラグ(enable_temporal_mvp_flag)が1であるか検査する(S213)。   When the processing is completed for the first group and the second group, the prediction vector candidate list generation unit 130 checks whether the time candidate use permission flag (enable_temporal_mvp_flag) is 1 (S213).

時間候補利用許可フラグが1であれば(S213のY)、時間予測ベクトル候補導出部152は、端子12より供給される時間候補ブロック群と端子13より供給されるLX予測の参照インデックスからLX予測の時間予測ベクトル候補を0個または1個導出し(S214)、当該LX予測の時間予測ベクトル候補を予測ベクトルリスト構築部153に供給する。時間予測ベクトル候補導出部152の詳細な動作については後述する。   If the time candidate use permission flag is 1 (Y in S213), the temporal prediction vector candidate derivation unit 152 performs LX prediction from the temporal candidate block group supplied from the terminal 12 and the LX prediction reference index supplied from the terminal 13. 0 or 1 temporal prediction vector candidate is derived (S214), and the temporal prediction vector candidate of the LX prediction is supplied to the prediction vector list construction unit 153. Detailed operation of the temporal prediction vector candidate derivation unit 152 will be described later.

時間候補利用許可フラグが0であれば(S213のN)、S214をスキップする。   If the time candidate use permission flag is 0 (N in S213), S214 is skipped.

次に、予測ベクトルリスト構築部153は0個から2個のLX予測の空間予測ベクトル候補と0個から1個のLX予測の時間予測ベクトル候補とからLX予測の予測ベクトル候補リストを構築し(S215)、当該LX予測の予測ベクトル候補リストを冗長予測ベクトル候補削除部154に供給する。ここで、LX予測の予測ベクトル候補リストには空間予測ベクトル候補、時間予測ベクトル候補の順に最大で3個まで登録される。   Next, the prediction vector list construction unit 153 constructs a prediction vector candidate list for LX prediction from 0 to 2 spatial prediction vector candidates for LX prediction and 0 to 1 temporal prediction vector candidates for LX prediction ( In step S215, the prediction vector candidate list of the LX prediction is supplied to the redundant prediction vector candidate deletion unit 154. Here, a maximum of three spatial vector predictor candidates and temporal predictor vector candidates are registered in the LX prediction vector candidate list in this order.

次に、冗長予測ベクトル候補削除部154は、LX予測の予測ベクトル候補リストに登録されている予測ベクトル候補を検査し、同一のベクトルを有する予測ベクトル候補が複数存在する場合には1つの予測ベクトル候補を残してその他の予測ベクトル候補を削除する。次に、LX予測の予測ベクトル候補リストに登録されている予測ベクトル候補数が予測ベクトル候補最大数を超えている場合には、LX予測の予測ベクトル候補リストに登録されている予測ベクトル候補数が予測ベクトル候補最大数以下となるようにLX予測の予測ベクトル候補リストの後方の予測ベクトル候補を削除し(S216)、当該LX予測の予測ベクトル候補リストを予測ベクトル候補補充部155に供給する。したがって、冗長予測ベクトル候補削除部154より出力されるLX予測の予測ベクトル候補リストに登録されている予測ベクトル候補は全てが異なる予測ベクトル候補となる。また、LX予測の空間予測ベクトル候補が2個残った場合はLX予測の時間予測ベクトル候補は必然的に予測ベクトル候補リストに登録されないことになる。   Next, the redundant prediction vector candidate deletion unit 154 checks the prediction vector candidates registered in the prediction vector candidate list of the LX prediction, and when there are a plurality of prediction vector candidates having the same vector, one prediction vector Other prediction vector candidates are deleted while leaving candidates. Next, when the number of prediction vector candidates registered in the prediction vector candidate list for LX prediction exceeds the maximum number of prediction vector candidates, the number of prediction vector candidates registered in the prediction vector candidate list for LX prediction is The prediction vector candidates behind the prediction vector candidate list of the LX prediction are deleted so that the number of prediction vector candidates is equal to or less than the maximum number (S216), and the prediction vector candidate list of the LX prediction is supplied to the prediction vector candidate supplementing unit 155. Therefore, all the prediction vector candidates registered in the prediction vector candidate list of LX prediction output from the redundant prediction vector candidate deletion unit 154 are different prediction vector candidates. In addition, when two spatial prediction vector candidates for LX prediction remain, the temporal prediction vector candidates for LX prediction are inevitably not registered in the prediction vector candidate list.

次に、予測ベクトル候補補充部155は、予測ベクトル補充候補を生成し、LX予測の予測ベクトル候補リストに登録された予測ベクトル候補数が予測ベクトル候補最大数になるように当該予測ベクトル補充候補をLX予測の予測ベクトル候補リストに追加し(S217)、端子18に供給する。   Next, the prediction vector candidate supplementing unit 155 generates a prediction vector supplementing candidate, and adds the prediction vector supplementing candidate so that the number of prediction vector candidates registered in the prediction vector candidate list for LX prediction becomes the maximum number of prediction vector candidates. It adds to the prediction vector candidate list | wrist of LX prediction (S217), and supplies it to the terminal 18.

ここでは、予測ベクトル補充候補は動きベクトル(0,0)とする。ここでは、予測ベクトル補充候補を動きベクトル(0,0)としたが、(1,1)などの所定値でもよく、符号化ストリーム中で伝送してもよく、空間予測ベクトル候補の水平成分や垂直成分を+1や−1などした動きベクトルでもよい。   Here, the prediction vector supplement candidate is a motion vector (0, 0). Here, although the motion vector (0, 0) is used as the prediction vector supplement candidate, it may be a predetermined value such as (1, 1), may be transmitted in the encoded stream, or the horizontal component of the spatial prediction vector candidate or A motion vector in which the vertical component is +1 or -1 may be used.

(空間予測ベクトル候補導出部150の詳細な動作)
引き続いて、空間予測ベクトル候補導出部150の詳細な動作について説明する。図28は空間予測ベクトル候補導出部150の動作を説明するフローチャートである。LX予測の空間予測ベクトル候補の導出について説明する。
(Detailed operation of spatial prediction vector candidate derivation unit 150)
Subsequently, a detailed operation of the spatial prediction vector candidate derivation unit 150 will be described. FIG. 28 is a flowchart for explaining the operation of the spatial prediction vector candidate derivation unit 150. Derivation of spatial prediction vector candidates for LX prediction will be described.

第iグループ(iは1または2)の候補ブロックについて以下の処理を繰り返し行う(S220からS226)。第1グループはブロックE、ブロックAの順に、第2グループはブロックC、ブロックB、ブロックDの順に検査される。   The following process is repeated for the i-th group (i is 1 or 2) candidate block (S220 to S226). The first group is examined in the order of block E and block A, and the second group is examined in the order of block C, block B and block D.

各候補ブロックについて、L0予測、L1予測の順に以下の処理を繰り返し行う(S221からS225)。以降、ここでのL0予測、L1予測をLN予測として説明する。
候補ブロックのLN予測は有効であるか検査する(S222)。候補ブロックのLN予測が有効であるとは候補ブロックのLN予測の参照インデックスが0以上であることである。
For each candidate block, the following processing is repeated in the order of L0 prediction and L1 prediction (S221 to S225). Hereinafter, L0 prediction and L1 prediction here will be described as LN prediction.
It is checked whether the LN prediction of the candidate block is valid (S222). The LN prediction of the candidate block is effective when the reference index of the LN prediction of the candidate block is 0 or more.

候補ブロックのLN予測が有効であれば(S222のY)、候補ブロックのLN予測の参照インデックスが示す参照画像がLX予測の参照インデックスが示す参照画像と同一であるか検査する(S223)。   If the LN prediction of the candidate block is valid (Y in S222), it is checked whether the reference image indicated by the reference index of the LN prediction of the candidate block is the same as the reference image indicated by the reference index of the LX prediction (S223).

参照画像が同一であれば(S223のY)、候補ブロックのLN予測の動きベクトルをLX予測の空間予測ベクトル候補とし(S224)、処理を終了する。   If the reference images are the same (Y in S223), the motion vector for LN prediction of the candidate block is set as a spatial prediction vector candidate for LX prediction (S224), and the process ends.

候補ブロックのLN予測が有効でないか(S222のN)、参照画像が同一でなければ(S223のN)、LN予測がL0予測であればL1予測を検査し、LN予測がL1予測であれば次の候補ブロックを検査する(S225)。   If the LN prediction of the candidate block is not valid (N in S222) or the reference images are not identical (N in S223), if the LN prediction is the L0 prediction, the L1 prediction is checked, and if the LN prediction is the L1 prediction, The next candidate block is inspected (S225).

全ての候補ブロックの検査が終了すれば(S226)、時間候補利用許可フラグ(enable_temporal_mvp_flag)が0であるか検査する(227)。   If the inspection of all candidate blocks is completed (S226), it is checked whether the time candidate use permission flag (enable_temporal_mvp_flag) is 0 (227).

時間候補利用許可フラグが0であれば(S227のY)、空間スケーリング予測ベクトル候補導出部151は、LX予測の空間予測ベクトル候補を0個または1個導出し(S228)、処理を終了する。空間スケーリング予測ベクトル候補導出部151の詳細な動作については後述する。   If the temporal candidate use permission flag is 0 (Y in S227), the spatial scaling prediction vector candidate derivation unit 151 derives 0 or 1 spatial prediction vector candidates for LX prediction (S228), and ends the process. The detailed operation of the spatial scaling prediction vector candidate derivation unit 151 will be described later.

時間候補利用許可フラグが1であれば(S227のN)、S228をスキップして処理を終了する。   If the time candidate use permission flag is 1 (N in S227), S228 is skipped and the process is terminated.

以上のように、各グループから0個または1個の空間予測ベクトル候補が導出され、LX予測として0個から2個の空間予測ベクトル候補が導出される。   As described above, 0 or 1 spatial prediction vector candidates are derived from each group, and 0 to 2 spatial prediction vector candidates are derived as LX prediction.

(空間スケーリング予測ベクトル候補導出部151の詳細な動作)
引き続いて、空間スケーリング予測ベクトル候補導出部151の詳細な動作について説明する。図29は空間スケーリング予測ベクトル候補導出部151の動作を説明するフローチャートである。LX予測の空間予測ベクトル候補の導出について説明する。
(Detailed Operation of Spatial Scaling Prediction Vector Candidate Deriving Unit 151)
Subsequently, a detailed operation of the spatial scaling prediction vector candidate derivation unit 151 will be described. FIG. 29 is a flowchart for explaining the operation of the spatial scaling prediction vector candidate derivation unit 151. Derivation of spatial prediction vector candidates for LX prediction will be described.

第iグループ(iは1または2)の候補ブロックについて以下の処理を繰り返し行う(S230からS236)。第1グループはブロックE、ブロックAの順に、第2グループはブロックC、ブロックB、ブロックDの順に検査される。   The following processing is repeated for the i-th group (i is 1 or 2) candidate block (S230 to S236). The first group is examined in the order of block E and block A, and the second group is examined in the order of block C, block B and block D.

各候補ブロックについて、L0予測、L1予測の順に以下の処理を繰り返し行う(S231からS235)。以降、ここでのL0予測、L1予測をLN予測として説明する。   For each candidate block, the following processing is repeated in the order of L0 prediction and L1 prediction (S231 to S235). Hereinafter, L0 prediction and L1 prediction here will be described as LN prediction.

次に、候補ブロックのLN予測は有効であるか検査する(S232)。候補ブロックのLN予測が有効であるとは候補ブロックのLN予測の参照インデックスが0以上であることである。   Next, it is checked whether the LN prediction of the candidate block is valid (S232). The LN prediction of the candidate block is effective when the reference index of the LN prediction of the candidate block is 0 or more.

候補ブロックのLN予測が有効であれば(S232のY)、候補ブロックのLN予測の参照インデックスが示す参照画像がLX予測の参照インデックスが示す参照画像と同一でないか検査する(S233)。   If the LN prediction of the candidate block is valid (Y in S232), it is checked whether the reference image indicated by the reference index of the LN prediction of the candidate block is the same as the reference image indicated by the reference index of the LX prediction (S233).

参照画像が同一でなければ(S233のY)、候補ブロックのLN予測の動きベクトルをLX予測の基準ベクトルとして空間予測ベクトル候補を導出し(S234)、処理を終了する。空間スケーリング予測ベクトル候補導出部151の空間予測ベクトル候補の詳細な導出方法については後述する。   If the reference images are not identical (Y in S233), a spatial prediction vector candidate is derived using the LN prediction motion vector of the candidate block as a reference vector for LX prediction (S234), and the process ends. A detailed method for deriving the spatial prediction vector candidate by the spatial scaling prediction vector candidate deriving unit 151 will be described later.

候補ブロックのLN予測が有効でないか(S232のN)、参照画像が同一であれば(S233のN)、LN予測がL0予測であればL1予測を検査し、LN予測がL1予測であれば次の候補ブロックを検査する(S235)。   If the LN prediction of the candidate block is not valid (N in S232) or the reference images are the same (N in S233), if the LN prediction is the L0 prediction, the L1 prediction is checked, and if the LN prediction is the L1 prediction, The next candidate block is inspected (S235).

全ての候補ブロックの検査が終了すれば(S236)、処理を終了する。   If the inspection of all candidate blocks is completed (S236), the process is terminated.

続いて、空間スケーリング予測ベクトル候補導出部151の空間予測ベクトル候補の詳細な導出方法について説明する。LX予測の基準ベクトルが参照する参照画像NeiRefLXPicと処理対象画像CurPicの画像間距離をtd、LX予測の参照インデックスが示す参照画像RefLXPicと処理対象画像CurPicの画像間距離をtb、LX予測の基準動きベクトルをmvLXとして、空間予測ベクトル候補mvScLXは上述した式1または式2から式4により算出する。   Next, a detailed method for deriving a spatial prediction vector candidate by the spatial scaling prediction vector candidate deriving unit 151 will be described. The distance between the images of the reference image NeiRefLXPic and the processing target image CurPic referred to by the LX prediction reference vector is td, the distance between the reference image RefLXPic and the processing target image CurPic indicated by the reference index of the LX prediction is tb, and the reference motion of the LX prediction Assuming that the vector is mvLX, the spatial prediction vector candidate mvScLX is calculated by the above-described Expression 1 or Expression 2 to Expression 4.

(時間予測ベクトル候補導出部152の詳細な動作)
引き続いて、時間予測ベクトル候補導出部152の詳細な動作について説明する。図30は時間予測ベクトル候補導出部152の動作を説明するフローチャートである。LX予測の時間予測ベクトル候補の導出について説明する。
(Detailed operation of temporal prediction vector candidate derivation unit 152)
Subsequently, a detailed operation of the temporal prediction vector candidate derivation unit 152 will be described. FIG. 30 is a flowchart for explaining the operation of the temporal prediction vector candidate derivation unit 152. Derivation of temporal prediction vector candidates for LX prediction will be described.

時間候補ブロックについて以下の処理を繰り返し行う(S240からS243)。時間候補ブロックはブロックH、ブロックIの順に検査される。   The following processing is repeated for the time candidate block (S240 to S243). Time candidate blocks are examined in the order of block H and block I.

最初に、候補ブロックのLN予測は有効であるか検査する(S241)。ここでは、LN予測はLX予測と同一であるとするが、LN予測はLX予測と同一でなくともよい。候補ブロックのLN予測が有効であるとは候補ブロックのLN予測の参照インデックスが0以上であることである。   First, it is checked whether the LN prediction of the candidate block is valid (S241). Here, the LN prediction is the same as the LX prediction, but the LN prediction may not be the same as the LX prediction. The LN prediction of the candidate block is effective when the reference index of the LN prediction of the candidate block is 0 or more.

候補ブロックのLN予測が有効であれば(S241のY)、候補ブロックのLN予測の動きベクトルをLX予測の基準ベクトルとして時間予測ベクトル候補を導出し(S242)、処理を終了する。時間予測ベクトル候補の詳細な導出方法については後述する。   If the LN prediction of the candidate block is valid (Y in S241), a temporal prediction vector candidate is derived using the LN prediction motion vector of the candidate block as a reference vector for LX prediction (S242), and the process ends. A detailed method for deriving temporal prediction vector candidates will be described later.

候補ブロックのLN予測が有効でなければ(S241のN)、次の候補ブロックを検査する(S243)。   If the LN prediction of the candidate block is not valid (N in S241), the next candidate block is inspected (S243).

全ての候補ブロックの検査が終了すれば(S243)、処理を終了する。   If the inspection of all candidate blocks is completed (S243), the process is terminated.

続いて、時間予測ベクトル候補の詳細な導出方法について説明する。時間候補ブロックのあるColPicと時間候補ブロックがLN予測の動き補償予測で参照するピクチャであるColRefLXPicの画像間距離をtd、LX予測の参照インデックスが示す参照画像RefLXPicと処理対象画像CurPicの画像間距離をtb、LX予測の基準動きベクトルをmvLXとして、時間予測ベクトル候補mvLXColは上述した式1または式2から式4により算出する。   Next, a detailed method for deriving temporal prediction vector candidates will be described. The inter-image distance between ColPic having a temporal candidate block and ColRefLXPic, which is a picture that the temporal candidate block refers to in motion compensated prediction of LN prediction, is td, and the inter-image distance between the reference image RefLXPic and the processing target image CurPic indicated by the reference index of LX prediction Tb, and the reference motion vector for LX prediction is mvLX, and the temporal prediction vector candidate mvLXCol is calculated by Equation 1 or Equation 2 to Equation 4 described above.

(動画像復号装置200の構成)
次に、実施の形態1の動画像復号装置を説明する。図31は、実施の形態1に係る動画像復号装置200の構成を示す図である。動画像復号装置200は、動画像符号化装置100により符号化された符号列を復号して再生画像を生成する装置である。 スライスタイプの決定、スライスで利用できる参照インデックスの最大値、符号化ブロックの分割、スキップモードの決定、予測ブロックサイズタイプの決定、予測ブロックサイズと予測ブロックの符号化ブロック内の位置(予測ブロックの位置情報)の決定、予測符号化モードがイントラであるかの決定は動画像復号装置200の外部の復号制御部208で決定されて動画像復号装置200に供給される。参照ピクチャリストは動画像復号装置200の外部の参照ピクチャリスト生成部209で生成されて動画像復号装置200に供給される。実施の形態1では予測符号化モードがイントラでない場合について説明する。また、実施の形態1では特に断らない限り、双予測に対応したBピクチャ(Bスライス)について説明するが、双予測に対応しないPピクチャ(Pスライス)についてはL1予測を省略すればよい。
(Configuration of moving picture decoding apparatus 200)
Next, the moving picture decoding apparatus according to the first embodiment will be described. FIG. 31 is a diagram showing a configuration of the video decoding device 200 according to Embodiment 1. The video decoding device 200 is a device that generates a playback image by decoding the code string encoded by the video encoding device 100. Slice type determination, maximum reference index that can be used in a slice, coding block division, skip mode determination, prediction block size type determination, prediction block size and position of prediction block in encoding block (prediction block Position information) and whether the predictive coding mode is intra are determined by the decoding control unit 208 outside the moving image decoding apparatus 200 and supplied to the moving image decoding apparatus 200. The reference picture list is generated by a reference picture list generation unit 209 outside the video decoding device 200 and supplied to the video decoding device 200. In the first embodiment, a case where the predictive coding mode is not intra will be described. In Embodiment 1, a B picture (B slice) corresponding to bi-prediction will be described unless otherwise specified, but L1 prediction may be omitted for a P picture (P slice) not corresponding to bi-prediction.

動画像復号装置200は、CPU(Central Processing Unit)、フレームメモリ、ハードディスクなどを備える情報処理装置などのハードウェアにより実現される。動画像復号装置200は、上記の構成要素が動作することにより、以下に説明する機能的な構成要素を実現する。なお、スライスタイプ、参照ピクチャリスト、スライスで利用できる参照インデックスの最大値、復号対象の予測ブロックの位置情報、予測ブロックサイズに関しては動画像復号装置200内で共有していることとし、図示しない。   The moving picture decoding apparatus 200 is realized by hardware such as an information processing apparatus including a CPU (Central Processing Unit), a frame memory, and a hard disk. The moving picture decoding apparatus 200 realizes functional components described below by operating the above components. Note that the slice type, the reference picture list, the maximum value of the reference index that can be used in the slice, the position information of the prediction block to be decoded, and the prediction block size are assumed to be shared in the moving picture decoding apparatus 200 and are not illustrated.

実施の形態1の動画像復号装置200は、符号列解析部201、予測誤差復号部202、加算部203、動き情報再生部204、動き補償部205、フレームメモリ206および動き情報メモリ207を備える。   The moving picture decoding apparatus 200 according to Embodiment 1 includes a code string analysis unit 201, a prediction error decoding unit 202, an addition unit 203, a motion information reproduction unit 204, a motion compensation unit 205, a frame memory 206, and a motion information memory 207.

(動画像復号装置200の動作)
以下、各部の機能と動作について説明する。符号列解析部201は、端子30より供給された符号列を解析して予測誤差符号化データ、マージフラグ、マージインデックス、動き補償予測の予測方向(インター予測タイプ)、参照インデックス、差分ベクトル、および予測ベクトルインデックスをシンタックスに従ってエントロピー復号する。エントロピー復号は算術符号化やハフマン符号化などの可変長符号化を含む方法によって実施される。そして、当該予測誤差符号化データを予測誤差復号部202に、当該マージフラグ、当該マージインデックス、当該インター予測タイプ、当該参照インデックス、当該差分ベクトル、および当該予測ベクトルインデックスを動き情報再生部204に供給する。
(Operation of the video decoding device 200)
Hereinafter, the function and operation of each unit will be described. The code string analysis unit 201 analyzes the code string supplied from the terminal 30 to generate prediction error encoded data, a merge flag, a merge index, a motion compensation prediction direction (inter prediction type), a reference index, a difference vector, and Entropy decodes the prediction vector index according to the syntax. Entropy decoding is performed by a method including variable length coding such as arithmetic coding or Huffman coding. Then, the prediction error encoded data is supplied to the prediction error decoding unit 202, and the merge flag, the merge index, the inter prediction type, the reference index, the difference vector, and the prediction vector index are supplied to the motion information reproduction unit 204. To do.

また、符号列解析部201は、動画像復号装置200で利用される符号化ブロックの分割情報、予測ブロックサイズタイプ、予測ブロックの符号化ブロック内の位置、及び予測符号化モードを、符号化ストリームの特性を決定するためのパラメータ群を定義したSPS(Sequence Parameter Set)、ピクチャの特性を決定するためのパラメータ群を定義したPPS(Picture Parameter Set)、やスライスの特性を決定するためのパラメータ群を定義したスライスヘッダなどと共に符号化ストリームから復号する。   In addition, the code string analysis unit 201 displays the encoding block division information, the prediction block size type, the position of the prediction block in the encoded block, and the prediction encoding mode used in the video decoding device 200 as an encoded stream. An SPS (Sequence Parameter Set) that defines a parameter group for determining the characteristics of the image, a PPS (Picture Parameter Set) that defines a parameter group for determining the characteristics of the picture, and a parameter group for determining the characteristics of the slice Are decoded from the encoded stream together with the slice header defined in FIG.

動き情報再生部204は、符号列解析部201より供給されるマージフラグ、マージインデックス、インター予測タイプ、参照インデックス、差分ベクトル、および予測ベクトルインデックスと、動き情報メモリ207より供給される候補ブロック群から、動き情報を再生し、当該動き情報を動き補償部205および動き情報メモリ207に供給する。動き情報再生部204の詳細な構成については後述する。   The motion information reproduction unit 204 includes a merge flag, a merge index, an inter prediction type, a reference index, a difference vector, and a prediction vector index supplied from the code string analysis unit 201 and a candidate block group supplied from the motion information memory 207. The motion information is reproduced, and the motion information is supplied to the motion compensation unit 205 and the motion information memory 207. A detailed configuration of the motion information reproducing unit 204 will be described later.

動き補償部205は、動き情報再生部204より供給される動き情報に基づいて、フレームメモリ206内の参照インデックスが示す参照画像を、動きベクトルに基づき動き補償して予測信号を生成する。予測方向が双予測であれば、L0予測とL1予測の予測信号を平均したものを予測信号として生成し、当該予測信号を加算部203に供給する。   Based on the motion information supplied from the motion information reproducing unit 204, the motion compensation unit 205 performs motion compensation on the reference image indicated by the reference index in the frame memory 206 based on the motion vector to generate a prediction signal. If the prediction direction is bi-prediction, an average of the prediction signals of the L0 prediction and the L1 prediction is generated as a prediction signal, and the prediction signal is supplied to the adding unit 203.

予測誤差復号部202は、符号列解析部201より供給される予測誤差符号化データに対して、逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し、当該予測誤差信号を加算部203に供給する。   The prediction error decoding unit 202 performs a process such as inverse quantization or inverse orthogonal transform on the prediction error encoded data supplied from the code string analysis unit 201 to generate a prediction error signal, and the prediction error signal is It supplies to the addition part 203.

加算部203は、予測誤差復号部202より供給される予測誤差信号と、動き補償部205より供給される予測信号とを加算して復号画像信号を生成し、当該復号画像信号をフレームメモリ206および端子31に供給する。   The adding unit 203 adds the prediction error signal supplied from the prediction error decoding unit 202 and the prediction signal supplied from the motion compensation unit 205 to generate a decoded image signal, and the decoded image signal is stored in the frame memory 206 and Supply to terminal 31.

フレームメモリ206および動き情報メモリ207は、動画像符号化装置100のフレームメモリ110および動き情報メモリ111と同一の機能を有する。フレームメモリ206は、加算部203より供給される復号画像信号を記憶する。動き情報メモリ207は、動き情報再生部204より供給される動き情報を最小の予測ブロックサイズ単位で記憶する。
参照ピクチャリスト生成部209は、復号制御部208から供給されるスライスタイプに応じて、参照ピクチャリストを生成する。スライスタイプがPスライスまたはBスライスであれば参照ピクチャリストL0を生成し、スライスタイプがBスライスであれば参照ピクチャリストL1を生成する。参照ピクチャリストL0と参照ピクチャリストL1の具体的な生成方法は動画像符号化装置100の参照ピクチャリスト生成部113と同一である。
The frame memory 206 and the motion information memory 207 have the same functions as the frame memory 110 and the motion information memory 111 of the video encoding device 100. The frame memory 206 stores the decoded image signal supplied from the adding unit 203. The motion information memory 207 stores the motion information supplied from the motion information reproducing unit 204 in units of the minimum predicted block size.
The reference picture list generation unit 209 generates a reference picture list according to the slice type supplied from the decoding control unit 208. If the slice type is P slice or B slice, the reference picture list L0 is generated, and if the slice type is B slice, the reference picture list L1 is generated. A specific method for generating the reference picture list L0 and the reference picture list L1 is the same as that of the reference picture list generation unit 113 of the moving picture coding apparatus 100.

(動き情報再生部204の詳細な構成)
続いて、動き情報再生部204の詳細な構成について説明する。図32は、動き情報再生部204の構成を示す。動き情報再生部204は、符号化モード判定部210、動きベクトル再生部211および結合動き情報再生部212を含む。端子32は符号列解析部201に、端子33は動き情報メモリ207に、端子34は動き補償部205に、端子36は動き情報メモリ207にそれぞれ接続されている。
(Detailed configuration of the motion information playback unit 204)
Next, a detailed configuration of the motion information reproducing unit 204 will be described. FIG. 32 shows the configuration of the motion information playback unit 204. The motion information playback unit 204 includes an encoding mode determination unit 210, a motion vector playback unit 211, and a combined motion information playback unit 212. The terminal 32 is connected to the code string analysis unit 201, the terminal 33 is connected to the motion information memory 207, the terminal 34 is connected to the motion compensation unit 205, and the terminal 36 is connected to the motion information memory 207.

(動き情報再生部204の詳細な動作)
以下、各部の機能と動作について説明する。符号化モード判定部210は、符号列解析部201より供給されるマージフラグが「0」であるか「1」であるか判定する。マージフラグが「0」であれば、符号列解析部201より供給されるインター予測タイプ、参照インデックス、差分ベクトル、および予測ベクトルインデックスを動きベクトル再生部211に供給する。マージフラグが「1」であれば、符号列解析部201より供給されるマージインデックスを結合動き情報再生部212に供給する。また、スキップモードである場合も符号列解析部201より供給されるマージインデックスを結合動き情報再生部212に供給する。
(Detailed operation of the motion information playback unit 204)
Hereinafter, the function and operation of each unit will be described. The encoding mode determination unit 210 determines whether the merge flag supplied from the code string analysis unit 201 is “0” or “1”. If the merge flag is “0”, the inter prediction type, reference index, difference vector, and prediction vector index supplied from the code string analysis unit 201 are supplied to the motion vector reproduction unit 211. If the merge flag is “1”, the merge index supplied from the code string analysis unit 201 is supplied to the combined motion information reproduction unit 212. Also in the skip mode, the merge index supplied from the code string analysis unit 201 is supplied to the combined motion information reproduction unit 212.

動きベクトル再生部211は、符号化モード判定部210より供給されるインター予測タイプ、参照インデックス、差分ベクトル、および予測ベクトルインデックスと、端子33より供給される候補ブロック群から、動きベクトルを再生して動き情報を生成し、端子34及び端子36に供給する。   The motion vector reproduction unit 211 reproduces a motion vector from the inter prediction type, the reference index, the difference vector, and the prediction vector index supplied from the encoding mode determination unit 210 and the candidate block group supplied from the terminal 33. Motion information is generated and supplied to the terminals 34 and 36.

結合動き情報再生部212は、端子33より供給される候補ブロック群から結合動き情報候補リストを生成し、当該結合動き情報候補リストから符号化モード判定部210より供給されるマージインデックスによって示される結合動き情報候補の動き情報を選択して端子34及び端子36に供給する。   The combined motion information reproduction unit 212 generates a combined motion information candidate list from the candidate block group supplied from the terminal 33, and combines the index indicated by the merge index supplied from the encoding mode determination unit 210 from the combined motion information candidate list. The motion information candidate motion information is selected and supplied to the terminals 34 and 36.

(結合動き情報再生部212の詳細な構成)
続いて、結合動き情報再生部212の詳細な構成について説明する。図33は、結合動き情報再生部212の構成を示す。結合動き情報再生部212は、結合動き情報候補リスト生成部230および結合動き情報選択部231を含む。端子35は符号化モード判定部210に接続されている。
(Detailed Configuration of Combined Motion Information Reproducing Unit 212)
Next, a detailed configuration of the combined motion information reproduction unit 212 will be described. FIG. 33 shows the configuration of the combined motion information playback unit 212. The combined motion information reproduction unit 212 includes a combined motion information candidate list generation unit 230 and a combined motion information selection unit 231. The terminal 35 is connected to the encoding mode determination unit 210.

(結合動き情報再生部212の詳細な動作)
以下、各部の機能と動作について説明する。図34は結合動き情報再生部212の動作を説明する図である。結合動き情報候補リスト生成部230は、端子33より供給される候補ブロック群から結合動き情報候補リストを生成し(S310)、当該結合動き情報候補リストを結合動き情報選択部231に供給する。
(Detailed operation of the combined motion information reproduction unit 212)
Hereinafter, the function and operation of each unit will be described. FIG. 34 is a diagram for explaining the operation of the combined motion information reproducing unit 212. The combined motion information candidate list generation unit 230 generates a combined motion information candidate list from the candidate block group supplied from the terminal 33 (S310), and supplies the combined motion information candidate list to the combined motion information selection unit 231.

結合動き情報選択部231は、端子35より供給されるマージインデックスを取得し(S311)、結合動き情報候補リスト生成部230より供給される結合動き情報候補リストの中から、マージインデックスで示される結合動き情報候補を選択して結合動き情報を決定し(S312)、当該結合動き情報の動き情報を端子34及び端子36に供給する。   The combined motion information selection unit 231 acquires the merge index supplied from the terminal 35 (S311), and the combined motion information candidate list supplied from the combined motion information candidate list generation unit 230 is combined by the merge index. The motion information candidate is selected to determine the combined motion information (S312), and the motion information of the combined motion information is supplied to the terminal 34 and the terminal 36.

(動きベクトル再生部211の詳細な構成)
続いて、動きベクトル再生部211の詳細な構成について説明する。図35は、動きベクトル再生部211の構成を説明する図である。動きベクトル再生部211は、予測ベクトル候補リスト生成部220、予測ベクトル選択部221および加算部222を含む。端子35は符号化モード判定部210に接続されている。
(Detailed Configuration of Motion Vector Reproducing Unit 211)
Next, a detailed configuration of the motion vector reproduction unit 211 will be described. FIG. 35 is a diagram for explaining the configuration of the motion vector reproduction unit 211. The motion vector reproduction unit 211 includes a prediction vector candidate list generation unit 220, a prediction vector selection unit 221, and an addition unit 222. The terminal 35 is connected to the encoding mode determination unit 210.

(動きベクトル再生部211の詳細な動作)
以下、各部の機能と動作について説明する。図36は動きベクトル再生部211の動作を説明する図である。動きベクトル再生部211は、端子35より供給されるインター予測タイプがL0予測であれば、L0予測について動きベクトルの算出を行い、インター予測タイプがL1予測であれば、L1予測について動きベクトルの算出を行い、インター予測タイプがBI予測であれば、L0予測とL1予測について動きベクトルの算出を行う。各LX予測の動きベクトルの算出は以下のように行われる。
(Detailed operation of the motion vector reproduction unit 211)
Hereinafter, the function and operation of each unit will be described. FIG. 36 is a diagram for explaining the operation of the motion vector reproduction unit 211. The motion vector reproduction unit 211 calculates a motion vector for L0 prediction if the inter prediction type supplied from the terminal 35 is L0 prediction, and calculates a motion vector for L1 prediction if the inter prediction type is L1 prediction. If the inter prediction type is BI prediction, motion vectors are calculated for L0 prediction and L1 prediction. The motion vector for each LX prediction is calculated as follows.

予測ベクトル候補リスト生成部220は、端子35より供給されるLX予測の参照インデックス及び端子33より供給される候補ブロック群からLX予測の予測ベクトル候補リストを生成し(S320)、当該LX予測の予測ベクトルリストを予測ベクトル選択部221に供給する。   The prediction vector candidate list generation unit 220 generates a prediction vector candidate list for LX prediction from the LX prediction reference index supplied from the terminal 35 and the candidate block group supplied from the terminal 33 (S320), and predicts the LX prediction. The vector list is supplied to the prediction vector selection unit 221.

予測ベクトル選択部221は、端子35より供給されるLX予測の予測ベクトルインデックスを取得し(S321)、予測ベクトル候補リスト生成部220より供給されるLX予測の予測ベクトルリストからLX予測の予測ベクトルインデックスによって示される予測ベクトル候補を選択してLX予測の予測ベクトルとして決定し(S322)、当該LX予測の予測ベクトルと端子35より供給されるLX予測の差分ベクトルを加算してLX予測の動きベクトルを算出する(S323)。   The prediction vector selection unit 221 acquires the prediction vector index of LX prediction supplied from the terminal 35 (S321), and uses the prediction vector list of LX prediction from the prediction vector list of LX prediction supplied from the prediction vector candidate list generation unit 220. Is selected as a prediction vector for LX prediction (S322), and the LX prediction motion vector is added to the LX prediction difference vector supplied from the terminal 35 by adding the LX prediction prediction vector. Calculate (S323).

当該LX予測の動きベクトルとインター予測タイプとが組み合わされて動き情報が生成され、端子34及び端子36に供給される。   Motion information is generated by combining the motion vector of the LX prediction and the inter prediction type, and is supplied to the terminal 34 and the terminal 36.

以上のように、動画像復号装置200は、動画像符号化装置100により符号化された符号列を復号して再生画像を生成することができる。   As described above, the moving picture decoding apparatus 200 can generate a reproduction image by decoding the code string encoded by the moving picture encoding apparatus 100.

[実施の形態2]
以下、実施の形態2について説明する。実施の形態1とは第2結合動き情報候補補充部165の動作が異なる。以下、実施の形態1とは異なる点について説明する。図37は実施の形態2の第2結合動き情報候補補充部165の動作を説明するフローチャートである。実施の形態1の第2結合動き情報候補補充部165とはステップS184の代わりにステップS187からステップS189が追加されていることが異なる。以下、ステップS187からステップS189について説明する。ここでは、参照ピクチャリストL0の利用可能な参照ピクチャ数が参照ピクチャリストL1の利用可能な参照ピクチャ数以上であるとして説明する。
[Embodiment 2]
The second embodiment will be described below. The operation of the second combined motion information candidate supplementing unit 165 is different from that of the first embodiment. Hereinafter, differences from the first embodiment will be described. FIG. 37 is a flowchart for explaining the operation of the second combined motion information candidate supplementing unit 165 according to the second embodiment. The difference from the second combined motion information candidate supplementing unit 165 of the first embodiment is that steps S187 to S189 are added instead of step S184. Hereinafter, step S187 to step S189 will be described. Here, description will be made assuming that the number of reference pictures that can be used in the reference picture list L0 is equal to or greater than the number of reference pictures that can be used in the reference picture list L1.

iがL1予測の参照インデックスの最大値(num_ref_idx_l1_active_minus1)以下であるか検査する(S187)。iがL1予測の参照インデックスの最大値(num_ref_idx_l1_active_minus1)以下であれば(S187のY)、L1予測の動きベクトル(mvL1)が(0,0)、L1予測の参照インデックス(ref_idx_l1)がi、インター予測タイプがPred_BIである第2補充結合動き情報候補を導出し(S188)、当該第2補充結合動き情報候補を結合動き情報候補リストに追加する(S185)。iがL1予測の参照インデックスの最大値(num_ref_idx_l1_active_minus1)以下でなければ(S187のN)、L1予測の動きベクトル(mvL1)が(0,0)、L1予測の参照インデックス(ref_idx_l1)が0、インター予測タイプがPred_BIである第2補充結合動き情報候補を導出し(S189)、当該第2補充結合動き情報候補を結合動き情報候補リストに追加する(S185)。   Whether i is equal to or smaller than the maximum value (num_ref_idx_l1_active_minus1) of the reference index of L1 prediction is checked (S187). If i is equal to or less than the maximum value (num_ref_idx_l1_active_minus1) of the reference index for L1 prediction (Y in S187), the L1 prediction motion vector (mvL1) is (0, 0), the L1 prediction reference index (ref_idx_l1) is i, inter A second supplementary combined motion information candidate whose prediction type is Pred_BI is derived (S188), and the second supplemental combined motion information candidate is added to the combined motion information candidate list (S185). If i is not less than or equal to the maximum value (num_ref_idx_l1_active_minus1) of the reference index for L1 prediction (N in S187), the L1 prediction motion vector (mvL1) is (0, 0), the L1 prediction reference index (ref_idx_l1) is 0, and inter A second supplemental combined motion information candidate whose prediction type is Pred_BI is derived (S189), and the second supplemental combined motion information candidate is added to the combined motion information candidate list (S185).

図38は実施の形態2による第2補充結合動き情報候補の参照インデックスとPOCの関係の一例を説明する図である。図38は参照ピクチャリストL0の利用可能な参照ピクチャ数が4で参照ピクチャリストL1の利用可能な参照ピクチャ数が2である場合の例を示す。図38(a)は入力画像順と符号化順を並び替えない場合の第2補充結合動き情報候補の参照インデックスを、図38(b)は入力画像順と符号化順を並び替える場合の第2補充結合動き情報候補の参照インデックスを示す。   FIG. 38 is a diagram for explaining an example of the relationship between the reference index of the second supplementary combined motion information candidate and the POC according to the second embodiment. FIG. 38 shows an example where the number of usable reference pictures in the reference picture list L0 is 4 and the number of usable reference pictures in the reference picture list L1 is 2. FIG. 38A shows the reference index of the second supplemental combined motion information candidate when the input image order and the encoding order are not rearranged, and FIG. 38B shows the second index when the input image order and the encoding order are rearranged. 2 Indicates a reference index of supplementary combined motion information candidates.

図38(a)について説明する。
0番目の第2補充結合動き情報候補のL0予測の参照インデックスとL1予測の参照インデックスは共に0となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+7である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+7である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。
FIG. 38 (a) will be described.
The L0 prediction reference index and the L1 prediction reference index of the 0th second supplemental combined motion information candidate are both 0, and both the L0 prediction reference picture and the L1 prediction reference picture are reference pictures having a POC of n + 7. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion compensated for the reference picture having the bi-prediction motion information and the POC of n + 7.

1番目の第2補充結合動き情報候補のL0予測の参照インデックスとL1予測の参照インデックスは共に1となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+6である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+6である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。   The reference index for L0 prediction and the reference index for L1 prediction of the first second supplemental joint motion information candidate for the first are both 1, and the reference picture for L0 prediction and the reference picture for L1 prediction are both reference pictures with a POC of n + 6. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion compensated for the reference picture having POC of n + 6 while having bi-prediction motion information.

2番目の第2補充結合動き情報候補は、L0予測の参照インデックスが2でL1予測の参照インデックスが0となって、L0予測の参照ピクチャはPOCがn+5である参照ピクチャとなり、L1予測の参照ピクチャはPOCがn+7である参照ピクチャとなる。   The second second supplemental joint motion information candidate is an L0 prediction reference index of 2 and an L1 prediction reference index of 0, and the L0 prediction reference picture is a reference picture with a POC of n + 5. The picture is a reference picture whose POC is n + 7.

3番目の第2補充結合動き情報候補は、L0予測の参照インデックスが3でL1予測の参照インデックスが0となって、L0予測の参照ピクチャはPOCがn+4である参照ピクチャとなり、L1予測の参照ピクチャはPOCがn+7である参照ピクチャとなる。   The third second supplemental combined motion information candidate is an L0 prediction reference index of 3 and an L1 prediction reference index of 0, and the L0 prediction reference picture is a reference picture with a POC of n + 4. The picture is a reference picture whose POC is n + 7.

以上のように、参照ピクチャリストL1の参照ピクチャが存在する場合は、i番目の第2補充結合動き情報候補を、L0予測の動きベクトルとL1予測の動きベクトルが(0,0)、L0予測の参照インデックスとL1予測の参照インデックスがi、インター予測タイプがPred_BIの動き情報として、参照ピクチャリストL1の参照ピクチャが存在しない場合は、i番目の第2補充結合動き情報候補を、L0予測の動きベクトルが(0,0)、L0予測参照インデックスがiでL1予測の参照インデックスが0、インター予測タイプがPred_BIの動き情報とすることで、参照ピクチャリストL1の利用可能な参照ピクチャ数と同数までの第2補充結合動き情報候補は動き情報としては双予測として導出し、予測信号としては単予測と同一となるようにすることで、一般的に処理対象ピクチャとの相関性の高くなる処理対象ピクチャに近い参照ピクチャだけを用いた動き補償予測を可能とし、参照ピクチャリストL1の利用可能な参照ピクチャ数より多くの第2補充結合動き情報候補を導出する場合には、直近の参照ピクチャを利用した双予測とすることができる。   As described above, when there is a reference picture in the reference picture list L1, the i-th second supplemental combined motion information candidate is represented by the L0 prediction motion vector and the L1 prediction motion vector (0, 0), and the L0 prediction. When the reference index of L1 prediction and the reference index of L1 prediction are i, and the inter prediction type is Pred_BI, and there is no reference picture of the reference picture list L1, the i-th second supplementary combined motion information candidate is selected for L0 prediction. By using motion information with a motion vector of (0, 0), an L0 prediction reference index of i, an L1 prediction reference index of 0, and an inter prediction type of Pred_BI, the same number as the number of available reference pictures in the reference picture list L1 The second supplemental combined motion information candidates up to are derived as bi-prediction as motion information and as single prediction as a prediction signal. In general, the motion compensated prediction using only the reference picture close to the processing target picture having a high correlation with the processing target picture can be performed, and the usable reference of the reference picture list L1 can be used. When more second supplementary combined motion information candidates than the number of pictures are derived, bi-prediction using the latest reference picture can be used.

この場合、例えば、動画像の一部においてPOCがn+7である参照ピクチャには遮蔽物があるため処理対象ピクチャと同一の画像とはならないが、POCがn+6である参照ピクチャではその遮蔽物がないために処理対象ピクチャとPOCがn+6である参照ピクチャが同一となるような場合には、1番目の第2補充結合動き情報候補を利用することで、精度の高い予測信号を得ることが可能となる。   In this case, for example, a reference picture with a POC of n + 7 in a part of a moving image has a shielding object and thus does not become the same image as the processing target picture. However, a reference picture with a POC of n + 6 does not have the shielding object. Therefore, when the target picture and the reference picture with POC of n + 6 are the same, it is possible to obtain a highly accurate prediction signal by using the first second supplementary combined motion information candidate. Become.

続いて、図38(b)について説明する。
0番目の第2補充結合動き情報候補のL0予測の参照インデックスとL1予測の参照インデックスは共に0となって、L0予測の参照ピクチャはPOCがn+4である参照ピクチャとなり、L1予測の参照ピクチャはPOCがn+6である参照ピクチャとなる。
Subsequently, FIG. 38B will be described.
The reference index for L0 prediction and the reference index for L1 prediction of the 0th second supplemental combined motion information candidate are both 0, the reference picture for L0 prediction is a reference picture whose POC is n + 4, and the reference picture for L1 prediction is The reference picture has a POC of n + 6.

1番目の第2補充結合動き情報候補のL0予測の参照インデックスとL1予測の参照インデックスは共に1となって、L0予測の参照ピクチャはPOCがn+2である参照ピクチャとなり、L1予測の参照ピクチャはPOCがn+8である参照ピクチャとなる。   The reference index for L0 prediction and the reference index for L1 prediction of the first second supplemental joint motion information candidate for the first are both 1, the reference picture for L0 prediction is a reference picture with POC of n + 2, and the reference picture for L1 prediction is The reference picture has a POC of n + 8.

2番目の第2補充結合動き情報候補のL0予測の参照インデックスは2、L1予測の参照インデックスは0となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+6である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+6である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。   The reference index for L0 prediction of the second second supplemental combined motion information candidate is 2, the reference index for L1 prediction is 0, and both the reference picture for L0 prediction and the reference picture for L1 prediction have a POC of n + 6. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion compensated for the reference picture having the bi-prediction motion information and the POC of n + 6.

3番目の第2補充結合動き情報候補のL0予測の参照インデックスは3、L1予測の参照インデックスは0となって、L0予測の参照ピクチャはPOCがn+8である参照ピクチャとなり、L1予測の参照ピクチャはPOCがn+6である参照ピクチャとなる。   The reference index for L0 prediction of the third second supplemental combined motion information candidate is 3, the reference index for L1 prediction is 0, the reference picture for L0 prediction is a reference picture with POC of n + 8, and the reference picture for L1 prediction Becomes a reference picture whose POC is n + 6.

以上のように、i番目の第2補充結合動き情報候補を、L0予測の動きベクトルとL1予測の動きベクトルが(0,0)、L0予測の参照インデックスとL1予測の参照インデックスがi、インター予測タイプがPred_BIの動き情報とすることで、L0予測とL1予測のそれぞれの参照ピクチャを余すことなく第2補充結合動き情報候補の参照ピクチャに割り当てることができる。ここで、第2補充結合動き情報候補と結合動き情報候補リストにある所定の結合動き情報候補とが組み合わされて第1補充結合動き情報候補が導出される場合、所定の結合動き情報候補がL0予測の単予測である場合には新たな第2補充結合動き情報候補は導出されない。また、所定の結合動き情報候補が双予測であった場合でも、所定の結合動き情報候補のL0予測と組み合わされるべきL1予測の動きベクトルと参照画像が第2補充結合動き情報候補にはないため、所定の結合動き情報候補のL0予測を利用した第1補充結合動き情報候補が導出されない。   As described above, the i-th second supplementary combined motion information candidate is defined such that the motion vector for L0 prediction and the motion vector for L1 prediction are (0, 0), the reference index for L0 prediction and the reference index for L1 prediction are i, By using the motion information with the prediction type Pred_BI, the reference pictures of the L0 prediction and the L1 prediction can be assigned to the reference pictures of the second supplemental joint motion information candidates without leaving them. Here, when the first supplemental combined motion information candidate is derived by combining the second supplemental combined motion information candidate and the predetermined combined motion information candidate in the combined motion information candidate list, the predetermined combined motion information candidate is L0. In the case of prediction single prediction, a new second supplemental combined motion information candidate is not derived. In addition, even when the predetermined combined motion information candidate is bi-prediction, the L1 prediction motion vector and the reference image to be combined with the L0 prediction of the predetermined combined motion information candidate are not included in the second supplemental combined motion information candidate. The first supplemental combined motion information candidate using the L0 prediction of the predetermined combined motion information candidate is not derived.

ここでは、全ての第2補充結合動き情報候補を双予測とすることで、結合動き情報候補リストにある所定の結合動き情報候補と組み合わせた場合に、より多くの第1補充結合動き情報候補の導出を可能とし、符号化効率を向上させることができる。また、第2補充結合動き情報候補同士を組み合わせた場合でも第1補充結合動き情報候補の導出確率を向上させることができる。   Here, all the second supplemental combined motion information candidates are set to bi-prediction, so that when combined with predetermined combined motion information candidates in the combined motion information candidate list, more first supplemental combined motion information candidates can be obtained. Derivation is possible, and encoding efficiency can be improved. Even when the second supplemental combined motion information candidates are combined, the derivation probability of the first supplemental combined motion information candidates can be improved.

[実施の形態3]
以下、実施の形態3について説明する。実施の形態1とは第2結合動き情報候補補充部165の動作が異なる。以下、実施の形態1とは異なる点について説明する。図39は実施の形態2の第2結合動き情報候補補充部165の動作を説明するフローチャートである。実施の形態1の第2結合動き情報候補補充部165とはステップS184の代わりにステップS190からステップS192が追加されていることが異なる。また、第2補充結合動き情報候補を導出する最大数であるMaxNumGenCandの算出式が異なる。以下、S190からステップS192について説明する。
[Embodiment 3]
Hereinafter, the third embodiment will be described. The operation of the second combined motion information candidate supplementing unit 165 is different from that of the first embodiment. Hereinafter, differences from the first embodiment will be described. FIG. 39 is a flowchart for explaining the operation of the second combined motion information candidate supplementing unit 165 according to the second embodiment. The difference from the second combined motion information candidate supplementing unit 165 of Embodiment 1 is that Steps S190 to S192 are added instead of Step S184. Also, the calculation formula of MaxNumGenCand, which is the maximum number for deriving the second supplemental combined motion information candidate, is different. Hereinafter, steps S190 to S192 will be described.

最初に、第2補充結合動き情報候補を導出する最大数であるMaxNumGenCandを式7より算出する(S180)。
MaxNumGenCand=Min(MaxNumMergeCand-NumCandList, Min(num_ref_idx_l0_active_minus1+1, num_ref_idx_l1_active_minus1+1)); 式7
First, MaxNumGenCand, which is the maximum number for deriving the second supplemental combined motion information candidate, is calculated from Equation 7 (S180).
MaxNumGenCand = Min (MaxNumMergeCand-NumCandList, Min (num_ref_idx_l0_active_minus1 + 1, num_ref_idx_l1_active_minus1 + 1)); Equation 7

L1予測の参照ピクチャリストにL0予測の参照インデックスで示される参照ピクチャが存在するか検査する(S190)。   It is checked whether the reference picture indicated by the reference index for L0 prediction exists in the reference picture list for L1 prediction (S190).

L1予測の参照ピクチャリストにL0予測の参照インデックスで示される参照ピクチャが存在すれば、L1予測の動きベクトル(mvL1)が(0,0)、L1予測の参照インデックスがL0予測の参照インデックスで示される参照ピクチャと同一の参照ピクチャを示すL1予測の参照インデックス、インター予測タイプがPred_BIである第2補充結合動き情報候補を導出し(S191)、当該第2補充結合動き情報候補を結合動き情報候補リストに追加する(S185)。ここで、getRefIdxL1(ref_idx_l0)はL0予測の参照インデックスで示される参照ピクチャと同一の参照ピクチャを示すL1予測の参照インデックスを得る関数であるとする。   If the reference picture indicated by the L0 prediction reference index exists in the L1 prediction reference picture list, the L1 prediction motion vector (mvL1) is indicated by (0, 0), and the L1 prediction reference index is indicated by the L0 prediction reference index. A second supplemental joint motion information candidate having a reference index of L1 prediction indicating the same reference picture as the reference picture and an inter prediction type of Pred_BI is derived (S191), and the second supplemental joint motion information candidate is derived as a joint motion information candidate It adds to the list (S185). Here, it is assumed that getRefIdxL1 (ref_idx_10) is a function for obtaining a reference index for L1 prediction indicating the same reference picture as the reference picture indicated by the reference index for L0 prediction.

L1予測の参照ピクチャリストにL0予測の参照インデックスで示される参照ピクチャが存在しなければ、L1予測の動きベクトル(mvL1)が(0,0)、L1予測の参照インデックスをi、インター予測タイプがPred_BIである第2補充結合動き情報候補を導出し(S192)、当該第2補充結合動き情報候補を結合動き情報候補リストに追加する(S185)。   If the reference picture indicated by the L0 prediction reference index does not exist in the L1 prediction reference picture list, the L1 prediction motion vector (mvL1) is (0, 0), the L1 prediction reference index is i, and the inter prediction type is A second supplemental combined motion information candidate that is Pred_BI is derived (S192), and the second supplemental combined motion information candidate is added to the combined motion information candidate list (S185).

入力画像順と符号化順を並び替えない場合であって、L0予測の参照ピクチャリストとL1予測が同一であることが分かっている場合にはステップS190とステップS191を実施しないようにすることもできる。   When the input image order and the encoding order are not rearranged and it is known that the reference picture list for L0 prediction and the L1 prediction are the same, step S190 and step S191 may not be performed. it can.

図40は実施の形態3による第2補充結合動き情報候補の参照インデックスとPOCの関係の一例を説明する図である。図40は参照ピクチャリストL0の利用可能な参照ピクチャ数が4で参照ピクチャリストL1の利用可能な参照ピクチャ数が4である場合の例を示す。図40(a)は入力画像順と符号化順を並び替えない場合の第2補充結合動き情報候補の参照インデックスを、図40(b)は入力画像順と符号化順を並び替える場合の第2補充結合動き情報候補の参照インデックスを示す。   FIG. 40 is a diagram for explaining an example of the relationship between the reference index of the second supplementary combined motion information candidate and the POC according to the third embodiment. FIG. 40 shows an example in which the number of available reference pictures in the reference picture list L0 is 4 and the number of available reference pictures in the reference picture list L1 is 4. FIG. 40A shows the reference index of the second supplementary combined motion information candidate when the input image order and the encoding order are not rearranged, and FIG. 40B shows the second index when the input image order and the encoding order are rearranged. 2 Indicates a reference index of supplementary combined motion information candidates.

図40(a)について説明する。
0番目の第2補充結合動き情報候補のL0予測の参照インデックスとL1予測の参照インデックスは共に0となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+7である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+7である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。
FIG. 40A will be described.
The L0 prediction reference index and the L1 prediction reference index of the 0th second supplemental combined motion information candidate are both 0, and both the L0 prediction reference picture and the L1 prediction reference picture are reference pictures having a POC of n + 7. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion compensated for the reference picture having the bi-prediction motion information and the POC of n + 7.

1番目の第2補充結合動き情報候補のL0予測の参照インデックスとL1予測の参照インデックスは共に1となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+6である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+6である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。   The reference index for L0 prediction and the reference index for L1 prediction of the first second supplemental joint motion information candidate for the first are both 1, and the reference picture for L0 prediction and the reference picture for L1 prediction are both reference pictures with a POC of n + 6. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion compensated for the reference picture having POC of n + 6 while having bi-prediction motion information.

2番目の第2補充結合動き情報候補のL0予測の参照インデックスとL1予測の参照インデックスは共に2となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+5である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+5である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。   The L0 prediction reference index and the L1 prediction reference index of the second second supplemental combined motion information candidate are both 2, and the L0 prediction reference picture and the L1 prediction reference picture are both reference pictures whose POC is n + 5. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion compensated for the reference picture having the bi-prediction motion information and the POC of n + 5.

3番目の第2補充結合動き情報候補のL0予測の参照インデックスとL1予測の参照インデックスは共に3となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+4である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+4である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。   The L0 prediction reference index and the L1 prediction reference index of the third second supplemental combined motion information candidate are both 3, and the L0 prediction reference picture and the L1 prediction reference picture are both reference pictures with a POC of n + 4. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion-compensated for the reference picture having the bi-prediction motion information and the POC of n + 4.

続いて、図40(b)について説明する。
0番目の第2補充結合動き情報候補のL0予測の参照インデックスは0、L1予測の参照インデックスは2となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+4である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+4である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。
Subsequently, FIG. 40B will be described.
The reference index for L0 prediction of the 0th second supplemental combined motion information candidate is 0, the reference index for L1 prediction is 2, and both the reference picture for L0 prediction and the reference picture for L1 prediction have a POC of n + 4. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion compensated for the reference picture having the bi-prediction motion information and the POC of n + 4.

1番目の第2補充結合動き情報候補のL0予測の参照インデックスは1、L1予測の参照インデックスは3となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+2である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+2である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。   The L0 prediction reference index of the first second supplemental joint motion information candidate is 1, the L1 prediction reference index is 3, and both the L0 prediction reference picture and the L1 prediction reference picture have a POC of n + 2. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion compensated for the reference picture having the bi-prediction motion information and the POC of n + 2.

2番目の第2補充結合動き情報候補のL0予測の参照インデックスは2、L1予測の参照インデックスは0となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+6である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+6である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。   The reference index for L0 prediction of the second second supplemental combined motion information candidate is 2, the reference index for L1 prediction is 0, and both the reference picture for L0 prediction and the reference picture for L1 prediction have a POC of n + 6. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion compensated for the reference picture having the bi-prediction motion information and the POC of n + 6.

3番目の第2補充結合動き情報候補のL0予測の参照インデックスは3、L1予測の参照インデックスは1となって、L0予測の参照ピクチャとL1予測の参照ピクチャは共にPOCがn+8である参照ピクチャで同一となるため、双予測の動き情報を有しながらPOCがn+8である参照ピクチャを動きベクトル(0,0)で動き補償予測した単予測と同一の予測信号となる。   The reference index for L0 prediction of the third second supplemental combined motion information candidate is 3, the reference index for L1 prediction is 1, and both the reference picture for L0 prediction and the reference picture for L1 prediction have a POC of n + 8. Therefore, the prediction signal is the same as the single prediction in which the motion picture (0, 0) is motion compensated for the reference picture having the bi-prediction motion information and the POC of n + 8.

以上のように、L1予測の参照ピクチャリストにL0予測の参照インデックスで示される参照ピクチャが存在する場合は、L1予測の参照インデックスをL0予測の参照インデックスで示される参照ピクチャと同一の参照ピクチャを示すL1予測の参照インデックスとすることで、予測信号としては単予測と同一でありながら、動き情報は双予測となるような第2補充結合動き情報候補を導出することができる。   As described above, when the reference picture indicated by the reference index for L0 prediction exists in the reference picture list for L1 prediction, the same reference picture as the reference picture indicated by the reference index for L0 prediction is used as the reference index for L1 prediction. By using the reference index of the L1 prediction shown, it is possible to derive a second supplemental combined motion information candidate that is bi-predicted while the motion information is the same as the single prediction as the prediction signal.

この場合、例えば、直近の参照ピクチャの処理対象ブロックと同一位置には遮蔽物があるため、直近の参照ピクチャの処理対象ブロックと同一位置の画像は処理対象ブロックの画像と同一とはならないが、ある程度時間の離れた参照ピクチャではその遮蔽物がなくなっているために処理対象ブロックと同一の画像となるような場合には、その遮蔽物がなくなっている参照ピクチャを参照する第2補充結合動き情報候補を利用することで、精度の高い予測信号を得ることが可能となる。より具体的には、図40(a)において、POCがn+7である参照ピクチャでは遮蔽物があるため、POCがn+7である参照ピクチャの処理対象ブロックと同一位置の画像は処理対象ブロックの画像とは同一の画像とはならないが、POCがn+6である参照画像ではその遮蔽物がなくなっているため、POCがn+6である参照ピクチャの処理対象ブロックと同一位置の画像は処理対象ブロックの画像と同一の画像となるような場合、1番目の第2補充結合動き情報候補を選択することで、精度の高い予測信号を得ることが可能となる。   In this case, for example, since there is a shielding object at the same position as the processing target block of the latest reference picture, the image at the same position as the processing target block of the latest reference picture is not the same as the image of the processing target block. In a reference picture that is separated by a certain amount of time, since the blockage disappears and the same image as the processing target block is obtained, second supplemental combined motion information that refers to the reference picture from which the blockage is lost By using the candidate, it is possible to obtain a highly accurate prediction signal. More specifically, in FIG. 40A, since there is an occlusion in the reference picture with POC n + 7, the image at the same position as the processing target block of the reference picture with POC n + 7 is the image of the processing target block. Are not the same image, but in the reference image with POC n + 6, since there is no occlusion, the image at the same position as the processing target block of the reference picture with POC n + 6 is the same as the image of the processing target block In such a case, it is possible to obtain a highly accurate prediction signal by selecting the first second supplementary combined motion information candidate.

また、例えば、処理対象ピクチャまでは静止して次のピクチャから動きがあるような動画像では、処理対象ピクチャよりも時間的に前の参照ピクチャを利用することで、精度の高い予測信号を得ることが可能となる。より具体的には、図40(b)において、処理対象ピクチャまでは静止しているが、POCがn+6である参照ピクチャから動きがあるような動画像の場合、処理対象ピクチャよりも時間的に前のPOCがn+4である参照ピクチャを参照する0番目の第2補充結合動き情報候補を利用することで、精度の高い予測信号を得ることが可能となる。   In addition, for example, in a moving image in which the processing target picture remains stationary and moves from the next picture, a highly accurate prediction signal is obtained by using a reference picture temporally preceding the processing target picture. It becomes possible. More specifically, in FIG. 40 (b), in the case of a moving image in which there is a motion from a reference picture whose POC is n + 6 even though the processing target picture is still, it is more temporally than the processing target picture. By using the 0th second supplementary combined motion information candidate that refers to the reference picture whose previous POC is n + 4, it is possible to obtain a highly accurate prediction signal.

また、L0予測とL1予測のそれぞれの参照ピクチャを余すことなく第2補充結合動き情報候補の参照ピクチャに割り当てながら、全ての第2補充結合動き情報候補の予測信号を異なるものとすることができる。   Also, the prediction signals of all the second supplemental joint motion information candidates can be made different while assigning the reference pictures of the L0 prediction and the L1 prediction to the reference pictures of the second supplemental joint motion information candidates without leaving them. .

さらに、第1結合動き情報候補補充部164にステップS175が設置されているため、第1結合動き情報候補補充部164において第2補充結合動き情報候補と同一となる第1補充結合動き情報候補が追加されることはなく、結合動き情報候補リストに異なる動き情報を持つ結合動き情報候補が存在する確率を高めることで、符号化効率を向上させることができる。   Furthermore, since step S175 is installed in the first combined motion information candidate supplementing unit 164, the first supplemental combined motion information candidate that is the same as the second supplemental combined motion information candidate in the first combined motion information candidate supplementing unit 164 is displayed. Encoding efficiency can be improved by increasing the probability that combined motion information candidates having different motion information exist in the combined motion information candidate list without being added.

以上述べた実施の形態の動画像符号化装置が出力する動画像の符号化ストリームは、実施の形態で用いられた符号化方法に応じて復号することができるように特定のデータフォーマットを有しており、動画像符号化装置に対応する動画像復号装置がこの特定のデータフォーマットの符号化ストリームを復号することができる。   The moving image encoded stream output from the moving image encoding apparatus of the embodiment described above has a specific data format so that it can be decoded according to the encoding method used in the embodiment. Therefore, the moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode the encoded stream of this specific data format.

動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネットワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ストリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。   When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted. In that case, a video transmission apparatus that converts the encoded stream output from the video encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.

動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモリと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化データをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化された符号化データをネットワークを介して受信する受信部と、受信された符号化データをバッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動画像復号装置に提供するパケット処理部とを含む。   The moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network. Part. The moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.

以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送のデータ放送として提供することも可能である。   The above processing relating to encoding and decoding can be realized as a transmission, storage, and reception device using hardware, and is stored in a ROM (Read Only Memory), a flash memory, or the like. It can also be realized by firmware or software such as a computer. The firmware program and software program can be recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as a data broadcast of terrestrial or satellite digital broadcasting Is also possible.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

100 動画像符号化装置、 101 予測ブロック画像取得部、 102 減算部、 103 予測誤差符号化部、 104 符号列生成部、 105 予測誤差復号部、 106 動き補償部、 107 加算部、 108 動きベクトル検出部、 109 動き情報生成部、 110 フレームメモリ、 111 動き情報メモリ、 112 符号化制御部、 113 参照ピクチャリスト生成部、 120 予測ベクトルモード決定部、 121 マージモード決定部、 122 予測符号化モード決定部、 130 予測ベクトル候補リスト生成部、 131 予測ベクトル決定部、 140 結合動き情報候補リスト生成部、 141 結合動き情報選択部、 150 空間予測ベクトル候補導出部、 151 空間スケーリング予測ベクトル候補導出部、 152 時間予測ベクトル候補導出部、 153 予測ベクトルリスト構築部、 154 冗長予測ベクトル候補削除部、 155 予測ベクトル候補補充部、 160 空間結合動き情報候補導出部、 161 時間結合動き情報候補導出部、 162 結合動き情報候補リスト構築部、 163 冗長結合動き情報候補削除部、 164 第1結合動き情報候補補充部、 165 第2結合動き情報候補補充部、 200 動画像復号装置、 201 符号列解析部、 202 予測誤差復号部、 203 加算部、 204 動き情報再生部、 205 動き補償部、 206 フレームメモリ、 207 動き情報メモリ、 208 復号制御部、 209 参照ピクチャリスト生成部、 210 符号化モード判定部、 211 動きベクトル再生部、 212 結合動き情報再生部、 220 予測ベクトル候補リスト生成部、 221 予測ベクトル選択部、 222 加算部、 230 結合動き情報候補リスト生成部、 231 結合動き情報選択部。   DESCRIPTION OF SYMBOLS 100 moving image encoder, 101 prediction block image acquisition part, 102 subtraction part, 103 prediction error encoding part, 104 code stream production | generation part, 105 prediction error decoding part, 106 motion compensation part, 107 addition part, 108 motion vector detection 109, motion information generation unit, 110 frame memory, 111 motion information memory, 112 encoding control unit, 113 reference picture list generation unit, 120 prediction vector mode determination unit, 121 merge mode determination unit, 122 prediction encoding mode determination unit , 130 prediction vector candidate list generation unit, 131 prediction vector determination unit, 140 combined motion information candidate list generation unit, 141 combined motion information selection unit, 150 spatial prediction vector candidate derivation unit, 151 spatial scaling prediction vector candidate derivation unit, 1 2 temporal prediction vector candidate derivation unit, 153 prediction vector list construction unit, 154 redundant prediction vector candidate deletion unit, 155 prediction vector candidate supplement unit, 160 spatial combination motion information candidate derivation unit, 161 temporal combination motion information candidate derivation unit, 162 combination Motion information candidate list construction unit, 163 redundant joint motion information candidate deletion unit, 164 first joint motion information candidate supplement unit, 165 second joint motion information candidate supplement unit, 200 video decoding device, 201 code string analysis unit, 202 prediction Error decoding unit, 203 addition unit, 204 motion information reproduction unit, 205 motion compensation unit, 206 frame memory, 207 motion information memory, 208 decoding control unit, 209 reference picture list generation unit, 210 encoding mode determination unit, 211 motion vector Playback unit, 212 combined A motion information reproduction unit; 220 a prediction vector candidate list generation unit; 221 a prediction vector selection unit; 222 an addition unit; 230 a combined motion information candidate list generation unit; and 231 a combined motion information selection unit.

Claims (6)

予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する動画像復号装置であって、
符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号部と、
前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出部と、
前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出部と、
前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成部と、
前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充部と、
復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択部とを備え、
前記所定の参照インデックスは0であり、
前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする動画像復号装置。
A video decoding device for deriving motion information including a reference index and a motion vector in units of prediction blocks,
A decoding unit that decodes a specific index for specifying a combined motion information candidate to be used for the prediction block to be decoded from a code string;
A spatially coupled motion information candidate derivation unit that derives spatially coupled motion information candidates from motion information of a plurality of the predicted blocks that have been decoded in the vicinity of the prediction block to be decoded;
A temporally combined motion information candidate derivation unit for deriving temporally combined motion information candidates from motion information of the predicted block in a decoded picture different from a picture with the prediction block to be decoded;
A combined motion information candidate list generating unit that generates a combined motion information candidate list that is a list of combined motion information candidates using the spatially combined motion information candidates and the temporally combined motion information candidates;
A motion vector having a preset size and direction when the reference index indicates an available reference picture, and a reference index when the reference index does not indicate an available reference picture. A combined motion information candidate supplementing unit that generates a new combined motion information candidate and adds it to the combined motion information candidate list,
Based on the decoded specific index, one combined motion information candidate is selected from the combined motion information candidate list to which the new combined motion information candidate has been added, and is used as the motion information of the prediction block to be decoded. A combined motion information selection unit for deriving one selected combined motion information candidate,
The predetermined reference index is 0;
The moving picture decoding apparatus, wherein the motion vector having a preset size is (0, 0).
予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する動画像復号方法であって、
符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号ステップと、
前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出ステップと、
前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出ステップと、
前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成ステップと、
前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充ステップと、
復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択ステップとを備え、
前記所定の参照インデックスは0であり、
前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする動画像復号方法。
A moving picture decoding method for deriving motion information including a reference index and a motion vector in units of prediction blocks,
A decoding step of decoding a specific index for specifying a combined motion information candidate to be used for the prediction block to be decoded from a code string;
A spatially coupled motion information candidate derivation step for deriving spatially coupled motion information candidates from motion information of a plurality of the predicted blocks that have been decoded in the vicinity of the prediction block to be decoded;
A temporally combined motion information candidate derivation step for deriving temporally combined motion information candidates from motion information of the predicted block in a decoded picture different from a picture with the prediction block to be decoded;
A combined motion information candidate list generating step for generating a combined motion information candidate list that is a list of combined motion information candidates using the spatially combined motion information candidates and the temporally combined motion information candidates;
A motion vector having a preset size and direction when the reference index indicates an available reference picture, and a reference index when the reference index does not indicate an available reference picture. A combined motion information candidate supplementing step for generating a new combined motion information candidate and adding it to the combined motion information candidate list,
Based on the decoded specific index, one combined motion information candidate is selected from the combined motion information candidate list to which the new combined motion information candidate has been added, and is used as the motion information of the prediction block to be decoded. A combined motion information selection step for deriving the selected one combined motion information candidate,
The predetermined reference index is 0;
A moving picture decoding method, wherein the motion vector having a preset size is (0, 0).
予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する動画像復号プログラムであって、
符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号ステップと、
前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出ステップと、
前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出ステップと、
前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成ステップと、
前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充ステップと、
復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択ステップとをコンピュータに実行させ、
前記所定の参照インデックスは0であり、
前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする動画像復号プログラム。
A moving picture decoding program for deriving motion information including a reference index and a motion vector in units of prediction blocks,
A decoding step of decoding a specific index for specifying a combined motion information candidate to be used for the prediction block to be decoded from a code string;
A spatially coupled motion information candidate derivation step for deriving spatially coupled motion information candidates from motion information of a plurality of the predicted blocks that have been decoded in the vicinity of the prediction block to be decoded;
A temporally combined motion information candidate derivation step for deriving temporally combined motion information candidates from motion information of the predicted block in a decoded picture different from a picture with the prediction block to be decoded;
A combined motion information candidate list generating step for generating a combined motion information candidate list that is a list of combined motion information candidates using the spatially combined motion information candidates and the temporally combined motion information candidates;
A motion vector having a preset size and direction when the reference index indicates an available reference picture, and a reference index when the reference index does not indicate an available reference picture. A combined motion information candidate supplementing step for generating a new combined motion information candidate and adding it to the combined motion information candidate list,
Based on the decoded specific index, one combined motion information candidate is selected from the combined motion information candidate list to which the new combined motion information candidate has been added, and is used as the motion information of the prediction block to be decoded. , Causing the computer to execute a combined motion information selection step for deriving the selected one combined motion information candidate,
The predetermined reference index is 0;
A moving picture decoding program characterized in that the motion vector having a preset size is (0, 0).
符号化列から、予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する受信装置であって、
動画像が符号化された符号化データを受信する受信部と、
前記符号化データをパケット処理して前記符号化列を生成するパケット処理部と、
前記符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号部と、
前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出部と、
前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出部と、
前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成部と、
前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充部と、
復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択部とを備え、
前記所定の参照インデックスは0であり、
前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする受信装置。
A receiving device for deriving motion information including a reference index and a motion vector in units of prediction blocks from an encoded sequence,
A receiving unit that receives encoded data in which a moving image is encoded;
A packet processing unit that packet-processes the encoded data to generate the encoded sequence;
A decoding unit that decodes a specific index for specifying a combined motion information candidate to be used for the prediction block to be decoded from the code string;
A spatially coupled motion information candidate derivation unit that derives spatially coupled motion information candidates from motion information of a plurality of the predicted blocks that have been decoded in the vicinity of the prediction block to be decoded;
A temporally combined motion information candidate derivation unit for deriving temporally combined motion information candidates from motion information of the predicted block in a decoded picture different from a picture with the prediction block to be decoded;
A combined motion information candidate list generating unit that generates a combined motion information candidate list that is a list of combined motion information candidates using the spatially combined motion information candidates and the temporally combined motion information candidates;
A motion vector having a preset size and direction when the reference index indicates an available reference picture, and a reference index when the reference index does not indicate an available reference picture. A combined motion information candidate supplementing unit that generates a new combined motion information candidate and adds it to the combined motion information candidate list,
Based on the decoded specific index, one combined motion information candidate is selected from the combined motion information candidate list to which the new combined motion information candidate has been added, and is used as the motion information of the prediction block to be decoded. A combined motion information selection unit for deriving one selected combined motion information candidate,
The predetermined reference index is 0;
The receiving apparatus according to claim 1, wherein the motion vector having a preset size is (0, 0).
符号化列から、予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する受信方法であって、
動画像が符号化された符号化データを受信する受信ステップと、
前記符号化データをパケット処理して前記符号化列を生成するパケット処理ステップと、
前記符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号ステップと、
前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出ステップと、
前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出ステップと、
前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成ステップと、
前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充ステップと、
復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択ステップとを備え、
前記所定の参照インデックスは0であり、
前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする受信方法。
A receiving method for deriving motion information including a reference index and a motion vector in units of prediction blocks from an encoded sequence,
A reception step of receiving encoded data in which a moving image is encoded;
A packet processing step of packet-processing the encoded data to generate the encoded sequence;
A decoding step of decoding a specific index for specifying a combined motion information candidate to be used for the prediction block to be decoded from the code string;
A spatially coupled motion information candidate derivation step for deriving spatially coupled motion information candidates from motion information of a plurality of the predicted blocks that have been decoded in the vicinity of the prediction block to be decoded;
A temporally combined motion information candidate derivation step for deriving temporally combined motion information candidates from motion information of the predicted block in a decoded picture different from a picture with the prediction block to be decoded;
A combined motion information candidate list generating step for generating a combined motion information candidate list that is a list of combined motion information candidates using the spatially combined motion information candidates and the temporally combined motion information candidates;
A motion vector having a preset size and direction when the reference index indicates an available reference picture, and a reference index when the reference index does not indicate an available reference picture. A combined motion information candidate supplementing step for generating a new combined motion information candidate and adding it to the combined motion information candidate list,
Based on the decoded specific index, one combined motion information candidate is selected from the combined motion information candidate list to which the new combined motion information candidate has been added, and is used as the motion information of the prediction block to be decoded. A combined motion information selection step for deriving the selected one combined motion information candidate,
The predetermined reference index is 0;
The receiving method according to claim 1, wherein the motion vector having a preset size is (0, 0).
符号化列から、予測ブロック単位で参照インデックスと動きベクトルとを含む動き情報を導出する受信プログラムであって、
動画像が符号化された符号化データを受信する受信ステップと、
前記符号化データをパケット処理して前記符号化列を生成するパケット処理ステップと、
前記符号列から、復号対象の前記予測ブロックに対して利用する結合動き情報候補を特定するための特定インデックスを復号する復号ステップと、
前記復号対象の前記予測ブロックの近隣にある復号済みの複数の前記予測ブロックの動き情報から空間結合動き情報候補を導出する空間結合動き情報候補導出ステップと、
前記復号対象の前記予測ブロックのあるピクチャとは別の、復号済みのピクチャにある前記予測ブロックの動き情報から時間結合動き情報候補を導出する時間結合動き情報候補導出ステップと、
前記空間結合動き情報候補と前記時間結合動き情報候補とを利用して結合動き情報候補のリストである結合動き情報候補リストを生成する結合動き情報候補リスト生成ステップと、
前記参照インデックスが利用可能な参照ピクチャを示す場合はその参照インデックスを、前記参照インデックスが利用可能な参照ピクチャを示さない場合は所定の参照インデックスを、予め設定された大きさと方向とを有する動きベクトルとともに含む、新たな結合動き情報候補を生成して前記結合動き情報候補リストに追加する結合動き情報候補補充ステップと、
復号された前記特定インデックスに基づいて、前記新たな結合動き情報候補が追加された前記結合動き情報候補リストから1つの結合動き情報候補を選択し、前記復号対象の前記予測ブロックの前記動き情報として、前記選択した1つの結合動き情報候補を導出する結合動き情報選択ステップとをコンピュータに実行させ、
前記所定の参照インデックスは0であり、
前記予め設定された大きさを有する動きベクトルは(0,0)であることを特徴とする受信プログラム。
A receiving program for deriving motion information including a reference index and a motion vector in units of prediction blocks from an encoded sequence,
A reception step of receiving encoded data in which a moving image is encoded;
A packet processing step of packet-processing the encoded data to generate the encoded sequence;
A decoding step of decoding a specific index for specifying a combined motion information candidate to be used for the prediction block to be decoded from the code string;
A spatially coupled motion information candidate derivation step for deriving spatially coupled motion information candidates from motion information of a plurality of the predicted blocks that have been decoded in the vicinity of the prediction block to be decoded;
A temporally combined motion information candidate derivation step for deriving temporally combined motion information candidates from motion information of the predicted block in a decoded picture different from a picture with the prediction block to be decoded;
A combined motion information candidate list generating step for generating a combined motion information candidate list that is a list of combined motion information candidates using the spatially combined motion information candidates and the temporally combined motion information candidates;
A motion vector having a preset size and direction when the reference index indicates an available reference picture, and a reference index when the reference index does not indicate an available reference picture. A combined motion information candidate supplementing step for generating a new combined motion information candidate and adding it to the combined motion information candidate list,
Based on the decoded specific index, one combined motion information candidate is selected from the combined motion information candidate list to which the new combined motion information candidate has been added, and is used as the motion information of the prediction block to be decoded. , Causing the computer to execute a combined motion information selection step for deriving the selected one combined motion information candidate,
The predetermined reference index is 0;
The receiving program according to claim 1, wherein the motion vector having a preset size is (0, 0).
JP2015182701A 2012-01-18 2015-09-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program Active JP5846327B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015182701A JP5846327B1 (en) 2012-01-18 2015-09-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012008433 2012-01-18
JP2012008433 2012-01-18
JP2015182701A JP5846327B1 (en) 2012-01-18 2015-09-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013006968A Division JP5846132B2 (en) 2012-01-18 2013-01-18 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program

Publications (2)

Publication Number Publication Date
JP5846327B1 true JP5846327B1 (en) 2016-01-20
JP2016027731A JP2016027731A (en) 2016-02-18

Family

ID=49178979

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2013006968A Active JP5846132B2 (en) 2012-01-18 2013-01-18 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP2015182704A Active JP5846330B1 (en) 2012-01-18 2015-09-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2015182703A Active JP5846329B1 (en) 2012-01-18 2015-09-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2015182702A Active JP5846328B1 (en) 2012-01-18 2015-09-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2015182701A Active JP5846327B1 (en) 2012-01-18 2015-09-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2015227766A Active JP6036972B2 (en) 2012-01-18 2015-11-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2013006968A Active JP5846132B2 (en) 2012-01-18 2013-01-18 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP2015182704A Active JP5846330B1 (en) 2012-01-18 2015-09-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2015182703A Active JP5846329B1 (en) 2012-01-18 2015-09-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2015182702A Active JP5846328B1 (en) 2012-01-18 2015-09-16 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015227766A Active JP6036972B2 (en) 2012-01-18 2015-11-20 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Country Status (1)

Country Link
JP (6) JP5846132B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019050115A1 (en) * 2017-09-05 2019-03-14 엘지전자(주) Inter prediction mode based image processing method and apparatus therefor
CA3238058A1 (en) * 2018-06-30 2020-01-02 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Merge mode-based inter-prediction method and apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012128903A1 (en) * 2011-03-21 2012-09-27 Qualcomm Incorporated Bi-predictive merge mode based on uni-predictive neighbors in video coding
WO2012164880A1 (en) * 2011-05-27 2012-12-06 パナソニック株式会社 Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
WO2013057877A1 (en) * 2011-10-19 2013-04-25 パナソニック株式会社 Image encoding method, image encoding device, image decoding method, and image decoding device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012128903A1 (en) * 2011-03-21 2012-09-27 Qualcomm Incorporated Bi-predictive merge mode based on uni-predictive neighbors in video coding
WO2012164880A1 (en) * 2011-05-27 2012-12-06 パナソニック株式会社 Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
WO2013057877A1 (en) * 2011-10-19 2013-04-25 パナソニック株式会社 Image encoding method, image encoding device, image decoding method, and image decoding device

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JPN6013012321; Toshiyasu Sugio and Takahiro Nishi: 'Parsing Robustness for Merge/AMVP' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F470_r4, 201107, pp.1-33, 6th Meeting: Torino, IT *
JPN6013012324; Hideki Takehara et al.: 'Bi-derivative merge candidate' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F372, 201107, pp.1-5, 6th Meeting: Torino, IT *
JPN6013012325; Toshiyasu Sugio and Takahiro Nishi: 'On MVP candidate list for AMVP/Merge' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 JCTVC-I0134, 201204, pp.1-6, 9th Meeting: Geneva, CH *
JPN6015011090; Hiroya Nakamura et al.: 'Default value for skip/merge and AMVP' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 JCTVC-I0314_r2, 201204, pp.1-16, 9th Meeting: Geneva, CH *
JPN6015011092; Chul Keun Kim et al.: 'Non-CE9: reordering of merge candidate' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-G396r2, 201111, pp.1-15, 7th Meeting: Geneva, CH *
JPN6015042539; Yunfei Zheng et al.: 'Non-CE13: Simplification and improvement of additional merge candidate' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-G683_2, 201111, pp.1-9, 7th Meeting: Geneva, CH *

Also Published As

Publication number Publication date
JP5846329B1 (en) 2016-01-20
JP5846328B1 (en) 2016-01-20
JP5846330B1 (en) 2016-01-20
JP6036972B2 (en) 2016-11-30
JP2016027732A (en) 2016-02-18
JP2016048953A (en) 2016-04-07
JP2013168929A (en) 2013-08-29
JP2016027733A (en) 2016-02-18
JP2016027734A (en) 2016-02-18
JP5846132B2 (en) 2016-01-20
JP2016027731A (en) 2016-02-18

Similar Documents

Publication Publication Date Title
CN108235032B (en) Moving picture decoding device and moving picture decoding method
JP6065088B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP6036972B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP5737382B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2013145971A (en) Image decoding device, image decoding method, and image decoding program
WO2013108631A1 (en) Moving image coding device, moving image coding method, moving image coding program, moving image decoding device, moving image decoding method and moving image decoding program
JP5843042B1 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2013145972A (en) Image encoding device, image encoding method, and image encoding program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20151019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5846327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150