JP5725106B2 - Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program - Google Patents

Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program Download PDF

Info

Publication number
JP5725106B2
JP5725106B2 JP2013180092A JP2013180092A JP5725106B2 JP 5725106 B2 JP5725106 B2 JP 5725106B2 JP 2013180092 A JP2013180092 A JP 2013180092A JP 2013180092 A JP2013180092 A JP 2013180092A JP 5725106 B2 JP5725106 B2 JP 5725106B2
Authority
JP
Japan
Prior art keywords
prediction
block
motion information
candidate
combined motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013180092A
Other languages
Japanese (ja)
Other versions
JP2014014133A (en
Inventor
英樹 竹原
英樹 竹原
博哉 中村
博哉 中村
福島 茂
茂 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2013180092A priority Critical patent/JP5725106B2/en
Publication of JP2014014133A publication Critical patent/JP2014014133A/en
Application granted granted Critical
Publication of JP5725106B2 publication Critical patent/JP5725106B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動き補償予測を用いた動画像復号技術に関し、特に動き補償予測で利用する
動き情報を復号する動画像復号装置、動画像復号方法及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラムに関する。
The present invention relates to a moving picture decoding technique using motion compensated prediction, and in particular, a moving picture decoding apparatus, a moving picture decoding method, a moving picture decoding program, a receiving apparatus, and a receiving method for decoding motion information used in motion compensated prediction. And a receiving program.

一般的な動画像圧縮符号化では動き補償予測が利用される。動き補償予測は、対象画像
を細かいブロックに分割し、復号済みの画像を参照画像として、動きベクトルで示される
動き量に基づいて、対象画像の処理対象ブロックから参照画像の参照ブロックに移動した
位置の信号を予測信号として生成する技術である。動き補償予測には1本の動きベクトル
を利用して単予測に行うものと、2本の動きベクトルを利用して双予測に行うものがある
In general video compression coding, motion compensation prediction is used. The motion compensated prediction is performed by dividing the target image into fine blocks, using the decoded image as a reference image, and moving from the processing target block of the target image to the reference block of the reference image based on the amount of motion indicated by the motion vector. This is a technique for generating a signal as a prediction signal. There are two types of motion compensated prediction, one for single prediction using one motion vector and the other for bi-prediction using two motion vectors.

動きベクトルについては、処理対象ブロックに隣接する符号化済みのブロックの動きベ
クトルを予測動きベクトル(単に「予測ベクトル」ともいう)とし、処理対象ブロックの
動きベクトルと予測ベクトルとの差分を求め、差分ベクトルを符号化ベクトルとして伝送
することで圧縮効率を向上させている。
For a motion vector, a motion vector of an encoded block adjacent to the processing target block is set as a prediction motion vector (also simply referred to as “prediction vector”), and a difference between the motion vector of the processing target block and the prediction vector is obtained. The compression efficiency is improved by transmitting the vector as an encoded vector.

MPEG−4AVC/H.264(以下、MPEG−4AVC)のような動画像圧縮符
号化では、動き補償予測を行うブロックサイズを細かく且つ多様にすることで、精度の高
い動き補償予測を可能としている。一方、ブロックサイズを小さくすることで、符号化ベ
クトルの符号量は大きくなる問題があった。
MPEG-4 AVC / H. In moving picture compression coding such as H.264 (hereinafter referred to as MPEG-4 AVC), motion compensation prediction with high accuracy is possible by making the block size for motion compensation prediction fine and diverse. On the other hand, there is a problem that the code amount of the encoded vector is increased by reducing the block size.

そこで、MPEG−4AVCでは、時間方向の動きの連続性に着目し、処理対象ブロッ
クと同一位置にある処理対象ブロックのある処理対象画像とは別の処理済み画像である参
照画像上のブロックが有する動きベクトルをフレーム間距離でスケーリングして処理対象
ブロックの動きベクトルとして利用して、符号化ベクトルを伝送することなく動き補償予
測を実現する、時間ダイレクトモードによる動き補償予測が用いられている。これによっ
て、動きベクトルの符号量が削減されて、符号化効率の向上が実現されていた。
Therefore, in MPEG-4 AVC, focusing on the continuity of movement in the time direction, a block on a reference image which is a processed image different from a processing target image having a processing target block at the same position as the processing target block has. Motion compensated prediction in the temporal direct mode is used in which a motion vector is scaled by a distance between frames and used as a motion vector of a processing target block to realize motion compensated prediction without transmitting an encoded vector. As a result, the code amount of the motion vector is reduced, and the encoding efficiency is improved.

また、特許文献1では、空間方向の動きの連続性に着目し、処理対象ブロックに隣接す
る処理済みのブロックが有する動きベクトルを処理対象ブロックの動きベクトルとして利
用して、符号化ベクトルを伝送することなく動き補償予測を実現する方法が開示されてい
る。
Further, in Patent Document 1, paying attention to the continuity of motion in the spatial direction, an encoded vector is transmitted using a motion vector of a processed block adjacent to the processing target block as a motion vector of the processing target block. A method for realizing motion compensated prediction without the need is disclosed.

特開平10−276439号公報JP-A-10-276439

上述したMPEG−4AVCで定義されているような時間ダイレクトモードによる動き
ベクトルの導出では、導出の際にはスケーリングが必要となるため、複雑な演算が必要と
なってしまう。また、特許文献1に記載された方法においては、処理対象予測ブロックに
隣接する処理済みのブロックが有する動きベクトルを処理対象予測ブロックの動きベクト
ルとして利用しており、隣接する複数の予測ブロックをまとめて動き補償予測を行うよう
にした場合に、並列的な動き補償予測処理が行えない場合がある。
In the derivation of the motion vector in the temporal direct mode as defined in the above-described MPEG-4 AVC, since the derivation requires scaling, a complicated calculation is required. In the method described in Patent Document 1, a motion vector included in a processed block adjacent to a processing target prediction block is used as a motion vector of the processing target prediction block, and a plurality of adjacent prediction blocks are collected. When motion compensation prediction is performed, parallel motion compensation prediction processing may not be performed.

本発明はこうした状況に鑑みてなされたものであり、その目的は、処理対象予測ブロッ
クに隣接する処理済みのブロックが有する動きベクトルを処理対象予測ブロックの動きベ
クトル生成に利用しながら、隣接する複数の予測ブロックをまとめて動き補償予測する動
き補償予測の並列処理を高効率に実現することのできる動画像符号化および動画像復号技
術を提供することにある。
The present invention has been made in view of such a situation, and an object of the present invention is to use a plurality of adjacent motion vectors while generating a motion vector of a processed block adjacent to a processing target prediction block for generating a motion vector of the processing target prediction block. It is an object of the present invention to provide a moving picture coding and moving picture decoding technique capable of realizing high-efficiency parallel processing of motion compensated prediction in which motion compensation prediction is performed for all the prediction blocks.

1以上の予測ブロックからなる復号ブロックを復号する動画像復号装置であって、復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された符号列から、前記候補特定インデックスを復号する復号部と、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成部と、前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成部と、前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択部とを備え、前記復号部は、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号することを特徴とする動画像復号装置を提供する。
1以上の予測ブロックからなる復号ブロックを復号する動画像復号方法であって、復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された符号列から、前記候補特定インデックスを復号する復号ステップと、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成ステップと、前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成ステップと、前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択ステップとを有し、前記復号ステップにおいて、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号することを特徴とする動画像復号方法を提供する。
1以上の予測ブロックからなる復号ブロックを復号する動画像復号プログラムであって、復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された符号列から、前記候補特定インデックスを復号する復号ステップと、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成ステップと、前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成ステップと、前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択ステップとをコンピュータに実行させ、前記復号ステップにおいて、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号することを特徴とする動画像復号プログラムを提供する。
符号化ストリームから、1以上の予測ブロックからなる復号ブロックを復号する受信装置であって、動画像が符号化された符号化データを受信する受信部と、前記符号化データをパケット処理して前記符号化ストリームを生成するパケット処理部と、復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された、前記符号化ストリームの符号列から、前記候補特定インデックスを復号する復号部と、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成部と、前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成部と、前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択部とを備え、前記復号部は、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号することを特徴とする受信装置を提供する。
符号化ストリームから、1以上の予測ブロックからなる復号ブロックを復号する受信方法であって、動画像が符号化された符号化データを受信する受信ステップと、前記符号化データをパケット処理して前記符号化ストリームを生成するパケット処理ステップと、復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された、前記符号化ストリームの符号列から、前記候補特定インデックスを復号する復号ステップと、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成ステップと、前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成ステップと、前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択ステップとを有し、前記復号ステップにおいて、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号することを特徴とする受信方法を提供する。
符号化ストリームから、1以上の予測ブロックからなる復号ブロックを復号する受信プログラムであって、動画像が符号化された符号化データを受信する受信ステップと、前記符号化データをパケット処理して前記符号化ストリームを生成するパケット処理ステップと、復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された、前記符号化ストリームの符号列から、前記候補特定インデックスを復号する復号ステップと、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成ステップと、前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成ステップと、前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択ステップとをコンピュータに実行させ、前記復号ステップにおいて、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号することを特徴とする受信プログラムを提供する。
A moving picture decoding apparatus that decodes a decoded block including one or more prediction blocks, from a code string in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specifying index A decoding unit that decodes the candidate identification index, and information indicating whether or not to derive temporally combined motion information candidates that are commonly used for all of the prediction blocks in the decoding block are prediction blocks in the decoding block If it is information indicating that a temporally combined motion information candidate that is commonly used for all of the decoded blocks is derived from a predicted block of a decoded picture different from a picture having a predicted block to be decoded, the decoded block Temporally combined motion information candidate student for deriving temporally combined motion information candidates to be commonly used for all prediction blocks A combined motion information candidate generating unit that generates a plurality of combined motion information candidates including the temporally combined motion information candidates, and one combined motion information candidate from the plurality of combined motion information candidates based on the candidate specifying index. And a combined motion information selection unit that uses the selected combined motion information candidate as the motion information of the prediction block to be decoded, and the decoding unit includes all the prediction blocks in the decoded block. In contrast, the present invention provides a moving picture decoding apparatus characterized in that information indicating whether or not information indicating whether or not to derive a time combination motion information candidate to be used in common is valid is decoded from the code string.
A moving picture decoding method for decoding a decoding block including one or more prediction blocks, wherein a code sequence in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specifying index A decoding step for decoding the candidate specific index, and information indicating whether to derive temporally combined motion information candidates to be commonly used for all of the prediction blocks in the decoding block is a prediction block in the decoding block If it is information indicating that a temporally combined motion information candidate that is commonly used for all of the decoded blocks is derived from a predicted block of a decoded picture different from a picture having a predicted block to be decoded, the decoded block Temporally coupled motion information for deriving temporally coupled motion information candidates to be used in common for all prediction blocks A complementary generation step, a combined motion information candidate generation step for generating a plurality of combined motion information candidates including the temporally combined motion information candidates, and one combined motion information from the plurality of combined motion information candidates based on the candidate identification index A combined motion information selection step that selects a candidate and uses the selected combined motion information candidate as motion information of the prediction block to be decoded, and in the decoding step, a prediction block in the decoded block A moving picture decoding method characterized in that information indicating whether or not information indicating whether or not to derive a temporally combined motion information candidate to be commonly used for all of the above is decoded from the code string provide.
A moving picture decoding program for decoding a decoding block including one or more prediction blocks, from a code string in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specifying index A decoding step for decoding the candidate specific index, and information indicating whether to derive temporally combined motion information candidates to be commonly used for all of the prediction blocks in the decoding block is a prediction block in the decoding block If it is information indicating that a temporally combined motion information candidate that is commonly used for all of the decoded blocks is derived from a predicted block of a decoded picture different from a picture having a predicted block to be decoded, the decoded block Temporally coupled motion to derive temporally coupled motion information candidates that are commonly used for all prediction blocks An information candidate generating step, a combined motion information candidate generating step for generating a plurality of combined motion information candidates including the temporally combined motion information candidates, and one combined motion from the plurality of combined motion information candidates based on the candidate identification index Selecting a candidate information, and causing the computer to execute a combined motion information selection step of using the selected combined motion information candidate as motion information of the prediction block to be decoded, and in the decoding step, Moving picture characterized in that information indicating whether or not information indicating whether or not to derive a temporally combined motion information candidate to be commonly used for all of the prediction blocks is decoded from the code string A decryption program is provided.
A receiving device that decodes a decoded block including one or more prediction blocks from an encoded stream, a receiving unit that receives encoded data in which a moving image is encoded, and packet processing the encoded data, From the code stream of the encoded stream, in which a packet processing unit that generates an encoded stream and an index for specifying a combined motion information candidate used in a prediction block to be decoded are encoded as a candidate specifying index, the candidate A decoding unit that decodes a specific index, and information indicating whether to derive temporally combined motion information candidates that are commonly used for all of the prediction blocks in the decoding block include information on all of the prediction blocks in the decoding block. If it is information indicating that a time combination motion information candidate to be used in common is derived, the prediction block to be decoded is decoded. A temporally combined motion information candidate generating unit for deriving temporally combined motion information candidates to be commonly used for all of the predicted blocks in the decoded block from a predicted block of a decoded picture different from a certain picture; A combined motion information candidate generation unit that generates a plurality of combined motion information candidates including temporally combined motion information candidates, and selects and selects one combined motion information candidate from the plurality of combined motion information candidates based on the candidate identification index A combined motion information selection unit that uses the one combined motion information candidate as motion information of the prediction block to be decoded, and the decoding unit is common to all the prediction blocks in the decoded block. Decoding information indicating whether or not to validate information indicating whether or not to derive a temporally combined motion information candidate to be used from the code string, To provide that the receiving device.
A reception method for decoding a decoded block including one or more prediction blocks from an encoded stream, wherein the reception step receives encoded data in which a moving image is encoded; From the packet processing step for generating an encoded stream and the code stream of the encoded stream in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specifying index, the candidate A decoding step for decoding a specific index and information indicating whether to derive temporally combined motion information candidates to be commonly used for all of the prediction blocks in the decoding block are included in all of the prediction blocks in the decoding block. If it is information indicating that a time combination motion information candidate to be used in common is derived, Temporally combined motion information candidate generation for deriving temporally combined motion information candidates to be used in common for all of the prediction blocks in the decoded block from a predicted block of a decoded picture different from the picture having the target prediction block A combined motion information candidate generating step for generating a plurality of combined motion information candidates including the temporally combined motion information candidates, and one combined motion information candidate from the plurality of combined motion information candidates based on the candidate specifying index. A combined motion information selection step that selects and uses the selected one combined motion information candidate as motion information of the prediction block to be decoded, and in the decoding step, all prediction blocks in the decoded block Whether information indicating whether or not to derive temporally combined motion information candidates to be used in common is valid for To provide a receiving method, characterized by decoding from the code string information indicating.
A reception program for decoding a decoded block composed of one or more prediction blocks from an encoded stream, wherein the reception step receives encoded data in which a moving image is encoded, and packetizes the encoded data to perform the packet processing. From the packet processing step for generating an encoded stream and the code stream of the encoded stream in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specifying index, the candidate A decoding step for decoding a specific index and information indicating whether to derive temporally combined motion information candidates to be commonly used for all of the prediction blocks in the decoding block are included in all of the prediction blocks in the decoding block. If it is information indicating that a candidate for time-coupled motion information to be used in common is derived Temporally combined motion information for deriving temporally combined motion information candidates to be commonly used for all of the predicted blocks in the decoded block from a predicted block of a decoded picture different from a picture having a predicted block to be decoded A candidate generation step; a combined motion information candidate generation step for generating a plurality of combined motion information candidates including the temporally combined motion information candidates; and one combined motion information from the plurality of combined motion information candidates based on the candidate identification index Selecting a candidate, and causing the computer to execute a combined motion information selection step that uses the selected candidate combined motion information candidate as motion information of the prediction block to be decoded, and in the decoding step, Whether to derive temporally combined motion information candidates to be used in common for all prediction blocks Information indicating whether to validate the to information to provide a receiving program, characterized by decoding from the code sequence.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒
体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効で
ある。
It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、処理対象予測ブロックに隣接する処理済みのブロックが有する動きベ
クトルを処理対象予測ブロックの動きベクトル生成に利用しながら、隣接する複数の予測
ブロックをまとめて動き補償予測する動き補償予測の並列処理を高効率に実現することが
できる。
According to the present invention, motion compensation for performing motion compensation prediction on a plurality of adjacent prediction blocks collectively while using a motion vector of a processed block adjacent to the processing target prediction block for generating a motion vector of the processing target prediction block. Predictive parallel processing can be realized with high efficiency.

図1(a)、(b)は、符号化ブロックを説明する図である。FIGS. 1A and 1B are diagrams for explaining an encoded block. 図2(a)〜(d)は、予測ブロックサイズタイプを説明する図である。FIGS. 2A to 2D are diagrams for explaining the prediction block size type. 予測ブロックサイズタイプを説明する図である。It is a figure explaining a prediction block size type. 予測符号化モードを説明する図である。It is a figure explaining prediction coding mode. マージインデックスと符号列の関係を説明する図である。It is a figure explaining the relationship between a merge index and a code sequence. 予測ブロックのシンタックスの一例を説明する図である。It is a figure explaining an example of the syntax of a prediction block. 実施の形態1に係る動画像符号化装置の構成を示す図である。1 is a diagram illustrating a configuration of a moving image encoding device according to Embodiment 1. FIG. 図7の動き情報生成部の構成を示す図である。It is a figure which shows the structure of the motion information generation part of FIG. 図8のマージモード決定部の構成を説明する図である。It is a figure explaining the structure of the merge mode determination part of FIG. 図9の結合動き情報候補リスト生成部の構成を説明する図である。It is a figure explaining the structure of the joint motion information candidate list production | generation part of FIG. 図9の結合動き情報候補リスト生成部の動作を説明するフローチャートである。10 is a flowchart illustrating an operation of a combined motion information candidate list generation unit in FIG. 9. 予測ブロックサイズタイプが2N×2Nである予測ブロックの候補ブロック群について説明する図である。It is a figure explaining the candidate block group of the prediction block whose prediction block size type is 2Nx2N. 予測ブロックサイズタイプが2N×2Nではない符号化ブロックにおける予測ブロックについて、予測ブロックサイズタイプが2N×2Nである符号化ブロックの予測ブロックと同じ位置関係を適用した場合の候補ブロック群を示す図である。The figure which shows a candidate block group at the time of applying the same positional relationship as the prediction block of the encoding block whose prediction block size type is 2Nx2N about the prediction block in the encoding block whose prediction block size type is not 2Nx2N. is there. 実施の形態1における予測ブロックサイズタイプが2N×2N以外の予測ブロックと空間候補ブロック群の位置関係の一例を説明する図である。6 is a diagram for explaining an example of a positional relationship between a prediction block whose prediction block size type is other than 2N × 2N and a spatial candidate block group in Embodiment 1. FIG. 図10の空間結合動き情報候補生成部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the space joint motion information candidate production | generation part of FIG. 図10の時間結合動き情報候補生成部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the time combination motion information candidate production | generation part of FIG. 図10の第1結合動き情報候補補充部の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the 1st joint motion information candidate supplement part of FIG. 組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係を説明する図である。It is a figure explaining the relationship between the frequency | count of combination inspection, combined motion information candidate M, and combined motion information candidate N. 図10の第2結合動き情報候補補充部の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the 2nd joint motion information candidate supplement part of FIG. 実施の形態1に係る動画像復号装置の構成を示す図である。1 is a diagram illustrating a configuration of a video decoding device according to Embodiment 1. FIG. 図20の動き情報再生部の構成を示す図である。It is a figure which shows the structure of the motion information reproduction | regeneration part of FIG. 図21の結合動き情報再生部の構成を示す図である。It is a figure which shows the structure of the joint motion information reproduction | regeneration part of FIG. 実施の形態2における予測ブロックサイズタイプが2N×2N以外の予測ブロックと空間候補ブロック群の位置関係を説明する図である。It is a figure explaining the positional relationship of a prediction block other than the prediction block size type in Embodiment 2 and a space candidate block group except 2Nx2N. 予測ブロックサイズタイプに依存せずに符号化ブロック内の予測ブロックの候補ブロックを共通とする一例における予測ブロックサイズタイプが2N×2N以外の予測ブロックと空間候補ブロック群の位置関係を説明する図である。It is a figure explaining the positional relationship of the prediction block and the spatial candidate block group whose prediction block size type is other than 2N × 2N in an example in which the prediction block size type in the coding block is common without depending on the prediction block size type. is there. 実施の形態3における予測ブロックサイズタイプが2N×2N以外の予測ブロックと空間候補ブロック群の位置関係を説明する図である。It is a figure explaining the positional relationship of a prediction block other than the prediction block size type in Embodiment 3, and a space candidate block group except 2Nx2N. 実施の形態3の結合動き情報候補リスト生成部の動作を説明するフローチャートである。10 is a flowchart illustrating an operation of a combined motion information candidate list generation unit according to the third embodiment. 最大符号化ブロック下限ラインと時間候補ブロック群を説明する図である。It is a figure explaining the largest encoding block lower limit line and a time candidate block group. 実施の形態4における予測ブロックサイズタイプが2N×2N以外の予測ブロックと空間候補ブロック群の位置関係を説明する図である。It is a figure explaining the positional relationship of the prediction block and prediction candidate block size other than 2Nx2N in Embodiment 4 and a space candidate block group. 実施の形態4の結合動き情報候補リスト生成部の構成を説明する図である。FIG. 10 is a diagram for describing a configuration of a combined motion information candidate list generation unit according to a fourth embodiment. 実施の形態4の結合動き情報候補リスト生成部の動作を説明するフローチャートである。18 is a flowchart for explaining the operation of the combined motion information candidate list generation unit according to the fourth embodiment. 実施の形態5の結合動き情報候補リスト生成部の構成を説明する図である。FIG. 25 is a diagram for describing a configuration of a combined motion information candidate list generation unit according to the fifth embodiment. 実施の形態5の結合動き情報候補リスト生成部の動作を説明するフローチャートである。29 is a flowchart for explaining the operation of the combined motion information candidate list generation unit of the fifth embodiment. 予測ベクトルモード決定部の構成を示す。The structure of a prediction vector mode determination part is shown. 予測ベクトル候補リスト生成部の構成を説明する図である。It is a figure explaining the structure of a prediction vector candidate list production | generation part. 予測ベクトル候補リスト生成部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of a prediction vector candidate list production | generation part. 動きベクトル再生部の構成を説明する図である。It is a figure explaining the structure of a motion vector reproduction | regeneration part.

まず、本発明の実施の形態の前提となる技術を説明する。   First, a technique that is a premise of the embodiment of the present invention will be described.

現在、MPEG(Moving Picture Experts Group)など
の符号化方式に準拠した装置およびシステムが普及している。そのような符号化方式では
、時間軸上に連続する複数の画像をデジタル信号の情報として取り扱う。その際、効率の
高い情報の放送、伝送または蓄積などを目的とし、画像を複数のブロックに分割して時間
方向の冗長性を利用した動き補償予測、および空間方向の冗長性を利用した離散コサイン
変換などの直交変換を用いて圧縮符号化する。
Currently, apparatuses and systems that comply with an encoding method such as MPEG (Moving Picture Experts Group) are widely used. In such an encoding method, a plurality of images that are continuous on the time axis are handled as digital signal information. At that time, motion-compensated prediction using temporal redundancy and discrete cosine using spatial redundancy for the purpose of broadcasting, transmitting or storing information with high efficiency, etc. Compression encoding is performed using orthogonal transformation such as transformation.

2003年に、国際標準化機構(ISO)と国際電気標準会議(IEC)のジョイント
技術委員会(ISO/IEC)と、国際電気通信連合電気通信標準化部門(ITU−T)
の共同作業によってMPEG−4 AVC/H.264と呼ばれる符号化方式(ISO/
IECでは14496−10、ITU−TではH.264の規格番号がつけられている。
以下、これをMPEG−4AVCと呼ぶ)が国際標準として制定された。MPEG−4A
VCでは、基本的に処理対象ブロックの複数の隣接ブロックの動きベクトルの中央値を予
測ベクトルとする。予測ブロックサイズが正方形でない場合で処理対象ブロックの特定の
隣接ブロックの参照インデックスと処理対象ブロックの参照インデックスが一致する場合
には、その特定の隣接ブロックの動きベクトルを予測ベクトルとする。
In 2003, joint technical committee (ISO / IEC) of International Organization for Standardization (ISO) and International Electrotechnical Commission (IEC) and International Telecommunication Union Telecommunication Standardization Division (ITU-T)
MPEG-4 AVC / H. H.264 encoding system (ISO /
In IEC, it is 14496-10, in ITU-T, H.264. H.264 standard number is assigned.
This is hereinafter referred to as MPEG-4 AVC) as an international standard. MPEG-4A
In VC, basically, a median value of motion vectors of a plurality of adjacent blocks of a processing target block is used as a prediction vector. When the prediction block size is not square and the reference index of a specific adjacent block of the processing target block matches the reference index of the processing target block, the motion vector of the specific adjacent block is set as a prediction vector.

現在、国際標準化機構(ISO)と国際電気標準会議(IEC)のジョイント技術委員
会(ISO/IEC)と、国際電気通信連合電気通信標準化部門(ITU−T)の共同作
業によってHEVCと呼ばれる符号化方式の標準化が検討されている。
Coding currently called HEVC by the joint work of the International Technical Organization (ISO) and the International Electrotechnical Commission (IEC) Joint Technical Committee (ISO / IEC) and the International Telecommunication Union Telecommunication Standardization Sector (ITU-T) Standardization of the method is being studied.

HEVCの標準化では、複数の隣接ブロックと復号済みの別の画像のブロックを候補ブ
ロックとして、これら候補ブロックで構成される候補ブロック群から1つの候補ブロック
が選択されて、選択された候補ブロックの情報が符号化および復号されるマージモードが
検討されている。
In the HEVC standardization, a plurality of adjacent blocks and another decoded image block are used as candidate blocks, and one candidate block is selected from a candidate block group composed of these candidate blocks, and information on the selected candidate block is obtained. A merge mode in which is encoded and decoded is under consideration.

[実施の形態1]
(符号化ブロック)
本実施の形態では、入力された画像信号は最大符号化ブロック単位に分割され、分割さ
れた最大符号化ブロックをラスタースキャン順序で処理する。符号化ブロックは階層構造
となっており、符号化効率などを考慮して順次4分割することでより小さい符号化ブロッ
クにすることができる。なお、4分割された符号化ブロックはジグザグスキャン順で符号
化される。これ以上小さくすることのできない符号化ブロックを最小符号化ブロックと呼
ぶ。符号化ブロックは符号化の単位となり、最大符号化ブロックも分割回数が0である場
合は符号化ブロックとなる。本実施の形態では、最大符号化ブロックを64画素×64画
素、最小符号化ブロックを8画素×8画素とする。
[Embodiment 1]
(Encoding block)
In the present embodiment, the input image signal is divided into units of maximum encoding blocks, and the divided maximum encoding blocks are processed in a raster scan order. The encoding block has a hierarchical structure, and can be made into a smaller encoding block by sequentially dividing into four in consideration of encoding efficiency and the like. Note that the encoded blocks divided into four are encoded in the zigzag scan order. An encoded block that cannot be further reduced is called a minimum encoded block. The encoded block is a unit of encoding, and the maximum encoded block is also an encoded block when the number of divisions is zero. In this embodiment, the maximum coding block is 64 pixels × 64 pixels, and the minimum coding block is 8 pixels × 8 pixels.

図1(a)、(b)は、符号化ブロックを説明するための図である。図1(a)の例で
は、符号化ブロックが10個に分割されている。CU0、CU1およびCU9は32画素
×32画素の符号化ブロック、CU2、CU3およびCU8は16画素×16画素の符号
化ブロック、ならびにCU4、CU5、CU6およびCU7は8画素×8画素の符号化ブ
ロックとなっている。図1(b)の例では、符号化ブロックが1個に分割されている。
FIGS. 1A and 1B are diagrams for explaining an encoded block. In the example of FIG. 1A, the encoded block is divided into ten. CU0, CU1 and CU9 are 32 × 32 pixel coding blocks, CU2, CU3 and CU8 are 16 × 16 pixel coding blocks, and CU4, CU5, CU6 and CU7 are 8 × 8 pixel coding blocks. It has become. In the example of FIG. 1B, the encoded block is divided into one.

(予測ブロック)
本実施の形態では、符号化ブロックはさらに予測ブロック(パーティションともいう)
に分割される。符号化ブロックは予測ブロックサイズタイプ(「分割タイプ」やパーティ
ションタイプともいう)によって1以上の予測ブロックに分割される。図2(a)〜(d
)は、予測ブロックサイズタイプを説明するための図である。図2(a)は符号化ブロッ
クを分割しない2N×2N、図2(b)は水平に2分割する2N×N、図2(c)は垂直
に2分割するN×2N、および図2(d)は水平と垂直に4分割するN×Nを示す。2N
×2Nは1個の予測ブロック0、2N×NとN×2Nは2個の予測ブロック0と予測ブロ
ック1、N×Nは4個の予測ブロック0、予測ブロック1、予測ブロック2、予測ブロッ
ク3からなる。予測ブロック0、予測ブロック1、予測ブロック2、予測ブロック3の順
に符号化される。
(Prediction block)
In the present embodiment, the encoded block is further a prediction block (also called a partition).
It is divided into. The encoded block is divided into one or more prediction blocks according to a prediction block size type (also referred to as “partition type” or partition type). 2A to 2D
) Is a diagram for explaining a prediction block size type. 2 (a) is 2N × 2N that does not divide the encoded block, FIG. 2 (b) is 2N × N that is horizontally divided, FIG. 2 (c) is N × 2N that is vertically divided, and FIG. d) shows N × N which is divided into 4 parts horizontally and vertically. 2N
× 2N is one prediction block 0, 2N × N and N × 2N are two prediction blocks 0 and prediction block 1, N × N is four prediction blocks 0, prediction block 1, prediction block 2, and prediction block It consists of three. The prediction block 0, the prediction block 1, the prediction block 2, and the prediction block 3 are encoded in this order.

図3は、符号化ブロックの分割回数と予測ブロックサイズタイプによる予測ブロックサ
イズを説明するための図である。本実施の形態における予測ブロックサイズは、CU分割
回数が0であって予測ブロックサイズタイプが2N×2Nである64画素×64画素から
CU分割回数が3であって予測ブロックサイズタイプN×Nである4画素×4画素までの
13の予測ブロックサイズが存在することになる。例えば、符号化ブロックを非対称に水
平や垂直に2分割することもできる。
FIG. 3 is a diagram for explaining the prediction block size based on the number of times of coding block division and the prediction block size type. The prediction block size in the present embodiment is from 64 pixels × 64 pixels in which the number of CU divisions is 0 and the prediction block size type is 2N × 2N, and the number of CU divisions is 3, and the prediction block size type is N × N. There are 13 predicted block sizes up to 4 pixels x 4 pixels. For example, the coding block can be asymmetrically divided into two horizontally and vertically.

本実施の形態では、最大符号化ブロックを64画素×64画素、最小符号化ブロックを
8画素×8画素とするが、この組み合わせに限定されない。また、予測ブロックの分割の
パターンを図2(a)〜(d)としたが、1以上に分割される組み合わせであればよくこ
れに限定されない。
In the present embodiment, the maximum encoding block is 64 pixels × 64 pixels and the minimum encoding block is 8 pixels × 8 pixels, but the present invention is not limited to this combination. In addition, although the prediction block division pattern is shown in FIGS. 2A to 2D, the combination is not limited to this as long as the combination is divided into one or more.

(予測符号化モード)
本実施の形態では、動き補償予測や符号化ベクトル数を予測ブロック毎に切り替えるこ
とが可能となっている。ここで、動き補償予測と符号化ベクトル数を関連付けた予測符号
化モードの一例について図4を用いて簡単に説明する。図4は、予測符号化モードを説明
するための図である。
(Predictive coding mode)
In the present embodiment, the motion compensation prediction and the number of encoded vectors can be switched for each prediction block. Here, an example of a predictive coding mode in which motion compensation prediction is associated with the number of coding vectors will be briefly described with reference to FIG. FIG. 4 is a diagram for explaining the predictive coding mode.

図4に示す予測符号化モードには、動き補償予測の予測方向が単予測(L0予測)であ
って符号化ベクトル数が1であるPredL0、動き補償予測の予測方向が単予測(L1
予測)であって符号化ベクトル数が1であるPredL1、動き補償予測の予測方向が双
予測(BI予測)であって符号化ベクトル数が2であるPredBI、および動き補償予
測の予測方向が単予測(L0予測/L1予測)または双予測(BI予測)であって符号化
ベクトル数が0であるマージモード(MERGE)がある。また、動き補償予測を実施し
ない予測符号化モードであるイントラモード(Intra)もある。ここで、PredL
0、PredL1、およびPredBIが予測ベクトルモードとなる。
In the predictive coding mode shown in FIG. 4, the prediction direction of motion compensation prediction is single prediction (L0 prediction) and the number of coding vectors is PredL0, and the prediction direction of motion compensation prediction is single prediction (L1).
PredL1 in which the number of encoded vectors is 1, PredBI in which the prediction direction of motion compensation prediction is bi-prediction (BI prediction) and the number of encoded vectors is 2, and the prediction direction of motion compensation prediction is simple. There is a merge mode (MERGE) which is prediction (L0 prediction / L1 prediction) or bi-prediction (BI prediction) and the number of encoded vectors is zero. There is also an intra mode (Intra) which is a predictive coding mode in which motion compensation prediction is not performed. Where PredL
0, PredL1, and PredBI are prediction vector modes.

マージモードでは予測方向がL0予測/L1予測/BI予測のいずれにもなるが、それ
は、マージモードの予測方向は候補ブロック群から選択された候補ブロックの予測方向を
そのまま引き継ぐか、復号済みの情報から導出されるためである。また、マージモードで
は符号化ベクトルが符号化されない。これは、マージモードの符号化ベクトルは候補ブロ
ック群から選択された候補ブロックの動きベクトルをそのまま引き継ぐか、あらかじめ定
められた規則によって導出されるためである。
In the merge mode, the prediction direction is any of L0 prediction / L1 prediction / BI prediction. The prediction direction in the merge mode is the same as the prediction direction of the candidate block selected from the candidate block group, or the decoded information. This is because it is derived from In the merge mode, the encoded vector is not encoded. This is because the merge mode encoding vector inherits the motion vector of the candidate block selected from the candidate block group as it is or is derived by a predetermined rule.

(参照インデックス)
本実施の形態では、動き補償予測の精度向上のために、動き補償予測において複数の参
照画像の中から最適な参照画像を選択することを可能とする。そのため、動き補償予測で
利用した参照画像を参照画像インデックスとして符号化ベクトルとともに符号化する。動
き補償予測で利用される参照画像インデックスは0以上の数値となる。動き補償予測が単
予測であれば、参照インデックスは1つ利用され、動き補償予測が双予測であれば、2つ
の参照インデックスが利用される(図4)。
(Reference index)
In this embodiment, in order to improve the accuracy of motion compensation prediction, it is possible to select an optimal reference image from a plurality of reference images in motion compensation prediction. For this reason, the reference image used in the motion compensation prediction is encoded as a reference image index together with the encoded vector. The reference image index used in motion compensation prediction is a numerical value of 0 or more. If the motion compensation prediction is uni-prediction, one reference index is used, and if the motion compensation prediction is bi-prediction, two reference indexes are used (FIG. 4).

マージモードでは参照インデックスは符号化されない。これは、マージモードの参照イ
ンデックスは候補ブロック群から選択された候補ブロックの参照インデックスをそのまま
引き継ぐか、あらかじめ定められた規則によって導出されるためである。
In merge mode, the reference index is not encoded. This is because the reference index of the merge mode is derived from the reference index of the candidate block selected from the candidate block group as it is, or derived by a predetermined rule.

(参照インデックスリスト)
本実施の形態では、動き補償予測で利用できる1以上の参照画像を参照インデックスリ
スト内に登録しておき、参照インデックスリスト内に登録された参照画像を参照インデッ
クスで示すことによって参照画像を確定させて動き補償予測で利用する。参照インデック
スリストには、参照インデックスリストL0(L0予測の参照インデックスリストともい
う)と参照インデックスリストL1(L1予測の参照インデックスリストともいう)があ
る。動き補償予測が単予測の場合は、参照インデックスリストL0の中の参照画像を用い
たL0予測、または参照インデックスリストL1の中の参照画像を用いたL1予測のいず
れかを利用する。双予測の場合は参照インデックスリストL0と参照インデックスリスト
L1の2つを利用したBI予測を利用する。各参照インデックスリストに登録できる参照
画像の最大数は16とする。
(Reference index list)
In the present embodiment, one or more reference images that can be used in motion compensation prediction are registered in the reference index list, and the reference image is confirmed by indicating the reference image registered in the reference index list with the reference index. Used in motion compensated prediction. The reference index list includes a reference index list L0 (also referred to as a reference index list for L0 prediction) and a reference index list L1 (also referred to as a reference index list for L1 prediction). When the motion compensation prediction is simple prediction, either L0 prediction using a reference image in the reference index list L0 or L1 prediction using a reference image in the reference index list L1 is used. In the case of bi-prediction, BI prediction using the reference index list L0 and the reference index list L1 is used. The maximum number of reference images that can be registered in each reference index list is 16.

(マージインデックス)
本実施の形態では、マージモードの場合には、処理対象画像内の複数の隣接ブロックお
よび符号化済みの別の画像内の処理対象の予測ブロックと同一位置にある同一位置予測ブ
ロック内と同一位置予測ブロックの周辺にあるブロックを候補ブロック群として、候補ブ
ロック群の中から最適な予測符号化モード、動きベクトル、及び参照インデックスを持つ
候補ブロックを選択し、選択した候補ブロックを示すためのマージインデックスを符号化
および復号する。マージモードのときのみマージインデックスが1つ利用される(図4)
。マージインデックスの最大個数(マージ候補最大数ともいう)は5であり、マージイン
デックスは0から4までの整数となる。ここでは、マージインデックスの最大数を5とし
たが、2以上であればよく、これに限定されない。
(Merge index)
In the present embodiment, in the merge mode, the same position in the same position prediction block that is at the same position as the plurality of adjacent blocks in the processing target image and the processing target prediction block in another encoded image A merge index for selecting a candidate block having an optimal predictive coding mode, motion vector, and reference index from the candidate block group using blocks around the prediction block as a candidate block group, and indicating the selected candidate block Is encoded and decoded. Only one merge index is used in the merge mode (FIG. 4).
. The maximum number of merge indexes (also called the maximum number of merge candidates) is 5, and the merge index is an integer from 0 to 4. Here, the maximum number of merge indexes is set to 5, but it may be 2 or more, and is not limited to this.

以降、マージインデックスの対象となる候補ブロックの動き情報を結合動き情報候補と
呼び、結合動き情報候補の集合体を結合動き情報候補リストと呼ぶ。以降、動き情報とは
予測方向、動きベクトル、及び参照インデックスを含む。
Hereinafter, the motion information of the candidate block that is the target of the merge index is referred to as a combined motion information candidate, and the aggregate of combined motion information candidates is referred to as a combined motion information candidate list. Hereinafter, the motion information includes a prediction direction, a motion vector, and a reference index.

次に、マージインデックスと符号列の関係について説明する。図5はマージインデック
スと符号列の関係を説明するための図である。マージインデックスが0の場合の符号列は
'0'、マージインデックスが1の場合の符号列は'10'、マージインデックスが2の場合
の符号列は'110'、マージインデックスが3の場合の符号列は'1110'、マージイン
デックスが4の場合の符号列は'1111'となり、マージインデックスが大きくなるほど
符号列が長くなるように設定される。そのため、選択率の高い候補ブロックに小さいマー
ジインデックスを割り当てることで、符号化効率を向上させることができる。
Next, the relationship between the merge index and the code string will be described. FIG. 5 is a diagram for explaining the relationship between the merge index and the code string. The code sequence when the merge index is 0 is
The code sequence when the merge index is 1 is '10', the code sequence when the merge index is 2 is '110', the code sequence when the merge index is 3 is '1110', and the merge index is 4 In this case, the code string is “1111”, and the code string is set to be longer as the merge index becomes larger. Therefore, it is possible to improve the encoding efficiency by assigning a small merge index to a candidate block with a high selection rate.

次に、結合動き情報候補リストとマージインデックスの関係について説明する。マージ
インデックス0は結合動き情報候補リストの最初(0番目)の結合動き情報候補を示す。
以下、マージインデックスmは結合動き情報候補リストのm番目の結合動き情報候補を示
す。ここで、mは0から(マージ候補最大数−1)の整数となる。
Next, the relationship between the combined motion information candidate list and the merge index will be described. The merge index 0 indicates the first (0th) combined motion information candidate in the combined motion information candidate list.
Hereinafter, the merge index m indicates the m-th combined motion information candidate in the combined motion information candidate list. Here, m is an integer from 0 to (maximum number of merge candidates−1).

(予測ベクトルインデックス)
本実施の形態では、予測ベクトルの精度を向上させるために、処理対象画像内の複数の
隣接ブロックおよび符号化済みの別の画像の処理対象ブロックと同一位置にある同一位置
予測ブロック内と同一位置予測ブロックの周辺にあるブロックを候補ブロック群として、
候補ブロック群から予測ベクトルとして最適な動きベクトルを持つ候補ブロックを選択し
、選択した候補ブロックを示すための予測ベクトルインデックスを符号化および復号する
。動き補償予測が単予測であれば、予測ベクトルインデックスは1つ利用され、動き補償
予測が双予測であれば、2つの予測ベクトルインデックスが利用される(図4)。予測ベ
クトルインデックスの最大数(予測ベクトル候補最大数ともいう)は2であり、予測ベク
トルインデックスは0または1の整数となる。ここでは、予測ベクトル候補最大数を2と
したが、2以上であればよく、これに限定されない。
(Predicted vector index)
In the present embodiment, in order to improve the accuracy of the prediction vector, the same position in the same position prediction block that is in the same position as the plurality of adjacent blocks in the processing target image and the processing target block of another encoded image Blocks around the prediction block are set as candidate blocks.
A candidate block having an optimal motion vector as a prediction vector is selected from the candidate block group, and a prediction vector index for indicating the selected candidate block is encoded and decoded. If the motion compensation prediction is uni-prediction, one prediction vector index is used, and if the motion compensation prediction is bi-prediction, two prediction vector indexes are used (FIG. 4). The maximum number of prediction vector indexes (also referred to as the maximum number of prediction vector candidates) is 2, and the prediction vector index is an integer of 0 or 1. Although the maximum number of prediction vector candidates is 2 here, it may be 2 or more, and is not limited to this.

次に、予測ベクトルインデックスと符号列の関係について説明する。予測ベクトルイン
デックスの符号列は予測ベクトルインデックスが0の場合の符号列は'0'、予測ベクトル
インデックスが1の場合の符号列は'1'とする。なお、予測ベクトル候補最大数が3以上
である場合にはマージインデックスと同様な規則(インデックスが大きくなるほど符号列
が長くなる)で符号列が割り当てることができる。
Next, the relationship between the prediction vector index and the code string will be described. The code string of the prediction vector index is “0” when the prediction vector index is 0, and is “1” when the prediction vector index is 1. When the maximum number of prediction vector candidates is 3 or more, a code string can be assigned according to the same rule as the merge index (the code string becomes longer as the index becomes larger).

以降、予測ベクトルインデックスの対象となる候補ブロックの動きベクトルを予測ベク
トル候補と呼び、予測ベクトル候補の集合体を予測ベクトル候補リストと呼ぶ。
Hereinafter, a motion vector of a candidate block that is a target of a prediction vector index is referred to as a prediction vector candidate, and a set of prediction vector candidates is referred to as a prediction vector candidate list.

(シンタックス)
本実施の形態による予測ブロックのシンタックスの一例について説明する。図6は本実
施の形態に係るシンタックスを説明する図である。図6は符号化木(Coding Tr
ee)、符号化ブロック(Coding Unit)、及び予測ブロック(Predic
tion Unit)のシンタックス構成の一例を示す。符号化木では符号化ブロックの
分割情報が管理される。符号化木にはsplit_coding_unit_flagが
設置され、split_coding_unit_flagが1であれば符号化木は4個
の符号化木に分割される。split_coding_unit_flagが0であれば
符号化木は符号化ブロック(Coding Unit)となる。符号化ブロックには、ス
キップモードフラグ(skip_flag)、予測モード(pred_mode)と予測
ブロックサイズタイプ(part_mode)が設置され、スキップモードフラグと予測
ブロックサイズタイプに応じて1個または2個または4個の予測ブロックに分割される。
予測モードはイントラ予測(画面内予測)を行う符号化ブロックであるかインター予測(
動き補償予測)を行う符号化ブロックであるかを示す。スキップモードフラグが1である
場合はスキップモードとなる。スキップモードは1個の予測ブロックを持つ。符号化ブロ
ック(符号化木)の分割回数は符号化ブロック(符号化木)の深さともいう。
(Syntax)
An example of the syntax of the prediction block according to the present embodiment will be described. FIG. 6 is a diagram for explaining the syntax according to the present embodiment. FIG. 6 shows a coding tree (Coding Tr).
ee), a coding block (Coding Unit), and a prediction block (Predic).
An example of the syntax configuration of (unit Unit) is shown. In the coding tree, the division information of the coding block is managed. A split_coding_unit_flag is set in the coding tree. If split_coding_unit_flag is 1, the coding tree is divided into four coding trees. If split_coding_unit_flag is 0, the coding tree is a coding block (Coding Unit). The encoded block includes a skip mode flag (skip_flag), a prediction mode (pred_mode), and a prediction block size type (part_mode). Divided into prediction blocks.
The prediction mode is a coding block that performs intra prediction (intra-screen prediction) or inter prediction (
It indicates whether the coding block is to be subjected to (motion compensation prediction). When the skip mode flag is 1, the skip mode is set. The skip mode has one prediction block. The number of divisions of the coding block (coding tree) is also referred to as the depth of the coding block (coding tree).

予測ブロックには、マージフラグ(merge_flag)、マージインデックス(m
erge_idx)、インター予測タイプ(inter_pred_type)、L0予
測の参照インデックス(ref_idx_l0)、L0予測の差分ベクトル(mvd_l
0[0]、mvd_l0[1])、L0予測の予測ベクトルインデックス(mvp_id
x_l0)、L1予測の参照インデックス(ref_idx_l1)、L1予測の差分ベ
クトル(mvd_l1[0]、mvd_l1[1])、及びL1予測の予測ベクトルイン
デックス(mvp_idx_l1)が設置されている。差分ベクトルの[0]は水平成分
、[1]は垂直成分を示す。
The prediction block includes a merge flag (merge_flag), a merge index (m
edge_idx), inter prediction type (inter_pred_type), L0 prediction reference index (ref_idx_10), L0 prediction difference vector (mvd_l)
0 [0], mvd_l0 [1]), L0 prediction vector index (mvp_id)
x_l0), a reference index for L1 prediction (ref_idx_l1), a difference vector for L1 prediction (mvd_l1 [0], mvd_l1 [1]), and a prediction vector index for L1 prediction (mvp_idx_l1). [0] of the difference vector indicates a horizontal component and [1] indicates a vertical component.

ここで、inter_pred_typeは動き補償予測の予測方向(インター予測タ
イプとも呼ぶ)を示し、Pred_L0(L0予測の単予測)、Pred_L1(L1予
測の単予測)およびPred_BI(BI予測の双予測)の3種類がある。inter_
pred_typeがPred_L0またはPred_BIの場合は、L0予測に関する
情報が設置されて、inter_pred_typeがPred_L1またはPred_
BIの場合は、L1予測に関する情報が設置される。Pピクチャ(Pスライス)ではin
ter_pred_typeは一意にPred_L0となるため、inter_pred
_typeは省略される。
Here, inter_pred_type indicates a prediction direction (also referred to as inter prediction type) of motion compensation prediction, and three types of Pred_L0 (uni prediction of L0 prediction), Pred_L1 (uni prediction of L1 prediction) and Pred_BI (bi prediction of BI prediction). There is. inter_
When pred_type is Pred_L0 or Pred_BI, information on L0 prediction is set, and inter_pred_type is Pred_L1 or Pred_BI.
In the case of BI, information regarding L1 prediction is installed. In P picture (P slice)
Since ter_pred_type is uniquely Pred_L0, inter_pred
_Type is omitted.

また、スキップモードの場合、予測ブロックはインター予測を行う符号化ブロックであ
って、予測符号化モードとしてはマージモードとなる。そのため、スキップモードの場合
はマージインデックスが設置される。
In the skip mode, the prediction block is an encoding block that performs inter prediction, and the prediction encoding mode is the merge mode. Therefore, a merge index is set in the skip mode.

なお、本実施の形態に係るシンタックスを図6のように設定したが、符号化ブロックや
予測ブロックが複数のブロックサイズを有し、マージモードと予測ベクトルモードが利用
できればよく、これに限定されない。
Although the syntax according to the present embodiment is set as shown in FIG. 6, the encoding block and the prediction block have a plurality of block sizes, and the merge mode and the prediction vector mode may be used, and the present invention is not limited to this. .

以下、図面とともに本発明の好適な実施の形態に係る動画像符号化装置、動画像符号化
方法および動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法および動
画像復号プログラムの詳細について説明する。なお、図面の説明において同一要素には同
一符号を付与して重複する説明を省略する。
Hereinafter, with reference to the drawings, details of a moving image encoding apparatus, a moving image encoding method, a moving image encoding program, a moving image decoding apparatus, a moving image decoding method, and a moving image decoding program according to a preferred embodiment of the present invention will be described. explain. In the description of the drawings, the same elements are denoted by the same reference numerals and redundant description is omitted.

(動画像符号化装置100の構成)
図7は、本実施の形態1に係る動画像符号化装置100の構成を示す。動画像符号化装
置100は、動画像信号を、動き補償予測を実施する予測ブロック単位で符号化する装置
である。符号化ブロックの分割、スキップモードの決定、予測ブロックサイズタイプの決
定、予測ブロックサイズと予測ブロックの符号化ブロック内の位置(予測ブロックの位置
情報や予測ブロック番号ともいう)の決定、予測符号化モードがイントラであるかの決定
は図示しない上位の符号化制御部で決定されているものとし、実施の形態1では予測符号
化モードがイントラでない場合について説明する。また、実施の形態1では双予測に対応
したBピクチャ(Bスライス)について説明するが、双予測に対応しないPピクチャ(P
スライス)についてはL1予測を省略すればよい。
(Configuration of moving picture coding apparatus 100)
FIG. 7 shows the configuration of moving picture coding apparatus 100 according to the first embodiment. The moving image encoding apparatus 100 is an apparatus that encodes a moving image signal in units of prediction blocks for performing motion compensation prediction. Encoding block division, skip mode determination, prediction block size type determination, prediction block size and prediction block position (also referred to as prediction block position information and prediction block number), prediction coding Whether the mode is intra is determined by a higher-level encoding control unit (not shown). In the first embodiment, a case where the predictive encoding mode is not intra will be described. In the first embodiment, a B picture (B slice) corresponding to bi-prediction will be described. However, a P picture (P
L1 prediction may be omitted for slices.

動画像符号化装置100は、CPU(Central Processing Uni
t)、フレームメモリ、ハードディスクなどを備える情報処理装置などのハードウェアに
より実現される。動画像符号化装置100は、上記の構成要素が動作することにより、以
下に説明する機能的な構成要素を実現する。なお、処理対象の予測ブロックの位置情報、
予測ブロックサイズおよび動き補償予測の予測方向に関しては動画像符号化装置100内
で共有していることとし、図示しない。
The moving image encoding apparatus 100 includes a CPU (Central Processing Uni).
t), realized by hardware such as an information processing apparatus including a frame memory, a hard disk, and the like The moving image encoding apparatus 100 realizes functional components described below by operating the above components. Note that the position information of the prediction block to be processed,
The prediction block size and the prediction direction of motion compensated prediction are assumed to be shared in the video encoding apparatus 100 and are not shown.

実施の形態1の動画像符号化装置100は、予測ブロック画像取得部101、減算部1
02、予測誤差符号化部103、符号列生成部104、予測誤差復号部105、動き補償
部106、加算部107、動きベクトル検出部108、動き情報生成部109、フレーム
メモリ110、および動き情報メモリ111を含む。
A moving picture encoding apparatus 100 according to Embodiment 1 includes a predicted block image acquisition unit 101 and a subtraction unit 1.
02, prediction error encoding unit 103, code sequence generation unit 104, prediction error decoding unit 105, motion compensation unit 106, addition unit 107, motion vector detection unit 108, motion information generation unit 109, frame memory 110, and motion information memory 111 is included.

(動画像符号化装置100の機能と動作)
以下、各部の機能と動作について説明する。予測ブロック画像取得部101は、予測ブ
ロックの位置情報と予測ブロックサイズに基づいて、端子10より供給される画像信号か
ら処理対象の予測ブロックの画像信号を取得し、予測ブロックの画像信号を減算部102
、動きベクトル検出部108および動き情報生成部109に供給する。
(Function and operation of moving picture coding apparatus 100)
Hereinafter, the function and operation of each unit will be described. The prediction block image acquisition unit 101 acquires the image signal of the prediction block to be processed from the image signal supplied from the terminal 10 based on the position information and the prediction block size of the prediction block, and subtracts the image signal of the prediction block 102
The motion vector detection unit 108 and the motion information generation unit 109 are supplied.

動きベクトル検出部108は、予測ブロック画像取得部101より供給される画像信号
および内部に記憶している複数の参照画像に相当する画像信号から、L0予測とL1予測
それぞれの動きベクトルと参照画像を示す参照インデックスを検出する。当該L0予測と
L1予測の動きベクトル、および当該L0予測とL1予測の参照インデックスを動き情報
生成部109に供給する。ここでは、動きベクトル検出部108は参照画像として内部に
記憶している複数の参照画像に相当する画像信号を利用するとしたが、フレームメモリ1
10に記憶されている参照画像を利用することもできる。
The motion vector detection unit 108 obtains motion vectors and reference images of the L0 prediction and the L1 prediction from the image signal supplied from the prediction block image acquisition unit 101 and image signals corresponding to a plurality of reference images stored therein. Detect the reference index indicated. The motion vector of the L0 prediction and the L1 prediction and the reference index of the L0 prediction and the L1 prediction are supplied to the motion information generation unit 109. Here, the motion vector detection unit 108 uses image signals corresponding to a plurality of reference images stored therein as reference images, but the frame memory 1
The reference image stored in 10 can also be used.

一般的な動きベクトルの検出方法は、対象画像の画像信号と、同一位置より所定の移動
量だけ移動させた参照画像の予測信号について誤差評価値を算出し、誤差評価値が最小と
なる移動量を動きベクトルとする。参照画像が複数ある場合には各参照画像について動き
ベクトルを検出し、誤差評価値が最小となる参照画像を選択する。誤差評価値としては、
絶対差分和を示すSAD(Sum of Absolute Difference)や
二乗誤差平均を示すMSE(Mean Square Error)などを利用すること
が可能である。また、動きベクトル符号量を誤差評価値に加算して評価することも可能で
ある。
A general motion vector detection method calculates an error evaluation value for an image signal of a target image and a prediction signal of a reference image moved by a predetermined movement amount from the same position, and a movement amount that minimizes the error evaluation value. Is a motion vector. When there are a plurality of reference images, a motion vector is detected for each reference image, and a reference image having a minimum error evaluation value is selected. As an error evaluation value,
It is possible to use SAD (Sum of Absolute Difference) indicating the sum of absolute differences, MSE (Mean Square Error) indicating the mean square error, and the like. It is also possible to evaluate by adding the motion vector code amount to the error evaluation value.

動き情報生成部109は、動きベクトル検出部108より供給されるL0予測とL1予
測の動きベクトルおよびL0予測とL1予測の参照インデックス、動き情報メモリ111
より供給される候補ブロック群、参照インデックスで示されるフレームメモリ110内の
参照画像、および予測ブロック画像取得部101より供給される画像信号から、予測符号
化モードを決定する。
The motion information generation unit 109 supplies the motion vector of the L0 prediction and the L1 prediction supplied from the motion vector detection unit 108, the reference index of the L0 prediction and the L1 prediction, and the motion information memory 111.
The prediction encoding mode is determined from the candidate block group supplied from the reference image, the reference image in the frame memory 110 indicated by the reference index, and the image signal supplied from the prediction block image acquisition unit 101.

決定された予測符号化モードに基づいて、マージフラグ、マージインデックス、動き補
償予測の予測方向、L0予測とL1予測の参照インデックス、L0予測とL1予測の差分
ベクトルおよびL0予測とL1予測の予測ベクトルインデックスを必要に応じて、符号列
生成部104に供給する。動き補償予測の予測方向、L0予測とL1予測の参照インデッ
クス、およびL0予測とL1予測の動きベクトルを動き補償部106および動き情報メモ
リ111に供給する。動き情報生成部109の詳細については後述する。
Based on the determined predictive coding mode, the merge flag, the merge index, the prediction direction of motion compensation prediction, the reference index of L0 prediction and L1 prediction, the difference vector of L0 prediction and L1 prediction, and the prediction vector of L0 prediction and L1 prediction The index is supplied to the code string generation unit 104 as necessary. The motion compensation prediction direction, the L0 prediction and L1 prediction reference indexes, and the L0 prediction and L1 prediction motion vectors are supplied to the motion compensation unit 106 and the motion information memory 111. Details of the motion information generation unit 109 will be described later.

動き補償部106は、動き情報生成部109より供給される動き補償予測の予測方向が
LN予測であれば、動き情報生成部109より供給されるLN予測の参照インデックスで
示されるフレームメモリ110内の参照画像を、動き情報生成部109より供給されるL
N予測の動きベクトルに基づき動き補償してLN予測の予測信号を生成する。Nは0また
は1である。ここで、動き補償予測の予測方向が双予測であれば、L0予測とL1予測の
予測信号の平均値が予測信号となる。なお、L0予測とL1予測の予測信号を重みづけし
てもよい。動き補償部106は、当該予測信号を減算部102に供給する。
If the prediction direction of the motion compensation prediction supplied from the motion information generation unit 109 is LN prediction, the motion compensation unit 106 stores the frame compensation information in the frame memory 110 indicated by the LN prediction reference index supplied from the motion information generation unit 109. The reference image is supplied from the motion information generation unit 109 as L
Based on the motion vector for N prediction, motion compensation is performed to generate a prediction signal for LN prediction. N is 0 or 1. Here, if the prediction direction of motion compensation prediction is bi-prediction, the average value of the prediction signals of L0 prediction and L1 prediction is the prediction signal. Note that the prediction signals of the L0 prediction and the L1 prediction may be weighted. The motion compensation unit 106 supplies the prediction signal to the subtraction unit 102.

減算部102は、予測ブロック画像取得部101より供給される画像信号と動き補償部
106より供給される予測信号を減算して予測誤差信号を算出し、当該予測誤差信号を予
測誤差符号化部103に供給する。
The subtraction unit 102 subtracts the image signal supplied from the prediction block image acquisition unit 101 and the prediction signal supplied from the motion compensation unit 106 to calculate a prediction error signal, and calculates the prediction error signal to the prediction error encoding unit 103. To supply.

予測誤差符号化部103は、減算部102より供給される予測誤差信号に対して、直交
変換や量子化などの処理を行って予測誤差符号化データを生成し、当該予測誤差符号化デ
ータを符号列生成部104および予測誤差復号部105に供給する。
The prediction error encoding unit 103 performs processing such as orthogonal transformation and quantization on the prediction error signal supplied from the subtraction unit 102 to generate prediction error encoded data, and encodes the prediction error encoded data. The data is supplied to the column generation unit 104 and the prediction error decoding unit 105.

符号列生成部104は、予測誤差符号化部103より供給される予測誤差符号化データ
、ならびに動き情報生成部109より供給されるマージフラグ、マージインデックス、動
き補償予測の予測方向(インター予測タイプ)、L0予測とL1予測の参照インデックス
、L0予測とL1予測の差分ベクトルおよびL0予測とL1予測の予測ベクトルインデッ
クスを図6に示すシンタックスの順序に従ってエントロピー符号化して符号列を生成し、
当該符号列を符号化ストリームとして端子11に供給する。エントロピー符号化は算術符
号化やハフマン符号化などの可変長符号化を含む方法によって実施される。
The code string generation unit 104 includes prediction error encoded data supplied from the prediction error encoding unit 103, a merge flag, a merge index, and a motion compensation prediction prediction direction (inter prediction type) supplied from the motion information generation unit 109. , Entropy-encode the reference index of L0 prediction and L1 prediction, the difference vector of L0 prediction and L1 prediction, and the prediction vector index of L0 prediction and L1 prediction according to the syntax sequence shown in FIG.
The code string is supplied to the terminal 11 as an encoded stream. Entropy coding is performed by a method including variable length coding such as arithmetic coding or Huffman coding.

また、符号列生成部104は、動画像符号化装置100で利用された符号化ブロックの
分割情報、予測ブロックサイズタイプ、及び予測符号化モードを、符号化ストリームの特
性を決定するためのパラメータ群を定義したSPS(Sequence Paramet
er Set)、ピクチャの特性を決定するためのパラメータ群を定義したPPS(Pi
cture Parameter Set)、やスライスの特性を決定するためのパラメ
ータ群を定義したスライスヘッダなどと共に符号化ストリーム中に多重化する。
In addition, the code string generation unit 104 determines the encoding stream division information, the prediction block size type, and the prediction encoding mode used by the video encoding apparatus 100, and parameters for determining the characteristics of the encoded stream. SPS (Sequence Paramet defined)
er Set), a PPS (Pi) that defines a group of parameters for determining picture characteristics
and a slice header defining a parameter group for determining the characteristics of the slice, and the like, and multiplexing in the encoded stream.

予測誤差復号部105は、予測誤差符号化部103より供給される予測誤差符号化デー
タに対して、逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し、当該予測
誤差信号を加算部107に供給する。加算部107は、予測誤差復号部105より供給さ
れる予測誤差信号と、動き補償部106より供給される予測信号を加算して復号画像信号
を生成し、当該復号画像信号をフレームメモリ110に供給する。
The prediction error decoding unit 105 performs a process such as inverse quantization or inverse orthogonal transform on the prediction error encoded data supplied from the prediction error encoding unit 103 to generate a prediction error signal, and the prediction error signal Is supplied to the adder 107. The addition unit 107 adds the prediction error signal supplied from the prediction error decoding unit 105 and the prediction signal supplied from the motion compensation unit 106 to generate a decoded image signal, and supplies the decoded image signal to the frame memory 110. To do.

フレームメモリ110は、加算部107より供給される復号画像信号を記憶する。また
、画像全体の復号が完了した復号画像については参照画像として、1以上の所定の画像数
を記憶する。フレームメモリ110は、記憶した参照画像信号を動き補償部106および
動き情報生成部109に供給する。参照画像を記憶する記憶領域はFIFO(First
In First Out)方式で制御される。
The frame memory 110 stores the decoded image signal supplied from the adding unit 107. In addition, for a decoded image in which decoding of the entire image is completed, a predetermined number of images of 1 or more is stored as a reference image. The frame memory 110 supplies the stored reference image signal to the motion compensation unit 106 and the motion information generation unit 109. The storage area for storing the reference image is a FIFO (First
In First Out) method.

動き情報メモリ111は、動き情報生成部109より供給される動き情報を最小の予測
ブロックサイズ単位で所定の画像数、記憶する。処理対象の予測ブロックの隣接ブロック
の動き情報を空間候補ブロック群とする。
The motion information memory 111 stores the motion information supplied from the motion information generation unit 109 for a predetermined number of images in units of the minimum predicted block size. The motion information of the adjacent block of the prediction block to be processed is set as a space candidate block group.

また、動き情報メモリ111は、処理対象の予測ブロックと同一位置にあるColPi
c上の同一位置予測ブロック内とその周辺ブロックの動き情報を時間候補ブロック群とす
る。動き情報メモリ111は、空間候補ブロック群と時間候補ブロック群を候補ブロック
群として動き情報生成部109に供給する。動き情報メモリ111は、フレームメモリ1
10と同期しており、FIFO(First In First Out)方式で制御さ
れる。
In addition, the motion information memory 111 has ColPi at the same position as the prediction block to be processed.
The motion information in the same position prediction block on c and its neighboring blocks is taken as a temporal candidate block group. The motion information memory 111 supplies the spatial candidate block group and the temporal candidate block group to the motion information generation unit 109 as candidate block groups. The motion information memory 111 is a frame memory 1
10 and is controlled by a FIFO (First In First Out) method.

ここで、ColPicとは、処理対象の予測ブロックのある画像とは別の復号済みの画
像であって、フレームメモリ110に参照画像として記憶されている。実施の形態1では
、ColPicは処理対象画像の直前に復号した参照画像とする。なお、実施の形態1で
は、ColPicは処理対象画像の直前に復号した参照画像としたが、復号済みの画像で
あればよく、例えば、表示順で直前の参照画像や表示順で直後の参照画像でもよく、符号
化ストリーム中で指定することも可能である。
Here, ColPic is a decoded image different from an image having a prediction block to be processed, and is stored in the frame memory 110 as a reference image. In Embodiment 1, ColPic is a reference image decoded immediately before the processing target image. In Embodiment 1, ColPic is a reference image decoded immediately before the processing target image. However, it may be a decoded image, for example, the reference image immediately before in the display order or the reference image immediately after in the display order. Alternatively, it can be specified in the encoded stream.

ここで、動き情報メモリ111における動き情報の管理方法について説明する。動き情
報は最小の予測ブロック単位で各メモリエリアに記憶される。各メモリエリアには、少な
くとも予測方向、L0予測の動きベクトル、L0予測の参照インデックス、L1予測の動
きベクトル、およびL1予測の参照インデックスが記憶される。
Here, a method for managing motion information in the motion information memory 111 will be described. The motion information is stored in each memory area in units of the smallest prediction block. Each memory area stores at least a prediction direction, a motion vector for L0 prediction, a reference index for L0 prediction, a motion vector for L1 prediction, and a reference index for L1 prediction.

なお、予測符号化モードがイントラモードである場合、L0予測とL1予測の動きベク
トルとして(0,0)が記憶され、L0予測とL予測の参照インデックスとして「−1」
が記憶される。これ以降、動きベクトルの(H、V)は、Hが水平成分、Vが垂直成分を
表すこととする。なお、参照インデックスの「−1」は動き補償予測を実施しないモード
であることが判定できればどのような値でもよい。これ以降は特に断らない限り単にブロ
ックと表現する場合には、最小の予測ブロック単位のことを示すこととする。また、領域
外のブロックである場合もイントラモードと同様に、L0予測とL1予測の動きベクトル
として(0,0)が記憶され、L0予測とL1予測の参照インデックスとして「−1」が
記憶される。LX方向(Xは0または1)が有効であるとはLX方向の参照インデックス
が0以上であることで、LX方向が無効である(有効でない)とはLX方向の参照インデ
ックスが「−1」であることである。
When the predictive coding mode is the intra mode, (0, 0) is stored as a motion vector for L0 prediction and L1 prediction, and “−1” is used as a reference index for L0 prediction and L prediction.
Is memorized. Hereinafter, in the motion vector (H, V), H represents a horizontal component and V represents a vertical component. The reference index “−1” may be any value as long as it can be determined that the mode in which motion compensation prediction is not performed. From this point onward, unless expressed otherwise, the term “block” refers to the smallest predicted block unit when expressed simply as a block. Also, in the case of a block outside the area, (0, 0) is stored as a motion vector for L0 prediction and L1 prediction, and “−1” is stored as a reference index for L0 prediction and L1 prediction, as in the intra mode. The When the LX direction (X is 0 or 1) is valid, the reference index in the LX direction is 0 or more, and when the LX direction is invalid (not valid), the reference index in the LX direction is “−1”. It is to be.

(動き情報生成部109の構成)
続いて、動き情報生成部109の詳細な構成について説明する。図8は、動き情報生成
部109の構成を示す。動き情報生成部109は、予測ベクトルモード決定部120、マ
ージモード決定部121および予測符号化モード決定部122を含む。端子12は動き情
報メモリ111に、端子13は動きベクトル検出部108に、端子14はフレームメモリ
110に、端子15は予測ブロック画像取得部101に、端子16は符号列生成部104
に、端子50は動き補償部106に、および端子51は動き情報メモリ111にそれぞれ
接続されている。
(Configuration of the motion information generation unit 109)
Next, a detailed configuration of the motion information generation unit 109 will be described. FIG. 8 shows a configuration of the motion information generation unit 109. The motion information generation unit 109 includes a prediction vector mode determination unit 120, a merge mode determination unit 121, and a prediction encoding mode determination unit 122. The terminal 12 is in the motion information memory 111, the terminal 13 is in the motion vector detection unit 108, the terminal 14 is in the frame memory 110, the terminal 15 is in the prediction block image acquisition unit 101, and the terminal 16 is in the code string generation unit 104.
The terminal 50 is connected to the motion compensation unit 106, and the terminal 51 is connected to the motion information memory 111.

(動き情報生成部109の機能と動作)
以下、各部の機能と動作について説明する。予測ベクトルモード決定部120は、端子
12より供給される候補ブロック群、端子13より供給されるL0予測とL1予測の動き
ベクトルおよびL0予測とL1予測の参照インデックス、端子14より供給される参照イ
ンデックスで示される参照画像、および端子15より供給される画像信号から、インター
予測タイプを決定し、インター予測タイプに従って、L0予測とL1予測の予測ベクトル
インデックスを選択してL0予測とL1予測の差分ベクトルを算出するとともに、予測誤
差を算出し、レート歪み評価値を算出する。そして、当該インター予測タイプに基づいた
動き情報、差分ベクトル、予測ベクトルインデックス、およびレート歪み評価値を予測符
号化モード決定部122に供給する。
(Function and operation of motion information generation unit 109)
Hereinafter, the function and operation of each unit will be described. The prediction vector mode determination unit 120 includes a candidate block group supplied from the terminal 12, a motion vector for L0 prediction and L1 prediction supplied from the terminal 13, a reference index for L0 prediction and L1 prediction, and a reference index supplied from the terminal 14. The inter-prediction type is determined from the reference image shown in FIG. 5 and the image signal supplied from the terminal 15, and the prediction vector index of the L0 prediction and the L1 prediction is selected according to the inter prediction type, and the difference vector between the L0 prediction and the L1 prediction is selected. , A prediction error is calculated, and a rate distortion evaluation value is calculated. Then, the motion information, the difference vector, the prediction vector index, and the rate distortion evaluation value based on the inter prediction type are supplied to the prediction coding mode determination unit 122.

マージモード決定部121は、端子12より供給される候補ブロック群、端子14より
供給される参照画像、および端子15より供給される画像信号から、結合動き情報候補リ
ストを生成し、当該結合動き情報候補リストの中から1つの結合動き情報候補を選択して
マージインデックスを決定し、レート歪み評価値を算出する。そして、当該結合動き情報
候補の動き情報、当該マージインデックスおよび当該レート歪み評価値を予測符号化モー
ド決定部122に供給する。マージモード決定部121の詳細については後述する。
The merge mode determination unit 121 generates a combined motion information candidate list from the candidate block group supplied from the terminal 12, the reference image supplied from the terminal 14, and the image signal supplied from the terminal 15, and the combined motion information One merged motion information candidate is selected from the candidate list, a merge index is determined, and a rate distortion evaluation value is calculated. Then, the motion information of the combined motion information candidate, the merge index, and the rate distortion evaluation value are supplied to the predictive coding mode determination unit 122. Details of the merge mode determination unit 121 will be described later.

予測符号化モード決定部122は、予測ベクトルモード決定部120より供給されるレ
ート歪み評価値と、マージモード決定部121より供給されるレート歪み評価値とを比較
してマージフラグを決定する。
The prediction coding mode determination unit 122 compares the rate distortion evaluation value supplied from the prediction vector mode determination unit 120 and the rate distortion evaluation value supplied from the merge mode determination unit 121 to determine a merge flag.

予測ベクトルモードレート歪み評価値がマージモードレート歪み評価値未満の場合は、
マージフラグを「0」に設定する。予測符号化モード決定部122は、当該マージフラグ
、予測ベクトルモード決定部120より供給されるインター予測タイプ、参照インデック
ス、差分ベクトルと予測ベクトルインデックスを端子16に供給し、予測ベクトルモード
決定部120より供給される動き情報を端子50および端子51に供給する。
If the predicted vector mode rate distortion estimate is less than the merge mode rate distortion estimate,
Set the merge flag to “0”. The prediction encoding mode determination unit 122 supplies the merge flag, the inter prediction type, the reference index, the difference vector, and the prediction vector index supplied from the prediction vector mode determination unit 120 to the terminal 16, and the prediction vector mode determination unit 120 The supplied motion information is supplied to the terminal 50 and the terminal 51.

マージモードレート歪み評価値が予測ベクトルモードレート歪み評価値以下の場合は、
マージフラグを「1」に設定する。予測符号化モード決定部122は、当該マージフラグ
およびマージモード決定部121より供給されるマージインデックスを端子16に供給し
、マージモード決定部121より供給される動き情報を端子50および端子51に供給す
る。なお、レート歪み評価値の具体的な算出方法は本発明の主眼ではないため詳細な説明
は省略するが、予測誤差と符号量から符号量当たりの予測誤差量を算出し、レート歪み評
価値が小さいほど符号化効率は高くなる特性を持つ評価値である。そのため、レート歪み
評価値が小さい予測符号化モードを選択することで符号化効率を向上させることができる
If the merge mode rate distortion evaluation value is less than or equal to the predicted vector mode rate distortion evaluation value,
The merge flag is set to “1”. The predictive coding mode determination unit 122 supplies the merge flag and the merge index supplied from the merge mode determination unit 121 to the terminal 16, and supplies the motion information supplied from the merge mode determination unit 121 to the terminal 50 and the terminal 51. To do. Although a specific calculation method of the rate distortion evaluation value is not the main point of the present invention, detailed description is omitted, but the prediction error amount per code amount is calculated from the prediction error and the code amount, and the rate distortion evaluation value is calculated. The evaluation value has a characteristic that the encoding efficiency increases as the value decreases. Therefore, encoding efficiency can be improved by selecting a predictive encoding mode with a small rate distortion evaluation value.

(マージモード決定部121の構成)
続いて、マージモード決定部121の詳細な構成について説明する。図9は、マージモ
ード決定部121の構成を説明するための図である。マージモード決定部121は、結合
動き情報候補リスト生成部140および結合動き情報選択部141を含む。結合動き情報
候補リスト生成部140は、実施の形態1に係る動画像符号化装置100により生成され
た符号列を復号する動画像復号装置200にも同様に設置されて、動画像符号化装置10
0と動画像復号装置200にて同一の結合動き情報リストが生成される。
(Configuration of merge mode determination unit 121)
Next, a detailed configuration of the merge mode determination unit 121 will be described. FIG. 9 is a diagram for explaining the configuration of the merge mode determination unit 121. The merge mode determination unit 121 includes a combined motion information candidate list generation unit 140 and a combined motion information selection unit 141. The combined motion information candidate list generation unit 140 is similarly installed in the video decoding device 200 that decodes the code string generated by the video encoding device 100 according to Embodiment 1, and the video encoding device 10
0 and the moving picture decoding apparatus 200 generate the same combined motion information list.

(マージモード決定部121の機能と動作)
以下、各部の機能と動作について説明する。結合動き情報候補リスト生成部140は、
端子12より供給される候補ブロック群からマージ候補最大数の結合動き情報候補を含む
結合動き情報候補リストを生成し、当該結合動き情報候補リストを結合動き情報選択部1
41に供給する。結合動き情報候補リスト生成部140の詳細な構成については後述する
(Function and operation of merge mode determination unit 121)
Hereinafter, the function and operation of each unit will be described. The combined motion information candidate list generation unit 140
A combined motion information candidate list including a maximum number of merge candidate combined motion information candidates is generated from the candidate block group supplied from the terminal 12, and the combined motion information candidate list is combined with the combined motion information selection unit 1.
41. A detailed configuration of the combined motion information candidate list generation unit 140 will be described later.

結合動き情報選択部141は、結合動き情報候補リスト生成部140より供給される結
合動き情報候補リストの中から、最適な結合動き情報候補を選択し、選択された結合動き
情報候補を示す情報であるマージインデックスを決定して、当該マージインデックスを端
子17に供給する。
The combined motion information selection unit 141 selects the optimum combined motion information candidate from the combined motion information candidate list supplied from the combined motion information candidate list generation unit 140, and is information indicating the selected combined motion information candidate. A certain merge index is determined and the merge index is supplied to the terminal 17.

ここで、最適な結合動き情報候補の選択方法について説明する。結合動き情報候補の予
測方向、動きベクトルおよび参照インデックスに基づいて動き補償予測されて得られる端
子14より供給される参照画像と、端子15より供給される画像信号とから予測誤差量が
算出される。マージインデックスの符号量と、当該予測誤差量とからレート歪み評価値が
算出されて、レート歪み評価値が最小となる結合動き情報候補が最適な結合動き情報候補
として選択される。
Here, a method for selecting an optimal combined motion information candidate will be described. A prediction error amount is calculated from the reference image supplied from the terminal 14 obtained by motion compensation prediction based on the prediction direction, motion vector, and reference index of the combined motion information candidate, and the image signal supplied from the terminal 15. . A rate distortion evaluation value is calculated from the code amount of the merge index and the prediction error amount, and a combined motion information candidate that minimizes the rate distortion evaluation value is selected as an optimal combined motion information candidate.

(結合動き情報候補リスト生成部140の構成)
続いて、結合動き情報候補リスト生成部140の詳細な構成について説明する。図10
は、結合動き情報候補リスト生成部140の構成を説明するための図である。端子19は
結合動き情報選択部141に接続されている。結合動き情報候補リスト生成部140は、
空間結合動き情報候補生成部160、時間結合動き情報候補生成部161、冗長結合動き
情報候補削除部162、第1結合動き情報候補補充部163、および第2結合動き情報候
補補充部164を含む。以降、結合動き情報候補を生成すると表記するが、導出すると言
い換えてもよい。
(Configuration of combined motion information candidate list generation unit 140)
Next, a detailed configuration of the combined motion information candidate list generation unit 140 will be described. FIG.
These are figures for demonstrating the structure of the joint motion information candidate list production | generation part 140. FIG. The terminal 19 is connected to the combined motion information selection unit 141. The combined motion information candidate list generation unit 140
A spatial combination motion information candidate generation unit 160, a temporal combination motion information candidate generation unit 161, a redundant combination motion information candidate deletion unit 162, a first combination motion information candidate supplement unit 163, and a second combination motion information candidate supplement unit 164 are included. Hereinafter, it is described that a combined motion information candidate is generated, but it may be paraphrased to be derived.

(結合動き情報候補リスト生成部140の機能と動作)
以下、各部の機能と動作について説明する。図11は、結合動き情報候補リスト生成部
140の動作を説明するためのフローチャートである。まず、結合動き情報候補リスト生
成部140は、結合動き情報候補リストを初期化する(S100)。初期化された結合動
き情報候補リストには結合動き情報候補は存在しない。
(Function and operation of combined motion information candidate list generation unit 140)
Hereinafter, the function and operation of each unit will be described. FIG. 11 is a flowchart for explaining the operation of the combined motion information candidate list generation unit 140. First, the combined motion information candidate list generation unit 140 initializes a combined motion information candidate list (S100). There are no combined motion information candidates in the initialized combined motion information candidate list.

次に、空間結合動き情報候補生成部160は、端子12より供給される候補ブロック群
から0個から空間結合動き情報候補最大数の空間結合動き情報候補を生成して結合動き情
報候補リストに追加し(S101)、当該結合動き情報候補リストと候補ブロック群を時
間結合動き情報候補生成部161に供給する。空間結合動き情報候補生成部160の詳細
な動作については後述する。また、空間結合動き情報候補最大数についても後述する。
Next, the spatially coupled motion information candidate generation unit 160 generates the maximum number of spatially coupled motion information candidates from 0 candidate block groups supplied from the terminal 12 and adds them to the combined motion information candidate list. In step S101, the combined motion information candidate list and the candidate block group are supplied to the time combined motion information candidate generation unit 161. The detailed operation of the spatially coupled motion information candidate generation unit 160 will be described later. The maximum number of spatially coupled motion information candidates will be described later.

次に、時間結合動き情報候補生成部161は、空間結合動き情報候補生成部160より
供給される候補ブロック群から0個から時間結合動き情報候補最大数の時間結合動き情報
候補を生成して空間結合動き情報候補生成部160より供給される結合動き情報候補リス
トに追加し(S102)、当該結合動き情報候補リストを冗長結合動き情報候補削除部1
62に供給する。時間結合動き情報候補生成部161の詳細な動作については後述する。
また、時間結合動き情報候補最大数についても後述する。
Next, the temporally combined motion information candidate generating unit 161 generates the maximum number of temporally combined motion information candidates from the 0 candidate block group supplied from the spatially combined motion information candidate generating unit 160 to generate the spatially combined motion information candidate. Add to the combined motion information candidate list supplied from the combined motion information candidate generation unit 160 (S102), and add the combined motion information candidate list to the redundant combined motion information candidate deletion unit 1
62. The detailed operation of the time combination motion information candidate generation unit 161 will be described later.
Further, the maximum number of temporally combined motion information candidates will be described later.

次に、冗長結合動き情報候補削除部162は、時間結合動き情報候補生成部161より
供給される結合動き情報候補リストに登録されている結合動き情報候補を検査し、同一の
動き情報を有する結合動き情報候補が複数存在する場合には1つの結合動き情報候補を残
してその他の結合動き情報候補を削除し(S103)、当該結合動き情報候補リストを第
1結合動き情報候補補充部163に供給する。ここで、当該結合動き情報候補リストに登
録されている結合動き情報候補は全てが異なる結合動き情報候補となる。
Next, the redundant combined motion information candidate deletion unit 162 examines the combined motion information candidates registered in the combined motion information candidate list supplied from the temporal combined motion information candidate generation unit 161, and combines the same motion information. When there are a plurality of motion information candidates, one combined motion information candidate is left and other combined motion information candidates are deleted (S103), and the combined motion information candidate list is supplied to the first combined motion information candidate supplementing unit 163. To do. Here, the combined motion information candidates registered in the combined motion information candidate list are all different combined motion information candidates.

次に、第1結合動き情報候補補充部163は、冗長結合動き情報候補削除部162より
供給される結合動き情報候補リストに登録された結合動き情報候補から0個から2個の第
1補充結合動き情報候補を生成して結合動き情報候補リストに追加し(S104)、当該
結合動き情報候補リストを第2結合動き情報候補補充部164に供給する。第1結合動き
情報候補補充部163の詳細な動作については後述する。
Next, the first combined motion information candidate supplementing unit 163 includes 0 to 2 first supplemental combining from the combined motion information candidates registered in the combined motion information candidate list supplied from the redundant combined motion information candidate deleting unit 162. A motion information candidate is generated and added to the combined motion information candidate list (S104), and the combined motion information candidate list is supplied to the second combined motion information candidate supplement unit 164. The detailed operation of the first combined motion information candidate supplement unit 163 will be described later.

次に、第2結合動き情報候補補充部164は、第1結合動き情報候補補充部163より
供給される結合動き情報候補リストに登録された結合動き情報候補の数がマージ候補最大
数に達するまで第2補充結合動き情報候補を生成して当該結合動き情報候補リストに追加
し(S105)、当該結合動き情報候補リストを端子19に供給する。第2結合動き情報
候補補充部164の詳細な動作については後述する。
Next, the second combined motion information candidate supplementing unit 164 until the number of combined motion information candidates registered in the combined motion information candidate list supplied from the first combined motion information candidate supplementing unit 163 reaches the maximum number of merge candidates. A second supplementary combined motion information candidate is generated and added to the combined motion information candidate list (S105), and the combined motion information candidate list is supplied to the terminal 19. The detailed operation of the second combined motion information candidate supplement unit 164 will be described later.

ここでは、空間結合動き情報候補生成部160と時間結合動き情報候補生成部161は
それぞれ空間結合動き情報候補と時間結合動き情報候補を生成して結合動き情報候補リス
トに追加するとしたが、空間結合動き情報候補生成部160と時間結合動き情報候補生成
部161はそれぞれ空間結合動き情報候補と時間結合動き情報候補を生成するのみで、冗
長結合動き情報候補削除部162の直前に生成した候補から結合動き情報候補リストを生
成するようにしてもよい。
Here, the spatial combination motion information candidate generation unit 160 and the temporal combination motion information candidate generation unit 161 generate the spatial combination motion information candidate and the temporal combination motion information candidate and add them to the combined motion information candidate list. The motion information candidate generation unit 160 and the temporally combined motion information candidate generator 161 only generate a spatially combined motion information candidate and a temporally combined motion information candidate, respectively, and combine them from candidates generated immediately before the redundantly combined motion information candidate deletion unit 162. A motion information candidate list may be generated.

(2N×2N候補ブロック群について)
以降、予測ブロックの候補ブロック群について説明する。最初に、予測ブロックサイズ
タイプが2N×2Nである予測ブロックについて説明する。図12は予測ブロックサイズ
タイプが2N×2Nである予測ブロックの候補ブロック群について説明する図である。図
12では予測ブロックサイズが16画素×16画素である例を示す。なお、後述する時間
候補ブロックH及びIは、同じく後述する空間候補ブロックA〜Eが存在するピクチャと
は別の復号済みのピクチャとは別のピクチャに存在するが、理解及び説明の容易のため、
図12中では空間候補ブロックA〜Eとあわせて図示されている。
(About 2N × 2N candidate block group)
Hereinafter, candidate block groups of prediction blocks will be described. First, a prediction block whose prediction block size type is 2N × 2N will be described. FIG. 12 is a diagram for explaining a candidate block group of prediction blocks whose prediction block size type is 2N × 2N. FIG. 12 shows an example in which the predicted block size is 16 pixels × 16 pixels. Note that temporal candidate blocks H and I, which will be described later, exist in pictures different from decoded pictures that are different from pictures in which spatial candidate blocks A to E, which will also be described later, exist, but for ease of understanding and explanation. ,
In FIG. 12, it is shown together with the space candidate blocks A to E.

空間候補ブロック群は、予測ブロックの左下の画素の左に位置するブロックA、予測ブ
ロックの右上の画素の上に位置するブロックB、予測ブロックの右上の画素の右斜め上に
位置するブロックC、予測ブロックの左下の画素の左斜め下に位置するブロックE、及び
予測ブロックの左上の画素の左斜め上に位置するブロックDとする。このように、空間候
補ブロック群は予測ブロックの位置と大きさに基づいて決定される。時間候補ブロック群
は、ColPicの所定領域の代表ブロックであるブロックHとブロックIの2つとする
。処理対象の予測ブロックの左上の画素の位置を ( x , y )、処理対象の予測ブロック
の幅と高さをそれぞれPUW、PUHとすると、 ((((x+PUW)>>4)<<4
), (((y+PUH)>>4)<<4))となる画素の位置をブロックの左上の画素の
位置として含むColPic上のブロックを時間候補ブロックHとする。ここで、>>は
右方向のビットシフト、<<は左方向のビットシフトである。
The spatial candidate block group includes a block A positioned to the left of the lower left pixel of the prediction block, a block B positioned above the upper right pixel of the prediction block, a block C positioned diagonally to the upper right of the upper right pixel of the prediction block, It is assumed that a block E is located at the lower left corner of the lower left pixel of the prediction block, and a block D is located at the upper left corner of the upper left pixel of the prediction block. Thus, the space candidate block group is determined based on the position and size of the prediction block. There are two time candidate block groups, block H and block I, which are representative blocks of a predetermined area of ColPic. When the position of the upper left pixel of the prediction block to be processed is (x, y) and the width and height of the prediction block to be processed are PUW and PUH, respectively, ((((x + PUW) >> 4) << 4
), (((Y + PUH) >> 4) << 4)), the block on ColPic including the position of the pixel on the upper left of the block is set as a time candidate block H. Here, >> is a bit shift in the right direction, and << is a bit shift in the left direction.

同様に、(x+(PUW>>1),y+(PUH>>1))となる画素の位置をブロッ
クの左上の画素の位置として含むColPic上のブロックを時間候補ブロックIとする
。このように、時間候補ブロック群は予測ブロックの位置と大きさに基づいて決定される
。このように、時間候補ブロックをColPicの所定領域(ここでは16画素×16画
素)の代表ブロックとすることで、ColPicが記憶すべき動きベクトルや参照インデ
ックスを削減できる。1画像で記憶する動きベクトルと参照インデックスを削減すること
で、複数の復号済み画像をColPicの対象とすることが可能となるため、予測効率を
向上させる効果がある。
Similarly, a block on ColPic including the position of the pixel at (x + (PUW >> 1), y + (PUH >> 1)) as the position of the upper left pixel of the block is set as a time candidate block I. Thus, the time candidate block group is determined based on the position and size of the prediction block. In this way, by setting the time candidate block as a representative block of a predetermined area of ColPic (16 pixels × 16 pixels in this case), it is possible to reduce motion vectors and reference indexes to be stored by ColPic. By reducing the motion vector and reference index stored in one image, a plurality of decoded images can be targeted for ColPic, which has the effect of improving prediction efficiency.

ここで、予測ブロックサイズタイプが2N×2Nである符号化ブロックは1個の予測ブ
ロックで構成されているため、予測ブロックサイズタイプが2N×2Nである予測ブロッ
クに対する候補ブロックの位置は符号化ブロックに対する候補ブロックの位置に等しくな
り、候補ブロックの位置は符号化ブロックの外となる。
Here, since the coding block whose prediction block size type is 2N × 2N is configured by one prediction block, the position of the candidate block with respect to the prediction block whose prediction block size type is 2N × 2N is the coding block. Is equal to the position of the candidate block, and the position of the candidate block is outside the encoded block.

ここでは、ブロックAを予測ブロックの左下としたが、予測ブロックの左辺に接してい
ればよく、これに限定されない。また、ブロックBを予測ブロックの右上としたが、予測
ブロックの上辺に接していればよく、これに限定されない。また、時間候補ブロック群を
ブロックHとブロックIの2個としたが、これに限定されない。
Here, the block A is set to the lower left of the prediction block, but it is sufficient that the block A is in contact with the left side of the prediction block, and the present invention is not limited to this. Moreover, although the block B was made into the upper right of the prediction block, it should just touch the upper side of a prediction block, and is not limited to this. In addition, although the time candidate block group includes two blocks H and I, the present invention is not limited to this.

(2N×2N以外の候補ブロック群のへの2N×2Nと同じ位置関係の適用例)
次に、予測ブロックサイズタイプが2N×2Nではない符号化ブロックにおける予測ブ
ロックについて、予測ブロックサイズタイプが2N×2Nである符号化ブロックの予測ブ
ロックと同じ位置関係を適用した例について説明する。図13は予測ブロックサイズタイ
プが2N×2Nではない符号化ブロックにおける予測ブロックについて、予測ブロックサ
イズタイプが2N×2Nである符号化ブロックの予測ブロックと同じ位置関係を適用した
場合の候補ブロック群を示す図である。図13では図12と同様、時間候補ブロックH及
びIは、空間候補ブロックA〜Eが存在するピクチャとは別の復号済みのピクチャとは別
のピクチャに存在するが、理解及び説明の容易のため、空間候補ブロックA〜Eとあわせ
て図示されている。図13(a)から(h)はそれぞれ予測ブロックサイズタイプがN×
2Nの予測ブロック0、予測ブロックサイズタイプがN×2Nの予測ブロック1、予測ブ
ロックサイズタイプが2N×Nの予測ブロック0、予測ブロックサイズタイプが2N×N
の予測ブロック1、予測ブロックサイズタイプがN×Nの予測ブロック0、予測ブロック
サイズタイプがN×Nの予測ブロック1、予測ブロックサイズタイプがN×Nの予測ブロ
ック2、予測ブロックサイズタイプがN×Nの予測ブロック3の場合の候補ブロック群を
示す。図13では予測ブロックサイズが16画素×16画素である例を示す。なお、時間
候補ブロック群は予測ブロックサイズタイプが2N×2Nの場合と同様に導出され、図1
3にブロックHの位置を示す。このように、予測ブロックサイズタイプが2N×2Nでは
ない符号化ブロックに含まれる予測ブロックでは、予測ブロックごとに予測ブロックの位
置と大きさに基づいて候補ブロック群が決定される。
(Application example of the same positional relationship as 2N × 2N to a candidate block group other than 2N × 2N)
Next, an example will be described in which the same positional relationship is applied to a prediction block in a coding block whose prediction block size type is not 2N × 2N as a prediction block of a coding block whose prediction block size type is 2N × 2N. FIG. 13 shows a candidate block group in the case where the same positional relationship as that of a prediction block of a coding block whose prediction block size type is 2N × 2N is applied to a prediction block in a coding block whose prediction block size type is not 2N × 2N. FIG. In FIG. 13, as in FIG. 12, the temporal candidate blocks H and I exist in a different picture from the decoded picture different from the picture in which the spatial candidate blocks A to E exist. Therefore, it is shown together with the space candidate blocks A to E. In FIGS. 13A to 13H, the predicted block size type is N ×, respectively.
2N prediction block 0, prediction block size type N × 2N prediction block 1, prediction block size type 2N × N prediction block 0, prediction block size type 2N × N
Prediction block 1, prediction block size type N × N prediction block 0, prediction block size type N × N prediction block 1, prediction block size type N × N prediction block 2, prediction block size type N A candidate block group in the case of × N prediction block 3 is shown. FIG. 13 shows an example in which the predicted block size is 16 pixels × 16 pixels. Note that the temporal candidate block group is derived in the same manner as when the prediction block size type is 2N × 2N, and FIG.
3 shows the position of the block H. In this way, in a prediction block included in an encoded block whose prediction block size type is not 2N × 2N, a candidate block group is determined for each prediction block based on the position and size of the prediction block.

ここで、予測ブロックサイズタイプがN×2Nの予測ブロック1の場合(図13(b)
)、ブロックAは同一の符号化ブロックの予測ブロック0の内部にあり、ブロックAの動
き情報を得るためには予測ブロック1を処理する前に予測ブロック0の動き情報が確定し
ている必要があるため、予測ブロック1の候補ブロックとしてブロックAを利用した場合
、予測ブロック0と予測ブロック1を同時に処理することはできない。また、最大符号化
ブロックがラスタースキャン順、符号化ブロックがジグザグスキャン順で行われるため、
ブロックEは必ず未処理ブロックとなる。同様に、予測ブロックサイズタイプが2N×N
の予測ブロック1の場合(図13(d))、ブロックBは同一の符号化ブロックの予測ブ
ロック0の内部にあり、ブロックCは必ず未処理ブロックとなる。予測ブロックサイズタ
イプがN×Nの予測ブロック1(図13(f))、予測ブロック2(図13(g))、予
測ブロック3(図13(h))についても、同一の符号化ブロックの内部にあるブロック
と必ず未処理となるブロックについて図13の中にそれぞれ示す。
Here, in the case of the prediction block 1 whose prediction block size type is N × 2N (FIG. 13B)
), The block A is inside the prediction block 0 of the same coding block, and in order to obtain the motion information of the block A, the motion information of the prediction block 0 needs to be determined before the prediction block 1 is processed. Therefore, when block A is used as a candidate block for prediction block 1, prediction block 0 and prediction block 1 cannot be processed simultaneously. In addition, since the largest coding block is performed in raster scan order and the coding block is performed in zigzag scan order,
Block E is always an unprocessed block. Similarly, the predicted block size type is 2N × N
In the case of the prediction block 1 (FIG. 13D), the block B is inside the prediction block 0 of the same encoded block, and the block C is always an unprocessed block. For the prediction block 1 (FIG. 13 (f)), the prediction block 2 (FIG. 13 (g)), and the prediction block 3 (FIG. 13 (h)) of which the prediction block size type is N × N, FIG. 13 shows an internal block and an unprocessed block.

予測ブロックサイズタイプがN×2Nの予測ブロック1、予測ブロックサイズタイプが
2N×Nの予測ブロック1、予測ブロックサイズタイプがN×Nの予測ブロック1、予測
ブロックサイズタイプがN×Nの予測ブロック2については同一の符号化ブロック内にな
く且つ必ず未処理とならない候補ブロックの数が3となり、予測ブロックサイズタイプが
N×Nの予測ブロック3については同一の符号化ブロック内になく且つ必ず未処理となら
ない候補ブロックの数が0となる。候補ブロックが減じることは予測効率の低下に繋がる
Prediction block 1 with a prediction block size type of N × 2N, prediction block 1 with a prediction block size type of 2N × N, prediction block 1 with a prediction block size type of N × N, and prediction block with a prediction block size type of N × N For 2, the number of candidate blocks that are not in the same coding block and are not necessarily processed is 3, and the prediction block 3 whose prediction block size type is N × N is not in the same coding block and is always unprocessed. The number of candidate blocks that are not processed is zero. Decreasing the number of candidate blocks leads to a decrease in prediction efficiency.

(候補ブロックの位置関係)
図14は実施の形態1における予測ブロックサイズタイプが2N×2N以外の予測ブロ
ックと空間候補ブロック群の位置関係の一例を説明する図である。時間候補ブロック群に
ついては図13と同じである。図14(a)から(h)はそれぞれ予測ブロックサイズタ
イプがN×2Nの予測ブロック0、予測ブロックサイズタイプがN×2Nの予測ブロック
1、予測ブロックサイズタイプが2N×Nの予測ブロック0、予測ブロックサイズタイプ
が2N×Nの予測ブロック1、予測ブロックサイズタイプがN×Nの予測ブロック0、予
測ブロックサイズタイプがN×Nの予測ブロック1、予測ブロックサイズタイプがN×N
の予測ブロック2、予測ブロックサイズタイプがN×Nの予測ブロック3の場合の空間候
補ブロック群を示す。図14では予測ブロックサイズが16画素×16画素である例を示
す。
(Positional block position relationship)
FIG. 14 is a diagram for explaining an example of a positional relationship between a prediction block and a spatial candidate block group whose prediction block size type is other than 2N × 2N in the first embodiment. The time candidate block group is the same as in FIG. 14 (a) to 14 (h) respectively show a prediction block 0 whose prediction block size type is N × 2N, a prediction block 1 whose prediction block size type is N × 2N, and a prediction block 0 whose prediction block size type is 2N × N. Predictive block size type 2N × N prediction block 1, prediction block size type N × N prediction block 0, prediction block size type N × N prediction block 1, prediction block size type N × N
The spatial candidate block group in the case of the prediction block 2 and the prediction block size type N × N prediction block 3 is shown. FIG. 14 shows an example in which the predicted block size is 16 pixels × 16 pixels.

ここでは、同一の符号化ブロックの他の予測ブロックの内部にあるブロックを予測ブロ
ックサイズタイプが2N×2Nである予測ブロックの候補ブロックに置き換える。つまり
、予測ブロックサイズタイプがN×2Nの予測ブロック1の場合(図14(b))、ブロ
ックAを予測ブロックサイズタイプが2N×2Nである予測ブロックの候補ブロックのブ
ロックAとする。予測ブロックサイズタイプが2N×Nの予測ブロック1の場合(図14
(d))、ブロックBを予測ブロックサイズタイプが2N×2Nである予測ブロックの候
補ブロックのブロックBとする。予測ブロックサイズタイプがN×Nの予測ブロック1の
場合(図14(f))、ブロックAとブロックEを予測ブロックサイズタイプが2N×2
Nである予測ブロックの候補ブロックのブロックAとブロックEとする。予測ブロックサ
イズタイプがN×Nの予測ブロック2の場合(図14(g))、ブロックBとブロックC
を予測ブロックサイズタイプが2N×2Nである予測ブロックの候補ブロックのブロック
BとブロックCとする。予測ブロックサイズタイプがN×Nの予測ブロック3の場合(図
14(h))、ブロックA、ブロックBとブロックDを予測ブロックサイズタイプが2N
×2Nである予測ブロックの候補ブロックのブロックA、ブロックBとブロックDとする
Here, a block inside another prediction block of the same encoded block is replaced with a prediction block candidate block having a prediction block size type of 2N × 2N. That is, in the case of the prediction block 1 with the prediction block size type of N × 2N (FIG. 14B), the block A is the block A of the prediction block candidate block with the prediction block size type of 2N × 2N. When the prediction block size type is 2N × N prediction block 1 (FIG. 14)
(D)) Let block B be a block B of candidate blocks of a prediction block whose prediction block size type is 2N × 2N. When the prediction block size type is N × N prediction block 1 (FIG. 14 (f)), block A and block E are predicted to have a prediction block size type of 2N × 2.
It is assumed that block A and block E are candidate blocks of a prediction block that is N. When the prediction block size type is prediction block 2 of N × N (FIG. 14 (g)), block B and block C
Are block B and block C of candidate blocks of the prediction block whose prediction block size type is 2N × 2N. When the prediction block size type is N × N prediction block 3 (FIG. 14 (h)), block A, block B and block D are predicted block size types of 2N.
It is assumed that block A, block B, and block D are candidate blocks of the prediction block of × 2N.

予測ブロックサイズタイプがN×2Nの予測ブロック1、予測ブロックサイズタイプが
2N×Nの予測ブロック1、予測ブロックサイズタイプがN×Nの予測ブロック1、予測
ブロックサイズタイプがN×Nの予測ブロック2、予測ブロックサイズタイプがN×Nの
予測ブロック3について有効な候補ブロックの数が5となる。
Prediction block 1 with a prediction block size type of N × 2N, prediction block 1 with a prediction block size type of 2N × N, prediction block 1 with a prediction block size type of N × N, and prediction block with a prediction block size type of N × N 2. The number of effective candidate blocks for the prediction block 3 whose prediction block size type is N × N is 5.

以上のように、同一の符号化ブロックの他の予測ブロックに含まれる候補ブロックを、
符号化ブロックが有する予測ブロックサイズの中で予測ブロックサイズが最大となる予測
ブロックサイズタイプが2N×2Nである予測ブロックの候補ブロックにすることで、符
号化ブロックに含まれる予測ブロック間における動き情報の依存関係がなくなり、符号化
ブロックに含まれる複数の予測ブロックを同時に処理することが可能となる。
As described above, candidate blocks included in other prediction blocks of the same encoded block are
Motion information between prediction blocks included in a coding block by making a prediction block candidate block whose prediction block size type has the largest prediction block size among the prediction block sizes of the coding block is 2N × 2N Thus, it is possible to simultaneously process a plurality of prediction blocks included in the encoded block.

(空間結合動き情報候補生成部160の詳細な動作)
続いて、空間結合動き情報候補生成部160の詳細な動作について説明する。図15は
、空間結合動き情報候補生成部160の動作を説明するためのフローチャートである。空
間結合動き情報候補生成部160は、候補ブロック群の空間候補ブロック群に含まれる候
補ブロックであるブロックA、ブロックB、ブロックC、ブロックE、ブロックDの順に
以下の処理を繰り返し行う(S110からS114)。
(Detailed operation of spatially coupled motion information candidate generation unit 160)
Next, a detailed operation of the spatially coupled motion information candidate generation unit 160 will be described. FIG. 15 is a flowchart for explaining the operation of the spatially coupled motion information candidate generation unit 160. The spatially coupled motion information candidate generating unit 160 repeatedly performs the following processing in the order of block A, block B, block C, block E, and block D, which are candidate blocks included in the spatial candidate block group of the candidate block group (from S110) S114).

最初に、候補ブロックが有効であるか検査する(S111)。候補ブロックが有効であ
るとは、候補ブロックのL0予測とL1予測の参照インデックスの少なくとも一方が0以
上であることである。候補ブロックが有効であれば(S111のY)、候補ブロックの動
き情報を空間結合動き情報候補として結合動き情報候補リストに追加する(S112)。
候補ブロックが有効でなければ(S111のN)、次の候補ブロックを検査する(S11
4)。ステップS112に続いて、結合動き情報候補リストに追加された空間結合動き情
報候補の数が空間結合動き情報候補最大数であるか検査する(S113)。ここでは、空
間結合動き情報候補最大数を4とする。結合動き情報候補リストに追加された空間結合動
き情報候補の数が空間結合動き情報候補最大数でなければ(S113のN)、次の候補ブ
ロックを検査する(S114)。結合動き情報候補リストに追加された空間結合動き情報
候補の数が空間結合動き情報候補最大数であれば(S113のY)、処理を終了する。
First, it is checked whether the candidate block is valid (S111). That the candidate block is valid means that at least one of the reference indexes of the L0 prediction and the L1 prediction of the candidate block is 0 or more. If the candidate block is valid (Y in S111), the motion information of the candidate block is added to the combined motion information candidate list as a spatially combined motion information candidate (S112).
If the candidate block is not valid (N in S111), the next candidate block is examined (S11).
4). Following step S112, it is checked whether the number of spatially combined motion information candidates added to the combined motion information candidate list is the maximum number of spatially combined motion information candidates (S113). Here, the maximum number of spatially coupled motion information candidates is 4. If the number of spatially combined motion information candidates added to the combined motion information candidate list is not the maximum number of spatially combined motion information candidates (N in S113), the next candidate block is examined (S114). If the number of spatially combined motion information candidates added to the combined motion information candidate list is the maximum number of spatially combined motion information candidates (Y in S113), the process ends.

ここでは、処理対象ブロックとの接線の長く一般的に処理対象ブロックとの相関性の高
いと考えられるブロックAとブロックBの動き情報を優先して結合動き情報候補リストに
登録できるように処理の順序をブロックA、ブロックB、ブロックC、ブロックE、ブロ
ックDとしたが、処理対象ブロックと相関性の高い順序または候補ブロックとして選択確
率の高い順序で結合動き情報候補が結合動き情報候補リストに登録されればよく、これに
限定されない。例えば、予測ブロックサイズタイプがN×2Nの予測ブロック1の場合は
、ブロックB、ブロックC、ブロックE、ブロックD、ブロックAの順に、予測ブロック
サイズタイプが2N×Nの予測ブロック1の場合は、ブロックA、ブロックC、ブロック
E、ブロックD、ブロックBの順に、予測ブロックサイズタイプがN×Nの予測ブロック
1の場合は、ブロックB、ブロックC、ブロックD、ブロックA、ブロックEの順に、予
測ブロックサイズタイプがN×Nの予測ブロック2の場合は、ブロックA、ブロックE、
ブロックD、ブロックB、ブロックCの順に、予測ブロックサイズタイプがN×Nの予測
ブロック3の場合は、ブロックC、ブロックE、ブロックA、ブロックB、ブロックDの
順にすることもできる。このように、処理対象の予測ブロックに近い順に結合動き情報候
補リストに追加することで、処理対象の予測ブロックに近いブロックに大きなマージイン
デックスが割り当てられることを防止することができ、符号化効率を向上させることがで
きる。また、空間結合動き情報候補最大数を4としたが、空間結合動き情報候補最大数は
1以上でマージ候補最大数以下であればよく、これに限定されない。
Here, the processing information is processed so that the motion information of block A and block B, which are generally considered to have a long tangent to the processing target block and generally have a high correlation with the processing target block, can be preferentially registered in the combined motion information candidate list. Although the order is block A, block B, block C, block E, and block D, the combined motion information candidates are added to the combined motion information candidate list in the order of high correlation with the processing target block or as the candidate block. It only needs to be registered, and is not limited to this. For example, when the prediction block size type is N × 2N prediction block 1, the prediction block size type is 2N × N prediction block 1 in the order of block B, block C, block E, block D, and block A. , Block A, block C, block E, block D, block B, in the order of prediction block size type N × N, block B, block C, block D, block A, block E , If the prediction block size type is N × N prediction block 2, block A, block E,
In the order of block D, block B, and block C, when the prediction block size type is N × N, the order of block C, block E, block A, block B, and block D may be used. In this way, by adding to the combined motion information candidate list in order from the closest to the prediction block to be processed, it is possible to prevent a large merge index from being assigned to a block close to the prediction block to be processed, and to improve the encoding efficiency. Can be improved. Although the maximum number of spatially coupled motion information candidates is four, the maximum number of spatially coupled motion information candidates may be 1 or more and less than the maximum number of merge candidates, and is not limited thereto.

(時間結合動き情報候補生成部161の詳細な動作)
続いて、時間結合動き情報候補生成部161の詳細な動作について説明する。図16は
、時間結合動き情報候補生成部161の動作を説明するためのフローチャートである。L
0予測とL1予測の各予測方向LXについて以下の処理を繰り返し行う(S120からS
127)。ここで、Xは0または1である。また、候補ブロック群の時間候補ブロック群
に含まれる候補ブロックであるブロックH、ブロックIの順に以下の処理を繰り返し行う
(S121からS126)。
(Detailed operation of time combination motion information candidate generation unit 161)
Subsequently, a detailed operation of the time combination motion information candidate generation unit 161 will be described. FIG. 16 is a flowchart for explaining the operation of the time combination motion information candidate generation unit 161. L
The following processing is repeated for each prediction direction LX of 0 prediction and L1 prediction (from S120 to S
127). Here, X is 0 or 1. Further, the following processing is repeated in the order of block H and block I, which are candidate blocks included in the time candidate block group of the candidate block group (S121 to S126).

時間結合動き情報候補生成部161は、候補ブロックのLN予測が有効であるか検査す
る(S122)。ここで、Nは0または1である。ここでは、NはXと同じであるとする
。候補ブロックのLN予測が有効であるとは、候補ブロックのLN予測の参照インデック
スが0以上であることである。候補ブロックのLN予測が有効であれば(S122のY)
、候補ブロックのLN予測の動きベクトルを基準動きベクトルとする(S123)。候補
ブロックのLN予測が有効でなければ(S122のN)、ステップ123からステップ1
26をスキップして次の候補ブロックを検査する(S126)。
The temporal combination motion information candidate generation unit 161 checks whether the LN prediction of the candidate block is valid (S122). Here, N is 0 or 1. Here, N is the same as X. That the LN prediction of the candidate block is valid means that the reference index of the LN prediction of the candidate block is 0 or more. If the LN prediction of the candidate block is valid (Y in S122)
The motion vector for LN prediction of the candidate block is set as a reference motion vector (S123). If the LN prediction of the candidate block is not valid (N in S122), step 123 to step 1
26 is skipped and the next candidate block is examined (S126).

ステップS123に続いて、時間結合動き情報候補のLX予測の参照画像を決定する(
S124)。ここでは、時間結合動き情報候補のLX予測の参照画像は、LX予測の参照
インデックス0の参照画像とする。ここでは、時間結合動き情報候補のLX予測の参照画
像をLX予測の参照インデックス0の参照画像としたが、符号化ブロック内の他の予測ブ
ロックの値に依存しなければよく、これに限定されない。次に、基準動きベクトルを処理
対象画像と時間結合動き情報候補のLX予測の参照画像の距離に合うようにスケーリング
して時間結合動き情報候補のLX予測の動きベクトルを算出し(S125)、次の予測方
向を処理する(S127)。時間結合動き情報候補のLX予測の動きベクトルの具体的な
算出式については、後述する。L0予測とL1予測について処理が終了したステップS1
27に続いて、時間結合動き情報候補のL0予測とL1予測の少なくとも一方の予測が有
効であるか検査する(S128)。時間結合動き情報候補のL0予測とL1予測の少なく
とも一方の予測が有効であれば(S128のY)、時間結合動き情報候補のインター予測
タイプを決定して、当該時間結合動き情報候補を結合動き情報候補リストに追加する(S
129)。ここでは、インター予測タイプの決定は、L0予測だけが有効であれば、時間
結合動き情報候補のインター予測タイプをPred_L0とし、L1予測だけが有効であ
れば、時間結合動き情報候補のインター予測タイプをPred_L1とし、L0予測とL
1予測の両方が有効であれば、時間結合動き情報候補のインター予測タイプをPred_
BIとする。
Subsequent to step S123, a reference image for LX prediction of a temporally combined motion information candidate is determined (
S124). Here, the LX prediction reference image of the temporally combined motion information candidate is a reference image with a reference index 0 of LX prediction. Here, the LX prediction reference image of the temporally combined motion information candidate is the reference image of the LX prediction reference index 0, but the reference image does not depend on the values of other prediction blocks in the encoded block, and is not limited thereto. . Next, the base motion vector is scaled to match the distance between the processing target image and the LX prediction reference image of the temporally combined motion information candidate to calculate the temporally combined motion information candidate LX prediction motion vector (S125). The prediction direction is processed (S127). A specific calculation formula for the motion vector of the LX prediction of the temporally combined motion information candidate will be described later. Step S1 in which processing is completed for L0 prediction and L1 prediction
Following 27, it is checked whether at least one of the L0 prediction and the L1 prediction of the temporally combined motion information candidate is valid (S128). If at least one of the L0 prediction and the L1 prediction of the temporally combined motion information candidate is valid (Y in S128), the inter prediction type of the temporally combined motion information candidate is determined, and the temporally combined motion information candidate is combined with the motion. Add to information candidate list (S
129). Here, in the determination of the inter prediction type, if only the L0 prediction is valid, the inter prediction type of the temporally combined motion information candidate is Pred_L0, and if only the L1 prediction is valid, the inter prediction type of the temporally combined motion information candidate is Is Pred_L1, L0 prediction and L
If both predictions are valid, the inter prediction type of the temporally combined motion information candidate is set to Pred_
Let it be BI.

続いて、時間結合動き情報候補のLX予測の動きベクトルの算出式について説明する。
時間候補ブロックを有するColPicと時間候補ブロックがLX予測の動き補償予測で
参照するピクチャであるColRefLXPicの画像間距離をtd、時間結合動き情報
候補のLX予測の参照画像RefLXPicと処理対象画像CurPicの画像間距離を
tb、LX予測の基準動きベクトルをmvLXとすると、時間結合動き情報候補のLX予
測の動きベクトルmvLXColは式1より算出される。式1より時間結合動き情報候補
のLX予測の動きベクトルの算出にはtbとtdを算出するための減算と、除算、及び乗
算が必要となることがわかる。
mvLXCol = tb / td * mvLX; 式1
Next, a formula for calculating a motion vector for LX prediction of temporally combined motion information candidates will be described.
The distance between images of ColPic having a temporal candidate block and ColRefLXPic, which is a picture that the temporal candidate block refers to in motion compensated prediction of LX prediction, is the td, and the reference image RefLXPic of the LX prediction of the temporal combination motion information candidate and the image of the processing target image CurPic When the inter-distance is tb and the reference motion vector for LX prediction is mvLX, the LX prediction motion vector mvLXCol of the temporally combined motion information candidate is calculated from Equation 1. It can be seen from Equation 1 that subtraction, division, and multiplication for calculating tb and td are required to calculate a motion vector for LX prediction of temporally combined motion information candidates.
mvLXCol = tb / td * mvLX; Equation 1

式1は浮動小数点演算の簡略化のために整数演算とする場合には、例えば、式2から式
4のように展開して利用してもよい。Abs(v)は値vの絶対値を算出する関数、Cl
ip3(uv,lv,v)は値vを下限lvから上限uvまでに制限する関数、Sign
(v)は値vが0以上であれば1を値vが0より小さい場合は−1を返す関数である。
tx = (16384+Abs(td/2) ) / td; 式2
DistScaleFactor = Clip3( -1024, 1023, ( tb * tx + 32 ) >> 6 ); 式3
mvLXCol=Sign(DistScaleFactor*mvLX)*((Abs(DistScaleFactor*mvLX)+127)>>8); 式4
In the case where the expression 1 is an integer operation for simplifying the floating point operation, for example, the expression 1 may be expanded and used as the expression 2 to 4. Abs (v) is a function for calculating the absolute value of the value v, Cl
ip3 (uv, lv, v) is a function that limits the value v from the lower limit lv to the upper limit uv, Sign
(V) is a function that returns 1 if the value v is 0 or more and -1 if the value v is less than 0.
tx = (16384 + Abs (td / 2)) / td; Equation 2
DistScaleFactor = Clip3 (-1024, 1023, (tb * tx + 32) >>6); Equation 3
mvLXCol = Sign (DistScaleFactor * mvLX) * ((Abs (DistScaleFactor * mvLX) +127) >>8); Equation 4

ここでは、結合動き情報候補リストに登録できる時間結合動き情報候の最大数である時
間結合動き情報候補最大数を1とした。そのため、図16には空間結合動き情報候補生成
部160の動作を説明するフローチャートである図14で示したステップS115に相当
する処理を省略したが、時間結合動き情報候補最大数が2以上である場合にはステップS
129の後にステップS115に相当する処理を追加することもできる。
Here, the maximum number of temporally combined motion information candidates that is the maximum number of temporally combined motion information candidates that can be registered in the combined motion information candidate list is 1. Therefore, FIG. 16 omits the processing corresponding to step S115 shown in FIG. 14 which is a flowchart for explaining the operation of the spatially coupled motion information candidate generating unit 160, but the maximum number of temporally coupled motion information candidate candidates is 2 or more. If step S
A process corresponding to step S115 may be added after 129.

ここでは、NはXと同じであるとしたが、NはXと異なっていても良く、これに限定さ
れない。
Here, N is the same as X, but N may be different from X and is not limited to this.

(第1結合動き情報候補補充部163の詳細な動作)
続いて、第1結合動き情報候補補充部163の詳細な動作について説明する。図17は
、第1結合動き情報候補補充部163の動作を説明するためのフローチャートである。最
初に、より供給される結合動き情報候補リストに登録された結合動き情報候補の数(Nu
mCandList)とマージ候補最大数(MaxNumMergeCand)から、第
1補充結合動き情報候補を生成する最大数であるMaxNumGenCandを式5より
算出する(S170)。
MaxNumGenCand=MaxNumMergeCand-NumCandList; (NumCandList>1)
MaxNumGenCand=0; (NumCandList<=1) 式5
(Detailed operation of first combined motion information candidate supplementing unit 163)
Next, the detailed operation of the first combined motion information candidate supplement unit 163 will be described. FIG. 17 is a flowchart for explaining the operation of the first combined motion information candidate supplementing unit 163. First, the number of combined motion information candidates registered in the supplied combined motion information candidate list (Nu
MaxNumGenCand, which is the maximum number for generating the first supplemental combined motion information candidate, is calculated from Equation 5 from mCandList) and the maximum number of merge candidates (MaxNumMergeCand) (S170).
MaxNumGenCand = MaxNumMergeCand-NumCandList; (NumCandList> 1)
MaxNumGenCand = 0; (NumCandList <= 1) Equation 5

次に、MaxNumGenCandが0より大きいか検査する(S171)。MaxN
umGenCandが0より大きくなければ(S171のN)、処理を終了する。Max
NumGenCandが0より大きければ(S171のY)、以下の処理を行う。まず、
組み合わせ検査回数であるloopTimesを決定する。loopTimesはNum
CandList×NumCandListに設定する。ただし、loopTimesが
8を超える場合にはloopTimesは8に制限する(S172)。ここで、loop
Timesは0から7までの整数となる。loopTimesだけ以下の処理を繰り返し
行う(S172からS180)。結合動き情報候補Mと結合動き情報候補Nの組み合わせ
を決定する(S173)。ここで、組み合わせ検査回数と結合動き情報候補Mと結合動き
情報候補Nの関係について説明する。図18は組み合わせ検査回数と結合動き情報候補M
と結合動き情報候補Nの関係を説明するための図である。図18のようにMとNは異なる
値であって、MとNの合計値が小さくなる順に設定される。結合動き情報候補MのL0予
測が有効で且つ結合動き情報候補NのL1予測が有効であるか検査する(S174)。結
合動き情報候補MのL0予測が有効で且つ結合動き情報候補NのL1予測が有効であれば
(S174のY)、結合動き情報候補MのL0予測の参照画像と動きベクトルが結合動き
情報候補NのL1予測の参照画像と動きベクトルと異なるか検査する(S175)。結合
動き情報候補MのL0予測が有効で且つ結合動き情報候補NのL1予測が有効でなければ
(S174のN)、次の組み合わせを処理する。結合動き情報候補MのL0予測の参照画
像と結合動き情報候補NのL1予測の参照画像が異なれば(S175のY)、結合動き情
報候補MのL0予測の動きベクトルと参照画像を結合動き情報候補NのL1予測の動きベ
クトルと参照画像と組み合わせてインター予測タイプがPred_BIである双結合動き
情報候補を生成する(S176)。ここでは、第1補充結合動き情報候補として、ある結
合動き情報候補のL0予測とそれとは異なる結合動き情報候補のL1予測の動き情報を組
み合わせた双結合動き情報を生成する。結合動き情報候補MのL0予測の参照画像と結合
動き情報候補NのL1予測の参照画像が同じであれば(S175のN)、次の組み合わせ
を処理する。ステップS176に続いて、双結合動き情報候補を結合動き情報候補リスト
に追加する(S178)。ステップS178に続いて、生成した双結合動き情報の数がM
axNumGenCandであるか検査する(S179)。生成された双結合動き情報の
数がMaxNumGenCandであれば(S179のY)、処理を終了する。生成され
た双結合動き情報の数がMaxNumGenCandでなければ(S179のN)、次の
組み合わせを処理する。
Next, it is checked whether MaxNumGenCand is greater than 0 (S171). MaxN
If umGenCand is not greater than 0 (N in S171), the process ends. Max
If NumGenCand is greater than 0 (Y in S171), the following processing is performed. First,
Determine loopTimes, which is the number of combination inspections. loopTimes is Num
Set to CandList × NumCandList. However, if loopTimes exceeds 8, loopTimes is limited to 8 (S172). Where loop
Times is an integer from 0 to 7. The following processing is repeated for loopTimes (S172 to S180). A combination of the combined motion information candidate M and the combined motion information candidate N is determined (S173). Here, the relationship between the number of combination inspections, the combined motion information candidate M, and the combined motion information candidate N will be described. FIG. 18 shows the number of combination inspections and combined motion information candidate M.
It is a figure for demonstrating the relationship between combined motion information candidate N. As shown in FIG. 18, M and N are different values, and are set in order of decreasing total value of M and N. It is checked whether the L0 prediction of the combined motion information candidate M is valid and the L1 prediction of the combined motion information candidate N is valid (S174). If the L0 prediction of the combined motion information candidate M is valid and the L1 prediction of the combined motion information candidate N is valid (Y in S174), the L0 prediction reference image of the combined motion information candidate M and the motion vector are combined motion information candidates. It is checked whether or not the reference image of the N L1 prediction is different from the motion vector (S175). If the L0 prediction of the combined motion information candidate M is not valid and the L1 prediction of the combined motion information candidate N is not valid (N in S174), the next combination is processed. If the reference image for L0 prediction of the combined motion information candidate M and the reference image for L1 prediction of the combined motion information candidate N are different (Y in S175), the motion vector of the combined motion information candidate M and the reference image for the L0 prediction are combined motion information. By combining the motion vector of L1 prediction of candidate N and the reference image, a bi-join motion information candidate having an inter prediction type of Pred_BI is generated (S176). Here, as the first supplemental combined motion information candidate, bi-coupled motion information is generated by combining the L0 prediction of a certain combined motion information candidate and the L1 prediction motion information of a different combined motion information candidate. If the reference image for L0 prediction of the combined motion information candidate M and the reference image for L1 prediction of the combined motion information candidate N are the same (N in S175), the next combination is processed. Subsequent to step S176, the bi-join motion information candidate is added to the joint motion information candidate list (S178). Subsequent to step S178, the number of generated double coupled motion information is M.
Whether or not it is axNumGenCand is checked (S179). If the number of generated double coupled motion information is MaxNumGenCand (Y in S179), the process ends. If the number of generated double coupled motion information is not MaxNumGenCand (N in S179), the next combination is processed.

ここでは、第1補充結合動き情報候補を、結合動き情報候補リストに登録されたある結
合動き情報候補のL0予測の動きベクトルと参照画像を、別の結合動き情報候補のL1予
測の動きベクトルと参照画像と組み合わせて、動き補償予測の方向が双方向である双結合
動き情報候補としたが、これに限定されない。例えば、結合動き情報候補リストに登録さ
れたある結合動き情報候補のL0予測の動きベクトルとL1予測の動きベクトルに+1な
どのオフセット値を加えた動き補償予測の方向が双方向である結合動き情報候補、結合動
き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトルまたはL
1予測の動きベクトルに+1などのオフセット値を加えた動き補償予測の方向が単方向で
ある結合動き情報候補としてもよい。第1補充結合動き情報候補の別の例として、結合動
き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトルを基準と
してL1予測の動きベクトルをスケーリングにより求め、それらを組み合わせて動き補償
予測の方向が双方向である新たな結合動き情報候補を生成してもよい。また、それらを任
意に組み合わせてもよい。
Here, the first supplemental combined motion information candidate is set as an L0 prediction motion vector of a certain combined motion information candidate registered in the combined motion information candidate list and the reference image, and the L1 prediction motion vector of another combined motion information candidate. In combination with the reference image, a bi-coupled motion information candidate in which the direction of motion compensation prediction is bidirectional is used, but the present invention is not limited to this. For example, combined motion information in which the direction of motion compensated prediction in which an offset value such as +1 is added to the motion vector of L0 prediction and the motion vector of L1 prediction of a certain combined motion information candidate registered in the combined motion information candidate list is bidirectional. Candidate, motion vector for L0 prediction of a combined motion information candidate registered in the combined motion information candidate list or L
It may be a combined motion information candidate in which the direction of motion compensation prediction in which an offset value such as +1 is added to one prediction motion vector is unidirectional. As another example of the first supplemental combined motion information candidate, a motion vector of L1 prediction is obtained by scaling based on a motion vector of L0 prediction of a combined motion information candidate registered in the combined motion information candidate list, and these are combined. A new combined motion information candidate in which the direction of motion compensation prediction is bidirectional may be generated. Moreover, you may combine them arbitrarily.

ここで、第1補充結合動き情報候補は、結合動き情報候補リストに登録された結合動き
情報候補の動き情報と処理対象の動き情報候補の動きに微妙にずれがある場合に、結合動
き情報候補リストに登録された結合動き情報候補の動き情報を修正して新たな有効となる
結合動き情報候補を生成することで、符号化効率を高めることができる。
Here, the first supplemental combined motion information candidate is a combined motion information candidate when there is a slight difference between the motion information of the combined motion information candidate registered in the combined motion information candidate list and the motion information candidate to be processed. By correcting the motion information of the combined motion information candidate registered in the list and generating a new effective combined motion information candidate, the encoding efficiency can be improved.

(第2結合動き情報候補補充部164の詳細な動作)
続いて、第2結合動き情報候補補充部164の詳細な動作について説明する。図19は
、第2結合動き情報候補補充部164の動作を説明するためのフローチャートである。最
初に、第1結合動き情報候補補充部163より供給される結合動き情報候補リストに登録
された結合動き情報候補の数(NumCandList)とマージ候補最大数(MaxN
umMergeCand)から、第1補充結合動き情報候補を生成する最大数であるMa
xNumGenCandを式6より算出する(S190)。
MaxNumGenCand=MaxNumMergeCand-NumCandList; 式6
(Detailed operation of second combined motion information candidate supplementing unit 164)
Next, the detailed operation of the second combined motion information candidate supplement unit 164 will be described. FIG. 19 is a flowchart for explaining the operation of the second combined motion information candidate supplementing unit 164. First, the number of combined motion information candidates (NumCandList) registered in the combined motion information candidate list supplied from the first combined motion information candidate supplementing unit 163 and the maximum number of merge candidates (MaxN).
umMergeCand), which is the maximum number for generating the first supplemental combined motion information candidate Ma
xNumGenCand is calculated from Equation 6 (S190).
MaxNumGenCand = MaxNumMergeCand-NumCandList; Formula 6

次に、以下の処理をiについてMaxNumGenCand回繰り返し行う(S191
からS195)。ここで、iは0からMaxNumGenCand−1の整数となる。L
0予測の動きベクトルが(0,0)、参照インデックスがiであって、L1予測の動きベ
クトルが(0,0)、参照インデックスがiであるインター予測タイプがPred_BI
である第2補充結合動き情報候補を生成する(S192)。第2補充結合動き情報候補を
結合動き情報候補リストに追加する(S194)。次のiについて処理する(S195)
Next, the following processing is repeated MaxNumCand times for i (S191).
To S195). Here, i is an integer from 0 to MaxNumGenCand-1. L
The inter prediction type in which the motion vector for 0 prediction is (0,0), the reference index is i, the motion vector for L1 prediction is (0,0), and the reference index is i is Pred_BI.
The second supplementary combined motion information candidate is generated (S192). The second supplementary combined motion information candidate is added to the combined motion information candidate list (S194). Process next i (S195)
.

ここでは、第2補充結合動き情報候補を、L0予測の動きベクトルが(0,0)、参照
インデックスがiであって、L1予測の動きベクトルが(0,0)、参照インデックスが
iであるインター予測タイプがPred_BIである結合動き情報候補とした。これは、
一般的な動画像において、L0予測の動きベクトルとL1予測の動きベクトルが(0,0
)である結合動き情報候補の発生頻度が統計的に高いためである。結合動き情報候補リス
トに登録された結合動き情報候補の動き情報に依存せず、統計的に利用頻度が高い結合動
き情報候補であれば、これに限定されない。例えば、L0予測やL1予測の動きベクトル
はそれぞれ(0,0)以外のベクトル値でもよく、L0予測とL1予測の参照インデック
スが異なるように設定してもよい。また、第2補充結合動き情報候補を符号化済みの画像
や符号化済みの画像の一部の発生頻度の高い動き情報とし、符号化ストリームに符号化し
て伝送して設定することもできる。なお、ここではBピクチャについて説明したが、Pピ
クチャの場合は、L0予測の動きベクトルが(0,0)で、インター予測タイプがPre
d_L0である第2補充結合動き情報候補を生成する。
Here, the second supplementary combined motion information candidate has a motion vector for L0 prediction of (0, 0), a reference index of i, a motion vector of L1 prediction of (0, 0), and a reference index of i. The combined motion information candidate whose inter prediction type is Pred_BI is used. this is,
In a general moving image, the motion vector of L0 prediction and the motion vector of L1 prediction are (0, 0
This is because the frequency of occurrence of combined motion information candidates is statistically high. The present invention is not limited to this as long as it is a combined motion information candidate that is statistically frequently used without depending on the motion information of the combined motion information candidate registered in the combined motion information candidate list. For example, the motion vectors of L0 prediction and L1 prediction may be vector values other than (0, 0), respectively, and may be set so that the reference indexes of L0 prediction and L1 prediction are different. Alternatively, the second supplementary combined motion information candidate can be set as an encoded image or motion information with a high occurrence frequency of a part of the encoded image, encoded in an encoded stream, and transmitted. Although the B picture has been described here, in the case of the P picture, the motion vector for L0 prediction is (0, 0) and the inter prediction type is Pre.
A second supplementary combined motion information candidate that is d_L0 is generated.

ここで、第2補充結合動き情報候補として結合動き情報候補リストに登録された結合動
き情報候補に依存しない結合動き情報候補を設定することで、結合動き情報候補リストに
登録された結合動き情報候補が0個である場合に、マージモードを利用することを可能と
し、符号化効率を向上させることができる。また、結合動き情報候補リストに登録された
結合動き情報候補の動き情報と処理対象の動き情報候補の動きが異なる場合に、新たな結
合動き情報候補を生成して選択肢の幅を広げることで、符号化効率を向上させることがで
きる。
Here, by setting a combined motion information candidate that does not depend on the combined motion information candidate registered in the combined motion information candidate list as the second supplemental combined motion information candidate, the combined motion information candidate registered in the combined motion information candidate list When the number is zero, it is possible to use the merge mode and improve the encoding efficiency. In addition, when the motion information of the combined motion information candidate registered in the combined motion information candidate list and the motion information candidate motion to be processed are different, by generating a new combined motion information candidate and expanding the range of options, Encoding efficiency can be improved.

(動画像復号装置200の構成)
次に、実施の形態1の動画像復号装置を説明する。図20は、実施の形態1に係る動画
像復号装置200の構成を示す図である。動画像復号装置200は、動画像符号化装置1
00により符号化された符号列を復号して再生画像を生成する装置である。
(Configuration of moving picture decoding apparatus 200)
Next, the moving picture decoding apparatus according to the first embodiment will be described. FIG. 20 is a diagram showing a configuration of the video decoding device 200 according to Embodiment 1. The moving picture decoding apparatus 200 includes a moving picture encoding apparatus 1
This is an apparatus for generating a reproduced image by decoding a code string encoded by 00.

動画像復号装置200は、CPU(Central Processing Unit
)、フレームメモリ、ハードディスクなどを備える情報処理装置などのハードウェアによ
り実現される。動画像復号装置200は、上記の構成要素が動作することにより、以下に
説明する機能的な構成要素を実現する。符号化ブロックの分割、スキップモードの決定、
予測ブロックサイズタイプの決定、予測ブロックサイズと予測ブロックの符号化ブロック
内の位置(予測ブロックの位置情報)の決定、予測符号化モードがイントラであるかの決
定は図示しない上位の制御部で決定されているものとし、ここでは予測符号化モードがイ
ントラでない場合について説明する。なお、復号対象の予測ブロックの位置情報、予測ブ
ロックサイズに関しては動画像復号装置200内で共有していることとし、図示しない。
The moving picture decoding apparatus 200 includes a CPU (Central Processing Unit).
), Hardware such as an information processing apparatus including a frame memory and a hard disk. The moving picture decoding apparatus 200 realizes functional components described below by operating the above components. Coding block division, skip mode determination,
Determination of the prediction block size type, determination of the prediction block size and the position of the prediction block in the coding block (position information of the prediction block), and determination of whether the prediction coding mode is intra are determined by an upper control unit (not shown) Here, a case where the predictive coding mode is not intra will be described. Note that the position information and the prediction block size of the prediction block to be decoded are shared in the video decoding device 200 and are not shown.

実施の形態1の動画像復号装置200は、符号列解析部201、予測誤差復号部202
、加算部203、動き情報再生部204、動き補償部205、フレームメモリ206およ
び動き情報メモリ207を備える。
A moving picture decoding apparatus 200 according to Embodiment 1 includes a code string analysis unit 201 and a prediction error decoding unit 202.
An adder 203, a motion information reproducing unit 204, a motion compensation unit 205, a frame memory 206, and a motion information memory 207.

(動画像復号装置200の動作)
以下、各部の機能と動作について説明する。符号列解析部201は、端子30より供給
された符号列を解析して予測誤差符号化データ、マージフラグ、マージインデックス、動
き補償予測の予測方向(インター予測タイプ)、参照インデックス、差分ベクトル、およ
び予測ベクトルインデックスをシンタックスに従ってエントロピー復号する。エントロピ
ー復号は算術符号化やハフマン符号化などの可変長符号化を含む方法によって実施される
。そして、当該予測誤差符号化データを予測誤差復号部202に、当該マージフラグ、当
該マージインデックス、当該インター予測タイプ、当該参照インデックス、当該差分ベク
トル、および当該予測ベクトルインデックスを動き情報再生部204に供給する。
(Operation of the video decoding device 200)
Hereinafter, the function and operation of each unit will be described. The code string analysis unit 201 analyzes the code string supplied from the terminal 30 to generate prediction error encoded data, a merge flag, a merge index, a motion compensation prediction direction (inter prediction type), a reference index, a difference vector, and Entropy decodes the prediction vector index according to the syntax. Entropy decoding is performed by a method including variable length coding such as arithmetic coding or Huffman coding. Then, the prediction error encoded data is supplied to the prediction error decoding unit 202, and the merge flag, the merge index, the inter prediction type, the reference index, the difference vector, and the prediction vector index are supplied to the motion information reproduction unit 204. To do.

また、符号列解析部201は、動画像復号装置200で利用される符号化ブロックの分
割情報、予測ブロックサイズタイプ、及び予測符号化モードを、符号化ストリームの特性
を決定するためのパラメータ群を定義したSPS(Sequence Paramete
r Set)、ピクチャの特性を決定するためのパラメータ群を定義したPPS(Pic
ture Parameter Set)、やスライスの特性を決定するためのパラメー
タ群を定義したスライスヘッダなどと共に符号化ストリームから復号する。
In addition, the code stream analysis unit 201 sets the parameter group for determining the characteristics of the encoded stream, the division information of the encoded block used in the video decoding device 200, the predicted block size type, and the predicted encoding mode. Defined SPS (Sequence Parameter)
r Set), a PPS (Pic) that defines a group of parameters for determining picture characteristics
true Parameter Set), a slice header that defines a parameter group for determining the characteristics of the slice, and the like, and is decoded from the encoded stream.

動き情報再生部204は、符号列解析部201より供給されるマージフラグ、マージイ
ンデックス、インター予測タイプ、参照インデックス、差分ベクトル、および予測ベクト
ルインデックスと、動き情報メモリ207より供給される候補ブロック群から、動き情報
を再生し、当該動き情報を動き補償部205および動き情報メモリ207に供給する。動
き情報再生部204の詳細な構成については後述する。
The motion information reproduction unit 204 includes a merge flag, a merge index, an inter prediction type, a reference index, a difference vector, and a prediction vector index supplied from the code string analysis unit 201 and a candidate block group supplied from the motion information memory 207. The motion information is reproduced, and the motion information is supplied to the motion compensation unit 205 and the motion information memory 207. A detailed configuration of the motion information reproducing unit 204 will be described later.

動き補償部205は、動き情報再生部204より供給される動き情報に基づいて、フレ
ームメモリ206内の参照インデックスが示す参照画像を、動きベクトルに基づき動き補
償して予測信号を生成する。予測方向が双予測であれば、L0予測とL1予測の予測信号
を平均したものを予測信号として生成し、当該予測信号を加算部203に供給する。
Based on the motion information supplied from the motion information reproducing unit 204, the motion compensation unit 205 performs motion compensation on the reference image indicated by the reference index in the frame memory 206 based on the motion vector to generate a prediction signal. If the prediction direction is bi-prediction, an average of the prediction signals of the L0 prediction and the L1 prediction is generated as a prediction signal, and the prediction signal is supplied to the adding unit 203.

予測誤差復号部202は、符号列解析部201より供給される予測誤差符号化データに
対して、逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し、当該予測誤差
信号を加算部203に供給する。
The prediction error decoding unit 202 performs a process such as inverse quantization or inverse orthogonal transformation on the prediction error encoded data supplied from the code string analysis unit 201 to generate a prediction error signal, and the prediction error signal is It supplies to the addition part 203.

加算部203は、予測誤差復号部202より供給される予測誤差信号と、動き補償部2
05より供給される予測信号とを加算して復号画像信号を生成し、当該復号画像信号をフ
レームメモリ206および端子31に供給する。
The adder 203 receives the prediction error signal supplied from the prediction error decoding unit 202 and the motion compensation unit 2.
The prediction image supplied from 05 is added to generate a decoded image signal, and the decoded image signal is supplied to the frame memory 206 and the terminal 31.

フレームメモリ206および動き情報メモリ207は、動画像符号化装置100のフレ
ームメモリ110および動き情報メモリ111と同一の機能を有する。フレームメモリ2
06は、加算部203より供給される復号画像信号を記憶する。動き情報メモリ207は
、動き情報再生部204より供給される動き情報を最小の予測ブロックサイズ単位で記憶
する。
The frame memory 206 and the motion information memory 207 have the same functions as the frame memory 110 and the motion information memory 111 of the video encoding device 100. Frame memory 2
In 06, the decoded image signal supplied from the adding unit 203 is stored. The motion information memory 207 stores the motion information supplied from the motion information reproducing unit 204 in units of the minimum predicted block size.

(動き情報再生部204の詳細な構成)
続いて、動き情報再生部204の詳細な構成について説明する。図21は、動き情報再
生部204の構成を示す。動き情報再生部204は、符号化モード判定部210、動きベ
クトル再生部211および結合動き情報再生部212を含む。端子32は符号列解析部2
01に、端子33は動き情報メモリ207に、端子34は動き補償部205に、端子36
は動き情報メモリ207にそれぞれ接続されている。
(Detailed configuration of the motion information playback unit 204)
Next, a detailed configuration of the motion information reproducing unit 204 will be described. FIG. 21 shows the configuration of the motion information playback unit 204. The motion information playback unit 204 includes an encoding mode determination unit 210, a motion vector playback unit 211, and a combined motion information playback unit 212. The terminal 32 is a code string analysis unit 2
01, the terminal 33 is in the motion information memory 207, the terminal 34 is in the motion compensation unit 205, and the terminal 36
Are connected to the motion information memory 207, respectively.

(動き情報再生部204の詳細な動作)
以下、各部の機能と動作について説明する。符号化モード判定部210は、符号列解析
部201より供給されるマージフラグが「0」であるか「1」であるか判定する。マージ
フラグが「0」であれば、符号列解析部201より供給されるインター予測タイプ、参照
インデックス、差分ベクトル、および予測ベクトルインデックスを動きベクトル再生部2
11に供給する。マージフラグが「1」であれば、符号列解析部201より供給されるマ
ージインデックスを結合動き情報再生部212に供給する。
(Detailed operation of the motion information playback unit 204)
Hereinafter, the function and operation of each unit will be described. The encoding mode determination unit 210 determines whether the merge flag supplied from the code string analysis unit 201 is “0” or “1”. If the merge flag is “0”, the inter prediction type, reference index, difference vector, and prediction vector index supplied from the code string analysis unit 201 are used as the motion vector reproduction unit 2.
11 is supplied. If the merge flag is “1”, the merge index supplied from the code string analysis unit 201 is supplied to the combined motion information reproduction unit 212.

動きベクトル再生部211は、符号化モード判定部210より供給されるインター予測
タイプ、参照インデックス、差分ベクトル、および予測ベクトルインデックスと、端子3
3より供給される候補ブロック群から、動きベクトルを再生して動き情報を生成し、端子
34及び端子36に供給する。
The motion vector reproduction unit 211 includes an inter prediction type, a reference index, a difference vector, and a prediction vector index supplied from the encoding mode determination unit 210, and a terminal 3
The motion vector is reproduced from the candidate block group supplied from 3 to generate motion information and supplied to the terminal 34 and the terminal 36.

結合動き情報再生部212は、端子33より供給される候補ブロック群から結合動き情
報候補リストを生成し、当該結合動き情報候補リストから符号化モード判定部210より
供給されるマージインデックスによって示される結合動き情報候補の動き情報を選択して
端子34及び端子36に供給する。
The combined motion information reproduction unit 212 generates a combined motion information candidate list from the candidate block group supplied from the terminal 33, and combines the index indicated by the merge index supplied from the encoding mode determination unit 210 from the combined motion information candidate list. The motion information candidate motion information is selected and supplied to the terminals 34 and 36.

(結合動き情報再生部212の詳細な構成)
続いて、結合動き情報再生部212の詳細な構成について説明する。図22は、結合動
き情報再生部212の構成を示す。結合動き情報再生部212は、結合動き情報候補リス
ト生成部230および結合動き情報選択部231を含む。端子35は符号化モード判定部
210に接続されている。
(Detailed Configuration of Combined Motion Information Reproducing Unit 212)
Next, a detailed configuration of the combined motion information reproduction unit 212 will be described. FIG. 22 shows the configuration of the combined motion information playback unit 212. The combined motion information reproduction unit 212 includes a combined motion information candidate list generation unit 230 and a combined motion information selection unit 231. The terminal 35 is connected to the encoding mode determination unit 210.

(結合動き情報再生部212の詳細な動作)
以下、各部の機能と動作について説明する。結合動き情報候補リスト生成部230は動
画像符号化装置100の結合動き情報候補リスト生成部140と同一の機能を有し、動画
像符号化装置100の結合動き情報候補リスト生成部140と同一の動作によって結合動
き情報候補リストを生成し、当該結合動き情報候補リストを結合動き情報選択部231に
供給する。
(Detailed operation of the combined motion information reproduction unit 212)
Hereinafter, the function and operation of each unit will be described. The combined motion information candidate list generation unit 230 has the same function as the combined motion information candidate list generation unit 140 of the video encoding device 100, and is the same as the combined motion information candidate list generation unit 140 of the video encoding device 100. The combined motion information candidate list is generated by the operation, and the combined motion information candidate list is supplied to the combined motion information selection unit 231.

結合動き情報選択部231は、結合動き情報候補リスト生成部230より供給される結
合動き情報候補リストの中から、端子35より供給されるマージインデックスで示される
結合動き情報候補を選択して結合動き情報を決定し、当該結合動き情報の動き情報を端子
34及び端子36に供給する。
The combined motion information selection unit 231 selects a combined motion information candidate indicated by the merge index supplied from the terminal 35 from the combined motion information candidate list supplied from the combined motion information candidate list generation unit 230 and combines motion The information is determined, and the motion information of the combined motion information is supplied to the terminal 34 and the terminal 36.

以上のように、動画像復号装置200は、動画像符号化装置100により符号化された
符号列を復号して再生画像を生成することができる。
As described above, the moving picture decoding apparatus 200 can generate a reproduction image by decoding the code string encoded by the moving picture encoding apparatus 100.

[実施の形態2]
以下、実施の形態2について説明する。実施の形態1とは予測ブロックサイズタイプが
2N×2N以外の予測ブロックについて空間結合動き情報候補生成部160において利用
する空間候補ブロック群が異なる。以下、実施の形態2の予測ブロックサイズタイプが2
N×2N以外の予測ブロックの空間候補ブロック群について説明する。
[Embodiment 2]
The second embodiment will be described below. The spatial candidate block group used in the spatially coupled motion information candidate generation unit 160 is different from that of the first embodiment for a prediction block whose prediction block size type is other than 2N × 2N. Hereinafter, the prediction block size type of the second embodiment is 2
A spatial candidate block group of prediction blocks other than N × 2N will be described.

図23は実施の形態2における予測ブロックサイズタイプが2N×2N以外の予測ブロ
ックと空間候補ブロック群の位置関係を説明する図である。図23(a)から(h)はそ
れぞれ予測ブロックサイズタイプがN×2Nの予測ブロック0、予測ブロックサイズタイ
プがN×2Nの予測ブロック1、予測ブロックサイズタイプが2N×Nの予測ブロック0
、予測ブロックサイズタイプが2N×Nの予測ブロック1、予測ブロックサイズタイプが
N×Nの予測ブロック0、予測ブロックサイズタイプがN×Nの予測ブロック1、予測ブ
ロックサイズタイプがN×Nの予測ブロック2、予測ブロックサイズタイプがN×Nの予
測ブロック3の場合の空間候補ブロック群を示す。図23では予測ブロックサイズが16
画素×16画素である例を示す。このように、予測ブロックサイズタイプが2N×2Nで
はない符号化ブロックに含まれる予測ブロックでは、予測ブロックごとに予測ブロックの
位置と大きさに基づいて候補ブロック群が決定される。
FIG. 23 is a diagram for explaining the positional relationship between a prediction block other than the prediction block size type of 2N × 2N and a spatial candidate block group in the second embodiment. FIGS. 23A to 23H show a prediction block 0 with a prediction block size type of N × 2N, a prediction block 1 with a prediction block size type of N × 2N, and a prediction block 0 with a prediction block size type of 2N × N, respectively.
Prediction block 1 having a prediction block size type of 2N × N, prediction block 0 having a prediction block size type of N × N, prediction block 1 having a prediction block size type of N × N, and prediction having a prediction block size type of N × N The spatial candidate block group in the case of the prediction block 3 of the block 2 and the prediction block size type is N × N is shown. In FIG. 23, the predicted block size is 16
An example of pixels × 16 pixels is shown. In this way, in a prediction block included in an encoded block whose prediction block size type is not 2N × 2N, a candidate block group is determined for each prediction block based on the position and size of the prediction block.

ここでは、前記の第1の例に加えて、必ず未処理となるブロックも予測ブロックサイズ
タイプが2N×2Nである予測ブロックの候補ブロックに置き換える。つまり、予測ブロ
ックサイズタイプがN×2Nの予測ブロック1の場合(図23(b))、ブロックEを予
測ブロックサイズタイプが2N×2Nである予測ブロックの候補ブロックのブロックEと
する。予測ブロックサイズタイプが2N×Nの予測ブロック1の場合(図23(d))、
ブロックCを予測ブロックサイズタイプが2N×2Nである予測ブロックの候補ブロック
のブロックCとする。予測ブロックサイズタイプがN×Nの予測ブロック3の場合(図2
3(h))、ブロックCとブロックEを予測ブロックサイズタイプが2N×2Nである予
測ブロックの候補ブロックのブロックCとブロックEとする。
Here, in addition to the first example described above, blocks that are always unprocessed are also replaced with prediction block candidate blocks whose prediction block size type is 2N × 2N. That is, when the prediction block size type is the prediction block 1 of N × 2N (FIG. 23B), the block E is the block E of the prediction block candidate block having the prediction block size type of 2N × 2N. When the prediction block size type is 2N × N prediction block 1 (FIG. 23 (d)),
Let block C be a block C of candidate blocks of a prediction block whose prediction block size type is 2N × 2N. When the prediction block size type is prediction block 3 of N × N (FIG. 2)
3 (h)), let block C and block E be block C and block E, which are candidate blocks of the prediction block whose prediction block size type is 2N × 2N.

以上のように、必ず未処理となる候補ブロックを予測ブロックサイズタイプが2N×2
Nである予測ブロックの候補ブロックにすることで、必ず未処理となる候補ブロックを有
効となる可能性のある候補ブロックとすることができ、マージモードの選択肢を増加させ
ることでマージモードの選択率が上がり、符号化効率を向上させることができる。入れ替
えた候補ブロックの動き情報を他の結合動き情報候補の動き情報と組み合わせて新たな動
き情報を生成したり、入れ替えた候補ブロックの動き情報を修正して、第2補充結合動き
情報候補よりも相対的に選択率の高い第1補充結合動き情報候補を結合動き情報候補リス
トに追加することで、符号化効率を高めることができる。特に、双結合動き情報候補を利
用する場合には少なくとも2つの結合動き情報候補が必要となるため、結合動き情報候補
リストに入れ替えた候補ブロック以外の結合動き情報候補が1個しか登録されていない場
合に、入れ替えた候補ブロックの動き情報が効果的に作用する。
As described above, a candidate block that is always unprocessed is a prediction block size type of 2N × 2
By making a candidate block of a prediction block that is N, an unprocessed candidate block can be made a valid candidate block, and a merge mode selection rate can be increased by increasing merge mode options. And the coding efficiency can be improved. The motion information of the replaced candidate block is combined with the motion information of the other combined motion information candidates to generate new motion information, or the motion information of the replaced candidate block is corrected so that the second supplementary combined motion information candidate By adding the first supplementary combined motion information candidate having a relatively high selection rate to the combined motion information candidate list, the encoding efficiency can be increased. In particular, since at least two combined motion information candidates are required when using a dual combined motion information candidate, only one combined motion information candidate other than the candidate block replaced with the combined motion information candidate list is registered. In this case, the motion information of the replaced candidate block works effectively.

また、空間結合動き情報候補生成部160の動作において、結合動き情報候補リストへ
の登録順序をブロックA、ブロックB、ブロックC、ブロックE、ブロックDとしたが、
以下のように変形することもできる。
In addition, in the operation of the spatially coupled motion information candidate generation unit 160, the registration order in the combined motion information candidate list is block A, block B, block C, block E, and block D.
It can also be modified as follows.

予測ブロックサイズタイプがN×2Nの予測ブロック1の場合は、ブロックB、ブロッ
クC、ブロックD、ブロックA、ブロックEの順に、予測ブロックサイズタイプが2N×
Nの予測ブロック1の場合は、ブロックA、ブロックE、ブロックD、ブロックB、ブロ
ックCの順に、予測ブロックサイズタイプがN×Nの予測ブロック1の場合は、ブロック
B、ブロックC、ブロックD、ブロックA、ブロックEの順に、予測ブロックサイズタイ
プがN×Nの予測ブロック2の場合は、ブロックA、ブロックE、ブロックD、ブロック
B、ブロックCの順にすることもできる。このように、処理対象の予測ブロックに近い順
に結合動き情報候補リストに追加することで、処理対象の予測ブロックに近いブロックに
大きなマージインデックスが割り当てられることを防止することができ、符号化効率を向
上させることができる。
When the prediction block size type is N × 2N prediction block 1, the prediction block size type is 2N × in the order of block B, block C, block D, block A, and block E.
In the case of N prediction block 1, in the order of block A, block E, block D, block B, and block C, in the case of prediction block 1 with a prediction block size type of N × N, block B, block C, and block D In the order of block A and block E, when the prediction block size type is N × N prediction block 2, the order of block A, block E, block D, block B, and block C may be used. In this way, by adding to the combined motion information candidate list in order from the closest to the prediction block to be processed, it is possible to prevent a large merge index from being assigned to a block close to the prediction block to be processed, and to improve the encoding efficiency. Can be improved.

[実施の形態3]
最初に、予測ブロックサイズタイプに依存せずに符号化ブロック内の予測ブロックの候
補ブロックを共通とする一例について説明する。実施の形態1とは予測ブロックサイズタ
イプが2N×2N以外の予測ブロックと空間候補ブロック群と時間候補ブロック群が異な
る。以下、予測ブロックサイズタイプに依存せずに符号化ブロック内の予測ブロックの候
補ブロックを共通とする一例の予測ブロックサイズタイプが2N×2N以外の予測ブロッ
クの空間候補ブロック群と時間候補ブロック群について説明する。本例では、予測ブロッ
クサイズタイプに依存せずに符号化ブロック内の予測ブロックの候補ブロックを予測ブロ
ックサイズタイプが2N×2Nである予測ブロックの候補ブロックとする。
[Embodiment 3]
First, an example in which the prediction block candidate blocks in the encoded block are made common without depending on the prediction block size type will be described. The prediction block size type is different from that of the first embodiment in the prediction block, the spatial candidate block group, and the temporal candidate block group other than 2N × 2N. Hereinafter, a spatial candidate block group and a temporal candidate block group of a prediction block whose prediction block size type is an example other than 2N × 2N, in which the prediction block size type in the encoded block is common without depending on the prediction block size type. explain. In this example, the prediction block candidate block in the encoded block is determined as a prediction block candidate block having a prediction block size type of 2N × 2N without depending on the prediction block size type.

図24は予測ブロックサイズタイプに依存せずに符号化ブロック内の予測ブロックの候
補ブロックを共通とする一例における予測ブロックサイズタイプが2N×2N以外の予測
ブロックと候補ブロック群の位置関係を説明する図である。図24では、時間候補ブロッ
クH及びIは、空間候補ブロックA〜Eが存在するピクチャとは別の復号済みのピクチャ
とは別のピクチャに存在するが、理解及び説明の容易のため、空間候補ブロックA〜Eと
あわせて図示されている。図24(a)から(h)はそれぞれ予測ブロックサイズタイプ
がN×2Nの予測ブロック0、予測ブロックサイズタイプがN×2Nの予測ブロック1、
予測ブロックサイズタイプが2N×Nの予測ブロック0、予測ブロックサイズタイプが2
N×Nの予測ブロック1、予測ブロックサイズタイプがN×Nの予測ブロック0、予測ブ
ロックサイズタイプがN×Nの予測ブロック1、予測ブロックサイズタイプがN×Nの予
測ブロック2、予測ブロックサイズタイプがN×Nの予測ブロック3の場合の空間候補ブ
ロック群を示す。図24では予測ブロックサイズが16画素×16画素である例を示す。
予測ブロックサイズタイプが2N×2N以外の予測ブロックの時間候補ブロック群として
、図24に示すように予測ブロックサイズタイプが2N×2Nの予測ブロックとして導出
した時間候補ブロック群を利用する。
FIG. 24 illustrates the positional relationship between a prediction block and a candidate block group whose prediction block size type is other than 2N × 2N in an example in which the prediction block size type in the coding block is common without depending on the prediction block size type. FIG. In FIG. 24, the temporal candidate blocks H and I exist in a picture different from the decoded picture different from the picture in which the spatial candidate blocks A to E exist, but for the sake of easy understanding and explanation, the spatial candidate blocks H and I exist. It is shown together with blocks A to E. 24 (a) to 24 (h) respectively show a prediction block 0 having a prediction block size type of N × 2N, a prediction block 1 having a prediction block size type of N × 2N,
Prediction block size type is 2N × N prediction block 0, prediction block size type is 2
N × N prediction block 1, prediction block size type N × N prediction block 0, prediction block size type N × N prediction block 1, prediction block size type N × N prediction block 2, prediction block size A spatial candidate block group in the case of a prediction block 3 of type N × N is shown. FIG. 24 shows an example in which the predicted block size is 16 pixels × 16 pixels.
As the time candidate block group of the prediction block other than the prediction block size type of 2N × 2N, the time candidate block group derived as the prediction block of the prediction block size type of 2N × 2N as shown in FIG. 24 is used.

以上のように、予測ブロックサイズタイプに依存せず、候補ブロックが予測サイズタイ
プが2N×2Nである予測ブロックの候補ブロックとなる。換言すると、予測ブロックサ
イズタイプに依存せず、予測ブロックサイズタイプが2N×2Nである場合の候補ブロッ
クが、符号化ブロックの全ての予測ブロックにおいて、共通に利用される。すなわち、結
合動き情報候補リスト生成部140及び230によれば、候補ブロックが同一であれば同
一の結合動き情報候補リストが生成されるため、予測ブロックサイズタイプに依存せず、
予測ブロックサイズタイプが2N×2Nである場合に導出される結合動き情報候補リスト
を、符号化ブロックの全ての予測ブロックにおいて、共通に利用することができる。これ
により、予測ブロックタイプサイズが確定する前に候補ブロックを確定し、結合動き情報
候補リストを確定することができる。また、符号化ブロックが複数の予測ブロックに分割
される場合、予測ブロック毎に候補ブロックを導出する必要がなくなるため、図11に示
した結合動き情報候補リストを生成する回数を1/2(2分割の場合)または1/4(4
分割の場合)に削減することができる。また、符号化ブロックの予測ブロックを並列に処
理することができる。
As described above, regardless of the prediction block size type, the candidate block is a prediction block candidate block having a prediction size type of 2N × 2N. In other words, the candidate block when the prediction block size type is 2N × 2N does not depend on the prediction block size type, and is commonly used in all prediction blocks of the encoded block. That is, according to the combined motion information candidate list generation units 140 and 230, if the candidate blocks are the same, the same combined motion information candidate list is generated, so it does not depend on the predicted block size type,
The combined motion information candidate list derived when the prediction block size type is 2N × 2N can be commonly used in all prediction blocks of the encoded block. Thereby, a candidate block can be decided before a prediction block type size is decided, and a combined motion information candidate list can be decided. Further, when the encoded block is divided into a plurality of prediction blocks, it is not necessary to derive a candidate block for each prediction block. Therefore, the number of times of generating the combined motion information candidate list shown in FIG. Split) or 1/4 (4
Can be reduced). Moreover, the prediction block of an encoding block can be processed in parallel.

以下、実施の形態3の別の一例について説明する。実施の形態1とは予測ブロックサイ
ズタイプが2N×2N以外の予測ブロックについて空間結合動き情報候補生成部160に
おいて利用する空間候補ブロック群と時間候補ブロック群と結合動き情報候補リスト生成
部140の動作が異なる。以下、実施の形態3の予測ブロックサイズタイプが2N×2N
以外の予測ブロックの空間候補ブロック群と時間候補ブロック群について説明する。
Hereinafter, another example of the third embodiment will be described. The operation of the spatial candidate block group, the temporal candidate block group, and the combined motion information candidate list generation unit 140 used in the spatial combination motion information candidate generation unit 160 for prediction blocks other than the prediction block size type of 2N × 2N in the first embodiment Is different. Hereinafter, the prediction block size type of Embodiment 3 is 2N × 2N
A spatial candidate block group and a temporal candidate block group of prediction blocks other than will be described.

ここでは、予測ブロックが複数に分割される場合は、符号化ブロック内の全ての予測ブ
ロックの候補ブロックとして予測ブロック0の候補ブロックを利用する。
Here, when the prediction block is divided into a plurality of blocks, the candidate block of the prediction block 0 is used as a candidate block of all the prediction blocks in the encoded block.

図25は実施の形態3における予測ブロックサイズタイプが2N×2N以外の予測ブロ
ックと候補ブロック群の位置関係を説明する図である。図25では、時間候補ブロックH
及びIは、空間候補ブロックA〜Eが存在するピクチャとは別の復号済みのピクチャとは
別のピクチャに存在するが、理解及び説明の容易のため、空間候補ブロックA〜Eとあわ
せて図示されている。図25(a)から(h)はそれぞれ予測ブロックサイズタイプがN
×2Nの予測ブロック0、予測ブロックサイズタイプがN×2Nの予測ブロック1、予測
ブロックサイズタイプが2N×Nの予測ブロック0、予測ブロックサイズタイプが2N×
Nの予測ブロック1、予測ブロックサイズタイプがN×Nの予測ブロック0、予測ブロッ
クサイズタイプがN×Nの予測ブロック1、予測ブロックサイズタイプがN×Nの予測ブ
ロック2、予測ブロックサイズタイプがN×Nの予測ブロック3の場合の空間候補ブロッ
ク群と時間候補ブロック群を示す。図25では予測ブロックサイズが16画素×16画素
である例を示す。予測ブロックサイズタイプが2N×2N以外の予測ブロックの時間候補
ブロック群として、図25に示すように予測ブロック0として導出した時間候補ブロック
群を利用する。
FIG. 25 is a diagram for explaining the positional relationship between a prediction block and a candidate block group whose prediction block size type is other than 2N × 2N in the third embodiment. In FIG. 25, time candidate block H
And I exist in a picture different from the decoded picture different from the picture in which the spatial candidate blocks A to E exist, but are illustrated together with the spatial candidate blocks A to E for easy understanding and explanation. Has been. In FIGS. 25A to 25H, the predicted block size type is N.
* 2N prediction block 0, prediction block size type N * 2N prediction block 1, prediction block size type 2N * N prediction block 0, prediction block size type 2N *
N prediction blocks 1, prediction block size type N × N prediction block 0, prediction block size type N × N prediction block 1, prediction block size type N × N prediction block 2, prediction block size type A spatial candidate block group and a temporal candidate block group in the case of an N × N prediction block 3 are shown. FIG. 25 shows an example in which the prediction block size is 16 pixels × 16 pixels. As the time candidate block group of the prediction block whose prediction block size type is other than 2N × 2N, the time candidate block group derived as the prediction block 0 as shown in FIG. 25 is used.

次に、結合動き情報候補リスト生成部140の動作について説明する。図26は実施の
形態3の結合動き情報候補リスト生成部140の動作を説明するフローチャートである。
実施の形態1の結合動き情報候補リスト生成部140の動作である図11とは、ステップ
S106及びステップS107が追加されていることが異なる。実施の形態1とは異なる
ステップS106とステップS107について説明する。予測ブロック0であるか検査す
る(S106)。予測ブロック0であれば(S106のY)、ステップS100からS1
05の処理を行って処理を終了する。予測ブロック0でなければ(S106のN)、処理
対象の予測ブロックの結合動き情報候補リストとして予測ブロック0の結合動き情報候補
リストを利用し(S107)、処理を終了する。
Next, the operation of the combined motion information candidate list generation unit 140 will be described. FIG. 26 is a flowchart for explaining the operation of the combined motion information candidate list generation unit 140 according to the third embodiment.
It differs from FIG. 11 which is operation | movement of the joint motion information candidate list production | generation part 140 of Embodiment 1 in that step S106 and step S107 are added. Steps S106 and S107 different from the first embodiment will be described. Whether the prediction block is 0 is checked (S106). If it is the prediction block 0 (Y of S106), steps S100 to S1
The process of 05 is performed and a process is complete | finished. If the prediction block is not 0 (N in S106), the combined motion information candidate list of the prediction block 0 is used as the combined motion information candidate list of the prediction block to be processed (S107), and the process is terminated.

以上のように、符号化ブロックが複数に分割される場合は、符号化ブロック内の全ての
予測ブロックの候補ブロックとして予測ブロック0の候補ブロックを利用することで、符
号化ブロックが複数の予測ブロックに分割される場合、予測ブロック0以外の予測ブロッ
クの結合動き情報候補リストを生成する必要がなくなるため、図11に示した結合動き情
報候補リストを生成する回数を1/2(2分割の場合)または1/4(4分割の場合)に
削減することができる。すなわち、予測ブロック0で導出される結合動き情報候補リスト
を、符号化ブロックのいずれの予測ブロックにおいても、共通に利用することができる。
また、結合動き情報候補リストを予測ブロックサイズタイプが確定すれば、予測ブロック
の位置が確定する前に生成することができるため、回路設計やソフトウェア設計を柔軟に
し、回路規模やソフトウェア規模を削減することが可能となる。また、符号化ブロックの
予測ブロックを並列に処理することができる。
As described above, when the coding block is divided into a plurality of blocks, the prediction block 0 candidate block is used as a candidate block for all prediction blocks in the coding block, so that the coding block has a plurality of prediction blocks. 11, since it is not necessary to generate a combined motion information candidate list for a prediction block other than the prediction block 0, the number of times of generating the combined motion information candidate list shown in FIG. ) Or 1/4 (in the case of 4 divisions). That is, the combined motion information candidate list derived in the prediction block 0 can be commonly used in any prediction block of the encoded block.
In addition, if the prediction block size type is determined for the combined motion information candidate list, it can be generated before the position of the predicted block is determined, so the circuit design and software design are flexible, and the circuit scale and software scale are reduced. It becomes possible. Moreover, the prediction block of an encoding block can be processed in parallel.

さらに、予測ブロックサイズタイプが2N×2N以外の予測ブロックの候補ブロックの
位置を、予測ブロックサイズタイプが2N×2Nの予測ブロックとは異なる候補ブロック
の位置とすることで、予測ブロックサイズタイプが2N×2N以外の予測ブロックとなる
選択確率を高めることができ、上記の予測ブロックサイズタイプに依存せずに符号化ブロ
ック内の予測ブロックの候補ブロックを共通とする一例よりも符号化効率を向上させるこ
とができる。さらに、予測ブロック0は同一の符号化ブロックの他の予測ブロックに含ま
れる候補ブロック及び必ず未処理となる候補ブロックが含まれないため、結合動き情報候
補が有効となる確率を上げて予測効率を向上させることができる。なお、最も符号化効率
の高いスキップモードは予測ブロックサイズタイプが2N×2Nと同等であるため、本実
施の形態による影響を受けない。
Furthermore, the prediction block size type is set to 2N by setting the position of the prediction block candidate block other than the prediction block size type of 2N × 2N to a position of a candidate block different from the prediction block having the prediction block size type of 2N × 2N. The selection probability to be a prediction block other than × 2N can be increased, and the coding efficiency is improved compared to the example in which the prediction block candidate block in the coding block is shared without depending on the prediction block size type. be able to. Furthermore, since the prediction block 0 does not include candidate blocks included in other prediction blocks of the same encoded block and candidate blocks that are necessarily unprocessed, the prediction efficiency is improved by increasing the probability that the combined motion information candidate is valid. Can be improved. Note that the skip mode with the highest coding efficiency is not affected by the present embodiment because the prediction block size type is equivalent to 2N × 2N.

実施の形態3では符号化ブロックの代表ブロックとして符号化ブロック内の最初の予測
ブロックである予測ブロック0を利用したが、それに限定されない。例えば、符号化ブロ
ック内で最初にマージモードを利用する予測ブロックとすることもできる。この場合、S
106とS107は以下のようになる。符号化ブロック内で結合動き情報候補リストが既
に生成されていないか検査する(S106)。符号化ブロック内で結合動き情報候補リス
トが既に生成されていなければ(S106のY)、ステップS100からS105の処理
を行って処理を終了する。符号化ブロック内で結合動き情報候補リストが既に生成されて
いれば(S106のN)、符号化ブロック内で結合動き情報候補リストが既に生成された
結合動き情報候補リストを利用し(S107)、処理を終了する。
In Embodiment 3, the prediction block 0 which is the first prediction block in the coding block is used as the representative block of the coding block, but the present invention is not limited to this. For example, a prediction block that uses a merge mode first in an encoded block may be used. In this case, S
106 and S107 are as follows. It is checked whether a combined motion information candidate list has already been generated in the encoded block (S106). If the combined motion information candidate list has not already been generated in the encoded block (Y in S106), the process from step S100 to S105 is performed and the process is terminated. If the combined motion information candidate list has already been generated in the encoded block (N in S106), the combined motion information candidate list in which the combined motion information candidate list has already been generated in the encoded block is used (S107), The process ends.

以上のように、符号化ブロック内で最初にマージモードを利用する予測ブロックの結合
動き情報候補リストを符号化ブロック内の他の予測ブロックでも利用することで、少なく
とも最初にマージモードを利用する予測ブロックの予測効率を向上させることができる。
また、符号化ブロックの代表ブロックとして符号化ブロック内の最後の予測ブロック(2
分割の場合は予測ブロック1、4分割の場合は予測ブロック3)を利用することもできる
。この場合、時間候補ブロック群の位置を、予測ブロックサイズタイプが2N×2Nの予
測ブロックとは異なる候補ブロックの位置とすることで、予測ブロックサイズタイプが2
N×2N以外の予測ブロックとなる選択確率を高めることができ、予測効率を向上させる
ことができる。
As described above, by using the combined motion information candidate list of the prediction block that first uses the merge mode in the coding block also in other prediction blocks in the coding block, at least the prediction using the merge mode first. The prediction efficiency of blocks can be improved.
Further, the last prediction block (2 in the coding block) is used as a representative block of the coding block.
The prediction block 1 can be used in the case of division, and the prediction block 3) can be used in the case of four division. In this case, the prediction block size type is set to 2 by setting the position of the temporal candidate block group to a position of a candidate block different from the prediction block having the prediction block size type of 2N × 2N.
The selection probability of becoming a prediction block other than N × 2N can be increased, and the prediction efficiency can be improved.

また、実施の形態2のように、結合動き情報候補リストへの追加順を処理対象の予測ブ
ロックに近い順とすることもできる。
Further, as in the second embodiment, the order of addition to the combined motion information candidate list may be the order close to the prediction block to be processed.

[実施の形態3の変形例1]
以下、実施の形態3の変形例1について説明する。実施の形態3とは最大符号化ブロッ
ク下限ラインで時間候補ブロック群が制限されることが異なる。最大符号化ブロック下限
ラインでの時間候補ブロック群の制限について説明する。図27は最大符号化ブロック下
限ラインと時間候補ブロック群を説明する図である。図27のように最大符号化ブロック
下限ラインは最大符号化ブロックの最下部の画素が含まれるラインである。最大符号化ブ
ロック下限ラインより下にあるブロックは利用しないように制限することで、動画像符号
化装置100及び動画像復号装置200において、時間候補ブロック群のための一時記憶
領域の容量を削減することができる。
[Modification 1 of Embodiment 3]
Hereinafter, Modification 1 of Embodiment 3 will be described. The difference from Embodiment 3 is that the time candidate block group is limited by the maximum coding block lower limit line. The limitation of the time candidate block group in the maximum encoding block lower limit line will be described. FIG. 27 is a diagram for explaining the maximum encoding block lower limit line and the time candidate block group. As shown in FIG. 27, the maximum encoding block lower limit line is a line including the lowermost pixel of the maximum encoding block. By restricting the blocks below the maximum encoding block lower limit line from being used, the moving image encoding device 100 and the moving image decoding device 200 reduce the capacity of the temporary storage area for the time candidate block group. be able to.

予測ブロックサイズタイプが2N×2Nではない符号化ブロックにおける予測ブロック
について予測ブロックサイズタイプが2N×2Nである符号化ブロックの予測ブロックと
同じ位置関係を適用した場合、最大符号化ブロック下限ラインが設置されている場合、図
27の最大符号化ブロック下限ラインに接する予測ブロックサイズタイプが2N×Nの予
測ブロック1の時間候補ブロック(H1)の位置は利用できなくなる。
When the same positional relationship as that of a prediction block of a coding block having a prediction block size type of 2N × 2N is applied to a prediction block in a coding block whose prediction block size type is not 2N × 2N, a maximum coding block lower limit line is provided. In this case, the position of the temporal candidate block (H1) of the prediction block 1 whose prediction block size type is 2N × N that touches the maximum coding block lower limit line in FIG. 27 cannot be used.

ところが、実施の形態3のように、予測ブロックが複数に分割される場合は符号化ブロ
ック内の全ての予測ブロックの候補ブロックとして予測ブロック0の候補ブロックを利用
することで、時間候補ブロック群として時間候補ブロック(H0)を利用することになる
ため、時間候補ブロックを有効とすることができ、予測効率を向上させることができる。
これは、予測ブロックサイズタイプがN×Nの予測ブロック2と予測ブロック3について
も同様である。
However, when the prediction block is divided into a plurality of blocks as in the third embodiment, the candidate block of the prediction block 0 is used as the candidate block of all the prediction blocks in the encoded block, and as a temporal candidate block group. Since the time candidate block (H0) is used, the time candidate block can be validated and the prediction efficiency can be improved.
The same applies to the prediction block 2 and the prediction block 3 whose prediction block size type is N × N.

[実施の形態4]
以下、実施の形態4について説明する。実施の形態1とは予測ブロックサイズタイプが
2N×2N以外の予測ブロックの空間候補ブロック群と時間候補ブロック群と結合動き情
報候補リスト生成部140の構成と動作が異なる。以下、実施の形態4の予測ブロックサ
イズタイプが2N×2N以外の予測ブロックと空間候補ブロック群と時間候補ブロック群
について説明する。
[Embodiment 4]
Hereinafter, the fourth embodiment will be described. The configuration and operation of the spatial candidate block group, the temporal candidate block group, and the combined motion information candidate list generation unit 140 of the prediction block whose prediction block size type is other than 2N × 2N are different from those of the first embodiment. Hereinafter, a prediction block, a spatial candidate block group, and a temporal candidate block group whose prediction block size type is other than 2N × 2N according to Embodiment 4 will be described.

ここでは、空間候補ブロック群を予測ブロックサイズタイプが2N×2Nである符号化
ブロックの予測ブロックと同じ位置関係を適用したものとする。時間候補ブロック群とし
て、予測ブロック0として導出した時間候補ブロック群を利用する。
Here, it is assumed that the same positional relationship is applied to the spatial candidate block group as the prediction block of the encoded block whose prediction block size type is 2N × 2N. The time candidate block group derived as the prediction block 0 is used as the time candidate block group.

図28は実施の形態4における予測ブロックサイズタイプが2N×2N以外の予測ブロ
ックと候補ブロック群の位置関係を説明する図である。図28では、時間候補ブロックH
及びIは、空間候補ブロックA〜Eが存在するピクチャとは別の復号済みのピクチャとは
別のピクチャに存在するが、理解及び説明の容易のため、空間候補ブロックA〜Eとあわ
せて図示されている。図28(a)から(h)はそれぞれ予測ブロックサイズタイプがN
×2Nの予測ブロック0、予測ブロックサイズタイプがN×2Nの予測ブロック1、予測
ブロックサイズタイプが2N×Nの予測ブロック0、予測ブロックサイズタイプが2N×
Nの予測ブロック1、予測ブロックサイズタイプがN×Nの予測ブロック0、予測ブロッ
クサイズタイプがN×Nの予測ブロック1、予測ブロックサイズタイプがN×Nの予測ブ
ロック2、予測ブロックサイズタイプがN×Nの予測ブロック3の場合の空間候補ブロッ
ク群を示す。図28では予測ブロックサイズが16画素×16画素である例を示す。予測
ブロックサイズタイプが2N×2N以外の予測ブロックの時間候補ブロック群として、図
28に示すように予測ブロック0として導出した時間候補ブロック群を利用する。勿論、
予測ブロックサイズタイプが2N×2N以外の予測ブロックの時間候補ブロック群として
、予測ブロックサイズタイプが2N×2Nの予測ブロックとして導出した時間候補ブロッ
ク群を利用することもできる。
FIG. 28 is a diagram for explaining the positional relationship between a prediction block and a candidate block group whose prediction block size type is other than 2N × 2N in the fourth embodiment. In FIG. 28, time candidate block H
And I exist in a picture different from the decoded picture different from the picture in which the spatial candidate blocks A to E exist, but are illustrated together with the spatial candidate blocks A to E for easy understanding and explanation. Has been. In FIGS. 28A to 28H, the predicted block size type is N, respectively.
* 2N prediction block 0, prediction block size type N * 2N prediction block 1, prediction block size type 2N * N prediction block 0, prediction block size type 2N *
N prediction blocks 1, prediction block size type N × N prediction block 0, prediction block size type N × N prediction block 1, prediction block size type N × N prediction block 2, prediction block size type A spatial candidate block group in the case of an N × N prediction block 3 is shown. FIG. 28 shows an example in which the prediction block size is 16 pixels × 16 pixels. As the time candidate block group of the prediction block whose prediction block size type is other than 2N × 2N, the time candidate block group derived as the prediction block 0 as shown in FIG. 28 is used. Of course,
A time candidate block group derived as a prediction block having a prediction block size type of 2N × 2N may be used as a time candidate block group of a prediction block having a prediction block size type other than 2N × 2N.

次に、結合動き情報候補リスト生成部140の構成と動作について説明する。図29は
実施の形態4の結合動き情報候補リスト生成部140の構成を説明する図である。実施の
形態1とは時間結合動き情報候補生成部161の位置が第1結合動き情報候補補充部16
3の後段に設置されていることが異なる。図30は実施の形態4の結合動き情報候補リス
ト生成部140の動作を説明するフローチャートである。実施の形態1の結合動き情報候
補リスト生成部140の動作である図11とは、ステップS106及びステップS108
が追加されていること、ステップS102の位置が異なる。実施の形態1とは異なる点に
ついて説明する。
Next, the configuration and operation of the combined motion information candidate list generation unit 140 will be described. FIG. 29 is a diagram illustrating the configuration of the combined motion information candidate list generation unit 140 according to the fourth embodiment. In the first embodiment, the position of the temporally combined motion information candidate generating unit 161 is the first combined motion information candidate supplementing unit 16.
It is different that it is installed in the latter part of 3. FIG. 30 is a flowchart for explaining the operation of the combined motion information candidate list generation unit 140 according to the fourth embodiment. FIG. 11 showing the operation of the combined motion information candidate list generation unit 140 according to the first embodiment is the same as that in steps S106 and S108.
Is added, and the position of step S102 is different. Differences from the first embodiment will be described.

空間結合動き情報候補生成部160は、端子12より供給される候補ブロック群から0
個から空間結合動き情報候補最大数の空間結合動き情報候補を生成して結合動き情報候補
リストに追加し(S101)、当該結合動き情報候補リストと候補ブロック群を冗長結合
動き情報候補削除部162に供給する。
The spatially coupled motion information candidate generation unit 160 generates 0 from the candidate block group supplied from the terminal 12.
The spatially coupled motion information candidate maximum number of spatially coupled motion information candidates are generated and added to the combined motion information candidate list (S101), and the combined motion information candidate list and the candidate block group are redundantly coupled motion information candidate deletion unit 162. To supply.

次に、冗長結合動き情報候補削除部162は、空間結合動き情報候補生成部160より
供給される結合動き情報候補リストに登録されている結合動き情報候補を検査し、同一の
動き情報を有する結合動き情報候補が複数存在する場合には1つの結合動き情報候補を残
してその他の結合動き情報候補を削除し(S103)、当該結合動き情報候補リストを第
1結合動き情報候補補充部163に供給する。
Next, the redundant combined motion information candidate deletion unit 162 examines the combined motion information candidates registered in the combined motion information candidate list supplied from the spatially combined motion information candidate generation unit 160, and combines the same motion information. When there are a plurality of motion information candidates, one combined motion information candidate is left and other combined motion information candidates are deleted (S103), and the combined motion information candidate list is supplied to the first combined motion information candidate supplementing unit 163. To do.

次に、第1結合動き情報候補補充部163は、冗長結合動き情報候補削除部162より
供給される結合動き情報候補リストに登録された結合動き情報候補から0個から2個の第
1補充結合動き情報候補を生成して結合動き情報候補リストに追加し(S104)、当該
結合動き情報候補リストと候補ブロック群を時間結合動き情報候補生成部161に供給す
る。
Next, the first combined motion information candidate supplementing unit 163 includes 0 to 2 first supplemental combining from the combined motion information candidates registered in the combined motion information candidate list supplied from the redundant combined motion information candidate deleting unit 162. A motion information candidate is generated and added to the combined motion information candidate list (S104), and the combined motion information candidate list and the candidate block group are supplied to the time combined motion information candidate generating unit 161.

次に、時間結合動き情報候補生成部161は、処理対象の予測ブロックが予測ブロック
0であるか検査する(S106)。処理対象の予測ブロックが予測ブロック0であれば(
S106のY)、冗長結合動き情報候補削除部162より供給される候補ブロック群から
0個から時間結合動き情報候補最大数の時間結合動き情報候補を生成して冗長結合動き情
報候補削除部162より供給される結合動き情報候補リストに追加し(S102)、当該
結合動き情報候補リストを第2結合動き情報候補補充部164に供給する。処理対象の予
測ブロックが予測ブロック0でなければ(S106のN)、候補ブロック0の時間結合動
き情報候補を結合動き情報候補リストに追加し(S108)、当該結合動き情報候補リス
トを第2結合動き情報候補補充部164に供給する。
Next, the time combination motion information candidate generation unit 161 checks whether the prediction block to be processed is the prediction block 0 (S106). If the prediction block to be processed is the prediction block 0 (
Y of S106), from the candidate block group supplied from the redundant combined motion information candidate deletion unit 162, the maximum number of temporally combined motion information candidates is generated from 0 and the redundant combined motion information candidate deletion unit 162 generates The combined motion information candidate list to be supplied is added (S102), and the combined motion information candidate list is supplied to the second combined motion information candidate supplementing unit 164. If the prediction block to be processed is not the prediction block 0 (N in S106), the temporally combined motion information candidate of candidate block 0 is added to the combined motion information candidate list (S108), and the combined motion information candidate list is second combined. The motion information candidate supplement unit 164 is supplied.

次に、第2結合動き情報候補補充部164は、時間結合動き情報候補生成部161より
供給される結合動き情報候補リストに登録された結合動き情報候補の数がマージ候補最大
数に達するまで第2補充結合動き情報候補を生成して当該結合動き情報候補リストに追加
し(S105)、当該結合動き情報候補リストを端子19に供給する。
Next, the second combined motion information candidate supplementing unit 164 increases the number of combined motion information candidates registered in the combined motion information candidate list supplied from the temporal combined motion information candidate generating unit 161 until the maximum number of merge candidates is reached. Two supplementary combined motion information candidates are generated and added to the combined motion information candidate list (S105), and the combined motion information candidate list is supplied to the terminal 19.

以上のように、予測ブロックサイズタイプが2N×2N以外の予測ブロックの空間候補
ブロック群を予測ブロックサイズタイプが2N×2Nである符号化ブロックの予測ブロッ
クと同じ位置関係を適用したものとし、時間候補ブロック群を予測ブロック0の時間候補
ブロック群とすることで、予測ブロックサイズタイプが確定すれば、時間候補ブロック群
を確定することができる。すなわち、予測ブロック0で導出される時間結合動き情報候補
を、符号化ブロックのいずれの予測ブロックにおいても、共通に利用するこができる。一
方、空間候補ブロック群は、予測ブロックごとに予測ブロックの位置と大きさに基づいて
決定される。空間結合動き情報候補の導出には候補ブロックの動き情報がそのまま利用さ
れるため演算は不要であって処理時間は短いが、時間結合動き情報候補の導出には式1ま
たは式2から式4のようなベクトルを演算する処理が必要となること、インター予測タイ
プを決定する処理があることから処理時間が長くなる。
As described above, it is assumed that the same positional relationship as that of the prediction block of the encoded block having the prediction block size type of 2N × 2N is applied to the spatial candidate block group of the prediction block other than the prediction block size type of 2N × 2N, By setting the candidate block group as the time candidate block group of the prediction block 0, if the prediction block size type is determined, the time candidate block group can be determined. That is, the temporally combined motion information candidate derived from the prediction block 0 can be used in common in any prediction block of the encoded block. On the other hand, the space candidate block group is determined for each prediction block based on the position and size of the prediction block. Since the motion information of the candidate block is used as it is for the derivation of the spatially coupled motion information candidate, the calculation is unnecessary and the processing time is short. However, for the derivation of the temporally coupled motion information candidate, Formula 1 or Formula 2 to Formula 4 are used. Since processing for calculating such a vector is required and there is processing for determining the inter prediction type, the processing time becomes long.

そこで、結合動き情報候補リストを生成するための処理において最も処理時間を要する
時間結合動き情報候補の導出を符号化ブロックで1回とすることで、予測ブロックが複数
に分割される場合の処理時間を短縮することができる。
Therefore, the processing time when the prediction block is divided into a plurality of times by deriving the time combination motion information candidate that requires the most processing time in the process for generating the combined motion information candidate list once in the coding block. Can be shortened.

さらに、空間結合動き情報候補として処理対象の予測ブロックに隣接したブロックを利
用することで、予測ブロックサイズタイプが2N×2N以外の予測ブロックとなる選択確
率を高めることができ、上記の予測ブロックサイズタイプに依存せずに符号化ブロック内
の予測ブロックの候補ブロックを共通とする一例よりも符号化効率を向上させることがで
きる。また、時間候補ブロック群としてColPicの所定領域の代表ブロックを利用し
ていることから、空間候補ブロック群と比較して時間候補ブロック群の精度は相対的に低
くなるため、時間候補ブロック群の精度を落としても予測効率の低下を抑制できる。
Furthermore, by using a block adjacent to the prediction block to be processed as a spatially coupled motion information candidate, the selection probability that the prediction block size type becomes a prediction block other than 2N × 2N can be increased. Coding efficiency can be improved compared to an example in which the prediction block candidate blocks in the coding block are shared without depending on the type. Moreover, since the representative block of the predetermined area of ColPic is used as the time candidate block group, the accuracy of the time candidate block group is relatively lower than that of the space candidate block group. Decrease in prediction efficiency can be suppressed even if the value is dropped.

ここでは、時間結合動き情報候補を導出する時間が空間結合動き情報候補の導出、冗長
結合動き情報候補削除部162の動作、第1結合動き情報候補補充部163の動作よりも
十分に長いとして、結合動き情報候補リスト生成部140の動作を図30としたが、例え
ば、予測効率を優先してS106、S102、及びS108をS101やS103の後段
に移動させてもよく、処理効率を優先してS106、S102、及びS108をS105
の後段に設置することもできる。S106、S102、及びS108をS105の後段に
設置する場合には、第2結合動き情報候補補充部164から出力される結合動き情報候補
リストに登録された結合動き情報候補の数がマージ候補最大数より1小さい数とする。
Here, it is assumed that the time for deriving the temporally combined motion information candidate is sufficiently longer than the derivation of the spatially combined motion information candidate, the operation of the redundant combined motion information candidate deleting unit 162, and the operation of the first combined motion information candidate supplementing unit 163, The operation of the combined motion information candidate list generation unit 140 is shown in FIG. 30. For example, S106, S102, and S108 may be moved to the subsequent stage of S101 or S103 with priority on the prediction efficiency, and the processing efficiency is prioritized. S106, S102, and S108 are changed to S105.
It can also be installed in the latter stage. When S106, S102, and S108 are installed at the subsequent stage of S105, the number of merged motion information candidates registered in the combined motion information candidate list output from the second combined motion information candidate supplementing unit 164 is the maximum number of merge candidates. The number is smaller by one.

ここでは、予測効率を重視して空間候補ブロック群を予測ブロックサイズタイプが2N
×2Nである符号化ブロックの予測ブロックと同じ位置関係を適用したものとしたが、符
号化ブロック内の予測ブロックの並列処理を実現するために同一の符号化ブロックの他の
予測ブロックに含まれる候補ブロックは候補ブロックとして利用しないとしたり、空間候
補ブロック群を他の実施の形態と組み合わせたりして、時間候補ブロック群として予測ブ
ロック0として導出した時間候補ブロック群を利用してもよい。
Here, the space candidate block group is predicted to have a prediction block size type of 2N with emphasis on prediction efficiency.
Although the same positional relationship as that of the prediction block of the encoded block of × 2N is applied, it is included in other prediction blocks of the same encoded block in order to realize parallel processing of the predicted blocks in the encoded block A candidate block may not be used as a candidate block, or a temporal candidate block group derived as a prediction block 0 may be used as a temporal candidate block group by combining a spatial candidate block group with another embodiment.

また、ここでは、予測ブロックサイズタイプが2N×2N以外の予測ブロックの時間候
補ブロック群を、符号化ブロック内の最初の予測ブロックである予測ブロック0で導出し
た時間候補ブロック群であるとしたが、これに限定されない。例えば、予測ブロックサイ
ズタイプが2N×2Nである場合の予測ブロックの時間候補ブロック群としてもよく、符
号化ブロック内の最後の予測ブロック(2分割の場合は予測ブロック1、4分割の場合は
予測ブロック3)の時間候補ブロック群としてもよい。予測ブロックサイズタイプが2N
×2Nである場合の予測ブロックの時間候補ブロック群とした場合には、時間候補ブロッ
ク群を予測ブロックサイズタイプや予測ブロックの位置が確定する前に生成することがで
きるため、回路設計やソフトウェア設計を柔軟にし、回路規模やソフトウェア規模を削減
することが可能となる。
In addition, here, it is assumed that the time candidate block group of the prediction block whose prediction block size type is other than 2N × 2N is the time candidate block group derived from the prediction block 0 which is the first prediction block in the encoded block. However, the present invention is not limited to this. For example, it may be a temporal candidate block group of a prediction block when the prediction block size type is 2N × 2N, and is the last prediction block in the encoded block (prediction block 1 in the case of 2 divisions, prediction in the case of 4 divisions). The time candidate block group of block 3) may be used. Predicted block size type is 2N
In the case of the time candidate block group of the prediction block in the case of × 2N, since the time candidate block group can be generated before the prediction block size type and the position of the prediction block are determined, circuit design and software design The circuit scale and software scale can be reduced.

[実施の形態5]
以下、実施の形態5について説明する。実施の形態1とは結合動き情報候補リスト生成
部140の構成と動作が異なり、符号列生成部104と符号列解析部201の動作が異な
る。
[Embodiment 5]
The fifth embodiment will be described below. The configuration and operation of the combined motion information candidate list generation unit 140 are different from those of the first embodiment, and the operations of the code sequence generation unit 104 and the code sequence analysis unit 201 are different.

最初に、結合動き情報候補リスト生成部140の構成について説明する。図31は実施
の形態5の結合動き情報候補リスト生成部140の構成を説明する図である。図10の実
施の形態1の結合動き情報候補リスト生成部140とは、候補ブロック設定部165が空
間結合動き情報候補生成部160の前段に追加されていることが異なる。ここでは、予測
効率を優先した候補ブロック配置であるか並列処理や処理時間短縮などの処理効率を優先
した候補ブロック配置であるかをフラグなどで切り替える。
First, the configuration of the combined motion information candidate list generation unit 140 will be described. FIG. 31 is a diagram illustrating the configuration of the combined motion information candidate list generation unit 140 according to the fifth embodiment. 10 differs from the combined motion information candidate list generation unit 140 of Embodiment 1 in that a candidate block setting unit 165 is added in the previous stage of the spatial combination motion information candidate generation unit 160. Here, a flag or the like is used to switch whether the candidate block arrangement gives priority to the prediction efficiency or the candidate block arrangement gives priority to the processing efficiency such as parallel processing and processing time reduction.

次に、結合動き情報候補リスト生成部140の動作について説明する。図32は実施の
形態5の結合動き情報候補リスト生成部140の動作を説明するフローチャートである。
図11の実施の形態1の結合動き情報候補リスト生成部140の動作とは、ステップS1
00の前段に、ステップS106からS108が追加されていることが異なる。ステップ
S106からステップS108について説明する。最初に、cu_dependent_
flagが1であるか判定する(S106)。cu_dependent_flagが1
であれば(S106のY)、予測効率を優先するブロック配置とする(S107)。予測
効率を優先するブロック配置とは、例えば、予測ブロックサイズタイプが2N×2N以外
の予測ブロックの候補ブロック群を予測ブロックサイズタイプが2N×2Nの予測ブロッ
クと同じ位置関係を適用した図12のような処理対象の予測ブロックに隣接する候補ブロ
ックだけからなるブロック配置となる。cu_dependent_flagが0であれ
ば(S106のN)、処理効率を優先するブロック配置とする(S108)。処理効率を
優先するブロック配置とは、例えば、図14、図23、図24、図25、または図28の
ような処理対象の予測ブロックに隣接しない候補ブロックを含むブロック配置となる。ス
テップS107またはステップS108に引き続いて、ステップS100以降の処理が実
施される。ここで、本実施の形態では、例えば図12に示すような予測効率を優先するブ
ロック配置に基づき、符号化ブロックの予測ブロックごとに、その位置と大きさに基づい
て候補ブロック群の決定および結合動き情報候補リストの生成を行う、又は例えば図24
若しくは図25に示すような処理効率を優先するブロック配置に基づき、符号化ブロック
の全ての予測ブロックにおいて共通に利用される候補ブロックから結合動き情報候補リス
トの生成を行うかが切り替えられる。
Next, the operation of the combined motion information candidate list generation unit 140 will be described. FIG. 32 is a flowchart for explaining the operation of the combined motion information candidate list generation unit 140 according to the fifth embodiment.
The operation of the combined motion information candidate list generation unit 140 of Embodiment 1 in FIG.
The difference is that steps S106 to S108 are added before 00. Steps S106 to S108 will be described. First, cu_dependent_
It is determined whether the flag is 1 (S106). cu_dependent_flag is 1
If this is the case (Y in S106), the block arrangement is given priority on the prediction efficiency (S107). The block arrangement giving priority to the prediction efficiency is, for example, a candidate block group of a prediction block having a prediction block size type other than 2N × 2N and the same positional relationship as that of a prediction block having a prediction block size type of 2N × 2N in FIG. Such a block arrangement includes only candidate blocks adjacent to the prediction block to be processed. If cu_dependent_flag is 0 (N in S106), the block arrangement is given priority to the processing efficiency (S108). The block arrangement giving priority to processing efficiency is, for example, a block arrangement including candidate blocks that are not adjacent to the prediction block to be processed as shown in FIG. 14, FIG. 23, FIG. 24, FIG. Subsequent to Step S107 or Step S108, the processes after Step S100 are performed. Here, in this embodiment, for example, based on the block arrangement giving priority to prediction efficiency as shown in FIG. 12, for each prediction block of the encoded block, determination and combination of candidate block groups based on their positions and sizes A motion information candidate list is generated or, for example, FIG.
Alternatively, based on the block arrangement giving priority to the processing efficiency as shown in FIG. 25, whether to generate a combined motion information candidate list from candidate blocks that are commonly used in all prediction blocks of the encoded block is switched.

動画像符号化装置100では、enable_cu_parallel_flagが0
であるか1であるかは動画像符号化装置100よりも上位で設定されているものとする。
ここでは、図32に示す動作を結合動き情報候補リスト生成部140で実施するとしたが
、動画像符号化装置100よりも上位で設定することもできる。
In the video encoding device 100, enable_cu_parallel_flag is 0.
Or 1 is set higher than the moving picture coding apparatus 100.
Here, although the operation illustrated in FIG. 32 is performed by the combined motion information candidate list generation unit 140, the operation can be set higher than the moving image encoding apparatus 100.

符号列生成部104は、cu_dependent_flagをSPS、PPS、スラ
イスヘッダなど符号化ブロック以外の位置に多重化する。符号列解析部201は、SPS
、PPS、スライスヘッダなど符号化ブロック以外の位置に多重化されたcu_depe
ndent_flagを復号して動き情報再生部204に供給する。
The code string generation unit 104 multiplexes cu_dependent_flag at a position other than the encoded block such as SPS, PPS, and slice header. The code string analysis unit 201 performs SPS
Cu_depe multiplexed at a position other than the encoded block such as PPS, slice header, etc.
The ndent_flag is decoded and supplied to the motion information reproducing unit 204.

cu_dependent_flagを符号化ストリーム中に多重化することで、予測
効率を優先した符号化ストリームであるかどうかを容易に判断できる。また、予測効率を
優先したブロック配置による符号化ストリームと処理効率を優先したブロック配置による
符号化ストリームを共通の復号装置で復号できる。cu_dependent_flag
が0または1のいずれかしか復号しない復号装置については、例えば、運用規定やMPE
G−4AVCのような符号化ツールを分類したプロファイルなどでcu_depende
nt_flagを0または1のいずれかに固定して符号化ストリームを生成し、cu_d
ependent_flagを無視または暗示的に設定することで符号化ストリームを正
しく復号することができる。また、cu_dependent_flagを符号化ブロッ
クのより上位のヘッダに多重化することで、図32に示す動作を削減することができる。
By multiplexing cu_dependent_flag in the encoded stream, it is possible to easily determine whether the encoded stream prioritizes prediction efficiency. Also, a common decoding apparatus can decode an encoded stream based on block arrangement giving priority to prediction efficiency and an encoded stream based on block arrangement giving priority to processing efficiency. cu_dependent_flag
For a decoding device that only decodes 0 or 1, for example, an operation rule or MPE
Cu_dependent with a profile that classifies encoding tools such as G-4AVC
The encoded stream is generated by fixing nt_flag to either 0 or 1, and cu_d
The encoded stream can be correctly decoded by ignoring or implicitly setting the dependent_flag. Also, the operation shown in FIG. 32 can be reduced by multiplexing the cu_dependent_flag into a higher-order header of the encoded block.

ここでは、cu_dependent_flagによって予測効率を優先したブロック
配置と処理効率を優先したブロック配置とを切り替えたが、例えば、符号化ブロックの分
割回数が所定回数以上の場合には処理効率を優先したブロック配置とし、符号化ブロック
が所定閾サイズ以上でない場合には予測効率を優先したブロック配置としたり、符号化ブ
ロックが所定閾サイズ以下の場合には処理効率を優先したブロック配置とし、符号化ブロ
ックが所定閾サイズ以下でない場合には予測効率を優先したブロック配置としたりするこ
ともできる。また、所定閾サイズを最小の符号化ブロックサイズである8×8とすること
で、最も処理量が増加する場合のみに適用することができ、処理量と予測効率を最適にバ
ランスさせることができる。この場合、ステップS108において、符号化ブロックが所
定閾サイズであるか判定することになる。符号化ブロックが符号化ブロックの分割回数が
所定回数以上(または所定閾サイズ以下)の場合には処理効率を優先したブロック配置と
し、符号化ブロックが符号化ブロックの分割回数が所定回数以上(または所定閾サイズ以
下)でない場合には予測効率を優先したブロック配置とすることで、予測効率と処理量を
容易に調節することが可能となる。なお、所定閾サイズまたは所定回数をSPS、PPS
、スライスヘッダなど符号化ブロック以外の位置に多重化するもできる。また、enab
le_cu_parallel_flagが1である場合には所定閾サイズまたは所定回
数を定義し、enable_cu_parallel_flagが0である場合には所定
閾サイズまたは所定回数を定義しないような意味としてenable_cu_paral
lel_flagを利用して符号化ストリーム中に多重化することで、より柔軟に処理量
と予測効率を調節することが可能となる。すなわち、enable_cu_parall
el_flagを0とすることで、所定閾サイズまたは所定回数によらず、常に予測効率
を優先したブロック配置とし、enable_cu_parallel_flagを1と
することで、所定閾サイズまたは所定回数によって、予測効率と処理効率を切り替えて、
処理量と予測効率を最適にバランスさせることを可能とする。
Here, the block arrangement giving priority to the prediction efficiency and the block arrangement giving priority to the processing efficiency are switched by the cu_dependent_flag. For example, when the number of divisions of the encoded block is a predetermined number or more, the block arrangement giving priority to the processing efficiency If the encoded block is not equal to or larger than the predetermined threshold size, the block arrangement is given priority to prediction efficiency. If the encoded block is smaller than the predetermined threshold size, the block arrangement is given priority to processing efficiency. If it is not smaller than the size, it is possible to make a block arrangement giving priority to prediction efficiency. In addition, by setting the predetermined threshold size to 8 × 8, which is the minimum coding block size, it can be applied only when the processing amount increases most, and the processing amount and the prediction efficiency can be optimally balanced. . In this case, in step S108, it is determined whether the encoded block has a predetermined threshold size. When the number of divisions of an encoded block is equal to or greater than a predetermined number (or less than a predetermined threshold size), the block arrangement is given priority to processing efficiency, and the number of divisions of the encoded block is equal to or greater than a predetermined number (or If it is not equal to or less than the predetermined threshold size, the prediction efficiency and the processing amount can be easily adjusted by setting the block arrangement with priority on the prediction efficiency. Note that the predetermined threshold size or the predetermined number of times is SPS, PPS.
It is also possible to multiplex at positions other than the coding block such as a slice header. Enab
When le_cu_parallel_flag is 1, a predetermined threshold size or a predetermined number of times is defined, and when enable_cu_parallel_flag is 0, a predetermined threshold size or a predetermined number of times is not defined as enable_cu_parallel.
By multiplexing in the encoded stream using rel_flag, the processing amount and the prediction efficiency can be adjusted more flexibly. That is, enable_cu_parallel
By setting el_flag to 0, regardless of the predetermined threshold size or the predetermined number of times, the block arrangement always prioritizes the prediction efficiency, and by setting enable_cu_parallel_flag to 1, the prediction efficiency and the processing efficiency can be increased depending on the predetermined threshold size or the predetermined number of times. Switch to
It is possible to optimally balance the processing amount and the prediction efficiency.

[実施の形態6]
以下、実施の形態6について説明する。実施の形態3の動画像符号化装置100の予測
ベクトルモード決定部120の構成と動きベクトル再生部211の動作について詳細に説
明する。以下、予測ベクトルモード決定部120の詳細な構成について説明する。
[Embodiment 6]
The sixth embodiment will be described below. The configuration of the prediction vector mode determination unit 120 and the operation of the motion vector reproduction unit 211 of the video encoding apparatus 100 according to Embodiment 3 will be described in detail. Hereinafter, a detailed configuration of the prediction vector mode determination unit 120 will be described.

(予測ベクトルモード決定部120の構成)
続いて、予測ベクトルモード決定部120の詳細な構成について説明する。図33は、
予測ベクトルモード決定部120の構成を示す。予測ベクトルモード決定部120は、予
測ベクトル候補リスト生成部130および予測ベクトル決定部131を含む。端子17は
予測符号化モード決定部122に接続されている。
(Configuration of Predictive Vector Mode Determination Unit 120)
Subsequently, a detailed configuration of the prediction vector mode determination unit 120 will be described. FIG.
The structure of the prediction vector mode determination part 120 is shown. The prediction vector mode determination unit 120 includes a prediction vector candidate list generation unit 130 and a prediction vector determination unit 131. The terminal 17 is connected to the predictive coding mode determination unit 122.

予測ベクトル候補リスト生成部130は、実施の形態6に係る動画像符号化装置100
により生成された符号列を復号する動画像復号装置200内の動きベクトル再生部211
の中にも同様に設置されて、動画像符号化装置100と動画像復号装置200にて同一の
予測ベクトル候補リストが生成される。
The prediction vector candidate list generation unit 130 is a video encoding device 100 according to Embodiment 6.
The motion vector reproduction unit 211 in the video decoding device 200 that decodes the code string generated by
The same prediction vector candidate list is generated by the video encoding device 100 and the video decoding device 200.

(予測ベクトルモード決定部120の動作)
以下、予測ベクトルモード決定部120の動作について説明する。
(Operation of prediction vector mode determination unit 120)
Hereinafter, the operation of the prediction vector mode determination unit 120 will be described.

最初に、L0予測について以下の処理を行う。以下、Xは0とする。予測ベクトル候補
リスト生成部130は、端子13より供給されるLX予測の参照インデックスを取得する
。端子12より供給される候補ブロック群とLX予測の参照インデックスから予測ベクト
ル候補最大数の予測ベクトル候補を含むLX予測の予測ベクトル候補リストを生成する。
予測ベクトル候補リスト生成部130は、当該LX予測の予測ベクトル候補リストを予測
ベクトル決定部131に供給する。
First, the following processing is performed for L0 prediction. Hereinafter, X is assumed to be 0. The prediction vector candidate list generation unit 130 acquires a reference index for LX prediction supplied from the terminal 13. A prediction vector candidate list for LX prediction including the maximum number of prediction vector candidates is generated from the candidate block group supplied from the terminal 12 and the reference index for LX prediction.
The prediction vector candidate list generation unit 130 supplies the prediction vector candidate list of the LX prediction to the prediction vector determination unit 131.

予測ベクトル決定部131は、予測ベクトル候補リスト生成部130より供給されるL
X予測の予測ベクトル候補リストから1つの予測ベクトル候補をLX予測の予測ベクトル
として選択して、当該LX予測の予測ベクトルインデックスを決定する。
The prediction vector determination unit 131 uses the L supplied from the prediction vector candidate list generation unit 130.
One prediction vector candidate is selected as a prediction vector for LX prediction from the prediction vector candidate list for X prediction, and a prediction vector index for the LX prediction is determined.

予測ベクトル決定部131は、端子13より供給されるLX予測の動きベクトルからL
X予測の予測ベクトルを減算してLX予測の差分ベクトルを算出し、当該LX予測の差分
ベクトルと当該LX予測の予測ベクトルインデックスを出力する。
The prediction vector determination unit 131 calculates the LX prediction motion vector supplied from the terminal 13 as L
A difference vector for LX prediction is calculated by subtracting a prediction vector for X prediction, and a difference vector for the LX prediction and a prediction vector index for the LX prediction are output.

予測ベクトル決定部131は、端子15より供給される画像信号と、端子14より供給
される参照画像を端子13より供給されるLX予測の動きベクトルおよびLX予測の参照
インデックスに基づいて動き補償予測したLX予測の予測信号とから予測誤差量を算出し
、当該予測誤差量と、LX予測の差分ベクトル、LX予測の参照インデックス、およびL
X予測の予測ベクトルインデックスの符号量とからPred_LXのレート歪評価値を算
出する。
The prediction vector determination unit 131 motion-predicted the image signal supplied from the terminal 15 and the reference image supplied from the terminal 14 based on the LX prediction motion vector and the LX prediction reference index supplied from the terminal 13. A prediction error amount is calculated from the prediction signal of LX prediction, the prediction error amount, a difference vector of LX prediction, a reference index of LX prediction, and L
A rate distortion evaluation value of Pred_LX is calculated from the code amount of the prediction vector index of X prediction.

次に、Xを1としてL1予測についてL0予測と同じ処理を行う。   Next, X is set to 1 and the same processing as L0 prediction is performed for L1 prediction.

続いて、予測ベクトル決定部131は、端子15より供給される画像信号と、L0予測
の予測信号およびL1予測の予測信号を平均したBI予測の予測信号とから予測誤差量を
算出し、当該予測誤差量と、L0予測とL1予測の差分ベクトル、L0予測とL1予測の
参照インデックス、およびL0予測とL1予測の予測ベクトルインデックスの符号量とか
らPred_BIのレート歪評価値を算出する。
Subsequently, the prediction vector determination unit 131 calculates a prediction error amount from the image signal supplied from the terminal 15 and the prediction signal of BI prediction obtained by averaging the prediction signal of L0 prediction and the prediction signal of L1 prediction, and the prediction The rate distortion evaluation value of Pred_BI is calculated from the error amount, the difference vector between the L0 prediction and the L1 prediction, the reference index of the L0 prediction and the L1 prediction, and the code amount of the prediction vector index of the L0 prediction and the L1 prediction.

予測ベクトル決定部131は、Pred_L0のレート歪評価値、Pred_L1のレ
ート歪評価値、およびPred_BIのレート歪評価値を比較して、最小のレート歪評価
値である予測符号化モードを1つ選択する。そして、予測符号化モードに基づいた動き情
報、差分ベクトル、予測ベクトルインデックス、およびレート歪み評価値を予測符号化モ
ード決定部122に供給する。なお、予測符号化モードがPred_L0であれば、L1
予測の動きベクトルは(0,0)、L1予測の参照インデックスは「−1」となり、予測
符号化モードがPred_L1であれば、L0予測の動きベクトルは(0,0)、L0予
測の参照インデックスは「−1」となる。
The prediction vector determination unit 131 compares the rate distortion evaluation value of Pred_L0, the rate distortion evaluation value of Pred_L1, and the rate distortion evaluation value of Pred_BI, and selects one prediction coding mode that is the minimum rate distortion evaluation value. . Then, motion information, a difference vector, a prediction vector index, and a rate distortion evaluation value based on the prediction coding mode are supplied to the prediction coding mode determination unit 122. If the predictive coding mode is Pred_L0, L1
If the prediction motion vector is (0,0), the L1 prediction reference index is “−1”, and the prediction coding mode is Pred_L1, the L0 prediction motion vector is (0,0) and the L0 prediction reference index. Becomes “−1”.

(予測ベクトル候補リスト生成部130の構成)
続いて、予測ベクトル候補リスト生成部130の詳細な構成について説明する。図34
は、予測ベクトル候補リスト生成部130の構成を説明するための図である。端子18は
予測ベクトル決定部131に接続されている。予測ベクトル候補リスト生成部130は、
空間予測ベクトル候補生成部150、時間予測ベクトル候補生成部151、冗長予測ベク
トル候補削除部152、及び予測ベクトル候補補充部153を含む。
(Configuration of Predictive Vector Candidate List Generation Unit 130)
Next, a detailed configuration of the prediction vector candidate list generation unit 130 will be described. FIG.
These are the figures for demonstrating the structure of the prediction vector candidate list production | generation part 130. FIG. The terminal 18 is connected to the prediction vector determination unit 131. The prediction vector candidate list generation unit 130
A spatial prediction vector candidate generation unit 150, a temporal prediction vector candidate generation unit 151, a redundant prediction vector candidate deletion unit 152, and a prediction vector candidate supplement unit 153 are included.

(予測ベクトル候補リスト生成部130の動作)
以下、各部の機能と動作について説明する。予測ベクトル候補リスト生成部130は必
要に応じてL0予測の予測ベクトル候補リストとL1予測の予測ベクトル候補リストを生
成する。以下、LX予測として説明する。Xは0または1とする。図35は、予測ベクト
ル候補リスト生成部130の動作を説明するためのフローチャートである。
(Operation of prediction vector candidate list generation unit 130)
Hereinafter, the function and operation of each unit will be described. The prediction vector candidate list generation unit 130 generates a prediction vector candidate list for L0 prediction and a prediction vector candidate list for L1 prediction as necessary. Hereinafter, it demonstrates as LX prediction. X is 0 or 1. FIG. 35 is a flowchart for explaining the operation of the prediction vector candidate list generation unit 130.

まず、予測ベクトル候補リスト生成部130は、LX予測の予測ベクトル報候補リスト
を初期化する(S200)。初期化されたLX予測の予測ベクトル候補リストには予測ベ
クトル候補は存在しない。
First, the prediction vector candidate list generation unit 130 initializes a prediction vector information candidate list for LX prediction (S200). There is no prediction vector candidate in the initialized prediction vector candidate list of the LX prediction.

端子12より供給される空間候補ブロック群に含まれる候補ブロックを第1グループで
あるブロックEとブロックA、第2グループであるブロックC、ブロックB、及びブロッ
クDの2グループに分け、第1グループ、第2グループの順に以下の処理を繰り返す(S
201からS203)。
Candidate blocks included in the space candidate block group supplied from the terminal 12 are divided into two groups, block E and block A as the first group, block C, block B, and block D as the second group, and the first group The following processing is repeated in the order of the second group (S
201 to S203).

ここで、端子12より供給される候補ブロック群は2N×2Nの候補ブロック群につい
てはマージモードと同一とし、2N×2N以外の候補ブロック群については2N×2Nと
同じ位置関係の適用した候補ブロック群とする。また、端子13より供給されるLX予測
の参照インデックス、端子12より供給される候補ブロック群、及びLX予測の予測ベク
トル報候補リストは予測ベクトル候補リスト生成部130内部で共有されているものとし
て説明する。
Here, the candidate block group supplied from the terminal 12 is the same as the merge mode for the 2N × 2N candidate block group and the candidate block group other than 2N × 2N is applied with the same positional relationship as 2N × 2N. A group. In addition, it is assumed that the LX prediction reference index supplied from the terminal 13, the candidate block group supplied from the terminal 12, and the prediction vector information candidate list for LX prediction are shared in the prediction vector candidate list generation unit 130. To do.

空間予測ベクトル候補生成部150は、第iグループ(iは1または2)の候補ブロッ
ク群からLX予測の空間予測ベクトル候補を0個または1個生成し、当該LX予測の空間
予測ベクトル候補をLX予測の予測ベクトル候補リストに追加し(S202)、当該LX
予測の予測ベクトル候補リストと候補ブロック群を時間予測ベクトル候補生成部151に
供給する。
The spatial prediction vector candidate generation unit 150 generates 0 or 1 spatial prediction vector candidate for LX prediction from the i-th group (i is 1 or 2) candidate block group, and the spatial prediction vector candidate for the LX prediction is LX. It adds to the prediction vector candidate list of prediction (S202), and the said LX
The prediction vector candidate list and the candidate block group for prediction are supplied to the temporal prediction vector candidate generation unit 151.

ここで、空間予測ベクトル候補の具体的な導出方法について説明する。第1グループ及
び第2グループについて以下の処理を繰り返す。第1グループは候補ブロックとしてブロ
ックE、ブロックAを順に検査し、第2グループは候補ブロックとしてブロックC、ブロ
ックB、ブロックDの順に検査する。
Here, a specific method for deriving spatial prediction vector candidates will be described. The following processing is repeated for the first group and the second group. The first group inspects block E and block A in order as candidate blocks, and the second group inspects block C, block B and block D in order of candidate blocks.

各候補ブロックについて、L0予測、L1予測の順に以下の処理を行う。以降、各候補
ブロックのL0予測、L1予測をLN予測として説明する。
For each candidate block, the following processing is performed in the order of L0 prediction and L1 prediction. Hereinafter, L0 prediction and L1 prediction of each candidate block will be described as LN prediction.

候補ブロックのLN予測の参照インデックスが示す参照画像が端子13より供給される
LX予測の参照インデックスが示す参照画像と同一であるか検査する。
It is checked whether the reference image indicated by the LN prediction reference index of the candidate block is the same as the reference image indicated by the LX prediction reference index supplied from the terminal 13.

候補ブロックのLN予測の参照インデックスが示す参照画像が端子13より供給される
LX予測の参照インデックスが示す参照画像と同一であれば、候補ブロックのLN予測の
動きベクトルを空間予測ベクトル候補として処理を終了する。
If the reference image indicated by the LN prediction reference index of the candidate block is the same as the reference image indicated by the LX prediction reference index supplied from the terminal 13, the LN prediction motion vector of the candidate block is processed as a spatial prediction vector candidate. finish.

候補ブロックのLN予測の参照インデックスが示す参照画像が端子13より供給される
LX予測の参照インデックスが示す参照画像と同一でなければ、次のLN予測または次の
候補ブロックを検査する。
If the reference image indicated by the LN prediction reference index of the candidate block is not the same as the reference image indicated by the LX prediction reference index supplied from the terminal 13, the next LN prediction or the next candidate block is examined.

全ての候補ブロックの検査が完了すれば、処理を終了する。   If the inspection of all candidate blocks is completed, the process is terminated.

以上のように、各グループから0個または1個の空間予測ベクトル候補が導出され、L
X予測としては0個から2個の空間予測ベクトル候補が導出される。
As described above, 0 or 1 spatial prediction vector candidate is derived from each group, and L
As the X prediction, 0 to 2 spatial prediction vector candidates are derived.

次に、時間予測ベクトル候補生成部151は、時間候補ブロック群からLX予測の時間
予測ベクトル候補を0個または1個生成し、当該LX予測の時間予測ベクトル候補をLX
予測の予測ベクトル候補リストに追加し(S204)、当該LX予測の予測ベクトル候補
リストと候補ブロック群を予測ベクトル候補補充部153に供給する。
Next, the temporal prediction vector candidate generation unit 151 generates zero or one temporal prediction vector candidate for LX prediction from the temporal candidate block group, and sets the temporal prediction vector candidate for the LX prediction to LX.
The prediction vector candidate list is added to the prediction vector candidate list (S204), and the prediction vector candidate list and candidate block group for the LX prediction are supplied to the prediction vector candidate supplement unit 153.

ここで、時間予測ベクトル候補の具体的な導出方法について説明する。
時間候補ブロック群を候補ブロックとしてブロックH、ブロックIの順に検査する。
各候補ブロックについて、L0予測、L1予測の順に以下の処理を行う。以降、各候補
ブロックのL0予測、L1予測をLN予測として説明する。
候補ブロックのLN予測が有効であるか検査する。候補ブロックのLN予測が有効であ
るとは参照インデックスが0以上であることである。
候補ブロックのLN予測が有効であれば、候補ブロックのLN予測の動きベクトルを基
準動きベクトルとして時間予測ベクトル候補を導出して処理を終了する。時間予測ベクト
ル候補の導出方法については後述する。
候補ブロックのLN予測が有効でなければ、次の候補ブロックを検査する。
全ての候補ブロックの検査が完了すれば、処理を終了する。
Here, a specific method for deriving temporal prediction vector candidates will be described.
The time candidate block group is inspected in the order of block H and block I as candidate blocks.
For each candidate block, the following processing is performed in the order of L0 prediction and L1 prediction. Hereinafter, L0 prediction and L1 prediction of each candidate block will be described as LN prediction.
Check whether the candidate block's LN prediction is valid. The LN prediction of the candidate block is effective when the reference index is 0 or more.
If the LN prediction of the candidate block is valid, a temporal prediction vector candidate is derived using the motion vector of the LN prediction of the candidate block as a reference motion vector, and the process is terminated. A method for deriving temporal prediction vector candidates will be described later.
If the candidate block's LN prediction is not valid, the next candidate block is examined.
If the inspection of all candidate blocks is completed, the process is terminated.

ここで、時間予測ベクトル候補の導出方法について説明する。時間候補ブロックのある
ColPicと時間候補ブロックがLN予測の動き補償予測で参照するピクチャであるC
olRefLXPicの画像間距離をtd、LX予測の参照インデックスが示す参照画像
RefLXPicと処理対象画像CurPicの画像間距離をtb、LX予測の基準動き
ベクトルをmvLXとして、時間予測ベクトル候補mvLXColは式1より算出される
Here, a method for deriving temporal prediction vector candidates will be described. ColPic with a temporal candidate block and C which is a picture that the temporal candidate block refers to in motion compensated prediction of LN prediction
The temporal prediction vector candidate mvLXCol is calculated from Equation 1, where the inter-image distance of olRefLXPP is td, the inter-image distance between the reference image RefLXPic indicated by the reference index of LX prediction and the processing target image CurPic is tb, and the reference motion vector of LX prediction is mvLX. Is done.

冗長予測ベクトル候補削除部152は、時間予測ベクトル候補生成部151より供給さ
れるLX予測の予測ベクトル候補リストに登録されている予測ベクトル候補を検査し、同
一のベクトルを有する予測ベクトル候補が複数存在する場合には1つの予測ベクトル候補
を残してその他の予測ベクトル候補を削除し、LX予測の予測ベクトル候補リストに登録
されている予測ベクトル候補数が予測ベクトル候補最大数を超えている場合はLX予測の
予測ベクトル候補リストに登録されている予測ベクトル候補数が予測ベクトル候補最大数
以下となるようにLX予測の予測ベクトル候補リストの後方の予測ベクトル候補を削除し
て(S205)、当該LX予測の予測ベクトル候補リストを予測ベクトル候補補充部15
3に供給する。ここで、当該LX予測の予測ベクトル候補リストに登録されている結合動
き情報候補は全てが異なる結合動き情報候補となる。
The redundant prediction vector candidate deletion unit 152 checks the prediction vector candidates registered in the prediction vector candidate list of the LX prediction supplied from the temporal prediction vector candidate generation unit 151, and there are a plurality of prediction vector candidates having the same vector. If the number of prediction vector candidates registered in the prediction vector candidate list for LX prediction exceeds the maximum number of prediction vector candidates, one prediction vector candidate is left and other prediction vector candidates are deleted. The prediction vector candidates behind the prediction vector candidate list for LX prediction are deleted so that the number of prediction vector candidates registered in the prediction vector candidate list for prediction is equal to or less than the maximum number of prediction vector candidates (S205), and the LX prediction is performed. The prediction vector candidate supplementing unit 15 stores the prediction vector candidate list of
3 is supplied. Here, the combined motion information candidates registered in the prediction vector candidate list of the LX prediction are all different combined motion information candidates.

予測ベクトル候補補充部153は、予測ベクトル補充候補を生成し、冗長予測ベクトル
候補削除部152より供給されるLX予測の予測ベクトル候補リストに登録された予測ベ
クトル候補数が予測ベクトル候補最大数になるように当該予測ベクトル補充候補をLX予
測の予測ベクトル候補リストに追加し(S206)、端子18に供給する。予測ベクトル
補充候補は動きベクトル(0,0)とする。ここでは、予測ベクトル補充候補を動きベク
トル(0,0)としたが、(1,1)などの所定値でもよく、空間予測ベクトル候補の水
平成分や垂直成分を+1や−1などした動きベクトルでもよい。
The prediction vector candidate supplement unit 153 generates a prediction vector supplement candidate, and the number of prediction vector candidates registered in the prediction vector candidate list of the LX prediction supplied from the redundant prediction vector candidate deletion unit 152 becomes the maximum number of prediction vector candidates. Thus, the prediction vector supplement candidate is added to the prediction vector candidate list for LX prediction (S206) and supplied to the terminal 18. The prediction vector supplement candidate is a motion vector (0, 0). Here, the motion vector (0, 0) is used as the prediction vector supplement candidate, but a predetermined value such as (1, 1) may be used, and a motion vector in which the horizontal component and the vertical component of the spatial prediction vector candidate are +1 or −1. But you can.

ここでは、端子12より供給される空間候補ブロック群に含まれる候補ブロックを2グ
ループに分けて、各グループから1個ずつ空間予測動きベクトル候補を選択できるように
したが、1グループにして2個の空間予測動きベクトル候補を選択してもよい。
Here, the candidate blocks included in the spatial candidate block group supplied from the terminal 12 are divided into two groups so that one spatial prediction motion vector candidate can be selected from each group. The spatial prediction motion vector candidates may be selected.

以下、動きベクトル再生部211の詳細な構成について説明する。   Hereinafter, a detailed configuration of the motion vector reproducing unit 211 will be described.

(動きベクトル再生部211の詳細な構成)
続いて、動きベクトル再生部211の詳細な構成について説明する。図36は、動きベ
クトル再生部211の構成を説明する図である。動きベクトル再生部211は、予測ベク
トル候補リスト生成部220、予測ベクトル選択部221および加算部222を含む。端
子35は符号化モード判定部210に接続されている。
(Detailed Configuration of Motion Vector Reproducing Unit 211)
Next, a detailed configuration of the motion vector reproduction unit 211 will be described. FIG. 36 is a diagram for explaining the configuration of the motion vector reproducing unit 211. The motion vector reproduction unit 211 includes a prediction vector candidate list generation unit 220, a prediction vector selection unit 221, and an addition unit 222. The terminal 35 is connected to the encoding mode determination unit 210.

(動きベクトル再生部211の詳細な動作)
以下、各部の機能と動作について説明する。動きベクトル再生部211は、端子35よ
り供給されるインター予測タイプがL0予測であれば、L0予測について動きベクトルの
算出を行い、インター予測タイプがL1予測であれば、L1予測について動きベクトルの
算出を行い、インター予測タイプがBI予測であれば、L0予測とL1予測について動き
ベクトルの算出を行う。各LX予測の動きベクトルの算出は以下のように行われる。
(Detailed operation of the motion vector reproduction unit 211)
Hereinafter, the function and operation of each unit will be described. The motion vector reproduction unit 211 calculates a motion vector for L0 prediction if the inter prediction type supplied from the terminal 35 is L0 prediction, and calculates a motion vector for L1 prediction if the inter prediction type is L1 prediction. If the inter prediction type is BI prediction, motion vectors are calculated for L0 prediction and L1 prediction. The motion vector for each LX prediction is calculated as follows.

動きベクトル再生部211は、端子35より供給されるLX予測の参照インデックス及
び端子33より供給される候補ブロック群からLX予測の予測ベクトル候補リストを生成
する。当該LX予測の予測ベクトルリストからLX予測の予測ベクトルインデックスによ
って示される予測ベクトル候補をLX予測の予測ベクトルとして選択し、LX予測の予測
ベクトルとLX予測の差分ベクトルを加算してLX予測の動きベクトルを算出する。
The motion vector reproduction unit 211 generates a prediction vector candidate list for LX prediction from the reference index for LX prediction supplied from the terminal 35 and the candidate block group supplied from the terminal 33. A prediction vector candidate indicated by the prediction vector index of LX prediction is selected as a prediction vector of LX prediction from the prediction vector list of LX prediction, and the LX prediction prediction vector and the difference vector of LX prediction are added to add an LX prediction motion vector. Is calculated.

当該LX予測の動きベクトルとインター予測タイプとが組み合わされて動き情報が生成
され、端子34及び端子36に供給される。
Motion information is generated by combining the motion vector of the LX prediction and the inter prediction type, and is supplied to the terminal 34 and the terminal 36.

以上のように、マージ候補最大数が5であって相対的に候補数の多いマージモードでは
、2N×2N以外の候補ブロック群については符号化ブロック内の全ての予測ブロックの
候補ブロックとして予測ブロック0の候補ブロックを利用することで、結合動き情報候補
リストを符号化ブロック内で共通化して候補選択に要する処理を並列化可能とし、予測ベ
クトル候補最大数が2であって相対的に候補数の少ない予測ベクトルモードでは、2N×
2N以外の候補ブロック群については2N×2Nと同じ位置関係の適用した候補ブロック
を利用し、予測効率を最適化することで、処理効率と予測効率を好適にすることができる
As described above, in the merge mode in which the maximum number of merge candidates is 5 and the number of candidates is relatively large, a candidate block group other than 2N × 2N is predicted as a candidate block of all prediction blocks in the encoded block. By using a candidate block of 0, the combined motion information candidate list can be shared in the coding block so that the processing required for candidate selection can be parallelized, the maximum number of prediction vector candidates is 2, and the number of candidates is relatively In the prediction vector mode with a small amount, 2N ×
For candidate block groups other than 2N, processing efficiency and prediction efficiency can be optimized by using candidate blocks to which the same positional relationship as 2N × 2N is applied and optimizing the prediction efficiency.

以上述べた実施の形態の動画像符号化装置が出力する動画像の符号化ストリームは、実
施の形態で用いられた符号化方法に応じて復号することができるように特定のデータフォ
ーマットを有しており、動画像符号化装置に対応する動画像復号装置がこの特定のデータ
フォーマットの符号化ストリームを復号することができる。
The moving image encoded stream output from the moving image encoding apparatus of the embodiment described above has a specific data format so that it can be decoded according to the encoding method used in the embodiment. Therefore, the moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode the encoded stream of this specific data format.

動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有
線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に
適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符
号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネット
ワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ス
トリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。
When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted. In that case, a video transmission apparatus that converts the encoded stream output from the video encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.

動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモ
リと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化デ
ータをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化さ
れた符号化データをネットワークを介して受信する受信部と、受信された符号化データを
バッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動
画像復号装置に提供するパケット処理部とを含む。
The moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network. Part. The moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.

以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置と
して実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッ
シュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっ
ても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムを
コンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線
のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送
のデータ放送として提供することも可能である。
The above processing relating to encoding and decoding can be realized as a transmission, storage, and reception device using hardware, and is stored in a ROM (Read Only Memory), a flash memory, or the like. It can also be realized by firmware or software such as a computer. The firmware program and software program can be recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as a data broadcast of terrestrial or satellite digital broadcasting Is also possible.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構
成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例
も本発明の範囲にあることは当業者に理解されるところである。
The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

100 動画像符号化装置、 101 予測ブロック画像取得部、 102 減算部、
103 予測誤差符号化部、 104 符号列生成部、 105 予測誤差復号部、
106 動き補償部、 107 加算部、 108 動きベクトル検出部、 109 動
き情報生成部、 110 フレームメモリ、 111 動き情報メモリ、 120 予測
ベクトルモード決定部、 121 マージモード決定部、 122 予測符号化モード決
定部、 130 予測ベクトル候補リスト生成部、 131 予測ベクトル決定部、 1
40 結合動き情報候補リスト生成部、 141 結合動き情報選択部、 150 空間
予測ベクトル候補生成部、 151 時間予測ベクトル候補生成部、 152 冗長予測
ベクトル候補削除部、 153 予測ベクトル候補補充部、 160 空間結合動き情報
候補生成部、 161 時間結合動き情報候補生成部、 162 冗長結合動き情報候補
削除部、 163 第1結合動き情報候補補充部、 164 第2結合動き情報候補補充
部、 165 候補ブロック設定部、 166 代替結合動き情報候補補充部、 200
動画像復号装置、 201 符号列解析部、 202 予測誤差復号部、 203 加
算部、 204 動き情報再生部、 205 動き補償部、 206 フレームメモリ、
207 動き情報メモリ、 210 符号化モード判定部、 211 動きベクトル再
生部、 212 結合動き情報再生部、 230 結合動き情報候補リスト生成部、 2
31 結合動き情報選択部。
100 moving image encoding apparatus, 101 prediction block image acquisition unit, 102 subtraction unit,
103 prediction error encoding unit, 104 code string generation unit, 105 prediction error decoding unit,
106 motion compensation unit, 107 addition unit, 108 motion vector detection unit, 109 motion information generation unit, 110 frame memory, 111 motion information memory, 120 prediction vector mode determination unit, 121 merge mode determination unit, 122 prediction coding mode determination unit 130 prediction vector candidate list generation unit, 131 prediction vector determination unit, 1
40 combined motion information candidate list generation unit, 141 combined motion information selection unit, 150 spatial prediction vector candidate generation unit, 151 temporal prediction vector candidate generation unit, 152 redundant prediction vector candidate deletion unit, 153 prediction vector candidate supplement unit, 160 spatial combination Motion information candidate generating unit, 161 time combined motion information candidate generating unit, 162 redundant combined motion information candidate deleting unit, 163 first combined motion information candidate supplementing unit, 164 second combined motion information candidate supplementing unit, 165 candidate block setting unit, 166 Alternative combined motion information candidate supplement section, 200
Moving picture decoding apparatus, 201 code string analyzing unit, 202 prediction error decoding unit, 203 adding unit, 204 motion information reproducing unit, 205 motion compensating unit, 206 frame memory,
207 motion information memory, 210 encoding mode determination unit, 211 motion vector playback unit, 212 combined motion information playback unit, 230 combined motion information candidate list generation unit, 2
31 Combined motion information selection unit.

Claims (6)

1以上の予測ブロックからなる復号ブロックを復号する動画像復号装置であって、
復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された符号列から、前記候補特定インデックスを復号する復号部と、
前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成部と、
前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成部と、
前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択部と
を備え、
前記復号部は、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号する
ことを特徴とする動画像復号装置。
A moving picture decoding apparatus for decoding a decoding block including one or more prediction blocks,
A decoding unit that decodes the candidate specifying index from a code string in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specifying index;
Information indicating whether or not to derive temporally combined motion information candidates that are commonly used for all the prediction blocks in the decoded block is used in common for all of the prediction blocks in the decoded block. When it is information indicating that an information candidate is derived, it is commonly used for all the prediction blocks in the decoded block from the prediction block of a decoded picture different from the picture having the prediction block to be decoded A time combination motion information candidate generation unit for deriving a time combination motion information candidate to be
A combined motion information candidate generating unit that generates a plurality of combined motion information candidates including the temporally combined motion information candidates;
A combined motion that selects one combined motion information candidate from the plurality of combined motion information candidates based on the candidate identification index, and uses the selected combined motion information candidate as motion information of the prediction block to be decoded. An information selection unit,
The decoding unit obtains information indicating whether or not information indicating whether or not to derive a temporally combined motion information candidate to be commonly used for all the prediction blocks in the decoded block from the code string. A moving picture decoding apparatus characterized by decoding.
1以上の予測ブロックからなる復号ブロックを復号する動画像復号方法であって、
復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された符号列から、前記候補特定インデックスを復号する復号ステップと、
前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成ステップと、
前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成ステップと、
前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択ステップと
を有し、
前記復号ステップにおいて、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号する
ことを特徴とする動画像復号方法。
A moving picture decoding method for decoding a decoding block including one or more prediction blocks,
A decoding step of decoding the candidate specifying index from a code string in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specifying index;
Information indicating whether or not to derive temporally combined motion information candidates that are commonly used for all the prediction blocks in the decoded block is used in common for all of the prediction blocks in the decoded block. When it is information indicating that an information candidate is derived, it is commonly used for all the prediction blocks in the decoded block from the prediction block of a decoded picture different from the picture having the prediction block to be decoded A temporally combined motion information candidate generation step for deriving temporally combined motion information candidates to be performed;
A combined motion information candidate generating step for generating a plurality of combined motion information candidates including the temporally combined motion information candidates;
A combined motion that selects one combined motion information candidate from the plurality of combined motion information candidates based on the candidate identification index, and uses the selected combined motion information candidate as motion information of the prediction block to be decoded. An information selection step,
In the decoding step, information indicating whether or not information indicating whether or not to derive a temporally combined motion information candidate to be commonly used for all the prediction blocks in the decoded block is valid from the code string. A moving picture decoding method characterized by decoding.
1以上の予測ブロックからなる復号ブロックを復号する動画像復号プログラムであって、
復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された符号列から、前記候補特定インデックスを復号する復号ステップと、
前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成ステップと、
前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成ステップと、
前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択ステップと
をコンピュータに実行させ、
前記復号ステップにおいて、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号する
ことを特徴とする動画像復号プログラム。
A moving picture decoding program for decoding a decoding block including one or more prediction blocks,
A decoding step of decoding the candidate specifying index from a code string in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specifying index;
Information indicating whether or not to derive temporally combined motion information candidates that are commonly used for all the prediction blocks in the decoded block is used in common for all of the prediction blocks in the decoded block. When it is information indicating that an information candidate is derived, it is commonly used for all the prediction blocks in the decoded block from the prediction block of a decoded picture different from the picture having the prediction block to be decoded A temporally combined motion information candidate generation step for deriving temporally combined motion information candidates to be performed;
A combined motion information candidate generating step for generating a plurality of combined motion information candidates including the temporally combined motion information candidates;
A combined motion that selects one combined motion information candidate from the plurality of combined motion information candidates based on the candidate identification index, and uses the selected combined motion information candidate as motion information of the prediction block to be decoded. Causing the computer to perform an information selection step;
In the decoding step, information indicating whether or not information indicating whether or not to derive a temporally combined motion information candidate to be commonly used for all the prediction blocks in the decoded block is valid from the code string. A moving picture decoding program characterized by decoding.
符号化ストリームから、1以上の予測ブロックからなる復号ブロックを復号する受信装置であって、
動画像が符号化された符号化データを受信する受信部と、
前記符号化データをパケット処理して前記符号化ストリームを生成するパケット処理部と、
復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された、前記符号化ストリームの符号列から、前記候補特定インデックスを復号する復号部と、
前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成部と、
前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成部と、
前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択部と
を備え、
前記復号部は、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号する
ことを特徴とする受信装置。
A receiving device that decodes a decoded block including one or more prediction blocks from an encoded stream,
A receiving unit that receives encoded data in which a moving image is encoded;
A packet processing unit that packet-processes the encoded data to generate the encoded stream;
A decoding unit that decodes the candidate specifying index from a code string of the encoded stream, in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specifying index;
Information indicating whether or not to derive temporally combined motion information candidates that are commonly used for all the prediction blocks in the decoded block is used in common for all of the prediction blocks in the decoded block. When it is information indicating that an information candidate is derived, it is commonly used for all the prediction blocks in the decoded block from the prediction block of a decoded picture different from the picture having the prediction block to be decoded A time combination motion information candidate generation unit for deriving a time combination motion information candidate to be
A combined motion information candidate generating unit that generates a plurality of combined motion information candidates including the temporally combined motion information candidates;
A combined motion that selects one combined motion information candidate from the plurality of combined motion information candidates based on the candidate identification index, and uses the selected combined motion information candidate as motion information of the prediction block to be decoded. An information selection unit,
The decoding unit obtains information indicating whether or not information indicating whether or not to derive a temporally combined motion information candidate to be commonly used for all the prediction blocks in the decoded block from the code string. A receiver characterized by decoding.
符号化ストリームから、1以上の予測ブロックからなる復号ブロックを復号する受信方法であって、
動画像が符号化された符号化データを受信する受信ステップと、
前記符号化データをパケット処理して前記符号化ストリームを生成するパケット処理ステップと、
復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された、前記符号化ストリームの符号列から、前記候補特定インデックスを復号する復号ステップと、
前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成ステップと、
前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成ステップと、
前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択ステップと
を有し、
前記復号ステップにおいて、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号する
ことを特徴とする受信方法。
A reception method for decoding a decoded block including one or more prediction blocks from an encoded stream,
A reception step of receiving encoded data in which a moving image is encoded;
A packet processing step of packet-processing the encoded data to generate the encoded stream;
A decoding step of decoding the candidate specific index from a code string of the encoded stream, in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specific index;
Information indicating whether or not to derive temporally combined motion information candidates that are commonly used for all the prediction blocks in the decoded block is used in common for all of the prediction blocks in the decoded block. When it is information indicating that an information candidate is derived, it is commonly used for all the prediction blocks in the decoded block from the prediction block of a decoded picture different from the picture having the prediction block to be decoded A temporally combined motion information candidate generation step for deriving temporally combined motion information candidates to be performed;
A combined motion information candidate generating step for generating a plurality of combined motion information candidates including the temporally combined motion information candidates;
A combined motion that selects one combined motion information candidate from the plurality of combined motion information candidates based on the candidate identification index, and uses the selected combined motion information candidate as motion information of the prediction block to be decoded. An information selection step,
In the decoding step, information indicating whether or not information indicating whether or not to derive a temporally combined motion information candidate to be commonly used for all the prediction blocks in the decoded block is valid from the code string. A receiving method characterized by decoding.
符号化ストリームから、1以上の予測ブロックからなる復号ブロックを復号する受信プログラムであって、
動画像が符号化された符号化データを受信する受信ステップと、
前記符号化データをパケット処理して前記符号化ストリームを生成するパケット処理ステップと、
復号対象の予測ブロックで利用する結合動き情報候補を特定するためのインデックスが候補特定インデックスとして符号化された、前記符号化ストリームの符号列から、前記候補特定インデックスを復号する復号ステップと、
前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報が前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出することを示す情報であった場合、復号対象の予測ブロックのあるピクチャとは別の復号済みのピクチャの予測ブロックから、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出する時間結合動き情報候補生成ステップと、
前記時間結合動き情報候補を含む複数の結合動き情報候補を生成する結合動き情報候補生成ステップと、
前記候補特定インデックスに基づいて前記複数の結合動き情報候補から1つの結合動き情報候補を選択し、選択された前記1つの結合動き情報候補を前記復号対象の予測ブロックの動き情報として利用する結合動き情報選択ステップと
をコンピュータに実行させ、
前記復号ステップにおいて、前記復号ブロック内の予測ブロックの全てに対して共通に利用する時間結合動き情報候補を導出するか否かを示す情報を有効とするか否かを示す情報を前記符号列より復号する
ことを特徴とする受信プログラム。
A reception program for decoding a decoded block including one or more prediction blocks from an encoded stream,
A reception step of receiving encoded data in which a moving image is encoded;
A packet processing step of packet-processing the encoded data to generate the encoded stream;
A decoding step of decoding the candidate specific index from a code string of the encoded stream, in which an index for specifying a combined motion information candidate used in a prediction block to be decoded is encoded as a candidate specific index;
Information indicating whether or not to derive temporally combined motion information candidates that are commonly used for all the prediction blocks in the decoded block is used in common for all of the prediction blocks in the decoded block. When it is information indicating that an information candidate is derived, it is commonly used for all the prediction blocks in the decoded block from the prediction block of a decoded picture different from the picture having the prediction block to be decoded A temporally combined motion information candidate generation step for deriving temporally combined motion information candidates to be performed;
A combined motion information candidate generating step for generating a plurality of combined motion information candidates including the temporally combined motion information candidates;
A combined motion that selects one combined motion information candidate from the plurality of combined motion information candidates based on the candidate identification index, and uses the selected combined motion information candidate as motion information of the prediction block to be decoded. Causing the computer to perform an information selection step;
In the decoding step, information indicating whether or not information indicating whether or not to derive a temporally combined motion information candidate to be commonly used for all the prediction blocks in the decoded block is valid from the code string. A receiving program characterized by decoding.
JP2013180092A 2011-12-28 2013-08-30 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program Active JP5725106B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013180092A JP5725106B2 (en) 2011-12-28 2013-08-30 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011288983 2011-12-28
JP2011288983 2011-12-28
JP2013180092A JP5725106B2 (en) 2011-12-28 2013-08-30 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012285809A Division JP5725006B2 (en) 2011-12-28 2012-12-27 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Publications (2)

Publication Number Publication Date
JP2014014133A JP2014014133A (en) 2014-01-23
JP5725106B2 true JP5725106B2 (en) 2015-05-27

Family

ID=49049411

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2012285809A Active JP5725006B2 (en) 2011-12-28 2012-12-27 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2013180092A Active JP5725106B2 (en) 2011-12-28 2013-08-30 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2013180089A Active JP5725103B2 (en) 2011-12-28 2013-08-30 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2013180091A Active JP5725105B2 (en) 2011-12-28 2013-08-30 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2013180090A Active JP5725104B2 (en) 2011-12-28 2013-08-30 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2015075736A Active JP5843032B2 (en) 2011-12-28 2015-04-02 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012285809A Active JP5725006B2 (en) 2011-12-28 2012-12-27 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2013180089A Active JP5725103B2 (en) 2011-12-28 2013-08-30 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2013180091A Active JP5725105B2 (en) 2011-12-28 2013-08-30 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2013180090A Active JP5725104B2 (en) 2011-12-28 2013-08-30 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP2015075736A Active JP5843032B2 (en) 2011-12-28 2015-04-02 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Country Status (1)

Country Link
JP (6) JP5725006B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167324A1 (en) 2015-04-14 2016-10-20 カルソニックカンセイ株式会社 Alternator control unit, alternator driving control method, and power supply management system for engine vehicle
WO2017094216A1 (en) * 2015-12-04 2017-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Image decoding method, image encoding method, image decoding apparatus, image encoding apparatus, and image encoding/decoding apparatus
CN116800981A (en) * 2018-05-23 2023-09-22 寰发股份有限公司 Video coding method and apparatus using bi-directional coding unit weighting
JP7141513B1 (en) 2021-12-15 2022-09-22 Dmg森精機株式会社 unmanned carrier system

Also Published As

Publication number Publication date
JP2013240115A (en) 2013-11-28
JP5725103B2 (en) 2015-05-27
JP5725104B2 (en) 2015-05-27
JP2013240116A (en) 2013-11-28
JP2014014132A (en) 2014-01-23
JP5725006B2 (en) 2015-05-27
JP5843032B2 (en) 2016-01-13
JP2015159569A (en) 2015-09-03
JP2013153431A (en) 2013-08-08
JP5725105B2 (en) 2015-05-27
JP2014014133A (en) 2014-01-23

Similar Documents

Publication Publication Date Title
WO2013099285A1 (en) Video encoding device, video encoding method and video encoding program, and video decoding device, video decoding method and video decoding program
WO2013099283A1 (en) Video encoding device, video encoding method and video encoding program, and video decoding device, video decoding method and video decoding program
JP6065088B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP5843032B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP5880758B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP5843041B1 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R150 Certificate of patent or registration of utility model

Ref document number: 5725106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150