JP2013021573A - Image decoder, image decoding method, and image decoding program - Google Patents

Image decoder, image decoding method, and image decoding program Download PDF

Info

Publication number
JP2013021573A
JP2013021573A JP2011154336A JP2011154336A JP2013021573A JP 2013021573 A JP2013021573 A JP 2013021573A JP 2011154336 A JP2011154336 A JP 2011154336A JP 2011154336 A JP2011154336 A JP 2011154336A JP 2013021573 A JP2013021573 A JP 2013021573A
Authority
JP
Japan
Prior art keywords
motion information
candidate
block
prediction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011154336A
Other languages
Japanese (ja)
Inventor
Hideki Takehara
英樹 竹原
Hiroya Nakamura
博哉 中村
Motoharu Ueda
基晴 上田
Shigeru Fukushima
茂 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011154336A priority Critical patent/JP2013021573A/en
Publication of JP2013021573A publication Critical patent/JP2013021573A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To further improve efficiency for encoding motion information which includes a motion vector.SOLUTION: A candidate list generating section generates a candidate list by selecting a plurality of blocks which include motion information, including at least motion vector information and reference image information, from a plurality of decoded blocks adjacent to a decoding target block. A motion information acquisition section obtains the motion information of the blocks included in the candidate list. A scaling section generates a second motion vector by scaling a first motion vector included in the motion information obtained by the motion information acquisition section. A selection-candidate generating section generates a new selection candidate comprising the motion information which includes the first motion vector and motion information which includes the second motion vector. A code row analysis section decodes candidate-specifying information for specifying a selected candidate which is selected from the candidate list at an encoding side in the candidate list. A selection section selects one candidate from selection candidates included in the candidate list by using the decoded candidate-specifying information.

Description

本発明は、動き補償予測を用いた動画像符号化技術に関し、特に動き補償予測で利用する動き情報を復号する画像復号装置、画像復号方法および画像復号プログラムに関する。   The present invention relates to a moving image encoding technique using motion compensated prediction, and more particularly to an image decoding apparatus, an image decoding method, and an image decoding program for decoding motion information used in motion compensated prediction.

一般的な動画像圧縮符号化では動き補償予測が利用される。動き補償予測は、対象画像を細かいブロックに分割し、復号済みの画像を参照画像として、動きベクトルで示される動き量に基いて、対象画像の対象ブロックから参照画像の参照ブロックに移動した位置の信号を予測信号として生成する技術である。動き補償予測には1本の動きベクトルを利用して単方向に行うものと、2本の動きベクトルを利用して双方向に行うものがある。   In general video compression coding, motion compensation prediction is used. Motion compensation prediction divides the target image into fine blocks, uses the decoded image as a reference image, and based on the amount of motion indicated by the motion vector, the position of the position moved from the target block of the target image to the reference block of the reference image This is a technique for generating a signal as a prediction signal. Some motion compensation predictions are performed unidirectionally using one motion vector, and others are performed bidirectionally using two motion vectors.

また、動きベクトルについても、処理対象ブロックに隣接する符号化済みのブロックの動きベクトルを予測動きベクトル(単に「予測ベクトル」ともいう)とし、処理対象ブロックの動きベクトルと予測ベクトルとの差分を求め、差分ベクトルを符号化ベクトルとして伝送することで圧縮効率を向上させている。   As for the motion vector, the motion vector of the encoded block adjacent to the processing target block is used as a prediction motion vector (also simply referred to as “prediction vector”), and the difference between the motion vector of the processing target block and the prediction vector is obtained. The compression efficiency is improved by transmitting the difference vector as an encoded vector.

MPEG−4AVCでは、MPEG−2よりも動き補償予測のブロックサイズを細かく且つ多様にすることで動き補償予測の効率を向上させている。一方、ブロックサイズを細かくしたことで動きベクトル数が増加するため、符号化ベクトルの符号量が問題となる。   MPEG-4AVC improves the efficiency of motion compensation prediction by making the block size of motion compensation prediction finer and more diversified than MPEG-2. On the other hand, since the number of motion vectors increases by making the block size finer, the code amount of the encoded vector becomes a problem.

そのため、MPEG−2では単純に処理対象ブロックの左の動きベクトルを予測ベクトルとしていたが、MPEG−4AVCでは複数の隣接ブロックの動きベクトルの中央値を予測ベクトルとすることで予測ベクトルの精度を向上させ、符号化ベクトルの符号量の増加を抑制している。さらに、MPEG−4AVCにおいてダイレクト動き補償予測が知られている。ダイレクト動き補償予測は、符号化済みの別の画像の処理対象ブロックと同一位置にあるブロックの動きベクトルを、対象画像と2つの参照画像の距離でスケーリングして新たな動きベクトルを生成し、符号化ベクトルを伝送することなく、動き補償予測を実現するものである。   Therefore, in MPEG-2, the left motion vector of the processing target block is simply used as the prediction vector, but in MPEG-4 AVC, the accuracy of the prediction vector is improved by using the median value of the motion vectors of a plurality of adjacent blocks as the prediction vector. Therefore, an increase in the code amount of the encoded vector is suppressed. Further, direct motion compensation prediction is known in MPEG-4 AVC. Direct motion compensated prediction generates a new motion vector by scaling the motion vector of a block at the same position as the processing target block of another encoded image by the distance between the target image and two reference images. The motion compensation prediction is realized without transmitting the quantization vector.

また、処理対象ブロックに隣接するブロックの動き情報を利用して、符号化ベクトルを伝送することなく動き補償予測を実現する動き補償予測が知られている(例えば、特許文献1参照)。   In addition, motion compensation prediction that realizes motion compensation prediction without transmitting an encoded vector using motion information of a block adjacent to a processing target block is known (see, for example, Patent Document 1).

特開平10−276439号公報JP-A-10-276439

上述したように、符号化ベクトルを伝送しないダイレクト動き補償予測は、処理対象ブロックと符号化済みの別の画像の処理対象ブロックと同一位置にあるブロックの動きの連続性に着目している。また、特許文献1は処理対象ブロックと処理対象ブロックに隣接するブロックの動きの連続性に着目している。それにより、他のブロックの動き情報を利用することで差分ベクトルを含む動き情報を符号化ベクトルとして符号化せずに符号化効率を向上させている。   As described above, direct motion compensated prediction that does not transmit an encoded vector focuses on the continuity of motion of a block that is in the same position as a processing target block and a processing target block of another encoded image. Further, Patent Document 1 focuses on the continuity of movement of a processing target block and a block adjacent to the processing target block. As a result, by using the motion information of other blocks, the encoding efficiency is improved without encoding the motion information including the difference vector as the encoded vector.

ところが従来の動き補償予測では、処理対象ブロックの動きが、処理対象ブロックと隣接するブロックとの動きや、符号化済みの別の画像の処理対象ブロックと同一位置周辺にあるブロックとの動きにずれがある場合、差分ベクトルを含む動き情報を符号化しなければならず、符号化効率の向上が十分に発揮されないという難しい面がある。   However, in the conventional motion compensated prediction, the motion of the processing target block is shifted to the motion of the processing target block and the adjacent block, or the motion of a block around the same position as the processing target block of another encoded image. In such a case, the motion information including the difference vector must be encoded, and there is a difficult aspect that the improvement of the encoding efficiency is not sufficiently exhibited.

本発明はこうした状況に鑑みてなされたものであり、その目的は、動きベクトルを含む動き情報の符号化効率を、より向上させる技術を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a technique for further improving the efficiency of encoding motion information including a motion vector.

上記課題を解決するために、本発明のある態様の画像復号装置は、動き補償予測を行う画像復号装置であって、復号対象ブロックに隣接する複数の復号済みのブロックから、動きベクトルの情報と参照画像の情報とを少なくとも含む動き情報を持つ複数のブロックを選択して候補リストを生成する候補リスト生成部(230)と、前記候補リストに含まれるブロックの動き情報を取得する動き情報取得部(150)と、前記動き情報取得部(150)により取得された動き情報に含まれる第1の動きベクトルをスケーリングして第2の動きベクトルを生成するスケーリング部(162)と、前記第1の動きベクトルを含む動き情報と、前記第2の動きベクトルを備えた動き情報とを有する新たな選択候補を生成する選択候補生成部(151)と、符号化側において候補リストから選択された候補を前記候補リスト内で特定するための候補特定情報を復号する符号列解析部(201)と、復号された候補特定情報を用いて、前記候補リスト生成部(230)で生成した候補リストに含まれる選択候補の中から1つの候補を選択する選択部(231)と、を備える。「前記復号対象ブロックに隣接する複数の復号済みのブロックには」、前記復号対象ブロックを含む画像と時間的に異なる画像のブロックが含まれてもよい。   In order to solve the above problems, an image decoding apparatus according to an aspect of the present invention is an image decoding apparatus that performs motion compensation prediction, and includes information on motion vectors from a plurality of decoded blocks adjacent to a decoding target block. A candidate list generation unit (230) that generates a candidate list by selecting a plurality of blocks having motion information including at least reference image information, and a motion information acquisition unit that acquires motion information of blocks included in the candidate list (150), a scaling unit (162) that generates a second motion vector by scaling a first motion vector included in the motion information acquired by the motion information acquisition unit (150), and the first information A selection candidate generating unit (151) for generating a new selection candidate having motion information including a motion vector and motion information including the second motion vector The candidate list is decoded using a code string analyzing unit (201) for decoding candidate specifying information for specifying a candidate selected from the candidate list on the encoding side in the candidate list, and the decoded candidate specifying information. A selection unit (231) that selects one candidate from the selection candidates included in the candidate list generated by the generation unit (230). “The plurality of decoded blocks adjacent to the decoding target block” may include a block of an image that is temporally different from the image including the decoding target block.

前記候補リストに含まれるブロック数が、設定された最大数に満たない場合、前記選択候補生成部(151)により生成された新たな選択候補が前記候補リストに追加されてもよい。   When the number of blocks included in the candidate list is less than the set maximum number, a new selection candidate generated by the selection candidate generation unit (151) may be added to the candidate list.

前記復号対象ブロックに隣接する複数の復号済みのブロックには、単方向の動き情報を持つ第1のタイプと、双方向の情報を持つ第2のタイプがあってもよい。前記動き情報取得部(150)は、前記候補リストに含まれる複数のブロックのうち、前記第1のタイプのブロックを優先的に取得してもよいし、前記第2のタイプのブロックを優先的に取得してもよい。   The plurality of decoded blocks adjacent to the decoding target block may include a first type having unidirectional motion information and a second type having bidirectional information. The motion information acquisition unit (150) may preferentially acquire the first type block among the plurality of blocks included in the candidate list, or may preferentially acquire the second type block. You may get it.

前記動き情報取得部(150)は、前記候補リストに含まれる複数のブロックのうち、前記復号対象ブロックとの隣接度が相対的に高いブロックを優先的に取得してもよい。   The motion information acquisition unit (150) may preferentially acquire a block having a relatively high degree of adjacency with the decoding target block among a plurality of blocks included in the candidate list.

前記スケーリング部(162)は、前記動き情報取得部(150)により取得された動き情報が双方向の動きベクトルを持つブロックの動き情報である場合、当該ブロックが持つ2つの動きベクトルのうち、長いほうの動きベクトルを前記第1の動きベクトルとしてスケーリングしてもよいし、短いほうの動きベクトルを前記第1の動きベクトルとしてスケーリングしてもよい。   When the motion information acquired by the motion information acquisition unit (150) is motion information of a block having a bidirectional motion vector, the scaling unit (162) is longer than the two motion vectors of the block. The first motion vector may be scaled as the first motion vector, or the shorter motion vector may be scaled as the first motion vector.

前記スケーリング部(162)により生成される第2の動きベクトルの参照画像を特定する参照インデックスの値をゼロに設定する参照画像設定部(161)をさらに備えてもよい。   The image processing apparatus may further include a reference image setting unit (161) that sets a reference index value that specifies a reference image of the second motion vector generated by the scaling unit (162) to zero.

前記参照画像設定部(161)は、前記第1の動きベクトルの参照画像を特定する参照インデックスの値と前記第2の動きベクトルの参照画像を特定する参照インデックスの値が同じになった場合、前記時間的に異なる画像のブロックの動きベクトルの参照画像を特定する参照インデックスの値を、前記第2の動きベクトルの参照画像を特定する参照インデックスの値に設定してもよい。前記時間的に異なる画像のブロックの動きベクトルの参照画像を特定する参照インデックスの値の代わりに1を設定してもよい。   The reference image setting unit (161), when the value of the reference index that identifies the reference image of the first motion vector is the same as the value of the reference index that identifies the reference image of the second motion vector, A reference index value that specifies a reference image of a motion vector of a block of the temporally different image may be set to a reference index value that specifies a reference image of the second motion vector. 1 may be set instead of the value of the reference index for specifying the reference image of the motion vector of the block of the temporally different image.

前記動き情報取得部(150)は、前記候補リストに含まれる第1のブロックから第1の予測方向の動き情報と、前記候補リストに含まれる第2のブロックから第2の予測方向の動き情報を取得してもよい。前記選択候補生成部(151、154)は、前記動き情報取得部(150)により取得された前記第1の予測方向の動き情報と、前記第2の予測方向の動き情報をもとに、2つの動き情報を持つ新たな選択候補を生成してもよい。   The motion information acquisition unit (150) includes motion information in the first prediction direction from the first block included in the candidate list, and motion information in the second prediction direction from the second block included in the candidate list. May be obtained. The selection candidate generation unit (151, 154) is based on the motion information in the first prediction direction and the motion information in the second prediction direction acquired by the motion information acquisition unit (150). A new selection candidate having one piece of motion information may be generated.

前記スケーリング部(162)は、前記動き情報取得部(150)により取得された前記第1の予測方向の動き情報または前記第2の予測方向の動き情報が無効である場合、有効なほうの予測方向の動き情報に含まれる動きベクトルを前記第1の動きベクトルとしてスケーリングして前記第2の動きベクトルを生成してもよい。   The scaling unit (162), when the motion information in the first prediction direction or the motion information in the second prediction direction acquired by the motion information acquisition unit (150) is invalid, the effective prediction The second motion vector may be generated by scaling a motion vector included in the direction motion information as the first motion vector.

本発明の別の態様もまた、画像復号方法である。この装置は、動き補償予測を行う画像復号方法であって、復号対象ブロックに隣接する複数の復号済みのブロックから、動きベクトルの情報と参照画像の情報とを少なくとも含む動き情報を持つ複数のブロックを選択して候補リストを生成するステップと、前記候補リストに含まれるブロックの動き情報を取得するステップと、取得された動き情報に含まれる第1の動きベクトルをスケーリングして第2の動きベクトルを生成するステップと、前記第1の動きベクトルを含む動き情報と、前記第2の動きベクトルを備えた動き情報とを有する新たな選択候補を生成するステップと、符号化側において候補リストから選択された候補を前記候補リスト内で特定するための候補特定情報を復号するステップと、復号された候補特定情報を用いて、前記候補リストに含まれる選択候補の中から1つの候補を選択するステップと、を備える。   Another aspect of the present invention is also an image decoding method. This apparatus is an image decoding method for performing motion compensation prediction, and a plurality of blocks having motion information including at least motion vector information and reference image information from a plurality of decoded blocks adjacent to a decoding target block. Generating a candidate list by selecting, a step of acquiring motion information of blocks included in the candidate list, and a second motion vector by scaling the first motion vector included in the acquired motion information , Generating a new selection candidate having motion information including the first motion vector and motion information including the second motion vector, and selecting from a candidate list on the encoding side Decoding candidate specifying information for specifying a candidate that is made in the candidate list, and using the decoded candidate specifying information, And a step of selecting one candidate from among the selection candidates included in the serial candidate list.

本発明の別の態様は、画像符号化装置である。この装置は、動き補償予測を行う画像符号化装置であって、符号化対象ブロックに隣接する複数の符号化済みのブロックから、動きベクトルの情報と参照画像の情報とを少なくとも含む動き情報を持つ複数のブロックを選択して候補リストを生成する候補リスト生成部(140)と、前記候補リストに含まれるブロックの動き情報を取得する動き情報取得部(150)と、前記動き情報取得部(150)により取得された動き情報に含まれる第1の動きベクトルをスケーリングして第2の動きベクトルを生成するスケーリング部(162)と、前記第1の動きベクトルを含む動き情報と、前記第2の動きベクトルを備えた動き情報とを有する新たな選択候補を生成する選択候補生成部(151)と、前記候補リストに含まれる複数の選択候補の中から1つを選択する選択部(141)と、前記選択部(141)により選択された候補を前記候補リスト内で特定するための候補特定情報を符号化する符号列生成部(104)と、を備える。「前記符号化対象ブロックに隣接する複数の符号化済みのブロックには」、前記符号化対象ブロックを含む画像と時間的に異なる画像のブロックが含まれてもよい。   Another aspect of the present invention is an image encoding device. This apparatus is an image encoding apparatus that performs motion compensation prediction, and has motion information including at least motion vector information and reference image information from a plurality of encoded blocks adjacent to an encoding target block. A candidate list generation unit (140) that generates a candidate list by selecting a plurality of blocks, a motion information acquisition unit (150) that acquires motion information of blocks included in the candidate list, and the motion information acquisition unit (150) ), A scaling unit (162) that generates a second motion vector by scaling the first motion vector included in the motion information acquired by (2), motion information including the first motion vector, the second motion vector, A selection candidate generation unit (151) for generating a new selection candidate having motion information including a motion vector, and a plurality of selection candidates included in the candidate list A selection unit (141) for selecting one from among, a code string generation unit (104) for encoding candidate specifying information for specifying a candidate selected by the selection unit (141) in the candidate list, . “The plurality of encoded blocks adjacent to the encoding target block” may include a block of an image that is temporally different from an image including the encoding target block.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.

本発明によれば、動きベクトルを含む動き情報の符号化効率を、より向上させることができる。   According to the present invention, it is possible to further improve the encoding efficiency of motion information including motion vectors.

画像を最大符号化ブロックに分割する例を説明するための図である。It is a figure for demonstrating the example which divides | segments an image into the largest encoding block. 図2(a)、(b)は、符号化ブロックを説明するための図である。2A and 2B are diagrams for explaining an encoded block. 図3(a)〜(d)は、予測ブロックを説明するための図である。3A to 3D are diagrams for explaining a prediction block. 予測ブロックサイズを説明するための図である。It is a figure for demonstrating a prediction block size. 予測符号化モードを説明するための図である。It is a figure for demonstrating prediction encoding mode. 図6(a)〜(d)は、動き補償予測の予測方向を説明するための図である。FIGS. 6A to 6D are diagrams for explaining the prediction direction of motion compensation prediction. 予測ブロックのシンタックスの一例を説明するための図である。It is a figure for demonstrating an example of the syntax of a prediction block. 図8(a)〜(c)は、マージインデックスのTruncated Unary符号列を説明するための図である。FIGS. 8A to 8C are diagrams for explaining the truncated unary code string of the merge index. 本発明の実施の形態1に係る動画像符号化装置の構成を説明するための図である。It is a figure for demonstrating the structure of the moving image encoder which concerns on Embodiment 1 of this invention. 図9の動き情報メモリにおける動き情報の管理方法を説明するための図である。It is a figure for demonstrating the management method of the motion information in the motion information memory of FIG. 図9の動き情報生成部の構成を説明するための図である。It is a figure for demonstrating the structure of the motion information generation part of FIG. 図9の差分ベクトル算出部の構成を説明するための図である。It is a figure for demonstrating the structure of the difference vector calculation part of FIG. 空間候補ブロック群を説明するための図である。It is a figure for demonstrating a space candidate block group. 時間候補ブロック群を説明するための図である。It is a figure for demonstrating a time candidate block group. 図11の結合動き情報決定部の構成を説明するための図である。It is a figure for demonstrating the structure of the joint motion information determination part of FIG. 図15の結合動き情報候補生成部の構成を説明するための図である。It is a figure for demonstrating the structure of the joint motion information candidate production | generation part of FIG. 図16のスケーリング結合動き情報候補生成部の構成を説明するための図である。It is a figure for demonstrating the structure of the scaling joint motion information candidate production | generation part of FIG. 候補番号管理テーブルを説明するための図である。It is a figure for demonstrating a candidate number management table. 図19(a)、(b)は、マージ候補番号からマージインデックスへの変換を説明するための図である。FIGS. 19A and 19B are diagrams for explaining conversion from a merge candidate number to a merge index. 本発明の実施の形態1に係る動画像符号化装置の符号化の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement of the encoding of the moving image encoder which concerns on Embodiment 1 of this invention. 図9の動き情報生成部の動作を説明するためのフローチャートである。10 is a flowchart for explaining an operation of a motion information generation unit in FIG. 9. 図11の差分ベクトル算出部の動作を説明するためのフローチャートである。12 is a flowchart for explaining an operation of a difference vector calculation unit in FIG. 11. 図11の結合動き情報決定部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the joint motion information determination part of FIG. 図15の結合動き情報候補生成部の動作を説明するためのフローチャートである。16 is a flowchart for explaining an operation of a combined motion information candidate generation unit in FIG. 15. 空間結合動き情報候補リストの生成の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the production | generation of a space joint motion information candidate list. 時間結合動き情報候補リストの生成の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement of the production | generation of a time combination motion information candidate list. 時間結合動き情報候補の動きベクトルmvL0t、mvL1tの算出手法を説明するための図である。It is a figure for demonstrating the calculation method of the motion vector mvL0t of a time joint motion information candidate, and mvL1t. スケーリング結合動き情報候補の生成の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the production | generation of a scaling joint motion information candidate. スケーリング結合動き情報候補のLY方向の動きベクトルの算出手法を説明するための図である。It is a figure for demonstrating the calculation method of the motion vector of the LY direction of a scaling joint motion information candidate. 本発明の実施の形態1に係る動画像復号装置の構成を説明するための図である。It is a figure for demonstrating the structure of the moving image decoding apparatus which concerns on Embodiment 1 of this invention. 図30の動き情報再生部の構成を説明するための図である。It is a figure for demonstrating the structure of the motion information reproduction | regeneration part of FIG. 図30の動きベクトル再生部の構成を説明するための図である。It is a figure for demonstrating the structure of the motion vector reproduction | regeneration part of FIG. 図31の結合動き情報再生部の構成を説明するための図である。FIG. 32 is a diagram for describing a configuration of a combined motion information reproduction unit in FIG. 31. 本発明の実施の形態1に係る動画像復号装置の復号の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the decoding operation | movement of the moving image decoding apparatus which concerns on Embodiment 1 of this invention. 図30の動き情報再生部の動作を説明するためのフローチャートである。FIG. 31 is a flowchart for explaining an operation of a motion information reproducing unit in FIG. 30. FIG. 図31の動きベクトル再生部の動作を説明するためのフローチャートである。FIG. 32 is a flowchart for explaining an operation of a motion vector reproducing unit in FIG. 31. FIG. 図31の結合動き情報再生部の動作を説明するためのフローチャートである。FIG. 32 is a flowchart for explaining an operation of a combined motion information reproducing unit in FIG. 31. FIG. 図38(a)、(b)は実施の形態1の変形例1に係る候補番号管理テーブルを説明するための図である。FIGS. 38A and 38B are diagrams for explaining a candidate number management table according to the first modification of the first embodiment. 実施の形態1の変形例1に係る別の候補番号管理テーブルの説明するための図である。FIG. 10 is a diagram for explaining another candidate number management table according to the first modification of the first embodiment. 実施の形態1の変形例3に係るスケーリング結合動き情報候補の生成の動作を説明するためのフローチャートである。12 is a flowchart for explaining an operation of generating scaling combined motion information candidates according to the third modification of the first embodiment. 実施の形態1の変形例5に係るスケーリング結合動き情報候補の生成の動作を説明するためのフローチャートである。10 is a flowchart for explaining an operation of generating scaling combined motion information candidates according to the fifth modification of the first embodiment. 実施の形態1の変形例5に係る別のスケーリング結合動き情報候補の生成の動作を説明するためのフローチャートである。18 is a flowchart for explaining an operation of generating another scaling combined motion information candidate according to the fifth modification of the first embodiment. 処理対象画像と参照画像の関係について説明するための図である。It is a figure for demonstrating the relationship between a process target image and a reference image. 実施の形態1の効果を説明するための図である。FIG. 6 is a diagram for explaining an effect of the first embodiment. 実施の形態2の候補番号管理テーブルを説明するための図である。FIG. 10 is a diagram for explaining a candidate number management table according to the second embodiment. 実施の形態2の結合動き情報候補生成部の構成を説明するための図である。10 is a diagram for explaining a configuration of a combined motion information candidate generation unit according to Embodiment 2. FIG. 図46の双結合動き情報候補生成部の構成を説明するための図である。FIG. 47 is a diagram for describing a configuration of a dual coupled motion information candidate generation unit in FIG. 46. 実施の形態2の結合動き情報候補生成部の動作を説明するためのフローチャートである。10 is a flowchart for explaining an operation of a combined motion information candidate generation unit according to the second embodiment. 図46の双結合動き情報候補生成部の詳細な動作を説明するためのフローチャートである。47 is a flowchart for explaining detailed operations of a dual-coupled motion information candidate generation unit in FIG. 46. 図47の基準方向動き情報決定部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the reference direction movement information determination part of FIG. 図47の逆方向動き情報決定部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the reverse direction motion information determination part of FIG. 双結合動き情報候補の予測方向の決定を説明するための図である。It is a figure for demonstrating determination of the prediction direction of a bi-joint motion information candidate. 実施の形態2のスケーリング結合動き情報候補の生成の動作を説明するためのフローチャートである。10 is a flowchart for explaining an operation of generating scaling combined motion information candidates according to the second embodiment. 実施の形態2の変形例4の結合動き情報候補生成部の動作を説明するためのフローチャートである。18 is a flowchart for explaining an operation of a combined motion information candidate generation unit according to Modification 4 of Embodiment 2. 実施の形態2の効果を説明するための図である。FIG. 10 is a diagram for explaining an effect of the second embodiment.

まず、本発明の実施の形態の前提となる技術を説明する。   First, a technique that is a premise of the embodiment of the present invention will be described.

現在、MPEG(Moving Picture Experts Group)などの符号化方式に準拠した装置およびシステムが普及している。そのような符号化方式では、時間軸上に連続する複数の画像をデジタル信号の情報として取り扱う。その際、効率の高い情報の放送、伝送または蓄積などを目的とし、時間方向の冗長性を利用した動き補償予測、および空間方向の冗長性を利用した離散コサイン変換などの直交変換を用いて圧縮符号化する。   Currently, apparatuses and systems that comply with an encoding method such as MPEG (Moving Picture Experts Group) are widely used. In such an encoding method, a plurality of images that are continuous on the time axis are handled as digital signal information. At that time, for the purpose of broadcasting, transmitting or storing highly efficient information, compression using motion compensation prediction using temporal redundancy and orthogonal transform such as discrete cosine transform using spatial redundancy Encode.

1995年にはMPEG−2ビデオ(ISO/IEC 13818−2)符号化方式が、汎用の映像圧縮符号化方式として制定され、DVDおよびD−VHS(登録商標)規格のデジタルVTRによる磁気テープなどの蓄積メディア、ならびにデジタル放送などのアプリケーションとして広く用いられている。   In 1995, the MPEG-2 video (ISO / IEC 13818-2) encoding method was established as a general-purpose video compression encoding method, such as a magnetic tape based on DVD and D-VHS (registered trademark) digital VTR. It is widely used as an application for storage media and digital broadcasting.

さらに、2003年に、国際標準化機構(ISO)と国際電気標準会議(IEC)のジョイント技術委員会(ISO/IEC)と、国際電気通信連合電気通信標準化部門(ITU−T)の共同作業によってMPEG−4 AVC/H.264と呼ばれる符号化方式(ISO/IECでは14496−10、ITU−TではH.264の規格番号がつけられている。以下、これをMPEG−4AVCと呼ぶ)が国際標準として制定された。   Furthermore, in 2003, joint work of the International Technical Organization (ISO) and the International Electrotechnical Commission (IEC) Joint Technical Committee (ISO / IEC) and the International Telecommunication Union Telecommunication Standardization Sector (ITU-T) -4 AVC / H. An encoding method called H.264 (the ISO / IEC has a standard number of 14496-10 and ITU-T has an H.264 standard number, hereinafter referred to as MPEG-4AVC) has been established as an international standard.

現在、国際標準化機構(ISO)と国際電気標準会議(IEC)のジョイント技術委員会(ISO/IEC)と、国際電気通信連合電気通信標準化部門(ITU−T)の共同作業によってHEVCと呼ばれる符号化方式の標準化が検討されている。   Coding currently called HEVC by the joint work of the International Technical Organization (ISO) and the International Electrotechnical Commission (IEC) Joint Technical Committee (ISO / IEC) and the International Telecommunication Union Telecommunication Standardization Sector (ITU-T) Standardization of the method is being studied.

(符号化ブロック)
本発明の実施の形態では、入力された画像信号を図1のように最大符号化ブロック単位に分割し、分割した符号化ブロックをラスタースキャン順序で処理する。図1は、画像を最大符号化ブロックに分割する例を説明するための図である。符号化ブロックは階層構造となっており、符号化効率などを考慮して順次均等に4分割することでより小さい符号化ブロックにすることができる。なお、4分割された符号化ブロックはジグザグスキャン順で符号化される。これ以上小さくすることのできない符号化ブロックを最小符号化ブロックと呼ぶ。符号化ブロックは符号化の単位となり、最大符号化ブロックも分割数が0である場合は符号化ブロックとなる。本実施の形態では、最大符号化ブロックを64画素×64画素、最小符号化ブロックを8画素×8画素とする。
(Encoding block)
In the embodiment of the present invention, an input image signal is divided into maximum coding block units as shown in FIG. 1, and the divided coding blocks are processed in a raster scan order. FIG. 1 is a diagram for explaining an example in which an image is divided into maximum coding blocks. The encoded block has a hierarchical structure, and can be made smaller encoded blocks by sequentially equally dividing into 4 in consideration of the encoding efficiency. Note that the encoded blocks divided into four are encoded in the zigzag scan order. An encoded block that cannot be further reduced is called a minimum encoded block. An encoded block is a unit of encoding, and the maximum encoded block is also an encoded block when the number of divisions is zero. In this embodiment, the maximum coding block is 64 pixels × 64 pixels, and the minimum coding block is 8 pixels × 8 pixels.

図2(a)、(b)は、符号化ブロックを説明するための図である。図2(a)の例では、符号化ブロックが10個に分割されている。CU0、CU1およびCU9は32画素×32画素の符号化ブロック、CU2、CU3およびCU8は16画素×16画素の符号化ブロック、ならびにCU4、CU5、CU6およびCU7は8画素×8画素の符号化ブロックとなっている。図2(b)の例では、符号化ブロックが1個に分割されている。   2A and 2B are diagrams for explaining an encoded block. In the example of FIG. 2A, the encoded block is divided into ten. CU0, CU1 and CU9 are 32 × 32 pixel coding blocks, CU2, CU3 and CU8 are 16 × 16 pixel coding blocks, and CU4, CU5, CU6 and CU7 are 8 × 8 pixel coding blocks. It has become. In the example of FIG. 2B, the encoded block is divided into one.

(予測ブロック)
本発明の実施の形態では、符号化ブロックはさらに予測ブロックに分割される。図3(a)〜(d)は、予測ブロックを説明するための図である。図3(a)は符号化ブロックを分割しない2N×2N、図3(b)は水平に分割する2N×N、図3(c)は垂直に分割するN×2N、および図3(d)は水平と垂直に分割するN×Nを示す。図4は、予測ブロックサイズを説明するための図である。つまり、予測ブロックサイズには、図4に示すように、CU分割数が0であって最大の予測ブロックサイズである64画素×64画素からCU分割数が3であって最小の予測ブロックサイズである4画素×4画素までの13の予測ブロックサイズが存在することになる。
(Prediction block)
In the embodiment of the present invention, the encoded block is further divided into prediction blocks. 3A to 3D are diagrams for explaining a prediction block. 3A is 2N × 2N that does not divide the encoded block, FIG. 3B is 2N × N that is horizontally divided, FIG. 3C is N × 2N that is vertically divided, and FIG. 3D. Indicates N × N divided horizontally and vertically. FIG. 4 is a diagram for explaining the prediction block size. In other words, as shown in FIG. 4, the prediction block size includes a CU division number of 0 and a maximum prediction block size of 64 pixels × 64 pixels to a CU division number of 3 and a minimum prediction block size. There are 13 predicted block sizes up to 4 pixels x 4 pixels.

本発明の実施の形態では、最大符号化ブロックを64画素×64画素、最小符号化ブロックを8画素×8画素とするが、この組み合わせに限定されない。また、予測ブロックの分割のパターンを図3(a)〜(d)としたが、1以上に分割されればよくこれに限定されない。   In the embodiment of the present invention, the maximum coding block is 64 pixels × 64 pixels and the minimum coding block is 8 pixels × 8 pixels, but the present invention is not limited to this combination. Further, although the prediction block division patterns are shown in FIGS. 3A to 3D, the division is not limited to this as long as it is divided into one or more.

(予測符号化モード)
本発明の実施の形態では、動き補償予測の予測方向や符号化ベクトル数を予測ブロックのブロックサイズで切り替えることが可能となっている。ここで、動き補償予測の予測方向と符号化ベクトル数を関連付けた予測符号化モードの一例について図5を用いて簡単に説明する。図5は、予測符号化モードを説明するための図である。
(Predictive coding mode)
In the embodiment of the present invention, the prediction direction of motion compensation prediction and the number of encoded vectors can be switched by the block size of the prediction block. Here, an example of a predictive coding mode in which the prediction direction of motion compensation prediction and the number of coding vectors are associated will be briefly described with reference to FIG. FIG. 5 is a diagram for explaining the predictive coding mode.

図5に示す予測符号化モードには、動き補償予測の予測方向が単方向であって符号化ベクトル数が1である単方向モード(UniPred)、動き補償予測の予測方向が双方向であって符号化ベクトル数が2である双方向モード(BiPred)、および動き補償予測の予測方向が単方向または双方向であって符号化ベクトル数が0であるマージモード(MERGE)がある。また、動き補償予測を実施しない予測符号化モードであるイントラモード(Intra)もある。   The prediction coding mode shown in FIG. 5 includes a unidirectional mode (UniPred) in which the prediction direction of motion compensation prediction is unidirectional and the number of coding vectors is 1, and the prediction direction of motion compensation prediction is bidirectional. There is a bidirectional mode (BiPred) in which the number of encoded vectors is 2, and a merge mode (MERGE) in which the prediction direction of motion compensation prediction is unidirectional or bidirectional and the number of encoded vectors is 0. There is also an intra mode (Intra) which is a predictive coding mode in which motion compensation prediction is not performed.

(参照画像インデックス)
本発明の実施の形態では、動き補償予測の精度向上のために、動き補償予測において複数の参照画像の中から最適な参照画像を選択することを可能とする。そのため、動き補償予測で利用した参照画像を参照画像インデックスとして符号化ベクトルとともに符号化する。動き補償予測で利用される参照画像インデックスは0以上の数値となる。
(Reference image index)
In the embodiment of the present invention, it is possible to select an optimal reference image from a plurality of reference images in motion compensation prediction in order to improve the accuracy of motion compensation prediction. Therefore, the reference image used in motion compensation prediction is encoded as a reference image index together with the encoded vector. The reference image index used in motion compensation prediction is a numerical value of 0 or more.

参照画像インデックスで選択できる複数の参照画像は参照インデックスリストで管理される。動き補償予測の予測方向が単方向であれば、参照画像インデックスは1つ符号化され、動き補償予測の予測方向が双方向であれば、それぞれの予測方向の参照画像を示す参照画像インデックスが符号化される(図5)。   A plurality of reference images that can be selected by the reference image index are managed in a reference index list. If the prediction direction of motion compensation prediction is unidirectional, one reference image index is encoded. If the prediction direction of motion compensation prediction is bidirectional, a reference image index indicating a reference image in each prediction direction is encoded. (FIG. 5).

(予測ベクトルインデックス)
HEVCでは、予測ベクトルの精度を向上させるために、複数の予測ベクトルの候補の中から最適な予測ベクトルを選択し、選択した予測ベクトルを示すための予測ベクトルインデックスを符号化することが検討されている。本発明の実施の形態では、上記の予測ベクトルインデックスを導入する。動き補償予測の予測方向が単方向であれば、予測ベクトルインデックスは1つ符号化され、動き補償予測の予測方向が双方向であれば、それぞれの予測方向の予測ベクトルを示す予測ベクトルインデックスが符号化される(図5)。
(Predicted vector index)
In HEVC, in order to improve the accuracy of a prediction vector, it is considered to select an optimal prediction vector from among a plurality of prediction vector candidates and to encode a prediction vector index for indicating the selected prediction vector. Yes. In the embodiment of the present invention, the prediction vector index is introduced. If the prediction direction of motion compensation prediction is unidirectional, one prediction vector index is encoded. If the prediction direction of motion compensation prediction is bidirectional, a prediction vector index indicating a prediction vector in each prediction direction is encoded. (FIG. 5).

(マージインデックス)
HEVCでは、さらに符号化効率を向上させるために、複数の隣接ブロックの候補及び符号化済みの別の画像の処理対象ブロックと同一位置にあるブロックの中から最適なブロックを選択し、選択したブロックを示すマージインデックスを符号化および復号することが検討されている。これは、選択されたマージインデックスの示すブロックの動き補償予測の予測方向、動きベクトル情報、参照画像情報から成る動き情報を処理対象ブロックで利用する動き補償予測技術(マージ技術)である。本発明の実施の形態では、上記のマージインデックス(マージ技術)を導入する。図5に示すように、マージインデックスは予測符号化モードがマージモードの場合に、1つ符号化される。なお、動き情報が双方向であれば、動き情報には各予測方向の動きベクトル情報と参照画像情報が含まれる。
(Merge index)
In HEVC, in order to further improve the coding efficiency, an optimum block is selected from among a plurality of adjacent block candidates and a block located at the same position as a processing target block of another coded image, and the selected block is selected. Encoding and decoding a merge index indicating This is a motion compensation prediction technique (merge technique) in which motion information including a prediction direction, motion vector information, and reference image information of a motion compensation prediction of a block indicated by a selected merge index is used in a processing target block. In the embodiment of the present invention, the above-described merge index (merge technique) is introduced. As shown in FIG. 5, one merge index is encoded when the prediction encoding mode is the merge mode. If the motion information is bidirectional, the motion information includes motion vector information and reference image information in each prediction direction.

以降、マージインデックスによって示される可能性のあるブロックの持つ動き情報を結合動き情報候補と呼び、結合動き情報候補の集合体を結合動き情報候補リストと呼ぶ。   Hereinafter, the motion information of a block that may be indicated by the merge index is referred to as a combined motion information candidate, and the aggregate of combined motion information candidates is referred to as a combined motion information candidate list.

(予測方向)
本発明の実施の形態では、動き補償予測の予測方向としてL0方向とL1方向の2つを設定する。図6(a)〜(d)は、動き補償予測の予測方向を説明するための図である。動き補償予測の予測方向について図6(a)〜(d)を用いて簡単に説明する。動き補償予測の予測方向が単方向の場合はL0方向またはL1方向のいずれかを利用する。図6(a)は単方向であってL0方向の参照画像(RefL0Pic)が符号化対象画像(CurPic)より前の時刻にある場合を示している。図6(b)は単方向であってL0方向の参照画像が符号化対象画像より後の時刻にある場合を示している。図6(a)および図6(b)のL0方向の参照画像をL1方向の参照画像(RefL1Pic)に置き換えることもできる。
(Forecast direction)
In the embodiment of the present invention, two directions of the L0 direction and the L1 direction are set as the prediction directions of the motion compensation prediction. FIGS. 6A to 6D are diagrams for explaining the prediction direction of motion compensation prediction. The prediction direction of motion compensation prediction will be briefly described with reference to FIGS. When the prediction direction of motion compensation prediction is unidirectional, either the L0 direction or the L1 direction is used. FIG. 6A shows a case where the reference image (RefL0Pic) in the unidirectional direction and the L0 direction is at a time before the encoding target image (CurPic). FIG. 6B shows a case where the reference image in the unidirectional direction and the L0 direction is at a time after the encoding target image. The reference image in the L0 direction in FIGS. 6A and 6B may be replaced with a reference image in the L1 direction (RefL1Pic).

双方向の場合はL0方向とL1方向の2つを利用してBI方向と表現する。図6(c)は双方向であってL0方向の参照画像が符号化対象画像より前の時刻にあって、L1方向の参照画像が符号化対象画像より後の時刻にある場合を示している。図6(d)は双方向であってL0方向の参照画像とL1方向の参照画像が符号化対象画像より前の時刻にある場合を示している。図6(c)および図6(d)のL0方向の参照画像をL1方向の参照画像(RefL1Pic)に、L1方向の参照画像をL0方向の参照画像(RefL0Pic)に置き換えることもできる。以上で説明したように、動き補償予測の予測方向であるL0方向とL1方向はそれぞれ時間的に前方向と後方向のいずれでも示すことができる。   In the case of bidirectional, the BI direction is expressed using two of the L0 direction and the L1 direction. FIG. 6C shows a case where the reference image in the L0 direction is at a time before the encoding target image and the reference image in the L1 direction is at a time after the encoding target image. . FIG. 6D shows a case in which the reference image in the L0 direction and the reference image in the L1 direction are at a time before the encoding target image. The reference image in the L0 direction in FIGS. 6C and 6D may be replaced with the reference image in the L1 direction (RefL1Pic), and the reference image in the L1 direction may be replaced with the reference image in the L0 direction (RefL0Pic). As described above, the L0 direction and the L1 direction, which are prediction directions of motion compensation prediction, can be indicated in either the forward direction or the backward direction in terms of time.

また、L0方向とL1方向はそれぞれに複数の参照画像から予測することが可能であって、L0方向の参照画像は参照画像リストL0にL1方向の参照画像は参照画像リストL1に登録されて、それぞれの予測方向の参照画像インデックスによって参照画像リスト中の参照画像の位置が指定されて、参照画像が確定する。以降、予測方向がL0方向であるとは参照画像リストL0に登録された参照画像と関連づけられた動き情報を利用する予測方向であり、予測方向がL1方向であるとは参照画像リストL1に登録された参照画像と関連づけられた動き情報を利用する予測方向である。   The L0 direction and the L1 direction can be predicted from a plurality of reference images, respectively. The reference image in the L0 direction is registered in the reference image list L0, and the reference image in the L1 direction is registered in the reference image list L1, The position of the reference image in the reference image list is designated by the reference image index in each prediction direction, and the reference image is determined. Hereinafter, the prediction direction is the L0 direction is a prediction direction that uses motion information associated with the reference image registered in the reference image list L0, and the prediction direction is the L1 direction is registered in the reference image list L1. The prediction direction uses motion information associated with the reference image.

(シンタックス)
本発明の実施の形態による予測ブロックのシンタックスの一例について図7を用いて説明する。予測ブロックがイントラであるかインターであるかは上位の符号化ブロックによって指定されており、図7は予測ブロックがインターの場合のシンタックスを示す。予測ブロックには、マージフラグ(merge_flag)、マージインデックス(merge_idx)、インター予測モード(inter_pred_type)、参照インデックス(ref_idx_l0とref_idx_l1)、差分ベクトル(mvd_l0[0]、mvd_l0[1]、mvd_l1[0]、mvd_l1[1])および予測ベクトルインデックス(mvp_idx_l0およびmvp_idx_l1)が設置されている。差分ベクトルの[0]は水平成分、[1]は垂直成分を示す。
(Syntax)
An example of the syntax of the prediction block according to the embodiment of the present invention will be described with reference to FIG. Whether the prediction block is intra or inter is specified by the higher-order encoding block, and FIG. 7 shows the syntax when the prediction block is inter. The prediction block includes a merge flag (merge_flag), a merge index (merge_idx), an inter prediction mode (inter_pred_type), a reference index (ref_idx_l0 and ref_idx_l1), and a difference vector (mvd_l0 [0], mvd_l0 [1], mvd_l mvd_l1 [1]) and prediction vector indexes (mvp_idx_l0 and mvp_idx_l1) are installed. [0] of the difference vector indicates a horizontal component and [1] indicates a vertical component.

ここで、ref_idx_l0とmvd_l0[0]、mvd_l0[1]、mvp_idx_l0はL0方向に関する情報であって、ref_idx_l1とmvd_l1[0]、mvd_l1[1]、mvp_idx_l1はL1方向に関する情報である。inter_pred_typeにはPred_L0(L0方向の単方向)、Pred_L1(L1方向の単方向)およびPred_BI(BIの双方向)の3種類がある。   Here, ref_idx_l0, mvd_l0 [0], mvd_l0 [1], and mvp_idx_l0 are information regarding the L0 direction, and ref_idx_l1, mvd_l1 [0], mvd_l1 [1], and mvp_idx_l1 are information regarding the L1 direction. There are three types of inter_pred_type: Pred_L0 (unidirectional in the L0 direction), Pred_L1 (unidirectional in the L1 direction), and Pred_BI (bidirectional in the BI).

(動き情報の符号量)
図7のシンタックスからもわかるように、マージモードはマージインデックス1つで動き情報を伝送できる。したがって、マージモード(マージフラグが1)と非マージモード(マージフラグが0)の予測誤差が同程度であれば、マージモードの方が動き情報を効率よく符号化できる。すなわち、マージモードの選択率を高くすることで動き情報の符号化効率を向上させることができる。
(Code amount of motion information)
As can be seen from the syntax of FIG. 7, the merge mode can transmit motion information with one merge index. Therefore, if the prediction errors in the merge mode (merge flag is 1) and non-merge mode (merge flag is 0) are about the same, the merge mode can more efficiently encode motion information. In other words, the efficiency of motion information encoding can be improved by increasing the selection rate of the merge mode.

なお、本発明の実施の形態による予測ブロックのシンタックスを図7のように設定したが、本発明の実施の形態によればマージモードの方が非マージモードより少ない情報で動き情報を符号化できればよく、これに限定されない。   The syntax of the prediction block according to the embodiment of the present invention is set as shown in FIG. 7, but according to the embodiment of the present invention, the motion information is encoded with less information in the merge mode than in the non-merge mode. What is necessary is not limited to this.

(マージインデックスの特性)
図7ではマージインデックスの復号(符号化)の前段にマージの候補数を算出する関数であるNumMergeCands()が、予測ベクトルインデックスの復号(符号化)の前段に予測ベクトルの候補数を算出する関数であるNumMvpCands()が設置されている。これらは隣接ブロックの動き情報の有効性によって、マージの候補数や予測ベクトルの候補数が予測ブロック毎に変化するために、その候補数を取得するために必要な関数である。なお、隣接ブロックの動き情報が有効であるとは、その隣接ブロックが領域外のブロックやイントラモードでないことであって、隣接ブロックの動き情報が無効であるとは、その隣接ブロックが領域外のブロックやイントラモードであることである。
(Characteristics of merge index)
In FIG. 7, NumMergeCands (), which is a function for calculating the number of merge candidates before the merge index decoding (encoding), calculates the number of prediction vector candidates before the prediction vector index decoding (encoding). NumMvpCands () is installed. These are functions necessary for obtaining the number of candidates because the number of merge candidates and the number of prediction vector candidates change for each prediction block depending on the validity of motion information of adjacent blocks. Note that the motion information of an adjacent block is valid means that the adjacent block is not a block outside the area or the intra mode, and the motion information of the adjacent block is invalid means that the adjacent block is out of the area. It is a block or intra mode.

なお、マージの候補数が1である場合はマージインデックスを復号(符号化)しない。マージの候補数が1である場合は指定しなくとも一意に決定できるためである。予測ベクトルインデックスの場合も同様である。   If the number of merge candidates is 1, the merge index is not decoded (encoded). This is because when the number of merge candidates is 1, it can be uniquely determined without specifying. The same applies to the prediction vector index.

また、マージインデックスの符号列について図8(a)〜(c)を用いて説明する。本発明の実施の形態では、マージインデックスの符号列としてTruncated Unary符号列を用いる。図8(a)はマージの候補数が2個の場合のTruncated Unary符号列によるマージインデックスの符号列を、図8(b)はマージの候補数が3個の場合のTruncated Unary符号列によるマージインデックスの符号列を、図8(c)はマージの候補数が4個の場合のTruncated Unary符号列によるマージインデックスの符号列を示す。   The merge index code string will be described with reference to FIGS. In the embodiment of the present invention, a Trunked Unary code string is used as the code string of the merge index. 8A shows a merge index code string based on a truncated unary code string when the number of merge candidates is two, and FIG. 8B shows a merge based on a truncated unary code string when the number of merge candidates is three. FIG. 8C shows a code sequence of the index, and FIG. 8C shows a code sequence of the merge index by the Truncated Unary code sequence when the number of merge candidates is four.

図8(a)〜(c)から同じマージインデックスの値を符号化する場合でもマージの候補数が少ないほどマージインデックスに割り当てられる符号ビット数が小さくなることがわかる。例えば、マージインデックスが1である場合、マージの候補数が2個であれば‘1’の1ビットであるが、マージの候補数が3個または4個であれば‘10’の2ビットとなる。   8A to 8C that even when the same merge index value is encoded, the smaller the number of merge candidates, the smaller the number of code bits assigned to the merge index. For example, if the merge index is 1, if the number of merge candidates is two, it is 1 bit of “1”, but if the number of merge candidates is 3 or 4, it is 2 bits of “10”. Become.

以上のように、マージの候補数は少ないほどマージインデックスの符号化効率は向上する。すなわち、選択率が相対的に高い候補を残し、選択率が相対的に低い候補を削減することでマージインデックスの符号化効率を向上させることができる。また、候補数が同じである場合には、小さいマージインデックスの方が符号量は少なくなるため、選択率が相対的に高い候補に小さなマージインデックスを割り当てることで符号化効率を向上させることができる。   As described above, the encoding efficiency of the merge index improves as the number of merge candidates decreases. In other words, it is possible to improve the merge index encoding efficiency by leaving candidates having a relatively high selectivity and reducing candidates having a relatively low selectivity. In addition, when the number of candidates is the same, the code amount of the smaller merge index is smaller, so that the encoding efficiency can be improved by assigning a small merge index to a candidate having a relatively high selectivity. .

(POC)
本発明の実施の形態では、画像の時間情報(距離情報)としてPOC(Picture Order Count)を用いる。POCはMPEG−4AVCで定義された画像の表示順序を示すカウンタである。画像の表示順序が1増加するとPOCも1増加する。したがって、画像間のPOC差から画像間の時間差(距離)を取得できる。
(POC)
In the embodiment of the present invention, POC (Picture Order Count) is used as time information (distance information) of an image. POC is a counter indicating the display order of images defined by MPEG-4 AVC. When the image display order is increased by 1, the POC is also increased by 1. Therefore, the time difference (distance) between images can be acquired from the POC difference between images.

(隣接ブロックの動き情報の特性)
一般的に処理対象ブロックの動き情報と処理対象ブロックに隣接するブロック(以下、隣接ブロックという)の動き情報の相関度が高いのは、処理対象ブロックと隣接ブロックが同じ動きをしている場合、例えば、処理対象ブロックと隣接ブロックを含めた領域が平行移動している場合である。また、一般的に処理対象ブロックの動き情報と隣接ブロックの動き情報の相関度は、処理対象ブロックと隣接ブロックの接している長さにも依存する。
(Characteristics of motion information of adjacent blocks)
In general, the degree of correlation between the motion information of the processing target block and the motion information of the block adjacent to the processing target block (hereinafter referred to as an adjacent block) is high when the processing target block and the adjacent block have the same motion. For example, this is a case where the region including the processing target block and the adjacent block is translated. In general, the degree of correlation between the motion information of the processing target block and the motion information of the adjacent block also depends on the length of contact between the processing target block and the adjacent block.

(別の画像の動き情報の特性)
一方、一般的に時間ダイレクトモードや空間ダイレクトモードで利用されている復号済みの別の画像上で処理対象ブロックと同一位置にあるブロック(以下、同一位置ブロックという)と、当該処理対象ブロックとの相関度が高いのは、当該同一位置ブロックおよび当該処理対象ブロックが同じ動き情報、すなわち等速運動にある場合である。
(Characteristics of motion information of another image)
On the other hand, a block in the same position as the processing target block (hereinafter referred to as the same position block) on another decoded image generally used in the temporal direct mode or the spatial direct mode, and the processing target block The case where the degree of correlation is high is a case where the same position block and the processing target block are in the same motion information, that is, in a uniform motion.

以下、図面とともに本発明の好適な実施の形態に係る動画像符号化装置、動画像符号化方法および動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法および動画像復号プログラムの詳細について説明する。なお、図面の説明において同一要素には同一符号を付与して重複する説明を省略する。   Hereinafter, with reference to the drawings, details of a moving image encoding apparatus, a moving image encoding method, a moving image encoding program, a moving image decoding apparatus, a moving image decoding method, and a moving image decoding program according to a preferred embodiment of the present invention will be described. explain. In the description of the drawings, the same elements are denoted by the same reference numerals and redundant description is omitted.

[実施の形態1]
(動画像符号化装置100の構成)
図9は本発明の実施の形態1に係る動画像符号化装置100の構成を示す。動画像符号化装置100は、動画像信号を、動き補償予測を実施する予測ブロック単位で符号化する装置である。符号化ブロックの分割、予測ブロックサイズの決定、予測符号化モードの決定は図示しない上位の符号化制御部で決定されているものとする。
[Embodiment 1]
(Configuration of moving picture coding apparatus 100)
FIG. 9 shows a configuration of moving picture coding apparatus 100 according to Embodiment 1 of the present invention. The moving image encoding apparatus 100 is an apparatus that encodes a moving image signal in units of prediction blocks for performing motion compensated prediction. It is assumed that the encoding block division, the prediction block size determination, and the prediction encoding mode determination are determined by a higher-level encoding control unit (not shown).

動画像符号化装置100は、CPU(Central Processing Unit)、フレームメモリ、ハードディスクなどを備える情報処理装置などのハードウェアにより実現される。動画像符号化装置100は、上記の構成要素が動作することにより、以下に説明する機能的な構成要素を実現する。なお、処理対象の予測ブロックの位置情報、予測ブロックサイズおよび動き補償予測の予測方向に関しては動画像符号化装置100内で共有していることとし、図示しない。   The moving image encoding apparatus 100 is realized by hardware such as an information processing apparatus including a CPU (Central Processing Unit), a frame memory, and a hard disk. The moving image encoding apparatus 100 realizes functional components described below by operating the above components. Note that the position information of the prediction block to be processed, the prediction block size, and the prediction direction of motion compensated prediction are assumed to be shared in the video encoding device 100 and are not shown.

実施の形態1の動画像符号化装置100は、予測ブロック画像取得部101、減算部102、予測誤差符号化部103、符号列生成部104、予測誤差復号部105、動き補償部106、加算部107、動きベクトル検出部108、動き情報生成部109、フレームメモリ110、および動き情報メモリ111を含む。   The moving image encoding apparatus 100 according to Embodiment 1 includes a prediction block image acquisition unit 101, a subtraction unit 102, a prediction error encoding unit 103, a code string generation unit 104, a prediction error decoding unit 105, a motion compensation unit 106, and an addition unit. 107, a motion vector detection unit 108, a motion information generation unit 109, a frame memory 110, and a motion information memory 111.

(動画像符号化装置100の機能)
以下、各部の機能について説明する。予測ブロック画像取得部101は、予測ブロックの位置情報と予測ブロックサイズに基づいて、端子10より供給される画像信号から処理対象の予測ブロックの画像信号を取得し、予測ブロックの画像信号を減算部102、動きベクトル検出部108および動き情報生成部109に供給する。
(Function of moving picture coding apparatus 100)
Hereinafter, functions of each unit will be described. The prediction block image acquisition unit 101 acquires the image signal of the prediction block to be processed from the image signal supplied from the terminal 10 based on the position information and the prediction block size of the prediction block, and subtracts the image signal of the prediction block 102, and supplied to the motion vector detection unit 108 and the motion information generation unit 109.

減算部102は、予測ブロック画像取得部101より供給される画像信号と動き補償部106より供給される予測信号を減算して予測誤差信号を算出し、当該予測誤差信号を予測誤差符号化部103に供給する。   The subtraction unit 102 subtracts the image signal supplied from the prediction block image acquisition unit 101 and the prediction signal supplied from the motion compensation unit 106 to calculate a prediction error signal, and calculates the prediction error signal to the prediction error encoding unit 103. To supply.

予測誤差符号化部103は、減算部102より供給される予測誤差信号に対して、量子化や直交変換などの処理を行って予測誤差符号化データを生成し、当該予測誤差符号化データを符号列生成部104および予測誤差復号部105に供給する。   The prediction error encoding unit 103 performs processing such as quantization and orthogonal transformation on the prediction error signal supplied from the subtraction unit 102 to generate prediction error encoded data, and encodes the prediction error encoded data. The data is supplied to the column generation unit 104 and the prediction error decoding unit 105.

符号列生成部104は、予測誤差符号化部103より供給される予測誤差符号化データ、ならびに動き情報生成部109より供給されるマージフラグ、マージ候補番号、動き補償予測の予測方向、参照画像インデックス、差分ベクトルおよび予測ベクトルインデックスを、動き補償予測の予測方向とともにシンタックスに従ってエントロピー符号化して符号列を生成し、当該符号列を端子11に供給する。   The code string generation unit 104 includes the prediction error encoded data supplied from the prediction error encoding unit 103, the merge flag supplied from the motion information generation unit 109, the merge candidate number, the prediction direction of motion compensation prediction, and the reference image index. The difference vector and the prediction vector index are entropy-encoded according to the syntax together with the prediction direction of motion compensation prediction to generate a code string, and the code string is supplied to the terminal 11.

ここで、マージ候補番号はマージインデックスに変換されて符号列を生成する。ここで、マージ候補番号は選択された結合動き情報候補を示す番号である。マージ候補番号からマージインデックスへの変換については後述する。なお、実施の形態1では上記のようにマージインデックスや予測ベクトルインデックスの符号化にTruncated Unary符号列を利用したが、候補数が小さいほど少ないビットで符号化できる符号列であればこれに限定されない。   Here, the merge candidate number is converted into a merge index to generate a code string. Here, the merge candidate number is a number indicating the selected combined motion information candidate. The conversion from the merge candidate number to the merge index will be described later. In the first embodiment, a truncated unity code string is used for encoding a merge index and a prediction vector index as described above. However, the code string is not limited to this as long as the number of candidates is small and the code string can be encoded with fewer bits. .

予測誤差復号部105は、予測誤差符号化部103より供給される予測誤差符号化データに対して、逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し、当該予測誤差信号を加算部107に供給する。   The prediction error decoding unit 105 performs a process such as inverse quantization or inverse orthogonal transform on the prediction error encoded data supplied from the prediction error encoding unit 103 to generate a prediction error signal, and the prediction error signal Is supplied to the adder 107.

動き補償部106は、動き情報生成部109より供給される参照画像インデックスで示されるフレームメモリ110内の参照画像を、動き情報生成部109より供給される動きベクトルに基づき動き補償して予測信号を生成する。予測方向が双方向であれば、L0方向とL1方向の予測信号を平均したものを予測信号とする。   The motion compensation unit 106 performs motion compensation on the reference image in the frame memory 110 indicated by the reference image index supplied from the motion information generation unit 109 based on the motion vector supplied from the motion information generation unit 109, and generates a prediction signal. Generate. If the prediction direction is bidirectional, the prediction signal is obtained by averaging the prediction signals in the L0 direction and the L1 direction.

加算部107は、予測誤差復号部105より供給される予測誤差信号と、動き補償部106より供給される予測信号を加算して復号画像信号を生成し、当該復号画像信号をフレームメモリ110に供給する。   The addition unit 107 adds the prediction error signal supplied from the prediction error decoding unit 105 and the prediction signal supplied from the motion compensation unit 106 to generate a decoded image signal, and supplies the decoded image signal to the frame memory 110. To do.

動きベクトル検出部108は、予測ブロック画像取得部101より供給される画像信号および複数の参照画像に相当する画像信号から、動きベクトルおよび参照画像を示す参照画像インデックスを検出し、当該動きベクトルおよび当該参照画像インデックスを動き情報生成部109に供給する。なお、予測方向が双方向であれば、L0方向とL1方向の動きベクトルと参照画像インデックスを検出する。   The motion vector detection unit 108 detects a motion vector and a reference image index indicating the reference image from the image signal supplied from the prediction block image acquisition unit 101 and an image signal corresponding to a plurality of reference images, and the motion vector and the motion vector The reference image index is supplied to the motion information generation unit 109. If the prediction direction is bidirectional, motion vectors and reference image indexes in the L0 direction and the L1 direction are detected.

一般的な動きベクトルの検出方法は、対象画像の画像信号と同一位置より所定の移動量だけ移動させた参照画像に相当する画像信号について誤差評価値を算出し、誤差評価値が最小となる移動量を動きベクトルとする。誤差評価値としては、絶対差分和を示すSAD(Sum of Absolute Difference)や二乗誤差平均を示すMSE(Mean Square Error)などを利用することが可能である。   A general motion vector detection method calculates an error evaluation value for an image signal corresponding to a reference image moved by a predetermined movement amount from the same position as the image signal of the target image, and moves to minimize the error evaluation value. Let the amount be a motion vector. As the error evaluation value, SAD (Sum of Absolute Difference) indicating the sum of absolute differences, MSE (Mean Square Error) indicating the mean square error, or the like can be used.

動き情報生成部109は、動きベクトル検出部108より供給される動きベクトルと参照画像インデックス、動き情報メモリ111より供給される候補ブロック群、およびフレームメモリ110内の参照画像インデックスで示される参照画像から、マージ候補番号、または差分ベクトルおよび予測ベクトルインデックスを生成し、マージフラグ、マージ候補番号、参照画像インデックス、差分ベクトルおよび予測ベクトルインデックスを必要に応じて、符号列生成部104、動き補償部106および動き情報メモリ111に供給する。動き情報生成部109の詳細な構成については後述する。   The motion information generation unit 109 uses the motion vector and reference image index supplied from the motion vector detection unit 108, the candidate block group supplied from the motion information memory 111, and the reference image indicated by the reference image index in the frame memory 110. , A merge candidate number, or a difference vector and a prediction vector index, and a code flag generation unit 104, a motion compensation unit 106, and a merge flag, a merge candidate number, a reference image index, a difference vector, and a prediction vector index The motion information memory 111 is supplied. A detailed configuration of the motion information generation unit 109 will be described later.

フレームメモリ110は、加算部107より供給される復号画像信号を記憶する。また、画像全体の復号が完了した復号画像については参照画像として、1以上の所定の画像数を記憶する。フレームメモリ110は、記憶した参照画像信号を動き補償部106および動き情報生成部109に供給する。参照画像を記憶する記憶領域はFIFO(First In First Out)方式で制御される。   The frame memory 110 stores the decoded image signal supplied from the adding unit 107. In addition, for a decoded image in which decoding of the entire image is completed, a predetermined number of images of 1 or more is stored as a reference image. The frame memory 110 supplies the stored reference image signal to the motion compensation unit 106 and the motion information generation unit 109. A storage area for storing the reference image is controlled by a FIFO (First In First Out) method.

動き情報メモリ111は、動き情報生成部109より供給される動き情報を最小の予測ブロックサイズ単位で所定の画像数、記憶する。処理対象の予測ブロックの隣接ブロックの動き情報を空間候補ブロック群とする。   The motion information memory 111 stores the motion information supplied from the motion information generation unit 109 for a predetermined number of images in units of the minimum predicted block size. The motion information of the adjacent block of the prediction block to be processed is set as a space candidate block group.

また、動き情報メモリ111は、処理対象の予測ブロックと同一位置にあるColPic上のブロックとその周辺ブロックの動き情報を時間候補ブロック群とする。動き情報メモリ111は、空間候補ブロック群と時間候補ブロック群を候補ブロック群として動き情報生成部109に供給する。動き情報メモリ111は、フレームメモリ110と同期しており、FIFO(First In First Out)方式で制御される。   In addition, the motion information memory 111 sets the motion information of the block on the ColPic located in the same position as the prediction block to be processed and its neighboring blocks as a time candidate block group. The motion information memory 111 supplies the spatial candidate block group and the temporal candidate block group to the motion information generation unit 109 as candidate block groups. The motion information memory 111 is synchronized with the frame memory 110 and is controlled by a FIFO (First In First Out) method.

ここで、ColPicとは、処理対象の予測ブロックとは別の復号済みの画像であって、フレームメモリ110に参照画像として記憶されている画像を指す。実施の形態1では、ColPicは直前に復号した参照画像とする。なお、実施の形態1では、ColPicは直前に復号した参照画像としたが、符号化済みの画像であればよく、例えば、表示順で直前の参照画像や表示順で直後の参照画像でもよく、符号化ストリーム中で指定することも可能である。   Here, ColPic refers to a decoded image different from the prediction block to be processed and stored in the frame memory 110 as a reference image. In Embodiment 1, ColPic is a reference image decoded immediately before. In Embodiment 1, ColPic is a reference image decoded immediately before. However, it may be an encoded image, for example, a reference image immediately before in display order or a reference image immediately after in display order may be used. It can also be specified in the encoded stream.

ここで、動き情報メモリ111における動き情報の管理方法について図10を用いて説明する。動き情報は最小の予測ブロック単位で各メモリエリアに記憶される。図10は処理対象の予測ブロックサイズが16画素×16画素である場合の様子を示している。この場合、この予測ブロックの動き情報は図10の斜線部の16個のメモリエリアに格納される。   Here, a method of managing motion information in the motion information memory 111 will be described with reference to FIG. The motion information is stored in each memory area in units of the smallest prediction block. FIG. 10 shows a state where the predicted block size to be processed is 16 pixels × 16 pixels. In this case, the motion information of the prediction block is stored in 16 memory areas indicated by hatching in FIG.

なお、予測符号化モードがイントラモードである場合、L0方向とL1方向の動きベクトルとして(0,0)が記憶され、L0方向とL1方向の参照画像インデックスとして「−1」が記憶される。なお、参照画像インデックスの「−1」は動き補償予測を実施しないモードであることが判定できればどのような値でもよい。これ以降は特に断らない限り単にブロックと表現する場合には、最小の予測ブロック単位のことを示すこととする。また、領域外のブロックである場合もイントラモードと同様に、L0方向とL1方向の動きベクトルとして(0,0)、L0方向とL1方向の参照画像インデックスとして「−1」が記憶されている。LX方向(Xは0または1)が有効であるとはLX方向の参照画像インデックスが0以上であることで、LX方向が無効である(有効でない)とはLX方向の参照画像インデックスが「−1」であることである。   When the predictive coding mode is the intra mode, (0, 0) is stored as the motion vector in the L0 direction and the L1 direction, and “−1” is stored as the reference image index in the L0 direction and the L1 direction. The reference image index “−1” may be any value as long as it can be determined that the motion compensation prediction is not performed. From this point onward, unless expressed otherwise, the term “block” refers to the smallest predicted block unit when expressed simply as a block. Also, in the case of a block outside the area, as in the intra mode, (0, 0) is stored as the motion vector in the L0 direction and the L1 direction, and “−1” is stored as the reference image index in the L0 direction and the L1 direction. . The LX direction (X is 0 or 1) is valid when the reference image index in the LX direction is 0 or more, and the LX direction is invalid (not valid). The reference image index in the LX direction is “− 1 ”.

続いて、動き情報生成部109の詳細な構成について図11を用いて説明する。図11は動き情報生成部109の構成を示す。動き情報生成部109は、差分ベクトル算出部120、結合動き情報決定部121および予測符号化モード決定部122を含む。端子12は動き情報メモリ111に、端子13は動きベクトル検出部108に、端子14はフレームメモリ110に、端子15は予測ブロック画像取得部101に、端子16は符号列生成部104に、端子50は動き補償部106に、および端子51は動き情報メモリ111にそれぞれ接続されている。   Next, a detailed configuration of the motion information generation unit 109 will be described with reference to FIG. FIG. 11 shows the configuration of the motion information generation unit 109. The motion information generation unit 109 includes a difference vector calculation unit 120, a combined motion information determination unit 121, and a predictive coding mode determination unit 122. The terminal 12 is in the motion information memory 111, the terminal 13 is in the motion vector detection unit 108, the terminal 14 is in the frame memory 110, the terminal 15 is in the prediction block image acquisition unit 101, the terminal 16 is in the code string generation unit 104, and the terminal 50 Are connected to the motion compensation unit 106, and the terminal 51 is connected to the motion information memory 111, respectively.

以下、各部の機能について説明する。差分ベクトル算出部120は、端子12より供給される候補ブロック群、端子13より供給される動きベクトルと参照画像インデックス、端子14より供給される参照画像、および端子15より供給される画像信号から予測ベクトルインデックスを決定して、差分ベクトルおよびレート歪み評価値を算出する。そして、当該参照画像インデックス、当該動きベクトル、当該差分ベクトル、当該予測ベクトルインデックス、および当該レート歪み評価値を予測符号化モード決定部122に供給する。差分ベクトル算出部120の詳細な構成については後述する。   Hereinafter, functions of each unit will be described. The difference vector calculation unit 120 predicts from the candidate block group supplied from the terminal 12, the motion vector and reference image index supplied from the terminal 13, the reference image supplied from the terminal 14, and the image signal supplied from the terminal 15. A vector index is determined, and a difference vector and a rate distortion evaluation value are calculated. Then, the reference image index, the motion vector, the difference vector, the prediction vector index, and the rate distortion evaluation value are supplied to the prediction encoding mode determination unit 122. The detailed configuration of the difference vector calculation unit 120 will be described later.

結合動き情報決定部121は、端子12より供給される候補ブロック群、端子14より供給される参照画像、および端子15より供給される画像信号から結合動き情報候補リストを生成する。そして、結合動き情報決定部121は、生成した結合動き情報候補リストの中から結合動き情報候補を選択してマージ候補番号を決定すると共に、レート歪み評価値を算出して、当該結合動き情報候補の動き情報、当該マージ候補番号および当該レート歪み評価値を予測符号化モード決定部122に供給する。結合動き情報決定部121の詳細な構成については後述する。   The combined motion information determination unit 121 generates a combined motion information candidate list from the candidate block group supplied from the terminal 12, the reference image supplied from the terminal 14, and the image signal supplied from the terminal 15. Then, the combined motion information determination unit 121 selects a combined motion information candidate from the generated combined motion information candidate list, determines a merge candidate number, calculates a rate distortion evaluation value, and combines the combined motion information candidate. Motion information, the merge candidate number, and the rate distortion evaluation value are supplied to the predictive coding mode determination unit 122. A detailed configuration of the combined motion information determination unit 121 will be described later.

予測符号化モード決定部122は、差分ベクトル算出部120より供給されるレート歪み評価値と、結合動き情報決定部121より供給されるレート歪み評価値とを比較する。前者の方が後者未満の場合は、マージフラグを「0」に設定する。予測符号化モード決定部122は、マージフラグ、および差分ベクトル算出部120より供給される参照画像インデックスと差分ベクトルと予測ベクトルインデックスを端子16に供給し、差分ベクトル算出部120より供給される動きベクトルと参照画像インデックスを端子50および端子51に供給する。   The predictive coding mode determination unit 122 compares the rate distortion evaluation value supplied from the difference vector calculation unit 120 with the rate distortion evaluation value supplied from the combined motion information determination unit 121. If the former is less than the latter, the merge flag is set to “0”. The predictive coding mode determination unit 122 supplies the merge flag, the reference image index, the difference vector, and the prediction vector index supplied from the difference vector calculation unit 120 to the terminal 16, and the motion vector supplied from the difference vector calculation unit 120. The reference image index is supplied to the terminal 50 and the terminal 51.

後者が前者以下の場合は、マージフラグを1に設定する。予測符号化モード決定部122は、マージフラグおよび結合動き情報決定部121より供給されるマージ候補番号を端子16に供給し、結合動き情報決定部121より供給される動き情報の動きベクトルと参照画像インデックスを端子50および端子51に供給する。なお、レート歪み評価値の具体的な算出方法は本発明の主眼ではないため詳細は省略するが、レート歪み評価値が小さいほど符号化効率は高くなる特性を持つ評価値である。   If the latter is less than or equal to the former, the merge flag is set to 1. The predictive coding mode determination unit 122 supplies the merge flag and the merge candidate number supplied from the combined motion information determination unit 121 to the terminal 16, and the motion vector of the motion information supplied from the combined motion information determination unit 121 and the reference image The index is supplied to the terminal 50 and the terminal 51. Although a specific calculation method of the rate distortion evaluation value is not the main point of the present invention, the details thereof will be omitted. However, the evaluation value has a characteristic that the encoding efficiency increases as the rate distortion evaluation value decreases.

続いて、差分ベクトル算出部120の詳細な構成について図12を用いて説明する。図12は差分ベクトル算出部120の構成を示す。差分ベクトル算出部120は、予測ベクトル候補リスト生成部130、予測ベクトル決定部131および減算部132を含む。端子17は予測符号化モード決定部122に接続されている。   Next, a detailed configuration of the difference vector calculation unit 120 will be described with reference to FIG. FIG. 12 shows the configuration of the difference vector calculation unit 120. The difference vector calculation unit 120 includes a prediction vector candidate list generation unit 130, a prediction vector determination unit 131, and a subtraction unit 132. The terminal 17 is connected to the predictive coding mode determination unit 122.

予測ベクトル候補リスト生成部130は、実施の形態1による動画像符号化装置100により生成された符号列を復号する動画像復号装置200(図30)にも同様に設置されて、動画像符号化装置100と動画像復号装置200にて矛盾のない予測ベクトル候補リストが生成される。   The prediction vector candidate list generation unit 130 is also installed in the same manner in the video decoding device 200 (FIG. 30) that decodes the code sequence generated by the video encoding device 100 according to the first embodiment. The apparatus 100 and the moving picture decoding apparatus 200 generate a prediction vector candidate list having no contradiction.

以下、各部の機能について説明する。予測ベクトル候補リスト生成部130は、端子12より供給される候補ブロック群から領域外である候補ブロックや、イントラモードである候補ブロックを削除する。さらに重複している動きベクトルを持つ候補ブロックが複数存在する場合には1つの候補ブロックを残して、残りを削除する。予測ベクトル候補リスト生成部130は、これら削除後の候補ブロックから予測ベクトル候補リストを生成し、予測ベクトル候補リストを予測ベクトル決定部131に供給する。このようにして生成された予測ベクトル候補リストには重複のない予測ベクトル候補が1つ以上含まれるとする。例えば、動きベクトルを持つ候補ブロックが1つもない場合には、ベクトル(0,0)が予測ベクトル候補リストに追加される。なお、予測方向が双方向であれば、L0方向とL1方向について予測ベクトル候補リストを生成して供給する。   Hereinafter, functions of each unit will be described. The prediction vector candidate list generation unit 130 deletes candidate blocks outside the region and candidate blocks in the intra mode from the candidate block group supplied from the terminal 12. Further, when there are a plurality of candidate blocks having overlapping motion vectors, one candidate block is left and the rest is deleted. The prediction vector candidate list generation unit 130 generates a prediction vector candidate list from these candidate blocks after deletion, and supplies the prediction vector candidate list to the prediction vector determination unit 131. It is assumed that the prediction vector candidate list generated in this way includes one or more prediction vector candidates without duplication. For example, when there is no candidate block having a motion vector, the vector (0, 0) is added to the prediction vector candidate list. If the prediction direction is bidirectional, a prediction vector candidate list is generated and supplied for the L0 direction and the L1 direction.

予測ベクトル決定部131は、予測ベクトル候補リスト生成部130より供給される予測ベクトル候補リストの中から、端子13より供給される動きベクトルに最適な予測ベクトルを選択する。予測ベクトル決定部131は、選択した予測ベクトルを減算部132に供給するとともに、参照画像インデックスおよび選択された予測ベクトルを示す情報である予測ベクトルインデックスを端子17に供給する。なお、予測方向が双方向であれば、L0方向とL1方向について最適な予測ベクトルを選択して供給する。   The prediction vector determination unit 131 selects an optimal prediction vector for the motion vector supplied from the terminal 13 from the prediction vector candidate list supplied from the prediction vector candidate list generation unit 130. The prediction vector determination unit 131 supplies the selected prediction vector to the subtraction unit 132, and supplies a reference vector index and a prediction vector index that is information indicating the selected prediction vector to the terminal 17. If the prediction direction is bidirectional, an optimal prediction vector is selected and supplied for the L0 direction and the L1 direction.

ここで、予測ベクトル候補が持つ動きベクトルに基づいて、端子14より供給される参照画像と端子15より供給される画像信号から予測誤差量がそれぞれ算出される。そして、参照画像インデックス、差分ベクトルおよび予測ベクトルインデックスの符号量と、上述の予測誤差量とからレート歪み評価値が算出されて、レート歪み評価値が最小となる予測ベクトル候補が最適な予測ベクトルとして選択される。   Here, based on the motion vector of the prediction vector candidate, the prediction error amount is calculated from the reference image supplied from the terminal 14 and the image signal supplied from the terminal 15. Then, the rate distortion evaluation value is calculated from the code amount of the reference image index, the difference vector, and the prediction vector index, and the above-described prediction error amount, and the prediction vector candidate that minimizes the rate distortion evaluation value is determined as the optimal prediction vector. Selected.

減算部132は、端子13より供給される動きベクトルから予測ベクトル決定部131より供給される予測ベクトルを減算して差分ベクトルを算出し、当該差分ベクトルを端子17に供給する。なお、予測方向が双方向であれば、L0方向とL1方向について差分ベクトルを算出して供給する。   The subtraction unit 132 subtracts the prediction vector supplied from the prediction vector determination unit 131 from the motion vector supplied from the terminal 13 to calculate a difference vector, and supplies the difference vector to the terminal 17. If the prediction direction is bidirectional, a difference vector is calculated and supplied for the L0 direction and the L1 direction.

(予測ベクトル候補リスト生成部130に供給される候補ブロック群)
ここで、予測ベクトル候補リスト生成部130に供給される候補ブロック群について図13と図14を用いて説明する。候補ブロック群には空間候補ブロック群と時間候補ブロック群が含まれる。
(Candidate block group supplied to prediction vector candidate list generation unit 130)
Here, the candidate block group supplied to the prediction vector candidate list production | generation part 130 is demonstrated using FIG. 13 and FIG. The candidate block group includes a spatial candidate block group and a temporal candidate block group.

図13は処理対象の予測ブロックサイズが16画素×16画素である場合の処理対象の予測ブロックの隣接ブロックを示す。実施の形態1では、空間候補ブロック群として、図13に示すブロックA1、ブロックC、ブロックD、ブロックB1およびブロックEの5ブロックとする。ここでは、空間候補ブロック群をブロックA1、ブロックC、ブロックD、ブロックB1およびブロックEの5ブロックとしたが、空間候補ブロック群は、処理対象の予測ブロックに隣接する少なくとも1以上の処理済みのブロックであればよく、これらに限定されない。例えば、ブロックA1、ブロックA2、ブロックA3、ブロックA4、ブロックB1、ブロックB2、ブロックB3、ブロックB4、ブロックC、ブロックDおよびブロックEの全てを空間候補ブロックとしてもよい。   FIG. 13 shows adjacent blocks of a prediction block to be processed when the prediction block size to be processed is 16 pixels × 16 pixels. In the first embodiment, the space candidate block group is assumed to be five blocks of block A1, block C, block D, block B1, and block E shown in FIG. Here, the spatial candidate block group is five blocks of block A1, block C, block D, block B1, and block E, but the spatial candidate block group is at least one or more processed adjacent to the prediction block to be processed. Any block may be used, and the present invention is not limited to these. For example, all of block A1, block A2, block A3, block A4, block B1, block B2, block B3, block B4, block C, block D, and block E may be spatial candidate blocks.

次に、時間候補ブロック群について図14を用いて説明する。図14は処理対象の予測ブロックサイズが16画素×16画素である場合の処理対象の予測ブロックと同一位置にあるColPic上の予測ブロック内のブロックとその周辺ブロックを示す。実施の形態1では、時間候補ブロック群として、図14に示すブロックHとブロックI6の2ブロックとする。   Next, the time candidate block group will be described with reference to FIG. FIG. 14 shows a block in a prediction block on ColPic and its peripheral blocks at the same position as the prediction block to be processed when the prediction block size to be processed is 16 pixels × 16 pixels. In the first embodiment, the time candidate block group includes two blocks, block H and block I6 shown in FIG.

ここでは、時間候補ブロック群をColPic上のブロックHとブロックI6の2ブロックとしたが、時間候補ブロック群は、処理対象の予測ブロックとは別の復号済みの画像上の少なくとも1以上のブロックであればよく、これらに限定されない。例えば、ColPic上のブロックI1からブロックI16、ブロックA1からブロックA4、ブロックB1からブロックB4、ブロックC、ブロックD、ブロックE、ブロックF1からブロックF4、ブロックG1からブロックG4およびブロックHの全てを時間候補ブロックとしてもよい。以降特に断らない限り、ブロックA4をブロックA、ブロックB4をブロックBと表記する。以降特に断らない限り、ブロックHとブロックI6のブロックを時間ブロックと表記する。   Here, the time candidate block group is two blocks of block H and block I6 on ColPic, but the time candidate block group is at least one block on a decoded image different from the prediction block to be processed. There is no limitation to these. For example, all of block I1 to block I16, block A1 to block A4, block B1 to block B4, block C, block D, block E, block F1 to block F4, block G1 to block G4 and block H on ColPic It may be a candidate block. Hereinafter, unless otherwise specified, block A4 is referred to as block A, and block B4 is referred to as block B. Hereinafter, unless otherwise specified, blocks H and I6 are referred to as time blocks.

続いて、結合動き情報決定部121の詳細な構成について図15を用いて説明する。図15は結合動き情報決定部121の構成を示す。結合動き情報決定部121は、結合動き情報候補生成部140および結合動き情報選択部141を含む。結合動き情報候補生成部140は、実施の形態1による動画像符号化装置100により生成された符号列を復号する動画像復号装置200にも同様に設置されて、動画像符号化装置100と動画像復号装置200にて矛盾のない結合動き情報リストが生成される。   Next, a detailed configuration of the combined motion information determination unit 121 will be described with reference to FIG. FIG. 15 shows the configuration of the combined motion information determination unit 121. The combined motion information determination unit 121 includes a combined motion information candidate generation unit 140 and a combined motion information selection unit 141. The combined motion information candidate generation unit 140 is also installed in the moving image decoding apparatus 200 that decodes the code sequence generated by the moving image encoding apparatus 100 according to Embodiment 1, and is combined with the moving image encoding apparatus 100 and the moving image. The image decoding apparatus 200 generates a combined motion information list that is consistent.

以下、各部の機能について説明する。結合動き情報候補生成部140は、端子12より供給される候補ブロック群から結合動き情報候補リストを生成し、当該結合動き情報候補リストを結合動き情報選択部141に供給する。結合動き情報候補生成部140の詳細な構成については後述する。   Hereinafter, functions of each unit will be described. The combined motion information candidate generation unit 140 generates a combined motion information candidate list from the candidate block group supplied from the terminal 12, and supplies the combined motion information candidate list to the combined motion information selection unit 141. A detailed configuration of the combined motion information candidate generation unit 140 will be described later.

結合動き情報選択部141は、結合動き情報候補生成部140より供給される結合動き情報候補リストの中から、最適な結合動き情報候補を選択し、選択された結合動き情報候補を示す情報であるマージ候補番号を端子17に供給する。   The combined motion information selection unit 141 is information that selects an optimal combined motion information candidate from the combined motion information candidate list supplied from the combined motion information candidate generation unit 140 and indicates the selected combined motion information candidate. The merge candidate number is supplied to the terminal 17.

ここで、結合動き情報候補の予測方向、動きベクトルおよび参照画像インデックスに基づいて得られる端子14より供給される参照画像と、端子15より供給される画像信号とから予測誤差量が算出される。マージ候補番号の符号量と、当該予測誤差量とからレート歪み評価値が算出されて、レート歪み評価値が最小となる結合動き情報候補が最適な結合動き情報候補として選択される。   Here, the prediction error amount is calculated from the reference image supplied from the terminal 14 obtained based on the prediction direction, the motion vector, and the reference image index of the combined motion information candidate, and the image signal supplied from the terminal 15. A rate distortion evaluation value is calculated from the code amount of the merge candidate number and the prediction error amount, and the combined motion information candidate that minimizes the rate distortion evaluation value is selected as the optimal combined motion information candidate.

ここで、結合動き情報候補生成部140に供給される候補ブロック群について図13と図14を用いて説明する。候補ブロック群には空間候補ブロック群と時間候補ブロック群が含まれる。実施の形態1では、空間候補ブロック群を図13に示すブロックA4、ブロックB4、ブロックCおよびブロックEの4ブロックとする。ここでは、空間候補ブロック群をブロックA4、ブロックB4、ブロックCおよびブロックEの4ブロックとしたが、空間候補ブロック群は、処理対象の予測ブロックに隣接する少なくとも1以上の処理済みのブロックであればよく、ブロックの数や位置はこれらに限定されない。例えば、空間候補ブロック群をブロックA1、ブロックB1、ブロックC、ブロックEおよびブロックDの5ブロックとしてもよい。   Here, the candidate block group supplied to the combined motion information candidate generation unit 140 will be described with reference to FIGS. 13 and 14. The candidate block group includes a spatial candidate block group and a temporal candidate block group. In the first embodiment, the space candidate block group is assumed to be four blocks of block A4, block B4, block C, and block E shown in FIG. Here, the spatial candidate block group is four blocks of block A4, block B4, block C, and block E, but the spatial candidate block group may be at least one or more processed blocks adjacent to the prediction block to be processed. The number and position of blocks are not limited to these. For example, the space candidate block group may be five blocks of block A1, block B1, block C, block E, and block D.

次に、時間候補ブロック群について図14を用いて説明する。実施の形態1では、時間候補ブロック群として、図14に示すブロックHとブロックI6の2ブロックとする。ここでは、時間候補ブロック群を予測ベクトル候補リスト生成部130に供給される時間候補ブロック群と同じとしたが、時間候補ブロック群は、処理対象の予測ブロックとは別の復号済みの画像上のブロックであればよく、ブロックの数や位置はこれらに限定されない。   Next, the time candidate block group will be described with reference to FIG. In the first embodiment, the time candidate block group includes two blocks, block H and block I6 shown in FIG. Here, the time candidate block group is the same as the time candidate block group supplied to the prediction vector candidate list generation unit 130, but the time candidate block group is on a decoded image different from the prediction block to be processed. Any block may be used, and the number and position of the blocks are not limited to these.

続いて、結合動き情報候補生成部140の詳細な構成について図16を用いて説明する。図16は結合動き情報候補生成部140の構成を示す。端子18は結合動き情報選択部141に接続されている。結合動き情報候補生成部140は、単結合動き情報候補リスト生成部150、スケーリング結合動き情報候補生成部151および結合動き情報候補リスト削減部152を含む。   Next, a detailed configuration of the combined motion information candidate generation unit 140 will be described with reference to FIG. FIG. 16 shows a configuration of the combined motion information candidate generation unit 140. The terminal 18 is connected to the combined motion information selection unit 141. The combined motion information candidate generation unit 140 includes a single combined motion information candidate list generation unit 150, a scaling combined motion information candidate generation unit 151, and a combined motion information candidate list reduction unit 152.

以下、各部の機能について説明する。単結合動き情報候補リスト生成部150は、端子12より供給される候補ブロック群から第1結合動き情報候補リストを生成し、当該第1結合動き情報候補リストをスケーリング結合動き情報候補生成部151に供給する。   Hereinafter, functions of each unit will be described. The single combined motion information candidate list generation unit 150 generates a first combined motion information candidate list from the candidate block group supplied from the terminal 12, and sends the first combined motion information candidate list to the scaled combined motion information candidate generation unit 151. Supply.

スケーリング結合動き情報候補生成部151は、単結合動き情報候補リスト生成部150より供給される第1結合動き情報候補リストからスケーリング結合動き情報候補を生成し、当該スケーリング結合動き情報候補を第1結合動き情報候補リストに追加して第2結合動き情報候補リストを生成し、当該第2結合動き情報候補リストを結合動き情報候補リスト削減部152に供給する。   The scaling combined motion information candidate generation unit 151 generates a scaling combined motion information candidate from the first combined motion information candidate list supplied from the single combined motion information candidate list generation unit 150, and the scaling combined motion information candidate is first combined. A second combined motion information candidate list is generated by adding to the motion information candidate list, and the second combined motion information candidate list is supplied to the combined motion information candidate list reduction unit 152.

結合動き情報候補リスト削減部152は、スケーリング結合動き情報候補生成部151より供給される第2結合動き情報候補リストから重複している動き情報を持つ結合動き情報候補が複数存在する場合には1つの結合動き情報候補を残して、残りを削除して結合動き情報候補リストを生成し、当該結合動き情報候補リストを端子18に供給する。   The combined motion information candidate list reduction unit 152 is 1 when there are a plurality of combined motion information candidates having motion information overlapping from the second combined motion information candidate list supplied from the scaling combined motion information candidate generation unit 151. The combined motion information candidate list is generated by leaving two combined motion information candidates and deleting the rest, and the combined motion information candidate list is supplied to the terminal 18.

ここで、単結合動き情報候補は、所謂マージ技術で利用される候補ブロックの動き情報候補のことであって1つの候補ブロックから得られる動き情報である。一方、スケーリング結合動き情報は、1つの候補ブロックの1つまたは2つの動き情報をスケーリングして得られる動き情報である。本実施の形態では候補ブロックの1つの動き情報をスケーリングして利用する。   Here, the single combined motion information candidate is a motion information candidate of a candidate block used in a so-called merge technique, and is motion information obtained from one candidate block. On the other hand, the scaled combined motion information is motion information obtained by scaling one or two pieces of motion information of one candidate block. In the present embodiment, one piece of motion information of a candidate block is scaled and used.

続いて、スケーリング結合動き情報候補生成部151の詳細な構成について図17を用いて説明する。図17はスケーリング結合動き情報候補生成部151の構成を示す。端子19は単結合動き情報候補リスト生成部150に、端子20は結合動き情報候補リスト削減部152にそれぞれ接続されている。スケーリング結合動き情報候補生成部151は、対象候補選択部160、参照画像設定部161、スケーリング部162およびスケーリング結合動き情報候補追加部163を含む。   Next, a detailed configuration of the scaled combined motion information candidate generation unit 151 will be described with reference to FIG. FIG. 17 shows a configuration of the scaling combined motion information candidate generation unit 151. The terminal 19 is connected to the single combined motion information candidate list generating unit 150, and the terminal 20 is connected to the combined motion information candidate list reducing unit 152. The scaling combined motion information candidate generation unit 151 includes a target candidate selection unit 160, a reference image setting unit 161, a scaling unit 162, and a scaling combined motion information candidate addition unit 163.

以下、各部の機能について説明する。対象候補選択部160は、端子19より供給される第1結合動き情報候補リストの中からスケーリング結合動き情報候補の対象となる結合動き情報候補を選択し、対象となる結合動き情報候補の情報および第1結合動き情報候補リストを参照画像設定部161に供給する。   Hereinafter, functions of each unit will be described. The target candidate selection unit 160 selects a combined motion information candidate that is a target of the scaling combined motion information candidate from the first combined motion information candidate list supplied from the terminal 19, and information on the combined motion information candidate that is the target and The first combined motion information candidate list is supplied to the reference image setting unit 161.

参照画像設定部161は対象候補選択部160より供給される対象となる結合動き情報候補の情報および第1結合動き情報候補リストをもとに、スケーリング結合動き情報候補のL0方向及びL1方向の参照画像を設定する。参照画像設定部161は、当該L0方向とL1方向の参照画像情報、上述の対象となる結合動き情報候補の情報および第1結合動き情報候補リストをスケーリング部162に供給する。   The reference image setting unit 161 refers to the L0 direction and the L1 direction of the scaling combined motion information candidates based on the combined motion information candidate information and the first combined motion information candidate list supplied from the target candidate selecting unit 160. Set the image. The reference image setting unit 161 supplies the reference image information in the L0 direction and the L1 direction, information on the combined motion information candidates to be described above, and the first combined motion information candidate list to the scaling unit 162.

スケーリング部162は参照画像設定部161より供給される当該L0方向とL1方向の参照画像情報、上述の対象となる結合動き情報候補の情報および第1結合動き情報候補リストからスケーリング結合動き情報候補の動きベクトルをスケーリングにより算出してスケーリング結合動き情報候補を確定する。スケーリング部162は当該スケーリング結合動き情報候補および第1結合動き情報候補リストをスケーリング結合動き情報候補追加部163に供給する。   The scaling unit 162 determines the scaled combined motion information candidate from the reference image information in the L0 direction and the L1 direction supplied from the reference image setting unit 161, the combined motion information candidate information described above and the first combined motion information candidate list. A motion vector is calculated by scaling to determine a scaled combined motion information candidate. The scaling unit 162 supplies the scaling combined motion information candidate and the first combined motion information candidate list to the scaling combined motion information candidate adding unit 163.

スケーリング結合動き情報候補追加部163はスケーリング部162より供給されるスケーリング結合動き情報候補を第1結合動き情報候補リストに追加して第2結合動き情報候補リストを生成し、第2結合動き情報候補リストを端子20に供給する。   The scaling combined motion information candidate addition unit 163 adds the scaling combined motion information candidate supplied from the scaling unit 162 to the first combined motion information candidate list to generate a second combined motion information candidate list, and generates the second combined motion information candidate list. The list is supplied to terminal 20.

(候補番号管理テーブル)
ここで、実施の形態1で利用するマージ候補番号と結合動き情報候補の関係を示す候補番号管理テーブルについて図18を用いて説明する。マージ候補番号の0から6は、それぞれ結合動き情報候補リストに含まれるブロックAの結合動き情報候補(A)、ブロックBの結合動き情報候補(B)、時間ブロックの結合動き情報候補(COL)、ブロックCの結合動き情報候補(C)、ブロックEの結合動き情報候補(E)、第1のスケーリング結合動き情報候補(BP0)、および第2のスケーリング結合動き情報候補(BP1)を示す。また、結合動き情報候補リストに含まれる結合動き情報候補の最大数は7(マージインデックスの最大値は6)であるとする。なお、実施の形態1で利用する候補番号管理テーブルを図18としたが、選択率が相対的に高い結合動き情報候補ほど小さいマージ候補番号が割り当てられていればよくこれに限定されない。また、実施の形態1で利用するスケーリング結合動き情報候補の最大数を2つとしたが、1つ以上であればよくこれに限定されない。
(Candidate number management table)
Here, a candidate number management table indicating the relationship between merge candidate numbers and combined motion information candidates used in Embodiment 1 will be described with reference to FIG. Merge candidate numbers 0 to 6 are combined motion information candidates (A) of block A, combined motion information candidates (B) of block B, and combined motion information candidates (COL) of time blocks included in the combined motion information candidate list, respectively. The combined motion information candidate (C) of block C, the combined motion information candidate (E) of block E, the first scaled combined motion information candidate (BP0), and the second scaled combined motion information candidate (BP1) are shown. The maximum number of combined motion information candidates included in the combined motion information candidate list is 7 (the maximum value of the merge index is 6). Although the candidate number management table used in the first embodiment is shown in FIG. 18, the merged motion information candidate having a relatively high selection rate may be assigned with a smaller merge candidate number, and is not limited to this. In addition, although the maximum number of scaling combined motion information candidates used in Embodiment 1 is two, the number is not limited to this as long as it is one or more.

ここで、候補番号管理テーブル、および結合動き情報候補リストに含まれる結合動き情報候補の最大数は動画像符号化装置100内で共有していることとし、図示しない。以下、マージ候補番号からマージインデックスへの変換について図19(a)、(b)を用いて説明する。   Here, the maximum number of combined motion information candidates included in the candidate number management table and the combined motion information candidate list is assumed to be shared in the moving image encoding apparatus 100 and is not illustrated. Hereinafter, conversion from the merge candidate number to the merge index will be described with reference to FIGS.

図19(a)は、ブロックAの結合動き情報候補、ブロックBの結合動き情報候補、時間ブロックの結合動き情報候補、ブロックCの結合動き情報候補,ブロックEの結合動き情報候補、第1のスケーリング結合動き情報候補、および第2のスケーリング結合動き情報候補が全て有効である場合に、マージ候補番号はそのままマージインデックスとなることを示している。   FIG. 19A shows a combined motion information candidate for block A, a combined motion information candidate for block B, a combined motion information candidate for time block, a combined motion information candidate for block C, a combined motion information candidate for block E, the first When the scaling combined motion information candidate and the second scaling combined motion information candidate are all valid, it indicates that the merge candidate number becomes the merge index as it is.

図19(b)は、結合動き情報候補に無効なブロックが含まれている場合、無効であるマージ候補番号を詰めてからマージ候補番号の小さい順序にマージインデックスが割り当てられる場合を示している。図19(b)のようにマージ候補番号が1のブロックBとマージ候補番号が4のブロックEの結合動き情報候補が無効である場合、マージインデックスの0はマージ候補番号0に、マージインデックスの1はマージ候補番号2に、マージインデックスの2はマージ候補番号3に、マージインデックスの3はマージ候補番号5に、およびマージインデックスの4はマージ候補番号6にそれぞれ変換される。   FIG. 19B shows a case where merge indexes are assigned in ascending order of merge candidate numbers after filling invalid merge candidate numbers when the combined motion information candidates include invalid blocks. As shown in FIG. 19B, when the combined motion information candidate of the block B with the merge candidate number 1 and the block E with the merge candidate number 4 is invalid, the merge index 0 is set to the merge candidate number 0 and the merge index 1 is converted to merge candidate number 2, merge index 2 is converted to merge candidate number 3, merge index 3 is converted to merge candidate number 5, and merge index 4 is converted to merge candidate number 6.

実施の形態1による動画像符号化装置100により生成された符号列を復号する動画像復号装置200ではマージインデックスからマージ候補番号に上記とは逆の変換が行われて、動画像符号化装置100と動画像復号装置200にて矛盾のない候補番号管理テーブルが生成される。   In the moving picture decoding apparatus 200 that decodes the code sequence generated by the moving picture encoding apparatus 100 according to the first embodiment, the reverse conversion from the merge index to the merge candidate number is performed, and the moving picture encoding apparatus 100 And the moving picture decoding apparatus 200 generates a candidate number management table with no contradiction.

(動画像符号化装置100の動作)
続いて、図20のフローチャートを用いて、実施の形態1の動画像符号化装置100における符号化の動作を説明する。予測ブロック画像取得部101は、予測ブロックの位置情報と予測ブロックサイズに基づいて、端子10より供給される画像信号から処理対象の予測ブロックの画像信号を取得する(S100)。
(Operation of moving picture coding apparatus 100)
Next, an encoding operation in the moving image encoding apparatus 100 according to Embodiment 1 will be described with reference to the flowchart of FIG. The prediction block image acquisition unit 101 acquires the image signal of the prediction block to be processed from the image signal supplied from the terminal 10 based on the position information of the prediction block and the prediction block size (S100).

動きベクトル検出部108は、予測ブロック画像取得部101より供給される画像信号と複数の参照画像に相当する画像信号から、動きベクトルおよび参照画像を示す参照画像インデックスを検出する(S101)。   The motion vector detection unit 108 detects a motion vector and a reference image index indicating a reference image from the image signal supplied from the predicted block image acquisition unit 101 and image signals corresponding to a plurality of reference images (S101).

動き情報生成部109は、動きベクトル検出部108より供給される動きベクトルと参照画像インデックス、動き情報メモリ111より供給される候補ブロック群のマージ候補番号或いは差分ベクトルと予測ベクトルインデックスが供給され、その中から画像の予測信号を生成するための動き情報を生成する(S102)。   The motion information generation unit 109 is supplied with the motion vector and reference image index supplied from the motion vector detection unit 108, the merge candidate number or the difference vector of the candidate block group supplied from the motion information memory 111, and the prediction vector index. Motion information for generating an image prediction signal is generated from the inside (S102).

動き補償部106は、フレームメモリ110内の参照画像インデックスで示される参照画像を、動きベクトル検出部108より供給される動きベクトルに基づき動き補償して予測信号を生成する。予測方向が双方向であれば、L0方向とL1方向の予測信号を平均したものを予測信号として生成する(S103)。   The motion compensation unit 106 performs motion compensation on the reference image indicated by the reference image index in the frame memory 110 based on the motion vector supplied from the motion vector detection unit 108 to generate a prediction signal. If the prediction direction is bidirectional, an average of the prediction signals in the L0 direction and the L1 direction is generated as a prediction signal (S103).

減算部102は、予測ブロック画像取得部101より供給される画像信号と、動き補償部106より供給される予測信号との差分を算出して予測誤差信号を算出する(S104)。予測誤差符号化部103は、減算部102より供給される予測誤差信号に対して、量子化や直交変換などの処理を行って予測誤差符号化データを生成する(S105)。   The subtraction unit 102 calculates a difference between the image signal supplied from the prediction block image acquisition unit 101 and the prediction signal supplied from the motion compensation unit 106 to calculate a prediction error signal (S104). The prediction error encoding unit 103 performs processing such as quantization and orthogonal transformation on the prediction error signal supplied from the subtraction unit 102 to generate prediction error encoded data (S105).

符号列生成部104は、予測誤差符号化部103より供給される予測誤差符号化データ、ならびに動き情報生成部109より供給されるマージフラグ、マージ候補番号、参照画像インデックス、差分ベクトルおよび予測ベクトルインデックスを、予測方向とともにシンタックスに従ってエントロピー符号化して符号列を生成する(S106)。   The code string generation unit 104 includes the prediction error encoded data supplied from the prediction error encoding unit 103, and the merge flag, merge candidate number, reference image index, difference vector, and prediction vector index supplied from the motion information generation unit 109. Is entropy-coded according to the syntax along with the prediction direction to generate a code string (S106).

加算部107は、予測誤差復号部105より供給される予測誤差信号と、動き補償部106より供給される予測信号とを加算して復号画像信号を生成する(S107)。フレームメモリ110は、加算部107より供給される復号画像信号を記憶する(S108)。動き情報メモリ111は、動きベクトル検出部108より供給される動きベクトルを、最小の予測ブロックサイズ単位で1画像分記憶する(S109)。   The adding unit 107 adds the prediction error signal supplied from the prediction error decoding unit 105 and the prediction signal supplied from the motion compensation unit 106 to generate a decoded image signal (S107). The frame memory 110 stores the decoded image signal supplied from the adding unit 107 (S108). The motion information memory 111 stores one image of the motion vector supplied from the motion vector detection unit 108 in units of the minimum predicted block size (S109).

引き続いて、図21のフローチャートを用いて、動き情報生成部109の動作を説明する。差分ベクトル算出部120は、端子12より供給される候補ブロック群、端子13より供給される動きベクトルと参照画像インデックス、端子14より供給される参照画像、および端子15より供給される画像信号から、予測ベクトル候補リストを作成し、予測ベクトルインデックスを決定して差分ベクトルとレート歪み評価値を算出する(S110)。   Subsequently, the operation of the motion information generation unit 109 will be described using the flowchart of FIG. The difference vector calculation unit 120 includes a candidate block group supplied from the terminal 12, a motion vector and reference image index supplied from the terminal 13, a reference image supplied from the terminal 14, and an image signal supplied from the terminal 15. A prediction vector candidate list is created, a prediction vector index is determined, and a difference vector and a rate distortion evaluation value are calculated (S110).

結合動き情報決定部121は、端子12より供給される候補ブロック群、端子14より供給される参照画像、および端子15より供給される画像信号から、結合動き情報候補リストを作成し、マージ候補番号を決定してレート歪み評価値を算出する(S111)。   The combined motion information determination unit 121 creates a combined motion information candidate list from the candidate block group supplied from the terminal 12, the reference image supplied from the terminal 14, and the image signal supplied from the terminal 15, and merge candidate numbers And the rate distortion evaluation value is calculated (S111).

予測符号化モード決定部122は、差分ベクトル算出部120より供給されるレート歪み評価値と、結合動き情報決定部121より供給されるレート歪み評価値を比較し、前者が後者より小さい場合はマージフラグを「0」に設定し、そうでない場合は、マージフラグを「1」に設定する(S112)。   The predictive coding mode determination unit 122 compares the rate distortion evaluation value supplied from the difference vector calculation unit 120 with the rate distortion evaluation value supplied from the combined motion information determination unit 121, and merges if the former is smaller than the latter The flag is set to “0”, otherwise, the merge flag is set to “1” (S112).

引き続いて、図22のフローチャートを用いて、差分ベクトル算出部120の動作を説明する。予測ベクトル候補リスト生成部130は、端子12より供給される候補ブロック群から領域外である候補ブロック、イントラモードである候補ブロック、および重複している動きベクトルを持つ候補ブロックを除いた候補ブロックから、予測ベクトル候補リストを生成する。予測方向が双方向であれば、L0方向とL1方向について予測ベクトル候補リストを生成する(S120)。   Subsequently, the operation of the difference vector calculation unit 120 will be described using the flowchart of FIG. The prediction vector candidate list generation unit 130 excludes candidate blocks that are out of the region, candidate blocks that are in the intra mode, and candidate blocks that have overlapping motion vectors from the candidate block group supplied from the terminal 12. A prediction vector candidate list is generated. If the prediction direction is bidirectional, a prediction vector candidate list is generated for the L0 direction and the L1 direction (S120).

予測ベクトル決定部131は、予測ベクトル候補リスト生成部130より供給される予測ベクトル候補リストの中から、端子13より供給される動きベクトルに最適な予測ベクトルを選択する。予測方向が双方向であれば、L0方向とL1方向について最適な予測ベクトルを選択する(S121)。減算部132は、端子13より供給される動きベクトルから、予測ベクトル決定部131より供給される予測ベクトルを減算して差分ベクトルを算出する。予測方向が双方向であれば、L0方向とL1方向について差分ベクトルを算出する(S122)。   The prediction vector determination unit 131 selects an optimal prediction vector for the motion vector supplied from the terminal 13 from the prediction vector candidate list supplied from the prediction vector candidate list generation unit 130. If the prediction direction is bidirectional, an optimal prediction vector is selected for the L0 direction and the L1 direction (S121). The subtraction unit 132 subtracts the prediction vector supplied from the prediction vector determination unit 131 from the motion vector supplied from the terminal 13 to calculate a difference vector. If the prediction direction is bidirectional, a difference vector is calculated for the L0 direction and the L1 direction (S122).

引き続いて、図23のフローチャートを用いて、結合動き情報決定部121の動作を詳細に説明する。結合動き情報候補生成部140は、端子12より供給される候補ブロック群から結合動き情報候補リストを生成する(S130)。結合動き情報選択部141は、結合動き情報候補生成部140より供給される結合動き情報候補リストの中から、端子13より供給される動きベクトルと参照画像インデックス、および予測方向に最適な結合動き情報を決定する(S131)。   Subsequently, the operation of the combined motion information determination unit 121 will be described in detail using the flowchart of FIG. The combined motion information candidate generation unit 140 generates a combined motion information candidate list from the candidate block group supplied from the terminal 12 (S130). The combined motion information selection unit 141 selects from the combined motion information candidate list supplied from the combined motion information candidate generation unit 140, the motion vector and reference image index supplied from the terminal 13, and the combined motion information optimal for the prediction direction. Is determined (S131).

引き続いて、図24のフローチャートを用いて、結合動き情報候補生成部140の動作を詳細に説明する。単結合動き情報候補リスト生成部150は、端子12より供給される空間候補ブロック群から領域外である候補ブロックおよびイントラモードである候補ブロックを除いた候補ブロックから空間結合動き情報候補リストを生成する(S140)。空間結合動き情報候補リストの生成の詳細な動作は後述する。   Subsequently, the operation of the combined motion information candidate generation unit 140 will be described in detail using the flowchart of FIG. The single combined motion information candidate list generation unit 150 generates a spatial combined motion information candidate list from candidate blocks obtained by excluding candidate blocks outside the region and candidate blocks in the intra mode from the spatial candidate block group supplied from the terminal 12. (S140). Detailed operations for generating the spatially coupled motion information candidate list will be described later.

単結合動き情報候補リスト生成部150は、端子12より供給される時間候補ブロック群から領域外である候補ブロックおよびイントラモードである候補ブロックを除いた候補ブロックから、時間結合動き情報候補リストを生成する(S141)。時間結合動き情報候補リストの生成の詳細な動作は後述する。   The single combined motion information candidate list generation unit 150 generates a time combined motion information candidate list from candidate blocks obtained by excluding candidate blocks that are out of the region and candidate blocks that are in the intra mode from the time candidate block group supplied from the terminal 12. (S141). The detailed operation of generating the time combination motion information candidate list will be described later.

単結合動き情報候補リスト生成部150は、空間結合動き情報候補リストと時間結合動き情報候補リストをマージ候補番号の順序で結合して第1結合動き情報候補リストを生成する(S142)。   The single combined motion information candidate list generation unit 150 generates the first combined motion information candidate list by combining the spatially combined motion information candidate list and the temporally combined motion information candidate list in the order of merge candidate numbers (S142).

スケーリング結合動き情報候補生成部151は、単結合動き情報候補リスト生成部150より供給される第1結合動き情報候補リストからスケーリング結合動き情報候補の対象となる結合動き情報候補を選択し、スケーリング結合動き情報候補を生成する(S143)。スケーリング結合動き情報候補の生成の詳細な動作は後述する。   The scaling combined motion information candidate generation unit 151 selects a combined motion information candidate to be a scaling combined motion information candidate from the first combined motion information candidate list supplied from the single combined motion information candidate list generation unit 150, and performs scaling combining. Motion information candidates are generated (S143). The detailed operation of generating the scaling combined motion information candidate will be described later.

スケーリング結合動き情報候補生成部151は、第1結合動き情報候補リストにスケーリング結合動き情報候補をマージ候補番号の順序で追加し、第2結合動き情報候補リストを生成する(S144)。   The scaling combined motion information candidate generation unit 151 adds the scaling combined motion information candidates to the first combined motion information candidate list in the order of merge candidate numbers, and generates the second combined motion information candidate list (S144).

結合動き情報候補リスト削減部152は、スケーリング結合動き情報候補生成部151より供給される第2結合動き情報候補リストから重複している動き情報を持つ結合動き情報候補が複数存在する場合には、1つの結合動き情報候補を残して、残りを削除して結合動き情報候補リストを生成する(S145)。   When there are a plurality of combined motion information candidates having motion information overlapping from the second combined motion information candidate list supplied from the scaling combined motion information candidate generation unit 151, the combined motion information candidate list reduction unit 152 One combined motion information candidate is left, and the remaining is deleted to generate a combined motion information candidate list (S145).

引き続いて、図25のフローチャートを用いて、空間結合動き情報候補リストの生成の詳細な動作を説明する。図25は、空間結合動き情報候補リストの生成の詳細な動作を説明するためのフローチャートである。実施の形態1では、空間結合動き情報候補リストには4以下の候補ブロックの動き情報が含まれるとする。   Subsequently, the detailed operation of generating the spatially coupled motion information candidate list will be described using the flowchart of FIG. FIG. 25 is a flowchart for explaining the detailed operation of generating the spatially coupled motion information candidate list. In Embodiment 1, it is assumed that the spatial combination motion information candidate list includes motion information of four or less candidate blocks.

空間候補ブロック群に含まれる4つの候補ブロックであるブロックA、ブロックB、ブロックCおよびブロックEについて以下の処理を繰り返し行う(S150からS153)。候補ブロックの有効性を検査する(S151)。候補ブロックが領域外でなくイントラモードでもない場合に候補ブロックは有効となる。候補ブロックが有効であれば(S151のY)、候補ブロックの動き情報を空間結合動き情報候補リストに追加する(S152)。候補ブロックが有効でなければ(S151のN)、ステップS152はスキップされる。   The following processing is repeated for block A, block B, block C, and block E, which are the four candidate blocks included in the space candidate block group (S150 to S153). The validity of the candidate block is checked (S151). A candidate block is valid when the candidate block is not out of the region and is not in intra mode. If the candidate block is valid (Y in S151), the motion information of the candidate block is added to the spatially combined motion information candidate list (S152). If the candidate block is not valid (N in S151), step S152 is skipped.

実施の形態1では空間結合動き情報候補リストには4以下の候補ブロックの動き情報が含まれるとしたが、候補ブロックの有効性によって空間結合動き情報候補の数が変動すればよく、これに限定されない。   In the first embodiment, it is assumed that the spatial combination motion information candidate list includes motion information of four or less candidate blocks. However, the number of spatial combination motion information candidates may be changed depending on the validity of the candidate block, and the present invention is not limited thereto. Not.

引き続いて、図26のフローチャートを用いて、時間結合動き情報候補リストの生成の詳細な動作を説明する。図26は時間結合動き情報候補リストの生成の詳細な動作を説明するフローチャートである。実施の形態1では、時間結合動き情報候補リストには1以下の候補ブロックの動き情報が含まれるとする。   Subsequently, a detailed operation of generating a time combination motion information candidate list will be described using the flowchart of FIG. FIG. 26 is a flowchart for explaining the detailed operation of generating the time combination motion information candidate list. In Embodiment 1, it is assumed that the temporal combination motion information candidate list includes motion information of one or less candidate blocks.

時間候補ブロック群に含まれる2つの候補ブロックである時間ブロックについて以下の処理を繰り返し行う(S160からS166)。候補ブロックの有効性を検査する(S161)。候補ブロックが領域外でなくイントラモードでもない場合に候補ブロックは有効となる。候補ブロックが有効であれば(S161のY)、時間結合動き情報候補が生成され、時間結合動き情報候補が時間結合動き情報候補リストに追加され(ステップS162からステップS165)、処理を終了する。候補ブロックが有効でなければ(S161のN)、次の候補ブロックを検査する(S166)。   The following processing is repeated for time blocks that are two candidate blocks included in the time candidate block group (S160 to S166). The validity of the candidate block is checked (S161). A candidate block is valid when the candidate block is not out of the region and is not in intra mode. If the candidate block is valid (Y in S161), a temporally combined motion information candidate is generated, the temporally combined motion information candidate is added to the temporally combined motion information candidate list (from step S162 to step S165), and the process ends. If the candidate block is not valid (N in S161), the next candidate block is inspected (S166).

候補ブロックが有効であれば、時間結合動き情報候補の予測方向の決定を行う(S162)。実施の形態1では結合動き情報候補の予測方向を双方向とする。次に、時間結合動き情報候補のL0方向、L1方向の参照画像の決定を行う(S163)。実施の形態1ではL0方向の参照画像を、L0方向の参照画像のうち処理対象画像に最も近い距離にある参照画像とし、L1方向の参照画像を、L1方向の参照画像のうち処理対象画像に最も近い距離にある参照画像とする。ここでは、L0方向の参照画像を、L0方向の参照画像のうち処理対象画像に最も近い距離にある参照画像とし、L1方向の参照画像を、L1方向の参照画像のうち処理対象画像に最も近い距離にある参照画像としたが、L0方向の参照画像とL1方向の参照画像が決定できればよく、これに限定されない。例えば、符号化ストリーム中にL0方向及びL1方向の参照画像を符号化してもよく、L0方向及びL1方向の参照画像インデックスを0にしてもよく、処理対象ブロックの隣接ブロックが使用しているL0方向の参照画像及びL1方向の参照画像で、最も多く使用されている参照画像をL0方向、L1方向のそれぞれの参照する参照画像としてもよい。   If the candidate block is valid, the prediction direction of the temporally combined motion information candidate is determined (S162). In the first embodiment, the prediction direction of the combined motion information candidate is bidirectional. Next, the reference images in the L0 direction and the L1 direction of the time combination motion information candidate are determined (S163). In the first embodiment, the reference image in the L0 direction is the reference image that is the closest to the processing target image among the reference images in the L0 direction, and the reference image in the L1 direction is the processing target image among the reference images in the L1 direction. The reference image is the closest distance. Here, the reference image in the L0 direction is the reference image that is the closest to the processing target image among the reference images in the L0 direction, and the reference image in the L1 direction is the closest to the processing target image among the reference images in the L1 direction. Although the reference image is at a distance, it is only necessary to determine the reference image in the L0 direction and the reference image in the L1 direction, and the present invention is not limited to this. For example, the reference images in the L0 direction and the L1 direction may be encoded in the encoded stream, the reference image indexes in the L0 direction and the L1 direction may be set to 0, and the L0 used by the adjacent block of the processing target block. Of the reference image in the direction and the reference image in the L1 direction, the most frequently used reference image may be used as a reference image for referring to the L0 direction and the L1 direction.

次に、時間結合動き情報候補の動きベクトルを算出する(S164)。本実施の形態における、時間結合動き情報候補は、候補ブロックの動き情報で有効な予測方向である参照画像ColRefPicと動きベクトルmvColを基準に、双方向の動き情報を算出する。   Next, the motion vector of the time combination motion information candidate is calculated (S164). In this embodiment, the temporally combined motion information candidate calculates bidirectional motion information based on the reference image ColRefPic and the motion vector mvCol, which are effective prediction directions in the motion information of the candidate block.

候補ブロックの予測方向がL0方向もしくはL1方向の単方向の場合には、その予測方向の参照画像と動きベクトルを基準として選択する。   When the prediction direction of the candidate block is the unidirectional direction of the L0 direction or the L1 direction, it is selected based on the reference image and the motion vector in the prediction direction.

候補ブロックの予測方向が双方向である場合には、L0方向或いはL1方向のいずれか一方の参照画像と動きベクトルを基準として選択する。例えば、ColPicと同じ時間方向に存在する参照画像と動きベクトルを基準として選択する、候補ブロックのL0方向或いはL1方向の参照画像のいずれかと、ColPicとの画像間距離が近い方を基準として選択する、候補ブロックのL0方向或いはL1方向のいずれかの動きベクトルが処理対象画像と交差する方を基準として選択する等が挙げられる。   When the prediction direction of the candidate block is bidirectional, the selection is made based on either the reference image in the L0 direction or the L1 direction and the motion vector. For example, a reference image that is present in the same time direction as ColPic and a motion vector is selected as a reference, and a candidate image that is closer to the ColPic is selected based on the reference image in the L0 direction or L1 direction of the candidate block. For example, the candidate block may be selected on the basis of which one of the motion vectors in the L0 direction or the L1 direction intersects the processing target image.

時間結合動き情報生成の基準とする参照画像と動きベクトルが選択されたら、時間結合動き情報候補の動きベクトルを算出する。   When a reference image and a motion vector as a reference for generating temporally coupled motion information are selected, a motion vector of temporally coupled motion information candidates is calculated.

ここで、時間結合動き情報生成の基準とする動きベクトルColMvと参照画像ColRefPicからの時間結合動き情報候補の動きベクトルmvL0t、mvL1tの算出手法について図27を用いて説明する。図27は時間結合動き情報候補の動きベクトルmvL0t、mvL1tの算出手法を説明するための図である。   Here, a method of calculating motion vectors mvL0t and mvL1t of temporally coupled motion information candidates from the motion vector ColMv as a reference for generating temporally coupled motion information and the reference image ColRefPic will be described with reference to FIG. FIG. 27 is a diagram for explaining a method of calculating motion vectors mvL0t and mvL1t of time-coupled motion information candidates.

ColPicとColRefPicの画像間距離をColDistとし、時間結合動き情報候補のL0方向の参照画像ColL0Picと処理対象画像CurPicの画像間距離をCurL0Dist、時間結合動き情報候補のL1方向の参照画像ColL1Picと処理対象画像CurPicの画像間距離をCurL1Distとすると、ColMvをColDistとCurL0Dist、CurL1Distの距離比率でスケーリングした下記式1の動きベクトルを、時間結合動き情報候補の動きベクトルとする。ここで、画像間距離の算出はPOCを用いて行われ、正負の符号を有する。なお、除算は四捨五入で行われる。
mvL0t=mvCol×CurrL0Dist/ColDist
mvL1t=mvCol×CurrL1Dist/ColDist ・・・(式1)
なお、図27のColPic、ColRefPic、ColL0Pic、ColL1Picは一例であってこれ以外の関係であってもよい。
The distance between the images of ColPic and ColRefPic is ColDist, the distance between the reference images ColL0Pic in the L0 direction of the temporally coupled motion information candidate and the image to be processed CurPic is CurL0Dist, the reference image ColL1Pic of the temporally coupled motion information candidate in the L1 direction and the target of processing Assuming that the distance between images of the image CurPic is CurL1Dist, a motion vector of the following equation 1 obtained by scaling ColMv with a distance ratio of ColDist, CurL0Dist, and CurL1Dist is set as a motion vector of a temporally combined motion information candidate. Here, the calculation of the inter-image distance is performed using the POC, and has a positive and negative sign. Division is rounded off.
mvL0t = mvCol × CurrL0Dist / ColDist
mvL1t = mvCol × CurrL1Dist / ColDist (Formula 1)
Note that ColPic, ColRefPic, ColL0Pic, and ColL1Pic in FIG. 27 are examples, and other relationships may be used.

ここでは上記のようにして時間結合動き情報候補を生成したが、符号化済みの別の画像の動き情報を利用して双方向の動き情報が決定できればよく、これに限定されない。図26に戻り、ステップS164で算出された時間結合動き情報候補を時間結合動き情報候補リストに追加する(S165)。候補ブロックが無効であれば(S161のN)、次の候補ブロックを検査する(S166)。   Here, the time combination motion information candidates are generated as described above. However, bidirectional motion information may be determined using motion information of another encoded image, and the present invention is not limited to this. Returning to FIG. 26, the temporally combined motion information candidates calculated in step S164 are added to the temporally combined motion information candidate list (S165). If the candidate block is invalid (N in S161), the next candidate block is inspected (S166).

ここでは時間結合動き情報候補リストには1以下の候補ブロックの動き情報が含まれるとしたが、候補ブロックの有効性によって時間結合動き情報候補の数が変動すればよく、これに限定されない。予測方向、参照画像および動きベクトルの決定方法についても同様に、これらに限定されない。   Here, it is assumed that the time combination motion information candidate list includes motion information of one or less candidate blocks, but the number of time combination motion information candidates may be changed depending on the validity of the candidate blocks, and is not limited thereto. Similarly, the prediction direction, reference image, and motion vector determination method are not limited to these.

(スケーリング結合動き情報候補の生成)
引き続いて、図28のフローチャートを用いて、スケーリング結合動き情報候補の生成の詳細な動作を説明する。図28はスケーリング結合動き情報候補の生成の詳細な動作を説明するためのフローチャートである。スケーリング結合動き情報候補生成部151は、第1結合動き情報候補リストに含まれる結合動き情報候補の数(NCands)に対応する回数、以下の処理を繰り返す(S170からS176)。対象候補選択部160は、スケーリング結合動き情報候補を追加可能であるか検査する(S171)。具体的には、既に追加されたスケーリング結合動き情報候補の数が2未満であることを検査する。スケーリング結合動き情報候補を追加可能であれば(S171のY)、対象候補選択部160は、候補ブロックが有効であるか検査する(S172)。候補ブロックが領域外でなくイントラモードでもない場合に候補ブロックは有効となる。候補ブロックが有効であれば(S172のY)、対象候補選択部160は、候補ブロックの予測方向が単方向であるかを検査する(S173)。
(Generation of scaling combined motion information candidates)
Subsequently, the detailed operation of generating the scaling combined motion information candidate will be described using the flowchart of FIG. FIG. 28 is a flowchart for explaining the detailed operation of generating the scaling combined motion information candidate. The scaling combined motion information candidate generation unit 151 repeats the following processing for the number of times corresponding to the number of combined motion information candidates (NCands) included in the first combined motion information candidate list (S170 to S176). The target candidate selection unit 160 checks whether a scaling combined motion information candidate can be added (S171). Specifically, it is checked that the number of already added scaling combined motion information candidates is less than two. If scaling combined motion information candidates can be added (Y in S171), the target candidate selection unit 160 checks whether the candidate block is valid (S172). A candidate block is valid when the candidate block is not out of the region and is not in intra mode. If the candidate block is valid (Y in S172), the target candidate selection unit 160 checks whether the prediction direction of the candidate block is unidirectional (S173).

候補ブロックの予測方向が単方向であれば(S173のY)、有効である予測方向をLX方向とし、参照画像設定部161は、候補ブロックの参照画像をスケーリング結合動き情報候補のLX方向の参照画像とし、スケーリング結合動き情報候補のLY方向の参照画像を設定する(S174)。ここで、LXはL0またはL1のいずれかである。また、LYはLXの反対の参照リストを表す。即ち、LXがL0であればLYはL1となり、LXがL1であればLYはL0となる。実施の形態1では、スケーリング結合動き情報候補のLY方向の参照画像としてLY方向の参照画像インデックスの0で示される参照画像とする。実施の形態1では、LY方向の参照画像としてLY方向の参照画像インデックスの0で示される参照画像としたが、LY方向の参照画像を設定できればよくこれに限定されない。例えば、時間結合動き情報候補の生成におけるステップS163で決定したLY方向の参照画像を設定することもできる。   If the prediction direction of the candidate block is unidirectional (Y in S173), the effective prediction direction is set as the LX direction, and the reference image setting unit 161 refers to the reference image of the candidate block in the LX direction of the scaled combined motion information candidate. A reference image in the LY direction of the scaling combined motion information candidate is set as an image (S174). Here, LX is either L0 or L1. LY represents a reference list opposite to LX. That is, if LX is L0, LY is L1, and if LX is L1, LY is L0. In the first embodiment, the reference image indicated by 0 in the reference image index in the LY direction is used as the reference image in the LY direction of the scaling combined motion information candidate. In the first embodiment, the reference image indicated by 0 in the reference image index in the LY direction is used as the reference image in the LY direction. However, the present invention is not limited to this as long as the reference image in the LY direction can be set. For example, it is possible to set the reference image in the LY direction determined in step S163 in generating the temporally combined motion information candidate.

スケーリング部162は、スケーリング結合動き情報候補のLY方向の動きベクトルをスケーリング結合動き情報候補のLX方向の動きベクトルをスケーリングすることによって算出する(S175)。スケーリング結合動き情報候補を追加可能でなければ(S171のN)、処理を終了する。候補ブロックが有効でなければ(S172のN)、または候補ブロックの予測方向が単方向でなければ(S173のN)、次の候補を検査する(S176)。   The scaling unit 162 calculates the motion vector in the LY direction of the scaling combined motion information candidate by scaling the motion vector in the LX direction of the scaling combined motion information candidate (S175). If the scaling combined motion information candidate cannot be added (N of S171), the process ends. If the candidate block is not valid (N in S172) or the prediction direction of the candidate block is not unidirectional (N in S173), the next candidate is examined (S176).

ここで、LX方向の参照画像RefLXPic、LX方向の動きベクトルmvLX、LY方向の参照画像RefLYPicからスケーリング結合動き情報候補のLY方向の動きベクトルmvLYの算出手法について図29を用いて説明する。図29はスケーリング結合動き情報候補のLY方向の動きベクトルの算出手法を説明するための図である。   Here, a method of calculating the LY direction motion vector mvLY of the scaled combined motion information candidate from the LX direction reference image RefLXPic, the LX direction motion vector mvLX, and the LY direction reference image RefLYPic will be described with reference to FIG. FIG. 29 is a diagram for explaining a method of calculating a motion vector in the LY direction of a scaling combined motion information candidate.

処理対象画像CurPicとLX方向の参照画像RefLXPicの画像間距離CurLXDistを下記式2により算出する。
CurLXDist=CurPOC−RefLXPOC ・・・(式2)
処理対象画像CurPicとLY方向の参照画像RefLYPicの画像間距離をCurLYDistを下記式3により算出する。
CurLYDist=CurPOC−RefLYPOC ・・・(式3)
ここで、CurPOCは処理対象画像CurPicのPOCであり、RefLXPOCはLX方向の参照画像RefLXPicのPOCであり、RefLYPOCはLY方向の参照画像RefLYPicのPOCである。なお、CurLXDistおよびCurLYDistは処理対象画像CurPicを基準に過去の参照画像との距離を示す場合は負の値となり、未来の参照画像との距離を示す場合は正の値となる。
An inter-image distance CurLXDist between the processing target image CurPic and the reference image RefLXPic in the LX direction is calculated by the following equation 2.
CurLXDist = CurPOC-RefLXPOC (Formula 2)
The distance between images of the processing target image CurPic and the reference image RefLYPic in the LY direction is calculated by the following equation (3).
CurLYDist = CurPOC-RefLYPOC (Formula 3)
Here, CurPOC is the POC of the processing target image CurPic, RefLXPOC is the POC of the reference image RefLXPic in the LX direction, and RefLYPOC is the POC of the reference image RefLYPic in the LY direction. Note that CurLXDist and CurLYDist have a negative value when indicating a distance from a past reference image based on the processing target image CurPic, and have a positive value when indicating a distance from a future reference image.

さらに、mvLXをCurLXDistとCurLYDistの距離比率でスケーリングした下記式4の動きベクトルを、mvLYとする。なお、除算は四捨五入で行われる。
mvLY=mvLX×CurrLYDist/CurrLXDist ・・・(式4)
なお、図29のCurPic、RefLXPic、RefLYPicは一例であってこれ以外の関係であってもよい。
Furthermore, a motion vector of the following expression 4 obtained by scaling mvLX with a distance ratio of CurLXDist and CurLYDist is defined as mvLY. Division is rounded off.
mvLY = mvLX × CurrLYDist / CurrLXDist (Expression 4)
Note that CurPic, RefLXPic, and RefLYPic in FIG. 29 are examples, and other relationships may be used.

ここでは第2結合動き情報候補リストに含まれる結合動き情報候補の数(NCands)に対応する回数、検査するとしたが、スケーリング結合動き情報候補が決定できればよく、これに限定されない。例えば、選択率が相対的に高い結合動き情報候補だけからスケーリング結合動き情報候補を生成する場合には検査数を2や3のような所定数に固定して処理量を削減するとともに冗長なスケーリング結合動き情報候補の生成可能性を低下させてマージインデックスの符号量を削減することもできる。また、最初から双方向である時間ブロックを検査対象からはずすこともできる。   Here, the number of times corresponding to the number of combined motion information candidates (NCands) included in the second combined motion information candidate list is inspected, but it is only necessary to be able to determine scaling combined motion information candidates, and the present invention is not limited to this. For example, when generating a combined combined motion information candidate from only combined motion information candidates having a relatively high selection rate, the number of inspections is fixed to a predetermined number such as 2 or 3, and the processing amount is reduced and redundant scaling is performed. It is also possible to reduce the amount of merge index codes by reducing the possibility of generating combined motion information candidates. In addition, a time block that is bidirectional from the beginning can be removed from the inspection target.

(動画像復号装置200の構成)
次に、実施の形態1の動画像復号装置を説明する。図30は実施の形態1の動画像復号装置200を示す。動画像復号装置200は、動画像符号化装置100により符号化された符号列を復号して再生画像を生成する装置である。
(Configuration of moving picture decoding apparatus 200)
Next, the moving picture decoding apparatus according to the first embodiment will be described. FIG. 30 shows the moving picture decoding apparatus 200 according to the first embodiment. The video decoding device 200 is a device that generates a playback image by decoding the code string encoded by the video encoding device 100.

動画像復号装置200は、CPU(Central Processing Unit)、フレームメモリ、ハードディスクなどを備える情報処理装置などのハードウェアにより実現される。動画像復号装置200は、上記の構成要素が動作することにより、以下に説明する機能的な構成要素を実現する。なお、復号対象の予測ブロックの位置情報、予測ブロックサイズに関しては動画像復号装置200内で共有していることとし、図示しない。また、候補番号管理テーブル、および結合動き情報候補リストに含まれる結合動き情報候補の最大数は動画像復号装置200内で共有していることとし、図示しない。   The moving picture decoding apparatus 200 is realized by hardware such as an information processing apparatus including a CPU (Central Processing Unit), a frame memory, and a hard disk. The moving picture decoding apparatus 200 realizes functional components described below by operating the above components. Note that the position information and the prediction block size of the prediction block to be decoded are shared in the video decoding device 200 and are not shown. Further, the maximum number of combined motion information candidates included in the candidate number management table and the combined motion information candidate list is assumed to be shared in the moving image decoding apparatus 200 and is not illustrated.

実施の形態1の動画像復号装置200は、符号列解析部201、予測誤差復号部202、加算部203、動き情報再生部204、動き補償部205、フレームメモリ206および動き情報メモリ207を備える。   The moving picture decoding apparatus 200 according to Embodiment 1 includes a code string analysis unit 201, a prediction error decoding unit 202, an addition unit 203, a motion information reproduction unit 204, a motion compensation unit 205, a frame memory 206, and a motion information memory 207.

(動画像復号装置200の機能)
以下、各部の機能について説明する。符号列解析部201は、端子30より供給された符号列を復号して予測誤差符号化データ、マージフラグ、マージ候補番号、動き補償予測の予測方向、参照画像インデックス、差分ベクトル、および予測ベクトルインデックスをシンタックスに従って復号する。そして、当該予測誤差符号化データを予測誤差復号部202に、当該マージフラグ、当該マージ候補番号、当該動き補償予測の予測方向、当該参照画像インデックス、当該差分ベクトル、および当該予測ベクトルインデックスを動き情報再生部204に供給する。なお、マージ候補番号はマージインデックスより変換されて得られる。
(Function of moving picture decoding apparatus 200)
Hereinafter, functions of each unit will be described. The code string analysis unit 201 decodes the code string supplied from the terminal 30 to predict prediction error encoded data, merge flag, merge candidate number, prediction direction of motion compensation prediction, reference image index, difference vector, and prediction vector index. Is decoded according to the syntax. Then, the prediction error coding data is transferred to the prediction error decoding unit 202, the merge flag, the merge candidate number, the prediction direction of the motion compensation prediction, the reference image index, the difference vector, and the prediction vector index as motion information. This is supplied to the playback unit 204. The merge candidate number is obtained by conversion from the merge index.

予測誤差復号部202は、符号列解析部201より供給される予測誤差符号化データに対して、逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し、当該予測誤差信号を加算部203に供給する。   The prediction error decoding unit 202 performs a process such as inverse quantization or inverse orthogonal transform on the prediction error encoded data supplied from the code string analysis unit 201 to generate a prediction error signal, and the prediction error signal is It supplies to the addition part 203.

加算部203は、予測誤差復号部202より供給される予測誤差信号と、動き補償部205より供給される予測信号とを加算して復号画像信号を生成し、当該復号画像信号をフレームメモリ206および端子31に供給する。   The adding unit 203 adds the prediction error signal supplied from the prediction error decoding unit 202 and the prediction signal supplied from the motion compensation unit 205 to generate a decoded image signal, and the decoded image signal is stored in the frame memory 206 and Supply to terminal 31.

動き情報再生部204は、符号列解析部201より供給されるマージフラグ、マージ候補番号、動き補償予測の予測方向、参照画像インデックス、差分ベクトル、および予測ベクトルインデックスと、動き情報メモリ207より供給される候補ブロック群から、動き情報を再生し、当該動き情報を動き補償部205に供給する。動き情報再生部204の詳細な構成については後述する。   The motion information reproduction unit 204 is supplied from the motion information memory 207 and the merge flag, merge candidate number, motion compensation prediction direction, reference image index, difference vector, and prediction vector index supplied from the code string analysis unit 201. Motion information is reproduced from the candidate block group, and the motion information is supplied to the motion compensation unit 205. A detailed configuration of the motion information reproducing unit 204 will be described later.

動き補償部205は、動き情報再生部204より供給される動き情報に基づいて、フレームメモリ206内の参照画像インデックスが示す参照画像を、動きベクトルに基づき動き補償して予測信号を生成する。予測方向が双方向であれば、L0方向とL1方向の予測信号を平均したものを予測信号として生成し、当該予測信号を加算部203に供給する。   Based on the motion information supplied from the motion information reproducing unit 204, the motion compensation unit 205 performs motion compensation on the reference image indicated by the reference image index in the frame memory 206 based on the motion vector to generate a prediction signal. If the prediction direction is bidirectional, an average of the prediction signals in the L0 direction and the L1 direction is generated as a prediction signal, and the prediction signal is supplied to the adding unit 203.

フレームメモリ206および動き情報メモリ207は、動画像符号化装置100のフレームメモリ110および動き情報メモリ111と同一の機能を有する。   The frame memory 206 and the motion information memory 207 have the same functions as the frame memory 110 and the motion information memory 111 of the video encoding device 100.

(動き情報再生部204の詳細な構成)
続いて、動き情報再生部204の詳細な構成について図31を用いて説明する。図31は動き情報再生部204の構成を示す。動き情報再生部204は、符号化モード判定部210、動きベクトル再生部211および結合動き情報再生部212を含む。端子32は符号列解析部201に、端子33は動き情報メモリ207に、端子34は動き補償部205にそれぞれ接続されている。
(Detailed configuration of the motion information playback unit 204)
Next, a detailed configuration of the motion information reproducing unit 204 will be described with reference to FIG. FIG. 31 shows the configuration of the motion information playback unit 204. The motion information playback unit 204 includes an encoding mode determination unit 210, a motion vector playback unit 211, and a combined motion information playback unit 212. The terminal 32 is connected to the code string analysis unit 201, the terminal 33 is connected to the motion information memory 207, and the terminal 34 is connected to the motion compensation unit 205.

以下、各部の機能について説明する。符号化モード判定部210は、符号列解析部201より供給されるマージフラグが「0」であれば、符号列解析部201より供給される動き補償予測の予測方向、参照画像インデックス、差分ベクトル、および予測ベクトルインデックスを動きベクトル再生部211に供給する。マージフラグが「1」であれば、符号列解析部201より供給されるマージ候補番号を結合動き情報再生部212に供給する。   Hereinafter, functions of each unit will be described. If the merge flag supplied from the code stream analysis unit 201 is “0”, the coding mode determination unit 210 determines the prediction direction, reference image index, difference vector, motion compensation prediction supplied from the code stream analysis unit 201, The prediction vector index is supplied to the motion vector reproduction unit 211. If the merge flag is “1”, the merge candidate number supplied from the code string analysis unit 201 is supplied to the combined motion information reproduction unit 212.

動きベクトル再生部211は、符号化モード判定部210より供給される動き補償予測の予測方向、参照画像インデックス、差分ベクトル、および予測ベクトルインデックスと、端子33より供給される候補ブロック群から、動き情報を再生して端子34に供給する。動きベクトル再生部211の詳細な構成については後述する。   The motion vector reproduction unit 211 receives motion information from the prediction direction of motion compensation prediction supplied from the encoding mode determination unit 210, the reference image index, the difference vector, and the prediction vector index, and the candidate block group supplied from the terminal 33. Is supplied to the terminal 34. A detailed configuration of the motion vector reproducing unit 211 will be described later.

結合動き情報再生部212は、符号化モード判定部210より供給されるマージ候補番号と、端子33より供給される候補ブロック群から、動き情報を再生して端子34に供給する。結合動き情報再生部212の詳細な構成については後述する。   The combined motion information reproduction unit 212 reproduces motion information from the merge candidate number supplied from the encoding mode determination unit 210 and the candidate block group supplied from the terminal 33 and supplies the motion information to the terminal 34. A detailed configuration of the combined motion information reproducing unit 212 will be described later.

続いて、動きベクトル再生部211の詳細な構成について図32を用いて説明する。図32は動きベクトル再生部211の構成を示す。動きベクトル再生部211は、予測ベクトル候補リスト生成部220、予測ベクトル決定部221および加算部222を含む。端子35は符号化モード判定部210に接続されている。   Next, a detailed configuration of the motion vector reproduction unit 211 will be described with reference to FIG. FIG. 32 shows a configuration of the motion vector reproducing unit 211. The motion vector reproduction unit 211 includes a prediction vector candidate list generation unit 220, a prediction vector determination unit 221, and an addition unit 222. The terminal 35 is connected to the encoding mode determination unit 210.

以下、各部の機能について説明する。予測ベクトル候補リスト生成部220は、動画像符号化装置100の予測ベクトル候補リスト生成部130と同一の機能を有する。予測ベクトル決定部221は、予測ベクトル候補リスト生成部220より供給される予測ベクトル候補リスト、および端子35より供給される予測ベクトルインデックスから、予測ベクトルを決定して加算部222に供給する。   Hereinafter, functions of each unit will be described. The prediction vector candidate list generation unit 220 has the same function as the prediction vector candidate list generation unit 130 of the video encoding device 100. The prediction vector determination unit 221 determines a prediction vector from the prediction vector candidate list supplied from the prediction vector candidate list generation unit 220 and the prediction vector index supplied from the terminal 35, and supplies the prediction vector to the addition unit 222.

加算部222は、端子35より供給される差分ベクトルと、予測ベクトル決定部221より供給される予測ベクトルとを加算して動きベクトルを算出し、当該動きベクトルを端子34に供給する。   The adder 222 adds the difference vector supplied from the terminal 35 and the prediction vector supplied from the prediction vector determination unit 221 to calculate a motion vector, and supplies the motion vector to the terminal 34.

続いて、結合動き情報再生部212の詳細な構成について図33を用いて説明する。図33は結合動き情報再生部212の構成を示す。結合動き情報再生部212は、結合動き情報候補生成部230および結合動き情報選択部231を含む。   Next, a detailed configuration of the combined motion information reproduction unit 212 will be described with reference to FIG. FIG. 33 shows the configuration of the combined motion information playback unit 212. The combined motion information reproduction unit 212 includes a combined motion information candidate generation unit 230 and a combined motion information selection unit 231.

以下、各部の機能について説明する。結合動き情報候補生成部230は図15に示す結合動き情報候補生成部140と同一の機能を有する。結合動き情報選択部231は、結合動き情報候補生成部230より供給される結合動き情報候補リスト、および端子35より供給されるマージ候補番号に基づいて、結合動き情報候補リストの中から動き情報を選択し、当該動き情報を端子34に供給する。   Hereinafter, functions of each unit will be described. The combined motion information candidate generation unit 230 has the same function as the combined motion information candidate generation unit 140 shown in FIG. Based on the combined motion information candidate list supplied from the combined motion information candidate generation unit 230 and the merge candidate number supplied from the terminal 35, the combined motion information selection unit 231 selects motion information from the combined motion information candidate list. The motion information is selected and supplied to the terminal 34.

(動画像復号装置200の動作)
続いて、図34のフローチャートを用いて、実施の形態1の動画像復号装置200における復号の動作を説明する。図34は本発明の実施の形態1に係る動画像復号装置200の復号の動作を説明するためのフローチャートである。符号列解析部201は、端子30より供給される符号列を復号して予測誤差符号化データ、マージフラグ、マージ候補番号、動き補償予測の予測方向、参照画像インデックス、差分ベクトル、および予測ベクトルインデックスをシンタックスに従って復号する(S210)。
(Operation of the video decoding device 200)
Subsequently, the decoding operation in the video decoding device 200 according to Embodiment 1 will be described with reference to the flowchart of FIG. FIG. 34 is a flowchart for explaining the decoding operation of moving picture decoding apparatus 200 according to Embodiment 1 of the present invention. The code string analysis unit 201 decodes the code string supplied from the terminal 30 to predict prediction error encoded data, merge flag, merge candidate number, prediction direction of motion compensation prediction, reference image index, difference vector, and prediction vector index. Is decoded according to the syntax (S210).

動き情報再生部204は、符号列解析部201より供給されるマージフラグ、マージ候補番号、動き補償予測の予測方向、参照画像インデックス、差分ベクトル、および予測ベクトルインデックスと、動き情報メモリ207より供給される候補ブロック群から、動き情報を再生する(S211)。   The motion information reproduction unit 204 is supplied from the motion information memory 207 and the merge flag, merge candidate number, motion compensation prediction direction, reference image index, difference vector, and prediction vector index supplied from the code string analysis unit 201. Motion information is reproduced from the candidate block group (S211).

動き補償部205は、動き情報再生部204より供給される動き情報に基づいて、フレームメモリ206内の参照画像インデックスが示す参照画像を、動きベクトルに基づき動き補償して予測信号を生成する。予測方向が双方向であれば、L0方向とL1方向の予測信号を平均したものを予測信号として生成する(S212)。   Based on the motion information supplied from the motion information reproducing unit 204, the motion compensation unit 205 performs motion compensation on the reference image indicated by the reference image index in the frame memory 206 based on the motion vector to generate a prediction signal. If the prediction direction is bidirectional, an average of the prediction signals in the L0 direction and the L1 direction is generated as a prediction signal (S212).

予測誤差復号部202は、符号列解析部201より供給される予測誤差符号化データに対して、逆量子化や逆直交変換などの処理を行って予測誤差信号を生成する(S213)。加算部203は、予測誤差復号部202より供給される予測誤差信号と、動き補償部205より供給される予測信号とを加算して復号画像信号を生成する(S214)。   The prediction error decoding unit 202 performs a process such as inverse quantization and inverse orthogonal transform on the prediction error encoded data supplied from the code string analysis unit 201 to generate a prediction error signal (S213). The adding unit 203 adds the prediction error signal supplied from the prediction error decoding unit 202 and the prediction signal supplied from the motion compensation unit 205 to generate a decoded image signal (S214).

フレームメモリ206は、加算部203より供給される復号画像信号を記憶する(S215)。動き情報メモリ207は、動き情報再生部204より供給される動きベクトルを最小の予測ブロックサイズ単位で1画像分記憶する(S216)。   The frame memory 206 stores the decoded image signal supplied from the adding unit 203 (S215). The motion information memory 207 stores the motion vector supplied from the motion information reproducing unit 204 for one image in the minimum predicted block size unit (S216).

引き続いて、図35のフローチャートを用いて、動き情報再生部204の動作を説明する。図35は動き情報再生部204の動作を説明するためのフローチャートである。符号化モード判定部210は、符号列解析部201より供給されるマージフラグが「0」であるか「1」であるか判定する(S220)。マージフラグが「1」であれば、結合動き情報再生部212は、符号化モード判定部210より供給されるマージ候補番号、および端子33より供給される候補ブロック群から、動き情報を再生する(S221)。   Subsequently, the operation of the motion information reproducing unit 204 will be described with reference to the flowchart of FIG. FIG. 35 is a flowchart for explaining the operation of the motion information reproducing unit 204. The encoding mode determination unit 210 determines whether the merge flag supplied from the code string analysis unit 201 is “0” or “1” (S220). If the merge flag is “1”, the combined motion information reproduction unit 212 reproduces motion information from the merge candidate number supplied from the encoding mode determination unit 210 and the candidate block group supplied from the terminal 33 ( S221).

マージフラグが「0」であれば、動きベクトル再生部211は、符号化モード判定部210より供給される動き補償予測の予測方向、参照画像インデックス、差分ベクトル、および予測ベクトルインデックス、ならびに端子33より供給される候補ブロック群から、動き情報を再生する(S222)。   If the merge flag is “0”, the motion vector reproduction unit 211 receives the prediction direction of motion compensation prediction, the reference image index, the difference vector, and the prediction vector index supplied from the encoding mode determination unit 210 and the terminal 33. Motion information is reproduced from the supplied candidate block group (S222).

引き続いて、図36のフローチャートを用いて、動きベクトル再生部211の動作を説明する。図36は動きベクトル再生部211の動作を説明するためのフローチャートである。予測ベクトル候補リスト生成部220は、動画像符号化装置100の予測ベクトル候補リスト生成部130と同一の動作によって予測ベクトル候補リストを生成する(S300)。   Subsequently, the operation of the motion vector reproducing unit 211 will be described with reference to the flowchart of FIG. FIG. 36 is a flowchart for explaining the operation of the motion vector reproducing unit 211. The prediction vector candidate list generation unit 220 generates a prediction vector candidate list by the same operation as the prediction vector candidate list generation unit 130 of the video encoding device 100 (S300).

予測ベクトル決定部221は、予測ベクトル候補リスト生成部220より供給される予測ベクトル候補リストの中から、端子35より供給される予測ベクトルインデックスで示される予測ベクトル候補を選択して、予測ベクトルを決定する(S301)。加算部222は、端子35より供給される差分ベクトルと、予測ベクトル決定部221より供給される予測ベクトルとを加算して動きベクトルを算出する(S302)。   The prediction vector determination unit 221 selects a prediction vector candidate indicated by the prediction vector index supplied from the terminal 35 from the prediction vector candidate list supplied from the prediction vector candidate list generation unit 220, and determines a prediction vector. (S301). The adder 222 adds the difference vector supplied from the terminal 35 and the prediction vector supplied from the prediction vector determination unit 221 to calculate a motion vector (S302).

引き続いて、図37のフローチャートを用いて、結合動き情報再生部212の動作を説明する。図37は結合動き情報再生部212の動作を説明するためのフローチャートである。結合動き情報候補生成部230は、動画像符号化装置100の結合動き情報候補生成部140と同一の動作によって結合動き情報候補リストを生成する(S310)。結合動き情報選択部231は、結合動き情報候補生成部230より供給される結合動き情報候補リストの中から、端子35より供給されるマージ候補番号で示される結合動き情報候補を選択して、結合動き情報を決定する(S311)。   Subsequently, the operation of the combined motion information reproducing unit 212 will be described with reference to the flowchart of FIG. FIG. 37 is a flowchart for explaining the operation of the combined motion information reproducing unit 212. The combined motion information candidate generation unit 230 generates a combined motion information candidate list by the same operation as the combined motion information candidate generation unit 140 of the video encoding device 100 (S310). The combined motion information selection unit 231 selects a combined motion information candidate indicated by the merge candidate number supplied from the terminal 35 from the combined motion information candidate list supplied from the combined motion information candidate generation unit 230, and combines them. The motion information is determined (S311).

(実施の形態1の変形例)
なお、実施の形態1は以下のように変形できる。
(Modification of Embodiment 1)
The first embodiment can be modified as follows.

(変形例1:マージ候補番号の順序)
上述の実施の形態1では、候補番号管理テーブルの一例として図18を挙げたが、結合動き情報候補の最大数は1以上であればよく、選択率が相対的に高い結合動き情報候補ほど小さいマージ候補番号が割り当てられていればよく、図18に限定されない。また、結合動き情報候補リストに含まれる結合動き情報候補の最大数は7(マージインデックスの最大値は6)としたが、2以上であればよい。例えば、スケーリング結合動き情報候補の選択率が、ブロックCとブロックEの結合動き情報候補の選択率よりも高い場合には、図38(a)や図38(b)のようにしてもよい。図38(a)、(b)は変形例1に係る候補番号管理テーブルを説明するための図である。また、図39のようにスケーリング結合動き情報候補を増加させることもできる。図39は実施の形態1の変形例1に係る別の候補番号管理テーブルの説明するための図である。
(Modification 1: Merge candidate number order)
In Embodiment 1 described above, FIG. 18 is given as an example of the candidate number management table. However, the maximum number of combined motion information candidates may be 1 or more, and the combined motion information candidates having a relatively high selection rate are smaller. The merge candidate number only needs to be assigned, and is not limited to FIG. The maximum number of combined motion information candidates included in the combined motion information candidate list is 7 (the maximum value of the merge index is 6), but it may be 2 or more. For example, when the selection rate of the combined motion information candidate for scaling is higher than the selection rate of the combined motion information candidate for block C and block E, it may be as shown in FIG. 38A and 38B are diagrams for explaining a candidate number management table according to the first modification. Also, as shown in FIG. 39, the scaling combined motion information candidates can be increased. FIG. 39 is a diagram for explaining another candidate number management table according to the first modification of the first embodiment.

以上のように、スケーリング結合動き情報候補の選択率に応じて候補番号管理テーブルの定義を変更することで、結合動き情報候補の選択率を高めて動き情報の符号化効率を向上させることができる。   As described above, by changing the definition of the candidate number management table according to the selection rate of the scaling combined motion information candidate, the selection rate of the combined motion information candidate can be increased and the encoding efficiency of the motion information can be improved. .

(変形例2:時間候補ブロックの除外)
上述の実施の形態1では、結合動き情報候補生成部140の動作を図24としたが、スケーリング結合動き情報候補が生成されればよく、これに限定されない。例えば、時間候補ブロックを利用して予測方向が常に双方向でスケーリングされたベクトルを持つ結合動き情報候補である時間結合動き情報候補を生成するステップS141を削除することもできる。これにより、時間候補ブロックに依存することなくスケーリングされたベクトルを持つ結合動き情報候補を生成でき、時間候補ブロックが正しく復号できなかったような場合でもスケーリングされたベクトルを持つ結合動き情報候補を生成できる。
(Variation 2: Exclusion of time candidate blocks)
In Embodiment 1 described above, the operation of the combined motion information candidate generation unit 140 is shown in FIG. 24, but it is only necessary to generate a scaled combined motion information candidate, which is not limited to this. For example, step S141 for generating a temporally combined motion information candidate that is a combined motion information candidate having a vector whose prediction direction is always bi-directionally scaled using a temporal candidate block may be deleted. This makes it possible to generate combined motion information candidates with scaled vectors without depending on temporal candidate blocks, and generate combined motion information candidates with scaled vectors even when temporal candidate blocks cannot be decoded correctly it can.

(変形例3:スケーリング結合動き情報候補の生成停止)
上述の実施の形態1では、スケーリング結合動き情報候補の生成の動作を図28としたが、スケーリング結合動き情報候補が生成されればよく、これに限定されない。例えば、双方向の動き補償予測に係るフィルタリング処理や平均化処理の削減を目的に、図40のように下記のステップを追加することもできる。図40は実施の形態1の変形例3に係るスケーリング結合動き情報候補の生成の動作を説明するためのフローチャートである。
(Modification 3: Stop generation of scaling combined motion information candidates)
In Embodiment 1 described above, the operation of generating the scaled combined motion information candidate is shown in FIG. 28, but the scaled combined motion information candidate may be generated and is not limited to this. For example, the following steps may be added as shown in FIG. 40 for the purpose of reducing filtering processing and averaging processing related to bidirectional motion compensation prediction. FIG. 40 is a flowchart for explaining the operation of generating scaling combined motion information candidates according to the third modification of the first embodiment.

LX方向とLY方向の参照画像が時間的に同一方向であるかを判定し(S177)、LX方向とLY方向の参照画像が時間的に同一方向でなければ(S177のN)、ステップS175を行ってスケーリング結合動き情報候補を生成する。LX方向とLY方向の参照画像が時間的に同一方向であれば(S177のY)、ステップS175をスキップしてスケーリング結合動き情報候補を生成しない。なお、時間方向が同一であるとはCurL0DistとCurL1Distが同じ符号(プラスまたはマイナス)を持つことである。また、ステップS177は更にLX方向とLY方向の参照画像が同一であるかを判定するように変形できる。   It is determined whether the reference images in the LX direction and the LY direction are temporally the same direction (S177). If the reference images in the LX direction and the LY direction are not temporally the same direction (N in S177), step S175 is performed. To generate scaling combined motion information candidates. If the reference images in the LX direction and the LY direction are temporally in the same direction (Y in S177), the step S175 is skipped and no scaling combined motion information candidate is generated. Note that the same time direction means that CurL0Dist and CurL1Dist have the same sign (plus or minus). Further, step S177 can be further modified to determine whether the reference images in the LX direction and the LY direction are the same.

(変形例4:参照画像設定の拡張)
上述の実施の形態1では、スケーリング結合動き情報候補の生成の動作(図28)の中のLY方向の参照画像の設定(S174)を、LY方向の参照画像インデックスの0で示される参照画像を設定するとしたが、LY方向の参照画像を設定できればよくこれに限定されない。例えば、動き補償予測のフィルタリング効果などの予測効率の向上を目的に、LX方向の参照画像とLY方向の参照画像インデックスの0で示される参照画像が同一である場合には、LY方向の参照画像の中でLX方向の参照画像とは異なる、処理対象画像と最も距離の近い参照画像をLY方向の参照画像とすることもできる。より具体的にはLY方向の参照画像の中で参照画像インデックスの0で示される参照画像の次に距離が近い確率が相対的に高い、LY方向の参照画像インデックスの1で示される参照画像とすることができる。また、処理対象ブロックの隣接ブロックが使用しているLY方向の参照画像で、最も多く使用されている参照画像をLY方向の参照画像としてもよい。
(Modification 4: Expansion of reference image setting)
In the first embodiment described above, the setting of the reference image in the LY direction (S174) in the operation of generating the scaled combined motion information candidate (FIG. 28) is performed using the reference image indicated by 0 in the reference image index in the LY direction. However, the present invention is not limited to this as long as a reference image in the LY direction can be set. For example, when the reference image in the LX direction and the reference image indicated by 0 in the reference image index in the LY direction are the same for the purpose of improving prediction efficiency such as a filtering effect of motion compensation prediction, the reference image in the LY direction Among them, a reference image closest to the processing target image, which is different from the reference image in the LX direction, can be used as the reference image in the LY direction. More specifically, among the reference images in the LY direction, the reference image indicated by 1 in the LY direction reference image index having a relatively high probability of being next closest to the reference image indicated by the reference image index 0 can do. Also, the reference image used most frequently in the reference image in the LY direction used by the adjacent block of the processing target block may be used as the reference image in the LY direction.

(変形例5:予測方向が双方向である候補ブロックのスケーリング)
上述の実施の形態1では、スケーリング結合動き情報候補の生成の動作を図28のように、候補ブロックの予測方向が単方向である場合にスケーリング結合動き情報候補を生成するとしたが、スケーリング結合動き情報候補が生成されればよく、これに限定されない。例えば、図41のように予測方向が双方向である候補ブロックについて、動きベクトルと参照画像インデックスをスケーリングしないで利用する予測方向をベース方向(基準方向ともいう)として選択し、ベース方向でない予測方向の動きベクトルと参照画像インデックスをスケーリングによって算出することによって、スケーリング結合動き情報候補を生成することもできる。
(Modification 5: Scaling of candidate block whose prediction direction is bidirectional)
In Embodiment 1 described above, the operation of generating the scaling combined motion information candidate is generated when the combined prediction motion information candidate is generated when the prediction direction of the candidate block is unidirectional as shown in FIG. The information candidate only needs to be generated, and the present invention is not limited to this. For example, for a candidate block whose prediction direction is bidirectional as shown in FIG. 41, a prediction direction to be used without scaling the motion vector and the reference image index is selected as a base direction (also referred to as a reference direction), and a prediction direction that is not the base direction By calculating the motion vector and the reference image index by scaling, it is possible to generate a scaled combined motion information candidate.

図41は実施の形態1の変形例5に係るスケーリング結合動き情報候補の生成の動作を説明するためのフローチャートである。図41のフローチャートは、図28のフローチャートに以下のステップが追加されている。候補ブロックの予測方向が単方向でなければ(S173のN)、ベースとなるLX方向とスケーリングにより算出されるLY方向を設定する(S178)。本変形例では、L0方向の参照画像とL1方向の参照画像のうち、相関性の高いと考えられる処理対象画像から距離の近い予測方向をLX方向とする。相関性の高いと考えられる動きベクトルを基準としてスケーリングを行うことで、相関性の高い予測ベクトルを算出することができる。   FIG. 41 is a flowchart for explaining the operation of generating scaling combined motion information candidates according to the fifth modification of the first embodiment. In the flowchart of FIG. 41, the following steps are added to the flowchart of FIG. If the prediction direction of the candidate block is not unidirectional (N in S173), the base LX direction and the LY direction calculated by scaling are set (S178). In the present modification, the LX direction is a prediction direction that is close to the processing target image that is considered to have high correlation among the reference image in the L0 direction and the reference image in the L1 direction. By performing scaling on the basis of a motion vector that is considered highly correlated, a highly correlated prediction vector can be calculated.

本変形例では、L0方向の参照画像とL1方向の参照画像のうち、処理対象画像から距離の近い予測方向をLX方向としたが、LX方向が決定できればよく、これに限定されない。例えば、L0方向の参照画像とL1方向の参照画像のうち、相関性の高いと考えられる参照インデックスの値の小さい予測方向をLX方向とすることもできる。   In the present modification, the LX direction is the prediction direction that is closer to the processing target image among the reference images in the L0 direction and the L1 direction. However, the LX direction may be determined and is not limited thereto. For example, a prediction direction having a small reference index value that is considered to have high correlation among the reference image in the L0 direction and the reference image in the L1 direction may be set as the LX direction.

また、L0方向の参照画像とL1方向の参照画像のうち、処理対象画像から距離の遠いまたは長い予測方向をLX方向とし、距離の近いまたは短い予測方向をLY方向とすることで、LY方向の予測ベクトルの算出精度を向上させることができる。これは、スケーリングによる算出の際には、スケーリングの倍率が小さい方が算出精度が高くなるからである。参照インデックスの値の大きい予測方向をLX方向とし、参照インデックスの値の小さい予測方向をLY方向としても同様の効果を得ることができる。相関性の高い動きベクトルを基準としてスケーリングを行うか、算出精度の高いスケーリングを行うかは固定で規定してもよいが、符号化側でシーケンス、ピクチャまたはスライス単位で設定し、それらの設定を識別するフラグを符号化して、復号側でそのフラグの値に応じて切り替えてもよい。   Further, of the reference image in the L0 direction and the reference image in the L1 direction, the prediction direction that is far or long from the processing target image is set as the LX direction, and the prediction direction that is close or short in distance is set as the LY direction. The calculation accuracy of the prediction vector can be improved. This is because the calculation accuracy is higher when the scaling factor is smaller in the calculation by scaling. The same effect can be obtained even if the prediction direction with a large reference index value is the LX direction and the prediction direction with a small reference index value is the LY direction. Whether to perform scaling based on highly correlated motion vectors or scaling with high calculation accuracy may be fixed, but it is set on the encoding side in sequence, picture or slice units, and those settings are set A flag to be identified may be encoded and switched on the decoding side according to the value of the flag.

続いて、LY方向の参照画像(参照インデックス)を設定する(S183)。その際、LY方向の参照画像(参照インデックス)をそのまま設定してもよいし、ステップS174と同様の処理によりLY方向の参照画像(参照インデックス)を設定してもよい。LY方向の参照画像(参照インデックス)をそのまま設定した場合は、相関性の高い参照画像の、既存の動きベクトルと異なるLY方向の動きベクトルを算出することができ、ステップS174と同様の処理によりLY方向の参照画像(参照インデックス)を設定した場合は、単結合動き情報候補とは異なる値を持つスケーリング結合動き情報候補を算出する可能性が高く、選択の幅を広げることができる。   Subsequently, a reference image (reference index) in the LY direction is set (S183). At that time, the reference image (reference index) in the LY direction may be set as it is, or the reference image (reference index) in the LY direction may be set by the same processing as in step S174. When the reference image (reference index) in the LY direction is set as it is, a motion vector in the LY direction different from the existing motion vector of the highly correlated reference image can be calculated, and LY is obtained by the same processing as in step S174. When a direction reference image (reference index) is set, it is highly possible to calculate a scaling combined motion information candidate having a value different from that of a single combined motion information candidate, and the selection range can be widened.

また、スケーリング結合動き情報候補の生成の動作を図42のように、双方向である候補ブロックについて、L0方向およびL1方向の両方をベース方向として選択し、ベース方向でない予測方向の動きベクトルと参照画像インデックスをスケーリングによって算出することによって、スケーリング結合動き情報候補を生成することもできる。   Further, as shown in FIG. 42, the generation operation of the scaling combined motion information candidate is selected as the base direction in both the L0 direction and the L1 direction for the bidirectional candidate block, and the motion vector in the prediction direction other than the base direction is referred to. A scaling combined motion information candidate can also be generated by calculating an image index by scaling.

図42は実施の形態1の変形例5に係る別のスケーリング結合動き情報候補の生成の動作を説明するためのフローチャートである。図42のフローチャートは、図28のフローチャートに以下のステップが追加されている。候補ブロックの予測方向が単方向でなければ(S173のN)、ステップS180からステップS182の処理がLX方向をL0方向とする場合(i=0)とLX方向をL1方向とする場合(i=1)の2回繰り返される(S180からS182)。ベースとなるLX方向をLi方向とし、スケーリングにより算出されるLY方向をLX方向ではない予測方向に設定する(S180)。   FIG. 42 is a flowchart for explaining the operation of generating another scaling combined motion information candidate according to the fifth modification of the first embodiment. In the flowchart of FIG. 42, the following steps are added to the flowchart of FIG. If the prediction direction of the candidate block is not unidirectional (N in S173), when the processing from step S180 to step S182 sets the LX direction to the L0 direction (i = 0) and the LX direction to the L1 direction (i = 1) is repeated twice (S180 to S182). The base LX direction is set as the Li direction, and the LY direction calculated by scaling is set as a predicted direction other than the LX direction (S180).

本変形例では、予測方向が単方向であるか双方向であるかは考慮しないで候補ブロックをスケーリング結合動き情報候補の対象となる結合動き情報候補としてスケーリング結合動き情報候補を生成したが、スケーリング結合動き情報候補が生成されればよく、これに限定されない。例えば、結合動き情報候補リストに追加できるスケーリング結合動き情報候補の数に制限があるような場合には、予測方向が単方向である候補ブロックを優先してスケーリング結合動き情報候補の対象となる結合動き情報候補とすることもできる。例えば、予測方向が単方向である候補ブロックのみをスケーリング結合動き情報候補の対象となる結合動き情報候補としてもよいし、予測方向が単方向である候補ブロックであって処理対象ブロックとの隣接度が相対的に高い候補ブロックをスケーリング結合動き情報候補の対象となる結合動き情報候補としてもよい。   In this modified example, the candidate combined block is generated as a combined motion information candidate that is a target of the combined motion information candidate without considering whether the prediction direction is unidirectional or bidirectional. A combined motion information candidate may be generated, and the present invention is not limited to this. For example, when there is a limit to the number of scaling combined motion information candidates that can be added to the combined motion information candidate list, a combination that is a target of the scaling combined motion information candidate is given priority to a candidate block whose prediction direction is unidirectional. It can also be a motion information candidate. For example, only candidate blocks having a unidirectional prediction direction may be combined motion information candidates that are candidates for scaling combined motion information candidates, or the degree of adjacency with a processing target block that is a candidate block having a unidirectional prediction direction. A candidate block having a relatively high value may be used as a combined motion information candidate that is a target of the scaled combined motion information candidate.

また、予測方向が双方向である候補ブロックを優先してスケーリング結合動き情報候補の対象となる結合動き情報候補とすることもできる。例えば、予測方向が双方向である候補ブロックのみをスケーリング結合動き情報候補の対象となる結合動き情報候補としてもよいし、予測方向が双方向である候補ブロックであって処理対象ブロックとの隣接度が相対的に高い候補ブロックをスケーリング結合動き情報候補の対象となる結合動き情報候補としてもよい。   In addition, a candidate block whose prediction direction is bidirectional can be preferentially used as a combined motion information candidate to be a target of the scaling combined motion information candidate. For example, only candidate blocks with bidirectional prediction directions may be combined motion information candidates that are candidates for scaling combined motion information candidates, or the degree of adjacency with processing target blocks that are candidate blocks with bidirectional prediction directions. A candidate block having a relatively high value may be used as a combined motion information candidate that is a target of the scaled combined motion information candidate.

以上のように、予測方向が双方向である候補ブロックについてスケーリング結合動き情報候補を生成することで、結合動き情報候補の数を増加させて結合動き情報候補の選択率を高めることで動き情報の符号化効率を向上させることができる。   As described above, by generating a scaling combined motion information candidate for a candidate block whose prediction direction is bidirectional, the number of combined motion information candidates is increased and the selection rate of combined motion information candidates is increased, thereby increasing the motion information Encoding efficiency can be improved.

(変形例6:スケーリングの演算)
上述の実施の形態1では、スケーリングにより算出する動きベクトルの算出式を(式4)としたが、スケーリングされた動きベクトルが算出できればよく、これに限定されない。例えば、(式4)の除算を切り捨てや切り上げにして、時間結合動き情報候補の動きベクトルの算出式である(式1)と除算の精度が異なるように設計してもよい。これにより、ベース方向であるLX方向の動き情報が時間結合動き情報候補のLX方向の動き情報と同じ場合でも時間結合動き情報候補とは異なる動き情報を持つスケーリング結合動き情報候補を生成し、結合動き情報候補の選択率を高めて動き情報の符号化効率を向上させることができる。
(Modification 6: Calculation of scaling)
In the first embodiment described above, the equation for calculating the motion vector calculated by scaling is (Equation 4), but it is only necessary to be able to calculate the scaled motion vector, and is not limited to this. For example, the division of (Equation 4) may be rounded down or rounded up so that the accuracy of division is different from that of (Equation 1), which is a motion vector calculation formula for temporally coupled motion information candidates. As a result, even if the motion information in the LX direction that is the base direction is the same as the motion information in the LX direction of the temporally combined motion information candidate, a scaling combined motion information candidate having motion information different from the temporally combined motion information candidate is generated and combined The efficiency of motion information encoding can be improved by increasing the selection rate of motion information candidates.

(変形例7:結合動き情報候補の置換)
上述の実施の形態1では、結合動き情報候補生成部140の動作を図24としたが、スケーリング結合動き情報候補が生成されればよく、これに限定されない。例えば、ステップS144を次のようにすることもできる。スケーリング結合動き情報候補生成部151は、第1結合動き情報候補リストの中のスケーリング結合動き情報候補の対象となる結合動き情報候補をスケーリング結合動き情報候補に置換し、第2結合動き情報候補リストを生成する(S144)。一般的には動きベクトルの精度が比較的高い場合には予測方向が単方向であるよりも予測方向が双方向である方が予測効率は高くなる。したがって、予測方向が単方向である単結合動き情報を、予測方向が双方向であるスケーリング結合動き情報に置換することで、予測効率の高い結合動き情報候補の選択率を高めて動き情報の符号化効率を向上させることができる。
(Modification 7: Replacement of combined motion information candidates)
In Embodiment 1 described above, the operation of the combined motion information candidate generation unit 140 is shown in FIG. 24, but it is only necessary to generate a scaled combined motion information candidate, which is not limited to this. For example, step S144 can be performed as follows. The scaling combined motion information candidate generation unit 151 replaces the combined motion information candidate that is the target of the scaling combined motion information candidate in the first combined motion information candidate list with the scaling combined motion information candidate, and the second combined motion information candidate list. Is generated (S144). In general, when the accuracy of the motion vector is relatively high, the prediction efficiency is higher when the prediction direction is bidirectional than when the prediction direction is unidirectional. Therefore, by replacing single combined motion information whose prediction direction is unidirectional with scaling combined motion information whose prediction direction is bidirectional, it is possible to increase the selection rate of combined motion information candidates with high prediction efficiency and code the motion information. Efficiency can be improved.

(実施の形態1の効果の一例)
実施の形態1による効果の一例について図43と図44を用いて説明する。図43は処理対象画像CurPicと参照画像の関係について説明するための図である。図43について説明する。L1方向の参照画像インデックス1で示される参照画像RefL1Pic[1]、L1方向の参照画像インデックス0で示される参照画像RefL1Pic[0]、処理対象画像CurPic、L0方向の参照画像インデックス0で示される参照画像RefL0Pic[0]、およびL0方向の参照画像インデックス1で示される参照画像RefL0Pic[1]が等間隔に並んでいるとする。また、処理対象ブロックZにとって予測誤差が最小となる動き情報が、予測方向が双方向(BI)で、mvL0Z=(4,4)、mvL1Z=(−2,−2)、refIdxL0Z=1、refIdxL1Z=0であるとする。
(Example of effect of Embodiment 1)
An example of the effect of the first embodiment will be described with reference to FIGS. 43 and 44. FIG. FIG. 43 is a diagram for explaining the relationship between the processing target image CurPic and the reference image. FIG. 43 will be described. Reference image RefL1Pic [1] indicated by reference image index 1 in the L1 direction, reference image RefL1Pic [0] indicated by reference image index 0 in the L1 direction, reference image RefL1Pic [0] indicated by reference image index 0 in the L1 direction, reference indicated by reference image index 0 in the L0 direction Assume that the image RefL0Pic [0] and the reference image RefL0Pic [1] indicated by the reference image index 1 in the L0 direction are arranged at equal intervals. In addition, the motion information with the smallest prediction error for the processing target block Z is that the prediction direction is bidirectional (BI), mvL0Z = (4,4), mvL1Z = (− 2, −2), refIdxL0Z = 1, refIdxL1Z. = 0.

このとき、単結合動き情報候補が図44のA、B、COL、C、Eであるとする。図44は実施の形態1の効果を説明するための図である。これら単結合動き情報候補の中には処理対象ブロックZにとって予測誤差が最小となる動き情報と同一の動き情報はない。したがって、これら単結合動き情報候補の中からレート歪み評価値が最小となる単結合動き情報候補を選択することになる。そして、その候補のレート歪み評価値と、差分ベクトル算出部120で算出されたレート歪み評価値とを比較して、前者が後者より小さくなる場合のみ符号化モードとしてマージモードが利用されることになる。   At this time, it is assumed that the single combined motion information candidates are A, B, COL, C, and E in FIG. FIG. 44 is a diagram for explaining the effect of the first embodiment. Among these single coupled motion information candidates, there is no motion information identical to the motion information that minimizes the prediction error for the processing target block Z. Therefore, a single combined motion information candidate having a minimum rate distortion evaluation value is selected from these single combined motion information candidates. Then, the candidate rate distortion evaluation value and the rate distortion evaluation value calculated by the difference vector calculation unit 120 are compared, and the merge mode is used as the encoding mode only when the former is smaller than the latter. Become.

符号化モードとしてマージモードが選択された場合、それは動き情報の符号化効率と予測誤差のバランスが最適なためであって、予測誤差は最適とはならない。一方、符号化モードとして非マージモードが選択された場合には、差分動きベクトルや参照画像インデックスを符号化する必要があるため動き情報の符号化効率は最適とはならない。   When the merge mode is selected as the encoding mode, it is because the balance between the encoding efficiency of motion information and the prediction error is optimal, and the prediction error is not optimal. On the other hand, when the non-merge mode is selected as the encoding mode, it is necessary to encode the differential motion vector and the reference image index, so that the encoding efficiency of the motion information is not optimal.

ここで、ブロックBとブロックCは単方向予測であり、スケーリング結合動き情報候補の候補対象となる。第1のスケーリング結合動き情報候補(BP0)は、ブロックBを候補対象とし、ブロックBのL1方向の参照画像インデックスと動きベクトルを、下記式5に示すようにBP0のL1方向の参照画像インデックスと動きベクトルとする。ブロックBのL0方向の参照画像インデックスと動きベクトルは、下記式6に示すように参照画像設定部161とスケーリング部162によって求められる。
mvL1BP0=(4,4)、refIdxL1BP0=1 ・・・(式5)
mvL0BP0=(4,4)×−1/2=(−2,−2)、refIdxL1BP0=0 ・・・(式6)
Here, the block B and the block C are unidirectional prediction, and are candidates for scaling combined motion information candidates. The first scaling combined motion information candidate (BP0) is targeted for the block B, and the reference image index and motion vector of the block B in the L1 direction are represented by the reference image index of the BP0 in the L1 direction as shown in Equation 5 below. Let it be a motion vector. The reference image index and the motion vector of the block B in the L0 direction are obtained by the reference image setting unit 161 and the scaling unit 162 as shown in Equation 6 below.
mvL1BP0 = (4, 4), refIdxL1BP0 = 1 (Expression 5)
mvL0BP0 = (4,4) × −1 / 2 = (− 2, −2), refIdxL1BP0 = 0 (Expression 6)

第2のスケーリング結合動き情報候補(BP1)は、ブロックCを候補対象とし、ブロックCのL1方向の参照画像インデックスと動きベクトルを、下記式7に示すようにBP1のL1方向の参照画像インデックスと動きベクトルとする。ブロックBのL0方向の参照画像インデックスと動きベクトルは、下記式8に示すように参照画像設定部161とスケーリング部162によって求められる。
mvL1BP1=(−2,8)、refIdxL1BP1=0 ・・・(式7)
mvL0BP1=(−2,8)×−1/1=(2,−8)、refIdxL1BP1=0 ・・・(式8)
The second scaling combined motion information candidate (BP1) is targeted for the block C, and the reference image index and motion vector of the block C in the L1 direction are represented by the reference image index of the BP1 in the L1 direction as shown in Equation 7 below. Let it be a motion vector. The reference image index and the motion vector of the block B in the L0 direction are obtained by the reference image setting unit 161 and the scaling unit 162 as shown in the following formula 8.
mvL1BP1 = (− 2, 8), refIdxL1BP1 = 0 (Expression 7)
mvL0BP1 = (− 2,8) × −1 / 1 = (2, −8), refIdxL1BP1 = 0 (Equation 8)

このとき、BP1は処理対象ブロックZにとって予測誤差が最小となる動き情報と同じ動き情報を持つことがわかる。つまり、BP1を選択することで、予測誤差を最小化し、動き情報の符号化効率を最適化することができる。   At this time, it can be seen that BP1 has the same motion information as the motion information that minimizes the prediction error for the processing target block Z. That is, by selecting BP1, the prediction error can be minimized and the coding efficiency of motion information can be optimized.

(実施の形態1の効果)
以上のように、処理対象ブロックの動きがLX方向のいずれかの参照画像とLY方向のいずれかの参照画像と等速運動をしている場合にて、符号化済みの別の画像の同一位置ブロックや当該処理対象ブロックの隣接ブロックの動き情報の中に処理対象ブロックと同一の等速運動を示す動き情報がない場合がある。その場合にて、符号化済みの別の画像の同一位置ブロックや当該処理対象ブロックの隣接ブロックの動き情報の中のL0方向またはL1方向の単方向だけが処理対象ブロックと同一の等速運動である場合がある。その場合、その単方向の動き情報をスケーリングしてスケーリング結合動き情報候補を生成することで、動き情報を符号化することなくマージインデックスのみで符号化することができる。したがって、符号化効率と予測効率を最適化できる動画像符号化装置および動画像復号装置を実現できる。
(Effect of Embodiment 1)
As described above, in the case where the motion of the block to be processed moves at a constant speed with any reference image in the LX direction and any reference image in the LY direction, the same position of another encoded image There may be no motion information indicating the same speed motion as the processing target block in the motion information of the block or the block adjacent to the processing target block. In that case, only the single direction in the L0 direction or the L1 direction in the motion information of the same position block of another encoded image or the adjacent block of the processing target block is the same constant motion as the processing target block. There may be. In that case, by scaling the unidirectional motion information and generating a scaled combined motion information candidate, it is possible to encode only the merge index without encoding the motion information. Therefore, it is possible to realize a moving image encoding device and a moving image decoding device that can optimize encoding efficiency and prediction efficiency.

(動画像復号処理の簡易化)
以上のように、処理対象ブロックの動きがLX方向のいずれかの参照画像とLY方向のいずれかの参照画像と等速運動をしている場合にて、符号化済みの別の画像の同一位置ブロックや当該処理対象ブロックの隣接ブロックの動き情報の中に処理対象ブロックと同一の等速運動を示す動き情報がない場合がある。その場合にて、符号化済みの別の画像の同一位置ブロックや当該処理対象ブロックの隣接ブロックの動き情報の中のL0方向またはL1方向の単方向だけが処理対象ブロックと同一の等速運動である場合がある。その場合、その単方向の動き情報をスケーリングしてスケーリング結合動き情報候補を生成することで、予測方向、参照インデックスおよび差分ベクトルの復号、予測ベクトルと差分ベクトルとの加算処理などが不要となり、動画像復号装置の処理を削減することができる。
(Simplified video decoding process)
As described above, in the case where the motion of the block to be processed moves at a constant speed with any reference image in the LX direction and any reference image in the LY direction, the same position of another encoded image There may be no motion information indicating the same speed motion as the processing target block in the motion information of the block or the block adjacent to the processing target block. In that case, only the single direction in the L0 direction or the L1 direction in the motion information of the same position block of another encoded image or the adjacent block of the processing target block is the same constant motion as the processing target block. There may be. In that case, by scaling the unidirectional motion information to generate a scaled combined motion information candidate, decoding of the prediction direction, reference index and difference vector, addition processing between the prediction vector and the difference vector, etc. are not required. Processing of the image decoding device can be reduced.

(選択率順のマージ候補番号割り当て)
以上のように、選択率が相対的に高い結合動き情報候補ほど小さいマージ候補番号を割り当てておくことで、各方向において精度の高い単方向の動き情報を利用して高精度なスケーリング結合動き情報候補を生成することができる。また、検索の処理を単純化することができ、検索の処理数を制限しても符号化効率の低下を抑制できる。
(Merge candidate number assignment in order of selectivity)
As described above, by assigning a smaller merge candidate number to a combined motion information candidate having a relatively high selection rate, highly accurate scaling combined motion information using highly accurate unidirectional motion information in each direction. Candidates can be generated. In addition, the search process can be simplified, and a reduction in encoding efficiency can be suppressed even if the number of search processes is limited.

(メモリリードタイム)
以上のように、単結合動き情報候補の各方向の単方向の動き情報を利用してスケーリング結合動き情報候補を生成することで、単結合動き情報候補の数を増加させることなく結合動き情報候補の数を増加させることができる。したがって、単結合動き情報候補数の増加によってメモリリード時間が長くなるような一般的なLSIを使用している動画像符号化装置および動画像復号装置において、単結合動き情報候補数の増加によるメモリリード時間の増大を抑制できる。
(Memory lead time)
As described above, the combined motion information candidates are generated without increasing the number of single combined motion information candidates by generating the scaling combined motion information candidates using the unidirectional motion information in each direction of the single combined motion information candidates. The number of can be increased. Therefore, in a moving picture encoding apparatus and moving picture decoding apparatus using a general LSI in which the memory read time is increased due to an increase in the number of single combined motion information candidates, a memory due to an increase in the number of single combined motion information candidates An increase in lead time can be suppressed.

[実施の形態2]
(実施の形態2の結合動き情報候補生成部140の構成)
実施の形態2の動画像符号化装置の構成は、結合動き情報候補生成部140を除いて実施の形態1の動画像符号化装置100の構成と同一である。図45は実施の形態2の候補番号管理テーブルを説明するための図である。最初に、実施の形態2における候補番号管理テーブルを図45とし、結合動き情報候補リストに含まれる結合動き情報候補の最大数は5であるとする。結合動き情報候補リストに含まれる結合動き情報候補の最大数が5であること、双結合動き情報候補にマージ候補番号が割り当てられていないことが異なる。以下、実施の形態2における結合動き情報候補生成部140について図46を用いて実施の形態1との相違を説明する。図46は実施の形態2の結合動き情報候補生成部140の構成を説明するための図である。
[Embodiment 2]
(Configuration of Combined Motion Information Candidate Generation Unit 140 of Embodiment 2)
The configuration of the moving image encoding apparatus according to the second embodiment is the same as that of the moving image encoding apparatus 100 according to the first embodiment except for the combined motion information candidate generation unit 140. FIG. 45 is a diagram for explaining a candidate number management table according to the second embodiment. First, the candidate number management table in Embodiment 2 is shown in FIG. 45, and the maximum number of combined motion information candidates included in the combined motion information candidate list is 5. The difference is that the maximum number of combined motion information candidates included in the combined motion information candidate list is 5, and no merge candidate number is assigned to the dual combined motion information candidates. Hereinafter, the difference between the combined motion information candidate generation unit 140 in the second embodiment and the first embodiment will be described with reference to FIG. FIG. 46 is a diagram for explaining a configuration of the combined motion information candidate generation unit 140 according to the second embodiment.

図46の結合動き情報候補生成部140は、図16の結合動き情報候補生成部140に第1結合動き情報候補リスト削減部153および双結合動き情報候補生成部154が追加された構成である。以下、各部の機能について説明する。   46 has a configuration in which a first combined motion information candidate list reduction unit 153 and a dual combined motion information candidate generation unit 154 are added to the combined motion information candidate generation unit 140 in FIG. Hereinafter, functions of each unit will be described.

(実施の形態2の結合動き情報候補生成部140の機能)
第1結合動き情報候補リスト削減部153は、単結合動き情報候補リスト生成部150より供給される第1結合動き情報候補リストから重複している動き情報を持つ結合動き情報候補が複数存在する場合には1つの結合動き情報候補を残して、残りを削除して第2結合動き情報候補リストを生成し、当該第2結合動き情報候補リストを双結合動き情報候補生成部154に供給する。
(Function of Combined Motion Information Candidate Generation Unit 140 of Embodiment 2)
The first combined motion information candidate list reduction unit 153 has a plurality of combined motion information candidates having motion information that is duplicated from the first combined motion information candidate list supplied from the single combined motion information candidate list generation unit 150. The second combined motion information candidate list is generated by leaving one combined motion information candidate, deleting the remaining, and supplying the second combined motion information candidate list to the dual combined motion information candidate generating unit 154.

双結合動き情報候補生成部154は、第1結合動き情報候補リスト削減部153より供給される第2結合動き情報候補リストから双結合動き情報候補を生成し、当該双結合動き情報候補と第2結合動き情報候補リストをスケーリング結合動き情報候補生成部151に供給する。また、双結合動き情報候補生成部154は、スケーリング結合動き情報候補の対象候補群を設定し、当該対象候補群をスケーリング結合動き情報候補生成部151に供給する。   The bi-coupled motion information candidate generating unit 154 generates bi-coupled motion information candidates from the second combined motion information candidate list supplied from the first combined motion information candidate list reducing unit 153, and the bi-coupled motion information candidate and the second The combined motion information candidate list is supplied to the scaling combined motion information candidate generation unit 151. In addition, the bi-coupled motion information candidate generation unit 154 sets a target candidate group of scaling combined motion information candidates, and supplies the target candidate group to the scaling combined motion information candidate generation unit 151.

ここで、双結合動き情報は、2つの候補ブロックが持つそれぞれの動き情報を利用して得られる新たな動き情報である。実施の形態2では、双結合動き情報候補として最大で第1の双結合動き情報候補(BD0)と第2の双結合動き情報候補(BD1)の2つが生成されるとする。なお、双結合動き情報候補の最大数は2に限定されず、1以上であればよい。双結合動き情報候補生成部154の詳細な構成については後述する。   Here, the double coupled motion information is new motion information obtained by using the motion information of the two candidate blocks. In the second embodiment, it is assumed that a maximum of two bi-coupled motion information candidates (BD0) and a second bi-coupled motion information candidate (BD1) are generated as bi-coupled motion information candidates. It should be noted that the maximum number of bi-coupled motion information candidates is not limited to 2 and may be 1 or more. The detailed configuration of the dual coupled motion information candidate generation unit 154 will be described later.

スケーリング結合動き情報候補生成部151は、双結合動き情報候補生成部154より供給される第2結合動き情報候補リストと上述の対象候補群から、スケーリング結合動き情報候補を生成する。そして、上述の双結合動き情報候補と当該スケーリング結合動き情報候補を第2結合動き情報候補リストに追加し、当該第2結合動き情報候補リストを結合動き情報候補リスト削減部152に供給する。   The scaling combined motion information candidate generation unit 151 generates a scaling combined motion information candidate from the second combined motion information candidate list supplied from the double combined motion information candidate generation unit 154 and the target candidate group described above. Then, the above-described dual combined motion information candidate and the scaled combined motion information candidate are added to the second combined motion information candidate list, and the second combined motion information candidate list is supplied to the combined motion information candidate list reduction unit 152.

(双結合動き情報候補生成部154の構成)
続いて、双結合動き情報候補生成部154の詳細な構成について図47を用いて説明する。図47は双結合動き情報候補生成部154の構成を示す。端子19は第1結合動き情報候補リスト削減部153に、端子20はスケーリング結合動き情報候補生成部151にそれぞれ接続されている。双結合動き情報候補生成部154は、基準方向決定部300、基準方向動き情報決定部301、逆方向動き情報決定部302、双結合動き情報候補決定部303および双結合動き情報候補追加部304を含む。
(Configuration of the dual coupled motion information candidate generation unit 154)
Next, a detailed configuration of the dual coupled motion information candidate generation unit 154 will be described with reference to FIG. FIG. 47 shows the configuration of the dual coupled motion information candidate generation unit 154. The terminal 19 is connected to the first combined motion information candidate list reduction unit 153, and the terminal 20 is connected to the scaling combined motion information candidate generation unit 151. The double coupled motion information candidate generating unit 154 includes a reference direction determining unit 300, a reference direction motion information determining unit 301, a reverse direction motion information determining unit 302, a dual coupled motion information candidate determining unit 303, and a dual coupled motion information candidate adding unit 304. Including.

(双結合動き情報候補生成部154の機能)
以下、各部の機能について説明する。基準方向決定部300は、第1結合動き情報候補リストから双結合動き情報候補の基準方向を決定し、当該基準方向および端子19より供給される第1結合動き情報候補リストを基準方向動き情報決定部301に送る。BD0の基準方向はL0方向となり、BD1の基準方向はL1方向となる。
(Function of the dual coupled motion information candidate generation unit 154)
Hereinafter, functions of each unit will be described. The reference direction determination unit 300 determines the reference direction of the dual combined motion information candidate from the first combined motion information candidate list, and determines the reference direction motion information from the reference direction and the first combined motion information candidate list supplied from the terminal 19. Send to part 301. The reference direction of BD0 is the L0 direction, and the reference direction of BD1 is the L1 direction.

基準方向動き情報決定部301は、基準方向決定部300より供給される基準方向および第1結合動き情報候補リストから、双結合動き情報候補の基準方向の動きベクトルと参照画像インデックスを決定し、当該基準方向、当該基準方向の動きベクトルと当該参照画像インデックス、および当該第1結合動き情報候補リストを逆方向動き情報決定部302に送る。   The reference direction motion information determination unit 301 determines the motion vector and reference image index of the reference direction of the bi-coupled motion information candidate from the reference direction and the first combined motion information candidate list supplied from the reference direction determination unit 300, and The reference direction, the motion vector in the reference direction, the reference image index, and the first combined motion information candidate list are sent to the backward motion information determination unit 302.

逆方向動き情報決定部302は、基準方向動き情報決定部301より供給される基準方向、基準方向の動きベクトルと参照画像インデックス、および第1結合動き情報候補リストから、双結合動き情報候補の逆方向の動きベクトルと参照画像インデックスを決定する。逆方向動き情報決定部302は、当該基準方向の動きベクトルと参照画像インデックス、当該逆方向の動きベクトルと参照画像インデックス、および第1結合動き情報候補リストを双結合動き情報候補決定部303に送る。   The reverse direction motion information determination unit 302 uses the reference direction, the reference direction motion vector and the reference image index, and the first combined motion information candidate list supplied from the reference direction motion information determination unit 301 to reverse the bi-join motion information candidate. A direction motion vector and a reference image index are determined. The backward motion information determination unit 302 sends the reference direction motion vector and reference image index, the backward motion vector and reference image index, and the first combined motion information candidate list to the double combined motion information candidate determination unit 303. .

実施の形態2では、基準方向がL0方向であれば、逆方向はL1方向とし、基準方向がL1方向であれば、逆方向はL0方向とする。実施の形態2では、基準方向がL0方向であれば、逆方向はL1方向とし、基準方向がL1方向であれば、逆方向はL0方向とするが、逆方向が決定できればよく、これに限定されない。例えば、基準方向と逆方向を同じ予測方向とすることもできる。   In Embodiment 2, if the reference direction is the L0 direction, the reverse direction is the L1 direction, and if the reference direction is the L1 direction, the reverse direction is the L0 direction. In the second embodiment, if the reference direction is the L0 direction, the reverse direction is the L1 direction, and if the reference direction is the L1 direction, the reverse direction is the L0 direction. Not. For example, the direction opposite to the reference direction can be set as the same prediction direction.

双結合動き情報候補決定部303は、逆方向動き情報決定部302より供給される基準方向の動きベクトルと参照画像インデックス、および逆方向の動きベクトルと参照画像インデックスから双結合動き情報候補の予測方向を決定して双結合動き情報候補を生成し、当該双結合動き情報候補追加部304に供給する。   The bi-join motion information candidate determination unit 303 predicts a bi-join motion information candidate from the base direction motion vector and reference image index supplied from the reverse direction motion information determination unit 302, and the reverse direction motion vector and reference image index. Is generated, and a double coupled motion information candidate is generated and supplied to the dual coupled motion information candidate adding unit 304.

双結合動き情報候補追加部304は、双結合動き情報候補決定部303より供給される双結合動き情報候補を第1結合動き情報候補リストに追加し、当該第1結合動き情報候補リストを端子20に送る。   The bi-coupled motion information candidate adding unit 304 adds the bi-coupled motion information candidate supplied from the bi-coupled motion information candidate determining unit 303 to the first combined motion information candidate list, and the first combined motion information candidate list is added to the terminal 20. Send to.

(実施の形態2の結合動き情報候補生成部140の動作)
引き続いて、実施の形態2の結合動き情報候補生成部140の動作について図48を用いて実施の形態1との相違を説明する。図48は実施の形態2の結合動き情報候補生成部140の動作を説明するためのフローチャートである。図48のフローチャートは、図24のフローチャートに以下のステップが追加または変更されている。
(Operation of Combined Motion Information Candidate Generation Unit 140 of Embodiment 2)
Subsequently, the operation of the combined motion information candidate generation unit 140 according to the second embodiment will be described with reference to FIG. 48 and the difference from the first embodiment. FIG. 48 is a flowchart for explaining the operation of the combined motion information candidate generation unit 140 of the second embodiment. In the flowchart of FIG. 48, the following steps are added or changed to the flowchart of FIG.

第1結合動き情報候補リスト削減部153は、単結合動き情報候補リスト生成部150より供給される第1結合動き情報候補リストから重複している動き情報を持つ結合動き情報候補が複数存在する場合には1つの結合動き情報候補を残して、残りを削除して第2結合動き情報候補リストを生成する(S146)。   The first combined motion information candidate list reduction unit 153 has a plurality of combined motion information candidates having motion information that is duplicated from the first combined motion information candidate list supplied from the single combined motion information candidate list generation unit 150. In step S146, one combined motion information candidate is left and the rest is deleted to generate a second combined motion information candidate list.

結合動き情報候補生成部140は、第2結合動き情報候補リストに含まれる有効な結合動き情報候補の数が所定上限数に達しているかを検査する(ステップS147)。実施の形態2では、所定上限数を結合動き情報候補リストに含まれる結合動き情報候補の最大数である5とする。第2結合動き情報候補リストに含まれる有効な結合動き情報候補の数が所定上限数に達していなければ(S147のN)、双結合動き情報候補生成部154は、第2結合動き情報候補リストから双結合動き情報候補を上述の所定上限数を超えない範囲で生成する(S148)。   The combined motion information candidate generation unit 140 checks whether or not the number of valid combined motion information candidates included in the second combined motion information candidate list has reached a predetermined upper limit (step S147). In the second embodiment, the predetermined upper limit number is set to 5, which is the maximum number of combined motion information candidates included in the combined motion information candidate list. If the number of valid combined motion information candidates included in the second combined motion information candidate list has not reached the predetermined upper limit number (N in S147), the dual combined motion information candidate generation unit 154 generates the second combined motion information candidate list. Are generated in a range not exceeding the predetermined upper limit (S148).

スケーリング結合動き情報候補生成部151は、双結合動き情報候補とスケーリング結合動き情報候補を第2結合動き情報候補リストに順次追加して第2結合動き情報候補リストを生成する(S144)。実施の形態2では、第2結合動き情報候補リストへの双結合動き情報候補とスケーリング結合動き情報候補の追加順序を双結合動き情報候補、スケーリング結合動き情報候補の順としたが、双結合動き情報候補とスケーリング結合動き情報候補が追加されればよく、これに限定されない。例えば、スケーリング結合動き情報候補、双結合動き情報候補の順でもよく、複数ある場合には任意の順序で第2結合動き情報候補リストに追加してもよい。   The scaling combined motion information candidate generation unit 151 sequentially adds the bi-coupled motion information candidate and the scaling combined motion information candidate to the second combined motion information candidate list to generate a second combined motion information candidate list (S144). In Embodiment 2, the addition order of the bi-join motion information candidate and the scaled joint motion information candidate to the second joint motion information candidate list is the order of the bi-join motion information candidate and the scaled joint motion information candidate. An information candidate and a scaling combined motion information candidate may be added, and the present invention is not limited to this. For example, it may be in the order of scaling combined motion information candidates and bi-coupled motion information candidates, and when there are a plurality of them, they may be added to the second combined motion information candidate list in an arbitrary order.

第2結合動き情報候補リストに含まれる有効な結合動き情報候補の数が所定上限数に達していれば(S147のY)、ステップS148、ステップS143、ステップS144、ステップS145はスキップされる。なお、実施の形態2のスケーリング結合動き情報候補の生成の動作が実施の形態1とは異なるため、実施の形態2のスケーリング結合動き情報候補の生成の動作の詳細については後述する。   If the number of valid combined motion information candidates included in the second combined motion information candidate list has reached the predetermined upper limit number (Y in S147), step S148, step S143, step S144, and step S145 are skipped. In addition, since the operation | movement of the production | generation of the scaling joint motion information candidate of Embodiment 2 differs from Embodiment 1, the detail of the operation | movement of the production | generation of the scaling joint motion information candidate of Embodiment 2 is mentioned later.

(双結合動き情報候補生成部154の動作)
引き続いて、図49のフローチャートを用いて、双結合動き情報候補生成部154の詳細な動作を説明する。図49は双結合動き情報候補生成部154の詳細な動作を説明するためのフローチャートである。基準方向決定部300は、第2結合動き情報候補リストから双結合動き情報候補の基準方向を決定する(S400)。BD0の基準方向はL0方向となり、BD1の基準方向はL1方向となる。
(Operation of the dual coupled motion information candidate generation unit 154)
Subsequently, the detailed operation of the dual coupled motion information candidate generation unit 154 will be described with reference to the flowchart of FIG. FIG. 49 is a flowchart for explaining the detailed operation of the dual-coupled motion information candidate generation unit 154. The reference direction determination unit 300 determines the reference direction of the dual combined motion information candidate from the second combined motion information candidate list (S400). The reference direction of BD0 is the L0 direction, and the reference direction of BD1 is the L1 direction.

基準方向動き情報決定部301は、基準方向決定部300より供給される基準方向および第2結合動き情報候補リストから、双結合動き情報候補の基準方向の動きベクトルと参照画像インデックスを決定する(S401)。基準方向動き情報決定部301の詳細な動作は後述する。   The reference direction motion information determination unit 301 determines the reference direction motion vector and the reference image index of the bi-join motion information candidate from the reference direction and the second combined motion information candidate list supplied from the reference direction determination unit 300 (S401). ). Detailed operation of the reference direction motion information determination unit 301 will be described later.

逆方向動き情報決定部302は、基準方向動き情報決定部301より供給される基準方向、基準方向の動きベクトル、参照画像インデックスおよび第2結合動き情報候補リストから、双結合動き情報候補の逆方向の動きベクトルと参照画像インデックスを決定する(S402)。逆方向動き情報決定部302の詳細な動作は後述する。   The backward direction motion information determination unit 302 uses the reference direction, the reference direction motion vector, the reference image index, and the second combined motion information candidate list supplied from the reference direction motion information determination unit 301 to return the reverse direction of the bi-join motion information candidate. The motion vector and the reference image index are determined (S402). Detailed operation of the backward motion information determination unit 302 will be described later.

双結合動き情報候補決定部303は、逆方向動き情報決定部302より供給される基準方向、基準方向の動きベクトルと参照画像インデックス、および逆方向の動きベクトルと参照画像インデックスから、双結合動き情報候補の予測方向を決定して双結合動き情報候補を生成する(S403)。   The bi-join motion information candidate determination unit 303 uses the base direction, the base direction motion vector and the reference image index, and the reverse motion vector and the reference image index supplied from the reverse direction motion information determination unit 302. The candidate prediction direction is determined to generate a double coupled motion information candidate (S403).

双結合動き情報候補決定部303は、双結合動き情報候補の予測方向が双方向(BI)であるかを検査する(S404)。双結合動き情報候補の予測方向が双方向であれば(S404のY)、双結合動き情報候補追加部304は、双結合動き情報候補を第2結合動き情報候補リストに追加する(S405)。双結合動き情報候補の予測方向が双方向でなければ(S404のN)、双結合動き情報候補の予測方向が単方向(L0方向またはL1方向)であるかを検査する(S406)。双結合動き情報候補の予測方向が単方向であれば(S406のY)、有効な予測方向の動きベクトルと参照インデックスを持つ候補ブロックをスケーリング結合動き情報候補の対象候補群に設定する(S407)。   The dual coupled motion information candidate determination unit 303 checks whether the prediction direction of the dual coupled motion information candidate is bidirectional (BI) (S404). If the prediction direction of the bi-coupled motion information candidate is bidirectional (Y in S404), the bi-coupled motion information candidate adding unit 304 adds the bi-coupled motion information candidate to the second combined motion information candidate list (S405). If the prediction direction of the bi-coupled motion information candidate is not bidirectional (N in S404), it is checked whether the prediction direction of the bi-coupled motion information candidate is unidirectional (L0 direction or L1 direction) (S406). If the prediction direction of the bi-join motion information candidate is unidirectional (Y in S406), a candidate block having a motion vector in a valid prediction direction and a reference index is set as a target group of scaling joint motion information candidates (S407). .

有効な予測方向の動きベクトルと参照インデックスを持つ候補ブロックとは、基準方向動き情報決定部301または逆方向動き情報決定部302において決定された動きベクトルと参照画像インデックスを持つ候補ブロックのことであって、詳細は後述する。双結合動き情報候補の予測方向が単方向でなければ(S406のN)、ステップS407はスキップされる。   A candidate block having a motion vector in a valid prediction direction and a reference index is a candidate block having a motion vector and a reference image index determined by the base direction motion information determination unit 301 or the reverse direction motion information determination unit 302. Details will be described later. If the prediction direction of the bi-coupled motion information candidate is not unidirectional (N in S406), step S407 is skipped.

引き続いて、図50のフローチャートを用いて、基準方向動き情報決定部301の詳細な動作を説明する。図50は基準方向動き情報決定部301の動作を説明するためのフローチャートである。双結合動き情報候補の基準方向としてLX方向(Xは0または1)が選ばれたとする。基準方向であるLXの有効性を「0」に設定する(S190)。第2結合動き情報候補リストに含まれる結合動き情報候補の数(NCands)に対応する回数、以下の処理を繰り返す(S191からS194)。結合動き情報候補のLX方向の有効性を検査する(S192)。結合動き情報候補のLX方向(LX予測)が有効であれば(S192のY)、基準方向であるLXの有効性を「1」に設定し、基準方向の動きベクトルと参照インデックスを結合動き情報候補のLX方向の動きベクトルと参照インデックスとして処理を終了する(S193)。結合動き情報候補のLX方向が無効であれば(S192のN)、次の候補を検査する(S194)。   Subsequently, the detailed operation of the reference direction motion information determination unit 301 will be described using the flowchart of FIG. FIG. 50 is a flowchart for explaining the operation of the reference direction motion information determination unit 301. It is assumed that the LX direction (X is 0 or 1) is selected as the reference direction for the double coupled motion information candidate. The validity of the reference direction LX is set to “0” (S190). The following process is repeated a number of times corresponding to the number of combined motion information candidates (NCands) included in the second combined motion information candidate list (S191 to S194). The validity of the combined motion information candidate in the LX direction is checked (S192). If the LX direction (LX prediction) of the combined motion information candidate is valid (Y in S192), the validity of the reference direction LX is set to “1”, and the motion vector and reference index in the standard direction are combined motion information. The process ends with the candidate motion vector in the LX direction and the reference index (S193). If the LX direction of the combined motion information candidate is invalid (N in S192), the next candidate is examined (S194).

ここでは第2結合動き情報候補リストに含まれる結合動き情報候補の数(NCands)に対応する回数、検査するとしたが、双結合動き情報候補の基準方向が決定できればよく、これに限定されない。例えば、選択率が相対的に高い結合動き情報候補だけから双結合動き情報候補を生成する場合には検査数を1や2のような所定数に固定して処理量を削減するとともに冗長な双結合動き情報候補の生成可能性を低下させてマージインデックスの符号量を削減することもできる。   Here, the number of times corresponding to the number of combined motion information candidates (NCands) included in the second combined motion information candidate list is examined, but it is only necessary to determine the reference direction of the dual combined motion information candidates, and the present invention is not limited to this. For example, when generating a combined motion information candidate from only combined motion information candidates having a relatively high selection rate, the number of inspections is fixed to a predetermined number such as 1 or 2 to reduce the processing amount and redundant dual motion information candidates. It is also possible to reduce the amount of merge index codes by reducing the possibility of generating combined motion information candidates.

引き続いて、図51のフローチャートを用いて、逆方向動き情報決定部302の詳細な動作を説明する。図51は逆方向動き情報決定部302の動作を説明するためのフローチャートである。双結合動き情報候補の逆方向として基準方向の逆方向が設定される。逆方向としてLY方向(Yは0または1)が選ばれたとする。逆方向であるLYの有効性を「0」に設定する(S200)。第2結合動き情報候補リストに含まれる結合動き情報候補の数(NCands)に対応する回数、以下の処理を繰り返す(S201からS205)。   Subsequently, the detailed operation of the backward motion information determination unit 302 will be described using the flowchart of FIG. FIG. 51 is a flowchart for explaining the operation of the backward motion information determination unit 302. The reverse direction of the reference direction is set as the reverse direction of the double coupled motion information candidate. It is assumed that the LY direction (Y is 0 or 1) is selected as the reverse direction. The validity of LY in the reverse direction is set to “0” (S200). The following processing is repeated a number of times corresponding to the number of combined motion information candidates (NCands) included in the second combined motion information candidate list (S201 to S205).

基準方向で選択された結合動き情報候補でないことを検査する(S202)。基準方向で選択された結合動き情報候補でないならば(S202のY)、結合動き情報候補のLY方向の有効性を検査する(S203)。結合動き情報候補のLY方向(LY予測)が有効であれば(S203のY)、逆方向であるLYの有効性を「1」に設定し、逆方向の動きベクトルと参照インデックスを、結合動き情報候補のLY方向の動きベクトルと参照インデックスとして処理を終了する(S204)。基準方向で選択された結合動き情報候補であるならば(S202のN)、または結合動き情報候補のLY方向が無効であれば(S203のN)、次の候補を検査する(S205)。   It is checked that the combined motion information candidate is not selected in the reference direction (S202). If it is not the combined motion information candidate selected in the reference direction (Y in S202), the validity of the combined motion information candidate in the LY direction is checked (S203). If the LY direction (LY prediction) of the combined motion information candidate is valid (Y in S203), the validity of LY, which is the reverse direction, is set to “1”, and the reverse direction motion vector and the reference index are combined motion. The processing ends with the motion vector in the LY direction of the information candidate and the reference index (S204). If it is a combined motion information candidate selected in the reference direction (N in S202), or if the LY direction of the combined motion information candidate is invalid (N in S203), the next candidate is examined (S205).

ここでは第2結合動き情報候補リストに含まれる結合動き情報候補の数(NCands)に対応する回数、検査するとしたが、双結合動き情報候補の基準方向が決定できればよく、これに限定されない。例えば、選択率が相対的に高い結合動き情報候補だけから双結合動き情報候補を生成する場合には検査数を2や3のような所定数に固定して処理量を削減するとともに冗長な双結合動き情報候補の生成可能性を低下させてマージインデックスの符号量を削減することもできる。また、検査を開始するブロックを基準方向で選択された結合動き情報候補の次の結合動き情報候補とすることで、BD0とBD1が同一になる可能性をなくし、ステップS202を削減することができる。   Here, the number of times corresponding to the number of combined motion information candidates (NCands) included in the second combined motion information candidate list is examined, but it is only necessary to determine the reference direction of the dual combined motion information candidates, and the present invention is not limited to this. For example, when generating a combined motion information candidate from only combined motion information candidates having a relatively high selectivity, the number of examinations is fixed to a predetermined number such as 2 or 3, and the processing amount is reduced and redundant dual information is also generated. It is also possible to reduce the amount of merge index codes by reducing the possibility of generating combined motion information candidates. In addition, by setting the block to start the inspection as the combined motion information candidate next to the combined motion information candidate selected in the reference direction, the possibility that BD0 and BD1 are the same can be eliminated, and step S202 can be reduced. .

引き続いて、図52の図を用いて、双結合動き情報候補の予測方向の決定の詳細な動作を説明する。図52は双結合動き情報候補の予測方向の決定を説明するための図である。上記のように決定された双結合動き情報候補のLX方向とLY方向がともに有効であれば予測方向は双方向のBIとなり、LX方向のみが有効であれば予測方向は単方向のLX方向となり、LY方向のみが有効であれば予測方向は単方向のLY方向となり、LX方向とLY方向がともに無効であれば予測方向は無効となる。   Subsequently, the detailed operation of determining the prediction direction of the dual coupled motion information candidate will be described with reference to the diagram of FIG. FIG. 52 is a diagram for explaining the determination of the prediction direction of the dual coupled motion information candidate. If the LX direction and the LY direction of the bi-coupled motion information candidate determined as described above are both valid, the prediction direction is a bidirectional BI, and if only the LX direction is valid, the prediction direction is a unidirectional LX direction. If only the LY direction is valid, the prediction direction is a single LY direction. If both the LX direction and the LY direction are invalid, the prediction direction is invalid.

引き続いて、実施の形態2のスケーリング結合動き情報候補の生成の動作の詳細について図53を用いて説明する。図53は実施の形態2のスケーリング結合動き情報候補の生成の動作を説明するためのフローチャートである。双結合動き情報候補生成部154より供給される対象候補群を検査対象の候補ブロックとして設定する(S337)。対象候補群に含まれる候補ブロックの数(MCands)に対応する回数、以下の処理を繰り返す(S338からS339)。実施の形態2における対象候補群に含まれる候補ブロックの数の最大数は2である。ステップS334およびステップS335は実施の形態1と同一である。   Subsequently, details of the operation of generating the scaled combined motion information candidate according to the second embodiment will be described with reference to FIG. FIG. 53 is a flowchart for explaining an operation of generating scaling combined motion information candidates according to the second embodiment. The target candidate group supplied from the double coupled motion information candidate generation unit 154 is set as a candidate block to be examined (S337). The following processing is repeated a number of times corresponding to the number of candidate blocks (MCands) included in the target candidate group (S338 to S339). The maximum number of candidate blocks included in the target candidate group in the second embodiment is two. Steps S334 and S335 are the same as those in the first embodiment.

実施の形態2の動画像復号装置の構成は、結合動き情報候補生成部140の機能を除いて実施の形態1の動画像復号装置200の構成と同一である。実施の形態2の動画像復号装置の結合動き情報候補生成部140は実施の形態2の動画像符号化装置の結合動き情報候補生成部140と同一である。   The configuration of the moving picture decoding apparatus according to the second embodiment is the same as that of the moving picture decoding apparatus 200 according to the first embodiment except for the function of the combined motion information candidate generation unit 140. The combined motion information candidate generation unit 140 of the video decoding device of the second embodiment is the same as the combined motion information candidate generation unit 140 of the video encoding device of the second embodiment.

(実施の形態2の変形例)
なお、実施の形態2は以下のように変形できる。
(Modification of Embodiment 2)
The second embodiment can be modified as follows.

(変形例1:双結合動き情報候補の数)
上述の実施の形態2では、双結合動き情報候補として、L0方向で最初に有効となる動き情報を基準方向とする第1の双結合動き情報候補(BD0)とL1方向で最初に有効となる動き情報を基準方向とする第2の双結合動き情報候補(BD1)の2つが生成されるとしたが、1以上であればよくこれに限定されない。例えば、L0方向で2番目に有効となる動き情報を基準方向とする第3の双結合動き情報候補(BD2)やL1方向で2番目に有効となる動き情報を基準方向とする第4の双結合動き情報候補(BD3)などを追加することもできるし、複数の双結合動き情報候補から適応的に選択して双結合動き情報候補を1つとすることもできる。
(Modification 1: Number of candidates for double coupled motion information)
In the above-described second embodiment, the first bi-coupled motion information candidate (BD0) having the first motion information effective in the L0 direction as the reference direction as the double-coupled motion information candidate and first effective in the L1 direction. Two second combined motion information candidates (BD1) having motion information as a reference direction are generated. However, the number is not limited to this as long as it is one or more. For example, the third bi-coupled motion information candidate (BD2) that uses the motion information that is the second most effective in the L0 direction as the reference direction and the fourth dual information that uses the motion information that is the second most effective in the L1 direction as the reference direction. A combined motion information candidate (BD3) or the like can be added, or a plurality of combined motion information candidates can be selected adaptively to make a single combined motion information candidate.

(変形例2:削除プロセス)
上述の実施の形態2では、冗長な結合動き情報候補の数を減らし、追加する双結合動き情報候補またはスケーリング結合動き情報候補の数を増加させるために図46に示した結合動き情報候補生成部140に第1結合動き情報候補リスト削減部153を含めたが、重複している動き情報を持つ結合動き情報候補が複数存在する場合に1つの結合動き情報候補を残して、残りを削除する処理を削減する目的で、第1結合動き情報候補リスト削減部153を含めない構成としてもよい(図48のステップS146)。また、同様の目的で、結合動き情報候補リスト削減部152を含めない構成とすることもできる(図48のステップS145)。
(Modification 2: Deletion process)
In the second embodiment described above, the combined motion information candidate generation unit shown in FIG. 46 is used to reduce the number of redundant combined motion information candidates and increase the number of added combined motion information candidates or scaling combined motion information candidates. The first combined motion information candidate list reduction unit 153 is included in 140, but when there are a plurality of combined motion information candidates having overlapping motion information, one combined motion information candidate is left and the rest is deleted For this purpose, the first combined motion information candidate list reduction unit 153 may not be included (step S146 in FIG. 48). For the same purpose, the combined motion information candidate list reduction unit 152 may not be included (step S145 in FIG. 48).

(変形例3:所定上限数)
上述の実施の形態2では、双結合動き情報候補を生成する条件である所定上限数を結合動き情報候補リストに含まれる結合動き情報候補の最大数である5としたが、所定上限数は結合動き情報候補リストに含まれる結合動き情報候補の最大数以下であればよく、これに限定されない。例えば、第1結合動き情報候補リスト削減部153で削除された結合動き情報候補の数とすることもできる。これにより、第1結合動き情報候補リスト削減部153の動作前にNumMergeCands()を決定でき、merge_idxを復号でき、復号処理の高速化を実現できる。
(Modification 3: Predetermined upper limit number)
In the above-described second embodiment, the predetermined upper limit number that is a condition for generating the bi-join motion information candidates is set to 5 that is the maximum number of combined motion information candidates included in the combined motion information candidate list. The number may be equal to or less than the maximum number of combined motion information candidates included in the motion information candidate list, and is not limited thereto. For example, the number of combined motion information candidates deleted by the first combined motion information candidate list reduction unit 153 may be used. As a result, NumMergeCands () can be determined before the operation of the first combined motion information candidate list reduction unit 153, merge_idx can be decoded, and the speed of the decoding process can be increased.

(変形例4:単純連結)
上述の実施の形態2では、双結合動き情報候補の予測方向が単方向である場合にスケーリング結合動き情報候補を生成するとしたが、双結合動き情報候補とスケーリング結合動き情報候補を生成すればよく、これに限定されない。例えば、実施の形態2では、双結合動き情報候補生成部154の動作を図49としたが、ステップS406、ステップS407を削除して、双結合動き情報候補の予測方向が双方向でなければ(S404のN)、ステップS405をスキップして処理を終了させて、図54のように双結合動き情報候補とスケーリング結合動き情報候補を依存関係なく順次生成してもよい。
(Modification 4: Simple connection)
In Embodiment 2 described above, the scaled combined motion information candidate is generated when the prediction direction of the bi-coupled motion information candidate is unidirectional. However, it is only necessary to generate the bi-coupled motion information candidate and the scaled combined motion information candidate. However, the present invention is not limited to this. For example, in Embodiment 2, the operation of the dual coupled motion information candidate generation unit 154 is shown in FIG. 49, but step S406 and step S407 are deleted, and the prediction direction of the dual coupled motion information candidate is not bidirectional ( In step S404, the process may be terminated by skipping step S405, and the bi-coupled motion information candidate and the scaled combined motion information candidate may be sequentially generated without dependency as shown in FIG.

図54は実施の形態2の変形例4の結合動き情報候補生成部140の動作を説明するためのフローチャートである。図54のフローチャートは、実施の形態2の結合動き情報候補生成部140の動作を説明するためのフローチャートである図48のフローチャートに以下のステップが追加されている。   FIG. 54 is a flowchart for explaining the operation of the combined motion information candidate generation unit 140 according to the fourth modification of the second embodiment. The flowchart of FIG. 54 adds the following steps to the flowchart of FIG. 48, which is a flowchart for explaining the operation of the combined motion information candidate generation unit 140 of the second embodiment.

結合動き情報候補生成部140は、第2結合動き情報候補リストに含まれる有効な結合動き情報候補の数が所定上限数に達しているかを検査する(ステップS340)。第2結合動き情報候補リストに含まれる有効な結合動き情報候補の数が所定上限数に達していなければ(S340のN)、スケーリング結合動き情報候補生成部151は、第2結合動き情報候補リストからスケーリング結合動き情報候補を上述の所定上限数を超えない範囲で生成する(S143)。第2結合動き情報候補リストに含まれる有効な結合動き情報候補の数が所定上限数に達していれば(S340のY)、ステップS143はスキップされる。なお、図54において双結合動き情報候補の生成(ステップS143)とスケーリング結合動き情報候補の生成(ステップS148)を入れ替えることもできる。   The combined motion information candidate generation unit 140 checks whether the number of valid combined motion information candidates included in the second combined motion information candidate list has reached a predetermined upper limit number (step S340). If the number of valid combined motion information candidates included in the second combined motion information candidate list does not reach the predetermined upper limit number (N in S340), the scaling combined motion information candidate generation unit 151 outputs the second combined motion information candidate list. Are generated in a range that does not exceed the predetermined upper limit number (S143). If the number of valid combined motion information candidates included in the second combined motion information candidate list has reached the predetermined upper limit (Y in S340), step S143 is skipped. In FIG. 54, the generation of the double coupled motion information candidate (step S143) and the generation of the scaling combined motion information candidate (step S148) can be interchanged.

(変形例5:単純連結2)
実施の形態2の変形例4はさらに以下のように変形できる。実施の形態2では、双結合動き情報候補生成部154の動作を図49としたが、ステップS407を下記のように変更する。有効でない予測方向の動きベクトルを(0,0)、参照画像インデックスを0として、有効な予測方向の動きベクトルと参照インデックスとを組み合わせることで、予測方向が双方向である双結合動き情報候補を生成し、第2結合動き情報候補リストに追加する(S407)。実施の形態2の変形例5では、有効でない予測方向の動きベクトルを(0,0)、参照画像インデックスを0としたが、有効でない予測方向の動きベクトルと参照画像が所定の値に設定できればよく、これに限定されない。
(Modification 5: Simple connection 2)
The fourth modification of the second embodiment can be further modified as follows. In Embodiment 2, the operation of the dual coupled motion information candidate generation unit 154 is shown in FIG. 49, but step S407 is changed as follows. By combining the motion vector of the valid prediction direction with the motion vector of the valid prediction direction by setting the motion vector of the invalid prediction direction to (0, 0) and the reference image index to 0, the bi-join motion information candidate having the bidirectional prediction direction is obtained. It is generated and added to the second combined motion information candidate list (S407). In the fifth modification of the second embodiment, the motion vector in the invalid prediction direction is (0, 0) and the reference image index is 0. However, if the motion vector and the reference image in the invalid prediction direction can be set to predetermined values, Well, not limited to this.

(実施の形態2の効果の一例)
実施の形態2による効果の一例について図55を用いて説明する。図55は実施の形態2の効果を説明するための図である。処理対象ブロックZにとって予測誤差が最小となる動き情報が、予測方向が双方向(BI)で、mvL0Z=(13,−2)、mvL1Z=(4,4)、refIdxL0Z=0、refIdxL1Z=1であるとする。このとき、単結合動き情報候補が図55のA、B、COL、C、Eであるとする。
(An example of the effect of Embodiment 2)
An example of the effect of the second embodiment will be described with reference to FIG. FIG. 55 is a diagram for explaining the effect of the second embodiment. The motion information with the smallest prediction error for the processing target block Z is bi-directional (BI), mvL0Z = (13, -2), mvL1Z = (4,4), refIdxL0Z = 0, refIdxL1Z = 1. Suppose there is. At this time, it is assumed that the single combined motion information candidates are A, B, COL, C, and E in FIG.

これら単結合動き情報候補の中には処理対象ブロックZにとって予測誤差が最小となる動き情報と同一の動き情報はない。したがって、これら単結合動き情報候補の中からレート歪み評価値が最小となる単結合動き情報候補を選択することになる。そして、その候補のレート歪み評価値と、差分ベクトル算出部120で算出されたレート歪み評価値とを比較して、前者が後者より小さくなる場合のみ符号化モードとしてマージモードが利用されることになる。   Among these single coupled motion information candidates, there is no motion information identical to the motion information that minimizes the prediction error for the processing target block Z. Therefore, a single combined motion information candidate having a minimum rate distortion evaluation value is selected from these single combined motion information candidates. Then, the candidate rate distortion evaluation value and the rate distortion evaluation value calculated by the difference vector calculation unit 120 are compared, and the merge mode is used as the encoding mode only when the former is smaller than the latter. Become.

符号化モードとしてマージモードが選択された場合、それは動き情報の符号化効率と予測誤差のバランスが最適なためであって、予測誤差は最適とはならない。一方、符号化モードとして非マージモードが選択された場合には、差分動きベクトルや参照画像インデックスを符号化する必要があるため動き情報の符号化効率は最適とはならない。   When the merge mode is selected as the encoding mode, it is because the balance between the encoding efficiency of motion information and the prediction error is optimal, and the prediction error is not optimal. On the other hand, when the non-merge mode is selected as the encoding mode, it is necessary to encode the differential motion vector and the reference image index, so that the encoding efficiency of the motion information is not optimal.

ここで、実施の形態2で生成される基準方向がL0方向のBD0はブロックAのL0方向の動きベクトルと参照画像インデックス、ブロックCのL1方向の動きベクトルと参照画像インデックスを組み合わせて生成されて図55のBD0となる。また、基準方向がL1方向のBD1はブロックCのL1方向の動きベクトルと参照画像インデックスからスケーリング結合動き情報候補が生成されて図55のBP0となる。   Here, BD0 whose reference direction is generated in the second embodiment is generated by combining the motion vector of the block A in the L0 direction and the reference image index, and the motion vector of the block C in the L1 direction and the reference image index. It becomes BD0 of FIG. For BD1 whose reference direction is the L1 direction, a scaling combined motion information candidate is generated from the motion vector of the block C in the L1 direction and the reference image index, and becomes BP0 in FIG.

このとき、BD0は処理対象ブロックZにとって予測誤差が最小となる動き情報と同じ動き情報を持つことがわかる。つまり、BD0を選択することで、予測誤差を最小化し、動き情報の符号化効率を最適化することができる。なお、処理対象ブロックZにとって予測誤差が最小となる動き情報が、予測方向が双方向(BI)で、mvL0Z=(−2,−2)、mvL1Z=(4,4)、refIdxL0Z=0、refIdxL1Z=1であれば、BP0を選択することで、予測誤差を最小化し、動き情報の符号化効率を最適化することができる。   At this time, it can be seen that BD0 has the same motion information as the motion information that minimizes the prediction error for the processing target block Z. That is, by selecting BD0, the prediction error can be minimized and the coding efficiency of motion information can be optimized. Note that the motion information that minimizes the prediction error for the processing target block Z is bidirectional (BI) in the prediction direction, mvL0Z = (− 2, −2), mvL1Z = (4,4), refIdxL0Z = 0, refIdxL1Z. If = 1, by selecting BP0, the prediction error can be minimized and the coding efficiency of motion information can be optimized.

(実施の形態2の効果)
以上のように、単結合動き情報候補のL0方向とL1方向の動き情報を利用して双結合動き情報候補を生成することで、処理対象ブロックの動きが、符号化済みの別の画像の同一位置ブロックや当該処理対象ブロックの隣接ブロックの動きとずれがある場合でも、動き情報を符号化することなくインデックスのみで符号化することができる。したがって、符号化効率と予測効率を最適化できる動画像符号化装置および動画像復号装置を実現できる。
(Effect of Embodiment 2)
As described above, the motion of the block to be processed is the same as that of another encoded image by generating the double-coupled motion information candidate using the motion information in the L0 direction and the L1 direction of the single-coupled motion information candidate. Even when there is a deviation from the motion of the position block or the adjacent block of the processing target block, the motion information can be encoded only by the index without encoding the motion information. Therefore, it is possible to realize a moving image encoding device and a moving image decoding device that can optimize encoding efficiency and prediction efficiency.

以上のように、双結合動き情報候補とスケーリング結合動き情報候補を組み合わせて利用することで、処理対象ブロックの動きが、符号化済みの別の画像の同一位置ブロックや当該処理対象ブロックの隣接ブロックの動きとずれがある場合に、または処理対象ブロックの動きがLX方向のいずれかの参照画像とLY方向のいずれかの参照画像と等速運動をしている場合であって、符号化済みの別の画像の同一位置ブロックや当該処理対象ブロックの隣接ブロックの動き情報の中に処理対象ブロックと同一の等速運動を示す動き情報がない場合であって、符号化済みの別の画像の同一位置ブロックや当該処理対象ブロックの隣接ブロックの動き情報の中のL0方向またはL1方向の単方向だけが処理対象ブロックと同一の等速運動である場合に、動き情報を符号化することなくマージインデックスのみで符号化することができる。したがって、符号化効率と予測効率を最適化できる動画像符号化装置および動画像復号装置を実現できる。   As described above, the combined motion information candidate and the scaling combined motion information candidate are used in combination so that the motion of the processing target block is the same position block of another encoded image or the adjacent block of the processing target block. Or when the motion of the block to be processed is moving at a constant speed with any reference image in the LX direction and any reference image in the LY direction. When there is no motion information indicating the same speed motion as the processing target block in the motion information of the same position block of another image or the adjacent block of the processing target block, and the same of another encoded image When only the single direction of the L0 direction or the L1 direction in the motion information of the position block and the adjacent block of the processing target block is the same constant motion as the processing target block It can be encoded only in the merge index without encoding motion information. Therefore, it is possible to realize a moving image encoding device and a moving image decoding device that can optimize encoding efficiency and prediction efficiency.

以上述べた実施の形態1、2の動画像符号化装置が出力する動画像の符号化ストリームは、実施の形態1、2で用いられた符号化方法に応じて復号することができるように特定のデータフォーマットを有している。当該動画像符号化装置に対応する動画像復号装置がこの特定のデータフォーマットの符号化ストリームを復号することができる。   The moving image encoded stream output from the moving image encoding apparatus according to the first and second embodiments described above is specified so that it can be decoded according to the encoding method used in the first and second embodiments. Data format. A moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode an encoded stream of this specific data format.

具体的には、双結合動き情報候補を示すマージインデックスや、候補番号管理テーブルを符号化ストリーム中に符号化している。また、双結合動き情報候補を示すマージインデックスのみを符号化ストリーム中に符号化し、候補番号管理テーブルを動画像符号装置と動画像復号装置で共有することで候補番号管理テーブルを符号化ストリーム中に符号化しなくてもよい。   Specifically, a merge index indicating a candidate for bi-join motion information and a candidate number management table are encoded in the encoded stream. Also, only the merge index indicating the bi-join motion information candidate is encoded in the encoded stream, and the candidate number management table is shared by the video encoding device and the video decoding device, so that the candidate number management table is included in the encoded stream. It may not be encoded.

動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネットワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ストリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。   When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted. In that case, a video transmission apparatus that converts the encoded stream output from the video encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.

動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモリと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化データをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化された符号化データをネットワークを介して受信する受信部と、受信された符号化データをバッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動画像復号装置に提供するパケット処理部とを含む。   The moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network. Part. The moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.

以上の符号化および復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置として実現することができるのは勿論のこと、ROM(Read Only Memory)やフラッシュメモリなどに記憶されているファームウェアや、コンピュータなどのソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータなどで読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送のデータ放送として提供することも可能である。   The above encoding and decoding processes can be realized as a transmission, storage, and reception device using hardware, as well as firmware stored in a ROM (Read Only Memory), flash memory, and the like. It can also be realized by software such as a computer. The firmware program and software program can be recorded and provided on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as a data broadcast of terrestrial or satellite digital broadcasting. Is also possible.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

100 動画像符号化装置、 101 予測ブロック画像取得部、 102 減算部、 103 予測誤差符号化部、 104 符号列生成部、 105 予測誤差復号部、 106 動き補償部、 107 加算部、 108 動きベクトル検出部、 109 動き情報生成部、 110 フレームメモリ、 111 動き情報メモリ、 120 差分ベクトル算出部、 121 結合動き情報決定部、 122 予測符号化モード決定部、 130 予測ベクトル候補リスト生成部、 131 予測ベクトル決定部、 132 減算部、 140 結合動き情報候補生成部、 141 結合動き情報選択部、 150 単結合動き情報候補リスト生成部、 151 スケーリング結合動き情報候補生成部、 152 結合動き情報候補リスト削減部、 153 第1結合動き情報候補リスト削減部、 154 双結合動き情報候補生成部、 160 対象候補選択部、 161 参照画像設定部、 162 スケーリング部、 163 スケーリング結合動き情報候補追加部、 200 動画像復号装置、 201 符号列解析部、 202 予測誤差復号部、 203 加算部、 204 動き情報再生部、 205 動き補償部、 206 フレームメモリ、 207 動き情報メモリ、 210 符号化モード判定部、 211 動きベクトル再生部、 212 結合動き情報再生部、 220 予測ベクトル候補リスト生成部、 221 予測ベクトル決定部、 222 加算部、 230 結合動き情報候補生成部、 231 結合動き情報選択部、 300 基準方向決定部、 301 基準方向動き情報決定部、 302 逆方向動き情報決定部、 303 双結合動き情報候補決定部、 304 双結合動き情報候補追加部。   DESCRIPTION OF SYMBOLS 100 moving image encoder, 101 prediction block image acquisition part, 102 subtraction part, 103 prediction error encoding part, 104 code stream production | generation part, 105 prediction error decoding part, 106 motion compensation part, 107 addition part, 108 motion vector detection , 109 motion information generation unit, 110 frame memory, 111 motion information memory, 120 difference vector calculation unit, 121 combined motion information determination unit, 122 prediction coding mode determination unit, 130 prediction vector candidate list generation unit, 131 prediction vector determination , 132 subtraction unit, 140 combined motion information candidate generation unit, 141 combined motion information selection unit, 150 single combined motion information candidate list generation unit, 151 scaling combined motion information candidate generation unit, 152 combined motion information candidate list reduction unit, 153 First coupled motion Information candidate list reduction unit, 154 double coupled motion information candidate generation unit, 160 target candidate selection unit, 161 reference image setting unit, 162 scaling unit, 163 scaling combined motion information candidate addition unit, 200 moving image decoding apparatus, 201 code string Analysis unit 202 Prediction error decoding unit 203 Addition unit 204 Motion information reproduction unit 205 Motion compensation unit 206 Frame memory 207 Motion information memory 210 Coding mode determination unit 211 Motion vector reproduction unit 212 Combined motion information Reproducing unit 220 prediction vector candidate list generation unit 221 prediction vector determination unit 222 addition unit 230 combined motion information candidate generation unit 231 combined motion information selection unit 300 reference direction determination unit 301 reference direction motion information determination unit 302 Reverse movement Information determination unit, 303 bi-binding motion information candidate determination section, 304 bi-binding motion information candidate adding unit.

Claims (13)

動き補償予測を行う画像復号装置であって、
復号対象ブロックに隣接する複数の復号済みのブロックから、動きベクトルの情報と参照画像の情報とを少なくとも含む動き情報を持つ複数のブロックを選択して候補リストを生成する候補リスト生成部と、
前記候補リストに含まれるブロックの動き情報を取得する動き情報取得部と、
前記動き情報取得部により取得された動き情報に含まれる第1の動きベクトルをスケーリングして第2の動きベクトルを生成するスケーリング部と、
前記第1の動きベクトルを含む動き情報と、前記第2の動きベクトルを備えた動き情報とを有する新たな選択候補を生成する選択候補生成部と、
符号化側において候補リストから選択された候補を前記候補リスト内で特定するための候補特定情報を復号する符号列解析部と、
復号された候補特定情報を用いて、前記候補リスト生成部で生成した候補リストに含まれる選択候補の中から1つの候補を選択する選択部と、
を備えることを特徴とする画像復号装置。
An image decoding apparatus that performs motion compensation prediction,
A candidate list generating unit that generates a candidate list by selecting a plurality of blocks having motion information including at least motion vector information and reference image information from a plurality of decoded blocks adjacent to the decoding target block;
A motion information acquisition unit that acquires motion information of blocks included in the candidate list;
A scaling unit that generates a second motion vector by scaling a first motion vector included in the motion information acquired by the motion information acquisition unit;
A selection candidate generating unit that generates a new selection candidate having motion information including the first motion vector and motion information including the second motion vector;
A code string analyzing unit for decoding candidate specifying information for specifying a candidate selected from the candidate list on the encoding side in the candidate list;
A selection unit that selects one candidate from the selection candidates included in the candidate list generated by the candidate list generation unit using the decoded candidate identification information;
An image decoding apparatus comprising:
前記候補リストに含まれるブロック数が、設定された最大数に満たない場合、前記選択候補生成部により生成された新たな選択候補が前記候補リストに追加される、
ことを特徴とする請求項1に記載の画像復号装置。
When the number of blocks included in the candidate list is less than the set maximum number, a new selection candidate generated by the selection candidate generation unit is added to the candidate list.
The image decoding apparatus according to claim 1.
前記復号対象ブロックに隣接する複数の復号済みのブロックには、単方向の動き情報を持つ第1のタイプと、双方向の情報を持つ第2のタイプがあり、
前記動き情報取得部は、前記候補リストに含まれる複数のブロックのうち、前記第1のタイプのブロックを優先的に取得する、
ことを特徴とする請求項1または2に記載の画像復号装置。
The plurality of decoded blocks adjacent to the decoding target block include a first type having unidirectional motion information and a second type having bidirectional information.
The motion information acquisition unit preferentially acquires the first type block among a plurality of blocks included in the candidate list.
The image decoding apparatus according to claim 1, wherein the image decoding apparatus is an image decoding apparatus.
前記復号対象ブロックに隣接する複数の復号済みのブロックには、単方向の動き情報を持つ第1のタイプと、双方向の動きベクトルを持つ第2のタイプがあり、
前記動き情報取得部は、前記候補リストに含まれる複数のブロックのうち、前記第2のタイプのブロックを優先的に取得する、
ことを特徴とする請求項1または2に記載の画像復号装置。
The plurality of decoded blocks adjacent to the decoding target block include a first type having unidirectional motion information and a second type having bidirectional motion vectors,
The motion information acquisition unit preferentially acquires the second type block among a plurality of blocks included in the candidate list.
The image decoding apparatus according to claim 1, wherein the image decoding apparatus is an image decoding apparatus.
前記動き情報取得部は、前記候補リストに含まれる複数のブロックのうち、前記復号対象ブロックとの隣接度が相対的に高いブロックを優先的に取得する、
ことを特徴とする請求項1または2に記載の画像復号装置。
The motion information acquisition unit preferentially acquires a block having a relatively high degree of adjacency with the decoding target block among a plurality of blocks included in the candidate list.
The image decoding apparatus according to claim 1, wherein the image decoding apparatus is an image decoding apparatus.
前記スケーリング部は、前記動き情報取得部により取得された動き情報が双方向の動きベクトルを持つブロックの動き情報である場合、当該ブロックが持つ2つの動きベクトルのうち、長いほうの動きベクトルを前記第1の動きベクトルとしてスケーリングする、
ことを特徴とする請求項1から5のいずれかに記載の画像復号装置。
When the motion information acquired by the motion information acquisition unit is motion information of a block having a bidirectional motion vector, the scaling unit selects the longer motion vector of the two motion vectors of the block. Scaling as the first motion vector,
The image decoding device according to claim 1, wherein the image decoding device is an image decoding device.
前記スケーリング部は、前記動き情報取得部により取得された動き情報が双方向の動きベクトルを持つブロックの動き情報である場合、当該ブロックが持つ2つの動きベクトルのうち、短いほうの動きベクトルを前記第1の動きベクトルとしてスケーリングする、
ことを特徴とする請求項1から5のいずれかに記載の画像復号装置。
When the motion information acquired by the motion information acquisition unit is motion information of a block having a bidirectional motion vector, the scaling unit calculates a shorter motion vector of the two motion vectors of the block. Scaling as the first motion vector,
The image decoding device according to claim 1, wherein the image decoding device is an image decoding device.
前記スケーリング部により生成される第2の動きベクトルの参照画像を特定する参照インデックスの値をゼロに設定する参照画像設定部、
をさらに備えることを特徴とする請求項1から7のいずれかに記載の画像復号装置。
A reference image setting unit that sets a value of a reference index that identifies a reference image of the second motion vector generated by the scaling unit to zero;
The image decoding apparatus according to claim 1, further comprising:
前記復号対象ブロックに隣接する複数の復号済みのブロックには、前記復号対象ブロックを含む画像と時間的に異なる画像のブロックも含まれ、
前記参照画像設定部は、前記第1の動きベクトルの参照画像を特定する参照インデックスの値と前記第2の動きベクトルの参照画像を特定する参照インデックスの値が同じになった場合、前記時間的に異なる画像のブロックの動きベクトルの参照画像を特定する参照インデックスの値を、前記第2の動きベクトルの参照画像を特定する参照インデックスの値に設定する、
ことを特徴とする請求項8に記載の画像復号装置。
The plurality of decoded blocks adjacent to the decoding target block include blocks of images that are temporally different from the image including the decoding target block,
When the reference index value for specifying the reference image of the first motion vector is the same as the reference index value for specifying the reference image of the second motion vector, the reference image setting unit A reference index value that identifies a reference image of a motion vector of a block of a different image is set to a reference index value that identifies a reference image of the second motion vector;
The image decoding apparatus according to claim 8.
前記動き情報取得部は、前記候補リストに含まれる第1のブロックから第1の予測方向の動き情報と、前記候補リストに含まれる第2のブロックから第2の予測方向の動き情報を取得し、
前記選択候補生成部は、前記動き情報取得部により取得された前記第1の予測方向の動き情報と、前記第2の予測方向の動き情報をもとに、2つの動き情報を持つ新たな選択候補を生成する、
ことを特徴とする請求項1から9のいずれかに記載の画像復号装置。
The motion information acquisition unit acquires motion information in the first prediction direction from the first block included in the candidate list, and motion information in the second prediction direction from the second block included in the candidate list. ,
The selection candidate generating unit is a new selection having two pieces of motion information based on the motion information in the first prediction direction acquired by the motion information acquisition unit and the motion information in the second prediction direction. Generate suggestions,
The image decoding device according to claim 1, wherein the image decoding device is an image decoding device.
前記スケーリング部は、前記動き情報取得部により取得された前記第1の予測方向の動き情報または前記第2の予測方向の動き情報が無効である場合、有効なほうの予測方向の動き情報に含まれる動きベクトルを前記第1の動きベクトルとしてスケーリングして前記第2の動きベクトルを生成する、
ことを特徴とする請求項10に記載の画像復号装置。
The scaling unit is included in the motion information of the effective prediction direction when the motion information of the first prediction direction or the motion information of the second prediction direction acquired by the motion information acquisition unit is invalid. Generating a second motion vector by scaling a motion vector to be generated as the first motion vector;
The image decoding apparatus according to claim 10.
動き補償予測を行う画像復号方法であって、
復号対象ブロックに隣接する複数の復号済みのブロックから、動きベクトルの情報と参照画像の情報とを少なくとも含む動き情報を持つ複数のブロックを選択して候補リストを生成するステップと、
前記候補リストに含まれるブロックの動き情報を取得するステップと、
取得された動き情報に含まれる第1の動きベクトルをスケーリングして第2の動きベクトルを生成するステップと、
前記第1の動きベクトルを含む動き情報と、前記第2の動きベクトルを備えた動き情報とを有する新たな選択候補を生成するステップと、
符号化側において候補リストから選択された候補を前記候補リスト内で特定するための候補特定情報を復号するステップと、
復号された候補特定情報を用いて、前記候補リストに含まれる選択候補の中から1つの候補を選択するステップと、
を備えることを特徴とする画像復号方法。
An image decoding method for performing motion compensation prediction,
Selecting a plurality of blocks having motion information including at least motion vector information and reference image information from a plurality of decoded blocks adjacent to the decoding target block, and generating a candidate list;
Obtaining motion information of blocks included in the candidate list;
Scaling a first motion vector included in the acquired motion information to generate a second motion vector;
Generating a new selection candidate having motion information including the first motion vector and motion information including the second motion vector;
Decoding candidate identification information for identifying in the candidate list a candidate selected from the candidate list on the encoding side;
Selecting one candidate from the selection candidates included in the candidate list using the decoded candidate identification information;
An image decoding method comprising:
動き補償予測を行う画像復号プログラムであって、
復号対象ブロックに隣接する複数の復号済みのブロックから、動きベクトルの情報と参照画像の情報とを少なくとも含む動き情報を持つ複数のブロックを選択して候補リストを生成する処理と、
前記候補リストに含まれるブロックの動き情報を取得する処理と、
取得された動き情報に含まれる第1の動きベクトルをスケーリングして第2の動きベクトルを生成する処理と、
前記第1の動きベクトルを含む動き情報と、前記第2の動きベクトルを備えた動き情報とを有する新たな選択候補を生成する処理と、
符号化側において候補リストから選択された候補を前記候補リスト内で特定するための候補特定情報を復号する処理と、
復号された候補特定情報を用いて、前記候補リストに含まれる選択候補の中から1つの候補を選択する処理と、
をコンピュータに実行させることを特徴とする画像復号プログラム。
An image decoding program for performing motion compensation prediction,
A process for generating a candidate list by selecting a plurality of blocks having motion information including at least motion vector information and reference image information from a plurality of decoded blocks adjacent to the decoding target block;
A process of acquiring motion information of blocks included in the candidate list;
Processing to generate a second motion vector by scaling the first motion vector included in the acquired motion information;
Processing for generating a new selection candidate having motion information including the first motion vector and motion information including the second motion vector;
Decoding candidate specifying information for specifying a candidate selected from the candidate list on the encoding side in the candidate list;
A process of selecting one candidate from the selection candidates included in the candidate list using the decoded candidate specifying information;
An image decoding program that causes a computer to execute the above.
JP2011154336A 2011-07-12 2011-07-12 Image decoder, image decoding method, and image decoding program Withdrawn JP2013021573A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011154336A JP2013021573A (en) 2011-07-12 2011-07-12 Image decoder, image decoding method, and image decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011154336A JP2013021573A (en) 2011-07-12 2011-07-12 Image decoder, image decoding method, and image decoding program

Publications (1)

Publication Number Publication Date
JP2013021573A true JP2013021573A (en) 2013-01-31

Family

ID=47692550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011154336A Withdrawn JP2013021573A (en) 2011-07-12 2011-07-12 Image decoder, image decoding method, and image decoding program

Country Status (1)

Country Link
JP (1) JP2013021573A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110602502A (en) * 2019-08-23 2019-12-20 绍兴文理学院 Method for coding and decoding motion vector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110602502A (en) * 2019-08-23 2019-12-20 绍兴文理学院 Method for coding and decoding motion vector
CN110602502B (en) * 2019-08-23 2022-08-16 绍兴文理学院 Method for coding and decoding motion vector

Similar Documents

Publication Publication Date Title
TWI601416B (en) Video decoding apparatus, video decoding method and recording medium storing video decoding program
WO2013001803A1 (en) Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program
JP6135750B2 (en) Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program
JP5678924B2 (en) Image decoding apparatus, image decoding method, and image decoding program, and receiving apparatus, receiving method, and receiving program
JP2013021573A (en) Image decoder, image decoding method, and image decoding program
JP2013021572A (en) Image encoder, image encoding method, and image encoding program
JP2013021613A (en) Image decoder, image decoding method and image decoding program
JP2013042304A (en) Image decoding apparatus, image decoding method and image decoding program
JP2013021612A (en) Image encoder, image encoding method and image encoding program
JP2013021504A (en) Moving image encoding device, moving image encoding method, and moving image encoding program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007