JP6323543B2 - Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program - Google Patents

Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program Download PDF

Info

Publication number
JP6323543B2
JP6323543B2 JP2016241025A JP2016241025A JP6323543B2 JP 6323543 B2 JP6323543 B2 JP 6323543B2 JP 2016241025 A JP2016241025 A JP 2016241025A JP 2016241025 A JP2016241025 A JP 2016241025A JP 6323543 B2 JP6323543 B2 JP 6323543B2
Authority
JP
Japan
Prior art keywords
motion information
prediction
candidate
combined
candidates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016241025A
Other languages
Japanese (ja)
Other versions
JP2017085608A (en
Inventor
和美 荒蔭
和美 荒蔭
英樹 竹原
英樹 竹原
福島 茂
茂 福島
博哉 中村
博哉 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2016241025A priority Critical patent/JP6323543B2/en
Publication of JP2017085608A publication Critical patent/JP2017085608A/en
Application granted granted Critical
Publication of JP6323543B2 publication Critical patent/JP6323543B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動き補償予測を用いた動画像復号技術に関し、特に動き補償予測に利用する
動画像復号装置、動画像復号方法、及び、動画像復号プログラムに関する。
The present invention relates to a moving picture decoding technique using motion compensated prediction, and more particularly to a moving picture decoding apparatus, a moving picture decoding method, and a moving picture decoding program used for motion compensated prediction.

MPEG−4 AVC/H.264(以後、AVC)等に代表される動画像符号化では
、ピクチャを矩形ブロックに分割し、ピクチャ間でブロック単位に動き推定、補償を行う
動き補償予測が用いられる。動き補償予測において各ブロックで生成される動きベクトル
は、その符号量を削減するために、予測処理が施される。
MPEG-4 AVC / H. In moving picture coding represented by H.264 (hereinafter AVC), motion compensated prediction is used in which a picture is divided into rectangular blocks, and motion estimation and compensation are performed in units of blocks between pictures. A motion vector generated in each block in motion compensation prediction is subjected to a prediction process in order to reduce the code amount.

AVCでは、隣接するブロックの動きベクトルの間に強い相関があることを利用して、
隣接ブロックから予測値を算出し、その予測値との差分ベクトルを符号化することによっ
て符号量を削減している。しかし、これらの予測方法では、参照する隣接ブロックの位置
が限定されているために、予測が当たらないと、動きベクトルの差分が大きくなり、発生
符号量が増加する課題があった。また、動きベクトルの符号量は削減されるものの、予測
方向や参照画像インデックス等の他の動き情報は処理対象のブロック毎に符号化されるの
で、効率的な符号化に至っていないという課題もあった。
In AVC, taking advantage of the strong correlation between the motion vectors of adjacent blocks,
A prediction value is calculated from an adjacent block, and a code amount is reduced by encoding a difference vector with the prediction value. However, in these prediction methods, since the positions of adjacent blocks to be referred to are limited, there is a problem that if the prediction is not successful, the difference between the motion vectors becomes large and the generated code amount increases. In addition, although the amount of motion vector coding is reduced, other motion information such as the prediction direction and the reference image index is encoded for each block to be processed, so that there is a problem that efficient encoding has not been achieved. It was.

これらの課題を解決するために、特許文献1のように、複数の隣接ブロックの中から参
照する隣接ブロックを特定する付加情報を符号化することによって、処理対象のブロック
の動き情報を符号化せずに、隣接ブロックの動き情報を使用して符号化を行い、符号量を
削減するマージ符号化技術が用いられる。
In order to solve these problems, as in Patent Document 1, by encoding additional information for specifying an adjacent block to be referred to from among a plurality of adjacent blocks, the motion information of the block to be processed is encoded. Instead, a merge encoding technique is used in which the motion information of adjacent blocks is used for encoding to reduce the code amount.

特開平10−276439号公報JP-A-10-276439

マージ符号化は、処理対象のブロックの動き情報を符号化せずに、空間及び時間的に隣
接するブロックの動き情報を使用して符号化を行うことで、符号量を削減して符号化効率
を向上させている。また、参照する隣接ブロックの候補を複数用意し、参照する隣接ブロ
ックを特定する付加情報を符号化することによって、より符号化対象ブロックの動き情報
に近い隣接ブロックを参照できるようにしている。
Merge encoding reduces the amount of code and reduces the coding efficiency by encoding using the motion information of spatially and temporally adjacent blocks without encoding the motion information of the block to be processed. Has improved. Also, a plurality of adjacent block candidates to be referred to are prepared, and additional information specifying the adjacent block to be referenced is encoded, so that an adjacent block closer to the motion information of the encoding target block can be referred to.

そのため、参照隣接ブロック候補に同じ動き情報を持つ隣接ブロックが複数含まれてい
ると、参照隣接ブロック候補で表現可能な動き情報の種類が少なくなり、結果として符号
化効率の向上に結びつかない。そこで、参照隣接ブロック候補の動き情報を詳細に比較し
、同じ動き情報を持つ参照隣接ブロック候補を削減すると、処理量の増加につながる。
Therefore, if the reference adjacent block candidate includes a plurality of adjacent blocks having the same motion information, the types of motion information that can be expressed by the reference adjacent block candidate are reduced, and as a result, the encoding efficiency is not improved. Therefore, when the motion information of the reference adjacent block candidates is compared in detail and the reference adjacent block candidates having the same motion information are reduced, the processing amount increases.

本発明はこうした状況に鑑みてなされたものであり、その目的は、隣接ブロックの動き
情報を使用して符号化を行う場合に、処理負荷が少なく、動き情報の符号化効率を向上さ
せる技術を提供することにある。
The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for reducing the processing load and improving the encoding efficiency of motion information when encoding is performed using the motion information of adjacent blocks. It is to provide.

上記課題を解決するために、本発明のある態様の動画像復号装置は、動画像データの各
ピクチャが分割されたブロック単位で、符号化された符号列を復号する動画像復号装置で
あって、前記復号対象ブロックに空間的に近接する所定位置の復号済みの複数の近接ブロ
ックの動き情報から複数の空間動き情報候補を導出し、前記復号の対象となる復号対象ブ
ロックを有するピクチャと時間的に異なるピクチャが有する復号済みのブロックの動き情
報を導出し、導出された前記復号済みのブロックの動き情報から前記復号対象ブロックの
時間動き情報候補を導出し、導出された前記空間動き情報候補と前記時間動き情報候補と
を含む結合動き情報候補リストを生成する候補リスト生成部と、前記結合動き情報候補リ
ストに含まれる動き情報候補を指定するインデックスを復号し、前記インデックスにより
指定される動き情報候補に基づいて前記復号対象ブロックを復号する復号部を備え、前記
候補リスト生成部は、前記空間動き情報候補をすべての組み合わせで比較することなく前
記結合動き情報候補リストの配列順が一番目の候補と二番目の候補と最後の候補について
はそれぞれの候補同士を比較して、動き情報が同一である場合は、それらの動き情報が同
一の候補からは一の前記空間動き情報候補を導出する。
本発明のさらに別の態様は、動画像復号方法である。この方法は、動画像データの各ピ
クチャが分割されたブロック単位で、符号化された符号列を復号する動画像復号方法であ
って、前記復号対象ブロックに空間的に近接する所定位置の復号済みの複数の近接ブロッ
クの動き情報から複数の空間動き情報候補を導出し、前記復号の対象となる復号対象ブロ
ックを有するピクチャと時間的に異なるピクチャが有する復号済みのブロックの動き情報
を導出し、導出された前記復号済みのブロックの動き情報から前記復号対象ブロックの時
間動き情報候補を導出し、導出された前記空間動き情報候補と前記時間動き情報候補とを
含む結合動き情報候補リストを生成する候補リスト生成ステップと、前記結合動き情報候
補リストに含まれる動き情報候補を指定するインデックスを復号し、前記インデックスに
より指定される動き情報候補に基づいて前記復号対象ブロックを復号する復号ステップを
有し、前記候補リスト生成ステップは、前記空間動き情報候補をすべての組み合わせで比
較することなく前記結合動き情報候補リストの配列順が一番目の候補と二番目の候補と最
後の候補についてはそれぞれの候補同士を比較して、動き情報が同一である場合は、それ
らの動き情報が同一の候補からは一の前記空間動き情報候補を導出する。
本発明のさらに別の態様は、動画像復号プログラムである。このプログラムは、動画像
データの各ピクチャが分割されたブロック単位で、符号化された符号列を復号する動画像
復号プログラムであって、前記復号対象ブロックに空間的に近接する所定位置の復号済み
の複数の近接ブロックの動き情報から複数の空間動き情報候補を導出し、前記復号の対象
となる復号対象ブロックを有するピクチャと時間的に異なるピクチャが有する復号済みの
ブロックの動き情報を導出し、導出された前記復号済みのブロックの動き情報から前記復
号対象ブロックの時間動き情報候補を導出し、導出された前記空間動き情報候補と前記時
間動き情報候補とを含む結合動き情報候補リストを生成する候補リスト生成ステップと、
前記結合動き情報候補リストに含まれる動き情報候補を指定するインデックスを復号し、
前記インデックスにより指定される動き情報候補に基づいて前記復号対象ブロックを復号
する復号ステップをコンピュータに実行させ、前記候補リスト生成ステップは、前記空間
動き情報候補をすべての組み合わせで比較することなく前記結合動き情報候補リストの配
列順が一番目の候補と二番目の候補と最後の候補についてはそれぞれの候補同士を比較し
て、動き情報が同一である場合は、それらの動き情報が同一の候補からは一の前記空間動
き情報候補を導出する。
In order to solve the above problems, a moving picture decoding apparatus according to an aspect of the present invention is a moving picture decoding apparatus that decodes a coded code string in units of blocks obtained by dividing each picture of moving picture data. Deriving a plurality of spatial motion information candidates from motion information of a plurality of decoded neighboring blocks at predetermined positions spatially close to the decoding target block, and temporally comparing the picture having the decoding target block to be decoded Deriving motion information of a decoded block included in a different picture, deriving a temporal motion information candidate of the decoding target block from the derived motion information of the decoded block, and deriving the spatial motion information candidate derived A candidate list generation unit for generating a combined motion information candidate list including the temporal motion information candidates; and motion information candidates included in the combined motion information candidate list. A decoding unit that decodes the index to be determined and decodes the decoding target block based on the motion information candidate specified by the index, and the candidate list generation unit compares the spatial motion information candidates in all combinations Without comparing the candidates for the first candidate, the second candidate, and the last candidate in the order of arrangement of the combined motion information candidate list, if the motion information is the same, the motion information is One spatial motion information candidate is derived from the same candidate.
Yet another aspect of the present invention is a video decoding method. This method is a moving picture decoding method for decoding a coded code string in units of blocks into which each picture of moving picture data is divided, and has been decoded at a predetermined position spatially close to the decoding target block. Deriving a plurality of spatial motion information candidates from motion information of a plurality of neighboring blocks, deriving motion information of a decoded block included in a picture temporally different from a picture having a decoding target block to be decoded, A temporal motion information candidate of the decoding target block is derived from the derived motion information of the decoded block, and a combined motion information candidate list including the derived spatial motion information candidate and the temporal motion information candidate is generated. A candidate list generating step; and decoding an index for designating motion information candidates included in the combined motion information candidate list; A decoding step of decoding the decoding target block based on the motion information candidate specified by the candidate motion information candidate list, wherein the candidate list generation step includes the combination motion information candidate list without comparing the spatial motion information candidates in all combinations. For the first candidate, the second candidate and the last candidate of the arrangement order of each, the candidates are compared, and if the motion information is the same, the motion information is the same from the candidates with the same motion information Spatial motion information candidates are derived.
Yet another aspect of the present invention is a moving image decoding program. This program is a moving picture decoding program for decoding a coded code sequence in units of blocks obtained by dividing each picture of moving picture data, and has been decoded at a predetermined position spatially close to the decoding target block Deriving a plurality of spatial motion information candidates from motion information of a plurality of neighboring blocks, deriving motion information of a decoded block included in a picture temporally different from a picture having a decoding target block to be decoded, A temporal motion information candidate of the decoding target block is derived from the derived motion information of the decoded block, and a combined motion information candidate list including the derived spatial motion information candidate and the temporal motion information candidate is generated. A candidate list generation step;
Decoding an index specifying motion information candidates included in the combined motion information candidate list;
The computer executes a decoding step of decoding the decoding target block based on the motion information candidate specified by the index, and the candidate list generation step includes the combination without comparing the spatial motion information candidates in all combinations. For the first candidate, the second candidate, and the last candidate in the order of arrangement in the motion information candidate list, the respective candidates are compared with each other, and if the motion information is the same, the motion information is from the same candidate Derives one spatial motion information candidate.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記
録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有
効である。
It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.

本発明によれば、動き情報を処理する際の負荷を抑制しつつ、動き情報の符号化効率を
向上させることができる。
ADVANTAGE OF THE INVENTION According to this invention, the encoding efficiency of motion information can be improved, suppressing the load at the time of processing motion information.

本発明の実施の形態1に係る動画像符号化装置の構成を示す図である。It is a figure which shows the structure of the moving image encoder which concerns on Embodiment 1 of this invention. 符号化対象画像の一例を示す図である。It is a figure which shows an example of an encoding target image. 予測ブロックサイズの詳細な定義を示す図である。It is a figure which shows the detailed definition of prediction block size. 図4(a)〜(d)は、動き補償予測の予測方向について説明する図である。4A to 4D are diagrams for explaining the prediction direction of motion compensation prediction. 本発明の実施の形態1に係る動画像符号化装置における符号化処理の動作の流れ示すフローチャートである。It is a flowchart which shows the flow of the operation | movement of the encoding process in the moving image encoder which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る動画像復号装置の構成を示す図である。It is a figure which shows the structure of the moving image decoding apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る動画像復号装置における復号処理の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the decoding process in the moving image decoding apparatus which concerns on Embodiment 1 of this invention. 図8(a)、(b)は、本発明の実施の形態1における動き補償予測において使用される動き情報を符号化するための2つの予測モードを説明する図である。FIGS. 8A and 8B are diagrams illustrating two prediction modes for encoding motion information used in motion compensation prediction in Embodiment 1 of the present invention. 実施の形態1の動画像符号化装置における予測モード判定部の詳細な構成を示す図である。FIG. 5 is a diagram illustrating a detailed configuration of a prediction mode determination unit in the video encoding device according to the first embodiment. 実施の形態1における図9の結合動き情報算出部の構成を示す図である。FIG. 10 is a diagram showing a configuration of a combined motion information calculation unit in FIG. 9 in the first embodiment. 図5のステップS502の動き補償予測モード/予測信号生成処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the motion compensation prediction mode / predicted signal generation process of step S502 of FIG. 実施の形態1における図11の結合動き情報候補リスト生成の詳細動作を説明するフローチャートである。12 is a flowchart for explaining a detailed operation of the combined motion information candidate list generation of FIG. 11 in the first embodiment. 空間結合動き情報候補リスト生成に用いる空間候補ブロック群を示す図である。It is a figure which shows the space candidate block group used for a space joint motion information candidate list generation. 空間結合動き情報候補リスト生成の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of a space joint motion information candidate list generation. 実施の形態1における結合動き情報候補削除の詳細動作を説明するフローチャートである。5 is a flowchart for explaining detailed operation of combined motion information candidate deletion in the first embodiment. 実施の形態1における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 10 is a diagram illustrating a comparison relationship of motion information candidates in combined motion information candidate deletion in the first embodiment. 実施の形態1における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 10 is a diagram illustrating a comparison relationship of motion information candidates in combined motion information candidate deletion in the first embodiment. 時間結合動き情報候補リスト生成に用いる時間候補ブロック群を示す図である。It is a figure which shows the time candidate block group used for a time joint movement information candidate list generation. 時間結合動き情報候補リスト生成の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of time coupling | bonding motion information candidate list generation. 時間結合動き情報に対する基準動きベクトル値ColMvに対する、L0予測、L1予測に対して登録する動きベクトル値mvL0t、mvL1tの算出手法を説明する図である。It is a figure explaining the calculation method of the motion vector value mvL0t and mvL1t registered with respect to L0 prediction and L1 prediction with respect to the reference | standard motion vector value ColMv with respect to time joint motion information. 第1結合動き情報候補リスト追加部の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of a 1st joint motion information candidate list addition part. 組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係を説明する図である。It is a figure explaining the relationship between the frequency | count of combination inspection, combined motion information candidate M, and combined motion information candidate N. 第2結合動き情報候補リスト追加部の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of a 2nd joint motion information candidate list addition part. 図11の結合予測モード評価値生成処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the joint prediction mode evaluation value production | generation process of FIG. 結合動き情報候補数が5の場合のTruncated Unary符号列を示す図である。It is a figure which shows the Truncated Unary code sequence when the number of combined motion information candidates is 5. 図11の予測モード評価値生成処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the prediction mode evaluation value production | generation process of FIG. 実施の形態1の動画像復号装置における動き情報復号部の詳細な構成を示す図である。5 is a diagram illustrating a detailed configuration of a motion information decoding unit in the video decoding device in Embodiment 1. FIG. 図7の動き情報復号処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the motion information decoding process of FIG. 図28の結合予測動き情報復号処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the joint prediction motion information decoding process of FIG. 図28の予測動き情報復号処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the prediction motion information decoding process of FIG. 実施の形態2における結合動き情報候補削除の詳細動作を説明するフローチャートである。10 is a flowchart for explaining a detailed operation of combined motion information candidate deletion in the second embodiment. 実施の形態2における結合動き情報候補削除における動き情報候補の比較内容を示す図である。FIG. 10 is a diagram illustrating comparison contents of motion information candidates in combined motion information candidate deletion in the second embodiment. 実施の形態2における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 10 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the second embodiment. 実施の形態2における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 10 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the second embodiment. 実施の形態3における結合動き情報候補削除の詳細動作を説明するフローチャートである。18 is a flowchart for explaining a detailed operation of combined motion information candidate deletion in the third embodiment. 実施の形態3における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 10 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the third embodiment. 実施の形態3における結合動き情報候補削除における動き情報候補の比較内容を示す図である。FIG. 16 is a diagram showing comparison contents of motion information candidates in combined motion information candidate deletion in the third embodiment. 実施の形態4における結合動き情報候補削除の詳細動作を説明するフローチャートである。18 is a flowchart for explaining a detailed operation of combined motion information candidate deletion in the fourth embodiment. 実施の形態4における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 20 is a diagram illustrating a comparison relationship of motion information candidates in combined motion information candidate deletion in the fourth embodiment. 実施の形態4における結合動き情報候補削除における動き情報候補の比較内容を示す図である。It is a figure which shows the comparison content of the motion information candidate in combined motion information candidate deletion in Embodiment 4. FIG. 実施の形態5における結合動き情報候補削除の詳細動作を説明するフローチャートである。29 is a flowchart for explaining detailed operation of combined motion information candidate deletion in the fifth embodiment. 実施の形態5における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 25 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the fifth embodiment. 実施の形態5における結合動き情報候補削除における動き情報候補の比較内容を示す図である。FIG. 25 is a diagram showing comparison contents of motion information candidates in combined motion information candidate deletion in the fifth embodiment. 実施の形態5における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 25 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the fifth embodiment. ブロックA0の使用可能状況を説明する図である。It is a figure explaining the usable condition of block A0. 実施の形態6における図9の結合動き情報算出部の構成を示す図である。FIG. 10 is a diagram illustrating a configuration of a combined motion information calculation unit in FIG. 9 according to Embodiment 6. 実施の形態6における結合動き情報候補リスト生成の詳細動作を説明するフローチャートである。29 is a flowchart for describing detailed operation of combined motion information candidate list generation in the sixth embodiment. 実施の形態6における結合動き情報候補削除における動き情報候補の比較内容を示す図である。FIG. 38 is a diagram illustrating comparison contents of motion information candidates in combined motion information candidate deletion in the sixth embodiment. 実施の形態6における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 38 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the sixth embodiment.

以下、図面とともに本発明の実施の形態に係る動画像符号化装置、動画像符号化方法、
動画像符号化プログラム、並びに動画像復号装置、動画像復号方法、動画像復号プログラ
ムの好適な実施の形態について詳細に説明する。なお、図面の説明には同一要素には同一
符号を付与して重複する説明を省略する。
Hereinafter, a moving picture coding apparatus, a moving picture coding method according to an embodiment of the present invention together with the drawings,
Preferred embodiments of a moving image encoding program, a moving image decoding apparatus, a moving image decoding method, and a moving image decoding program will be described in detail. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

(実施の形態1)
[動画像符号化装置全体構成]
図1は、本発明の実施の形態1に係る動画像符号化装置の構成を示す図である。以下、
各部の動作について説明する。実施の形態1に係る動画像符号化装置は、入力端子100
、減算部101、直交変換・量子化部102、予測誤差符号化部103、逆量子化・逆変
換部104、加算部105、復号画像メモリ106、動きベクトル検出部107、動き補
償予測部108、予測モード判定部109、動き情報符号化部110、動き情報メモリ1
11、多重化部112、及び出力端子113を備える。
(Embodiment 1)
[Overall configuration of video encoding apparatus]
FIG. 1 is a diagram showing a configuration of a moving picture coding apparatus according to Embodiment 1 of the present invention. Less than,
The operation of each part will be described. The video encoding apparatus according to Embodiment 1 includes an input terminal 100.
, Subtraction unit 101, orthogonal transform / quantization unit 102, prediction error encoding unit 103, inverse quantization / inverse transform unit 104, addition unit 105, decoded image memory 106, motion vector detection unit 107, motion compensated prediction unit 108, Prediction mode determination unit 109, motion information encoding unit 110, motion information memory 1
11, a multiplexing unit 112, and an output terminal 113.

入力端子100より入力される画像信号から符号化処理対象の予測ブロックの画像信号
が、予測ブロックの位置情報と予測ブロックサイズに基づいて切り出され、予測ブロック
の画像信号は、減算部101、動きベクトル検出部107及び予測モード判定部109に
供給される。
The image signal of the prediction block to be encoded is extracted from the image signal input from the input terminal 100 based on the position information and the prediction block size of the prediction block, and the image signal of the prediction block is subtracted by the subtractor 101, the motion vector. This is supplied to the detection unit 107 and the prediction mode determination unit 109.

図2は、符号化対象画像の一例を示す図である。実施の形態1に係る予測ブロックサイ
ズに関しては、図2に示すように符号化対象画像が64×64画素の符号化ブロック(C
U)単位で符号化処理され、予測ブロックは符号化ブロックが更に分割された単位で構成
される。最大予測ブロックサイズは符号化ブロックと同じ64×64画素で、最小予測ブ
ロックサイズは4×4画素である。符号化ブロックの予測ブロックへの分割構成は、非分
割(2N×2N)、水平・垂直への分割(N×N)、水平方向のみへの分割(2N×N)
、垂直方向のみへの分割(N×2N)が可能である。水平・垂直への分割の場合のみ、更
に分割された予測ブロックを符号化ブロックとして階層的に予測ブロックに分割でき、そ
の階層をCU分割数で表現する。
FIG. 2 is a diagram illustrating an example of an encoding target image. As for the prediction block size according to Embodiment 1, as shown in FIG.
U) Encoding processing is performed in units, and the prediction block is configured by a unit obtained by further dividing the encoding block. The maximum prediction block size is 64 × 64 pixels, which is the same as the encoded block, and the minimum prediction block size is 4 × 4 pixels. The coding block is divided into prediction blocks: non-division (2N × 2N), horizontal / vertical division (N × N), horizontal division only (2N × N)
Dividing only in the vertical direction (N × 2N) is possible. Only in the case of horizontal and vertical division, the further divided prediction block can be divided into prediction blocks hierarchically as encoded blocks, and the hierarchy is expressed by the number of CU divisions.

図3は、予測ブロックサイズの詳細な定義を示す図である。CU分割数が0であって最
大の予測ブロックサイズである64画素×64画素から、CU分割数が3であって最小の
予測ブロックサイズである4画素×4画素までの13の予測ブロックサイズが存在するこ
とになる。
FIG. 3 is a diagram showing a detailed definition of the predicted block size. There are 13 predicted block sizes from 64 pixels × 64 pixels, which is the maximum predicted block size with 0 CU divisions, to 4 pixels × 4 pixels, which is the minimum predicted block size with 3 CU partitions. Will exist.

本発明の実施の形態1に係る予測ブロックの分割構成に関して、この組み合わせに限定
されない。また、動画像符号化装置における予測ブロックサイズの選択は、符号化ブロッ
ク単位で符号化効率のより良い構造を適応的に選択することが可能であるが、実施の形態
1は予測ブロック単位での画面間予測及び画面間動き情報の符号化に注目したものである
ため、最適な予測ブロックサイズの選択に関する構成要素及び説明を省略する。以降の動
画像符号化装置の動作に関しては、選択した予測ブロックサイズ単位で施される動作を説
明する。
Regarding the division | segmentation structure of the prediction block which concerns on Embodiment 1 of this invention, it is not limited to this combination. In addition, the selection of the prediction block size in the moving image encoding apparatus can adaptively select a structure with better encoding efficiency in units of encoding blocks, but the first embodiment is in units of prediction blocks. Since attention is paid to inter-frame prediction and inter-frame motion information encoding, the components and description relating to selection of the optimal prediction block size are omitted. Regarding the subsequent operation of the video encoding apparatus, the operation performed in units of the selected prediction block size will be described.

図1に戻り、減算部101は、入力端子100より供給される画像信号と予測モード判
定部109より供給される予測信号を減算して予測誤差信号を算出し、予測誤差信号を直
交変換・量子化部102に供給する。
Returning to FIG. 1, the subtraction unit 101 subtracts the image signal supplied from the input terminal 100 and the prediction signal supplied from the prediction mode determination unit 109 to calculate a prediction error signal, and orthogonally transforms / quantizes the prediction error signal. To the conversion unit 102.

直交変換・量子化部102は、減算部101より供給される予測誤差信号に直交変換及
び量子化を施し、量子化された予測誤差信号を予測誤差符号化部103及び逆量子化・逆
変換部104に供給する。
The orthogonal transform / quantization unit 102 performs orthogonal transform and quantization on the prediction error signal supplied from the subtraction unit 101, and the quantized prediction error signal is subjected to a prediction error encoding unit 103 and an inverse quantization / inverse conversion unit. 104 is supplied.

予測誤差符号化部103は、直交変換・量子化部102より供給される量子化された予
測誤差信号をエントロピー符号化して、予測誤差信号に対する符号列を生成して、多重化
部112に供給する。
The prediction error encoding unit 103 entropy-encodes the quantized prediction error signal supplied from the orthogonal transform / quantization unit 102, generates a code string for the prediction error signal, and supplies the code sequence to the multiplexing unit 112 .

逆量子化・逆変換部104は、直交変換・量子化部102より供給される量子化された
予測誤差信号に対して、逆量子化や逆直交変換などの処理を行い、復号予測誤差信号を生
成し加算部105に供給する。
The inverse quantization / inverse transform unit 104 performs processing such as inverse quantization and inverse orthogonal transform on the quantized prediction error signal supplied from the orthogonal transform / quantization unit 102, and outputs the decoded prediction error signal. Generated and supplied to the adding unit 105.

加算部105は、逆量子化・逆変換部104より供給される復号予測誤差信号と、予測
モード判定部109より供給される予測信号を加算して、復号画像信号を生成し、復号画
像信号を復号画像メモリ116に供給する。
The addition unit 105 adds the decoded prediction error signal supplied from the inverse quantization / inverse conversion unit 104 and the prediction signal supplied from the prediction mode determination unit 109, generates a decoded image signal, and outputs the decoded image signal. The decoded image memory 116 is supplied.

復号画像メモリ106は、加算部105より供給される復号画像信号を格納する。また
、画像全体の復号が完了した復号画像については参照画像として1以上の所定画像数記憶
し、参照画像信号を動きベクトル検出部107と動き補償予測部108に供給する。
The decoded image memory 106 stores the decoded image signal supplied from the adding unit 105. In addition, a decoded image for which decoding of the entire image has been completed is stored as a reference image by a predetermined number of images, and the reference image signal is supplied to the motion vector detection unit 107 and the motion compensation prediction unit 108.

動きベクトル検出部107は、入力端子100より供給される予測ブロックの画像信号
と、復号画像メモリ106に記憶された参照画像信号の入力を受けて、各参照画像に対す
る動きベクトルを検出し、動きベクトル値を予測モード判定部109に供給する。
The motion vector detection unit 107 receives the prediction block image signal supplied from the input terminal 100 and the reference image signal stored in the decoded image memory 106, detects the motion vector for each reference image, and detects the motion vector. The value is supplied to the prediction mode determination unit 109.

一般的な動きベクトルの検出方法は、画像信号と同一位置より所定の移動量だけ移動さ
せた参照画像に相当する画像信号について誤差評価値を算出し、誤差評価値が最小となる
移動量を動きベクトルとする。誤差評価値としては、画素毎の差分絶対値の総和SAD(
Sum of Absolute Difference)や、画素毎の二乗誤差値の総
和SSE(Sum of Square Error)等を利用する。さらに、動きベク
トルの符号化に関わる符号量も誤差評価値に含めることも可能である。
A general motion vector detection method calculates an error evaluation value for an image signal corresponding to a reference image moved by a predetermined movement amount from the same position as the image signal, and moves the movement amount that minimizes the error evaluation value. Let it be a vector. As the error evaluation value, the sum of the absolute differences SAD for each pixel SAD (
Sum of Absolute Difference), the sum of square error values SSE (Sum of Square Error) for each pixel, and the like are used. Furthermore, the code amount related to the coding of the motion vector can also be included in the error evaluation value.

動き補償予測部108は、予測モード判定部109より指定される参照画像指定情報と
、動きベクトル値に従って、復号画像メモリ106内の参照画像指定情報で示される参照
画像を、動きベクトル値だけ予測ブロックの画像信号と同一位置より移動させた位置の画
像信号を取得して予測信号を生成する。
The motion compensated prediction unit 108 predicts the reference image indicated by the reference image designation information in the decoded image memory 106 by a motion vector value according to the reference image designation information designated by the prediction mode determination unit 109 and the motion vector value. An image signal at a position moved from the same position as the image signal is acquired to generate a prediction signal.

予測モード判定部109より指定される予測モードが単予測の場合には、1つの参照画
像から取得した予測信号を動き補償予測信号とし、予測モードが双予測の場合には、2つ
の参照画像から取得した予測信号を重みづけ平均したものを動き補償予測信号とし、動き
補償予測信号を予測モード判定部109に供給する。ここでは双予測の重みづけ平均の比
率を1:1とする。
When the prediction mode specified by the prediction mode determination unit 109 is uni-prediction, a prediction signal acquired from one reference image is used as a motion-compensated prediction signal. When the prediction mode is bi-prediction, two reference images are used. A weighted average of the obtained prediction signals is used as a motion compensation prediction signal, and the motion compensation prediction signal is supplied to the prediction mode determination unit 109. Here, the ratio of the weighted average of bi-prediction is set to 1: 1.

図4(a)〜(d)は、動き補償予測の予測種別について説明するための図である。単
一の参照画像からの予測を行う処理を単予測と定義し、単予測の場合はL0予測またはL
1予測という2つの参照画像管理リストに登録された参照画像のいずれか一方を利用する
4A to 4D are diagrams for explaining the prediction type of motion compensation prediction. A process for performing prediction from a single reference image is defined as single prediction. In the case of single prediction, L0 prediction or L
One of the reference images registered in the two reference image management lists of 1 prediction is used.

図4(a)は単予測であってL0予測の参照画像(RefL0Pic)が符号化対象画
像(CurPic)より前の時刻にある場合を示している。図4(b)は単予測であって
L0予測の参照画像が符号化対象画像より後の時刻にある場合を示している。同様に、図
4(a)および図4(b)のL0予測の参照画像をL1予測の参照画像(RefL1Pi
c)に置き換えて単予測を行うこともできる。
FIG. 4A shows a case of single prediction and the reference image (RefL0Pic) for L0 prediction is at a time before the encoding target image (CurPic). FIG. 4B shows a case in which the prediction image is a single prediction and the reference image of the L0 prediction is at a time after the encoding target image. Similarly, the L0 prediction reference image of FIG. 4A and FIG. 4B is replaced with the L1 prediction reference image (RefL1Pi).
It can replace with c) and can perform single prediction.

2つの参照画像からの予測を行う処理を双予測と定義し、双予測の場合はL0予測とL
1予測の双方を利用してBI予測と表現する。図4(c)は双予測であってL0予測の参
照画像が符号化対象画像より前の時刻にあって、L1予測の参照画像が符号化対象画像よ
り後の時刻にある場合を示している。図4(d)は双予測であってL0予測の参照画像と
L1予測の参照画像が符号化対象画像より前の時刻にある場合を示している。このように
、L0/L1の予測種別と時間の関係は、L0が過去方向、L1が未来方向とは限定され
ずに用いることが可能である。
The process of performing prediction from two reference images is defined as bi-prediction, and in the case of bi-prediction, L0 prediction and L
This is expressed as BI prediction by using both of one prediction. FIG. 4C illustrates a case where bi-prediction is performed, and the reference image for L0 prediction is at a time before the encoding target image and the reference image for L1 prediction is at a time after the encoding target image. . FIG. 4D shows a case of bi-prediction, where the reference image for L0 prediction and the reference image for L1 prediction are at a time before the encoding target image. As described above, the relationship between the prediction type of L0 / L1 and time can be used without being limited to L0 being the past direction and L1 being the future direction.

図1に戻り、予測モード判定部109は、動きベクトル検出部107より入力される各
参照画像に対して検出された動きベクトル値と、動き情報メモリ111に格納された動き
情報(予測種別、動きベクトル値、及び参照画像指定情報)をもとに、実施の形態1にお
いて定義した動き補償予測モードのそれぞれに対して用いられる、参照画像指定情報と動
きベクトル値を動き補償予測部108に設定する。設定した値によって、動き補償予測部
108から供給される動き補償予測信号と、入力端子100より供給される予測ブロック
の画像信号を用いて、最適な動き補償予測モードを決定する。
Returning to FIG. 1, the prediction mode determination unit 109 detects the motion vector value detected for each reference image input from the motion vector detection unit 107 and the motion information stored in the motion information memory 111 (prediction type, motion Based on the vector value and the reference image designation information), the reference image designation information and the motion vector value used for each of the motion compensation prediction modes defined in the first embodiment are set in the motion compensation prediction unit 108. . Based on the set value, an optimal motion compensation prediction mode is determined using the motion compensation prediction signal supplied from the motion compensation prediction unit 108 and the image signal of the prediction block supplied from the input terminal 100.

予測モード判定部109は、決定した予測モード、及び予測モードに応じた予測種別、
動きベクトル、及び参照画像指定情報を特定する情報を、動き情報符号化部110に供給
し、決定した予測モード及びその予測モードに対する、予測種別、動きベクトル値、及び
参照画像指定情報を動き情報メモリ111に供給すると共に、減算部101及び加算部1
05に決定した予測モードに対応する予測信号を供給する。
The prediction mode determination unit 109 includes the determined prediction mode and the prediction type according to the prediction mode,
Information for specifying the motion vector and the reference image designation information is supplied to the motion information encoding unit 110, and the prediction type, the motion vector value, and the reference image designation information for the determined prediction mode and the prediction mode are stored in the motion information memory. 111 and the subtracting unit 101 and the adding unit 1
A prediction signal corresponding to the prediction mode determined in 05 is supplied.

動画像符号化装置において、基準とする参照画像を符号化するために同一画面内の符号
化済画像を用いて予測を行う画面内予測が行われるが、実施の形態1は画面間予測に注目
したものであるため、画面内予測に関連する構成要素は省略する。予測モード判定部10
9の詳細な構成については後述する。
In the moving image encoding apparatus, intra-frame prediction is performed in which prediction is performed using an encoded image in the same screen in order to encode a reference image as a reference. Embodiment 1 focuses on inter-screen prediction. Therefore, the components related to the intra prediction are omitted. Prediction mode determination unit 10
The detailed configuration of 9 will be described later.

動き情報符号化部110は、予測モード判定部109より供給される予測モード、及び
予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定する情報を所
定のシンタックス構造に従って符号化することで、動き情報の符号列を生成し、多重化部
112に供給する。
The motion information encoding unit 110 encodes the prediction mode supplied from the prediction mode determination unit 109 and information specifying the prediction type, the motion vector, and the reference image designation information according to the prediction mode according to a predetermined syntax structure. Thus, a code string of motion information is generated and supplied to the multiplexing unit 112.

動き情報メモリ111は、予測モード判定部109より供給される動き情報(予測種別
、動きベクトル、及び参照画像インデックス)を、最小予測ブロックサイズ単位を基準と
して所定画像分記憶する。処理対象の予測ブロックの隣接ブロックの動き情報を空間候補
ブロック群とし、処理対象の予測ブロックと同一位置にあるColPic上のブロックと
その周辺ブロックの動き情報を時間候補ブロック群とする。
The motion information memory 111 stores motion information (prediction type, motion vector, and reference image index) supplied from the prediction mode determination unit 109 for a predetermined image on the basis of the minimum prediction block size unit. The motion information of the adjacent block of the prediction block to be processed is set as a spatial candidate block group, and the motion information of the block on the ColPic at the same position as the prediction block to be processed and its neighboring blocks is set as the time candidate block group.

ColPicとは、処理対象の予測ブロックとは別の復号済みの画像であって、復号画
像メモリ106に参照画像として記憶されている。実施の形態1では、ColPicは直
前に復号した参照画像とする。なお、実施の形態1では、ColPicは直前に復号した
参照画像としたが、表示順で直前の参照画像や表示順で直後の参照画像でもよく、符号化
ストリーム中に、ColPicに用いる参照画像を直接指定することも可能である。
ColPic is a decoded image different from the prediction block to be processed, and is stored in the decoded image memory 106 as a reference image. In Embodiment 1, ColPic is a reference image decoded immediately before. In the first embodiment, ColPic is the reference image decoded immediately before, but the reference image immediately before in display order or the reference image immediately after in display order may be used, and the reference image used for ColPic is included in the encoded stream. Direct specification is also possible.

動き情報メモリ111は、空間候補ブロック群と時間候補ブロック群の動き情報を、候
補ブロック群の動き情報として予測モード判定部109に供給する。多重化部112は、
予測誤差符号化部103から供給される予測誤差の符号化列と、動き情報符号化部110
から供給される動き情報の符号化列を多重化することで符号化ビットストリームを生成し
、出力端子113経由で、記録媒体・伝送路等に当該符号化ビットストリームを出力する
The motion information memory 111 supplies the motion information of the spatial candidate block group and the temporal candidate block group to the prediction mode determination unit 109 as motion information of the candidate block group. The multiplexing unit 112
The prediction error encoding sequence supplied from the prediction error encoding unit 103 and the motion information encoding unit 110
The encoded bit stream is generated by multiplexing the encoded sequence of motion information supplied from the output terminal 113, and the encoded bit stream is output to the recording medium / transmission path via the output terminal 113.

図1に示した動画像符号化装置の構成は、CPU(Central Processi
ng Unit)、フレームメモリ、ハードディスクなどを備える情報処理装置等のハー
ドウェアによっても実現可能である。
The configuration of the moving image encoding apparatus shown in FIG. 1 is a CPU (Central Processi
ng Unit), a frame memory, a hard disk, and the like.

図5は、本発明の実施の形態1に係る動画像符号化装置における符号化処理の動作の流
れ示すフローチャートである。予測ブロック単位毎に、入力端子100より処理対象の予
測ブロック画像を取得する(S500)。動きベクトル検出部107は、処理対象の予測
ブロック画像と復号画像メモリ106に格納された複数の参照画像より、参照画像毎の動
きベクトル値を算出する(S501)。
FIG. 5 is a flowchart showing the flow of the encoding process in the video encoding apparatus according to Embodiment 1 of the present invention. A prediction block image to be processed is acquired from the input terminal 100 for each prediction block unit (S500). The motion vector detection unit 107 calculates a motion vector value for each reference image from the prediction block image to be processed and a plurality of reference images stored in the decoded image memory 106 (S501).

続いて、予測モード判定部109は、動きベクトル検出部107より供給される動きベ
クトルと、動き情報メモリ111に格納された動き情報を用いて、実施の形態1において
定義した動き補償予測モードのそれぞれに対する予測信号を、動き補償予測部108を用
いて取得し、最適な予測モードを選択し、予測信号を生成する(S502)。ステップS
502の処理の詳細については後述する。
Subsequently, the prediction mode determination unit 109 uses each of the motion vectors supplied from the motion vector detection unit 107 and the motion information stored in the motion information memory 111 to each of the motion compensation prediction modes defined in the first embodiment. Is obtained using the motion compensation prediction unit 108, an optimal prediction mode is selected, and a prediction signal is generated (S502). Step S
Details of the process 502 will be described later.

続いて、減算部101は、処理対象の予測ブロック画像と予測モード判定部109より
供給された予測信号との差分を予測誤差信号として算出する(S503)。動き情報符号
化部110は、予測モード判定部109より供給される予測モード、及び予測モードに応
じた予測種別、動きベクトル、及び参照画像指定情報を特定する情報を所定のシンタック
ス構造に従って符号化し、動き情報の符号化データを生成する(S504)。
Subsequently, the subtraction unit 101 calculates a difference between the prediction block image to be processed and the prediction signal supplied from the prediction mode determination unit 109 as a prediction error signal (S503). The motion information encoding unit 110 encodes the prediction mode supplied from the prediction mode determination unit 109 and information specifying the prediction type, the motion vector, and the reference image designation information according to the prediction mode according to a predetermined syntax structure. Then, encoded data of motion information is generated (S504).

続いて、予測誤差符号化部103は、直交変換・量子化部102で生成された量子化さ
れた予測誤差信号をエントロピー符号化して、予測誤差の符号化データを生成する(S5
05)。多重化部112は、動き情報符号化部110から供給される動き情報の符号化デ
ータと、予測誤差符号化部103から供給される予測誤差の符号化データを多重化し、符
号化ビットストリームを生成する(S506)。
Subsequently, the prediction error encoding unit 103 entropy encodes the quantized prediction error signal generated by the orthogonal transform / quantization unit 102 to generate encoded data of the prediction error (S5).
05). The multiplexing unit 112 multiplexes the motion information encoded data supplied from the motion information encoding unit 110 and the prediction error encoded data supplied from the prediction error encoding unit 103 to generate an encoded bitstream. (S506).

加算部105は、逆量子化・逆変換部104より供給される復号予測誤差信号と、予測
モード判定部109より供給される予測信号を加算して、復号画像信号を生成する(S5
07)。加算部105によって、生成された復号画像信号が復号画像メモリ106に供給
、格納され、以降に符号化する符号化画像の動き補償予測処理に用いられる(S508)
。動き情報メモリ111は、動きベクトル検出部107より供給される動き情報(予測種
別、動きベクトル、及び参照画像指定情報)を最小の予測ブロックサイズ単位で格納する
(S509)。
The addition unit 105 adds the decoded prediction error signal supplied from the inverse quantization / inverse conversion unit 104 and the prediction signal supplied from the prediction mode determination unit 109 to generate a decoded image signal (S5).
07). The generated decoded image signal is supplied to and stored in the decoded image memory 106 by the adding unit 105, and is used for motion compensation prediction processing of an encoded image to be encoded later (S508).
. The motion information memory 111 stores the motion information (prediction type, motion vector, and reference image designation information) supplied from the motion vector detection unit 107 in units of the minimum predicted block size (S509).

[動画像復号装置全体構成]
図6は、本発明の実施の形態1に係る動画像復号装置の構成を示す図である。以下、各
部の動作について説明する。実施の形態1に係る動画像復号装置は、入力端子600、多
重分離部601、予測差分情報復号部602、逆量子化・逆変換部603、加算部604
、復号画像メモリ605、動き情報復号部606、動き情報メモリ607、動き補償予測
部608、及び出力端子609を備える。
[Overall configuration of video decoding apparatus]
FIG. 6 is a diagram showing a configuration of the moving picture decoding apparatus according to Embodiment 1 of the present invention. Hereinafter, the operation of each unit will be described. The video decoding apparatus according to Embodiment 1 includes an input terminal 600, a demultiplexing unit 601, a prediction difference information decoding unit 602, an inverse quantization / inverse transform unit 603, and an addition unit 604.
A decoded image memory 605, a motion information decoding unit 606, a motion information memory 607, a motion compensation prediction unit 608, and an output terminal 609.

入力端子600より符号化ビットストリームが多重分離部601に供給される。多重分
離部601は、供給された符号化ビットストリームの符号列を予測誤差情報の符号化列と
、予測モード、並びに予測モードに応じた予測種別、動きベクトル、及び参照画像指定情
報を特定する情報で構成される動き情報の符号化列に分離する。当該予測誤差情報の符号
化列を予測差分情報復号部602に供給し、当該動き情報の符号化列を動き情報復号部6
06に供給する。
The encoded bit stream is supplied from the input terminal 600 to the demultiplexing unit 601. The demultiplexing unit 601 specifies the code sequence of the supplied encoded bitstream, the encoded sequence of prediction error information, the prediction mode, the prediction type according to the prediction mode, the motion vector, and the reference image designation information Are separated into motion information encoded sequences. The encoded sequence of the prediction error information is supplied to the prediction difference information decoding unit 602, and the encoded sequence of the motion information is converted to the motion information decoding unit 6
06.

予測差分情報復号部602は、多重分離部601より供給された予測誤差情報の符号化
列を復号し、量子化された予測誤差信号を生成する。予測差分情報復号部602は、生成
した量子化された予測誤差信号を逆量子化・逆変換部603に供給する。
The prediction difference information decoding unit 602 decodes the encoded sequence of the prediction error information supplied from the demultiplexing unit 601 and generates a quantized prediction error signal. The prediction difference information decoding unit 602 supplies the generated quantized prediction error signal to the inverse quantization / inverse transform unit 603.

逆量子化・逆変換部603は、予測差分情報復号部602より供給される量子化された
予測誤差信号を逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し、復号予
測誤差信号を加算部604に供給する。
The inverse quantization / inverse transform unit 603 performs a process such as inverse quantization or inverse orthogonal transform on the quantized prediction error signal supplied from the prediction difference information decoding unit 602 to generate a prediction error signal, and performs decoding prediction. The error signal is supplied to the adding unit 604.

加算部604は、逆量子化・逆変換部603より供給される復号予測誤差信号と、動き
補償予測部608より供給される予測信号を加算して復号画像信号を生成し、復号画像信
号を復号画像メモリ605に供給する。
The adder 604 adds the decoded prediction error signal supplied from the inverse quantization / inverse transform unit 603 and the prediction signal supplied from the motion compensation prediction unit 608 to generate a decoded image signal, and decodes the decoded image signal This is supplied to the image memory 605.

復号画像メモリ605は、図1の動画像符号化装置における復号画像メモリ106と同
じ機能を有し、加算部604から供給された復号画像信号を格納し、参照画像信号を動き
補償予測部608に供給する。また、復号画像メモリ605は、格納された復号画像信号
を再生時刻に合わせて、画像の表示順序に従い出力端子609に供給する。
The decoded image memory 605 has the same function as the decoded image memory 106 in the moving image encoding apparatus in FIG. 1, stores the decoded image signal supplied from the addition unit 604, and stores the reference image signal in the motion compensation prediction unit 608. Supply. Also, the decoded image memory 605 supplies the stored decoded image signal to the output terminal 609 in accordance with the image display order in accordance with the reproduction time.

動き情報復号部606は、多重分離部601より供給される動き情報の符号化列より、
予測モード、並びに予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報
を特定する情報を動き情報として復号する。復号した動き情報と、動き情報メモリ607
より供給される候補ブロック群の動き情報より、動き補償予測に用いる予測種別、動きベ
クトル及び参照画像指定情報を再生し、動き補償予測部608に供給する。また、動き情
報復号部606は再生した動き情報を、動き情報メモリ607に供給する。動き情報復号
部606の詳細な構成については後述する。
The motion information decoding unit 606 is based on the encoded sequence of motion information supplied from the demultiplexing unit 601.
Information specifying the prediction mode and the prediction type, motion vector, and reference image designation information corresponding to the prediction mode is decoded as motion information. Decoded motion information and motion information memory 607
The prediction type, the motion vector, and the reference image designation information used for the motion compensation prediction are reproduced from the motion information of the candidate block group supplied more and supplied to the motion compensation prediction unit 608. In addition, the motion information decoding unit 606 supplies the reproduced motion information to the motion information memory 607. A detailed configuration of the motion information decoding unit 606 will be described later.

動き情報メモリ607は、図1の動画像符号化装置における動き情報メモリ111と同
じ機能を持ち、動き情報復号部606より供給される再生した動き情報を最小予測ブロッ
クサイズ単位を基準として所定画像分記憶する。また、動き情報メモリ607は、空間候
補ブロック群と時間候補ブロック群の動き情報を、候補ブロック群の動き情報として動き
情報復号部606に供給する。
The motion information memory 607 has the same function as that of the motion information memory 111 in the video encoding apparatus of FIG. 1, and reproduces the reproduced motion information supplied from the motion information decoding unit 606 for a predetermined image on the basis of the minimum prediction block size unit. Remember. Also, the motion information memory 607 supplies the motion information of the space candidate block group and the time candidate block group to the motion information decoding unit 606 as motion information of the candidate block group.

動き補償予測部608は、図1の動画像符号化装置における動き補償予測部108と同
じ機能を持ち、動き情報復号部606より供給される動き情報に基づいて、復号画像メモ
リ605内の参照画像指定情報が示す参照画像を、動きベクトル値だけ予測ブロックの画
像信号と同一位置より移動させた位置の画像信号を取得して予測信号を生成する。動き補
償予測の予測種別が双予測であれば、各予測種別の予測信号を平均したものを予測信号と
して生成し、予測信号を加算部604に供給する。
The motion compensation prediction unit 608 has the same function as that of the motion compensation prediction unit 108 in the video encoding apparatus in FIG. 1, and based on the motion information supplied from the motion information decoding unit 606, a reference image in the decoded image memory 605. A prediction signal is generated by acquiring an image signal at a position obtained by moving the reference image indicated by the designation information from the same position as the image signal of the prediction block by the motion vector value. If the prediction type of motion compensation prediction is bi-prediction, an average of the prediction signals of each prediction type is generated as a prediction signal, and the prediction signal is supplied to the adding unit 604.

出力端子609は、復号画像メモリ605より供給された復号画像信号を、ディスプレ
イなどの表示媒体に出力することで、復号画像信号が再生される。
The output terminal 609 reproduces a decoded image signal by outputting the decoded image signal supplied from the decoded image memory 605 to a display medium such as a display.

図6に示した動画像復号装置の構成も、図1に示した動画像符号化装置の構成と同様に
、CPU、フレームメモリ、ハードディスクなどを備える情報処理装置等のハードウェア
によっても実現可能である。
The configuration of the video decoding device shown in FIG. 6 can also be realized by hardware such as an information processing device including a CPU, a frame memory, a hard disk, etc., similarly to the configuration of the video encoding device shown in FIG. is there.

図7は、本発明の実施の形態1に係る動画像復号装置における復号処理の動作の流れを
示すフローチャートである。多重分離部601は、入力端子600より供給された符号化
ビットストリームを予測誤差情報の符号化列と、動き情報の符号化列に分離する(S70
0)。分離された動き情報の符号化列は動き情報復号部606に供給され、動き情報メモ
リ607より供給される候補ブロック群の動き情報を用いて、復号対象ブロックの動き情
報を復号する(S701)。ステップS701の処理の詳細については後述する。
FIG. 7 is a flowchart showing a flow of decoding processing in the video decoding apparatus according to Embodiment 1 of the present invention. The demultiplexing unit 601 separates the encoded bit stream supplied from the input terminal 600 into an encoded sequence of prediction error information and an encoded sequence of motion information (S70).
0). The separated coded sequence of motion information is supplied to the motion information decoding unit 606, and the motion information of the decoding target block is decoded using the motion information of the candidate block group supplied from the motion information memory 607 (S701). Details of the processing in step S701 will be described later.

分離された予測誤差情報の符号化列は、予測差分情報復号部602に供給され、量子化
された予測誤差信号として復号され、逆量子化・逆変換部603で逆量子化や逆直交変換
などの処理を施されることで、復号予測誤差信号が生成される(S702)。
The separated coded sequence of prediction error information is supplied to the prediction difference information decoding unit 602, decoded as a quantized prediction error signal, and dequantized or inverse orthogonal transformed by an inverse quantization / inverse transformation unit 603. By performing the above process, a decoded prediction error signal is generated (S702).

動き情報復号部606より、復号対象ブロックの動き情報が動き補償予測部608に供
給され、動き補償予測部608は動き情報にしたがって動き補償予測を行い予測信号を算
出する(S703)。加算部604は、逆量子化・逆変換部603から供給された復号予
測誤差信号と、動き補償予測部608から供給された予測信号とを加算し、復号画像信号
を生成する(S704)。
The motion information decoding unit 606 supplies the motion information of the decoding target block to the motion compensation prediction unit 608, and the motion compensation prediction unit 608 performs motion compensation prediction according to the motion information to calculate a prediction signal (S703). The adding unit 604 adds the decoded prediction error signal supplied from the inverse quantization / inverse transform unit 603 and the prediction signal supplied from the motion compensation prediction unit 608 to generate a decoded image signal (S704).

加算部604より供給された復号画像信号は、復号画像メモリ605に格納される(S
705)と共に、動き情報復号部606より供給された復号対象ブロックの動き情報が動
き情報メモリ607に格納される(S706)。これで、予測ブロック単位の復号処理が
終了する。
The decoded image signal supplied from the adding unit 604 is stored in the decoded image memory 605 (S
705), the motion information of the decoding target block supplied from the motion information decoding unit 606 is stored in the motion information memory 607 (S706). This completes the decoding process in units of prediction blocks.

[実施の形態1の詳細機能説明]
本発明の実施の形態1に係る動画像符号化装置の予測モード判定部109の動作、図5
のフローチャートにおけるステップS502の処理、並びに本発明の実施の形態1に係る
動画像復号装置における動き情報復号部606の動作、図7のフローチャートにおけるス
テップS701の処理の詳細動作を、以下説明する。
[Detailed Function Description of Embodiment 1]
FIG. 5 shows the operation of the prediction mode determination unit 109 of the video encoding apparatus according to Embodiment 1 of the present invention.
The following describes the processing in step S502 in the flowchart, the operation of the motion information decoding unit 606 in the video decoding apparatus according to Embodiment 1 of the present invention, and the detailed operation in step S701 in the flowchart in FIG.

[実施の形態1における動き補償予測モードの定義]
図8(a)、(b)は、本発明の実施の形態1における動き補償予測において使用され
る動き情報を符号化するための2つの予測モードを説明するための図である。第一の予測
モードは、予測対象ブロックと当該予測対象ブロックに隣接する符号化済ブロックにおけ
る時間方向や空間方向の動きの連続性を用いて、当該予測対象ブロックは自身の動き情報
を直接符号化せずに、空間及び時間的に隣接するブロックの動き情報を符号化に使用する
手法であり、結合予測モード(マージモード)と呼ぶ。
[Definition of Motion Compensation Prediction Mode in Embodiment 1]
FIGS. 8A and 8B are diagrams for explaining two prediction modes for encoding motion information used in motion compensated prediction according to Embodiment 1 of the present invention. In the first prediction mode, the prediction target block directly encodes its own motion information using the continuity of motion in the temporal direction and the spatial direction in the prediction target block and the encoded block adjacent to the prediction target block. In this method, the motion information of spatially and temporally adjacent blocks is used for encoding, which is called a joint prediction mode (merge mode).

第一の予測モードは、予測対象ブロックと当該予測対象ブロックに隣接する符号化済ブ
ロックにおける時間方向や空間方向の動きの連続性を用いて、当該予測対象ブロックは自
身の動き情報を直接符号化せずに、空間及び時間的に隣接するブロックの動き情報を符号
化に使用する手法であり、結合予測モード(マージモード)と呼ぶ。
In the first prediction mode, the prediction target block directly encodes its own motion information using the continuity of motion in the temporal direction and the spatial direction in the prediction target block and the encoded block adjacent to the prediction target block. In this method, the motion information of spatially and temporally adjacent blocks is used for encoding, which is called a joint prediction mode (merge mode).

ここで、空間的に隣接するブロックとは予測対象ブロックと同じ画像に属する符号化済
みブロックの中で、予測対象ブロックに隣接するブロックを指す。ここで、時間的に隣接
するブロックとは予測対象ブロックとは別の符号化済みの画像に属するブロックの中で、
予測対象ブロックと同一空間位置及びその周辺にあるブロックを指す。
Here, spatially adjacent blocks indicate blocks adjacent to the prediction target block among the encoded blocks belonging to the same image as the prediction target block. Here, temporally adjacent blocks are blocks that belong to an encoded image different from the prediction target block.
A block in the same spatial position as the prediction target block and its surroundings.

結合予測モードの場合には、複数の隣接ブロック候補より選択的に結合する動き情報が
定義でき、動き情報は使用する隣接ブロックを指定する情報(インデックス)を符号化す
ることで、指定情報をもとに取得した動き情報をそのまま動き補償予測に用いる。更に、
結合予測モードにおいては、予測差分情報を符号化伝送せずに、結合予測モードで予測さ
れた予測信号を復号ピクチャとするSkipモードを定義し、結合した動き情報のみの少
ない情報で復号画像が再生できる構成を有する。Skipモードにおいて伝送する動き情
報は、結合予測モードと同様に隣接ブロックを定義する指定情報となる。
In the combined prediction mode, motion information that is selectively combined from a plurality of adjacent block candidates can be defined, and the motion information is encoded with information (index) that specifies the adjacent block to be used. The obtained motion information is used as it is for motion compensation prediction. Furthermore,
In the joint prediction mode, a skip mode is defined in which the prediction signal predicted in the joint prediction mode is a decoded picture without encoding and transmitting the prediction difference information, and the decoded image is reproduced with the information having only the combined motion information. It has a configuration that can. The motion information transmitted in the Skip mode is designation information that defines adjacent blocks, as in the combined prediction mode.

第二の予測モードは、動き情報の構成要素を個別にすべて符号化し、予測ブロックに対
して予測誤差の少ない動き情報を伝送する手法であり、動き検出予測モードと呼ぶ。動き
検出予測モードは、従来の動き補償予測の動き情報の符号化と同様に、参照画像を特定す
るための情報(参照画像インデックス)と、動きベクトルを特定するための情報が別々に
符号化される。
The second prediction mode is a technique for individually coding all the components of motion information and transmitting motion information with little prediction error to the prediction block, and is called a motion detection prediction mode. In the motion detection prediction mode, information for specifying a reference image (reference image index) and information for specifying a motion vector are encoded separately, as in the case of encoding motion information in conventional motion compensation prediction. The

動き検出予測モードには、単予測と双予測のどちらを使用するか予測モードで指示し、
単予測単予測の場合には1つの参照画像に対する参照画像を特定する情報と、動きベクト
ルの予測ベクトルとの差分ベクトルを符号化する。双予測の場合には2つの参照画像に対
する参照画像を特定する情報と、動きベクトルがそれぞれ個別に符号化される。動きベク
トルに対する予測ベクトルは、AVCと同様に隣接ブロックの動き情報から生成されるが
、結合予測モードと同様に、複数の隣接ブロック候補より予測ベクトルに用いる動きベク
トルを選択でき、動きベクトルは予測ベクトルに使用する隣接ブロックを指定する情報(
インデックス)と差分ベクトルの2つを符号化することで伝送される。
The motion detection prediction mode indicates whether to use single prediction or bi-prediction in the prediction mode,
In the case of single prediction / single prediction, a difference vector between information specifying a reference image for one reference image and a motion vector prediction vector is encoded. In the case of bi-prediction, information for specifying reference images for two reference images and a motion vector are individually encoded. The prediction vector for the motion vector is generated from the motion information of the adjacent block similarly to the AVC. However, similarly to the combined prediction mode, the motion vector used for the prediction vector can be selected from a plurality of adjacent block candidates, and the motion vector is the prediction vector. Information that specifies the adjacent block used for (
It is transmitted by encoding the index) and the difference vector.

[実施の形態1における動画像符号化装置における予測モード判定部の詳細動作説明]
図9は、実施の形態1の動画像符号化装置における予測モード判定部109の詳細な構
成を示す図である。予測モード判定部109は、最適な動き補償予測モードを決定する機
能を有する。
[Detailed Operation Description of Prediction Mode Determination Unit in Moving Picture Encoding Device in Embodiment 1]
FIG. 9 is a diagram illustrating a detailed configuration of the prediction mode determination unit 109 in the video encoding apparatus according to Embodiment 1. The prediction mode determination unit 109 has a function of determining an optimal motion compensation prediction mode.

予測モード判定部109は、動き補償予測生成部900、予測誤差算出部901、予測
ベクトル算出部902、差分ベクトル算出部903、動き情報符号量算出部904、予測
モード評価部905、結合動き情報算出部906、及び結合動き補償予測生成部907を
含む。
The prediction mode determination unit 109 includes a motion compensation prediction generation unit 900, a prediction error calculation unit 901, a prediction vector calculation unit 902, a difference vector calculation unit 903, a motion information code amount calculation unit 904, a prediction mode evaluation unit 905, and a combined motion information calculation. A combined motion compensation prediction generation unit 907.

図1における予測モード判定部109に対して、動きベクトル検出部107より入力さ
れた動きベクトル値が、動き補償予測生成部900に供給され、動き情報メモリ111よ
り入力された動き情報が、予測ベクトル算出部902、及び結合動き情報算出部906に
供給される。
1, the motion vector value input from the motion vector detection unit 107 is supplied to the motion compensation prediction generation unit 900, and the motion information input from the motion information memory 111 is the prediction vector. The calculation unit 902 and the combined motion information calculation unit 906 are supplied.

また、動き補償予測部108に対して、動き補償予測生成部900、及び結合動き補償
予測生成部907、から、動き補償予測に用いる参照画像指定情報と動きベクトルが出力
され、動き補償予測部108より、生成された動き補償予測画像が予測誤差算出部901
に供給される。予測誤差算出部901には更に、入力端子100より符号化対象となる予
測ブロックの画像信号が供給される。
Also, the motion compensation prediction generation unit 900 and the combined motion compensation prediction generation unit 907 output reference image designation information and motion vectors used for motion compensation prediction to the motion compensation prediction unit 108, and the motion compensation prediction unit 108. Thus, the generated motion compensated prediction image is converted into a prediction error calculation unit 901.
To be supplied. The prediction error calculation unit 901 is further supplied with an image signal of a prediction block to be encoded from the input terminal 100.

また、予測モード評価部905から、動き情報符号化部110に対して符号化する動き
情報と確定した予測モード情報を供給し、動き情報メモリ111に動き情報を供給し、動
き補償予測信号を減算部101及び加算部105に供給する。
Also, the motion information encoding unit 110 is supplied with motion information to be encoded and the determined prediction mode information from the prediction mode evaluation unit 905, the motion information is supplied to the motion information memory 111, and the motion compensated prediction signal is subtracted. To the unit 101 and the addition unit 105.

動き補償予測生成部900は、予測に使用可能な各参照画像に対して算出された動きベ
クトル値を受信し、参照画像指定情報を予測ベクトル算出部902に供給し、参照画像指
定情報と動きベクトルを出力する。
The motion compensation prediction generation unit 900 receives the motion vector value calculated for each reference image that can be used for prediction, supplies reference image designation information to the prediction vector calculation unit 902, and the reference image designation information and the motion vector Is output.

予測誤差算出部901は、入力された動き補償予測画像と処理対象の予測ブロック画像
より、予測誤差評価値を算出する。誤差評価値を算出するための演算としては、動きベク
トル検出における誤差評価値と同様に、画素毎の差分絶対値の総和SADや、画素毎の二
乗誤差値の総和SSE等を使用できる。更に、予測残差の符号化を行う際に施される、直
交変換・量子化を行うことによって復号画像に生じる歪成分の量を加味することで、より
正確な誤差評価値が算出可能である。この場合には、予測誤差算出部901内に、図1に
おける減算部101、直交変換・量子化部102、逆量子化・逆変換部104、加算部1
05の機能を有することで実現できる。
The prediction error calculation unit 901 calculates a prediction error evaluation value from the input motion compensated prediction image and the prediction block image to be processed. As the calculation for calculating the error evaluation value, the sum SAD of the absolute difference value for each pixel, the sum SSE of the square error value for each pixel, and the like can be used as in the error evaluation value in motion vector detection. Furthermore, a more accurate error evaluation value can be calculated by taking into account the amount of distortion components generated in the decoded image by performing orthogonal transform / quantization performed when encoding the prediction residual. . In this case, the prediction error calculation unit 901 includes a subtraction unit 101, an orthogonal transformation / quantization unit 102, an inverse quantization / inverse transformation unit 104, and an addition unit 1 in FIG.
This can be realized by having the function 05.

予測誤差算出部901は、各予測モードにおいて算出された予測誤差評価値と、動き補
償予測信号を予測モード評価部905に供給する。
The prediction error calculation unit 901 supplies the prediction error evaluation value calculated in each prediction mode and the motion compensation prediction signal to the prediction mode evaluation unit 905.

予測ベクトル算出部902は、動き補償予測生成部900より参照画像指定情報を供給
され、動き情報メモリ111から供給される隣接ブロックの動き情報における候補ブロッ
ク群より、指定された参照画像に対する動きベクトル値を入力し、複数の予測ベクトルを
予測ベクトル候補リストと共に生成し、差分ベクトル算出部903に、参照画像指定情報
と共に供給する。予測ベクトル算出部902は、予測ベクトルの候補を作成し、予測ベク
トル候補として登録する。
The prediction vector calculation unit 902 is supplied with the reference image designation information from the motion compensation prediction generation unit 900, and the motion vector value for the designated reference image from the candidate block group in the motion information of the adjacent block supplied from the motion information memory 111. Are generated together with the prediction vector candidate list, and supplied to the difference vector calculation unit 903 together with the reference image designation information. The prediction vector calculation unit 902 creates prediction vector candidates and registers them as prediction vector candidates.

差分ベクトル算出部903は、予測ベクトル算出部902より供給された、予測ベクト
ル候補のそれぞれに対して、動き補償予測生成部900から供給される動きベクトル値と
の差分を計算し、差分ベクトル値を算出する。算出された差分ベクトル値と予測ベクトル
候補に対する指定情報である予測ベクトルインデックスを符号化した際、符号量が最も少
ない。差分ベクトル算出部903は、最も少ない情報量である予測ベクトルに対する予測
ベクトルインデックスと差分ベクトル値を参照画像指定情報と共に、動き情報符号量算出
部904に供給する。
The difference vector calculation unit 903 calculates the difference between each of the prediction vector candidates supplied from the prediction vector calculation unit 902 and the motion vector value supplied from the motion compensated prediction generation unit 900, and calculates the difference vector value. calculate. When the prediction vector index which is the designation information for the calculated difference vector value and the prediction vector candidate is encoded, the code amount is the smallest. The difference vector calculation unit 903 supplies the prediction vector index and the difference vector value for the prediction vector having the smallest information amount, together with the reference image designation information, to the motion information code amount calculation unit 904.

動き情報符号量算出部904は、差分ベクトル算出部903より供給される、差分ベク
トル値、参照画像指定情報、予測ベクトルインデックス、および予測モードより、各予測
モードにおける動き情報に要する符号量を算出する。また、動き情報符号量算出部904
は、結合動き補償予測生成部907より、結合予測モードにおいて伝送する必要がある、
結合動き情報インデックスと予測モードを示すための情報を受け取り、結合予測モードに
おける動き情報に要する符号量を算出する。
The motion information code amount calculation unit 904 calculates the code amount required for motion information in each prediction mode from the difference vector value, reference image designation information, prediction vector index, and prediction mode supplied from the difference vector calculation unit 903. . Also, the motion information code amount calculation unit 904
Needs to be transmitted in the combined prediction mode from the combined motion compensation prediction generation unit 907.
The combined motion information index and information indicating the prediction mode are received, and the code amount required for the motion information in the combined prediction mode is calculated.

動き情報符号量算出部904は、各予測モードにおいて算出された動き情報及び動き情
報に要する符号量を予測モード評価部905に供給する。
The motion information code amount calculation unit 904 supplies the motion information calculated in each prediction mode and the code amount required for the motion information to the prediction mode evaluation unit 905.

予測モード評価部905は、予測誤差算出部901より供給された各予測モードの予測
誤差評価値と、動き情報符号量算出部904から供給された各予測モードの動き情報符号
量を用いて、各予測モードの総合動き補償予測誤差評価値を算出し、最も少ない評価値で
ある予測モードを選択し、選択した予測モードと選択した予測モードに対する動き情報を
、動き情報符号化部110、動き情報メモリ111に出力する。また、予測モード評価部
905は同様に、予測誤差算出部901より供給された動き補償予測信号に対して、選択
した予測モードにおける予測信号を選択して減算部101及び加算部105に出力する。
The prediction mode evaluation unit 905 uses the prediction error evaluation value of each prediction mode supplied from the prediction error calculation unit 901 and the motion information code amount of each prediction mode supplied from the motion information code amount calculation unit 904. An overall motion compensation prediction error evaluation value for the prediction mode is calculated, a prediction mode having the smallest evaluation value is selected, motion information for the selected prediction mode and the selected prediction mode, a motion information encoding unit 110, a motion information memory To 111. Similarly, the prediction mode evaluation unit 905 selects a prediction signal in the selected prediction mode for the motion compensated prediction signal supplied from the prediction error calculation unit 901 and outputs it to the subtraction unit 101 and the addition unit 105.

結合動き情報算出部906は、動き情報メモリ111より供給される隣接ブロックの動
き情報における候補ブロック群を用いて、単予測であるか双予測であるかを示す予測種別
、参照画像指定情報、動きベクトル値で構成される動き情報として、複数の動き情報を結
合動き情報候補リストと共に生成し、結合動き補償予測生成部907に供給する。
The combined motion information calculation unit 906 uses a candidate block group in the motion information of the adjacent blocks supplied from the motion information memory 111, a prediction type indicating whether it is uni-prediction or bi-prediction, reference image designation information, motion A plurality of pieces of motion information are generated together with the combined motion information candidate list as motion information composed of vector values, and supplied to the combined motion compensation prediction generation unit 907.

図10は、結合動き情報算出部906の構成を示す図である。結合動き情報算出部90
6は、空間結合動き情報候補リスト生成部1000、結合動き情報候補リスト削除部10
01、時間結合動き情報候補リスト生成部1002、第1結合動き情報候補リスト追加部
1003および第2結合動き情報候補リスト追加部1004を含む。結合動き情報算出部
906は、空間的に隣接する候補ブロック群より所定の順番で動き情報の候補を作成し、
その中から、同一の動き情報を持つ候補を削除したのち、時間的に隣接する候補ブロック
群より作成した動き情報の候補を追加することで、有効な動き情報のみを結合動き情報候
補として登録する。この時間結合動き情報候補リスト生成部を結合動き情報候補リスト削
除部より後段に配置した点が、本実施の形態の特徴的な構成であり、時間結合動き情報候
補を同一の動き情報を削除する処理の対象からはずすことにより、符号化効率を落とすこ
となく演算量を削減することが可能である。結合動き情報算出部906の詳細動作に関し
ては、後述する。
FIG. 10 is a diagram illustrating a configuration of the combined motion information calculation unit 906. Combined motion information calculation unit 90
6 includes a combined spatial motion information candidate list generation unit 1000 and a combined motion information candidate list deletion unit 10.
01, a temporally combined motion information candidate list generating unit 1002, a first combined motion information candidate list adding unit 1003, and a second combined motion information candidate list adding unit 1004. The combined motion information calculation unit 906 creates motion information candidates in a predetermined order from spatially adjacent candidate block groups,
After deleting candidates with the same motion information from them, by adding motion information candidates created from temporally adjacent candidate block groups, only valid motion information is registered as combined motion information candidates. . The point that this temporally combined motion information candidate list generation unit is arranged after the combined motion information candidate list deletion unit is a characteristic configuration of the present embodiment, and deletes the same motion information from temporally combined motion information candidates. By eliminating the processing target, it is possible to reduce the amount of calculation without reducing the encoding efficiency. The detailed operation of the combined motion information calculation unit 906 will be described later.

図9に戻り、結合動き補償予測生成部907は、結合動き情報算出部906より供給さ
れた結合動き情報候補リストより、登録された結合動き情報候補のそれぞれに対して、動
き情報より、予測種別に応じて1つの参照画像(単予測)もしくは2つの参照画像(双予
測)の参照画像指定情報と動きベクトル値を動き補償予測部108に指定して、動き補償
予測画像を生成すると共に、それぞれの結合動き情報インデックスを動き情報符号量算出
部904に供給する。
Returning to FIG. 9, the combined motion compensation prediction generation unit 907 determines, based on the motion information, the prediction type for each registered combined motion information candidate from the combined motion information candidate list supplied from the combined motion information calculation unit 906. In accordance with the reference image designation information and motion vector value of one reference image (uni-prediction) or two reference images (bi-prediction), the motion compensated prediction unit 108 is designated to generate a motion compensated prediction image, The combined motion information index is supplied to the motion information code amount calculation unit 904.

図9の構成では、それぞれの結合動き情報インデックスにおける予測モード評価は、予
測モード評価部905で施されるが、予測誤差評価値及び動き情報符号量を予測誤差算出
部901及び動き情報符号量算出部904より受け取り、結合動き補償予測生成部907
内で、最適な結合動き補償予測の結合動きインデックスを確定させた後に、他の予測モー
ドを含めた最適予測モードの評価を行う構成を取ることも可能である。
In the configuration of FIG. 9, the prediction mode evaluation for each combined motion information index is performed by the prediction mode evaluation unit 905. The prediction error evaluation value and the motion information code amount are calculated by the prediction error calculation unit 901 and the motion information code amount calculation. Unit motion compensation prediction generation unit 907
It is also possible to take a configuration in which the optimal prediction mode including other prediction modes is evaluated after the combined motion index of the optimal combined motion compensation prediction is determined.

図11は、図5のステップS502の動き補償予測モード/予測信号生成処理の詳細動
作を説明するためのフローチャートである。この動作は、図9の予測モード判定部109
における詳細動作を示している。
FIG. 11 is a flowchart for explaining detailed operations of the motion compensation prediction mode / prediction signal generation processing in step S502 of FIG. This operation is performed by the prediction mode determination unit 109 in FIG.
The detailed operation in FIG.

最初に、結合動き情報候補リスト生成を行い(S1100)、結合予測モード評価値を
生成する(S1101)。続いて、予測モード評価値を生成し(S1102)、生成した
評価値を比較することで最適な予測モードを選択する(S1103)。ただし、ステップ
S1101及びS1102の評価値生成の順序はこれに限らない。
First, a combined motion information candidate list is generated (S1100), and a combined prediction mode evaluation value is generated (S1101). Subsequently, a prediction mode evaluation value is generated (S1102), and the optimal evaluation mode is selected by comparing the generated evaluation values (S1103). However, the order of evaluation value generation in steps S1101 and S1102 is not limited to this.

選択された予測モードに従い予測信号を出力し(S1104)、選択された予測モード
に従い動き情報を出力する(S1105)ことで、予測ブロック単位の動き補償予測モー
ド/予測信号生成処理が終了する。ステップS1100、S1101、及びS1102の
詳細動作に関しては後述する。
A prediction signal is output in accordance with the selected prediction mode (S1104), and motion information is output in accordance with the selected prediction mode (S1105), thereby completing the motion compensation prediction mode / prediction signal generation process for each prediction block. Detailed operations in steps S1100, S1101, and S1102 will be described later.

図12は、図11のステップS1100の結合動き情報候補リスト生成の詳細動作を説
明するためのフローチャートである。この動作は、図9の結合動き情報算出部906にお
ける構成の詳細動作を示している。
FIG. 12 is a flowchart for explaining the detailed operation of generating the combined motion information candidate list in step S1100 of FIG. This operation shows the detailed operation of the configuration in the combined motion information calculation unit 906 in FIG.

図10の空間結合動き情報候補リスト生成部1000は、動き情報メモリ111より供
給される空間候補ブロック群から領域外である候補ブロックや、イントラモードである候
補ブロックを除いた候補ブロックから空間結合動き情報候補リストを生成する(S120
0)。空間結合動き情報候補リスト生成の詳細な動作は後述する。
The spatially coupled motion information candidate list generation unit 1000 in FIG. 10 performs spatially coupled motion from candidate blocks excluding candidate blocks outside the region or candidate blocks in the intra mode from the spatial candidate block group supplied from the motion information memory 111. An information candidate list is generated (S120
0). Detailed operations for generating the spatially coupled motion information candidate list will be described later.

続いて、結合動き情報候補リスト削除部1001において、生成された空間結合動き情
報候補リストより、同一の動き情報を持つ結合動き情報候補を削除して動き情報候補リス
トを更新する(S1201)。結合動き情報候補削除の詳細な動作は後述する。
Subsequently, the combined motion information candidate list deletion unit 1001 deletes the combined motion information candidate having the same motion information from the generated spatial combined motion information candidate list and updates the motion information candidate list (S1201). Detailed operation of the combined motion information candidate deletion will be described later.

時間結合動き情報候補リスト生成部1002は、続いて動き情報メモリ111より供給
される時間候補ブロック群から領域外である候補ブロックや、イントラモードである候補
ブロックを除いた候補ブロックから時間結合動き情報候補リストを生成し(S1202)
、時間結合動き情報候補リストと結合して結合動き情報候補リストとする。時間結合動き
情報候補リスト生成の詳細な動作は後述する。
The temporally combined motion information candidate list generation unit 1002 subsequently extracts temporally combined motion information from candidate blocks excluding candidate blocks outside the region from the temporal candidate block group supplied from the motion information memory 111 and candidate blocks that are in the intra mode. A candidate list is generated (S1202)
The combined motion information candidate list is combined with the time combined motion information candidate list. Detailed operation of the time combination motion information candidate list generation will be described later.

次に、第1結合動き情報候補リスト追加部1003は、時間結合動き情報候補リスト生
成部1002で生成された結合動き情報候補リストに登録された結合動き情報候補から0
個から4個の第1補充結合動き情報候補を生成して結合動き情報候補リストに追加し(S
1203)、当該結合動き情報候補リストを第2結合動き情報候補リスト追加部1004
に供給する。第1結合動き情報候補リスト追加の詳細な動作は後述する。
Next, the first combined motion information candidate list adding unit 1003 adds 0 to the combined motion information candidates registered in the combined motion information candidate list generated by the temporal combined motion information candidate list generating unit 1002.
1 to 4 first supplemental combined motion information candidates are generated and added to the combined motion information candidate list (S
1203), the combined motion information candidate list is added to the second combined motion information candidate list adding unit 1004.
To supply. The detailed operation of adding the first combined motion information candidate list will be described later.

次に、第2結合動き情報候補リスト追加部1004は、第1結合動き情報候補リスト追
加部1003より供給される結合動き情報候補リストに依存しない0個から2個の第2補
充結合動き情報候補を生成して第1結合動き情報候補リスト追加部1003より供給され
る結合動き情報候補リストに追加し(S1204)、処理を終了する。第2結合動き情報
候補リスト追加の詳細な動作は後述する。
Next, the second combined motion information candidate list adding unit 1004 includes 0 to 2 second supplemental combined motion information candidates that do not depend on the combined motion information candidate list supplied from the first combined motion information candidate list adding unit 1003. Is added to the combined motion information candidate list supplied from the first combined motion information candidate list adding unit 1003 (S1204), and the process ends. Detailed operations for adding the second combined motion information candidate list will be described later.

動き情報メモリ111より、結合動き情報算出部906に供給される動き情報の候補ブ
ロック群には、空間候補ブロック群と時間候補ブロック群が含まれる。まず、空間結合動
き情報候補リスト生成について説明する。
The candidate block group of motion information supplied from the motion information memory 111 to the combined motion information calculation unit 906 includes a spatial candidate block group and a temporal candidate block group. First, generation of a spatially coupled motion information candidate list will be described.

図13は、空間結合動き情報候補リスト生成に用いる空間候補ブロック群を示す図であ
る。空間候補ブロック群は、符号化対象画像の予測対象ブロックに隣接している同一画像
のブロックを示す。ブロック群は、その管理が最小予測ブロックサイズ単位で行われ、候
補ブロックの位置は、最小予測ブロックサイズの単位で管理されるが、隣接ブロックの予
測ブロックサイズが最小予測ブロックサイズよりも大きな場合には、予測ブロックサイズ
内の全ての候補ブロックに同一の動き情報が格納される。実施の形態1においては、隣接
するブロック群の内、図13に示すようなブロックA0、ブロックA1、ブロックB0、
ブロックB1、ブロックB2の5ブロックを空間候補ブロック群とする。
FIG. 13 is a diagram illustrating a spatial candidate block group used for generating a spatially coupled motion information candidate list. The spatial candidate block group indicates a block of the same image adjacent to the prediction target block of the encoding target image. The block group is managed in units of the minimum prediction block size, and the position of the candidate block is managed in units of the minimum prediction block size, but when the prediction block size of the adjacent block is larger than the minimum prediction block size The same motion information is stored in all candidate blocks within the predicted block size. In the first embodiment, among adjacent block groups, block A0, block A1, block B0, as shown in FIG.
Five blocks of block B1 and block B2 are set as a space candidate block group.

図14は、空間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャー
トである。空間候補ブロック群に含まれる5つの候補ブロックのうち、ブロックA0、ブ
ロックA1、ブロックB0、ブロックB1、ブロックB2について、ブロックA1、ブロ
ックB1、ブロックB0、ブロックA0の順序で以下の処理を繰り返し行う(S1400
〜S1403)。
FIG. 14 is a flowchart for explaining the detailed operation of generating the spatially coupled motion information candidate list. Of the five candidate blocks included in the spatial candidate block group, the following processing is repeated for block A0, block A1, block B0, block B1, and block B2 in the order of block A1, block B1, block B0, and block A0. (S1400
~ S1403).

最初に候補ブロックの有効性を検査する(S1401)。候補ブロックが領域外でなく
イントラモードでない場合、候補ブロックは有効となる。候補ブロックが有効であれば(
S1401:YES)、候補ブロックの動き情報を空間結合動き情報候補リストに追加す
る(S1402)。
First, the validity of the candidate block is checked (S1401). If the candidate block is not out of the region and not in the intra mode, the candidate block is valid. If the candidate block is valid (
S1401: YES), the motion information of the candidate block is added to the spatially coupled motion information candidate list (S1402).

ステップS1400からS1403までの繰り返し処理に続いて、空間結合動き情報候
補リストに追加された候補数が4未満だった場合(S1404:YES)、候補ブロック
B2の有効性を検査する(S1405)。ブロックB2が領域外でなくイントラモードで
ない場合(S1405:YES)、ブロックB2の動き情報を空間結合動き情報候補リス
トに追加する(S1406)。
Following the repetitive processing from step S1400 to S1403, when the number of candidates added to the spatial combination motion information candidate list is less than 4 (S1404: YES), the validity of the candidate block B2 is checked (S1405). When the block B2 is not out of the region and is not in the intra mode (S1405: YES), the motion information of the block B2 is added to the spatially coupled motion information candidate list (S1406).

ここでは、空間結合動き情報候補リストには4以下の候補ブロックの動き情報が含まれ
るとしたが、空間候補ブロック群は、処理対象の予測ブロックに隣接する少なくとも1以
上の処理済みのブロックであり、候補ブロックの有効性によって空間結合動き情報候補リ
ストの数が変動すればよく、これに限定されない。
Here, it is assumed that the spatial combination motion information candidate list includes motion information of four or less candidate blocks, but the spatial candidate block group is at least one or more processed blocks adjacent to the prediction block to be processed. The number of spatially coupled motion information candidate lists may be changed depending on the effectiveness of the candidate block, and the present invention is not limited to this.

図15は、結合動き情報候補削除の詳細動作を説明するためのフローチャートである。
空間結合動き情報候補リスト作成処理により、生成される結合動き情報候補の最大数をM
axSpatialCandとすると、i=MaxSpatialCand−1からi>
0までの結合動き情報候補(候補(i))に対して以下の処理を繰り返し行う(S150
0〜S1506)。
FIG. 15 is a flowchart for explaining the detailed operation of combined motion information candidate deletion.
The maximum number of combined motion information candidates generated by the spatial combined motion information candidate list creation process is M
If axSpatialCand, then i = MaxSpatialCand-1 to i>
The following processing is repeated for the combined motion information candidates up to 0 (candidate (i)) (S150).
0-S1506).

候補(i)が存在していれば(S1501のYES)、ii=i−1からii>=0ま
での結合動き情報候補(候補(ii))に対して以下の処理を繰り返し行い(S1502
〜S1505)、候補(i)が存在しない場合(S1501のNO)はステップS150
2からS1505までの候補(ii)についての繰り返し処理をスキップする。
If the candidate (i) exists (YES in S1501), the following processing is repeated for the combined motion information candidates (candidate (ii)) from ii = i−1 to ii> = 0 (S1502).
To S1505), if there is no candidate (i) (NO in S1501), step S150
The repetition process for the candidate (ii) from 2 to S1505 is skipped.

まず、候補(i)の動き情報(動き情報(i))と候補(ii)の動き情報(動き情報
(ii))が同一であるか検査し(S1503)、同じである場合(S1503のYES
)、候補(i)を結合動き情報候補リストから削除し(S1504)、候補(ii)につ
いての繰り返し処理を終了する。
First, whether the motion information (motion information (i)) of the candidate (i) and the motion information (motion information (ii)) of the candidate (ii) are the same is checked (S1503), and if they are the same (YES in S1503)
), Candidate (i) is deleted from the combined motion information candidate list (S1504), and the iterative process for candidate (ii) ends.

動き情報(i)と動き情報(ii)が同一でない場合(S1503のNO)、iiから
1を減算し、候補(ii)についての処理を繰り返す(S1502〜S1505)。
When the motion information (i) and the motion information (ii) are not the same (NO in S1503), 1 is subtracted from ii, and the process for the candidate (ii) is repeated (S1502 to S1505).

ステップS1500からS1505までの繰り返し処理に続いて、iから1を減算し、
候補(i)についての処理を繰り返す(S1500〜S1506)。
Subsequent to the repetitive processing from step S1500 to S1505, 1 is subtracted from i,
The process for candidate (i) is repeated (S1500 to S1506).

図16に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち
時間結合動き情報候補を含まない4つの空間結合動き情報候補について総当たりで比較し
て同一性を判定し、重複する候補を削除する。
FIG. 16 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, four spatially combined motion information candidates that do not include temporally combined motion information candidates are compared by brute force to determine identity, and duplicate candidates are deleted.

ここで、結合予測モードは時間方向や空間方向の動きの連続性を用いて、予測対象ブロ
ックは自身の動き情報を直接符号化せずに、空間及び時間的に隣接するブロックの動き情
報を符号化に使用する手法であるが、空間結合動き情報候補が空間方向の連続性を基づい
ているのに対し、時間結合動き情報候補は時間方向の連続性に基づいて後述する方法で生
成されており、これらの性質は異なるものである。よって時間結合動き情報候補と空間結
合動き情報候補に同一の動き情報が含まれることは稀であり、同一の動き情報を削除する
ための結合動き情報候補削除処理の対象から時間結合動き情報候補を除いても、最終的に
得られる結合動き情報候補リストに同一の動き情報が含まれることは稀である。
Here, the joint prediction mode uses temporal and spatial continuity of motion, and the prediction target block encodes motion information of spatially and temporally adjacent blocks without directly encoding its own motion information. Although the spatially coupled motion information candidate is based on continuity in the spatial direction, the temporally coupled motion information candidate is generated by the method described later based on the temporal direction continuity. These properties are different. Therefore, it is rare that the same motion information is included in the temporally combined motion information candidate and the spatially combined motion information candidate, and the temporally combined motion information candidate is removed from the target of the combined motion information candidate deletion process for deleting the same motion information. Even if they are excluded, it is rare that the same motion information is included in the finally obtained combined motion information candidate list.

また、後述するように時間結合動き情報候補ブロックは最小予測ブロックよりも大きな
サイズである最小空間予測ブロック単位で管理されるため、時間的に隣接する予測ブロッ
クの大きさが最小空間予測ブロックよりも小さな場合には、本来の位置とはずれた位置の
動き情報が用いられることとなり、その結果、動き情報に誤差を含む場合が多い。そのた
め、空間結合動き情報候補の動き情報とは異なる動き情報となることが多く、同一の動き
情報を削除するための結合動き情報候補削除処理の対象から除いても影響が少ない。
Also, as will be described later, temporally combined motion information candidate blocks are managed in units of minimum spatial prediction blocks having a size larger than that of the minimum prediction block, so that the size of the temporally adjacent prediction blocks is larger than that of the minimum spatial prediction block. If it is small, motion information at a position deviating from the original position is used, and as a result, the motion information often includes an error. Therefore, the motion information is often different from the motion information of the spatially coupled motion information candidate, and there is little influence even if the motion information is excluded from the target of the combined motion information candidate deletion process for deleting the same motion information.

図17は、空間結合動き情報候補の最大数が4である場合の結合動き情報候補削除にお
ける候補の比較内容の一例である。図17(a)は空間結合動き情報候補のみを結合動き
情報候補削除処理の対象とした場合の比較内容であり、図17(b)は空間結合動き情報
候補と時間結合動き情報を処理の対象とした場合の比較内容である。空間結合動き情報候
補のみを結合動き情報候補削除処理の対象とすることにより、動き情報を比較の回数が1
0回から6回に減少している。
FIG. 17 is an example of comparison contents of candidates in deletion of combined motion information candidates when the maximum number of spatially combined motion information candidates is four. FIG. 17A shows the comparison contents when only the spatially coupled motion information candidate is the target of the coupled motion information candidate deletion process, and FIG. 17B is the target of processing the spatially coupled motion information candidate and the temporally coupled motion information. It is a comparison content in the case of. Since only the spatially combined motion information candidate is the target of the combined motion information candidate deletion process, the number of comparisons of motion information is 1.
Decrease from 0 to 6 times.

このように、時間結合動き情報候補を結合動き情報候補削除処理の対象にしないことに
より、同一の動き情報を適切に削除しながら、動き情報の比較の回数を10回から6回に
削減することが可能である。
Thus, by not deleting the temporally combined motion information candidate as the target of the combined motion information candidate deletion process, the number of motion information comparisons is reduced from 10 to 6 while appropriately deleting the same motion information. Is possible.

続いて、時間結合動き情報候補リスト生成について説明する。図18は、時間結合動き
情報候補リスト生成に用いる時間方向周辺予測ブロックの定義を説明する図である。時間
候補ブロック群は、予測対象ブロックが属する画像とは別の復号済みの画像ColPic
に属するブロックの中で、予測対象ブロックと同位置及びその周辺にあるブロックを示す
。ブロック群は、その管理が最小空間予測ブロックサイズ単位で行われ、候補ブロックの
位置は、最小空間予測ブロックサイズの単位で管理される。本発明の実施の形態1におい
ては、最小空間予測ブロックサイズは最小予測ブロックサイズを垂直方向、水平方向にそ
れぞれ2倍した大きさとする。時間的に隣接するブロックの予測ブロックのサイズが最小
空間予測ブロックサイズよりも大きな場合には、予測ブロックサイズ内のすべての候補ブ
ロックに同一の動きの情報が格納される。一方、予測ブロックのサイズが最小空間予測ブ
ロックサイズよりも小さな場合には、時間方向周辺予測ブロックの左上に位置する予測ブ
ロックの動きの情報を時間方向周辺予測ブロックの情報とする。図18(b)に予測ブロ
ックサイズが最小空間予測ブロックサイズより小さい場合の時間方向周辺予測ブロックの
動き情報を示す。
Subsequently, generation of a time combination motion information candidate list will be described. FIG. 18 is a diagram illustrating the definition of the temporal direction peripheral prediction block used for generating the temporally combined motion information candidate list. The temporal candidate block group is a decoded image ColPic different from the image to which the prediction target block belongs.
Among the blocks belonging to, blocks at the same position as the prediction target block and in the vicinity thereof are shown. The block group is managed in units of the minimum spatial prediction block size, and the position of the candidate block is managed in units of the minimum spatial prediction block size. In Embodiment 1 of the present invention, the minimum spatial prediction block size is set to a size obtained by doubling the minimum prediction block size in the vertical and horizontal directions. When the size of the prediction block of temporally adjacent blocks is larger than the minimum spatial prediction block size, the same motion information is stored in all candidate blocks within the prediction block size. On the other hand, when the size of the prediction block is smaller than the minimum spatial prediction block size, the motion information of the prediction block located at the upper left of the temporal direction peripheral prediction block is used as the temporal direction peripheral prediction block information. FIG. 18B shows motion information of the temporal direction neighboring prediction block when the prediction block size is smaller than the minimum spatial prediction block size.

図18(a)におけるA1〜A4、B1〜B4、C、D、E、F1〜F4、G1〜G4
、H、I1〜I16の位置のブロックが、時間的に隣接するブロック群となる。実施の形
態1においては、これら時間的に隣接するブロック群の内、時間候補ブロック群をブロッ
クHとブロックI6の2ブロックとする。
A1-A4, B1-B4, C, D, E, F1-F4, G1-G4 in FIG.
, H, and I1 to I16 are blocks adjacent in time. In the first embodiment, among these temporally adjacent block groups, the temporal candidate block group is assumed to be two blocks, block H and block I6.

図19は、時間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャー
トである。時間候補ブロック群に含まれる2つの候補ブロックであるブロックHとブロッ
クI6について(S1800、S1805)、ブロックH、ブロックI6の順序で候補ブ
ロックの有効性を検査する(S1801)。候補ブロックが有効である場合(S1801
:YES)、ステップS1802〜ステップS1804の処理が行われ、生成された動き
情報が時間結合動き情報候補リストに登録され、処理が終了する。候補ブロックが画面領
域外の位置を示す場合や、候補ブロックがイントラ予測ブロックである場合(S1801
:NO)、候補ブロックが有効でなく、次の候補ブロックの有効/無効判定が行われる。
候補ブロックが有効である場合(S1801:YES)、候補ブロックの動き情報をも
とに結合動き情報候補に登録する参照画像選択候補を確定する(S1802)。実施の形
態1ではL0予測の参照画像を、L0予測の参照画像のうち処理対象画像に最も近い距離
にある参照画像とし、L1予測の参照画像を、L1予測の参照画像のうち処理対象画像に
最も近い距離にある参照画像とする。
FIG. 19 is a flowchart for explaining the detailed operation of generating the time combination motion information candidate list. Regarding the block H and the block I6 which are two candidate blocks included in the time candidate block group (S1800, S1805), the validity of the candidate block is checked in the order of the block H and the block I6 (S1801). If the candidate block is valid (S1801)
: YES), the processing of steps S1802 to S1804 is performed, the generated motion information is registered in the temporally combined motion information candidate list, and the processing ends. When the candidate block indicates a position outside the screen area, or when the candidate block is an intra prediction block (S1801)
: NO), the candidate block is not valid, and valid / invalid determination of the next candidate block is performed.
If the candidate block is valid (S1801: YES), the reference image selection candidate to be registered in the combined motion information candidate is determined based on the motion information of the candidate block (S1802). In the first embodiment, the L0 prediction reference image is the reference image that is the closest to the processing target image among the L0 prediction reference images, and the L1 prediction reference image is the processing target image among the L1 prediction reference images. The reference image is the closest distance.

ここでの参照画像選択候補の確定手法は、L0予測の参照画像とL1予測の参照画像が
決定できればよく、これに限定されない。符号化処理と復号処理で同一の手法で参照画像
を確定することで、符号化時に意図した参照画像を確定できる。他の確定手法としては、
例えばL0予測の参照画像及びL1予測の参照画像の参照画像インデックスが0である参
照画像を選択する手法や、空間隣接ブロックが使用しているL0参照画像及びL1参照画
像で、最も多く使用されている参照画像を予測対象ブロックにおける参照画像として選択
する手法や、符号化ストリーム中で各予測種別の参照画像を指定する手法を用いることが
可能である。
The determination method of the reference image selection candidate here is not limited to this as long as the reference image for L0 prediction and the reference image for L1 prediction can be determined. The reference image intended at the time of encoding can be determined by determining the reference image by the same method in the encoding process and the decoding process. Other deterministic methods include
For example, a method of selecting a reference image having a reference image index of 0 for a reference image for L0 prediction and a reference image for L1 prediction, and a L0 reference image and an L1 reference image used by spatial adjacent blocks are most frequently used. It is possible to use a method of selecting a reference image as a reference image in a prediction target block, or a method of specifying a reference image of each prediction type in an encoded stream.

次に、候補ブロックの動き情報をもとに結合動き情報候補に登録する動きベクトル値を
確定する(S1803)。実施の形態1における、時間結合動き情報は、候補ブロックの
動き情報で有効な予測種別である動きベクトル値をもとに、双予測の動き情報を算出する
。候補ブロックの予測種別がL0予測もしくはL1予測の単予測の場合には、予測に用い
られている予測種別(L0予測或いはL1予測)の動き情報を選択し、その参照画像指定
情報と動きベクトル値を双予測動き情報生成の基準値とする。
Next, a motion vector value to be registered in the combined motion information candidate is determined based on the motion information of the candidate block (S1803). In the first embodiment, the temporally coupled motion information calculates bi-prediction motion information based on motion vector values that are effective prediction types in motion information of candidate blocks. When the prediction type of the candidate block is L0 prediction or L1 prediction single prediction, motion information of the prediction type (L0 prediction or L1 prediction) used for prediction is selected, and its reference image designation information and motion vector value are selected. Is a reference value for generating bi-predictive motion information.

候補ブロックの予測種別が双予測である場合には、L0予測或いはL1予測のどちらか
一方の動き情報を基準値として選択する。基準値の選択方法は、例えばColPicと同
じ予測種別に存在する動き情報を選択する、候補ブロックのL0予測、L1予測のそれぞ
れの参照画像でColPicとの画像間距離が近い方を選択する、或いは候補ブロックの
L0予測、L1予測のそれぞれの動きベクトルが符号化処理対象画像と交差する方を選択
する等が挙げられる。
If the prediction type of the candidate block is bi-prediction, motion information of either L0 prediction or L1 prediction is selected as a reference value. The selection method of the reference value is, for example, selecting motion information that exists in the same prediction type as ColPic, selecting the reference image of the candidate block that has a shorter inter-image distance from ColPic in the L0 prediction and L1 prediction, or For example, it is possible to select a direction in which the motion vectors of the L0 prediction and the L1 prediction of the candidate block intersect with the encoding process target image.

双予測動き情報生成の基準とする動きベクトル値が確定したら、結合動き情報候補に登
録する動きベクトル値を算出する。
When the motion vector value used as a reference for bi-predictive motion information generation is determined, a motion vector value to be registered in the combined motion information candidate is calculated.

図20は、時間結合動き情報に対する基準動きベクトル値ColMvに対する、L0予
測、L1予測に対して登録する動きベクトル値mvL0t、mvL1tの算出手法を説明
するための図である。
FIG. 20 is a diagram for explaining a calculation method of motion vector values mvL0t and mvL1t registered for L0 prediction and L1 prediction with respect to the reference motion vector value ColMv for temporally coupled motion information.

基準動きベクトル値ColMvに対するColPicと候補ブロックの基準とする動き
ベクトルの対象となる参照画像との画像間距離をColDistとする。L0予測、L1
予測の各参照画像と処理対象画像との画像間距離をCurrL0Dist、CurrL1
Distとする。ColMvを、ColDistとCurrL0Dist、CurrL1
Distの距離比率でスケーリングした動きベクトルを、それぞれに登録する動きベクト
ルとする。具体的には、登録する動きベクトル値mvL0t、mvL1tは、下記式1、
2で算出される。
mvL0t=mvCol×CurrL0Dist/ColDist・・・(式1)
mvL1t=mvCol×CurrL1Dist/ColDist・・・(式2)
となる。
The distance between images between ColPic for the reference motion vector value ColMv and the reference image that is the target of the motion vector used as a reference for the candidate block is defined as ColDist. L0 prediction, L1
The inter-image distance between each prediction reference image and the processing target image is set to CurrL0Dist, CurrL1.
Let it be Dist. ColMv, ColDist, CurrL0Dist, CurrL1
The motion vector scaled by the distance ratio of Dist is set as a motion vector to be registered for each. Specifically, the motion vector values mvL0t and mvL1t to be registered are expressed by the following formula 1,
2 is calculated.
mvL0t = mvCol × CurrL0Dist / ColDist (Formula 1)
mvL1t = mvCol × CurrL1Dist / ColDist (Formula 2)
It becomes.

図19に戻り、このようにして生成された、双予測の参照画像選択情報(インデックス
)と、動きベクトル値を結合動き情報候補に追加し(S1804)、時間結合動き情報候
補リスト作成処理が終了する。
Returning to FIG. 19, the bi-predicted reference image selection information (index) and the motion vector value generated in this way are added to the combined motion information candidates (S1804), and the temporal combined motion information candidate list creation process ends. To do.

続いて、第1結合動き情報候補リスト追加部1003の詳細な動作について説明する。
図21は、第1結合動き情報候補リスト追加部1003の動作を説明するためのフローチ
ャートである。最初に、時間結合動き情報候補リスト生成部1002より供給される結合
動き情報候補リストに登録された結合動き情報候補の数(NumCandList)と結
合動き情報候補最大数(MaxNumMergeCand)から、第1追加結合動き情報
候補を生成する最大数であるMaxNumGenCandを式3より算出する(S200
0)。
MaxNumGenCand=MaxNumMergeCand-NumCandList; (NumCandList>1)
MaxNumGenCand=0; (NumCandList<=1) (式3)
Next, a detailed operation of the first combined motion information candidate list adding unit 1003 will be described.
FIG. 21 is a flowchart for explaining the operation of the first combined motion information candidate list adding unit 1003. First, from the number of combined motion information candidates (NumCandList) and the maximum number of combined motion information candidates (MaxNumMergeCand) registered in the combined motion information candidate list supplied from the temporally combined motion information candidate list generation unit 1002, the first additional combination is performed. MaxNumGenCand, which is the maximum number of motion information candidate generations, is calculated from Equation 3 (S200).
0).
MaxNumGenCand = MaxNumMergeCand-NumCandList; (NumCandList> 1)
MaxNumGenCand = 0; (NumCandList <= 1) (Formula 3)

次に、MaxNumGenCandが0より大きいか検査する(S2001)。Max
NumGenCandが0より大きくなければ(S2001のNO)、処理を終了する。
MaxNumGenCandが0より大きければ(S2001のYES)、以下の処理を
行う。まず、組み合わせ検査回数であるloopTimesを決定する。loopTim
esはNumCandList×NumCandListに設定する。ただし、loop
Timesが8を超える場合にはloopTimesは8に制限する(S2002)。こ
こで、loopTimesは0から7までの整数となる。loopTimesだけ以下の
処理を繰り返し行う(S2002からS2009)。
Next, it is inspected whether MaxNumGenCand is larger than 0 (S2001). Max
If NumGenCand is not greater than 0 (NO in S2001), the process ends.
If MaxNumGenCand is greater than 0 (YES in S2001), the following processing is performed. First, loopTimes that is the number of combination inspections is determined. loopTim
es is set to NumCandList × NumCandList. However, loop
If Times exceeds 8, loopTimes is limited to 8 (S2002). Here, loopTimes is an integer from 0 to 7. The following processing is repeatedly performed for loopTimes (S2002 to S2009).

結合動き情報候補Mと結合動き情報候補Nの組み合わせを決定する(S2003)。こ
こで、組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係について説
明する。
A combination of the combined motion information candidate M and the combined motion information candidate N is determined (S2003). Here, the relationship between the number of combination inspections, the combined motion information candidate M, and the combined motion information candidate N will be described.

図22は組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係を説明
するための図である。図22のようにMとNは異なる値であって、MとNの合計値が小さ
くなる順に設定される。
FIG. 22 is a diagram for explaining the relationship among the number of combination inspections, the combined motion information candidate M, and the combined motion information candidate N. As shown in FIG. 22, M and N are different values, and are set in order of decreasing total value of M and N.

結合動き情報候補MのL0予測が有効で且つ結合動き情報候補NのL1予測が有効であ
るか検査する(S2004)。結合動き情報候補MのL0予測が有効で且つ結合動き情報
候補NのL1予測が有効であれば(S2004のYES)、結合動き情報候補MのL0予
測の参照画像と動きベクトルが結合動き情報候補NのL1予測の参照画像と動きベクトル
と異なるか検査する(S2005)。結合動き情報候補MのL0予測が有効で且つ結合動
き情報候補NのL1予測が有効でなければ(S2004のNO)、次の組み合わせを処理
する。結合動き情報候補MのL0予測の参照画像と結合動き情報候補NのL1予測の参照
画像が異なれば(S2005のYES)、結合動き情報候補MのL0予測の動きベクトル
と参照画像を結合動き情報候補NのL1予測の動きベクトルと参照画像と組み合わせて双
結合動き情報候補を生成する(S2006)。ここでは、第1追加結合動き情報候補とし
て、ある結合動き情報候補のL0予測とそれとは異なる結合動き情報候補のL1予測の動
き情報を組み合わせた双結合動き情報を生成する。結合動き情報候補MのL0予測の参照
画像と結合動き情報候補NのL1予測の参照画像が同じであれば(S2005のNO)、
次の組み合わせを処理する。ステップS2006に続いて、双結合動き情報候補を結合動
き情報候補リストに追加する(S2007)。ステップS2007に続いて、生成した双
結合動き情報の数がMaxNumGenCandであるか検査する(S2008)。生成
された双結合動き情報の数がMaxNumGenCandであれば(S2008のYES
)、処理を終了する。生成された双結合動き情報の数がMaxNumGenCandでな
ければ(S2008のNO)、次の組み合わせを処理する。
It is checked whether the L0 prediction of the combined motion information candidate M is valid and the L1 prediction of the combined motion information candidate N is valid (S2004). If the L0 prediction of the combined motion information candidate M is valid and the L1 prediction of the combined motion information candidate N is valid (YES in S2004), the reference image and the motion vector of the combined motion information candidate M for the L0 prediction are combined motion information candidates. It is checked whether the reference image of the N L1 prediction is different from the motion vector (S2005). If the L0 prediction of the combined motion information candidate M is not valid and the L1 prediction of the combined motion information candidate N is not valid (NO in S2004), the next combination is processed. If the L0 prediction reference image of the combined motion information candidate M and the L1 prediction reference image of the combined motion information candidate N are different (YES in S2005), the combined motion information of the L0 prediction motion vector of the combined motion information candidate M and the reference image is combined. A combined motion information candidate is generated by combining the motion vector of L1 prediction of candidate N and the reference image (S2006). Here, as the first additional combined motion information candidate, bi-coupled motion information is generated by combining L0 prediction of a certain combined motion information candidate and L1 prediction motion information of a different combined motion information candidate. If the reference image for L0 prediction of the combined motion information candidate M and the reference image for L1 prediction of the combined motion information candidate N are the same (NO in S2005),
Process the following combinations: Subsequent to step S2006, bi-join motion information candidates are added to the joint motion information candidate list (S2007). Subsequent to step S2007, it is checked whether the number of generated double-coupled motion information is MaxNumGenCand (S2008). If the number of generated double coupled motion information is MaxNumGenCand (YES in S2008)
), The process is terminated. If the number of generated double coupled motion information is not MaxNumGenCand (NO in S2008), the next combination is processed.

ここでは、第1追加結合動き情報候補を、結合動き情報候補リストに登録されたある結
合動き情報候補のL0予測の動きベクトルと参照画像を、別の結合動き情報候補のL1予
測の動きベクトルと参照画像と組み合わせて、動き補償予測の予測種別が双予測である双
結合動き情報候補としたが、これに限定されない。例えば、結合動き情報候補リストに登
録されたある結合動き情報候補のL0予測の動きベクトルとL1予測の動きベクトルに+
1などのオフセット値を加えた動き補償予測の予測種別が双予測である結合動き情報候補
、結合動き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトル
またはL1予測の動きベクトルに+1などのオフセット値を加えた動き補償予測の予測種
別が単予測である結合動き情報候補としてもよいし、それらを任意に組み合わせてもよい
Here, the first additional combined motion information candidate is set as the L0 prediction motion vector of a certain combined motion information candidate registered in the combined motion information candidate list and the reference image, and the L1 prediction motion vector of another combined motion information candidate. In combination with the reference image, a bi-coupled motion information candidate whose prediction type of motion compensation prediction is bi-prediction is used, but the present invention is not limited to this. For example, the motion vector for the L0 prediction and the motion vector for the L1 prediction of a certain combined motion information candidate registered in the combined motion information candidate list are +
A motion vector of L0 prediction or a motion vector of L1 prediction of a combined motion information candidate registered in the combined motion information candidate list in which the prediction type of motion compensation prediction to which an offset value such as 1 is added is bi-prediction The motion compensation prediction type of the motion compensation prediction obtained by adding an offset value such as +1 to the combined motion information candidate may be a single prediction, or may be arbitrarily combined.

ここで、第1追加結合動き情報候補は、結合動き情報候補リストに登録された結合動き
情報候補の動き情報と処理対象の動き情報候補の動きに微妙にずれがある場合に、結合動
き情報候補リストに登録された結合動き情報候補の動き情報を修正して有効な結合動き情
報候補を生成することで、符号化効率を高めることができる。
Here, the first additional combined motion information candidate is a combined motion information candidate when there is a slight difference between the motion information of the combined motion information candidate registered in the combined motion information candidate list and the motion information candidate motion to be processed. Coding efficiency can be improved by correcting the motion information of the combined motion information candidates registered in the list to generate effective combined motion information candidates.

続いて、第2結合動き情報候補リスト追加部1004の詳細な動作について説明する。
図23は、第2結合動き情報候補リスト追加部1004の動作を説明するためのフローチ
ャートである。最初に、第1結合動き情報候補リスト追加部1003より供給される結合
動き情報候補リストに登録された結合動き情報候補の数(NumCandList)と結
合動き情報候補最大数(MaxNumMergeCand)から、第1追加結合動き情報
候補を生成する最大数であるMaxNumGenCandを式4より算出する(S220
0)。
MaxNumGenCand=MaxNumMergeCand-NumCandList; (式4)
Next, the detailed operation of the second combined motion information candidate list adding unit 1004 will be described.
FIG. 23 is a flowchart for explaining the operation of the second combined motion information candidate list adding unit 1004. First, the first addition from the number of combined motion information candidates (NumCandList) and the maximum number of combined motion information candidates (MaxNumMergeCand) registered in the combined motion information candidate list supplied from the first combined motion information candidate list adding unit 1003. MaxNumGenCand, which is the maximum number for generating combined motion information candidates, is calculated from Equation 4 (S220).
0).
MaxNumGenCand = MaxNumMergeCand-NumCandList; (Formula 4)

次に、以下の処理をiについてMaxNumGenCand回繰り返し行う(S220
1からS2205)。ここで、iは0からMaxNumGenCand−1の整数となる
。L0予測の動きベクトルが(0,0)、参照インデックスがiであって、L1予測の動
きベクトルが(0,0)、参照インデックスがiである予測種別が双予測である第2追加
結合動き情報候補を生成する(S2202)。第2追加結合動き情報候補を結合動き情報
候補リストに追加する(S2203)。次のiについて処理する(S2204)。
Next, the following process is repeated MaxNumCand times for i (S220).
1 to S2205). Here, i is an integer from 0 to MaxNumGenCand-1. The second additional combined motion in which the motion vector for L0 prediction is (0,0), the reference index is i, the motion vector for L1 prediction is (0,0), and the prediction type is i for the reference index is bi-prediction. Information candidates are generated (S2202). The second additional combined motion information candidate is added to the combined motion information candidate list (S2203). The next i is processed (S2204).

ここでは、第2追加結合動き情報候補を、L0予測の動きベクトルが(0,0)、参照
インデックスがiであって、L1予測の動きベクトルが(0,0)、参照インデックスが
iである予測種別が双予測である結合動き情報候補とした。これは、一般的な動画像にお
いて、L0予測の動きベクトルとL1予測の動きベクトルが(0,0)である結合動き情
報候補の発生頻度が統計的に高いためである。結合動き情報候補リストに登録された結合
動き情報候補の動き情報に依存せず、統計的に利用頻度が高い結合動き情報候補であれば
、これに限定されない。例えば、L0予測やL1予測の動きベクトルはそれぞれ(0,0
)以外のベクトル値でもよく、L0予測とL1予測の参照インデックスが異なるように設
定してもよい。また、第2追加結合動き情報候補を符号化済みの画像や符号化済みの画像
の一部の発生頻度の高い動き情報とし、符号化ストリームに符号化して伝送して設定する
こともできる。なお、ここではBピクチャ(Bスライス)について説明したが、Pピクチ
ャ(Pスライス)の場合は、L0予測の動きベクトルが(0,0)で、予測種別がL0予
測である第2追加結合動き情報候補を生成する。
Here, the second additional combined motion information candidate has a motion vector for L0 prediction of (0, 0), a reference index of i, a motion vector of L1 prediction of (0, 0), and a reference index of i. The combined motion information candidate whose prediction type is bi-prediction was used. This is because, in a general moving image, the frequency of occurrence of combined motion information candidates in which the motion vector for L0 prediction and the motion vector for L1 prediction are (0, 0) is statistically high. The present invention is not limited to this as long as it is a combined motion information candidate that is statistically frequently used without depending on the motion information of the combined motion information candidate registered in the combined motion information candidate list. For example, the motion vectors of L0 prediction and L1 prediction are (0, 0
) Vector values other than () may be used, and the L0 prediction and the L1 prediction may have different reference indices. Alternatively, the second additional combined motion information candidate can be set as an encoded image or motion information with a high occurrence frequency of a part of the encoded image, encoded in an encoded stream, and transmitted. Although the B picture (B slice) has been described here, in the case of the P picture (P slice), the second additional combined motion in which the motion vector for L0 prediction is (0, 0) and the prediction type is L0 prediction. Generate information candidates.

ここで、第2追加結合動き情報候補として結合動き情報候補リストに登録された結合動
き情報候補に依存しない結合動き情報候補を設定することで、結合動き情報候補リストに
登録された結合動き情報候補が0個である場合に、結合予測モードを利用することを可能
とし、符号化効率を向上させることができる。また、結合動き情報候補リストに登録され
た結合動き情報候補の動き情報と処理対象の動き情報候補の動きが異なる場合に、新たな
結合動き情報候補を生成して選択肢の幅を広げることで、符号化効率を向上させることが
できる。
Here, by setting a combined motion information candidate that does not depend on the combined motion information candidate registered in the combined motion information candidate list as the second additional combined motion information candidate, the combined motion information candidate registered in the combined motion information candidate list When the number is zero, it is possible to use the joint prediction mode and improve the encoding efficiency. In addition, when the motion information of the combined motion information candidate registered in the combined motion information candidate list and the motion information candidate motion to be processed are different, by generating a new combined motion information candidate and expanding the range of options, Encoding efficiency can be improved.

図24は、図11のステップS1101における結合予測モード評価値生成処理の詳細
動作を説明するためのフローチャートである。この動作は、図9の結合動き補償予測生成
部908を用いた構成の詳細動作を示している。
FIG. 24 is a flowchart for explaining the detailed operation of the combined prediction mode evaluation value generation process in step S1101 of FIG. This operation shows the detailed operation of the configuration using the combined motion compensation prediction generation unit 908 of FIG.

最初に予測誤差評価値を最大値に設定し、予測誤差が最小となる結合動き情報インデッ
クスを初期化(例えば、−1などのリスト外の値)する(S2300)。結合動き情報候
補リスト生成処理により、生成された結合動き情報候補リストの数をnum_of_in
dexとすると、i=0からnum_of_index−1までの結合動き情報候補につ
いて以下の処理を繰り返し行う(S2301からS2309)。
First, the prediction error evaluation value is set to the maximum value, and the combined motion information index that minimizes the prediction error is initialized (for example, a value outside the list such as −1) (S2300). The number of combined motion information candidate lists generated by the combined motion information candidate list generation process is set to num_of_in.
If dex is assumed, the following processing is repeated for the combined motion information candidates from i = 0 to num_of_index-1 (S2301 to S2309).

先ず、結合動き情報候補リストよりインデックスiに格納された動き情報を取得する(
S2302)。続いて動き情報符号量を算出する(S2303)。結合予測モードにおい
ては、結合動き情報インデックスのみが符号化されるので、結合動き情報インデックスの
みが動き情報符号量となる。
First, the motion information stored in the index i is acquired from the combined motion information candidate list (
S2302). Subsequently, a motion information code amount is calculated (S2303). In the joint prediction mode, since only the joint motion information index is encoded, only the joint motion information index becomes the motion information code amount.

結合動き情報インデックスの符号列としては、実施の形態1では、Truncated
Unary符号列を用いる。図25は、結合動き情報候補数が5の場合のTrunca
ted Unary符号列を示す図である。Truncated Unary符号列を用
いて結合動き情報インデックスの値を符号化する場合には、結合動き情報インデックスが
小さいほど、結合動き情報インデックスに割り当てられる符号ビットが小さくなる。例え
ば、結合動き情報候補数が5個である場合、結合動き情報インデックスが1であれば'1
0'の2ビットで表現されるが、結合動き情報インデックスが3であれば'1110'の4
ビットで表現される。なお、ここでは上記のように結合動き情報インデックスの符号化に
Truncated Unary符号列を利用しているが、他の符号列生成手法を用いる
ことも可能であり、これに限定されない。
In the first embodiment, the code sequence of the combined motion information index is Truncated.
An Unary code string is used. FIG. 25 shows a case where the number of combined motion information candidates is 5
It is a figure which shows a ted Unary code sequence. When the value of the combined motion information index is encoded using the Truncated Unary code string, the smaller the combined motion information index, the smaller the code bit assigned to the combined motion information index. For example, when the number of combined motion information candidates is 5, if the combined motion information index is 1, '1
It is expressed by 2 bits of 0, but if the combined motion information index is 3, 4 of '1110'
Expressed in bits. Here, as described above, the Truncated Unary code string is used for encoding the combined motion information index, but other code string generation methods can be used, and the present invention is not limited to this.

続いて、動き情報の予測種別が単予測である場合(S2304:YES)、1つの参照
画像に対する参照画像指定情報と動きベクトルを、図1における動き補償予測部108に
設定して、動き補償単予測ブロックを生成する(S2305)。動き情報が単予測でない
場合(S2304:NO)、2つの参照画像に対する参照画像指定情報と動きベクトルを
動き補償予測部108に設定して、動き補償双予測ブロックを生成する(S2306)。
Subsequently, when the prediction type of the motion information is single prediction (S2304: YES), the reference image designation information and the motion vector for one reference image are set in the motion compensation prediction unit 108 in FIG. A prediction block is generated (S2305). When the motion information is not uni-prediction (S2304: NO), reference image designation information and motion vectors for two reference images are set in the motion compensated prediction unit 108 to generate a motion compensated bi-prediction block (S2306).

続いて、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、
予測誤差評価値を算出し(S2307)、予測誤差評価値が最小値である場合には評価値
を更新すると共に、予測誤差最小インデックスを更新する(S2308)。
Subsequently, from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block,
A prediction error evaluation value is calculated (S2307). When the prediction error evaluation value is the minimum value, the evaluation value is updated and the prediction error minimum index is updated (S2308).

全ての結合動き情報候補についての予測誤差評価値が比較された結果、選択された予測
誤差最小インデックスを、結合予測モードで用いる結合動き情報インデックスとして、予
測誤差最小値、動き補償予測ブロックと共に出力し(S2310)、結合予測モード評価
値生成処理を終了する。
As a result of comparison of the prediction error evaluation values for all the combined motion information candidates, the selected prediction error minimum index is output together with the prediction error minimum value and the motion compensated prediction block as a combined motion information index used in the combined prediction mode. (S2310) The combined prediction mode evaluation value generation process ends.

図26は、図11のステップS1102の予測モード評価値生成処理の詳細動作を説明
するためのフローチャートである。
FIG. 26 is a flowchart for explaining detailed operation of the prediction mode evaluation value generation processing in step S1102 of FIG.

最初に、予測モードが単予測であるか否かを判別する(S2500)。単予測であれば
、処理対象とする参照画像リスト(LX)を予測に用いている参照画像リストに設定する
(S2501)。単予測でなければ、双予測であるから、この場合はLXをL0とする(
S2502)。
First, it is determined whether or not the prediction mode is single prediction (S2500). If it is single prediction, the reference image list (LX) to be processed is set as the reference image list used for prediction (S2501). If it is not uni-prediction, it is bi-prediction, so in this case LX is set to L0 (
S2502).

次に、LX予測に対する参照画像指定情報(インデックス)と動きベクトル値を取得す
る(S2503)。続いて、予測ベクトル候補リストを生成し(S2504)、予測ベク
トルの中から最適予測ベクトルを選択し、差分ベクトルを生成する(S2505)。最適
予測ベクトルの選択手法は、予測ベクトルと伝送する動きベクトルの差分ベクトルを実際
に符号化する際の符号量が最も少ないものを選択することが望ましいが、単純に差分ベク
トルの水平・垂直成分の絶対値の総和が小さいものを選択するなどの手法で、簡易的に算
出してもよい。
Next, reference image designation information (index) and motion vector values for LX prediction are acquired (S2503). Subsequently, a prediction vector candidate list is generated (S2504), an optimal prediction vector is selected from the prediction vectors, and a difference vector is generated (S2505). It is desirable to select the optimal prediction vector with the least amount of code when the difference vector between the prediction vector and the motion vector to be transmitted is actually encoded. However, the horizontal and vertical components of the difference vector are simply selected. The calculation may be simplified by a method such as selecting one having a small absolute sum.

続いて、再度予測モードが単予測である否かを判別し(S2506)、予測モードが単
予測であればステップS2509に進む。単予測でない、すなわち、双予測であれば、処
理対象の参照リストLXがL1か否かを判定する(S2507)。参照リストLXがL1
であれば、ステップS2509に進み、L1でない、すなわち、L0であればLXをL1
として(S2508)、ステップS2503からステップS2506までの処理と同じ処
理が行われる。
Subsequently, it is determined again whether or not the prediction mode is single prediction (S2506). If the prediction mode is single prediction, the process proceeds to step S2509. If it is not uni-prediction, that is, if it is bi-prediction, it is determined whether or not the reference list LX to be processed is L1 (S2507). Reference list LX is L1
If so, the process proceeds to step S2509, and if it is not L1, that is, if L0, LX is changed to L1
(S2508), the same processing as the processing from step S2503 to step S2506 is performed.

続いて、動き情報符号量を算出する(S2509)。単予測モードの場合に、符号化す
る動き情報としては、1つの参照画像に対する、参照画像指定情報、差分ベクトル値、及
び予測ベクトルインデックスの3要素、双予測モードの場合には、L0とL1の2つの参
照画像に対する、参照画像指定情報、差分ベクトル値、及び予測ベクトルインデックスの
計6要素となり、各々符号化された符号量の総量が動き情報符号量として算出される。本
実施の形態における予測ベクトルインデックスの符号列生成手法としては、結合動き情報
インデックスの符号列と同様にTruncated Unary符号列を用いるものとす
る。
Subsequently, a motion information code amount is calculated (S2509). In the case of the uni-prediction mode, the motion information to be encoded includes three elements of reference image designation information, a difference vector value, and a prediction vector index for one reference image. In the case of the bi-prediction mode, L0 and L1 The reference image designation information, the difference vector value, and the prediction vector index for the two reference images are a total of six elements, and the total amount of the encoded amount is calculated as the motion information code amount. As a prediction vector index code string generation method according to the present embodiment, a Trunked Unary code string is used in the same manner as the combined motion information index code string.

続いて、参照画像に対する参照画像指定情報と動きベクトルを図1における動き補償予
測部108に設定して、動き補償予測ブロックを生成する(S2510)。
Subsequently, the reference image designation information and the motion vector for the reference image are set in the motion compensated prediction unit 108 in FIG. 1 to generate a motion compensated prediction block (S2510).

さらに、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、
予測誤差評価値を算出し(S2511)、予測誤差評価値と、参照画像に対する動き情報
である、参照画像指定情報と差分ベクトル値と予測ベクトルインデックスを動き補償予測
ブロックと共に出力し(S2512)、予測モード評価値生成処理を終了する。
Furthermore, from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block,
The prediction error evaluation value is calculated (S2511), the prediction error evaluation value, the reference image designation information, the difference vector value, and the prediction vector index, which are motion information for the reference image, are output together with the motion compensated prediction block (S2512). The mode evaluation value generation process is terminated.

以上の処理が、実施の形態1における動画像符号化装置における予測モード判定部10
9の詳細動作となる。
The above process is performed by the prediction mode determination unit 10 in the video encoding apparatus in the first embodiment.
9 detailed operations.

[実施の形態1における動画像復号装置における動き情報復号部の詳細動作説明]
図27は、図6に示した実施の形態1の動画像復号装置における動き情報復号部606
の詳細な構成を示す図である。動き情報復号部606は、動き情報ビットストリーム復号
部2600、予測ベクトル算出部2601、ベクトル加算部2602、動き補償予測復号
部2603、結合動き情報算出部2604、及び結合動き補償予測復号部2605を含む
[Detailed Operation Description of Motion Information Decoding Unit in Moving Picture Decoding Device in Embodiment 1]
FIG. 27 shows a motion information decoding unit 606 in the video decoding apparatus according to Embodiment 1 shown in FIG.
It is a figure which shows the detailed structure of these. The motion information decoding unit 606 includes a motion information bitstream decoding unit 2600, a prediction vector calculation unit 2601, a vector addition unit 2602, a motion compensation prediction decoding unit 2603, a combined motion information calculation unit 2604, and a combined motion compensation prediction decoding unit 2605. .

図6における動き情報復号部606に対して、多重分離部601より入力された動き情
報ビットストリームが、動き情報ビットストリーム復号部2600に供給され、動き情報
メモリ607より入力された動き情報が、予測ベクトル算出部2601、及び結合動き情
報算出部2604に供給される。
For the motion information decoding unit 606 in FIG. 6, the motion information bitstream input from the demultiplexing unit 601 is supplied to the motion information bitstream decoding unit 2600, and the motion information input from the motion information memory 607 is predicted. This is supplied to the vector calculation unit 2601 and the combined motion information calculation unit 2604.

また、動き補償予測部608に対して、動き補償予測復号部2603、及び結合動き補
償予測復号部2605から、動き補償予測に用いる参照画像指定情報と動きベクトルが出
力され、予測種別を示す情報を含めた復号された動き情報が、動き情報メモリ607に格
納される。
In addition, the motion compensation prediction prediction unit 608 outputs reference image designation information and motion vectors used for motion compensation prediction from the motion compensation prediction decoding unit 2603 and the combined motion compensation prediction decoding unit 2605, and indicates information indicating the prediction type. The included decoded motion information is stored in the motion information memory 607.

動き情報ビットストリーム復号部2600は、多重分離部601より入力された動き情
報ビットストリームを符号化シンタックスに従って復号していくことで、伝送された予測
モードと、予測モードに応じた動き情報を生成する。生成した動き情報の中で、結合動き
情報インデックスは、結合動き補償予測復号部2605に供給され、参照画像指定情報が
予測ベクトル算出部2601に供給され、予測ベクトルインデックスがベクトル加算部2
602に供給され、差分ベクトル値がベクトル加算部2602に供給される。
The motion information bitstream decoding unit 2600 generates the motion information corresponding to the transmitted prediction mode and the prediction mode by decoding the motion information bitstream input from the demultiplexing unit 601 according to the encoding syntax. To do. Among the generated motion information, the combined motion information index is supplied to the combined motion compensation prediction decoding unit 2605, the reference image designation information is supplied to the prediction vector calculation unit 2601, and the prediction vector index is the vector addition unit 2.
The difference vector value is supplied to the vector addition unit 2602.

予測ベクトル算出部2601は、動き情報メモリ607より供給された隣接ブロックの
動き情報と、動き情報ビットストリーム復号部2600より供給された参照画像指定情報
から、動き補償予測の対象となる参照画像に対する予測ベクトル候補リストを生成し、参
照画像指定情報と共にベクトル加算部2602に供給する。予測ベクトル算出部2601
の動作に関しては、動画像符号化装置における図9の予測ベクトル算出部902と同一の
動作が行われ、符号化時の予測ベクトル候補リストと同一の候補リストが生成される。
The prediction vector calculation unit 2601 predicts a reference image to be subjected to motion compensation prediction from the motion information of the adjacent block supplied from the motion information memory 607 and the reference image designation information supplied from the motion information bitstream decoding unit 2600. A vector candidate list is generated and supplied to the vector addition unit 2602 together with the reference image designation information. Prediction vector calculation unit 2601
With respect to the above operation, the same operation as the prediction vector calculation unit 902 in FIG. 9 in the moving image encoding apparatus is performed, and the same candidate list as the prediction vector candidate list at the time of encoding is generated.

ベクトル加算部2602は、予測ベクトル算出部2601より供給された予測ベクトル
候補リスト及び参照画像指定情報と、動き情報ビットストリーム復号部2600から供給
された予測ベクトルインデックス及び差分ベクトルより、予測ベクトルインデックスで示
された位置に登録された予測ベクトル値と差分ベクトル値を加算することで、動き補償予
測対象となる参照画像に対しての動きベクトル値が再生される。再生された動きベクトル
値は、参照画像指定情報と共に、動き補償予測復号部2603に供給される。
The vector addition unit 2602 indicates a prediction vector index from the prediction vector candidate list and reference image designation information supplied from the prediction vector calculation unit 2601 and the prediction vector index and difference vector supplied from the motion information bitstream decoding unit 2600. By adding the prediction vector value and the difference vector value registered at the set position, the motion vector value for the reference image to be motion compensated prediction is reproduced. The reproduced motion vector value is supplied to the motion compensated prediction decoding unit 2603 together with the reference image designation information.

動き補償予測復号部2603は、ベクトル加算部2602より参照画像に対する、再生
された動きベクトル値と参照画像指定情報が供給され、動きベクトル値と参照画像指定情
報を動き補償予測部608に設定することで、動き補償予測信号を生成する。
The motion compensated prediction decoding unit 2603 is supplied with the reproduced motion vector value and reference image designation information for the reference image from the vector addition unit 2602, and sets the motion vector value and the reference image designation information in the motion compensated prediction unit 608. Thus, a motion compensated prediction signal is generated.

結合動き情報算出部2604は、動き情報メモリ607から供給される隣接ブロックの
動き情報より、結合動き情報候補リストを生成し、結合動き情報候補リストとリスト内の
構成要素である結合動き情報候補の参照画像指定情報と動きベクトル値を、結合動き補償
予測復号部2605に供給する。
The combined motion information calculation unit 2604 generates a combined motion information candidate list from the motion information of adjacent blocks supplied from the motion information memory 607, and combines the combined motion information candidate list and the combined motion information candidate that is a component in the list. The reference image designation information and the motion vector value are supplied to the combined motion compensation prediction decoding unit 2605.

結合動き情報算出部2604の動作に関しては、動画像符号化装置における図9の結合
動き情報算出部906と同一の動作が行われ、符号化時の結合動き情報候補リストと同一
の候補リストが生成される。
Regarding the operation of the combined motion information calculation unit 2604, the same operation as that of the combined motion information calculation unit 906 in FIG. 9 in the moving image encoding apparatus is performed, and the same candidate list as the combined motion information candidate list at the time of encoding is generated. Is done.

結合動き補償予測復号部2605は、結合動き情報算出部2604より供給される結合
動き情報候補リストとリスト内の構成要素である結合動き情報候補の参照画像指定情報と
動きベクトル値と、動き情報ビットストリーム復号部2600より供給される結合動き情
報インデックスより、結合動き情報インデックスで示された結合動き情報候補リストにお
ける参照画像指定情報と動きベクトル値を再生し、動き補償予測部608に設定すること
で、動き補償予測信号を生成する。
The combined motion compensated prediction decoding unit 2605 supplies a combined motion information candidate list supplied from the combined motion information calculation unit 2604, reference image designation information of a combined motion information candidate that is a component in the list, a motion vector value, and a motion information bit. The reference image designation information and the motion vector value in the combined motion information candidate list indicated by the combined motion information index are reproduced from the combined motion information index supplied from the stream decoding unit 2600 and set in the motion compensation prediction unit 608. Generate a motion compensated prediction signal.

図28は、図7のステップS701の動き情報復号処理の詳細動作を説明するためのフ
ローチャートである。動き情報ビットストリーム復号部2600と予測ベクトル算出部2
601、及び結合動き情報算出部2604により、図7のステップS701の動き情報復
号処理が行われる。
FIG. 28 is a flowchart for explaining the detailed operation of the motion information decoding process in step S701 of FIG. Motion information bitstream decoding unit 2600 and prediction vector calculation unit 2
The motion information decoding process in step S701 in FIG. 7 is performed by the 601 and the combined motion information calculation unit 2604.

動き情報復号処理は、特定のシンタックス構造で符号化された符号化ビットストリーム
より動き情報を復号する処理である。最初に符号化ブロックの所定単位でSkipフラグ
を復号する(S2700)。以降は予測ブロック単位の処理となる。
The motion information decoding process is a process of decoding motion information from an encoded bit stream encoded with a specific syntax structure. First, the Skip flag is decoded in a predetermined unit of the encoded block (S2700). Thereafter, processing is performed in units of prediction blocks.

SkipフラグがSkipモードを示している場合(S2701:YES)、結合予測
動き情報復号を行う(S2702)。ステップS2702の詳細処理については、後述す
る。
When the Skip flag indicates the Skip mode (S2701: YES), joint prediction motion information decoding is performed (S2702). Detailed processing in step S2702 will be described later.

Skipモードでない場合(S2701:NO)、マージフラグを復号する(S270
3)。マージフラグが1を示している場合(S2704:YES)には、ステップS27
02の結合予測動き情報復号に進む。
When it is not the Skip mode (S2701: NO), the merge flag is decoded (S270).
3). If the merge flag indicates 1 (S2704: YES), step S27
The process proceeds to 02 joint prediction motion information decoding.

マージフラグが1でない場合(S2704:NO)、動き予測フラグを復号し(S27
05)、予測動き情報復号を行う(S2706)。ステップS2706の詳細動作につい
ては、後述する。
When the merge flag is not 1 (S2704: NO), the motion prediction flag is decoded (S27).
05), predictive motion information decoding is performed (S2706). Detailed operation of step S2706 will be described later.

図29は、図28のステップS2702の結合予測動き情報復号処理の詳細動作を説明
するためのフローチャートである。
FIG. 29 is a flowchart for explaining detailed operation of the joint prediction motion information decoding process in step S2702 of FIG.

最初に予測モードに結合予測モードを設定し(S2800)、結合動き情報候補リスト
を生成する(S2801)。ステップS2801の処理は、動画像符号化装置における図
11のステップS1100の結合動き情報候補リスト生成処理と同一の処理である。
First, the combined prediction mode is set as the prediction mode (S2800), and a combined motion information candidate list is generated (S2801). The processing in step S2801 is the same processing as the combined motion information candidate list generation processing in step S1100 of FIG. 11 in the video encoding device.

つぎに、結合動き情報インデックスを復号し(S2802)、続いて、結合動き情報候
補リストより、結合動き情報インデックスで示す位置に格納されている動き情報を取得す
る(S2803)。取得する動き情報としては、単予測/双予測を示す予測種別、参照画
像指定情報、動きベクトル値となる。
Next, the combined motion information index is decoded (S2802), and then the motion information stored at the position indicated by the combined motion information index is acquired from the combined motion information candidate list (S2803). The motion information to be acquired includes a prediction type indicating single prediction / bi-prediction, reference image designation information, and a motion vector value.

生成された動き情報は、結合予測モードの動き情報として格納され(S2804)、結
合動き補償予測復号部2606に供給される。
The generated motion information is stored as motion information in the joint prediction mode (S2804), and is supplied to the joint motion compensation prediction decoding unit 2606.

図30は、図28のステップS2706の予測動き情報復号処理の詳細動作を説明する
ためのフローチャートである。
FIG. 30 is a flowchart for explaining the detailed operation of the prediction motion information decoding process in step S2706 of FIG.

最初に、予測種別が単予測であるか否かを判別する(S2900)。単予測であれば、
処理対象とする参照画像リスト(LX)を予測に用いている参照画像リストに設定する(
S2901)。単予測でなければ、双予測であるから、この場合はLXをL0とする(S
2902)。
First, it is determined whether or not the prediction type is single prediction (S2900). If it is simple prediction,
A reference image list (LX) to be processed is set as a reference image list used for prediction (
S2901). If it is not uni-prediction, it is bi-prediction. In this case, LX is set to L0 (S
2902).

次に、参照画像指定情報を復号し(S2903)、差分ベクトル値を復号する(S29
04)。次に、予測ベクトル候補リストを生成し(S2905)、予測ベクトル候補リス
トが1より大きな場合(S2906:YES)、予測ベクトルインデックスを復号し(S
2907)、予測ベクトル候補リストが1の場合(S2906:NO)、予測ベクトルイ
ンデックスに0を設定する(S2908)。
Next, the reference image designation information is decoded (S2903), and the difference vector value is decoded (S29).
04). Next, a prediction vector candidate list is generated (S2905), and when the prediction vector candidate list is larger than 1 (S2906: YES), the prediction vector index is decoded (S2906).
2907), when the prediction vector candidate list is 1 (S2906: NO), 0 is set to the prediction vector index (S2908).

ここで、ステップS2905では、動画像符号化装置における図26のフローチャート
のステップS2504と同様の処理が行われる。
Here, in step S2905, processing similar to that in step S2504 in the flowchart of FIG. 26 in the video encoding device is performed.

次に、予測ベクトル候補リストより、予測ベクトルインデックスで示す位置に格納され
ている動きベクトル値を取得する(S2909)。復号した差分ベクトル値と動きベクト
ル値を加算することで動きベクトルを再生する(S2910)。
Next, the motion vector value stored at the position indicated by the prediction vector index is acquired from the prediction vector candidate list (S2909). A motion vector is reproduced by adding the decoded difference vector value and motion vector value (S2910).

続いて、再度予測種別が単予測である否かを判別し(S2911)、予測種別が単予測
であればステップS2914に進む。単予測でない、すなわち、双予測であれば、処理対
象の参照リストLXがL1か否かを判定する(S2912)。参照リストLXがL1であ
れば、ステップS2914に進み、L1でない、すなわち、L0であればLXをL1とし
て(S2913)、ステップS2903からステップS2911までの処理と同じ処理が
行われる。
Subsequently, it is determined again whether or not the prediction type is single prediction (S2911). If the prediction type is single prediction, the process proceeds to step S2914. If it is not uni-prediction, that is, if it is bi-prediction, it is determined whether or not the reference list LX to be processed is L1 (S2912). If the reference list LX is L1, the process proceeds to step S2914, and if it is not L1, that is, if it is L0, LX is set to L1 (S2913), and the same processing as the processing from step S2903 to step S2911 is performed.

続いて、生成された動き情報として、単予測の場合には、1つの参照画像に対する参照
画像指定情報と動きベクトル値が、双予測の場合には、2つの参照画像に対する参照画像
指定情報と動きベクトル値が、動き情報として格納され(S2914)、動き補償予測復
号部2603に供給される。
Subsequently, as the generated motion information, in the case of single prediction, reference image designation information and motion vector values for one reference image, and in the case of bi-prediction, reference image designation information and motion for two reference images. The vector value is stored as motion information (S2914) and supplied to the motion compensated prediction decoding unit 2603.

実施の形態1における、動画像符号化装置及び動画像復号装置においては、結合動き
情報算出部において、時間結合動き情報候補リスト生成部を結合動き情報候補リスト削除
部の後段に配置して、空間結合動き情報候補のみを結合動き情報候補削除処理の対象とす
ることにより、少ない演算量で結合動き情報候補リストから同一の動き情報を持つ結合動
き情報候補を適切に削除することが可能となり、その結果、結合動き情報候補リストに新
たな結合動き情報候補を追加することにより結合予測モードに用いることができる動き情
報の種類が増加し、符号化効率を向上させることができる。
In the moving image encoding device and the moving image decoding device according to the first embodiment, in the combined motion information calculation unit, the temporally combined motion information candidate list generation unit is arranged after the combined motion information candidate list deletion unit, and the space By using only combined motion information candidates as targets for combined motion information candidate deletion processing, it becomes possible to appropriately delete combined motion information candidates having the same motion information from the combined motion information candidate list with a small amount of computation. As a result, by adding new combined motion information candidates to the combined motion information candidate list, the types of motion information that can be used in the combined prediction mode are increased, and the coding efficiency can be improved.

また、実施の形態1における、動画像符号化装置及び動画像復号装置においては、動き
情報候補リスト削除部において、動き情報の比較の回数が減少するため、回路規模や処理
時間の削減といった効果も有する。
Further, in the moving image encoding device and the moving image decoding device according to the first embodiment, the number of times of comparison of motion information is reduced in the motion information candidate list deletion unit, so that the effect of reducing the circuit scale and processing time is also obtained. Have.

(実施の形態2)
次に、本発明の実施の形態2を説明する。実施の形態2は、実施の形態1に対して、結
合予測候補削除の動作が異なる。結合予測候補削除の動作以外の構成および処理は実施の
形態1と同一であるので、ここでは図10の結合動き情報候補リスト削除部1001にお
ける結合動き情報リスト削除処理の実施の形態1との差異のみ説明する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. The second embodiment differs from the first embodiment in the operation of deleting combined prediction candidates. Since the configuration and processing other than the combined prediction candidate deletion operation are the same as those in the first embodiment, here, the difference from the first embodiment of the combined motion information list deletion process in the combined motion information candidate list deletion unit 1001 in FIG. Only explained.

図31は、実施の形態2における結合動き情報候補削除の詳細動作を説明するためのフ
ローチャートである。空間結合動き情報候補リスト生成部1000における空間結合動き
情報候補リスト作成処理(S1200)により、生成される結合動き情報候補の最大数を
maxSpatialCandとすると、i=maxSpatialCand−1からi
>0までの結合動き情報候補(候補(i))に対して以下の処理を繰り返し行う(S30
00〜S3004)。
FIG. 31 is a flowchart for explaining a detailed operation of combined motion information candidate deletion in the second embodiment. Assuming that the maximum number of combined motion information candidates generated by the spatially combined motion information candidate list creation process (S1200) in the spatially combined motion information candidate list generation unit 1000 is maxSpatialCand, i = maxSpatialCand-1 to i
The following processing is repeated for candidate combined motion information (candidate (i)) up to> 0 (S30).
00-S3004).

候補(i)が存在していて(S3001のYES)、候補(i)の動き情報(動き情報
(i))と候補(i−1)の動き情報(動き情報(i−1))が同じである場合(S30
02のYES)、候補(i)を結合動き情報候補リストから削除する(S3003)。
The candidate (i) exists (YES in S3001), and the motion information (motion information (i)) of the candidate (i) and the motion information (motion information (i-1)) of the candidate (i-1) are the same. (S30
02), the candidate (i) is deleted from the combined motion information candidate list (S3003).

候補(i)が存在しない場合(S3001のNO)、または存在していても動き情報(
i)と動き情報(i−1)が同一でない場合(S3002のNO)は処理を繰り返す(S
3004)。
When the candidate (i) does not exist (NO in S3001), or even if it exists, the motion information (
If i) and motion information (i-1) are not identical (NO in S3002), the process is repeated (S
3004).

続いて、候補(maxSpatialCand−1)が存在していて(S3005のY
ES)、候補(maxSpatialCand−1)の動き情報(動き情報(maxSp
atialCand−1))と結合動き情報候補リストの最初の結合動き情報候補(動き
情報(0))が同一である場合(S3006のYES)、候補(maxSpatialC
and−1)を削除し(S3007)、処理を終了する。
Subsequently, a candidate (max SpatialCand-1) exists (Y in S3005).
ES), candidate (maxSpatialCand-1) motion information (motion information (maxSp
If (firstCand-1)) and the first combined motion information candidate (motion information (0)) in the combined motion information candidate list are the same (YES in S3006), the candidate (max SpatialC)
and-1) is deleted (S3007), and the process ends.

候補(maxSpatialCand−1)が存在しない場合(S3005のNO)、
または存在していても動き情報(maxSpatialCand−1)と動き情報(0)
が同一でない場合(S3006のNO)はそのまま処理を終了する。
When there is no candidate (max SpatialCand-1) (NO in S3005),
Or even if it exists, the motion information (maxSpatialCand-1) and the motion information (0)
Are not identical (NO in S3006), the process is terminated as it is.

図32は、空間結合動き情報候補の最大数が4である場合の実施の形態2における結合
動き情報候補削除における候補の比較内容の一例である。図32に示すように、空間結合
動き情報候補の最大数が4である場合には、4回の比較のみ行う。
FIG. 32 is an example of comparison contents of candidates in combined motion information candidate deletion in Embodiment 2 when the maximum number of spatially combined motion information candidates is 4. As shown in FIG. 32, when the maximum number of spatially coupled motion information candidates is 4, only four comparisons are performed.

図33に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち
、時間結合動き情報候補を含まない4つの空間結合動き情報候補について、結合動き情報
候補リストの配列順において隣り合う候補同士を比較し、かつ、最上位の候補と最下位の
候補を比較することにより、同一性を判定し、重複する候補を削除する。
FIG. 33 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, for four spatially combined motion information candidates that do not include temporally combined motion information candidates, the candidates that are adjacent in the sequence order of the combined motion information candidate list are compared, and the highest candidate and the lowest candidate are compared. As a result, identity is determined, and duplicate candidates are deleted.

図34は、空間結合動き情報候補の最大数が4である場合の結合動き情報候補削除処理
における周辺ブロックの比較を説明する図である。図34(a)はブロックA1、B1、
B0、A0が使用可能である場合の例を示している。ブロックA1、B1、B0、A0が
使用可能である場合には、前述した空間結合動き情報候補リスト作成処理により作成され
る結合動き情報候補リストは{A1,B1,B0,A0}となるから、結合動き情報候補
削除における動き情報の比較は図32(a)の矢印の関係において行われる。
FIG. 34 is a diagram for explaining comparison of neighboring blocks in the combined motion information candidate deletion process when the maximum number of spatially combined motion information candidates is four. FIG. 34 (a) shows blocks A1, B1,
An example in which B0 and A0 are usable is shown. When the blocks A1, B1, B0, and A0 are usable, the combined motion information candidate list created by the above-described spatially coupled motion information candidate list creation process is {A1, B1, B0, A0}. The comparison of the motion information in the combined motion information candidate deletion is performed in the relationship of the arrows in FIG.

同様に、図34(b)はブロックB1、B0、A0、B2が使用可能である場合、図3
4(c)はブロックA1、B1、B0、B2が使用可能である場合の結合動き情報候補削
除における動き情報の比較の関係を示している。
Similarly, FIG. 34 (b) shows a case where blocks B1, B0, A0, and B2 are usable.
4 (c) shows a relationship of motion information comparison in combined motion information candidate deletion when the blocks A1, B1, B0, and B2 are usable.

ここで、動き情報は空間方向に連続性が強いことから、隣接するブロックでは動き情報
が同一である確率が高く、一方隣接していないブロックでは動き情報が同一である確率は
低くなる。よって、結合動き情報候補削除処理において、隣接するブロック間の比較のみ
行っても同一の動き情報を適切に削除することが可能である。
Here, since the motion information is strongly continuous in the spatial direction, the probability that the motion information is the same in adjacent blocks is high, while the probability that the motion information is the same in a non-adjacent block is low. Therefore, in the combined motion information candidate deletion process, it is possible to appropriately delete the same motion information even if only comparison between adjacent blocks is performed.

また、隣接するブロックの動き情報のみを比較するために、周辺候補ブロック群のうち
予め定めたブロック位置の動き情報同士を比較するという方法も考えられるが、その場合
結合動き情報候補リストの各動き情報候補のブロック位置をすべて記録しておく必要があ
り、回路規模の増大や処理の複雑化につながる。
In addition, in order to compare only the motion information of adjacent blocks, a method of comparing motion information at predetermined block positions in the peripheral candidate block group is also conceivable, but in this case, each motion in the combined motion information candidate list is considered. It is necessary to record all the block positions of information candidates, which leads to an increase in circuit scale and complexity of processing.

そこで、本発明の実施の形態2における結合動き情報候補削除では、結合動き情報候補
のブロック位置にかかわらず、結合動き情報候補リストに追加された順番で比較を行った
うえ、結合動き情報候補リストの最後の候補と最初の候補の比較を行うことにより、図3
4に示すように隣接するブロック間の動き情報の比較が可能であり、少ない比較回数で同
一の動き情報を適切に削除することが可能である。
Therefore, in the combined motion information candidate deletion in Embodiment 2 of the present invention, the combined motion information candidate list is compared in the order added to the combined motion information candidate list regardless of the block position of the combined motion information candidate. By comparing the last candidate and the first candidate in FIG.
As shown in FIG. 4, motion information between adjacent blocks can be compared, and the same motion information can be appropriately deleted with a small number of comparisons.

(実施の形態3)
次に、本発明の実施の形態3を説明する。実施の形態3は、実施の形態1に対して、結
合予測候補削除の動作が異なる。結合予測候補削除の動作以外の構成および処理は実施の
形態1と同一であるので、ここでは図10の結合動き情報候補リスト削除部1001にお
ける結合動き情報リスト削除処理の実施の形態1との差異のみ説明する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. The third embodiment differs from the first embodiment in the operation of deleting combined prediction candidates. Since the configuration and processing other than the combined prediction candidate deletion operation are the same as those in the first embodiment, here, the difference from the first embodiment of the combined motion information list deletion process in the combined motion information candidate list deletion unit 1001 in FIG. Only explained.

図35は、実施の形態3における結合動き情報候補削除の詳細動作を説明するためのフ
ローチャートである。空間結合動き情報候補リスト生成部1000における空間結合動き
情報候補リスト作成処理(S1200)により、生成された結合動き情報候補の数をnu
mCand、結合動き情報候補削除の動作における結合動き情報候補比較の演算回数をn
umCompareとすると、i=numCompare[numCand]−1からi
>=0まで以下の処理を繰り返し行う(S3300〜S3303)。
FIG. 35 is a flowchart for explaining the detailed operation of combined motion information candidate deletion in the third embodiment. The number of combined motion information candidates generated by the spatially combined motion information candidate list creation processing (S1200) in the spatially combined motion information candidate list generation unit 1000 is expressed as nu.
mCand, the combined motion information candidate comparison operation count in the combined motion information candidate deletion operation is n
When umCompare, i = numCompare [numCand] −1 to i
The following processing is repeated until> = 0 (S3300 to S3303).

ここで、比較演算回数numCompare[i]はnumCandの値に応じて図3
7(a)のように定めるものとする。またiの値に応じて比較候補インデックスcur[
i]と参照候補インデックスref[i]の値を図37(b)のように定める。
Here, the number of comparison operations numCompare [i] depends on the value of numCand.
It shall be determined as in 7 (a). Further, the comparison candidate index cur [
i] and reference candidate index ref [i] are determined as shown in FIG.

結合動き情報候補リストのインデックスcur[i]の結合動き情報候補(候補(cu
r[i]))の動き情報(動き情報(cur[i]))と候補(ref[i])の動き情
報(動き情報(ref[i]))が同じである場合(S3301のYES)、候補(cu
r[i])を結合動き情報候補リストから削除する(S3302)。
The combined motion information candidate (candidate (cu
r [i])) motion information (motion information (cur [i])) and candidate (ref [i]) motion information (motion information (ref [i])) are the same (YES in S3301) , Candidate (cu
r [i]) is deleted from the combined motion information candidate list (S3302).

動き情報(cur[i])と動き情報(ref[i])が同一でない場合(S3301
のNO)は処理を繰り返す(S3303)。
When the motion information (cur [i]) and the motion information (ref [i]) are not the same (S3301)
NO) repeats the process (S3303).

図36に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち
、時間結合動き情報候補を含まない4つの空間結合動き情報候補について、結合動き情報
候補リストの配列順において最上位から3番目までに含まれる候補について、総当たりで
比較し、さらに必要に応じて最上位の候補と最下位の候補を比較することにより、同一性
を判定し、重複する候補を削除する。
FIG. 36 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, for the four spatially combined motion information candidates that do not include the temporally combined motion information candidates, the candidates included from the top to the third in the order of arrangement in the combined motion information candidate list are compared brute force, and if necessary By comparing the highest candidate with the lowest candidate, the identity is determined, and duplicate candidates are deleted.

図37に示すように、本発明の実施の形態3における結合予測候補削除の動作において
は、動き情報の比較の回数は空間結合動き情報候補リスト生成部で生成された結合動き情
報候補リストの結合動き情報候補の数により、0回から4回となり、すべての動き情報を
比較した場合と比べて、比較回数を大きく削減することが可能である。
As shown in FIG. 37, in the combined prediction candidate deletion operation according to Embodiment 3 of the present invention, the number of motion information comparisons is the combination of combined motion information candidate lists generated by the spatially combined motion information candidate list generation unit. Depending on the number of motion information candidates, the number of times is 0 to 4, and the number of comparisons can be greatly reduced as compared to the case where all motion information is compared.

また、結合動き情報候補リストの最初の3つの結合動き候補に関してはすべての組み合
わせの比較が行われているので、比較回数の削減により同一の動き情報を持つ結合動き情
報候補が削除できなかった場合にも同一の動き情報は結合動き情報候補リストの後半にの
み存在する。
In addition, since all combinations are compared for the first three combined motion candidates in the combined motion information candidate list, the combined motion information candidates having the same motion information cannot be deleted due to the reduction of the number of comparisons. The same motion information exists only in the second half of the combined motion information candidate list.

前述したように、結合動き情報インデックスの符号列はTruncated Unar
y符号列を用いるため、符号列の短い小さなインデックス値に冗長な動き情報が存在する
と符号化効率の低下につながるが、本発明の実施の形態3における結合動き情報候補削除
の方法によれば、小さなインデックス値の結合動き情報候補リストの同一の動き情報は確
実に削除することができるので、処理負荷を低減しながら、動き情報の符号化効率を向上
させることが可能である。
As described above, the code sequence of the combined motion information index is Truncated Unar.
Since the y code string is used, if redundant motion information exists in a short small index value of the code string, it leads to a decrease in coding efficiency, but according to the combined motion information candidate deletion method in Embodiment 3 of the present invention, Since the same motion information in the combined motion information candidate list having a small index value can be surely deleted, the coding efficiency of motion information can be improved while reducing the processing load.

(実施の形態4)
次に、本発明の実施の形態4を説明する。実施の形態4は、実施の形態2に対して結合
予測候補削除の動作が異なる。結合予測候補削除の動作以外の構成および処理は実施の形
態2と同一であるので、ここでは図10の結合動き情報候補リスト削除部1001におけ
る結合動き情報リスト削除処理の実施の形態1との差異のみ説明する。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. The fourth embodiment differs from the second embodiment in the operation of deleting combined prediction candidates. Since the configuration and processing other than the combined prediction candidate deletion operation are the same as those in the second embodiment, here, the difference from the first embodiment of the combined motion information list deletion process in the combined motion information candidate list deletion unit 1001 in FIG. Only explained.

図38は、実施の形態4における結合動き情報候補削除の詳細動作を説明するためのフ
ローチャートである。はじめに、空間結合動き情報候補リスト生成部1000における空
間結合動き情報候補リスト作成処理(S1200)により、生成された結合動き情報候補
の数をnumCand、結合動き情報候補の最大数をmaxSpatialCandとし
たとき、numCand>0であるなら(S3500のYES)、i=maxSpati
alCand−1からi>=numCandまでの結合動き情報候補(候補(i))の値
を結合動き情報候補リストの最後の結合動き情報候補(候補(numCand−1))と
する(S3501〜S3503)。
FIG. 38 is a flowchart for explaining detailed operation of combined motion information candidate deletion in the fourth embodiment. First, when the number of combined motion information candidates generated by the spatially combined motion information candidate list creation process (S1200) in the spatially combined motion information candidate list generation unit 1000 is numCand, and the maximum number of combined motion information candidates is maxSpatialCand, If numCand> 0 (YES in S3500), i = maxSpati
The value of the combined motion information candidate (candidate (i)) from alCand-1 to i> = numCand is set as the last combined motion information candidate (candidate (numCand-1)) in the combined motion information candidate list (S3501 to S3503). .

numCandが0以下であるなら(S3500のNO)何も行わずに処理を終了する
If numCand is 0 or less (NO in S3500), the process is terminated without doing anything.

次に、i=maxSpatialCand−1からi>0までの結合動き情報候補(候
補(i))に対して以下の処理を繰り返し行う(S3504〜S3507)。
Next, the following processing is repeated for the combined motion information candidates (candidate (i)) from i = maxSpatialCand-1 to i> 0 (S3504 to S3507).

候補(i)の動き情報(動き情報(i))と候補(i−1)の動き情報(動き情報(i
−1))が同じである場合(S3505のYES)、候補(i)を結合動き情報候補リス
トから削除する(S3506)。
Candidate (i) motion information (motion information (i)) and candidate (i-1) motion information (motion information (i
-1)) is the same (YES in S3505), the candidate (i) is deleted from the combined motion information candidate list (S3506).

動き情報(i)と動き情報(i−1)が同一でない場合(S3505のNO)は処理を
繰り返す(S3507)。
If the motion information (i) and the motion information (i-1) are not the same (NO in S3505), the process is repeated (S3507).

続いて、候補(maxSpatialCand−1)が存在していて(S3508のY
ES)、候補(maxSpatialCand−1)の動き情報(動き情報(maxSp
atialCand−1))と結合動き情報候補リストの最初の結合動き情報候補(動き
情報(0))が同一である場合(S3509のYES)、候補(maxSpatialC
and−1)を削除し(S3510)、処理を終了する。
Subsequently, a candidate (maxSpatialCand-1) exists (Y in S3508).
ES), candidate (maxSpatialCand-1) motion information (motion information (maxSp
If (firstCand-1)) and the first combined motion information candidate (motion information (0)) in the combined motion information candidate list are the same (YES in S3509), the candidate (max SpatialC)
and-1) is deleted (S3510), and the process is terminated.

候補(maxSpatialCand−1)が存在しない場合(S3508のNO)、
または存在していても動き情報(maxSpatialCand−1)と動き情報(0)
が同一でない場合(S3509のNO)はそのまま処理を終了する。
When there is no candidate (max SpatialCand-1) (NO in S3508),
Or even if it exists, the motion information (maxSpatialCand-1) and the motion information (0)
Are not the same (NO in S3509), the process is terminated as it is.

本発明の実施の形態4における結合動き情報候補削除の動作は、実施の形態2における
結合動き情報候補削除の動作に対し、S3500〜S3503を追加した点と、S300
01を削除した点が異なる。S3500〜S3503を追加したことにより、空間結合動
き情報候補リスト生成部1000における空間結合動き情報候補リスト作成処理(S12
00)により、生成された結合動き情報候補の数が空間結合動き情報候補の最大数に満た
ない場合において、結合動き情報候補の最大数まで結合動き情報候補の末尾の結合動き情
報候補を追加している。
The combined motion information candidate deletion operation according to Embodiment 4 of the present invention is the addition of S3500 to S3503 to the combined motion information candidate deletion operation according to Embodiment 2, and S300.
The difference is that 01 is deleted. By adding S3500 to S3503, the spatially coupled motion information candidate list creation process (S12) in the spatially coupled motion information candidate list generation unit 1000 is performed.
00), the combined motion information candidates at the end of the combined motion information candidates are added up to the maximum number of combined motion information candidates when the number of generated combined motion information candidates is less than the maximum number of spatially combined motion information candidates. ing.

図39に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち
、結合動き情報候補リストに登録された候補数が所定の最大候補数に満たない場合、結合
動き情報候補リストの最下位の候補を複製して空き候補を埋めた上で、結合動き情報候補
リストの配列順において隣り合う候補同士を比較し、かつ、最上位の候補と最下位の候補
を比較することにより、同一性を判定し、重複する候補を削除する。たとえば、候補が一
つ足りないときに3番目の候補を4番目にコピーした上で隣り合う候補同士を比較し、か
つ、最上位の候補と最下位の候補を比較すると、結果的に3つの候補について総当たりの
比較をしたことと実質的に同じになる。
FIG. 39 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, when the number of candidates registered in the combined motion information candidate list is less than the predetermined maximum number of candidates, the lowest candidate in the combined motion information candidate list is copied to fill in the empty candidates, and then the combined motion information candidate By comparing adjacent candidates in the arrangement order of the list, and comparing the highest candidate with the lowest candidate, the identity is determined, and duplicate candidates are deleted. For example, when one candidate is missing, the third candidate is copied fourth, the adjacent candidates are compared, and the top candidate and the bottom candidate are compared, resulting in three This is essentially the same as a brute force comparison of candidates.

図40は本発明の実施の形態4における結合動き情報候補削除の動作を説明する図であ
る。図40(a)は生成された結合動き情報候補の数が3、空間結合動き情報候補の最大
数が4の場合の先頭候補追加前の追加後の結合動き情報候補を示している。このように、
インデックス3の位置にリストの最後の結合動き情報候補が追加されるので、S3504
〜S3507における結合動き情報候補の比較は図40(b)のようになり、生成された
結合動き情報候補の数が空間結合動き情報候補の最大数に満たない場合にはすべての組み
合わせで比較が行われることとなり、確実に同一の動き情報の結合動き情報候補を削除す
ることが可能である。
FIG. 40 is a diagram for explaining the operation of deleting combined motion information candidates in the fourth embodiment of the present invention. FIG. 40A shows the combined motion information candidates after addition before adding the leading candidate when the number of generated combined motion information candidates is 3 and the maximum number of spatially combined motion information candidates is 4. in this way,
Since the last combined motion information candidate in the list is added at the position of index 3, S3504
The comparison of combined motion information candidates in S3507 is as shown in FIG. 40 (b). When the number of combined motion information candidates generated is less than the maximum number of spatially combined motion information candidates, all combinations are compared. It is possible to delete the combined motion information candidates of the same motion information without fail.

(実施の形態5)
次に、本発明の実施の形態5を説明する。実施の形態5は、実施の形態1に対して、結
合予測候補削除の動作が異なる。結合予測候補削除の動作以外の構成および処理は実施の
形態1と同一であるので、ここでは図10の結合動き情報候補リスト削除部1001にお
ける結合動き情報リスト削除処理の実施の形態1との差異のみ説明する。
(Embodiment 5)
Next, a fifth embodiment of the present invention will be described. Embodiment 5 differs from Embodiment 1 in the operation of deleting combined prediction candidates. Since the configuration and processing other than the combined prediction candidate deletion operation are the same as those in the first embodiment, here, the difference from the first embodiment of the combined motion information list deletion process in the combined motion information candidate list deletion unit 1001 in FIG. Only explained.

図41は、実施の形態3における結合動き情報候補削除の詳細動作を説明するためのフ
ローチャートである。空間結合動き情報候補リスト生成部1000における空間結合動き
情報候補リスト作成処理(S1200)により、生成される結合動き情報候補の最大数を
maxSpatialCandとすると、i=maxSpatialCand−1からi
>=0まで以下の処理を繰り返し行う(S3700〜S3704)。
FIG. 41 is a flowchart for explaining detailed operation of combined motion information candidate deletion in the third embodiment. Assuming that the maximum number of combined motion information candidates generated by the spatially combined motion information candidate list creation process (S1200) in the spatially combined motion information candidate list generation unit 1000 is maxSpatialCand, i = maxSpatialCand-1 to i
The following processing is repeated until> = 0 (S3700 to S3704).

ここで、iの値に応じて比較候補インデックスcur[i]と参照候補インデックスr
ef[i]の値を図43のように定める。
Here, according to the value of i, the comparison candidate index cur [i] and the reference candidate index r
The value of ef [i] is determined as shown in FIG.

結合動き情報候補リストのインデックスcur[i]の結合動き情報候補(候補(cu
r[i]))が存在していて(S3701のYES)、候補(cur[i])の動き情報
(動き情報(cur[i]))と候補(ref[i])の動き情報(動き情報(ref[
i]))が同じである場合(S3702のYES)、候補(cur[i])を結合動き情
報候補リストから削除する(S3703)。
The combined motion information candidate (candidate (cu
r [i])) exists (YES in S3701), the motion information (motion information (cur [i])) of the candidate (cur [i]) and the motion information (motion of the candidate (ref [i])) Information (ref [
i])) is the same (YES in S3702), the candidate (cur [i]) is deleted from the combined motion information candidate list (S3703).

候補(cur[i])が存在しない場合(S3701のNO)、または存在していても
動き情報(cur[i])と動き情報(ref[i])が同一でない場合(S3702の
NO)は処理を繰り返す(S3004)。
When there is no candidate (cur [i]) (NO in S3701), or even if it exists, the motion information (cur [i]) and the motion information (ref [i]) are not the same (NO in S3702). The process is repeated (S3004).

図42に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち
、時間結合動き情報候補を含まない4つの空間結合動き情報候補について、結合動き情報
候補リストの配列順において最上位から3番目までについては隣り合う候補同士を比較し
、最下位の候補と最上位の候補を比較し、さらに最下位の候補と2番目の候補を比較する
ことにより、同一性を判定し、重複する候補を削除する。
FIG. 42 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, for the four spatially combined motion information candidates that do not include the temporally combined motion information candidate, adjacent candidates are compared for the top to third in the order of arrangement in the combined motion information candidate list, and the lowest candidate and the lowest candidate are compared. By comparing the upper candidates and further comparing the lowest candidate with the second candidate, the identity is determined, and duplicate candidates are deleted.

図43に示すように、本発明の実施の形態5における結合予測候補削除の動作において
は、動き情報の比較の回数は4回となり、すべての動き情報を比較した場合と比べて、比
較回数を大きく削減することが可能である。
As shown in FIG. 43, in the combined prediction candidate deletion operation according to Embodiment 5 of the present invention, the number of comparisons of motion information is 4, and the number of comparisons is smaller than when all motion information is compared. It can be greatly reduced.

図44は、空間結合動き情報候補の最大数が4で、空間結合動き情報候補ブロックのう
ちブロックA0が使用不可能である場合の本発明の実施の形態5における結合予測候補削
除処理における周辺ブロックの比較を説明する図である。図44に示すように、本発明の
実施の形態5における空間結合動き情報候補削除の動作によれば、ブロックA0が使用不
可能である場合に、隣接するブロック間で適切に比較が行われている。
FIG. 44 shows neighboring blocks in the combined prediction candidate deletion process according to Embodiment 5 of the present invention when the maximum number of spatially combined motion information candidates is 4 and block A0 is unusable among spatially combined motion information candidate blocks. It is a figure explaining the comparison of. As shown in FIG. 44, according to the operation of spatially coupled motion information candidate deletion in the fifth embodiment of the present invention, when block A0 is unusable, an appropriate comparison is performed between adjacent blocks. Yes.

また、図45は様々な予測ブロックサイズ、CU内分割モードにおいてブロックA0の
使用可能状況を示した図である。図45においては、ブロックA0が使用可能である予測
ブロックは○、使用不可能である予測ブロックは×で示している。図45に示すように、
ブロックA0は使用不可能となる頻度が高いため、ブロックA0が使用不可能となる場合
に適切に比較が行われることにより、高い頻度で同一の動き情報を適切に削除することが
できるので、処理負荷を低減しながら、動き情報の符号化効率を向上させることが可能で
ある。
FIG. 45 is a diagram showing a usable state of the block A0 in various prediction block sizes and the intra-CU division mode. In FIG. 45, a prediction block that can be used by the block A0 is indicated by ◯, and a prediction block that cannot be used is indicated by ×. As shown in FIG.
Since the frequency at which the block A0 becomes unusable is high, the same motion information can be appropriately deleted at a high frequency by appropriately performing a comparison when the block A0 becomes unusable. It is possible to improve the encoding efficiency of motion information while reducing the load.

(実施の形態6)
次に、本発明の実施の形態6を説明する。実施の形態6は、実施の形態3に対して、結
合動き情報算出部906の構成、図11のステップS1100の結合動き情報候補リスト
生成の詳細動作および結合予測候補削除の動作における比較演算回数numCompar
e[i]、比較候補インデックスcur[i]および参照候補インデックスref[i]
の値が異なる。それ以外の構成および処理は実施の形態3と同一であるので、ここでは結
合動き情報算出部906の構成、図11のステップS1100の結合動き情報候補リスト
生成の詳細動作および結合予測候補削除における比較演算回数numCompare[i
]、比較候補インデックスcur[i]および参照候補インデックスref[i]の値の
実施の形態3との差異のみ説明する。
(Embodiment 6)
Next, a sixth embodiment of the present invention will be described. The sixth embodiment is different from the third embodiment in the number of comparison operations numCompar in the configuration of the combined motion information calculation unit 906, the detailed operation of the combined motion information candidate list generation in step S1100 in FIG.
e [i], comparison candidate index cur [i], and reference candidate index ref [i]
The value of is different. Since other configurations and processing are the same as those in the third embodiment, here, the configuration of the combined motion information calculation unit 906, the detailed operation of combined motion information candidate list generation in step S1100 of FIG. 11, and the comparison in combined prediction candidate deletion Number of operations numCompare [i
], Only differences between the values of the comparison candidate index cur [i] and the reference candidate index ref [i] from the third embodiment will be described.

図46は、本発明の実施の形態6における結合動き情報算出部906の構成を示す図で
ある。結合動き情報算出部906は、空間結合動き情報候補リスト生成部4000、時間
結合動き情報候補リスト生成部4002、結合動き情報候補リスト削除部4001、第1
結合動き情報候補リスト追加部4003および第2結合動き情報候補リスト追加部400
4を含む。結合動き情報算出部906は、空間的に隣接する候補ブロック群より所定の順
番で動き情報の候補を作成し、その中から、同一の動き情報を持つ候補を削除したのち、
時間的に隣接する候補ブロック群より作成した動き情報の候補を追加することで、有効な
動き情報のみを結合動き情報候補として登録する。
FIG. 46 is a diagram showing a configuration of the combined motion information calculation unit 906 according to Embodiment 6 of the present invention. The combined motion information calculation unit 906 includes a spatially combined motion information candidate list generation unit 4000, a temporally combined motion information candidate list generation unit 4002, a combined motion information candidate list deletion unit 4001, a first
Combined motion information candidate list adding unit 4003 and second combined motion information candidate list adding unit 400
4 is included. The combined motion information calculation unit 906 creates motion information candidates in a predetermined order from spatially adjacent candidate block groups, and deletes candidates having the same motion information from the candidates,
By adding motion information candidates created from temporally adjacent candidate block groups, only valid motion information is registered as combined motion information candidates.

また、図47は本発明の実施の形態6における図11のステップS1100の結合動き
情報候補リスト生成の詳細動作を説明するためのフローチャートである。この動作は、図
9の結合動き情報算出部906における構成の本発明の実施の形態6における詳細動作を
示している。
FIG. 47 is a flowchart for explaining the detailed operation of generating the combined motion information candidate list in step S1100 of FIG. 11 in the sixth embodiment of the present invention. This operation shows the detailed operation in the sixth embodiment of the present invention having the configuration in the combined motion information calculation unit 906 in FIG.

図47の空間結合動き情報候補リスト生成(S4200)、時間結合動き情報候補リス
ト生成(S4202)、第1結合動き情報候補リスト追加(S4203)および第2結合
動き情報候補リスト追加(S4204)の動作は、本発明の実施の形態3における図12
の同じ番号を付与したステップと同一であるので説明を割愛する。
Operations of the spatially combined motion information candidate list generation (S4200), the temporally combined motion information candidate list generation (S4202), the first combined motion information candidate list addition (S4203), and the second combined motion information candidate list addition (S4204) of FIG. FIG. 12 in Embodiment 3 of the present invention.
Since this is the same as the step assigned with the same number, the description is omitted.

結合動き情報候補リスト削除部4001は、時間結合動き情報候補リスト生成部400
2にて生成された結合動き情報候補リストより、同一の動き情報を持つ結合動き情報候補
を削除して動き情報候補リストを更新する(S4201)。この結合動き情報候補リスト
削除部4001を時間結合動き情報候補リスト生成部4002より後段に配置し、後述す
る結合予測候補削除動作における結合予測候補削除処理に時間結合動き情報候補を含めた
点が、本発明の実際の形態6における特徴である。
The combined motion information candidate list deletion unit 4001 is a time combined motion information candidate list generation unit 400.
The combined motion information candidate having the same motion information is deleted from the combined motion information candidate list generated in 2 to update the motion information candidate list (S4201). This combined motion information candidate list deletion unit 4001 is arranged after the temporal combined motion information candidate list generation unit 4002 and includes the combined temporal motion information candidate in the combined prediction candidate deletion process in the combined prediction candidate deletion operation described later. It is the characteristic in the actual form 6 of this invention.

次に、本発明の実施の形態6における結合予測候補削除の詳細動作を図35および図4
8を用いて説明する。図35は本発明の実施の形態6における結合予測候補削除の詳細動
作を説明するフローチャートであり、本発明の実施の形態3における結合予測候補削除の
詳細動作と同一である。
Next, detailed operation of combined prediction candidate deletion according to Embodiment 6 of the present invention will be described with reference to FIGS.
8 will be used for explanation. FIG. 35 is a flowchart for explaining the detailed operation of joint prediction candidate deletion in the sixth embodiment of the present invention, which is the same as the detailed operation of joint prediction candidate deletion in the third embodiment of the present invention.

また、時間結合動き情報候補リスト生成部4002にて生成された結合動き情報候補リ
ストに含まれる結合予測候補の数をnumCandとし、比較演算回数numCompa
re[i]をnumCandの値に応じて図48(a)のように、比較候補インデックス
cur[i]と参照候補インデックスref[i]の値をiの値に応じて図48(b)の
ように定める。
The number of combined prediction candidates included in the combined motion information candidate list generated by the temporal combined motion information candidate list generation unit 4002 is numCand, and the number of comparison operations numCompa.
As shown in FIG. 48A, re [i] is changed according to the value of numCand, and the values of the comparison candidate index cur [i] and the reference candidate index ref [i] are changed according to the value of i as shown in FIG. Determine as follows.

本発明の実施の形態6においては、空間結合動き情報候補リスト生成部4000におい
て生成される空間結合予測候補の数の最大値は4であり、さらに時間結合動き情報候補リ
スト生成部4002において時間結合動き情報候補が生成されるため、結合予測候補リス
トに含まれる結合予測候補の数の最大値は5であるが、図48(a)に示すように比較演
算回数numCompare[i]はnumCandの値が5のときも4となっている。
In Embodiment 6 of the present invention, the maximum number of spatially coupled prediction candidates generated by spatially coupled motion information candidate list generating section 4000 is 4, and temporal coupled motion information candidate list generating section 4002 is temporally coupled. Since motion information candidates are generated, the maximum number of combined prediction candidates included in the combined prediction candidate list is 5, but the number of comparison operations numCompare [i] is the value of numCand as shown in FIG. Is 4 when is 5.

すなわち、空間結合動き情報候補リスト生成部4000にて生成された空間動き情報候
補の数が最大値である4である場合には、時間結合動き情報候補リスト生成部4002に
て生成された時間結合動き情報候補は結合予測候補削除動作における比較演算の対象とな
らないので、結合動き情報候補削除(S4201)を時間結合動き情報候補リスト生成(
S4202)の前段で行う動作、すなわち、本発明の実施の形態3における結合動き情報
候補リスト生成の動作と同様の動作となる。
That is, when the number of spatial motion information candidates generated by the spatial combination motion information candidate list generation unit 4000 is 4, which is the maximum value, the temporal combination generated by the time combination motion information candidate list generation unit 4002 Since the motion information candidate is not a target of the comparison operation in the combined prediction candidate deletion operation, the combined motion information candidate deletion (S4201) is generated as a time combined motion information candidate list (
The operation performed in the previous stage of S4202), that is, the operation similar to the operation of the combined motion information candidate list generation in the third embodiment of the present invention is performed.

一方、空間結合動き情報候補リスト生成部4000にて生成された空間動き情報候補の
数が最大値である4に満たない場合には、時間結合動き情報候補リスト生成部4002に
て生成された時間結合動き情報候補も結合予測候補削除動作における比較演算の対象とな
る。
On the other hand, when the number of spatial motion information candidates generated by the spatial combination motion information candidate list generation unit 4000 is less than 4, which is the maximum value, the time generated by the time combination motion information candidate list generation unit 4002 The combined motion information candidate is also subjected to a comparison operation in the combined prediction candidate deletion operation.

図49に空間結合動き情報候補が4つの場合および空間結合動き情報候補が3つの場合
のリスト中の候補の比較関係を示す。すなわち、空間結合動き情報候補が4つの場合(図
49(a))、時間結合動き情報候補を含まない4つの空間結合動き情報候補について、
結合動き情報候補リストの配列順において最上位から3番目までに含まれる候補について
、総当たりで比較し、さらに必要に応じて最上位の候補と最下位の候補を比較することに
より、同一性を判定し、重複する候補を削除する。空間結合動き情報候補が3つの場合(
図49(b))、時間結合動き情報候補を含めて4つの結合動き情報候補について、結合
動き情報候補リストの配列順において最上位から3番目までに含まれる候補について、総
当たりで比較し、さらに必要に応じて最上位の候補と最下位の候補を比較することにより
、同一性を判定し、重複する候補を削除する。
FIG. 49 shows a comparison relationship between candidates in the list when there are four spatially coupled motion information candidates and when there are three spatially coupled motion information candidates. That is, when there are four spatially coupled motion information candidates (FIG. 49A), four spatially coupled motion information candidates that do not include temporally coupled motion information candidates are as follows:
For the candidates included in the combined motion information candidate list from the top to the third in the order of arrangement, a brute force comparison is made, and if necessary, the highest candidate and the lowest candidate are compared, thereby identifying the identity. Determine and remove duplicate candidates. When there are three spatially coupled motion information candidates (
FIG. 49 (b)), for the four combined motion information candidates including the temporal combined motion information candidates, the candidates included from the top to the third in the arrangement order of the combined motion information candidate list are compared brute force, Furthermore, the identity is determined by comparing the highest candidate and the lowest candidate as necessary, and duplicate candidates are deleted.

よって、有効な空間動き情報候補の数が最大値である場合に特性の異なる時間結合動き
情報候補を結合動き情報候補削除の処理の対象から除いて処理負荷を低減し、有効な空間
動き情報候補の数が最大値に満たない場合には、時間結合動き情報候補を結合動き情報候
補削除の処理の対象とすることで同じ処理負荷で結合動き情報候補削除の処理の精度をさ
らにあげることができるので、処理負荷を低減しながら、動き情報の符号化効率を向上さ
せることが可能である。
Therefore, when the number of effective spatial motion information candidates is the maximum value, the temporally combined motion information candidates having different characteristics are excluded from the target of the combined motion information candidate deletion process, and the processing load is reduced. If the number of the motion information candidates is less than the maximum value, the combined motion information candidate deletion processing accuracy can be further increased with the same processing load by using the temporally combined motion information candidates as the target of the combined motion information candidate deletion processing. Therefore, it is possible to improve the encoding efficiency of motion information while reducing the processing load.

なお、上記の説明では、実施の形態6において、結合予測候補の比較方法は実施の形態
3の方法を用いた例を説明したが、実施の形態6において、結合予測候補の比較方法は実
施の形態1、2、4、5のいずれの方法を適用してもよい。
In the above description, an example in which the method of Embodiment 3 is used as the combined prediction candidate comparison method has been described in Embodiment 6, but in Embodiment 6, the combined prediction candidate comparison method is implemented. Any of the methods of forms 1, 2, 4, and 5 may be applied.

以上述べた実施の形態の動画像符号化装置および動画像復号装置は以下の技術的特徴を
有する。
The moving picture encoding apparatus and moving picture decoding apparatus according to the embodiments described above have the following technical features.

[1]マージ符号化技術における候補削除処理において、候補削除処理を時間結合動き
情報候補生成よりも先に行って、時間結合予測候補を候補削除処理の対象から除いた(図
10、図12のステップS1201とS1202参照)。これにより、符号化効率を保ち
つつ、候補削除処理における候補比較の演算回数が削減できる。
[1] In the candidate deletion process in the merge coding technique, the candidate deletion process is performed prior to the generation of the temporal combination motion information candidate, and the temporal combination prediction candidates are excluded from the candidates for the candidate deletion process (FIGS. 10 and 12). Steps S1201 and S1202). As a result, the number of candidate comparison operations in the candidate deletion process can be reduced while maintaining encoding efficiency.

[2]マージ符号化技術における候補削除処理において、結合動き情報候補リストに追
加された結合動き情報候補を、リストに追加された順番で比較を行ったうえ、さらに最後
の候補と最初の候補の比較を行うようにした(図31のステップS3000からS301
8参照)。
[2] In the candidate deletion process in the merge coding technique, the combined motion information candidates added to the combined motion information candidate list are compared in the order of addition to the list, and the last candidate and the first candidate are further compared. Comparison is made (from steps S3000 to S301 in FIG. 31).
8).

[3]マージ符号化技術における候補削除処理において、結合動き情報候補リストに含
まれる結合動き情報候補の同一性を判定する比較演算処理を予め既定したインデックス対
して予め既定した回数行うようにした(図35のステップS3300からS3303、図
37、図41のステップS3700からS3704、図43、図47のステップS420
0からS4204、図48参照)。
[3] In the candidate deletion process in the merge coding technique, the comparison calculation process for determining the identity of the combined motion information candidates included in the combined motion information candidate list is performed a predetermined number of times for a predetermined index ( 35, steps S3300 to S3303, FIG. 37, steps S3700 to S3704 of FIG. 41, and steps S420 of FIG. 43 and FIG.
0 to S4204, see FIG. 48).

[4]マージ符号化技術における候補削除処理において、空間結合情報候補生成処理に
おいて生成された結合動き情報候補の数が最大値に満たない場合、結合動き情報候補リス
トの予め既定したインデックスの結合動き情報候補を、結合動き情報候補の数が最大値に
なるまで追加してから、結合動き情報を候補の比較演算を行うようにした(図38のステ
ップS3501からS3503参照)。
[4] In the candidate deletion process in the merge coding technique, when the number of combined motion information candidates generated in the spatial combined information candidate generation process is less than the maximum value, the combined motion of a predetermined index in the combined motion information candidate list The information candidates are added until the number of combined motion information candidates reaches the maximum value, and then the combined motion information is subjected to a candidate comparison operation (see steps S3501 to S3503 in FIG. 38).

以上述べた実施の形態の動画像符号化装置が出力する動画像の符号化ストリームは、実
施の形態で用いられた符号化方法に応じて復号することができるように特定のデータフォ
ーマットを有しており、動画像符号化装置に対応する動画像復号装置がこの特定のデータ
フォーマットの符号化ストリームを復号することができる。
The moving image encoded stream output from the moving image encoding apparatus of the embodiment described above has a specific data format so that it can be decoded according to the encoding method used in the embodiment. Therefore, the moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode the encoded stream of this specific data format.

動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有
線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に
適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符
号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネット
ワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ス
トリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。
When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted. In that case, a video transmission apparatus that converts the encoded stream output from the video encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.

動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモ
リと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化デ
ータをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化さ
れた符号化データをネットワークを介して受信する受信部と、受信された符号化データを
バッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動
画像復号装置に提供するパケット処理部とを含む。
The moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network. Part. The moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.

また、以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信
装置として実現することができるのは勿論のこと、ROM(Read Only Mem
ory)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソ
フトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウ
ェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、
有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛
星ディジタル放送のデータ放送として提供することも可能である。
Further, the above-described processing relating to encoding and decoding can be realized as a transmission, storage, and reception device using hardware, as well as a ROM (Read Only Mem).
ory), firmware stored in a flash memory or the like, or software such as a computer. Recording the firmware program and software program in a computer-readable recording medium and providing the same
It can be provided from a server through a wired or wireless network, or can be provided as terrestrial or satellite digital broadcast data broadcast.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構
成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変
形例も本発明の範囲にあることは当業者に理解されるところである。
The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

100 入力端子、 101 減算部、 102 直交変換・量子化部、 103 予
測誤差符号化部、 104 逆量子化・逆変換部、 105 加算部、 106 復号画
像メモリ、 107 動きベクトル検出部、 108 動き補償予測部、 109 予測
モード判定部、 110 動き情報符号化部、 111 動き情報メモリ、 112 多
重化部、 113 出力端子、 600 入力端子、 601 多重分離部、 602
予測差分情報復号部、 603 逆量子化・逆変換部、 604 加算部、 605 復
号画像メモリ、 606 動き情報復号部、 607 動き情報メモリ、 608 動き
補償予測部、 609 出力端子、 900 動き補償予測生成部、 901 予測誤差
算出部、 902 予測ベクトル算出部、 903 差分ベクトル算出部、 904 動
き情報符号量算出部、 905 予測モード評価部、 906 結合動き情報算出部、
907 結合動き補償予測生成部、 1000 空間結合動き情報候補リスト生成部、
1001 結合動き情報候補リスト削除部、 1002 時間結合動き情報候補リスト生
成部、 1003 第1結合動き情報候補リスト追加部、 1004 第2結合動き情報
候補リスト追加部、 2600 動き情報ビットストリーム復号部、 2601 予測ベ
クトル算出部、 2602 ベクトル加算部、 2603 動き補償予測復号部、 26
04 結合動き情報算出部、 2605 結合動き補償予測復号部、 4000 空間結
合動き情報候補リスト生成部、 4001 結合動き情報候補リスト削除部、 4002
時間結合動き情報候補リスト生成部、 4003 第1結合動き情報候補リスト追加部
、 4004 第2結合動き情報候補リスト追加部。
100 input terminals, 101 subtraction unit, 102 orthogonal transform / quantization unit, 103 prediction error coding unit, 104 inverse quantization / inverse transform unit, 105 addition unit, 106 decoded image memory, 107 motion vector detection unit, 108 motion compensation Prediction unit, 109 prediction mode determination unit, 110 motion information encoding unit, 111 motion information memory, 112 multiplexing unit, 113 output terminal, 600 input terminal, 601 demultiplexing unit, 602
Prediction difference information decoding unit, 603 inverse quantization / inverse conversion unit, 604 addition unit, 605 decoded image memory, 606 motion information decoding unit, 607 motion information memory, 608 motion compensation prediction unit, 609 output terminal, 900 motion compensation prediction generation 901 prediction error calculation unit, 902 prediction vector calculation unit, 903 difference vector calculation unit, 904 motion information code amount calculation unit, 905 prediction mode evaluation unit, 906 combined motion information calculation unit,
907 combined motion compensation prediction generation unit 1000 spatial combination motion information candidate list generation unit,
1001 combined motion information candidate list deletion unit, 1002 temporal combined motion information candidate list generation unit, 1003 first combined motion information candidate list addition unit, 1004 second combined motion information candidate list addition unit, 2600 motion information bitstream decoding unit, 2601 Prediction vector calculation unit, 2602 vector addition unit, 2603 motion compensation prediction decoding unit, 26
04 joint motion information calculation unit, 2605 joint motion compensation prediction decoding unit, 4000 spatial joint motion information candidate list generation unit, 4001 joint motion information candidate list deletion unit, 4002
A temporally combined motion information candidate list generating unit; 4003 a first combined motion information candidate list adding unit; and 4004 a second combined motion information candidate list adding unit.

Claims (3)

動画像データの各ピクチャが分割されたブロック単位で、符号化された符号列を復号す
る動画像復号装置であって、
前記復号対象ブロックに空間的に近接する所定位置の復号済みの複数の近接ブロックの
動き情報から複数の空間動き情報候補を導出し、前記復号の対象となる復号対象ブロック
を有するピクチャと時間的に異なるピクチャが有する復号済みのブロックの動き情報を導
出し、導出された前記復号済みのブロックの動き情報から前記復号対象ブロックの時間動
き情報候補を導出し、導出された前記空間動き情報候補と前記時間動き情報候補とを含む
結合動き情報候補リストを生成する候補リスト生成部と、
前記結合動き情報候補リストに含まれる動き情報候補を指定するインデックスを復号し
、前記インデックスにより指定される動き情報候補に基づいて前記復号対象ブロックを復
号する復号部を備え、
前記候補リスト生成部は、前記空間動き情報候補をすべての組み合わせで比較すること
なく前記結合動き情報候補リストの配列順が一番目の候補と二番目の候補と最後の候補に
ついてはそれぞれの候補同士を比較して、動き情報が同一である場合は、それらの動き情
報が同一の候補からは一の前記空間動き情報候補を導出することを特徴とする動画像復号
装置。
A moving image decoding apparatus that decodes an encoded code string in units of blocks obtained by dividing each picture of moving image data,
A plurality of spatial motion information candidates are derived from motion information of a plurality of decoded neighboring blocks at predetermined positions spatially adjacent to the decoding target block, and temporally compared with a picture having the decoding target block to be decoded Deriving motion information of a decoded block that a different picture has, deriving temporal motion information candidates of the decoding target block from the derived motion information of the decoded block, and deriving the spatial motion information candidate derived and the A candidate list generation unit for generating a combined motion information candidate list including temporal motion information candidates;
A decoding unit that decodes an index that specifies a motion information candidate included in the combined motion information candidate list, and that decodes the decoding target block based on the motion information candidate specified by the index;
The candidate list generation unit compares the candidates for the first candidate, the second candidate, and the last candidate in the combined order of the combined motion information candidate list without comparing the spatial motion information candidates in all combinations. When the motion information is the same, the moving picture decoding apparatus is characterized in that one spatial motion information candidate is derived from candidates having the same motion information.
動画像データの各ピクチャが分割されたブロック単位で、符号化された符号列を復号す
る動画像復号方法であって、
前記復号対象ブロックに空間的に近接する所定位置の復号済みの複数の近接ブロックの
動き情報から複数の空間動き情報候補を導出し、前記復号の対象となる復号対象ブロック
を有するピクチャと時間的に異なるピクチャが有する復号済みのブロックの動き情報を導
出し、導出された前記復号済みのブロックの動き情報から前記復号対象ブロックの時間動
き情報候補を導出し、導出された前記空間動き情報候補と前記時間動き情報候補とを含む
結合動き情報候補リストを生成する候補リスト生成ステップと、
前記結合動き情報候補リストに含まれる動き情報候補を指定するインデックスを復号し
、前記インデックスにより指定される動き情報候補に基づいて前記復号対象ブロックを復
号する復号ステップを有し、
前記候補リスト生成ステップは、前記空間動き情報候補をすべての組み合わせで比較す
ることなく前記結合動き情報候補リストの配列順が一番目の候補と二番目の候補と最後の
候補についてはそれぞれの候補同士を比較して、動き情報が同一である場合は、それらの
動き情報が同一の候補からは一の前記空間動き情報候補を導出することを特徴とする動画
像復号方法。
A moving image decoding method for decoding an encoded code string in units of blocks obtained by dividing each picture of moving image data,
A plurality of spatial motion information candidates are derived from motion information of a plurality of decoded neighboring blocks at predetermined positions spatially adjacent to the decoding target block, and temporally compared with a picture having the decoding target block to be decoded Deriving motion information of a decoded block that a different picture has, deriving temporal motion information candidates of the decoding target block from the derived motion information of the decoded block, and deriving the spatial motion information candidate derived and the A candidate list generating step for generating a combined motion information candidate list including temporal motion information candidates;
A decoding step of decoding an index specifying a motion information candidate included in the combined motion information candidate list, and decoding the decoding target block based on the motion information candidate specified by the index;
In the candidate list generation step, the spatial motion information candidates are not compared in all combinations, and the order of the combined motion information candidate list is the first candidate, the second candidate, and the last candidate. When the motion information is the same, a single spatial motion information candidate is derived from candidates having the same motion information.
動画像データの各ピクチャが分割されたブロック単位で、符号化された符号列を復号す
る動画像復号プログラムであって、
前記復号対象ブロックに空間的に近接する所定位置の復号済みの複数の近接ブロックの
動き情報から複数の空間動き情報候補を導出し、前記復号の対象となる復号対象ブロック
を有するピクチャと時間的に異なるピクチャが有する復号済みのブロックの動き情報を導
出し、導出された前記復号済みのブロックの動き情報から前記復号対象ブロックの時間動
き情報候補を導出し、導出された前記空間動き情報候補と前記時間動き情報候補とを含む
結合動き情報候補リストを生成する候補リスト生成ステップと、
前記結合動き情報候補リストに含まれる動き情報候補を指定するインデックスを復号し
、前記インデックスにより指定される動き情報候補に基づいて前記復号対象ブロックを復
号する復号ステップをコンピュータに実行させ、
前記候補リスト生成ステップは、前記空間動き情報候補をすべての組み合わせで比較す
ることなく前記結合動き情報候補リストの配列順が一番目の候補と二番目の候補と最後の
候補についてはそれぞれの候補同士を比較して、動き情報が同一である場合は、それらの
動き情報が同一の候補からは一の前記空間動き情報候補を導出することを特徴とする動画
像復号プログラム。
A moving picture decoding program for decoding an encoded code string in units of blocks obtained by dividing each picture of moving picture data,
A plurality of spatial motion information candidates are derived from motion information of a plurality of decoded neighboring blocks at predetermined positions spatially adjacent to the decoding target block, and temporally compared with a picture having the decoding target block to be decoded Deriving motion information of a decoded block that a different picture has, deriving temporal motion information candidates of the decoding target block from the derived motion information of the decoded block, and deriving the spatial motion information candidate derived and the A candidate list generating step for generating a combined motion information candidate list including temporal motion information candidates;
Decoding an index specifying a motion information candidate included in the combined motion information candidate list, and causing the computer to execute a decoding step of decoding the decoding target block based on the motion information candidate specified by the index;
In the candidate list generation step, the spatial motion information candidates are not compared in all combinations, and the order of the combined motion information candidate list is the first candidate, the second candidate, and the last candidate. When the motion information is the same, a moving picture decoding program characterized in that one spatial motion information candidate is derived from candidates having the same motion information.
JP2016241025A 2016-12-13 2016-12-13 Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program Active JP6323543B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016241025A JP6323543B2 (en) 2016-12-13 2016-12-13 Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016241025A JP6323543B2 (en) 2016-12-13 2016-12-13 Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015148397A Division JP6065070B2 (en) 2015-07-28 2015-07-28 Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2017188196A Division JP6406408B2 (en) 2017-09-28 2017-09-28 Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP2017188197A Division JP6406409B2 (en) 2017-09-28 2017-09-28 Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP2017188195A Division JP6414307B2 (en) 2017-09-28 2017-09-28 Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program

Publications (2)

Publication Number Publication Date
JP2017085608A JP2017085608A (en) 2017-05-18
JP6323543B2 true JP6323543B2 (en) 2018-05-16

Family

ID=58713415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016241025A Active JP6323543B2 (en) 2016-12-13 2016-12-13 Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program

Country Status (1)

Country Link
JP (1) JP6323543B2 (en)

Also Published As

Publication number Publication date
JP2017085608A (en) 2017-05-18

Similar Documents

Publication Publication Date Title
TWI601413B (en) Dynamic video encoding device and dynamic video encoding method
WO2013099288A1 (en) Video encoding device, video encoding method and video encoding program, and video decoding device, video decoding method and video decoding program
US10880552B2 (en) Method and apparatus for performing optimal prediction based on weight index
JP6065069B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP6414307B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP6065070B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP6399182B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP6406408B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP6406409B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP6399183B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP6399184B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP6323543B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP6311782B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP2013141078A (en) Video decoding device, video decoding method, and video decoding program
JP2013141077A (en) Video encoding device, video encoding method, and video encoding program
JP2015035660A (en) Image encoder, image encoding method, and image encoding program
WO2013021617A1 (en) Moving image encoding apparatus, moving image encoding method, moving image encoding program, moving image decoding apparatus, moving image decoding method, and moving image decoding program
JP2013106312A (en) Image encoder, image encoding method and image encoding program
JP2013042235A (en) Apparatus, method and program for encoding moving image
JP2013201531A (en) Moving image encoding device, moving image encoding method, moving image encoding program, transmission device, transmission method, and transmission program
JP2013201532A (en) Moving image decoding device, moving image decoding method, moving image decoding program, receiving device, receiving method, and receiving program
JP2013042236A (en) Apparatus, method and program for encoding moving image
JP2013145974A (en) Video decoding device, video decoding method, and video decoding program
JP2013145973A (en) Video encoding device, video encoding method, and video encoding program
JP2013106313A (en) Image decoder, image decoding method and image decoding program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6323543

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350