JP2013141077A - Video encoding device, video encoding method, and video encoding program - Google Patents

Video encoding device, video encoding method, and video encoding program Download PDF

Info

Publication number
JP2013141077A
JP2013141077A JP2011289669A JP2011289669A JP2013141077A JP 2013141077 A JP2013141077 A JP 2013141077A JP 2011289669 A JP2011289669 A JP 2011289669A JP 2011289669 A JP2011289669 A JP 2011289669A JP 2013141077 A JP2013141077 A JP 2013141077A
Authority
JP
Japan
Prior art keywords
motion information
candidate list
block
prediction
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011289669A
Other languages
Japanese (ja)
Inventor
Kazumi Arakage
和美 荒蔭
Hideki Takehara
英樹 竹原
Shigeru Fukushima
茂 福島
Hiroya Nakamura
博哉 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011289669A priority Critical patent/JP2013141077A/en
Priority to TW105126912A priority patent/TWI577181B/en
Priority to TW101151068A priority patent/TWI559747B/en
Priority to TW107103503A priority patent/TWI647950B/en
Priority to PCT/JP2012/008443 priority patent/WO2013099288A1/en
Priority to TW106103713A priority patent/TWI607650B/en
Priority to TW106135749A priority patent/TWI618401B/en
Publication of JP2013141077A publication Critical patent/JP2013141077A/en
Priority to US14/299,830 priority patent/US9848187B2/en
Priority to US15/810,543 priority patent/US10097849B2/en
Priority to US16/052,656 priority patent/US10171830B1/en
Priority to US16/052,657 priority patent/US10165299B2/en
Priority to US16/052,655 priority patent/US10165298B1/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve encoding efficiency of motion information while suppressing a processing load when performing encoding using motion information of adjacent blocks.SOLUTION: A spatial merge motion information candidate list generation unit 1000 calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to a block to be encoded as motion information candidates for the block to be encoded to generate a motion information candidate list. A merge motion information candidate list deletion unit 1001 deletes, from the candidate list, a redundant motion information candidate among the motion information candidates included in the candidate list generated by the spatial merge motion information candidate list generation unit 1000. A temporal merge motion information candidate list generation unit 1002 calculates a motion information candidate for the block to be encoded using motion information of an encoded adjacent block temporally adjacent to the block to be encoded, and adds it to the candidate list processed by the merge motion information candidate list deletion unit 1001.

Description

本発明は、動き補償予測を用いた動画像符号化技術に関し、特に動き補償予測に利用する動画像符号化装置、動画像符号化方法及び動画像符号化プログラムに関する。   The present invention relates to a moving picture coding technique using motion compensated prediction, and more particularly to a moving picture coding apparatus, a moving picture coding method, and a moving picture coding program used for motion compensated prediction.

MPEG−4 AVC/H.264(以後、AVC)等に代表される動画像符号化では、ピクチャを矩形ブロックに分割し、ピクチャ間でブロック単位に動き推定、補償を行う動き補償予測が用いられる。動き補償予測において各ブロックで生成される動きベクトルは、その符号量を削減するために、予測処理が施される。   MPEG-4 AVC / H. In moving picture coding represented by H.264 (hereinafter AVC), motion compensated prediction is used in which a picture is divided into rectangular blocks, and motion estimation and compensation are performed in units of blocks between pictures. A motion vector generated in each block in motion compensation prediction is subjected to a prediction process in order to reduce the code amount.

AVCでは、隣接するブロックの動きベクトルの間に強い相関があることを利用して、隣接ブロックから予測値を算出し、その予測値との差分ベクトルを符号化することによって符号量を削減している。しかし、これらの予測方法では、参照する隣接ブロックの位置が限定されているために、予測が当たらないと、動きベクトルの差分が大きくなり、発生符号量が増加する課題があった。また、動きベクトルの符号量は削減されるものの、予測方向や参照画像インデックス等の他の動き情報は処理対象のブロック毎に符号化されるので、効率的な符号化に至っていないという課題もあった。   In AVC, by utilizing the fact that there is a strong correlation between motion vectors of adjacent blocks, a prediction value is calculated from the adjacent block, and a code amount is reduced by encoding a difference vector with the prediction value. Yes. However, in these prediction methods, since the positions of adjacent blocks to be referred to are limited, there is a problem that if the prediction is not successful, the difference between the motion vectors becomes large and the generated code amount increases. In addition, although the amount of motion vector coding is reduced, other motion information such as the prediction direction and the reference image index is encoded for each block to be processed, so that there is a problem that efficient encoding has not been achieved. It was.

これらの課題を解決するために、特許文献1のように、複数の隣接ブロックの中から参照する隣接ブロックを特定する付加情報を符号化することによって、処理対象のブロックの動き情報を符号化せずに、隣接ブロックの動き情報を使用して符号化を行い、符号量を削減するマージ符号化技術が用いられる。   In order to solve these problems, as in Patent Document 1, by encoding additional information for specifying an adjacent block to be referred to from among a plurality of adjacent blocks, the motion information of the block to be processed is encoded. Instead, a merge encoding technique is used in which the motion information of adjacent blocks is used for encoding to reduce the code amount.

特開平10−276439号公報JP-A-10-276439

マージ符号化は、処理対象のブロックの動き情報を符号化せずに、空間及び時間的に隣接するブロックの動き情報を使用して符号化を行うことで、符号量を削減して符号化効率を向上させている。また、参照する隣接ブロックの候補を複数用意し、参照する隣接ブロックを特定する付加情報を符号化することによって、より符号化対象ブロックの動き情報に近い隣接ブロックを参照できるようにしている。   Merge encoding reduces the amount of code and reduces the coding efficiency by encoding using the motion information of spatially and temporally adjacent blocks without encoding the motion information of the block to be processed. Has improved. Also, a plurality of adjacent block candidates to be referred to are prepared, and additional information specifying the adjacent block to be referenced is encoded, so that an adjacent block closer to the motion information of the encoding target block can be referred to.

そのため、参照隣接ブロック候補に同じ動き情報を持つ隣接ブロックが複数含まれていると、参照隣接ブロック候補で表現可能な動き情報の種類が少なくなり、結果として符号化効率の向上に結びつかない。そこで、参照隣接ブロック候補の動き情報を詳細に比較し、同じ動き情報を持つ参照隣接ブロック候補を削減すると、処理量の増加につながる。   Therefore, if the reference adjacent block candidate includes a plurality of adjacent blocks having the same motion information, the types of motion information that can be expressed by the reference adjacent block candidate are reduced, and as a result, the encoding efficiency is not improved. Therefore, when the motion information of the reference adjacent block candidates is compared in detail and the reference adjacent block candidates having the same motion information are reduced, the processing amount increases.

本発明はこうした状況に鑑みてなされたものであり、その目的は、隣接ブロックの動き情報を使用して符号化を行う場合に、処理負荷が少なく、動き情報の符号化効率を向上させる技術を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for reducing the processing load and improving the encoding efficiency of motion information when encoding is performed using the motion information of adjacent blocks. It is to provide.

上記課題を解決するために、本発明のある態様の動画像符号化装置は、動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部(906)と、前記動き情報算出部(906)から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部(906)から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部(103、110)とを備える。前記動き情報算出部(906)は、前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部(1000)と、前記空間候補リスト生成部(1000)により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部(1001)と、前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除部(1001)により処理された前記候補リストに追加する時間候補リスト生成部(1002)とを含む。   In order to solve the above-described problem, a moving image encoding device according to an aspect of the present invention is a moving image encoding device that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image. A motion information calculation unit (906) for calculating motion information candidates of the encoding target block and generating a motion information candidate list; and a candidate information in the candidate list output from the motion information calculation unit (906). A combination in which one neighboring block is designated as a reference block for referring to motion information among neighboring blocks having motion information, and the motion information of the designated reference block is used as motion information of the encoding target block. When the prediction mode is selected, the motion information of the designated reference block obtained from the candidate list output from the motion information calculation unit (906) is used. , With coding the coding target block includes encoding unit encoding an index indicating the specified reference block and (103, 110). The motion information calculation unit (906) calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and Among the candidate motion information included in the candidate list generated by the spatial candidate list generation unit (1000) that generates the candidate list and the candidate list generated by the spatial candidate list generation unit (1000), at least the motion vector values match each other. If there is a candidate, a candidate list deletion unit (1001) that deletes one of the candidates for motion information from the candidate list, and motion information of an encoded adjacent block temporally adjacent to the encoding target block The candidate list of motion information of the coding target block is calculated using the candidate list processed by the candidate list deletion unit (1001). And a time candidate list generation unit to be added (1002) to.

本発明の別の態様もまた、動画像符号化装置である。この装置は、動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部(906)と、前記動き情報算出部(906)から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部(906)から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部(103、110)とを備える。前記動き情報算出部(906)は、前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部(1000)と、前記空間候補リスト生成部(1000)により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部(1001)と、前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除部(1001)により処理された前記候補リストに追加する時間候補リスト生成部(1002)とを含む。前記候補リスト削除部(1001)は、前記候補リストの配列順において隣り合う候補同士を比較し、かつ、最上位の候補と最下位の候補を比較することにより、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定する。   Another aspect of the present invention is also a moving image encoding apparatus. The apparatus is a moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image, calculates a motion information candidate of an encoding target block, A motion information calculation unit (906) that generates a candidate list of information, and one adjacent block among the adjacent blocks including the motion information in the candidate list output from the motion information calculation unit (906) When the joint prediction mode that uses the motion information of the designated reference block as the motion information of the coding target block is selected as the reference block for referring to the motion information calculation unit (906) Encoding the target block using the motion information of the specified reference block obtained from the candidate list output from And a coding unit configured to code (103, 110) an index indicating the reference blocks. The motion information calculation unit (906) calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and Among the candidate motion information included in the candidate list generated by the spatial candidate list generation unit (1000) that generates the candidate list and the candidate list generated by the spatial candidate list generation unit (1000), at least the motion vector values match each other. If there is a candidate, a candidate list deletion unit (1001) that deletes one of the candidates for motion information from the candidate list, and motion information of an encoded adjacent block temporally adjacent to the encoding target block The candidate list of motion information of the coding target block is calculated using the candidate list processed by the candidate list deletion unit (1001). And a time candidate list generation unit to be added (1002) to. The candidate list deletion unit (1001) compares adjacent candidates in the arrangement order of the candidate list, and compares the highest candidate with the lowest candidate so that at least the motion vector values match each other. Determine if there is something.

本発明のさらに別の態様もまた、動画像符号化装置である。この装置は、動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部(906)と、前記動き情報算出部(906)から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部(906)から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部(103、110)とを備える。前記動き情報算出部(906)は、前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部(1000)と、前記空間候補リスト生成部(1000)により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部(1001)と、前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除部(1001)により処理された前記候補リストに追加する時間候補リスト生成部(1002)とを含む。前記候補リスト削除部(1001)は、前記候補リストの配列順において最上位から所定番目までに含まれる候補について、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定する。   Yet another embodiment of the present invention is also a moving image encoding apparatus. The apparatus is a moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image, calculates a motion information candidate of an encoding target block, A motion information calculation unit (906) that generates a candidate list of information, and one adjacent block among the adjacent blocks including the motion information in the candidate list output from the motion information calculation unit (906) When the joint prediction mode that uses the motion information of the designated reference block as the motion information of the coding target block is selected as the reference block for referring to the motion information calculation unit (906) Encoding the target block using the motion information of the specified reference block obtained from the candidate list output from And a coding unit configured to code (103, 110) an index indicating the reference blocks. The motion information calculation unit (906) calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and Among the candidate motion information included in the candidate list generated by the spatial candidate list generation unit (1000) that generates the candidate list and the candidate list generated by the spatial candidate list generation unit (1000), at least the motion vector values match each other. If there is a candidate, a candidate list deletion unit (1001) that deletes one of the candidates for motion information from the candidate list, and motion information of an encoded adjacent block temporally adjacent to the encoding target block The candidate list of motion information of the coding target block is calculated using the candidate list processed by the candidate list deletion unit (1001). And a time candidate list generation unit to be added (1002) to. The candidate list deletion unit (1001) determines whether or not there are at least motion vector values that are the same among the candidates included in the order of arrangement of the candidate list from the top to the predetermined.

本発明のさらに別の態様もまた、動画像符号化装置である。この装置は、動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部(906)と、前記動き情報算出部(906)から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部(906)から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部(103、110)とを備える。前記動き情報算出部(906)は、前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部(1000)と、前記空間候補リスト生成部(1000)により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部(1001)と、前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除部(1001)により処理された前記候補リストに追加する時間候補リスト生成部(1002)とを含む。前記候補リスト削除部(1001)は、前記候補リストに登録された候補数が所定の最大候補数に満たない場合、前記候補リストの最下位の候補を複製して空き候補を埋めた上で、前記候補リストの配列順において隣り合う候補同士を比較し、かつ、最上位の候補と最下位の候補を比較することにより、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定する。   Yet another embodiment of the present invention is also a moving image encoding apparatus. The apparatus is a moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image, calculates a motion information candidate of an encoding target block, A motion information calculation unit (906) that generates a candidate list of information, and one adjacent block among the adjacent blocks including the motion information in the candidate list output from the motion information calculation unit (906) When the joint prediction mode that uses the motion information of the designated reference block as the motion information of the coding target block is selected as the reference block for referring to the motion information calculation unit (906) Encoding the target block using the motion information of the specified reference block obtained from the candidate list output from And a coding unit configured to code (103, 110) an index indicating the reference blocks. The motion information calculation unit (906) calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and Among the candidate motion information included in the candidate list generated by the spatial candidate list generation unit (1000) that generates the candidate list and the candidate list generated by the spatial candidate list generation unit (1000), at least the motion vector values match each other. If there is a candidate, a candidate list deletion unit (1001) that deletes one of the candidates for motion information from the candidate list, and motion information of an encoded adjacent block temporally adjacent to the encoding target block The candidate list of motion information of the coding target block is calculated using the candidate list processed by the candidate list deletion unit (1001). And a time candidate list generation unit to be added (1002) to. The candidate list deletion unit (1001), when the number of candidates registered in the candidate list is less than a predetermined maximum number of candidates, after duplicating the lowest candidate in the candidate list and filling in empty candidates, By comparing candidates that are adjacent in the arrangement order of the candidate list and comparing the highest candidate and the lowest candidate, it is determined whether or not there are at least motion vector values that match each other.

本発明のさらに別の態様もまた、動画像符号化装置である。この装置は、動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部(906)と、前記動き情報算出部(906)から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部(906)から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部(103、110)とを備える。前記動き情報算出部(906)は、前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部(1000)と、前記空間候補リスト生成部(1000)により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部(1001)と、前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除部(1001)により処理された前記候補リストに追加する時間候補リスト生成部(1002)とを含む。前記候補リスト削除部(1001)は、前記候補リストに登録された候補数が4である場合に、前記候補リストの配列順において最上位から3番目までについては隣り合う候補同士を比較し、最下位の候補と最上位の候補を比較し、さらに最下位の候補と2番目の候補を比較することにより、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定する。   Yet another embodiment of the present invention is also a moving image encoding apparatus. The apparatus is a moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image, calculates a motion information candidate of an encoding target block, A motion information calculation unit (906) that generates a candidate list of information, and one adjacent block among the adjacent blocks including the motion information in the candidate list output from the motion information calculation unit (906) When the joint prediction mode that uses the motion information of the designated reference block as the motion information of the coding target block is selected as the reference block for referring to the motion information calculation unit (906) Encoding the target block using the motion information of the specified reference block obtained from the candidate list output from And a coding unit configured to code (103, 110) an index indicating the reference blocks. The motion information calculation unit (906) calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and Among the candidate motion information included in the candidate list generated by the spatial candidate list generation unit (1000) that generates the candidate list and the candidate list generated by the spatial candidate list generation unit (1000), at least the motion vector values match each other. If there is a candidate, a candidate list deletion unit (1001) that deletes one of the candidates for motion information from the candidate list, and motion information of an encoded adjacent block temporally adjacent to the encoding target block The candidate list of motion information of the coding target block is calculated using the candidate list processed by the candidate list deletion unit (1001). And a time candidate list generation unit to be added (1002) to. When the number of candidates registered in the candidate list is 4, the candidate list deletion unit (1001) compares adjacent candidates for the third to third in the order of the candidate list, By comparing the lower candidate with the highest candidate, and further comparing the lowest candidate with the second candidate, it is determined whether or not there are at least motion vector values that match each other.

本発明のさらに別の態様もまた、動画像符号化装置である。この装置は、動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部(906)と、前記動き情報算出部(906)から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部(906)から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部(103、110)とを備える。前記動き情報算出部(906)は、前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部(4000)と、前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記空間候補リスト生成部(4000)により処理された前記候補リストに追加する時間候補リスト生成部(4002)と、前記時間候補リスト生成部(4002)により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部(4001)とを含む。前記候補リスト削除部(4001)は、前記候補リストの配列順において最上位から所定番目までに含まれる候補について、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定する。   Yet another embodiment of the present invention is also a moving image encoding apparatus. The apparatus is a moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image, calculates a motion information candidate of an encoding target block, A motion information calculation unit (906) that generates a candidate list of information, and one adjacent block among the adjacent blocks including the motion information in the candidate list output from the motion information calculation unit (906) When the joint prediction mode that uses the motion information of the designated reference block as the motion information of the coding target block is selected as the reference block for referring to the motion information calculation unit (906) Encoding the target block using the motion information of the specified reference block obtained from the candidate list output from And a coding unit configured to code (103, 110) an index indicating the reference blocks. The motion information calculation unit (906) calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and A spatial candidate list generation unit (4000) that generates a candidate list, and motion information candidates of the encoding target block by using motion information of encoded adjacent blocks that are temporally adjacent to the encoding target block Included in the candidate list generated by the time candidate list generation unit (4002) and the time candidate list generation unit (4002) to be calculated and added to the candidate list processed by the space candidate list generation unit (4000) If there is a motion information candidate that matches at least the motion vector values, one of the motion information candidates is selected as the candidate of the motion information. Including candidate list deletion unit that you want to delete from the list and (4001). The candidate list deletion unit (4001) determines whether or not there are at least motion vector values that coincide with each other among candidates included from the top to the predetermined in the order of arrangement of the candidate list.

本発明のさらに別の態様は、動画像符号化方法である。この方法は、動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化方法であって、符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出ステップと、前記動き情報算出ステップから出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出ステップから出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化ステップとを備える。前記動き情報算出ステップは、前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成ステップと、前記空間候補リスト生成ステップにより生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除ステップと、前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除ステップにより処理された前記候補リストに追加する時間候補リスト生成ステップとを含む。   Yet another aspect of the present invention is a video encoding method. This method is a moving image encoding method that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image, and calculates motion information candidates of an encoding target block, A motion information calculation step for generating a candidate list of information, and a reference for referring to the motion information for one adjacent block among the adjacent blocks provided with motion information in the candidate list output from the motion information calculation step Obtained from the candidate list output from the motion information calculation step when a joint prediction mode is selected in which motion information of the designated reference block is used as motion information of the encoding target block. In addition, the motion information of the designated reference block is used to encode the coding target block and the designated reference block. An index indicating a click and a coding step of coding. The motion information calculation step calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and obtains a motion information candidate list. If there is a candidate of the motion information included in the candidate list generated by the candidate candidate list generated by the candidate candidate list generated by the candidate spatial list generation step, at least one of the motion vector values matches, A candidate list deletion step of deleting motion information candidates from the candidate list, and motion information of the encoding target block using the motion information of the encoded adjacent block temporally adjacent to the encoding target block. A candidate time candidate is calculated and added to the candidate list processed by the candidate list deletion step. And a step.

本発明のさらに別の態様もまた、動画像符号化方法である。この方法は、動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化方法であって、符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出ステップと、前記動き情報算出ステップから出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出ステップから出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化ステップとを備える。前記動き情報算出ステップは、前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成ステップと、前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記空間候補リスト生成ステップにより処理された前記候補リストに追加する時間候補リスト生成ステップと、前記時間候補リスト生成ステップにより生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除ステップとを含む。前記候補リスト削除ステップは、前記候補リストの配列順において最上位から所定番目までに含まれる候補について、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定する。   Yet another embodiment of the present invention is also a moving image encoding method. This method is a moving image encoding method that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image, and calculates motion information candidates of an encoding target block, A motion information calculation step for generating a candidate list of information, and a reference for referring to the motion information for one adjacent block among the adjacent blocks provided with motion information in the candidate list output from the motion information calculation step Obtained from the candidate list output from the motion information calculation step when a joint prediction mode is selected in which motion information of the designated reference block is used as motion information of the encoding target block. In addition, the motion information of the designated reference block is used to encode the coding target block and the designated reference block. An index indicating a click and a coding step of coding. The motion information calculation step calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and obtains a motion information candidate list. A spatial candidate list generation step to generate, and motion information candidates of the encoding target block are calculated using motion information of an encoded adjacent block temporally adjacent to the encoding target block, and the spatial candidates The time candidate list generation step to be added to the candidate list processed by the list generation step and the motion information candidates included in the candidate list generated by the time candidate list generation step have at least motion vector values mutually. If there is a match, a candidate list for deleting one of the motion information candidates from the candidate list And a deletion step. In the candidate list deletion step, it is determined whether or not there are at least motion vector values that coincide with each other among candidates included in the order of arrangement of the candidate list from the highest level to a predetermined number.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.

本発明によれば、動き情報を処理する際の負荷を抑制しつつ、動き情報の符号化効率を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the encoding efficiency of motion information can be improved, suppressing the load at the time of processing motion information.

本発明の実施の形態1に係る動画像符号化装置の構成を示す図である。It is a figure which shows the structure of the moving image encoder which concerns on Embodiment 1 of this invention. 符号化対象画像の一例を示す図である。It is a figure which shows an example of an encoding target image. 予測ブロックサイズの詳細な定義を示す図である。It is a figure which shows the detailed definition of prediction block size. 図4(a)〜(d)は、動き補償予測の予測方向について説明する図である。4A to 4D are diagrams for explaining the prediction direction of motion compensation prediction. 本発明の実施の形態1に係る動画像符号化装置における符号化処理の動作の流れ示すフローチャートである。It is a flowchart which shows the flow of the operation | movement of the encoding process in the moving image encoder which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る動画像復号装置の構成を示す図である。It is a figure which shows the structure of the moving image decoding apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る動画像復号装置における復号処理の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the decoding process in the moving image decoding apparatus which concerns on Embodiment 1 of this invention. 図8(a)、(b)は、本発明の実施の形態1における動き補償予測において使用される動き情報を符号化するための2つの予測モードを説明する図である。FIGS. 8A and 8B are diagrams illustrating two prediction modes for encoding motion information used in motion compensation prediction in Embodiment 1 of the present invention. 実施の形態1の動画像符号化装置における予測モード判定部の詳細な構成を示す図である。FIG. 5 is a diagram illustrating a detailed configuration of a prediction mode determination unit in the video encoding device according to the first embodiment. 実施の形態1における図9の結合動き情報算出部の構成を示す図である。FIG. 10 is a diagram showing a configuration of a combined motion information calculation unit in FIG. 9 in the first embodiment. 図5のステップS502の動き補償予測モード/予測信号生成処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the motion compensation prediction mode / predicted signal generation process of step S502 of FIG. 実施の形態1における図11の結合動き情報候補リスト生成の詳細動作を説明するフローチャートである。12 is a flowchart for explaining a detailed operation of the combined motion information candidate list generation of FIG. 11 in the first embodiment. 空間結合動き情報候補リスト生成に用いる空間候補ブロック群を示す図である。It is a figure which shows the space candidate block group used for a space joint motion information candidate list generation. 空間結合動き情報候補リスト生成の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of a space joint motion information candidate list generation. 実施の形態1における結合動き情報候補削除の詳細動作を説明するフローチャートである。5 is a flowchart for explaining detailed operation of combined motion information candidate deletion in the first embodiment. 実施の形態1における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 10 is a diagram illustrating a comparison relationship of motion information candidates in combined motion information candidate deletion in the first embodiment. 実施の形態1における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 10 is a diagram illustrating a comparison relationship of motion information candidates in combined motion information candidate deletion in the first embodiment. 時間結合動き情報候補リスト生成に用いる時間候補ブロック群を示す図である。It is a figure which shows the time candidate block group used for a time joint movement information candidate list generation. 時間結合動き情報候補リスト生成の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of time coupling | bonding motion information candidate list generation. 時間結合動き情報に対する基準動きベクトル値ColMvに対する、L0予測、L1予測に対して登録する動きベクトル値mvL0t、mvL1tの算出手法を説明する図である。It is a figure explaining the calculation method of motion vector value mvL0t and mvL1t registered with respect to the reference | standard motion vector value ColMv with respect to time coupling | bonding motion information with respect to L0 prediction and L1 prediction. 第1結合動き情報候補リスト追加部の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of a 1st joint motion information candidate list addition part. 組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係を説明する図である。It is a figure explaining the relationship between the frequency | count of combination inspection, combined motion information candidate M, and combined motion information candidate N. 第2結合動き情報候補リスト追加部の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of a 2nd joint motion information candidate list addition part. 図11の結合予測モード評価値生成処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the joint prediction mode evaluation value production | generation process of FIG. 結合動き情報候補数が5の場合のTruncated Unary符号列を示す図である。It is a figure which shows the Truncated Unary code sequence when the number of combined motion information candidates is 5. 図11の予測モード評価値生成処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the prediction mode evaluation value production | generation process of FIG. 実施の形態1の動画像復号装置における動き情報復号部の詳細な構成を示す図である。5 is a diagram illustrating a detailed configuration of a motion information decoding unit in the video decoding device in Embodiment 1. FIG. 図7の動き情報復号処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the motion information decoding process of FIG. 図28の結合予測動き情報復号処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the joint prediction motion information decoding process of FIG. 図28の予測動き情報復号処理の詳細動作を説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the prediction motion information decoding process of FIG. 実施の形態2における結合動き情報候補削除の詳細動作を説明するフローチャートである。10 is a flowchart for explaining a detailed operation of combined motion information candidate deletion in the second embodiment. 実施の形態2における結合動き情報候補削除における動き情報候補の比較内容を示す図である。FIG. 10 is a diagram illustrating comparison contents of motion information candidates in combined motion information candidate deletion in the second embodiment. 実施の形態2における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 10 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the second embodiment. 実施の形態2における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 10 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the second embodiment. 実施の形態3における結合動き情報候補削除の詳細動作を説明するフローチャートである。18 is a flowchart for explaining a detailed operation of combined motion information candidate deletion in the third embodiment. 実施の形態3における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 10 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the third embodiment. 実施の形態3における結合動き情報候補削除における動き情報候補の比較内容を示す図である。FIG. 16 is a diagram showing comparison contents of motion information candidates in combined motion information candidate deletion in the third embodiment. 実施の形態4における結合動き情報候補削除の詳細動作を説明するフローチャートである。18 is a flowchart for explaining a detailed operation of combined motion information candidate deletion in the fourth embodiment. 実施の形態4における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 20 is a diagram illustrating a comparison relationship of motion information candidates in combined motion information candidate deletion in the fourth embodiment. 実施の形態4における結合動き情報候補削除における動き情報候補の比較内容を示す図である。It is a figure which shows the comparison content of the motion information candidate in combined motion information candidate deletion in Embodiment 4. FIG. 実施の形態5における結合動き情報候補削除の詳細動作を説明するフローチャートである。29 is a flowchart for explaining detailed operation of combined motion information candidate deletion in the fifth embodiment. 実施の形態5における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 25 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the fifth embodiment. 実施の形態5における結合動き情報候補削除における動き情報候補の比較内容を示す図である。FIG. 25 is a diagram showing comparison contents of motion information candidates in combined motion information candidate deletion in the fifth embodiment. 実施の形態5における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 25 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the fifth embodiment. ブロックA0の使用可能状況を説明する図である。It is a figure explaining the usable condition of block A0. 実施の形態6における図9の結合動き情報算出部の構成を示す図である。FIG. 10 is a diagram illustrating a configuration of a combined motion information calculation unit in FIG. 9 according to Embodiment 6. 実施の形態6における結合動き情報候補リスト生成の詳細動作を説明するフローチャートである。29 is a flowchart for describing detailed operation of combined motion information candidate list generation in the sixth embodiment. 実施の形態6における結合動き情報候補削除における動き情報候補の比較内容を示す図である。FIG. 38 is a diagram illustrating comparison contents of motion information candidates in combined motion information candidate deletion in the sixth embodiment. 実施の形態6における結合動き情報候補削除における動き情報候補の比較関係を示す図である。FIG. 38 is a diagram showing a comparison relationship of motion information candidates in combined motion information candidate deletion in the sixth embodiment.

以下、図面とともに本発明の実施の形態に係る動画像符号化装置、動画像符号化方法、動画像符号化プログラム、並びに動画像復号装置、動画像復号方法、動画像復号プログラムの好適な実施の形態について詳細に説明する。なお、図面の説明には同一要素には同一符号を付与して重複する説明を省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Preferred embodiments of a moving image encoding apparatus, a moving image encoding method, a moving image encoding program, a moving image decoding apparatus, a moving image decoding method, and a moving image decoding program according to an embodiment of the present invention will be described below with reference to the drawings. A form is demonstrated in detail. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

(実施の形態1)
[動画像符号化装置全体構成]
図1は、本発明の実施の形態1に係る動画像符号化装置の構成を示す図である。以下、各部の動作について説明する。実施の形態1に係る動画像符号化装置は、入力端子100、減算部101、直交変換・量子化部102、予測誤差符号化部103、逆量子化・逆変換部104、加算部105、復号画像メモリ106、動きベクトル検出部107、動き補償予測部108、予測モード判定部109、動き情報符号化部110、動き情報メモリ111、多重化部112、及び出力端子113を備える。
(Embodiment 1)
[Overall configuration of video encoding apparatus]
FIG. 1 is a diagram showing a configuration of a moving picture coding apparatus according to Embodiment 1 of the present invention. Hereinafter, the operation of each unit will be described. The moving picture coding apparatus according to Embodiment 1 includes an input terminal 100, a subtraction unit 101, an orthogonal transformation / quantization unit 102, a prediction error coding unit 103, an inverse quantization / inverse transformation unit 104, an addition unit 105, and a decoding An image memory 106, a motion vector detection unit 107, a motion compensation prediction unit 108, a prediction mode determination unit 109, a motion information encoding unit 110, a motion information memory 111, a multiplexing unit 112, and an output terminal 113 are provided.

入力端子100より入力される画像信号から符号化処理対象の予測ブロックの画像信号が、予測ブロックの位置情報と予測ブロックサイズに基づいて切り出され、予測ブロックの画像信号は、減算部101、動きベクトル検出部107及び予測モード判定部109に供給される。   The image signal of the prediction block to be encoded is extracted from the image signal input from the input terminal 100 based on the position information and the prediction block size of the prediction block, and the image signal of the prediction block is subtracted by the subtractor 101, the motion vector. This is supplied to the detection unit 107 and the prediction mode determination unit 109.

図2は、符号化対象画像の一例を示す図である。実施の形態1に係る予測ブロックサイズに関しては、図2に示すように符号化対象画像が64×64画素の符号化ブロック(CU)単位で符号化処理され、予測ブロックは符号化ブロックが更に分割された単位で構成される。最大予測ブロックサイズは符号化ブロックと同じ64×64画素で、最小予測ブロックサイズは4×4画素である。符号化ブロックの予測ブロックへの分割構成は、非分割(2N×2N)、水平・垂直への分割(N×N)、水平方向のみへの分割(2N×N)、垂直方向のみへの分割(N×2N)が可能である。水平・垂直への分割の場合のみ、更に分割された予測ブロックを符号化ブロックとして階層的に予測ブロックに分割でき、その階層をCU分割数で表現する。   FIG. 2 is a diagram illustrating an example of an encoding target image. Regarding the prediction block size according to the first embodiment, as shown in FIG. 2, the encoding target image is encoded in units of 64 × 64 pixel encoding blocks (CU), and the prediction block is further divided into encoding blocks. Unit. The maximum prediction block size is 64 × 64 pixels, which is the same as the encoded block, and the minimum prediction block size is 4 × 4 pixels. The coding block is divided into prediction blocks: non-division (2N × 2N), horizontal / vertical division (N × N), horizontal only division (2N × N), and vertical division only (N × 2N) is possible. Only in the case of horizontal and vertical division, the further divided prediction block can be divided into prediction blocks hierarchically as encoded blocks, and the hierarchy is expressed by the number of CU divisions.

図3は、予測ブロックサイズの詳細な定義を示す図である。CU分割数が0であって最大の予測ブロックサイズである64画素×64画素から、CU分割数が3であって最小の予測ブロックサイズである4画素×4画素までの13の予測ブロックサイズが存在することになる。   FIG. 3 is a diagram showing a detailed definition of the predicted block size. There are 13 predicted block sizes from 64 pixels × 64 pixels, which is the maximum predicted block size with 0 CU divisions, to 4 pixels × 4 pixels, which is the minimum predicted block size with 3 CU partitions. Will exist.

本発明の実施の形態1に係る予測ブロックの分割構成に関して、この組み合わせに限定されない。また、動画像符号化装置における予測ブロックサイズの選択は、符号化ブロック単位で符号化効率のより良い構造を適応的に選択することが可能であるが、実施の形態1は予測ブロック単位での画面間予測及び画面間動き情報の符号化に注目したものであるため、最適な予測ブロックサイズの選択に関する構成要素及び説明を省略する。以降の動画像符号化装置の動作に関しては、選択した予測ブロックサイズ単位で施される動作を説明する。   Regarding the division | segmentation structure of the prediction block which concerns on Embodiment 1 of this invention, it is not limited to this combination. In addition, the selection of the prediction block size in the moving image encoding apparatus can adaptively select a structure with better encoding efficiency in units of encoding blocks, but the first embodiment is in units of prediction blocks. Since attention is paid to inter-frame prediction and inter-frame motion information encoding, the components and description relating to selection of the optimal prediction block size are omitted. Regarding the subsequent operation of the video encoding apparatus, the operation performed in units of the selected prediction block size will be described.

図1に戻り、減算部101は、入力端子100より供給される画像信号と予測モード判定部109より供給される予測信号を減算して予測誤差信号を算出し、予測誤差信号を直交変換・量子化部102に供給する。   Returning to FIG. 1, the subtraction unit 101 subtracts the image signal supplied from the input terminal 100 and the prediction signal supplied from the prediction mode determination unit 109 to calculate a prediction error signal, and orthogonally transforms / quantizes the prediction error signal. To the conversion unit 102.

直交変換・量子化部102は、減算部101より供給される予測誤差信号に直交変換及び量子化を施し、量子化された予測誤差信号を予測誤差符号化部103及び逆量子化・逆変換部104に供給する。   The orthogonal transform / quantization unit 102 performs orthogonal transform and quantization on the prediction error signal supplied from the subtraction unit 101, and the quantized prediction error signal is subjected to a prediction error encoding unit 103 and an inverse quantization / inverse conversion unit. 104 is supplied.

予測誤差符号化部103は、直交変換・量子化部102より供給される量子化された予測誤差信号をエントロピー符号化して、予測誤差信号に対する符号列を生成して、多重化部112に供給する。   The prediction error encoding unit 103 entropy-encodes the quantized prediction error signal supplied from the orthogonal transform / quantization unit 102, generates a code string for the prediction error signal, and supplies the code sequence to the multiplexing unit 112 .

逆量子化・逆変換部104は、直交変換・量子化部102より供給される量子化された予測誤差信号に対して、逆量子化や逆直交変換などの処理を行い、復号予測誤差信号を生成し加算部105に供給する。   The inverse quantization / inverse transform unit 104 performs processing such as inverse quantization and inverse orthogonal transform on the quantized prediction error signal supplied from the orthogonal transform / quantization unit 102, and outputs the decoded prediction error signal. Generated and supplied to the adding unit 105.

加算部105は、逆量子化・逆変換部104より供給される復号予測誤差信号と、予測モード判定部109より供給される予測信号を加算して、復号画像信号を生成し、復号画像信号を復号画像メモリ116に供給する。   The addition unit 105 adds the decoded prediction error signal supplied from the inverse quantization / inverse conversion unit 104 and the prediction signal supplied from the prediction mode determination unit 109, generates a decoded image signal, and outputs the decoded image signal. The decoded image memory 116 is supplied.

復号画像メモリ106は、加算部105より供給される復号画像信号を格納する。また、画像全体の復号が完了した復号画像については参照画像として1以上の所定画像数記憶し、参照画像信号を動きベクトル検出部107と動き補償予測部108に供給する。   The decoded image memory 106 stores the decoded image signal supplied from the adding unit 105. In addition, a decoded image for which decoding of the entire image has been completed is stored as a reference image by a predetermined number of images, and the reference image signal is supplied to the motion vector detection unit 107 and the motion compensation prediction unit 108.

動きベクトル検出部107は、入力端子100より供給される予測ブロックの画像信号と、復号画像メモリ106に記憶された参照画像信号の入力を受けて、各参照画像に対する動きベクトルを検出し、動きベクトル値を予測モード判定部109に供給する。   The motion vector detection unit 107 receives the prediction block image signal supplied from the input terminal 100 and the reference image signal stored in the decoded image memory 106, detects the motion vector for each reference image, and detects the motion vector. The value is supplied to the prediction mode determination unit 109.

一般的な動きベクトルの検出方法は、画像信号と同一位置より所定の移動量だけ移動させた参照画像に相当する画像信号について誤差評価値を算出し、誤差評価値が最小となる移動量を動きベクトルとする。誤差評価値としては、画素毎の差分絶対値の総和SAD(Sum of Absolute Difference)や、画素毎の二乗誤差値の総和SSE(Sum of Square Error)等を利用する。さらに、動きベクトルの符号化に関わる符号量も誤差評価値に含めることも可能である。   A general motion vector detection method calculates an error evaluation value for an image signal corresponding to a reference image moved by a predetermined movement amount from the same position as the image signal, and moves the movement amount that minimizes the error evaluation value. Let it be a vector. As the error evaluation value, a sum of absolute differences SAD (Sum of Absolute Difference) for each pixel, a sum of square error values SSE (Sum of Square Error) for each pixel, or the like is used. Furthermore, the code amount related to the coding of the motion vector can also be included in the error evaluation value.

動き補償予測部108は、予測モード判定部109より指定される参照画像指定情報と、動きベクトル値に従って、復号画像メモリ106内の参照画像指定情報で示される参照画像を、動きベクトル値だけ予測ブロックの画像信号と同一位置より移動させた位置の画像信号を取得して予測信号を生成する。   The motion compensated prediction unit 108 predicts the reference image indicated by the reference image designation information in the decoded image memory 106 by a motion vector value according to the reference image designation information designated by the prediction mode determination unit 109 and the motion vector value. An image signal at a position moved from the same position as the image signal is acquired to generate a prediction signal.

予測モード判定部109より指定される予測モードが単予測の場合には、1つの参照画像から取得した予測信号を動き補償予測信号とし、予測モードが双予測の場合には、2つの参照画像から取得した予測信号を重みづけ平均したものを動き補償予測信号とし、動き補償予測信号を予測モード判定部109に供給する。ここでは双予測の重みづけ平均の比率を1:1とする。   When the prediction mode specified by the prediction mode determination unit 109 is uni-prediction, a prediction signal acquired from one reference image is used as a motion-compensated prediction signal. When the prediction mode is bi-prediction, two reference images are used. A weighted average of the obtained prediction signals is used as a motion compensation prediction signal, and the motion compensation prediction signal is supplied to the prediction mode determination unit 109. Here, the ratio of the weighted average of bi-prediction is set to 1: 1.

図4(a)〜(d)は、動き補償予測の予測種別について説明するための図である。単一の参照画像からの予測を行う処理を単予測と定義し、単予測の場合はL0予測またはL1予測という2つの参照画像管理リストに登録された参照画像のいずれか一方を利用する。   4A to 4D are diagrams for explaining the prediction type of motion compensation prediction. The process of performing prediction from a single reference image is defined as single prediction. In the case of single prediction, one of reference images registered in two reference image management lists, L0 prediction and L1 prediction, is used.

図4(a)は単予測であってL0予測の参照画像(RefL0Pic)が符号化対象画像(CurPic)より前の時刻にある場合を示している。図4(b)は単予測であってL0予測の参照画像が符号化対象画像より後の時刻にある場合を示している。同様に、図4(a)および図4(b)のL0予測の参照画像をL1予測の参照画像(RefL1Pic)に置き換えて単予測を行うこともできる。   FIG. 4A shows a case of single prediction and the reference image (RefL0Pic) for L0 prediction is at a time before the encoding target image (CurPic). FIG. 4B shows a case in which the prediction image is a single prediction and the reference image of the L0 prediction is at a time after the encoding target image. Similarly, the L0 prediction reference image shown in FIGS. 4A and 4B can be replaced with the L1 prediction reference image (RefL1Pic) to perform single prediction.

2つの参照画像からの予測を行う処理を双予測と定義し、双予測の場合はL0予測とL1予測の双方を利用してBI予測と表現する。図4(c)は双予測であってL0予測の参照画像が符号化対象画像より前の時刻にあって、L1予測の参照画像が符号化対象画像より後の時刻にある場合を示している。図4(d)は双予測であってL0予測の参照画像とL1予測の参照画像が符号化対象画像より前の時刻にある場合を示している。このように、L0/L1の予測種別と時間の関係は、L0が過去方向、L1が未来方向とは限定されずに用いることが可能である。   The process of performing prediction from two reference images is defined as bi-prediction. In the case of bi-prediction, both L0 prediction and L1 prediction are used to represent BI prediction. FIG. 4C illustrates a case where bi-prediction is performed, and the reference image for L0 prediction is at a time before the encoding target image and the reference image for L1 prediction is at a time after the encoding target image. . FIG. 4D shows a case of bi-prediction, where the reference image for L0 prediction and the reference image for L1 prediction are at a time before the encoding target image. As described above, the relationship between the prediction type of L0 / L1 and time can be used without being limited to L0 being the past direction and L1 being the future direction.

図1に戻り、予測モード判定部109は、動きベクトル検出部107より入力される各参照画像に対して検出された動きベクトル値と、動き情報メモリ111に格納された動き情報(予測種別、動きベクトル値、及び参照画像指定情報)をもとに、実施の形態1において定義した動き補償予測モードのそれぞれに対して用いられる、参照画像指定情報と動きベクトル値を動き補償予測部108に設定する。設定した値によって、動き補償予測部108から供給される動き補償予測信号と、入力端子100より供給される予測ブロックの画像信号を用いて、最適な動き補償予測モードを決定する。   Returning to FIG. 1, the prediction mode determination unit 109 detects the motion vector value detected for each reference image input from the motion vector detection unit 107 and the motion information stored in the motion information memory 111 (prediction type, motion Based on the vector value and the reference image designation information), the reference image designation information and the motion vector value used for each of the motion compensation prediction modes defined in the first embodiment are set in the motion compensation prediction unit 108. . Based on the set value, an optimal motion compensation prediction mode is determined using the motion compensation prediction signal supplied from the motion compensation prediction unit 108 and the image signal of the prediction block supplied from the input terminal 100.

予測モード判定部109は、決定した予測モード、及び予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定する情報を、動き情報符号化部110に供給し、決定した予測モード及びその予測モードに対する、予測種別、動きベクトル値、及び参照画像指定情報を動き情報メモリ111に供給すると共に、減算部101及び加算部105に決定した予測モードに対応する予測信号を供給する。   The prediction mode determination unit 109 supplies information that identifies the determined prediction mode and the prediction type, motion vector, and reference image designation information corresponding to the prediction mode to the motion information encoding unit 110, and determines the determined prediction mode and A prediction type, a motion vector value, and reference image designation information for the prediction mode are supplied to the motion information memory 111, and a prediction signal corresponding to the determined prediction mode is supplied to the subtraction unit 101 and the addition unit 105.

動画像符号化装置において、基準とする参照画像を符号化するために同一画面内の符号化済画像を用いて予測を行う画面内予測が行われるが、実施の形態1は画面間予測に注目したものであるため、画面内予測に関連する構成要素は省略する。予測モード判定部109の詳細な構成については後述する。   In the moving image encoding apparatus, intra-frame prediction is performed in which prediction is performed using an encoded image in the same screen in order to encode a reference image as a reference. Embodiment 1 focuses on inter-screen prediction. Therefore, the components related to the intra prediction are omitted. A detailed configuration of the prediction mode determination unit 109 will be described later.

動き情報符号化部110は、予測モード判定部109より供給される予測モード、及び予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定する情報を所定のシンタックス構造に従って符号化することで、動き情報の符号列を生成し、多重化部112に供給する。   The motion information encoding unit 110 encodes the prediction mode supplied from the prediction mode determination unit 109 and information specifying the prediction type, the motion vector, and the reference image designation information according to the prediction mode according to a predetermined syntax structure. Thus, a code string of motion information is generated and supplied to the multiplexing unit 112.

動き情報メモリ111は、予測モード判定部109より供給される動き情報(予測種別、動きベクトル、及び参照画像インデックス)を、最小予測ブロックサイズ単位を基準として所定画像分記憶する。処理対象の予測ブロックの隣接ブロックの動き情報を空間候補ブロック群とし、処理対象の予測ブロックと同一位置にあるColPic上のブロックとその周辺ブロックの動き情報を時間候補ブロック群とする。   The motion information memory 111 stores motion information (prediction type, motion vector, and reference image index) supplied from the prediction mode determination unit 109 for a predetermined image on the basis of the minimum prediction block size unit. The motion information of the adjacent block of the prediction block to be processed is set as a spatial candidate block group, and the motion information of the block on the ColPic at the same position as the prediction block to be processed and its neighboring blocks is set as the time candidate block group.

ColPicとは、処理対象の予測ブロックとは別の復号済みの画像であって、復号画像メモリ106に参照画像として記憶されている。実施の形態1では、ColPicは直前に復号した参照画像とする。なお、実施の形態1では、ColPicは直前に復号した参照画像としたが、表示順で直前の参照画像や表示順で直後の参照画像でもよく、符号化ストリーム中に、ColPicに用いる参照画像を直接指定することも可能である。   ColPic is a decoded image different from the prediction block to be processed, and is stored in the decoded image memory 106 as a reference image. In Embodiment 1, ColPic is a reference image decoded immediately before. In the first embodiment, ColPic is the reference image decoded immediately before, but the reference image immediately before in display order or the reference image immediately after in display order may be used, and the reference image used for ColPic is included in the encoded stream. Direct specification is also possible.

動き情報メモリ111は、空間候補ブロック群と時間候補ブロック群の動き情報を、候補ブロック群の動き情報として予測モード判定部109に供給する。多重化部112は、予測誤差符号化部103から供給される予測誤差の符号化列と、動き情報符号化部110から供給される動き情報の符号化列を多重化することで符号化ビットストリームを生成し、出力端子113経由で、記録媒体・伝送路等に当該符号化ビットストリームを出力する。   The motion information memory 111 supplies the motion information of the spatial candidate block group and the temporal candidate block group to the prediction mode determination unit 109 as motion information of the candidate block group. The multiplexing unit 112 multiplexes the prediction error encoded sequence supplied from the prediction error encoding unit 103 and the motion information encoded sequence supplied from the motion information encoding unit 110 to encode the encoded bit stream. And the encoded bit stream is output to the recording medium / transmission path via the output terminal 113.

図1に示した動画像符号化装置の構成は、CPU(Central Processing Unit)、フレームメモリ、ハードディスクなどを備える情報処理装置等のハードウェアによっても実現可能である。   The configuration of the moving picture encoding apparatus shown in FIG. 1 can also be realized by hardware such as an information processing apparatus including a CPU (Central Processing Unit), a frame memory, and a hard disk.

図5は、本発明の実施の形態1に係る動画像符号化装置における符号化処理の動作の流れ示すフローチャートである。予測ブロック単位毎に、入力端子100より処理対象の予測ブロック画像を取得する(S500)。動きベクトル検出部107は、処理対象の予測ブロック画像と復号画像メモリ106に格納された複数の参照画像より、参照画像毎の動きベクトル値を算出する(S501)。   FIG. 5 is a flowchart showing the flow of the encoding process in the video encoding apparatus according to Embodiment 1 of the present invention. A prediction block image to be processed is acquired from the input terminal 100 for each prediction block unit (S500). The motion vector detection unit 107 calculates a motion vector value for each reference image from the prediction block image to be processed and a plurality of reference images stored in the decoded image memory 106 (S501).

続いて、予測モード判定部109は、動きベクトル検出部107より供給される動きベクトルと、動き情報メモリ111に格納された動き情報を用いて、実施の形態1において定義した動き補償予測モードのそれぞれに対する予測信号を、動き補償予測部108を用いて取得し、最適な予測モードを選択し、予測信号を生成する(S502)。ステップS502の処理の詳細については後述する。   Subsequently, the prediction mode determination unit 109 uses each of the motion vectors supplied from the motion vector detection unit 107 and the motion information stored in the motion information memory 111 to each of the motion compensation prediction modes defined in the first embodiment. Is obtained using the motion compensation prediction unit 108, an optimal prediction mode is selected, and a prediction signal is generated (S502). Details of the processing in step S502 will be described later.

続いて、減算部101は、処理対象の予測ブロック画像と予測モード判定部109より供給された予測信号との差分を予測誤差信号として算出する(S503)。動き情報符号化部110は、予測モード判定部109より供給される予測モード、及び予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定する情報を所定のシンタックス構造に従って符号化し、動き情報の符号化データを生成する(S504)。   Subsequently, the subtraction unit 101 calculates a difference between the prediction block image to be processed and the prediction signal supplied from the prediction mode determination unit 109 as a prediction error signal (S503). The motion information encoding unit 110 encodes the prediction mode supplied from the prediction mode determination unit 109 and information specifying the prediction type, the motion vector, and the reference image designation information according to the prediction mode according to a predetermined syntax structure. Then, encoded data of motion information is generated (S504).

続いて、予測誤差符号化部103は、直交変換・量子化部102で生成された量子化された予測誤差信号をエントロピー符号化して、予測誤差の符号化データを生成する(S505)。多重化部112は、動き情報符号化部110から供給される動き情報の符号化データと、予測誤差符号化部103から供給される予測誤差の符号化データを多重化し、符号化ビットストリームを生成する(S506)。   Subsequently, the prediction error encoding unit 103 entropy encodes the quantized prediction error signal generated by the orthogonal transform / quantization unit 102 to generate encoded data of the prediction error (S505). The multiplexing unit 112 multiplexes the motion information encoded data supplied from the motion information encoding unit 110 and the prediction error encoded data supplied from the prediction error encoding unit 103 to generate an encoded bitstream. (S506).

加算部105は、逆量子化・逆変換部104より供給される復号予測誤差信号と、予測モード判定部109より供給される予測信号を加算して、復号画像信号を生成する(S507)。加算部105によって、生成された復号画像信号が復号画像メモリ106に供給、格納され、以降に符号化する符号化画像の動き補償予測処理に用いられる(S508)。動き情報メモリ111は、動きベクトル検出部107より供給される動き情報(予測種別、動きベクトル、及び参照画像指定情報)を最小の予測ブロックサイズ単位で格納する(S509)。   The adding unit 105 adds the decoded prediction error signal supplied from the inverse quantization / inverse transform unit 104 and the prediction signal supplied from the prediction mode determination unit 109 to generate a decoded image signal (S507). The generated decoded image signal is supplied to and stored in the decoded image memory 106 by the adding unit 105, and is used for motion compensation prediction processing of an encoded image to be encoded later (S508). The motion information memory 111 stores the motion information (prediction type, motion vector, and reference image designation information) supplied from the motion vector detection unit 107 in units of the minimum predicted block size (S509).

[動画像復号装置全体構成]
図6は、本発明の実施の形態1に係る動画像復号装置の構成を示す図である。以下、各部の動作について説明する。実施の形態1に係る動画像復号装置は、入力端子600、多重分離部601、予測差分情報復号部602、逆量子化・逆変換部603、加算部604、復号画像メモリ605、動き情報復号部606、動き情報メモリ607、動き補償予測部608、及び出力端子609を備える。
[Overall configuration of video decoding apparatus]
FIG. 6 is a diagram showing a configuration of the moving picture decoding apparatus according to Embodiment 1 of the present invention. Hereinafter, the operation of each unit will be described. The video decoding apparatus according to Embodiment 1 includes an input terminal 600, a demultiplexing unit 601, a prediction difference information decoding unit 602, an inverse quantization / inverse transformation unit 603, an addition unit 604, a decoded image memory 605, and a motion information decoding unit. 606, a motion information memory 607, a motion compensation prediction unit 608, and an output terminal 609.

入力端子600より符号化ビットストリームが多重分離部601に供給される。多重分離部601は、供給された符号化ビットストリームの符号列を予測誤差情報の符号化列と、予測モード、並びに予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定する情報で構成される動き情報の符号化列に分離する。当該予測誤差情報の符号化列を予測差分情報復号部602に供給し、当該動き情報の符号化列を動き情報復号部606に供給する。   The encoded bit stream is supplied from the input terminal 600 to the demultiplexing unit 601. The demultiplexing unit 601 specifies the code sequence of the supplied encoded bitstream, the encoded sequence of prediction error information, the prediction mode, the prediction type according to the prediction mode, the motion vector, and the reference image designation information Are separated into motion information encoded sequences. The encoded sequence of the prediction error information is supplied to the prediction difference information decoding unit 602, and the encoded sequence of the motion information is supplied to the motion information decoding unit 606.

予測差分情報復号部602は、多重分離部601より供給された予測誤差情報の符号化列を復号し、量子化された予測誤差信号を生成する。予測差分情報復号部602は、生成した量子化された予測誤差信号を逆量子化・逆変換部603に供給する。   The prediction difference information decoding unit 602 decodes the encoded sequence of the prediction error information supplied from the demultiplexing unit 601 and generates a quantized prediction error signal. The prediction difference information decoding unit 602 supplies the generated quantized prediction error signal to the inverse quantization / inverse transform unit 603.

逆量子化・逆変換部603は、予測差分情報復号部602より供給される量子化された予測誤差信号を逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し、復号予測誤差信号を加算部604に供給する。   The inverse quantization / inverse transform unit 603 performs a process such as inverse quantization or inverse orthogonal transform on the quantized prediction error signal supplied from the prediction difference information decoding unit 602 to generate a prediction error signal, and performs decoding prediction. The error signal is supplied to the adding unit 604.

加算部604は、逆量子化・逆変換部603より供給される復号予測誤差信号と、動き補償予測部608より供給される予測信号を加算して復号画像信号を生成し、復号画像信号を復号画像メモリ605に供給する。   The adder 604 adds the decoded prediction error signal supplied from the inverse quantization / inverse transform unit 603 and the prediction signal supplied from the motion compensation prediction unit 608 to generate a decoded image signal, and decodes the decoded image signal This is supplied to the image memory 605.

復号画像メモリ605は、図1の動画像符号化装置における復号画像メモリ106と同じ機能を有し、加算部604から供給された復号画像信号を格納し、参照画像信号を動き補償予測部608に供給する。また、復号画像メモリ605は、格納された復号画像信号を再生時刻に合わせて、画像の表示順序に従い出力端子609に供給する。   The decoded image memory 605 has the same function as the decoded image memory 106 in the moving image encoding apparatus in FIG. 1, stores the decoded image signal supplied from the addition unit 604, and stores the reference image signal in the motion compensation prediction unit 608. Supply. Also, the decoded image memory 605 supplies the stored decoded image signal to the output terminal 609 in accordance with the image display order in accordance with the reproduction time.

動き情報復号部606は、多重分離部601より供給される動き情報の符号化列より、予測モード、並びに予測モードに応じた予測種別、動きベクトル、及び参照画像指定情報を特定する情報を動き情報として復号する。復号した動き情報と、動き情報メモリ607より供給される候補ブロック群の動き情報より、動き補償予測に用いる予測種別、動きベクトル及び参照画像指定情報を再生し、動き補償予測部608に供給する。また、動き情報復号部606は再生した動き情報を、動き情報メモリ607に供給する。動き情報復号部606の詳細な構成については後述する。   The motion information decoding unit 606 obtains information specifying the prediction mode, the prediction type corresponding to the prediction mode, the motion vector, and the reference image designation information from the motion information encoded sequence supplied from the demultiplexing unit 601. Decrypt as Based on the decoded motion information and the motion information of the candidate block group supplied from the motion information memory 607, the prediction type, motion vector, and reference image designation information used for motion compensation prediction are reproduced and supplied to the motion compensation prediction unit 608. In addition, the motion information decoding unit 606 supplies the reproduced motion information to the motion information memory 607. A detailed configuration of the motion information decoding unit 606 will be described later.

動き情報メモリ607は、図1の動画像符号化装置における動き情報メモリ111と同じ機能を持ち、動き情報復号部606より供給される再生した動き情報を最小予測ブロックサイズ単位を基準として所定画像分記憶する。また、動き情報メモリ607は、空間候補ブロック群と時間候補ブロック群の動き情報を、候補ブロック群の動き情報として動き情報復号部606に供給する。   The motion information memory 607 has the same function as that of the motion information memory 111 in the video encoding apparatus of FIG. 1, and reproduces the reproduced motion information supplied from the motion information decoding unit 606 for a predetermined image on the basis of the minimum prediction block size unit. Remember. Also, the motion information memory 607 supplies the motion information of the space candidate block group and the time candidate block group to the motion information decoding unit 606 as motion information of the candidate block group.

動き補償予測部608は、図1の動画像符号化装置における動き補償予測部108と同じ機能を持ち、動き情報復号部606より供給される動き情報に基づいて、復号画像メモリ605内の参照画像指定情報が示す参照画像を、動きベクトル値だけ予測ブロックの画像信号と同一位置より移動させた位置の画像信号を取得して予測信号を生成する。動き補償予測の予測種別が双予測であれば、各予測種別の予測信号を平均したものを予測信号として生成し、予測信号を加算部604に供給する。   The motion compensation prediction unit 608 has the same function as that of the motion compensation prediction unit 108 in the video encoding apparatus in FIG. 1, and based on the motion information supplied from the motion information decoding unit 606, a reference image in the decoded image memory 605. A prediction signal is generated by acquiring an image signal at a position obtained by moving the reference image indicated by the designation information from the same position as the image signal of the prediction block by the motion vector value. If the prediction type of motion compensation prediction is bi-prediction, an average of the prediction signals of each prediction type is generated as a prediction signal, and the prediction signal is supplied to the adding unit 604.

出力端子609は、復号画像メモリ605より供給された復号画像信号を、ディスプレイなどの表示媒体に出力することで、復号画像信号が再生される。   The output terminal 609 reproduces a decoded image signal by outputting the decoded image signal supplied from the decoded image memory 605 to a display medium such as a display.

図6に示した動画像復号装置の構成も、図1に示した動画像符号化装置の構成と同様に、CPU、フレームメモリ、ハードディスクなどを備える情報処理装置等のハードウェアによっても実現可能である。   The configuration of the video decoding device shown in FIG. 6 can also be realized by hardware such as an information processing device including a CPU, a frame memory, a hard disk, etc., similarly to the configuration of the video encoding device shown in FIG. is there.

図7は、本発明の実施の形態1に係る動画像復号装置における復号処理の動作の流れを示すフローチャートである。多重分離部601は、入力端子600より供給された符号化ビットストリームを予測誤差情報の符号化列と、動き情報の符号化列に分離する(S700)。分離された動き情報の符号化列は動き情報復号部606に供給され、動き情報メモリ607より供給される候補ブロック群の動き情報を用いて、復号対象ブロックの動き情報を復号する(S701)。ステップS701の処理の詳細については後述する。   FIG. 7 is a flowchart showing a flow of decoding processing in the video decoding apparatus according to Embodiment 1 of the present invention. The demultiplexing unit 601 separates the coded bit stream supplied from the input terminal 600 into a coded sequence of prediction error information and a coded sequence of motion information (S700). The separated coded sequence of motion information is supplied to the motion information decoding unit 606, and the motion information of the decoding target block is decoded using the motion information of the candidate block group supplied from the motion information memory 607 (S701). Details of the processing in step S701 will be described later.

分離された予測誤差情報の符号化列は、予測差分情報復号部602に供給され、量子化された予測誤差信号として復号され、逆量子化・逆変換部603で逆量子化や逆直交変換などの処理を施されることで、復号予測誤差信号が生成される(S702)。   The separated coded sequence of prediction error information is supplied to the prediction difference information decoding unit 602, decoded as a quantized prediction error signal, and dequantized or inverse orthogonal transformed by an inverse quantization / inverse transformation unit 603. By performing the above process, a decoded prediction error signal is generated (S702).

動き情報復号部606より、復号対象ブロックの動き情報が動き補償予測部608に供給され、動き補償予測部608は動き情報にしたがって動き補償予測を行い予測信号を算出する(S703)。加算部604は、逆量子化・逆変換部603から供給された復号予測誤差信号と、動き補償予測部608から供給された予測信号とを加算し、復号画像信号を生成する(S704)。   The motion information decoding unit 606 supplies the motion information of the decoding target block to the motion compensation prediction unit 608, and the motion compensation prediction unit 608 performs motion compensation prediction according to the motion information to calculate a prediction signal (S703). The adding unit 604 adds the decoded prediction error signal supplied from the inverse quantization / inverse transform unit 603 and the prediction signal supplied from the motion compensation prediction unit 608 to generate a decoded image signal (S704).

加算部604より供給された復号画像信号は、復号画像メモリ605に格納される(S705)と共に、動き情報復号部606より供給された復号対象ブロックの動き情報が動き情報メモリ607に格納される(S706)。これで、予測ブロック単位の復号処理が終了する。   The decoded image signal supplied from the adding unit 604 is stored in the decoded image memory 605 (S705), and the motion information of the decoding target block supplied from the motion information decoding unit 606 is stored in the motion information memory 607 ( S706). This completes the decoding process in units of prediction blocks.

[実施の形態1の詳細機能説明]
本発明の実施の形態1に係る動画像符号化装置の予測モード判定部109の動作、図5のフローチャートにおけるステップS502の処理、並びに本発明の実施の形態1に係る動画像復号装置における動き情報復号部606の動作、図7のフローチャートにおけるステップS701の処理の詳細動作を、以下説明する。
[Detailed Function Description of Embodiment 1]
The operation of the prediction mode determination unit 109 of the video encoding device according to Embodiment 1 of the present invention, the process of Step S502 in the flowchart of FIG. 5, and the motion information in the video decoding device of Embodiment 1 of the present invention The operation of the decoding unit 606 and the detailed operation of the process of step S701 in the flowchart of FIG. 7 will be described below.

[実施の形態1における動き補償予測モードの定義]
図8(a)、(b)は、本発明の実施の形態1における動き補償予測において使用される動き情報を符号化するための2つの予測モードを説明するための図である。第一の予測モードは、予測対象ブロックと当該予測対象ブロックに隣接する符号化済ブロックにおける時間方向や空間方向の動きの連続性を用いて、当該予測対象ブロックは自身の動き情報を直接符号化せずに、空間及び時間的に隣接するブロックの動き情報を符号化に使用する手法であり、結合予測モード(マージモード)と呼ぶ。
[Definition of Motion Compensation Prediction Mode in Embodiment 1]
FIGS. 8A and 8B are diagrams for explaining two prediction modes for encoding motion information used in motion compensated prediction according to Embodiment 1 of the present invention. In the first prediction mode, the prediction target block directly encodes its own motion information using the continuity of motion in the temporal direction and the spatial direction in the prediction target block and the encoded block adjacent to the prediction target block. In this method, the motion information of spatially and temporally adjacent blocks is used for encoding, which is called a joint prediction mode (merge mode).

第一の予測モードは、予測対象ブロックと当該予測対象ブロックに隣接する符号化済ブロックにおける時間方向や空間方向の動きの連続性を用いて、当該予測対象ブロックは自身の動き情報を直接符号化せずに、空間及び時間的に隣接するブロックの動き情報を符号化に使用する手法であり、結合予測モード(マージモード)と呼ぶ。   In the first prediction mode, the prediction target block directly encodes its own motion information using the continuity of motion in the temporal direction and the spatial direction in the prediction target block and the encoded block adjacent to the prediction target block. In this method, the motion information of spatially and temporally adjacent blocks is used for encoding, which is called a joint prediction mode (merge mode).

ここで、空間的に隣接するブロックとは予測対象ブロックと同じ画像に属する符号化済みブロックの中で、予測対象ブロックに隣接するブロックを指す。ここで、時間的に隣接するブロックとは予測対象ブロックとは別の符号化済みの画像に属するブロックの中で、予測対象ブロックと同一空間位置及びその周辺にあるブロックを指す。   Here, spatially adjacent blocks indicate blocks adjacent to the prediction target block among the encoded blocks belonging to the same image as the prediction target block. Here, the temporally adjacent blocks indicate blocks in the same spatial position as the prediction target block and in the vicinity thereof among blocks belonging to an encoded image different from the prediction target block.

結合予測モードの場合には、複数の隣接ブロック候補より選択的に結合する動き情報が定義でき、動き情報は使用する隣接ブロックを指定する情報(インデックス)を符号化することで、指定情報をもとに取得した動き情報をそのまま動き補償予測に用いる。更に、結合予測モードにおいては、予測差分情報を符号化伝送せずに、結合予測モードで予測された予測信号を復号ピクチャとするSkipモードを定義し、結合した動き情報のみの少ない情報で復号画像が再生できる構成を有する。Skipモードにおいて伝送する動き情報は、結合予測モードと同様に隣接ブロックを定義する指定情報となる。   In the combined prediction mode, motion information that is selectively combined from a plurality of adjacent block candidates can be defined, and the motion information is encoded with information (index) that specifies the adjacent block to be used. The obtained motion information is used as it is for motion compensation prediction. Further, in the joint prediction mode, a Skip mode is defined in which the prediction signal predicted in the joint prediction mode is a decoded picture without encoding prediction transmission of the prediction difference information, and a decoded image is obtained with information having only the combined motion information. Can be reproduced. The motion information transmitted in the Skip mode is designation information that defines adjacent blocks, as in the combined prediction mode.

第二の予測モードは、動き情報の構成要素を個別にすべて符号化し、予測ブロックに対して予測誤差の少ない動き情報を伝送する手法であり、動き検出予測モードと呼ぶ。動き検出予測モードは、従来の動き補償予測の動き情報の符号化と同様に、参照画像を特定するための情報(参照画像インデックス)と、動きベクトルを特定するための情報が別々に符号化される。   The second prediction mode is a technique for individually coding all the components of motion information and transmitting motion information with little prediction error to the prediction block, and is called a motion detection prediction mode. In the motion detection prediction mode, information for specifying a reference image (reference image index) and information for specifying a motion vector are encoded separately, as in the case of encoding motion information in conventional motion compensation prediction. The

動き検出予測モードには、単予測と双予測のどちらを使用するか予測モードで指示し、単予測単予測の場合には1つの参照画像に対する参照画像を特定する情報と、動きベクトルの予測ベクトルとの差分ベクトルを符号化する。双予測の場合には2つの参照画像に対する参照画像を特定する情報と、動きベクトルがそれぞれ個別に符号化される。動きベクトルに対する予測ベクトルは、AVCと同様に隣接ブロックの動き情報から生成されるが、結合予測モードと同様に、複数の隣接ブロック候補より予測ベクトルに用いる動きベクトルを選択でき、動きベクトルは予測ベクトルに使用する隣接ブロックを指定する情報(インデックス)と差分ベクトルの2つを符号化することで伝送される。   In the motion detection prediction mode, the prediction mode indicates whether to use single prediction or bi-prediction. In the case of single prediction single prediction, information for specifying a reference image for one reference image, and a motion vector prediction vector The difference vector is encoded. In the case of bi-prediction, information for specifying reference images for two reference images and a motion vector are individually encoded. The prediction vector for the motion vector is generated from the motion information of the adjacent block similarly to the AVC. However, similarly to the combined prediction mode, the motion vector used for the prediction vector can be selected from a plurality of adjacent block candidates, and the motion vector is the prediction vector. The information is transmitted by encoding two pieces of information (index) for designating adjacent blocks to be used for and a difference vector.

[実施の形態1における動画像符号化装置における予測モード判定部の詳細動作説明]
図9は、実施の形態1の動画像符号化装置における予測モード判定部109の詳細な構成を示す図である。予測モード判定部109は、最適な動き補償予測モードを決定する機能を有する。
[Detailed Operation Description of Prediction Mode Determination Unit in Moving Picture Encoding Device in Embodiment 1]
FIG. 9 is a diagram illustrating a detailed configuration of the prediction mode determination unit 109 in the video encoding apparatus according to Embodiment 1. The prediction mode determination unit 109 has a function of determining an optimal motion compensation prediction mode.

予測モード判定部109は、動き補償予測生成部900、予測誤差算出部901、予測ベクトル算出部902、差分ベクトル算出部903、動き情報符号量算出部904、予測モード評価部905、結合動き情報算出部906、及び結合動き補償予測生成部907を含む。   The prediction mode determination unit 109 includes a motion compensation prediction generation unit 900, a prediction error calculation unit 901, a prediction vector calculation unit 902, a difference vector calculation unit 903, a motion information code amount calculation unit 904, a prediction mode evaluation unit 905, and a combined motion information calculation. A combined motion compensation prediction generation unit 907.

図1における予測モード判定部109に対して、動きベクトル検出部107より入力された動きベクトル値が、動き補償予測生成部900に供給され、動き情報メモリ111より入力された動き情報が、予測ベクトル算出部902、及び結合動き情報算出部906に供給される。   1, the motion vector value input from the motion vector detection unit 107 is supplied to the motion compensation prediction generation unit 900, and the motion information input from the motion information memory 111 is the prediction vector. The calculation unit 902 and the combined motion information calculation unit 906 are supplied.

また、動き補償予測部108に対して、動き補償予測生成部900、及び結合動き補償予測生成部907、から、動き補償予測に用いる参照画像指定情報と動きベクトルが出力され、動き補償予測部108より、生成された動き補償予測画像が予測誤差算出部901に供給される。予測誤差算出部901には更に、入力端子100より符号化対象となる予測ブロックの画像信号が供給される。   Also, the motion compensation prediction generation unit 900 and the combined motion compensation prediction generation unit 907 output reference image designation information and motion vectors used for motion compensation prediction to the motion compensation prediction unit 108, and the motion compensation prediction unit 108. Thus, the generated motion compensated prediction image is supplied to the prediction error calculation unit 901. The prediction error calculation unit 901 is further supplied with an image signal of a prediction block to be encoded from the input terminal 100.

また、予測モード評価部905から、動き情報符号化部110に対して符号化する動き情報と確定した予測モード情報を供給し、動き情報メモリ111に動き情報を供給し、動き補償予測信号を減算部101及び加算部105に供給する。   Also, the motion information encoding unit 110 is supplied with motion information to be encoded and the determined prediction mode information from the prediction mode evaluation unit 905, the motion information is supplied to the motion information memory 111, and the motion compensated prediction signal is subtracted. To the unit 101 and the addition unit 105.

動き補償予測生成部900は、予測に使用可能な各参照画像に対して算出された動きベクトル値を受信し、参照画像指定情報を予測ベクトル算出部902に供給し、参照画像指定情報と動きベクトルを出力する。   The motion compensation prediction generation unit 900 receives the motion vector value calculated for each reference image that can be used for prediction, supplies reference image designation information to the prediction vector calculation unit 902, and the reference image designation information and the motion vector Is output.

予測誤差算出部901は、入力された動き補償予測画像と処理対象の予測ブロック画像より、予測誤差評価値を算出する。誤差評価値を算出するための演算としては、動きベクトル検出における誤差評価値と同様に、画素毎の差分絶対値の総和SADや、画素毎の二乗誤差値の総和SSE等を使用できる。更に、予測残差の符号化を行う際に施される、直交変換・量子化を行うことによって復号画像に生じる歪成分の量を加味することで、より正確な誤差評価値が算出可能である。この場合には、予測誤差算出部901内に、図1における減算部101、直交変換・量子化部102、逆量子化・逆変換部104、加算部105の機能を有することで実現できる。   The prediction error calculation unit 901 calculates a prediction error evaluation value from the input motion compensated prediction image and the prediction block image to be processed. As the calculation for calculating the error evaluation value, the sum SAD of the absolute difference value for each pixel, the sum SSE of the square error value for each pixel, and the like can be used as in the error evaluation value in motion vector detection. Furthermore, a more accurate error evaluation value can be calculated by taking into account the amount of distortion components generated in the decoded image by performing orthogonal transform / quantization performed when encoding the prediction residual. . In this case, the prediction error calculation unit 901 can be realized by having the functions of the subtraction unit 101, the orthogonal transformation / quantization unit 102, the inverse quantization / inverse transformation unit 104, and the addition unit 105 in FIG.

予測誤差算出部901は、各予測モードにおいて算出された予測誤差評価値と、動き補償予測信号を予測モード評価部905に供給する。   The prediction error calculation unit 901 supplies the prediction error evaluation value calculated in each prediction mode and the motion compensation prediction signal to the prediction mode evaluation unit 905.

予測ベクトル算出部902は、動き補償予測生成部900より参照画像指定情報を供給され、動き情報メモリ111から供給される隣接ブロックの動き情報における候補ブロック群より、指定された参照画像に対する動きベクトル値を入力し、複数の予測ベクトルを予測ベクトル候補リストと共に生成し、差分ベクトル算出部903に、参照画像指定情報と共に供給する。予測ベクトル算出部902は、予測ベクトルの候補を作成し、予測ベクトル候補として登録する。   The prediction vector calculation unit 902 is supplied with the reference image designation information from the motion compensation prediction generation unit 900, and the motion vector value for the designated reference image from the candidate block group in the motion information of the adjacent block supplied from the motion information memory 111. Are generated together with the prediction vector candidate list, and supplied to the difference vector calculation unit 903 together with the reference image designation information. The prediction vector calculation unit 902 creates prediction vector candidates and registers them as prediction vector candidates.

差分ベクトル算出部903は、予測ベクトル算出部902より供給された、予測ベクトル候補のそれぞれに対して、動き補償予測生成部900から供給される動きベクトル値との差分を計算し、差分ベクトル値を算出する。算出された差分ベクトル値と予測ベクトル候補に対する指定情報である予測ベクトルインデックスを符号化した際、符号量が最も少ない。差分ベクトル算出部903は、最も少ない情報量である予測ベクトルに対する予測ベクトルインデックスと差分ベクトル値を参照画像指定情報と共に、動き情報符号量算出部904に供給する。   The difference vector calculation unit 903 calculates the difference between each of the prediction vector candidates supplied from the prediction vector calculation unit 902 and the motion vector value supplied from the motion compensated prediction generation unit 900, and calculates the difference vector value. calculate. When the prediction vector index which is the designation information for the calculated difference vector value and the prediction vector candidate is encoded, the code amount is the smallest. The difference vector calculation unit 903 supplies the prediction vector index and the difference vector value for the prediction vector having the smallest information amount, together with the reference image designation information, to the motion information code amount calculation unit 904.

動き情報符号量算出部904は、差分ベクトル算出部903より供給される、差分ベクトル値、参照画像指定情報、予測ベクトルインデックス、および予測モードより、各予測モードにおける動き情報に要する符号量を算出する。また、動き情報符号量算出部904は、結合動き補償予測生成部907より、結合予測モードにおいて伝送する必要がある、結合動き情報インデックスと予測モードを示すための情報を受け取り、結合予測モードにおける動き情報に要する符号量を算出する。   The motion information code amount calculation unit 904 calculates the code amount required for motion information in each prediction mode from the difference vector value, reference image designation information, prediction vector index, and prediction mode supplied from the difference vector calculation unit 903. . Also, the motion information code amount calculation unit 904 receives information indicating the combined motion information index and the prediction mode that need to be transmitted in the combined prediction mode from the combined motion compensation prediction generation unit 907, and performs motion in the combined prediction mode. The amount of code required for information is calculated.

動き情報符号量算出部904は、各予測モードにおいて算出された動き情報及び動き情報に要する符号量を予測モード評価部905に供給する。   The motion information code amount calculation unit 904 supplies the motion information calculated in each prediction mode and the code amount required for the motion information to the prediction mode evaluation unit 905.

予測モード評価部905は、予測誤差算出部901より供給された各予測モードの予測誤差評価値と、動き情報符号量算出部904から供給された各予測モードの動き情報符号量を用いて、各予測モードの総合動き補償予測誤差評価値を算出し、最も少ない評価値である予測モードを選択し、選択した予測モードと選択した予測モードに対する動き情報を、動き情報符号化部110、動き情報メモリ111に出力する。また、予測モード評価部905は同様に、予測誤差算出部901より供給された動き補償予測信号に対して、選択した予測モードにおける予測信号を選択して減算部101及び加算部105に出力する。   The prediction mode evaluation unit 905 uses the prediction error evaluation value of each prediction mode supplied from the prediction error calculation unit 901 and the motion information code amount of each prediction mode supplied from the motion information code amount calculation unit 904. An overall motion compensation prediction error evaluation value for the prediction mode is calculated, a prediction mode having the smallest evaluation value is selected, motion information for the selected prediction mode and the selected prediction mode, a motion information encoding unit 110, a motion information memory To 111. Similarly, the prediction mode evaluation unit 905 selects a prediction signal in the selected prediction mode for the motion compensated prediction signal supplied from the prediction error calculation unit 901 and outputs it to the subtraction unit 101 and the addition unit 105.

結合動き情報算出部906は、動き情報メモリ111より供給される隣接ブロックの動き情報における候補ブロック群を用いて、単予測であるか双予測であるかを示す予測種別、参照画像指定情報、動きベクトル値で構成される動き情報として、複数の動き情報を結合動き情報候補リストと共に生成し、結合動き補償予測生成部907に供給する。   The combined motion information calculation unit 906 uses a candidate block group in the motion information of the adjacent blocks supplied from the motion information memory 111, a prediction type indicating whether it is uni-prediction or bi-prediction, reference image designation information, motion A plurality of pieces of motion information are generated together with the combined motion information candidate list as motion information composed of vector values, and supplied to the combined motion compensation prediction generation unit 907.

図10は、結合動き情報算出部906の構成を示す図である。結合動き情報算出部906は、空間結合動き情報候補リスト生成部1000、結合動き情報候補リスト削除部1001、時間結合動き情報候補リスト生成部1002、第1結合動き情報候補リスト追加部1003および第2結合動き情報候補リスト追加部1004を含む。結合動き情報算出部906は、空間的に隣接する候補ブロック群より所定の順番で動き情報の候補を作成し、その中から、同一の動き情報を持つ候補を削除したのち、時間的に隣接する候補ブロック群より作成した動き情報の候補を追加することで、有効な動き情報のみを結合動き情報候補として登録する。この時間結合動き情報候補リスト生成部を結合動き情報候補リスト削除部より後段に配置した点が、本実施の形態の特徴的な構成であり、時間結合動き情報候補を同一の動き情報を削除する処理の対象からはずすことにより、符号化効率を落とすことなく演算量を削減することが可能である。結合動き情報算出部906の詳細動作に関しては、後述する。   FIG. 10 is a diagram illustrating a configuration of the combined motion information calculation unit 906. The combined motion information calculation unit 906 includes a spatial combined motion information candidate list generation unit 1000, a combined motion information candidate list deletion unit 1001, a temporal combined motion information candidate list generation unit 1002, a first combined motion information candidate list addition unit 1003, and a second. A combined motion information candidate list adding unit 1004 is included. The combined motion information calculation unit 906 creates motion information candidates in a predetermined order from spatially adjacent candidate block groups, deletes candidates having the same motion information from the candidates, and then temporally adjacent. By adding motion information candidates created from the candidate block group, only valid motion information is registered as combined motion information candidates. The point that this temporally combined motion information candidate list generation unit is arranged after the combined motion information candidate list deletion unit is a characteristic configuration of the present embodiment, and deletes the same motion information from temporally combined motion information candidates. By eliminating the processing target, it is possible to reduce the amount of calculation without reducing the encoding efficiency. The detailed operation of the combined motion information calculation unit 906 will be described later.

図9に戻り、結合動き補償予測生成部907は、結合動き情報算出部906より供給された結合動き情報候補リストより、登録された結合動き情報候補のそれぞれに対して、動き情報より、予測種別に応じて1つの参照画像(単予測)もしくは2つの参照画像(双予測)の参照画像指定情報と動きベクトル値を動き補償予測部108に指定して、動き補償予測画像を生成すると共に、それぞれの結合動き情報インデックスを動き情報符号量算出部904に供給する。   Returning to FIG. 9, the combined motion compensation prediction generation unit 907 determines, based on the motion information, the prediction type for each registered combined motion information candidate from the combined motion information candidate list supplied from the combined motion information calculation unit 906. In accordance with the reference image designation information and motion vector value of one reference image (uni-prediction) or two reference images (bi-prediction), the motion compensated prediction unit 108 is designated to generate a motion compensated prediction image, The combined motion information index is supplied to the motion information code amount calculation unit 904.

図9の構成では、それぞれの結合動き情報インデックスにおける予測モード評価は、予測モード評価部905で施されるが、予測誤差評価値及び動き情報符号量を予測誤差算出部901及び動き情報符号量算出部904より受け取り、結合動き補償予測生成部907内で、最適な結合動き補償予測の結合動きインデックスを確定させた後に、他の予測モードを含めた最適予測モードの評価を行う構成を取ることも可能である。   In the configuration of FIG. 9, the prediction mode evaluation for each combined motion information index is performed by the prediction mode evaluation unit 905. The prediction error evaluation value and the motion information code amount are calculated by the prediction error calculation unit 901 and the motion information code amount calculation. In the combined motion compensated prediction generation unit 907, the optimal combined motion index of the optimal combined motion compensated prediction is determined and then the optimal prediction mode including other prediction modes is evaluated. Is possible.

図11は、図5のステップS502の動き補償予測モード/予測信号生成処理の詳細動作を説明するためのフローチャートである。この動作は、図9の予測モード判定部109における詳細動作を示している。   FIG. 11 is a flowchart for explaining detailed operations of the motion compensation prediction mode / prediction signal generation processing in step S502 of FIG. This operation shows the detailed operation in the prediction mode determination unit 109 of FIG.

最初に、結合動き情報候補リスト生成を行い(S1100)、結合予測モード評価値を生成する(S1101)。続いて、予測モード評価値を生成し(S1102)、生成した評価値を比較することで最適な予測モードを選択する(S1103)。ただし、ステップS1101及びS1102の評価値生成の順序はこれに限らない。   First, a combined motion information candidate list is generated (S1100), and a combined prediction mode evaluation value is generated (S1101). Subsequently, a prediction mode evaluation value is generated (S1102), and the optimal evaluation mode is selected by comparing the generated evaluation values (S1103). However, the order of evaluation value generation in steps S1101 and S1102 is not limited to this.

選択された予測モードに従い予測信号を出力し(S1104)、選択された予測モードに従い動き情報を出力する(S1105)ことで、予測ブロック単位の動き補償予測モード/予測信号生成処理が終了する。ステップS1100、S1101、及びS1102の詳細動作に関しては後述する。   A prediction signal is output in accordance with the selected prediction mode (S1104), and motion information is output in accordance with the selected prediction mode (S1105), thereby completing the motion compensation prediction mode / prediction signal generation process for each prediction block. Detailed operations in steps S1100, S1101, and S1102 will be described later.

図12は、図11のステップS1100の結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。この動作は、図9の結合動き情報算出部906における構成の詳細動作を示している。   FIG. 12 is a flowchart for explaining the detailed operation of generating the combined motion information candidate list in step S1100 of FIG. This operation shows the detailed operation of the configuration in the combined motion information calculation unit 906 in FIG.

図10の空間結合動き情報候補リスト生成部1000は、動き情報メモリ111より供給される空間候補ブロック群から領域外である候補ブロックや、イントラモードである候補ブロックを除いた候補ブロックから空間結合動き情報候補リストを生成する(S1200)。空間結合動き情報候補リスト生成の詳細な動作は後述する。   The spatially coupled motion information candidate list generation unit 1000 in FIG. 10 performs spatially coupled motion from candidate blocks excluding candidate blocks outside the region or candidate blocks in the intra mode from the spatial candidate block group supplied from the motion information memory 111. An information candidate list is generated (S1200). Detailed operations for generating the spatially coupled motion information candidate list will be described later.

続いて、結合動き情報候補リスト削除部1001において、生成された空間結合動き情報候補リストより、同一の動き情報を持つ結合動き情報候補を削除して動き情報候補リストを更新する(S1201)。結合動き情報候補削除の詳細な動作は後述する。   Subsequently, the combined motion information candidate list deletion unit 1001 deletes the combined motion information candidate having the same motion information from the generated spatial combined motion information candidate list and updates the motion information candidate list (S1201). Detailed operation of the combined motion information candidate deletion will be described later.

時間結合動き情報候補リスト生成部1002は、続いて動き情報メモリ111より供給される時間候補ブロック群から領域外である候補ブロックや、イントラモードである候補ブロックを除いた候補ブロックから時間結合動き情報候補リストを生成し(S1202)、時間結合動き情報候補リストと結合して結合動き情報候補リストとする。時間結合動き情報候補リスト生成の詳細な動作は後述する。   The temporally combined motion information candidate list generation unit 1002 subsequently extracts temporally combined motion information from candidate blocks excluding candidate blocks outside the region from the temporal candidate block group supplied from the motion information memory 111 and candidate blocks that are in the intra mode. A candidate list is generated (S1202) and combined with the temporally combined motion information candidate list to form a combined motion information candidate list. Detailed operation of the time combination motion information candidate list generation will be described later.

次に、第1結合動き情報候補リスト追加部1003は、時間結合動き情報候補リスト生成部1002で生成された結合動き情報候補リストに登録された結合動き情報候補から0個から4個の第1補充結合動き情報候補を生成して結合動き情報候補リストに追加し(S1203)、当該結合動き情報候補リストを第2結合動き情報候補リスト追加部1004に供給する。第1結合動き情報候補リスト追加の詳細な動作は後述する。   Next, the first combined motion information candidate list adding unit 1003 outputs 0 to 4 first combined motion information candidates registered in the combined motion information candidate list generated by the temporal combined motion information candidate list generating unit 1002. A supplementary combined motion information candidate is generated and added to the combined motion information candidate list (S1203), and the combined motion information candidate list is supplied to the second combined motion information candidate list adding unit 1004. The detailed operation of adding the first combined motion information candidate list will be described later.

次に、第2結合動き情報候補リスト追加部1004は、第1結合動き情報候補リスト追加部1003より供給される結合動き情報候補リストに依存しない0個から2個の第2補充結合動き情報候補を生成して第1結合動き情報候補リスト追加部1003より供給される結合動き情報候補リストに追加し(S1204)、処理を終了する。第2結合動き情報候補リスト追加の詳細な動作は後述する。   Next, the second combined motion information candidate list adding unit 1004 includes 0 to 2 second supplemental combined motion information candidates that do not depend on the combined motion information candidate list supplied from the first combined motion information candidate list adding unit 1003. Is added to the combined motion information candidate list supplied from the first combined motion information candidate list adding unit 1003 (S1204), and the process ends. Detailed operations for adding the second combined motion information candidate list will be described later.

動き情報メモリ111より、結合動き情報算出部906に供給される動き情報の候補ブロック群には、空間候補ブロック群と時間候補ブロック群が含まれる。まず、空間結合動き情報候補リスト生成について説明する。   The candidate block group of motion information supplied from the motion information memory 111 to the combined motion information calculation unit 906 includes a spatial candidate block group and a temporal candidate block group. First, generation of a spatially coupled motion information candidate list will be described.

図13は、空間結合動き情報候補リスト生成に用いる空間候補ブロック群を示す図である。空間候補ブロック群は、符号化対象画像の予測対象ブロックに隣接している同一画像のブロックを示す。ブロック群は、その管理が最小予測ブロックサイズ単位で行われ、候補ブロックの位置は、最小予測ブロックサイズの単位で管理されるが、隣接ブロックの予測ブロックサイズが最小予測ブロックサイズよりも大きな場合には、予測ブロックサイズ内の全ての候補ブロックに同一の動き情報が格納される。実施の形態1においては、隣接するブロック群の内、図13に示すようなブロックA0、ブロックA1、ブロックB0、ブロックB1、ブロックB2の5ブロックを空間候補ブロック群とする。   FIG. 13 is a diagram illustrating a spatial candidate block group used for generating a spatially coupled motion information candidate list. The spatial candidate block group indicates a block of the same image adjacent to the prediction target block of the encoding target image. The block group is managed in units of the minimum prediction block size, and the position of the candidate block is managed in units of the minimum prediction block size, but when the prediction block size of the adjacent block is larger than the minimum prediction block size The same motion information is stored in all candidate blocks within the predicted block size. In the first embodiment, among the adjacent block groups, five blocks of block A0, block A1, block B0, block B1, and block B2 as shown in FIG. 13 are set as space candidate block groups.

図14は、空間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。空間候補ブロック群に含まれる5つの候補ブロックのうち、ブロックA0、ブロックA1、ブロックB0、ブロックB1、ブロックB2について、ブロックA1、ブロックB1、ブロックB0、ブロックA0の順序で以下の処理を繰り返し行う(S1400〜S1403)。   FIG. 14 is a flowchart for explaining the detailed operation of generating the spatially coupled motion information candidate list. Of the five candidate blocks included in the spatial candidate block group, the following processing is repeated for block A0, block A1, block B0, block B1, and block B2 in the order of block A1, block B1, block B0, and block A0. (S1400 to S1403).

最初に候補ブロックの有効性を検査する(S1401)。候補ブロックが領域外でなくイントラモードでない場合、候補ブロックは有効となる。候補ブロックが有効であれば(S1401:YES)、候補ブロックの動き情報を空間結合動き情報候補リストに追加する(S1402)。   First, the validity of the candidate block is checked (S1401). If the candidate block is not out of the region and not in the intra mode, the candidate block is valid. If the candidate block is valid (S1401: YES), the motion information of the candidate block is added to the spatially combined motion information candidate list (S1402).

ステップS1400からS1403までの繰り返し処理に続いて、空間結合動き情報候補リストに追加された候補数が4未満だった場合(S1404:YES)、候補ブロックB2の有効性を検査する(S1405)。ブロックB2が領域外でなくイントラモードでない場合(S1405:YES)、ブロックB2の動き情報を空間結合動き情報候補リストに追加する(S1406)。   Following the repetitive processing from step S1400 to S1403, when the number of candidates added to the spatial combination motion information candidate list is less than 4 (S1404: YES), the validity of the candidate block B2 is checked (S1405). When the block B2 is not out of the region and is not in the intra mode (S1405: YES), the motion information of the block B2 is added to the spatially coupled motion information candidate list (S1406).

ここでは、空間結合動き情報候補リストには4以下の候補ブロックの動き情報が含まれるとしたが、空間候補ブロック群は、処理対象の予測ブロックに隣接する少なくとも1以上の処理済みのブロックであり、候補ブロックの有効性によって空間結合動き情報候補リストの数が変動すればよく、これに限定されない。   Here, it is assumed that the spatial combination motion information candidate list includes motion information of four or less candidate blocks, but the spatial candidate block group is at least one or more processed blocks adjacent to the prediction block to be processed. The number of spatially coupled motion information candidate lists may be changed depending on the effectiveness of the candidate block, and the present invention is not limited to this.

図15は、結合動き情報候補削除の詳細動作を説明するためのフローチャートである。空間結合動き情報候補リスト作成処理により、生成される結合動き情報候補の最大数をMaxSpatialCandとすると、i=MaxSpatialCand−1からi>0までの結合動き情報候補(候補(i))に対して以下の処理を繰り返し行う(S1500〜S1506)。   FIG. 15 is a flowchart for explaining the detailed operation of combined motion information candidate deletion. Assuming that the maximum number of combined motion information candidates generated by the spatial combined motion information candidate list creation process is Max Spatial Cand, the following is performed for combined motion information candidates (candidate (i)) from i = Max Spatial Cand-1 to i> 0. These processes are repeated (S1500 to S1506).

候補(i)が存在していれば(S1501のYES)、ii=i−1からii>=0までの結合動き情報候補(候補(ii))に対して以下の処理を繰り返し行い(S1502〜S1505)、候補(i)が存在しない場合(S1501のNO)はステップS1502からS1505までの候補(ii)についての繰り返し処理をスキップする。   If the candidate (i) exists (YES in S1501), the following processing is repeated for the combined motion information candidates (candidate (ii)) from ii = i-1 to ii> = 0 (S1502 to S1502). S1505) If the candidate (i) does not exist (NO in S1501), the iterative process for the candidate (ii) from step S1502 to S1505 is skipped.

まず、候補(i)の動き情報(動き情報(i))と候補(ii)の動き情報(動き情報(ii))が同一であるか検査し(S1503)、同じである場合(S1503のYES)、候補(i)を結合動き情報候補リストから削除し(S1504)、候補(ii)についての繰り返し処理を終了する。   First, whether the motion information (motion information (i)) of the candidate (i) and the motion information (motion information (ii)) of the candidate (ii) are the same is checked (S1503), and if they are the same (YES in S1503) ), Candidate (i) is deleted from the combined motion information candidate list (S1504), and the iterative process for candidate (ii) ends.

動き情報(i)と動き情報(ii)が同一でない場合(S1503のNO)、iiから1を減算し、候補(ii)についての処理を繰り返す(S1502〜S1505)。   When the motion information (i) and the motion information (ii) are not the same (NO in S1503), 1 is subtracted from ii, and the process for the candidate (ii) is repeated (S1502 to S1505).

ステップS1500からS1505までの繰り返し処理に続いて、iから1を減算し、候補(i)についての処理を繰り返す(S1500〜S1506)。   Subsequent to the repetitive processing from steps S1500 to S1505, 1 is subtracted from i, and the processing for candidate (i) is repeated (S1500 to S1506).

図16に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち時間結合動き情報候補を含まない4つの空間結合動き情報候補について総当たりで比較して同一性を判定し、重複する候補を削除する。   FIG. 16 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, four spatially combined motion information candidates that do not include temporally combined motion information candidates are compared by brute force to determine identity, and duplicate candidates are deleted.

ここで、結合予測モードは時間方向や空間方向の動きの連続性を用いて、予測対象ブロックは自身の動き情報を直接符号化せずに、空間及び時間的に隣接するブロックの動き情報を符号化に使用する手法であるが、空間結合動き情報候補が空間方向の連続性を基づいているのに対し、時間結合動き情報候補は時間方向の連続性に基づいて後述する方法で生成されており、これらの性質は異なるものである。よって時間結合動き情報候補と空間結合動き情報候補に同一の動き情報が含まれることは稀であり、同一の動き情報を削除するための結合動き情報候補削除処理の対象から時間結合動き情報候補を除いても、最終的に得られる結合動き情報候補リストに同一の動き情報が含まれることは稀である。   Here, the joint prediction mode uses temporal and spatial continuity of motion, and the prediction target block encodes motion information of spatially and temporally adjacent blocks without directly encoding its own motion information. Although the spatially coupled motion information candidate is based on continuity in the spatial direction, the temporally coupled motion information candidate is generated by the method described later based on the temporal direction continuity. These properties are different. Therefore, it is rare that the same motion information is included in the temporally combined motion information candidate and the spatially combined motion information candidate, and the temporally combined motion information candidate is removed from the target of the combined motion information candidate deletion process for deleting the same motion information. Even if they are excluded, it is rare that the same motion information is included in the finally obtained combined motion information candidate list.

また、後述するように時間結合動き情報候補ブロックは最小予測ブロックよりも大きなサイズである最小空間予測ブロック単位で管理されるため、時間的に隣接する予測ブロックの大きさが最小空間予測ブロックよりも小さな場合には、本来の位置とはずれた位置の動き情報が用いられることとなり、その結果、動き情報に誤差を含む場合が多い。そのため、空間結合動き情報候補の動き情報とは異なる動き情報となることが多く、同一の動き情報を削除するための結合動き情報候補削除処理の対象から除いても影響が少ない。   Also, as will be described later, temporally combined motion information candidate blocks are managed in units of minimum spatial prediction blocks having a size larger than that of the minimum prediction block, so that the size of the temporally adjacent prediction blocks is larger than that of the minimum spatial prediction block. If it is small, motion information at a position deviating from the original position is used, and as a result, the motion information often includes an error. Therefore, the motion information is often different from the motion information of the spatially coupled motion information candidate, and there is little influence even if the motion information is excluded from the target of the combined motion information candidate deletion process for deleting the same motion information.

図17は、空間結合動き情報候補の最大数が4である場合の結合動き情報候補削除における候補の比較内容の一例である。図17(a)は空間結合動き情報候補のみを結合動き情報候補削除処理の対象とした場合の比較内容であり、図17(b)は空間結合動き情報候補と時間結合動き情報を処理の対象とした場合の比較内容である。空間結合動き情報候補のみを結合動き情報候補削除処理の対象とすることにより、動き情報を比較の回数が10回から6回に減少している。   FIG. 17 is an example of comparison contents of candidates in deletion of combined motion information candidates when the maximum number of spatially combined motion information candidates is four. FIG. 17A shows the comparison contents when only the spatially coupled motion information candidate is the target of the coupled motion information candidate deletion process, and FIG. 17B is the target of processing the spatially coupled motion information candidate and the temporally coupled motion information. It is a comparison content in the case of. By using only the spatially combined motion information candidates as the target of the combined motion information candidate deletion process, the number of comparisons of motion information is reduced from 10 times to 6 times.

このように、時間結合動き情報候補を結合動き情報候補削除処理の対象にしないことにより、同一の動き情報を適切に削除しながら、動き情報の比較の回数を10回から6回に削減することが可能である。   Thus, by not deleting the temporally combined motion information candidate as the target of the combined motion information candidate deletion process, the number of motion information comparisons is reduced from 10 to 6 while appropriately deleting the same motion information. Is possible.

続いて、時間結合動き情報候補リスト生成について説明する。図18は、時間結合動き情報候補リスト生成に用いる時間方向周辺予測ブロックの定義を説明する図である。時間候補ブロック群は、予測対象ブロックが属する画像とは別の復号済みの画像ColPicに属するブロックの中で、予測対象ブロックと同位置及びその周辺にあるブロックを示す。ブロック群は、その管理が最小空間予測ブロックサイズ単位で行われ、候補ブロックの位置は、最小空間予測ブロックサイズの単位で管理される。本発明の実施の形態1においては、最小空間予測ブロックサイズは最小予測ブロックサイズを垂直方向、水平方向にそれぞれ2倍した大きさとする。時間的に隣接するブロックの予測ブロックのサイズが最小空間予測ブロックサイズよりも大きな場合には、予測ブロックサイズ内のすべての候補ブロックに同一の動きの情報が格納される。一方、予測ブロックのサイズが最小空間予測ブロックサイズよりも小さな場合には、時間方向周辺予測ブロックの左上に位置する予測ブロックの動きの情報を時間方向周辺予測ブロックの情報とする。図18(b)に予測ブロックサイズが最小空間予測ブロックサイズより小さい場合の時間方向周辺予測ブロックの動き情報を示す。   Subsequently, generation of a time combination motion information candidate list will be described. FIG. 18 is a diagram illustrating the definition of the temporal direction peripheral prediction block used for generating the temporally combined motion information candidate list. The temporal candidate block group indicates blocks in the same position as and around the prediction target block among the blocks belonging to the decoded image ColPic different from the image to which the prediction target block belongs. The block group is managed in units of the minimum spatial prediction block size, and the position of the candidate block is managed in units of the minimum spatial prediction block size. In Embodiment 1 of the present invention, the minimum spatial prediction block size is set to a size obtained by doubling the minimum prediction block size in the vertical and horizontal directions. When the size of the prediction block of temporally adjacent blocks is larger than the minimum spatial prediction block size, the same motion information is stored in all candidate blocks within the prediction block size. On the other hand, when the size of the prediction block is smaller than the minimum spatial prediction block size, the motion information of the prediction block located at the upper left of the temporal direction peripheral prediction block is used as the temporal direction peripheral prediction block information. FIG. 18B shows motion information of the temporal direction neighboring prediction block when the prediction block size is smaller than the minimum spatial prediction block size.

図18(a)におけるA1〜A4、B1〜B4、C、D、E、F1〜F4、G1〜G4、H、I1〜I16の位置のブロックが、時間的に隣接するブロック群となる。実施の形態1においては、これら時間的に隣接するブロック群の内、時間候補ブロック群をブロックHとブロックI6の2ブロックとする。   Blocks at positions A1 to A4, B1 to B4, C, D, E, F1 to F4, G1 to G4, H, and I1 to I16 in FIG. 18A are temporally adjacent block groups. In the first embodiment, among these temporally adjacent block groups, the temporal candidate block group is assumed to be two blocks, block H and block I6.

図19は、時間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。時間候補ブロック群に含まれる2つの候補ブロックであるブロックHとブロックI6について(S1800、S1805)、ブロックH、ブロックI6の順序で候補ブロックの有効性を検査する(S1801)。候補ブロックが有効である場合(S1801:YES)、ステップS1802〜ステップS1804の処理が行われ、生成された動き情報が時間結合動き情報候補リストに登録され、処理が終了する。候補ブロックが画面領域外の位置を示す場合や、候補ブロックがイントラ予測ブロックである場合(S1801:NO)、候補ブロックが有効でなく、次の候補ブロックの有効/無効判定が行われる。
候補ブロックが有効である場合(S1801:YES)、候補ブロックの動き情報をもとに結合動き情報候補に登録する参照画像選択候補を確定する(S1802)。実施の形態1ではL0予測の参照画像を、L0予測の参照画像のうち処理対象画像に最も近い距離にある参照画像とし、L1予測の参照画像を、L1予測の参照画像のうち処理対象画像に最も近い距離にある参照画像とする。
FIG. 19 is a flowchart for explaining the detailed operation of generating the time combination motion information candidate list. Regarding the block H and the block I6 which are two candidate blocks included in the time candidate block group (S1800, S1805), the validity of the candidate block is checked in the order of the block H and the block I6 (S1801). If the candidate block is valid (S1801: YES), the processing of step S1802 to step S1804 is performed, the generated motion information is registered in the time combination motion information candidate list, and the processing ends. When the candidate block indicates a position outside the screen area, or when the candidate block is an intra prediction block (S1801: NO), the candidate block is not valid, and valid / invalid determination of the next candidate block is performed.
If the candidate block is valid (S1801: YES), the reference image selection candidate to be registered in the combined motion information candidate is determined based on the motion information of the candidate block (S1802). In the first embodiment, the L0 prediction reference image is the reference image that is the closest to the processing target image among the L0 prediction reference images, and the L1 prediction reference image is the processing target image among the L1 prediction reference images. The reference image is the closest distance.

ここでの参照画像選択候補の確定手法は、L0予測の参照画像とL1予測の参照画像が決定できればよく、これに限定されない。符号化処理と復号処理で同一の手法で参照画像を確定することで、符号化時に意図した参照画像を確定できる。他の確定手法としては、例えばL0予測の参照画像及びL1予測の参照画像の参照画像インデックスが0である参照画像を選択する手法や、空間隣接ブロックが使用しているL0参照画像及びL1参照画像で、最も多く使用されている参照画像を予測対象ブロックにおける参照画像として選択する手法や、符号化ストリーム中で各予測種別の参照画像を指定する手法を用いることが可能である。   The determination method of the reference image selection candidate here is not limited to this as long as the reference image for L0 prediction and the reference image for L1 prediction can be determined. The reference image intended at the time of encoding can be determined by determining the reference image by the same method in the encoding process and the decoding process. As another determination method, for example, a method of selecting a reference image having a reference image index of 0 for a reference image for L0 prediction and a reference image for L1 prediction, or a L0 reference image and a L1 reference image used by spatially neighboring blocks. Thus, it is possible to use a method of selecting the most frequently used reference image as a reference image in the prediction target block, or a method of specifying a reference image of each prediction type in the encoded stream.

次に、候補ブロックの動き情報をもとに結合動き情報候補に登録する動きベクトル値を確定する(S1803)。実施の形態1における、時間結合動き情報は、候補ブロックの動き情報で有効な予測種別である動きベクトル値をもとに、双予測の動き情報を算出する。候補ブロックの予測種別がL0予測もしくはL1予測の単予測の場合には、予測に用いられている予測種別(L0予測或いはL1予測)の動き情報を選択し、その参照画像指定情報と動きベクトル値を双予測動き情報生成の基準値とする。   Next, a motion vector value to be registered in the combined motion information candidate is determined based on the motion information of the candidate block (S1803). In the first embodiment, the temporally coupled motion information calculates bi-prediction motion information based on motion vector values that are effective prediction types in motion information of candidate blocks. When the prediction type of the candidate block is L0 prediction or L1 prediction single prediction, motion information of the prediction type (L0 prediction or L1 prediction) used for prediction is selected, and its reference image designation information and motion vector value are selected. Is a reference value for generating bi-predictive motion information.

候補ブロックの予測種別が双予測である場合には、L0予測或いはL1予測のどちらか一方の動き情報を基準値として選択する。基準値の選択方法は、例えばColPicと同じ予測種別に存在する動き情報を選択する、候補ブロックのL0予測、L1予測のそれぞれの参照画像でColPicとの画像間距離が近い方を選択する、或いは候補ブロックのL0予測、L1予測のそれぞれの動きベクトルが符号化処理対象画像と交差する方を選択する等が挙げられる。   If the prediction type of the candidate block is bi-prediction, motion information of either L0 prediction or L1 prediction is selected as a reference value. The selection method of the reference value is, for example, selecting motion information that exists in the same prediction type as ColPic, selecting the reference image of the candidate block that has a shorter inter-image distance from ColPic in the L0 prediction and L1 prediction, or For example, it is possible to select a direction in which the motion vectors of the L0 prediction and the L1 prediction of the candidate block intersect with the encoding process target image.

双予測動き情報生成の基準とする動きベクトル値が確定したら、結合動き情報候補に登録する動きベクトル値を算出する。   When the motion vector value used as a reference for bi-predictive motion information generation is determined, a motion vector value to be registered in the combined motion information candidate is calculated.

図20は、時間結合動き情報に対する基準動きベクトル値ColMvに対する、L0予測、L1予測に対して登録する動きベクトル値mvL0t、mvL1tの算出手法を説明するための図である。   FIG. 20 is a diagram for explaining a calculation method of motion vector values mvL0t and mvL1t registered for L0 prediction and L1 prediction with respect to the reference motion vector value ColMv for temporally coupled motion information.

基準動きベクトル値ColMvに対するColPicと候補ブロックの基準とする動きベクトルの対象となる参照画像との画像間距離をColDistとする。L0予測、L1予測の各参照画像と処理対象画像との画像間距離をCurrL0Dist、CurrL1Distとする。ColMvを、ColDistとCurrL0Dist、CurrL1Distの距離比率でスケーリングした動きベクトルを、それぞれに登録する動きベクトルとする。具体的には、登録する動きベクトル値mvL0t、mvL1tは、下記式1、2で算出される。
mvL0t=mvCol×CurrL0Dist/ColDist・・・(式1)
mvL1t=mvCol×CurrL1Dist/ColDist・・・(式2)
となる。
The distance between images between ColPic for the reference motion vector value ColMv and the reference image that is the target of the motion vector used as a reference for the candidate block is referred to as ColDist. The inter-image distance between each reference image of L0 prediction and L1 prediction and the processing target image is set to CurrL0Dist and CurrL1Dist. A motion vector obtained by scaling ColMv with a distance ratio of ColDist to CurrL0Dist and CurrL1Dist is set as a motion vector to be registered. Specifically, the motion vector values mvL0t and mvL1t to be registered are calculated by the following formulas 1 and 2.
mvL0t = mvCol × CurrL0Dist / ColDist (Formula 1)
mvL1t = mvCol × CurrL1Dist / ColDist (Formula 2)
It becomes.

図19に戻り、このようにして生成された、双予測の参照画像選択情報(インデックス)と、動きベクトル値を結合動き情報候補に追加し(S1804)、時間結合動き情報候補リスト作成処理が終了する。   Returning to FIG. 19, the bi-predicted reference image selection information (index) and the motion vector value generated in this way are added to the combined motion information candidates (S1804), and the temporal combined motion information candidate list creation process ends. To do.

続いて、第1結合動き情報候補リスト追加部1003の詳細な動作について説明する。図21は、第1結合動き情報候補リスト追加部1003の動作を説明するためのフローチャートである。最初に、時間結合動き情報候補リスト生成部1002より供給される結合動き情報候補リストに登録された結合動き情報候補の数(NumCandList)と結合動き情報候補最大数(MaxNumMergeCand)から、第1追加結合動き情報候補を生成する最大数であるMaxNumGenCandを式3より算出する(S2000)。
MaxNumGenCand=MaxNumMergeCand-NumCandList; (NumCandList>1)
MaxNumGenCand=0; (NumCandList<=1) (式3)
Next, a detailed operation of the first combined motion information candidate list adding unit 1003 will be described. FIG. 21 is a flowchart for explaining the operation of the first combined motion information candidate list adding unit 1003. First, from the number of combined motion information candidates (NumCandList) and the maximum number of combined motion information candidates (MaxNumMergeCand) registered in the combined motion information candidate list supplied from the temporally combined motion information candidate list generation unit 1002, the first additional combination is performed. MaxNumGenCand, which is the maximum number for generating motion information candidates, is calculated from Equation 3 (S2000).
MaxNumGenCand = MaxNumMergeCand-NumCandList; (NumCandList> 1)
MaxNumGenCand = 0; (NumCandList <= 1) (Formula 3)

次に、MaxNumGenCandが0より大きいか検査する(S2001)。MaxNumGenCandが0より大きくなければ(S2001のNO)、処理を終了する。MaxNumGenCandが0より大きければ(S2001のYES)、以下の処理を行う。まず、組み合わせ検査回数であるloopTimesを決定する。loopTimesはNumCandList×NumCandListに設定する。ただし、loopTimesが8を超える場合にはloopTimesは8に制限する(S2002)。ここで、loopTimesは0から7までの整数となる。loopTimesだけ以下の処理を繰り返し行う(S2002からS2009)。   Next, it is inspected whether MaxNumGenCand is larger than 0 (S2001). If MaxNumGenCand is not greater than 0 (NO in S2001), the process ends. If MaxNumGenCand is greater than 0 (YES in S2001), the following processing is performed. First, loopTimes that is the number of combination inspections is determined. loopTimes is set to NumCandList × NumCandList. However, if loopTimes exceeds 8, loopTimes is limited to 8 (S2002). Here, loopTimes is an integer from 0 to 7. The following processing is repeatedly performed for loopTimes (S2002 to S2009).

結合動き情報候補Mと結合動き情報候補Nの組み合わせを決定する(S2003)。ここで、組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係について説明する。   A combination of the combined motion information candidate M and the combined motion information candidate N is determined (S2003). Here, the relationship between the number of combination inspections, the combined motion information candidate M, and the combined motion information candidate N will be described.

図22は組み合わせ検査回数と結合動き情報候補Mと結合動き情報候補Nの関係を説明するための図である。図22のようにMとNは異なる値であって、MとNの合計値が小さくなる順に設定される。   FIG. 22 is a diagram for explaining the relationship among the number of combination inspections, the combined motion information candidate M, and the combined motion information candidate N. As shown in FIG. 22, M and N are different values, and are set in order of decreasing total value of M and N.

結合動き情報候補MのL0予測が有効で且つ結合動き情報候補NのL1予測が有効であるか検査する(S2004)。結合動き情報候補MのL0予測が有効で且つ結合動き情報候補NのL1予測が有効であれば(S2004のYES)、結合動き情報候補MのL0予測の参照画像と動きベクトルが結合動き情報候補NのL1予測の参照画像と動きベクトルと異なるか検査する(S2005)。結合動き情報候補MのL0予測が有効で且つ結合動き情報候補NのL1予測が有効でなければ(S2004のNO)、次の組み合わせを処理する。結合動き情報候補MのL0予測の参照画像と結合動き情報候補NのL1予測の参照画像が異なれば(S2005のYES)、結合動き情報候補MのL0予測の動きベクトルと参照画像を結合動き情報候補NのL1予測の動きベクトルと参照画像と組み合わせて双結合動き情報候補を生成する(S2006)。ここでは、第1追加結合動き情報候補として、ある結合動き情報候補のL0予測とそれとは異なる結合動き情報候補のL1予測の動き情報を組み合わせた双結合動き情報を生成する。結合動き情報候補MのL0予測の参照画像と結合動き情報候補NのL1予測の参照画像が同じであれば(S2005のNO)、次の組み合わせを処理する。ステップS2006に続いて、双結合動き情報候補を結合動き情報候補リストに追加する(S2007)。ステップS2007に続いて、生成した双結合動き情報の数がMaxNumGenCandであるか検査する(S2008)。生成された双結合動き情報の数がMaxNumGenCandであれば(S2008のYES)、処理を終了する。生成された双結合動き情報の数がMaxNumGenCandでなければ(S2008のNO)、次の組み合わせを処理する。   It is checked whether the L0 prediction of the combined motion information candidate M is valid and the L1 prediction of the combined motion information candidate N is valid (S2004). If the L0 prediction of the combined motion information candidate M is valid and the L1 prediction of the combined motion information candidate N is valid (YES in S2004), the reference image and the motion vector of the combined motion information candidate M for the L0 prediction are combined motion information candidates. It is checked whether the reference image and the motion vector of N L1 prediction are different (S2005). If the L0 prediction of the combined motion information candidate M is not valid and the L1 prediction of the combined motion information candidate N is not valid (NO in S2004), the next combination is processed. If the L0 prediction reference image of the combined motion information candidate M and the L1 prediction reference image of the combined motion information candidate N are different (YES in S2005), the combined motion information of the L0 prediction motion vector of the combined motion information candidate M and the reference image is combined. A combined motion information candidate is generated by combining the motion vector of L1 prediction of candidate N and the reference image (S2006). Here, as the first additional combined motion information candidate, bi-coupled motion information is generated by combining L0 prediction of a certain combined motion information candidate and L1 prediction motion information of a different combined motion information candidate. If the reference image for L0 prediction of the combined motion information candidate M and the reference image for L1 prediction of the combined motion information candidate N are the same (NO in S2005), the next combination is processed. Subsequent to step S2006, bi-join motion information candidates are added to the joint motion information candidate list (S2007). Subsequent to step S2007, it is checked whether the number of generated double-coupled motion information is MaxNumGenCand (S2008). If the number of generated double coupled motion information is MaxNumGenCand (YES in S2008), the process ends. If the number of generated double coupled motion information is not MaxNumGenCand (NO in S2008), the next combination is processed.

ここでは、第1追加結合動き情報候補を、結合動き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトルと参照画像を、別の結合動き情報候補のL1予測の動きベクトルと参照画像と組み合わせて、動き補償予測の予測種別が双予測である双結合動き情報候補としたが、これに限定されない。例えば、結合動き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトルとL1予測の動きベクトルに+1などのオフセット値を加えた動き補償予測の予測種別が双予測である結合動き情報候補、結合動き情報候補リストに登録されたある結合動き情報候補のL0予測の動きベクトルまたはL1予測の動きベクトルに+1などのオフセット値を加えた動き補償予測の予測種別が単予測である結合動き情報候補としてもよいし、それらを任意に組み合わせてもよい。   Here, the first additional combined motion information candidate is set as the L0 prediction motion vector of a certain combined motion information candidate registered in the combined motion information candidate list and the reference image, and the L1 prediction motion vector of another combined motion information candidate. In combination with the reference image, a bi-coupled motion information candidate whose prediction type of motion compensation prediction is bi-prediction is used, but the present invention is not limited to this. For example, a combined motion whose prediction type of motion compensated prediction in which an offset value such as +1 is added to a motion vector of L0 prediction and a motion vector of L1 prediction of a certain combined motion information candidate registered in the combined motion information candidate list is bi-prediction A combination in which the prediction type of motion compensated prediction in which an offset value such as +1 is added to the motion vector of the L0 prediction or the motion vector of the L1 prediction of a certain combined motion information candidate registered in the information candidate or the combined motion information candidate list is single prediction It is good also as a motion information candidate, and may combine them arbitrarily.

ここで、第1追加結合動き情報候補は、結合動き情報候補リストに登録された結合動き情報候補の動き情報と処理対象の動き情報候補の動きに微妙にずれがある場合に、結合動き情報候補リストに登録された結合動き情報候補の動き情報を修正して有効な結合動き情報候補を生成することで、符号化効率を高めることができる。   Here, the first additional combined motion information candidate is a combined motion information candidate when there is a slight difference between the motion information of the combined motion information candidate registered in the combined motion information candidate list and the motion information candidate motion to be processed. Coding efficiency can be improved by correcting the motion information of the combined motion information candidates registered in the list to generate effective combined motion information candidates.

続いて、第2結合動き情報候補リスト追加部1004の詳細な動作について説明する。図23は、第2結合動き情報候補リスト追加部1004の動作を説明するためのフローチャートである。最初に、第1結合動き情報候補リスト追加部1003より供給される結合動き情報候補リストに登録された結合動き情報候補の数(NumCandList)と結合動き情報候補最大数(MaxNumMergeCand)から、第1追加結合動き情報候補を生成する最大数であるMaxNumGenCandを式4より算出する(S2200)。
MaxNumGenCand=MaxNumMergeCand-NumCandList; (式4)
Next, the detailed operation of the second combined motion information candidate list adding unit 1004 will be described. FIG. 23 is a flowchart for explaining the operation of the second combined motion information candidate list adding unit 1004. First, the first addition from the number of combined motion information candidates (NumCandList) and the maximum number of combined motion information candidates (MaxNumMergeCand) registered in the combined motion information candidate list supplied from the first combined motion information candidate list adding unit 1003. MaxNumGenCand, which is the maximum number for generating combined motion information candidates, is calculated from Equation 4 (S2200).
MaxNumGenCand = MaxNumMergeCand-NumCandList; (Formula 4)

次に、以下の処理をiについてMaxNumGenCand回繰り返し行う(S2201からS2205)。ここで、iは0からMaxNumGenCand−1の整数となる。L0予測の動きベクトルが(0,0)、参照インデックスがiであって、L1予測の動きベクトルが(0,0)、参照インデックスがiである予測種別が双予測である第2追加結合動き情報候補を生成する(S2202)。第2追加結合動き情報候補を結合動き情報候補リストに追加する(S2203)。次のiについて処理する(S2204)。   Next, the following process is repeated MaxNumCand times for i (S2201 to S2205). Here, i is an integer from 0 to MaxNumGenCand-1. The second additional combined motion in which the motion vector for L0 prediction is (0,0), the reference index is i, the motion vector for L1 prediction is (0,0), and the prediction type is i for the reference index is bi-prediction. Information candidates are generated (S2202). The second additional combined motion information candidate is added to the combined motion information candidate list (S2203). The next i is processed (S2204).

ここでは、第2追加結合動き情報候補を、L0予測の動きベクトルが(0,0)、参照インデックスがiであって、L1予測の動きベクトルが(0,0)、参照インデックスがiである予測種別が双予測である結合動き情報候補とした。これは、一般的な動画像において、L0予測の動きベクトルとL1予測の動きベクトルが(0,0)である結合動き情報候補の発生頻度が統計的に高いためである。結合動き情報候補リストに登録された結合動き情報候補の動き情報に依存せず、統計的に利用頻度が高い結合動き情報候補であれば、これに限定されない。例えば、L0予測やL1予測の動きベクトルはそれぞれ(0,0)以外のベクトル値でもよく、L0予測とL1予測の参照インデックスが異なるように設定してもよい。また、第2追加結合動き情報候補を符号化済みの画像や符号化済みの画像の一部の発生頻度の高い動き情報とし、符号化ストリームに符号化して伝送して設定することもできる。なお、ここではBピクチャ(Bスライス)について説明したが、Pピクチャ(Pスライス)の場合は、L0予測の動きベクトルが(0,0)で、予測種別がL0予測である第2追加結合動き情報候補を生成する。   Here, the second additional combined motion information candidate has a motion vector for L0 prediction of (0, 0), a reference index of i, a motion vector of L1 prediction of (0, 0), and a reference index of i. The combined motion information candidate whose prediction type is bi-prediction was used. This is because, in a general moving image, the frequency of occurrence of combined motion information candidates in which the motion vector for L0 prediction and the motion vector for L1 prediction are (0, 0) is statistically high. The present invention is not limited to this as long as it is a combined motion information candidate that is statistically frequently used without depending on the motion information of the combined motion information candidate registered in the combined motion information candidate list. For example, the motion vectors of L0 prediction and L1 prediction may be vector values other than (0, 0), respectively, and may be set so that the reference indexes of L0 prediction and L1 prediction are different. Alternatively, the second additional combined motion information candidate can be set as an encoded image or motion information with a high occurrence frequency of a part of the encoded image, encoded in an encoded stream, and transmitted. Although the B picture (B slice) has been described here, in the case of the P picture (P slice), the second additional combined motion in which the motion vector for L0 prediction is (0, 0) and the prediction type is L0 prediction. Generate information candidates.

ここで、第2追加結合動き情報候補として結合動き情報候補リストに登録された結合動き情報候補に依存しない結合動き情報候補を設定することで、結合動き情報候補リストに登録された結合動き情報候補が0個である場合に、結合予測モードを利用することを可能とし、符号化効率を向上させることができる。また、結合動き情報候補リストに登録された結合動き情報候補の動き情報と処理対象の動き情報候補の動きが異なる場合に、新たな結合動き情報候補を生成して選択肢の幅を広げることで、符号化効率を向上させることができる。   Here, by setting a combined motion information candidate that does not depend on the combined motion information candidate registered in the combined motion information candidate list as the second additional combined motion information candidate, the combined motion information candidate registered in the combined motion information candidate list When the number is zero, it is possible to use the joint prediction mode and improve the encoding efficiency. In addition, when the motion information of the combined motion information candidate registered in the combined motion information candidate list and the motion information candidate motion to be processed are different, by generating a new combined motion information candidate and expanding the range of options, Encoding efficiency can be improved.

図24は、図11のステップS1101における結合予測モード評価値生成処理の詳細動作を説明するためのフローチャートである。この動作は、図9の結合動き補償予測生成部908を用いた構成の詳細動作を示している。   FIG. 24 is a flowchart for explaining the detailed operation of the combined prediction mode evaluation value generation process in step S1101 of FIG. This operation shows the detailed operation of the configuration using the combined motion compensation prediction generation unit 908 of FIG.

最初に予測誤差評価値を最大値に設定し、予測誤差が最小となる結合動き情報インデックスを初期化(例えば、−1などのリスト外の値)する(S2300)。結合動き情報候補リスト生成処理により、生成された結合動き情報候補リストの数をnum_of_indexとすると、i=0からnum_of_index−1までの結合動き情報候補について以下の処理を繰り返し行う(S2301からS2309)。   First, the prediction error evaluation value is set to the maximum value, and the combined motion information index that minimizes the prediction error is initialized (for example, a value outside the list such as −1) (S2300). If the number of combined motion information candidate lists generated by the combined motion information candidate list generation process is num_of_index, the following processing is repeated for combined motion information candidates from i = 0 to num_of_index-1 (S2301 to S2309).

先ず、結合動き情報候補リストよりインデックスiに格納された動き情報を取得する(S2302)。続いて動き情報符号量を算出する(S2303)。結合予測モードにおいては、結合動き情報インデックスのみが符号化されるので、結合動き情報インデックスのみが動き情報符号量となる。   First, the motion information stored in the index i is acquired from the combined motion information candidate list (S2302). Subsequently, a motion information code amount is calculated (S2303). In the joint prediction mode, since only the joint motion information index is encoded, only the joint motion information index becomes the motion information code amount.

結合動き情報インデックスの符号列としては、実施の形態1では、Truncated Unary符号列を用いる。図25は、結合動き情報候補数が5の場合のTruncated Unary符号列を示す図である。Truncated Unary符号列を用いて結合動き情報インデックスの値を符号化する場合には、結合動き情報インデックスが小さいほど、結合動き情報インデックスに割り当てられる符号ビットが小さくなる。例えば、結合動き情報候補数が5個である場合、結合動き情報インデックスが1であれば'10'の2ビットで表現されるが、結合動き情報インデックスが3であれば'1110'の4ビットで表現される。なお、ここでは上記のように結合動き情報インデックスの符号化にTruncated Unary符号列を利用しているが、他の符号列生成手法を用いることも可能であり、これに限定されない。   In the first embodiment, a Truncated Unary code string is used as the code string of the combined motion information index. FIG. 25 is a diagram illustrating a Truncated Unary code string when the number of combined motion information candidates is five. When the value of the combined motion information index is encoded using the Truncated Unary code string, the smaller the combined motion information index, the smaller the code bit assigned to the combined motion information index. For example, when the number of combined motion information candidates is 5, if the combined motion information index is 1, it is represented by 2 bits of “10”, but if the combined motion information index is 3, 4 bits of “1110”. It is expressed by Here, as described above, the Truncated Unary code string is used for encoding the combined motion information index, but other code string generation methods can be used, and the present invention is not limited to this.

続いて、動き情報の予測種別が単予測である場合(S2304:YES)、1つの参照画像に対する参照画像指定情報と動きベクトルを、図1における動き補償予測部108に設定して、動き補償単予測ブロックを生成する(S2305)。動き情報が単予測でない場合(S2304:NO)、2つの参照画像に対する参照画像指定情報と動きベクトルを動き補償予測部108に設定して、動き補償双予測ブロックを生成する(S2306)。   Subsequently, when the prediction type of the motion information is single prediction (S2304: YES), the reference image designation information and the motion vector for one reference image are set in the motion compensation prediction unit 108 in FIG. A prediction block is generated (S2305). When the motion information is not uni-prediction (S2304: NO), reference image designation information and motion vectors for two reference images are set in the motion compensated prediction unit 108 to generate a motion compensated bi-prediction block (S2306).

続いて、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、予測誤差評価値を算出し(S2307)、予測誤差評価値が最小値である場合には評価値を更新すると共に、予測誤差最小インデックスを更新する(S2308)。   Subsequently, a prediction error evaluation value is calculated from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block (S2307). If the prediction error evaluation value is the minimum value, the evaluation value is updated. The prediction error minimum index is updated (S2308).

全ての結合動き情報候補についての予測誤差評価値が比較された結果、選択された予測誤差最小インデックスを、結合予測モードで用いる結合動き情報インデックスとして、予測誤差最小値、動き補償予測ブロックと共に出力し(S2310)、結合予測モード評価値生成処理を終了する。   As a result of comparison of the prediction error evaluation values for all the combined motion information candidates, the selected prediction error minimum index is output together with the prediction error minimum value and the motion compensated prediction block as a combined motion information index used in the combined prediction mode. (S2310) The combined prediction mode evaluation value generation process ends.

図26は、図11のステップS1102の予測モード評価値生成処理の詳細動作を説明するためのフローチャートである。   FIG. 26 is a flowchart for explaining detailed operation of the prediction mode evaluation value generation processing in step S1102 of FIG.

最初に、予測モードが単予測であるか否かを判別する(S2500)。単予測であれば、処理対象とする参照画像リスト(LX)を予測に用いている参照画像リストに設定する(S2501)。単予測でなければ、双予測であるから、この場合はLXをL0とする(S2502)。   First, it is determined whether or not the prediction mode is single prediction (S2500). If it is single prediction, the reference image list (LX) to be processed is set as the reference image list used for prediction (S2501). If it is not uni-prediction, it is bi-prediction, so LX is set to L0 in this case (S2502).

次に、LX予測に対する参照画像指定情報(インデックス)と動きベクトル値を取得する(S2503)。続いて、予測ベクトル候補リストを生成し(S2504)、予測ベクトルの中から最適予測ベクトルを選択し、差分ベクトルを生成する(S2505)。最適予測ベクトルの選択手法は、予測ベクトルと伝送する動きベクトルの差分ベクトルを実際に符号化する際の符号量が最も少ないものを選択することが望ましいが、単純に差分ベクトルの水平・垂直成分の絶対値の総和が小さいものを選択するなどの手法で、簡易的に算出してもよい。   Next, reference image designation information (index) and motion vector values for LX prediction are acquired (S2503). Subsequently, a prediction vector candidate list is generated (S2504), an optimal prediction vector is selected from the prediction vectors, and a difference vector is generated (S2505). It is desirable to select the optimal prediction vector with the least amount of code when the difference vector between the prediction vector and the motion vector to be transmitted is actually encoded. However, the horizontal and vertical components of the difference vector are simply selected. The calculation may be simplified by a method such as selecting one having a small absolute sum.

続いて、再度予測モードが単予測である否かを判別し(S2506)、予測モードが単予測であればステップS2509に進む。単予測でない、すなわち、双予測であれば、処理対象の参照リストLXがL1か否かを判定する(S2507)。参照リストLXがL1であれば、ステップS2509に進み、L1でない、すなわち、L0であればLXをL1として(S2508)、ステップS2503からステップS2506までの処理と同じ処理が行われる。   Subsequently, it is determined again whether or not the prediction mode is single prediction (S2506). If the prediction mode is single prediction, the process proceeds to step S2509. If it is not uni-prediction, that is, if it is bi-prediction, it is determined whether the reference list LX to be processed is L1 (S2507). If the reference list LX is L1, the process proceeds to step S2509. If it is not L1, that is, if it is L0, LX is set to L1 (S2508), and the same processing as the processing from step S2503 to step S2506 is performed.

続いて、動き情報符号量を算出する(S2509)。単予測モードの場合に、符号化する動き情報としては、1つの参照画像に対する、参照画像指定情報、差分ベクトル値、及び予測ベクトルインデックスの3要素、双予測モードの場合には、L0とL1の2つの参照画像に対する、参照画像指定情報、差分ベクトル値、及び予測ベクトルインデックスの計6要素となり、各々符号化された符号量の総量が動き情報符号量として算出される。本実施の形態における予測ベクトルインデックスの符号列生成手法としては、結合動き情報インデックスの符号列と同様にTruncated Unary符号列を用いるものとする。   Subsequently, a motion information code amount is calculated (S2509). In the case of the uni-prediction mode, the motion information to be encoded includes three elements of reference image designation information, a difference vector value, and a prediction vector index for one reference image. In the case of the bi-prediction mode, L0 and L1 The reference image designation information, the difference vector value, and the prediction vector index for the two reference images are a total of six elements, and the total amount of the encoded amount is calculated as the motion information code amount. As a prediction vector index code string generation method according to the present embodiment, a Trunked Unary code string is used in the same manner as the combined motion information index code string.

続いて、参照画像に対する参照画像指定情報と動きベクトルを図1における動き補償予測部108に設定して、動き補償予測ブロックを生成する(S2510)。   Subsequently, the reference image designation information and the motion vector for the reference image are set in the motion compensated prediction unit 108 in FIG. 1 to generate a motion compensated prediction block (S2510).

さらに、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、予測誤差評価値を算出し(S2511)、予測誤差評価値と、参照画像に対する動き情報である、参照画像指定情報と差分ベクトル値と予測ベクトルインデックスを動き補償予測ブロックと共に出力し(S2512)、予測モード評価値生成処理を終了する。   Further, a prediction error evaluation value is calculated from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block (S2511), the prediction error evaluation value, and reference image designation information that is motion information for the reference image; The difference vector value and the prediction vector index are output together with the motion compensated prediction block (S2512), and the prediction mode evaluation value generation process ends.

以上の処理が、実施の形態1における動画像符号化装置における予測モード判定部109の詳細動作となる。   The above processing is the detailed operation of the prediction mode determination unit 109 in the video encoding apparatus in the first embodiment.

[実施の形態1における動画像復号装置における動き情報復号部の詳細動作説明]
図27は、図6に示した実施の形態1の動画像復号装置における動き情報復号部606の詳細な構成を示す図である。動き情報復号部606は、動き情報ビットストリーム復号部2600、予測ベクトル算出部2601、ベクトル加算部2602、動き補償予測復号部2603、結合動き情報算出部2604、及び結合動き補償予測復号部2605を含む。
[Detailed Operation Description of Motion Information Decoding Unit in Moving Picture Decoding Device in Embodiment 1]
FIG. 27 is a diagram showing a detailed configuration of the motion information decoding unit 606 in the video decoding device according to Embodiment 1 shown in FIG. The motion information decoding unit 606 includes a motion information bitstream decoding unit 2600, a prediction vector calculation unit 2601, a vector addition unit 2602, a motion compensation prediction decoding unit 2603, a combined motion information calculation unit 2604, and a combined motion compensation prediction decoding unit 2605. .

図6における動き情報復号部606に対して、多重分離部601より入力された動き情報ビットストリームが、動き情報ビットストリーム復号部2600に供給され、動き情報メモリ607より入力された動き情報が、予測ベクトル算出部2601、及び結合動き情報算出部2604に供給される。   For the motion information decoding unit 606 in FIG. 6, the motion information bitstream input from the demultiplexing unit 601 is supplied to the motion information bitstream decoding unit 2600, and the motion information input from the motion information memory 607 is predicted. This is supplied to the vector calculation unit 2601 and the combined motion information calculation unit 2604.

また、動き補償予測部608に対して、動き補償予測復号部2603、及び結合動き補償予測復号部2605から、動き補償予測に用いる参照画像指定情報と動きベクトルが出力され、予測種別を示す情報を含めた復号された動き情報が、動き情報メモリ607に格納される。   In addition, the motion compensation prediction prediction unit 608 outputs reference image designation information and motion vectors used for motion compensation prediction from the motion compensation prediction decoding unit 2603 and the combined motion compensation prediction decoding unit 2605, and indicates information indicating the prediction type. The included decoded motion information is stored in the motion information memory 607.

動き情報ビットストリーム復号部2600は、多重分離部601より入力された動き情報ビットストリームを符号化シンタックスに従って復号していくことで、伝送された予測モードと、予測モードに応じた動き情報を生成する。生成した動き情報の中で、結合動き情報インデックスは、結合動き補償予測復号部2605に供給され、参照画像指定情報が予測ベクトル算出部2601に供給され、予測ベクトルインデックスがベクトル加算部2602に供給され、差分ベクトル値がベクトル加算部2602に供給される。   The motion information bitstream decoding unit 2600 generates the motion information corresponding to the transmitted prediction mode and the prediction mode by decoding the motion information bitstream input from the demultiplexing unit 601 according to the encoding syntax. To do. Among the generated motion information, the combined motion information index is supplied to the combined motion compensation prediction decoding unit 2605, the reference image designation information is supplied to the prediction vector calculation unit 2601, and the prediction vector index is supplied to the vector addition unit 2602. The difference vector value is supplied to the vector addition unit 2602.

予測ベクトル算出部2601は、動き情報メモリ607より供給された隣接ブロックの動き情報と、動き情報ビットストリーム復号部2600より供給された参照画像指定情報から、動き補償予測の対象となる参照画像に対する予測ベクトル候補リストを生成し、参照画像指定情報と共にベクトル加算部2602に供給する。予測ベクトル算出部2601の動作に関しては、動画像符号化装置における図9の予測ベクトル算出部902と同一の動作が行われ、符号化時の予測ベクトル候補リストと同一の候補リストが生成される。   The prediction vector calculation unit 2601 predicts a reference image to be subjected to motion compensation prediction from the motion information of the adjacent block supplied from the motion information memory 607 and the reference image designation information supplied from the motion information bitstream decoding unit 2600. A vector candidate list is generated and supplied to the vector addition unit 2602 together with the reference image designation information. Regarding the operation of the prediction vector calculation unit 2601, the same operation as that of the prediction vector calculation unit 902 of FIG. 9 in the moving image encoding apparatus is performed, and the same candidate list as the prediction vector candidate list at the time of encoding is generated.

ベクトル加算部2602は、予測ベクトル算出部2601より供給された予測ベクトル候補リスト及び参照画像指定情報と、動き情報ビットストリーム復号部2600から供給された予測ベクトルインデックス及び差分ベクトルより、予測ベクトルインデックスで示された位置に登録された予測ベクトル値と差分ベクトル値を加算することで、動き補償予測対象となる参照画像に対しての動きベクトル値が再生される。再生された動きベクトル値は、参照画像指定情報と共に、動き補償予測復号部2603に供給される。   The vector addition unit 2602 indicates a prediction vector index from the prediction vector candidate list and reference image designation information supplied from the prediction vector calculation unit 2601 and the prediction vector index and difference vector supplied from the motion information bitstream decoding unit 2600. By adding the prediction vector value and the difference vector value registered at the set position, the motion vector value for the reference image to be motion compensated prediction is reproduced. The reproduced motion vector value is supplied to the motion compensated prediction decoding unit 2603 together with the reference image designation information.

動き補償予測復号部2603は、ベクトル加算部2602より参照画像に対する、再生された動きベクトル値と参照画像指定情報が供給され、動きベクトル値と参照画像指定情報を動き補償予測部608に設定することで、動き補償予測信号を生成する。   The motion compensated prediction decoding unit 2603 is supplied with the reproduced motion vector value and reference image designation information for the reference image from the vector addition unit 2602, and sets the motion vector value and the reference image designation information in the motion compensated prediction unit 608. Thus, a motion compensated prediction signal is generated.

結合動き情報算出部2604は、動き情報メモリ607から供給される隣接ブロックの動き情報より、結合動き情報候補リストを生成し、結合動き情報候補リストとリスト内の構成要素である結合動き情報候補の参照画像指定情報と動きベクトル値を、結合動き補償予測復号部2605に供給する。   The combined motion information calculation unit 2604 generates a combined motion information candidate list from the motion information of adjacent blocks supplied from the motion information memory 607, and combines the combined motion information candidate list and the combined motion information candidate that is a component in the list. The reference image designation information and the motion vector value are supplied to the combined motion compensation prediction decoding unit 2605.

結合動き情報算出部2604の動作に関しては、動画像符号化装置における図9の結合動き情報算出部906と同一の動作が行われ、符号化時の結合動き情報候補リストと同一の候補リストが生成される。   Regarding the operation of the combined motion information calculation unit 2604, the same operation as that of the combined motion information calculation unit 906 in FIG. 9 in the moving image encoding apparatus is performed, and the same candidate list as the combined motion information candidate list at the time of encoding is generated. Is done.

結合動き補償予測復号部2605は、結合動き情報算出部2604より供給される結合動き情報候補リストとリスト内の構成要素である結合動き情報候補の参照画像指定情報と動きベクトル値と、動き情報ビットストリーム復号部2600より供給される結合動き情報インデックスより、結合動き情報インデックスで示された結合動き情報候補リストにおける参照画像指定情報と動きベクトル値を再生し、動き補償予測部608に設定することで、動き補償予測信号を生成する。   The combined motion compensated prediction decoding unit 2605 supplies a combined motion information candidate list supplied from the combined motion information calculation unit 2604, reference image designation information of a combined motion information candidate that is a component in the list, a motion vector value, and a motion information bit. The reference image designation information and the motion vector value in the combined motion information candidate list indicated by the combined motion information index are reproduced from the combined motion information index supplied from the stream decoding unit 2600 and set in the motion compensation prediction unit 608. Generate a motion compensated prediction signal.

図28は、図7のステップS701の動き情報復号処理の詳細動作を説明するためのフローチャートである。動き情報ビットストリーム復号部2600と予測ベクトル算出部2601、及び結合動き情報算出部2604により、図7のステップS701の動き情報復号処理が行われる。   FIG. 28 is a flowchart for explaining the detailed operation of the motion information decoding process in step S701 of FIG. The motion information decoding process in step S701 in FIG. 7 is performed by the motion information bitstream decoding unit 2600, the prediction vector calculation unit 2601, and the combined motion information calculation unit 2604.

動き情報復号処理は、特定のシンタックス構造で符号化された符号化ビットストリームより動き情報を復号する処理である。最初に符号化ブロックの所定単位でSkipフラグを復号する(S2700)。以降は予測ブロック単位の処理となる。   The motion information decoding process is a process of decoding motion information from an encoded bit stream encoded with a specific syntax structure. First, the Skip flag is decoded in a predetermined unit of the encoded block (S2700). Thereafter, processing is performed in units of prediction blocks.

SkipフラグがSkipモードを示している場合(S2701:YES)、結合予測動き情報復号を行う(S2702)。ステップS2702の詳細処理については、後述する。   When the Skip flag indicates the Skip mode (S2701: YES), joint prediction motion information decoding is performed (S2702). Detailed processing in step S2702 will be described later.

Skipモードでない場合(S2701:NO)、マージフラグを復号する(S2703)。マージフラグが1を示している場合(S2704:YES)には、ステップS2702の結合予測動き情報復号に進む。   If it is not the Skip mode (S2701: NO), the merge flag is decoded (S2703). If the merge flag indicates 1 (S2704: YES), the process proceeds to joint prediction motion information decoding in step S2702.

マージフラグが1でない場合(S2704:NO)、動き予測フラグを復号し(S2705)、予測動き情報復号を行う(S2706)。ステップS2706の詳細動作については、後述する。   When the merge flag is not 1 (S2704: NO), the motion prediction flag is decoded (S2705), and the prediction motion information is decoded (S2706). Detailed operation of step S2706 will be described later.

図29は、図28のステップS2702の結合予測動き情報復号処理の詳細動作を説明するためのフローチャートである。   FIG. 29 is a flowchart for explaining detailed operation of the joint prediction motion information decoding process in step S2702 of FIG.

最初に予測モードに結合予測モードを設定し(S2800)、結合動き情報候補リストを生成する(S2801)。ステップS2801の処理は、動画像符号化装置における図11のステップS1100の結合動き情報候補リスト生成処理と同一の処理である。   First, the combined prediction mode is set as the prediction mode (S2800), and a combined motion information candidate list is generated (S2801). The processing in step S2801 is the same processing as the combined motion information candidate list generation processing in step S1100 of FIG. 11 in the video encoding device.

つぎに、結合動き情報インデックスを復号し(S2802)、続いて、結合動き情報候補リストより、結合動き情報インデックスで示す位置に格納されている動き情報を取得する(S2803)。取得する動き情報としては、単予測/双予測を示す予測種別、参照画像指定情報、動きベクトル値となる。   Next, the combined motion information index is decoded (S2802), and then the motion information stored at the position indicated by the combined motion information index is acquired from the combined motion information candidate list (S2803). The motion information to be acquired includes a prediction type indicating single prediction / bi-prediction, reference image designation information, and a motion vector value.

生成された動き情報は、結合予測モードの動き情報として格納され(S2804)、結合動き補償予測復号部2606に供給される。   The generated motion information is stored as motion information in the joint prediction mode (S2804), and is supplied to the joint motion compensation prediction decoding unit 2606.

図30は、図28のステップS2706の予測動き情報復号処理の詳細動作を説明するためのフローチャートである。   FIG. 30 is a flowchart for explaining the detailed operation of the prediction motion information decoding process in step S2706 of FIG.

最初に、予測種別が単予測であるか否かを判別する(S2900)。単予測であれば、処理対象とする参照画像リスト(LX)を予測に用いている参照画像リストに設定する(S2901)。単予測でなければ、双予測であるから、この場合はLXをL0とする(S2902)。   First, it is determined whether or not the prediction type is single prediction (S2900). If it is simple prediction, the reference image list (LX) to be processed is set as the reference image list used for prediction (S2901). If it is not uni-prediction, it is bi-prediction. In this case, LX is set to L0 (S2902).

次に、参照画像指定情報を復号し(S2903)、差分ベクトル値を復号する(S2904)。次に、予測ベクトル候補リストを生成し(S2905)、予測ベクトル候補リストが1より大きな場合(S2906:YES)、予測ベクトルインデックスを復号し(S2907)、予測ベクトル候補リストが1の場合(S2906:NO)、予測ベクトルインデックスに0を設定する(S2908)。   Next, the reference image designation information is decoded (S2903), and the difference vector value is decoded (S2904). Next, a prediction vector candidate list is generated (S2905). When the prediction vector candidate list is larger than 1 (S2906: YES), the prediction vector index is decoded (S2907), and when the prediction vector candidate list is 1 (S2906: NO), 0 is set to the prediction vector index (S2908).

ここで、ステップS2905では、動画像符号化装置における図26のフローチャートのステップS2504と同様の処理が行われる。   Here, in step S2905, processing similar to that in step S2504 in the flowchart of FIG. 26 in the video encoding device is performed.

次に、予測ベクトル候補リストより、予測ベクトルインデックスで示す位置に格納されている動きベクトル値を取得する(S2909)。復号した差分ベクトル値と動きベクトル値を加算することで動きベクトルを再生する(S2910)。   Next, the motion vector value stored at the position indicated by the prediction vector index is acquired from the prediction vector candidate list (S2909). A motion vector is reproduced by adding the decoded difference vector value and motion vector value (S2910).

続いて、再度予測種別が単予測である否かを判別し(S2911)、予測種別が単予測であればステップS2914に進む。単予測でない、すなわち、双予測であれば、処理対象の参照リストLXがL1か否かを判定する(S2912)。参照リストLXがL1であれば、ステップS2914に進み、L1でない、すなわち、L0であればLXをL1として(S2913)、ステップS2903からステップS2911までの処理と同じ処理が行われる。   Subsequently, it is determined again whether or not the prediction type is single prediction (S2911). If the prediction type is single prediction, the process proceeds to step S2914. If it is not uni-prediction, that is, if it is bi-prediction, it is determined whether the reference list LX to be processed is L1 (S2912). If the reference list LX is L1, the process proceeds to step S2914, and if it is not L1, that is, if it is L0, LX is set to L1 (S2913), and the same processing as the processing from step S2903 to step S2911 is performed.

続いて、生成された動き情報として、単予測の場合には、1つの参照画像に対する参照画像指定情報と動きベクトル値が、双予測の場合には、2つの参照画像に対する参照画像指定情報と動きベクトル値が、動き情報として格納され(S2914)、動き補償予測復号部2603に供給される。   Subsequently, as the generated motion information, in the case of single prediction, reference image designation information and motion vector values for one reference image, and in the case of bi-prediction, reference image designation information and motion for two reference images. The vector value is stored as motion information (S2914) and supplied to the motion compensated prediction decoding unit 2603.

実施の形態1における、動画像符号化装置及び動画像復号装置においては、結合動き
情報算出部において、時間結合動き情報候補リスト生成部を結合動き情報候補リスト削除部の後段に配置して、空間結合動き情報候補のみを結合動き情報候補削除処理の対象とすることにより、少ない演算量で結合動き情報候補リストから同一の動き情報を持つ結合動き情報候補を適切に削除することが可能となり、その結果、結合動き情報候補リストに新たな結合動き情報候補を追加することにより結合予測モードに用いることができる動き情報の種類が増加し、符号化効率を向上させることができる。
In the moving image encoding device and the moving image decoding device according to the first embodiment, in the combined motion information calculation unit, the temporally combined motion information candidate list generation unit is arranged after the combined motion information candidate list deletion unit, and the space By using only combined motion information candidates as targets for combined motion information candidate deletion processing, it becomes possible to appropriately delete combined motion information candidates having the same motion information from the combined motion information candidate list with a small amount of computation. As a result, by adding new combined motion information candidates to the combined motion information candidate list, the types of motion information that can be used in the combined prediction mode are increased, and the coding efficiency can be improved.

また、実施の形態1における、動画像符号化装置及び動画像復号装置においては、動き情報候補リスト削除部において、動き情報の比較の回数が減少するため、回路規模や処理時間の削減といった効果も有する。   Further, in the moving image encoding device and the moving image decoding device according to the first embodiment, the number of times of comparison of motion information is reduced in the motion information candidate list deletion unit, so that the effect of reducing the circuit scale and processing time is also obtained. Have.

(実施の形態2)
次に、本発明の実施の形態2を説明する。実施の形態2は、実施の形態1に対して、結合予測候補削除の動作が異なる。結合予測候補削除の動作以外の構成および処理は実施の形態1と同一であるので、ここでは図10の結合動き情報候補リスト削除部1001における結合動き情報リスト削除処理の実施の形態1との差異のみ説明する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. The second embodiment differs from the first embodiment in the operation of deleting combined prediction candidates. Since the configuration and processing other than the combined prediction candidate deletion operation are the same as those in the first embodiment, here, the difference from the first embodiment of the combined motion information list deletion process in the combined motion information candidate list deletion unit 1001 in FIG. Only explained.

図31は、実施の形態2における結合動き情報候補削除の詳細動作を説明するためのフローチャートである。空間結合動き情報候補リスト生成部1000における空間結合動き情報候補リスト作成処理(S1200)により、生成される結合動き情報候補の最大数をmaxSpatialCandとすると、i=maxSpatialCand−1からi>0までの結合動き情報候補(候補(i))に対して以下の処理を繰り返し行う(S3000〜S3004)。   FIG. 31 is a flowchart for explaining a detailed operation of combined motion information candidate deletion in the second embodiment. Assuming that the maximum number of combined motion information candidates generated by the spatially combined motion information candidate list creation process (S1200) in the spatially combined motion information candidate list generation unit 1000 is maxSpatialCand, i = maxSpatialCand-1 to i> 0 The following processing is repeated for the motion information candidate (candidate (i)) (S3000 to S3004).

候補(i)が存在していて(S3001のYES)、候補(i)の動き情報(動き情報(i))と候補(i−1)の動き情報(動き情報(i−1))が同じである場合(S3002のYES)、候補(i)を結合動き情報候補リストから削除する(S3003)。   The candidate (i) exists (YES in S3001), and the motion information (motion information (i)) of the candidate (i) and the motion information (motion information (i-1)) of the candidate (i-1) are the same. (YES in S3002), the candidate (i) is deleted from the combined motion information candidate list (S3003).

候補(i)が存在しない場合(S3001のNO)、または存在していても動き情報(i)と動き情報(i−1)が同一でない場合(S3002のNO)は処理を繰り返す(S3004)。   If the candidate (i) does not exist (NO in S3001), or even if it exists, the motion information (i) and the motion information (i-1) are not the same (NO in S3002), the process is repeated (S3004).

続いて、候補(maxSpatialCand−1)が存在していて(S3005のYES)、候補(maxSpatialCand−1)の動き情報(動き情報(maxSpatialCand−1))と結合動き情報候補リストの最初の結合動き情報候補(動き情報(0))が同一である場合(S3006のYES)、候補(maxSpatialCand−1)を削除し(S3007)、処理を終了する。   Subsequently, there is a candidate (maxSpatialCand-1) (YES in S3005), the motion information (motion information (maxSpatialCand-1)) of the candidate (maxSpatialCand-1) and the first combined motion information in the combined motion information candidate list If the candidate (motion information (0)) is the same (YES in S3006), the candidate (max SpatialCand-1) is deleted (S3007), and the process ends.

候補(maxSpatialCand−1)が存在しない場合(S3005のNO)、または存在していても動き情報(maxSpatialCand−1)と動き情報(0)が同一でない場合(S3006のNO)はそのまま処理を終了する。   If there is no candidate (max Spatial Cand-1) (NO in S3005), or if it exists but the motion information (max Spatial Cand-1) and the motion information (0) are not the same (NO in S3006), the process ends. .

図32は、空間結合動き情報候補の最大数が4である場合の実施の形態2における結合動き情報候補削除における候補の比較内容の一例である。図32に示すように、空間結合動き情報候補の最大数が4である場合には、4回の比較のみ行う。   FIG. 32 is an example of comparison contents of candidates in combined motion information candidate deletion in Embodiment 2 when the maximum number of spatially combined motion information candidates is 4. As shown in FIG. 32, when the maximum number of spatially coupled motion information candidates is 4, only four comparisons are performed.

図33に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち、時間結合動き情報候補を含まない4つの空間結合動き情報候補について、結合動き情報候補リストの配列順において隣り合う候補同士を比較し、かつ、最上位の候補と最下位の候補を比較することにより、同一性を判定し、重複する候補を削除する。   FIG. 33 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, for four spatially combined motion information candidates that do not include temporally combined motion information candidates, the candidates that are adjacent in the sequence order of the combined motion information candidate list are compared, and the highest candidate and the lowest candidate are compared. As a result, identity is determined, and duplicate candidates are deleted.

図34は、空間結合動き情報候補の最大数が4である場合の結合動き情報候補削除処理における周辺ブロックの比較を説明する図である。図34(a)はブロックA1、B1、B0、A0が使用可能である場合の例を示している。ブロックA1、B1、B0、A0が使用可能である場合には、前述した空間結合動き情報候補リスト作成処理により作成される結合動き情報候補リストは{A1,B1,B0,A0}となるから、結合動き情報候補削除における動き情報の比較は図32(a)の矢印の関係において行われる。   FIG. 34 is a diagram for explaining comparison of neighboring blocks in the combined motion information candidate deletion process when the maximum number of spatially combined motion information candidates is four. FIG. 34A shows an example in which the blocks A1, B1, B0, A0 can be used. When the blocks A1, B1, B0, and A0 are usable, the combined motion information candidate list created by the above-described spatially coupled motion information candidate list creation process is {A1, B1, B0, A0}. The comparison of the motion information in the combined motion information candidate deletion is performed in the relationship of the arrows in FIG.

同様に、図34(b)はブロックB1、B0、A0、B2が使用可能である場合、図34(c)はブロックA1、B1、B0、B2が使用可能である場合の結合動き情報候補削除における動き情報の比較の関係を示している。   Similarly, FIG. 34 (b) shows that the blocks B1, B0, A0, and B2 can be used, and FIG. 34 (c) shows that the combined motion information candidates are deleted when the blocks A1, B1, B0, and B2 are available. This shows the relationship of motion information comparison.

ここで、動き情報は空間方向に連続性が強いことから、隣接するブロックでは動き情報が同一である確率が高く、一方隣接していないブロックでは動き情報が同一である確率は低くなる。よって、結合動き情報候補削除処理において、隣接するブロック間の比較のみ行っても同一の動き情報を適切に削除することが可能である。   Here, since the motion information is strongly continuous in the spatial direction, the probability that the motion information is the same in adjacent blocks is high, while the probability that the motion information is the same in a non-adjacent block is low. Therefore, in the combined motion information candidate deletion process, it is possible to appropriately delete the same motion information even if only comparison between adjacent blocks is performed.

また、隣接するブロックの動き情報のみを比較するために、周辺候補ブロック群のうち予め定めたブロック位置の動き情報同士を比較するという方法も考えられるが、その場合結合動き情報候補リストの各動き情報候補のブロック位置をすべて記録しておく必要があり、回路規模の増大や処理の複雑化につながる。   In addition, in order to compare only the motion information of adjacent blocks, a method of comparing motion information at predetermined block positions in the peripheral candidate block group is also conceivable, but in this case, each motion in the combined motion information candidate list is considered. It is necessary to record all the block positions of information candidates, which leads to an increase in circuit scale and complexity of processing.

そこで、本発明の実施の形態2における結合動き情報候補削除では、結合動き情報候補のブロック位置にかかわらず、結合動き情報候補リストに追加された順番で比較を行ったうえ、結合動き情報候補リストの最後の候補と最初の候補の比較を行うことにより、図34に示すように隣接するブロック間の動き情報の比較が可能であり、少ない比較回数で同一の動き情報を適切に削除することが可能である。   Therefore, in the combined motion information candidate deletion in Embodiment 2 of the present invention, the combined motion information candidate list is compared in the order added to the combined motion information candidate list regardless of the block position of the combined motion information candidate. By comparing the last candidate with the first candidate, it is possible to compare motion information between adjacent blocks as shown in FIG. 34, and it is possible to appropriately delete the same motion information with a small number of comparisons. Is possible.

(実施の形態3)
次に、本発明の実施の形態3を説明する。実施の形態3は、実施の形態1に対して、結合予測候補削除の動作が異なる。結合予測候補削除の動作以外の構成および処理は実施の形態1と同一であるので、ここでは図10の結合動き情報候補リスト削除部1001における結合動き情報リスト削除処理の実施の形態1との差異のみ説明する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. The third embodiment differs from the first embodiment in the operation of deleting combined prediction candidates. Since the configuration and processing other than the combined prediction candidate deletion operation are the same as those in the first embodiment, here, the difference from the first embodiment of the combined motion information list deletion process in the combined motion information candidate list deletion unit 1001 in FIG. Only explained.

図35は、実施の形態3における結合動き情報候補削除の詳細動作を説明するためのフローチャートである。空間結合動き情報候補リスト生成部1000における空間結合動き情報候補リスト作成処理(S1200)により、生成された結合動き情報候補の数をnumCand、結合動き情報候補削除の動作における結合動き情報候補比較の演算回数をnumCompareとすると、i=numCompare[numCand]−1からi>=0まで以下の処理を繰り返し行う(S3300〜S3303)。   FIG. 35 is a flowchart for explaining the detailed operation of combined motion information candidate deletion in the third embodiment. The number of combined motion information candidates generated by the spatially combined motion information candidate list creation processing (S1200) in the spatially combined motion information candidate list generation unit 1000 is numCand, and the combined motion information candidate comparison operation in the combined motion information candidate deletion operation is performed. When the number of times is numCompare, the following processing is repeated from i = numCompare [numCand] -1 to i> = 0 (S3300 to S3303).

ここで、比較演算回数numCompare[i]はnumCandの値に応じて図37(a)のように定めるものとする。またiの値に応じて比較候補インデックスcur[i]と参照候補インデックスref[i]の値を図37(b)のように定める。   Here, the number of comparison operations numCompare [i] is determined as shown in FIG. 37A according to the value of numCand. Further, the values of the comparison candidate index cur [i] and the reference candidate index ref [i] are determined according to the value of i as shown in FIG.

結合動き情報候補リストのインデックスcur[i]の結合動き情報候補(候補(cur[i]))の動き情報(動き情報(cur[i]))と候補(ref[i])の動き情報(動き情報(ref[i]))が同じである場合(S3301のYES)、候補(cur[i])を結合動き情報候補リストから削除する(S3302)。   Motion information (motion information (cur [i])) and motion information (ref [i]) of the motion information candidate (cur [i]) and motion information (ref [i]) of the index motion [i] of the combined motion information candidate list ( If the motion information (ref [i]) is the same (YES in S3301), the candidate (cur [i]) is deleted from the combined motion information candidate list (S3302).

動き情報(cur[i])と動き情報(ref[i])が同一でない場合(S3301のNO)は処理を繰り返す(S3303)。   If the motion information (cur [i]) and the motion information (ref [i]) are not the same (NO in S3301), the process is repeated (S3303).

図36に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち、時間結合動き情報候補を含まない4つの空間結合動き情報候補について、結合動き情報候補リストの配列順において最上位から3番目までに含まれる候補について、総当たりで比較し、さらに必要に応じて最上位の候補と最下位の候補を比較することにより、同一性を判定し、重複する候補を削除する。   FIG. 36 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, for the four spatially combined motion information candidates that do not include the temporally combined motion information candidates, the candidates included from the top to the third in the order of arrangement in the combined motion information candidate list are compared brute force, and if necessary By comparing the highest candidate with the lowest candidate, the identity is determined, and duplicate candidates are deleted.

図37に示すように、本発明の実施の形態3における結合予測候補削除の動作においては、動き情報の比較の回数は空間結合動き情報候補リスト生成部で生成された結合動き情報候補リストの結合動き情報候補の数により、0回から4回となり、すべての動き情報を比較した場合と比べて、比較回数を大きく削減することが可能である。   As shown in FIG. 37, in the combined prediction candidate deletion operation according to Embodiment 3 of the present invention, the number of motion information comparisons is the combination of combined motion information candidate lists generated by the spatially combined motion information candidate list generation unit. Depending on the number of motion information candidates, the number of times is 0 to 4, and the number of comparisons can be greatly reduced as compared to the case where all motion information is compared.

また、結合動き情報候補リストの最初の3つの結合動き候補に関してはすべての組み合わせの比較が行われているので、比較回数の削減により同一の動き情報を持つ結合動き情報候補が削除できなかった場合にも同一の動き情報は結合動き情報候補リストの後半にのみ存在する。   In addition, since all combinations are compared for the first three combined motion candidates in the combined motion information candidate list, the combined motion information candidates having the same motion information cannot be deleted due to the reduction of the number of comparisons. The same motion information exists only in the second half of the combined motion information candidate list.

前述したように、結合動き情報インデックスの符号列はTruncated Unary符号列を用いるため、符号列の短い小さなインデックス値に冗長な動き情報が存在すると符号化効率の低下につながるが、本発明の実施の形態3における結合動き情報候補削除の方法によれば、小さなインデックス値の結合動き情報候補リストの同一の動き情報は確実に削除することができるので、処理負荷を低減しながら、動き情報の符号化効率を向上させることが可能である。   As described above, a Truncated Unary code sequence is used as the code sequence of the combined motion information index. Therefore, if redundant motion information exists in a short small index value of the code sequence, it leads to a decrease in coding efficiency. According to the combined motion information candidate deletion method in aspect 3, since the same motion information in the combined motion information candidate list having a small index value can be reliably deleted, the motion information can be encoded while reducing the processing load. Efficiency can be improved.

(実施の形態4)
次に、本発明の実施の形態4を説明する。実施の形態4は、実施の形態2に対して結合予測候補削除の動作が異なる。結合予測候補削除の動作以外の構成および処理は実施の形態2と同一であるので、ここでは図10の結合動き情報候補リスト削除部1001における結合動き情報リスト削除処理の実施の形態1との差異のみ説明する。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. The fourth embodiment differs from the second embodiment in the operation of deleting combined prediction candidates. Since the configuration and processing other than the combined prediction candidate deletion operation are the same as those in the second embodiment, here, the difference from the first embodiment of the combined motion information list deletion process in the combined motion information candidate list deletion unit 1001 in FIG. Only explained.

図38は、実施の形態4における結合動き情報候補削除の詳細動作を説明するためのフローチャートである。はじめに、空間結合動き情報候補リスト生成部1000における空間結合動き情報候補リスト作成処理(S1200)により、生成された結合動き情報候補の数をnumCand、結合動き情報候補の最大数をmaxSpatialCandとしたとき、numCand>0であるなら(S3500のYES)、i=maxSpatialCand−1からi>=numCandまでの結合動き情報候補(候補(i))の値を結合動き情報候補リストの最後の結合動き情報候補(候補(numCand−1))とする(S3501〜S3503)。   FIG. 38 is a flowchart for explaining detailed operation of combined motion information candidate deletion in the fourth embodiment. First, when the number of combined motion information candidates generated by the spatially combined motion information candidate list creation process (S1200) in the spatially combined motion information candidate list generation unit 1000 is numCand, and the maximum number of combined motion information candidates is maxSpatialCand, If numCand> 0 (YES in S3500), the value of the combined motion information candidate (candidate (i)) from i = max SpatialCand-1 to i> = numCand is used as the last combined motion information candidate ( Candidate (numCand-1)) (S3501 to S3503).

numCandが0以下であるなら(S3500のNO)何も行わずに処理を終了する。   If numCand is 0 or less (NO in S3500), the process is terminated without doing anything.

次に、i=maxSpatialCand−1からi>0までの結合動き情報候補(候補(i))に対して以下の処理を繰り返し行う(S3504〜S3507)。   Next, the following processing is repeated for the combined motion information candidates (candidate (i)) from i = maxSpatialCand-1 to i> 0 (S3504 to S3507).

候補(i)の動き情報(動き情報(i))と候補(i−1)の動き情報(動き情報(i−1))が同じである場合(S3505のYES)、候補(i)を結合動き情報候補リストから削除する(S3506)。   When the motion information (motion information (i)) of the candidate (i) and the motion information (motion information (i-1)) of the candidate (i-1) are the same (YES in S3505), the candidate (i) is combined. Delete from the motion information candidate list (S3506).

動き情報(i)と動き情報(i−1)が同一でない場合(S3505のNO)は処理を繰り返す(S3507)。   If the motion information (i) and the motion information (i-1) are not the same (NO in S3505), the process is repeated (S3507).

続いて、候補(maxSpatialCand−1)が存在していて(S3508のYES)、候補(maxSpatialCand−1)の動き情報(動き情報(maxSpatialCand−1))と結合動き情報候補リストの最初の結合動き情報候補(動き情報(0))が同一である場合(S3509のYES)、候補(maxSpatialCand−1)を削除し(S3510)、処理を終了する。   Subsequently, there is a candidate (maxSpatialCand-1) (YES in S3508), the motion information (motion information (maxSpatialCand-1)) of the candidate (maxSpatialCand-1) and the first combined motion information in the combined motion information candidate list If the candidate (motion information (0)) is the same (YES in S3509), the candidate (max SpatialCand-1) is deleted (S3510), and the process ends.

候補(maxSpatialCand−1)が存在しない場合(S3508のNO)、または存在していても動き情報(maxSpatialCand−1)と動き情報(0)が同一でない場合(S3509のNO)はそのまま処理を終了する。   If the candidate (max Spatial Cand-1) does not exist (NO in S3508), or if it exists but the motion information (max SpatialCand-1) and the motion information (0) are not the same (NO in S3509), the process ends. .

本発明の実施の形態4における結合動き情報候補削除の動作は、実施の形態2における結合動き情報候補削除の動作に対し、S3500〜S3503を追加した点と、S30001を削除した点が異なる。S3500〜S3503を追加したことにより、空間結合動き情報候補リスト生成部1000における空間結合動き情報候補リスト作成処理(S1200)により、生成された結合動き情報候補の数が空間結合動き情報候補の最大数に満たない場合において、結合動き情報候補の最大数まで結合動き情報候補の末尾の結合動き情報候補を追加している。   The operation of deleting combined motion information candidates in the fourth embodiment of the present invention differs from the operation of deleting combined motion information candidates in the second embodiment in that S3500 to S3503 are added and S30001 is deleted. By adding S3500 to S3503, the number of combined motion information candidates generated by the spatially combined motion information candidate list creation process (S1200) in the spatially combined motion information candidate list generation unit 1000 is the maximum number of spatially combined motion information candidates. In the case where the combined motion information candidate is not satisfied, the combined motion information candidates at the end of the combined motion information candidates are added up to the maximum number of combined motion information candidates.

図39に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち、結合動き情報候補リストに登録された候補数が所定の最大候補数に満たない場合、結合動き情報候補リストの最下位の候補を複製して空き候補を埋めた上で、結合動き情報候補リストの配列順において隣り合う候補同士を比較し、かつ、最上位の候補と最下位の候補を比較することにより、同一性を判定し、重複する候補を削除する。たとえば、候補が一つ足りないときに3番目の候補を4番目にコピーした上で隣り合う候補同士を比較し、かつ、最上位の候補と最下位の候補を比較すると、結果的に3つの候補について総当たりの比較をしたことと実質的に同じになる。   FIG. 39 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, when the number of candidates registered in the combined motion information candidate list is less than the predetermined maximum number of candidates, the lowest candidate in the combined motion information candidate list is copied to fill in the empty candidates, and then the combined motion information candidate By comparing adjacent candidates in the arrangement order of the list, and comparing the highest candidate with the lowest candidate, the identity is determined, and duplicate candidates are deleted. For example, when one candidate is missing, the third candidate is copied fourth, the adjacent candidates are compared, and the top candidate and the bottom candidate are compared, resulting in three This is essentially the same as a brute force comparison of candidates.

図40は本発明の実施の形態4における結合動き情報候補削除の動作を説明する図である。図40(a)は生成された結合動き情報候補の数が3、空間結合動き情報候補の最大数が4の場合の先頭候補追加前の追加後の結合動き情報候補を示している。このように、インデックス3の位置にリストの最後の結合動き情報候補が追加されるので、S3504〜S3507における結合動き情報候補の比較は図40(b)のようになり、生成された結合動き情報候補の数が空間結合動き情報候補の最大数に満たない場合にはすべての組み合わせで比較が行われることとなり、確実に同一の動き情報の結合動き情報候補を削除することが可能である。   FIG. 40 is a diagram for explaining the operation of deleting combined motion information candidates in the fourth embodiment of the present invention. FIG. 40A shows the combined motion information candidates after addition before adding the leading candidate when the number of generated combined motion information candidates is 3 and the maximum number of spatially combined motion information candidates is 4. Thus, since the last combined motion information candidate in the list is added to the position of index 3, the combined motion information candidates in S3504 to S3507 are compared as shown in FIG. When the number of candidates is less than the maximum number of spatially combined motion information candidates, comparison is performed for all combinations, and it is possible to reliably delete combined motion information candidates of the same motion information.

(実施の形態5)
次に、本発明の実施の形態5を説明する。実施の形態5は、実施の形態1に対して、結合予測候補削除の動作が異なる。結合予測候補削除の動作以外の構成および処理は実施の形態1と同一であるので、ここでは図10の結合動き情報候補リスト削除部1001における結合動き情報リスト削除処理の実施の形態1との差異のみ説明する。
(Embodiment 5)
Next, a fifth embodiment of the present invention will be described. Embodiment 5 differs from Embodiment 1 in the operation of deleting combined prediction candidates. Since the configuration and processing other than the combined prediction candidate deletion operation are the same as those in the first embodiment, here, the difference from the first embodiment of the combined motion information list deletion process in the combined motion information candidate list deletion unit 1001 in FIG. Only explained.

図41は、実施の形態3における結合動き情報候補削除の詳細動作を説明するためのフローチャートである。空間結合動き情報候補リスト生成部1000における空間結合動き情報候補リスト作成処理(S1200)により、生成される結合動き情報候補の最大数をmaxSpatialCandとすると、i=maxSpatialCand−1からi>=0まで以下の処理を繰り返し行う(S3700〜S3704)。   FIG. 41 is a flowchart for explaining detailed operation of combined motion information candidate deletion in the third embodiment. Assuming that the maximum number of combined motion information candidates generated by the spatially combined motion information candidate list creation process (S1200) in the spatially combined motion information candidate list generation unit 1000 is maxSpatialCand, i = max SpatialCand-1 to i> = 0 or less. This process is repeated (S3700 to S3704).

ここで、iの値に応じて比較候補インデックスcur[i]と参照候補インデックスref[i]の値を図43のように定める。   Here, the values of the comparison candidate index cur [i] and the reference candidate index ref [i] are determined according to the value of i as shown in FIG.

結合動き情報候補リストのインデックスcur[i]の結合動き情報候補(候補(cur[i]))が存在していて(S3701のYES)、候補(cur[i])の動き情報(動き情報(cur[i]))と候補(ref[i])の動き情報(動き情報(ref[i]))が同じである場合(S3702のYES)、候補(cur[i])を結合動き情報候補リストから削除する(S3703)。   There is a combined motion information candidate (candidate (cur [i])) of index cur [i] in the combined motion information candidate list (YES in S3701), and motion information (motion information (motion information ( cur [i])) and the candidate (ref [i]) have the same motion information (motion information (ref [i])) (YES in S3702), the candidate (cur [i]) is the combined motion information candidate. Delete from the list (S3703).

候補(cur[i])が存在しない場合(S3701のNO)、または存在していても動き情報(cur[i])と動き情報(ref[i])が同一でない場合(S3702のNO)は処理を繰り返す(S3004)。   When there is no candidate (cur [i]) (NO in S3701), or even if it exists, the motion information (cur [i]) and the motion information (ref [i]) are not the same (NO in S3702). The process is repeated (S3004).

図42に結合動き情報候補が4つの場合のリスト中の候補の比較関係を示す。すなわち、時間結合動き情報候補を含まない4つの空間結合動き情報候補について、結合動き情報候補リストの配列順において最上位から3番目までについては隣り合う候補同士を比較し、最下位の候補と最上位の候補を比較し、さらに最下位の候補と2番目の候補を比較することにより、同一性を判定し、重複する候補を削除する。   FIG. 42 shows a comparison relationship of candidates in the list when there are four combined motion information candidates. That is, for the four spatially combined motion information candidates that do not include the temporally combined motion information candidate, adjacent candidates are compared for the top to third in the order of arrangement in the combined motion information candidate list, and the lowest candidate and the lowest candidate are compared. By comparing the upper candidates and further comparing the lowest candidate with the second candidate, the identity is determined, and duplicate candidates are deleted.

図43に示すように、本発明の実施の形態5における結合予測候補削除の動作においては、動き情報の比較の回数は4回となり、すべての動き情報を比較した場合と比べて、比較回数を大きく削減することが可能である。   As shown in FIG. 43, in the combined prediction candidate deletion operation according to Embodiment 5 of the present invention, the number of comparisons of motion information is 4, and the number of comparisons is smaller than when all motion information is compared. It can be greatly reduced.

図44は、空間結合動き情報候補の最大数が4で、空間結合動き情報候補ブロックのうちブロックA0が使用不可能である場合の本発明の実施の形態5における結合予測候補削除処理における周辺ブロックの比較を説明する図である。図44に示すように、本発明の実施の形態5における空間結合動き情報候補削除の動作によれば、ブロックA0が使用不可能である場合に、隣接するブロック間で適切に比較が行われている。   FIG. 44 shows neighboring blocks in the combined prediction candidate deletion process according to Embodiment 5 of the present invention when the maximum number of spatially combined motion information candidates is 4 and block A0 is unusable among spatially combined motion information candidate blocks. It is a figure explaining the comparison of. As shown in FIG. 44, according to the operation of spatially coupled motion information candidate deletion in the fifth embodiment of the present invention, when block A0 is unusable, an appropriate comparison is performed between adjacent blocks. Yes.

また、図45は様々な予測ブロックサイズ、CU内分割モードにおいてブロックA0の使用可能状況を示した図である。図45においては、ブロックA0が使用可能である予測ブロックは○、使用不可能である予測ブロックは×で示している。図45に示すように、ブロックA0は使用不可能となる頻度が高いため、ブロックA0が使用不可能となる場合に適切に比較が行われることにより、高い頻度で同一の動き情報を適切に削除することができるので、処理負荷を低減しながら、動き情報の符号化効率を向上させることが可能である。   FIG. 45 is a diagram showing a usable state of the block A0 in various prediction block sizes and the intra-CU division mode. In FIG. 45, a prediction block that can be used by the block A0 is indicated by ◯, and a prediction block that cannot be used is indicated by ×. As shown in FIG. 45, since the frequency at which the block A0 becomes unusable is high, the same motion information is appropriately deleted at a high frequency by performing an appropriate comparison when the block A0 becomes unusable. Therefore, it is possible to improve the encoding efficiency of motion information while reducing the processing load.

(実施の形態6)
次に、本発明の実施の形態6を説明する。実施の形態6は、実施の形態3に対して、結合動き情報算出部906の構成、図11のステップS1100の結合動き情報候補リスト生成の詳細動作および結合予測候補削除の動作における比較演算回数numCompare[i]、比較候補インデックスcur[i]および参照候補インデックスref[i]の値が異なる。それ以外の構成および処理は実施の形態3と同一であるので、ここでは結合動き情報算出部906の構成、図11のステップS1100の結合動き情報候補リスト生成の詳細動作および結合予測候補削除における比較演算回数numCompare[i]、比較候補インデックスcur[i]および参照候補インデックスref[i]の値の実施の形態3との差異のみ説明する。
(Embodiment 6)
Next, a sixth embodiment of the present invention will be described. The sixth embodiment is different from the third embodiment in the number of comparison operations numCompare in the configuration of the combined motion information calculation unit 906, the detailed operation of combined motion information candidate list generation in step S1100 in FIG. The values of [i], the comparison candidate index cur [i], and the reference candidate index ref [i] are different. Since other configurations and processing are the same as those in the third embodiment, here, the configuration of the combined motion information calculation unit 906, the detailed operation of combined motion information candidate list generation in step S1100 of FIG. 11, and the comparison in combined prediction candidate deletion Only differences from the third embodiment in the values of the number of operations numCompare [i], the comparison candidate index cur [i], and the reference candidate index ref [i] will be described.

図46は、本発明の実施の形態6における結合動き情報算出部906の構成を示す図である。結合動き情報算出部906は、空間結合動き情報候補リスト生成部4000、時間結合動き情報候補リスト生成部4002、結合動き情報候補リスト削除部4001、第1結合動き情報候補リスト追加部4003および第2結合動き情報候補リスト追加部4004を含む。結合動き情報算出部906は、空間的に隣接する候補ブロック群より所定の順番で動き情報の候補を作成し、その中から、同一の動き情報を持つ候補を削除したのち、時間的に隣接する候補ブロック群より作成した動き情報の候補を追加することで、有効な動き情報のみを結合動き情報候補として登録する。   FIG. 46 is a diagram showing a configuration of the combined motion information calculation unit 906 according to Embodiment 6 of the present invention. The combined motion information calculation unit 906 includes a spatial combined motion information candidate list generation unit 4000, a temporal combined motion information candidate list generation unit 4002, a combined motion information candidate list deletion unit 4001, a first combined motion information candidate list addition unit 4003, and a second. A combined motion information candidate list adding unit 4004 is included. The combined motion information calculation unit 906 creates motion information candidates in a predetermined order from spatially adjacent candidate block groups, deletes candidates having the same motion information from the candidates, and then temporally adjacent. By adding motion information candidates created from the candidate block group, only valid motion information is registered as combined motion information candidates.

また、図47は本発明の実施の形態6における図11のステップS1100の結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。この動作は、図9の結合動き情報算出部906における構成の本発明の実施の形態6における詳細動作を示している。   FIG. 47 is a flowchart for explaining the detailed operation of generating the combined motion information candidate list in step S1100 of FIG. 11 in the sixth embodiment of the present invention. This operation shows the detailed operation in the sixth embodiment of the present invention having the configuration in the combined motion information calculation unit 906 in FIG.

図47の空間結合動き情報候補リスト生成(S4200)、時間結合動き情報候補リスト生成(S4202)、第1結合動き情報候補リスト追加(S4203)および第2結合動き情報候補リスト追加(S4204)の動作は、本発明の実施の形態3における図12の同じ番号を付与したステップと同一であるので説明を割愛する。   Operations of the spatially combined motion information candidate list generation (S4200), the temporally combined motion information candidate list generation (S4202), the first combined motion information candidate list addition (S4203), and the second combined motion information candidate list addition (S4204) of FIG. Since this is the same as the step assigned with the same number in FIG. 12 in the third embodiment of the present invention, its description is omitted.

結合動き情報候補リスト削除部4001は、時間結合動き情報候補リスト生成部4002にて生成された結合動き情報候補リストより、同一の動き情報を持つ結合動き情報候補を削除して動き情報候補リストを更新する(S4201)。この結合動き情報候補リスト削除部4001を時間結合動き情報候補リスト生成部4002より後段に配置し、後述する結合予測候補削除動作における結合予測候補削除処理に時間結合動き情報候補を含めた点が、本発明の実際の形態6における特徴である。   The combined motion information candidate list deletion unit 4001 deletes the combined motion information candidates having the same motion information from the combined motion information candidate list generated by the time combined motion information candidate list generation unit 4002 to generate a motion information candidate list. Update (S4201). This combined motion information candidate list deletion unit 4001 is arranged after the temporal combined motion information candidate list generation unit 4002 and includes the combined temporal motion information candidate in the combined prediction candidate deletion process in the combined prediction candidate deletion operation described later. It is the characteristic in the actual form 6 of this invention.

次に、本発明の実施の形態6における結合予測候補削除の詳細動作を図35および図48を用いて説明する。図35は本発明の実施の形態6における結合予測候補削除の詳細動作を説明するフローチャートであり、本発明の実施の形態3における結合予測候補削除の詳細動作と同一である。   Next, the detailed operation of combined prediction candidate deletion in Embodiment 6 of the present invention will be described using FIG. 35 and FIG. FIG. 35 is a flowchart for explaining the detailed operation of joint prediction candidate deletion in the sixth embodiment of the present invention, which is the same as the detailed operation of joint prediction candidate deletion in the third embodiment of the present invention.

また、時間結合動き情報候補リスト生成部4002にて生成された結合動き情報候補リストに含まれる結合予測候補の数をnumCandとし、比較演算回数numCompare[i]をnumCandの値に応じて図48(a)のように、比較候補インデックスcur[i]と参照候補インデックスref[i]の値をiの値に応じて図48(b)のように定める。   Also, the number of combined prediction candidates included in the combined motion information candidate list generated by the temporal combined motion information candidate list generation unit 4002 is numCand, and the number of comparison operations numCompare [i] is set according to the value of numCand (FIG. 48 (). As in a), the values of the comparison candidate index cur [i] and the reference candidate index ref [i] are determined as shown in FIG. 48B according to the value of i.

本発明の実施の形態6においては、空間結合動き情報候補リスト生成部4000において生成される空間結合予測候補の数の最大値は4であり、さらに時間結合動き情報候補リスト生成部4002において時間結合動き情報候補が生成されるため、結合予測候補リストに含まれる結合予測候補の数の最大値は5であるが、図48(a)に示すように比較演算回数numCompare[i]はnumCandの値が5のときも4となっている。   In Embodiment 6 of the present invention, the maximum number of spatially coupled prediction candidates generated by spatially coupled motion information candidate list generating section 4000 is 4, and temporal coupled motion information candidate list generating section 4002 is temporally coupled. Since motion information candidates are generated, the maximum number of combined prediction candidates included in the combined prediction candidate list is 5, but the number of comparison operations numCompare [i] is the value of numCand as shown in FIG. Is 4 when is 5.

すなわち、空間結合動き情報候補リスト生成部4000にて生成された空間動き情報候補の数が最大値である4である場合には、時間結合動き情報候補リスト生成部4002にて生成された時間結合動き情報候補は結合予測候補削除動作における比較演算の対象とならないので、結合動き情報候補削除(S4201)を時間結合動き情報候補リスト生成(S4202)の前段で行う動作、すなわち、本発明の実施の形態3における結合動き情報候補リスト生成の動作と同様の動作となる。   That is, when the number of spatial motion information candidates generated by the spatial combination motion information candidate list generation unit 4000 is 4, which is the maximum value, the temporal combination generated by the time combination motion information candidate list generation unit 4002 Since the motion information candidate is not a target of the comparison operation in the combined prediction candidate deletion operation, the operation of performing the combined motion information candidate deletion (S4201) in the preceding stage of the time combined motion information candidate list generation (S4202), that is, the implementation of the present invention The operation is the same as that of the combined motion information candidate list generation in the third mode.

一方、空間結合動き情報候補リスト生成部4000にて生成された空間動き情報候補の数が最大値である4に満たない場合には、時間結合動き情報候補リスト生成部4002にて生成された時間結合動き情報候補も結合予測候補削除動作における比較演算の対象となる。   On the other hand, when the number of spatial motion information candidates generated by the spatial combination motion information candidate list generation unit 4000 is less than 4, which is the maximum value, the time generated by the time combination motion information candidate list generation unit 4002 The combined motion information candidate is also subjected to a comparison operation in the combined prediction candidate deletion operation.

図49に空間結合動き情報候補が4つの場合および空間結合動き情報候補が3つの場合のリスト中の候補の比較関係を示す。すなわち、空間結合動き情報候補が4つの場合(図49(a))、時間結合動き情報候補を含まない4つの空間結合動き情報候補について、結合動き情報候補リストの配列順において最上位から3番目までに含まれる候補について、総当たりで比較し、さらに必要に応じて最上位の候補と最下位の候補を比較することにより、同一性を判定し、重複する候補を削除する。空間結合動き情報候補が3つの場合(図49(b))、時間結合動き情報候補を含めて4つの結合動き情報候補について、結合動き情報候補リストの配列順において最上位から3番目までに含まれる候補について、総当たりで比較し、さらに必要に応じて最上位の候補と最下位の候補を比較することにより、同一性を判定し、重複する候補を削除する。   FIG. 49 shows a comparison relationship between candidates in the list when there are four spatially coupled motion information candidates and when there are three spatially coupled motion information candidates. That is, when there are four spatially coupled motion information candidates (FIG. 49 (a)), the fourth spatially coupled motion information candidate not including the temporally coupled motion information candidate is the third highest from the top in the sequence order of the coupled motion information candidate list. The candidates included in the above are compared by brute force, and if necessary, the highest candidate and the lowest candidate are compared to determine the identity, and duplicate candidates are deleted. When there are three spatially combined motion information candidates (FIG. 49 (b)), four combined motion information candidates including temporally combined motion information candidates are included from the top to the third in the sequence of the combined motion information candidate list. The candidates are compared with each other, and if necessary, the highest candidate and the lowest candidate are compared to determine the identity, and duplicate candidates are deleted.

よって、有効な空間動き情報候補の数が最大値である場合に特性の異なる時間結合動き情報候補を結合動き情報候補削除の処理の対象から除いて処理負荷を低減し、有効な空間動き情報候補の数が最大値に満たない場合には、時間結合動き情報候補を結合動き情報候補削除の処理の対象とすることで同じ処理負荷で結合動き情報候補削除の処理の精度をさらにあげることができるので、処理負荷を低減しながら、動き情報の符号化効率を向上させることが可能である。   Therefore, when the number of effective spatial motion information candidates is the maximum value, the temporally combined motion information candidates having different characteristics are excluded from the target of the combined motion information candidate deletion process, and the processing load is reduced. If the number of the motion information candidates is less than the maximum value, the combined motion information candidate deletion processing accuracy can be further increased with the same processing load by using the temporally combined motion information candidates as the target of the combined motion information candidate deletion processing. Therefore, it is possible to improve the encoding efficiency of motion information while reducing the processing load.

なお、上記の説明では、実施の形態6において、結合予測候補の比較方法は実施の形態3の方法を用いた例を説明したが、実施の形態6において、結合予測候補の比較方法は実施の形態1、2、4、5のいずれの方法を適用してもよい。   In the above description, an example in which the method of Embodiment 3 is used as the combined prediction candidate comparison method has been described in Embodiment 6, but in Embodiment 6, the combined prediction candidate comparison method is implemented. Any of the methods of forms 1, 2, 4, and 5 may be applied.

以上述べた実施の形態の動画像符号化装置および動画像復号装置は以下の技術的特徴を有する。   The moving picture encoding apparatus and moving picture decoding apparatus according to the embodiments described above have the following technical features.

[1]マージ符号化技術における候補削除処理において、候補削除処理を時間結合動き情報候補生成よりも先に行って、時間結合予測候補を候補削除処理の対象から除いた(図10、図12のステップS1201とS1202参照)。これにより、符号化効率を保ちつつ、候補削除処理における候補比較の演算回数が削減できる。   [1] In the candidate deletion process in the merge coding technique, the candidate deletion process is performed prior to the generation of the temporal combination motion information candidate, and the temporal combination prediction candidates are excluded from the candidates for the candidate deletion process (FIGS. 10 and 12). Steps S1201 and S1202). As a result, the number of candidate comparison operations in the candidate deletion process can be reduced while maintaining encoding efficiency.

[2]マージ符号化技術における候補削除処理において、結合動き情報候補リストに追加された結合動き情報候補を、リストに追加された順番で比較を行ったうえ、さらに最後の候補と最初の候補の比較を行うようにした(図31のステップS3000からS3018参照)。   [2] In the candidate deletion process in the merge coding technique, the combined motion information candidates added to the combined motion information candidate list are compared in the order of addition to the list, and the last candidate and the first candidate are further compared. Comparison was made (see steps S3000 to S3018 in FIG. 31).

[3]マージ符号化技術における候補削除処理において、結合動き情報候補リストに含まれる結合動き情報候補の同一性を判定する比較演算処理を予め既定したインデックス対して予め既定した回数行うようにした(図35のステップS3300からS3303、図37、図41のステップS3700からS3704、図43、図47のステップS4200からS4204、図48参照)。   [3] In the candidate deletion process in the merge coding technique, the comparison calculation process for determining the identity of the combined motion information candidates included in the combined motion information candidate list is performed a predetermined number of times for a predetermined index ( (See steps S3300 to S3303 in FIG. 35, steps S3700 to S3704 in FIG. 37, FIG. 41, steps S4200 to S4204 in FIG. 43, and FIG. 48).

[4]マージ符号化技術における候補削除処理において、空間結合情報候補生成処理において生成された結合動き情報候補の数が最大値に満たない場合、結合動き情報候補リストの予め既定したインデックスの結合動き情報候補を、結合動き情報候補の数が最大値になるまで追加してから、結合動き情報を候補の比較演算を行うようにした(図38のステップS3501からS3503参照)。   [4] In the candidate deletion process in the merge coding technique, when the number of combined motion information candidates generated in the spatial combined information candidate generation process is less than the maximum value, the combined motion of a predetermined index in the combined motion information candidate list The information candidates are added until the number of combined motion information candidates reaches the maximum value, and then the combined motion information is subjected to a candidate comparison operation (see steps S3501 to S3503 in FIG. 38).

以上述べた実施の形態の動画像符号化装置が出力する動画像の符号化ストリームは、実施の形態で用いられた符号化方法に応じて復号することができるように特定のデータフォーマットを有しており、動画像符号化装置に対応する動画像復号装置がこの特定のデータフォーマットの符号化ストリームを復号することができる。   The moving image encoded stream output from the moving image encoding apparatus of the embodiment described above has a specific data format so that it can be decoded according to the encoding method used in the embodiment. Therefore, the moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode the encoded stream of this specific data format.

動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネットワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ストリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。   When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted. In that case, a video transmission apparatus that converts the encoded stream output from the video encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.

動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモリと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化データをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化された符号化データをネットワークを介して受信する受信部と、受信された符号化データをバッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動画像復号装置に提供するパケット処理部とを含む。   The moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network. Part. The moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.

また、以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置として実現することができるのは勿論のこと、ROM(Read Only Memory)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送のデータ放送として提供することも可能である。   Further, the above-described processing relating to encoding and decoding can be realized as a transmission, storage, and reception device using hardware, and is stored in a ROM (Read Only Memory), a flash memory, or the like. It can also be realized by firmware or software such as a computer. The firmware program and software program can be recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as a data broadcast of terrestrial or satellite digital broadcasting Is also possible.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

100 入力端子、 101 減算部、 102 直交変換・量子化部、 103 予測誤差符号化部、 104 逆量子化・逆変換部、 105 加算部、 106 復号画像メモリ、 107 動きベクトル検出部、 108 動き補償予測部、 109 予測モード判定部、 110 動き情報符号化部、 111 動き情報メモリ、 112 多重化部、 113 出力端子、 600 入力端子、 601 多重分離部、 602 予測差分情報復号部、 603 逆量子化・逆変換部、 604 加算部、 605 復号画像メモリ、 606 動き情報復号部、 607 動き情報メモリ、 608 動き補償予測部、 609 出力端子、 900 動き補償予測生成部、 901 予測誤差算出部、 902 予測ベクトル算出部、 903 差分ベクトル算出部、 904 動き情報符号量算出部、 905 予測モード評価部、 906 結合動き情報算出部、 907 結合動き補償予測生成部、 1000 空間結合動き情報候補リスト生成部、 1001 結合動き情報候補リスト削除部、 1002 時間結合動き情報候補リスト生成部、 1003 第1結合動き情報候補リスト追加部、 1004 第2結合動き情報候補リスト追加部、 2600 動き情報ビットストリーム復号部、 2601 予測ベクトル算出部、 2602 ベクトル加算部、 2603 動き補償予測復号部、 2604 結合動き情報算出部、 2605 結合動き補償予測復号部、 4000 空間結合動き情報候補リスト生成部、 4001 結合動き情報候補リスト削除部、 4002 時間結合動き情報候補リスト生成部、 4003 第1結合動き情報候補リスト追加部、 4004 第2結合動き情報候補リスト追加部。   100 input terminals, 101 subtraction unit, 102 orthogonal transform / quantization unit, 103 prediction error coding unit, 104 inverse quantization / inverse transform unit, 105 addition unit, 106 decoded image memory, 107 motion vector detection unit, 108 motion compensation Prediction unit, 109 prediction mode determination unit, 110 motion information encoding unit, 111 motion information memory, 112 multiplexing unit, 113 output terminal, 600 input terminal, 601 demultiplexing unit, 602 prediction difference information decoding unit, 603 inverse quantization Inverse transformation unit, 604 addition unit, 605 decoded image memory, 606 motion information decoding unit, 607 motion information memory, 608 motion compensation prediction unit, 609 output terminal, 900 motion compensation prediction generation unit, 901 prediction error calculation unit, 902 prediction Vector calculation unit, 903 Difference vector calculation 904 motion information code amount calculation unit 905 prediction mode evaluation unit 906 combined motion information calculation unit 907 combined motion compensation prediction generation unit 1000 spatial combination motion information candidate list generation unit 1001 combined motion information candidate list deletion unit 1002 Temporal combination motion information candidate list generation unit, 1003 first combination motion information candidate list addition unit, 1004 second combination motion information candidate list addition unit, 2600 motion information bitstream decoding unit, 2601 prediction vector calculation unit, 2602 vector addition unit, 2603 Motion Compensated Prediction Decoding Unit, 2604 Combined Motion Information Calculation Unit, 2605 Combined Motion Compensated Prediction Decoding Unit, 4000 Spatial Combined Motion Information Candidate List Generation Unit, 4001 Combined Motion Information Candidate List Delete Unit, 4002 Temporal Combined Motion Information Candidate List Generation Unit , 4003 First combined motion information candidate list adding unit 4004 Second combined motion information candidate list adding unit.

上記課題を解決するために、本発明のある態様の動画像符号化装置は、動画像データの各ピクチャ分割されたブロック単位で前記動画像データを符号化する動画像符号化装置であって、前記符号化の対象となる符号化対象ブロックを有するピクチャと時間的に異なるピクチャが有する符号化済みのブロックの動き情報を導出し、導出された前記符号化済みのブロックの動き情報から前記符号化対象ブロックの時間動き情報候補を導出し、前記符号化対象ブロックに空間的に近接する所定位置の符号化済みの複数の近接ブロックの動き情報から複数の候補を導出し、導出された前記複数の候補に基づいて空間動き情報候補を導出し、導出された前記時間動き情報候補と前記空間動き情報候補とを含む動き情報候リストを生成する候補リスト生成部(906)と、前記リストに含まれる動き情報候補に基づいて前記符号化対象ブロックの動き情報を導出する結合予測モードで前記符号化を行うか否かを判定する予測モード判定部(109)と、前記結合予測モードで前記符号化を行うか否かを示す情報を符号化し、前記結合予測モードで前記符号化を行う旨の判定がなされた場合に、前記リストに含まれる所定の前記動き情報候補を指定するインデックスを符号化し、符号化された前記インデックスが指定する前記動き情報候補に基づいて前記符号化対象ブロックの動き情報を導出して、前記符号化対象ブロックを符号化する符号化部(103、110)とを備える。前記候補リスト生成部(906)は、前記候補のなかに動き情報が同一のものがある場合は、それら動き情報が同一の候補からは一の前記空間動き情報候補を導出する。 In order to solve the above problems, the moving picture coding apparatus according to one embodiment of the present invention, in blocks each picture is divided moving image data, a video image encoding device for encoding the video data Deriving motion information of an encoded block included in a picture temporally different from a picture having an encoding target block to be encoded, and from the derived motion information of the encoded block Deriving temporal motion information candidates of an encoding target block, deriving a plurality of candidates from motion information of a plurality of encoded neighboring blocks at predetermined positions spatially close to the encoding target block, and the derived derives spatial motion information candidate based on a plurality of candidates, the candidate Li to generate a list of motion information Direction accessory comprising a the derived time motion information candidates and the spatial motion information candidate DOO generating section (906), the prediction mode determination unit determines whether to perform the coding in binding prediction mode for deriving motion information of the encoding target block based on motion information candidates in the list ( 109) and information indicating whether or not to perform the encoding in the joint prediction mode is encoded, and when it is determined that the encoding is performed in the joint prediction mode, predetermined information included in the list is included. the index that specifies the motion information candidate coded, on the basis of the motion information candidates in which the index coded to specify derive the motion information of the encoding target block, encode the encoding target block provided marks Goka section (103, 110). When there is the same motion information among the candidates, the candidate list generation unit (906) derives one spatial motion information candidate from candidates with the same motion information.

本発明のさらに別の態様は、動画像符号化方法である。この方法は、動画像データの各ピクチャ分割されたブロック単位で前記動画像データを符号化する動画像符号化方法であって、前記符号化の対象となる符号化対象ブロックを有するピクチャと時間的に異なるピクチャが有する符号化済みのブロックの動き情報を導出し、導出された前記符号化済みのブロックの動き情報から前記符号化対象ブロックの時間動き情報候補を導出し、前記符号化対象ブロックに空間的に近接する所定位置の符号化済みの複数の近接ブロックの動き情報から複数の候補を導出し、導出された前記複数の候補に基づいて空間動き情報候補を導出し、導出された前記時間動き情報候補と前記空間動き情報候補とを含む動き情報候リストを生成する候補リスト生成ステップと、前記リストに含まれる動き情報候補に基づいて前記符号化対象ブロックの動き情報を導出する結合予測モードで前記符号化を行うか否かを判定する予測モード判定ステップと、前記結合予測モードで前記符号化を行うか否かを示す情報を符号化し、前記結合予測モードで前記符号化を行う旨の判定がなされた場合に、前記リストに含まれる所定の前記動き情報候補を指定するインデックスを符号化し、符号化された前記インデックスが指定する前記動き情報候補に基づいて前記符号化対象ブロックの動き情報を導出して、前記符号化対象ブロックを符号化する符号化ステップとを備える。前記候補リスト生成ステップは、前記候補のなかに動き情報が同一のものがある場合は、それら動き情報が同一の候補からは一の前記空間動き情報候補を導出する。 Yet another aspect of the present invention is a video encoding method. This method, in blocks each picture is divided moving image data, a moving picture encoding method for encoding the moving image data, and the picture having a coding target block to be subjected to the coding Deriving motion information of an encoded block included in temporally different pictures, deriving temporal motion information candidates of the encoding target block from the derived motion information of the encoded block, and the encoding target A plurality of candidates are derived from motion information of a plurality of adjacent blocks that have been encoded at a predetermined position spatially close to the block, and spatial motion information candidates are derived based on the plurality of derived candidates. a candidate list generating step of generating a list of motion information Direction complement containing said time motion information candidate the spatial motion information candidate motion information candidates included in the list A prediction mode determination step for determining whether to perform the encoding in a joint prediction mode for deriving motion information of the block to be encoded based on the information, and information indicating whether to perform the encoding in the joint prediction mode Is encoded, an index specifying a predetermined motion information candidate included in the list is encoded, and the encoded index is specified. said based on the motion information candidate derives the motion information of the encoding target block, and a mark Goka step you encode the encoding target block. In the candidate list generation step, when there is the same motion information among the candidates, one spatial motion information candidate is derived from candidates having the same motion information.

Claims (10)

動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、
符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部と、
前記動き情報算出部から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部とを備え、
前記動き情報算出部は、
前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部と、
前記空間候補リスト生成部により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部と、
前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除部により処理された前記候補リストに追加する時間候補リスト生成部とを含むことを特徴とする動画像符号化装置。
A moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image,
A motion information calculation unit that calculates motion information candidates of the encoding target block and generates a motion information candidate list;
The motion of the designated reference block is designated by designating one neighboring block as a reference block for referring to the motion information from among the neighboring blocks including the motion information in the candidate list output from the motion information calculation unit. When a joint prediction mode that uses information as motion information of the coding target block is selected, using the motion information of the designated reference block obtained from the candidate list output from the motion information calculation unit An encoding unit that encodes the encoding target block and encodes an index indicating a designated reference block;
The motion information calculation unit
A spatial candidate list generating unit that calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and generates a motion information candidate list When,
If there are motion information candidates included in the candidate list generated by the spatial candidate list generation unit that have at least motion vector values that match each other, one of the motion information candidates is selected from the candidate list. A candidate list deletion section to be deleted;
The candidate list processed by the candidate list deletion unit by calculating motion information candidates of the encoding target block using motion information of an encoded adjacent block temporally adjacent to the encoding target block And a time candidate list generation unit to be added to the video encoding device.
動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、
符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部と、
前記動き情報算出部から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部とを備え、
前記動き情報算出部は、
前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部と、
前記空間候補リスト生成部により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部と、
前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除部により処理された前記候補リストに追加する時間候補リスト生成部とを含み、
前記候補リスト削除部は、前記候補リストの配列順において隣り合う候補同士を比較し、かつ、最上位の候補と最下位の候補を比較することにより、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定することを特徴とする動画像符号化装置。
A moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image,
A motion information calculation unit that calculates motion information candidates of the encoding target block and generates a motion information candidate list;
The motion of the designated reference block is designated by designating one neighboring block as a reference block for referring to the motion information from among the neighboring blocks including the motion information in the candidate list output from the motion information calculation unit. When a joint prediction mode that uses information as motion information of the coding target block is selected, using the motion information of the designated reference block obtained from the candidate list output from the motion information calculation unit An encoding unit that encodes the encoding target block and encodes an index indicating a designated reference block;
The motion information calculation unit
A spatial candidate list generating unit that calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and generates a motion information candidate list When,
If there are motion information candidates included in the candidate list generated by the spatial candidate list generation unit that have at least motion vector values that match each other, one of the motion information candidates is selected from the candidate list. A candidate list deletion section to be deleted;
The candidate list processed by the candidate list deletion unit by calculating motion information candidates of the encoding target block using motion information of an encoded adjacent block temporally adjacent to the encoding target block A time candidate list generation unit to be added to
The candidate list deletion unit compares adjacent candidates in the order of arrangement of the candidate lists, and compares the highest candidate with the lowest candidate so that at least the motion vector values match each other. A moving picture coding apparatus that determines whether or not.
動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、
符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部と、
前記動き情報算出部から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部とを備え、
前記動き情報算出部は、
前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部と、
前記空間候補リスト生成部により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部と、
前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除部により処理された前記候補リストに追加する時間候補リスト生成部とを含み、
前記候補リスト削除部は、前記候補リストの配列順において最上位から所定番目までに含まれる候補について、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定することを特徴とする動画像符号化装置。
A moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image,
A motion information calculation unit that calculates motion information candidates of the encoding target block and generates a motion information candidate list;
The motion of the designated reference block is designated by designating one neighboring block as a reference block for referring to the motion information from among the neighboring blocks including the motion information in the candidate list output from the motion information calculation unit. When a joint prediction mode that uses information as motion information of the coding target block is selected, using the motion information of the designated reference block obtained from the candidate list output from the motion information calculation unit An encoding unit that encodes the encoding target block and encodes an index indicating a designated reference block;
The motion information calculation unit
A spatial candidate list generating unit that calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and generates a motion information candidate list When,
If there are motion information candidates included in the candidate list generated by the spatial candidate list generation unit that have at least motion vector values that match each other, one of the motion information candidates is selected from the candidate list. A candidate list deletion section to be deleted;
The candidate list processed by the candidate list deletion unit by calculating motion information candidates of the encoding target block using motion information of an encoded adjacent block temporally adjacent to the encoding target block A time candidate list generation unit to be added to
The candidate list deletion unit determines whether or not there are at least motion vector values that coincide with each other for candidates included from the highest level to a predetermined number in the order of arrangement of the candidate list. Encoding device.
動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、
符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部と、
前記動き情報算出部から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部とを備え、
前記動き情報算出部は、
前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部と、
前記空間候補リスト生成部により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部と、
前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除部により処理された前記候補リストに追加する時間候補リスト生成部とを含み、
前記候補リスト削除部は、前記候補リストに登録された候補数が所定の最大候補数に満たない場合、前記候補リストの最下位の候補を複製して空き候補を埋めた上で、前記候補リストの配列順において隣り合う候補同士を比較し、かつ、最上位の候補と最下位の候補を比較することにより、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定することを特徴とする動画像符号化装置。
A moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image,
A motion information calculation unit that calculates motion information candidates of the encoding target block and generates a motion information candidate list;
The motion of the designated reference block is designated by designating one neighboring block as a reference block for referring to the motion information from among the neighboring blocks including the motion information in the candidate list output from the motion information calculation unit. When a joint prediction mode that uses information as motion information of the coding target block is selected, using the motion information of the designated reference block obtained from the candidate list output from the motion information calculation unit An encoding unit that encodes the encoding target block and encodes an index indicating a designated reference block;
The motion information calculation unit
A spatial candidate list generating unit that calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and generates a motion information candidate list When,
If there are motion information candidates included in the candidate list generated by the spatial candidate list generation unit that have at least motion vector values that match each other, one of the motion information candidates is selected from the candidate list. A candidate list deletion section to be deleted;
The candidate list processed by the candidate list deletion unit by calculating motion information candidates of the encoding target block using motion information of an encoded adjacent block temporally adjacent to the encoding target block A time candidate list generation unit to be added to
The candidate list deletion unit, when the number of candidates registered in the candidate list is less than a predetermined maximum number of candidates, after duplicating the lowest candidate of the candidate list to fill the empty candidates, the candidate list Comparing adjacent candidates in the order of the sequences, and comparing the highest candidate and the lowest candidate to determine whether there is at least a motion vector value that matches each other. A moving image encoding device.
動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、
符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部と、
前記動き情報算出部から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部とを備え、
前記動き情報算出部は、
前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部と、
前記空間候補リスト生成部により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部と、
前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除部により処理された前記候補リストに追加する時間候補リスト生成部とを含み、
前記候補リスト削除部は、前記候補リストに登録された候補数が4である場合に、前記候補リストの配列順において最上位から3番目までについては隣り合う候補同士を比較し、最下位の候補と最上位の候補を比較し、さらに最下位の候補と2番目の候補を比較することにより、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定することを特徴とする動画像符号化装置。
A moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image,
A motion information calculation unit that calculates motion information candidates of the encoding target block and generates a motion information candidate list;
The motion of the designated reference block is designated by designating one neighboring block as a reference block for referring to the motion information from among the neighboring blocks including the motion information in the candidate list output from the motion information calculation unit. When a joint prediction mode that uses information as motion information of the coding target block is selected, using the motion information of the designated reference block obtained from the candidate list output from the motion information calculation unit An encoding unit that encodes the encoding target block and encodes an index indicating a designated reference block;
The motion information calculation unit
A spatial candidate list generating unit that calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and generates a motion information candidate list When,
If there are motion information candidates included in the candidate list generated by the spatial candidate list generation unit that have at least motion vector values that match each other, one of the motion information candidates is selected from the candidate list. A candidate list deletion section to be deleted;
The candidate list processed by the candidate list deletion unit by calculating motion information candidates of the encoding target block using motion information of an encoded adjacent block temporally adjacent to the encoding target block A time candidate list generation unit to be added to
When the number of candidates registered in the candidate list is 4, the candidate list deletion unit compares adjacent candidates for the third to third in the order of arrangement of the candidate list, and the lowest candidate And the highest candidate, and further comparing the lowest candidate with the second candidate to determine whether or not there is at least a motion vector value that matches each other. Device.
動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化装置であって、
符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出部と、
前記動き情報算出部から出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出部から出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化部とを備え、
前記動き情報算出部は、
前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成部と、
前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記空間候補リスト生成部により処理された前記候補リストに追加する時間候補リスト生成部と、
前記時間候補リスト生成部により生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除部とを含み、
前記候補リスト削除部は、前記候補リストの配列順において最上位から所定番目までに含まれる候補について、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定することを特徴とする動画像符号化装置。
A moving image encoding apparatus that encodes the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image,
A motion information calculation unit that calculates motion information candidates of the encoding target block and generates a motion information candidate list;
The motion of the designated reference block is designated by designating one neighboring block as a reference block for referring to the motion information from among the neighboring blocks including the motion information in the candidate list output from the motion information calculation unit. When a joint prediction mode that uses information as motion information of the coding target block is selected, using the motion information of the designated reference block obtained from the candidate list output from the motion information calculation unit An encoding unit that encodes the encoding target block and encodes an index indicating a designated reference block;
The motion information calculation unit
A spatial candidate list generating unit that calculates motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block, and generates a motion information candidate list When,
The candidate processed by the spatial candidate list generation unit by calculating motion information candidates of the encoding target block using motion information of an encoded adjacent block temporally adjacent to the encoding target block A time candidate list generator to be added to the list;
If there are motion information candidates included in the candidate list generated by the time candidate list generation unit that have at least the same motion vector values, one of the motion information candidates is selected from the candidate list. A candidate list deletion section to be deleted,
The candidate list deletion unit determines whether or not there are at least motion vector values that coincide with each other for candidates included from the highest level to a predetermined number in the order of arrangement of the candidate list. Encoding device.
動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化方法であって、
符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出ステップと、
前記動き情報算出ステップから出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出ステップから出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化ステップとを備え、
前記動き情報算出ステップは、
前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成ステップと、
前記空間候補リスト生成ステップにより生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除ステップと、
前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除ステップにより処理された前記候補リストに追加する時間候補リスト生成ステップとを含むことを特徴とする動画像符号化方法。
A moving image encoding method for encoding the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image,
A motion information calculating step of calculating motion information candidates of the encoding target block and generating a motion information candidate list;
The motion of the designated reference block is designated by designating one neighboring block as a reference block for referring to the motion information from among the neighboring blocks having the motion information in the candidate list output from the motion information calculating step. When joint prediction mode using information as motion information of the coding target block is selected, using the motion information of the designated reference block obtained from the candidate list output from the motion information calculation step An encoding step of encoding the block to be encoded and encoding an index indicating a designated reference block;
The motion information calculating step includes
A spatial candidate list generation step of calculating motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block and generating a motion information candidate list When,
If there are motion information candidates included in the candidate list generated by the spatial candidate list generation step that have at least motion vector values that match each other, one of the motion information candidates is selected from the candidate list. A candidate list deletion step to be deleted;
The candidate list processed by the candidate list deletion step by calculating motion information candidates of the encoding target block using the motion information of the encoded adjacent block temporally adjacent to the encoding target block And a time candidate list generation step to be added to the video encoding method.
動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化方法であって、
符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出ステップと、
前記動き情報算出ステップから出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出ステップから出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化ステップとを備え、
前記動き情報算出ステップは、
前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成ステップと、
前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記空間候補リスト生成ステップにより処理された前記候補リストに追加する時間候補リスト生成ステップと、
前記時間候補リスト生成ステップにより生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除ステップとを含み、
前記候補リスト削除ステップは、前記候補リストの配列順において最上位から所定番目までに含まれる候補について、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定することを特徴とする動画像符号化方法。
A moving image encoding method for encoding the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image,
A motion information calculating step of calculating motion information candidates of the encoding target block and generating a motion information candidate list;
The motion of the designated reference block is designated by designating one neighboring block as a reference block for referring to the motion information from among the neighboring blocks having the motion information in the candidate list output from the motion information calculating step. When joint prediction mode using information as motion information of the coding target block is selected, using the motion information of the designated reference block obtained from the candidate list output from the motion information calculation step An encoding step of encoding the block to be encoded and encoding an index indicating a designated reference block;
The motion information calculating step includes
A spatial candidate list generation step of calculating motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block and generating a motion information candidate list When,
The candidate processed by the spatial candidate list generation step by calculating motion information candidates of the encoding target block using motion information of an encoded adjacent block temporally adjacent to the encoding target block A time candidate list generation step to be added to the list;
If there are motion information candidates included in the candidate list generated by the time candidate list generation step that have at least motion vector values that match each other, one of the motion information candidates is selected from the candidate list. A candidate list deletion step to be deleted,
The candidate list deleting step determines whether or not there are at least motion vector values that coincide with each other among candidates included from the highest level to a predetermined number in the order of arrangement of the candidate lists. Encoding method.
動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化プログラムであって、
符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出ステップと、
前記動き情報算出ステップから出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出ステップから出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化ステップとをコンピュータに実行させ、
前記動き情報算出ステップは、
前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成ステップと、
前記空間候補リスト生成ステップにより生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除ステップと、
前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記候補リスト削除ステップにより処理された前記候補リストに追加する時間候補リスト生成ステップとを含むことを特徴とする動画像符号化プログラム。
A moving image encoding program for encoding the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image,
A motion information calculating step of calculating motion information candidates of the encoding target block and generating a motion information candidate list;
The motion of the designated reference block is designated by designating one neighboring block as a reference block for referring to the motion information from among the neighboring blocks having the motion information in the candidate list output from the motion information calculating step. When joint prediction mode using information as motion information of the coding target block is selected, using the motion information of the designated reference block obtained from the candidate list output from the motion information calculation step And encoding the block to be encoded and encoding the index indicating the designated reference block, and causing the computer to execute,
The motion information calculating step includes
A spatial candidate list generation step of calculating motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block and generating a motion information candidate list When,
If there are motion information candidates included in the candidate list generated by the spatial candidate list generation step that have at least motion vector values that match each other, one of the motion information candidates is selected from the candidate list. A candidate list deletion step to be deleted;
The candidate list processed by the candidate list deletion step by calculating motion information candidates of the encoding target block using the motion information of the encoded adjacent block temporally adjacent to the encoding target block And a time candidate list generation step to be added to the video encoding program.
動画像の各ピクチャを分割したブロック単位で動きベクトルを用いて前記動画像を符号化する動画像符号化プログラムであって、
符号化対象ブロックの動き情報の候補を算出し、動き情報の候補リストを生成する動き情報算出ステップと、
前記動き情報算出ステップから出力される前記候補リスト内の動き情報を備える隣接ブロックの中から一つの隣接ブロックを、動き情報を参照するための参照ブロックとして指定して、指定された参照ブロックの動き情報を前記符号化対象ブロックの動き情報として使用する結合予測モードが選択された場合に、前記動き情報算出ステップから出力される前記候補リストから得た前記指定された参照ブロックの動き情報を用いて、前記符号化対象ブロックを符号化するとともに、指定された参照ブロックを示すインデックスを符号化する符号化ステップとをコンピュータに実行させ、
前記動き情報算出ステップは、
前記符号化対象ブロックに空間的に隣接する複数の符号化済みの隣接ブロックの動き情報を前記符号化対象ブロックの動き情報の候補として算出し、動き情報の候補リストを生成する空間候補リスト生成ステップと、
前記符号化対象ブロックに時間的に隣接する符号化済みの隣接ブロックの動き情報を利用して前記符号化対象ブロックの動き情報の候補を算出し、前記空間候補リスト生成ステップにより処理された前記候補リストに追加する時間候補リスト生成ステップと、
前記時間候補リスト生成ステップにより生成された前記候補リストに含まれる動き情報の候補の中で、互いに少なくとも動きベクトル値が一致するものがある場合、いずれか一方の動き情報の候補を前記候補リストから削除する候補リスト削除ステップとを含み、
前記候補リスト削除ステップは、前記候補リストの配列順において最上位から所定番目までに含まれる候補について、互いに少なくとも動きベクトル値が一致するものがあるか否かを判定することを特徴とする動画像符号化プログラム。
A moving image encoding program for encoding the moving image using a motion vector in units of blocks obtained by dividing each picture of the moving image,
A motion information calculating step of calculating motion information candidates of the encoding target block and generating a motion information candidate list;
The motion of the designated reference block is designated by designating one neighboring block as a reference block for referring to the motion information from among the neighboring blocks having the motion information in the candidate list output from the motion information calculating step. When joint prediction mode using information as motion information of the coding target block is selected, using the motion information of the designated reference block obtained from the candidate list output from the motion information calculation step And encoding the block to be encoded and encoding the index indicating the designated reference block, and causing the computer to execute,
The motion information calculating step includes
A spatial candidate list generation step of calculating motion information of a plurality of encoded adjacent blocks spatially adjacent to the encoding target block as motion information candidates of the encoding target block and generating a motion information candidate list When,
The candidate processed by the spatial candidate list generation step by calculating motion information candidates of the encoding target block using motion information of an encoded adjacent block temporally adjacent to the encoding target block A time candidate list generation step to be added to the list;
If there are motion information candidates included in the candidate list generated by the time candidate list generation step that have at least motion vector values that match each other, one of the motion information candidates is selected from the candidate list. A candidate list deletion step to be deleted,
The candidate list deleting step determines whether or not there are at least motion vector values that coincide with each other among candidates included from the highest level to a predetermined number in the order of arrangement of the candidate lists. Encoding program.
JP2011289669A 2011-12-28 2011-12-28 Video encoding device, video encoding method, and video encoding program Pending JP2013141077A (en)

Priority Applications (12)

Application Number Priority Date Filing Date Title
JP2011289669A JP2013141077A (en) 2011-12-28 2011-12-28 Video encoding device, video encoding method, and video encoding program
TW106103713A TWI607650B (en) 2011-12-28 2012-12-28 Motion picture decoding apparatus, motion picture decoding method, and motion picture decoding program
TW101151068A TWI559747B (en) 2011-12-28 2012-12-28 A dynamic image coding apparatus, a motion picture coding method, and a motion picture decoding apparatus, a motion picture decoding method, and a motion picture decoding program
TW107103503A TWI647950B (en) 2011-12-28 2012-12-28 Dynamic image decoding device, dynamic image decoding method, and recording medium
PCT/JP2012/008443 WO2013099288A1 (en) 2011-12-28 2012-12-28 Video encoding device, video encoding method and video encoding program, and video decoding device, video decoding method and video decoding program
TW105126912A TWI577181B (en) 2011-12-28 2012-12-28 Dynamic video coding device, dynamic image coding method and dynamic image coding program
TW106135749A TWI618401B (en) 2011-12-28 2012-12-28 Motion picture coding device, motion picture coding method and memory medium
US14/299,830 US9848187B2 (en) 2011-12-28 2014-06-09 Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US15/810,543 US10097849B2 (en) 2011-12-28 2017-11-13 Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US16/052,656 US10171830B1 (en) 2011-12-28 2018-08-02 Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US16/052,657 US10165299B2 (en) 2011-12-28 2018-08-02 Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
US16/052,655 US10165298B1 (en) 2011-12-28 2018-08-02 Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011289669A JP2013141077A (en) 2011-12-28 2011-12-28 Video encoding device, video encoding method, and video encoding program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015148396A Division JP6065069B2 (en) 2015-07-28 2015-07-28 Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program

Publications (1)

Publication Number Publication Date
JP2013141077A true JP2013141077A (en) 2013-07-18

Family

ID=49038171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011289669A Pending JP2013141077A (en) 2011-12-28 2011-12-28 Video encoding device, video encoding method, and video encoding program

Country Status (1)

Country Link
JP (1) JP2013141077A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014509480A (en) * 2011-01-27 2014-04-17 クゥアルコム・インコーポレイテッド Perform motion vector prediction for video coding

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012102927A1 (en) * 2011-01-27 2012-08-02 Qualcomm Incorporated Performing motion vector prediction for video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012102927A1 (en) * 2011-01-27 2012-08-02 Qualcomm Incorporated Performing motion vector prediction for video coding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6015000680; Guillaume LAROCHE, Tangi POIRIER, Patrice ONNO: Non-CE9: On parallel derivation of the temporal predictor for Merge/Skip modes , 20111121, Joint Collaborative Team on Video Coding (JCT-VC) *
JPN6015016680; Thomas Wiegand et al.: WD1: Working Draft 1 of High-Efficiency Video Coding , 20110106, 第8.4.2.1.4欄, Joint Collaborative Team on Video Coding (JCT-VC) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014509480A (en) * 2011-01-27 2014-04-17 クゥアルコム・インコーポレイテッド Perform motion vector prediction for video coding
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding

Similar Documents

Publication Publication Date Title
WO2013099288A1 (en) Video encoding device, video encoding method and video encoding program, and video decoding device, video decoding method and video decoding program
WO2013140807A1 (en) Video coding device, video coding method, video coding program, transmission device, transmission method, and transmission program, as well as video decoding device, video decoding method, video decoding program, receiving device, receiving method, and receiving program
JP6065069B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program
JP6414307B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP6065070B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP6399182B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP6399183B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP6399184B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP6406409B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP6406408B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP6311782B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
JP6323543B2 (en) Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
JP2013141077A (en) Video encoding device, video encoding method, and video encoding program
JP2013141078A (en) Video decoding device, video decoding method, and video decoding program
WO2013021617A1 (en) Moving image encoding apparatus, moving image encoding method, moving image encoding program, moving image decoding apparatus, moving image decoding method, and moving image decoding program
JP2015035660A (en) Image encoder, image encoding method, and image encoding program
JP2013042235A (en) Apparatus, method and program for encoding moving image
JP2013106312A (en) Image encoder, image encoding method and image encoding program
JP2013201532A (en) Moving image decoding device, moving image decoding method, moving image decoding program, receiving device, receiving method, and receiving program
US20230362391A1 (en) Template matching in video coding
JP2013201531A (en) Moving image encoding device, moving image encoding method, moving image encoding program, transmission device, transmission method, and transmission program
JP2013042236A (en) Apparatus, method and program for encoding moving image
JP2013145974A (en) Video decoding device, video decoding method, and video decoding program
JP2013145973A (en) Video encoding device, video encoding method, and video encoding program
JP2013106313A (en) Image decoder, image decoding method and image decoding program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150428